Resampling Methode

Alles rund um Hard- und Software, die man zur Bildbearbeitung benötigt.
Antworten
Falkenhorst
Beiträge: 3
Registriert: Donnerstag 22. November 2012, 16:32

Resampling Methode

Beitrag von Falkenhorst » Donnerstag 22. November 2012, 18:20

Guten Tag,
ich habe eine Lumix DMC-FX50. Meine Frage , wer weiss die Resampling Methode von dieser Kamera.
Das Programm Image Analyser für Bildverarbeitung bietet viele Resampling Methoden an
Cardinal sine
Bikubische Kurve
Lanczos,a=2 oder a=3
Pixelgrößen anpassen
Bilineare Interpolation

welche Reampling Methode soll ich nun verwenden ? Oder welche ist zu empfehlen ?
Die Pixelgröße wird durch die unterschiedlichen Methoden verändert ohne die Bildgröße zu verändern.

viele Grüße Falkenhorst

ThomasT
Beiträge: 2695
Registriert: Montag 9. Juli 2012, 20:19

Re: Resampling Methode

Beitrag von ThomasT » Donnerstag 29. November 2012, 18:12

Für was?
Lumix G3, GF3
Blackmagic Pocket Cinema Camera (super16 sensor, Cropfaktor 2.88 KB)
Panasonic 7-14, Laowa 7.5 mm, SLR Magic Hyperprime 12 mm, Panasonic 14-42, Sigma 19, Panasonic 20, Panasonic 45-150
Pentacon 29/f2.8, Pentacon 50/f1.8, Pentacon 135/f2.8

Falkenhorst
Beiträge: 3
Registriert: Donnerstag 22. November 2012, 16:32

Re: Resampling Methode

Beitrag von Falkenhorst » Donnerstag 29. November 2012, 20:03

Guten Abend,
wenn ich meine Bilder verkleinern möchte, dann wird in meinem Programm nach der Resampling Methode gefragt.
Die unterschiedlichen Resampling Methoden unterschiedliche Speichergröße bei gleicher Bildgröße.
So stellt sich bei mir die Frage nach der richtigen Resampling Methode.

viele Grüße Falkenhorst

ThomasT
Beiträge: 2695
Registriert: Montag 9. Juli 2012, 20:19

Re: Resampling Methode

Beitrag von ThomasT » Freitag 30. November 2012, 02:29

Bei gleicher Bildgröße (==gleich Pixelanzahl und Farbauflösung), ist das Bild auch gleichgroß. Egal(!) mit welcher Methode das vergrößert oder verkleinert wurde.
ABER: wird dieses Bild komprimiert gespeichert, dann könnten sich unterschiedliche Größen bei gleicher JPEG-Qualitätsstufe ergeben. Groß gesagt funktioniert JPEG so, dass der Algorithmus das Bild in Frequenzen (discrete cosinus transformation DCT falls es jemand interessiert) analysiert und je nach Vorhandensein dieser Frequenzen, diese mit geringer Auflösung oder gar nicht mehr speichert. Kleine Details und scharfe Kanten sind hohe (Orts-)Frequenzen, weiches verwaschenes niedrige. Bei größerer Kompression filtert der Algorithmus die hohen Frequenzen mehr und mehr weg. Es wird unschärfer und es kommt zu den "Überschwingern". Das geschieht blockweise. Deswegen sieht man auch die Blockbildung, weil die Blockkanten nicht mit weggeglättet werden.
Ist nun ein Bild unscharf kann der Algorithmus gut arbeiten. Das Bild ist kleiner. Hat das Bild nun mehr Details oder Rauschen oder gar künstliche Artefakte durch Interpolationsalgorithmus wie Treppchenbildung dann kann der JPEG-Algorithmus nur weniger hohe Frequenzen weglassen. Die Bilddatei wird größer.

Das dazu.

Die Resampling Methode gibt den Algorithmus an, wie Zwischenpixel beim Verkleinern und Vergrößern, Verzerren etc. neuberechnet werden.
Auch wenn man mit genau 50% verkleinert kann man nicht einfach jeden 2. Pixel nehmen, sondern muss die neuen Pixel auch als Zwischenpixel neu berechnen. Es spielt keine Rolle, dass die neuen Pixel an der selben Stelle liegen. (btw. ein in der Audiotechnik oft gemachter Irrtum, dass von 88.2kHz auf 44.1kHz downgesamplet es besser Ergebnisse gibt, als wenn man von 96kHz auf 44.1kHz geht. Stimmt nicht!) Genaugenommen arbeitet der Algorithmus invers. Es werden nicht die neuen Pixel berechnet, sondern es wird berechnet wo die neuen Pixel im Originalbild liegen würden wenn man das neue Bild in das Original umrechnen würde und diese Pixel berechnet.
Egal. Das nur zum Verständnis.

Die schlechteste Methode ist "nearest Neigtbour" - man nimmt einfach den am nächten liegenden alten Pixel. Führt zu Treppchenbildung bei gleichzeitiger Unschärfe -> schlecht.
Die nächstbeste Methode ist "Bilinear" (das Bi weil Bilder ja zweidimensional sind). Man nimmt einfach die 4 um den zu berechneten Pixel liegenden Originalpixel und interpoliert linear. Vorteil schnell, Nachteil unscharf.

Das theoretisch-mathematische Ideal ist die SI-Funktion, auch Spaltfunktion genannt = sin x/ x. Oder eben Cardinal sine. Problem dabei: es müssen unendlich(!) viele Pixel dafür genommen werden. Da das nicht geht, muss man Kompromisse machen. Das Ergebnis ist nicht ideal. Ob besser oder schlechter als bikubisch ist? Keine Ahnung. Theoretisch müsste es besser sein. Aber die Theorie muss soviel Kompromisse eingehen ...

Das Übliche ist die Bikubische Interpolation. Hier werden 16 Pixel um den neu zu brechnenten herangezogen. Es wird mittels kubischer Splines (eine mathemathische Funktion ... ) im Grund eine begrenzter Ausschnitt der SI-Funktion approximiert. Gute Ergbnisse, aber auch leicht unscharf. Kriegt man durch leichtes Schärfen (Radius z.B. 0.3-0.5 beim verkleinern, ca. 1-1.5 beim Vergrößern) aber in den Griff. Lanczos ist eine andere Approximatione einer begrentzen SI-Funktion. Wobei der negative Anteil stärker ist. Damit ist er etwas schärfer. Erzeugt aber auch wie ein Schärfefilter neue Artefakte. 2 ist eher wie Bicubic, 3 schärfer. Korrekterweise müsste das Bild beim Verkleinern noch weich gezeichnet werden (wegen Antialiasing). Lanczos kann schärfer aussehende Bilder liefern.
Aber der Unterschied ist marginal. Probiers aus.

Mein Vorschlag: Bikubisch und manuell vorsichtig Nachschärfen.

Hoffe das hilft.
Lumix G3, GF3
Blackmagic Pocket Cinema Camera (super16 sensor, Cropfaktor 2.88 KB)
Panasonic 7-14, Laowa 7.5 mm, SLR Magic Hyperprime 12 mm, Panasonic 14-42, Sigma 19, Panasonic 20, Panasonic 45-150
Pentacon 29/f2.8, Pentacon 50/f1.8, Pentacon 135/f2.8

Falkenhorst
Beiträge: 3
Registriert: Donnerstag 22. November 2012, 16:32

Re: Resampling Methode

Beitrag von Falkenhorst » Freitag 30. November 2012, 11:35

Hallo ThomasT,
vielen Dank für deine ausführlichen Erläuterungen.

Falkenhorst

Antworten

Zurück zu „Bildbearbeitung“