Vergleich Dynamikumfang Mittelformat, APS-C und 2/3"

ANZEIGE

flysurfer

Gründungsmitglied
Teammitglied
06.03.2009
26.000
36
www.vielfliegertreff.de
ANZEIGE
Es wird immer wieder gefragt, welchen Dynamikvorteil größere Sensoren gegenüber kleineren haben. Hierzu kann man sich in einer ersten Annäherung auf dpreview Vergleiche hinsichtlich der Exposure Latitude ansehen, die Auskunft darüber gehen, wie es aussieht, wenn man einen jeweils gleich belichteten Sensor über mehrere Blendenstufen pusht.

Dabei bemerkt man schnell, dass zum Beispiel eine "kostengünstige" Leica SL mit "Vollformatsensor" nicht mehr Dynamikspielraum liefert als aktuelle APS-C-Kameras von Nikon (oder eine wahnsinnspreisige X-T2). Wir sehen: Der Dynamikumfang hängt nicht nur von der Sensorgröße, sondern erst einmal von der Sensorqualität ab. Ohne zeitgemäße ISOlose Sensoren ist ein erweiterter Dynamikumfang grundsätzlich ausgeschlossen, weil das Sensorrauschen (read noise) uns einen Strich durch die Rechnung macht.

Doch irgendwann kommt immer auch der Punkt, wo das Motivrauschen (shot noise) überhand nimmt. In solchen Situation hat der große Sensor einen grundsätzlichen Vorteil, weil er aufgrund der größeren Fläche einfach mehr Licht sammeln kann als ein kleiner Sensor.

Wenn wir also davon ausgehen, dass wir zeitgemäße, ISOlose Sensoren mit sehr geringem Sensorrauschen verwenden, wird uns ein großer Sensor dieser Bauart immer mehr Dynamikumfang liefern als ein kleiner.

Fujifilm verbaut bereits seit vielen Jahren ISOlose Sensoren, schließlich ist das Thema "erweiterte Dynamik" schon seit langer Zeit ein Steckenpferd des Unternehmens. Stichwort DR-Funktion, Stichwort EXR, Stichwort S/R-Pixel.

In der X-Serie finden wir mittlerweile drei verschiedene Sensorgrößen: 2/3" (z.B. X30), APS-C (z.B. X-T2) und G-Format (z.B. GFX 50S), und alle drei genannten Kameras operieren weitgehend ISOlos. Mich hat deshalb interessiert, wie sich diese drei Modelle praktisch hinsichtlich ihres Dynamikumfangs unterscheiden.

Dies habe ich anhand eines praxisnahen Beispielbildaufbaus und einer praktischen Testmethode ermittelt, die über das hinausgeht, was uns dpreview mit ihren Vergleichswerkzeugen für Exposure Latitude und ISO-Invarianz bieten.

Denn was bei diesen Tests unberücksichtigt bleibt ist die Sättigungsgrenze des jeweiligen Sensors.

Mit anderen Worten: dpreview testet zwar, wie weit man jeweils identisch belichtete Sensoren pushen kann, bis es "unschön" wird, doch das ist nur die halbe Wahrheit, wenn es um die praktische Anwendung geht. Denn in der Praxis bilden unterschiedliche Sensoren auch ohne Push schon unterschiedliche Kontrastumfänge ab, und sie besitzen unterschiedliche Sättigungsgrenzen.

Praktisch bedeutet das: Ich kann eine kontrastreiche Szene mit sehr hellen und dunklen Bildbereichen vielleicht mit Kamera/Sensor A etwas heller belichten als mit Kamera/Sensor B, ohne dass bildwichtige Lichter ausfressen. Um den gewünschten Dynamikumfang im fertigen Bild zu erzielen, muss ich das RAW aus Kamera/Sensor A dann nicht so weit pushen wie das RAW aus Kamera/Sensor B. Selbst wenn Kamera/Sensor A und B beim Studio-Vergleich auf dpreview also eine identische Exposure Latitude aufweisen, hat Kamera/Sensor A in der Praxis einen Dynamikvorteil. Denn in der Praxis können wir ja in den meisten Fällen einfach so belichten, dass der Sensor optimal gesättigt wird.

Für mich bestand die Aufgabe deshalb darin, bei den drei zu vergleichenden Kameras erst einmal ihre individuelle Sättigungsgrenze (photo saturation) zu ermitteln und anschließend drei jeweils optimal gesättigte RAW-Dateien hinsichtlich ihres Push-Potenzials zu vergleichen. Das ist ein anderer, praxisnäherer Test als der, den wir auf dpreview finden.

Als erstes brauchen wir ein passendes Testmotiv. Dieses muss einen sehr hohen Kontrastumfang aufweisen, inkl. ausfressender Lichter und absaufender Schatten:



So sieht das Motiv mit der GFX aus, und so mit der X30:



Und hier noch die X-T2:



Wie wir sehen, sind die Unterschiede im Zustand der noch nicht erfolgten Dynamikerweiterung erstmal minimal. Wie aber können wir sicher sein, dass unsere Belichtungen exakt an der Sättigungsgrenze des jeweiligen Sensors liegen?

Ganz einfach: Wir machen mit jeder Kamera eine Belichtungsreihe bei Basis-ISO, verlängern die Verschlusszeit also in 1/3-EV-Schritten, bis die Überbelichtung bei den bildwichtigen Lichtern im JPEG (Live-View, Histogramm) so ausgeprägt ist, dass wir ganz sicher sein können, dass wir sie nicht mehr retten können. Anschließend ermitteln wir im RAW-Konverter unserer Wahl (in diesem Fall Lightroom) jenes RAW, bei dem die bildwichtigen Lichter nicht mehr exakt so aussehen wie beim 1/3-EV knapper belichteten Vorgänger. Dieser Vorgänger ist dann das perfekt an der Sättigungsgrenze belichtete Bild.

Hierzu müssen wir natürlich für uns festlegen, was wir als "bildwichtige Lichter" betrachten und was nicht. In diesem Fall sind die bildwichtigen Lichter die weißen Flächen im Kopf des Pferdes. Auf diese Stelle wurde also bei allen drei Kameras belichtet und dann das RAW mit der längsten Belichtungszeit gewählt, das sich an dieser Stelle (natürlich in einer normalisierten Ansicht) nicht von den knapper belichteten RAWs unterscheidet.

Dabei konnte ich feststellen, dass X-T2 und X30 praktisch identische Sättigungsgrenzen besitzen. Anders gesagt: Ein optimal auf die bildwichtigen Lichter belichtetes Bild erscheint auch insgesamt gleich hell, was man auch anhand der Histogramme direkt sehen konnte. Als Basis diente dabei in Lightroom in allen drei Fällen die "Adobe Standard"-Kalibrierung mit ihrem grundsätzlich hohen Dynamikumfang.

Was jedoch auffiel war, dass die GFX 50S genau 1/3 EV heller als die beiden anderen Kameras belichtet werden konnte, ohne dass die bildwichtigen Lichter ausfraßen. Damit wurden natürlich auch der Rest des Motivs (also auch die dunklen, abgesoffenen Bereiche) 1/3 EV heller belichtet. Überraschend? Nicht wirklich, schließlich schreibt Fujifilm in der ersten Folge ihres Technologie-Reports zur GFX:

Extended Photic Saturation Point

Here is another way FUJIFILM achieves ultimate image quality. The GFX sensor goes through a special process in the manufacturing step. With the process, the photic saturation point of the sensor is extended and wider dynamic range is realized as a result. The dynamic range becomes 1/3 step wider. This wider dynamic range is a result of extended photic saturation point, so the images are 1/3 tougher against over-exposure.

This extended photic saturation becomes most effective when the sensitivity is set at ISO 100. This is why ISO 100 is highly recommended, unless you need to have the sensitivity higher.

Was für ein Zufall! Und in der Tat scheint Fujifilm hier nicht zu viel versprochen haben, denn in meinem kleinen Test lag die Sättigungsgrenze der GFX tatsächlich genau 1/3 EV über der jeweiligen Grenze bei den Vergleichskameras X30 und X-T2.

Anders gesagt: Die GFX 50S können wir im Vergleich zu anderen X-Kameras 1/3 EV heller belichten (zumindest bei Basis-ISO 100), ohne dass bildwichtige Lichter im RAW unwiederherstellbar ausfressen.

Nachdem wir drei für jede der Kameras optimal belichtete RAW-Dateien ermitteln haben, geht es nun darum, sie zu normalisieren und den Dynamikumfang zu erweitern. Mit Lightroom ist das kein Problem, weil die Regler dort (im Gegensatz zu den meisten anderen Konvertern) genug Spielraum bieten, um die Belichtung anzupassen, Schatten aufzuhellen und dabei ausfressende Lichter wiederherzustellen.

Hier nun die drei Aufnahmen mit entsprechend erweiterter Dynamik:









Zu einem normalisierten Vergleich gehört neben einer Anpassung des Weißabgleichs und einer möglichst identischen Helligkeitsverteilung natürlich auch, die Auflösung zu vereinheitlichen. In diesem Fall wurden alle drei Aufnahmen auf 12 MP angepasst (was der nativen Auflösung der X30 entspricht), sprich 4000 Pixel Breite (was bei der X-T2 aufgrund ihres Seitenverhältnisses von 3:2 freilich zu etwas weniger Pixeln führt, weil oben und unten etwas fehlt).


Solange man sich die Beispiele in Forenauflösung ansieht, schlagen sich alle drei Kameras recht gut. Sicherlich haben einige hier der X30 nicht diesen Dynamikumfang zugetraut. Dpreview auch nicht, deshalb testen sie Kameras wie die X30 gar nicht erst hinsichtlich des Dynamikumfangs.

Das Bild ändert sich freilich auf Pixelebene, deshalb gibt es hier nun 100%-Ausschnitte. Wie immer gilt: Auf das Bild klicken, um es in groß zu sehen.



Zwei Dinge stechen hier ins Auge:

1.) 12 MP ist nicht gleich 12 MP: Das auf 12 MP verkleinerte Bild aus der GFX zeigt deutlich mehr Details als die entsprechenden Aufnahmen aus der X-T2 und insbesondere X30, gut zu sehen an der kleinen Schrift sowie anderen Details im Color Checker. Der Mythos, dass höhere Auflösungen für "normale Anwendungen" und "normale Betrachtungsgrößen" unnötig sind, wird hier erneut demaskiert. Denn 12 MP (bzw. eine Kantenbreite von 4000 Pixeln) ist ja bloß 4K – das Standardformat moderner Bildschirme. Ein heruntergerechnetes 4K-Bild aus einer GFX ist einem heruntergerechneten 4K-Bild aus einer X-T2 und erst Recht einem nativen Bild aus einer X30 klar überlegen.

2.) In den dunklen Bereichen zeigen sich klare Unterschiede zwischen den Kameras, die sich auf die Sensorgrößen (shot noise) zurückführen lassen. Nicht nur das Motivrauschen fällt bei den kleineren Sensoren zunehmend negativ auf, sondern auch gut erkennbare Tonwertabrisse. Das war natürlich zu erwarten, schließlich konnten die kleineren Sensoren weniger Licht einfangen, sodass feine Tonwertunterschiede vom Motivrauschen überlagert wurden. Das Nutzsignal wurde in diesen Bereichen vom Motivrauschen überwältigt – die feine Tonwertabstufung steht den kleineren Sensoren also schon motivseitig nicht mehr zur Verfügung. Und was gar nicht erst aufgezeichnet wurde, sieht man natürlich auch nicht nach der Verstärkung. Alles, was verstäkt wurde, ist das Rauschen des Motivs – also das Störsignal, das dann umso deutlicher in Erscheinung tritt.

Wir dürfen eins nicht vergessen: Auch wenn wir gleich große 100%-Ausschnitte aus 12 MP großen JPEGs vergleichen, so stand der GFX für diesen Ausschnitt doch eine viel größere Sensorfläche als der X-T2 und der X30 zur Verfügung. Dementsprechend bekam der große Sensor (selbst bei identischer Belichtung) deutlich mehr Photonen als der kleinere ab und damit deutlich weniger Motivrauschen. Denn mehr Photonen = mehr Nutzsignal = weniger Motivrauschen.

Wir können die Tonwertabrisse noch sichtbarer machen, indem wir die Warnung für abgesoffene Schatten aktivieren und erneut vergleichen:



Hier sehen wir sofort, dass lediglich die GFX eine "perfekte" Tonwertwiedergabe zeigt. X-T2 und X30 hatten es mit ihren kleineren Lichtfängern einfach schwerer, und dementsprechend gibt es hier Bereiche, die auch nach dem Push ohne Zeichnung schwarz bleiben und "absaufen".

Dieses Ergebnis kommt nicht überraschend, sondern entspricht vielmehr unseren Erwartungen, wenn wir moderne Sensoren vergleichen, die selber kaum rauschen (minimaler read noise), sodass das Motivrauschen (shot noise) den Performance-Ausschlag gibt. Größere Formate sind deshalb hinsichtlich einer besseren Dynamik nur dann sinnvoll, wenn sie dem Stand der Technik entsprechen und ISOlos arbeiten.

Allerdings spielt auch der jeweilige Sättigungspunkt eine Rolle. Mal provozierend gefragt: Hat eigentlich mal jemand getestet, wo der Sättigungspunkt von ausgesprochenen Versagerkameras wie einer Leica Q oder einer Canon EOS 5 Mk3 liegt? Es könnte ja sein, dass man deren RAWs auch 1/3 EV (oder vielleicht sogar noch mehr) heller belichten kann, ohne dass die bildwichtigen Lichter unwiederherstellbar ausfressen, was ihren fundamentalen Nachteil wenigstens zu einem Teil ausgleichen könnte. Schade, dass Technik-Websites wie dpreview mit ihren gut bezahlten Redakteuren lieber inkompetente Testberichte schreiben ("Die X-T20 hat bei Video keine Gesichtserkennung") oder Grabenkämpfe initiieren ("Thinking of buying a GFX?") anstatt sich einfach nur von ihrer Neugier leiten zu lassen und sich solcher Themen objektiv und ohne Vorbehalte anzunehmen.

Wer selber mit den drei RAWs spielen möchte, kann sie sich gerne hier herunterladen: https://www.dropbox.com/sh/cad1flpz9xe8h7l/AABydf_pPcLH36Whx3WwU-Nka?dl=0
 
Zuletzt bearbeitet:

Steuyvesant

Gesperrt
18.03.2017
38
0
Spielt das ganze angesichts heutzutage bereits in der Kamera installierter HDR-Funktion noch eine praktische Rolle in der Reisefotografie?
 

flysurfer

Gründungsmitglied
Teammitglied
06.03.2009
26.000
36
www.vielfliegertreff.de
Spielt das ganze angesichts heutzutage bereits in der Kamera installierter HDR-Funktion noch eine praktische Rolle in der Reisefotografie?

HDR eignet sich in der klassischen Ausprägung nur für Motive, die sich nicht oder kaum bewegen. Dadurch dass Lightroom mittlerweile das Verschmelzen mehrerer RAW-Dateien zu einem HDR-DNG erlaubt, gewinnt die Methode jedoch grundsätzlich wieder an Bedeutung. Dadurch kann man den Dynamikbereich mit nur einer zusätzlichen Aufnahme um weitere 3 EV erweitern. Das Problem dabei ist praktisch, dass die Verschlusszeit der langen Aufnahme so lang wird, dass man dennoch zwingend ein Stativ benötigt. Das wiederum schränkt das Einsatzspektrum wieder ein.
 
  • Like
Reaktionen: Steuyvesant

odie

Erfahrenes Mitglied
30.05.2015
7.030
2.847
Z´Sdugärd
Naja "jede" Kompatknipse hat vielleicht eine HDR "ähnlich Funktion die aber eher auf die Tonverzerrungs/verschiebungs HDR Geschichte abspielt. Und technisch eben kein HDR sondern nur ein Bild das halt vermauschelt wird. 3 Bilder (also eine Braket Funktion) haben die wenigsten.

Bei der Dynamik muss man echt mal ne Lanze brechen für die Fuji Jungs brechen. Selbst meine 10 Jahre alte S5pro ist in Sachen Dynamik einfach gigantisch.
 

flysurfer

Gründungsmitglied
Teammitglied
06.03.2009
26.000
36
www.vielfliegertreff.de
Bei der Dynamik muss man echt mal ne Lanze brechen für die Fuji Jungs brechen. Selbst meine 10 Jahre alte S5pro ist in Sachen Dynamik einfach gigantisch.

Die ist mit ihren S/R-Pixeln ja auch speziell dafür gebaut.

Ich denke, es haben vielleicht nicht alle Mitleser erkannt, dass es hier um das Motivrauschen geht. Sensorrauschen haben wir ohnehin als minimal vorausgesetzt. Wir gehen davon aus, dass wir mit modernen isolosen Sensoren arbeiten, egal in welcher Größe.

In diesem Fall ist es so (das kann jeder anhand der mitgelieferten RAW-Dateien nachprüfen), dass die dunklen kritischen Stellen, die ich in den 100%-Ansichten hervorhebe, etwa 3,6 EV angehoben werden müssen, um die Helligkeit des normalisierten Vergleichsbilds zu erreichen. Das entspricht einem ISO-Push von 100 auf ca. 1250, also kein "big deal", das können auch Kompaktkameras. ISO 1000 findet man ja manchmal sogar noch in Smartphone-Bildern. Deshalb ist ja auch eine Kompaktkamera (X30 mit 2/3" Sensor) Teil dieses Vergleichs.

Das Problem ist doch aber ein anderes, nämlich dass hier nicht genug Nutzsignal vorhanden ist, um den Push sauber durchzuführen. Man pusht also Störsignal, sprich Rauschen, Banding und Tonwertabrisse, und das ist nicht schön. Der Grund: Kleine Sensoren fangen weniger Licht ein, ergo mehr Stör- und weniger Nutzsignal, den weniger Licht bedeutet mehr Motivrauschen. Selbst das mit Basis-ISO 100 aufgenommene Bild ist also an den kritischen Stellen beim kleinen Sensor verrauscht, nämlich vom Motiv her. Wenn man dann die Helligkeit etwas erhöht, indem man den Belichtungsregler nach rechts bewegt, sieht man das Fiasko bei den kleinen Sensoren entsprechend.

Kann man dem mit HDR begegnen? Natürlich! Aber in diesem Fall müsste man ja bereits den 2/3" mindestens zweimal belichten und zwar mit mindestens 3 EV Unterschied. Also nicht nur einmal mit 1/60s, sondern noch einmal mit 1/8s. Diese beiden RAW-Dateien kann man dann in Lightroom zu eine HDR-DNG verschmelzen und genauso entwickeln wie ein reguläres RAW. Das funktioniert – aber natürlich nur mit Motiven, die sich nicht bewegen und mit einer ruhigen Hand. Und auch nur, wenn man 1/8s gut aus der Hand halten kann, sonst braucht man ein Stativ. Wie man das praktisch machen und die "shaky hand" etwas austricksen kann, steht Schritt für Schritt in meinen Fuji-Büchern, für andere Kameras gibt es sicherlich/hoffentlich vergleichbare Methoden.

Würde man eine "typische" Kompaktkamera nehmen, dann hätte diese noch einen kleineren Sensor als 2/3" (typischerweise 1/2,3", nicht verwechseln!) und bräuchte bei angenommener gleicher Sättigung eine noch längere Belichtungszeit für die zweite Aufnahme. Der Sensor muss schließlich auch an den dunklen Motivstellen genug Photonen sammeln, damit nicht alles im zufälligen Rauschen der vereinzelt zufällig auf den kleinen Sensorausschnitt auftreffenden Photonen untergeht. Mal davon abgesehen, dass automatisches HDR in der Regel eine reine JPEG-Funktion ist, bei der einfach mehrere Bilder nach Schema F verrechnet werden, bräuchte man dazu also eine Belichtungsreihe, die mindestens 4 EV umspannt, nämlich neben einer Belichtung an der Sättigungsgrenze auch noch eine um vier Blendenstufen/Lichtwerte/EV hellere. Und das auch nur, wenn man RAWs verrechnet (was keine mir bekannte Kamera kann) – verrechnet man JPEGs, braucht man auch noch Zwischenstufen, in diesem Fall also 4 Bilder mit 0, 1, 2, 3 und 4 EV Korrektur, wobei 0 der Aufnahme an der Sättigungsgrenze entspricht.

Nun ist das hier aber noch ein harmloses Beispiel, denn in der realen Welt finden wir nicht selten Motive, wo Lichter und Schatten 4, 5 oder 6 EV auseinanderliegen. Ist manuelles HDR hier möglich, bietet es sich natürlich an. Warum nicht? Wenn man die Technik beherrscht und die entsprechende Software für HDR-DNGs hat (Lightroom oder ACR), kann damit hervorragende Ergebnisse erzielen, gerade auch mit kleineren Sensoren. Ich selbst mache das bei Bedarf auch gerne, etwa bei Immobilienaufnahmen in Innenräumen. Da arbeitet man eh mit Stativ und Fernauslösern, nichts bewegt sich, es gibt keinen besonderen Zeitdruck. 10mm-Objektiv an einer leichten APS-C-Kamera, 2-3 manuell belichtete sowie manuell auf Zone oder hyperfokal fokussierte RAWs mit Fernauslöser – und fertig, auf zum nächsten Motiv. Dafür schleppe ich keine GFX mit. Anschließend verrechnen der jeweils 2-3 RAWs zu eine HDR-DNG und dann ganz normal in Lightroom ausarbeiten.
 
Zuletzt bearbeitet:

Steuyvesant

Gesperrt
18.03.2017
38
0
Nenne doch mal ein paar konkrete Kompaktkameras, die 14 EV und mehr Dynamikumfang ausgeben und zeige entsprechende Beispiele, die das belegen.

Sorry! Ich wollte mich weder am Messtestfetischismus beteiligen noch Deine Kompetenz in Zweifel ziehen (für manches Deiner Fotos würde ich morden ;) )
Was ich sagen wollte: der Vorsprung großer, teurer Kameras wird immer kleiner. Der durchschnittliche Reisefotograf kommt heute mit einer Kompaktknipse aus.

Früher unterschied man bei den Pressefotografen zwischen solchen, die Fotos machten und solchen, die filmten. Heute wird mit der DSLR gefilmt. Oder gleich mit dem iPhone.
Die Fehler minderwertiger Hardware werden zunehmend von immer besserer Software ausgeglichen, so daß es auf hochwertige Hardware immer weniger ankommt.
Da ist die Fotografie nur ein (besonders herausragendes) Beispiel.

Ich brauche also bald keine "echten" 14 EV mehr. Ein wenig Rest- oder viel Überbelichtung - und die Software rettet es...
 

flysurfer

Gründungsmitglied
Teammitglied
06.03.2009
26.000
36
www.vielfliegertreff.de
Ich brauche also bald keine "echten" 14 EV mehr. Ein wenig Rest- oder viel Überbelichtung - und die Software rettet es...

In ca. drei Jahren haben wir in den meisten modernen Kameras den Global Shutter (und vermutlich bald auch Sensorpixel mit adaptiver Sättigung). Das ist dann auch der offizielle Zeitpunkt für das Ende der DSLR als Mainstreamkamera, sowas kennt man von Schallplatte/CD, Handy/iPhone, Film/Digital, Röhre/Flachbild usw. – disruptive Technologien als Scheideweg. Wer heute noch ein DSLR-System besitzt, hat also gar nicht mehr so viel Zeit, die Sachen halbwegs wertbeständig loszuwerden. Nach 2020 gehen Kamerahersteller, die den Anschluss nicht gefunden haben, dann den Weg von Kodak und Nokia: von Marktführern zu "war da nicht mal was?".

Die Physik werden aber auch diese Lösungen nicht überwinden können, dann verwackeln eben die dunklen Stellen und wir erfreuen uns an Artefakten, die aufwändig weggerechnet werden müssen, was wiederum neue, andere Artefakte erzeugt. Wirklich neu ist das Ganze ohnehin nicht, siehe Fujis EXR-Sensor von vor bald 10 Jahren, da hatten wir auch schon entsprechende Artefakte bei bewegten Motiven.

"Kompaktknipsen", was immer man darunter verstehen mag, sind im klassischen Sinn praktisch bedeutungslos geworden und nur noch im Premiumsegment mit 1"-Sensoren erfolgreich, oder im Ultrapremiumsegment mit APS-C und Kleinbild. Die Smartphones haben das inzwischen übernommen und fressen das klassische Consumer-Segment praktisch auf. Die Hersteller flüchten sich in Nischen wie Action-Cams, aber auch hier gibt es inzwischen harte Einschläge, siehe das GoPro-Debakel.

Gleichzeitig gedeiht der Markt der spiegellosen Kameras für Enthusiasten, denn mit "Fotografie" hat das Smartphone leider nicht so viel zu tun. Dafür dass heute mehr Bilder gemacht werden als zu jedem anderen Zeitpunkt in der Weltgeschichte, ist die Qualitätsausbeute doch erstaunlich niedrig, die Halbwertszeit der Bilder ebenso. "Wozu eigentlich noch einen Konzertflügel kaufen, das macht doch inzwischen auch das iPad mit Garageband?" – das wäre ungefähr die gleiche verquere Denke.

Die Vorstellung, Dynamikumfang tatsächlich zu besitzen (anstatt ihn mit mehr oder weniger brauchbaren Tricks zu simulieren), ist deshalb nicht minder attraktiv als die Idee, Musik mit einem realen Instrument zu erzeugen.
 
Zuletzt bearbeitet:

odie

Erfahrenes Mitglied
30.05.2015
7.030
2.847
Z´Sdugärd
Sorry! Ich wollte mich weder am Messtestfetischismus beteiligen noch Deine Kompetenz in Zweifel ziehen (für manches Deiner Fotos würde ich morden ;) )
Was ich sagen wollte: der Vorsprung großer, teurer Kameras wird immer kleiner. Der durchschnittliche Reisefotograf kommt heute mit einer Kompaktknipse aus.

Ist jetzt net bös gemeint....aber etwas technische Defizte hast du durchaus. Und genau DAS ist ja der schnell gemachte Fehler. "Ich brauch keinen Profifoto, ne Kompakte für 400€ ist gleich gut/besser". Und das ist schlichtweg falsch. Man nimmt am besten einen Sensor mit möglichst vielen Megapixeln, ein festes Objektiv mit möglichst viel Zoom und möglichst vielen Motivprogrammen etc und fertig ist die Knipse. Das man bei den meisten Kompakten nichtmal n PSAM Schalter hat, für alles (wen es überhaupt änderbar ist) in irgendwelchen Menüs ändern musst anstatt auf Tasten zu legen und so Nonsens wie Blitze mit denen man nichtmal einen Schuhkarton sauber auslechten kann (von Lichtleitzahlen und sonstgen "Fachbegriffe" fangen wir garnicht erst an). Allein schon die Tatsache das ein 40fach Zoom gaaaaaanz toll sein soll bei Blende 5,6-8 uns...

Dem breiten Consumer Publikum ist das gante wichtige total egal. Und das is der Fehler. Das ist wie wen du n Auto kaufst und weder Hubraum noch Leistung noch sonstiges vergleichst sondern es nur auf Farbe, Radio und LED Leuchten was halt grad in ist fixierst. Den genau DAS wird mit Aussagen wie "Kann doch jede Kompakte" gemacht.
 

flysurfer

Gründungsmitglied
Teammitglied
06.03.2009
26.000
36
www.vielfliegertreff.de
Die fragliche Aussage bezog sich meiner Erinnerung nach speziell auf den HDR-Modus, den viele Smartphones und auch einige Kameras besitzen. In allen mir bekannten Fällen dient dieser dazu, fotografisch unbedarften Benutzern eine automatisierte HDR-Funktion zu geben, deshalb fehlt so eine Funktion auch tendenziell, je teurer/professioneller eine Kamera ist. Die meisten Top-Kameras haben analog dazu auch keine "Motivklingel", keine Szenenmodi etc. – weniger ist mehr.

Damit ist auch schon eine grundsätzliche Einordnung dieser HDR-Funktion (sofern denn eine vorhanden ist) möglich: Es geht um einen Automatismus, der für fotohandwerklich unbedarfte Benutzer etwas erledigt, das sie manuell gar nicht durchführen können oder wollen. In diesem Fall: das Erstellen einer Belichtungsreihe und das Verschmelzen der einzelnen Bilder aus dieser Belichtungsreihe zu einem einzigen Bild mit hohem Dynamikumfang, sprich High Dynamic Range (HDR).

So ein Automatismus arbeitet naturgemäß ohne große Eingriffsmöglichkeiten. Es wird ein vorgegebenes Rezept abgearbeitet, wobei die Smartphones in der Regel besser abschneiden als die "echten" Kameras. Denn Smartphones haben buchstäblich die smartere Software, zumindest die von Apple.

Nur ändert das nichts daran, dass HDR ein Notbehelf ist, wie Stützräder an einem Fahrrad. Die grundsätzlichen Nachteile habe ich weiter oben im Thread ja schon beschrieben, und beim automatischen Consumer-HDR kommt dann noch seine unflexible Ausgestaltung hinzu. Außerdem arbeiten diese Methoden in der Regel nur mit JPEGs, verschmelzen also mehrere JPEGs zu einem neuen JPEG. Ein HDR-RAW erzeugt meines Wissens keine dieser Kameras direkt, das geht nur mit Lightroom (HDR-DNG), und diese Methode verwende ich auch selbst, natürlich manuell mit bewussten Belichtungen und einer anschließenden manuellen Bearbeitung der DNG-Datei in Lightroom. Die Automatik-HDR in Smartphones und einigen Kameras hat damit etwa so viel zu tun wie ein Spielzeug-Ferrari mit einem richtigen. ;)

Es gibt für "richtiges" HDR durchaus relevante Einsatzmöglichkeiten, wie bei diesem Beispiel, das ich neulich für einen Vermieter in Malta aufgenommen habe:

32930890033_2bacad9dc3_k.jpg