(Bild: https://commons.wikimedia.org/wiki/File:You_press_the_button,_we_do_the_rest_(Kodak).jpg)
Mit diesem Slogan warb die Eastman Dry Plate and Film Company, heute besser bekannt als “Kodak”, 1889 für Ihre Kodak 1 Kamera. In Anbetracht der Jahreszahl dieser Annonce ist es kaum verwunderlich, dass diese Kamera mit Film und nicht digital arbeitete. Die Besonderheit hier ist jedoch die Abwicklung des Entwicklungsprozesses. Man konnte, nach Gebrauch, die ganze Kamera, inklusive des belichteten Films, zum Hersteller schicken, der wiederum die Bilder entwickelte und die Kamera mit einem neuen Film bestückte. Als Ergebnis bekam man wieder seine Kamera zurück mit den Fotos und konnte direkt weiter fotografieren.
Heutzutage ist ganz ähnlich. Wir müssen uns nicht mehr mit der Materie auseinandersetzen, sofern wir dies nicht möchten. Anstelle dessen können wir ganz bequem unser Smartphone zücken, die Kamera-App starten und Bilder machen, die wir ohne Wartezeit betrachten können. So sammeln sich mit der Zeit tausende von Bildern auf dem Smartphone an. Nicht zu unrecht ist die auf Flickr meistbenutzte Kamera des Jahres 2016 das iPhone 6 (Quelle: http://petapixel.com/2016/12/06/top-10-photos-cameras-tags-flickr-2016/) Das neue iPhone 7 taucht in der Statistik leider nicht auf, denn es hatte von Veröffentlichung bist jetzt schlichtweg zu wenig Zeit genutzt zu werden.
Das was sich also erübrigte ist der Mittelsmann. Wir haben alles direkt bei uns, ohne dass jemand für uns Hand anlegen muss.
Computational Photography
So schön wie das jetzt scheint ist es aber dann doch nicht. Wozu wir vor 127 Jahren noch die Kamera wegschicken mussten macht unser Smartphone ganz von alleine.
Das Stichwort dazu ist “Computational Photography”, zu deutsch in etwa “berechnungsgestütze Fotografie”. Dies klingt jetzt etwas ungelenk beschreibt aber ziemlich zutreffend was geschieht.
Um ein paar Beispiele zu nennen möchte ich mit dem iPhone 7, exemplarisch für alle Digitalkameras, beginnen.
Bildoptimierung
Das iPhone 7 bietet sich gut als Anschauungsobjekt an, weil es einerseits zu der Klasse der Smartphonekameras gehört und andererseits hat Appel seit diesem Model einen RAW-Support eingebaut. (Anmerkung: RAW ist ein Sammelbegriff für die “unbearbeiteten” Daten vom Kamerasensor) Diese beiden Aspekte in Kombination erlauben es sehr anschauliche und faire Vergleiche zwischen Bildern, mit und ohne dem Einfluss der internen Entwicklungsautomatisierung, zu ziehen.
Bei unserem ersten Beispiel sieht man schon sehr gut, dass sich zwischen dem “Original” und dem JPEG ein unterschied besteht. Die wichtigsten Unterschiede sind in diesem Fall die erhöhte Schärfe im linken Bild (JPEG), die satteren Farben, der erhöhte Kontrast und die glatteren einfarbigen Bereiche. Das rechte Bild (RAW) bietet mehr Details aber insgesamt wirkt es flauer, farbloser und weniger Glatt.
Die kommenden zwei Beispiele verdeutlichen die genannten Aspekte.
Bei dem letzten Bild ist sieht man zudem noch ein Bildfehler, den sogenannten Moiré-Effekt (zu erkennen an den Gelb Blauen Schimmer im unteren Teil, des rechten Bildes). Dieser Fehler wurde vom Algorithmus erkannt und für das JPEG bereits entfernt.
Um die Beispiele zu verdeutlichen wurden die Vergleichsbilder, abgesehen vom letzten Beispiel, unter Kunstlichtbedingungen aufgenommen. In der Bildquelle lassen sich die Bedingungen umstellen und die Kunstlichtsituation ist nach einem Druck auf das Glühlampen Pictogram zu finden.
(Quelle: https://www.dpreview.com/news/3196300304/iphone-7-added-to-studio-scene-comparison)
Künstliche Effekte
Das nächste Beispiel steht auch wieder im Zusammenhang mit dem iPhone 7. Um genau zu sein handelt es sich um das iPhone 7 Plus. Seit dem letzten Update hat dieses Smartphone einen sogenannten Portrait-Modus oder auch Bokeh-Modus genannt (Anmerkung: Bokeh ist der Fachbegriff, der die Unschärfe im Hinter- und Vordergrund von Fotos beschreibt).
Foto ohne Portraitmodus
(Quelle: https://www.youtube.com/watch?v=_Gzw1C7etZU)
Normalerweise muss, um einen solchen Effekt zu erreichen, die Optik der Kamera entfernte Objekte stark vergrößern können. Smartphones sind für gewöhnlich nicht mit einer solchen Apparatur ausgestattet, daher bedient sich das iPhone 7 Plus einen Trick. Dieses Telefon besitzt zwei Kameras die nebeneinander angebracht sind. Durch den kleinen Versatz, auch Parallaxe genannt, der beiden Kameras ist es möglich zu errechnen wie weit ein Objekt entfernt ist. Somit ist es auch möglich zu berechnen was zum Objekt und was zum Hintergrund gehört. Letzteres wird dann vom Handy unscharf gerechnet und man hat den Bokeh-Effekt.
Ein Video, welches diesen Modus in Aktion zeigt, kann nach einem Klick auf den Link unter dem letzten Bildbeispiel angeschaut werden.
Verzerrungskorrektur
Eine Verzerrungskorrektur ist das letzte Beispiel, welches hier im Artikel Erwähnung finden soll.
Vereinfacht gesagt ist es in diesem Fall lediglich eine Bildkorrektur die dafür sorgt das gerade Linien gerade bleiben. Es klingt zwar sehr banal aber man sollte sich bewusst machen das bei jedem Bild die Kamera technische Limitierungen hat die dazu führen, dass die abzubildende Welt verzerrt abgebildet wird. Unsere Augen machen im Grunde auch nur kann unser Sehapparat dies eigenständig ausgleichen. Kameras können dies jedoch nicht ohne weiteres, daher werden die meisten Bilder elektronisch entzerrt.
Diesmal dient uns eine Canon Powershot S90 als Beispiel. Sie repräsentiert eine Standard Kompaktkamera die man in dieser Art in jedem Elektromarkt finden kann.
Wir sehen hier einen weißen Lieferwagen der in einer Straße parkt. Achten wir nun auf das Linke Gebäude so scheint dies leicht gebogen.
Nun sehen wir das gleiche Bild aber diesmal mit einer automatischen Entzerrung. Wenn wir uns nun wieder das Gebäude auf der linken Seite anschauen fällt auf das es nun gerade scheint. In beiden Fällen wurde die selbe Kamera genutzt nur die Elektronik hat es einmal entzerrt, was uns den Eindruck eines technisch besseren Ergebnisses vermittelt.
(Quelle: https://www.dpreview.com/articles/5653763779/a-distorted-view-in-camera-distortion-correction)
Fazit
“You press the button, we do the rest” mit diesem Werbeslogan von 1889 haben wir diesen Artikel begonnen und auch wenn wir vermeintlich nicht mehr auf dritte angewiesen sind um unsere Bilder zu sehen stellen wir fest, dass dies auch heute nicht der Wahrheit entspricht.
Zwar müssen wir nicht mehr warten und uns direkte Hilfe bei dritten suchen aber es scheint so, dass diese Hilfe in bestimmter Art und Weise von vornherein in unseren Geräten verbaut ist.
An unseren drei Beispielen sehen wir das sogenannte Bildoptimierung sich dem computational photography bedient und den Bild Eindruck teilweise stark verändert, nur damit die Bilder uns besser gefallen sollen.
In den meisten Fällen ist nichts dagegen einzuwenden und viele Nutzer, wenn nicht sogar nahezu alle, sind sehr froh das die Bilder so gehandhabt werden wie sie es tuen. Lediglich aus Sicht der Authentizität und Wirklichkeitstreue stellt sich die Frage ob diese Bilder unsere Wirklichkeit wiedergeben können. Selbst der Journalist, welcher den Anspruch an Objektivität hat, nutzt Kameras und auch wenn er sie nicht dediziert in einem Bildmanipulationsprogramm bearbeitet wird unfreiwillig durch die computational photography beeinflusst. Die Möglichkeiten dessen sind in diesem Artikel auch nur angerissen und somit stellt sich die Frage ob wir Bilder, im Umfeld einer Berichterstattung, überhaupt als Vertrauenswürdiges Medium behandeln könne, selbst wenn diese Bilder “unbearbeitet”, direkt aus der Kamera, sein sollten?