Zitat von Kathrin51.... Leider hat die Bildqualität durch das Verkleinern ziemlich gelitten, hab ich eben festgestellt, Schade!! .... Ich freu mich über weitere Tipps und Meinungen!!
Irgendwann geht das einem in Fleisch und Blut über und man gestaltet alle Bilder über Blendevorwahl.
Ich denke, dass die meisten SLR-Benutzer eh nix anderes machen, weil es dafür eigentlich gar keinen Grund gibt, zumindest bei Landschaftmotiven nicht.
Mit der E-PL1 mache ich das von Beginn an so. Nur in sehr seltenen Ausnahmefällen nutze ich eines der Szeneprogramme.
@Kathrin: ich verkleinere meine Bilder mit dem Fast Stone Image Viewer, allerdings gibts dafür viele Programme, auch das von bodok erwähnte Top ist gut.
Das letzte ist natürlich die Chaos-Baustelle, direkt vor unserer Nase. Die ersten Bilder zeigen einen recht fotogenen Steinbruch in der Nähe, die Kirche steht hier in Salz und der Rest ist "Gegend"!! Ich bin sowas von froh, dass von euch Fachleuten positive Resonanz kommt! Welche Motive eignen sich denn eigentlich am besten für diese Fotographie? ich kann doch nicht vor lauter Begeisterung nur noch 3er Bilderreihen schiessen...
Übrigens, Rati, du Hellseher: ein kleines Stativ ist schon bestellt....
Zitat von hadedehaWas meinst Du mit "menschliche Realität"? Willst Du wissen, welches Bild unbearbeitet und welches bearbeitet ist?
Ja, da fängt es schon an! Ich will wissen, wie das menschliche Auge die Sonnenuntergangsituation wahr nimmt. Wenn du dir einen Sonnenuntergang ansiehst, sind dann Boote (so wie auf meinem Bild 2) schwarz und du erkennst ihre Farben und Konturen und Details nicht mehr??? Oder ist es eher wie in Bild 1 und man erkennt die Boote in Gänze und auch die Details der Häuser???
Ich schließe mich Sybille an. Das zweite würde ich als dem menschlichen Auge näher betrachten. Wenn ich gegen die Sonne gucke, ist der Rest sowieso dunkel.
Das Meer links kommt mir für ne Sonnenuntergangssituation zu hell vor!
Jetzt bin ich doch etwas erschrocken, aber nicht verwundert...
Hast du die Möglichkeit dir in naher Zukunft mal einen Sonnenuntergang live anzusehen??? Dann mach das bitte mal, achte bitte ganz genau darauf was du alles wahrnimmst, und zwar im Detail, schieß ein Foto davon und schaus dir danach direkt an, dann wirst du nämlich feststellen, dass alle Häuser, Wiesen, Bäume, die du trotz des Sonnenunterganges in der live-Situation farblich und im Details wahrnehmen konntest, auf deinem Foto extrem abgedunkelt oder gar schwarz sind. Selbst wenn die Sonne schon untergangen ist bist du im Stande diese Details noch vollständig wahrzunehmen, deine Kamera aber nun mal nicht.
Zitat Wenn ich gegen die Sonne gucke, ist der Rest sowieso dunkel
Gut, wenn man in die Sonne guckt ja! Die Sonne steht aber in diesem Fall sehr weit unten... Ich habe jetzt keine Zeit ein weiteres Beispielbild rauszusuchen, aber auch wenn die Sonne schon gänzlich untergegangen ist (man somit auch nicht mehr in die Sonne guckt) und lediglich noch die Rötung des Himmels vorhanden ist, bist du live in der Lage Farbe und Details der Boote und Häuser zu erkennen, deine Kamera aber nicht. Darauf will ich hinaus... Eine Kamera ist nicht in der Lage den Dynamik- und Kontrastumfang, sowie die Helligkeitsabstufungen des menschlichen Auges zu fassen, mal ganz von der Dimensionalität abgesehen. Wieso glaubt man also, dass ein unbearbeites runterkomprementiertes JPEG-Foto (Übrigens die Art von Foto mit den wenigsten Bildinformationen und somit den wenigsten Bilddetails) die Realität widerspiegelt!? Gerade um solche Dinge ein wenig zu kompensieren, gibt es Bildbearbeitung, RAW-Formate die wesentlich mehr dieser Details einfangen können und HDR-s die den in der Natur vorkommenden Dynamikumfang einigermaßen wiedergeben. Und obwohl ihr doch jeden Tag mir eurem Auge schaut, glaubt ihr euer JPEG-Foto wäre die Realität, obwohl ihr noch kurze Zeit zuvor die tatsächliche Realität wahrgenommen habt.
Im Anhang ist ein HDR-Bild vom Rati, bereits mit untergegangener Sonne. Die Wiese und Bäume sind farblich und im Details erkennbar, so wie unser Auge sie auch wahrnehmen würde, das JPEG-Bild würde diese Details zum größten Teil verschlucken, stark abgedunkelt oder gar schwarz abbilden. Wers nicht glaubt, sollte sich einfach mal selbst einlesen (z.B. http://de.wikipedia.org/wiki/High_Dynamic_Range_Image) oder mal den Live-Test machen. Es ist so einfach... Einfach in einer Sonnenuntergangssituation ein Foto machen, aber bitte Richtung Westen, sich dann bewusst die Umgebung anschauen (ich garantiere euch ihr werdet Häuserfassaden erkennen, ihr werdet sogar die Blumentöpfe auf den Fensterläden, Bäume und Grashalme erkennen können) und dann schaut euch mal an, was euer Foto ausspuckt.
EDIT: Das Innere einer Kirche ist auch so ein tolles Testobjekt.
Heute: Carl Zeiss Jena Sonnar 2,8 /180 ("Zebra"-Version, P6-Bajonett, 1,44 kg, s. auch "Olympia-Sonnar")
An: Panasonic Lumix GF2 (Micro Four Thirds - Sensor), Programm: A also Zeitautomatik / Fremdobjektiv
Wie? - Mit 2 Adaptern (P6 > M42 > MFT), d.h. Brennweite (Telewirkung) ist etwa verdoppelt.
Unten Bild 1: 100%, mit PS aus RAW in JPG konvertiert, dann mit PhotoImpact auf 1232px verkleinert. Unten Bild 2 für die 1:1 Begutachtung: Ausschnitt aus Bild 1, nur mit PS in JPG konvertiert (unverändert 1252px). Unten Bild 3: Mit PS in RAW nachbearbeitet
1 und 2 nicht geschärft/bearbeitet. Ohne Stativ (kaum zu halten). Ca. 5,6 / 1000stel
Einwandfrei und womöglich auch noch kleines Geld dafür bezahlt?
Zitat Wie? - Mit 2 Adaptern (P6 > M42 > MFT), d.h. Brennweite (Telewirkung) ist etwa verdoppelt
Dann hast du die Brennweite vervierfacht, denn die verdoppelt sich schon durch den Cropp-Faktor des MFT-Sensors.
Zitat Selbst wenn die Sonne schon untergangen ist bist du im Stande diese Details noch vollständig wahrzunehmen, deine Kamera aber nun mal nicht
Das kommt daher, weil das Auge nicht ein ganzes Bild fokusieren kann, sondern wandert hin und her und fokusiert jedes Deteil neu, wobei sich die Pupille je nach Lichteinfall öffnet und schliesst wie ne Blende eine Kamera.
Hättest du mit einem Tele nur das erste Boot fotografiert oder nur die Sonne, wäre das Bild ganz anders geworden
Eine Kamera muss dagegen aufs Verlangen das ganze Bild fokusieren und scharf hinbekommen, mit nur 10-12 Messpunkten. Ein paar oberklasse Kameras haben um die 40 und selbst die neue Canon 5D Mk III hat ein Autofokus mit 60 Messpunkten.
Das macht das Bild zwar schön scharf, das Problem ist aber, dass das ganze Bild gleichmäßig belichtet wird, obwohl die Sonne höchstens 1/1000 Sek. bräuchte und das Heck des Bootes mindestens 1/30 sek.
Was soll die Kamera also tun, wenn sie nicht weiß was die Knipserin will? Sie berechnet eine mittlere Zeit und gut ist. Der ist doch egal ob das Heck zu dunkel ist oder die Sonne viel zu hell
und genau deshlab geht eine kluge Knipserin hin und macht eine Belichtungsreihe mit verschiedenen Verschlusszeiten und legt die Bilder aufeinander und nennt das HDR
Wer nur ganz kurz darüber nachdenkt, wird der Kim Recht geben müssen
Zitat Hättest du mit einem Tele nur das erste Boot fotografiert oder nur die Sonne, wäre das Bild ganz anders geworden
Das ist ja logisch.
Zitat Das kommt daher, weil das Auge nicht ein ganzes Bild fokusieren kann, sondern wandert hin und her und fokusiert jedes Deteil neu, wobei sich die Pupille je nach Lichteinfall öffnet und schliesst wie ne Blende eine Kamera.
Das ist aber nur die halbe Wahrheit.
Zitat Die meisten digitalen Bilder verwenden nur 256 Helligkeitsstufen (8 Bit) (Mein Text von heute morgen bezieht sich auf die immer wiederkehrende Anmerkung bezüglich der Bildbearbeitung, wo von den Leuten offensichtlich ausgegangen wird, das ihre geknippsten 8-Bit-Jpegs die Realität wiedergeben) für jeden der Rot-, Grün- und Blau-Farbkanäle. Diese Farbtiefe reicht oftmals nicht aus, um die in natürlichen Szenen vorkommenden Helligkeitsunterschiede wiederzugeben. Höhere Farbtiefen werden üblicherweise kaum verwendet, da Bildschirme und Druckmedien zu deren Darstellung ohnehin nicht fähig sind.[1]
Die von einer Kamera oder einem Betrachter aus sichtbare Umgebung weist typischerweise einen Dynamikumfang (Verhältnis von größter und kleinster Leuchtdichte) in der Größenordnung von 10.000:1 auf. Der Dynamikumfang ist noch wesentlich größer, wenn eine Lichtquelle direkt sichtbar ist oder sowohl ein Innenraum als auch ein vom Sonnenlicht erhellter Außenbereich zu sehen sind.[2] Die menschliche visuelle Wahrnehmung ist in der Lage, sich Lichtverhältnissen anzupassen, die über nahezu zehn Größenordnungen (ein Faktor von 1010) reichen; innerhalb einer Szene sind bis zu ungefähr fünf Größenordnungen gleichzeitig sichtbar.[3] In der Fotografie ist auch die Angabe des Dynamikumfangs in Lichtwerten (LW) üblich. Eine weitere Einheit zur Angabe des Dynamikumfangs ist das Dezibel (dB).
Im Gegensatz zur visuellen Wahrnehmung leiden Fotografien, die mit herkömmlichen Digitalkameras erzeugt wurden, häufig an Über- und Unterbelichtungen. Beim High Dynamic Range Imaging werden Bilddateien mit einem Dynamikumfang erzeugt, der die in der Natur vorkommenden Helligkeiten in ihrer Gesamtheit besser erfassen kann. Die Pixelwerte stehen dabei in proportionalem Verhältnis zur tatsächlichen Leuchtdichte. Erst bei der Darstellung eines HDR-Bildes wird dessen Helligkeitsumfang geeignet reduziert. Auch wenn nach wie vor fast alle Bildschirme einen geringen Helligkeitsumfang besitzen, bieten HDR-Bilder Vorteile; so etwa bleiben ausgehend von HDR-Bildern Details in sehr dunklen und hellen Bereichen erhalten.
Quelle: Wiki
Auch wenn du schnurstracksgerade aus schaust, wird sich das Auge an die Lichtverhältnisse anpassen.
Sag mal Kim, kann man so eine Belichtungsreihe, wie vom Rati zitiert und genau deshalb geht eine kluge Knipserin hin und macht eine Belichtungsreihe mit verschiedenen Verschlusszeiten und legt die Bilder aufeinander und nennt das HDR in RAW auch simulieren?
Nicht nur geil, die Carl Zeiss Dinger sind richtig gut. Muss mir bei Gelegenheit für meine alten analoge Teile auch mal einen Adapter holen.
Zitat Hast du die Möglichkeit dir in naher Zukunft mal einen Sonnenuntergang live anzusehen??? Dann mach das bitte mal, achte bitte ganz genau darauf was du alles wahrnimmst, und zwar im Detail, schieß ein Foto davon und schaus dir danach direkt an, dann wirst du nämlich feststellen, dass alle Häuser, Wiesen, Bäume, die du trotz des Sonnenunterganges in der live-Situation farblich und im Details wahrnehmen konntest, auf deinem Foto extrem abgedunkelt oder gar schwarz sind. Selbst wenn die Sonne schon untergangen ist bist du im Stande diese Details noch vollständig wahrzunehmen, deine Kamera aber nun mal nicht.
Man schaue in die Sonne. Das menschliche Auge nimmt die Umgebung bis zu 180 Grad war. Aber nicht detailliert, weil die Belichtungsmessung der Augen auf die Sonne eingeschossen ist. Um die Kontraste und Farben der Umgebung erkennen zu können, muss das Auge auf entsprechendes "Randmotiv" schwenken - hier die Boote - und speichert diese Infos. Und eben das kann jede DLSR auch.
Gut deutsch für alle Canon-Besitzer, die ihre *-Taste (Stern) noch nicht - wie ich - umfunktioniert haben (jede DLSR hat so ne Taste): Bei einfachem Anvisieren eines hellen Horizontes (Sonnenuntergang) wird der Vordergrund zu dunkel, weil die Kamera die Belichtung auf eben diesen hellen Hintergrund ausrichtet. Also zunächst den Vordergrund ausbelichten: Ein Boot anvisieren und die Sterntaste drücken. Die Belichtungsdaten werden gespeichert und im Sucher durch einen * angezeigt. Dann Richtung Horizont schwenken, scharf stellen und auslösen. Da der Horizont dann wie zu erwarten zu hell wird, ist manuelles Abblenden angesagt. Über die Abblendtaste lässt sich dies auch vor dem Auslösen kontrollieren.
Da ich kein Freund der HDR-Technik bin, könnte man natürlich auch den Vordergrund mit etlichen Slaves hellblitzen.
ui, hier ist in meiner Schreibzeit viel passiert ...
Zitat Da ich kein Freund der HDR-Technik bin, könnte man natürlich auch den Vordergrund mit etlichen Slaves hellblitzen
Hahaha da haste aber Arbeit vor dir.Ich bleibe lieber bei HDR.
Aber irgendwie wird die Geschichte gerade ein wenig verkomplieziert. Denn die an die mein Text gerichtet war, haben ja keine DSLR.
Danke für deine Erläuterungen. Jeder der das Canon-Handbuch schon mal gelesen hat, kennt die Schwenktechnik. Aber darum ging es jetzt ja gar nicht, sondern darum, dass ja die Fotolaien glauben, dass mein Bild 2 mit den schwarzen Booten und den schwarzen Häusern die reele Wahrnehmung wäre, und das denken sie ja nur, weil ihnen ihre Kompaktkamera genau das immer vorgaukelt. Wenn sie aber mal mit ihren Kompakten ihre 8-Bit Jpeg schießen (natürlich nicht in die Sonne, sondern sogar warten bis die Sonne untergegangen ist), und die Live-Situation gleich bewerten dann werden sie feststellen, dass auch nach untergeganger Sonne immernoch fürs menschliche Auge Details sichtbar sind, während sie auf ihren Bildern abgedunkelt oder gar schwarz dargestellt werden. Lediglich die Silhouetten sind zu erkennen.... Darum ging es!
Da ich in RAW-Fotografie lässt sich das ja hervorragend mit Fake-Belichtungsreihen hinbekommen. Habe mit dem Boote-Bild nichts anderes gemacht...
Zitat von pratiSag mal Kim, kann man so eine Belichtungsreihe, wie vom Rati zitiert und genau deshalb geht eine kluge Knipserin hin und macht eine Belichtungsreihe mit verschiedenen Verschlusszeiten und legt die Bilder aufeinander und nennt das HDR in RAW auch simulieren?
Natürlich Prati. Da haben wir ja schon häufiger drüber gesprochen, ich mache das doch laufend mit alten Fotos von mir, oder wie glaubst du, habe ich die "Belichtungsreihe" von meinem Korcula-Stadt HDR vom fahrendem Boot aus gemacht.
In unserem Kroatien-Forum finden Sie umfassende Informationen über Urlaub und Ferien in Kroatien sowie passende Ferienwohnungen, Hotels, Apartments und Ferienhäuser für den Kroatienurlaub.