Seite 1 von 1

Frage zu Farbe / SW

Verfasst: 12.07.2010, 16:38
von BernhardH
Hallo,

Folgende vielleicht dumme Frage:

Es gibt ja s/w und farb astrokameras, bei den Farbkameras wird ja meist so eine Bayer rggb matrix verwendet, also braucht man um ein Farbpixel zu erzeugen dann eigentlich 4 pixel?

Hat somit eine Farbkamera nur ein viertel der auflösung einer SW kamera?

angenommen beide kameras haben in der beschreibung 800x600 pixel stehen (weil meist steht doch bei einer SW kamera und farbkamera vom gleich typ und bauart nicht unterschiedliche pixelzahlen?!) mit einer pixelgröße von sagen wir 5mü. Dann ist mir nicht ganz klar ob nun bei der farbkamera wirklich 800x600 FARBpixel am startsind oder nur 400x300? und wo dann der vorteil is mit filterrad und sw rumzutun (ok vielleicht wenn man schmalbandaufnahmen machen will) aber sonst? Hat meine DSLR mit 15MP wirklich dann 4.xxx mal 3.xxx FARBpixel oder sind das in wirklichkeit dann nur ~4MFARBPixel?

.......verwirrt bin.........

danke für die Erleuchtung

Verfasst: 13.07.2010, 09:09
von tommy_nawratil
hallo Bernhard,

ja, eine Farbkamera hat nominal weiniger Auflösung als eine SW Kamera. Im Grünen hält sich der Verlust in Grenzen, im Blauen und Roten ist es nur ein Viertel. Durch Interpolation kann einiges wettgemacht werden, aber zB bei Planeten merkt man krass den Unterschied. Bei den Farbkanälen ist man ausserdem darauf angewiesen, was der Hersteller so als Farbfilter verbaut hat.

lg Tommy

Verfasst: 13.07.2010, 09:17
von BernhardH
Ja das dachte ich mir aber wie kann dann bei Kameras vom gleichen typ nur ein C oder ein nicht C dabei stehen mit gleicher pixelzahl. Da muss ja irgendwas noch versteckt sein. Hat nun eine Farbkamera mit 600x400 pixel das gleiche auflösungsvermögen wie eine s/w mit 600x400 pixel?
Wie ist dann die pixelangabe zu gewichten um beides vergleichen zu können was die auflösung betrifft?

Weil wenn das so ist wie du sagst dann müsste doch ein und der selbe kameratyp in sw mehr pixel als in der farbversion haben oder? Oder sind dann die farbsubpixel sozusagen nur halb so groß (also seitenlänge, flächenmäßig ein viertel so groß) wie die pixel der s/w (weil ja 4 auf die fläche eines sw pixels passen müssen) und daher kommt dann dass die empfindlichkeit der farbsubpixel unter der der SW liegt?

fragen über fragen.

Verfasst: 13.07.2010, 21:50
von Daniel_Guetl
Hallo Bernhard,

eine S/W und eine Farbkamera haben genau die gleiche Pixelanzahl wenn sie den gleichen Sensor verwenden, die Farbkamera hat nur ein sogenanntes Bayer Pattern an Farbfiltern vorgeschalten. siehe auch hier: http://de.wikipedia.org/wiki/Bayer-Sensor

Du erhälst in Summe die gleiche Pixelanzahl durch die Interpolation, es wird sozusagen dann für jedes Pixel ein RGB Wert berechnet, obwohl das Pixel nur einen Farbfilter davor hat. Für diese Interpolation gibt es viele verfahren, und wenn du im RAW oder FITS format aufnimmst kannst die Farbkanäle einzeln als Bilder erhalten und den PC nach deinen Vorgaben interpolieren lassen um das maximum an Details rauszuholen.

Über Auflösung lässt sich viel diskutieren, meine Kollegen und ich vom Astrofotostammtisch sind der Meinung dass bei Sternen solange sie nicht undersampled sind, kein Auflösungsverlust entsteht, jedoch Nebel im roten Bereich zu 50% an Auflösung verlieren. Bei Nebeldetails im grün-blauen (OIII) sind noch 75% der auflösung vorhanden. Weiterer Nachteil bei der Nebelfotografie ist dass die Sterne gegeüber den Nebeldetails bevorzugt werden, somit entsteht ein Effekt dass der Nebel in den Sternen absäuft.

Wenn man undersampled entsteht ein Effekt der meist nur sehr schwer zu korrigieren ist, und zwar fällt dann das Licht eines Sterns nur auf einen Pixel, dieser Pixel wird dann mit irgendwelchen Werten der Nachbarpixel zur Farbe interpoliert, somit können grüne und violette Sterne im Bild entstehen, die sehr unschön sind...dies fällt zumeist in Sternreichen gegenden auf und auch nicht immer.

Für einen aussagekräftigen Vergleich zwischen Mono und Farb CCD siehe hier: http://helixgate.net/Xm-XCM-1A.html

Viele Grüße

Daniel

Verfasst: 14.07.2010, 10:31
von BernhardH
Danke für die ausführliche Antwort,

nur nochmal ob ichs jetzt richtig verstanden habe:

über dem gleich großen SW chip liegt bei der farbversion diese bayer matrix (was heißt dass nur jedes 4t pixel einen roten, blauen, und jedes 2t einen grünen vorfilter hat). Dabei wird aber dann mit hilfe von interpolation der nachbarpixel (die aber einen jeweils anderen filter haben) versucht für jedes einzelne pixel einen farbwert zu berechnen um nicht nur durch zusammenfassen von 4 pixel ein einziges großes Farbpixel zu bekommen.
Das macht natürlich sinn und hier versteh ich auch dass durch die rechnerei ein bissl info verloren geht aber nicht soo viel dass man nur ein 4tel der auflösung hat.

Danke

Verfasst: 14.07.2010, 10:41
von Daniel_Guetl
Hallo Bernhard,

ja, so ist es.

viele Grüße

Daniel

Verfasst: 15.07.2010, 13:07
von Lateralus
Daniel_Guetl hat geschrieben:Über Auflösung lässt sich viel diskutieren, meine Kollegen und ich vom Astrofotostammtisch sind der Meinung dass bei Sternen solange sie nicht undersampled sind, kein Auflösungsverlust entsteht, jedoch Nebel im roten Bereich zu 50% an Auflösung verlieren. Bei Nebeldetails im grün-blauen (OIII) sind noch 75% der auflösung vorhanden. Weiterer Nachteil bei der Nebelfotografie ist dass die Sterne gegeüber den Nebeldetails bevorzugt werden, somit entsteht ein Effekt dass der Nebel in den Sternen absäuft.
Das ist eine abenteuerliche Theorie, kannst du die noch etwas untermauern?

lg,
Michael

Verfasst: 15.07.2010, 18:59
von Daniel_Guetl
Hallo Michael,

im roten ists ziemlich klar (mit den 50%), im Grünen habich mich falsch ausgedrückt, dadurch dass Grün und Blau bei OIII jeweils Signal bekommt bleibt 100% Auflösung über, weil der eine fehlende Pixel net ins gewicht fällt. Das alles sind keine Mathematischen Werte sondern einfach nur so überlegt.

Das mit den Nebeldetails ham wir am Stammtisch feststellen müssen bei Fotos einer EOS450da an einem ASA 8" astrographen (also undersampled) in Namibia, da wars ganz extrem. Fast nur mehr Sterne auf den Bildern (in Milchstraßengegend) und der Nebel in den Hintergrund gerückt. Da fehlte natürlich die Auflösung am Nebel (im roten) und die Sterne wurden aber sehr gut dargestellt, dadurch eben der subjektive Eindruck - der Nebel säuft ab. So zumindest meine Erfahrungen.

Viele Grüße

Daniel

Verfasst: 15.07.2010, 23:41
von Lateralus
Hi Daniel,

ich meinte gar nicht so den Auflösungsverlust, darüber läßt sich ja viel streiten, sondern die Aussage daß sich bei einer Farb-CCD die Sterne mehr durchsetzen als die Nebel.

Aber du bestätigst ja selber daß dies keine allgemeingültige Tatsache sondern eher eine Stammtischlaune (nach wieviel Bier kommt ihr auf solche Ideen :lol: ) ist. Vielleicht hat der Kollege einfach seine Sternchen bei der Bearbeitung in die Sättigung getrieben und darum sieht das Bild nicht so toll aus??? Hast du vielleicht einen Link zu diesem Bild?

lg,
Michael

Verfasst: 16.07.2010, 15:23
von Daniel_Guetl
Hallo Michael,

bei Astrostammtisch gibts keinen Alkohol, wo käme ma da denn hin??

Nö die Bilder gibts net online, die meisten Kollegen halten nix davon Bilder online zu zeigen.

Die Theorie basiert eher darauf dass der rote Nebelanteil nur von 1 Pixel registriert wird, die Sterne aber von 4 Pixeln. In Sternreichen gegenden sind somit nebel und sterne fast schon fächendeckend vorhanden. Das Sternsignal wird somit 4 fach gegenüber dem Nebelsignal aufgenommen, somit kommen die Sterne viel stärker als der Nebel. Klar oder?

Viele Grüße

Daniel

Verfasst: 16.07.2010, 15:53
von Lateralus
Daniel_Guetl hat geschrieben:Klar oder?
garnicht, die Nebelanteile die du als fehlend interpretierst werden durch das Debayern dazuerfunden. Da gibte es kein Ungleichgewicht.

Sonst würde ja auch keine DSLR ein vernünftiges Bild bei Tageslichtfotografie zeigen können.

Verfasst: 16.07.2010, 19:08
von Christoph K.
Hi LEute

Daniel meint sicher ein echtes und drei interpolierte Pixel sind nicht so gut wie vier echte Pixel... Naja inwieweit sich das auf die Auflösung auswirkt ist eine Frage für sich, aber auf die Belichtungszeit bezogen find ich die Theorie plausibel. Während da ein eizelner pixel einen finsteren Nebelfetzen aufnimmt, nehmen anderswo in der selben Zeit gleich vier einen wesentlich helleren Stern auf. Klingt logisch.

Nur noch sone Frage: Warum eigentlich vier pixel? R,G,B,L?

lg. Christoph

Verfasst: 16.07.2010, 19:13
von Christoph K.
...oder sind da vier pixel in nem Quadrat gemeint? 2xG 1xB 1xR?

Verfasst: 16.07.2010, 19:18
von Daniel_Guetl
vier pixel in einem quadrat.

die theorie macht nur dann sinn wenn du das rauschen einberechnest, ein pixel interpoliert auf 4 rauscht mehr als 4 pixel die Signal bekommen. Somit sinkt das S/N, was im endeffekt dann in einer schwächeren Nebeldarstellung resultiert.

Viele Grüße

Daniel

Verfasst: 17.07.2010, 14:20
von Lateralus
Was du erzählst würde bedeuten daß ein mit einer DSLR fotografiertes rotes T-Shirt stärker rauscht als ein weißes T-Shirt.
Das kann ich nicht bestätigen und kenne auch sonst keinen ähnlichen Befund.

Warum sollte das interpolierte Pixel stärker rauschen?

Verfasst: 17.07.2010, 14:54
von Christoph K.
Lateralus hat geschrieben:Was du erzählst würde bedeuten daß ein mit einer DSLR fotografiertes rotes T-Shirt stärker rauscht als ein weißes T-Shirt.
Das kann ich nicht bestätigen und kenne auch sonst keinen ähnlichen Befund.

Warum sollte das interpolierte Pixel stärker rauschen?
Ich denk mal das bei einem Tageslichtfoto und bei kurzen belichtungszeiten nicht ins gewicht fallen wird. Da sammelt das pixel auch nur über den roten kanal soviel licht das es das rauschen überdeckt. Bei nem nebel is ja mehr schwarz als rot drin könnte man sagen.

lg. Christoph