Ein CCD-Bildsensor ist ein Bildsensor, der auf einem ladungsgekoppelten Gerät ( Load Device Coupled CCD) basiert . Bei Dokumentenscannern und vielen anderen ähnlichen Anwendungen sind die Geräte linear und führen über das zu scannende Objekt. In noch Kameras und digitale Videokameras, die oft in der kleinsten Dimension des Bildes.
Jedes lichtempfindliche Element lädt eines der Elemente des CCDs proportional zu seiner Beleuchtung. Die Einstrahlung wird dann ausgesetzt, während ein Taktsignal die Ladungsübertragung an das benachbarte Element bewirkt, wodurch schließlich eine Serialisierung der Informationen durchgeführt wird.
CCD-Bildsensoren bestehen aus einer Matrix von Photodioden, die entweder quadratisch, rechteckig oder sogar polygonal sein können, mit einem charakteristischen Durchmesser von 1,4 µm bis über 20 µm . Die Effizienz eines Sensorelements wird in Elektronen ausgedrückt, die pro empfangenem Photon erzeugt werden. Je größer die Oberfläche eines Elements ist, desto mehr Photonen empfängt es und desto höher ist die Lichtempfindlichkeit und der Dynamikbereich des CCDs, aber die Anzahl der Sensoren nimmt bei gleicher Länge ab, was das Auflösungsvermögen des Geräts verringert .
Die meisten CCDs nutzen einen Feldeffekt : Ein dielektrischer Film bedeckt die dotierte Schicht, und transparente Elektroden sind mit diesem Film verbunden. Die Ladungsträger (meistens Elektronen, manchmal aber auch „ Löcher “) sammeln sich auf dem Film an. Eine weitere dünne leitfähige Schicht wird manchmal zwischen die Pixel eingefügt, um den Kontrast zu verbessern und die überbeleuchteten Pixel elektrisch zu entladen.
Einfallendes Licht überträgt seine Energie durch internen photoelektrischen Effekt auf die Elektronen des Halbleiters. Dieser Eingang setzt Elektronen (negativ geladen) und "Löcher" (positiv geladen) frei, die sich beim Anlegen einer elektrischen Spannung gegenseitig abstoßen. Anders als bei einer Fotodiode werden die Ladungen nicht sofort entfernt, sondern sammeln sich in einer Speicherzelle, einem Potentialtopf , der als Kondensator fungiert. Wenn sie rechtzeitig vor der Spannungssättigung der Photodiode dekodiert wird, ist die gesamte gespeicherte Ladung proportional zur Belichtung .
Bei Überbelichtung können die Ladungen einer Speicherzelle die einer Nachbarzelle beeinflussen; ein „ Anti-Blooming- Kreislauf “, der als Evakuator fungiert und überschüssige Energie abschneidet, kann diesen Effekt reduzieren oder beseitigen. Bei langen Pausenzeiten ist das Ausgangssignal nicht mehr proportional zur Belichtung; Aus diesem Grund wird diese Praxis bei wissenschaftlichen Anwendungen von CCD-Sensoren vermieden.
Nach der Belichtung arbeitet das Ladungsübertragungsgerät wie eine Eimerkette bis zum Auslassfilter. Das Ausgangssignal des Sensors wird seriell übertragen : die Ladungen jedes der Pixel nacheinander, während das einfallende Licht sie während der Belichtung gleichzeitig "parallel" aufgeladen hat.
Die meisten CCD-Sensoren sind Wafer, die Bilder dekodieren sollen. Für die Decodierung des Sensors wird die Ladung der Photodioden in eine Reihe von vertikalen CCDs ( vertikale Schieberegister ) kopiert und dann mit der vertikalen Abtastfrequenz umcodiert. Sie laden gleichzeitig die Zellen eines horizontalen CCDs auf, der sie sofort weitersendet (Pixelfrequenz, die die Videobandbreite bestimmt). Das Signal am Ausgang dieses Schieberegisters wird dem Filterverstärker (Strom-Spannungswandler und Impedanzwandler) zugeführt.
Das resultierende Ausgangssignal weist eine große Ähnlichkeit mit dem Signal herkömmlicher CMOS-Fotosensoren auf, wodurch es leichter ersetzt werden kann.
Dieses Grundprinzip kann geändert werden:
Für genaue Messungen mit Strom-Spannungs-Multiwandlern (und ggf. Analog-Digital-Wandlern) muss jede Komponente an die anderen angepasst werden, um relative Schwankungen in Linearität, Verzögerung und Rauschpegel auszugleichen; andernfalls kann es zu Problemen wie bei der Spektroskopie kommen.
Während der Ladungsübertragung sollte keine zusätzliche elektrische Ladung abgefangen werden. Dafür werden mehrere Lösungen implementiert:
Bei den meisten CCD-Chips wird die Oberseite des Silizium-Wafers, also diejenige, auf der die Halbleiterstrukturen platziert sind, beleuchtet ( front-side-illuminated CCD ). Auf der Oberfläche befinden sich bestimmte nicht-lichtempfindliche Strukturen (zB Polysilizium-Elektroden): dort werden vor allem die kurzen Wellenlängen (Blau, Violett und Ultraviolett) teilweise absorbiert. Aber dieses Cutoff des Spektrums wird in vermieden hinten beleuchteten CCDs : in diesen Komponenten, die hintere Fläche des Siliziumwafers poliert und geätzt , auf eine Dicke von 10 bis 20 & mgr; m , dann klebte an der Rückseite der lichtempfindlichen Schicht. Diese Technik ist sehr teuer: Sie wird daher nur für kurze Wellen verwendet, die eine hohe Quanteneffizienz erfordern , beispielsweise in der Spektroskopie oder in der Astronomie. Ein Nachteil des von hinten beleuchteten CCDs ist ihre unebene spektrale Empfindlichkeit für die höchsten Wellenlängen, weil die Mehrfachreflexionen des Lichts durch Totalreflexion zwischen den Flächen verursacht Oberflächeninterferenz ( etaloning ), wie in einem Fabry - Interferometer. -Perot .
Für die Detektion von Farbbildern müssen Sensoren mit Pixeln unterschiedlicher spektraler Selektivitäten verwendet werden. Durch Nachbearbeitung der Signale der Pixel, die denselben Sektor des Bildes belegen, ist es möglich, makroskopische Größen wie den Farbton oder den Kontrast zu bestimmen.
Im Jahr 2020 werden zwei Hauptmethoden verwendet:
Die Komponenten, die die unterschiedliche Eindringtiefe von Photonen blauer und roter Wellenlänge in das Silizium ausnutzen ( Foveon-X3-Sensor ), werden in CCDs nicht verwendet.
Dreifach-CCD-SensorenDigitalkameras der Mittelklasse verfügen bereits über Triple-CCD-Sensoren . Es sind relativ kleine Sensoren (von 1/6 für Bastlergeräte bis 2/3 ″ für Profis). Sie benötigen Optiken mit hoher Brennweite , mindestens 1,6-facher Diagonale des Sensors, um genügend Volumen für die Aufnahme des dispersiven Prismas zu lassen . Dort wird das gespeicherte Licht optimal analysiert und selbst bei kurzer Diagonale bieten diese Geräte ein gutes Signal-Rausch-Verhältnis und eine hervorragende Farbwiedergabe.
Das Prisma befindet sich direkt hinter dem Objektiv, und gegen jede der Austrittsflächen der Lichtstrahlen ist ein CCD-Sensor angebracht. Die Herstellung dieser mit CCD ausgestatteten Prismen erfordert höchste Präzision des Fertigungslabors, um die Abdeckung des gesamten Farbbereichs zu gewährleisten.
Der Bayer-Sensor Pixelformen von Monochrom- und FarbsensorenDie mit Abstand größten Marktanteile haben quadratische Pixel-CCDs, die mit RGGB-Farbfiltern (Bayer-Matrix) ausgestattet sind. Andere Pixelformen (rechteckig, sechseckig, dreieckig, rhombisch, achteckig) und andere Farbfilterkombinationen (monochrom, RGGB, RGBW, RGBE, CYGM, CMYW, Super-CCD-EXR-Kombination) sind selbstverständlich möglich. Der Super-CCD-Sensor ( Patent Fuji ) ist als kompakter Stapel in wabenförmigen achteckigen Pixeln aufgebaut und optimiert somit die Zelloberflächendichte. Die Größe der lichtempfindlichen Zellen auf der Oberfläche des Sensors kann heterogen sein: Dies verbessert seine Dynamik.
Um Bildkontrastunterschiede aufgrund von Verunreinigungen auf der CCD-Oberfläche ( Staub ), heterogener Pixelempfindlichkeit oder spezifischen Defekten in der verwendeten Optik ( Vignettierung , schließlich Reflexionen ) ausgleichen und maskieren zu können, wird das aufgenommene Bild wird durch Entfaltung seines hellen Hintergrunds (Flat-Field-Korrektur) neu zusammengesetzt und dann durch Faltung mit dem Mittelwert dieses hellen Hintergrunds multipliziert . Um das durch den Dunkelstrom verursachte Bildrauschen zu eliminieren, wird bei den Standfotos (zB in der Astrofotografie ) zusätzlich eine subtraktive Synthese mit dunklem Hintergrund durchgeführt ( Dark-Frame Subtraction ). Das Ergebnis ist ein kalibriertes Bild .
Die folgenden Bilder zeigen den Effekt dieser Kalibrierung bei einem Astronomiefoto. Das Rohbild zeigt eine Vielzahl heißer , d. h. klarer Pixel, die den Empfindlichkeitsschwankungen zwischen den Pixeln entsprechen. Dieses Hintergrundrauschen im Bild verdeckt die schwächeren Sterne. Die Staubigkeit des lichtempfindlichen Chips verursacht dunkle Flecken.
Um das Bild zu kalibrieren, verwenden wir zwei Datensätze:
Diese beiden Hintergründe geben die für jedes Pixel vorzunehmenden Korrekturen an. Auf dem kalibrierten Foto sind selbst die schwächsten Sterne sichtbar. Das kalibrierte Foto kann zu quantitativen Analysezwecken verwendet werden, beispielsweise zur Messung der Albedo der Sterne: Ohne den Kalibrierungsschritt würde die Verwendung des Rohbildes zu fehlerhaften Werten führen.
Rohbild
Dunkler Kontrast
Klarer Kontrast
Rekalibriertes Bild
Insbesondere bei kohärentem Licht kann es vorkommen , dass eine unsachgemäße Vorbereitung des CCD-Schirmes, der den Sensor vor Staub schützen soll, zur Bildung von Interferenzmustern führt. Dieses Problem kann behoben werden, indem für den Bildschirm kein dünner Streifen mit parallelen Flächen verwendet wird, sondern eine ebene Dioptrie, deren Flächen einen leichten Winkel zwischen sich bilden. Wenn ein Strahl auf die vordere Grenzfläche der Dioptrie trifft, tritt er mit einem Brechungswinkel in der Achse des Sensors aus, wobei die Sinusregel von Descartes den genauen Wert des Austrittswinkels bestimmt; gleichzeitig beschreibt ein Teil dieses Strahls durch Totalreflexion eine Reihe von Reflexionen, bevor er auch in der Achse des Sensors austritt. Betrachtet man diese beiden Strahlen, so bewirkt ihr Gangunterschied, dass die Fronten der Lichtwellen ein Moiré-Muster erzeugen . Eine geeignete Wahl des Brechungswinkels ermöglicht es, die Lichtlinien des Bildes so weit zu verengen, dass die Interfringe kleiner sind als der charakteristische Durchmesser der Pixel.
Die wichtigsten charakteristischen Eigenschaften von CCD-Chips sind:
Bei hochauflösenden Kameras werden Dunkelstrom und Rauschpegel durch die Kühlung des Chips begrenzt. Mit flüssigem Stickstoff können wir den Dunkelstrom auf weniger als drei Elektronen pro Pixel pro Stunde reduzieren.
Die Ausdehnung der lichtempfindlichen Fläche des Chips spielt eine entscheidende Rolle für die Bildqualität. Bei gleicher Auflösung (Anzahl der Pixel) ist die Fläche der Zellen proportional zur Fläche des Chips. Je größer die Zellen, desto mehr Photonen fangen sie ab und die Lichtempfindlichkeit wird entsprechend erhöht. Da nicht das gesamte Rauschen mit der Einheitszellenfläche zunimmt, hat ein größerer Chip ein besseres Signal-Rausch-Verhältnis . Darüber hinaus sammeln große Zellen mehr Elektronen und haben einen größeren Dynamikbereich .
Neben metrischen Daten für die aktive Fläche selbst (z. B. 16 mm × 2 mm ) hat die Industrie eine altehrwürdige Tradition von Kathodenstrahlröhren eingefroren , bei denen der Außendurchmesser der Glühbirne in Zoll (z. B. 2/3 ) angegeben wurde. Die lichtempfindliche Oberfläche dieser Röhren war jedoch kleiner als ihr Außendurchmesser: So hatte der aktive Abschnitt einer Röhre mit 1 Durchmesser nur eine Bilddiagonale von etwa 16 mm . Ein 1--CCD-Chip hat per Definition die gleiche Bilddiagonale wie eine 1--Röhre.
Die gängigsten Abmessungen für CCD-Bildsensoren sind 2/3 (ca. 11 mm Diagonale) für professionelle Kameras oder 1/2 (ca. 8 mm Diagonale); für Geräte für „ Prosumer “, 1/3 (ca. 5,5 mm Diagonale) und für Consumer-Anwendungen oder Handykameras, noch kleinere Sensoren (1/4 oder 1 / 6 ″). Kleinere digitale Geräte haben oft 1 / 2,3 Sensoren (ca. 7 mm Diagonale); die SLR digital, meist ein Format APS-C (ca. 28 mm Diagonale), oder in der oberen Preisklasse das Standardformat von Filmkameras.
CCD-Sensoren können sowohl für sichtbare Wellenlängen als auch für nahes Infrarot , UV oder Röntgen eingesetzt werden : Ihr Anwendungsspektrum reicht tatsächlich von 0,1 µm bis fast 1.100 nm. . Das Auflösungsvermögen bei langen Wellenlängen wird durch die Bandlücken von Halbleitermaterialien (ca. 1,1 eV für Siliziumchips und 0,66 eV für Germaniumchips) begrenzt.
Sie sind daher ausreichend vielseitig, um in den Naturwissenschaften und in der Industrie eingesetzt zu werden. Aber gerade in der Astronomie haben sie durch ihre hohe Empfindlichkeit, die es ermöglichte, Sterne mit sehr geringer Leuchtkraft zu erkennen , sehr schnell andere Empfänger wie Fotoplatten entthront ; aber sie haben viele andere Vorteile, wie das Ausmaß des Spektrums, auf das sie reagieren, ihren höheren Dynamikbereich (d. h. ihre Fähigkeit, die winzigen Quellen sehr heller Objekte im selben Bild effektiv zu kontrastieren) und schließlich die digitale Natur von die aufgezeichneten Informationen; dieser letzte Punkt ist ein großer Vorteil in der Photometrie und bei der Entwicklung komplexer Bildverarbeitungsalgorithmen .
Erst mit der Fine-Art-Fotografie haben digitale CCD-Kameras keine Revolution erreicht. Die Vervielfachung der Pixelzahl hat die Anwendung von CCD-Bildsensoren auf fast alle Bereiche der Fotografie ausgeweitet. Bis auf wenige Künstler sind professionelle Filmspiegelreflexkameras bereits 18- Megapixel- CCD-Sensoren gewichen ; Dies gilt umso mehr für DSLRs der mittleren Preisklasse und zunehmend auch für 35-mm-Kameras mit 30 Megapixeln und mehr.
CMOS vs. CCD
In der technischen Fotografie haben die CMOS-Sensoren , mit denen wir einst die Palette der Eingabegeräte realisierten, ab 2005 den Marktanteil von CCD selbst im Bereich der High-End-Geräte marginalisiert. Die ganz realen Nachteile von CMOS (Rauschen, geringere Empfindlichkeit) wurden oft minimiert oder teilweise eliminiert, sodass CMOS-Sensoren CCD-Sensoren im Bereich der digitalen Spiegelreflexkameras (z.B. der Canon EOS-1Ds) praktisch verdrängt haben 2002, Nikon D2X 2004, Nikon D300 2007). Bei vergleichbarer Bildqualität (je nach Anwendung) kompensieren die Vorteile der CMOS-Technik (schnellere, bedarfsgerechtere Dekodierung, praktisch kein Blooming etc.) deren Defizite weitgehend. Auf der anderen Seite bieten CCDs eine deutlich höhere Auflösung für den Kontrollbildschirm von Kameras und Kameras (40 Megapixel und mehr). Auch für High-End Digital Compacts und Bridges haben wir um 2010 fast ausschließlich CCD-Sensoren verwendet ( Canon PowerShot S100 mit CMOS 2011, PowerShot G1X 2012).
Bei Camcordern hingegen haben CCD-Sensoren die Röhren ersetzt ( Iconoscope , Vidicon ). Die Auflösung von Camcordern beträgt nach PAL- oder NTSC-Standard 440.000 Pixel (CCIR / PAL) bzw. 380.000 Pixel (EIA / NTSC) und deren Bildwiederholfrequenz von 25 Hz (CCIR / PAL) bzw. 30 Hz (EIA / NTSC).
CCDs können mit einer Kontrastvorverstärkerstufe ausgestattet werden: Diese wird als Amplified CCD ( intensivierte CCD , abgekürzt als iCCD) bezeichnet. Das Prinzip besteht darin, das Licht zuerst durch eine Photokathode zu leiten; der gesammelte Strom wird dann beispielsweise durch einen Microchannel-Wafer (MCP) verstärkt und auf einen Bildschirm übertragen. Das Licht wird dann über eine Glasfaser zum CCD geleitet . Angesichts der hohen Empfindlichkeit aktueller CCDs verschlechtern diese verstärkten CCDs die Empfindlichkeit für Bilder mit langen Pausenzeiten (die Quanteneffizienz von Photokathoden ist sogar geringer als die der besten CCDs). Da sehr empfindliche CCDs etwas langsamer zu dekodieren sind, können iCCDs für hohe Abtastfrequenzen (zB bei Video) interessant sein. Amplifizierte CCDs lassen auch die Belichtungszeit auf weniger als 0,2 ns sinken , was mit einem CCD allein nicht möglich ist. Dazu muss es gelingen, sehr kurze Spannungspulse an die Anschlüsse des Mikrokanal-Wafers anzulegen: In diesem Fall spricht man von CCD mit Gates ( gated CCD ).
CCDs sind nicht nur empfindlich gegenüber elektromagnetischer Strahlung, sondern auch gegenüber Strömungen ionisierender Teilchen, da diese Strahlung Loch-Elektronen-Paare beeinflussen kann. Diese von hinten beleuchteten CCD- Elektronendetektoren werden als ebCCD (engl. Electron Bombarded CCD ) bezeichnet. Eine Anwendung dieser Sensoren ist die Restlichtverstärkung: Elektronen kommen von einer Photokathode und werden durch eine elektrische Potentialdifferenz am ebCCD-Sensor so abgelenkt, dass jedes einfallende geladene Teilchen mehrere Loch-Elektronen-Paare gleichzeitig beeinflusst.