-
Hintergrund der Erfindung
-
Die
vorliegende Erfindung betrifft eine Systemarchitektur und ein Schaltungsdesign
für CMOS-Bildsensoren. Insbesondere
bezieht sie sich auf Photodetektoren und Bildsensoren, die in der
WO 02/033755 beschrieben sind, ist aber nicht auf diese beschränkt.
-
Das
Leistungsverhalten und die Funktionalität von CMOS-Bildsensoren hängen von der Physik der Photodetektion,
den Betriebsarten der Photodioden, der pixelinternen Schaltung,
der Schaltung an der Peripherie sowie den Verbindungen zwischen
der Sensormatrix und der Peripherie ab.
-
Die
WO 02/033755 führt
eine Prozesstechnologie ein, welche es ermöglicht, Lawinen-Photodioden,
(APDs – Avalanche
Photo Diodes) für
Bildsensormatrizen eng mit CMOS-Bauelementen
zu integrieren. Da die aktiven Schichten der APDs epitaktisch auf
den Substraten aufgewachsen werden, besteht die Möglichkeit,
optimale Dotierungs- und Heteroübergangsprofile
mit Hilfe von perfekten Legierungen und Übergittern auf Siliciumbasis,
beispielsweise Silicium-Germanium
(SiGe) und Silicium-Germanium-Kohlenstoff (SiGeC), zu erhalten.
Das epitaktische Wachstum der aktiven Schichten ermöglicht die Herstellung
von Avalanche-Photodetektoren mit separater Absorption und Vervielfachung
(SAM-APDs -Separated Absorption and Multiplication APDs), welche
für das
Photodiodendesign erachtet wird, welches das beste Leistungsverhalten
bietet.
-
Das
epitaktische Wachstum der Photodiodenschicht ermöglicht die Herstellung von CMOS-Bildsensoren
auf anderen Substraten als Bulk-Siliciumwafern, beispielsweise SOI- (Silicium-auf-Isolator-)
Substraten, darunter Dünnschicht(TF)-SOI-Substraten.
Es sollte erkannt werden, dass herkömmliche CMOS-Bildsensoren nicht auf
TF-SOI hergestellt werden können,
weil:
- 1. die kristalline Siliciumschicht auf
der Oberseite des vergrabenen Oxids zu dünn ist, um eine brauchbare
Photoabsorption bereitzustellen.
- 2. bei TF-SOI der Source/Drain-zu-Trog-Übergang, der bei herkömmlichen
CMOS-Bildsensoren als die Photodiode genutzt wird, nicht existiert.
-
Abgesehen
davon, dass es das Substrat der Wahl für CMOS-Bauelemente einer Generation
weit unter 90nm darstellt, mit unstrittigen Vorteilen gegenüber Bulk-Substraten/Bauelementen,
was die Geschwindigkeit, Verlustleistung, Integrationsdichte, Strahlungshärte usw.
betrifft, ermöglicht
TF-SOI rückseitenbeleuchtete
CMOS-Bildsensoren
durch Entfernen des Siliciumwafers unterhalb des vergrabenen Oxids
und Ersetzen desselben durch ein transparentes Substrat wie etwa
Quarz, Saphir, Quarzglas, Kunststoff usw.
-
Die
Rückseitenbeleuchtung
bietet einige einzigartige Möglichkeiten
für CMOS-Bildsensoren,
da auf der Frontseite des Wafers die Fläche oberhalb der Photodiode
in jedem Pixel nicht mehr frei von opaken Materialien zu sein braucht.
Daher wird Folgendes möglich:
- 1. engmaschige Metallverbindungen über dem Bereich
der Pixel und Photodioden;
- 2. pixelinterne Kondensatoren, Homo/Heteroübergangs- oder MOS-Kondensatoren
können über den
Schichten der Photodioden hergestellt werden, wodurch etwaige Nachteile
hinsichtlich des Flächenverbrauchs
vermieden werden;
- 3. pixelinterne MIM-Kondensatoren können während der Herstellung dichter
Verbindungen über Pixelbereichen
hergestellt werden;
- 4. das Licht braucht nicht mehr durch die dielektrischen Schichten
zu laufen, die in den Metallisierungsstapel eingebettet sind, wodurch
Einschränkungen
hinsichtlich des Materials, des Layouts und der Gesamtdicke des
Metallstapels wegfallen;
- 5. Ohne Einschränkungen
in Verbindung mit der Bilderfassung kann die Anzahl der genutzten
Metallebenen oder die Herstellung der CMOS-Bildsensoren die für die entsprechend genutzte
CMOS-Generation
maximal mögliche
sein. Typischerweise werden herkömmliche CMOS-Bildsensoren
mit weniger Metallebenen hergestellt, als eine rein elektrische
Schaltung, die mit der gleichen CMOS-Technologie hergestellt wird,
und zwar aufgrund der Einschränkungen hinsichtlich
der Höhe
des Metallisierungsstapels.
-
Eine
weitere Erfindung, die in einer gleichzeitig anhängigen internationalen Anmeldung
offenbart ist und als Oberflächenplasmonenresonanz(SPP – Surface
Plasmon Polariton)-Lichttrichter bezeichnet wird, stellt ein neues
Bauelement dar, das eine Reihe wesentlicher Parameter von Bildsensoren
beträchtlich ändert. Eine
Matrix aus SPP-Lichttrichterelementen
oder SPP-Pixeln ist in der Bildebene der Linse angeordnet. Jeder
SPP-Lichttrichter sammelt Licht aus einem bestimmten Bereich, welcher
die Größe des SPP-Pixels definiert,
und führt
es trichterartig auf einen viel kleineren Bereich, und zwar ohne
Dämpfung
oder Brechung. Der kleine Querschnitt eines SPP-Lichttrichters ist
sehr nahe an der entsprechenden Photodiode angeordnet, welche nur
eine geringfügig
größere Oberfläche zu haben
braucht, als der "schmale" Bereich des Lichttrichters.
-
Die
SPP-Lichttrichter bieten die folgenden Möglichkeiten:
- 1.
Licht, das aus einem bestimmten Bereich gesammelt wird, kann auf
einen Querschnitt eingezwängt
werden, der viel kleiner als die Wellenlänge von Licht ist, und zwar
ohne Dämpfung
oder Brechung.
- 2. Der "schmale" Bereich eines Lichttrichters zwängt das
Licht in die entsprechende Photodiode.
- 3. Die Fläche
der Photodiode kann auf eine Fläche
reduziert werden, die nur geringfügig gröber als der Querschnitt des
schmalen Bereiches des Lichttrichters ist, wodurch der Dunkelstrom
reduziert wird, ohne das Eingangssignal zu verlieren. Dadurch ergibt
sich ein erhöhtes
Signal/Rausch-Verhältnis.
- 4. Die Größe des SPP-Pixels
in der Bildebene der Linse bestimmt die Größe des "Sensor-Pixels".
- 5. Die Menge an Licht, die durch den Lichttrichter in die Photodiode
eingekoppelt wird, ist unabhängig
von der Größe der Photodiode,
wodurch ein konstanter Füllfaktor
von 100% bereitgestellt wird.
- 6. Die Reduzierung der Größe der Photodiode vermindert
den Dunkelstrom und bietet zusätzliche
Fläche
für CMOS-Bauelemente,
ohne dass sich der Füllfaktor
vermindert.
- 7. Durch die Reduzierung der Größe der Photodiode verbessert
sich die Ausbeute des epitaktischen Wachstumsprozesses, der zur
Herstellung der Photodioden genutzt wird.
- 8. Die Lichtkoppelmechanismen des SPP-Lichttrichters verhindern
ein Übersprechen
zwischen benachbarten Pixeln, welches durch Photonen entsteht, die
auf sehr schrägen
Pfaden auftreffen.
-
Zusammenfassung der Erfindung
-
Die
Erfindung ist in den Ansprüchen
1 und 2 ausgeführt.
Eine erste Aufgabe der vorliegenden Erfindung besteht in einer pixelinternen
Schaltungsarchitektur für
APDs, die im linearen Modus arbeiten, welche Vorteil aus einer großen Anzahl
pixelinterner CMOS-Bauelemente zieht, und zwar ohne eine Verminderung
des Füllfaktors.
-
Eine
zweite Aufgabe der vorliegenden Erfindung stellt eine pixelinterne
Schaltungsarchitektur für APDs
dar, die im nichtlinearen Modus arbeiten, der auch als Geiger-Modus
bezeichnet wird, welche Vorteil aus einer großen Anzahl pixelinterner CMOS-Bauelementen
zieht, ohne eine Verminderung des Füllfaktors.
-
Eine
dritte Aufgabe der vorliegenden Erfindung stellt eine erste Schaltungsarchitektur
dar, um einen Vorteil aus den dichten Verbindungen zwischen pixelinterner
Schaltung und Peripherieschaltung der Sensormatrix zu ziehen.
-
Eine
vierte Aufgabe der vorliegenden Erfindung besteht in einer zweiten
Schaltungsarchitektur, um einen Vorteil aus den dichten Verbindungen
zwischen pixelinterner Schaltung und Peripherieschaltung der Sensormatrix
zu ziehen.
-
Eine
fünfte
Aufgabe der vorliegenden Erfindung stellt eine dritte Schaltungsarchitektur
dar, um einen Vorteil aus den dichten Verbindungen zwischen pixelinterner
Schaltung und Peripherieschaltung der Sensormatrix zu ziehen.
-
Kurze Beschreibung der
Zeichnungen
-
1 zeigt,
wie mehrere Verstärkungsfaktoren
für die
APD realisiert werden können,
indem mehrere Pass-Transistoren
hinzugefügt
werden, die zwischen den oberen Anschluss der APD und Metallleitungen
mit unterschiedlichen Potentialpegeln geschaltet werden.
-
2 zeigt
die "pixelinterne" Schaltung, die in
einem "Detektionsfrequenz"-Modus arbeitet,
sowie die entsprechende Schaltung zum Zurücksetzen der Photodiode (nach
einer ersten Detektion), wobei sich die Photodiode letztendlich
im "Standby"-Modus, bereit für die nächste Detektion,
befindet.
-
3 zeigt
das Taktungsdiagramm für
die Betriebsphasen Rücksetzung,
Standby, Detektion und Rücksetzung
der Schaltung, welche das Ausgangssignal behandelt und die Geiger-APD
steuert.
-
4 zeigt
die Schaltung aus 2 zuzüglich der pixelinternen Zähler, die
für dieses
spezielle Beispiel mit einer Tiefe von 4 Bit dargestellt sind. Andere
Bit-Tiefen sind möglich.
-
5 zeigt
ein Beispiel einer digitalen Pixelsteuereinheit (PDCU – Pixel
Digital Control Unit), wobei der Vereinfachung der Zeichnung halber
nur 4 Pixel, mit 2-Bit-Zählern,
gezeigt sind.
-
6 zeigt
die Darstellung der spaltenweise angeordneten dichten Verbindungen,
wobei jede Bahn aus einer endlichen Anzahl gestapelter Metallleitungen
(oberer Teil der Figur) besteht. Die Figur zeigt außerdem die
Anordnung der Bahnen, die über der
Fläche
der Pixel liegen und spaltenweise ausgelegt sind.
-
7 stellt
die minimalen Verbindungen zwischen einer digitalen Pixelsteuereinheit
(PDCU) und einem Satz von Pixeln, die diese steuert, dar, und zwar
für den
Umfang, dass die Daten in den Pixelzählern zu einer Peripherieschaltung übertragen
werden und unter Annahme von 3 Leitungen für Daten und 1 Leitung für Steuerung
(d. h. dass eine Bahn mit 4 Leitungen genutzt wird).
-
8 zeigt
ein Taktungsdiagramm, das die Übertragung
von Daten für
2 Pixel unter der Annahme der in 7 dargestellten
Pixel- und PDCU-Anordnung darstellt.
-
Beschreibung beispielhafter
Ausführungsformen
der Erfindung
-
Hochentwickelte pixelinterne
Schaltung
-
Lawinen-Photodioden
(APDs) können
in Betriebsarten betrieben werden, die für Photodioden, welche in herkömmlichen
CMOS-Bildsensoren genutzt werden, nicht zur Verfügung stehen.
-
Der
Betrieb von APDs im linearen Modus liefert eine eingebaute analoge
Verstärkung
des durch Licht generierten Signals. Der Betrag der Verstärkung oder "Vervielfachung" kann durch Vergrößerung der
angelegten Spannung erhöht
werden. Die Amplitude des Photostroms ist proportional zur Anzahl
der Elektron-Loch-Paare, die in der Photodiode absorbiert werden.
Wird eine Sperrschicht im Lawinenmodus oder Photostrommodus betrieben,
wirkt sie nicht als Speicherknoten, wie es bei Photodioden mit pn-Übergang
der Fall ist, die in herkömmlichen CMOS-Bildsensoren
genutzt. werden, welche im Photovoltaikmodus betrieben werden. Der
Geiger-Modus ist nichtlinear, weil die angelegte Vorspannung so
groß ist,
dass ungeachtet der Anzahl der absorbierten Photonen die Verstärkung derart
erfolgt, dass die Absorption eines einzelnen Photons zu einer unmittelbaren
Stromsättigung
führt.
Deshalb wird dieser Modus auch als "Einphotonenzählungs"-Modus bezeichnet. Dieser Modus ist
insbesondere geeignet für
extrem schwache Beleuchtungsbedingungen und um den Moment der Photodetektion
zu signalisieren.
-
Die
CMOS-Bauelemente, welche die Ausgangssignale der Photodioden direkt
steuern und behandeln, können
in Schaltungen angeordnet werden, welche den Photostrom auf zweierlei
grundlegend unterschiedliche Weise behandeln, nämlich:
- 1.
Umsetzung der Amplitude des detektierten Photostroms in digitale
Werte;
- 2. Umsetzung der Frequenz des detektierten Photostroms in digitale
Werte.
-
Beide
Fälle können für eine asynchrone Nachverfolgung
des Eingangssignals realisiert werden, in welchem Fall für beide "pixelinterne" Zähler erforderlich
sind. Das Umsetzen der Amplitude in digitale Werte erfordert eine
recht herkömmliche
Schaltung, wie etwa einen Komparator zusätzlich zu den für die Steuerung
der APD selbst erforderlichen Transistoren als auch Transistoren
für die
Zähler.
Andererseits erfordert das Umsetzen der Frequenz in digitale Werte
keinen Komparator, und es wird erreicht durch Führen der Impulsfolge, welche
die APD erzeugt (bereits in digitaler Form), auf einen digitalen Zähler. Daher
ist eine Frequenz-zu-digital-Wandlung oder
Photonen-zu-digital-Wandlung viel kompakter und krankt nicht an
Auslese-Rauschen und Quantisierungsfehlern, die mit einer Amplitude-zu-digital-Wandlung verbunden
sind.
-
Pixelinterne Schaltung
für Lawinen-Photodioden (APDs),
die im linearen Modus arbeiten
-
Vorausgesetzt,
dass eine ausreichend große Anzahl
von CMOS-Bauelementen innerhalb eines Pixels erzeugt werden kann,
können
höhere
Entwicklungsgrade für
den Betrieb der Bildsensoren hinzukommen. Insbesondere für Bildsensoren
mit EGS (Eletronic Global Shutter) und Pixeln, bei denen die APDs
im linearen Modus betrieben werden, ist es höchst wünschenswert, die Lawinenverstärkung für jedes
Pixel unabhängig
zu steuern.
-
Die
Lawinenverstärkung
hängt sehr
empfindlich von der angelegten Spannung ab, und aus diesem Grund
ist es außerdem
höchst
wünschenswert, mehrere
unterschiedliche stabile Spannungsquellen zu haben, welche mit einem
Anschluss der Photodiode über
Pass-Transistoren verbunden sind, die entsprechend den Beleuchtungsbedingungen
ausgewählt
werden können.
Damit wird es möglich,
eine hohe Lawinenverstärkung
für eine
geringere Lichtintensität
zu wählen
und eine schwächere
Verstärkung für eine stärkere Lichtintensität zu wählen und
somit einen viel größeren Aussteuerbereich
zu behandeln, als es ansonsten möglich
ist, was zu einem geringeren Informationsverlust über ein
gesamtes Bild hin führt.
Die Informationen dazu, bei welcher Verstärkung (welcher Spannung) die
Photodiode arbeitet, wenn ein gegebenes Bild erfasst wird, kann
an die Bits angehängt
werden, wobei die Binärwerte
die Informationen bezüglich
der Primärfarben
beschreiben. 1 zeigt, wie mehrere Verstärkungsfaktoren für die APD
realisiert werden können, indem
mehr Pass-Transistoren hinzugefügt
werden, die zwischen den oberen Anschluss der APD und Metallleitungen mit
unterschiedlichen Potentialpegeln geschaltet sind. Die zusätzlichen
Pass-Transistoren würden
parallel zu T1 angeordnet, und es würde nur jeweils einer angeschaltet
werden. Bei mehreren Spannungspegeln würde das Gate von T2 getrennt
von T1 oder einem der anderen Pass-Transistoren gesteuert werden.
-
Pixelinterne Schaltung
für Lawinen-Photodioden (APDs),
die im Geiger-Modus arbeiten
-
Der
Geiger-Modus erfordert wegen seines extrem großen Verstärkungsfaktors eine Entladung des
Stroms, um eine permanente Schädigung
der Photodiode aufgrund einer Überhitzung
zu verhindern. Die Entladung kann mit passiven oder aktiven Schaltungen
erfolgen. Eine aktive Entladung besteht im Zurücksetzen der Photodiode unmittelbar
nachdem der Strom nach der Absorption eines oder mehrerer Photonen
durch die Photodiode auf hohe Pegel angestiegen ist. Das Rücksetzsignal
muss derart ausgelöst
werden, dass zwei Aufgaben erfüllt
werden:
- a) Kurzschluss beider Anschlüsse der
Photodiode, sodass der Strom auf Null gebracht wird;
- b) Wiederherstellen der "Standby"-Einstellung an der
Photodiode, mit einer angelegten Spannung und einem niedrigen "Dunkelstrom", in Bereitschaft
zur Detektion des/der nächsten
Photon(s)/(en).
-
Die
maximale Detektionsfrequenz ist abhängig von der Geschwindigkeit
der physikalischen Erscheinungen im Inneren der Photodiode als auch
von der Schaltgeschwindigkeit der Schaltung, die der Photodiode
zugeordnet ist. Die maximale Detektionsfrequenz liefert den oberen
Grenzwert für
die Anzahl von Photonen, die von der Photodiode pro Zeiteinheit gezählt werden
können,
und somit den maximal möglichen
Aussteuerbereich zur Detektion mit einer gegebenen APD und der zugeordneten
Schaltung.
-
2 zeigt
die "pixelinterne" Schaltung, die in
einem "Detektionsfrequenz"-Modus arbeitet,
sowie die entsprechende Schaltung zum Zurücksetzen der Photodiode (nach
einer ersten Detektion), wobei sich die Photodiode letztendlich
im "Standby"-Modus, bereit für die nächste Detektion,
befindet. Die verschiedenen Elemente dieser Schaltung als auch spezifische
Punkte P0, P1, P2 und P3 sind bezeichnet. Bei dieser Architektur
sind zwei Transistoren T1 und T2 vorhanden, um die Spannungszufuhr
für die
APD zu steuern, und diese werden ihrerseits durch das NOR-Gatter
N2 gesteuert. Am Ausgang der APD befindet sich eine "Impulslogik"-Schaltung, die sich
aus dem NOR-Gatter N0 und einem NOT-Gatter N1 zusammensetzt.
-
3 zeigt
das Taktungsdiagramm für
die Betriebsphasen Rücksetzen,
Standby, Detektion und Rücksetzen
der Schaltung, welche das Ausgangssignal behandelt und die Geiger-APD
steuert.
-
4 zeigt
die Schaltung aus 2 zuzüglich der pixelinternen Zähler, welche
für dieses
spezielle Beispiel mit einer Tiefe von 4 Bit dargestellt sind. Andere
Bit-Tiefen sind möglich.
-
Informationen
bezüglich
der Ankunftszeit von Photonen erfordern keine zusätzliche
Schaltung zu der in den 2 und 4 gezeigten.
Grundsätzlich
stoppt ein Zeitnehmer an der Peripherie, wann die Detektion des
ersten Photons erfolgt. Dieses Merkmal kann für jedes Farbpixel oder beispielsweise
für die
unter jeder PDCU arbeitende Pixelgruppe realisiert werden. Es ist
zu erwarten, dass es bei tatsächlichen
Anwendungen ausreichen wird, die Flugzeit in nur einem der Teilpixel,
aus denen ein Vollfarbpixel besteht, zu messen. Für ein Farbpixel,
das aus separaten Rot-, Grün-
und Blau- sowie
Infrarot-Teilpixeln zusammengesetzt ist, sollte es ausreichend sein,
die Flugzeit in nur einem dieser Teilpixel zu messen, beispielsweise
dem für
Infrarot.
-
Für eine "pixelinterne" Schaltung, die ein Quellsignal
bearbeitet, das die Detektionsfrequenz anstatt die Amplitude der
detektierten Photonen darstellt, können solche Definitionen wie
Aussteuerbereich(DR – Dynamic
Range), Signal/Rausch-Verhältnis
(SNR – Signal
to Noise Ratio), Sättigung
usw. auch in analoger Weise zu den für Amplitudensignale geltenden
Definitionen definiert werden.
-
Bei
Amplitudensignalen kann eine Sättigung auftreten,
wenn der durch die pn-Übergänge gebildete
Potentialtrog voll wird; d. h. wenn er keine weiteren Ladungen halten
kann oder wenn der Speicherkondensator ebenfalls seine volle Kapazität für die Betriebsspannung
erreicht hat oder wenn der Quantisierungsprozess nicht genügend Bits
hat, um das analoge Signal zu beschreiben. Für ein Frequenzsignal kann die
Sättigung
definiert werden als diejenige Detektionsrate, bei welcher die Rücksetzschleife
mit ihrer maximalen Frequenz arbeitet.
-
Bei
Amplitudensignalen ist der Aussteuerbereich definiert als die maximale
Ladungsmenge, die während
einer Erfassungsperiode eingefangen wird, welche nicht die Sättigung
erreicht, geteilt durch das Rauschen oder den Dunkelstrom, d. h.
die Ladungen, die ohne eine Absorption von Photonen erzeugt werden.
Bei Frequenzsignalen ist der Aussteuerbereich definiert als die
maximale Frequenz der Rücksetzschleife
vor der Sättigung,
geteilt durch die Verschlussfrequenz (das Reziproke der Zeit, während welcher
Photonen absorbiert werden können,
was auch als Verschlusszeitfenster bezeichnet wird).
-
Geiger-APDs
weisen ein digitales und somit rauschfreies Auslesesignal aus. Die
hohe Empfindlichkeit der Geiger-APDs kann jedoch zu einer Falschdetektion
führen.
Dies stellt eine Form von Rauschen dar, die beispielsweise durch
physikalische Defekte in den Schichten des Bauelements bewirkt wird.
Da die Defekthäufigkeit
exponentiell von der Fläche
der Bauelemente abhängt,
sollten APDs mit geringerer Fläche
weniger Falschzählungen
aufweisen. Andererseits ist es unmöglich zu wissen, ob eine gegebene
Detektion durch ein oder mehrere Photonen verursacht wurde, die
gleichzeitig absorbiert wurden. Durch eine Erhöhung der zeitlichen Auflösung der
Photodetektion, d. h. der Reduzierung der Rücksetzzeit, was das gleiche
heißt
wie die Erhöhung
der maximalen Betriebsfrequenz, vermindert sich die Wahrscheinlichkeit
dafür,
dass mehrere Photonen, die in einer kurzen Zeitspanne absorbiert
werden, nicht detektiert werden.
-
Architekturen für dichte
Verbindungen zwischen "pixelinterner" und peripherer Schaltung
-
Wie
bereits erwähnt,
ermöglichen
rückseitig beleuchtete
Bildsensoren mit dichten Verbindungen über den Pixelflächen auf
der Frontseite des Substrats Auslesemodelle, die sich von der "zeilenweisen" oder "spaltenweisen" Adressierung, wie
sie bei herkömmlichen
CMOS-Bildsensoren genutzt wird, stark unterscheiden.
-
Bei
einem alternativen Schema ist es erforderlich, dass im Inneren der
Sensormatrix Pixel in Gruppen oder Zellen organisiert sind, wobei
dieser Bereich von einer Logikeinheit gesteuert wird, die als digitale
Pixelsteuereinheit (PDCU – Pixel
Digital Control Unit) bezeichnet wird. Die Anzahl der unter jeder PDCU
arbeitenden Pixel, die Größe der Pixel,
die Anzahl und das Raster der Metallisierungsebenen sind derart
vorgesehen, dass jede PDCU eine Anzahl von Metallleitungen zur Kommunikation
mit der Peripherie aufweist, die mit keiner anderen PDCU geteilt
werden. Andere Metallleitungen, die den Sensor mit der Peripherie
verbinden, werden von allen Pixeln und allen PDCUs gemeinsam genutzt.
Beispiele für
gemeinsam genutzte Leitungen sind die Masseleitung (GND), möglicherweise
verschiedene VDD-Leitungen, welche unterschiedliche
Spannungspegel führen, und
ein Systemtakt.
-
Mit
der Verfügbarkeit
dichter Verbindungen über
den Sensorflächen
können
die PDCUs in verteilter Weise hergestellt werden, d. h. einige Transistoren
werden physisch in Bereichen angeordnet, die zu einem Pixel gehören, während andere
Transistoren in einem anderen Pixel angeordnet werden, obgleich sie
als eine einzige Funktionseinheit arbeiten.
-
5 zeigt
ein Beispiel einer digitalen Pixelsteuereinheit (PDCU), wobei der
einfacheren Darstellung halber nur 4 Pixel gezeigt sind, und zwar
mit 2-Bit-Zählern.
Die Figur beschreibt, wie das Binärsignal von jedem Pixel über eine
einzige Metallleitung zur Peripherie gemultiplext wird. Diese Betriebsart wird
nachstehend beschrieben, zusammen mit einer möglichen Variante, bei welcher
mehr als ein Bit gleichzeitig über
eine größere Anzahl
paralleler Leitungen übertragen
wird, wie in 7 dargestellt ist. Protokolle,
die auf dem systemweiten Takt basieren, identifizieren zu jedem
Zeitpunkt das Pixel, zu welchem die Daten gesendet werden.
-
Idealerweise
würde jedes
Pixel seine eigene PDCU haben, mit direkten Verbindungen zu der
Peripherie. Dies kann bei zukünftiger
CMOS-Technologie möglich
werden, welche die Möglichkeiten
bieten wird, alle notwendigen Transistoren innerhalb eines jeweiligen
Pixels herzustellen und dennoch die benötigte Fläche für die Photodetektion und die
Verbindungen (elektrische und/oder optische) zwischen den Pixeln
und der Peripherie zu haben.
-
BESCHREIBUNG DER "STEUERUNG"
-
Nehmen
wir an, dass der Bildsensor eine Anzahl M von Metallebenen aufweist
und dass es auf der Fläche
eines einzigen Pixels möglich
ist, eine Anzahl P von Metallleitungen vorzusehen, die im Nachfolgenden
als "Bahnen" bezeichnet werden,
welche zu irgendeiner der M Metallebenen gehören. 6 zeigt
die Anordnung für
M = 8 und P = 4. Mit dieser technischen Verbindungsmöglichkeit
ist es möglich, verschiedene
Strategien zur Steuerung und für
den Datenfluss zwischen den einzelnen Pixeln im Inneren der Sensormatrix sowie
die Schaltung an der Peripherie der Sensormatrix auszudenken.
-
Die
der folgenden Beschreibung zugrunde liegende Annahme besteht darin,
dass jedem Pixel ein digitaler Zähler
mit N Bits zugeordnet ist, welcher seinerseits zu jedem Zeitpunkt
dem Pixel zugeordnet werden kann oder zwischen einer Gruppe aus
G Pixeln zeitlich gemultiplext werden kann.
-
Beim Übertragen
der Daten von den Pixeln zur Peripherie der Sensormatrix wird angenommen, dass
ein digitaler Controller vorhanden ist, der um eine Gruppe von Pixeln
herum organisiert ist, die einen gegebenen Abschnitt des Sensors
belegen. Die Pixelgruppe stellt eine kleine Matrix von X × Y = G dar,
die einen einzigen digitalen Zähler
für die
Anzahl G von Pixeln haben könnte.
-
Die "Bahnen" auf dem Spaltenraster
werden von vielen Controllern gemeinsam genutzt werden müssen. Wenn
C die Anzahl der Pixel pro Spalte der Sensormatrix ist, R die Anzahl
der Pixel pro Zeile ist, gibt es C/(2X) Controller pro Spalte, bei
einer angenommenen Aufteilung der Spalten in zwei Seiten, eine obere
und eine untere. Jeder Spalten-Controller muss X × Y = G
Pixel steuern. Unter der Annahme, dass jeder Controller die Spaltenfläche von
Y Pixeln nutzen kann, kann jeder Spalten-Controller tatsächlich bis
zu Y × P
Bahnen mit jeweils M Leitungen nutzen. Daher müssen C/(2X) Controller insgesamt
Y × P
Bahnen gemeinsam nutzen.
-
Beispielsweise
wären bei
C = 2048 und R = 2048 unter Annahme von X = 4 und Y = 4 pro Halbspalte
256 Controller vorhanden. Jeder der 256 Controller würde sich
4 × 4
Bahnen mit jeweils M = 8 Leitungen teilen.
-
Die
gemeinsame Nutzung der Leitungen durch eine jeweilige Gruppe von
Controllern in einer gegebenen Halbspalte kann grundsätzlich auf
dreierlei verschiedene Weise erreicht werden, nämlich:
- 1.
die Controller konkurrieren um die gesamte Gruppe von Bahnen – freie
räumliche
und zeitliche Zuordnung;
- 2. die Controller konkurrieren um einen gleichmäßigen Anteil
der Gruppe von Bahnen, z. B. kann nur jeder K-te Controller versuchen,
die Bahn "i" zu nutzen – gleichmäßige räumliche,
aber freie zeitliche Zuordnung;
- 3. Die Controller konkurrieren nicht, sondern folgen vielmehr
einem starren Kommunikationsmuster, gesteuert von der Peripherie,
welche bestimmt, wann sie die gemeinsam genutzten Ressourcen nutzen
sollen und welcher Controller diese nutzt (typischerweise eine Gruppe,
die durch ihre Positionierung in der Spalte definiert wird) – gleichmäßige räumliche
und freie zeitliche Zuordnung.
-
Jede
Alternative hat Vorteile und Nachteile. Während die erste Option eine
vollständig
uneingeschränkte
Zuordnung von Controllern zu "Bahnen" ermöglicht,
geht dies auf Kosten von Zeit und Komplexität. Die Controller müssen sich
gemeinsam auf die Nutzung der "Bahnen" einigen. Die Daten,
welche an die Peripherie übertragen
werden müssen,
müssen
geeignet identifiziert werden, sodass sie an der entsprechenden
Speicherstelle gespeichert werden können. Der einzigste bedeutende
Vorteil besteht darin, dass nur diejenigen Controller, die Daten übertragen
müssen,
zusammenzuarbeiten brauchen. Dies ist besonders relevant, und womöglich ist
es die ideale Anordnung für
Bedingungen mit geringer Beleuchtung, da einige Pixel Photonen einfangen
werden und andere nicht.
-
Das
zweite Modell stellt einen Kompromiss zwischen dem ersten und dem
dritten Modell dar. Jeder der C/(2 X Y P) Controller, die gemeinsam
die gleiche "Bahn" nutzen, muss konkurrieren,
um den exklusiven Zugang auf diese "Bahn" zu
erhalten. Diese verteilte Entscheidungsinstanz erfordert gemeinsam
genutzte Leitungen, es ist aber klar, dass sie für eine reduzierte Anzahl von
Controllern machbar ist. Eine Lösung
könnte
die Nutzung der Leitungen der gemeinsam genutzten "Bahn" für die Entscheidung, gefolgt
von einem Datenübertragungszyklus,
umfassen. Dies ist eine elegante Lösung, sie erfordert aber höher entwickelte
Controller im Inneren der Sensormatrix. Hinsichtlich der Zeit könnte eine
verteilte Entscheidung in einfacher Weise realisiert werden, wenn die
M – 1
der M Leitungen direkt binär
die C/(2 X Y P) Controller kodieren könnten. Die zusätzliche
Leitung könnte
einfach genutzt werden, um den Beginn eines Entscheidungszyklus
zu signalisieren. Im nachfolgenden Zyklus würden alle Controller, die auf
das gemeinsam genutzte Medium zugreifen wollen, die M – 1 Leitungen
mit ihrer "Id" einrichten, wodurch
ein intern festverdrahteter Betrieb implementiert wird. Der Controller
mit der niedrigsten "Id" würde gewinnen und
im dritten Zyklus auf das Medium zugreifen. Es ist klar, dass dieses
Modell aufgrund der Entscheidung einen zeitlichen Overhead einträgt. Dieser Overhead
kann beträchtlich
sein, wenn die Menge an Daten, die pro Entscheidung übertragen
werden, klein ist. Beispielsweise wäre bei den zuvor erwähnten Zahlen
M = 8 und es gäbe
16 Controller pro "Bahn", was mehr als genug
ist, um die "Id" jedes der anfragenden
Controller in 7 Bits zu kodieren.
-
Die
dritte Anordnung nutzt ein einfaches zeitliches Multiplexen innerhalb
jeder Gruppe von Controllern. Eine externe Funktionseinheit, typischerweise
auch ein Controller, weist Zeilen von Controllern gleichzeitig an,
wobei jeder derselben mit der Peripherie kommunizieren wird, egal
welche Werte sie besitzen. Die Identität jedes Controllers ist in
dem Zeitfenster impliziert, in welchem jeder Controller aktiv ist.
Intelligente Umgehungsmodelle sind möglich, und zwar trotz der Tatsache,
dass der Controller zur nächsten
Zeile fortschreiten muss, wenn der langsamste Controller fertig
ist. Die Art und Weise, dieses "so-schnell-wie-möglich-Vorangehen" zu erreichen, erfolgt
durch belegte Leitungen, die von den Controllern jeder Zeile gemeinsam
genutzt werden. Sobald ein jeweiliger Controller mit der Übermittlung
seiner Werte fertig ist, tritt er von der "belegten" Leitung zurück. Der Peripherie-Controller
merkt, wann die Leitung freigegeben ist, was bedeutet, dass alle
Controller fertig sind und zu den nächsten Zeilen weitergehen.
Dies stellt eine Alternative zu einem einfachen starren Taktungsschema
dar. Insgesamt stellen diese Modelle die am einfachsten zu realisierenden
dar.
-
BESCHREIBUNG DER "DATENÜBERTRAGUNG AN
DIE PERIPHERIE"
-
Es
werden nun die verschiedenen Verfahren zur Datenübertragung von einem Controller
an die Peripherie beschrieben, und zwar unter der Annahme, dass
die Zuordnung unter Verwendung einer der zuvor beschriebenen Steuerverfahren
gelöst
worden ist. Folgende Datenübertragungsverfahren
sollen detailliert beschrieben werden:
- 1. Der
Controller scannt die einzelnen Pixel in einer vorgegebenen Reihenfolge
ab, wobei er die gesamten Daten von jedem Pixel an die Peripherie überträgt. Dies
ist das einfachste Verfahren, und es besteht eine implizite Reihenfolge
für die Peripherie
und die Controller im Inneren der Sensormatrix.
- 2. Der Controller scannt die einzelnen Pixel in einer vorgegebenen
Reihenfolge ab, wobei er die Daten partiell für eine Teilgruppe der Pixel überträgt. Im Extrem
kann dieser Fall genutzt werden, um die Datenübertragung zu "komprimieren", indem eine Anzahl
von Werten, die zwischen verschiedenen Pixeln gleich sind, kodiert
wird.
- 3. Der Controller wählt
die Pixel mit Daten aus. Die Auswahl folgt keiner speziellen Reihenfolge, und
er überträgt die Daten
des ausgewählten
Pixels an die Peripherie. Ein Grenzfall für dieses Modell bestünde darin, Übergangszustände der einzelnen
Pixel zu übermitteln.
-
Die
Datenübertragung
kann entweder seriell oder parallel erfolgen. Die Kompromisse hinsichtlich von
Raum und Zeit sind klar. Mit zumindest M Leitungen pro "Bahn" kann man M – 1 Datenbits
in einer einzigen Übertragung
senden, wobei die zusätzliche Leitung
genutzt wird, um die nachfolgenden Transaktionen zu bestätigen und
zu synchronisieren. Wenn M klein ist, kann man die Übertragung
der Daten in Paketen mit einer kleineren Anzahl von Bits erwägen, was
eine Zerlegung am empfangenden Ende erfordert.
-
5 stellt
das Beispiel dar, bei welchem M = 4 ist und der Controller einzelne
Bits von dem Zähler
in dem Pixel zu den Zählern
an der Peripherie der Sensormatrix überträgt. Bei diesem Modell überprüfen die
PDCUs, welcher der einem jeweiligen Pixel zugeordneten Zähler gültige Daten
hat und jeweils die N Bits des jeweiligen Zählers an die Peripherie sendet,
indem die Identität
des Pixels, für
welches ein gültiges
Datenbit erkannt wurde, angezeigt wird. Bei dem Beispiel aus 5 ist
die Schaltung in solcher Weise aufgebaut, dass die PDCU nur Übergänge des Überlaufs
eines 2-Bit-Zählers
beobachtet und effektiv an die Peripherie nur die Informationen über den Überlauf
sendet. Beim Einstellen der Anzahl der Bits in den Pixelzählern auf
0 wäre
die PDCU in der Lage, alle Übergangszustände des
Pixels zu beobachten und diese, möglicherweise überlappend
mit den Übergangszuständen von
anderen Pixeln, an die Peripherie zu senden. Da der Transfermodus
asynchron ist, erfordert er zwei Handshake-Signale (ACK und RDY)(dt.: "Bestätigung" und "Bereit").
-
7 stellt
ein Schema dar, bei welchem die PDCU mit 4 Pixeln verbunden ist,
die jeweils einen N-Bit-Zähler
aufweisen. Die PDCU ist mit Hilfe von 4 parallelen Leitungen mit
der Peripherie verbunden, wovon sie 3 als Datenleitung nutzen wird,
und eine vierte Leitung (mit "Fertig" bezeichnet) wird
als Steuerleitung genutzt. Die PDCU überträgt die Daten für jedes
Pixel in einer vordefinierten Abfolge. Die Daten für jedes
Pixel werden von jedem der Pixelzähler mit 3 Bits gleichzeitig übertragen.
Bei diesem Modell haben wir einen Taktsignalkommentar gewählt, der
entlang jeder Spalte so verteilt wird, dass der Pixel-Controller kein Handshake
auszuführen
braucht, wie es für
die Schaltung aus 5 erforderlich ist.
-
Für jede Datenübertragung
teilt die PDCU die Anzahl der N Bits jedes Pixelzählers, die
sie benötigt,
temporär
ab, um 3 Bits in Datenpaketen zu senden. Wenn also ein gegebenes
Pixel 7 Datenbits an die Peripherie zu senden hat, wird die PDCU
3 Pakete nutzen müssen,
PO, P1 und P2, wobei die beiden werthöchsten Bits (MSB – Most Significant
Bits) des Pakets P2 mit Bits mit dem Wert 0 aufgefüllt sind.
-
8 stellt
eine Übertragung
für zwei
Pixel dar, wobei die Übertragung
eines jeweiligen Pakets aus 3 Bits an jeder Kante des Taktsignals
erfolgt, wodurch ein Übertragungsmodus
mit doppelter Datenrate realisiert wird. Für die Daten eines jeweiligen
Pixels sowie bei der Übertragung
des letzten Pakets gibt die PDCU einen einzigen Takt lang das Signal "Fertig" und rückt zum
folgenden Pixel in ihrer Reihenfolge vor. Diese Abfolge wird fortgeführt, bis
alle Daten von allen dieser PDCU zugeordneten Pixeln an die Peripherie übertragen
sind. Bei dieser speziellen Darstellung erfolgte die Datenübertragung
für 2 Pixel.
Man beachte, dass, da es keine explizite Identifizierung der Pixel
gibt, angenommen wird, dass die Übertragung
in einer speziellen Reihenfolge erfolgt, d. h. 0 bis N-1 für die N
Pixel, die einem gegebenen Controller zugeordnet sind.
-
Die
Abfolge zwischen mehreren PDCUs, welche die gleiche Gruppe von Leitungs-"Bahnen" gemeinsam nutzen,
wird durch ein Auswahlsignal erreicht, welches anzeigt, wann der
Zeitschlitz für
die PDCU aktiv sein soll. Wenn "Auswahl" inaktiv ist, ist die
PDCU frei.
-
BESCHREIBUNG EINER VERBESSERTEN "DATENÜBERTRAGUNG"
-
Generell
besteht bei Verbesserung der Fähigkeit,
lokale Berechnungen auf PDCU-Niveau auszuführen, insbesondere für die Fälle, bei
denen jede PDCU eine große
Anzahl von Pixeln steuert (mit einer breiteren Fläche für Transistoren),
die Möglichkeit,
Bandbreite für
Berechnungszeit zu handeln. Man beachte, dass die Berechnungszeit
vollständig überlappt
sein kann, da andere PDCUs übertragen könnten, während eine
gegebene PDCU eine lokale Berechnung ausführt. Anders ausgedrückt gibt
es keinen zeitlichen Nachteil für
die Erledigung einer lokalisierten Berechnung, solange diese in
dem Zeitintervall erledigt werden kann, das eine einzige PDCU braucht,
um ihre Daten zu übertragen.
-
Man
könnte
dieses Zeitintervall sogar auf einen gesamten Rahmen ausdehnen,
indem der PDCU gestattet wird, Berechnungen an den Daten auszuführen, die
während
des vorhergehenden Rahmens erfasst worden sind, während der
momentane Rahmen erfasst wird. Dieser Ansatz würde eine Verdopplung des lokalen
Speichers des Pixelzählers
erfordern, welcher eine beträchtliche
Fläche
belegen würde.
Dies bringt auch Einschränkungen
hinsichtlich der Art und Weise, wie die Bilder erfasst werden, mit
sich.
-
Von
wesentlicher Bedeutung ist der Gedanke der Kompression, entweder
verlustbehaftet oder verlustfrei. Neben den klassischen Methoden
zur Kompression von Daten könnten
die PDCUs, welche räumliche
Bereiche von benachbarten Pixeln steuern, auch die Korrelation der
Werte in einem jeweiligen Teilbereich ausnutzen (wenn keine extrem scharfen
Wertübergänge vorhanden
sind).
-
Ein
einfacher verlustfreier Kompressionsansatz für die PDCU würde darin
bestehen, den Bereich der Werte des N-Bit-Zählers,
die den Pixeln für
ausgewählte
Quadranten zugeordnet sind, zu unterteilen und einen Zählerwert
für jeden
der Werte, die für
jeden Bereich von Bits in den Zählern
für diese
Pixel gezeigt werden, zu übertragen.
Als Beispiel und für ein
einfaches Modell, bei dem die 16 Bits der Zähler in vier Bereiche aus 4
Bits unterteilt wären,
könnte
die PDCU feststellen, dass für
das werthöchste
Bit (MSB) alle Werte für
die Pixel identisch wären,
z. B. 0001. In einem solchen Fall würde die PDCU die Informationen,
die besagen, dass alle oberen 4 MSB der Zähler den Wert 001 aufweisen, übertragen.
Die PDCU würde
dann zu den nächsten
4 Bits fortschreiten, um möglicherweise
festzustellen, dass nur P von Q Zählern den gleichen Wert aufweisen.
An einem gegebenen Punkt würde
der Wert eines Zählers
verschieden sein und die PDCU würde
die Daten einzeln übertragen
müssen.
-
Insgesamt
würden
diese Kompressionsansätze
mehr hochentwickelte Hardware erfordern, um in der Lage zu sein,
sich wiederholende Werte zwischen den Zählern, die der gesamten Gruppe
von Pixeln zugeordnet sind, zu erkennen. Es sind Modelle vorstellbar,
bei welchen die Pixel, die einer gegebenen PDCU zugeordnet sind,
in Gruppen unterteilt werden, um zu versuchen, Gemeinsamkeiten auszunutzen,
die sich aus der Tatsache ergeben, dass nahe gelegene Pixel für einen
gegebenen Rahmen ähnliche
digitale Werte aufweisen sollten. Ein anderer, orthogonaler Ansatz
würde darin
bestehen, die Breite der Pixelzähler
in den Bereichen wie nachstehend unterstrichen zu partitionieren
und die Größen derjenigen
Abschnitte zu ändern,
die möglicherweise dynamisch
sind, um die Aufzeigung gemeinsamer digitaler Werte zu unterstützen. Gemeinsame
Werte über
mehrere Pixelzähler
hin würden
zu höheren Kompressionsraten
führen,
anstatt dass die einzelnen Werte übermittelt werden, und die
PDCUs würden
einen einzigen Wert übermitteln,
gefolgt von einer Anzahl der "Auftrittshäufigkeit".