-
Die
Erfindung behandelt einen Bildsensor mit einer Vielzahl von Bildsensoreinheiten
in einer im Wesentlichen arrayartigen Anordnung.
-
Bildsensoren
kommen überall
dort zum Einsatz, wo ein Bild eines Objekts zur Betrachtung oder Weiterverarbeitung
mittels einer Datenverarbeitungsanlage zur Verfügung gestellt werden soll.
Im Wesentlichen werden hierbei eine abbildende Optik, ein Bildsensor
mit dazugehöriger
Elektronik und eine Datenverarbeitungsanlage verwendet.
-
Optiken
zur Bilderzeugung besitzen naturgemäß verschiedene Bildfehler,
so genannte Aberrationen. Hier sind beispielsweise die sphärische Aberration,
Koma, Astigmatismus, Bildfeldwölbung,
Verzeichnungsfehler, Defokussierung und Farblängs- oder -querfehler zu nennen.
Für gewöhnlich wird
hier versucht durch spe zielles Linsendesign, wie beispielsweise
asphärische
Linsen oder eine Kombination von verschiedenen Linsenformen und
auch verschiedener Materialien, versucht, die Bildfehler auszugleichen.
Allerdings können
mit Hilfe des Linsendesigns die Aberrationen nur zu einem gewissen Maß korrigiert
werden, wobei sich bei der Korrektur verschiedene Aberrationen gegenläufig verhalten,
d. h. die Korrektur einer Aberration führt zur Verschlechterung einer
anderen Aberration. Von daher muss bereits beim Linsendesign entschieden
werden, welche Qualitäten
das Kamerasystem als Ganzes erfüllen soll,
bzw. auf welche Bildeigenschaften besonderer Wert gelegt wird. Dies
führt im
Allgemeinen zur Definition einer Gütefunktion, welche dann als
Maß bei der
Linsenoptimierung genutzt wird. Die Herstellung von Linsen mit aufwendiger
Aberrationskorrektur ist zudem oftmals sehr teuer, da die komplizierte
Oberflächengeometrie
schwierig und in langwierigen Arbeitsschritten herzustellen ist,
bzw. bei vielen Linsen auch exotische Materialien eingesetzt werden
müssen.
-
Ein
weiterer Ansatz zur Korrektur der Aberrationen besteht darin, durch
digitale Nachbearbeitung der Bilder ("Remapping"), die Aberrationen, welche nur in einer
Verzerrung des Bildes, nicht aber in Unschärfe resultieren, nachträglich zu
korrigieren oder gar zu entfernen. Der Nachteil an dieser Lösung ist, dass
zur Berechnung der Transformationen vom unkorrigierten Bild zum
korrigierten Bild Speicher und insbesondere Rechenzeit benötigt wird.
Des Weiteren muss zwischen den eigentlichen Pixeln des Bildsensors
interpoliert werden, d. h. es wird entweder eine feinere Abtastung
benötigt
oder Auflösung eingebüßt.
-
Eine
weitere Möglichkeit
Aberrationen teilweise zu korrigieren liegt darin, den Bildsensor
rotationssymmetrisch auszubilden. Der Nachteil hierbei ist es jedoch,
dass sich mit herkömmlichen
Displays oder Druckern die so aufgenommenen Bilder nicht direkt
wiedergeben lassen, da dort die Bildpixel in einer nahezu rechteckigen
Anordnung befindlich sind. Somit ist auch hier eine elektronische
Umverteilung der Bildinformationen nötig, was zu den im vorgenannten Absatz
erwähnten
Nachteilen führt.
-
Ziel
der Erfindung ist es, einen Bildsensor bzw. ein Kamerasystem zu
schaffen, welcher/welches es ermöglicht,
einige Aberrationskorrekturen mit Hilfe des Bildsensors vorzunehmen,
so dass sich gegenseitig einschränkende
Aberrationskorrekturen im Objektivsystem vermieden werden können. Des Weiteren
sollen mit dem Bildsensor nur geringe Anforderungen an Speicher
und Rechenzeit einer Elektronik oder nachgeschalteten Datenverarbeitungsanlage
von Nöten
sein. Die Aufgabe wird mit einem Bildsensor mit den Merkmalen des
Anspruchs 1, ein Kamerasystem mit den Merkmalen des Anspruchs 17
und ein Verfahren mit den Merkmalen des Anspruchs 26 gelöst.
-
Der
Bildsensor mit einer Vielzahl von Bildsensoreinheiten ist arrayartig
aufgebaut. Dadurch wird den heutigen Standards von Displays und Druckern
Rechnung getragen. Das Array weist dabei ein Koordinatensystem bestehend
aus Knotenpunkten und Verbindungslinien auf, wobei die lichtempfindlichen
Flächen
der Bildsensoreinheiten jeweils auf den Knotenpunkten angeordnet
sind. Das Koordinatensystem ist kein Bestandteil des Arrays, sondern dient
zur Orientierung ähnlich
einem Kristallgitter. Die Verbindungslinien sind hierbei vertikal
bzw. horizontal in dem Sinne, dass sie von oben nach unten bzw. links
nach rechts ver laufen. Es ist damit keinesfalls gemeint, dass die
vertikalen bzw. horizontalen Verbindungslinien zwangsläufig gerade
sind oder parallel zueinander verlaufen. Von daher ist es sinnvoll, von
einem Netz mit Verbindungslinien und Knotenpunkten anstatt von einem
Gitter zu sprechen, um eine sprachliche Missdeutung auszuschließen.
-
Die
arrayartige Anordnung weist einen Zentrumsbereich und einen Randbereich
auf, wobei der Zentrumsbereich und der Randbereich entlang mindestens
einer Verbindungslinie miteinander verbunden sind. Dadurch ist festgelegt,
dass der Zentrumsbereich und der Randbereich keine disjunkten Mengen
sind, sondern fließend
ineinander übergehen. Dadurch,
dass der Abstand jeweils zweier benachbarter Knotenpunkte, also
die Orte an welchen die lichtempfindlichen Flächen der Bildsensoreinheiten angeordnet
sind, entlang der mindestens einen Verbindungslinie, welche den
Zentrums- und den Randbereich miteinander verbindet, im Zentrumsbereich und
im Randbereich verschieden ist, können verschiedene Aberrationen
durch die Geometrie des Bildsensors bzw. der auf ihm angeordneten
Bildsensoreinheiten korrigiert werden, so dass insbesondere bei
der Korrektur sich gegenläufig
verhaltende Aberrationen nicht ausschließlich durch ein etwaiges Objektiv- bzw. Linsensystem
korrigiert werden müssen. Man
erreicht durch die Schaffung zusätzlicher
geeigneter Freiheitsgrade in dem Bildsensor mehr Freiheitsgrade
bei der Optimierung des Linsensystems. Dadurch ergeben sich bessere
Lösungsmöglichkeiten,
die Korrekturen der verschiedenen Aberrationen auf ein Objektivsystem,
einen Bildsensor und eine Datenverarbeitungsanlage zu verteilen.
So ergibt sich beispielsweise der Vorteil, dass bei einer nachträglichen
Bildbearbeitung weniger Zeit und Speicher alloziiert werden muss,
da der Bildsensor zum einen arrayartig angeordnet ist, eine elektronische
Umverteilung der Bildinformationen von den einzelnen Bildsensoreinheiten
jedoch nicht notwendig ist, da diese bereits fest vorgeformt auf
Bildsensorebene erfolgt. Als Zentrumsbereich wird der Bereich des Bildsensors
bezeichnet, welcher durch die optische Achse einer zugeordneten
Linse durchstoßen
wird.
-
Bildsensoren
nach dem Stand der Technik sind als äquidistantes Array von Bildsensoreinheiten aufgebaut.
Optische Fehler treten zumeist in zunehmender Entfernung von der
optischen Achse einer Linsenanordnung auf und werden zu den Rändern des
Bildsensors hin stärker.
Ein fester Abstand zwischen allen einzelnen Bildsensoreinheiten
untereinander sorgt lediglich dafür, dass die Abbildungsfehler auch
auf dem aufgenommenen Bild sichtbar sind. Mittels einer unterschiedlichen
Beabstandung zweier lichtempfindlichen Flächen im Zentrums- und im Randbereich
können
Korrekturterme am Randbereich berücksichtigt werden, so dass
das Bild zwar weiterhin den Abbildungsfehler aufweist, die lichtempfindlichen
Flächen
jedoch so angeordnet sind, dass die mit den Bildsensoreinheiten
gemachten Aufnahmen in einer äquidistanten
Bildpunktdarstellung abbildungsfehlerfrei sind. Somit kommt es zu
einer besseren Abbildung von Strahlengängen, welche entweder nicht
durch die Mitte der Linse laufen oder unter großen Winkeln einfallen und auf
dem Bildsensor abgebildet werden.
-
Wenn
sich zudem der Abstand einer zweiten Verbindungslinie, welche zumindest
an einem Ort parallel zur ersten Verbindungslinie ist (entlang welcher sich
der Abstand zweier lichtempfindlichen Flächen vom Zentrums- zum Randbereich
hin ändert),
zur ersten Verbindungslinie ebenfalls vom Zentrums- zum Randbereich
hin ändert,
findet eine Abstandsvariation nicht nur entlang einer Dimension,
sondern auch in der zweiten Dimension des Bildsensors wieder.
-
Dadurch,
dass die äquidistante
Anordnung der lichtempfindlichen Flächen der Bildsensoreinheiten
beim erfindungsgemäßen Bildsensor
aufgelöst wird
und somit ein nicht-äquidistantes
Netz bildet, bietet sich eine Vielzahl von Möglichkeiten die Qualität von Bildern
durch die oben genannten Vorteile zu verbessern und kann zur Vermeidung
von Aberrationen verwendet werden. (Die ökonomische Realisierbarkeit
sollte bereits mit den zur Verfügung
stehenden Strukturierungstechniken nach einer kurzen Einführungsphase
keine große
Rolle mehr spielen.)
-
Weitere
Vorteile sind in den untergeordneten Ansprüchen beschrieben.
-
Dadurch,
dass sich der Abstand zweier benachbarter Knotenpunkte entlang der
mindestens einen Verbindungslinie vom Zentrumsbereich zum Randbereich
hin stetig ändert,
wird die zunehmende Wichtigkeit der Korrekturterme berücksichtigt,
welche zumeist durch quadratische, kubische oder auch höhere Potenzen
der abbildungsbeschreibenden Winkel beschrieben werden, Gültigkeit
getragen. Da zwischen dem Zentrumsbereich und dem Randbereich eine
Vielzahl von Bildsensoreinheiten entlang der einen Verbindungslinie
liegen können,
ist es vorteilhaft, wenn sich der Abstand zweier lichtempfindlicher
Flächen
zum Abstand zweier lichtempfindlichen Flächen im Randbereich hin stetig ändert, da
so eine kontinuierliche Korrektur von Aberrationen zum Randbereich
hin vorgenommen werden kann.
-
Besonders
vorteilhaft ist es, wenn der Abstand jeweils zweier benachbarter
Knotenpunkte der arrayartigen Anordnung der Bildsensoreinheiten
sich vom Zentrumsbereich zum Randbereich hin zum Ausgleich der geometrischen
Verzeichnung ändert, wobei
die Korrektur von einem Linsensystem unabhängig oder abhängig vorgenommen
werden kann. Die Verzeichnung wird in eine positive Verzeichnung, d.
h. eine kissenförmige
Verzeichnung, und eine negative Verzeichnung, d. h. eine tonnenförmige Verzeichnung,
unterteilt. Da die geometrische Verzeichnung nur eine Änderung
der Vergrößerung mit
dem Einfallswinkel, also einen Punktbildversatz relativ zum idealen
Fall, aber keine Vergrößerung des
Fokus, d. h. der Punktbildverwaschungsfunktion und damit eine Verringerung
der Auflösung
bewirkt, ist diese besonders geeignet, auf Bildsensorebene durch
eine Verschiebung der entsprechend zugeordneten Detektorpixel korrigiert
zu werden. Die Verzeichnung ist die Abweichung der realen Hauptstrahlposition
in der Bildsensorebene von der Position des idealen, bzw. paraxial
genäherten
Hauptstrahles. Dies resultiert in einer veränderlichen Vergrößerung über das
Bildfeld und damit zur Verzerrung des Gesamtbildes. Während die
ideale, bzw. paraxial genäherte
Bildfeldkoordinate yp direkt zum Tangens
des Einfallswinkels Θ proportional
ist, ist die reale Bildfeldkoordinate y davon abweichend. Die Abweichung
vom Tangens ist die Verzeichnung und geht typischerweise ca. mit Θ^3 oder
einer komplizierten Kurve. Als Maß der Verzeichnung wird hierbei (y – yp)/yp verwendet:
Ist die reale Bildfeldkoordinate größer als die ideale Bildfeldkoordinate
ist die Verzeichnung kissenförmig,
sonst tonnenförmig.
Bei einer kissenförmigen
Verzeichnung wird der Abstand der lichtempfindlichen Flächen als
Funktion des radialen Abstandes des betrachteten Detektorpixels
vom Zentrum des Bildsensors, also diagonal stärker als horizontal oder vertikal
vom Zentrumsbereich zum Randbereich hin größer, bei einer tonnenförmigen Verzeichnung
kleiner.
-
Bei
der Herstellung des Bildsensors mit einer eingebauten Verzeichnungskorrektur
wird dementsprechend die Position des realen Hauptstrahls mit dem
idealen Hauptstrahl verglichen, und die lichtempfindliche Fläche um den
Abstand der beiden Strahlen nach aussen (bei einer kissenförmigen Verzeichnung)
oder nach innen (bei einer tonnenförmigen Verzeichnung) an die
Position des realen Hauptstrahls verschoben.
-
Eine
Weiterbildung eines erfindungsgemäßen Bildsensors ist es, die
arrayartige Anordnung in Form eines rectilinearen Gitters auszubilden.
Somit wird die Änderung
des Abstands vom Zentrum zum Randbereich hin nur in einer Dimension
des Arrays vorgenommen. Dies bedeutet, dass der Abstand der lichtempfindlichen
Flächen
zueinander in der ersten Dimension des Bildsensors konstant bleibt,
in der zweiten Dimension sich vom Zentrums- zum Randbereich hin ändert, vorzugsweise
entlang einer Vielzahl von Verbindungslinien in der zweiten Dimension. So
kann ein Bildsensor, welcher sehr schmal aber länglich ausgebildet ist, in
der Längendimension
ausgebildet sein, in der ersten Dimension normal, da in dieser die
Verzeichnung klein bleibt.
-
Eine
weitere vorteilhafte Weiterbildung ist es, wenn die Korrektur in
beiden Dimensionen des Arrays vorgenommen wird. In diesem Falle
sind die Verbindungslinien als parametrisierte Kurve, jedoch nicht
mehr als Gerade darstellbar. Sollten sich die Abstände vom
Zentrums- zum Randbereich hin entlang einer Vielzahl von Verbindungslinien ändern (und
eben auch der Abstand der Verbindungslinien als Funktion der radialen
Koordinate), so ist die arrayartige Anordnung als curvilineares
Gitter darstellbar, d. h., aus einer Vielzahl von parametrisierten
Kurven. Auf diese Weise kann eine Aberration in zwei Dimensionen
ausgeglichen werden. Vorzugsweise verändert sich der Abstand zweier
benachbarter lichtempfindlichen Flächen vom Zentrums- zum Randbereich hin
entlang einer Vielzahl von Verbindungslinien in beiden Arraydimensionen.
Somit bildet das curvilineare Gitter eine zweidimensionale Erweiterung
des rectilinearen Gitters.
-
Eine
vorteilhafte Anordnung ist es, wenn der Randbereich des Bildsensors
den Zentrumsbereich des Bildsensors vollständig umschließt. Der
Vorteil hierbei ist es, dass vom Zentrumsbereich ausgehend in jede
Richtung weitere Bildsensoreinheiten angeordnet sind, und so ein
Bildsensorbereich die optische Achse umschließt. Dadurch kann der Ausgleich der
Aberration, vorteilhafterweise der geometrischen Verzeichnung, vom
Zentrumsbereich des Bildsensors in alle Richtungen der Bildsensorebene
hin erfolgen.
-
Eine
weitere vorteilhafte Weiterbildung ist es, wenn die Vielzahl von
Bildsensoreinheiten auf einem Substrat angeordnet ist. Dies hat
insbesondere bei der Herstellung Vorteile, da eine Anwendung von
geläufigen
Strukturierungstechniken möglich
ist. Es ist weiterhin vorteilhaft, wenn die Bildsensoreinheiten optoelektronische
und/oder digitale Einheiten sind.
-
Besonders
vorteilhaft ist es, wenn die lichtempfindliche Fläche einer
Bildsensoreinheit jeweils im Zentrum dieser Bildsensoreinheit angeordnet
ist. Auf diese Weise verschieben sich nicht nur die Abstände der lichtempfindlichen
Zentren der Bildsensoreinheiten zueinander, sondern auch die Abstände der
Bildsensoreinheiten zueinander. Alternativ hierzu können ausschließlich die
lichtempfindlichen Flächen ihren
Abstand ändern,
was dazu führt,
dass diese nicht ausschließlich
im Zentrum einer Bildsensoreinheit zu finden sind. Auch können beide
Alternativen innerhalb eines Bildsensors verwirklicht werden. Weiterhin
ist es vorteilhaft, wenn die lichtempfindliche Fläche eine
Photodiode oder ein Detektorpixel ist, insbesondere ein CMOS, oder
ein CCD oder organische Photodioden sind.
-
Eine
weitere besonders vorteilhafte Anordnung ist es, wenn mindestens
eine Bildsensoreinheit eine Mikrolinse aufweist und/oder die Vielzahl
von Bildsensoreinheiten durch ein Mikrolinsenraster überdeckt
ist. Weiterhin können
mit Hilfe der Mikrolinsen weitere Aberrationen ausgeglichen werden,
welche sonst innerhalb einer vorgeschalteten abbildenden Optik korrigiert
werden, wenn diese über
das Bildfeld der Optik variable geometrische Eigenschaften wie getrennt
voneinander und variabel einstellbare tangentiale und sagittale
Krümmungsradien
haben.
-
Eine
weitere vorteilhafte Weiterbildung des Bildsensors sieht vor, dass
die Mikrolinse und das Mikrolinsenraster zur Füllfaktorerhöhung ausgebildet sind. Dadurch
kann ein auf eine Bildsensoreinheit auftreffender Hauptstrahl besser
auf die lichtempfindliche Fläche
einer Bildsensoreinheit, konzentriert werden, was zu einer Verbesserung
des Signal-Rausch-Verhältnisses
führt.
-
Vorteilhafterweise
kann durch eine Anpassung der Krümmungsradien
bzw. der Krümmungsradienverhältnisse der
Mikrolinsen mehrerer Bildsensoreinheiten bzw. der Krümmungsradienverhältnisse der
Mikrolinsen in den zwei Hauptachsen des Arrays ein Astigmatismus
bzw. eine Bildfeldwölbung
mit Hilfe der Mikrolinsen korrigiert werden. Dies ermöglicht auch
die Verschiebung von Korrekturen von einer abbildenden Optik zum
Bildsensor hin, was wiederum Freiheitsgrade beim Design der abbildenden
Optik eröffnet.
Auf diese Weise kann durch die Mikrolinsen eine verbesserte Fokussierung
auf die (entsprechend dem Hauptstrahlwinkel an der Stelle versetzten)
lichtempfindlichen Flächen
stattfinden, so dass mit Hilfe der angepassten Mikrolinsenform ein
besseres Bild möglich
ist.
-
Um
bei einem schiefen Einfall des Lichtbündels auf eine Mikrolinse eine
möglichst
kleine Beugungsscheibe im Fokus zu erhalten, werden vorteilhafterweise
elliptisch gechirpte, d. h. über
das Array Mikrolinsen mit variabel einstellbaren Parametern verwendet,
welche in ihrer Orientierung, Größe in beiden
Hauptachsen und ihren Krümmungsradien entlang
der Hauptachsen einer Mikrolinse vom Einfallwinkel des Hauptstrahls
der vorgeschalteten abbildenden Optik abhängen. Somit fallen im Gegensatz
zu kreisrunden Mikrolinsen ein Astigmatismus und eine Bildfeldwölbung weniger
ins Gewicht.
-
Zum
Korrigieren einer chromatischen Aberration kann vorteilhafterweise
eine Bildsensoreinheit einen Farbfilter aufweisen und/oder die Vielzahl
von Bildsensoreinheiten mit einem Farbfilterraster verbunden sein.
So werden weitere Aberrationen bereits auf Bildsensorebene korrigiert.
Zur Farbbildaufnahme werden zumeist 3 Grundfarben verwendet, also beispielsweise
rot, grün
und blau, oder magenta, cyan und gelb, wobei die Farbpixel z. B.
in einem Bayer- Pattern
angeordnet sind. Farbfilter sind – wie die Mikrolinsen – zur Anpassung
an den Hauptstrahl der Optik an der jeweiligen Stelle des Arrays
versetzt.
-
Weiterhin
können
die Farbfilter analog zu den Mikrolinsen zu den lichtempfindlichen
Flächen relativ
versetzt werden, um einerseits den aus dem Hauptstrahlwinkel resultierenden
lateralen Versatz des Fokus auf der Photodiode auszugleichen, oder eine
Verzeichnung auszugleichen aber auch eine bessere Zuordnung der
einzelnen Farbspektren auf die lichtempfindliche Fläche im Falle
chromatischer Queraberrationen zu ermöglichen. Der Versatz der Farbfilter
und zugeordneten Pixel entspricht dabei dem Versatz der verschiedenen
abgebildeten Farben durch chromatische Queraberrationen.
-
Das
erfindungsgemäße Kamerasystem zeichnet
sich dadurch aus, dass der Bildsensor mit einer vorgeschalteten
abbildenden Optik in Verbindung steht. Da aufgrund der verschiedenen
Korrekturen Freiheitsgrade im Objektivdesign geschaffen werden,
macht insbesondere eine gute Abstimmung zwischen der Optik und dem
Bildsensor einen Qualitätssprung
möglich.
Der Bildsensor ist in der Bildebene der Optik angeordnet.
-
Besonders
vorteilhaft kommt ein Kamerasystem oder ein erfindungsgemäßer Bildsensor
in einer Kamera und/oder einem tragbaren Telekommunikationsgerät und/oder
einem Scanner und/oder einem Bilderkennungsgerät und/oder einem Überwachungssensor
und/oder einem Erd- und/oder
Sternsensor und/oder einem Satellitensensor und/oder einem Raumfahrtgerät und/oder
Sensoranordnung zur Anwendung. Insbesondere der Einsatz in der Überwachung
von Industrieanlagen, oder einzelnen Teilen hiervon bietet sich
an, da der Sensor bzw. das Kamerasystem ohne hohen Rechenaufwand
exakte Bilder liefern kann. Auch der Einsatz in Mikrorobotern, bietet
sich aufgrund der geringen Größe des Sensors an.
Weiterhin kann der Sensor in einem (Mikro-)Endoskop verwendet werden.
Auch der Einsatz im Bereich des menschlichen Auges als Sehhilfe
kann mittels intelligenter Verschaltung mit Nervenzellen sinnvoll
sein. Aufgrund der erhöhten
Abbildungsqualitäten
ist der erfindungsgemäße Bildsensor
bzw. das erfindungsgemäße Kamerasystem
in allen Bereichen geeignet, in welchen über Datenverarbeitungsanlagen
auf Bilder höchster
Qualität
zugegriffen werden möchte
und die Bilder in Echtzeit zur Verfügung stehen sollen.
-
Vorteilhafterweise
wird der Bildsensor bzw. das Kamerasystem derart hergestellt, dass
in einem ersten Schritt die Verzeichnung einer geplanten oder bereits
hergestellten Optik ermittelt wird und daraufhin ein Bildsensor
hergestellt wird, bei welchem die geometrische Verzeichnung der
Optik durch Anordnung der lichtempfindlichen flächen bzw. der Bildsensoreinheiten,
wenigstens teilweise, ausgeglichen wird. Dadurch dass nun die Verzeichnung
der Optik nicht mehr gering gehalten werden muss, kann z. B. eine
bessere Auflösung
erzielt werden, ohne die Komplexität der Optik zu erhöhen. So
können,
auch mit einem Bildsensor nachträglich "normale" Objektive mit geometrischer
Verzeichnung korrigiert werden. Weitere Aberrationen können ebenso
korrigiert werden.
-
Weitere
Vorteile sind in den weiteren untergeordneten und nebengeordneten
Ansprüchen
beschrieben.
-
Im
Folgenden soll die Erfindung anhand einer Vielzahl von Figuren genauer
beschrieben werden. Es zeigen:
-
1a und 1b Bildsensor
und Strahlengang nach dem Stand der Technik;
-
2a und 2b schematische
Darstellung eines erfindungsgemäßen Bildsensors
mit Array zum Korrigieren einer Aberration, insbesondere einer geometrischen
Verzeichnung;
-
2c Queransicht
mit Darstellung des erfindungsgemäßen Versatzes eines Pixels;
-
2d Queransicht
auf einen Sensor zur Korrektur einer kissenförmigen geometrischen Verzeichnung;
-
3 Bildsensor
mit kissenförmiger
Verzeichnung;
-
4 Anordnung
zweier Bildsensoreinheiten mit dazugehörigen Mikrolinsen, Pinholearray
und Farbfilterraster;
-
5 Erfindungsgemäßes Kamerasystem.
-
In
den 1a und 1b ist
der Aufbau eines Bildsensor gemäß dem Stand
der Technik dargestellt. In der 1a ist
eine Aufsicht auf einen Bildsensor 1 gezeigt, welche eine
Vielzahl von Bildsensoreinheiten aufweist, wobei exemplarisch wenige
Bildsensoreinheiten 2, 2', 2'' bezeichnet
sind. Die Bildsensoreinheiten sind dabei in Form eines Arrays angeordnet,
wobei das Array Knotenpunkte (exemplarisch 11, 11', 11'') aufweist und in X-Richtung entlang
der Verbindungslinie 12 und in Y-Richtung entlang der Verbindungslinie 13 ausgerichtet
ist. So sind die Bildsensoreinheiten 2, 2', 2'' derart angeordnet, dass die lichtempfindlichen
Flächen
im Zentrum einer Bildsensoreinheit angeordnet sind und das Zentrum
der Bildsensoreinheit auf einem der Knotenpunkte 11 liegt.
Das Netz stellt also ein Koordinatensystem innerhalb des Sensors
dar. Im Stand der Technik sind die Abstände zwischen zwei benachbarten
lichtempfindlichen Flächen,
sowohl entlang der Verbindungslinien in X-Richtung als auch entlang
der Verbindungslinien in Y-Richtung identisch ist. Dies bedeutet,
dass beispielsweise entlang der Verbindungslinie 12 der
Abstand 40 zwischen den lichtempfindlichen Flächen der
Bildsensoreinheiten 2 und 2' und den links daneben liegenden
weiteren Sensoreinheiten identisch ist. Ebenso sind die Abstände 41 zwischen
den lichtempfindlichen Flächen
der Bildsensoreinheiten entlang der Verbindungslinie 13. Hierbei
sind auch die Abstände 40 und 41 gleich.
D. h. insbesondere, dass die horizontalen Verbindungslinien 12 zueinander
und die vertikalen Verbindungslinien 13 zueinander parallel
liegen.
-
Der
hier dargestellte Bildsensor 1 weist in der Mitte einen
Zentrumsbereich 5 und am Rand einen Randbereich 6 auf,
welcher den Zentrumsbereich umschließt.
-
Die
lichtempfindliche Fläche
einer Bildsensoreinheit wird durch eine Fotodiode oder ein Detektorpixel
gebildet.
-
In
der 1b ist eine Sicht des Bildsensors 1 in
der XZ-Ebene gezeigt. Von einem Punkt F ausgehend treffen Lichtstrahlen 15, 15', 15'' und 15''' auf verschiedene
Bildsensoreinheiten 2 bzw. 2, 2', 2'', 2''', welche alle
entlang der Verbindungslinie 12 angeordnet sind. Die Abstände 40 jeweils
zweier benachbarter Pixel 20, welche im Zentrum einer Bildsensoreinheit 2 liegen,
sind in der entlang der Verbindungslinie gleich. Die Entfernung
zwischen der lichtempfindlichen Fläche 20 der Bildsensoreinheit 2 und
dem Punkt F entspricht der Bildweite einer Optik, welche dem Bildsensor
zugeordnet ist. Obwohl der Abstand zwischen zwei benachbarten Pixel 20 gleich ist,
werden zwischen zwei benachbarten Pixel 20 unterschiedliche
Winkelsegmente abgedeckt. Dies ist für die Abbildung jedoch unerheblich,
da das Bild – abgesehen
von einer möglichen
Vergrößerung oder Verkleinerung – das abzubildenden
Objekt korrekt wiedergibt. Die eingezeichneten Hauptstrahlen 15, 15', 15'' und 15''' sind dabei
ideale Hauptstrahlen, d. h. die Abbildung ist verzeichnungsfrei.
-
In
den 2a, 2b sind die Verbindungslinien 12, 13 und
-punkte zweier erfindungsgemäßer Bildsensoren 1', 1'' schematisch gezeigt. Beide sind in
der Beabstandung ihrer Knotenpunkte, an welchen die lichtempfindlichen
Flächen
der Bildsensoreinheiten liegen, im Zentrumsbereich 5 und
im Randbereich 6 verschieden. Dabei verändern sich die Abstände zweier
benachbarter lichtempfindlicher Flächen vom Zentrum zum Randbereich
hin, wobei der Abstand zwischen zwei Pixel 20 um einen
Korrekturterm ergänzt
wird, welcher genau dem Abstand zwischen idealem und realem Hauptstrahl
entspricht, d. h. der Pixel ist am Ort des realen Hauptstrahls aufgebracht.
Werden die aufgenommenen Bilddaten nun mit einem äquidistanten
Array dargestellt, wie es bei Monitoren oder Druckern für gewöhnlich der
Fall ist, dann weist das Bild keine Verzeichnung auf.
-
Im
Falle einer positiven Verzeichnung entsteht so eine kissenförmige Anordnung
des Arrays des Bildsensors 1',
da die Abstände
zwischen zwei lichtempfindlichen Flächen im Zentrum kleiner sind als
die Abstände
zweier lichtempfindlicher Flächen im
Randbereich. Diese ist in 2a dargestellt.
In 2b ist ein Bildsensor 1'' mit
einer tonnenförmige Verzeichnung
gezeigt, bei welcher die Abstände zweier
benachbarter lichtempfindlicher Flächen im Zentrumsbereich größer sind
als die Abstände
zweier lichtempfindlicher Flächen
im Randbereich entlang derselben Verbindungslinie.
-
Es
ist auch denkbar, dass die Abstände
zweier lichtempfindlicher Flächen
sich nicht, wie in den 2a und 2b angedeutet,
entlang einer Verbindungslinie kontinuierlich ändern, sondern dass der Abstand
im Zentrumsbereich äquidistant
ist und im Randbereich äquidistant
ist, dass die Abstände
im Zentrumsbereich und im Randbereich jedoch verschieden sind. Hierdurch
könnten
insbesondere Effekte, welche ausschließlich am Rand eines Bildsensors
in Erscheinung treten, ausgeglichen werden, ohne die komplexe stetige
Entwicklung des Abstands zweier lichtempfindlicher Flächen ganz
berücksichtigen
zu müssen.
Die hier dargestellte Form der Bildsensoreinheiten ist rechteckig
oder quadratisch, kann jedoch auch rund oder polygon ausfallen.
-
In 2c ist
schematisch aufgezeichnet wie ein einzelner Pixel versetzt wird,
um eine Korrektur einer geometrischen Verzeichnung bereits auf Bildsensorebene
zu ermöglichen.
Eingezeichnet ist ein idealer Hauptstrahl 15' und der dazugehörende reale
Hauptstrahl 16'.
Der Pixel 20 der Bildsensoreinheit 2' befindet sich
im Fokus des idealen Hauptstrahls. Der Pixel 20 wird nun
um den Abstand V verschoben (in Wirklichkeit wird der Pixel natürlich nicht verschoben,
sondern gleich an der betreffenden Stelle ange ordnet), wobei V der
Korrekturterm der geometrischen Verzeichnung ist und aus theoretischen Berechnungen
oder Vermessungen eines Linsensystems ermittelt werden kann. Die
Bildsensoreinheit 2' wird
an die Stelle 216' verschoben,
obgleich ein Versatz des Pixels 20 selbst ebenfalls ausreicht.
Der Korrekturterm ist dabei abhängig
von der Art der geometrischen Verzeichnung und dem Abstand von der optischen
Achse 15 des zugehörigen
optischen Linsensystems.
-
In 2d ist
eine Ansicht eines Ausschnitts des Bildsensors 1' aus der 2a in
der XZ-Ebene gezeigt. Dabei ist ein Hauptstrahl 15 vom
Punkt F ausgehend in der Mitte des Bildsensors 1 und trifft senkrecht
auf diesen auf. in der hier dargestellten Ausführung sitzen die lichtempfindlichen
Flächen 20 in
der Mitte der Bildsensoreinheiten 2. Es ist deutlich zu
sehen, dass die Abstände 400, 401, 402, 403 und 404 mit
zunehmender X-Richtung zunehmen. Dabei können die Bildsensoreinheiten 2, 2', 2'' dem Zentrumsbereich 5 und
die Bildsensoreinheiten 2' und 2''' dem
Randbereich 6 zugeordnet werden. Jeder Pixel wird dabei,
wie in 2c beschrieben, von der Position
des zugehörigen
idealen Hauptstrahles abweichend an der Stelle des zugehörigen realen
Hauptstrahles angeordnet. Der zugehörige ideale Hauptstrahl ist
dabei durch eine äquidistante
Arrayanordnung vorgegeben. Zur Anordnung der einzelnen Pixel werden
jedoch die realen Hauptstrahlen verwendet, so dass sich eine nicht-äquidistante
Anordnung der Pixel ergibt.
-
Durch
die hardwaremäßige Anordnung
der lichtempfindlichen Flächen
des Bildsensors ist die Verzeichnung bzw. der Gang der Verzeichnung
des einzusetzenden Objektivs bereits in den Bildsensor selbst eingebaut.
Dadurch werden die vom Objektiv gegenüber dem paraxi alen Fall versetzt
abgebildeten Objektpunkte auch auf dementsprechend versetzte Empfängerpixel
abgebildet. Die Zuordnung zwischen Objektpunkten und Bildpunkten
stimmt somit exakt überein
und durch einfache Datenauslese und Anordnung der Bildpixelwerte
wird ein verzeichnungsfreies bzw. -armes digitales Bild erzeugt.
-
In
der 3 ist ein Bildsensor 1' gezeigt, wobei jede einzelne Bildsensoreinheit 2 eine
Einheit aus füllfaktorerhöhender Mikrolinse,
Farbfilter (z. B. in Bayer-Anordnung, d. h. benachbarte Detektorpixel besitzen
unterschiedliche Farbfilter (rot, grün blau)) und Detektorpixel
aufweist. Die kissenförmige
Anordnung der Bildsensoreinheiten zur Korrektur der Verzeichnung
des zur Bildgebung verwendeten Objektivs eine etwa 10%ige Verzeichnung
korrigiert. Die Prozentangabe bezieht sich hierbei auf die Abweichung
eines idealen, bzw. paraxialen Bildpunktes vom realen Bildfeldpunkt
normiert durch die Koordinate des idealen, bzw. paraxialen Bildpunktes.
-
In 4 sind
zwei nebeneinander liegende Bildsensoreinheiten 2 und 2' eines erfindungsgemäßen Bildsensors
dargestellt. Die Bildsensoreinheiten weisen dabei jeweils eine Mikrolinse 30 bzw. 30' auf, wobei
diese in Kombination mit allen anderen Bildsensoreinheiten, wie
in 3 gezeigt, als ein Raster ausgebildet sein können und
somit die unterschiedlichen Abstände
der Bildsensoreinheiten untereinander ebenfalls abbilden, so dass
sich eine verzeichnete Mikrolinsenstruktur ergibt. Gleiches gilt
für die
Farbfilter 31 bzw. 31', welche ebenfalls als Raster oder
als verzeichnendes Raster ausgebildet sein können.
-
Mit
Hilfe der Mikrolinsen 30, 30' bzw. Mikrolinsenar rays kann eine
Füllfaktorerhöhung erreicht werden,
so dass der Füllfaktor
der lichtempfindlichen Fläche
innerhalb einer Bildsensoreinheit in der Größenordnung um 50% liegen kann,
trotzdem aber nahezu alles Licht, was auf eine Bildsensoreinheit
fällt, durch
die Konzentration auf die Photodiode in ein elektrisches Signal
gewandelt werden kann. Des Weiteren befinden sich an den Bildsensoreinheiten 2 bzw. 2' jeweils Pinholes 32 bzw. 32', in deren Ausnehmung
die lichtempfindliche Detektoreinheit 20 bzw. 20' angeordnet
ist. Dabei kann das Pinholearray mit den Pinholen 32, 32' so ausgebildet
sein, dass die Abstände
nebeneinander liegender lichtempfindlichen Flächen 20 bzw. 20' sich vom Zentrum
zum Randbereich hin ändert,
die Abstände 50 zwischen zwei
benachbarten Bildsensoreinheiten jedoch gleich bleiben.
-
Die
Geometrie der einzelnen Mikrolinsen 30, 30 des
Füllfaktor
erhöhenden
Mikrolinsenarrays wird an den Hauptstrahlwinkel des durch eine jeweilige Optik
zu fokussierenden Bündels
angepasst; dies geschieht durch eine Variation der Krümmungsradien der
Mikrolinsen entlang einer Verbindungslinie, bzw. dem Krümmungsradienverhältnis einer
einzelnen Mikrolinse in den zwei Hauptachsen X und Y zueinander,
wobei die beiden Krümmungsradien
innerhalb einer Mikrolinse über
das Array entlang einer Verbindungslinie hinweg variieren können und
die Mikrolinsen von nichtrotationssymmetrischer Natur sein können. Durch
die Mikrolinsen können
beispielsweise ein Astigmatismus oder eine Bildfeldwölbung durch entsprechende
Anpassung der Krümmungsradien
in den zwei Hauptachsen unter Ausbildung elliptischer Mikrolinsen
korrigiert werden. Damit kann eine optimale Fokussierung auf die
entsprechend dem Hauptstrahlwinkel vom Zentrum einer Bildsensoreinheit versetzten
Fotodioden 20 realisiert werden. Dabei ist nicht der Versatz
der Fotodioden sondern die Anpassung der Mikrolinsenform an den
Hauptstrahlwinkel entscheidend. Auch das Anbringen von elliptisch
gechirpten Mikrolinsen, bei denen die Krümmungsradien und das Krümmungsradienverhältnis ausschließlich über die
Achsengröße und das
Achsenverhältnis und
die Orientierung der Mikrolinsenbasis eingestellt werden, ist sinnvoll.
Auf diese Weise kann unter Umständen
ein größerer bildseitiger
Hauptstrahlwinkel akzeptiert werden. Dies öffnet weitere Freiheitsgrade für das Objektivdesign,
da weitere Aberrationen auf Bildsensorebene mit Hilfe der Mikrolinsen
korrigiert werden.
-
Bei
einer kissenförmigen
Verzeichnung, wie in 3 dargestellt, können die
Bildsensoreinheiten bzw. die lichtempfindlichen Flächen der
Bildsensoreinheiten nach außen
hin größer werden,
bzw. nur im Randbereich einen geringen Füllfaktor aufweisen. Ob eine
kissen- oder tonnenförmige Verzeichnung
eines Objektivs vorliegt wird durch die Position einer Aperturblende
im Gesamtaufbau einer Optik festgelegt. Dabei ist die Aperturblende
vorteilhafterweise so anzuordnen, dass sie sich zwischen der maßgeblichen
Linse, welche beispielsweise die Linse größter Brechkraft sein kann bzw.
der optischen Hauptebene und dem Bildsensor befindet, damit eine
kissenförmige
Verzeichnung entsteht, um einen reduzierten Füllfaktor nur im Randbereich
des Bildsensors aufzuweisen. Die Größe der Fotodioden innerhalb
der Bildsensoreinheiten kann über
das Array auch angepasst werden, um den Füllfaktor möglichst zu vergrößern. Auch
kann die Größe der Mikrolinsen
entsprechend angepasst werden.
-
Bei
dem erfindungsgemäßen Bildsensor bzw.
bei der erfindungsgemäßen Kamera
ist es wichtig, dass die lich tempfindlichen Flächen, also die Fotodioden,
ihren Abstand zueinander zum Ausgleich einer geometrischen Verzeichnung
hin ändern.
Ob dabei die Fotodioden jeweils im Zentrum oder außerhalb
des Zentrums einer Bildsensoreinheit liegen, ist beim Ausgleich
einer geometrischen Verzeichnung gleichwertig. Bei der Änderung
des Abstands der Bildsensoreinheiten zueinander kann der hierdurch gewonnene
Platz zur Vergrößerung der
aktiven lichtsensitiven Fotodiodenfläche genutzt werden, was zu einer
Verringerung der natürlichen
Vignettierung im Randbereich führt.
-
In
der 5 ist ein Bildsensor 1' mit einer Verzeichnungskorrektur
abgebildet, welcher in Verbindung mit einer abbildenden Optik 100 ausgebildet wird.
Die hier gezeigte Optik bedarf keiner Korrekturen für die geometrische
Verzeichnung, da diese bereits vollständig im Bildsensor 1 integriert
ist. Die Linse 1000 ist dabei die Linse, welche innerhalb
der Optik 100 die größte Brechkraft
besitzt und somit maßgeblich
die Position der Hauptebene der Optik definiert. Vor der Optik 101 ist
einer Apperturblende 101 angebracht, so dass eine tonnenförmige Verzeichnung
auftritt.
-
Durch
vorhandene Farbfilterraster können Farbinformationen
aufgenommen werden, durch ein Mikrolinsenraster auch ein Astigmatismus
oder eine Bildfeldwölbung – zumindest
in Teilen – bereits
auf Bildsensorebene korrigiert werden. Somit werden Freiheitsgrade
beim Design der Linsen 1000 und 1001 frei, welche
sich mit anderen Aberrationen, wie beispielsweise dem Coma oder
der sphärischen
Aberration zuwenden können.
Die Informationen des Bildsensors 1' werden über eine Datenverbindung 150 an
eine Datenverarbeitungsanlage 200 weitergeleitet, in welcher
ohne großen
Speicher- oder Rechenzeitaufwand
ein verzeichnungsfreies Objektbild dem Betrachter zur Verfügung gestellt
werden kann. Da der Bildsensor 1' auf die Optik 100 abgestimmt
ist, muss der Bildsensor entsprechend dem Hauptstrahlengang der
Optik vorausgerichtet werden. Werden zur Anpassung an den Gang des
Hauptstrahlwinkels auch entsprechend versetzte und auch ihrer Form zur
optimalen Fokussierung angepasste füllfaktorerhöhenden Mikrolinsen (wie bspw.
in 4 beschrieben) im Bildsensor eingesetzt, so sind
auch diese an den Gang des Hauptstrahlwinkels der verwendeten Optik
anzupassen. Somit ist die Zentrierung von Objektiv und Bildsensor
kritisch, da davon nicht nur die Anordnung des Bildsensors mit dem
Bildkreis des abzubildenden Objektivs beeinflusst ist, sondern auch die
Parameter des Bildsensors bzw. der Mikrolinsen zur Füllfaktorerhöhung eine
radiale Abhängigkeit
aufweisen können.
-
Eine
weitere Möglichkeit
den Bildsensor auszubilden, besteht darin den Bildsensor auf einer
gekrümmten
Fläche
anzubringen. Auf diese Weise kann eine Bildfeldwölbung korrigiert werden, da
nun sämtliche
lichtempfindlichen Flächen
eine konstante Entfernung zum Mittelpunkt der Linse mit größter Brechkraft
aufweisen. Auch eine konstante Entfernung zum Mittelpunkt eines
komplizierten Linsensystems ist möglich, jedoch komplizierter
in seiner Berechnung. Die Anordnung des Bildsensors auf einer gekrümmten Fläche ist
jedoch problemlos realisierbar. Ebenso kann das Substrat des Bildsensors,
auf welchem die lichtempfindlichen Einheiten aufgebracht sind, eine
dementsprechende Krümmung
aufweisen.