DE102007045525A1 - Bildsensor - Google Patents

Bildsensor Download PDF

Info

Publication number
DE102007045525A1
DE102007045525A1 DE102007045525A DE102007045525A DE102007045525A1 DE 102007045525 A1 DE102007045525 A1 DE 102007045525A1 DE 102007045525 A DE102007045525 A DE 102007045525A DE 102007045525 A DE102007045525 A DE 102007045525A DE 102007045525 A1 DE102007045525 A1 DE 102007045525A1
Authority
DE
Germany
Prior art keywords
image sensor
array
arrangement
sensor according
microlens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102007045525A
Other languages
English (en)
Other versions
DE102007045525A8 (de
Inventor
Jaques Dr. Duparré
Frank Wippermann
Andreas Dr. Bräuer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102007045525A priority Critical patent/DE102007045525A1/de
Priority to EP08802567A priority patent/EP2198458A1/de
Priority to US12/677,169 priority patent/US20100277627A1/en
Priority to PCT/EP2008/008090 priority patent/WO2009040110A1/de
Priority to JP2010525272A priority patent/JP5342557B2/ja
Priority to KR1020107006289A priority patent/KR101486617B1/ko
Publication of DE102007045525A1 publication Critical patent/DE102007045525A1/de
Publication of DE102007045525A8 publication Critical patent/DE102007045525A8/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/0001Technical content checked by a classifier
    • H01L2924/0002Not covered by any one of groups H01L24/00, H01L24/00 and H01L2224/00
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays

Abstract

Bildsensor mit einer Vielzahl von Bildsensoreinheiten in einer im Wesentlichen arrayartigen Anordnung, wobei die lichtempfindlichen Flächen der Bildsensoreinheiten zueinander beabstandete Knotenpunkte und diese zusammen mit den die Knotenpunkte verbindenden horizontalen und vertikalen Verbindungslinien ein zweidimensionales Netz aufspannen, und die arrayartige Anordnung einen Zentrumsbereich und einen Randbereich aufweist, wobei der Zentrumsbereich und der Randbereich entlang mindestens einer Verbindungslinie miteinander verbunden sind, dadurch gekennzeichnet, dass der Abstand jeweils zweier benachbarter Knotenpunkte der arrayartigen Anordnung entlang der mindestens einen Verbindungslinie im Zentrumsbereich und im Randbereich verschieden ist. Weiterhin wird ein Kamerasystem mit einem erfindungsgemäßen Bildsensor und einer zusätzlich angeordneten Optik offenbart.

Description

  • Die Erfindung behandelt einen Bildsensor mit einer Vielzahl von Bildsensoreinheiten in einer im Wesentlichen arrayartigen Anordnung.
  • Bildsensoren kommen überall dort zum Einsatz, wo ein Bild eines Objekts zur Betrachtung oder Weiterverarbeitung mittels einer Datenverarbeitungsanlage zur Verfügung gestellt werden soll. Im Wesentlichen werden hierbei eine abbildende Optik, ein Bildsensor mit dazugehöriger Elektronik und eine Datenverarbeitungsanlage verwendet.
  • Optiken zur Bilderzeugung besitzen naturgemäß verschiedene Bildfehler, so genannte Aberrationen. Hier sind beispielsweise die sphärische Aberration, Koma, Astigmatismus, Bildfeldwölbung, Verzeichnungsfehler, Defokussierung und Farblängs- oder -querfehler zu nennen. Für gewöhnlich wird hier versucht durch spe zielles Linsendesign, wie beispielsweise asphärische Linsen oder eine Kombination von verschiedenen Linsenformen und auch verschiedener Materialien, versucht, die Bildfehler auszugleichen. Allerdings können mit Hilfe des Linsendesigns die Aberrationen nur zu einem gewissen Maß korrigiert werden, wobei sich bei der Korrektur verschiedene Aberrationen gegenläufig verhalten, d. h. die Korrektur einer Aberration führt zur Verschlechterung einer anderen Aberration. Von daher muss bereits beim Linsendesign entschieden werden, welche Qualitäten das Kamerasystem als Ganzes erfüllen soll, bzw. auf welche Bildeigenschaften besonderer Wert gelegt wird. Dies führt im Allgemeinen zur Definition einer Gütefunktion, welche dann als Maß bei der Linsenoptimierung genutzt wird. Die Herstellung von Linsen mit aufwendiger Aberrationskorrektur ist zudem oftmals sehr teuer, da die komplizierte Oberflächengeometrie schwierig und in langwierigen Arbeitsschritten herzustellen ist, bzw. bei vielen Linsen auch exotische Materialien eingesetzt werden müssen.
  • Ein weiterer Ansatz zur Korrektur der Aberrationen besteht darin, durch digitale Nachbearbeitung der Bilder ("Remapping"), die Aberrationen, welche nur in einer Verzerrung des Bildes, nicht aber in Unschärfe resultieren, nachträglich zu korrigieren oder gar zu entfernen. Der Nachteil an dieser Lösung ist, dass zur Berechnung der Transformationen vom unkorrigierten Bild zum korrigierten Bild Speicher und insbesondere Rechenzeit benötigt wird. Des Weiteren muss zwischen den eigentlichen Pixeln des Bildsensors interpoliert werden, d. h. es wird entweder eine feinere Abtastung benötigt oder Auflösung eingebüßt.
  • Eine weitere Möglichkeit Aberrationen teilweise zu korrigieren liegt darin, den Bildsensor rotationssymmetrisch auszubilden. Der Nachteil hierbei ist es jedoch, dass sich mit herkömmlichen Displays oder Druckern die so aufgenommenen Bilder nicht direkt wiedergeben lassen, da dort die Bildpixel in einer nahezu rechteckigen Anordnung befindlich sind. Somit ist auch hier eine elektronische Umverteilung der Bildinformationen nötig, was zu den im vorgenannten Absatz erwähnten Nachteilen führt.
  • Ziel der Erfindung ist es, einen Bildsensor bzw. ein Kamerasystem zu schaffen, welcher/welches es ermöglicht, einige Aberrationskorrekturen mit Hilfe des Bildsensors vorzunehmen, so dass sich gegenseitig einschränkende Aberrationskorrekturen im Objektivsystem vermieden werden können. Des Weiteren sollen mit dem Bildsensor nur geringe Anforderungen an Speicher und Rechenzeit einer Elektronik oder nachgeschalteten Datenverarbeitungsanlage von Nöten sein. Die Aufgabe wird mit einem Bildsensor mit den Merkmalen des Anspruchs 1, ein Kamerasystem mit den Merkmalen des Anspruchs 17 und ein Verfahren mit den Merkmalen des Anspruchs 26 gelöst.
  • Der Bildsensor mit einer Vielzahl von Bildsensoreinheiten ist arrayartig aufgebaut. Dadurch wird den heutigen Standards von Displays und Druckern Rechnung getragen. Das Array weist dabei ein Koordinatensystem bestehend aus Knotenpunkten und Verbindungslinien auf, wobei die lichtempfindlichen Flächen der Bildsensoreinheiten jeweils auf den Knotenpunkten angeordnet sind. Das Koordinatensystem ist kein Bestandteil des Arrays, sondern dient zur Orientierung ähnlich einem Kristallgitter. Die Verbindungslinien sind hierbei vertikal bzw. horizontal in dem Sinne, dass sie von oben nach unten bzw. links nach rechts ver laufen. Es ist damit keinesfalls gemeint, dass die vertikalen bzw. horizontalen Verbindungslinien zwangsläufig gerade sind oder parallel zueinander verlaufen. Von daher ist es sinnvoll, von einem Netz mit Verbindungslinien und Knotenpunkten anstatt von einem Gitter zu sprechen, um eine sprachliche Missdeutung auszuschließen.
  • Die arrayartige Anordnung weist einen Zentrumsbereich und einen Randbereich auf, wobei der Zentrumsbereich und der Randbereich entlang mindestens einer Verbindungslinie miteinander verbunden sind. Dadurch ist festgelegt, dass der Zentrumsbereich und der Randbereich keine disjunkten Mengen sind, sondern fließend ineinander übergehen. Dadurch, dass der Abstand jeweils zweier benachbarter Knotenpunkte, also die Orte an welchen die lichtempfindlichen Flächen der Bildsensoreinheiten angeordnet sind, entlang der mindestens einen Verbindungslinie, welche den Zentrums- und den Randbereich miteinander verbindet, im Zentrumsbereich und im Randbereich verschieden ist, können verschiedene Aberrationen durch die Geometrie des Bildsensors bzw. der auf ihm angeordneten Bildsensoreinheiten korrigiert werden, so dass insbesondere bei der Korrektur sich gegenläufig verhaltende Aberrationen nicht ausschließlich durch ein etwaiges Objektiv- bzw. Linsensystem korrigiert werden müssen. Man erreicht durch die Schaffung zusätzlicher geeigneter Freiheitsgrade in dem Bildsensor mehr Freiheitsgrade bei der Optimierung des Linsensystems. Dadurch ergeben sich bessere Lösungsmöglichkeiten, die Korrekturen der verschiedenen Aberrationen auf ein Objektivsystem, einen Bildsensor und eine Datenverarbeitungsanlage zu verteilen. So ergibt sich beispielsweise der Vorteil, dass bei einer nachträglichen Bildbearbeitung weniger Zeit und Speicher alloziiert werden muss, da der Bildsensor zum einen arrayartig angeordnet ist, eine elektronische Umverteilung der Bildinformationen von den einzelnen Bildsensoreinheiten jedoch nicht notwendig ist, da diese bereits fest vorgeformt auf Bildsensorebene erfolgt. Als Zentrumsbereich wird der Bereich des Bildsensors bezeichnet, welcher durch die optische Achse einer zugeordneten Linse durchstoßen wird.
  • Bildsensoren nach dem Stand der Technik sind als äquidistantes Array von Bildsensoreinheiten aufgebaut. Optische Fehler treten zumeist in zunehmender Entfernung von der optischen Achse einer Linsenanordnung auf und werden zu den Rändern des Bildsensors hin stärker. Ein fester Abstand zwischen allen einzelnen Bildsensoreinheiten untereinander sorgt lediglich dafür, dass die Abbildungsfehler auch auf dem aufgenommenen Bild sichtbar sind. Mittels einer unterschiedlichen Beabstandung zweier lichtempfindlichen Flächen im Zentrums- und im Randbereich können Korrekturterme am Randbereich berücksichtigt werden, so dass das Bild zwar weiterhin den Abbildungsfehler aufweist, die lichtempfindlichen Flächen jedoch so angeordnet sind, dass die mit den Bildsensoreinheiten gemachten Aufnahmen in einer äquidistanten Bildpunktdarstellung abbildungsfehlerfrei sind. Somit kommt es zu einer besseren Abbildung von Strahlengängen, welche entweder nicht durch die Mitte der Linse laufen oder unter großen Winkeln einfallen und auf dem Bildsensor abgebildet werden.
  • Wenn sich zudem der Abstand einer zweiten Verbindungslinie, welche zumindest an einem Ort parallel zur ersten Verbindungslinie ist (entlang welcher sich der Abstand zweier lichtempfindlichen Flächen vom Zentrums- zum Randbereich hin ändert), zur ersten Verbindungslinie ebenfalls vom Zentrums- zum Randbereich hin ändert, findet eine Abstandsvariation nicht nur entlang einer Dimension, sondern auch in der zweiten Dimension des Bildsensors wieder.
  • Dadurch, dass die äquidistante Anordnung der lichtempfindlichen Flächen der Bildsensoreinheiten beim erfindungsgemäßen Bildsensor aufgelöst wird und somit ein nicht-äquidistantes Netz bildet, bietet sich eine Vielzahl von Möglichkeiten die Qualität von Bildern durch die oben genannten Vorteile zu verbessern und kann zur Vermeidung von Aberrationen verwendet werden. (Die ökonomische Realisierbarkeit sollte bereits mit den zur Verfügung stehenden Strukturierungstechniken nach einer kurzen Einführungsphase keine große Rolle mehr spielen.)
  • Weitere Vorteile sind in den untergeordneten Ansprüchen beschrieben.
  • Dadurch, dass sich der Abstand zweier benachbarter Knotenpunkte entlang der mindestens einen Verbindungslinie vom Zentrumsbereich zum Randbereich hin stetig ändert, wird die zunehmende Wichtigkeit der Korrekturterme berücksichtigt, welche zumeist durch quadratische, kubische oder auch höhere Potenzen der abbildungsbeschreibenden Winkel beschrieben werden, Gültigkeit getragen. Da zwischen dem Zentrumsbereich und dem Randbereich eine Vielzahl von Bildsensoreinheiten entlang der einen Verbindungslinie liegen können, ist es vorteilhaft, wenn sich der Abstand zweier lichtempfindlicher Flächen zum Abstand zweier lichtempfindlichen Flächen im Randbereich hin stetig ändert, da so eine kontinuierliche Korrektur von Aberrationen zum Randbereich hin vorgenommen werden kann.
  • Besonders vorteilhaft ist es, wenn der Abstand jeweils zweier benachbarter Knotenpunkte der arrayartigen Anordnung der Bildsensoreinheiten sich vom Zentrumsbereich zum Randbereich hin zum Ausgleich der geometrischen Verzeichnung ändert, wobei die Korrektur von einem Linsensystem unabhängig oder abhängig vorgenommen werden kann. Die Verzeichnung wird in eine positive Verzeichnung, d. h. eine kissenförmige Verzeichnung, und eine negative Verzeichnung, d. h. eine tonnenförmige Verzeichnung, unterteilt. Da die geometrische Verzeichnung nur eine Änderung der Vergrößerung mit dem Einfallswinkel, also einen Punktbildversatz relativ zum idealen Fall, aber keine Vergrößerung des Fokus, d. h. der Punktbildverwaschungsfunktion und damit eine Verringerung der Auflösung bewirkt, ist diese besonders geeignet, auf Bildsensorebene durch eine Verschiebung der entsprechend zugeordneten Detektorpixel korrigiert zu werden. Die Verzeichnung ist die Abweichung der realen Hauptstrahlposition in der Bildsensorebene von der Position des idealen, bzw. paraxial genäherten Hauptstrahles. Dies resultiert in einer veränderlichen Vergrößerung über das Bildfeld und damit zur Verzerrung des Gesamtbildes. Während die ideale, bzw. paraxial genäherte Bildfeldkoordinate yp direkt zum Tangens des Einfallswinkels Θ proportional ist, ist die reale Bildfeldkoordinate y davon abweichend. Die Abweichung vom Tangens ist die Verzeichnung und geht typischerweise ca. mit Θ^3 oder einer komplizierten Kurve. Als Maß der Verzeichnung wird hierbei (y – yp)/yp verwendet: Ist die reale Bildfeldkoordinate größer als die ideale Bildfeldkoordinate ist die Verzeichnung kissenförmig, sonst tonnenförmig. Bei einer kissenförmigen Verzeichnung wird der Abstand der lichtempfindlichen Flächen als Funktion des radialen Abstandes des betrachteten Detektorpixels vom Zentrum des Bildsensors, also diagonal stärker als horizontal oder vertikal vom Zentrumsbereich zum Randbereich hin größer, bei einer tonnenförmigen Verzeichnung kleiner.
  • Bei der Herstellung des Bildsensors mit einer eingebauten Verzeichnungskorrektur wird dementsprechend die Position des realen Hauptstrahls mit dem idealen Hauptstrahl verglichen, und die lichtempfindliche Fläche um den Abstand der beiden Strahlen nach aussen (bei einer kissenförmigen Verzeichnung) oder nach innen (bei einer tonnenförmigen Verzeichnung) an die Position des realen Hauptstrahls verschoben.
  • Eine Weiterbildung eines erfindungsgemäßen Bildsensors ist es, die arrayartige Anordnung in Form eines rectilinearen Gitters auszubilden. Somit wird die Änderung des Abstands vom Zentrum zum Randbereich hin nur in einer Dimension des Arrays vorgenommen. Dies bedeutet, dass der Abstand der lichtempfindlichen Flächen zueinander in der ersten Dimension des Bildsensors konstant bleibt, in der zweiten Dimension sich vom Zentrums- zum Randbereich hin ändert, vorzugsweise entlang einer Vielzahl von Verbindungslinien in der zweiten Dimension. So kann ein Bildsensor, welcher sehr schmal aber länglich ausgebildet ist, in der Längendimension ausgebildet sein, in der ersten Dimension normal, da in dieser die Verzeichnung klein bleibt.
  • Eine weitere vorteilhafte Weiterbildung ist es, wenn die Korrektur in beiden Dimensionen des Arrays vorgenommen wird. In diesem Falle sind die Verbindungslinien als parametrisierte Kurve, jedoch nicht mehr als Gerade darstellbar. Sollten sich die Abstände vom Zentrums- zum Randbereich hin entlang einer Vielzahl von Verbindungslinien ändern (und eben auch der Abstand der Verbindungslinien als Funktion der radialen Koordinate), so ist die arrayartige Anordnung als curvilineares Gitter darstellbar, d. h., aus einer Vielzahl von parametrisierten Kurven. Auf diese Weise kann eine Aberration in zwei Dimensionen ausgeglichen werden. Vorzugsweise verändert sich der Abstand zweier benachbarter lichtempfindlichen Flächen vom Zentrums- zum Randbereich hin entlang einer Vielzahl von Verbindungslinien in beiden Arraydimensionen. Somit bildet das curvilineare Gitter eine zweidimensionale Erweiterung des rectilinearen Gitters.
  • Eine vorteilhafte Anordnung ist es, wenn der Randbereich des Bildsensors den Zentrumsbereich des Bildsensors vollständig umschließt. Der Vorteil hierbei ist es, dass vom Zentrumsbereich ausgehend in jede Richtung weitere Bildsensoreinheiten angeordnet sind, und so ein Bildsensorbereich die optische Achse umschließt. Dadurch kann der Ausgleich der Aberration, vorteilhafterweise der geometrischen Verzeichnung, vom Zentrumsbereich des Bildsensors in alle Richtungen der Bildsensorebene hin erfolgen.
  • Eine weitere vorteilhafte Weiterbildung ist es, wenn die Vielzahl von Bildsensoreinheiten auf einem Substrat angeordnet ist. Dies hat insbesondere bei der Herstellung Vorteile, da eine Anwendung von geläufigen Strukturierungstechniken möglich ist. Es ist weiterhin vorteilhaft, wenn die Bildsensoreinheiten optoelektronische und/oder digitale Einheiten sind.
  • Besonders vorteilhaft ist es, wenn die lichtempfindliche Fläche einer Bildsensoreinheit jeweils im Zentrum dieser Bildsensoreinheit angeordnet ist. Auf diese Weise verschieben sich nicht nur die Abstände der lichtempfindlichen Zentren der Bildsensoreinheiten zueinander, sondern auch die Abstände der Bildsensoreinheiten zueinander. Alternativ hierzu können ausschließlich die lichtempfindlichen Flächen ihren Abstand ändern, was dazu führt, dass diese nicht ausschließlich im Zentrum einer Bildsensoreinheit zu finden sind. Auch können beide Alternativen innerhalb eines Bildsensors verwirklicht werden. Weiterhin ist es vorteilhaft, wenn die lichtempfindliche Fläche eine Photodiode oder ein Detektorpixel ist, insbesondere ein CMOS, oder ein CCD oder organische Photodioden sind.
  • Eine weitere besonders vorteilhafte Anordnung ist es, wenn mindestens eine Bildsensoreinheit eine Mikrolinse aufweist und/oder die Vielzahl von Bildsensoreinheiten durch ein Mikrolinsenraster überdeckt ist. Weiterhin können mit Hilfe der Mikrolinsen weitere Aberrationen ausgeglichen werden, welche sonst innerhalb einer vorgeschalteten abbildenden Optik korrigiert werden, wenn diese über das Bildfeld der Optik variable geometrische Eigenschaften wie getrennt voneinander und variabel einstellbare tangentiale und sagittale Krümmungsradien haben.
  • Eine weitere vorteilhafte Weiterbildung des Bildsensors sieht vor, dass die Mikrolinse und das Mikrolinsenraster zur Füllfaktorerhöhung ausgebildet sind. Dadurch kann ein auf eine Bildsensoreinheit auftreffender Hauptstrahl besser auf die lichtempfindliche Fläche einer Bildsensoreinheit, konzentriert werden, was zu einer Verbesserung des Signal-Rausch-Verhältnisses führt.
  • Vorteilhafterweise kann durch eine Anpassung der Krümmungsradien bzw. der Krümmungsradienverhältnisse der Mikrolinsen mehrerer Bildsensoreinheiten bzw. der Krümmungsradienverhältnisse der Mikrolinsen in den zwei Hauptachsen des Arrays ein Astigmatismus bzw. eine Bildfeldwölbung mit Hilfe der Mikrolinsen korrigiert werden. Dies ermöglicht auch die Verschiebung von Korrekturen von einer abbildenden Optik zum Bildsensor hin, was wiederum Freiheitsgrade beim Design der abbildenden Optik eröffnet. Auf diese Weise kann durch die Mikrolinsen eine verbesserte Fokussierung auf die (entsprechend dem Hauptstrahlwinkel an der Stelle versetzten) lichtempfindlichen Flächen stattfinden, so dass mit Hilfe der angepassten Mikrolinsenform ein besseres Bild möglich ist.
  • Um bei einem schiefen Einfall des Lichtbündels auf eine Mikrolinse eine möglichst kleine Beugungsscheibe im Fokus zu erhalten, werden vorteilhafterweise elliptisch gechirpte, d. h. über das Array Mikrolinsen mit variabel einstellbaren Parametern verwendet, welche in ihrer Orientierung, Größe in beiden Hauptachsen und ihren Krümmungsradien entlang der Hauptachsen einer Mikrolinse vom Einfallwinkel des Hauptstrahls der vorgeschalteten abbildenden Optik abhängen. Somit fallen im Gegensatz zu kreisrunden Mikrolinsen ein Astigmatismus und eine Bildfeldwölbung weniger ins Gewicht.
  • Zum Korrigieren einer chromatischen Aberration kann vorteilhafterweise eine Bildsensoreinheit einen Farbfilter aufweisen und/oder die Vielzahl von Bildsensoreinheiten mit einem Farbfilterraster verbunden sein. So werden weitere Aberrationen bereits auf Bildsensorebene korrigiert. Zur Farbbildaufnahme werden zumeist 3 Grundfarben verwendet, also beispielsweise rot, grün und blau, oder magenta, cyan und gelb, wobei die Farbpixel z. B. in einem Bayer- Pattern angeordnet sind. Farbfilter sind – wie die Mikrolinsen – zur Anpassung an den Hauptstrahl der Optik an der jeweiligen Stelle des Arrays versetzt.
  • Weiterhin können die Farbfilter analog zu den Mikrolinsen zu den lichtempfindlichen Flächen relativ versetzt werden, um einerseits den aus dem Hauptstrahlwinkel resultierenden lateralen Versatz des Fokus auf der Photodiode auszugleichen, oder eine Verzeichnung auszugleichen aber auch eine bessere Zuordnung der einzelnen Farbspektren auf die lichtempfindliche Fläche im Falle chromatischer Queraberrationen zu ermöglichen. Der Versatz der Farbfilter und zugeordneten Pixel entspricht dabei dem Versatz der verschiedenen abgebildeten Farben durch chromatische Queraberrationen.
  • Das erfindungsgemäße Kamerasystem zeichnet sich dadurch aus, dass der Bildsensor mit einer vorgeschalteten abbildenden Optik in Verbindung steht. Da aufgrund der verschiedenen Korrekturen Freiheitsgrade im Objektivdesign geschaffen werden, macht insbesondere eine gute Abstimmung zwischen der Optik und dem Bildsensor einen Qualitätssprung möglich. Der Bildsensor ist in der Bildebene der Optik angeordnet.
  • Besonders vorteilhaft kommt ein Kamerasystem oder ein erfindungsgemäßer Bildsensor in einer Kamera und/oder einem tragbaren Telekommunikationsgerät und/oder einem Scanner und/oder einem Bilderkennungsgerät und/oder einem Überwachungssensor und/oder einem Erd- und/oder Sternsensor und/oder einem Satellitensensor und/oder einem Raumfahrtgerät und/oder Sensoranordnung zur Anwendung. Insbesondere der Einsatz in der Überwachung von Industrieanlagen, oder einzelnen Teilen hiervon bietet sich an, da der Sensor bzw. das Kamerasystem ohne hohen Rechenaufwand exakte Bilder liefern kann. Auch der Einsatz in Mikrorobotern, bietet sich aufgrund der geringen Größe des Sensors an. Weiterhin kann der Sensor in einem (Mikro-)Endoskop verwendet werden. Auch der Einsatz im Bereich des menschlichen Auges als Sehhilfe kann mittels intelligenter Verschaltung mit Nervenzellen sinnvoll sein. Aufgrund der erhöhten Abbildungsqualitäten ist der erfindungsgemäße Bildsensor bzw. das erfindungsgemäße Kamerasystem in allen Bereichen geeignet, in welchen über Datenverarbeitungsanlagen auf Bilder höchster Qualität zugegriffen werden möchte und die Bilder in Echtzeit zur Verfügung stehen sollen.
  • Vorteilhafterweise wird der Bildsensor bzw. das Kamerasystem derart hergestellt, dass in einem ersten Schritt die Verzeichnung einer geplanten oder bereits hergestellten Optik ermittelt wird und daraufhin ein Bildsensor hergestellt wird, bei welchem die geometrische Verzeichnung der Optik durch Anordnung der lichtempfindlichen flächen bzw. der Bildsensoreinheiten, wenigstens teilweise, ausgeglichen wird. Dadurch dass nun die Verzeichnung der Optik nicht mehr gering gehalten werden muss, kann z. B. eine bessere Auflösung erzielt werden, ohne die Komplexität der Optik zu erhöhen. So können, auch mit einem Bildsensor nachträglich "normale" Objektive mit geometrischer Verzeichnung korrigiert werden. Weitere Aberrationen können ebenso korrigiert werden.
  • Weitere Vorteile sind in den weiteren untergeordneten und nebengeordneten Ansprüchen beschrieben.
  • Im Folgenden soll die Erfindung anhand einer Vielzahl von Figuren genauer beschrieben werden. Es zeigen:
  • 1a und 1b Bildsensor und Strahlengang nach dem Stand der Technik;
  • 2a und 2b schematische Darstellung eines erfindungsgemäßen Bildsensors mit Array zum Korrigieren einer Aberration, insbesondere einer geometrischen Verzeichnung;
  • 2c Queransicht mit Darstellung des erfindungsgemäßen Versatzes eines Pixels;
  • 2d Queransicht auf einen Sensor zur Korrektur einer kissenförmigen geometrischen Verzeichnung;
  • 3 Bildsensor mit kissenförmiger Verzeichnung;
  • 4 Anordnung zweier Bildsensoreinheiten mit dazugehörigen Mikrolinsen, Pinholearray und Farbfilterraster;
  • 5 Erfindungsgemäßes Kamerasystem.
  • In den 1a und 1b ist der Aufbau eines Bildsensor gemäß dem Stand der Technik dargestellt. In der 1a ist eine Aufsicht auf einen Bildsensor 1 gezeigt, welche eine Vielzahl von Bildsensoreinheiten aufweist, wobei exemplarisch wenige Bildsensoreinheiten 2, 2', 2'' bezeichnet sind. Die Bildsensoreinheiten sind dabei in Form eines Arrays angeordnet, wobei das Array Knotenpunkte (exemplarisch 11, 11', 11'') aufweist und in X-Richtung entlang der Verbindungslinie 12 und in Y-Richtung entlang der Verbindungslinie 13 ausgerichtet ist. So sind die Bildsensoreinheiten 2, 2', 2'' derart angeordnet, dass die lichtempfindlichen Flächen im Zentrum einer Bildsensoreinheit angeordnet sind und das Zentrum der Bildsensoreinheit auf einem der Knotenpunkte 11 liegt. Das Netz stellt also ein Koordinatensystem innerhalb des Sensors dar. Im Stand der Technik sind die Abstände zwischen zwei benachbarten lichtempfindlichen Flächen, sowohl entlang der Verbindungslinien in X-Richtung als auch entlang der Verbindungslinien in Y-Richtung identisch ist. Dies bedeutet, dass beispielsweise entlang der Verbindungslinie 12 der Abstand 40 zwischen den lichtempfindlichen Flächen der Bildsensoreinheiten 2 und 2' und den links daneben liegenden weiteren Sensoreinheiten identisch ist. Ebenso sind die Abstände 41 zwischen den lichtempfindlichen Flächen der Bildsensoreinheiten entlang der Verbindungslinie 13. Hierbei sind auch die Abstände 40 und 41 gleich. D. h. insbesondere, dass die horizontalen Verbindungslinien 12 zueinander und die vertikalen Verbindungslinien 13 zueinander parallel liegen.
  • Der hier dargestellte Bildsensor 1 weist in der Mitte einen Zentrumsbereich 5 und am Rand einen Randbereich 6 auf, welcher den Zentrumsbereich umschließt.
  • Die lichtempfindliche Fläche einer Bildsensoreinheit wird durch eine Fotodiode oder ein Detektorpixel gebildet.
  • In der 1b ist eine Sicht des Bildsensors 1 in der XZ-Ebene gezeigt. Von einem Punkt F ausgehend treffen Lichtstrahlen 15, 15', 15'' und 15''' auf verschiedene Bildsensoreinheiten 2 bzw. 2, 2', 2'', 2''', welche alle entlang der Verbindungslinie 12 angeordnet sind. Die Abstände 40 jeweils zweier benachbarter Pixel 20, welche im Zentrum einer Bildsensoreinheit 2 liegen, sind in der entlang der Verbindungslinie gleich. Die Entfernung zwischen der lichtempfindlichen Fläche 20 der Bildsensoreinheit 2 und dem Punkt F entspricht der Bildweite einer Optik, welche dem Bildsensor zugeordnet ist. Obwohl der Abstand zwischen zwei benachbarten Pixel 20 gleich ist, werden zwischen zwei benachbarten Pixel 20 unterschiedliche Winkelsegmente abgedeckt. Dies ist für die Abbildung jedoch unerheblich, da das Bild – abgesehen von einer möglichen Vergrößerung oder Verkleinerung – das abzubildenden Objekt korrekt wiedergibt. Die eingezeichneten Hauptstrahlen 15, 15', 15'' und 15''' sind dabei ideale Hauptstrahlen, d. h. die Abbildung ist verzeichnungsfrei.
  • In den 2a, 2b sind die Verbindungslinien 12, 13 und -punkte zweier erfindungsgemäßer Bildsensoren 1', 1'' schematisch gezeigt. Beide sind in der Beabstandung ihrer Knotenpunkte, an welchen die lichtempfindlichen Flächen der Bildsensoreinheiten liegen, im Zentrumsbereich 5 und im Randbereich 6 verschieden. Dabei verändern sich die Abstände zweier benachbarter lichtempfindlicher Flächen vom Zentrum zum Randbereich hin, wobei der Abstand zwischen zwei Pixel 20 um einen Korrekturterm ergänzt wird, welcher genau dem Abstand zwischen idealem und realem Hauptstrahl entspricht, d. h. der Pixel ist am Ort des realen Hauptstrahls aufgebracht. Werden die aufgenommenen Bilddaten nun mit einem äquidistanten Array dargestellt, wie es bei Monitoren oder Druckern für gewöhnlich der Fall ist, dann weist das Bild keine Verzeichnung auf.
  • Im Falle einer positiven Verzeichnung entsteht so eine kissenförmige Anordnung des Arrays des Bildsensors 1', da die Abstände zwischen zwei lichtempfindlichen Flächen im Zentrum kleiner sind als die Abstände zweier lichtempfindlicher Flächen im Randbereich. Diese ist in 2a dargestellt. In 2b ist ein Bildsensor 1'' mit einer tonnenförmige Verzeichnung gezeigt, bei welcher die Abstände zweier benachbarter lichtempfindlicher Flächen im Zentrumsbereich größer sind als die Abstände zweier lichtempfindlicher Flächen im Randbereich entlang derselben Verbindungslinie.
  • Es ist auch denkbar, dass die Abstände zweier lichtempfindlicher Flächen sich nicht, wie in den 2a und 2b angedeutet, entlang einer Verbindungslinie kontinuierlich ändern, sondern dass der Abstand im Zentrumsbereich äquidistant ist und im Randbereich äquidistant ist, dass die Abstände im Zentrumsbereich und im Randbereich jedoch verschieden sind. Hierdurch könnten insbesondere Effekte, welche ausschließlich am Rand eines Bildsensors in Erscheinung treten, ausgeglichen werden, ohne die komplexe stetige Entwicklung des Abstands zweier lichtempfindlicher Flächen ganz berücksichtigen zu müssen. Die hier dargestellte Form der Bildsensoreinheiten ist rechteckig oder quadratisch, kann jedoch auch rund oder polygon ausfallen.
  • In 2c ist schematisch aufgezeichnet wie ein einzelner Pixel versetzt wird, um eine Korrektur einer geometrischen Verzeichnung bereits auf Bildsensorebene zu ermöglichen. Eingezeichnet ist ein idealer Hauptstrahl 15' und der dazugehörende reale Hauptstrahl 16'. Der Pixel 20 der Bildsensoreinheit 2' befindet sich im Fokus des idealen Hauptstrahls. Der Pixel 20 wird nun um den Abstand V verschoben (in Wirklichkeit wird der Pixel natürlich nicht verschoben, sondern gleich an der betreffenden Stelle ange ordnet), wobei V der Korrekturterm der geometrischen Verzeichnung ist und aus theoretischen Berechnungen oder Vermessungen eines Linsensystems ermittelt werden kann. Die Bildsensoreinheit 2' wird an die Stelle 216' verschoben, obgleich ein Versatz des Pixels 20 selbst ebenfalls ausreicht. Der Korrekturterm ist dabei abhängig von der Art der geometrischen Verzeichnung und dem Abstand von der optischen Achse 15 des zugehörigen optischen Linsensystems.
  • In 2d ist eine Ansicht eines Ausschnitts des Bildsensors 1' aus der 2a in der XZ-Ebene gezeigt. Dabei ist ein Hauptstrahl 15 vom Punkt F ausgehend in der Mitte des Bildsensors 1 und trifft senkrecht auf diesen auf. in der hier dargestellten Ausführung sitzen die lichtempfindlichen Flächen 20 in der Mitte der Bildsensoreinheiten 2. Es ist deutlich zu sehen, dass die Abstände 400, 401, 402, 403 und 404 mit zunehmender X-Richtung zunehmen. Dabei können die Bildsensoreinheiten 2, 2', 2'' dem Zentrumsbereich 5 und die Bildsensoreinheiten 2' und 2''' dem Randbereich 6 zugeordnet werden. Jeder Pixel wird dabei, wie in 2c beschrieben, von der Position des zugehörigen idealen Hauptstrahles abweichend an der Stelle des zugehörigen realen Hauptstrahles angeordnet. Der zugehörige ideale Hauptstrahl ist dabei durch eine äquidistante Arrayanordnung vorgegeben. Zur Anordnung der einzelnen Pixel werden jedoch die realen Hauptstrahlen verwendet, so dass sich eine nicht-äquidistante Anordnung der Pixel ergibt.
  • Durch die hardwaremäßige Anordnung der lichtempfindlichen Flächen des Bildsensors ist die Verzeichnung bzw. der Gang der Verzeichnung des einzusetzenden Objektivs bereits in den Bildsensor selbst eingebaut. Dadurch werden die vom Objektiv gegenüber dem paraxi alen Fall versetzt abgebildeten Objektpunkte auch auf dementsprechend versetzte Empfängerpixel abgebildet. Die Zuordnung zwischen Objektpunkten und Bildpunkten stimmt somit exakt überein und durch einfache Datenauslese und Anordnung der Bildpixelwerte wird ein verzeichnungsfreies bzw. -armes digitales Bild erzeugt.
  • In der 3 ist ein Bildsensor 1' gezeigt, wobei jede einzelne Bildsensoreinheit 2 eine Einheit aus füllfaktorerhöhender Mikrolinse, Farbfilter (z. B. in Bayer-Anordnung, d. h. benachbarte Detektorpixel besitzen unterschiedliche Farbfilter (rot, grün blau)) und Detektorpixel aufweist. Die kissenförmige Anordnung der Bildsensoreinheiten zur Korrektur der Verzeichnung des zur Bildgebung verwendeten Objektivs eine etwa 10%ige Verzeichnung korrigiert. Die Prozentangabe bezieht sich hierbei auf die Abweichung eines idealen, bzw. paraxialen Bildpunktes vom realen Bildfeldpunkt normiert durch die Koordinate des idealen, bzw. paraxialen Bildpunktes.
  • In 4 sind zwei nebeneinander liegende Bildsensoreinheiten 2 und 2' eines erfindungsgemäßen Bildsensors dargestellt. Die Bildsensoreinheiten weisen dabei jeweils eine Mikrolinse 30 bzw. 30' auf, wobei diese in Kombination mit allen anderen Bildsensoreinheiten, wie in 3 gezeigt, als ein Raster ausgebildet sein können und somit die unterschiedlichen Abstände der Bildsensoreinheiten untereinander ebenfalls abbilden, so dass sich eine verzeichnete Mikrolinsenstruktur ergibt. Gleiches gilt für die Farbfilter 31 bzw. 31', welche ebenfalls als Raster oder als verzeichnendes Raster ausgebildet sein können.
  • Mit Hilfe der Mikrolinsen 30, 30' bzw. Mikrolinsenar rays kann eine Füllfaktorerhöhung erreicht werden, so dass der Füllfaktor der lichtempfindlichen Fläche innerhalb einer Bildsensoreinheit in der Größenordnung um 50% liegen kann, trotzdem aber nahezu alles Licht, was auf eine Bildsensoreinheit fällt, durch die Konzentration auf die Photodiode in ein elektrisches Signal gewandelt werden kann. Des Weiteren befinden sich an den Bildsensoreinheiten 2 bzw. 2' jeweils Pinholes 32 bzw. 32', in deren Ausnehmung die lichtempfindliche Detektoreinheit 20 bzw. 20' angeordnet ist. Dabei kann das Pinholearray mit den Pinholen 32, 32' so ausgebildet sein, dass die Abstände nebeneinander liegender lichtempfindlichen Flächen 20 bzw. 20' sich vom Zentrum zum Randbereich hin ändert, die Abstände 50 zwischen zwei benachbarten Bildsensoreinheiten jedoch gleich bleiben.
  • Die Geometrie der einzelnen Mikrolinsen 30, 30 des Füllfaktor erhöhenden Mikrolinsenarrays wird an den Hauptstrahlwinkel des durch eine jeweilige Optik zu fokussierenden Bündels angepasst; dies geschieht durch eine Variation der Krümmungsradien der Mikrolinsen entlang einer Verbindungslinie, bzw. dem Krümmungsradienverhältnis einer einzelnen Mikrolinse in den zwei Hauptachsen X und Y zueinander, wobei die beiden Krümmungsradien innerhalb einer Mikrolinse über das Array entlang einer Verbindungslinie hinweg variieren können und die Mikrolinsen von nichtrotationssymmetrischer Natur sein können. Durch die Mikrolinsen können beispielsweise ein Astigmatismus oder eine Bildfeldwölbung durch entsprechende Anpassung der Krümmungsradien in den zwei Hauptachsen unter Ausbildung elliptischer Mikrolinsen korrigiert werden. Damit kann eine optimale Fokussierung auf die entsprechend dem Hauptstrahlwinkel vom Zentrum einer Bildsensoreinheit versetzten Fotodioden 20 realisiert werden. Dabei ist nicht der Versatz der Fotodioden sondern die Anpassung der Mikrolinsenform an den Hauptstrahlwinkel entscheidend. Auch das Anbringen von elliptisch gechirpten Mikrolinsen, bei denen die Krümmungsradien und das Krümmungsradienverhältnis ausschließlich über die Achsengröße und das Achsenverhältnis und die Orientierung der Mikrolinsenbasis eingestellt werden, ist sinnvoll. Auf diese Weise kann unter Umständen ein größerer bildseitiger Hauptstrahlwinkel akzeptiert werden. Dies öffnet weitere Freiheitsgrade für das Objektivdesign, da weitere Aberrationen auf Bildsensorebene mit Hilfe der Mikrolinsen korrigiert werden.
  • Bei einer kissenförmigen Verzeichnung, wie in 3 dargestellt, können die Bildsensoreinheiten bzw. die lichtempfindlichen Flächen der Bildsensoreinheiten nach außen hin größer werden, bzw. nur im Randbereich einen geringen Füllfaktor aufweisen. Ob eine kissen- oder tonnenförmige Verzeichnung eines Objektivs vorliegt wird durch die Position einer Aperturblende im Gesamtaufbau einer Optik festgelegt. Dabei ist die Aperturblende vorteilhafterweise so anzuordnen, dass sie sich zwischen der maßgeblichen Linse, welche beispielsweise die Linse größter Brechkraft sein kann bzw. der optischen Hauptebene und dem Bildsensor befindet, damit eine kissenförmige Verzeichnung entsteht, um einen reduzierten Füllfaktor nur im Randbereich des Bildsensors aufzuweisen. Die Größe der Fotodioden innerhalb der Bildsensoreinheiten kann über das Array auch angepasst werden, um den Füllfaktor möglichst zu vergrößern. Auch kann die Größe der Mikrolinsen entsprechend angepasst werden.
  • Bei dem erfindungsgemäßen Bildsensor bzw. bei der erfindungsgemäßen Kamera ist es wichtig, dass die lich tempfindlichen Flächen, also die Fotodioden, ihren Abstand zueinander zum Ausgleich einer geometrischen Verzeichnung hin ändern. Ob dabei die Fotodioden jeweils im Zentrum oder außerhalb des Zentrums einer Bildsensoreinheit liegen, ist beim Ausgleich einer geometrischen Verzeichnung gleichwertig. Bei der Änderung des Abstands der Bildsensoreinheiten zueinander kann der hierdurch gewonnene Platz zur Vergrößerung der aktiven lichtsensitiven Fotodiodenfläche genutzt werden, was zu einer Verringerung der natürlichen Vignettierung im Randbereich führt.
  • In der 5 ist ein Bildsensor 1' mit einer Verzeichnungskorrektur abgebildet, welcher in Verbindung mit einer abbildenden Optik 100 ausgebildet wird. Die hier gezeigte Optik bedarf keiner Korrekturen für die geometrische Verzeichnung, da diese bereits vollständig im Bildsensor 1 integriert ist. Die Linse 1000 ist dabei die Linse, welche innerhalb der Optik 100 die größte Brechkraft besitzt und somit maßgeblich die Position der Hauptebene der Optik definiert. Vor der Optik 101 ist einer Apperturblende 101 angebracht, so dass eine tonnenförmige Verzeichnung auftritt.
  • Durch vorhandene Farbfilterraster können Farbinformationen aufgenommen werden, durch ein Mikrolinsenraster auch ein Astigmatismus oder eine Bildfeldwölbung – zumindest in Teilen – bereits auf Bildsensorebene korrigiert werden. Somit werden Freiheitsgrade beim Design der Linsen 1000 und 1001 frei, welche sich mit anderen Aberrationen, wie beispielsweise dem Coma oder der sphärischen Aberration zuwenden können. Die Informationen des Bildsensors 1' werden über eine Datenverbindung 150 an eine Datenverarbeitungsanlage 200 weitergeleitet, in welcher ohne großen Speicher- oder Rechenzeitaufwand ein verzeichnungsfreies Objektbild dem Betrachter zur Verfügung gestellt werden kann. Da der Bildsensor 1' auf die Optik 100 abgestimmt ist, muss der Bildsensor entsprechend dem Hauptstrahlengang der Optik vorausgerichtet werden. Werden zur Anpassung an den Gang des Hauptstrahlwinkels auch entsprechend versetzte und auch ihrer Form zur optimalen Fokussierung angepasste füllfaktorerhöhenden Mikrolinsen (wie bspw. in 4 beschrieben) im Bildsensor eingesetzt, so sind auch diese an den Gang des Hauptstrahlwinkels der verwendeten Optik anzupassen. Somit ist die Zentrierung von Objektiv und Bildsensor kritisch, da davon nicht nur die Anordnung des Bildsensors mit dem Bildkreis des abzubildenden Objektivs beeinflusst ist, sondern auch die Parameter des Bildsensors bzw. der Mikrolinsen zur Füllfaktorerhöhung eine radiale Abhängigkeit aufweisen können.
  • Eine weitere Möglichkeit den Bildsensor auszubilden, besteht darin den Bildsensor auf einer gekrümmten Fläche anzubringen. Auf diese Weise kann eine Bildfeldwölbung korrigiert werden, da nun sämtliche lichtempfindlichen Flächen eine konstante Entfernung zum Mittelpunkt der Linse mit größter Brechkraft aufweisen. Auch eine konstante Entfernung zum Mittelpunkt eines komplizierten Linsensystems ist möglich, jedoch komplizierter in seiner Berechnung. Die Anordnung des Bildsensors auf einer gekrümmten Fläche ist jedoch problemlos realisierbar. Ebenso kann das Substrat des Bildsensors, auf welchem die lichtempfindlichen Einheiten aufgebracht sind, eine dementsprechende Krümmung aufweisen.

Claims (29)

  1. Bildsensor (1) mit einer Vielzahl von Bildsensoreinheiten (2) in einer im Wesentlichen arrayartigen Anordnung, wobei die Zentren der lichtempfindlichen Flächen (20) der Bildsensoreinheiten zueinander beabstandete Knotenpunkte sind und diese zusammen mit den die Knotenpunkte verbindenden horizontalen (12) und vertikalen (13) Verbindungslinien ein zweidimensionales Netz aufspannen, und die arrayartige Anordnung einen Zentrumsbereich (5) und einen Randbereich (6) aufweist, wobei der Zentrumsbereich (5) und der Randbereich (6) entlang mindestens einer Verbindungslinie (12, 13) miteinander verbunden sind, dadurch gekennzeichnet, dass der Abstand jeweils zweier benachbarter Knotenpunkte (20, 20', 20'') der arrayartigen Anordnung entlang der mindestens einen Verbindungslinie im Zentrumsbereich und im Randbereich verschieden ist und/oder das sich der Abstand zu einer zweiten Verbindungslinie sich vom Zentrumsbereich zum Randbereich hin ändert, so dass das Netz ein nicht-äquidistantes Gitter bildet.
  2. Bildsensor nach Anspruch 1, dadurch gekennzeichnet, dass sich der Abstand jeweils zweier benachbarter Knotenpunkte (20, 20', 20'') der arrayartigen Anordnung entlang der mindestens einen Verbindungslinie vom Zentrumsbereichs zum Randbereichs hin stetig ändert.
  3. Bildsensor nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass sich der Abstand jeweils zweier benachbarter Knotenpunkte (20, 20', 20'') der arrayartigen Anordnung entlang der mindestens einen Verbindungslinie vom Zentrumsbereich zum Randbereich hin zum Ausgleich einer geometrischen Verzeichnung ändert.
  4. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verbindungslinien (12, 13) der arrayartigen Anordnung ein rectilineares Gitter bilden.
  5. Bildsensor nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass mindestens eine Verbindungslinie (12, 13) der arrayartigen Anordnung durch eine parametrisierte Kurve darstellbar ist.
  6. Bildsensor nach Anspruch 5, dadurch gekennzeichnet, dass die Verbindungslinien (12, 13) der arrayartigen Anordnung ein curvilineares Gitter (1', 1'') bilden.
  7. Bildsensor nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass sich die Abstände benachbarter Knotenpunkte (20, 20', 20'') der arrayartigen Anordnung vom Zentrumsbereich zum Randbereich hin radialsymmetrisch und/oder im Wesentlichen als Funktion des Abstandes zum Arraymittelpunkt ändert.
  8. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Randbereich (6) den Zentrumsbereich (5) umschließt.
  9. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Vielzahl von Bildsensoreinheiten (2) auf einem Substrat angeordnet ist.
  10. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildsensoreinheiten (2) optoelektronische und/oder digitale Einheiten sind.
  11. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass jeweils die lichtempfindliche Fläche (20) im Zentrum einer Bildsensoreinheit (2) angeordnet ist.
  12. Bildsensor nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass jeweils der Abstand zweier benachbarter Bildsensoreinheiten (2, 2') unverändert ist und ausschließlich die lichtempfindlichen Flächen (20, 20) benachbarten Bildsensoreinheiten der Abstand entlang mindestens einer Verbindungslinie (12, 13) verschieden ist.
  13. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die lichtempfindliche Fläche (20) eine Photodiode oder ein Detektorpixel ist, vorzugsweise ein CMOS, ein CCD oder eine organische Photodiode ist.
  14. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die lichtempfindliche Fläche (20) rechteckig oder quadratisch oder hexagonal oder rund ist.
  15. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Bildsensoreinheit (2) eine Mikrolinse (30) aufweist und/oder die Vielzahl von Bildsensoreinheiten (2) durch ein Mikrolinsenraster überdeckt ist.
  16. Bildsensor nach Anspruch 15, dadurch gekennzeichnet, dass die Mikrolinse (30) oder das Mikrolinsenraster zur Füllfaktorerhöhung ausgebildet sind.
  17. Bildsensor nach einem der Ansprüche 15 oder 16, dadurch gekennzeichnet, dass die Mikrolinsen (30, 30') zum Anpassung an den Gang des Hauptstrahlwinkels einer abbildenden Optik relativ zu den lichtempfindlichen Flächen (2, 2') versetzt sind.
  18. Bildsensor nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, dass mindestens die eine Mikrolinse (30, 30') eine elliptische Mikrolinse ist mit unterschiedlichen Krümmungsradien in den zwei Hauptachsen der elliptischen Mikrolinse, wobei die Mikrolinse derart angeordnet ist, dass die lange Hauptachse in Richtung der Projektion eines auf Mikrolinse auftreffenden Hauptstrahls einer abbildenden Optik verläuft.
  19. Bildsensor nach Anspruch 18, dadurch gekennzeichnet, dass die mindestens eine elliptische Mikrolinse eine elliptische gechirpte Mikrolinse ist und zur optimalen Fokussierung ihre Parameter über das Array so ändert, dass sie an die an ihrer jeweiligen Position herrschenden Verhältnisse hinsichtlich ihrer änderbaren Parameter optimal angepasst ist.
  20. Bildsensor nach einem der Ansprüche 15 bis 19, dadurch gekennzeichnet, dass die mindestens eine Mikrolinse (30, 30') in ihrer Größe über das Array variabel zur Füllfaktorerhöhung an den jeweiligen Abstand der lichtempfindlichen Flächen angepasst ist.
  21. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Bildsensoreinheit zur Farbbildaufnahme einen Farbfilter, vorzugsweise mit drei Grundfarben, aufweist und/oder die Vielzahl von Bildsensoreinheiten durch ein Farbfilterraster überdeckt ist.
  22. Kamerasystem mit einem Bildsensor (1') nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine abbildende Optik (100) mit mindestens einer Linse (1000, 1001) vorhanden ist, in deren Bildebene der Bildsensor angeordnet ist.
  23. Kamerasystem nach einem der Ansprüche 22, dadurch gekennzeichnet, dass sich die Abstände jeweils zweier Knotenpunkte (2, 2', 2'') entlang mindestens einer Verbindungslinie (12, 13) der arrayartigen Anordnung der Bildsensoreinheiten zum Ausgleich einer geometrischen Verzeichnung, vorzugsweise zum Ausgleich einer kissenförmigen geometrischen Verzeichnung, der Optik (100) ändern.
  24. Kamerasystem nach einem der Ansprüche 22 bis 24, dadurch gekennzeichnet, dass eine Aperturblende zwischen dem Bildsensor (1', 1'') und der abbildenden Optik (100), vorzugsweise zwischen dem Bildsensor und einer Hauptebene der Optik, vorhanden ist.
  25. Kamerasystem nach einem der Ansprüche 17 bis 19 zur Verwendung in einer Kamera und/oder einem tragbaren Telekommunikationsgerät und/oder einem Scanner und/oder einem Bilderkennungsgerät und/oder einem Überwachungssensor und/oder einem Erd- und/oder Sternsensor und/oder einem Satellitensensor und/oder einem Raumfahrtgerät und/oder medizinischen oder robotischen Sensoranordnung.
  26. Verfahren zur Herstellung eines Bildsensors nach einem der Ansprüche 1 bis 16 oder eines Kamerasystems nach den Ansprüchen 17 bis 20 zur Korrektur der Verzeichnung einer einzusetzenden Optik, welches folgende Schritte umfasst: a) Ermitteln der Verzeichnung einer geplanten oder bereits hergestellten abbildenden Optik (100); b) Herstellung eines Bildsensors bei welchem die geometrische Verzeichnung der abbildenden Optik (100) wenigstens teilweise durch Anordnung der lichtempfindlichen Flächen (20) der Bildsensoreinheiten (2) ausgeglichen wird.
  27. Verfahren nach Anspruch 26, dadurch gekennzeichnet, dass bei der Auslegung der abbildenden Optik (100) der Ausgleich der geometrischen Verzeichnung durch den Bildsensor (1', 1'') berücksichtigt wird.
  28. Verfahren nach einem der Ansprüche 26 oder 27, dadurch gekennzeichnet, dass der Bildsensor (1', 1'') mit einer abbildenden Optik (100) zu einer funktionellen Einheit verbunden wird, wobei die Optik überdurchschnittliche Korrekturen zum Ausgleich einer chromatischen Aberration und/oder eines Astigmatismus und/oder eines Coma und/oder einer sphärischen Aberration und/oder einer Bildfeldwölbung aufweist und die geometrische Verzeichnung durch den Bildsensor korrigiert wird.
  29. Verfahren nach einem der Ansprüche 26 bis 28, dadurch gekennzeichnet, dass es bei der Herstellung und Planung einer abbildenden Optik und/oder einem Bildsensor angewendet wird, wobei dieses vorzugsweise in Kameras, welche im Wafermaßstab hergestellt werden, eingesetzt wird.
DE102007045525A 2007-09-24 2007-09-24 Bildsensor Ceased DE102007045525A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102007045525A DE102007045525A1 (de) 2007-09-24 2007-09-24 Bildsensor
EP08802567A EP2198458A1 (de) 2007-09-24 2008-09-24 Bildsensor mit bildkompensation durch pixelanordnung
US12/677,169 US20100277627A1 (en) 2007-09-24 2008-09-24 Image Sensor
PCT/EP2008/008090 WO2009040110A1 (de) 2007-09-24 2008-09-24 Bildsensor mit bildkompensation durch pixelanordnung
JP2010525272A JP5342557B2 (ja) 2007-09-24 2008-09-24 イメージセンサ
KR1020107006289A KR101486617B1 (ko) 2007-09-24 2008-09-24 이미지 센서

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007045525A DE102007045525A1 (de) 2007-09-24 2007-09-24 Bildsensor

Publications (2)

Publication Number Publication Date
DE102007045525A1 true DE102007045525A1 (de) 2009-04-02
DE102007045525A8 DE102007045525A8 (de) 2009-07-23

Family

ID=40348088

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007045525A Ceased DE102007045525A1 (de) 2007-09-24 2007-09-24 Bildsensor

Country Status (6)

Country Link
US (1) US20100277627A1 (de)
EP (1) EP2198458A1 (de)
JP (1) JP5342557B2 (de)
KR (1) KR101486617B1 (de)
DE (1) DE102007045525A1 (de)
WO (1) WO2009040110A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010031535A1 (de) 2010-07-19 2012-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
JP6209308B2 (ja) * 2011-04-26 2017-10-04 ソニー株式会社 撮像装置および電子機器
CN110061018B (zh) * 2013-05-21 2023-11-28 弗托斯传感与算法公司 全光透镜在光传感器衬底上的单片集成
CA2819956C (en) * 2013-07-02 2022-07-12 Guy Martin High accuracy camera modelling and calibration method
DE102015104208A1 (de) 2015-03-20 2016-09-22 Osram Opto Semiconductors Gmbh Sensorvorrichtung
CN106161920A (zh) * 2015-04-22 2016-11-23 北京智谷睿拓技术服务有限公司 图像采集控制方法和装置
CN105245765A (zh) * 2015-07-20 2016-01-13 联想(北京)有限公司 图像传感阵列及其排布方法、图像采集部件、电子设备
US11083537B2 (en) 2017-04-24 2021-08-10 Alcon Inc. Stereoscopic camera with fluorescence visualization
US10917543B2 (en) 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US10299880B2 (en) * 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
US11467100B2 (en) * 2017-08-08 2022-10-11 General Electric Company Imaging element for a borescope
KR102183003B1 (ko) * 2018-08-01 2020-11-27 (주)엘디스 광통신 광원용 광파장 감시기
JP7377082B2 (ja) * 2019-11-29 2023-11-09 株式会社ジャパンディスプレイ 検出装置及び検出装置の製造方法
WO2023102421A1 (en) * 2021-11-30 2023-06-08 Georgia State University Research Foundation, Inc. Flexible and miniaturized compact optical sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01119178A (ja) * 1987-10-30 1989-05-11 Nikon Corp 撮像装置
JPH05207383A (ja) * 1992-01-29 1993-08-13 Toshiba Corp 固体撮像装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6201574B1 (en) * 1991-05-13 2001-03-13 Interactive Pictures Corporation Motionless camera orientation system distortion correcting sensing element
EP0786815A1 (de) * 1996-01-26 1997-07-30 Hewlett-Packard Company Photodetektor-Matrix mit Kompensation von Abbildungsfehlern und ungleichmässiger Beleuchtung
JP3461275B2 (ja) * 1997-12-25 2003-10-27 キヤノン株式会社 光電変換装置及びこれを用いたカメラ
JP2000036587A (ja) * 1998-07-21 2000-02-02 Sony Corp 固体撮像素子
US6563101B1 (en) * 2000-01-19 2003-05-13 Barclay J. Tullis Non-rectilinear sensor arrays for tracking an image
JP2004221657A (ja) 2003-01-09 2004-08-05 Fuji Photo Film Co Ltd 撮像装置
JP4656393B2 (ja) * 2005-02-23 2011-03-23 横河電機株式会社 光源装置
KR100710208B1 (ko) * 2005-09-22 2007-04-20 동부일렉트로닉스 주식회사 씨모스 이미지 센서 및 그 제조방법
JP2007194500A (ja) * 2006-01-20 2007-08-02 Fujifilm Corp 固体撮像素子およびその製造方法
DE102006004802B4 (de) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01119178A (ja) * 1987-10-30 1989-05-11 Nikon Corp 撮像装置
JPH05207383A (ja) * 1992-01-29 1993-08-13 Toshiba Corp 固体撮像装置

Also Published As

Publication number Publication date
KR20100059896A (ko) 2010-06-04
WO2009040110A1 (de) 2009-04-02
DE102007045525A8 (de) 2009-07-23
JP2010541197A (ja) 2010-12-24
JP5342557B2 (ja) 2013-11-13
KR101486617B1 (ko) 2015-02-04
EP2198458A1 (de) 2010-06-23
US20100277627A1 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
DE102007045525A1 (de) Bildsensor
DE102009047361B4 (de) Vorrichtung zur optischen Abbildung
EP2428034B1 (de) Vorrichtung zur optischen abbildung
DE102012005152B4 (de) Bildaufnahmevorrichtung und bildaufnahmeoptik
EP2837961B1 (de) Verfahren zur Kalibrierung eines digitalen optischen Abbildungssystems, Verfahren zur Korrektur von Abbildungsfehlern in einem digitalen optischen Abbildungssystem, sowie digitales optisches Abbildungssystem
DE102014118383B4 (de) Objektiv für eine Foto- oder Filmkamera und Verfahren zum gezielten Dämpfen bestimmter Raumfrequenzbereiche der Modulations-Transfer-Funktion eines derartigen Objektivs
EP2596642A1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen eines bildes
EP3610637B1 (de) Vorrichtungen zur abbildung von teilgesichtsfeldern, multiaperturabbildungsvorrichtungen und verfahren zum bereitstellen derselben
EP2122403B1 (de) Anastigmatisches anamorphotisches objektiv
DE112020003269T5 (de) Verfahren zum Entwerfen von Miniaturobjektiven mit zweckmäßiger Verzerrung
DE102019008472A1 (de) Multilinsen-Kamerasystem und Verfahren zur hyperspektralen Aufnahme von Bildern
EP2139223A2 (de) Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente
DE102020201794B4 (de) Anamorphotisches objektivlinsensystem, kamerasystem und verfahren zum ausbilden von anamorphotischen linseneinheiten mit unterschiedlichen brennweiten
DE102013200059B4 (de) Vorrichtung zur Aufnahme eines von einer Hauptlinse einer plenoptischen Kamera erzeugten Zwischenbilds und plenoptische Kamera
DE102020204615A1 (de) Schiefeebenemikroskop mit verbesserter Sammeleffizienz
DE60223786T2 (de) Telezentrische Einfachlinse mit kleinem Höhenbedarf
WO2022063806A1 (de) Verfahren zur erstellung einer bildaufzeichnung
DE102019101324A1 (de) Multilinsen-Kamerasystem und Verfahren zur hyperspektralen Aufnahme von Bildern
DE102019212260A1 (de) Verfahren zur digitalen Abberationskorrektur sowie Verfahren zum Betrieb eines Abbildungssystems
DE10330714A1 (de) Verfahren zum automatischen Fokussieren bei der Abbildung eines Objektes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8181 Inventor (new situation)

Inventor name: WIPPERMANN, FRANK, 07743 JENA, DE

Inventor name: DUPARRE, JACQUES, DR., 07745 JENA, DE

Inventor name: BRAEUER, ANDREAS, DR., 07646 SCHLOEBEN, DE

8196 Reprint of faulty title page (publication) german patentblatt: part 1a6
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final