ES2373063T3 - Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes. - Google Patents

Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes. Download PDF

Info

Publication number
ES2373063T3
ES2373063T3 ES07711414T ES07711414T ES2373063T3 ES 2373063 T3 ES2373063 T3 ES 2373063T3 ES 07711414 T ES07711414 T ES 07711414T ES 07711414 T ES07711414 T ES 07711414T ES 2373063 T3 ES2373063 T3 ES 2373063T3
Authority
ES
Spain
Prior art keywords
detectors
series
microlenses
diaphragm
diaphragms
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07711414T
Other languages
English (en)
Inventor
Jacques DUPARRÉ
Peter Dannberg
Andreas Brückner
Andreas BRÄUER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2373063T3 publication Critical patent/ES2373063T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0012Arrays characterised by the manufacturing method
    • G02B3/0031Replication or moulding, e.g. hot embossing, UV-casting, injection moulding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49002Electrical device making

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Manufacturing & Machinery (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

Cámara plana a partir de canales ópticos dispuestos uno al lado de otro en cada caso con una microlente asociada con diafragma de abertura que se encuentra directamente debajo y en cada caso al menos un detector que se encuentra en el plano de la imagen, en la que los detectores (6', 8) están dispuestos de tal manera que las direcciones de los ejes ópticos que forman en cada caso las líneas de conexión entre los vértices de la lente y el centro de los detectores representan una función de la posición del canal óptico respectivo, caracterizada porque entre las microlentes (1') con diafragma de abertura (2') que se encuentra directamente debajo y los detectores (6', 8) que se encuentran en el plano de la imagen están presentes al menos una disposición de diafragma (4) configurada como capa para la supresión de imagen fantasma y entre la disposición de diafragma (4) y los detectores (6', 8) una capa de separación transparente (5) y formada a partir de un polímero, en la que la distancia entre centros de los diafragmas (4') de la disposición de diafragma (4) se encuentra entre la distancia de vértice de las microlentes (1') y la distancia entre centros de los detectores (6', 8), de tal manera que según la posición de los canales los diafragmas (4') están dispuestos con un desplazamiento diferente con respecto a las microlentes (1') y los detectores (6', 8) y con éstos se encuentran en cada caso sobre una línea recta y en la que el desplazamiento de los diafragmas (4') de la disposición de diafragma (4) con respecto a las microlentes (1') o los detectores (6', 8), está adaptado al ángulo de incidencia que va a representarse con el canal óptico respectivo.

Description

Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes
La invención se refiere a un sistema de detección de imágenes según el preámbulo de la reivindicación principal así como a un procedimiento para la producción de al menos un sistema de detección de imágenes.
Por el documento WO 2005/069607 A1 se conoce un sistema de detección de imágenes de este tipo, en el que están previstos canales ópticos regularmente dispuestos en cada caso con una microlente y al menos un detector que se encuentran en su plano de la imagen, en el que a partir de la microimagen detrás de la microlente se extrae al menos un punto de imagen. Los ejes ópticos de los canales ópticos individuales presentan diferentes inclinaciones, de tal manera que representan una función de la distancia del canal óptico desde el punto central del lado orientado hacia la imagen del sistema de detección de imágenes. Por tanto puede determinarse de forma controlada la relación del tamaño del campo visual con respecto al tamaño del campo de la imagen. Se utilizan detectores con una elevada sensibilidad, de tal manera que éstos presentan una gran distancia entre centros o separación con una pequeña superficie activa.
En el caso de este sistema de detección de imágenes conocido, mediante una diferencia en la distancia entrecentros
o distancia entre centros de las microlentes y de los detectores se consigue un incremento lineal de la inclinación de los ejes ópticos de canal a canal. Cada canal óptico, al que está asociado una microlente, un diafragma de abertura asociado a la misma y un detector, opcionalmente con diafragma perforado, “ve” de esta manera en la dirección adyacente de los canales a continuación del mismo. Mediante la lectura de las señales del detector en forma de una matriz, tras haberse introducido las señales de los detectores en filas y opcionalmente en columnas, sigue la imagen del objeto observado sin clasificación adicional de las señales de los detectores. Con ello es posible, a partir de las coordenadas de un canal en la serie determinar según la fórmula su dirección de visibilidad dentro de todo el campo visual de la cámara o del sistema de detección de imágenes, se genera una imagen bidimensional de un campo visual limitado.
En caso de mayores ángulos de incidencia de zonas fuera del campo visual del objetivo, en el caso de un aislamiento óptico erróneo de los canales, se produce diafonía de la luz de lentes de un canal sobre los detectores opcionalmente canales adyacentes con diafragmas perforados y con ello la formación de imágenes fantasma. Para evitar esto, en el documento WO 2005/069607 mencionado se propusieron distintas disposiciones, en especial paredes de separación absorbentes entre los canales. Sin embargo, esta disposición está relacionada con un elevado esfuerzo tecnológico, especialmente en la producción de las herramientas de replicación, o por la necesidad de procesos de fotolitografía con elevadas relaciones de aspecto. Además el campo de la imagen está limitado, dado que el píxel detector asociado debe encontrarse en la proyección de la microlente.
La menor distancia angular resoluble o en el caso de una distancia del objeto conocida el menor tamaño estructural resoluble asciende, en el caso del sistema de detección de imágenes descrito en el documento WO 2005/069607, al doble de la diferencia de ángulo de visibilidad, es decir a la diferencia de inclinación de los ejes ópticos entre canales adyacentes. El poder de resolución angular de un sistema de cámara ultraplana se limita para un campo visual deseado, entre otras cosas, por las longitudes de borde de la serie de detectores y el número máximo de canales relacionado con ello en el los ejes de simetría principales. Un aumento del poder de resolución angular elevando el número de canales ópticos precisa el caro aumento de la superficie de silicio de la serie de detectores. En el caso de muchas tareas de representación sencillas, por ejemplo reconocimiento de carril, detección de la posición de los bordes o similares, es necesario un poder de resolución moderado a lo largo de un gran campo visual. Sistemas que proporcionan imágenes, que ponen en práctica estas especificaciones con pocos canales de representación en paralelo, se caracterizan, en comparación con cámaras de megapíxeles de alta resolución, por una menor complejidad así como un rápido procesamiento de imágenes y no en último lugar por bajos costes de producción. Los objetivos macroscópicos convencionales para una representación sin distorsión de un gran campo visual son muy costosos y caros. En estos objetivos, la calidad de imagen se reduce hacia el borde del campo visual y la distorsión no corregida desfigura la imagen, de modo que los objetos ya no pueden identificarse claramente. Mediante los grados de libertad descritos en el documento mencionado de sistemas de representación por canales pueden compensarse en parte estos problemas mediante la corrección individual de cada canal en cuanto a su dirección de visibilidad individual. La construcción planar ofrece en este caso la ventaja adicional de economía de espacio.
El documento JP 2001 237 404 A da a conocer un sensor de imagen, que para aumentar el factor de relleno óptico (relación de la superficie fotoactiva eficaz con respecto a la superficie total de detector) presenta una serie de lentes y una serie de detectores, entre los cuales están dispuestas varias capas de series de diafragmas, introduciéndose una diferencia de separación entre la serie de lentes y la serie de detectores, para evitar una disminución de la intensidad de iluminación hacia el borde del campo de la imagen. Las posiciones de los diafragmas están asimismo desplazadas y adicionalmente las aberturas de los diafragmas están desplazadas con respecto a los detectores hacia el borde. La disposición descrita en el documento se usa en el plano de la imagen por ejemplo de una cámara convencional, en la que debido al efecto de concentración de la luz de las microlentes directamente sobre las superficies de detector fotoactivas, provoca un aumento de la fotosensibilidad del sistema global. Por lo tanto no se
55 E07711414 01-12-2011
trata de una disposición de representación independiente.
La invención, considerando el estado de la técnica mencionado del documento WO 2005/069 607, se basa en el objetivo de crear un sistema de detección de imágenes correspondiente al preámbulo de la reivindicación principal, que permite una supresión de imagen fantasma y que proporciona un campo de la imagen ampliado que puede explorarse.
Este objetivo se resuelve según la invención mediante las características caracterizadoras de la reivindicación principal junto con las características del preámbulo.
Mediante las medidas indicadas en las reivindicaciones dependientes son posibles mejoras y perfeccionamientos ventajosos.
El sistema de detección de imágenes según la invención resuelve el problema de la supresión de imagen fantasma mediante diafragmas desplazados, introducidos adicionalmente entre las microlentes y diafragmas de abertura asociados a las mismas y detectores, que están definidos como píxeles detectores sólo o como píxeles detectores diafragmas perforados unidos a los mismos. A este respecto pueden estar presentes una o varias series de diafragmas adicionales entre la serie de microlentes y la serie de detectores, cuya distancia entrecentros se encuentra entre la de las microlentes y la de los detectores, de modo que en el canal previsto para ello se enfoca luz de un determinado ángulo de incidencia, encontrándose precisamente todas las aberturas de diafragma con lente y detector sobre una línea recta, desde una lente hasta su detector asociado, y todos los demás ángulos de incidencia se bloquean, es decir se absorben o reflejan mediante el diafragma adicional o mediante varios diafragmas adicionales poco antes del plano de la imagen de la microlente. De esta manera, para el concepto global del sistema de detección de imágenes de construcción plana descrito en contraposición a la introducción de paredes de separación absorbentes entre los canales correspondientes al estado de la técnica resulta una ventaja esencial, que se basa en que un detector asociado a una lente o a un canal no debe encontrarse de forma necesaria directamente en la “huella” (proyección), es decir, directamente de tras de esta microlente, sino que puede estar desplazada también intensamente para alcanzar un mayor ángulo de visibilidad del canal detrás de la lente adyacente o lente adyacente subsiguiente o puede estar dispuesta más alejada, sin que se generen imágenes fantasma por diafonía de la luz. Con ello se hace mayor de forma eficaz el campo de la imagen que puede explorarse de las microlentes y le sigue un producto de ancho de banda espacial, lo que repercute de manera ventajosa en cuanto al poder de resolución, tamaño de campo visual e intensidad de la luz del sistema de representación. Además, dado que no debe preverse ninguna pared de separación, puede usarse un cuerpo de objetivo continuo ininterrumpido, que mejora la estabilidad de la disposición de objetivo, entre otras cosas, también por un coeficiente de dilatación térmica adaptado del cuerpo de objetivo en cuanto al sensor de imagen optoelectrónico.
Cada lente puede enfocar mediante el diafragma asociado adicional exclusivamente sobre el detector asociado al mismo, pero no sobre el detector de las lentes adyacentes, dado que sólo para el ángulo de incidencia previsto en cada caso para el canal las o todas las aberturas de diafragma se encuentra sobre un eje. El tamaño de las aberturas de diafragma, en el caso de varias series de diafragmas superpuestas en las distintas posiciones, está adaptado en cada caso al diámetro del cono de luz enfocado en la distancia correspondiente detrás de la microlente, el desplazamiento del diafragma respectivo con respecto a la lente o al detector al ángulo de incidencia que va a representarse con el canal respectivo.
De manera ventajosa pueden usarse el tipo, la forma y los parámetros de las microlentes para la corrección de errores de imagen fuera del eje mediante la adaptación por canales a la dirección de visibilidad respectiva. Además de la utilización estandarizada de series de lentes redondas, pueden utilizarse series de lentes elípticas variables (anamórficas) para la corrección de astigmatismo y curvatura del campo de imagen y segmentos de lente fuera del eje esféricos para aumentar el campo visual y la resolución en el caso de la resolución de aberración completa para la dirección de visibilidad respectiva.
Existen distintas variantes de la gradación de separación entre los distintos elementos, es decir los distintos planos, de este modo los diafragmas de abertura de las microlentes pueden centrarse directamente bajo las mismas, pero también presentan una diferencia de separación a las mismas. La diferencia de separación (es decir la diferencia entre las distancias entre centros respectivas) entre las lentes y los píxeles detectores o diafragmas perforados puede ser positiva o negativa, entonces, los ejes ópticos están orientados o bien hacia dentro o bien hacia fuera, la imagen generada está invertida o derecha.
En principio pueden usarse todas las medidas y ventajas del documento WO 2005/069607, hasta prever paredes de separación entre los canales ópticos, también en el caso de la presente solicitud, en la que, por lo tanto, estará incluida conjuntamente la divulgación de este documento en la presente solicitud.
De manera ventajosa, la iluminación en cuanto a emisión, concentración y conformación de la luz del objeto que va a detectarse, puede integrarse conjuntamente en el sistema de detección de imágenes o en la cámara, por ejemplo dejándose entre los canales ópticos algo de espacio para colocar fuentes de luz o puede preverse a cierta distancia entre grupos de canales o como anillo alrededor de la cámara. Además puede concebirse colocar fuentes de luz en el plano de la lente, por ejemplo en las zonas muertas entre lentes de empaquetamiento cuadrado, por ejemplo
55 E07711414 01-12-2011
redondas. Asimismo es posible que sólo se utilicen algunas lentes de la disposición según la invención, para enfocar sobre un detector y que otras lentes adyacentes a éstas concentren, dirijan y/o distribuyan la luz a partir de fuentes que se encuentran en el plano de la imagen de las microlentes sobre el objeto que va a observarse. Como fuentes de luz pueden usarse diodos láser, LED o OLED o VCSEL o similares.
Como series de píxeles detectores pueden usarse sensores CMOS o CCD, pero también series de fotodiodos poliméricos, siendo ventajosos los últimos, dado que una gran superficie total de sensor no provoca costes tan elevados como en el caso de los receptores de Si. Dado que estos receptores pueden fabricarse con técnica de impresión, igualmente las series de lentes y también las distintas series de diafragmas, parece tenerse en cuenta a largo plazo la impresión de toda la cámara como tecnología de fabricación.
De manera ventajosa, para fotografías en color puede adoptarse sin modificaciones el sistema de representación descrito, cuando se prevé un sensor de imagen, que registra por separado distintos colores directamente en tres capas de píxeles superpuestas, en lugar de un sensor CMOS o CCD negro/blanco convencional como serie de receptores. Un sensor de imagen de este tipo se encuentra en contraposición a los sensores CMOS o CCD que registran color convencional, en los que están dispuestos filtros cromáticos unos al lado de otros sobre píxeles por lo demás del mismo tipo.
Dado que en el sistema de detección de imágenes según la invención el factor de relleno necesario de los píxeles detectores en el plano de la imagen es reducido, los píxeles detectores no deben ser necesariamente cuadrados o rectangulares, para empaquetarse de la forma más compacta posible en una cuadrícula cartesiana. Mejor dicho, pueden considerarse otros puntos visuales durante el diseño de los píxeles detectores, tal como por ejemplo una geometría de la transición PN, que provoca sólo una corriente oscura muy reducida y repercute por lo tanto de forma ventajosa en la relación señal-ruido. De este modo pueden usarse por ejemplo píxeles redondos o píxeles con una delimitación circular de la transición PN.
El sistema de detección de imágenes según la invención puede utilizarse también para la representación de objetos próximos (pocos cm) o muy próximos (unos pocos mm) con un aumento de 1 o aumento menor o reducción. Entonces la diferencia de la separación de los elementos, es decir en la distancia entre centros de las distintas capas, tal como la serie de microlentes, la serie de diafragmas, la serie de detectores, es cero o muy reducida, no obstante según el tamaño del objeto que va a representarse se necesita un sensor de imagen de gran superficie.
Para el diseño óptico en esta configuración de representación de aproximadamente 1:1 es ventajoso, configurar precisamente el tamaño del ángulo sólido en el lado del objeto, que se asocia a cada canal como punto de imagen, de modo que en la distancia del objeto desde el sistema de representación la extensión lateral del objeto que corresponde a este ángulo sólido sea precisamente tan grande como la separación de los canales. Tales sistemas pueden utilizarse por ejemplo a través de algoritmos de correlación como ratón óptico o como microscopio superficial de baja resolución o escáner estático de objetos cercanos, planos.
De manera ventajosa pueden conseguirse las diferentes inclinaciones de los ejes ópticos de los canales de las formas más diversas. De este modo, las microlentes individuales pueden diferenciarse en cuanto al descentrado con respecto al detector, la distancia focal, los parámetros cónicos y/o esféricos. En las microlentes individuales pueden estar integrados microprismas, finalmente las microlentes individuales pueden estar dispuestas una superficie de base conformada de forma convexa o cóncava.
Para influir en el tamaño del campo visual, los detectores pueden estar dispuestos también sobre una superficie de base conformada de forma conexa o cóncava.
Una aplicación ventajosa de la invención es la determinación de la posición altamente precisa de fuentes puntuales y la determinación de la posición y de la orientación de bordes, modificándose el sistema de cámara ultraplana para la detección de imágenes bidimensionales a base de series de microlentes 2D de modo que los campos visuales de canales ópticos adyacentes se solapan en parte mutuamente. Esto se consigue por ejemplo mediante la configuración de la distancia entrecentros entre serie de lentes y detectores o mediante el aumento del diámetro de diafragmas perforados, siempre que éstos presenten una extensión superficial menor que los píxeles detectores fotosensibles. Ambas medidas se ocupan de que la diferencia de ángulos de visibilidad entre canales ópticos adyacentes sea menor que la mitad de la anchura efectiva del campo visual de un canal. De esta manera se consigue una determinación de la posición angular de los objetos de estructura sencilla que se encuentran en la zona del campo visual común, tales como fuentes puntuales, bordes, retícula rectangular de baja frecuencia mediante la valoración de relaciones de los valores de intensidad medidos en canales adyacentes con una precisión, que se encuentra más allá del menor tamaño estructural resoluble predeterminado por el poder de resolución del sistema óptico que proporciona imágenes. De esta manera se hace posible una determinación de la posición altamente precisa.
En los dibujos se representan ejemplos de realización de la invención y se explican en detalle en la siguiente descripción.
Muestran
55 E07711414 01-12-2011
la figura 1 una vista lateral esquemática del sistema de detección de imágenes según la invención,
la figura 2 una vista desde arriba del sistema de detección de imágenes según la invención según la figura 1,
la figura 3 una vista parcial del sistema de detección de imágenes según la invención según la figura 1, en la que el detector está dispuesto muy desplazado con respecto a la microlente correspondiente,
la figura 4 una vista lateral esquemática de una oblea óptica y de una oblea, sobre la que se encuentran las
series de detectores, a partir de las cuales se fabrica mediante individualización el sistema de
detección de imágenes según la invención;
la figura 5 una representación esquemática del sistema óptico del sistema de detección de imágenes con
campos visuales solapantes en parte de canales adyacentes en vista lateral (figura 5A) y una
representación de la sensibilidad angular, aplicada sobre el ángulo en el campo visual (figura 5B) y
la figura 6 una representación esquematizada de la determinación de la posición angular de una fuente puntual dentro del campo visual de tres canales ópticos con campos visuales solapantes.
El sistema de detección de imágenes representado en la figuras 1 y 2 presenta un cuerpo de objetivo transparente 3, sobre el que está aplicada una serie de microlentes 1 con una pluralidad de lentes individuales 1’, estando configuradas las lentes 1’ en el ejemplo de realización representado (figura 2) como microlentes redondas. Directamente por debajo de las series de microlentes 1 está dispuesta una serie de diafragmas de abertura 2 entre las microlentes 1’ y el cuerpo de objetivo 3. Por debajo del cuerpo de objetivo 3 están previstos diafragmas 4’, igualmente en forma de una serie 4, para la supresión de imagen fantasma poco antes del plano de la imagen de las microlentes 1’, encontrándose detectores en el plano de la imagen, que en el ejemplo de realización se forman a partir de píxeles detectores 8 sobre un sustrato de píxeles detectores 7 y por diafragmas perforados 6’ de una serie de diafragmas perforados 6. La serie de diafragmas perforados 6 puede omitirse cuando la superficie de los píxeles detectores 8 es suficientemente pequeña, es decir el detector asociado es entonces propio el píxel detector 8. Entre la serie de diafragmas 4 para la supresión de imagen fantasma y la serie de diafragmas perforados 6 está dispuesta una capa de separación 5. Una microlente 1’ con diafragma de abertura subyacente 2’, un píxel detector 8 asociado a la lente 1’ con diafragma perforado 6’ y diafragma 4’ forman un canal óptico, en el que tal como puede reconocerse en la figura 2, varios canales ópticos se encuentran unos al lado de otros a modo de matriz.
Tal como puede reconocerse en las figuras 1 y 2, los ejes ópticos de cada canal óptico partiendo del centro del sistema de detección de imágenes en dirección radial están previstos normalmente de diferentes inclinaciones. A este respecto el eje óptico de cada canal está definido como línea de conexión entre el vértice de una microlente 1’ y el centro del detector asociado, es decir el centro del diafragma perforado asociado 6’.
En la figura 2 está representado el diafragma de abertura redondo 2’ de una microlente mediante el círculo grande de línea discontinua, el diafragma redondo 4’ poco antes del plano de la imagen de una microlente 1’ para suprimir la diafonía está representado como círculo de puntos de menor tamaño y el detector, es decir el píxel detector 8 cubierto por el diafragma perforado 6’ 8 está representado con un punto negro. Puede reconocerse que tanto los diafragmas 4’ para la supresión de imagen fantasma como los detectores están dispuestos desplazados de forma diferente en la vista desde arriba en función del centro de la cámara en la dirección X e Y, es decir en función de la posición del canal respectivo. Por lo tanto puede decirse que la inclinación o la dirección de los ejes ópticos de un canal óptico, que se define entre una microlente 1’ y un detector 6, 8 que extrae un punto de imagen a partir de la microimagen detrás de esta lente, es una función de las coordenadas radiales en la serie que parte de un canal con eje óptico perpendicular.
Tal como puede reconocerse en la figura 1, la serie de diafragmas 4 entre la serie de microlentes 1 y el plano de detector sirve para la separación de los canales ópticos, pudiendo estar previstas varias posiciones de series de diafragmas 4. La distancia entrecentros de los orificios o aberturas de una serie 4 se elige precisamente de modo que sólo se enfoque un haz bajo el ángulo de incidencia previsto para ello desde la lente hasta el detector correspondiente, bloqueándose sen cambio otros ángulos de incidencia. Las zonas de los diafragmas 4’ dentro de los círculos respectivos son transparentes, las zonas fuera están configuradas correspondientemente de manera absorbente o reflectante, pero preferentemente de manera absorbente, para reducir el nivel de luz parásita.
En la figura 1 puede reconocerse también el funcionamiento de la serie de diafragmas 4. Los haces de rayos continuos mostrados representan las direcciones de visibilidad principales de cada canal óptico y el enfoque de los haces correspondientes. En contraposición a esto los haces de rayos con líneas discontinuas muestran a modo de ejemplo la generación de imágenes fantasma mediante la diafonía de la luz desde las microlentes 1’ hasta detectores no correspondientes no asociados a las mismas, es decir a su dirección de visibilidad predeterminada sin la presencia de la serie de diafragmas 4. La diafonía de la luz se genera con el enfoque sobre detectores adyacentes y/o también incluso más alejados. Mediante la introducción de la serie de diafragmas 4 se elimina la diafonía y con ello la generación de imágenes fantasma.
En la figura 3 está representado que un detector asociado a una microlente 1’ o a un canal, que está compuesto por el píxel detector 8 y el diafragma perforado 6’ en el ejemplo de realización, no debe encontrarse de forma necesaria
60 E07711414 01-12-2011
directamente en la huella, es decir, directamente detrás de esta microlente 1’, sino que para conseguir un mayor ángulo de visibilidad del canal, que está definido por el haz de rayos continuo, puede estar dispuesto también muy desplazado detrás de la lente adyacente o detrás de su lente adyacente sin que se generen imágenes fantasma mediante diafonía, que se representan mediante el haz de rayos representado con línea discontinua. Con ello se hace mayor de forma efectiva el campo de la imagen que puede explorarse de las microlentes 1’, lo que repercute de forma muy ventajosa en cuanto al poder de resolución, tamaño del campo visual e intensidad de la luz del sistema de representación.
El número de canales ópticos puede encontrarse de forma correspondiente a los campos de aplicación en el orden de magnitud de 10 x 10 a 1.000 x 1.000, sin requerirse una forma cuadrática correspondiente a la figura 2. El tamaño de las microlentes 1’ define también el tamaño de los canales ópticos, encontrándose un diámetro de las microlentes en un intervalo entre 10 μm y 1 mm. La serie de microlentes 1 está compuesta por un plástico y puede fabricarse mediante las más diversas tecnologías, tales como prensado, pulverización o similares. El cuerpo de objetivo 3 puede estar configurado como vidrio o como material de plástico transparente, las series de diafragmas de abertura y las series de diafragmas perforados pueden estar configuradas como revestimientos metálicos, pero también como polímero negro.
Por medio de la figura 4 se describirá la fabricación de una forma de realización de la cámara plana con supresión de imagen fantasma. En esta forma de realización se genera el sistema de representación mediante la estructuración en la parte delantera y la parte trasera sobre un cuerpo de objetivo delgado 3, preferentemente de vidrio. A este respecto se aplican sobre el cuerpo de objetivo 3 en primer lugar sobre la parte delantera la serie de diafragmas de abertura 2 asociada a la serie de microlentes y sobre la parte trasera la serie de diafragmas 4 para la supresión de imagen fantasma, por ejemplo en el polímero absorbente, delgado, o en un metal mediante recubrimiento y litografía. A continuación se fabrica en la parte delantera la serie de lentes 1 mediante replicación UV y en la parte trasera la capa de separación 5 en un polímero fotoestructurable. En caso de que los píxeles detectores 8 de la serie de sensores deban limitarse por una serie de diafragmas perforados 6 adicional en su tamaño y en caso de que esta última no pueda generarse sobre el sustrato de detectores, se aplica la serie de diafragmas perforados o la capa de diafragmas perforados 6 por ejemplo como metal o polímero negro con orificios fotoestructurados sobre la parte trasera de la disposición total sobre la capa de separación. El radio de curvatura de las microlentes 1’ está configurada precisamente de modo que se enfocan sobre los píxeles detectores 8 o los diafragmas perforados 6’ que cubren los mismos.
Por tanto se fabrica una oblea óptica, con la que puede fabricarse una pluralidad de cámaras planas. A este respecto es ventajosa una fotoestructuración de la capa de separación 5 para el montaje a escala de oblea de la oblea óptica fabricada con una oblea, sobre la que se encuentran los píxeles detectores 8. Esta estructuración se efectúa de modo que entre dos disposiciones adyacentes para la cámara plana posterior se fabrica un espacio libre. Sobre el sustrato 7 con los píxeles detectores 8 se aplican almohadillas de unión 12, que son necesarias para el contacto posterior de la matriz de píxeles detectores. La oblea óptica fabricada se conecta a continuación con la oblea, sobre la que se encuentran las series de detectores, por ejemplo mediante pegado y curado, de tal manera que el espacio libre entre las capas de separación 5 se encuentra sobre las almohadillas de unión 12 y se forma una cavidad por la altura de la capa de separación 5. A continuación se individualizan las cámaras por medio de una sierra de chips. Mediante la cavidad se garantiza que con una hoja de sierra 13 si bien se separan las capas 1-4, en cambio no se dañan de forma no deseada las capas 6-8. A continuación se individualiza la cámara con varios cortes adyacentes y de diferente profundidad de manera correspondiente a la hoja de sierra 14 a partir del material compuesto de oblea. De este modo se sierra de forma delgada el objetivo como el chip de las series de detectores. De esta manera puede fabricarse un chip de cámara, en el que tras la individualización del chip de detector sobresale lateralmente bajo el objetivo plano y con ello está garantizada la posterior capacidad de contacto de las almohadillas de unión 12.
A continuación se indican los parámetros para este ejemplo de manera correspondiente a la figura 4:
Espesores de las distintas capas o series [μm]: 1: 45; 2: 1,5; 3: 215; 4: 1,5; 5: 30; 6: 0,2; Separaciones (distancia entre centros o distancia de vértice) de los distintos elementos en una serie [μm]: 1: 107,2;
2: 107,2; 4: 106,15; 6: 106,0; 8: 106,0; Diámetros de las aberturas de los distintos elementos en una serie [μm]: 1: 105; 2: 90; 4: 16; 6: 2; Número de los elementos en una serie: 84 x 64; Radio de curvatura de las microlentes 1’: 103 μm; Materiales: 1,5: polímero fotoendurecible por UV; 2,4: polímero de matriz negro; 3: vidrio; 7,8: sensor CMOS
En la figura 5 está representada una parte de una cámara, en la que los campos visuales de canales ópticos adyacentes se solapan en parte, sirviendo una cámara de este tipo para la determinación de la posición de máxima precisión de fuentes puntuales o la determinación de la posición y la orientación de bordes. Un sistema de formación de imágenes de este tipo puede utilizarse en zonas, en las que deben detectarse uno o varios objetos de estructura sencilla, tales como fuentes puntuales y bordes, con un sistema óptico de representación compacto y deben determinarse las posiciones angulares o las posiciones laterales a una distancia del objeto conocida del mismo dentro del campo visual con elevada precisión y bajo coste, es decir baja cantidad de datos y corto tiempo de procesamiento. En el campo industrial es de gran interés un reconocimiento de la posición de los bordes, además
50 E07711414 01-12-2011
puede concebirse un reconocimiento de las marcas de carriles en el automóvil o tareas de vigilancia en el desarrollo de producción.
El solapamiento de los campos visuales de manera correspondiente a la figura 5 se consigue por ejemplo mediante la configuración de la distancia entrecentros entre la serie de lentes 1 y la serie de diafragmas perforados 6 o la serie de detectores o mediante el aumento del diámetro de diafragmas perforados, siempre que éstos presenten una extensión superficial menor a partir de los píxeles detectores fotosensibles 8.
En la figura 5A se designa con 9a la dirección de visualización de un canal, es decir el eje óptico, con 9b el campo visual del canal óptico individual y con 9c la zona de solapamiento de campos visuales adyacentes.
En la figura 5B está representada la sensibilidad angular a través del ángulo en el campo visual de la cámara ultraplana de manera correspondiente a la figura 5A, designando 10a la curva de sensibilidad angular de un canal, 10b el eje angular, 10c la anchura efectiva del campo visual de un canal y 10d la zona de solapamiento de la curva de sensibilidad angular. Las medidas descritas anteriormente para el solapamiento de los campos visuales de canales ópticos adyacentes se ocupa de que la diferencia de ángulo de visibilidad entre canales ópticos adyacentes sea menor que la mitad de la anchura efectiva del campo visual de un canal. Un solapamiento de este tipo es necesario para poder observar un punto de objeto al mismo tiempo que distintos canales y para poder medir señales de diferente intensidad.
En la figura 6 está representada la representación esquematizada para la determinación de una posición angular de una fuente puntual dentro del campo visual de tres canales ópticos con campos visuales solapantes. A este respecto 11a designa la posición proyectada en el plano de la imagen de las fuentes puntuales: 11b son los puntos de contacto de los ejes ópticos de tres canales con el plano de coordenadas de imagen a través de la distancia focal. 11e es el eje de conexión de canales adyacentes horizontales (eje X) y 11f es el eje de conexión de canales adyacentes verticales (eje Y). Con los números de referencia 11d se designan los radios de la posición de fuentes puntuales proyectadas dentro de los campos visuales de los canales ópticos individuales.
En el caso de la determinación de fuentes puntuales u objetos en forma de punto ha de considerarse que las relaciones de los valores de intensidad medidos en los diafragmas perforados 6’ de canales ópticos adyacentes de una cámara de manera correspondiente a la figura 5 son independientes de la luminosidad absoluta del objeto o la emisividad de la fuente de luz así como independiente de fluctuaciones de la luminosidad absoluta o de la emisividad, siempre que éstas no puedan apreciarse a lo largo del tiempo de integración. Mediante evaluación de una relación de intensidad pueden determinarse la posición angular de los objetos que se encuentran en la zona de campo visual común. Si un objeto de este tipo se encuentra en el campo visual común de tres canales ópticos de manera correspondiente a la figura 6 (son posibles varios canales ópticos), entonces según la separación lateral de la fuente puntual desde el eje óptico del canal respectivo puede medirse una intensidad específica en el diafragma perforado 6’ correspondiente o en el píxel detector 8 posterior. La relación según la fórmula, de qué porcentaje de una cantidad de luz irradiada sobre el canal óptico con una distancia angular dada desde el eje óptico en el plano de la imagen se transmite, se conoce por consideraciones teóricas utilizando la sensibilidad angular de manera correspondiente a 5B. Este conocimiento se utiliza para determinar a partir de las relaciones de las intensidades de dos diafragmas perforados 6’ adyacentes las coordenadas xp, yp de la fuente puntual proyectadas sobre sus ejes de conexión a través de la distancia focal. Después de calcular las coordenadas xp, yp horizontales y verticales de la fuente puntual se conoce su posición angular en el campo visual de un canal de referencia y a través de la asignación de los canales y su dirección de visibilidad por tanto también en el campo visual de toda la cámara ultra plana.
El procedimiento de cálculo se explicará de forma más precisa en el siguiente ejemplo.
Si se contempla un eje de las coordenadas proyectadas a través de la distancia focal en el campo visual del canal central (designación 11e), en la figura 6, entonces, la posición medida sobre este eje de una fuente puntual se designa con xp. Está relacionada con la posición angular de la fuente puntual en el campo visual del canal central a través de las relaciones:
ϕp describe en la fórmula la posición angular de la fuente puntual en el campo visual, rp la separación radial desde el punto de contacto del eje óptico con el plano de coordenadas proyectado a través de la distancia focal así como f la distancia focal del objetivo. yp es tal como se apunta en la figura 6 la coordenada de la fuente puntual sobre el segundo eje de coordenadas.
Por los fundamentos teóricos se conoce que la distribución de intensidad en el plano de la imagen de cada canal del objetivo resulta del planteamiento matemático de la distribución de intensidad de objeto con la función de sensibilidad angular (10a en la figura 5B) del canal correspondiente. Para objetos que pueden describirse
matemáticamente (por aproximación) como fuentes puntuales o bordes, el resultado del planteamiento es una relación que se compone por la luminosidad absoluta (o la emisividad absoluta) de la fuente y el valor de la función de sensibilidad angular en la posición de la fuente puntual (xp, o rp o (ϕp), o para bordes adicionalmente por una expresión integral a través de la función de sensibilidad angular en la posición de los bordes. Mediante el 5 solapamiento de los campos visuales de canales adyacentes se miden en los diafragmas perforados 6 respectivos o píxeles detectores 8 posteriores en general intensidades de distinta magnitud según la relación descrita, cuando la fuente se encuentra en la zona de campo visual común de los canales. La expresión que se genera mediante la relación de los valores de intensidad medidos en dos canales adyacentes, es independiente de la emisividad o la luminosidad absoluta de la fuente y pueden modificarse según las coordenadas de la fuente puntual o bordes en el
10 plano de coordenadas proyectado (xp).
Este modo de proceder se realiza de forma análoga para el segundo eje de coordenadas 11f en la figura 6 para obtener yp y a partir de ahí determinar la separación radial desde el punto de contacto del eje óptico con el plano de coordenadas proyectado a través de la distancia focal (rp) así como la posición angular de la fuente en el campo visual del canal central (ϕp).
15 Cuando deba usarse el procedimiento descrito para la detección de la posición de bordes, debe determinarse adicionalmente la orientación de los bordes con respecto a los ejes de simetría principales transversales de la cámara. Esto se consigue de manera relativamente sencilla mediante la búsqueda de valores de intensidad o valores de contraste de igual magnitud en la imagen. En perpendicular a la orientación hallada de esta manera de los bordes se valoran entonces según el procedimiento descrito anteriormente las relaciones de intensidad de
20 distintos píxeles detectores, para determinar los bordes en el campo visual de la cámara con precisión elevada.
El procedimiento mencionado para la determinación de la posición puede usarse de forma simplificada también con una cámara que sólo esté realizada como una fila. Por ejemplo es posible detectar el movimiento de un borde de contraste en el campo visual de esta fila con elevada resolución angular.
55 E07711414 01-12-2011

Claims (15)

  1. REIVINDICACIONES
    1.
    Cámara plana a partir de canales ópticos dispuestos uno al lado de otro en cada caso con una microlente asociada con diafragma de abertura que se encuentra directamente debajo y en cada caso al menos un detector que se encuentra en el plano de la imagen, en la que los detectores (6’, 8) están dispuestos de tal manera que las direcciones de los ejes ópticos que forman en cada caso las líneas de conexión entre los vértices de la lente y el centro de los detectores representan una función de la posición del canal óptico respectivo, caracterizada porque entre las microlentes (1’) con diafragma de abertura (2’) que se encuentra directamente debajo y los detectores (6’, 8) que se encuentran en el plano de la imagen están presentes al menos una disposición de diafragma (4) configurada como capa para la supresión de imagen fantasma y entre la disposición de diafragma (4) y los detectores (6’, 8) una capa de separación transparente (5) y formada a partir de un polímero, en la que la distancia entre centros de los diafragmas (4’) de la disposición de diafragma (4) se encuentra entre la distancia de vértice de las microlentes (1’) y la distancia entre centros de los detectores (6’, 8), de tal manera que según la posición de los canales los diafragmas (4’) están dispuestos con un desplazamiento diferente con respecto a las microlentes (1’) y los detectores (6’, 8) y con éstos se encuentran en cada caso sobre una línea recta y en la que el desplazamiento de los diafragmas (4’) de la disposición de diafragma (4) con respecto a las microlentes (1’) o los detectores (6’, 8), está adaptado al ángulo de incidencia que va a representarse con el canal óptico respectivo.
  2. 2.
    Cámara plana según la reivindicación 1, caracterizada porque los detectores (6’, 8) asociados a los canales respectivos están dispuestos al menos en parte de tal manera que se encuentran en la proyección de las microlentes de canales que se encuentran en cada caso adyacentes o incluso más alejados.
  3. 3.
    Cámara plana según la reivindicación 1 ó 2, caracterizada porque los detectores (5’, 8) están configurados directamente como píxeles detectores (8) sobre un sustrato (7) o como píxeles detectores con diafragma perforado (6’) superior.
  4. 4.
    Cámara plana según una de las reivindicaciones 1 a 3, caracterizada porque cada canal óptico detecta al menos un segmento de ángulo sólido determinado como punto de imagen correspondiente, de tal manera que la totalidad de los puntos de imagen transmitidos sobre la disposición de detector permite una reconstrucción del objeto.
  5. 5.
    Cámara plana según una de las reivindicaciones 1 a 4, caracterizada porque las microlentes individuales se diferencian entre sí en cuanto a su forma, tal como redonda, elíptica, esférica y similares y/o porque en las microlentes individuales están integrados microprismas.
  6. 6.
    Cámara plana según una de las reivindicaciones 1 a 5, caracterizada porque entre los canales ópticos o grupos de canales ópticos o alrededor de los canales ópticos están dispuestas fuentes de luz, en la que en el plano de la imagen de las microlentes (1’) al menos un detector (6’, 8) está sustituido por una fuente de luz, que dirige, concentra y/o distribuye la luz desde el plano de la imagen a través de la microlente (1’) sobre el objeto que va a observarse.
  7. 7.
    Cámara plana según una de las reivindicaciones 1 a 6, caracterizada porque los campos visuales de canales ópticos adyacentes se solapan en parte mutuamente, en la que preferentemente la diferencia de ángulo de visibilidad entre canales ópticos adyacentes establecida por los ejes ópticos es inferior a la mitad de la anchura del campo visual de un canal.
  8. 8.
    Cámara plana según una de las reivindicaciones 1 a 7, caracterizada porque varias disposiciones de diafragma
    (4) para la supresión de imagen fantasma en diferentes planos están dispuestas entre microlentes (1’) y detectores (6’, 8).
  9. 9.
    Cámara plana según la reivindicación 8, caracterizada porque las disposiciones de diafragma (4) presentan diferentes distancias entre centros y/o están separadas entre sí con diferentes capas de separación y con respecto a los detectores o a las microlentes.
  10. 10.
    Cámara plana según una de las reivindicaciones 1 a 9, caracterizada porque los canales ópticos y las microlentes (1’) están configurados para un aumento de aproximadamente 1, en la que el ángulo sólido en el lado del objeto, que está asociado a cada canal como punto de imagen, está configurado en cuanto a su tamaño de manera que en la distancia del objeto del sistema de representación la extensión lateral del objeto correspondiente a este ángulo sólido es justo tan grande como la distancia de los canales.
  11. 11.
    Cámara plana según una de las reivindicaciones 1 a 10, caracterizada porque sobre un cuerpo de objetivo transparente (3) están aplicados mediante recubrimiento en la parte delantera la serie de diafragmas de abertura (2) asociada a la microlentes (1’) y en la parte trasera la disposición de diafragma (4) para la supresión de imagen fantasma, sobre la serie de diafragmas de abertura (2) está dispuesta una serie de microlentes (1) y sobre la disposición de diafragma (4) la capa de separación transparente (5) y bajo la capa de separación se encuentra un sustrato (7) con una serie de píxeles detectores (8), en la que opcionalmente está aplicada una serie de diafragmas perforados (6) sobre la capa de separación (5) o el sustrato con los píxeles detectores.
  12. 12.
    Cámara plana según la reivindicación 11, caracterizada porque el cuerpo de objetivo (3) está fabricado a partir
    de vidrio, la serie de lentes y la capa de separación a partir de un polímero estructurable, la serie de diafragmas de abertura (2) y la disposición de diafragma (4) para la supresión de imagen fantasma a partir de un polímero absorbente o metal y la serie de diafragmas perforados (6) a partir de una capa de metal o de polímero.
  13. 13.
    Procedimiento para la producción de al menos una cámara plana según la reivindicación 1, con un cuerpo de
    5 objetivo transparente, sobre cuya parte delantera se aplican mediante recubrimiento y litografía una serie de diafragmas de abertura (2) y parte trasera una disposición de diafragma (4) para la supresión de imagen fantasma de polímero absorbente delgado o un metal, después se producen en la parte delantera una serie de microlentes (1) mediante replicación UV y en la parte trasera una capa de separación (5), ambas a partir de un polímero fotoestructurable, y la capa de separación opcionalmente tras la producción se une a una disposición de diafragmas
    10 perforados (6’) con un sustrato dotado de una serie de píxeles detectores, en el que los detectores o los detectores con diafragma perforado son múltiples veces inferiores con respecto al diámetro de la microlente.
  14. 14. Procedimiento según la reivindicación 13, caracterizado porque para la formación de una oblea óptica se aplican sobre un cuerpo de objetivo continuo varias series de diafragmas de abertura y disposiciones de diafragma, varias series de microlentes y varias capas de separación dispuestas con una distancia entre sí, que se unen con 15 una oblea detectora con una pluralidad de series de píxeles detectores y almohadillas de unión aplicadas entre las series de píxeles detectores sobre la oblea de tal manera que los espacios que quedan libres entre las capas de separación se encuentran sobre las almohadillas de unión y porque la oblea óptica y oblea detectora así unidas se individualizan con una sierra mediante varios cortes adyacentes y de diferente profundidad, de modo que se producen chips de cámara, en los que las almohadillas de unión sobresales sobre los chips detectores lateralmente
    20 por encima del resto de la disposición.
  15. 15. Uso de una cámara plana según una de las reivindicaciones 7 a 12, con un dispositivo de evaluación para la determinación de la posición de objetos en forma de punto recurriendo a las relaciones de las intensidades detectadas por los detectores de canales ópticos adyacentes o con un dispositivo de evaluación para la determinación de la orientación y de la posición de los bordes mediante evaluación de los valores de intensidad o
    25 valores de contraste detectados por los detectores y recurriendo a las relaciones de la intensidad de canales ópticos adyacentes.
ES07711414T 2006-01-23 2007-01-23 Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes. Active ES2373063T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102006004802 2006-01-23
DE102006004802A DE102006004802B4 (de) 2006-01-23 2006-01-23 Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
PCT/EP2007/000813 WO2007082781A1 (de) 2006-01-23 2007-01-23 Bilderfassungssystem und verfahren zur herstellung mindestens eines bilderfassungssystems

Publications (1)

Publication Number Publication Date
ES2373063T3 true ES2373063T3 (es) 2012-01-31

Family

ID=37969955

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07711414T Active ES2373063T3 (es) 2006-01-23 2007-01-23 Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes.

Country Status (8)

Country Link
US (1) US7897903B2 (es)
EP (1) EP1979769B1 (es)
JP (1) JP2009524263A (es)
KR (1) KR101275076B1 (es)
AT (1) ATE523802T1 (es)
DE (1) DE102006004802B4 (es)
ES (1) ES2373063T3 (es)
WO (1) WO2007082781A1 (es)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008261790A (ja) * 2007-04-13 2008-10-30 Hitachi High-Technologies Corp 欠陥検査装置
WO2009020977A1 (en) * 2007-08-06 2009-02-12 Adobe Systems Incorporated Method and apparatus for radiance capture by multiplexing in the frequency domain
DE102007042984A1 (de) * 2007-09-10 2009-03-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur optischen Navigation
DE102007045525A1 (de) 2007-09-24 2009-04-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildsensor
DE102007050167A1 (de) 2007-10-19 2009-04-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mikrolinsen-Array mit integrierter Beleuchtung
JP4973478B2 (ja) * 2007-12-11 2012-07-11 ソニー株式会社 撮像素子および撮像装置
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
KR101588877B1 (ko) 2008-05-20 2016-01-26 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8244058B1 (en) 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
DE102009005092A1 (de) * 2009-01-19 2010-09-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur optischen Navigation und dessen Verwendung
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
DE102009016234B4 (de) * 2009-04-03 2014-03-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Strahlformer
US8633432B2 (en) * 2009-09-21 2014-01-21 California Institute Of Technology Reflective focusing and transmissive projection device
WO2011047053A2 (en) * 2009-10-13 2011-04-21 California Institute Of Technology Holographically illuminated imaging devices
DE102009049387B4 (de) * 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8860833B2 (en) 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
DE102010031535A1 (de) 2010-07-19 2012-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
US8803164B2 (en) * 2010-08-06 2014-08-12 Semiconductor Energy Laboratory Co., Ltd. Solid-state image sensing device and semiconductor display device
US8749694B2 (en) 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
US8724000B2 (en) * 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
US8803918B2 (en) 2010-08-27 2014-08-12 Adobe Systems Incorporated Methods and apparatus for calibrating focused plenoptic camera data
WO2012033957A2 (en) 2010-09-09 2012-03-15 California Institute Of Technology Delayed emission detection devices and methods
KR101042501B1 (ko) * 2010-11-17 2011-06-17 이주현 광 투과 조정 필터가 형성된 렌즈 어레이 시트
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
GB2488519A (en) * 2011-02-16 2012-09-05 St Microelectronics Res & Dev Multi-channel image sensor incorporating lenslet array and overlapping fields of view.
JP5861257B2 (ja) * 2011-02-21 2016-02-16 ソニー株式会社 撮像素子および撮像装置
US9197798B2 (en) 2011-03-25 2015-11-24 Adobe Systems Incorporated Thin plenoptic cameras using microspheres
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
EP2726930A4 (en) * 2011-06-28 2015-03-04 Pelican Imaging Corp OPTICAL ARRANGEMENTS FOR USE WITH AN ARRAY CAMERA
JP2013044885A (ja) * 2011-08-23 2013-03-04 Hitachi High-Technologies Corp 拡大系イメージング装置及びイメージセンサ
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
US20130169606A1 (en) * 2011-12-30 2013-07-04 Qualcomm Mems Technologies, Inc. Light direction distribution sensor
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP3869797B1 (en) 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
CN103076709B (zh) * 2013-01-16 2016-06-29 瑞声声学科技(深圳)有限公司 阵列照相机
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10898070B2 (en) * 2013-07-07 2021-01-26 Real Time Imaging Technologies, Llc Imaging apparatus and methods
JP2015060068A (ja) * 2013-09-18 2015-03-30 株式会社東芝 撮像レンズ及び固体撮像装置
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9880391B2 (en) * 2013-10-01 2018-01-30 Heptagon Micro Optics Pte. Ltd. Lens array modules and wafer-level techniques for fabricating the same
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
JP6417809B2 (ja) * 2014-03-05 2018-11-07 ソニー株式会社 撮像装置
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9955050B2 (en) * 2014-04-07 2018-04-24 William J. Warren Movement monitoring security devices and systems
US9972182B2 (en) 2014-04-07 2018-05-15 William J. Warren Movement monitoring security devices and systems
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN107077743B (zh) 2014-09-29 2021-03-23 快图有限公司 用于阵列相机的动态校准的系统和方法
CN204423387U (zh) * 2014-11-14 2015-06-24 深圳印象认知技术有限公司 成像板、图像采集器及终端
EP3029494A1 (de) * 2014-12-02 2016-06-08 Sick Ag Optoelektronischer Sensor
WO2016115117A1 (en) 2015-01-12 2016-07-21 Real Time Imaging Technologies, Llc Low-dose x-ray imaging system
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
WO2016208403A1 (ja) * 2015-06-23 2016-12-29 ソニー株式会社 イメージセンサ、および電子機器
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US10063849B2 (en) 2015-09-24 2018-08-28 Ouster, Inc. Optical system for collecting distance information within a field
JP6703387B2 (ja) * 2015-10-02 2020-06-03 エルジー ディスプレイ カンパニー リミテッド 薄膜光センサ、2次元アレイセンサ、および指紋センサ付きモバイル用ディスプレイ
KR101759971B1 (ko) * 2015-11-26 2017-07-24 주식회사 선진기술 평행광을 이용한 축오차 측정장치
KR101738883B1 (ko) * 2016-01-06 2017-05-23 한국과학기술원 초박형 디지털 카메라 및 그 제조 방법
CN107437047A (zh) * 2016-05-25 2017-12-05 深圳印象认知技术有限公司 感光像元、图像采集器、指纹采集设备及显示设备
US10331932B2 (en) 2016-06-08 2019-06-25 Novatek Microelectronics Corp. Optical sensor device and a fingerprint sensor apparatus
US10924638B2 (en) * 2016-06-27 2021-02-16 Intel Corporation Compact, low cost VCSEL projector for high performance stereodepth camera
CA3035094A1 (en) 2016-08-24 2018-03-01 Ouster, Inc. Optical system for collecting distance information within a field
US10270947B2 (en) * 2016-09-15 2019-04-23 Microsoft Technology Licensing, Llc Flat digital image sensor
KR101850222B1 (ko) * 2016-12-28 2018-05-31 창원대학교 산학협력단 삼차원 프린터의 축 오차 보정 장치 및 방법
DE102017201139A1 (de) 2017-01-25 2018-07-26 Robert Bosch Gmbh Bauelement zum Begrenzen eines Einfallswinkels von Licht, Verfahren zum Herstellen desselben und Mikrospektrometer
US11190944B2 (en) 2017-05-05 2021-11-30 Ball Aerospace & Technologies Corp. Spectral sensing and allocation using deep machine learning
DE202018006695U1 (de) 2017-05-15 2022-04-01 Ouster, Inc. Optischer Bildübertrager mit Helligkeitsverbesserung
TWI639022B (zh) * 2017-05-18 2018-10-21 吳志彥 光學元件的製作方法及光學感應裝置
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US11353556B2 (en) 2017-12-07 2022-06-07 Ouster, Inc. Light ranging device with a multi-element bulk lens system
JP6508385B2 (ja) * 2018-03-30 2019-05-08 株式会社ニコン 撮像素子および撮像装置
KR102614907B1 (ko) * 2018-04-04 2023-12-19 삼성전자주식회사 이미지 센서 및 이미지 센서 제조 방법
US10916575B2 (en) 2018-04-04 2021-02-09 Samsung Electronics Co., Ltd. Image sensor and method of manufacturing image sensor
DE19724378T1 (de) * 2018-05-07 2020-10-01 VVaveTouch Denmark A/S Kompakter optischer Sensor zur Fingerabdruckerkennung
FR3084207B1 (fr) * 2018-07-19 2021-02-19 Isorg Systeme optique et son procede de fabrication
US11473970B2 (en) 2018-08-09 2022-10-18 Ouster, Inc. Subpixel apertures for channels in a scanning sensor array
US10739189B2 (en) 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
CN211045441U (zh) * 2018-08-21 2020-07-17 神盾股份有限公司 光学传感系统
US11182672B1 (en) * 2018-10-09 2021-11-23 Ball Aerospace & Technologies Corp. Optimized focal-plane electronics using vector-enhanced deep learning
US11851217B1 (en) 2019-01-23 2023-12-26 Ball Aerospace & Technologies Corp. Star tracker using vector-based deep learning for enhanced performance
US11412124B1 (en) 2019-03-01 2022-08-09 Ball Aerospace & Technologies Corp. Microsequencer for reconfigurable focal plane control
JP2020182139A (ja) * 2019-04-26 2020-11-05 ソニー株式会社 撮像システム及び撮像素子
US11488024B1 (en) 2019-05-29 2022-11-01 Ball Aerospace & Technologies Corp. Methods and systems for implementing deep reinforcement module networks for autonomous systems control
US11303348B1 (en) 2019-05-29 2022-04-12 Ball Aerospace & Technologies Corp. Systems and methods for enhancing communication network performance using vector based deep learning
CN111095279B (zh) * 2019-07-12 2023-09-08 深圳市汇顶科技股份有限公司 指纹检测装置和电子设备
JP7183429B2 (ja) * 2019-08-08 2022-12-05 マクセル株式会社 撮像装置および方法
US11828598B1 (en) 2019-08-28 2023-11-28 Ball Aerospace & Technologies Corp. Systems and methods for the efficient detection and tracking of objects from a moving platform
CN112753036B (zh) 2019-08-30 2024-07-23 京东方科技集团股份有限公司 纹路图像获取装置、显示装置及准直部件
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
TW202114184A (zh) * 2019-09-23 2021-04-01 神盾股份有限公司 影像感測模組
TWM597916U (zh) * 2019-09-23 2020-07-01 神盾股份有限公司 積體化光學感測器
MX2022004162A (es) 2019-10-07 2022-07-12 Boston Polarimetrics Inc Sistemas y metodos para el aumento de sistemas de sensores y sistemas de formacion de imagenes con polarizacion.
FR3102007B1 (fr) * 2019-10-14 2021-10-29 Commissariat Energie Atomique Capteur d’images
KR20220088693A (ko) * 2019-10-30 2022-06-28 소니그룹주식회사 촬상 소자, 표시 장치 및 촬상 시스템
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
KR20220110783A (ko) * 2019-12-06 2022-08-09 쓰리엠 이노베이티브 프로퍼티즈 컴파니 광학 층 및 광학 시스템
KR102429987B1 (ko) 2020-01-06 2022-08-05 엘아이지넥스원 주식회사 마이크로 렌즈 어레이 및 이를 포함하는 이미지 센서모듈과 그 제조방법
CN115552486A (zh) 2020-01-29 2022-12-30 因思创新有限责任公司 用于表征物体姿态检测和测量系统的系统和方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
KR102147279B1 (ko) * 2020-02-20 2020-08-24 국방과학연구소 물체 이동 탐지 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
CN114096801B (zh) * 2020-04-24 2023-10-20 达闼机器人股份有限公司 镜头模块和物体探测装置
US11328150B2 (en) 2020-04-30 2022-05-10 Omnivision Technologies, Inc. Lens-array imager
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
KR102455520B1 (ko) 2020-06-05 2022-10-17 한국과학기술원 마이크로렌즈 어레이를 이용한 초박형 카메라 장치 그리고 이의 다기능 이미징 방법
CN116888952A (zh) 2021-02-25 2023-10-13 三菱电机株式会社 图像读取装置
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
TWI786753B (zh) * 2021-07-30 2022-12-11 新鉅科技股份有限公司 紅外投影透鏡組及紅外投影模組
CN114002769A (zh) * 2021-10-20 2022-02-01 武汉华星光电技术有限公司 滤光准直复合膜及其制造方法、显示装置
WO2023112479A1 (ja) * 2021-12-14 2023-06-22 ソニーセミコンダクタソリューションズ株式会社 受光装置および電子機器
EP4213116A1 (en) 2022-01-14 2023-07-19 WaveTouch Denmark A/S Compact optical sensor
US12106599B2 (en) 2022-06-13 2024-10-01 Omnivision Technologies, Inc. Thin, multi-lens, optical fingerprint sensor adapted to image through cell phone displays and with multiple photodiode groups each having separate fields of view for each microlens
CN115291305A (zh) * 2022-07-20 2022-11-04 湖北宜美特全息科技有限公司 一种大幅面离轴裸眼3d显示光学薄膜及其制备方法
CN117358926B (zh) * 2023-12-05 2024-02-13 天津大学 一种锗光阑阵列的制备方法及光场成像系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6137535A (en) * 1996-11-04 2000-10-24 Eastman Kodak Company Compact digital camera with segmented fields of view
US5822125A (en) 1996-12-20 1998-10-13 Eastman Kodak Company Lenslet array system
US6995800B2 (en) * 2000-01-27 2006-02-07 Canon Kabushiki Kaisha Image pickup apparatus utilizing a plurality of converging lenses
JP3853562B2 (ja) * 2000-02-23 2006-12-06 松下電器産業株式会社 増幅型固体撮像装置
KR100541028B1 (ko) * 2003-07-21 2006-01-11 주식회사 옵토메카 이미지 센서 및 그 제조 방법
DE102004003013B3 (de) * 2004-01-20 2005-06-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und dessen Verwendung

Also Published As

Publication number Publication date
EP1979769B1 (de) 2011-09-07
JP2009524263A (ja) 2009-06-25
ATE523802T1 (de) 2011-09-15
KR20080089604A (ko) 2008-10-07
US20090179142A1 (en) 2009-07-16
KR101275076B1 (ko) 2013-06-14
US7897903B2 (en) 2011-03-01
EP1979769A1 (de) 2008-10-15
DE102006004802A1 (de) 2007-08-02
DE102006004802B4 (de) 2008-09-25
WO2007082781A1 (de) 2007-07-26

Similar Documents

Publication Publication Date Title
ES2373063T3 (es) Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes.
JP3975892B2 (ja) 位置計測システム
JP4686229B2 (ja) 位置測定装置
ES2634508T3 (es) Método y sistema para usar en la inspección y/o eliminación de objetos inapropiados de un flujo de productos y un aparato de clasificación que implementa dicho método y sistema
CN100592029C (zh) 测距设备
US7414712B2 (en) Large dynamic range Shack-Hartmann wavefront sensor
CN111273256A (zh) 亮度增强的光学成像发射机
EP3015817B1 (en) Optical method of and apparatus for determining positions and orientations of a plurality of mirrors in the field of view of an objective lens
KR20050083001A (ko) 위치 계측 시스템 및 위치 계측용 렌즈
CN104969057A (zh) 轮廓测量的方法和装置
US20200096610A1 (en) Retroreflector with sensor
CN105717629A (zh) 孔成像系统
JP7393542B2 (ja) 複眼カメラ装置および複眼システム
KR20220140849A (ko) 물체 상의 위치를 측정하기 위한 장치, 방법 및 시스템
KR20230028303A (ko) 확산 조명 및 구조화 광을 위한 프로젝터
EP3353489B1 (en) Method and apparatus for measuring the height of a surface
US20060215178A1 (en) Position measurement system
CN100582678C (zh) 离轴旋转对称型激光三角位移传感器
CN116026258A (zh) 具有球透镜的光电编码器
US7212294B2 (en) Method for determination of the level of two or more measurement points, and an arrangement for this purpose
US6856388B2 (en) Optical sensor for measuring the distance and/or inclination of a surface
JP2010216922A (ja) 光学式変位計及び光学式変位測定方法
KR19980081410A (ko) 물체의 형태를 비접촉식으로 측정하는 방법 및 장치
JPH0249558Y2 (es)
CN103673884A (zh) 双三角光学测头的光路系统