ES2373063T3 - Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes. - Google Patents
Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes. Download PDFInfo
- Publication number
- ES2373063T3 ES2373063T3 ES07711414T ES07711414T ES2373063T3 ES 2373063 T3 ES2373063 T3 ES 2373063T3 ES 07711414 T ES07711414 T ES 07711414T ES 07711414 T ES07711414 T ES 07711414T ES 2373063 T3 ES2373063 T3 ES 2373063T3
- Authority
- ES
- Spain
- Prior art keywords
- detectors
- series
- microlenses
- diaphragm
- diaphragms
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 12
- 238000004519 manufacturing process Methods 0.000 title claims description 9
- 238000001514 detection method Methods 0.000 title description 32
- 230000003287 optical effect Effects 0.000 claims abstract description 74
- 238000000926 separation method Methods 0.000 claims abstract description 32
- 229920000642 polymer Polymers 0.000 claims abstract description 13
- 230000001629 suppression Effects 0.000 claims abstract description 13
- 238000006073 displacement reaction Methods 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims description 40
- 230000002745 absorbent Effects 0.000 claims description 7
- 239000002250 absorbent Substances 0.000 claims description 7
- 239000000758 substrate Substances 0.000 claims description 7
- 239000002184 metal Substances 0.000 claims description 5
- 239000007787 solid Substances 0.000 claims description 5
- 239000011521 glass Substances 0.000 claims description 4
- 238000000576 coating method Methods 0.000 claims description 3
- 230000010076 replication Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 239000011248 coating agent Substances 0.000 claims description 2
- 239000012141 concentrate Substances 0.000 claims description 2
- 238000005304 joining Methods 0.000 claims description 2
- 238000001459 lithography Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims 2
- 230000035945 sensitivity Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010034972 Photosensitivity reaction Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004026 adhesive bonding Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000003071 parasitic effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000206 photolithography Methods 0.000 description 1
- 230000036211 photosensitivity Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/0006—Arrays
- G02B3/0037—Arrays characterized by the distribution or form of lenses
- G02B3/0056—Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/0006—Arrays
- G02B3/0012—Arrays characterised by the manufacturing method
- G02B3/0031—Replication or moulding, e.g. hot embossing, UV-casting, injection moulding
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14603—Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14603—Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
- H01L27/14605—Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14625—Optical elements or arrangements associated with the device
- H01L27/14627—Microlenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/49—Method of mechanical manufacture
- Y10T29/49002—Electrical device making
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Power Engineering (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Electromagnetism (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Manufacturing & Machinery (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
Cámara plana a partir de canales ópticos dispuestos uno al lado de otro en cada caso con una microlente asociada con diafragma de abertura que se encuentra directamente debajo y en cada caso al menos un detector que se encuentra en el plano de la imagen, en la que los detectores (6', 8) están dispuestos de tal manera que las direcciones de los ejes ópticos que forman en cada caso las líneas de conexión entre los vértices de la lente y el centro de los detectores representan una función de la posición del canal óptico respectivo, caracterizada porque entre las microlentes (1') con diafragma de abertura (2') que se encuentra directamente debajo y los detectores (6', 8) que se encuentran en el plano de la imagen están presentes al menos una disposición de diafragma (4) configurada como capa para la supresión de imagen fantasma y entre la disposición de diafragma (4) y los detectores (6', 8) una capa de separación transparente (5) y formada a partir de un polímero, en la que la distancia entre centros de los diafragmas (4') de la disposición de diafragma (4) se encuentra entre la distancia de vértice de las microlentes (1') y la distancia entre centros de los detectores (6', 8), de tal manera que según la posición de los canales los diafragmas (4') están dispuestos con un desplazamiento diferente con respecto a las microlentes (1') y los detectores (6', 8) y con éstos se encuentran en cada caso sobre una línea recta y en la que el desplazamiento de los diafragmas (4') de la disposición de diafragma (4) con respecto a las microlentes (1') o los detectores (6', 8), está adaptado al ángulo de incidencia que va a representarse con el canal óptico respectivo.
Description
Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes
La invención se refiere a un sistema de detección de imágenes según el preámbulo de la reivindicación principal así como a un procedimiento para la producción de al menos un sistema de detección de imágenes.
Por el documento WO 2005/069607 A1 se conoce un sistema de detección de imágenes de este tipo, en el que están previstos canales ópticos regularmente dispuestos en cada caso con una microlente y al menos un detector que se encuentran en su plano de la imagen, en el que a partir de la microimagen detrás de la microlente se extrae al menos un punto de imagen. Los ejes ópticos de los canales ópticos individuales presentan diferentes inclinaciones, de tal manera que representan una función de la distancia del canal óptico desde el punto central del lado orientado hacia la imagen del sistema de detección de imágenes. Por tanto puede determinarse de forma controlada la relación del tamaño del campo visual con respecto al tamaño del campo de la imagen. Se utilizan detectores con una elevada sensibilidad, de tal manera que éstos presentan una gran distancia entre centros o separación con una pequeña superficie activa.
En el caso de este sistema de detección de imágenes conocido, mediante una diferencia en la distancia entrecentros
o distancia entre centros de las microlentes y de los detectores se consigue un incremento lineal de la inclinación de los ejes ópticos de canal a canal. Cada canal óptico, al que está asociado una microlente, un diafragma de abertura asociado a la misma y un detector, opcionalmente con diafragma perforado, “ve” de esta manera en la dirección adyacente de los canales a continuación del mismo. Mediante la lectura de las señales del detector en forma de una matriz, tras haberse introducido las señales de los detectores en filas y opcionalmente en columnas, sigue la imagen del objeto observado sin clasificación adicional de las señales de los detectores. Con ello es posible, a partir de las coordenadas de un canal en la serie determinar según la fórmula su dirección de visibilidad dentro de todo el campo visual de la cámara o del sistema de detección de imágenes, se genera una imagen bidimensional de un campo visual limitado.
En caso de mayores ángulos de incidencia de zonas fuera del campo visual del objetivo, en el caso de un aislamiento óptico erróneo de los canales, se produce diafonía de la luz de lentes de un canal sobre los detectores opcionalmente canales adyacentes con diafragmas perforados y con ello la formación de imágenes fantasma. Para evitar esto, en el documento WO 2005/069607 mencionado se propusieron distintas disposiciones, en especial paredes de separación absorbentes entre los canales. Sin embargo, esta disposición está relacionada con un elevado esfuerzo tecnológico, especialmente en la producción de las herramientas de replicación, o por la necesidad de procesos de fotolitografía con elevadas relaciones de aspecto. Además el campo de la imagen está limitado, dado que el píxel detector asociado debe encontrarse en la proyección de la microlente.
La menor distancia angular resoluble o en el caso de una distancia del objeto conocida el menor tamaño estructural resoluble asciende, en el caso del sistema de detección de imágenes descrito en el documento WO 2005/069607, al doble de la diferencia de ángulo de visibilidad, es decir a la diferencia de inclinación de los ejes ópticos entre canales adyacentes. El poder de resolución angular de un sistema de cámara ultraplana se limita para un campo visual deseado, entre otras cosas, por las longitudes de borde de la serie de detectores y el número máximo de canales relacionado con ello en el los ejes de simetría principales. Un aumento del poder de resolución angular elevando el número de canales ópticos precisa el caro aumento de la superficie de silicio de la serie de detectores. En el caso de muchas tareas de representación sencillas, por ejemplo reconocimiento de carril, detección de la posición de los bordes o similares, es necesario un poder de resolución moderado a lo largo de un gran campo visual. Sistemas que proporcionan imágenes, que ponen en práctica estas especificaciones con pocos canales de representación en paralelo, se caracterizan, en comparación con cámaras de megapíxeles de alta resolución, por una menor complejidad así como un rápido procesamiento de imágenes y no en último lugar por bajos costes de producción. Los objetivos macroscópicos convencionales para una representación sin distorsión de un gran campo visual son muy costosos y caros. En estos objetivos, la calidad de imagen se reduce hacia el borde del campo visual y la distorsión no corregida desfigura la imagen, de modo que los objetos ya no pueden identificarse claramente. Mediante los grados de libertad descritos en el documento mencionado de sistemas de representación por canales pueden compensarse en parte estos problemas mediante la corrección individual de cada canal en cuanto a su dirección de visibilidad individual. La construcción planar ofrece en este caso la ventaja adicional de economía de espacio.
El documento JP 2001 237 404 A da a conocer un sensor de imagen, que para aumentar el factor de relleno óptico (relación de la superficie fotoactiva eficaz con respecto a la superficie total de detector) presenta una serie de lentes y una serie de detectores, entre los cuales están dispuestas varias capas de series de diafragmas, introduciéndose una diferencia de separación entre la serie de lentes y la serie de detectores, para evitar una disminución de la intensidad de iluminación hacia el borde del campo de la imagen. Las posiciones de los diafragmas están asimismo desplazadas y adicionalmente las aberturas de los diafragmas están desplazadas con respecto a los detectores hacia el borde. La disposición descrita en el documento se usa en el plano de la imagen por ejemplo de una cámara convencional, en la que debido al efecto de concentración de la luz de las microlentes directamente sobre las superficies de detector fotoactivas, provoca un aumento de la fotosensibilidad del sistema global. Por lo tanto no se
55 E07711414 01-12-2011
trata de una disposición de representación independiente.
La invención, considerando el estado de la técnica mencionado del documento WO 2005/069 607, se basa en el objetivo de crear un sistema de detección de imágenes correspondiente al preámbulo de la reivindicación principal, que permite una supresión de imagen fantasma y que proporciona un campo de la imagen ampliado que puede explorarse.
Este objetivo se resuelve según la invención mediante las características caracterizadoras de la reivindicación principal junto con las características del preámbulo.
Mediante las medidas indicadas en las reivindicaciones dependientes son posibles mejoras y perfeccionamientos ventajosos.
El sistema de detección de imágenes según la invención resuelve el problema de la supresión de imagen fantasma mediante diafragmas desplazados, introducidos adicionalmente entre las microlentes y diafragmas de abertura asociados a las mismas y detectores, que están definidos como píxeles detectores sólo o como píxeles detectores diafragmas perforados unidos a los mismos. A este respecto pueden estar presentes una o varias series de diafragmas adicionales entre la serie de microlentes y la serie de detectores, cuya distancia entrecentros se encuentra entre la de las microlentes y la de los detectores, de modo que en el canal previsto para ello se enfoca luz de un determinado ángulo de incidencia, encontrándose precisamente todas las aberturas de diafragma con lente y detector sobre una línea recta, desde una lente hasta su detector asociado, y todos los demás ángulos de incidencia se bloquean, es decir se absorben o reflejan mediante el diafragma adicional o mediante varios diafragmas adicionales poco antes del plano de la imagen de la microlente. De esta manera, para el concepto global del sistema de detección de imágenes de construcción plana descrito en contraposición a la introducción de paredes de separación absorbentes entre los canales correspondientes al estado de la técnica resulta una ventaja esencial, que se basa en que un detector asociado a una lente o a un canal no debe encontrarse de forma necesaria directamente en la “huella” (proyección), es decir, directamente de tras de esta microlente, sino que puede estar desplazada también intensamente para alcanzar un mayor ángulo de visibilidad del canal detrás de la lente adyacente o lente adyacente subsiguiente o puede estar dispuesta más alejada, sin que se generen imágenes fantasma por diafonía de la luz. Con ello se hace mayor de forma eficaz el campo de la imagen que puede explorarse de las microlentes y le sigue un producto de ancho de banda espacial, lo que repercute de manera ventajosa en cuanto al poder de resolución, tamaño de campo visual e intensidad de la luz del sistema de representación. Además, dado que no debe preverse ninguna pared de separación, puede usarse un cuerpo de objetivo continuo ininterrumpido, que mejora la estabilidad de la disposición de objetivo, entre otras cosas, también por un coeficiente de dilatación térmica adaptado del cuerpo de objetivo en cuanto al sensor de imagen optoelectrónico.
Cada lente puede enfocar mediante el diafragma asociado adicional exclusivamente sobre el detector asociado al mismo, pero no sobre el detector de las lentes adyacentes, dado que sólo para el ángulo de incidencia previsto en cada caso para el canal las o todas las aberturas de diafragma se encuentra sobre un eje. El tamaño de las aberturas de diafragma, en el caso de varias series de diafragmas superpuestas en las distintas posiciones, está adaptado en cada caso al diámetro del cono de luz enfocado en la distancia correspondiente detrás de la microlente, el desplazamiento del diafragma respectivo con respecto a la lente o al detector al ángulo de incidencia que va a representarse con el canal respectivo.
De manera ventajosa pueden usarse el tipo, la forma y los parámetros de las microlentes para la corrección de errores de imagen fuera del eje mediante la adaptación por canales a la dirección de visibilidad respectiva. Además de la utilización estandarizada de series de lentes redondas, pueden utilizarse series de lentes elípticas variables (anamórficas) para la corrección de astigmatismo y curvatura del campo de imagen y segmentos de lente fuera del eje esféricos para aumentar el campo visual y la resolución en el caso de la resolución de aberración completa para la dirección de visibilidad respectiva.
Existen distintas variantes de la gradación de separación entre los distintos elementos, es decir los distintos planos, de este modo los diafragmas de abertura de las microlentes pueden centrarse directamente bajo las mismas, pero también presentan una diferencia de separación a las mismas. La diferencia de separación (es decir la diferencia entre las distancias entre centros respectivas) entre las lentes y los píxeles detectores o diafragmas perforados puede ser positiva o negativa, entonces, los ejes ópticos están orientados o bien hacia dentro o bien hacia fuera, la imagen generada está invertida o derecha.
En principio pueden usarse todas las medidas y ventajas del documento WO 2005/069607, hasta prever paredes de separación entre los canales ópticos, también en el caso de la presente solicitud, en la que, por lo tanto, estará incluida conjuntamente la divulgación de este documento en la presente solicitud.
De manera ventajosa, la iluminación en cuanto a emisión, concentración y conformación de la luz del objeto que va a detectarse, puede integrarse conjuntamente en el sistema de detección de imágenes o en la cámara, por ejemplo dejándose entre los canales ópticos algo de espacio para colocar fuentes de luz o puede preverse a cierta distancia entre grupos de canales o como anillo alrededor de la cámara. Además puede concebirse colocar fuentes de luz en el plano de la lente, por ejemplo en las zonas muertas entre lentes de empaquetamiento cuadrado, por ejemplo
55 E07711414 01-12-2011
redondas. Asimismo es posible que sólo se utilicen algunas lentes de la disposición según la invención, para enfocar sobre un detector y que otras lentes adyacentes a éstas concentren, dirijan y/o distribuyan la luz a partir de fuentes que se encuentran en el plano de la imagen de las microlentes sobre el objeto que va a observarse. Como fuentes de luz pueden usarse diodos láser, LED o OLED o VCSEL o similares.
Como series de píxeles detectores pueden usarse sensores CMOS o CCD, pero también series de fotodiodos poliméricos, siendo ventajosos los últimos, dado que una gran superficie total de sensor no provoca costes tan elevados como en el caso de los receptores de Si. Dado que estos receptores pueden fabricarse con técnica de impresión, igualmente las series de lentes y también las distintas series de diafragmas, parece tenerse en cuenta a largo plazo la impresión de toda la cámara como tecnología de fabricación.
De manera ventajosa, para fotografías en color puede adoptarse sin modificaciones el sistema de representación descrito, cuando se prevé un sensor de imagen, que registra por separado distintos colores directamente en tres capas de píxeles superpuestas, en lugar de un sensor CMOS o CCD negro/blanco convencional como serie de receptores. Un sensor de imagen de este tipo se encuentra en contraposición a los sensores CMOS o CCD que registran color convencional, en los que están dispuestos filtros cromáticos unos al lado de otros sobre píxeles por lo demás del mismo tipo.
Dado que en el sistema de detección de imágenes según la invención el factor de relleno necesario de los píxeles detectores en el plano de la imagen es reducido, los píxeles detectores no deben ser necesariamente cuadrados o rectangulares, para empaquetarse de la forma más compacta posible en una cuadrícula cartesiana. Mejor dicho, pueden considerarse otros puntos visuales durante el diseño de los píxeles detectores, tal como por ejemplo una geometría de la transición PN, que provoca sólo una corriente oscura muy reducida y repercute por lo tanto de forma ventajosa en la relación señal-ruido. De este modo pueden usarse por ejemplo píxeles redondos o píxeles con una delimitación circular de la transición PN.
El sistema de detección de imágenes según la invención puede utilizarse también para la representación de objetos próximos (pocos cm) o muy próximos (unos pocos mm) con un aumento de 1 o aumento menor o reducción. Entonces la diferencia de la separación de los elementos, es decir en la distancia entre centros de las distintas capas, tal como la serie de microlentes, la serie de diafragmas, la serie de detectores, es cero o muy reducida, no obstante según el tamaño del objeto que va a representarse se necesita un sensor de imagen de gran superficie.
Para el diseño óptico en esta configuración de representación de aproximadamente 1:1 es ventajoso, configurar precisamente el tamaño del ángulo sólido en el lado del objeto, que se asocia a cada canal como punto de imagen, de modo que en la distancia del objeto desde el sistema de representación la extensión lateral del objeto que corresponde a este ángulo sólido sea precisamente tan grande como la separación de los canales. Tales sistemas pueden utilizarse por ejemplo a través de algoritmos de correlación como ratón óptico o como microscopio superficial de baja resolución o escáner estático de objetos cercanos, planos.
De manera ventajosa pueden conseguirse las diferentes inclinaciones de los ejes ópticos de los canales de las formas más diversas. De este modo, las microlentes individuales pueden diferenciarse en cuanto al descentrado con respecto al detector, la distancia focal, los parámetros cónicos y/o esféricos. En las microlentes individuales pueden estar integrados microprismas, finalmente las microlentes individuales pueden estar dispuestas una superficie de base conformada de forma convexa o cóncava.
Para influir en el tamaño del campo visual, los detectores pueden estar dispuestos también sobre una superficie de base conformada de forma conexa o cóncava.
Una aplicación ventajosa de la invención es la determinación de la posición altamente precisa de fuentes puntuales y la determinación de la posición y de la orientación de bordes, modificándose el sistema de cámara ultraplana para la detección de imágenes bidimensionales a base de series de microlentes 2D de modo que los campos visuales de canales ópticos adyacentes se solapan en parte mutuamente. Esto se consigue por ejemplo mediante la configuración de la distancia entrecentros entre serie de lentes y detectores o mediante el aumento del diámetro de diafragmas perforados, siempre que éstos presenten una extensión superficial menor que los píxeles detectores fotosensibles. Ambas medidas se ocupan de que la diferencia de ángulos de visibilidad entre canales ópticos adyacentes sea menor que la mitad de la anchura efectiva del campo visual de un canal. De esta manera se consigue una determinación de la posición angular de los objetos de estructura sencilla que se encuentran en la zona del campo visual común, tales como fuentes puntuales, bordes, retícula rectangular de baja frecuencia mediante la valoración de relaciones de los valores de intensidad medidos en canales adyacentes con una precisión, que se encuentra más allá del menor tamaño estructural resoluble predeterminado por el poder de resolución del sistema óptico que proporciona imágenes. De esta manera se hace posible una determinación de la posición altamente precisa.
En los dibujos se representan ejemplos de realización de la invención y se explican en detalle en la siguiente descripción.
Muestran
55 E07711414 01-12-2011
la figura 1 una vista lateral esquemática del sistema de detección de imágenes según la invención,
la figura 2 una vista desde arriba del sistema de detección de imágenes según la invención según la figura 1,
la figura 3 una vista parcial del sistema de detección de imágenes según la invención según la figura 1, en la que el detector está dispuesto muy desplazado con respecto a la microlente correspondiente,
la figura 4 una vista lateral esquemática de una oblea óptica y de una oblea, sobre la que se encuentran las
series de detectores, a partir de las cuales se fabrica mediante individualización el sistema de
detección de imágenes según la invención;
la figura 5 una representación esquemática del sistema óptico del sistema de detección de imágenes con
campos visuales solapantes en parte de canales adyacentes en vista lateral (figura 5A) y una
representación de la sensibilidad angular, aplicada sobre el ángulo en el campo visual (figura 5B) y
la figura 6 una representación esquematizada de la determinación de la posición angular de una fuente puntual dentro del campo visual de tres canales ópticos con campos visuales solapantes.
El sistema de detección de imágenes representado en la figuras 1 y 2 presenta un cuerpo de objetivo transparente 3, sobre el que está aplicada una serie de microlentes 1 con una pluralidad de lentes individuales 1’, estando configuradas las lentes 1’ en el ejemplo de realización representado (figura 2) como microlentes redondas. Directamente por debajo de las series de microlentes 1 está dispuesta una serie de diafragmas de abertura 2 entre las microlentes 1’ y el cuerpo de objetivo 3. Por debajo del cuerpo de objetivo 3 están previstos diafragmas 4’, igualmente en forma de una serie 4, para la supresión de imagen fantasma poco antes del plano de la imagen de las microlentes 1’, encontrándose detectores en el plano de la imagen, que en el ejemplo de realización se forman a partir de píxeles detectores 8 sobre un sustrato de píxeles detectores 7 y por diafragmas perforados 6’ de una serie de diafragmas perforados 6. La serie de diafragmas perforados 6 puede omitirse cuando la superficie de los píxeles detectores 8 es suficientemente pequeña, es decir el detector asociado es entonces propio el píxel detector 8. Entre la serie de diafragmas 4 para la supresión de imagen fantasma y la serie de diafragmas perforados 6 está dispuesta una capa de separación 5. Una microlente 1’ con diafragma de abertura subyacente 2’, un píxel detector 8 asociado a la lente 1’ con diafragma perforado 6’ y diafragma 4’ forman un canal óptico, en el que tal como puede reconocerse en la figura 2, varios canales ópticos se encuentran unos al lado de otros a modo de matriz.
Tal como puede reconocerse en las figuras 1 y 2, los ejes ópticos de cada canal óptico partiendo del centro del sistema de detección de imágenes en dirección radial están previstos normalmente de diferentes inclinaciones. A este respecto el eje óptico de cada canal está definido como línea de conexión entre el vértice de una microlente 1’ y el centro del detector asociado, es decir el centro del diafragma perforado asociado 6’.
En la figura 2 está representado el diafragma de abertura redondo 2’ de una microlente mediante el círculo grande de línea discontinua, el diafragma redondo 4’ poco antes del plano de la imagen de una microlente 1’ para suprimir la diafonía está representado como círculo de puntos de menor tamaño y el detector, es decir el píxel detector 8 cubierto por el diafragma perforado 6’ 8 está representado con un punto negro. Puede reconocerse que tanto los diafragmas 4’ para la supresión de imagen fantasma como los detectores están dispuestos desplazados de forma diferente en la vista desde arriba en función del centro de la cámara en la dirección X e Y, es decir en función de la posición del canal respectivo. Por lo tanto puede decirse que la inclinación o la dirección de los ejes ópticos de un canal óptico, que se define entre una microlente 1’ y un detector 6, 8 que extrae un punto de imagen a partir de la microimagen detrás de esta lente, es una función de las coordenadas radiales en la serie que parte de un canal con eje óptico perpendicular.
Tal como puede reconocerse en la figura 1, la serie de diafragmas 4 entre la serie de microlentes 1 y el plano de detector sirve para la separación de los canales ópticos, pudiendo estar previstas varias posiciones de series de diafragmas 4. La distancia entrecentros de los orificios o aberturas de una serie 4 se elige precisamente de modo que sólo se enfoque un haz bajo el ángulo de incidencia previsto para ello desde la lente hasta el detector correspondiente, bloqueándose sen cambio otros ángulos de incidencia. Las zonas de los diafragmas 4’ dentro de los círculos respectivos son transparentes, las zonas fuera están configuradas correspondientemente de manera absorbente o reflectante, pero preferentemente de manera absorbente, para reducir el nivel de luz parásita.
En la figura 1 puede reconocerse también el funcionamiento de la serie de diafragmas 4. Los haces de rayos continuos mostrados representan las direcciones de visibilidad principales de cada canal óptico y el enfoque de los haces correspondientes. En contraposición a esto los haces de rayos con líneas discontinuas muestran a modo de ejemplo la generación de imágenes fantasma mediante la diafonía de la luz desde las microlentes 1’ hasta detectores no correspondientes no asociados a las mismas, es decir a su dirección de visibilidad predeterminada sin la presencia de la serie de diafragmas 4. La diafonía de la luz se genera con el enfoque sobre detectores adyacentes y/o también incluso más alejados. Mediante la introducción de la serie de diafragmas 4 se elimina la diafonía y con ello la generación de imágenes fantasma.
En la figura 3 está representado que un detector asociado a una microlente 1’ o a un canal, que está compuesto por el píxel detector 8 y el diafragma perforado 6’ en el ejemplo de realización, no debe encontrarse de forma necesaria
60 E07711414 01-12-2011
directamente en la huella, es decir, directamente detrás de esta microlente 1’, sino que para conseguir un mayor ángulo de visibilidad del canal, que está definido por el haz de rayos continuo, puede estar dispuesto también muy desplazado detrás de la lente adyacente o detrás de su lente adyacente sin que se generen imágenes fantasma mediante diafonía, que se representan mediante el haz de rayos representado con línea discontinua. Con ello se hace mayor de forma efectiva el campo de la imagen que puede explorarse de las microlentes 1’, lo que repercute de forma muy ventajosa en cuanto al poder de resolución, tamaño del campo visual e intensidad de la luz del sistema de representación.
El número de canales ópticos puede encontrarse de forma correspondiente a los campos de aplicación en el orden de magnitud de 10 x 10 a 1.000 x 1.000, sin requerirse una forma cuadrática correspondiente a la figura 2. El tamaño de las microlentes 1’ define también el tamaño de los canales ópticos, encontrándose un diámetro de las microlentes en un intervalo entre 10 μm y 1 mm. La serie de microlentes 1 está compuesta por un plástico y puede fabricarse mediante las más diversas tecnologías, tales como prensado, pulverización o similares. El cuerpo de objetivo 3 puede estar configurado como vidrio o como material de plástico transparente, las series de diafragmas de abertura y las series de diafragmas perforados pueden estar configuradas como revestimientos metálicos, pero también como polímero negro.
Por medio de la figura 4 se describirá la fabricación de una forma de realización de la cámara plana con supresión de imagen fantasma. En esta forma de realización se genera el sistema de representación mediante la estructuración en la parte delantera y la parte trasera sobre un cuerpo de objetivo delgado 3, preferentemente de vidrio. A este respecto se aplican sobre el cuerpo de objetivo 3 en primer lugar sobre la parte delantera la serie de diafragmas de abertura 2 asociada a la serie de microlentes y sobre la parte trasera la serie de diafragmas 4 para la supresión de imagen fantasma, por ejemplo en el polímero absorbente, delgado, o en un metal mediante recubrimiento y litografía. A continuación se fabrica en la parte delantera la serie de lentes 1 mediante replicación UV y en la parte trasera la capa de separación 5 en un polímero fotoestructurable. En caso de que los píxeles detectores 8 de la serie de sensores deban limitarse por una serie de diafragmas perforados 6 adicional en su tamaño y en caso de que esta última no pueda generarse sobre el sustrato de detectores, se aplica la serie de diafragmas perforados o la capa de diafragmas perforados 6 por ejemplo como metal o polímero negro con orificios fotoestructurados sobre la parte trasera de la disposición total sobre la capa de separación. El radio de curvatura de las microlentes 1’ está configurada precisamente de modo que se enfocan sobre los píxeles detectores 8 o los diafragmas perforados 6’ que cubren los mismos.
Por tanto se fabrica una oblea óptica, con la que puede fabricarse una pluralidad de cámaras planas. A este respecto es ventajosa una fotoestructuración de la capa de separación 5 para el montaje a escala de oblea de la oblea óptica fabricada con una oblea, sobre la que se encuentran los píxeles detectores 8. Esta estructuración se efectúa de modo que entre dos disposiciones adyacentes para la cámara plana posterior se fabrica un espacio libre. Sobre el sustrato 7 con los píxeles detectores 8 se aplican almohadillas de unión 12, que son necesarias para el contacto posterior de la matriz de píxeles detectores. La oblea óptica fabricada se conecta a continuación con la oblea, sobre la que se encuentran las series de detectores, por ejemplo mediante pegado y curado, de tal manera que el espacio libre entre las capas de separación 5 se encuentra sobre las almohadillas de unión 12 y se forma una cavidad por la altura de la capa de separación 5. A continuación se individualizan las cámaras por medio de una sierra de chips. Mediante la cavidad se garantiza que con una hoja de sierra 13 si bien se separan las capas 1-4, en cambio no se dañan de forma no deseada las capas 6-8. A continuación se individualiza la cámara con varios cortes adyacentes y de diferente profundidad de manera correspondiente a la hoja de sierra 14 a partir del material compuesto de oblea. De este modo se sierra de forma delgada el objetivo como el chip de las series de detectores. De esta manera puede fabricarse un chip de cámara, en el que tras la individualización del chip de detector sobresale lateralmente bajo el objetivo plano y con ello está garantizada la posterior capacidad de contacto de las almohadillas de unión 12.
A continuación se indican los parámetros para este ejemplo de manera correspondiente a la figura 4:
Espesores de las distintas capas o series [μm]: 1: 45; 2: 1,5; 3: 215; 4: 1,5; 5: 30; 6: 0,2;
Separaciones (distancia entre centros o distancia de vértice) de los distintos elementos en una serie [μm]: 1: 107,2;
2: 107,2; 4: 106,15; 6: 106,0; 8: 106,0;
Diámetros de las aberturas de los distintos elementos en una serie [μm]: 1: 105; 2: 90; 4: 16; 6: 2;
Número de los elementos en una serie: 84 x 64;
Radio de curvatura de las microlentes 1’: 103 μm;
Materiales: 1,5: polímero fotoendurecible por UV; 2,4: polímero de matriz negro; 3: vidrio; 7,8: sensor CMOS
En la figura 5 está representada una parte de una cámara, en la que los campos visuales de canales ópticos adyacentes se solapan en parte, sirviendo una cámara de este tipo para la determinación de la posición de máxima precisión de fuentes puntuales o la determinación de la posición y la orientación de bordes. Un sistema de formación de imágenes de este tipo puede utilizarse en zonas, en las que deben detectarse uno o varios objetos de estructura sencilla, tales como fuentes puntuales y bordes, con un sistema óptico de representación compacto y deben determinarse las posiciones angulares o las posiciones laterales a una distancia del objeto conocida del mismo dentro del campo visual con elevada precisión y bajo coste, es decir baja cantidad de datos y corto tiempo de procesamiento. En el campo industrial es de gran interés un reconocimiento de la posición de los bordes, además
50 E07711414 01-12-2011
puede concebirse un reconocimiento de las marcas de carriles en el automóvil o tareas de vigilancia en el desarrollo de producción.
El solapamiento de los campos visuales de manera correspondiente a la figura 5 se consigue por ejemplo mediante la configuración de la distancia entrecentros entre la serie de lentes 1 y la serie de diafragmas perforados 6 o la serie de detectores o mediante el aumento del diámetro de diafragmas perforados, siempre que éstos presenten una extensión superficial menor a partir de los píxeles detectores fotosensibles 8.
En la figura 5A se designa con 9a la dirección de visualización de un canal, es decir el eje óptico, con 9b el campo visual del canal óptico individual y con 9c la zona de solapamiento de campos visuales adyacentes.
En la figura 5B está representada la sensibilidad angular a través del ángulo en el campo visual de la cámara ultraplana de manera correspondiente a la figura 5A, designando 10a la curva de sensibilidad angular de un canal, 10b el eje angular, 10c la anchura efectiva del campo visual de un canal y 10d la zona de solapamiento de la curva de sensibilidad angular. Las medidas descritas anteriormente para el solapamiento de los campos visuales de canales ópticos adyacentes se ocupa de que la diferencia de ángulo de visibilidad entre canales ópticos adyacentes sea menor que la mitad de la anchura efectiva del campo visual de un canal. Un solapamiento de este tipo es necesario para poder observar un punto de objeto al mismo tiempo que distintos canales y para poder medir señales de diferente intensidad.
En la figura 6 está representada la representación esquematizada para la determinación de una posición angular de una fuente puntual dentro del campo visual de tres canales ópticos con campos visuales solapantes. A este respecto 11a designa la posición proyectada en el plano de la imagen de las fuentes puntuales: 11b son los puntos de contacto de los ejes ópticos de tres canales con el plano de coordenadas de imagen a través de la distancia focal. 11e es el eje de conexión de canales adyacentes horizontales (eje X) y 11f es el eje de conexión de canales adyacentes verticales (eje Y). Con los números de referencia 11d se designan los radios de la posición de fuentes puntuales proyectadas dentro de los campos visuales de los canales ópticos individuales.
En el caso de la determinación de fuentes puntuales u objetos en forma de punto ha de considerarse que las relaciones de los valores de intensidad medidos en los diafragmas perforados 6’ de canales ópticos adyacentes de una cámara de manera correspondiente a la figura 5 son independientes de la luminosidad absoluta del objeto o la emisividad de la fuente de luz así como independiente de fluctuaciones de la luminosidad absoluta o de la emisividad, siempre que éstas no puedan apreciarse a lo largo del tiempo de integración. Mediante evaluación de una relación de intensidad pueden determinarse la posición angular de los objetos que se encuentran en la zona de campo visual común. Si un objeto de este tipo se encuentra en el campo visual común de tres canales ópticos de manera correspondiente a la figura 6 (son posibles varios canales ópticos), entonces según la separación lateral de la fuente puntual desde el eje óptico del canal respectivo puede medirse una intensidad específica en el diafragma perforado 6’ correspondiente o en el píxel detector 8 posterior. La relación según la fórmula, de qué porcentaje de una cantidad de luz irradiada sobre el canal óptico con una distancia angular dada desde el eje óptico en el plano de la imagen se transmite, se conoce por consideraciones teóricas utilizando la sensibilidad angular de manera correspondiente a 5B. Este conocimiento se utiliza para determinar a partir de las relaciones de las intensidades de dos diafragmas perforados 6’ adyacentes las coordenadas xp, yp de la fuente puntual proyectadas sobre sus ejes de conexión a través de la distancia focal. Después de calcular las coordenadas xp, yp horizontales y verticales de la fuente puntual se conoce su posición angular en el campo visual de un canal de referencia y a través de la asignación de los canales y su dirección de visibilidad por tanto también en el campo visual de toda la cámara ultra plana.
El procedimiento de cálculo se explicará de forma más precisa en el siguiente ejemplo.
Si se contempla un eje de las coordenadas proyectadas a través de la distancia focal en el campo visual del canal central (designación 11e), en la figura 6, entonces, la posición medida sobre este eje de una fuente puntual se designa con xp. Está relacionada con la posición angular de la fuente puntual en el campo visual del canal central a través de las relaciones:
ϕp describe en la fórmula la posición angular de la fuente puntual en el campo visual, rp la separación radial desde el punto de contacto del eje óptico con el plano de coordenadas proyectado a través de la distancia focal así como f la distancia focal del objetivo. yp es tal como se apunta en la figura 6 la coordenada de la fuente puntual sobre el segundo eje de coordenadas.
Por los fundamentos teóricos se conoce que la distribución de intensidad en el plano de la imagen de cada canal del objetivo resulta del planteamiento matemático de la distribución de intensidad de objeto con la función de sensibilidad angular (10a en la figura 5B) del canal correspondiente. Para objetos que pueden describirse
matemáticamente (por aproximación) como fuentes puntuales o bordes, el resultado del planteamiento es una relación que se compone por la luminosidad absoluta (o la emisividad absoluta) de la fuente y el valor de la función de sensibilidad angular en la posición de la fuente puntual (xp, o rp o (ϕp), o para bordes adicionalmente por una expresión integral a través de la función de sensibilidad angular en la posición de los bordes. Mediante el 5 solapamiento de los campos visuales de canales adyacentes se miden en los diafragmas perforados 6 respectivos o píxeles detectores 8 posteriores en general intensidades de distinta magnitud según la relación descrita, cuando la fuente se encuentra en la zona de campo visual común de los canales. La expresión que se genera mediante la relación de los valores de intensidad medidos en dos canales adyacentes, es independiente de la emisividad o la luminosidad absoluta de la fuente y pueden modificarse según las coordenadas de la fuente puntual o bordes en el
10 plano de coordenadas proyectado (xp).
Este modo de proceder se realiza de forma análoga para el segundo eje de coordenadas 11f en la figura 6 para obtener yp y a partir de ahí determinar la separación radial desde el punto de contacto del eje óptico con el plano de coordenadas proyectado a través de la distancia focal (rp) así como la posición angular de la fuente en el campo visual del canal central (ϕp).
15 Cuando deba usarse el procedimiento descrito para la detección de la posición de bordes, debe determinarse adicionalmente la orientación de los bordes con respecto a los ejes de simetría principales transversales de la cámara. Esto se consigue de manera relativamente sencilla mediante la búsqueda de valores de intensidad o valores de contraste de igual magnitud en la imagen. En perpendicular a la orientación hallada de esta manera de los bordes se valoran entonces según el procedimiento descrito anteriormente las relaciones de intensidad de
20 distintos píxeles detectores, para determinar los bordes en el campo visual de la cámara con precisión elevada.
El procedimiento mencionado para la determinación de la posición puede usarse de forma simplificada también con una cámara que sólo esté realizada como una fila. Por ejemplo es posible detectar el movimiento de un borde de contraste en el campo visual de esta fila con elevada resolución angular.
55 E07711414 01-12-2011
Claims (15)
- REIVINDICACIONES
- 1.
- Cámara plana a partir de canales ópticos dispuestos uno al lado de otro en cada caso con una microlente asociada con diafragma de abertura que se encuentra directamente debajo y en cada caso al menos un detector que se encuentra en el plano de la imagen, en la que los detectores (6’, 8) están dispuestos de tal manera que las direcciones de los ejes ópticos que forman en cada caso las líneas de conexión entre los vértices de la lente y el centro de los detectores representan una función de la posición del canal óptico respectivo, caracterizada porque entre las microlentes (1’) con diafragma de abertura (2’) que se encuentra directamente debajo y los detectores (6’, 8) que se encuentran en el plano de la imagen están presentes al menos una disposición de diafragma (4) configurada como capa para la supresión de imagen fantasma y entre la disposición de diafragma (4) y los detectores (6’, 8) una capa de separación transparente (5) y formada a partir de un polímero, en la que la distancia entre centros de los diafragmas (4’) de la disposición de diafragma (4) se encuentra entre la distancia de vértice de las microlentes (1’) y la distancia entre centros de los detectores (6’, 8), de tal manera que según la posición de los canales los diafragmas (4’) están dispuestos con un desplazamiento diferente con respecto a las microlentes (1’) y los detectores (6’, 8) y con éstos se encuentran en cada caso sobre una línea recta y en la que el desplazamiento de los diafragmas (4’) de la disposición de diafragma (4) con respecto a las microlentes (1’) o los detectores (6’, 8), está adaptado al ángulo de incidencia que va a representarse con el canal óptico respectivo.
-
- 2.
- Cámara plana según la reivindicación 1, caracterizada porque los detectores (6’, 8) asociados a los canales respectivos están dispuestos al menos en parte de tal manera que se encuentran en la proyección de las microlentes de canales que se encuentran en cada caso adyacentes o incluso más alejados.
-
- 3.
- Cámara plana según la reivindicación 1 ó 2, caracterizada porque los detectores (5’, 8) están configurados directamente como píxeles detectores (8) sobre un sustrato (7) o como píxeles detectores con diafragma perforado (6’) superior.
-
- 4.
- Cámara plana según una de las reivindicaciones 1 a 3, caracterizada porque cada canal óptico detecta al menos un segmento de ángulo sólido determinado como punto de imagen correspondiente, de tal manera que la totalidad de los puntos de imagen transmitidos sobre la disposición de detector permite una reconstrucción del objeto.
-
- 5.
- Cámara plana según una de las reivindicaciones 1 a 4, caracterizada porque las microlentes individuales se diferencian entre sí en cuanto a su forma, tal como redonda, elíptica, esférica y similares y/o porque en las microlentes individuales están integrados microprismas.
-
- 6.
- Cámara plana según una de las reivindicaciones 1 a 5, caracterizada porque entre los canales ópticos o grupos de canales ópticos o alrededor de los canales ópticos están dispuestas fuentes de luz, en la que en el plano de la imagen de las microlentes (1’) al menos un detector (6’, 8) está sustituido por una fuente de luz, que dirige, concentra y/o distribuye la luz desde el plano de la imagen a través de la microlente (1’) sobre el objeto que va a observarse.
-
- 7.
- Cámara plana según una de las reivindicaciones 1 a 6, caracterizada porque los campos visuales de canales ópticos adyacentes se solapan en parte mutuamente, en la que preferentemente la diferencia de ángulo de visibilidad entre canales ópticos adyacentes establecida por los ejes ópticos es inferior a la mitad de la anchura del campo visual de un canal.
-
- 8.
- Cámara plana según una de las reivindicaciones 1 a 7, caracterizada porque varias disposiciones de diafragma
(4) para la supresión de imagen fantasma en diferentes planos están dispuestas entre microlentes (1’) y detectores (6’, 8). -
- 9.
- Cámara plana según la reivindicación 8, caracterizada porque las disposiciones de diafragma (4) presentan diferentes distancias entre centros y/o están separadas entre sí con diferentes capas de separación y con respecto a los detectores o a las microlentes.
-
- 10.
- Cámara plana según una de las reivindicaciones 1 a 9, caracterizada porque los canales ópticos y las microlentes (1’) están configurados para un aumento de aproximadamente 1, en la que el ángulo sólido en el lado del objeto, que está asociado a cada canal como punto de imagen, está configurado en cuanto a su tamaño de manera que en la distancia del objeto del sistema de representación la extensión lateral del objeto correspondiente a este ángulo sólido es justo tan grande como la distancia de los canales.
-
- 11.
- Cámara plana según una de las reivindicaciones 1 a 10, caracterizada porque sobre un cuerpo de objetivo transparente (3) están aplicados mediante recubrimiento en la parte delantera la serie de diafragmas de abertura (2) asociada a la microlentes (1’) y en la parte trasera la disposición de diafragma (4) para la supresión de imagen fantasma, sobre la serie de diafragmas de abertura (2) está dispuesta una serie de microlentes (1) y sobre la disposición de diafragma (4) la capa de separación transparente (5) y bajo la capa de separación se encuentra un sustrato (7) con una serie de píxeles detectores (8), en la que opcionalmente está aplicada una serie de diafragmas perforados (6) sobre la capa de separación (5) o el sustrato con los píxeles detectores.
-
- 12.
- Cámara plana según la reivindicación 11, caracterizada porque el cuerpo de objetivo (3) está fabricado a partir
de vidrio, la serie de lentes y la capa de separación a partir de un polímero estructurable, la serie de diafragmas de abertura (2) y la disposición de diafragma (4) para la supresión de imagen fantasma a partir de un polímero absorbente o metal y la serie de diafragmas perforados (6) a partir de una capa de metal o de polímero. -
- 13.
- Procedimiento para la producción de al menos una cámara plana según la reivindicación 1, con un cuerpo de
5 objetivo transparente, sobre cuya parte delantera se aplican mediante recubrimiento y litografía una serie de diafragmas de abertura (2) y parte trasera una disposición de diafragma (4) para la supresión de imagen fantasma de polímero absorbente delgado o un metal, después se producen en la parte delantera una serie de microlentes (1) mediante replicación UV y en la parte trasera una capa de separación (5), ambas a partir de un polímero fotoestructurable, y la capa de separación opcionalmente tras la producción se une a una disposición de diafragmas10 perforados (6’) con un sustrato dotado de una serie de píxeles detectores, en el que los detectores o los detectores con diafragma perforado son múltiples veces inferiores con respecto al diámetro de la microlente. - 14. Procedimiento según la reivindicación 13, caracterizado porque para la formación de una oblea óptica se aplican sobre un cuerpo de objetivo continuo varias series de diafragmas de abertura y disposiciones de diafragma, varias series de microlentes y varias capas de separación dispuestas con una distancia entre sí, que se unen con 15 una oblea detectora con una pluralidad de series de píxeles detectores y almohadillas de unión aplicadas entre las series de píxeles detectores sobre la oblea de tal manera que los espacios que quedan libres entre las capas de separación se encuentran sobre las almohadillas de unión y porque la oblea óptica y oblea detectora así unidas se individualizan con una sierra mediante varios cortes adyacentes y de diferente profundidad, de modo que se producen chips de cámara, en los que las almohadillas de unión sobresales sobre los chips detectores lateralmente20 por encima del resto de la disposición.
- 15. Uso de una cámara plana según una de las reivindicaciones 7 a 12, con un dispositivo de evaluación para la determinación de la posición de objetos en forma de punto recurriendo a las relaciones de las intensidades detectadas por los detectores de canales ópticos adyacentes o con un dispositivo de evaluación para la determinación de la orientación y de la posición de los bordes mediante evaluación de los valores de intensidad o25 valores de contraste detectados por los detectores y recurriendo a las relaciones de la intensidad de canales ópticos adyacentes.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006004802 | 2006-01-23 | ||
DE102006004802A DE102006004802B4 (de) | 2006-01-23 | 2006-01-23 | Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems |
PCT/EP2007/000813 WO2007082781A1 (de) | 2006-01-23 | 2007-01-23 | Bilderfassungssystem und verfahren zur herstellung mindestens eines bilderfassungssystems |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2373063T3 true ES2373063T3 (es) | 2012-01-31 |
Family
ID=37969955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES07711414T Active ES2373063T3 (es) | 2006-01-23 | 2007-01-23 | Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes. |
Country Status (8)
Country | Link |
---|---|
US (1) | US7897903B2 (es) |
EP (1) | EP1979769B1 (es) |
JP (1) | JP2009524263A (es) |
KR (1) | KR101275076B1 (es) |
AT (1) | ATE523802T1 (es) |
DE (1) | DE102006004802B4 (es) |
ES (1) | ES2373063T3 (es) |
WO (1) | WO2007082781A1 (es) |
Families Citing this family (150)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008261790A (ja) * | 2007-04-13 | 2008-10-30 | Hitachi High-Technologies Corp | 欠陥検査装置 |
WO2009020977A1 (en) * | 2007-08-06 | 2009-02-12 | Adobe Systems Incorporated | Method and apparatus for radiance capture by multiplexing in the frequency domain |
DE102007042984A1 (de) * | 2007-09-10 | 2009-03-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur optischen Navigation |
DE102007045525A1 (de) | 2007-09-24 | 2009-04-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bildsensor |
DE102007050167A1 (de) | 2007-10-19 | 2009-04-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Mikrolinsen-Array mit integrierter Beleuchtung |
JP4973478B2 (ja) * | 2007-12-11 | 2012-07-11 | ソニー株式会社 | 撮像素子および撮像装置 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
KR101588877B1 (ko) | 2008-05-20 | 2016-01-26 | 펠리칸 이매징 코포레이션 | 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리 |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8244058B1 (en) | 2008-05-30 | 2012-08-14 | Adobe Systems Incorporated | Method and apparatus for managing artifacts in frequency domain processing of light-field images |
DE102009005092A1 (de) * | 2009-01-19 | 2010-09-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur optischen Navigation und dessen Verwendung |
US8189089B1 (en) | 2009-01-20 | 2012-05-29 | Adobe Systems Incorporated | Methods and apparatus for reducing plenoptic camera artifacts |
DE102009016234B4 (de) * | 2009-04-03 | 2014-03-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Strahlformer |
US8633432B2 (en) * | 2009-09-21 | 2014-01-21 | California Institute Of Technology | Reflective focusing and transmissive projection device |
WO2011047053A2 (en) * | 2009-10-13 | 2011-04-21 | California Institute Of Technology | Holographically illuminated imaging devices |
DE102009049387B4 (de) * | 2009-10-14 | 2016-05-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung |
US8514491B2 (en) | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8860833B2 (en) | 2010-03-03 | 2014-10-14 | Adobe Systems Incorporated | Blended rendering of focused plenoptic camera data |
WO2011143501A1 (en) | 2010-05-12 | 2011-11-17 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
DE102010031535A1 (de) | 2010-07-19 | 2012-01-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes |
US8803164B2 (en) * | 2010-08-06 | 2014-08-12 | Semiconductor Energy Laboratory Co., Ltd. | Solid-state image sensing device and semiconductor display device |
US8749694B2 (en) | 2010-08-27 | 2014-06-10 | Adobe Systems Incorporated | Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing |
US8665341B2 (en) | 2010-08-27 | 2014-03-04 | Adobe Systems Incorporated | Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data |
US8724000B2 (en) * | 2010-08-27 | 2014-05-13 | Adobe Systems Incorporated | Methods and apparatus for super-resolution in integral photography |
US8803918B2 (en) | 2010-08-27 | 2014-08-12 | Adobe Systems Incorporated | Methods and apparatus for calibrating focused plenoptic camera data |
WO2012033957A2 (en) | 2010-09-09 | 2012-03-15 | California Institute Of Technology | Delayed emission detection devices and methods |
KR101042501B1 (ko) * | 2010-11-17 | 2011-06-17 | 이주현 | 광 투과 조정 필터가 형성된 렌즈 어레이 시트 |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
GB2488519A (en) * | 2011-02-16 | 2012-09-05 | St Microelectronics Res & Dev | Multi-channel image sensor incorporating lenslet array and overlapping fields of view. |
JP5861257B2 (ja) * | 2011-02-21 | 2016-02-16 | ソニー株式会社 | 撮像素子および撮像装置 |
US9197798B2 (en) | 2011-03-25 | 2015-11-24 | Adobe Systems Incorporated | Thin plenoptic cameras using microspheres |
EP2708019B1 (en) | 2011-05-11 | 2019-10-16 | FotoNation Limited | Systems and methods for transmitting and receiving array camera image data |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
EP2726930A4 (en) * | 2011-06-28 | 2015-03-04 | Pelican Imaging Corp | OPTICAL ARRANGEMENTS FOR USE WITH AN ARRAY CAMERA |
JP2013044885A (ja) * | 2011-08-23 | 2013-03-04 | Hitachi High-Technologies Corp | 拡大系イメージング装置及びイメージセンサ |
WO2013043761A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
WO2013049699A1 (en) | 2011-09-28 | 2013-04-04 | Pelican Imaging Corporation | Systems and methods for encoding and decoding light field image files |
US20130169606A1 (en) * | 2011-12-30 | 2013-07-04 | Qualcomm Mems Technologies, Inc. | Light direction distribution sensor |
WO2013126578A1 (en) | 2012-02-21 | 2013-08-29 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
WO2014005123A1 (en) | 2012-06-28 | 2014-01-03 | Pelican Imaging Corporation | Systems and methods for detecting defective camera arrays, optic arrays, and sensors |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
EP3869797B1 (en) | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
WO2014032020A2 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
WO2014043641A1 (en) | 2012-09-14 | 2014-03-20 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
US20140092281A1 (en) | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating Images from Light Fields Utilizing Virtual Viewpoints |
US9143711B2 (en) | 2012-11-13 | 2015-09-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
CN103076709B (zh) * | 2013-01-16 | 2016-06-29 | 瑞声声学科技(深圳)有限公司 | 阵列照相机 |
WO2014130849A1 (en) | 2013-02-21 | 2014-08-28 | Pelican Imaging Corporation | Generating compressed light field representation data |
US9374512B2 (en) | 2013-02-24 | 2016-06-21 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
US9638883B1 (en) | 2013-03-04 | 2017-05-02 | Fotonation Cayman Limited | Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process |
WO2014138695A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for measuring scene information while capturing images using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
WO2014164909A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Array camera architecture implementing quantum film sensors |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
WO2014153098A1 (en) | 2013-03-14 | 2014-09-25 | Pelican Imaging Corporation | Photmetric normalization in array cameras |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
EP2973476A4 (en) | 2013-03-15 | 2017-01-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US10898070B2 (en) * | 2013-07-07 | 2021-01-26 | Real Time Imaging Technologies, Llc | Imaging apparatus and methods |
JP2015060068A (ja) * | 2013-09-18 | 2015-03-30 | 株式会社東芝 | 撮像レンズ及び固体撮像装置 |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
US9880391B2 (en) * | 2013-10-01 | 2018-01-30 | Heptagon Micro Optics Pte. Ltd. | Lens array modules and wafer-level techniques for fabricating the same |
US9264592B2 (en) | 2013-11-07 | 2016-02-16 | Pelican Imaging Corporation | Array camera modules incorporating independently aligned lens stacks |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
US9426361B2 (en) | 2013-11-26 | 2016-08-23 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
JP6417809B2 (ja) * | 2014-03-05 | 2018-11-07 | ソニー株式会社 | 撮像装置 |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
US9955050B2 (en) * | 2014-04-07 | 2018-04-24 | William J. Warren | Movement monitoring security devices and systems |
US9972182B2 (en) | 2014-04-07 | 2018-05-15 | William J. Warren | Movement monitoring security devices and systems |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
CN107077743B (zh) | 2014-09-29 | 2021-03-23 | 快图有限公司 | 用于阵列相机的动态校准的系统和方法 |
CN204423387U (zh) * | 2014-11-14 | 2015-06-24 | 深圳印象认知技术有限公司 | 成像板、图像采集器及终端 |
EP3029494A1 (de) * | 2014-12-02 | 2016-06-08 | Sick Ag | Optoelektronischer Sensor |
WO2016115117A1 (en) | 2015-01-12 | 2016-07-21 | Real Time Imaging Technologies, Llc | Low-dose x-ray imaging system |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
WO2016208403A1 (ja) * | 2015-06-23 | 2016-12-29 | ソニー株式会社 | イメージセンサ、および電子機器 |
US9992477B2 (en) | 2015-09-24 | 2018-06-05 | Ouster, Inc. | Optical system for collecting distance information within a field |
US10063849B2 (en) | 2015-09-24 | 2018-08-28 | Ouster, Inc. | Optical system for collecting distance information within a field |
JP6703387B2 (ja) * | 2015-10-02 | 2020-06-03 | エルジー ディスプレイ カンパニー リミテッド | 薄膜光センサ、2次元アレイセンサ、および指紋センサ付きモバイル用ディスプレイ |
KR101759971B1 (ko) * | 2015-11-26 | 2017-07-24 | 주식회사 선진기술 | 평행광을 이용한 축오차 측정장치 |
KR101738883B1 (ko) * | 2016-01-06 | 2017-05-23 | 한국과학기술원 | 초박형 디지털 카메라 및 그 제조 방법 |
CN107437047A (zh) * | 2016-05-25 | 2017-12-05 | 深圳印象认知技术有限公司 | 感光像元、图像采集器、指纹采集设备及显示设备 |
US10331932B2 (en) | 2016-06-08 | 2019-06-25 | Novatek Microelectronics Corp. | Optical sensor device and a fingerprint sensor apparatus |
US10924638B2 (en) * | 2016-06-27 | 2021-02-16 | Intel Corporation | Compact, low cost VCSEL projector for high performance stereodepth camera |
CA3035094A1 (en) | 2016-08-24 | 2018-03-01 | Ouster, Inc. | Optical system for collecting distance information within a field |
US10270947B2 (en) * | 2016-09-15 | 2019-04-23 | Microsoft Technology Licensing, Llc | Flat digital image sensor |
KR101850222B1 (ko) * | 2016-12-28 | 2018-05-31 | 창원대학교 산학협력단 | 삼차원 프린터의 축 오차 보정 장치 및 방법 |
DE102017201139A1 (de) | 2017-01-25 | 2018-07-26 | Robert Bosch Gmbh | Bauelement zum Begrenzen eines Einfallswinkels von Licht, Verfahren zum Herstellen desselben und Mikrospektrometer |
US11190944B2 (en) | 2017-05-05 | 2021-11-30 | Ball Aerospace & Technologies Corp. | Spectral sensing and allocation using deep machine learning |
DE202018006695U1 (de) | 2017-05-15 | 2022-04-01 | Ouster, Inc. | Optischer Bildübertrager mit Helligkeitsverbesserung |
TWI639022B (zh) * | 2017-05-18 | 2018-10-21 | 吳志彥 | 光學元件的製作方法及光學感應裝置 |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
US11353556B2 (en) | 2017-12-07 | 2022-06-07 | Ouster, Inc. | Light ranging device with a multi-element bulk lens system |
JP6508385B2 (ja) * | 2018-03-30 | 2019-05-08 | 株式会社ニコン | 撮像素子および撮像装置 |
KR102614907B1 (ko) * | 2018-04-04 | 2023-12-19 | 삼성전자주식회사 | 이미지 센서 및 이미지 센서 제조 방법 |
US10916575B2 (en) | 2018-04-04 | 2021-02-09 | Samsung Electronics Co., Ltd. | Image sensor and method of manufacturing image sensor |
DE19724378T1 (de) * | 2018-05-07 | 2020-10-01 | VVaveTouch Denmark A/S | Kompakter optischer Sensor zur Fingerabdruckerkennung |
FR3084207B1 (fr) * | 2018-07-19 | 2021-02-19 | Isorg | Systeme optique et son procede de fabrication |
US11473970B2 (en) | 2018-08-09 | 2022-10-18 | Ouster, Inc. | Subpixel apertures for channels in a scanning sensor array |
US10739189B2 (en) | 2018-08-09 | 2020-08-11 | Ouster, Inc. | Multispectral ranging/imaging sensor arrays and systems |
CN211045441U (zh) * | 2018-08-21 | 2020-07-17 | 神盾股份有限公司 | 光学传感系统 |
US11182672B1 (en) * | 2018-10-09 | 2021-11-23 | Ball Aerospace & Technologies Corp. | Optimized focal-plane electronics using vector-enhanced deep learning |
US11851217B1 (en) | 2019-01-23 | 2023-12-26 | Ball Aerospace & Technologies Corp. | Star tracker using vector-based deep learning for enhanced performance |
US11412124B1 (en) | 2019-03-01 | 2022-08-09 | Ball Aerospace & Technologies Corp. | Microsequencer for reconfigurable focal plane control |
JP2020182139A (ja) * | 2019-04-26 | 2020-11-05 | ソニー株式会社 | 撮像システム及び撮像素子 |
US11488024B1 (en) | 2019-05-29 | 2022-11-01 | Ball Aerospace & Technologies Corp. | Methods and systems for implementing deep reinforcement module networks for autonomous systems control |
US11303348B1 (en) | 2019-05-29 | 2022-04-12 | Ball Aerospace & Technologies Corp. | Systems and methods for enhancing communication network performance using vector based deep learning |
CN111095279B (zh) * | 2019-07-12 | 2023-09-08 | 深圳市汇顶科技股份有限公司 | 指纹检测装置和电子设备 |
JP7183429B2 (ja) * | 2019-08-08 | 2022-12-05 | マクセル株式会社 | 撮像装置および方法 |
US11828598B1 (en) | 2019-08-28 | 2023-11-28 | Ball Aerospace & Technologies Corp. | Systems and methods for the efficient detection and tracking of objects from a moving platform |
CN112753036B (zh) | 2019-08-30 | 2024-07-23 | 京东方科技集团股份有限公司 | 纹路图像获取装置、显示装置及准直部件 |
WO2021055585A1 (en) | 2019-09-17 | 2021-03-25 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
TW202114184A (zh) * | 2019-09-23 | 2021-04-01 | 神盾股份有限公司 | 影像感測模組 |
TWM597916U (zh) * | 2019-09-23 | 2020-07-01 | 神盾股份有限公司 | 積體化光學感測器 |
MX2022004162A (es) | 2019-10-07 | 2022-07-12 | Boston Polarimetrics Inc | Sistemas y metodos para el aumento de sistemas de sensores y sistemas de formacion de imagenes con polarizacion. |
FR3102007B1 (fr) * | 2019-10-14 | 2021-10-29 | Commissariat Energie Atomique | Capteur d’images |
KR20220088693A (ko) * | 2019-10-30 | 2022-06-28 | 소니그룹주식회사 | 촬상 소자, 표시 장치 및 촬상 시스템 |
KR20230116068A (ko) | 2019-11-30 | 2023-08-03 | 보스턴 폴라리메트릭스, 인크. | 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법 |
KR20220110783A (ko) * | 2019-12-06 | 2022-08-09 | 쓰리엠 이노베이티브 프로퍼티즈 컴파니 | 광학 층 및 광학 시스템 |
KR102429987B1 (ko) | 2020-01-06 | 2022-08-05 | 엘아이지넥스원 주식회사 | 마이크로 렌즈 어레이 및 이를 포함하는 이미지 센서모듈과 그 제조방법 |
CN115552486A (zh) | 2020-01-29 | 2022-12-30 | 因思创新有限责任公司 | 用于表征物体姿态检测和测量系统的系统和方法 |
WO2021154459A1 (en) | 2020-01-30 | 2021-08-05 | Boston Polarimetrics, Inc. | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
KR102147279B1 (ko) * | 2020-02-20 | 2020-08-24 | 국방과학연구소 | 물체 이동 탐지 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램 |
CN114096801B (zh) * | 2020-04-24 | 2023-10-20 | 达闼机器人股份有限公司 | 镜头模块和物体探测装置 |
US11328150B2 (en) | 2020-04-30 | 2022-05-10 | Omnivision Technologies, Inc. | Lens-array imager |
US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
KR102455520B1 (ko) | 2020-06-05 | 2022-10-17 | 한국과학기술원 | 마이크로렌즈 어레이를 이용한 초박형 카메라 장치 그리고 이의 다기능 이미징 방법 |
CN116888952A (zh) | 2021-02-25 | 2023-10-13 | 三菱电机株式会社 | 图像读取装置 |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
TWI786753B (zh) * | 2021-07-30 | 2022-12-11 | 新鉅科技股份有限公司 | 紅外投影透鏡組及紅外投影模組 |
CN114002769A (zh) * | 2021-10-20 | 2022-02-01 | 武汉华星光电技术有限公司 | 滤光准直复合膜及其制造方法、显示装置 |
WO2023112479A1 (ja) * | 2021-12-14 | 2023-06-22 | ソニーセミコンダクタソリューションズ株式会社 | 受光装置および電子機器 |
EP4213116A1 (en) | 2022-01-14 | 2023-07-19 | WaveTouch Denmark A/S | Compact optical sensor |
US12106599B2 (en) | 2022-06-13 | 2024-10-01 | Omnivision Technologies, Inc. | Thin, multi-lens, optical fingerprint sensor adapted to image through cell phone displays and with multiple photodiode groups each having separate fields of view for each microlens |
CN115291305A (zh) * | 2022-07-20 | 2022-11-04 | 湖北宜美特全息科技有限公司 | 一种大幅面离轴裸眼3d显示光学薄膜及其制备方法 |
CN117358926B (zh) * | 2023-12-05 | 2024-02-13 | 天津大学 | 一种锗光阑阵列的制备方法及光场成像系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6137535A (en) * | 1996-11-04 | 2000-10-24 | Eastman Kodak Company | Compact digital camera with segmented fields of view |
US5822125A (en) | 1996-12-20 | 1998-10-13 | Eastman Kodak Company | Lenslet array system |
US6995800B2 (en) * | 2000-01-27 | 2006-02-07 | Canon Kabushiki Kaisha | Image pickup apparatus utilizing a plurality of converging lenses |
JP3853562B2 (ja) * | 2000-02-23 | 2006-12-06 | 松下電器産業株式会社 | 増幅型固体撮像装置 |
KR100541028B1 (ko) * | 2003-07-21 | 2006-01-11 | 주식회사 옵토메카 | 이미지 센서 및 그 제조 방법 |
DE102004003013B3 (de) * | 2004-01-20 | 2005-06-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bilderfassungssystem und dessen Verwendung |
-
2006
- 2006-01-23 DE DE102006004802A patent/DE102006004802B4/de not_active Expired - Fee Related
-
2007
- 2007-01-23 AT AT07711414T patent/ATE523802T1/de active
- 2007-01-23 WO PCT/EP2007/000813 patent/WO2007082781A1/de active Application Filing
- 2007-01-23 EP EP07711414A patent/EP1979769B1/de active Active
- 2007-01-23 ES ES07711414T patent/ES2373063T3/es active Active
- 2007-01-23 US US12/223,024 patent/US7897903B2/en active Active
- 2007-01-23 JP JP2008551737A patent/JP2009524263A/ja active Pending
-
2008
- 2008-07-21 KR KR1020087017828A patent/KR101275076B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
EP1979769B1 (de) | 2011-09-07 |
JP2009524263A (ja) | 2009-06-25 |
ATE523802T1 (de) | 2011-09-15 |
KR20080089604A (ko) | 2008-10-07 |
US20090179142A1 (en) | 2009-07-16 |
KR101275076B1 (ko) | 2013-06-14 |
US7897903B2 (en) | 2011-03-01 |
EP1979769A1 (de) | 2008-10-15 |
DE102006004802A1 (de) | 2007-08-02 |
DE102006004802B4 (de) | 2008-09-25 |
WO2007082781A1 (de) | 2007-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2373063T3 (es) | Sistema de detección de imágenes y procedimiento para la producción de al menos un sistema de detección de imágenes. | |
JP3975892B2 (ja) | 位置計測システム | |
JP4686229B2 (ja) | 位置測定装置 | |
ES2634508T3 (es) | Método y sistema para usar en la inspección y/o eliminación de objetos inapropiados de un flujo de productos y un aparato de clasificación que implementa dicho método y sistema | |
CN100592029C (zh) | 测距设备 | |
US7414712B2 (en) | Large dynamic range Shack-Hartmann wavefront sensor | |
CN111273256A (zh) | 亮度增强的光学成像发射机 | |
EP3015817B1 (en) | Optical method of and apparatus for determining positions and orientations of a plurality of mirrors in the field of view of an objective lens | |
KR20050083001A (ko) | 위치 계측 시스템 및 위치 계측용 렌즈 | |
CN104969057A (zh) | 轮廓测量的方法和装置 | |
US20200096610A1 (en) | Retroreflector with sensor | |
CN105717629A (zh) | 孔成像系统 | |
JP7393542B2 (ja) | 複眼カメラ装置および複眼システム | |
KR20220140849A (ko) | 물체 상의 위치를 측정하기 위한 장치, 방법 및 시스템 | |
KR20230028303A (ko) | 확산 조명 및 구조화 광을 위한 프로젝터 | |
EP3353489B1 (en) | Method and apparatus for measuring the height of a surface | |
US20060215178A1 (en) | Position measurement system | |
CN100582678C (zh) | 离轴旋转对称型激光三角位移传感器 | |
CN116026258A (zh) | 具有球透镜的光电编码器 | |
US7212294B2 (en) | Method for determination of the level of two or more measurement points, and an arrangement for this purpose | |
US6856388B2 (en) | Optical sensor for measuring the distance and/or inclination of a surface | |
JP2010216922A (ja) | 光学式変位計及び光学式変位測定方法 | |
KR19980081410A (ko) | 물체의 형태를 비접촉식으로 측정하는 방법 및 장치 | |
JPH0249558Y2 (es) | ||
CN103673884A (zh) | 双三角光学测头的光路系统 |