ES2805072T3 - Dispositivo y método para el posicionamiento relativo de sistemas ópticos de varias aberturas que comprenden varios canales ópticos en relación con un sensor de imagen - Google Patents

Dispositivo y método para el posicionamiento relativo de sistemas ópticos de varias aberturas que comprenden varios canales ópticos en relación con un sensor de imagen Download PDF

Info

Publication number
ES2805072T3
ES2805072T3 ES15741502T ES15741502T ES2805072T3 ES 2805072 T3 ES2805072 T3 ES 2805072T3 ES 15741502 T ES15741502 T ES 15741502T ES 15741502 T ES15741502 T ES 15741502T ES 2805072 T3 ES2805072 T3 ES 2805072T3
Authority
ES
Spain
Prior art keywords
image
axis
target
image sensor
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15741502T
Other languages
English (en)
Inventor
Andreas Brückner
Frank Wippermann
ANDREAS BRäUER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2805072T3 publication Critical patent/ES2805072T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

Dispositivo (10) para el posicionamiento relativo de sistemas ópticos de varias aberturas (12) que comprende varios canales ópticos (14a-f) en relación con un sensor de imagen (16), que comprende: un objeto de referencia (18) dispuesto de manera que el objeto de referencia (18) se representa para una región de imagen (22a-e) por canal (14a-f) por los sistemas ópticos de varias aberturas (12) en los canales ópticos (14a-f); un dispositivo de posicionamiento (24) que puede controlarse para cambiar una localización relativa entre los sistemas ópticos de varias aberturas (12) y el sensor de imagen (16); un dispositivo de cálculo (26) configurado para determinar posiciones reales del objeto de referencia (18) en al menos tres regiones de imagen (22a-e) en imágenes del objeto de referencia y para controlar el dispositivo de posicionamiento (24) basándose en una comparación de las posiciones reales con posiciones que son posiciones de referencia en una respectiva y/o en otras regiones de imagen.

Description

DESCRIPCIÓN
Dispositivo y método para el posicionamiento relativo de sistemas ópticos de varias aberturas que comprenden varios canales ópticos en relación con un sensor de imagen
La presente invención se refiere a un dispositivo y a un método para el posicionamiento relativo de sistemas ópticos de varias aberturas que comprenden varios canales ópticos. La presente invención se refiere, además, a un método para alinear de manera activa sistemas ópticos de varias aberturas con un sensor de imagen digital.
Cuando se fabrican módulos de cámara miniaturizados de alta resolución, la etapa de integración de un objetivo comprende realizar un procedimiento de alineación activa, es decir, alinear de manera activa el objetivo (lente del objetivo) en relación con el sensor de imagen mientras se observa y se evalúa la imagen que se recupera. Esto implica mover el objetivo en relación con el sensor de imagen y evaluar la imagen recuperada según los criterios de calidad predefinidos de la nitidez de la imagen (normalmente midiendo el contraste de la imagen y/o la función de transferencia de módulo [en resumen: MTRF] en diferentes posiciones en la imagen). Se optimiza el posicionamiento, por ejemplo, maximizando los criterios de calidad medidos y, en consecuencia, se fija el objetivo (por ejemplo, por medio de encolado) en esta posición en relación con el sensor de imagen. Una condición previa requerida para esto es que las propiedades del objetivo (por ejemplo, el contraste de la imagen, FTM) que se dibujan para los criterios de calidad cambiarán a un grado suficientemente medible por los cambios en la posición usada en el procedimiento, tal como se conoce, por ejemplo, a partir del documento US 2013/0047396 A1 o el documento JP 20070269879.
Por lo que a una alineación activa se refiere, los algoritmos de optimización convencionales fallarán si los parámetros de los objetivos varían solo ligeramente en relación con las etapas de posicionamiento. Esto último se aplica, por ejemplo, a objetivos que tienen profundidades de enfoque grandes (y, en particular, objetivos de varias aberturas compuestos de matrices de microobjetivos) en los que un cambio en la distancia z entre el objetivo y el sensor de imagen da como resultado solo ligeros cambios en la nitidez de la imagen que en casos reales son difíciles de medir. Debido a la disposición simétrica de rotación de objetivos convencionales de cámaras miniaturizadas alrededor del eje (z) óptico, las máquinas de montaje automático industriales en la mayoría de los casos presentan cinco grados de libertad (y, en consecuencia, cinco ejes) para el posicionamiento relativo de los sistemas ópticos en relación con el sensor de imagen (3x traslación a lo largo de los ejes x,y,z 2x inclinación [tx,ty] alrededor de los ejes x e y, tal como se representa en la figura 18, por ejemplo). Así, las máquinas y procedimientos de montaje activo establecidos no son adecuados para alinear objetivos que no comprenden simetría rotacional alrededor del eje z. Estos incluyen, por ejemplo, objetivos anamórficos, objetivos que comprenden componentes de filtro direccionalmente selectivos, pero también objetivos de varias aberturas que consisten en matrices de microobjetivos.
La figura 18 muestra una imagen esquemática de una disposición de montaje de sistemas ópticos de formación de imágenes de varias aberturas 12 para formar una placa de sensor de imagen 16 con una anotación de los grados de libertad requeridos x,y,z (traslación), tx, ty y tz (rotación).
Ambas restricciones descritas se aplican en combinación para objetivos de formación de imágenes de varias aberturas, en resumen, sistemas ópticos de varias aberturas, tales como los denominados ojos de agrupación electrónica tal como se conocen a partir del documento W O 2011/045324 A2. La disposición de varias aberturas consiste en una matriz de canales ópticos que se extienden uni o bidimensionalmente en el plano x-y, capturando cada canal óptico una parte definida del campo objetivo completo.
En el presente documento, la localización de la posición central de la abertura de cada canal óptico individual en relación con el centro de la subimagen asociada (tal como se visualiza en el plano x-y en cada caso) desempeña un papel importante en términos de precisión de la capacidad de resolución y/o reconstrucción de la imagen general. La diferencia entre la posición central de la abertura y la posición central de la subimagen asociada (diferencia de distancia) debe ajustarse a lo largo de los grados de libertad de traslación en x,y con una precisión de una distancia entre medio y un píxel del sensor de imagen usado.
Esta disposición de sistemas ópticos de varias aberturas se ha desarrollado específicamente con el fin de realizar módulos de cámara miniaturizados, en particular, aquellos que tienen formas estructurales ultrafinas (con el fin de usarse en dispositivos finos tales como teléfonos inteligentes, tabletas, portátiles, etc., por ejemplo).
En consecuencia, se emplean microobjetivos en el mismo que tienen longitudes focales muy pequeñas (por ejemplo, f = 1,2 mm) y, por tanto, profundidades de enfoque grandes. Según la fórmula dz = 4*i*(Fi#)*2 para la profundidad de enfoque en el espacio imagen (dz) con formación de imágenes limitada por difracción de la longitud de onda W, se consigue un valor de dz = 12,7 pm para luz de la longitud de onda de 550 nm y un número f de F/# = 2,4, por ejemplo. La figura 19 ilustra esquemáticamente los requisitos en términos de la alineación de sistemas ópticos de varias aberturas 12 con un plano de imagen BE del sensor de imagen 16. Los sistemas ópticos de varias aberturas 12 comprenden varios canales ópticos dispuestos en una matriz unidimensional o bidimensional y que comprende un centro. Los canales ópticos situados fuera del centro están configurados para recibir un haz principal oblicuamente incidente PR. Se reconoce que, con incidencia oblicua, en el ángulo alfa “a”, de luz del haz principal del punto de campo central dentro de un canal óptico externo, el punto de intersección con la posición focal (= por ejemplo, localización temporal del sensor de imagen durante el montaje) experimenta una desviación lateral (“Ad”) dentro de la profundidad de enfoque debido a la diferencia de la posición z (“Az”). Con una distancia de píxel de p_px = 2 pm del sensor de imagen y dada la desviación lateral máxima correspondientemente grande, se permite que el valor de “Az” sea Az = 4,3 pm como máximo según la relación geométrica tan(a) = Ad / Az en un ángulo de incidencia de a = 25°. Este valor se encuentra en el intervalo de profundidades de enfoque, de modo que cualquier técnica de montaje activa existente basada en la evaluación del contraste de imagen no permite suficiente precisión en la alineación del objetivo en relación con el sensor de imagen cuando se aplica a sistemas ópticos de formación de imágenes de varias aberturas. Así, la figura 19 muestra una sección esquemática a través de un objetivo de formación de imágenes de varias aberturas según el documento W O 2011/045324 A2. Lo que se muestra son los haces principales para las líneas de visión promedio de los canales ópticos. El aumento muestra la desviación lateral Ad del centro de la subimagen de un canal óptico externo debido a diferentes posiciones focales Az dentro del intervalo de lado de imagen de profundidades de enfoque y del ángulo de incidencia a del haz principal PR.
Para ilustrar esto, se dará un ejemplo numérico a continuación.
Los parámetros de cámara comprenden, por ejemplo, una longitud focal (f) de 1,2 mm, una distancia de píxel (ppx) de 2 pm, un intervalo de visión que tiene un ángulo de abertura horizontal de 59°, vertical de 46° (diagonal de 0°). Un ángulo máximo de incidencia (a) en el plano de imagen asciende a 25°. Las dimensiones de la matriz de microobjetivos ascienden a ( Al x An ): 7,75 mm x 4,65 mm.
Esto da como resultado tolerancias de alineación asociadas tal como sigue: Un desplazamiento tolerable en el plano x-y asciende a un máximo de 2 píxeles, es decir, Ax < 4 jm y Ay < 4 jm . Una torsión tolerable alrededor del eje x,y (error de cuña) asciende a un máximo de medio píxel, es decir, Atx = arctan (t t^)<0,05° y Aty = arctan (^p)< 0,05°. Una torsión tolerable por el eje z asciende a un máximo de un píxel en los canales externos, es decir, At2 = arctan (-^|)<0,03°. Un desplazamiento en el eje z (error de distancia) asciende a un máximo de distancia de un
píxel (Ad) en canales ópticos externos -> Az = J^ a)< 4,3 jm.
Se conocen métodos conocidos para alinear sistemas ópticos con un sensor de imagen, por ejemplo, como alineación activa e intento de ajustar lentes individuales o conjuntos enteros en relación con un sensor de imagen como una función de la calidad (en la mayoría de los casos, del contraste) de la respectiva imagen tomada.
Los dispositivos conocidos para la alineación de objetivo de cámara activa se refieren principalmente al montaje de sistemas ópticos de rotación simétrica, la denominada alineación activa 5D, en relación con un sensor de imagen en un entorno de producción y para grandes cantidades de elementos. Tales dispositivos y técnicas de montaje usados no pueden modificarse para satisfacer las necesidades de montaje activo de objetivos de varias aberturas. Por ejemplo, una precisión de los ejes montados es demasiado pequeña. Por ejemplo, [1] describe que una traslación x,y,z puede ajustarse con una precisión de ± 5 pm, y una torsión tx,ty y/o tz puede ajustarse con una precisión de ± 0,1°, que es insuficiente para sistemas ópticos de varias aberturas según el ejemplo numérico anterior. La precisión insuficiente de los procedimientos de montaje se basa en una evaluación del contraste de imagen, en un entorno de sistema cerrado y, en consecuencia, en una falta de acceso al accionamiento del sistema de posicionamiento y a la lectura de tarjetas de cámara usadas. Por ejemplo, un fabricante del dispositivo siempre especificará el mismo patrón de prueba, independientemente de qué cliente (fabricante de sistemas ópticos) usa el dispositivo.
Un sistema de montaje que usa una combinación de alineación activa y pasiva se conoce a partir del documento US 2013/0047396. Dicho sistema muestra las mismas limitaciones que se describieron anteriormente.
Se conoce un método de montaje de sistemas ópticos de cámara activos de varios módulos de cámara mientras se usa la evaluación del contraste de imagen a partir del documento JP 20070269879. Asimismo, este método es difícil o incluso imposible de adaptar a los requisitos de los sistemas ópticos de varias aberturas.
El documento JP 2013 120295 A se refiere a la fabricación de una matriz de microobjetivos de tres o cuatro láminas.
El documento US 2011/001814 A1 se refiere a una comparación de imágenes parciales con una imagen total y describe cómo calcular una desviación de imágenes parciales.
El documento JP 2009 092876 A se refiere a un concepto para acoplar y fijar una matriz de lentes de una disposición de múltiples lentes a un sensor de imagen.
Conceptos alternativos describen un soporte de objetivo activo. Como alternativa a la alineación y fijación activas, los objetivos de formación de imágenes pueden montarse en soportes que permiten que el posterior posicionamiento entre el objetivo y el sensor de imagen se lleve a cabo en un momento posterior en el tiempo, tal como se describen en el documento US 2011/0298968 A1, por ejemplo. Se permite retroalimentación adicional al sensor de imagen, una unidad de evaluación o un sensor por una función activa tal como enfoque automático o estabilización de imagen óptica. Los diseños requeridos para esto implican una gran cantidad de esfuerzo, son, por tanto, costosos y limitan la miniaturización de los módulos de cámara. En el campo de los sistemas ópticos de varias aberturas miniaturizados o cámaras de varias aberturas extremadamente miniaturizadas, la utilización de tales componentes micromecánicos es, hasta ahora, desconocida por razones de coste y en términos de reducción del tamaño del diseño.
Por tanto, lo que se desea es un concepto que permita la producción de dispositivos de cámara de varias aberturas que comprenden un aumento de la calidad de imagen y una disminución de tolerancias de producción.
Por tanto, el objeto de la presente invención es proporcionar un dispositivo para el posicionamiento de sistemas ópticos de varias aberturas que comprenden alta calidad de imagen del módulo de cámara producido así como tolerancias de producción pequeñas.
Este objeto se consigue mediante la materia objeto de las reivindicaciones de patente independientes.
La idea principal de la presente invención consiste en haber reconocido que el objeto anterior puede conseguirse porque el posicionamiento de sistemas ópticos de varias aberturas en relación con el sensor de imagen puede llevarse a cabo basándose en un objeto de referencia capturado por el sensor de imagen; puede llevarse a cabo con gran precisión una alineación de los sistemas ópticos de varias aberturas en relación con el sensor de imagen basándose en posiciones donde un objeto de referencia o un patrón de referencia en el objeto de referencia se representa en regiones de imagen del sensor de imagen. Una comparación de las posiciones reales con posiciones, por ejemplo, centros locales o globales del sensor de imagen, permite el ajuste basado en la comparación de posiciones.
Según una realización, un dispositivo para el posicionamiento relativo de sistemas ópticos de varias aberturas incluye un objeto de referencia, un dispositivo de posicionamiento y un dispositivo de cálculo. El objeto de referencia se dispone de manera que el objeto de referencia se representa para una región de imagen por canal por los sistemas ópticos de varias aberturas en los canales ópticos. El dispositivo de posicionamiento puede controlarse para cambiar una localización relativa entre los sistemas ópticos de varias aberturas y el sensor de imagen. El dispositivo de cálculo está configurado para determinar posiciones reales del objeto de referencia en al menos tres regiones de imagen en imágenes del objeto de referencia y para controlar el dispositivo de posicionamiento basándose en una comparación de las posiciones reales con posiciones. Las posiciones pueden ser posiciones centrales u otras posiciones de referencia, por ejemplo, en una respectiva y/o en otras regiones de imagen. Alternativa o adicionalmente, las posiciones pueden ser posiciones diana colocadas para la comparación, por ejemplo. Basándose en la comparación con respecto a las tres regiones de imagen, pueden conseguirse alta calidad de imagen, una pequeña desviación de posición y, por tanto, un alto nivel de tolerancia de producción del dispositivo general con respecto a varias o incluso todas las regiones de imagen.
Una realización adicional proporciona un dispositivo en el que el dispositivo de cálculo está configurado para controlar un dispositivo de fijación configurado para endurecer una cola dispuesta entre los sistemas ópticos de varias aberturas y el sensor de imagen. Esto permite la fijación de la posición relativa ajustada entre los sistemas ópticos de varias aberturas y el sensor de imagen.
Una realización adicional proporciona un dispositivo en el que el sensor de imagen comprende al menos una región de imagen interior y cuatro regiones de imagen exteriores dispuestas de una manera distribuida radialmente alrededor de la región de imagen interior. Las cuatro regiones de imagen exteriores se disponen a lo largo de un eje de balanceo, por ejemplo, un eje x, y un eje de cabeceo, por ejemplo, un eje y. Las regiones de imagen exteriores se disponen en parejas opuestas en paralelo con el eje de balanceo y en paralelo con el eje de cabeceo, por ejemplo, en un rectángulo. El dispositivo de cálculo está configurado para determinar una desviación de patrón de un patrón en la región de imagen interior y las al menos cuatro regiones de imagen exteriores basándose en la comparación de las posiciones reales con las posiciones. Esto permite el centrado de la imagen de prueba en la región de imagen interior y el posterior ajuste de las respectivas imágenes en las regiones de imagen exteriores, de modo que las desviaciones de posición con respecto al eje de balanceo, el eje de cabeceo y el eje de guiñada pueden reducirse ventajosamente mientras se explotan simetrías de las desviaciones de posición.
Una realización adicional proporciona un dispositivo en el que el dispositivo de cálculo está configurado para enfocar una imagen que se captura en la región de imagen interior desde el objeto de referencia, lo que significa que una distancia de aumento alcanza un valor diana de distancia de aumento con el fin de determinar una diferencia lateral de la posición real para la región de imagen interior basándose en una desviación de patrón a lo largo del eje de balanceo y a lo largo del eje de cabeceo, y para controlar el dispositivo de posicionamiento de manera que las diferencias laterales con respecto al eje de balanceo y el eje de cabeceo alcancen un respectivo valor diana, de modo que la imagen se obtiene de manera que se enfoca y se centra en la región de imagen interior. El dispositivo de cálculo está configurado, además, para determinar una medida de diferencias de error de cuña de distancias de patrón para las cuatro regiones de imagen exteriores y para controlar el dispositivo de posicionamiento de manera que los sistemas ópticos de varias aberturas se inclinan en relación con el eje de balanceo y el eje de cabeceo, de modo que la diferencia de error de cuña alcanza un valor de balanceo diana y/o un valor de cabeceo diana. El dispositivo de cálculo está configurado, además, para determinar una diferencia de rotación de la desviación de patrón para las cuatro regiones de imagen exteriores a lo largo de una dirección lateral local primera y local segunda de las respectivas regiones de imagen exteriores, y para controlar el dispositivo de posicionamiento de manera que el mismo hace rotar los sistemas ópticos de varias aberturas alrededor del eje de guiñada, de modo que las diferencias de rotación alcanzan un valor de rotación diana. El dispositivo de cálculo está configurado, además, para determinar una medida de una diferencia en el aumento de la desviación de patrón para cada una de las regiones de imagen exteriores a lo largo de una dirección en paralelo con el eje de balanceo y a lo largo de una dirección en paralelo con el eje de cabeceo, y para controlar el dispositivo de posicionamiento de manera que el mismo desplaza los sistemas ópticos de varias aberturas a lo largo del eje de guiñada, de modo que las diferencias en el aumento alcanzan un valor de aumento diana. Lo que es ventajoso acerca de esta realización es que se permite la alineación de los sistemas ópticos de varias aberturas en relación con el sensor de imagen en seis grados de libertad alrededor de la región de imagen interior basándose en dicho enfoque y centrado de la imagen en relación con la región de imagen interior, de modo que se consigue un alto nivel de precisión del posicionamiento.
Según una realización adicional, el dispositivo de cálculo está configurado para realizar dicho enfoque y centrado de la imagen en relación con la región de imagen interior antes de una o cualquier alineación en relación con las regiones de imagen exteriores, de modo que puede reducirse cada uno de los errores de cuña, errores de rotación y/o errores de aumento de las regiones de imagen exteriores en relación con la región de imagen interior.
Lo que es ventajoso acerca de esta realización es que se aumenta, además, un nivel de precisión del posicionamiento. Una realización adicional proporciona un método para el posicionamiento relativo de los sistemas ópticos de varias aberturas que comprende varios canales ópticos en relación con el sensor de imagen.
Las realizaciones ventajosas adicionales son el contenido de las reivindicaciones dependientes.
Las realizaciones preferidas de la presente invención se explicarán a continuación con referencia a las figuras adjuntas, en las que:
la figura 1 muestra un diagrama de bloques esquemático de un dispositivo para el posicionamiento relativo de sistemas ópticos de varias aberturas que comprende varios canales ópticos en relación con un sensor de imagen según una realización;
la figura 2 muestra un diagrama de bloques esquemático de un dispositivo mejorado en comparación con el dispositivo de la figura 1 en el que un dispositivo de cálculo está configurado para controlar un dispositivo de fijación según una realización;
la figura 3a muestra una vista en sección lateral esquemática de los sistemas ópticos de varias aberturas que muestra un error de posición, en relación con el sensor de imagen, a lo largo de la dirección de balanceo negativa según una realización;
la figura 3b muestra una vista desde arriba esquemática de la situación de la figura 3a según una realización; la figura 4a muestra una vista en sección lateral esquemática de los sistemas ópticos de varias aberturas que muestra un error de cuña, en relación con el sensor de imagen, con respecto al eje de cabeceo según una realización; la figura 4b muestra una vista desde arriba esquemática de la situación de la figura 4a según una realización; la figura 5 muestra una vista desde arriba esquemática de los sistemas ópticos de varias aberturas torcidos, en relación con el sensor de imagen, por un ángulo alrededor del eje de guiñada, o eje z, según una realización;
la figura 6a muestra una vista en sección lateral esquemática de los sistemas ópticos de varias aberturas que muestra una distancia demasiado pequeña, en relación con el sensor de imagen, a lo largo del eje de guiñada según una realización;
la figura 6b muestra una vista desde arriba esquemática de la situación de la figura 6a según una realización; la figura 7a muestra una vista en sección lateral esquemática de una situación en la que los sistemas ópticos de varias aberturas muestran una distancia demasiado grande en relación con el sensor de imagen según una realización; la figura 7b muestra una vista desde arriba esquemática de la situación de la figura 7a según una realización; la figura 8 muestra un diagrama de flujo esquemático de un método para corregir una desviación de los sistemas ópticos de varias aberturas en relación con el sensor de imagen por medio de una traslación x y/o una traslación y, tal como se describe para las figuras 3a y 3b, según una realización;
la figura 9 muestra un diagrama de flujo esquemático de un método que puede realizarse por el dispositivo de cálculo con el fin de compensar el error de cuña tal como se describe con respecto a las figuras 4a y 4b, según una realización;
la figura 10 muestra un diagrama de flujo esquemático de un método de compensación de una torsión alrededor del eje de guiñada, o eje z, de la región de imagen interior tal como se describe para la figura 5, según una realización; la figura 11 muestra un diagrama de flujo esquemático de un método para alinear los sistemas ópticos de varias aberturas por medio de una traslación a lo largo del eje z, o el eje de guiñada, tal como se describe para las figuras 6a, 6b, 7a y 7b, según una realización;
la figura 12 muestra un diagrama de flujo esquemático de un método como puede realizarse, por ejemplo, antes de uno de los métodos de cualquiera de la figura 8, la figura 9, la figura 10 o la figura 11, con el fin de permitir un flujo de procedimiento robusto de dichos métodos, según una realización;
la figura 13 muestra un diagrama de flujo esquemático de un método en el que pueden lograrse ventajosamente altas precisiones de posicionamiento a lo largo de los seis grados de libertad, según una realización;
la figura 14 muestra un diagrama esquemático para ilustrar las relaciones entre el sistema de coordenadas global y los sistemas de coordenadas locales a modo de ejemplo para una región de imagen según una realización; la figura 15 muestra una representación esquemática de exploración en un plano de objeto por un objetivo de varias aberturas incluyendo los sistemas ópticos de varias aberturas y el sensor de imagen que tiene una disposición 2D de canales ópticos, según una realización;
la figura 16 muestra una vista en sección lateral esquemática incluyendo los sistemas ópticos de varias aberturas y el sensor de imagen para ilustrar las relaciones de la figura 15 según una realización;
la figura 17a muestra una vista en sección lateral esquemática de los sistemas ópticos de varias aberturas que se ajustan en relación con el sensor de imagen, según una realización;
la figura 17b muestra una vista desde arriba esquemática de la situación de la figura 17a según una realización; la figura 18 muestra una imagen esquemática de una disposición de montaje de sistemas ópticos de formación de imágenes de varias aberturas para formar una placa de sensor de imagen; y
la figura 19 muestra una vista en sección lateral esquemática para ilustrar los requisitos relacionados con la alineación de los sistemas ópticos de varias aberturas con un plano de imagen del sensor de imagen según la técnica anterior.
Antes de dar explicaciones detalladas a continuación relacionadas con las realizaciones de la presente invención por medio de los dibujos, debe observarse que los elementos, objetos y/o estructuras que son idénticos o tienen funciones idénticas o acciones idénticas están dotados de números de referencia idénticos en las diversas figuras, de modo que las descripciones de dichos elementos presentados en diferentes realizaciones pueden intercambiarse mutuamente y/o aplicarse mutuamente.
A continuación, debe hacerse referencia a la alineación de sistemas ópticos de varias aberturas y un sensor de imagen con varias regiones de imagen relacionados entre sí. La alineación relativa puede realizarse básicamente en seis grados de libertad, que describen una traslación a lo largo de tres direcciones espaciales x,y y z así como una rotación alrededor de los ejes x,y y z. Además, las siguientes explicaciones se refieren a un eje de balanceo, un eje de cabeceo y un eje de guiñada que se disponen, para una comprensión simplificada, en paralelo, o de manera congruente con los ejes x,y y z, respectivamente, de una región de imagen interior en el espacio tridimensional en el caso de una alineación ideal de los sistemas ópticos de varias aberturas en relación con el sensor de imagen. En este contexto, las coordenadas x,y y/o z se refieren a un sistema de coordenadas respectivamente local dentro de una región de imagen del sensor de imagen. Las direcciones o coordenadas de guiñada, cabeceo y/o balanceo se refieren a un sistema de coordenadas global en el que se disponen el sensor de imagen y/o los sistemas ópticos de varias aberturas.
El sistema de coordenadas de la región de imagen interior del sensor de imagen y el sistema de coordenadas (global) determinado por los ejes de guiñada, cabeceo y balanceo pueden comprender un origen idéntico y, por consiguiente, un punto de giro idéntico cuando, por ejemplo, los sistemas ópticos de varias aberturas se tuercen o se mueven alrededor del origen global. Los sistemas de coordenadas se describen como sistemas de coordenadas cartesianas, siendo también posible usar otros sistemas de coordenadas como la base subyacente. Pueden transformarse mutuamente por medio de una transformación de coordenadas. Las realizaciones descritas a continuación pueden realizarse o implementarse sin ninguna restricción en términos de las ventajas incluso cuando se usan otros sistemas de coordenadas como la base subyacente.
La figura 1 muestra un diagrama de bloques esquemático de un dispositivo 10 para el posicionamiento relativo de los sistemas ópticos de varias aberturas 12 que comprenden varios canales ópticos 14a-c en relación con un sensor de imagen 16. El dispositivo 10 incluye un objeto de referencia 18 dispuesto de manera que el objeto de referencia 18 se representa para una región de imagen 22a-c por canal por los sistemas ópticos de varias aberturas 12 en los canales ópticos 14a-c.
El dispositivo 10 incluye un dispositivo de posicionamiento 24 que puede controlarse para cambiar una localización relativa entre los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16. Ventajosamente, el dispositivo de posicionamiento está configurado para mover los sistemas ópticos de varias aberturas 12 según seis grados de libertad en el espacio tridimensional en relación con el sensor de imagen 16. Sin embargo, también es viable que el dispositivo de posicionamiento 24 esté configurado para mover el sensor de imagen 16 en el espacio tridimensional. Además, es concebible que el dispositivo de posicionamiento mueva los sistemas ópticos de varias aberturas 12 o el sensor de imagen 16 a lo largo de menos de seis grados de libertad en el espacio tridimensional.
El dispositivo 10 incluye, además, un dispositivo de cálculo 26 configurado para determinar, en imágenes del objeto de referencia 18, posiciones reales del objeto de referencia 18 en las al menos tres regiones de imagen 22a-c y para controlar el dispositivo de posicionamiento 24 basándose en una comparación de las posiciones reales con posiciones. Las posiciones puede ser posiciones de referencia para las que se representa el objeto de referencia 18 en un estado ajustado, por ejemplo, posiciones centrales de las regiones de imagen 22a-c (locales) o del sensor de imagen 16 (global).
Por ejemplo, el dispositivo de cálculo 26 está configurado para recibir y evaluar la respectiva imagen en las regiones de imagen 22a-c. El sensor de imagen puede ser un dispositivo de carga acoplada (CCD), un semiconductor de óxido metálico complementario (CMOS) o cualquier otro sensor de imagen digital.
Las regiones de imagen 22a-c pueden disponerse en o dentro el sensor de imagen 16 de manera que estén separadas entre sí. Alternativamente, las regiones de imagen 22a-c también pueden formar parte de una matriz de píxeles continua, que puede distinguirse entre sí, por ejemplo, por medio de diferentes maneras de abordar los respectivos píxeles. Por ejemplo, cada una de las regiones de imagen 22a-c está configurada para capturar una parte del objeto de referencia 18. En la respectiva parte, por ejemplo, puede disponerse un patrón de prueba o parte del mismo de manera que el respectivo patrón de prueba de la respectiva parte se representa en la respectiva región de imagen 22a-c; una vez dispuesto, puede disponerse el patrón de prueba de manera que puede capturarse para una, varias o todas las regiones de imagen 22a-c.
La alineación definida de dos de los componentes de los sistemas ópticos de varias aberturas 12, el sensor de imagen 16 y el objeto de referencia 18, por ejemplo, la alineación definida y/o el posicionamiento del objeto de referencia 18 en relación con el sensor de imagen 16 o en relación con los sistemas ópticos de varias aberturas 12 permite la evaluación de una imagen diana que va a capturarse desde el objeto de referencia 18 en las regiones de imagen 22ac cuando los sistemas ópticos de varias aberturas 12 tienen una alineación o posición libre de errores en relación con el sensor de imagen 16 o se disponen dentro de tolerancias aceptables. La alineación relativa entre los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16 puede llevarse a cabo, por tanto, basándose en una comparación de posiciones reales y posiciones (diana). Esto significa que el dispositivo de cálculo está configurado para controlar el dispositivo de posicionamiento basándose en una comparación de la posición real de una región de imagen en relación con posiciones reales en otras regiones de imagen.
En comparación con una alineación basada en un contraste de la imagen capturada, esto permite alta precisión dado que el contraste que se basa en un intervalo de profundidad de enfoque de los sistemas ópticos de varias aberturas 12 conduce a resultados imprecisos e incluso erróneos. Una distancia entre el objeto de referencia 18 y el sensor de imagen 16 puede, por ejemplo, ser menor de 2 m, menor de 1 m o menor de 50 cm. En principio, la distancia entre el objeto de referencia 18 y el sensor de imagen 16 puede depender de la aplicación, según la implementación del sensor de imagen 16, con los sistemas ópticos de varias aberturas 12 y/o con una resolución o un aumento previsto.
La figura 2 muestra un diagrama de bloques esquemático de un dispositivo 20 que, en comparación con el dispositivo 10, se mejora porque el dispositivo de cálculo 26 está configurado para controlar un dispositivo de fijación 28. El dispositivo de fijación 28 está configurado para endurecer una cola 32 dispuesta entre los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16. Por ejemplo, cuando los sistemas ópticos de varias aberturas 12 se sitúan en relación con el sensor de imagen 16, dichos sistemas ópticos de varias aberturas 12 pueden ponerse en contacto con el sensor de imagen 16 por medio de la cola 32. La cola 32 puede, por ejemplo, ser un adhesivo que puede endurecerse en luz ultravioleta (UV). El dispositivo de fijación 28 puede ser una fuente de luz UV, por ejemplo, que emite luz UV basándose en su accionamiento por el dispositivo de cálculo 26, con el fin de endurecer la cola 32. Alternativamente, la cola 32 puede ser un adhesivo termoendurecible, siendo posible que el dispositivo de fijación 28 esté configurado como una fuente de calor. En principio, el dispositivo de fijación 28 también puede estar configurado para establecer una conexión mecánica diferente entre el sensor de imagen 16 y los sistemas ópticos de varias aberturas 12, por ejemplo, una conexión soldada, remachada, atornillada y/o sujeta con abrazaderas.
Lo que era ventajoso anteriormente es que una posición relativa establecida entre los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16 puede fijarse posiblemente sin ninguna etapa intermedia adicional y, por tanto, puede evitarse la adición de errores de posicionamiento. Alternativamente, el dispositivo de fijación 28 también puede formar parte del dispositivo 20.
El objeto de referencia 18 tiene un patrón en la forma de subpatrones y/o marcas 35a-c dispuestos en el mismo en regiones de referencia 33a-c, de modo que en cada caso se captura un subpatrón 35a-c por uno de los canales ópticos 14a-c y se representa para una respectiva región de imagen 22a-c como un marcador. Esto permite la alineación del sensor de imagen 16 con el patrón de referencia en el objeto de referencia 18 para el ajuste posterior de los sistemas ópticos de varias aberturas, siendo posible que se realice la alineación, por ejemplo, usando leyes ópticas y sistemas ópticos de varias aberturas de desviación cero.
La utilización de un patrón de prueba en el objeto de referencia permite, por ejemplo, la evaluación de las regiones de imagen 22a-c por el dispositivo de cálculo 26 basándose en una detección de borde en las regiones de imagen 22ac. Los algoritmos para esto pueden emplearse de una manera robusta y precisa. Las marcas adecuadas en el objeto de referencia pueden ser cruces, círculos o estructuras en H, por ejemplo, que siguen una disposición geométrica. En principio, también pueden disponerse otras estructuras (sin embargo, preferiblemente tales estructuras que muestran grandes longitudes de borde en relación con estructuras de punto). Aunque en explicaciones anteriores, la disposición de los marcadores se describió siempre como una configuración x, también es viable que los marcadores se produzcan en una constelación de estrella, en una constelación de círculo o similares, mediante las cuales los marcadores se proyectan posiblemente en más, menos y/u otras regiones de imagen en el sensor de imagen. Las realizaciones descritas anteriormente permiten una adaptación sencilla de la determinación de posiciones y de la evaluación de las desviaciones de posición, de modo que pueden aplicarse fácilmente patrones de prueba diferentes.
Las explicaciones posteriores se refieren a las etapas de accionamiento transmitidas desde el dispositivo de cálculo 26 hasta el dispositivo de posicionamiento 24 con el fin de accionar el último de manera que los respectivos sistemas ópticos de varias aberturas se mueven en el espacio tridimensional en relación con el sensor de imagen. Las etapas de compensación de error descritas a continuación se describirán en una secuencia que permite ventajosamente la alineación precisa de los sistemas ópticos de varias aberturas en seis grados de libertad en relación con el sensor de imagen. El dispositivo de posicionamiento 26 puede estar configurado alternativamente para realizar solo una o más de las etapas de compensación de error descritas y/o para realizar las mismas en una secuencia modificada.
La figura 3a muestra una vista en sección lateral esquemática de los sistemas ópticos de varias aberturas 12 que muestran, en relación con el sensor de imagen 16, un error de posición a lo largo de la dirección de balanceo negativa. La figura 3b muestra una vista desde arriba esquemática de esta situación. En la figura 3a, el sensor de imagen 16 se dispone en una placa de circuito impreso 36 y se pone en contacto con la misma, de modo que pueden obtenerse las imágenes capturadas de las regiones de imagen 22a-f desde el sensor de imagen 16 por el dispositivo de cálculo en la placa de circuito impreso 36.
Un error de posición lateral a lo largo de la dirección de balanceo negativa da como resultado una diferencia relativa en las posiciones AR entre el sensor de imagen 16 y los sistemas ópticos de varias aberturas 12. Los centros de microimagen del dispositivo óptico, es decir, los centros 37 de los canales ópticos 14a-f, han experimentado, a modo de ejemplo, un desplazamiento lineal por la diferencia en las posiciones AR a lo largo de la dirección de balanceo negativa.
El objeto de referencia comprende una estructura de objeto de prueba. Con este fin, por ejemplo, las marcas en la forma de una o más cruces “+” se disponen como marcas, por ejemplo, las marcas 35, en el objeto de referencia, que se capturan como marcadores 38a-e por medio de los canales ópticos 14a-f en las respectivas regiones de imagen 22a-e.
Un origen de coordenadas del sistema de coordenadas abarcado por el eje de balanceo, el eje de cabeceo y el eje de guiñada puede disponerse en un origen del sistema de coordenadas x/y/z local de la región de imagen interior 22e. Un dispositivo de cálculo, por ejemplo, el dispositivo de cálculo 26, está configurado para enfocar la marca 38e en relación con la región de imagen 22e. Con este fin, el dispositivo de cálculo puede estar configurado para accionar un dispositivo de posicionamiento, por ejemplo, el dispositivo de posicionamiento 24, de manera que el mismo cambia una distancia de los sistemas ópticos de varias aberturas 12 en relación con el sensor de imagen 16 a lo largo del eje z con respecto a la región de imagen 22e, de modo que el marcador 38e se enfoca en la región de imagen 22e. Esto significa que el dispositivo de cálculo está configurado para determinar una medida de una distancia de aumento de distancias de patrón de la posición real (localización para la que se representa el marcador 38) para la región de imagen interior 22e y para controlar el dispositivo de posicionamiento de manera que el mismo desplaza los sistemas ópticos de varias aberturas 12 a lo largo del eje z, o el eje de guiñada, de modo que la distancia de aumento alcanza un valor diana de distancia de aumento. Por ejemplo, el dispositivo de cálculo 26 puede estar configurado para determinar una extensión del patrón 38e a lo largo de uno o ambos ejes x e/o y de la región de imagen interior 22e y para comparar el mismo con un valor de comparación. Si el patrón capturado del marcador 38e es mayor o menor, puede aumentarse o disminuirse una distancia entre los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16, respectivamente.
El medio de cálculo está configurado para determinar, por ejemplo, posteriormente al mismo, una medida de una diferencia lateral de la posición real del marcador 38e para la región de imagen interior 22e basándose en la desviación de patrón, por ejemplo, con respecto al origen de coordenadas de los ejes x e y. Esto significa que el dispositivo de cálculo está configurado para determinar una medida de una diferencia lateral a lo largo del eje x y una medida de una diferencia lateral para una desviación de patrón a lo largo del eje y. El medio de cálculo está configurado para controlar el dispositivo de posicionamiento de manera que las diferencias laterales alcanzan un respectivo valor diana.
En pocas palabras, esto significa que el dispositivo de posicionamiento desplaza los sistemas ópticos de varias aberturas 12 y/o el sensor de imagen 16 a lo largo del eje x y/o el eje y (en un sistema de coordenadas global a lo largo del eje de balanceo y/o el eje de cabeceo) hasta que se alcanzan los valores diana de diferencia lateral. Por ejemplo, uno o ambos valores diana de diferencia lateral pueden alcanzarse proyectando el marcador 38e en el origen de coordenadas del sistema de coordenadas local de la región de imagen 22e. El intervalo de tolerancia puede definirse, por ejemplo, por una desviación tolerable, por ejemplo, un desplazamiento por uno o dos píxeles, o por una precisión de medida alcanzable. La precisión de medida alcanzable puede basarse, por ejemplo, en la distancia de dos píxeles, de modo que una desviación de la proyección del marcador 38e con respecto al origen de coordenadas de la región de imagen 22e, cuya desviación es menor que una distancia de píxel y posiblemente no se detecta, puede considerarse como que es suficientemente precisa, de modo que se alcanza el respectivo valor diana de diferencia lateral.
La cola 32 se dispone entre la placa de circuito impreso 36 y los sistemas ópticos de varias aberturas 12, de modo que puede fijarse una posición establecida de los sistemas ópticos de varias aberturas 12 en relación con el sensor de imagen 16.
Dicho de otro modo, las figuras 3a y 3b muestran una desviación del objetivo por medio de una traslación x. Un error de posición debido a una traslación y puede producir una imagen resultante equivalente en la vista en sección correspondiente.
Todos los centros de microimagen (centro de los círculos de rayas discontinuas) se desplazan de manera lineal, en la(s) dimensión/dimensiones x e/o y, en relación con centros de las respectivas regiones de imagen por una distancia AR a lo largo del eje de balanceo. La alineación se lleva a cabo posiblemente solo por medio de las coordenadas de imagen determinadas de la estructura de objeto de prueba (es decir, del marcador 38e) en el canal óptico central 14e, que comprende las coordenadas x0,0, y0,0, x¡,j e/o y¡,j que indican una posición relativa de la respectiva región de imagen tal como se describe, por ejemplo, para posiciones en el objeto de referencia para la figura 15.
Inicialmente, la imagen de la estructura de objeto de prueba se enfoca en el canal óptico central (traslación a lo largo del eje z). Posteriormente, el objetivo se desplaza a lo largo del eje x y/o a lo largo del eje y hasta que se localiza el centro geométrico de la imagen del objeto de prueba central en el centro, es decir, en el origen del sistema de coordenadas global O, de la matriz de imagen. Las siguientes condiciones equivalentes pueden cumplirse para la coordenada de imagen medida de la estructura de objeto de prueba:
, , igua l a
( x o,o ,y 0,o) > 0 = (°>°)
r00 - O = 0
2 ,2
con ru =J < j y j
en el que n,j describe, por ejemplo, la coordenada radial del campo de bit que tiene los índices (i,j) en el sistema de coordenadas de imagen global.
Hmax, Tjmax, T-imax, y T-jmax se refieren a la coordenada radial de esa región de imagen exterior que en i, -i, j y -j, respectivamente, comprende una posición máxima en relación con esas regiones de imagen para las que se representan los marcadores.
Dado que el resultado de “cero” posiblemente no puede conseguirse, en realidad, por la diferencia en las coordenadas de imagen medidas, se define cualquier redondeo del resultado hasta una cantidad correspondiente con la precisión deseada del conjunto (valor diana de distancia de aumento y/o valores diana de diferencia lateral) o un valor de control correspondiente que es mayor que la diferencia resultante de la norma, de modo que las desviaciones se encuentran en el intervalo de tolerancia. Esto también se aplica a las condiciones de las etapas de alineación fina descritas a continuación.
Las figuras 3a y 3b así como la alineación de los sistemas ópticos de varias aberturas en relación con el sensor de imagen, cuya alineación se describe en este contexto, puede realizarse como una alineación gruesa que precede una, varias o cualquiera de las etapas de ajuste descritas a continuación.
La figura 4a muestra una vista en sección lateral esquemática de los sistemas ópticos de varias aberturas 12, que muestran un error de cuña AtN con respecto al eje de cabeceo en relación con el sensor de imagen 16. Es decir, con respecto al eje de cabeceo, los sistemas ópticos de varias aberturas 12 se inclinan por el ángulo AtN en relación con el sensor de imagen 16. La figura 4b muestra una vista desde arriba esquemática de la situación de la figura 4a. El patrón de prueba en el objeto de referencia se centra y se enfoca con respecto a la región de imagen central 22a, que significa que el marcador 38e se proyecta sobre la región de imagen 22e de manera que se consiguen el valor diana de distancia y los valores diana de diferencia lateral con respecto al eje x y al eje y. El error de cuña da como resultado que los marcadores 38a-d muestren desviaciones en la(s) dirección/direcciones x e/o y.
El dispositivo de cálculo está configurado para determinar los desplazamientos de los marcadores 38a-d con respecto a los centros, tal como los centros geométricos, de las regiones de imagen 22a-d. Por ejemplo, si la posición focal de los sistemas ópticos de varias aberturas 12 muestra errores en relación con el sensor de imagen 16, el error de cuña puede determinarse por el dispositivo de cálculo por el hecho de que las distancias de los marcadores 38a-e en relación con los centros de las regiones de imagen 22a-d son idénticas para cada par. Un par puede compensarse, por ejemplo, tras la rotación de los sistemas ópticos de varias aberturas 12 alrededor del eje de balanceo (alrededor del eje x - tx), porque el dispositivo de cálculo acciona el dispositivo de posicionamiento de manera que los sistemas ópticos de varias aberturas 12 se hacen rotar alrededor del eje de balanceo hasta que las distancias de los marcadores 38a y 38c, y 38b y 38d, respectivamente, son idénticas en relación con los respectivos centros de las regiones de imagen 22a-d.
Además, puede compensarse un error de cuña provocado por una rotación alrededor del eje de cabeceo (alrededor del eje y - ty) porque el dispositivo de cálculo acciona el dispositivo de posicionamiento de manera que el mismo hace rotar los sistemas ópticos de varias aberturas 12 alrededor del eje de cabeceo hasta que las distancias de los marcadores 38a y 38b, y 38c y 38d, respectivamente, son idénticas en relación con los respectivos centros de las regiones de imagen 22a-d. Esto significa que las respectivas distancias de los marcadores 38a-d en relación con los centros de las regiones de imagen 22a-d pueden comprender una medida de una diferencia de error de cuña de distancias de patrón de la posición real con respecto a la respectiva región de imagen exterior 22a-d y que el dispositivo de cálculo está configurado para determinar dicha diferencia de error de cuña. Inclinando los sistemas ópticos de varias aberturas 12 en relación con el eje de balanceo o el eje de cabeceo, las diferencias de error de cuña pueden cambiarse de manera que alcanzan un valor de balanceo diana o un valor de cabeceo diana que, tal como se describió anteriormente, pueden encontrarse alrededor de un valor de cero dentro de un intervalo de tolerancia. Antes de la compensación de error de cuña, puede realizarse la alineación gruesa tal como se describió para las figuras 3a y 3b.
Dicho de otro modo, para alinear los sistemas ópticos de varias aberturas 12 durante una torsión tx alrededor del eje x y/o durante una torsión ty alrededor del eje y, esto significa que, durante la compensación de error de cuña, inicialmente la imagen de la estructura de objeto de prueba se enfoca en el canal óptico central, es decir, se realiza la traslación a lo largo del eje z. Posteriormente, la imagen se centra en el origen de imagen O = (0,0) desplazándose a lo largo del eje x y/o el eje y. El error de cuña da como resultado distancias radiales diferentes de las posiciones medidas de las imágenes de las estructuras de objeto de prueba en los canales de esquina, es decir, de las regiones de imagen exteriores 22a-d, desde los respectivos orígenes de imagen. Esto puede corregirse al menos parcialmente haciendo rotar el objetivo de varias aberturas por el eje x y/o el eje y (el eje de balanceo y/o el eje de cabeceo) hasta que se cumplan las siguientes condiciones para las regiones de imagen exteriores 22a-d:
tras la rotación alrededor del eje x (tx): r. ig uala rimax,_¡max equivalente a
i m a x , j m ax
ri max, j max — r i max, — j max = 0
asi como r_
i m a x , j m a x iu * - r-imax__lmax equivalente a
r — i . max, j max — r i . max, — j max = 0
tras la rotación alrededor del eje y (ty): r.
im a x ,j m ax ÍE^ L^ —f~im.ax,jm.ax equivalente a
r i max, j max — r i max, j max = 0
así comor
i m ax, —j m ax ^ ^ J-im ax.-jm ax equivalente a
ri max,—j max — r i max, —j max = 0
Los errores de cuña pueden ser axialmente simétricos con respecto al eje de balanceo (torsión alrededor del eje de balanceo) y/o con respecto al eje de cabeceo (torsión alrededor del eje de cabeceo) para las cuatro regiones de imagen exteriores.
Así, las figuras 4a y 4b muestran la desviación del objetivo por una torsión alrededor del eje y (error de cuña y); la torsión alrededor del eje x puede producir una imagen resultante equivalente en la vista lateral equivalente correspondiente. Los resultados de una torsión alrededor de un ángulo positivo o negativo de rotación también pueden determinarse y/o compensarse por analogía con explicaciones anteriores.
La figura 5 muestra una vista desde arriba esquemática de los sistemas ópticos de varias aberturas 12, que se tuercen, en relación con el sensor de imagen 16, por un ángulo ó alrededor del eje de guiñada, o eje z, de la región de imagen central 22e. El dispositivo de cálculo está configurado, por ejemplo, para determinar la distancia de los marcadores 38a-d desde los centros de las respectivas regiones de imagen exteriores 22a-d. Basándose en la rotación por el ángulo ó, los marcadores 38a-d tienen, cada uno, una distancia desde el respectivo centro. Dicha distancia es más o menos idéntica a lo largo de la respectiva dirección x para las regiones de imagen 22a y 22b. Asimismo, la distancia para las regiones de imagen 22c y 22d es idéntica en la dirección x. En la dirección y de la respectiva región de imagen, la distancia es aproximadamente idéntica para las regiones de imagen 22a y 22c, y 22b y 22d, respectivamente. Una medida de las distancias x con respecto a las regiones de imagen 22a y 22b, y 22c y 22d, respectivamente, así como una medida de las distancias a lo largo de la dirección y para las regiones de imagen 22a y 22c, y 22b y 22d, respectivamente, puede determinarse por el dispositivo de cálculo como una medida de una diferencia de rotación de la desviación de patrón para cada una de las regiones de imagen exteriores 22a-d.
El dispositivo de cálculo está configurado para controlar el dispositivo de posicionamiento de manera que el mismo hace rotar los sistemas ópticos de varias aberturas 12 y/o el sensor de imagen 16 alrededor del eje de guiñada. La diferencia de rotación ó puede reducirse por medio de la rotación alrededor del eje de guiñada hasta que alcanza un valor de rotación diana que es cero, por ejemplo, dentro de un intervalo de tolerancia. El error de rotación puede ser rotacionalmente simétrico, para las cuatro regiones de imagen exteriores 22a-d, con respecto al origen del sistema de coordenadas global.
Dicho de otro modo, tras una torsión tz alrededor del eje t de la región de imagen central, esto significa que con el fin de corregir la torsión z, la alineación implica inicialmente enfocar la imagen de la estructura de objeto de prueba en el canal óptico central (traslación a lo largo del eje z) y posteriormente centrar la misma en el origen de imagen O = (0,0) desplazando la misma a lo largo del eje x y/o el eje y. La torsión alrededor del eje z da como resultado un desplazamiento, que es igual en cantidad para canales ópticos 14a-d situados de manera simétrica alrededor de la región de imagen interior central 22e de las imágenes de las estructuras de prueba 38a-d en el sistema de coordenadas respectivamente local, es decir:
r -imax,jmax = r -imax,—jmax = r imax,—j max = r imax,jmax con coordenadas locales radiales ^ j
Figure imgf000011_0001
en e ll respectivo canal óptico exterior 14a-e con el índice (ij) y/o la región de imagen asociada 22a-e.
La figura 6a muestra una vista en sección lateral esquemática de los sistemas ópticos de varias aberturas 12 que comprenden, en relación con el sensor de imagen 16, una distancia G demasiado pequeña en comparación con un valor diana Gdiana a lo largo del eje de guiñada. La distancia G puede, en los sistemas ópticos de varias aberturas 12, referirse a una distancia entre una superficie, orientada hacia el sensor de imagen 16, de una estructura de eliminación de luz artificial 39 de los sistemas ópticos de varias aberturas 12 y una superficie del sensor de imagen 16 que se orienta hacia la estructura de eliminación de luz artificial 39. Alternativamente, la distancia G también puede referirse a una distancia entre una superficie del sensor de imagen 16 que se orienta hacia los sistemas ópticos de varias aberturas 12 y la de un plano de referencia diferente de los sistemas ópticos de varias aberturas 12, por ejemplo, un plano de lente que se orienta hacia la región de objeto o el sensor de imagen, o un plano de referencia diferente. Además, la distancia G también puede referirse a un plano de referencia diferente con respecto al sensor de imagen 16, por ejemplo, a una superficie sobre la que se dispone el sensor de imagen 16 en la placa de circuito impreso 32. El valor diana Gdiana puede referirse a la distancia focal trasera de los sistemas ópticos de varias aberturas 12 y/o a la distancia G entre los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16 en el que puede obtenerse una nitidez deseada u óptima de la imagen proyectada en el plano de imagen. El valor diana G diana puede denominarse un valor diana de distancia. Alternativa o adicionalmente, el valor diana G diana puede referirse a cualquier otro valor diana de una distancia entre los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16. Una desviación, por ejemplo, una diferencia, entre el valor diana de distancia Gdiana y la distancia G puede denominarse una diferencia en las distancias AG, por ejemplo, representada por AG = G-Gdiana o AG = Gdiana - G. Si la diferencia en las distancias tiene un valor diferente de 0, esto puede dar como resultado un error de aumento determinable, lo que significa que la región de objeto posiblemente se representa en una imagen demasiado grande o demasiado pequeña.
La figura 6b muestra una vista desde arriba esquemática de los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16 para esta situación. En comparación con una distancia G que se establece correctamente, de modo que, por ejemplo, la diferencia en las distancias AG tiene un valor aproximado de 0, el objeto de referencia que comprende los marcadores 38a-e puede representarse o reflejarse de manera aumentada basándose en la distancia G demasiado pequeña y, por consiguiente, de una diferencia en las distancias AG que tienen un valor diferente de 0 (por ejemplo, menor que 0). Esto da como resultado que los marcadores representados en las regiones de imagen exteriores 22a-d comprendan un aumento de distancia radial, a lo largo del eje de balanceo y el eje de cabeceo globales, en relación con el centro de la región de imagen interior central 22e. Con respecto a los respectivos sistemas de coordenadas x/y locales, esto significa que el marcador 38a se desplaza, dentro de la región de imagen 22a, hacia valores negativos x y positivos y, el marcador 38b se desplaza hacia valores positivos x y positivos y, el marcador 38c se desplaza hacia valores negativos x y negativos y, y el marcador 38d se desplaza hacia valores positivos x y negativos y. Un desplazamiento correspondiente es más o menos igual a lo largo de la respectiva dirección x para las regiones de imagen 22b y 22d, y 22a y 22c, respectivamente, así como a lo largo de la respectiva dirección y para las regiones de imagen 22a y 22b, y 22c y 22d, respectivamente, de modo que en el presente documento, también existe una simetría con respecto a los orígenes de coordenadas locales y/o globales.
Con referencia a la figura 6a, el dispositivo de cálculo está configurado para determinar una medida de la diferencia en las distancias AG determinando, por ejemplo, para al menos una, varias o cada una de las regiones de imagen exteriores 22a-d, las coordenadas locales radiales en las que se representa el respectivo marcador 38a-d. Una desviación desde el valor cero, que significa que el respectivo marcador 38a-d se sitúa fuera del respectivo centro (x = 0, y = 0) de la respectiva región de imagen 22a-d, puede determinarse como la medida de la diferencia en las distancias AG de la desviación de patrón por medio del dispositivo de cálculo. El dispositivo de cálculo está configurado para controlar el dispositivo de posicionamiento de manera que el mismo desplaza los sistemas ópticos de varias aberturas 12 a lo largo del eje de guiñada, de modo que las diferencias en la distancia AG de las regiones de imagen 22a-d alcanzan el valor de distancia diana Gdiana, por ejemplo, porque la distancia se varía o se cambia para tal tiempo hasta que los marcadores 38a-d se representan en los centros de las regiones de imagen 22a-d. El valor diana de diferencia en las distancias puede encontrarse, por ejemplo, alrededor del valor cero dentro de un intervalo de tolerancia para la diferencia en las distancias AG o alrededor del valor diana AGdiana dentro del intervalo de tolerancia. Una vez que se ha compensado cualquier error de inclinación, tal como se ha descrito, por ejemplo, para las figuras 4a y 4b, la diferencia en las distancias AG puede ser idéntica con respecto a las regiones de imagen exteriores 22ad.
La figura 7a muestra una vista en sección lateral esquemática de una situación en la que los sistemas ópticos de varias aberturas 12 en relación con el sensor de imagen 16 comprenden una distancia G demasiado grande en comparación con el valor diana Gdiana, es decir, los marcadores 38a-d se desplazan en la dirección de la región de imagen interior 22d en cada caso. La figura 7b muestra una vista desde arriba esquemática de la situación de la figura 7a. El dispositivo de cálculo está configurado para controlar el dispositivo de posicionamiento para mover los sistemas ópticos de varias aberturas 12 y/o el sensor de imagen 16 de tal manera que se reduce la distancia G y, por consiguiente, una medida de la diferencia en las distancias AG, de modo que las diferencias en la distancia AG alcanzan el valor diana (diferencia en la distancia).
Dicho de otro modo, la diferencia entre la distancia focal diana y la distancia focal real debe reducirse en la medida de lo posible. Con este fin, puede usarse la determinación del aumento en la región de imagen 22a. Si debido a las tolerancias de fabricación la longitud focal diana y, por tanto, el valor diana para la distancia focal trasera de los sistemas ópticos no se alcanzan de manera precisa, puede medirse el aumento en la región de imagen 22e, tras la alineación gruesa, y el patrón de prueba para la alineación fina puede adaptarse en consecuencia usando el conocimiento del aumento realizado (o de una longitud focal derivada del mismo). Posiblemente puede descuidarse un valor numérico exacto de la distancia focal trasera.
Con este fin, por ejemplo, durante la alineación durante la traslación a lo largo del eje z (corrección del error de distancia), la imagen de la estructura de objeto de prueba se enfoca inicialmente de manera gruesa en el canal óptico central (traslación a lo largo del eje z) y se centra posteriormente en el origen de imagen O = (0,0) desplazándose a lo largo del eje z y/o el eje y. En el caso de una distancia z demasiado pequeña del objetivo de varias aberturas en relación con el sensor de imagen, las imágenes de las estructuras de prueba en las esquinas de la matriz se desplazan hacia coordenadas de imagen global más grandes (en términos de magnitud). En el caso de una distancia demasiado grande, se invierte dicho desplazamiento, de modo que las imágenes de las estructuras de prueba se desplazan hacia coordenadas de imagen global más pequeñas (en términos de magnitud). En consecuencia, la distancia z se varía durante tal tiempo hasta que las imágenes de la estructura de prueba se encuentran en los centros de los respectivos canales y/o hasta que se cumple la siguiente condición, mientras se tiene en cuenta el intervalo de tolerancia: r - i max, j max = r - i max, - j m ax = r i max, - j . max = r i max, j m . ax = 0
La figura 8 muestra un diagrama de flujo esquemático de un método 800 para corregir una desviación de los sistemas ópticos de varias aberturas en relación con el sensor de imagen por medio de una traslación x y/o una traslación y, tal como se describe para las figuras 3a y 3b. El método 800 comprende dos fases de procedimiento 810 y 850. Por medio de la fase de procedimiento 810, puede compensarse un error de posición a lo largo del eje x, o eje de balanceo. Por medio de la fase de procedimiento 850, puede compensarse un error de posición por medio de una traslación a lo largo de la dirección y, o dirección de cabeceo, siendo posible, una vez que se ha realizado la fase de procedimiento 810 o 850, cambiar a la respectiva fase de procedimiento adicional o finalizar el procedimiento 800. El procedimiento 800 puede empezarse alternativamente con la fase de procedimiento 810 o la fase de procedimiento 850, describiendo las ilustraciones posteriores, a modo de ejemplo, un comienzo del método 800 por medio de la fase de procedimiento 810. Esto significa que las fases de procedimiento 810 y 850 y, por consiguiente, la corrección de la posición a lo largo de la dirección x y la dirección y puede realizarse de manera secuencial y que, por consiguiente, el valor de balanceo diana y el valor de cabeceo diana se alcanzan de manera secuencial uno después del otro.
Una etapa 812 de la fase de procedimiento 810 implica enfocar el canal óptico central o una subzona del objeto de referencia en relación con el canal óptico central. Una etapa 814, que sigue a la etapa 812, implica determinar, por ejemplo, por medio del dispositivo de cálculo, la posición de la respectiva estructura de prueba, es decir, del marcador que se representa en la región de imagen interior, desde P0,0 en la respectiva imagen. Por tanto, la determinación se basa en coordenadas globales del canal óptico central P0,0, tal como se describe para la figura 15.
Una etapa 816, que sigue a la etapa 814, implica almacenar la posición determinada a lo largo del eje de balanceo, o eje x local, como valor inicial x0,0, por ejemplo, en un almacenamiento de valor de referencia del dispositivo de cálculo.
Una etapa 818 implica desplazar los sistemas ópticos de varias aberturas, en relación con el sensor de imagen, a lo largo del eje x en una etapa de traslación. Una distancia focal de la etapa de traslación puede ser, por ejemplo, una distancia focal de un motor o accionador del dispositivo de posicionamiento o de una cantidad de control para controlar el dispositivo de posicionamiento. Una etapa 822, que sigue a la etapa 818, implica determinar la posición de la estructura de prueba desde P0,0 en la región de imagen interior, tal como se describe para la etapa 814.
En una comparación 824, que sigue a la etapa 822, el dispositivo de cálculo está configurado para comparar la posición determinada con el origen del sistema de coordenadas global O, por ejemplo, formando una diferencia. Si la diferencia tiene un valor diferente de cero dentro de un intervalo de tolerancia (decisión “no”), el dispositivo de cálculo está configurado para calcular, en una etapa 826, un distancia focal restante basándose en el valor inicial almacenado en la etapa 816 y para cambiar al estado 818 con el fin de realizar una etapa de traslación adicional a lo largo del eje x. Si en la decisión 824, la diferencia tiene un valor de cero dentro del intervalo de tolerancia (decisión “sí”), los sistemas ópticos de varias aberturas pueden calificarse como que están alineados, en relación con el sensor de imagen, a lo largo del eje x, o eje de balanceo, de modo que se alcanza un extremo 828 desde el que puede cambiarse a la fase de procedimiento 850. Esto significa que la etapa 818 posiblemente se repite durante tal tiempo hasta que se alcanza el valor de balanceo diana.
Una etapa 852 de la fase de procedimiento 850 implica enfocar la imagen recibida, por ejemplo, el marcador 38e, en relación con el canal óptico central, por ejemplo, el canal óptico 14e. Una etapa 854, que sigue a la etapa 852, implica determinar la posición de la estructura de prueba en la imagen. La posición determinada a lo largo del eje de cabeceo, o eje y local, se almacena como el valor inicial y0,0 en una etapa 856.
Una etapa 858, que también sigue a la etapa 854, implica realizar una etapa de traslación a lo largo del eje y, o el eje de cabeceo, es decir, cambiar una posición relativa entre el sensor de imagen y los sistemas ópticos de varias aberturas a lo largo del eje y. Una etapa 862, que sigue a la etapa 858, implica determinar de nuevo la posición de la estructura de prueba en la región de imagen interior. Tal como se describe para la decisión 824, una decisión 864, que sigue a la etapa 862, implica realizar una comparación en cuanto a si la posición y0,0 coincide o no con el centro del sistema de coordenadas global O. Si este no es el caso, es decir, si la decisión produce una respuesta “no”, una etapa 866 implica calcular la distancia focal restante basándose en la posición y el valor inicial almacenado en la etapa 856. Desde la etapa 866, vuelve a cambiarse a la etapa 858 y se realiza otra etapa de traslación a lo largo del eje y. Esto se sigue durante tal tiempo hasta que la decisión 864 proporciona el resultado de “sí”, de modo que los sistemas ópticos de varias aberturas pueden considerarse como que están alineados, en relación con el sensor de imagen, a lo largo del eje y, y de modo que en una etapa 868 puede cambiarse a la fase de procedimiento 810 o a la etapa 812. Alternativamente, el método 800 puede finalizarse tras la decisión 824 o 864 si la misma se responde por “sí”. Esto significa que el dispositivo de cálculo está configurado para controlar el dispositivo de posicionamiento basándose en una comparación de la posición real de una región de imagen con una posición diana, por ejemplo, el origen de coordenadas, en relación con la región de imagen.
Dicho de otro modo, la figura 8 muestra una visión general resumida de la alineación fina con fines de centrado. El procedimiento puede comenzarse, de manera equivalente, o bien en la dimensión x o bien en la y.
La figura 9 muestra un diagrama de flujo esquemático de un método 900 que puede realizarse por el dispositivo de cálculo con el fin de compensar el error de cuña tal como se describe con referencia a las figuras 4a y 4b. El método 900 incluye una fase de procedimiento 910 y una fase de procedimiento 950. Por medio de la fase de procedimiento 910, el error de cuña en relación con el eje x, es decir, el eje de balanceo, puede reducirse o compensarse. Por medio de la fase de procedimiento 950, el error de cuña en relación con el eje y, es decir, el eje de cabeceo, puede reducirse o compensarse. Las fases de procedimiento 910 y 950 pueden realizarse de manera independiente entre sí, siendo posible cambiar desde la fase de procedimiento 910 hasta la fase de procedimiento 950 o cambiar desde la fase de procedimiento 950, una vez que se ha realizado la misma, hasta la fase de procedimiento 910. Esto significa que el método 900 puede comenzarse con la fase de procedimiento 910 o con la fase de procedimiento 950.
A modo de ejemplo, el método 900 se describirá a continuación de tal manera que comienza con la fase de procedimiento 910. Una etapa 912 implica enfocar el canal óptico central, por ejemplo, el canal óptico 14e, en relación con la región de imagen 22e. La etapa puede realizarse de la misma manera que la etapa 812. Una etapa 914, que sigue a la etapa 912, implica centrar el canal óptico central por medio de una traslación en el plano x-y. La etapa 914 puede realizarse de la misma manera que la etapa 814.
Una etapa 916, que sigue a la etapa 914, implica determinar las posiciones de la prueba desde puntos de esquina en la imagen, lo que significa que, por ejemplo, las marcas de referencia exteriores, por ejemplo, los marcadores 38a-d, se determinan en términos de sus respectivas regiones de imagen exteriores y sus posiciones en las mismas. Las posiciones determinadas se almacenan, en una etapa 918, como valores iniciales para el posterior posicionamiento. Un valor inicial rimax,jmax, Hmax,-jmax, r-imax,jmax y r-imax,-jmax puede describir la posición de la estructura de prueba en las regiones de imagen exteriores por la dirección máxima (o máxima negativa) a lo largo del eje de balanceo (i) y el eje de cabeceo (j), respectivamente.
Partiendo de la etapa 916, una etapa 922 implica controlar el dispositivo de posicionamiento de manera que se hagan rotar los sistemas ópticos de varias aberturas, en relación con el sensor de imagen, alrededor del eje de balanceo en un aumento angular. Tal como se hizo en la etapa 916, una etapa 924, que sigue a la etapa 922, implica determinar las posiciones de las estructuras de prueba desde puntos de esquina en la imagen. En una decisión 926, que sigue a la determinación de posiciones en la etapa 924, se realiza una comparación en cuanto a si las distancias de radio o la diferencia rimax,jmax — Hmax,-jmax comprende un valor de 0 dentro del intervalo de tolerancia, o si una diferencia r-imax,jmax — rimax,-jmax comprende un valor de 0 dentro del intervalo de tolerancia, lo que significa que se hace una determinación en cuanto a si la medida de la diferencia de error de cuña alcanza un valor de balanceo diana o un valor de cabeceo diana.
Si la decisión 926 se responde por “no”, es decir, si no se alcanza al menos uno de los valores de cabeceo diana y balanceo diana, una etapa 928 implica calcular la distancia focal restante mientras se tienen en cuenta los valores iniciales almacenados en la etapa 918. Partiendo de la etapa 928, el procedimiento vuelve a la etapa 922 con el fin de realizar otra rotación alrededor del eje de balanceo por un aumento angular. Sin embargo, si la decisión 926 se responde por “sí”, es decir, si se alcanzan ambos valores diana, el error de cuña relacionado con la rotación alrededor del eje de balanceo puede considerarse como que se ha compensado y, partiendo de un estado final 932, el procedimiento puede cambiar a la fase de procedimiento 950, o el método puede finalizarse.
Una etapa 952 de la fase de procedimiento 950 implica enfocar el canal óptico central, tal como se describe para la etapa 912. Una etapa 954, que sigue a la etapa 952, implica centrar el canal óptico central, tal como se describe para la etapa 914. Una etapa 956, que sigue a la etapa 954, implica determinar las posiciones de las estructuras de prueba exteriores desde puntos de esquina en la imagen, tal como se describe para la etapa 916. Basándose en la etapa 946, los valores iniciales se almacenan en una etapa 958, tal como se describe para la etapa 918. Una etapa 962, que sigue a la etapa 956, implica controlar el dispositivo de posicionamiento de manera que los sistemas ópticos de varias aberturas se hacen rotar (se inclinan) en relación con el eje de cabeceo. Esto significa que, asimismo, esta etapa se realiza por analogía con la fase de procedimiento 910, es decir, la etapa 922, siendo la diferencia que la rotación se realiza alrededor del eje de cabeceo. Una etapa 964, que sigue a la etapa 962, implica determinar una posición, tal como se realizó, por ejemplo, en la etapa 956, con el fin de determinar un cambio en la posición que se consiguió por la etapa 962.
Una decisión 966 implica verificar si las diferencias de error de cuña han alcanzado el valor de cabeceo diana. Esto puede llevarse a cabo, por ejemplo, por una formación de diferencia rimax,jmax — r-imax,jmax así como rimax,-jmax — r-imax,-jmax. Las diferencias pueden verificarse en términos de si adoptan el valor 0 dentro del intervalo de tolerancia, lo que significa que las respectivas desviaciones de una formación de diferencia rimax,jmax, r-imax,jmax, rimax,-jmax y r-imax,-jmax son iguales en magnitud. Si la decisión se responde por “no”, una etapa 968 implica calcular la distancia focal restante mientras se tienen en cuenta los valores iniciales de la etapa 958 y vuelve a cambiarse a la etapa 962 con el fin de realizar otra rotación de los sistemas ópticos de varias aberturas alrededor del eje de cabeceo. Si en la decisión 966 (decisión de “sí”) la diferencia de error de cuña ha alcanzado el valor de cabeceo diana, el error de cuña de cabeceo puede considerarse como que se ha compensado y el método puede finalizarse, o puede cambiarse a la fase de procedimiento 910.
La figura 10 muestra un diagrama de flujo esquemático de un método 1000 para compensar una torsión alrededor del eje de guiñada, o eje z, de la región de imagen interior 22e. El método 1000 puede emplearse para compensar una situación de error tal como se describe para la figura 5. Una etapa 1002 implica enfocar el canal óptico central, tal como se describe para las etapas 812, 852, 912 y 952. Una etapa 1004 implica centrar la región de imagen interior, tal como se describe para las etapas 814, 854, 914 o 954. Una etapa 1006, que sigue a la etapa 1004, también implica determinar las posiciones de las estructuras de prueba, es decir, de los marcadores 38a-d, desde puntos de esquina en la imagen. Las posiciones se determinan como que se sitúan en la respectiva región de imagen, por ejemplo, en una de las regiones de imagen exteriores 22a-d y se almacenan como valores iniciales (x,y)imax,jmax, (x,y)imax,-jmax, (x,y)-imax,jmax y (x,y)-imax,-jmax (etapa 1008).
Una etapa 1012 implica controlar el dispositivo de posicionamiento de manera que los sistemas ópticos de varias aberturas realicen una rotación alrededor de al menos un aumento angular en relación con el eje de guiñada, o eje z, de la región de imagen interior. El aumento angular puede ser, por ejemplo, una distancia focal de un motor o de un accionador que mueve los sistemas ópticos de varias aberturas, o puede ser un parámetro de control del dispositivo de posicionamiento.
Una etapa 1014, que sigue a la etapa 1012, implica otra determinación de posicionamiento, tal como se describe para la etapa 1006. Una decisión 1016, que sigue a la determinación de la posición 1014, implica verificar si la diferencia de rotación ha alcanzado un valor de rotación diana, por ejemplo, por medio de una formación de diferencia ximax,jmax — ximax,jmax _ 0, x-imax,-jmax — ximax,-jmax _ 0, y-imax,jmax — y-imax,-jmax _ 0 y/o yimax,jmax — yimax,-jmax = 0, estando el valor de 0 sometido a tolerancias en el presente documento también. Si no se satisface al menos una de las ecuaciones, es decir, si la decisión 1016 produce la respuesta “no”, se cambia a la etapa 1018, que implica calcular la distancia focal restante mientras se tienen en cuenta los valores iniciales almacenados en la etapa 1008. Partiendo de la etapa 1018, vuelve a cambiarse a la etapa 1012 y realiza otra rotación de los sistemas ópticos de varias aberturas. Sin embargo, si en la decisión 1016 se satisfacen todas las ecuaciones, es decir, si la decisión produce el resultado de “sí”, el error de rotación puede considerarse como que se ha compensado y el método 1000 puede finalizarse en una etapa 1022. Partiendo de la etapa 1022, puede cambiarse, por ejemplo, para compensar los errores de aumento trasladando los sistemas ópticos de varias aberturas a lo largo del eje z, o el eje de guiñada.
La figura 11 muestra un diagrama de flujo esquemático de un método 1100 para alinear los sistemas ópticos de varias aberturas trasladándolos a lo largo del eje z, o el eje de guiñada, tal como se describe para las figuras 6a, 6b, 7a y 7b.
Una etapa 1102 implica enfocar el canal óptico central. Una etapa 1104, que sigue a la etapa 1102, implica centrar por medio de una traslación en x/y, tal como se describe, por ejemplo, para la etapa 914.
Una etapa 1106, que sigue a la etapa 1104, implica determinar las posiciones de las estructuras de prueba desde puntos de esquina en la imagen, siendo posible que la determinación de posiciones se realice mientras se usan los respectivos sistemas de coordenadas locales de las regiones de imagen exteriores 22a-d. Las posiciones determinadas se almacenan como valores iniciales r' -imax,-jmax, r imax,-jmax, r -imax,jmax y r imax,jmax en una etapa 1108. Una etapa 1112 implica realizar, partiendo de la etapa 1106, una traslación a lo largo del eje z, o el eje de guiñada, es decir, accionar el dispositivo de posicionamiento de manera que los sistemas ópticos de varias aberturas se desplacen a lo largo del eje de guiñada.
Una etapa 1114, que sigue a la etapa 1112, implica realizar otra determinación de posición, tal como se describe para la etapa 1106. Una decisión 1116 implica verificar si las posiciones determinadas en la etapa 1114 corresponden a los respectivos orígenes de coordenadas locales, por ejemplo, en la forma de una ecuación r' -imax,jmax _ r-imax,-jmax _ r imax,-jmax — r'imax,jmax = 0. Esto significa que se realiza una verificación en cuanto a si una diferencia en las distancias alcanza un valor diana de diferencia en las distancias. En el presente documento, puede obtenerse una medida de la diferencia en las distancias, por ejemplo, por medio de la diferencia (distancia) entre una localización detectada donde se proyecta el respectivo patrón de prueba y el origen de coordenadas local. Si la decisión 1116 produce el resultado de “no”, una etapa 1118 implicará calcular la distancia focal restante mientras se tienen en cuenta los valores iniciales almacenados en la etapa 1108. Partiendo de la etapa 1118, por ejemplo, vuelve a cambiarse a la etapa 1112 con el fin de realizar otro cambio en la posición de los sistemas ópticos de varias aberturas en relación con el sensor de imagen. Si la decisión 1116 produce el resultado de “sí”, el error de aumento, es decir, la desviación AG a lo largo del eje de guiñada, puede considerarse como que se ha compensado y el método 1100 puede finalizarse. Por ejemplo, un final la etapa 1122 del método 1100 puede implicar iniciar la fijación del objetivo.
La figura 11 puede describirse como un resumen de la visión general de la alineación fina de la traslación a lo largo del eje z.
La figura 12 muestra un diagrama de flujo esquemático de un método 1200 tal como puede realizarse, por ejemplo, antes de cualquiera de los métodos 800, 900, 1000 o 1100 con el fin de permitir un flujo robusto de dichos métodos. Una etapa 1202 implica una alineación gruesa del objetivo de varias aberturas, es decir, de los sistemas ópticos de varias aberturas, en relación con el sensor de imagen. Esto puede incluir, por ejemplo, alinear el sensor de imagen en relación con el patrón de prueba, de modo que los marcadores de prueba 38 se proyectan sobre las regiones de imagen correspondientes 22 del sensor de imagen. Además, los sistemas ópticos de varias aberturas pueden disponerse de manera que los marcadores siguen proyectándose sobre las regiones de imagen. Esto puede complementarse, por ejemplo, por una etapa 1204, que sigue a la etapa 1202, porque los sistemas ópticos de varias aberturas se alinean en relación con el sensor de imagen realizando una alineación en el plano x/y o el plano balanceo/cabeceo, hasta que se representan los marcadores de texto en las regiones de imagen. Una etapa 1206 implica enfocar el canal óptico central.
Una etapa 1208, que sigue a la etapa 1206, implica determinar el aumento en el canal óptico central o para la región de imagen interior. Esto puede llevarse a cabo, por ejemplo, midiendo el tamaño de imagen (tamaño real) de un objeto de prueba, es decir, del objeto de referencia. Dado que se conocen las propiedades ópticas de los sistemas ópticos de varias aberturas así como las distancias entre el objeto de referencia y las regiones de imagen, esto puede realizarse basándose en las leyes ópticas. Una decisión 1212, que sigue a la etapa 1208, implica verificar si el aumento determinado coincide con el diseño seleccionado del patrón de prueba. Si la decisión 1212 se responde por “sí”, el método cambia a la etapa 1214 realizando una alineación fina de los sistemas ópticos de varias aberturas en relación con el sensor de imagen, por ejemplo, por medio de uno o más de los métodos 800, 900, 1000 y/o 1100.
Si la decisión 1212 produce el resultado de “no”, una etapa 1216 implica adaptar el patrón de prueba y, posteriormente, el método cambia a la etapa 1214. Así, es posible determinar si el patrón de prueba es adecuado para el respectivo sensor de imagen y/o los sistemas ópticos de varias aberturas. La adaptación del patrón de prueba puede incluir, por ejemplo, cambiar una o más posiciones y/o formas del patrón, de modo que el patrón de prueba puede proyectarse en las regiones de imagen.
Dicho de otro modo, el procedimiento de alineación de manera activa de los sistemas ópticos de varias aberturas en relación con el sensor de imagen se realiza por medio de la evaluación de las posiciones absolutas y relativas de las imágenes en la matriz de imagen que se toman de las estructuras de objeto por los canales ópticos individuales.
Para la implementación práctica, el módulo de sistemas ópticos se alinea inicialmente de manera gruesa con el sensor de imagen y se establece una imagen enfocada en el canal óptico central. En la etapa posterior, el aumento m en el canal óptico central se determina midiendo el tamaño de imagen de un objeto de prueba B (dimensión de objeto en la imagen: B = número de píxeles a lo largo del borde de objeto medido * distancia de píxel) según la fórmula conocida m = .^ La cantidad G en la misma es el tamaño del objeto, es decir, la extensión conocida del objeto de prueba en el plano de objeto. Dicha cantidad G se predefine, según la distancia de objeto (s), con los parámetros del objetivo de varias aberturas que se conocen a partir de la construcción de los sistemas ópticos (por ejemplo, el tamaño del intervalo de visión de un canal óptico). El aumento calculado da como resultado la longitud focal (f), que se crea, de hecho, por el procedimiento de fabricación del canal óptico central según:
Figure imgf000016_0001
En esta forma de la ecuación, la distancia de cámara a sujeto (s) va a insertarse con un signo negativo.
La longitud focal real (f) del canal central también pudo determinarse anteriormente, sin embargo, por medio de otros métodos (por ejemplo, un método de autocolimación, exploración óptica o mediciones de perfil sin contacto, entre otros) o puede conocerse ya. En caso de que la longitud focal real se desvíe de la longitud focal hacia la que está orientada en la construcción de los sistemas ópticos, tiene lugar un escalado de la distribución geométrica de las líneas promedio de visión dentro del plano de objeto durante el enfoque del objetivo de varias aberturas. Así, en este caso, debe adaptarse la colocación de las estructuras de objeto, que es una condición previa para la alineación activa (véase la figura 7). Los nuevos puntos de intersección de las líneas de visión promedio de los canales ópticos con el plano de objeto pueden determinarse cambiando la longitud focal al valor real desde el diseño de los sistemas ópticos (por ejemplo, software de simulación de trazado por haz).
Dicho de otro modo, la figura 12 muestra una visión general resumida del flujo de la preparación del procedimiento de alineación fina. Por medio del método 1200, el objeto de referencia se dispone de manera que se representa el objeto de referencia para una región de imagen por canal en los canales ópticos por los sistemas ópticos de varias aberturas.
La figura 13 muestra un diagrama de flujo esquemático de un método 1300, en el que se reducen o se compensan las imprecisiones de posicionamiento a lo largo de los seis grados de libertad de una manera ventajosa. Una primera etapa implica realizar el método 1200 para alineación gruesa de los sistemas ópticos de varias aberturas en relación con el sensor de imagen. Tras el método 1200, se realiza el método 800, de modo que el centrado se realiza por medio de una traslación en el plano x-y. Tras el método 800, se realiza la compensación de error de cuña a lo largo del eje de balanceo realizando la fase de procedimiento 910. Tras la fase de procedimiento 910, se realiza la fase de procedimiento 950 compensando el error de cuña en relación con el eje de cabeceo. Las fases de procedimiento 910 y 950 también pueden realizarse en una secuencia diferente y constituir de manera conjunta el método 900. Tras el método 900, se realiza el método 1000 para compensar la torsión z (o torsión de guiñada). Tras el método 1000, se realiza el método 1100 para corregir el error de distancia. Tras el método 1100, puede fijarse el objetivo 1302. Dicho de otro modo, puede fijarse el objetivo de varias aberturas, tras el procedimiento general de alineación fina, en la posición alineada, por ejemplo, por medio de una junta unida con cola entre el alojamiento y la placa de circuito impreso.
Alternativamente, el método 1300 puede realizarse con una secuencia modificada de los métodos parciales individuales. Alternativa o adicionalmente, también es posible realizar solo uno o más de los métodos 800, 900, 1000, 1100 y/o 1200.
Dicho de otro modo, al principio del procedimiento de montaje, el objetivo de varias aberturas anteriormente montado posiblemente existe de una manera en la que se integra en un alojamiento hermético, e independiente de él existe el sensor de imagen que ya se pone en contacto en una placa de circuito impreso y puede leerse (véase la representación a modo de ejemplo de la figura 3). Para el procedimiento de alineación activa, el sensor de imagen se sitúa de manera que la línea de contacto entre el centro del campo de imagen (= centro geométrico de la matriz de píxeles) y el centro del plano de objeto (= plano de patrón de prueba) es perpendicular al plano de imagen y, por tanto, corresponde a lo normal en el sensor de imagen. Esto se consigue ventajosamente sujetando el sensor de imagen o la placa de circuito impreso en la que se integra el mismo, al menos con una aproximación bastante buena. Para realizar el procedimiento de alineación activa, pueden existir los siguientes requisitos situados sobre el dispositivo de montaje. El dispositivo de montaje incluye ventajosamente un dispositivo para sujetar, de una manera alineada en relación con el patrón de prueba, el sensor de imagen en la placa de circuito impreso que incluye una interfaz de lectura; un dispositivo para sujetar el objetivo de varias aberturas (por ejemplo, abrazadera, mecánico, neumático, por medio de vacío, etc.); un dispositivo para cambiar la posición relativa del objetivo en relación con el sensor de imagen en seis grados de libertad (traslación en las direcciones x, y y z así como torsión por los ejes x, y y z), siendo posible que se establezca un punto de giro compartido, para los tres grados de rotación de libertad, cercanos al centro del objetivo de varias aberturas; un patrón de prueba o pantalla de una proyección de patrón en una distancia adecuada (= distancia de objeto) desde el objetivo de varias aberturas, que se ilumina de una manera suficientemente homogénea; un dispositivo de evaluación de imagen y lectura de imagen que comprende una interfaz para accionar los accionadores/motores para cambiar la localización relativa del objetivo en relación con el sensor de imagen (por ejemplo, un PC que comprende software de control y evaluación); y un algoritmo para segmentación de imagen, reconocimiento de objeto y determinación de posición de las estructuras representadas del patrón de prueba sobre el centro de imagen por medio de los sistemas ópticos de varias aberturas.
La figura 14 muestra un diagrama esquemático para ilustrar las relaciones entre el sistema de coordenadas global I y los sistemas de coordenadas locales I' a modo de ejemplo para la región de imagen 22a. Tal como se describe, por ejemplo, para las figuras 3a y 3b, el sistema de coordenadas global I comprende el punto de intersección del eje de balanceo, el eje de cabeceo y el eje de guiñada, siendo posible que el punto de intersección compartido sea también un punto de giro compartido del movimiento en los seis grados de libertad iniciados por el dispositivo de posicionamiento en relación con los sistemas ópticos de varias aberturas. El canal óptico 14e de los sistemas ópticos de varias aberturas se dispone en relación con la región de imagen 22e, comprendiendo el canal óptico 14e el centro óptico 37e.
Las regiones de imagen 22a-c comprenden, cada una, un sistema de coordenadas local I' que comprende un eje x, un eje y y un eje z, cuyo punto de intersección compartido se dispone en el centro geométrico de la región de imagen 22a-c. Los sistemas de coordenadas locales I' pueden ser un sistema de coordenadas cartesiano, por ejemplo, en el que los ejes x,y y z se cortan en el centro en los ángulos derechos entre sí. Una posición del marcador 38, que se proyecta en la región de imagen 22a, puede indicarse tanto por coordenadas locales y'ij y/o x'¡,j como por las coordenadas globales yi,j o xi,j. Los índices i,j pueden ser índices, por ejemplo, que indican una enumeración de las regiones de imagen 22a-d a lo largo del eje de balanceo y/o el eje de cabeceo.
Dicho de otro modo, la figura 14 muestra un boceto para describir las coordenadas en el plano de imagen del módulo de cámara de varias aberturas en una vista desde arriba. El sistema de coordenadas global en el plano de imagen I tiene su origen en el centro geométrico del campo de imagen, mientras que el sistema de coordenadas local I' tiene su origen en el centro geométrico del campo de imagen del respectivo canal óptico. Lo que se muestra es un caso en el que los círculos de imagen de cuatro canales ópticos adyacentes (círculos de rayas discontinuas que comprenden marcas de centro) se alinean de una manera no óptima con los campos de imagen (cuadrados) en el sensor de imagen que se asocian con cada canal. La cruz mostrada en el canal óptico izquierdo superior representa la imagen de una estructura de objeto situada en una localización predefinida de manera correspondiente dentro del plano de imagen, dado que se genera por el canal óptico asociado.
La figura 15 muestra una representación esquemática de la exploración en un plano de objeto 44 por un objetivo de varias aberturas incluyendo los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16 que comprenden una disposición bidimensional de canales ópticos. Los puntos P¡,j marcan el punto de intersección de la respectiva línea promedio de visión del respectivo canal óptico (i,j),en un caso libre de errores, con el plano de objeto.
Se representa el plano de objeto, por ejemplo, de manera que se explora con siete canales ópticos en la dirección i y con cinco canales ópticos en la dirección j, que significa imax _ 3, -imax _ -3, jmax _ 2, -jmax = -2. Los marcadores 38 pueden disponerse en las localizaciones P-3,2, P3,2, P-3,-2 y P3,-2. Un marcador 38 también puede disponerse en la localización P0,0. Alternativamente, los marcadores también pueden disponerse en una posición diferente en la región de objeto 44 y/o en el objeto de referencia, siendo ventajosa una distancia máxima descrita entre los marcadores.
Dicho de otro modo, una disposición bidimensional de un objetivo de varias aberturas consiste en una matriz de canales ópticos con (2*imax 1) canales en la dimensión x y (2*jmax 1) canales en la dimensión y. Tal como puede observarse en la figura 15 y la figura 16 posterior, cada canal óptico del objetivo de varias aberturas muestra un ángulo diferente de la vista en el espacio de objeto (tal como también se conoce a partir del documento W O 2011/045324 A2) y/o las diversas regiones diferentes de imagen de canales ópticos del plano de objeto. Esto significa que los puntos de intersección de los ejes de la línea de visión promedio de cada canal óptico (= respectivo eje óptico) con el plano de objeto producen una distribución predefinida (conocida a partir del diseño) (figura 16 posterior). Por ejemplo, se usa una tabla que tiene distancias equidistantes en el caso de que se desee formación de imágenes libre de deformación.
Las estructuras de objeto específicas (por ejemplo, cruces, círculos, cuadrados, etc.) se sitúan en varias (por ejemplo, tres o cinco) posiciones seleccionadas de dichos puntos de intersección con el plano de objeto (por ejemplo, en los puntos P0,0, P-imax,jmax P_imax,-jmax, Pimax,-jmax, Pimax, jmax) en el plano de patrón de prueba. La elección de los centros de las estructuras de objeto en el presente documento incluye el centro del plano de objeto (por ejemplo, P0,0), al menos un par de regiones o puntos situados ventajosamente de manera simétrica por reflexión en relación con el eje de balanceo (por ejemplo, P-imaxjmax con P -imax,-jmax o Pimax,-jmax con Pimax,jmax ) y/o al menos un par de regiones o puntos situados ventajosamente de manera simétrica por reflexión en relación con el eje de cabeceo (por ejemplo, P-imaxjmax con Pimax ,jmax o P -imax,-jmax con Pimax,-jmax).
El nivel de precisión de las etapas individuales descritas posteriormente de la alineación activa puede aumentarse en proporción directa con la respectiva distancia de los dos puntos seleccionados en el plano de objeto.
En este contexto, el nivel de precisión más alto posible en la alineación se consigue por una distancia tan grande como sea posible de los puntos asociados. Una desviación angular entre las posiciones Pi,j puede indicarse por un ángulo Oi,j,, por ejemplo, por el ángulo -80,1 para una desviación entre las posiciones P0,0 y P0,1. Alternativamente, por ejemplo, un ángulo 80,-2 comprende una desviación y/o una diferencia en el ángulo de vista de los respectivos canales ópticos entre las posiciones P0,0 y P0,-2.
La figura 16 muestra una vista en sección lateral esquemática incluyendo los sistemas ópticos de varias aberturas 12 y el sensor de imagen 16 para ilustrar las relaciones de la figura 15. El ángulo 8i,y con y = -2, ..., 2 comprende un ángulo con respecto a uno normal que es perpendicular al plano 46, en relación con un plano que se dispone en paralelo con el espacio de objeto capturado.
Los ángulos ai,j describen ángulos entre una respectiva superficie normal del sensor de imagen 16 en las regiones de imagen 22a-e.
Dicho de otro modo, la figura 16 muestra una vista en sección simplificada de un sistema de formación de imágenes de varias aberturas. En esta realización, el objetivo de varias aberturas (formación de pila con microobjetivos en los laterales trasero y delantero) se integra - de manera que se conecta, en el lateral de la imagen, a una placa para evitar acoplamiento óptico cruzado (placa negra) - en un alojamiento (gris, lateral) que se fija, en el procedimiento de alineación activa, en la placa de circuito impreso (verde, por debajo) en la que se sitúa el sensor de imagen digital contactado (marrón). La línea de visión media del respectivo canal óptico (i,j) en el espacio de objeto se designa por el ángulo 8i,j. La línea de visión media del respectivo canal óptico 8 j se especifica por la construcción de los sistemas ópticos y se debe a las propiedades ópticas del sistema de lente respectivamente asociado (longitud focal, índice refractario de los materiales, etc.), el ángulo de incidencia en el centro de la respectiva microimagen ai,j.
La descripción anterior del flujo de procedimiento de la alineación activa se representa, sin ninguna pérdida de generalidad, por medio de la figura 15 para un ejemplo de un objetivo de varias aberturas que comprende 7x5 canales ópticos y una cruz como estructuras de objeto en los puntos de intersección de la línea de visión media de los canales ópticos en las cuatro esquinas de la matriz (P-3,d, P-3,-2, P3,-2, P3,2) así como del canal óptico central (P0,0). Las figuras 17a y 17b muestran la posición diana tras la alineación activa sucesiva del objetivo de varias aberturas en relación con el sensor de imagen.
La figura 17a muestra una vista en sección lateral esquemática de los sistemas ópticos de varias aberturas 12 que se alinean, es decir, se ajustan, en relación con el sensor de imagen 16. La figura 17b muestra una vista desde arriba esquemática de esta situación de la figura 17a. Los marcadores 38a-e se alinean en relación con las respectivas regiones de imagen 22a-e con respecto a los seis grados de libertad. Una desviación de las localizaciones a las que se proyectan los marcadores 38a-d en las regiones de imagen 22a-e es mínima en relación con los respectivos centros de coordenadas locales. Dicho de otro modo, las figuras 17a y 17b muestran una posición diana tras la alineación activa exitosa. La cuadrícula de microimágenes (círculos de rayas discontinuas) es congruente con la cuadrícula de los campos de píxeles del sensor de imagen. (Cuadrados), es decir, en cada canal óptico, el centro del círculo de imagen asociado se sitúa directamente en el centro geométrico del campo de microimagen correspondiente. Las imágenes de las estructuras de objeto seleccionadas se sitúan de manera simétrica en los centros geométricos de los campos de microimagen correspondientes. A la izquierda: vista lateral; a la derecha: vista desde arriba.
Las realizaciones descritas anteriormente permiten un aumento del nivel de precisión en comparación con la aplicación de métodos establecidos y máquinas para alinear sistemas ópticos de formación de imágenes, en particular, los sistemas ópticos de varias aberturas para dispositivos de diseño pequeño. Las realizaciones permiten la posibilidad de automatizar el respectivo procedimiento de alineación fina con el fin de conseguir tiempos de ciclo rápidos en el procedimiento de producción. Además, puede obtenerse un aumento de rendimiento para los módulos de cámara montados y, por tanto, un descenso de los costes de rechazo y pruebas dado que puede conseguirse alineación rápida de alta calidad.
Esto significa que las realizaciones para la alineación activa pueden configurarse específicamente para la arquitectura de objetivos de varias aberturas que tienen intervalos segmentados de visión y permiten, por tanto, las ventajas anteriores. Debido a su diseño ultrafino y la tecnología de montaje y producción potencialmente de bajo coste, se excluyen los sistemas de imágenes de varias aberturas para usarlos en productos de electrónica de consumo (por ejemplo, portátiles, videoconsolas o juguetes) y específicamente para usarlos en dispositivos portátiles tales como teléfonos móviles, tabletas, PDA y similares, por ejemplo (PDA = asistente personal digital). Además, los campos de aplicación son la tecnología de sensor, por ejemplo, en sensores de tipo cámara, sensores de formación de imágenes en la tecnología de producción, por ejemplo. Además, es viable su utilización en la tecnología automovilística, por ejemplo, en sensores de seguridad óptica en el interior de automóviles, en sistemas de ayuda a la conducción, tales como cámaras de visión trasera o para detección de carril, por ejemplo. Las realizaciones también pueden emplearse en los campos de la seguridad y la vigilancia, por ejemplo, para cámaras circundantes invisibles con grandes intervalos de visión en y/o dentro de edificios, museos u objetos. Además, las realizaciones pueden emplearse en el campo de la robótica, por ejemplo, como sensores ópticos para la navegación, para controlar de manera óptica abrazaderas y/o dispositivos de recogida de componentes. Un campo de aplicación adicional de las realizaciones descritas anteriormente puede encontrarse en el campo de la tecnología médica, por ejemplo, en el uso de procedimientos de diagnóstico de formación de imágenes tal como en endoscopias. Sin embargo, la aplicación de las realizaciones descritas anteriormente no se limita a dichos campos de aplicación.
Aunque las realizaciones descritas anteriormente describen los sistemas ópticos de varias aberturas y/o sensores de imagen que comprenden un pequeño número de canales ópticos, por ejemplo, 5x7, dichas realizaciones también pueden aplicarse a otros sistemas ópticos de varias aberturas y/o sensores de imagen que comprenden, por ejemplo, más de 5, más de 50 o más de 500 canales ópticos.
Aunque las realizaciones descritas anteriormente se describieron de manera que es en relación con un centro global o local de una región de imagen que un dispositivo de cálculo realiza una comparación de las posiciones en las que los patrones se representan en las regiones de imagen, también puede llevarse a cabo un punto de referencia en relación con el que se determina el desplazamiento o la torsión en relación con cualquier otro punto.
Aunque se describió una disposición bidimensional de las regiones de imagen 22a-e con respecto a las realizaciones descritas anteriormente, también es viable que las regiones de imagen 22a-e se dispongan a lo largo de una estructura de línea unidireccional. Esto significa que uno de los dos índices i o j se representa para ser unidimensional y que la determinación de posición puede llevarse a cabo basándose en tres regiones de referencia o regiones de imagen.
Aunque algunos aspectos se han descrito dentro del contexto de un dispositivo, se entiende que dichos aspectos también representan una descripción del método correspondiente, de modo que un bloque o un componente estructural de un dispositivo también debe entenderse como una etapa del método correspondiente o como una característica de una etapa del método. De forma análoga con el mismo, los aspectos que se han descrito en el contexto de o como una etapa del método también representan una descripción de un bloque o detalle o característica correspondiente de un dispositivo correspondiente.
En general, las realizaciones de la presente invención pueden implementarse como un producto de programa informático que tiene un código de programa, siendo el código de programa eficaz para realizar cualquiera de los métodos cuando el producto de programa informático se ejecuta en un ordenador. El código de programa también puede almacenarse en un soporte legible por máquina, por ejemplo.
Otras realizaciones incluyen el programa informático para realizar cualquiera de los métodos descritos en el presente documento, estando dicho programa informático almacenado en un soporte legible por máquina.
Dicho de otro modo, una realización del método de la invención es, por tanto, un programa informático que tiene un código de programa para realizar cualquiera de los métodos descritos en el presente documento, cuando el programa informático se ejecuta en un ordenador. Una realización adicional de los métodos de la invención es, por tanto, un soporte de datos (o un medio de almacenamiento digital o un medio legible por ordenador) en el que está grabado el programa informático para realizar cualquiera de los métodos descritos en el presente documento.
Una realización adicional incluye un medio de procesamiento, por ejemplo, un ordenador o un dispositivo lógico programable, configurado o adaptado para realizar cualquiera de los métodos descritos en el presente documento. Una realización adicional incluye un ordenador en el que se instala el programa informático para realizar cualquiera de los métodos descritos en el presente documento.
En algunas realizaciones, un dispositivo lógico programable (por ejemplo, una matriz de puertas programable en campo, una FPGA) puede usarse para realizar algunas o todas las funcionalidades de los métodos descritos en el presente documento. En algunas realizaciones, una matriz de puertas programable en campo puede actuar conjuntamente con un microprocesador para realizar cualquiera de los métodos descritos en el presente documento. En general, los métodos se realizan, en algunas realizaciones, mediante cualquier dispositivo de hardware. Dicho dispositivo de hardware puede ser cualquier hardware de aplicación universal tal como un procesador informático (CPU) o puede ser un hardware específico para el método, tal como un ASIC.
Las realizaciones descritas anteriormente representan simplemente una ilustración de los principios de la presente invención. Se entiende que otros expertos en la técnica apreciarán modificaciones y variaciones de las disposiciones y detalles descritos en el presente documento. Por ello, la invención está destinada a limitarse solo por el alcance de las siguientes reivindicaciones en vez de por los detalles específicos que se han presentado en el presente documento por medio de la descripción y la discusión de las realizaciones.
Bibliografía
[1] www.aeiboston.com/platform_cmat.htm, mayo de 2014
Solicitud europea número: 15 741 502.7

Claims (14)

REIVINDICACIONES
1. Dispositivo (10) para el posicionamiento relativo de sistemas ópticos de varias aberturas (12) que comprende varios canales ópticos (14a-f) en relación con un sensor de imagen (16), que comprende:
un objeto de referencia (18) dispuesto de manera que el objeto de referencia (18) se representa para una región de imagen (22a-e) por canal (14a-f) por los sistemas ópticos de varias aberturas (12) en los canales ópticos (14a-f);
un dispositivo de posicionamiento (24) que puede controlarse para cambiar una localización relativa entre los sistemas ópticos de varias aberturas (12) y el sensor de imagen (16);
un dispositivo de cálculo (26) configurado para determinar posiciones reales del objeto de referencia (18) en al menos tres regiones de imagen (22a-e) en imágenes del objeto de referencia y para controlar el dispositivo de posicionamiento (24) basándose en una comparación de las posiciones reales con posiciones que son posiciones de referencia en una respectiva y/o en otras regiones de imagen.
2. Dispositivo según la reivindicación 1, en el que el dispositivo de cálculo (26) está configurado para controlar el dispositivo de posicionamiento (24) basándose en una comparación de la posición real de una región de imagen (22a-e) en relación con posiciones reales en otras regiones de imagen (22a-e).
3. Dispositivo según la reivindicación 1 o 2, en el que el dispositivo de cálculo (26) está configurado para controlar el dispositivo de posicionamiento (24) basándose en una comparación de la posición real de una región de imagen (22a-e) con una posición diana en relación con la región de imagen (22a-e).
4. Dispositivo según cualquiera de las reivindicaciones anteriores, en el que el dispositivo de cálculo (26) está configurado para controlar un dispositivo de fijación (28), estando configurado el dispositivo de fijación para endurecer una cola (32) dispuesta entre los sistemas ópticos de varias aberturas (12) y el sensor de imagen (16) o entre los sistemas ópticos de varias aberturas (12) y una placa de circuito impreso (36) en la que se dispone el sensor de imagen (12).
5. Dispositivo según cualquiera de las reivindicaciones anteriores, en el que el objeto de referencia (18) comprende al menos tres regiones de referencia (33a-c) que comprenden una marca de referencia (35a-c), de modo que se representa una marca de referencia (35a-c) sobre una de las al menos tres regiones de imagen (22a-c), respectivamente, estando configurado el dispositivo de cálculo (26) para determinar la posición real basándose en una posición de las marcas de referencia (38a-e) en la región de imagen.
6. Dispositivo según cualquiera de las reivindicaciones anteriores, en el que al menos cuatro regiones de imagen exteriores (22a-d) y una región de imagen interior (22e) se disponen a lo largo de un eje de balanceo y un eje de cabeceo, estando dispuestas las regiones de imagen exteriores (22a-c) en dos pares opuestos en paralelo con el eje de balanceo y en dos pares opuestos en paralelo con el eje de cabeceo, estando dispuestos el eje de balanceo y el eje de cabeceo para ser perpendiculares entre sí y para ser perpendiculares a un eje de guiñada dispuesto en paralelo con una superficie normal del sensor de imagen, y comprendiendo la región de imagen interior (22a) un punto de intersección (O) del eje de balanceo, el eje de cabeceo y el eje de guiñada, y en el que el dispositivo de cálculo (26) está configurado para determinar, basándose en la comparación de las posiciones reales con la posición, una desviación de patrón de un patrón (38) en la región de imagen interior (22e) y en las al menos cuatro regiones de imagen exteriores (22a-d).
7. Dispositivo según la reivindicación 6, en el que el dispositivo de cálculo (26) está configurado para determinar una medida de una distancia (G) de distancias de patrón de la posición real para la región de imagen interior (22e) basándose en la desviación de patrón, estando configurado el dispositivo de cálculo (26) para controlar el dispositivo de posicionamiento (24) de manera que el mismo desplaza los sistemas ópticos de varias aberturas (12) a lo largo del eje de guiñada, de modo que la distancia (G) alcanza un valor de distancia diana (Gd iana).
8. Dispositivo según la reivindicación 6 o 7, en el que el dispositivo de cálculo (26) está configurado para determinar una medida de una primera diferencia lateral (AR) de la posición real para la región de imagen interior (22e) basándose en la desviación de patrón a lo largo del eje de balanceo con el fin de determinar una medida de una segunda diferencia lateral (AR) para la región de imagen interior (22e) basándose en la desviación de patrón a lo largo del eje de cabeceo y para controlar el dispositivo de posicionamiento (24) de manera que la primera diferencia lateral (AR) alcanza un primer valor diana de diferencia lateral (0) y que la segunda diferencia lateral alcanza un segundo valor diana de diferencia lateral (0).
9. Dispositivo según cualquiera de las reivindicaciones 6 a 8, en el que el dispositivo de cálculo (26) está configurado para determinar una medida de diferencias de error de cuña (AtN) de distancias de patrón de la posición real para cada una de las cuatro regiones de imagen exteriores (22a-d) y para controlar el dispositivo de posicionamiento (24) de manera que los sistemas ópticos de varias aberturas se inclinan en relación con el eje de balanceo o el eje de cabeceo, de modo que las diferencias de error de cuña (AtN) alcanzan un valor de balanceo diana (0) o un valor de cabeceo diana (0).
10. Dispositivo según cualquiera de las reivindicaciones 6 a 9, en el que el dispositivo de cálculo (26) está configurado para controlar el dispositivo de posicionamiento (24) de manera que el valor de balanceo diana (0) y el valor de cabeceo diana (0) se alcanzan de manera secuencial uno después del otro (910, 950).
11. Dispositivo según cualquiera de las reivindicaciones 6 a 10, en el que el dispositivo de cálculo (26) está configurado para determinar una medida de una diferencia de rotación (ó) de la desviación de patrón para cada una de las regiones de imagen exteriores (22a-d) a lo largo de una dirección lateral local primera (x) y local segunda (y), respectivamente, y para controlar el dispositivo de posicionamiento (24) de manera que el mismo hace rotar los sistemas ópticos de varias aberturas (12) alrededor del eje de guiñada, de modo que la diferencia de rotación alcanza un valor de rotación diana (0).
12. Dispositivo según cualquiera de las reivindicaciones 6 a 11, en el que el dispositivo de cálculo (26) está configurado para determinar una medida de una diferencia en las distancias (AG) de la desviación de patrón para cada una de las regiones de imagen exteriores (22a-d) a lo largo de una dirección local (x) en paralelo con el eje de balanceo y a lo largo de una dirección local (y) en paralelo con el eje de cabeceo y para controlar el dispositivo de posicionamiento (24) de manera que el mismo desplaza los sistemas ópticos de varias aberturas (12) a lo largo del eje de guiñada, de modo que las diferencias en la distancia (Ag ) alcanzan un valor diana (0).
13. Dispositivo según cualquiera de las reivindicaciones anteriores, en el que el dispositivo de cálculo está configurado para
determinar una medida de una distancia (G) de distancias de patrón de la posición real para una región de imagen interior (22e) basándose en la desviación de patrón, estando configurado el dispositivo de cálculo (26) para controlar el dispositivo de posicionamiento (24) de manera que el mismo desplaza los sistemas ópticos de varias aberturas (12) a lo largo del eje de guiñada, de modo que la distancia (G) alcanza un valor de distancia diana (Gdiana),
determinar una medida de una primera diferencia lateral (AR) de la posición real para la región de imagen interior (22e) basándose en la desviación de patrón a lo largo de un eje de balanceo con el fin de determinar una medida de una segunda diferencia lateral para la región de imagen interior basándose en la desviación de patrón a lo largo de un eje de cabeceo y para controlar el dispositivo de posicionamiento (24) de manera que la primera diferencia lateral (AR) alcanza un primer valor diana de diferencia lateral (0) y que la segunda diferencia lateral alcanza un segundo valor diana de diferencia lateral (0),
determinar una medida de diferencias de error de cuña (AtN) de distancias de patrón de la posición real para cuatro regiones de imagen exteriores (22a-d) dispuestas en dos pares opuestos en paralelo con el eje de balanceo y en dos pares opuestos en paralelo con el eje de cabeceo y para controlar el dispositivo de posicionamiento (24) de manera que los sistemas ópticos de varias aberturas se inclinan en relación con el eje de balanceo o el eje de cabeceo, de modo que las diferencias de error de cuña alcanzan un valor de balanceo diana o un valor de cabeceo diana (0);
determinar una medida de una diferencia de rotación (ó) de la desviación de patrón para las cuatro regiones de imagen exteriores (22a-d) a lo largo de una dirección lateral local primera (x) y local segunda (y), respectivamente, y para controlar el dispositivo de posicionamiento (24) de manera que el mismo hace rotar los sistemas ópticos de varias aberturas (12) alrededor de un eje de guiñada, de modo que las diferencias de rotación (ó) alcanzan un valor de rotación diana (0); y
determinar una medida de una diferencia en las distancias (AG) de la desviación de patrón para cada una de las regiones de imagen exteriores (22a-d) a lo largo de una dirección local (x) en paralelo con el eje de balanceo y a lo largo de una dirección local (y) en paralelo con el eje de cabeceo y para controlar el dispositivo de posicionamiento (24) de manera que el mismo desplaza los sistemas ópticos de varias aberturas (12) a lo largo del eje de guiñada, de modo que las diferencias en la distancia (AG) alcanzan un valor diana (0).
14. Dispositivo según la reivindicación 13, en el que el dispositivo de cálculo (26) está configurado para controlar el dispositivo de posicionamiento (24) en cada caso de manera que la distancia (G) alcanza un valor de distancia diana (AGdiana), que la primera diferencia lateral alcanza un primer valor diana de diferencia lateral (0) y que la segunda diferencia lateral alcanza un segundo valor diana de diferencia lateral (0), antes de que el dispositivo de cálculo (26) controle el dispositivo de posicionamiento (24) de manera que las diferencias de error de cuña (AtN) alcanzan el valor de balanceo diana (0) o el valor de cabeceo diana (0), antes de que las diferencias de rotación alcancen el valor de rotación diana (0) o antes de que las diferencias en la distancia (AG) alcancen el valor diana (0).
Dispositivo según cualquiera de las reivindicaciones anteriores, en el que al menos cuatro regiones de imagen exteriores (22a-d) y una región de imagen interior (22e) se disponen a lo largo de un eje de balanceo y un eje de cabeceo, en el que el dispositivo de cálculo está configurado para determinar una distancia de marcas de referencia (38a-e) a los centros de las respectivas regiones de imagen exteriores (22a-d).
Dispositivo según cualquiera de las reivindicaciones anteriores, en el que el dispositivo de cálculo está configurado para enfocar una imagen que se captura en la región de imagen interior por el objeto de referencia y para controlar el dispositivo de posicionamiento de manera que las diferencias laterales con respecto a un eje de balanceo y un eje de cabeceo alcanzan un respectivo valor diana de modo que la imagen se mantiene enfocada y centrada en la región de imagen interior.
Método de posicionamiento relativo de sistemas ópticos de varias aberturas (12) que comprende varios canales ópticos (14a-f) en relación con un sensor de imagen (16), que comprende:
disponer (12a) un objeto de referencia (18) de manera que el objeto de referencia (18) se representa para una región de imagen (22a-e) por canal (14a-f) por los sistemas ópticos de varias aberturas (12) en los canales ópticos (14a-f);
proporcionar un dispositivo de posicionamiento (24) que puede controlarse para cambiar una localización relativa entre los sistemas ópticos de varias aberturas (12) y el sensor de imagen (16);
determinar posiciones reales (814, 854; 914, 954; 1006, 1106) del objeto de referencia (18) en al menos tres regiones de imagen (22a-d) en imágenes del objeto de referencia;
comparar las posiciones reales (824, 864; 926, 966; 1016, 1116) con posiciones que son posiciones de referencia en una respectiva y/o en otras regiones de imagen; y
controlar un dispositivo de posicionamiento (822, 862; 922, 962; 1014; 1114) basándose en dicha comparación.
ES15741502T 2014-06-24 2015-06-24 Dispositivo y método para el posicionamiento relativo de sistemas ópticos de varias aberturas que comprenden varios canales ópticos en relación con un sensor de imagen Active ES2805072T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014212104.3A DE102014212104A1 (de) 2014-06-24 2014-06-24 Vorrichtung und verfahren zur relativen positionierung einer multiaperturoptik mit mehreren optischen kanälen relativ zu einem bildsensor
PCT/EP2015/064284 WO2015197710A1 (de) 2014-06-24 2015-06-24 Vorrichtung und verfahren zur relativen positionierung einer multiaperturoptik mit mehreren optischen kanälen relativ zu einem bildsensor

Publications (1)

Publication Number Publication Date
ES2805072T3 true ES2805072T3 (es) 2021-02-10

Family

ID=53719742

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15741502T Active ES2805072T3 (es) 2014-06-24 2015-06-24 Dispositivo y método para el posicionamiento relativo de sistemas ópticos de varias aberturas que comprenden varios canales ópticos en relación con un sensor de imagen

Country Status (9)

Country Link
US (2) US10362202B2 (es)
EP (1) EP3162045B1 (es)
JP (2) JP6701101B2 (es)
KR (1) KR101930040B1 (es)
CN (1) CN106716486B (es)
DE (1) DE102014212104A1 (es)
ES (1) ES2805072T3 (es)
TW (1) TWI605270B (es)
WO (1) WO2015197710A1 (es)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016200285A1 (de) 2016-01-13 2017-07-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Erfassen eines Objektbereichs
DE102016204148A1 (de) * 2016-03-14 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Erfassen eines Objektbereichs
DE102016208210A1 (de) * 2016-05-12 2017-11-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-multiaperturabbildungsvorrichtungen, multiaperturabbildungsvorrichtung, verfahren zum bereitstellen eines ausgangssignals einer 3d-multiaperturabbildungsvorrichtung und verfahren zum erfassen eines gesamtgesichtsfeldes
TWM557685U (zh) * 2017-06-27 2018-04-01 大陸商上海蔚蘭動力科技有限公司 駕駛輔助系統
CN109141347A (zh) * 2017-06-28 2019-01-04 京东方科技集团股份有限公司 车载摄像机测距方法及装置、存储介质和电子设备
TWI630432B (zh) * 2017-06-29 2018-07-21 致伸科技股份有限公司 多鏡頭相機模組及其組裝製程
DE102017211586A1 (de) * 2017-07-06 2019-01-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung mit geringer falschlichtempfindlichkeit, abbildungssystem und verfahren zum bereitstellen einer multiaperturabbildungsvorrichtung
DE102017216172A1 (de) * 2017-09-13 2019-03-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung mit geringer bauhöhe und umschaltbarer blickrichtung, abbildungssystem und verfahren zum bereitstellen einer multiaperturabbildungsvorrichtung
US10825152B2 (en) * 2017-09-14 2020-11-03 Canon U.S.A., Inc. Distortion measurement and correction for spectrally encoded endoscopy
EP4116702B1 (en) 2017-11-09 2024-01-03 Rebellion Photonics, Inc. Window obscuration sensors for mobile gas and chemical imaging cameras
US10347678B2 (en) 2017-11-16 2019-07-09 Visera Technologies Company Limited Image sensor with shifted microlens array
US10916575B2 (en) 2018-04-04 2021-02-09 Samsung Electronics Co., Ltd. Image sensor and method of manufacturing image sensor
JP6606234B1 (ja) * 2018-07-13 2019-11-13 Dmg森精機株式会社 測定装置
US11030724B2 (en) 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
JP7237506B2 (ja) * 2018-10-02 2023-03-13 ソニーセミコンダクタソリューションズ株式会社 撮像装置
DE102018222865A1 (de) * 2018-12-21 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung mit einer Multiaperturabbildungsvorrichtung zur Erzeugung einer Tiefenkarte
DE102018222861A1 (de) * 2018-12-21 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung mit einer Multiaperturabbildungsvorrichtung zum Akkumulieren von Bildinformation
JP2020182139A (ja) * 2019-04-26 2020-11-05 ソニー株式会社 撮像システム及び撮像素子
JP7399989B2 (ja) * 2019-06-06 2023-12-18 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 多チャネル撮像デバイスおよび多開口撮像デバイスを有するデバイス
KR102238789B1 (ko) * 2019-07-26 2021-04-09 팸텍주식회사 트리플 카메라모듈의 캘리브레이션 측정방법
TWI686773B (zh) * 2019-07-30 2020-03-01 國立清華大學 機器視覺辨識功能於製程環境之修正方法
KR20220035185A (ko) * 2019-07-31 2022-03-21 캐논 가부시끼가이샤 화상처리장치, 화상처리방법, 프로그램 및 기억 매체
AT522995B1 (de) * 2019-10-07 2021-05-15 Vexcel Imaging Gmbh Sensoranordnung
KR20210046971A (ko) 2019-10-21 2021-04-29 삼성전자주식회사 복수-입력 폴디드 카메라 및 이를 포함하는 모바일 장치
KR20210051242A (ko) 2019-10-30 2021-05-10 삼성전자주식회사 멀티 렌즈 영상 복원 장치 및 방법
CN114586342A (zh) * 2019-10-30 2022-06-03 索尼集团公司 成像设备、显示设备以及成像系统
KR20210081767A (ko) 2019-12-24 2021-07-02 삼성전자주식회사 이미지 장치 및 이미지 센싱 방법
US11394955B2 (en) * 2020-01-17 2022-07-19 Aptiv Technologies Limited Optics device for testing cameras useful on vehicles
TWI720869B (zh) * 2020-04-15 2021-03-01 致伸科技股份有限公司 相機模組之對位方法
US11595575B2 (en) 2020-05-11 2023-02-28 Samsung Electronics Co., Ltd. Image sensor
KR102455520B1 (ko) * 2020-06-05 2022-10-17 한국과학기술원 마이크로렌즈 어레이를 이용한 초박형 카메라 장치 그리고 이의 다기능 이미징 방법
KR20220053361A (ko) 2020-10-22 2022-04-29 삼성전자주식회사 이미징 장치
CN112543270B (zh) * 2020-12-03 2022-03-15 苏州天准科技股份有限公司 摄像头快速aa组装方法及装置
KR20230037953A (ko) 2021-09-10 2023-03-17 삼성전자주식회사 컬러 변환 방법 및 이를 수행하는 전자 장치와 이미지 센서
TWI779842B (zh) * 2021-09-22 2022-10-01 宏碁股份有限公司 立體顯示裝置及其顯示方法
CN114112066B (zh) * 2021-11-26 2024-04-26 山东神戎电子股份有限公司 一种基于目标识别和空间学习的红外热像仪快速自动聚焦方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4141226A1 (de) * 1991-12-15 1993-06-17 Wolf Henning Montageverfahren und vorrichtung fuer die praezise positionierung von bauelementen und baugruppen
DE10139596C2 (de) * 2001-08-11 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zum Postitionieren eines Objekts an einem Ziel
AT412032B (de) * 2001-12-19 2004-08-26 Riegl Laser Measurement Sys Verfahren zur aufnahme eines objektraumes
EP1573401A1 (de) 2002-12-19 2005-09-14 Carl Zeiss SMT AG Messverfahren und messsystem zur vermessung der abbildungsqualität eines optischen abbildungssystems
WO2006026354A2 (en) 2004-08-25 2006-03-09 Newport Imaging Corporation Apparatus for multiple camera devices and method of operating same
KR20130014602A (ko) * 2005-06-02 2013-02-07 칼 짜이스 에스엠테 게엠베하 광학 결상 장치
US20070102622A1 (en) * 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
JP4976310B2 (ja) * 2005-11-22 2012-07-18 パナソニック株式会社 撮像装置
JP2007269879A (ja) 2006-03-30 2007-10-18 Kuraray Co Ltd 導電性塗料およびそれをコーティングしてなる布帛
JP2009092876A (ja) * 2007-10-05 2009-04-30 Funai Electric Co Ltd 複眼撮像装置の製造方法、及び複眼撮像装置
JP2009100260A (ja) * 2007-10-17 2009-05-07 Konica Minolta Opto Inc カメラモジュール検査装置及びカメラモジュール検査方法
JP5293950B2 (ja) * 2008-03-04 2013-09-18 株式会社リコー 個人認証装置及び電子機器
DE102009005092A1 (de) * 2009-01-19 2010-09-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur optischen Navigation und dessen Verwendung
US8300108B2 (en) * 2009-02-02 2012-10-30 L-3 Communications Cincinnati Electronics Corporation Multi-channel imaging devices comprising unit cells
DE102009049387B4 (de) 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
JP2011133509A (ja) * 2009-12-22 2011-07-07 Shinko Electric Ind Co Ltd カメラモジュールの組立方法
JP2011150203A (ja) * 2010-01-22 2011-08-04 Sharp Corp レンズバレルのフォーカス調整装置およびフォーカス調整方法
JP5460406B2 (ja) * 2010-03-24 2014-04-02 富士フイルム株式会社 撮像素子の位置調整方法、カメラモジュール製造方法及び装置、カメラモジュール
US8553131B2 (en) 2010-06-03 2013-10-08 Bendix Commercial Vehicle Systems Llc Six-axis mount
DE102010031535A1 (de) * 2010-07-19 2012-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
JP2012049999A (ja) * 2010-08-30 2012-03-08 Nikon Corp 撮像装置および姿勢調整プログラム
US8810933B2 (en) * 2011-06-30 2014-08-19 Lg Innotek Co., Ltd. Lens unit, manufacturing method of the same, and camera module including the same
US9009952B2 (en) 2011-08-29 2015-04-21 Asm Technology Singapore Pte. Ltd. Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same
JP5874965B2 (ja) * 2011-12-07 2016-03-02 株式会社ブイ・テクノロジー マイクロレンズアレイの貼り合わせ装置
US20140043469A1 (en) 2012-08-07 2014-02-13 Carl Zeiss Industrielle Messtechnik Gmbh Chromatic sensor and method
WO2014023344A1 (de) * 2012-08-07 2014-02-13 Carl Zeiss Industrielle Messtechnik Gmbh Verbesserter chromatischer sensor und verfahren
JP2014060621A (ja) * 2012-09-18 2014-04-03 Ricoh Co Ltd 光学部品位置合わせ装置
US9153026B2 (en) * 2012-11-26 2015-10-06 Ricoh Co., Ltd. Calibration of plenoptic imaging systems
WO2014203676A1 (ja) * 2013-06-17 2014-12-24 コニカミノルタ株式会社 位置決め装置、位置決め方法及び複眼カメラモジュール

Also Published As

Publication number Publication date
US20170111558A1 (en) 2017-04-20
JP2019144559A (ja) 2019-08-29
TWI605270B (zh) 2017-11-11
US20190335072A1 (en) 2019-10-31
WO2015197710A1 (de) 2015-12-30
KR101930040B1 (ko) 2018-12-17
EP3162045A1 (de) 2017-05-03
CN106716486A (zh) 2017-05-24
TW201606354A (zh) 2016-02-16
US10542196B2 (en) 2020-01-21
JP6858211B2 (ja) 2021-04-14
DE102014212104A1 (de) 2015-12-24
US10362202B2 (en) 2019-07-23
KR20170023103A (ko) 2017-03-02
JP2017520794A (ja) 2017-07-27
CN106716486B (zh) 2020-12-08
JP6701101B2 (ja) 2020-05-27
EP3162045B1 (de) 2020-04-29

Similar Documents

Publication Publication Date Title
ES2805072T3 (es) Dispositivo y método para el posicionamiento relativo de sistemas ópticos de varias aberturas que comprenden varios canales ópticos en relación con un sensor de imagen
US10830588B2 (en) Surveying instrument for scanning an object and image acquistion of the object
US9009952B2 (en) Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same
JP6042564B2 (ja) 基板をアライメントする装置及び方法
CN111536902A (zh) 一种基于双棋盘格的振镜扫描系统标定方法
CN113711588B (zh) 可用于相机中失真表征的校准系统
JP5951793B2 (ja) 撮像素子位置検出装置
CN103493470A (zh) 用于确定光学摄像机的图像数据检测芯片的调整偏差的方法以及相应的调整检验装置
JP2011130061A (ja) 撮影レンズと撮像素子の位置関係調整方法及び装置、並びにカメラモジュール製造方法及び装置
US20150247987A1 (en) Position adjustment device and position adjustment method
JP6137323B2 (ja) 露光装置
JP2011151551A (ja) カメラモジュールの製造方法及び装置
JP7143314B2 (ja) 2つの光学サブシステムをアライメントするための方法および装置
JP6155924B2 (ja) 寸法測定装置、及び寸法測定方法
KR102313177B1 (ko) 카메라 모듈의 프리즘 회전각도 검사시스템 및 이를 이용한 카메라 모듈의 프리즘 회전각도 검사방법
CN209877942U (zh) 像距测量仪
CN116157733A (zh) 相机致动器和包括该相机致动器的相机装置
CN114788259B (zh) 测试图卡、相机制造装置、相机的制造方法以及计算机可读记录介质
JP2022133184A (ja) 観察装置および観察装置の調整方法
Bénallal et al. Camera calibration with a viewfinder
WO2014196510A1 (ja) カメラモジュールの製造方法および製造装置
JP2022034109A (ja) 認識カメラ校正プレートおよび認識カメラ校正方法
KR20230060948A (ko) 기판 정렬 장치 및 이를 이용한 기판 정렬 방법
Zhang et al. A practical method for calibrating omnidirectional cameras using LCD panel
JP2001153608A (ja) 位置合わせ装置及び位置合わせ方法及び重ね合わせ装置