ES2757809T3 - Sistemas y métodos para el procesamiento de imágenes de temporización de eventos - Google Patents

Sistemas y métodos para el procesamiento de imágenes de temporización de eventos Download PDF

Info

Publication number
ES2757809T3
ES2757809T3 ES15786708T ES15786708T ES2757809T3 ES 2757809 T3 ES2757809 T3 ES 2757809T3 ES 15786708 T ES15786708 T ES 15786708T ES 15786708 T ES15786708 T ES 15786708T ES 2757809 T3 ES2757809 T3 ES 2757809T3
Authority
ES
Spain
Prior art keywords
image
images
tdi
line
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15786708T
Other languages
English (en)
Inventor
Jeremy W Aldridge
Douglas J Deangelis
Kirk M Sigel
Mike E Ciholas
Paul R Blaylock
Herb A Hollinger
Evan A Hallam
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lynx System Developers Inc
Original Assignee
Lynx System Developers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/263,578 external-priority patent/US9413926B2/en
Priority claimed from US14/263,504 external-priority patent/US20150312504A1/en
Priority claimed from US14/263,532 external-priority patent/US10375300B2/en
Priority claimed from US14/263,550 external-priority patent/US9398196B2/en
Application filed by Lynx System Developers Inc filed Critical Lynx System Developers Inc
Application granted granted Critical
Publication of ES2757809T3 publication Critical patent/ES2757809T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/768Addressed sensors, e.g. MOS or CMOS sensors for time delay and integration [TDI]
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C1/22Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people in connection with sports or games
    • G07C1/24Race time-recorders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Television Receiver Circuits (AREA)
  • Picture Signal Circuits (AREA)

Abstract

Un sistema (100) para procesar imágenes de temporización de eventos que comprende: un sensor de imagen de escaneado de área (110) para generar imágenes bidimensionales digitales secuenciales de una escena(130); y un módulo de integración de retraso de tiempo (140) para procesar las imágenes bidimensionales digitales secuenciales para generar una imagen de integración de retraso de tiempo de un objeto en movimiento (135) en la escena (130); el módulo de integración de retraso de tiempo (140) que comprende circuitos de procesamiento de imágenes (141) adaptados para: (a) segmentar al menos una porción de cada imagen bidimensional digital secuencial (115) en líneas de entrada (118), y al menos esa porción incluye una imagen de una línea de meta en la escena, y (b) poblar cada línea de salida de la imagen de integración de retraso de tiempo (145) con una integral sobre diversas líneas de entrada (118), y cada línea de entrada (118) de la integral se extrae de una imagen bidimensional digital secuencial diferente (115) para hacerla coincidir sustancialmente con el objeto en movimiento (135) a través de la línea de meta en una dirección perpendicular a las líneas de entrada (118); siendo el sensor de imagen de escaneado de área (110) un sensor en color (1400), y comprendiendo cada píxel del sensor en color (1420) una disposición tipo Bayer de filas de componentes fotosensibles (1421 - 1424), y teniendo el sensor de imagen de escaneado de área (110) tiene una frecuencia de fotograma correspondiente al movimiento de la imagen del objeto a una frecuencia de una fila por imagen bidimensional digital secuencial (115), caracterizado porque las líneas de entrada son paralelas a las filas de componentes fotosensibles de la disposición tipo Bayer y alternan entre (a) píxeles originales formados por señales de los componentes fotosensibles del mismo fotograma de imagen de línea capturado por el sensor en color (1400) y (b) píxeles cruzados (1430) formados por señales de los componentes fotosensibles de dos fotogramas de imagen de línea capturados secuencialmente, para producir líneas de entrada a una resolución doble con respecto a las imágenes bidimensionales digitales secuenciales (115) perpendiculares a las líneas de entrada.

Description

Sistemas y métodos para el procesamiento de imágenes de temporización de eventos
ANTECEDENTES
[0001] Las cámaras photo finish capturan imágenes de una línea de meta para reflejar con exactitud el momento en el que un participante cruza una línea de meta y establecer la separación entre dos o más participantes de una carrera. Se ha probado que las cámaras de barrido lineal sirven como cámaras photo finish, porque la línea de meta se proyecta en la longitud de un detector lineal de la cámara de barrido lineal. Las cámaras de barrido lineal capturan una serie de imágenes consecutivas a medida que los participantes cruzan la línea de meta y luego las unen para formar una representación bidimensional de los participantes. Como las cámaras de barrido lineal tienen una línea única de píxeles, el procesamiento de señales es rápido y las cámaras pueden funcionar a una elevada frecuencia de imágenes por segundo. Por ello, las cámaras de barrido lineal proporcionan una alta resolución temporal, reflejando con exactitud los tiempos de los eventos.
[0002] Desde la patente US 5.657.077 se conoce un sistema para grabar y visualizar la secuencia temporal de una escena en un ordenador que comprende una cámara digital, un temporizador de imágenes y un ordenador de control principal. La cámara digital transmite al temporizador una secuencia de fotogramas de imágenes digitales representativas de la imagen de un cuerpo que atraviesa un plano en el espacio.
[0003] WO 03/001189 A1 revela un sistema de inspección que incluye un circuito CMOS integrado que lleva al menos una configuración bidimensional de fotodetectores integrada y que proporciona un resultado de inspección que representa un objeto que se desea inspeccionar. Un analizador de defectos operativo recibe el resultado de inspección y proporciona un informe de defectos.
[0004] El artículo científico de Lepage et al. "time-delay-integration architectures in CMOS image sensors", IEEE transactions on electron devices, IEEE service centre, volume 56, number 11, 1 November 2009, pages 2524 to 2533, trata las dificultades y los desafíos de implementar la función de integración de retraso de tiempo en la tecnología CMOS.
[0005] La patente US 2011/0115793 A1 trata los sistemas y el procesamiento de superresolución de imágenes integradas y con retardo de tiempo (TDI) para proporcionar la misma geometría de imagen utilizada configurada de modo que pueda emplearse un componente de subpíxeles predecible de la imagen en movimiento fotograma a fotograma para construir una imagen resultante de alta resolución a partir de múltiples imágenes de entrada de baja resolución submuestreadas.
[0006] Ninguno de los documentos considera el uso de filtros de densidad neutra para permitir la segmentación de las líneas de entrada de acuerdo con un brillo deseado.
[0007] El objeto de la presente invención es mejorar la segmentación de las líneas de entrada de acuerdo con un brillo deseado.
[0008] Este objeto se logra mediante un sistema de procesamiento de imágenes de temporización de eventos que comprende las características de la reivindicación 1 y también mediante un método de procesado de imágenes de temporización de eventos que comprende las características de la reivindicación 8. Las realizaciones ventajosas de la invención se tratan en las reivindicaciones dependientes.
[0009] En una realización no reivindicada, un método para procesar diversas imágenes de entrada asociadas a diversos tiempos de entrada respectivos, siendo proporcionados los tiempos de entrada y las imágenes por un sistema de resultantes, correspondientes a la frecuencia de fotogramas resultantes, desde las diversas imágenes de entrada; y asignar a cada imagen resultante un tiempo de salida final proporcionado por el sistema de temporización de eventos, siendo el tiempo de salida final el tiempo de entrada asociado a una imagen de entrada que contribuye a la imagen resultante.
[0010] En un método no reivindicado para procesar imágenes y tiempos de evento asociados proporcionado por un sistema de grabación y temporización de eventos comprende: recibir (a) imágenes y tiempos asociados y (b) una correspondencia entre tiempos y eventos; seleccionar los eventos de interés; y descartar automáticamente las imágenes no asociadas con un evento de interés, empleando un procesador e instrucciones legibles por máquina.
[0011] En una realización no reivindicada, se proporciona un sistema para la grabación y temporización de eventos que incluye: un sistema de cámara para capturar imágenes de eventos que comprende un reloj; una grabadora de eventos para detectar eventos que está acoplado a y se comunica con el reloj; y un sistema de procesamiento de datos que puede asignar los tiempos proporcionados por el reloj a las imágenes capturadas por el sistema de cámara y los eventos detectados por la grabadora de eventos.
[0012] En una realización no reivindicada, un sensor de imagen con escaneado de área incluye: diversos píxeles en color, cada píxel en color incluye tres tipos distintos de componentes fotosensibles sensibles a tres colores diferentes, dichos componentes fotosensibles están dispuestos en una configuración de 3x3 de forma que cada fila y cada columna de dicha configuración de 3x3 comprenda los tres tipos distintos de componentes fotosensibles y de forma que cada fila y cada columna tengan una configuración de los componentes fotosensibles distinta a las de las demás filas y columnas, respectivamente.
[0013] En una realización no reivindicada, un sistema para procesar imágenes de temporización de eventos incluye: una cámara que comprende (a) un sensor de imagen con escaneado de área para capturar imágenes de una escena que incluye una línea y (b) un nivel; una montura ajustable acoplada a la cámara; y un sistema de control de alineación para ajustar automáticamente la montura y alinear la cámara con respecto a la línea.
[0014] En una realización no reivindicada, un sistema para procesar imágenes de temporización de eventos incluye: una cámara que comprende un sensor de imagen para capturar imágenes y un generador de vídeo para generar vídeos tipo marcador; y un módulo de procesamiento de datos, que está acoplado a y se comunica con la cámara, para generar datos sobre resultados a partir de las imágenes recibidas de la cámara y comunicar los datos sobre resultados al generador de vídeo.
[0015] En una realización no reivindicada, un producto de software incluye instrucciones, almacenadas en medios no transitorios legibles por ordenador, donde las instrucciones, cuando las ejecute un ordenador, llevan a cabo los pasos para el procesamiento de imágenes bidimensionales digitales secuenciales de una escena que comprende un objeto en movimiento para formar una imagen de integración con retardo de tiempo, y donde las instrucciones incluyen instrucciones para segmentar al menos una porción de cada una de las imágenes bidimensionales digitales secuenciales en líneas de entrada; e instrucciones para propagar cada línea de la imagen integrada con retardo de tiempo con una integral sobre diversas líneas de entrada, y cada una de las diversas líneas de entrada se selecciona a partir de una de las imágenes bidimensionales digitales secuenciales para hacer coincidir sustancialmente el movimiento del objeto en movimiento en una dirección perpendicular a las líneas de entrada.
[0016] En una realización no reivindicada, un producto de software incluye instrucciones, almacenadas en medios no transitorios legibles por ordenador, donde las instrucciones, cuando las ejecuta un ordenador, llevan a cabo los pasos entrada y los tiempos de entrada son proporcionados por un sistema de temporización de eventos, y donde las instrucciones incluyen: instrucciones para seleccionar una frecuencia de fotogramas resultantes; instrucciones para generar diversas imágenes resultantes, correspondientes a la frecuencia de fotogramas resultantes, a partir de las diversas imágenes de entrada; e instrucciones para asignar a cada imagen resultante un tiempo de salida final proporcionado por el sistema de temporización de eventos, y el tiempo de salida final es el tiempo de entrada asociado a una imagen de entrada que contribuye a la imagen resultante.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0017]
La Figura 1 ilustra un sistema para procesar imágenes de temporización de eventos, de acuerdo con una realización.
La Figura 2 muestra una transformación esquemática de imágenes consecutivas en una imagen integrada con retardo de tiempo llevada a cabo por el sistema de la Figura 1, de acuerdo con una realización.
La Figura 3 ilustra un método para procesar imágenes de temporización de eventos, de acuerdo con una realización.
La Figura 4 ilustra un sensor de imagen con escaneado de área en color tipo Bayer para capturar imágenes de temporización de eventos, de acuerdo con una realización.
La Figura 5 ilustra un método para procesar imágenes de temporización de eventos capturadas por un sensor de imagen con escaneado de área en color tipo Bayer, de acuerdo con una realización.
La Figura 6 ilustra una realización del sistema de la Figura. 1 para ajustar el brillo de las imágenes TDI, de acuerdo con una realización.
La Figura 7 ilustra un método para ajustar el brillo de las imágenes integradas con retraso de tiempo mediante la variación del número de líneas incluidas en la integración con retardo de tiempo, de acuerdo con una realización.
La Figura 8 ilustra un método para mejorar el rango dinámico de las imágenes IDI mediante la selección del número de líneas incluidas en la integración con retardo de tiempo píxel a píxel, de acuerdo con una realización.
La Figura 9 ilustra un método para mejorar el rango dinámico de las imágenes TDI empleando un IDI fraccionario, de acuerdo con una realización.
La Figura 10A y la Figura 10B ilustran un sensor de imagen con escaneado de área que incluye un filtro dependiente de la posición para proporcionar capturas de imagen a distintos niveles de brillo, de acuerdo con una realización.
La Figura 11 ilustra un método para procesar imágenes de temporización de eventos para ajustar el brillo de una imagen TDI empleando el sensor de imagen con escaneado de área de la Figura 10A y la Figura 10B, de acuerdo con una realización.
La Figura 12 ilustra un método para procesar imágenes capturadas para generar una imagen TDI con el doble de resolución que las imágenes capturadas, de acuerdo con una realización.
color a una frecuencia de doble fotograma para generar una imagen TDI con el doble de resolución que las imágenes capturadas, de acuerdo con una realización.
La Figura 14 ilustra un sensor de imagen con escaneado de área en color tipo Bayer, donde cada componente fotosensible individual se emplea para doblar la resolución espacial de una cámara, de acuerdo con una realización.
La Figura 15 ilustra un sensor de imagen en color trilineal, donde las líneas individuales del componente fotosensible se emplean para triplicar la resolución espacial de una cámara, de acuerdo con una realización.
La Figura 16 ilustra un método para procesar imágenes de temporización de eventos, de acuerdo con una realización.
La Figura 17 ilustra un sensor de imagen con escaneado de área con configuración de filtro de color diagonal, donde los píxeles en color individuales incluyen una configuración de 3x3 de los componentes fotosensibles, de acuerdo con una realización.
La Figura 18 ilustra un método para procesar imágenes de temporización de eventos capturadas por un sensor de imagen con escaneado de área en color con píxeles en color con una variación bidimensional de los componentes fotosensibles, de acuerdo con una realización.
La Figura 19 ilustra dos sensores de imagen con escaneado de área en color ejemplares con múltiples regiones con diferentes propiedades de configuración de filtro de color, de acuerdo con las realizaciones.
La Figura 20 ilustra un sistema para grabar y opcionalmente imágenes de temporización de eventos, de acuerdo con una realización.
La Figura 21 ilustra un sistema para procesar imágenes de temporización de eventos empleando una cámara e identificación por radiofrecuencia, de acuerdo con una realización.
La Figura 22 ilustra un método para capturar imágenes de temporización de eventos, de acuerdo con una realización.
La Figura 23 ilustra un método para recortar una serie de imágenes para eliminar las imágenes no asociadas con un evento de interés, de acuerdo con una realización.
La Figura 24 ilustra un método para procesar imágenes de temporización de eventos, incluidas las imágenes integradas con retardo de tiempo de un objeto en movimiento, de acuerdo con una realización.
La Figura 25 ilustra los procesos de integración y lectura para el método de la Figura. 24, de acuerdo con una realización.
La Figura 26 ilustra los procesos de integración y lectura para el método de la Figura 24, de acuerdo con una realización.
La Figura 27 ilustra un sistema de cámara de integración con retardo de tiempo, de acuerdo con una realización.
La Figura 28 ilustra un método para alinear el sistema de cámara de integración con retardo de tiempo de la Figura 27, de acuerdo con una realización.
La Figura 29 ilustra imágenes ejemplares capturadas por el sistema de cámara de integración con retardo de tiempo de la Figura 27 implementando al tiempo el método de la Figura 28, en una realización.
de acuerdo con una realización.
La Figura 31 ilustra imágenes ejemplares capturadas por el sistema de cámara de integración con retardo de tiempo de la Figura 27, al tiempo que implementa el método de la Figura 30, en una realización.
La Figura 32 ilustra un sistema para generar y visualizar vídeos marcador empleando un sistema para procesar imágenes de temporización de eventos, de acuerdo con una realización.
La Figura 33 ilustra un método para generar y visualizar vídeos marcador empleando un sistema para procesar imágenes de temporización de eventos, de acuerdo con una realización.
La Figura 34 ilustra otro sistema más para procesar imágenes con temporización de eventos, de acuerdo con una realización.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES
[0018] Aquí se divulgan sistemas y métodos para procesar imágenes de temporización de eventos. En ciertas realizaciones, dichos sistemas emplean sensores de imagen con escaneado de área que captura diversas imágenes bidimensionales de una escena, como la zona de línea de meta en una carrera. Las diversas imágenes bidimensionales se procesan en el módulo de integración con retardo de tiempo, separado del área del sensor de imagen de barrido, para generar una imagen integrada con retardo de tiempo (TDI).
Como la integración con retardo de tiempo se lleva a cabo por separado del sensor de imagen, tras la lectura de las imágenes, el proceso de integración con retardo de tiempo puede optimizarse con flexibilidad durante o después de capturar las imágenes.
[0019] La Figura 1 ilustra un sistema ejemplar 100 para procesar imágenes de temporización de eventos. El sistema 100 es útil, por ejemplo, en un evento para capturar imágenes de un corredor, un coche o cualquier otro participante en una carrera (mostrado como objeto 135) que cruce la línea de meta. El sistema 100 incluye un sensor de imagen con escaneado de área 110 para capturar imágenes digitales bidimensionales 115 de una escena 130 tomadas por el sensor de imagen con escaneado de área 110 mediante óptica de imágenes 120. El sistema 100 incluye también un módulo de integración con retardo de tiempo (TDI) 140, una interfaz 150 y un reloj opcional 160 que proporciona una señal de tiempo al sensor de imagen con escaneado de área 110 y al módulo TDI 140. El módulo TDI 140 incluye circuitos de procesamiento de imágenes 141. El módulo TDI 140 asocia opcionalmente un tiempo de captura 165, recibido del reloj 160, a cada imagen digital bidimensional 115. El módulo TDI 140 recibe la serie de imágenes digitales bidimensionales consecutivas 115(i) del sensor de imagen con escaneado de área 110 y procesa dicha serie de imágenes 115(i) para proporcionar una TDI. En base a ello, el módulo TDI 140 proporciona una única imagen TDI integrada 145, que proporciona una instantánea en el tiempo de un objeto 135 a medida que se mueve a lo largo de la escena 130.
[0020] En la técnica anterior, la TDI se lleva a cabo con un sensor de imagen como parte de un proceso de lectura, y se añaden cargas o tensiones directamente de forma integrada al sensor de imagen antes de la lectura de las imágenes TDI. En la realización del sistema 100, por otro lado, el procesamiento de imágenes mediante el módulo TDI 140 se lleva a cabo de forma externa al sensor de imagen 110 y tras la lectura de las imágenes 115, según se muestra en la Figura 1, e implica el posprocesamiento de las imágenes digitales 115 más que los cambios en las cargas o tensiones de los píxeles en el sensor de imagen 110.
opcional 160 pueden estar integrados en una cámara 170. En una realización alternativa, el módulo TDI 140 y la interfaz 150 se implementan en un dispositivo externo o en un ordenador (no mostrados en la Figura 1). El sensor de imagen con escaneado de área 110 es, por ejemplo, un sensor de imagen con escaneado de área CMOS configurado con un obturador global o rolling shutter («rodante»), donde este último puede implementarse con reseteo rodante o global. Los circuitos de procesamiento de imágenes 141 son, por ejemplo, una red de puertas programables (FP- GA) configurada para procesar series de imágenes 115 y producir una imagen TDI 145. La interfaz 150 comunica imágenes a un usuario u ordenador externo y opcionalmente facilita el control del módulo TDI 140. En ciertas realizaciones, la interfaz 150 es una interfaz inalámbrica como una interfaz WiFi o Bluetooth.
[0022] En una realización, los circuitos de procesamiento de imágenes 141 incluyen instrucciones legibles por máquina codificadas en la memoria no volátil y un procesador para ejecutar estas instrucciones legibles por máquina para generar la imagen TDI 145 a partir de la serie de imágenes 115. En otra realización, los circuitos de procesamiento de imágenes 141 incluyen memoria volátil, para recibir instrucciones legibles por máquina codificadas en la memoria no volátil localizada en otra parte y un procesador para ejecutar estas instrucciones legibles por máquina para generar la imagen TDI 145 a partir de la serie de imágenes 115. Por ejemplo, la memoria volátil de los circuitos de procesamiento de imágenes 141 pueden recibir instrucciones legibles por máquina de una memoria EPROM (ROM programable borrable) o memoria Flash acoplada al sistema 100. En otra realización, el módulo TDI 140 incluye instrucciones de arranque legibles por máquina codificadas en la memoria no volátil, por ejemplo, en forma de registro de arranque, que se ejecutan cuando arranca el sistema 100. Las instrucciones de arranque incluyen instrucciones para recuperar a través de la interfaz 150 y cargar a los circuitos de procesamiento de imágenes 141, las instrucciones de procesamiento de imágenes legibles por máquina para procesar imágenes digitales bidimensionales 115(i) y opcionalmente los tiempos de captura 165 especificados más arriba. Las instrucciones de arranque pueden almacenarse en la memoria flash dentro del módulo TDI 140. Las instrucciones de procesamiento de imágenes se almacenan, por ejemplo, en una memoria no volátil dentro de un sistema de control externo.
[0023] La Figura 2 muestra una transformación esquemática ejemplar 200 de imágenes digitales bidimensionales consecutivas 115 en una imagen TDI 145 llevada a cabo por el módulo TDI 140 empleando circuitos de procesamiento de imágenes 141. La Figura 3 muestra un método ejemplar 300 para TDI empleado por el módulo TDI 140 en este proceso. Las Figuras 2 y 3 se consideran mejor juntas en la siguiente descripción. En la Figura 2, cada línea 146(j) en la imagen TDI 145 es una integral de una serie de líneas 118(i,j), donde cada línea 118(i,j) se extrae de una imagen bidimensional diferente 115(i). En una realización, la frecuencia de fotogramas a la que se capturan las imágenes bidimensionales 115(i) y el tono entre las líneas adyacentes 118(i,j) medido en un espacio de imagen, están configurados para coincidir sustancialmente con la velocidad de un objeto de interés que se mueva por la escena130 (dicho objeto 135 avanza a través de líneas sucesivas 118(i,j) a una frecuencia de una línea por fotograma). Una "línea" según se utiliza aquí, hace referencia a los datos de imagen formados por o formando una única columna o fila de una imagen bidimensional.
En un escenario de uso relacionado con la temporización de los participantes en una carrera cruzando una línea de meta, las líneas118 están ventajosamente orientadas para ser sustancialmente paralelas a la imagen de la línea de meta. Además es beneficioso alinear el sistema 100 de forma que la imagen de la línea de meta coincida con la línea 118 dada.
[0024] En una fase 310 del método 300, el módulo TDI 140 segmenta cada imagen digital bidimensional 115 dentro de la serie de imágenes 115(i) en líneas 118(i,j), donde i indica la imagen y j indica la línea dentro de esa imagen (no todas las líneas están etiquetadas en la Figura 2 para mayor claridad ilustrativa).
imágenes 115 de una fuente externa en forma de imágenes bidimensionales. En otra realización, el módulo TDI 140 recibe las imágenes 115 en forma de líneas 118 y la fase 310 se ejecuta como una parte integrante del proceso de recepción.
[0025] La imagen TDI 145 también se compone de múltiples líneas 146(i) (aunque solo la línea 146(7) está etiquetada en la Figura 2 para mayor claridad ilustrativa). En particular, en una fase 320, el módulo TDI 140 forma una serie de líneas 118(i,j), donde cada línea se extrae de una imagen diferente 115(i). A medida que el objeto 135 se mueve a través de la escena 130, la imagen capturada del objeto 135 se mueve a través de las líneas 118(i,j). Por ejemplo, tal y como se muestra en la Figura 2, una porción particular del objeto 135 (el torso del corredor) se encuentra en la línea 118(1,6) en la imagen 115(1), en la línea 118(2,7) en la imagen 115(2) y en la línea 118(3,8) en la imagen 115(3). La serie de líneas 118(i,j) formada en la fase 320 realiza un seguimiento del movimiento del objeto 135 a medida que este avanza mediante imágenes capturadas secuencialmente 115(i).
[0026] En una fase 330, el módulo TDI 140 integra la serie de líneas 118(i,j) para formar una línea única integrada 146(j). Por ejemplo, el píxel n de la línea integrada es la suma de todos los píxeles n de la serie de líneas 118(i,j).
En una fase 340, la línea 146(j) de la imagen TDI 145 está configurada para ser igual a la línea integrada generada en la fase 330. Utilizando el ejemplo del torso del corredor de la Figura 2, la línea 118(1,6) de la imagen 115(1), la línea 118(2,7) del a imagen 115(2) y la línea 118(3,8) de la imagen 115(3) están integradas en la fase 330 para formar una línea única integrada 146(7). La fase 330 puede utilizar un TDI fraccionaria, donde la línea única integrada 146(7) es la integral de un número no entero de líneas 118(i,j). Por ejemplo, la línea 146(7) puede formarse como la línea 118(1,6) la línea 118(2,7) x la línea 118(3,8), donde x es un número superior a cero e inferior a uno. Se trata más en detalle la TDI fraccionaria en conexión con el método 900 de la Figura 9.
[0027] Las fases 320 a 340 se repiten hasta que se han generado todas las líneas 146(j) de la imagen TDI 145. Nótese que pueden emplearse subconjuntos diferentes de una serie de imágenes 115(i) para generar diferentes líneas 146(j) de la imagen TDI 145.
[0028] En una fase 360, se produce la imagen TDI. Por ejemplo, el módulo TDI 140 (Figura 1) produce la imagen TDI 145 y la envía a la interfaz 150. La interfaz 150 puede estar conectada a un sistema externo, como un sistema de procesamiento externo, donde le módulo TDI 145 produce la imagen TDI y la envía al sistema de procesamiento externo.
[0029] En el ejemplo de la Figura 2, el módulo TDI 140 procesa tres imágenes consecutivas 115(1), 115(2) y 115(3) para generar la imagen TDI 145. A medida que el objeto 135 se mueve a través de la escena 130, la posición del objeto 135 cambia una línea por cada fotograma sucesivo. Una porción particular del objeto 135 (el torso del corredor) se encuentra en la línea 118(1,6) en la imagen 115(1), en la línea 118(2,7) en la imagen 115(2) y en la línea 118(3,8) en la imagen 115(3). La línea 146(7) de la imagen TDI 145 es la integral de la líneas 118(1,6) de la imagen 115(1), 118(2,7) de la imagen 115(2) y 118(3,8) de la imagen 115(3). Aunque similar a la imagen 115(3), la imagen TDI 145 muestra el objeto 135 con más brillo y una relación señal/ruido mejorada. Así pues, pueden capturarse las imágenes mediante el sensor de imagen con escaneado de área 110 a una frecuencia de fotograma mayor para hacerlos coincidir con la velocidad de un objeto que se mueva más rápidamente, o en entornos de menor iluminación, en comparación con sistemas que no utilizan el procesamiento TDI de las Figuras 1-3. Sin el procesamiento TDI, se precisan frecuencias de fotograma más lentas para capturar imágenes de sensibilidad suficiente para identificar objetos de interés, resultando en una resolución temporal menos definida.
[0030] Como se ilustra en la Figura 2, la imagen TDI 145 es adecuada para la temporización de un objeto 135 que pasa por una línea, como una línea de meta, ubicada para corresponderse con la línea 146(7) de la imagen TDI 145. Así, a la de capt ura 115(2). El ejemplo así ilustrado en la Figura 2 puede modificarse para la temporización del objeto 135 que atraviesa una línea que se corresponde con otra línea 146(i) de la imagen TDI 145, sin alejarse del alcance de la presente. Por ejemplo, la línea 146(8) de la imagen TDI 145 puede poblarse con la integral de las líneas 118(1,6) de la imagen 115(1), 118(2,7) de la imagen 115(2) y de la imagen 118(3,8) de la imagen 115(3) y a la imagen TDI 145 resultante se le puede dar una marca de tiempo que sea el tiempo asociado a la imagen 115(3). En general, las integrales que contribuyen a la imagen TDI 145 pueden llevarse a cabo con cualquier línea 146(i) de la imagen TDI 145 correspondiente a una línea de meta, u otra línea de temporización. De esta forma, a la imagen TDI 145 se le puede dar una marca de tiempo que sea el tiempo de cualquier imagen 115 que contribuya a la imagen TDI 145.
[0031] Los circuitos de procesamiento de imágenes 141 del módulo TDI 140 (Figura 1) pueden configurarse para procesar imágenes 115(i) asumiendo una dirección de movimiento de los objetos que pasen por la escena, tal y como se ha descrito en relación con las Figuras 2 y 3. El procesamiento llevado a cabo por los circuitos de procesamiento de imágenes 141 del módulo TDI 140 también pueden adaptarse para optimizar diferentes direcciones de movimiento del objeto. En una realización, el sensor de imagen con escaneado de área 110 se implementa como una configuración rectangular de píxeles y líneas 118(i,j) de imágenes 115 están orientadas de forma natural para coincidir con cualquier fila o columna de píxeles del sensor de imagen con escaneado de área 110. Para cada una de estas dos orientaciones de líneas 118(i,j), las imágenes 115 se procesan para optimizar el movimiento del objeto en cualquiera de las dos direcciones perpendiculares a las líneas 118(i,j). Puede procesarse una serie de imágenes 115(i) mediante los circuitos de procesamiento de imágenes 141 del módulo TDI 140 de distintas formas para proporcionar distintas imágenes TDI, cada una de ellas optimizada para las distintas direcciones de movimiento del objeto.
[0032] En una realización, las líneas 118(i,j) de la imagen 115(i) representan el número total de las filas o las columnas del sensor de imagen con escaneado de área 110, implementadas como una configuración rectangular de píxeles, correspondiente a la utilización de toda el área activa del sensor de imagen con escaneado de área 110. En otra realización, las imágenes 115 incluyen solo una porción del área activa, de modo que las líneas 118(i,j) de la imagen 115(i) representan solo un subconjunto del as filas y/o las columnas del sensor de imagen con escaneado de área 110. En otra realización, la imagen 115 incluye toda el área activa pero el módulo TDI 140 solo utiliza una porción de la misma, de modo que las líneas 118(i,j) de la imagen 115(i) representan solo un subconjunto de las filas y/o las columnas del sensor de imagen con escaneado de área 110.
[0033] En ciertas realizaciones, se repiten las fases 320 a 360 para dos porciones distintas no contiguas del área activa del sensor de imagen con escaneado de área 110 para generar dos imágenes TDI respectivas representativas de diferentes subconjuntos de una escena. Por ejemplo, el sensor de imagen con escaneado de área 110 y la óptica de imágenes 120 pueden alinearse de modo que la línea de meta de una carrera corte el eje óptico de la óptica de imágenes 120. Una porción seleccionada de las imágenes 115 capturadas por el sensor de imagen con escaneado de área 110 de una escena 130 muestra a los participantes en la carrera cruzando la línea de meta de una carrera, mientras otra porción seleccionada de imágenes 115 muestra a los participantes en la carrera cruzando una «prelínea de meta» secundaria, ubicada antes de la línea de meta real. En la imagen TDI generada a partir de la porción de imágenes 115 de línea de meta, los participantes en la carrera pueden taparse unos a otros. Como la prelínea de meta no corta el eje óptico de la óptica de imágenes 120, la imagen TDI generada a partir de la porción de imágenes 115 de prelínea de meta mostrará a los participantes en la carrera en un ángulo más frontal. Así, los participantes en la carrera podrán separarse con más facilidad en el ángulo proporcionado por la imagen TDI de prelínea de meta.
[0034] Los sistemas y métodos de las Figuras 1-3 difieren de los sistemas de dispositivos de carga acoplada (CCD) de la técnica anterior produciendo directamente una imagen TDI. En la técnica anterior CCD, las cargas fotoinducidas lectura del sensor de imagen sincronizado para generar la imagen TDI. Por el contrario, los sistemas y métodos de las Figuras 1-3 están basados en la generación de imágenes bidimensionales y los valores de píxeles de imagen de estas imágenes bidimensionales se procesan fuera del sensor de imagen para generar una imagen TDI, lo cual permite la optimización de poscaptura de diversos aspectos de una imagen TDI. Dichos aspectos incluyen, sin límite, el brillo de la imagen TDI, el rango dinámico, la nitidez, el nivel de ruido y la resolución (véanse, por ejemplo, las Figuras 4-18). Además, los sistemas y métodos aquí divulgados para generar imágenes TDI generan y/o utilizan imágenes bidimensionales que pueden emplearse para fines distintos de la TDI, como la alineación de la cámara (Figuras 27-31) o la generación de vídeo (Figuras 32-34); y las diferentes porciones de las imágenes bidimensionales generadas pueden procesarse y/o utilizarse de forma distinta (véanse, por ejemplo, las Figuras 3, 10, 11 y 19).
[0035] La Figura 4 ilustra un sensor de imagen con escaneado de área en color tipo Bayer ejemplar 400. El sensor de imagen con escaneado de área 400 es una realización de un sensor de imagen con escaneado de área 110 de la Figura 1. El sensor de imagen con escaneado de área en color 400 incluye una configuración de píxeles tipo Bayer. En la presente divulgación, una configuración de píxeles tipo Bayer es una configuración de píxeles donde cada píxel en color está formado por un componente fotosensible de primer tipo sensible a un primer color, un componente fotosensible de segundo tipo sensible a un segundo color y dos componentes fotosensibles de tercer tipo sensibles a un tercer color. Cada píxel en color 420 del sensor de imagen con escaneado de área en color 400 está formado por cuatro componentes fotosensibles 421, 422, 423 y 424. En una realización, el componente fotosensible 421 es sensible a la luz roja (R), los componentes fotosensibles 422 y 423 son sensibles a la luz verde (G) y el componente fotosensible 424 es sensible a la luz azul (B). El sensor de imagen con escaneado de área en color 400 se ilustra en la Figura 4 con tres líneas 410(1), 410(2) y 410(3) de píxeles en color. En una realización, las líneas 410 están orientadas sustancialmente de forma perpendicular a la dirección del movimiento de un objeto, por ejemplo, el objeto 135 (Figura 1). Cada línea 410 incluye múltiples píxeles en color 420. Solo se ilustra un píxel en color 420 para cada línea 410 en la Figura 4. La línea 410(1) incluye un píxel en color 420(1), la línea 410(2) incluye un píxel en color 420(2) y la línea 410(3) incluye un píxel en color 420(3). Los píxeles en color 420(1), 420(2) y 420(3) se encuentran en la misma posición vertical dentro de sus correspondientes líneas 410(2), 410(2) y 410(3). A medida que el objeto se desplaza, sustancialmente la misma porción del objeto puede ser representada por los píxeles en color 420(1), 420(2) y 420(3) según avanza el tiempo. Por ejemplo, el sensor de imagen con escaneado de área en color 400 puede capturar imágenes a una frecuencia de fotogramas que coincida con la velocidad con la que se mueve el objeto a lo largo del fotograma, tal y como se ha descrito en relación con las Figuras 2 y 3. El sensor de imagen con escaneado de área en color 400 puede estar compuesto por más de tres líneas 410 sin alejarse del alcance de la presente. Del mismo modo, los componentes fotosensibles 421, 422, 423 y 424 pueden estar dispuestos de forma distinta dentro del píxel en color 420, sin alejarse del alcance de la presente. Por ejemplo, pueden intercambiarse las ubicaciones de dos o más componentes fotosensibles 421, 422, 423 y 424 en comparación con la ilustración de la Figura 4. Una dirección de movimiento de un objeto ejemplar se indica mediante la flecha 430.
[0036] La Figura 5 ilustra un método ejemplar 500 para generar una imagen TDI a partir de imágenes capturadas por un sensor de imagen con escaneado de área en color con una configuración de píxeles de tipo Bayer. El método 500 puede hacerse extensivo para generar una imagen TDI a partir de imágenes capturadas por un sensor de imagen con escaneado de área en color donde cada píxel en color se componga de componentes fotosensibles dispuestos de dos en dos, sin alejarse del alcance de la presente.
El método 500 es una realización del método 300 (Figura 3) aplicable a la generación de imágenes TDI por el sistema 100 (Figura 1) con el sensor de imagen con escaneado de área en color 400 de la Figura 4 implementado como sensor de imagen con escaneado de área 110 (Figura 1). El método 500 asume que el sensor de imagen con escaneado de área en color captura las imágenes 115 (Figuras 1 y 2) a una frecuencia de fotograma tal que un objeto de interés avanza a por fotograma. Por ejemplo, el sensor de imagen con escaneado de área en color 400 (Figura 4) captura imágenes de la escena 130 (Figura 1) a una frecuencia tal que el objeto 135 (Figura 1) avanza a través de las líneas 410 (Figura 4) a una frecuencia de una línea por fotograma en la dirección que indica la flecha 430 (Figura 4). El método 500 lo lleva a cabo, por ejemplo, el módulo TDI 140 (Figura 1).
[0037] En una fase 510, cada imagen bidimensional capturada por el sensor de imagen con escaneado de área en color se recibe en forma de filas. Las filas están orientadas en paralelo a las líneas del método 300 (Figura 3), de tal forma que una línea del método 300 se corresponde con dos líneas del método 500. Las dos filas son una fila R y G compuesta de señales de R y componentes fotosensibles G y una fila G' y B compuesta de señales de los componentes fotosensibles G' y B. Por ejemplo, el módulo TDI 140 (Figura 1) recibe las imágenes bidimensionales 115 (Figura 1) capturadas por el sensor de imagen con escaneado de área en color 400 (Figura 4) como filas, de forma que cada línea 410 (Figura 4) va asociada a dos filas: (a) una fila compuesta por todas las señales de componentes fotosensibles R1 (421 (1)) y G1 (422(1)) de la línea 410 y (b) una fila compuesta por todas las señales de componentes fotosensibles G1' (423(1)) y B1 (424(1)) de la línea 410. En otro ejemplo, el módulo TDI 140 (Figura 1) recibe las imágenes bidimensionales 115 (Figura 1), capturadas por el sensor de imagen con escaneado de área en color 400 (Figura 4), en un formato arbitrario. El módulo TDI 140 (Figura 1) procesa las imágenes bidimensionales 115 (Figura 1) para generar filas, de forma que cada línea 410 (Figura 4) va asociada a dos filas: (a) una fila compuesta por todas las señales de componentes fotosensibles R1 y G1 de la línea 410 y (b) una fila compuesta por todas las señales de componentes fotosensibles G1' y B1 de la línea 410.
[0038] T ras la fase 510, el método 500 procede a poblar cada línea de la imagen TDI llevando a cabo las fases 521, 522, 531, 532 y 540 para cada línea de la imagen TDI. Las fases 521 y 531 se llevan a cabo secuencialmente, como las fases 522 y 532. Las fases secuenciales 521 y 531 pueden llevarse a cabo en paralelo o en serie con las fases secuenciales 522 y 532. En la fase 521, se forma una serie de filas R y G, donde cada fila R y G se extrae de una imagen diferente. La serie de filas R y G sigue la progresión de un objeto a través de una escena, tal y como se ha descrito en relación con las Figuras 2 y 3. Por ejemplo, el módulo TDI 140 (Figura 1) forma una serie de filas R y G asociadas a las respectivas series de líneas 410(1), 410(2) y 410(3) del sensor de imagen con escaneado de área en color 400 (Figura 4). La serie de filas R y G se extrae de una respectiva serie de imágenes capturadas secuencialmente 115 (Figura 1), donde las imágenes 115 se capturan a una frecuencia de fotograma tal que un objeto 135 (Figura 1) se mueve a través del fotograma a una frecuencia de una línea 410 por fotograma. En la fase 531, la serie de filas R y G generada en la fase 521 se integra para formar una fila R y G única integrada. Por ejemplo, el módulo TDI 140 (Figura 1) integra la serie de filas R y G generada en la fase 521 para formar una fila R y G única integrada. En la fase 522, se forma una serie de filas G' y B, cada una a partir de una imagen diferente. La serie de filas G' y B sigue la progresión de un objeto a través de una escena, tal y como se ha descrito en relación con las Figuras 2 y 3. Por ejemplo, el módulo TDI 140 (Figura 1) forma una serie de filas G' y B asociadas a las respectivas series de líneas 410(1), 410(2) y 410(3) del sensor de imagen con escaneado de área en color 400 (Figura 4). La serie de filas G' y B se extrae de una respectiva serie de imágenes 115 capturadas secuencialmente (Figura 1), donde las imágenes 115 se capturan a una frecuencia de fotograma tal que un objeto 135 (Figura 1) se mueve a través del fotograma a una frecuencia de una línea 410 por fotograma. En la fase 532, la serie de filas G' y B generada en la fase 522 se integra para formar una fila G' y B única integrada. Por ejemplo, el módulo TDI 140 (Figura 1) integra la serie de filas G' y B generadas en la fase 522 para formar una fila G' y B única integrada.
[0039] En la fase 540, la fila única R y G integrada generada en la fase 531 se combina con la fila única G' y B integrada generada en la fase 532 para formar una línea de píxeles en color única. Esta línea de píxeles en color incluye los datos de color de R, G, G' y B y forma una línea de una imagen TDI. Por ejemplo, el módulo TDI 140 (Figura 1) combina la fila R y G con la fila G' y B. En una realización de la fase 530, la combinación se lleva a cabo de tal forma que cada píxel en color de la línea TDI se representa mediante un cuadruplete formado por los cuatro valores individuales R, G, G' y B. En un triplete formado por tres valores individuales: R, la media de G y G' y B. En otra realización, la combinación se lleva a cabo de tal forma que cada píxel en color de la línea TDI se representa mediante dos tripletes: uno formado por los valores R, G y B y otro formado por los valores R, G' y B. Tras la fase 540, el método lleva a cabo la fase 360 del método 300 (Figura 3).
[0040] Si bien el sensor de imagen con escaneado de área 400 de la Figura 4 y el método 500 de la Figura 5 se describen en el contexto de una configuración de filtro de color tipo Bayer, tanto el sensor de imagen con escaneado de área 400 como el método 500 pueden extenderse a configuraciones de filtro de color no Bayer sin alejarse del alcance de la presente. En una realización, los componentes fotosensibles 421,422, 423 y 444 (Figura 4) son sensibles a cuatro colores diferentes, de forma que G' representa un color diferente de G. Esto se corresponde con una realización del método 500 (Figura 5) donde los componentes fotosensibles G' se corresponden con un color diferente de los componentes fotosensibles G. El sensor de imagen con escaneado de área 400 (Figura 4) y el método 500 (Figura 5) pueden extenderse a las configuraciones de filtro de color con otras configuraciones geométricas de componentes fotosensibles. Por ejemplo, cada píxel en color puede estar formado por un mayor número de componentes fotosensibles, como componentes fotosensibles en 3x3. En otro ejemplo, cada píxel en color tiene un número de componentes fotosensibles apilados verticalmente como en el sensor Foveon X3 de Foveon, Inc.
[0041] La Figura 6 ilustra un sistema 600 ejemplar para procesar imágenes de temporización de eventos, que es una realización del sistema 100 de la Figura 1. El sistema 600 incorpora una funcionalidad para ajustar el brillo de las imágenes TDI mediante el ajuste de uno o más parámetros, incluido el número de líneas 118 (Figuras 1 y 2) en una serie de imágenes bidimensionales capturadas secuencialmente 115 (Figuras 1 y 2) empleadas para generar cada línea 146 (Figura 2) de la imagen TDI 145 (Figuras 1 y 2).
[0042] El sistema 600 incluye un sensor de imagen con escaneado de área 610, óptica de imágenes 620, y un módulo TDI 640, que son realizaciones de un sensor de imagen con escaneado de área 110, óptica de imágenes 120, y un módulo TDI 140, respectivamente, del sistema 100 (Figura 1). El sensor de imagen con escaneado de área 610 incluye ajustes del sensor 630. Los ajustes del sensor 630 incluyen un ajuste de ganancia 632 que define la ganancia electrónica del sensor de imagen con escaneado de área 610, un ajuste de la frecuencia de fotogramas 634 que define la frecuencia a la que el sensor de imagen con escaneado de área 610 captura los fotogramas, por ejemplo, las imágenes 115 (Figuras 1 y 2), y un ajuste del tiempo de exposición 636 que define el tiempo de exposición para las imágenes capturadas por el sensor de imagen con escaneado de área 610.
[0043] La óptica de imágenes 620 incluye una apertura ajustable opcional 622, como un iris, que afecta a la cantidad de luz transportada a través de la óptica de imágenes 620. Así, la apertura opcional 622 puede ajustarse para alcanzar un cierto brillo de la imagen formada por la óptica de imágenes 620 en el sensor de imagen con escaneado de área 610. Opcionalmente, la óptica de imágenes 620 incluye también un filtro configurable 624. En una realización, el filtro configurable 624 incluye uno o más de los siguientes elementos: (a) una porción de filtro de infrarrojos para bloquear al menos una porción de luz infrarroja y evitar que alcance el sensor de imagen con escaneado de área 610, (b) uno o más filtros de densidad neutros para reducir la cantidad de luz transmitida por la óptica de imágenes 620, y (c) un filtro en blanco para transmitir luz sin filtrar. En una realización, el filtro configurable 624 está motorizado y puede controlarse mediante una señal de control eléctrica.
[0044] El módulo TDI 640 incluye además circuitos de procesamiento de imágenes 641 como una realización de los circuitos de procesamiento de imágenes 141 (Figura 1). Los circuitos de procesamiento de imágenes 641 incluyen un ajuste opcional del número de línea 642, un valor límite opcional 644, y un ajuste de ganancia digital opcional 646. El línea 642 puede configurarse en el número máximo de líneas que el sensor de imagen con escaneado de área 610 puede proporcionar, o un subconjunto del mismo. El valor límite 644 es un límite para el valor que un píxel de imagen TDI único puede alcanzar durante la generación de la misma. El ajuste de ganancia digital 646 define una ganancia digital aplicada a las imágenes 115 (Figuras 1 y 2) y/o una imagen TDI generada a partir de ahí. El módulo TDI 640 puede emplear el ajuste del número de línea 642 y/o el ajuste de ganancia digital 646 junto Con el método 700 de la Figura 7, descrito más abajo, para ajustar el brillo de las imágenes TDI 145. El módulo TDI 640 puede además emplear el ajuste de ganancia digital 646 junto con el método 900 de la Figura 9, descrito más abajo, para realizar TDI fraccionaria. El módulo TDI 640 puede emplear el valor límite 644 junto con el método 800 de la Figura 8, descrito más abajo, para ajustar el brillo de las imágenes TDI 145 píxel a píxel, mejorando así el rango dinámico de las imágenes TDI 145.
[0045] En ciertas realizaciones, el sistema 600 incluye un reloj 160 (Figura 1) para comunicar una señal de tiempo, como un tiempo de captura 165, al sensor de imagen con escaneado de área 610, el módulo TDI 640, la interfaz 150 y un controlador 650. El sensor de imagen con escaneado de área 610, la óptica de imágenes 620, el módulo TDI 640, el controlador 650, la interfaz 150 y un reloj opcional 160 pueden integrarse en una cámara 670. La cámara 670 es una realización de la cámara 170 (Figura 1).
[0046] El controlador 650 comunica las señales de control 615, 625 y 645 al sensor de imagen con escaneado de área 610, a la óptica de imágenes 620 y al módulo TDI 640, respectivamente. La señal de control 615 ajusta el ajuste de ganancia 632, el ajuste de frecuencia de fotograma 634 y, opcionalmente, el tiempo de exposición 636. En una realización, el sensor de imagen con escaneado de área 610 está configurado para maximizar el ajuste del tiempo de exposición 636 para las imágenes 115 (Figuras 1 y 2) dado un cierto ajuste de frecuencia de fotograma 634. En este caso, el ajuste del tiempo de exposición 636 es aproximadamente el valor inverso del ajuste de frecuencia de fotograma 634. Por ello, el ajuste de la frecuencia de fotograma 634 define el ajuste del tiempo de exposición 636 y puede ajustarse para ajustar el brillo de las imágenes 115 (Figuras 1 y 2). En una realización alternativa, el ajuste del tiempo de exposición 636 puede reducirse en comparación al tiempo de exposición máximo asociado a un ajuste de frecuencia de fotograma dado 634. En este caso, la señal de control 615 puede ajustar el tiempo de exposición directamente.
[0047] En una realización, la señal de control 625 ajusta bien la apertura 622, bien el filtro configurable 624, o ambos. Por ejemplo, la señal de control 625 ajusta el diámetro de apertura 622 para ajustar el brillo de las imágenes formadas en el sensor de imagen con escaneado de área 610. En otro ejemplo, la señal de control 625 ajusta qué porción del filtro configurable 624 se encuentra en el camino de la luz.
[0048] En otra realización, la señal de control 645 ajusta el ajuste del número de línea 642, el valor límite 644 y/o la ganancia digital 646. El número de líneas 118 empleado para generar una línea TDI 146 es un parámetro que puede ajustarse para ajustar el brillo del objeto 135 (Figuras 1 y 2) en la imagen TDI 145. Por ejemplo, el brillo del objeto 135 en una línea TDI 146 generada a partir de veinte líneas 118 dobla al alcanzado en una línea TDI 146 generada a partir de diez líneas 118. Del mismo modo, el valor límite 644, tal y como se describe más abajo en relación con la Figura 8, es un parámetro que puede ajustarse para ajustar el aspecto, mediante el ajuste del brillo local, del objeto 135 (Figuras 1 y 2) en la imagen TDI 145. El ajuste de ganancia digital 646 es un parámetro que puede emplearse para ajustar a nivel global o local el brillo de la imagen TDI 145.
[0049] Así, el sistema 600 proporciona ocho parámetros ajustables para alcanzar un cierto brillo de la imagen TDI 145: el ajuste de ganancia 632, el ajuste de la frecuencia de fotograma 634, el tiempo de exposición 636, el tamaño de apertura 622, el ajuste del filtro configurable 624, el ajuste del número de línea 642, el valor límite 644 y la ganancia digital 646. En sobre p ropiedades de las imágenes 115 distintas del brillo.
En ciertas realizaciones, ejemplificadas por la ilustración de la Figura 2, el ajuste de la frecuencia de fotograma 634 se fija para hacerlo coincidir con la frecuencia de movimiento del objeto 135 para el espaciado de las líneas 118 de las imágenes 115. Así pues, el ajuste de la frecuencia de fotograma 634 no está disponible para el ajuste del brillo. El ajuste del tiempo de exposición 636 está limitado hacia arriba por el ajuste de la frecuencia de fotograma 634 y podría no estar disponible para aumentar el brillo. Típicamente, el ajuste de ganancia 632 afecta al nivel de ruido de las imágenes 115, de forma que un valor incrementado del ajuste de la ganancia 632 va asociado con un mayor ruido en las imágenes 115.
[0050] En escenarios de uso, donde el brillo del objeto 135 (Figura 1) es demasiado alto, por ejemplo, de forma que algunas porciones de una imagen capturada por el sensor de imagen con escaneado de área 610 se encuentran saturadas, el ajuste del filtro configurable 624 puede ajustarse para reducir la cantidad de luz transmitida. Sin embargo, dicho ajuste puede realizarse, típicamente, solo en incrementos discretos. El ajuste de tiempo de exposición 636 y/o el ajuste de ganancia digital 646 pueden emplearse en un escenario que permita ajustar de forma más exacta el brillo de un objeto 135 (Figura 1), por ejemplo junto con el ajuste del ajuste del filtro configurable 624.
[0051] En escenarios de uso donde el brillo del objeto 135 en la imagen formada en el sensor de imagen con escaneado de área 610 es bajo, el rango de ajuste de ganancia 632 puede limitarse a un rango que produzca imágenes 115 de una relación señal/ruido requerida. El tamaño de apertura 622 está relacionado, en la mayoría de los sistemas de imágenes ópticas, con la profundidad de enfoque. El tamaño de apertura 622 puede incrementarse para aumentar el brillo de la imagen 115 (Figuras 1 y 2); sin embargo, esto reduce la profundidad de enfoque. Así pues, en algunos escenarios de uso, el tamaño de apertura 622 está limitado hacia arriba por los requisitos de profundidad de enfoque. El ajuste de ganancia digital 646 puede utilizarse para incrementar el brillo del objeto 135; pero el ajuste de ganancia digital 646 afectará, en general, a la señal y al ruido por igual de forma que la relación señal/ruido quedarán sin mejorar. Así pues, es ventajoso poder ajustar el brillo de la imagen TDI 145 mediante el ajuste del número de línea 642, bien solo o en combinación con el ajuste de uno o más de los siguientes elementos: ajuste de ganancia 632, ajuste de frecuencia de fotograma 634, ajuste del tiempo de exposición 636, ajuste de ganancia digital 646, tamaño de apertura 622 y ajuste del filtro configurable 624. Como alternativa al ajuste del brillo mediante el ajuste del número de línea 642, el brillo puede ajustarse mediante el valor límite 644. El valor límite 644 facilita un ajuste del brillo local, que puede emplearse para mejorar el rango dinámico de la imagen TDI 145 además de ajustar el brillo general de la imagen TDI 145.
[0052] El controlador 650 puede comunicarse con el módulo TDI 640, el sensor de imagen con escaneado de área 610 y, opcionalmente, con la óptica de imágenes 620 mediante la interfaz 150, sin alejarse del alcance de la presente. Del mismo modo, todo o algunas porciones de la función del controlador 650 pueden ir colocarse de forma externa al sistema 600 y estar acoplado a y comunicarse con el sistema 600 mediante la interfaz 150, sin alejarse del alcance de la presente.
[0053] La Figura 7 ilustra un método ejemplar para ajustar el brillo de la imagen TDI 145 (Figuras 1 y 2) empleando el sistema 600 de la Figura 6. En una fase 710, el ajuste del número de línea 642 se configura en un cierto valor. Por ejemplo, el controlador 650 (Figura 6) comunica la señal de control 645 (Figura 6) al módulo TDI 640 (Figura 6). En ciertas realizaciones, el ajuste del número de línea 642 es un valor no entero, tal y como se ha descrito en relación con el método 900 (Figura 9). En una fase opcional 720, se ajustan los valores de uno o más de los siguientes elementos: ajuste de ganancia 632 (Figura 6), ajuste de frecuencia de fotograma 634 (Figura 6), ajuste del tiempo de exposición 636 (Figura 6), ajuste de ganancia digital 646 (Figura 6), tamaño de apertura 622 (Figura 6) y ajuste del filtro configurable 624 (Figura 6). Por ejemplo, el controlador 650 (Figura 6) comunica señales de control 615 (Figura 6) y/o 625 (Figura 6) al sensor de imagen con escaneado de área 610 y a la óptica de imágenes 620, respectivamente. Puede invertirse el orden de la fase una imagen TDI 145 (Figuras 1 y 2). Por ejemplo, se capturan una serie de imágenes 115(i) (Figuras 1 y 2) mediante el sensor de imagen con escaneado de área 610 (Figura 6) y se procesan mediante el módulo TDI 640 (Figura 6), de acuerdo con el método 500 (Figura 5), empleando los circuitos de procesamiento de imágenes 641.
[0054] En una fase opcional 740, se evalúa el brillo de la imagen TDI 145. Según el resultado de la evaluación, el método 700 puede volver a la fase 710 para un ajuste adicional del brillo. En una realización, el controlador 650 o un ordenador externo al sistema 600 lleva a cabo la fase 740 automáticamente. En otra realización, un operador lleva a cabo manualmente la fase 740.
[0055] En ciertas realizaciones, los parámetros disponibles para el ajuste del brillo en las fases 720 y 730 van asociados a uno o más de los siguientes elementos: valor meta, valor mínimo y valor máximo. Además, a cada parámetro se le puede asignar una prioridad de forma que el método 700 se lleve a cabo de acuerdo con una secuencia especificada de ajustes de parámetros. El método 700 puede llevarse a cabo automáticamente y/o puede llevarlo a cabo un operador.
[0056] En un escenario de uso ejemplar, las imágenes se capturan durante la puesta de sol, de forma que el entorno pierde luz gradualmente y el método 700 se lleva a cabo automáticamente para incrementar el brillo de la imagen TDI. El ajuste de ganancia 632 puede encontrarse, inicialmente, en un valor meta especificado. Para aumentar el brillo, el método 700 puede incrementar primero el tamaño de apertura 622 hasta un valor máximo especificado, por ejemplo, un valor que se sepa que no afecta negativamente a otras propiedades de la imagen. Si el ajuste es insuficiente, el método 700 puede proceder a incrementar el valor del ajuste del número de línea 642 hasta un valor máximo especificado. Si esto también resulta insuficiente, el método 700 puede incrementar el ajuste de ganancia 632, tras la aprobación por parte de un operario, más allá de un valor meta especificado hasta su máximo valor.
[0057] Ninguna de las fases del método 700 precisa un sensor de imagen con escaneado de área ni imágenes de barrido. Así pues, el método 700 puede extenderse a sistemas equivalentes al sistema 600 de la Figura 6, con un sensor de imagen con escaneado de área 610 sustituido por otro tipo de sensor de imagen como un sensor de imagen con escaneado de línea, sin alejarse del alcance de la presente. Además, las operaciones de la fase 720 pueden aplicarse a una cámara basada en un sensor de imagen con escaneado de área o un sensor de imagen que no tenga escaneado de área, como un sensor de imagen con escaneado de línea, donde estas cámaras se emplean en aplicaciones que no incluyen TDI. En este caso, las imágenes capturadas se evalúan directamente para dirigir el rendimiento de la fase 720.
[0058] La Figura 8 ilustra un método ejemplar 800 para proporcionar un rango dinámico mejorado de un sistema TDI. El método 800 es una extensión del método 700 (Figura 7), donde el número de líneas empleado para generar una imagen TDI se determina automáticamente píxel a píxel. Una escena, por ejemplo, la escena 130 (Figura 1), tomada por un sistema TDI puede incluir áreas brillantes y oscuras. El objeto de interés, como el objeto 135 (Figura 1), puede ser significativamente menos brillante que otros objetos que no son de interés. Del mismo modo, algunas porciones del objeto de interés pueden ser mucho más brillantes que otras porciones del mismo. El método 800 permite emplear más líneas al poblar los píxeles de la imagen TDI asociada a áreas oscuras y menos líneas al poblar píxeles de la imagen TDI asociada a áreas brillantes.
[0059] En general, el ruido es más aparente en un área oscura, mientras que el difuminado es más aparente en un área brillante. El difuminado puede estar provocado por una falta de concordancia entre la frecuencia de fotogramas de captura de la imagen y la frecuencia de movimiento local o global del objeto. Así, para una porción de brillo dada de un objeto de interés, el número de líneas empleado para generar un píxel de una imagen TDI se mantiene ventajosamente bajo para minimizar la cantidad de difuminado potencial asociado a una falta de correspondencia entre la frecuencia de fotogramas de captura de la imagen y la frecuencia de movimiento de la porción del objeto dada. Para una porción oscura de un relación señal/ruido. El método 800 incrementa el rango dinámico de una imagen TDI más allá del rango dinámico del sensor de imagen empleado para capturar las imágenes a partir de las que se genera la imagen TDI. De este modo, el método 800 puede ser empleado ventajosamente por un sistema de temporización de eventos para garantizar imágenes TDI de alta calidad.
[0060] El método 800 se lleva a cabo, por ejemplo, mediante el módulo TDI 140 del sistema 100 (Figura 1), o mediante el módulo TDI 640 del sistema 600 (Figura 6) empleando el valor límite 642 (Figura 6).
[0061] En un escenario ejemplar, la escena 130 es un área de meta de una carrera de caballos nocturna, donde 135 es un caballo de carreras, y el área de meta está iluminada por las luces del estadio. Algunas porciones del caballo de carreras aparecen muy brillantes debido al reflejo de las luces del estadio alrededor del caballo de carreras. Otras porciones del caballo de carreras, que están en sombra, aparecen muy oscuras. El método 800 permite incrementar el rango dinámico de la imagen TDI más allá del rango dinámico del sensor de imagen empleado para capturar la imagen, de forma que las porciones brillantes del caballo de carreras aparezcan con un difuminado mínimo y las porciones oscuras del caballo de carreras aparezcan con una relación señal/ruido máxima.
[0062] En una fase 810, se recibe un valor límite para el brillo de un píxel TDI pixel. Por ejemplo, el módulo TDI 640 (Figura 6) recibe un valor límite de la interfaz 150 (Figuras 1 y 6)) mediante el controlador 650 y almacena este valor límite para valor límite 644 (Figura 6). Tras la fase 810, el método 800 lleva a cabo las fases 820, 830 y 840 para cada píxel de la imagen TDI.
[0063] En la fase 820, el valor inicial de la imagen TDI se configura como el valor de un píxel correspondiente en una de las imágenes capturadas. Por ejemplo, el módulo TDI 640 (Figura 6) configura el valor inicial del píxel TDI como el valor de un píxel correspondiente de una de las imágenes 115 (Figuras 1 y 6) recibidas del sensor de imagen con escaneado de área 110 (Figuras 1 y 6).
[0064] En la fase 830, los valores de los píxeles correspondientes de otras imágenes capturadas se añaden secuencialmente al valor inicial generado en la fase 820, mientras que la suma es inferior al valor límite recibido en la fase 810. Así, en el caso de una porción de imagen brillante, la suma puede limitarse a un subconjunto pequeño de los valores de píxel disponibles. Por el contrario, en el caso de una porción de imagen oscura, la suma puede incluir todos los valores de píxel disponibles. Los píxeles correspondientes de otras imágenes capturadas se seleccionan de acuerdo con lo descrito en relación con la fase 320 del método 300 (Figura 3), para hacerlos coincidir con la progresión de un objeto de interés a través de la escena. El módulo TDI 640 genera un valor de píxel TDI que se corresponde con el cese de la suma antes de que esta exceda el valor límite. Por ejemplo, el módulo TDI 640 (Figura 6) se añade secuencialmente al valor inicial de los valores de píxel TDI de los píxeles correspondientes de las imágenes 115 (Figuras 1, 2 y 6) diferente de la imagen 115 empleada en la fase 820, mientras que el valor de píxel TDI es inferior al valor límite 644 (Figura 6).
[0065] En ciertas realizaciones, la fase 830 incluye una fase opcional 835 para centrar los valores de píxel empleando la suma en una línea deseada en las imágenes capturadas, como por ejemplo una línea correspondiente a una ubicación de línea de meta. La fase 835 garantiza que todos los píxeles de la imagen TDI se basen en datos de entrada centrados de forma óptima. La fase 835 puede incorporarse a la fase 830 de forma interactiva. Por ejemplo, el módulo TDI 640 (Figura 6) puede emplear un total de solo dos valores de píxel en las fases 820 y 830, donde los dos valores de píxel se extraen de las primeras imágenes capturadas 115 (Figuras 1, 2 y 6). Esto se corresponde con un objeto de interés, como el objeto 135 (Figuras 1 y 2) en su posición más a la izquierda en las imágenes 115. Con todo, la imagen de la línea de meta puede ver su posición modificada en un cierto número de píxeles y la fase 830 repite la suma empleando dos líneas de imágenes 115 centradas de forma óptima en la imagen de la línea de meta.
830. Esto mantiene la escala relativa original de porciones oscuras y brillantes de la imagen. Por ejemplo, el módulo TDI 640 (Figura 6) multiplica el valor de píxel TDI generado en la fase 830 con un valor incluido en el ajuste de ganancia digital 646 (Figura 6). Este valor puede ser el factor Nmax/Nused, donde Nmax es el número completo de valores de píxel disponibles en la fase 830, y Nused es el número de valores de píxel empleados en la fase 830.
[0067] Tras llevar a cabo las fases 820, 830 y 840 para todos los píxeles de la imagen TDI, los píxeles TDI se combinan para formar la imagen TDI en una fase 850. Por ejemplo, el módulo TDI 640 (Figura 6) combina todos los valores de píxel TDI generados por la fase 830 para formar la imagen TDI 145 (Figuras 1 y 6).
[0068] En una fase opcional 860, las imágenes TDI generadas en la fase 850 se normalizan para representar las imágenes con un rango dinámico más bajo. Por ejemplo, el módulo TDI 640 (Figura 6) aplica métodos de procesamiento de imágenes estándar conocidos por cualquier persona familiarizada con la técnica, como correcciones gamma, para generar una imagen TDI normalizada con una profundidad de bits idéntica a la del sensor de imagen con escaneado de área 610 empleado para capturar las imágenes 115.
[0069] En ciertas realizaciones, el método 800 se ejecuta de forma que el número de líneas empleado para generar la imagen TDI se determina en base a cada línea TDI individual. Estas realizaciones pueden llevarse a cabo ventajosamente con la fase 860 incluida en el método 800. En estas realizaciones, el número de valores de píxel contribuyentes de las fases 830 y 840 es idéntico para todos los píxeles TDI pertenecientes a una línea TDI dada. La fase 830 puede ejecutarse siendo la "suma", por ejemplo, el valor máximo de sumas de píxeles TDI individuales asociados con la línea TDI en cuestión. En este caso, el píxel TDI más brillante define el número de valores de píxel contribuyentes para la línea TDI. Alternativamente, la fase 830 puede ejecutarse siendo la "suma" el valor promedio de las sumas de píxeles TDI individuales asociados con la línea TDI en cuestión. En otro ejemplo, la fase 830 se ejecuta siendo la "suma" el percentil n de las sumas de los píxeles TDI individuales asociados a la línea TDI en cuestión, donde n es un número entre 0 y 100.
[0070] La Figura 9 ilustra un método ejemplar 900 para mejorar el rango dinámico de las imágenes TDI empleando TDI fraccionaria. El método 900 es una realización del método 800 de la Figura 8 incluyendo además TDI fraccionaria. La TDI fraccionaria permite la inclusión de fracciones de los valores de píxel de la imagen capturada que contribuyen a un píxel TDI. A efectos de comparación, el método 800 se restringe a fases enteras en el número de valores de píxel de la imagen capturada que contribuyen a un píxel TDI. Así, dos píxeles TDI adyacentes, asociados con un brillo similar en las imágenes capturadas y generadas empleando el método 800, pueden tener, por ejemplo, dos y tres valores de píxel contribuyentes, respectivamente. En algunas situaciones, puede resultar de ello una fase discreta en propiedades de ruido y/o difuminado entre los dos píxeles TDI adyacentes. El método 900, por otro lado, permite añadir valores de píxel fraccionarios de forma que los dos píxeles TDI adyacentes anteriormente mencionados muestren una transición suave en propiedades de ruido y/o difuminado.
[0071] El método 900 lleva a cabo primero la fase 810 (Figura 8). A continuación, el método 900 lleva a cabo las fases 820 (Figura 8), 930 y 940 para todos los píxeles de la imagen TDI. La fase 930 es una modificación de la fase 830 (Figura 8) que emplea además valores de píxel fraccionarios. En la fase 930, los valores de los píxeles correspondientes de otras imágenes capturadas se añaden secuencialmente al valor inicial generado en la fase 820, hasta que la suma es igual al valor límite recibido en la fase 810. En general, el último valor de píxel añadido es un valor de píxel fraccionario. Por ejemplo, el módulo TDI 640 (Figura 6) se añade secuencialmente al valor inicial del píxel TDI, extraído de la línea 118(1,6) (Figura 2), el valor de píxel correspondiente de la línea 118(2,7) (Figura 2) y una fracción x del valor de píxel correspondiente de la línea 118(3,8) (Figura 2), donde la fracción x se encuentra entre cero y uno. Así, en este ejemplo, un total de 2+x valores de píxel contribuyen al valor de píxel TDI. En una realización, la fase 930 incluye además una fase permite el escalado no entero del valor de píxel TDI generado en la fase 930 para justificar la inclusión de valores de píxel fraccionarios en la fase 930. Por ejemplo, el módulo TDI 640 (Figura 6) multiplica en valor de píxel TDI generado en la fase 930 por un valor incluido en el ajuste de ganancia digital 646 (Figura 6). Este valor puede ser el factor Nmax/Nused, donde Nmax es el número completo de valores de píxel disponibles en la fase 930, y Nused es el número, posiblemente no entero, de valores de píxel empleados en la fase 930. Empleando el ejemplo descrito en relación con la fase 930, Nused es 2+x. Tras completar las fases 820, 930 y 940 para todos los píxeles de la imagen TDI, el método 900 lleva a cabo la fase 850 (Figura 8) y opcionalmente la fase 860 (Figura 8).
[0072] Según lo descrito para el método 800 de la Figura 8, el método 900 puede ejecutarse de forma que el número de líneas empleadas para generar la imagen TDI se determine en base a cada línea TDI individual.
[0073] Las Figuras 10A y 10B ilustran un sensor de imagen de escaneado de área con filtro ejemplar 1000 que incluye un sensor de imagen de escaneado de área 1010 y un filtro dependiente de la posición 1020. Las Figuras 10A y 10B pueden denominarse a veces, colectivamente, en el presente como Figura 10. El sensor de imagen de escaneado con filtro es una realización del sensor de imagen de escaneado de área 100 de la Figura 1 y del sensor de imagen de escaneado de área 610 de la Figura 6. La Figura 10A ilustra un alzado del sensor de imagen de escaneado de área con filtro 1000. La Figura 10B ilustra una vista en planta superior del sensor de imagen de escaneado de área con filtro 1000. El sensor de imagen con escaneado de área 1010 incluye una configuración de píxeles fotosensibles 1012 y, opcionalmente, una configuración de filtro de color 1014 para proporcionar información sobre el color. La configuración de filtro de color opcional 1014 es, por ejemplo, una configuración tipo Bayer.
[0074] El filtro dependiente de la posición 1020 incluye cinco porciones de filtro separadas en el espacio 1025(1), 1025(2), 1025(3), 1025(4) y 1025(5) para filtrar la luz que se propaga hacia el sensor de imagen con escaneado de área 1010. La porción de filtro 1025(1) es un filtro de infrarrojos para bloquear al menos parcialmente la luz infrarroja. Las porciones de filtro 1025(2), 1025(3) y 1025(4) son filtros de densidad neutra con tres coeficientes de transmisión diferentes. La porción de filtro 1025(5) es un filtro en blanco para transmitir sustancialmente toda la luz incidente. En una realización, el filtro dependiente de la posición 1020 está fijado al sensor de imagen con escaneado de área 1010. El filtro 1020 se aplica, por ejemplo, a un sensor de imagen con escaneado de área 1010 empleando uno o más métodos de recubrimiento conocidos en la técnica. En otra realización, el filtro dependiente de la posición 1020 va montado cerca del sensor de imagen de escaneado de área 1010 y fijado en relación al mismo. El brillo de un objeto 135 (Figura 1), capturado por el sensor de imagen de escaneado de área con filtro 1000, depende de la posición del objeto 135 en la imagen. Por ejemplo, el objeto 135 aparecerá más brillante en una porción de la imagen asociada a la porción de filtro en blanco 1025(5) que en una porción de la imagen asociada al filtro de densidad neutra 1025(2).
[0075] El sensor de imagen de escaneado de área con filtro 1000 puede incluir más o menos porciones de filtro 1025 que las ilustradas en la Figura 10 sin alejarse del alcance de la presente. Además, el sensor de imagen de escaneado de área con filtro 1000 puede incluir otros tipos de porciones de filtro con ajuste de brillo distintos de los ilustrados en la Figura 10 sin alejarse del alcance de la presente.
[0076] La Figura 11 ilustra un método ejemplar 1100 para procesar imágenes de temporización de eventos para ajustar el brillo de una imagen TDI empleando un sensor de imagen de escaneado de área con un filtro dependiente de la posición. El método 1100 puede llevarse a cabo, por ejemplo, mediante el sistema 100 (Figura 1) con un sensor de imagen de escaneado de área con filtro 1000 (Figura 10) implementado como un sensor de imagen de escaneado de área 110 (Figura 1), o mediante el sistema 600 con un sensor de imagen con escaneado de área 1000 (Figura 10) implementado como sensor de imagen de escaneado de área 610 (Figura 1).
imagen de escaneado de área con un filtro dependiente de la posición. La porción está asociada con una cierta porción de filtro. La fase 1110 puede servir para ajustar el brillo de una imagen TDI generada a partir de ahí. Por ejemplo, en el sistema 600 (Figura 6) con un sensor de imagen de escaneado de área con filtro 1000 (Figura 10) implementado como un sensor de imagen de escaneado de área 610, un módulo TDI 640 selecciona una porción espacial de las imágenes 115 (Figuras 1 y 6) asociadas con una cierta porción de filtro 1025 (Figura 10) para obtener el brillo deseado en la imagen TDI 145 (Figuras 1 y 6).
[0078] En una fase opcional 1120, se ajusta la alineación de una cámara que albergue el sensor de imagen de escaneado con un filtro dependiente de la posición Esto es relevante en un escenario de uso en el que la cámara se haya alineado de forma que, por ejemplo, una línea de meta se represente en una línea de píxeles particular del sensor de imagen. La línea de meta puede o no representarse en una porción del sensor asociada a la selección realizada en la fase 1110. La fase opcional 1120 se lleva a cabo, por ejemplo, mediante el sistema 600 (Figura 6), con un sensor de imagen de escaneado de área con filtro 1000 (Figura 10), implementado en el sistema de la cámara TDI 2000 (Figura 20) como cámara TDI 2010. Empleando el método 2100 (Figura 21) y/o el método 2300 (Figura 23), la alineación del sistema de control 2040 (Figura 20) realinea la cámara 670 (Figura 6) de forma que una línea de meta se representa en una porción del sensor de imagen de escaneado de área con filtro 1000 asociada a la porción espacial del as imágenes 115 seleccionadas en la fase 1110. En una fase opcional 1130, se capturan imágenes de escaneado de área con la nueva alineación de la cámara lograda en la fase 1120. Por ejemplo, un sensor de imagen de escaneado de área 610 (Figura 6) captura imágenes bidimensionales 115 (Figuras 1 y 6).
[0079] A continuación, el método 1100 lleva a cabo la fase 830, y, opcionalmente, la fase 840, del método 800 (Figura 8). Si se lleva a cabo la fase opcional 840, el método 1100 puede volver a la fase 1110 para un ajuste adicional.
[0080] Se llevan a cabo las fases opcionales1120 y 1130, por ejemplo, en un escenario en el que se lleva a cabo la fase 1110 antes de que tenga lugar un evento de interés, como el final de una carrera. En este escenario ejemplar, la fase 1110 y la fase opcional 1120 pueden llevarse a cabo durante la configuración de un sistema de temporización de eventos, mientras que la fase opcional 1130 se lleva a cabo durante el evento. En otro escenario ejemplar, el método 1100 procesa imágenes de temporización de eventos durante un evento como el final de una carrera. En este escenario, se llevan a cabo las fases 1110, 830 y, opcionalmente, la fase 840, mientras los participantes cruzan una línea de meta. Si el tiempo lo permite, por ejemplo, si hay un espacio temporal suficiente entre dos corredores que finalizan una carrera consecutivamente, este ejemplo puede incluir la realización de las fases opcionales 1120 y 1130 durante el espacio temporal entre ambos corredores consecutivos mientras cruzan la línea de meta.
[0081] Todos los métodos 800 (Figura 8), 900 (Figura 9) y 1100 (Figura 11) tienen por finalidad lograr un cierto brillo en la imagen TDI. Dos o más de estos métodos pueden llevarse a cabo juntos, o uno o más de los métodos pueden llevarse a cabo por separado, para generar una imagen TDI.
[0082] La Figura 12 ilustra un método ejemplar 1200 para procesar imágenes de temporización de eventos capturadas por un sensor de imagen de escaneado de área en color con una configuración de píxeles tipo Bayer. El método 1200 genera una imagen TDI en color con el doble de resolución que el sensor de imagen de escaneado de área en color. Así, la imagen TDI generada por el método 1200 proporciona el doble de resolución de tiempo que las imágenes TDI generadas por el método 500 (Figura 5). El método 1200 es aplicable, por ejemplo, a la generación de imágenes TDI por parte del sistema 100 (Figura 1) con sensor de imagen de escaneado de área en color 400 (Figura 4) implementado como sensor de imagen de escaneado de área 110 (Figura 1). Tal y como se ha descrito en relación con la Figura 4, los componentes fotosensibles 421,422, 423 y 424 pueden disponerse de forma diferente con píxel en color 420. Por ejemplo, con la ilustración de la Figura 4. El método 1200 puede modificarse correspondientemente a partir de la realización ilustrada en la Figura 12 para aplicarse a dichas disposiciones de sensor de imagen alternativas, sin alejarse del alcance de la presente. En términos de resolución, cada línea 118 (Figura 2) de una imagen bidimensional capturada 115 (Figuras 1 y 2) corresponde a dos líneas vecinas de la imagen TDI. El método 1200 asume que el sensor de imagen de escaneado de área en color captura las imágenes 115 (Figuras 1 y 2) a una frecuencia de fotogramas tal que un objeto de interés progresa a través de las líneas 118 (Figura 2) del sensor de imagen con escaneado de área en color a una frecuencia de una línea por fotograma. Por ejemplo, el sensor de imagen con escaneado de área en color 400 (Figura 4) captura imágenes de la escena 130 (Figura 1) a una frecuencia tal que el objeto 135 (Figura 1) progresa a través de las líneas 410 (Figura 4) a una frecuencia de una línea por fotograma. El método 1200 procesa dichas imágenes y se lleva a cabo, por ejemplo, mediante el módulo TDI 140 (Figura 1).
[0083] En una fase 1210, cada imagen bidimensional, capturada por el sensor de imagen de escaneado de área en color, se recibe en forma de filas. Las filas se orientan en paralelo a las líneas del método 300 (Figura 3), de tal forma que una línea del método 300 corresponde a dos filas del método 500. Las dos filas son una fila R y G compuesta de señales de R y componentes fotosensibles G y una fila G' y B compuesta de señales de los componentes fotosensibles G' y B. En una realización, las imágenes se reciben desde una ubicación almacenada. En otra realización, las imágenes se reciben desde el sensor de imagen con escaneado de área empleado para capturar las imágenes. Por ejemplo, el módulo TDI 140 (Figura 1) recibe las imágenes bidimensionales 115 (Figura 1) capturadas por el sensor de imagen de escaneado de área en color 400 (Figura 4) como filas, de forma que cada línea 410 (Figura 4) va asociada a dos filas: (a) una fila formada por todas las señales de componentes fotosensibles de R1 (421) y G1 (422) de la línea 410 y (b) una fila formada por todas las señales de componentes fotosensibles de G1' (423) y B1 (424) de la línea 410. En otro ejemplo, el módulo TDI 140 (Figura 1) recibe imágenes bidimensionales 115 (Figura 1), capturadas por el sensor de imagen de escaneado de área en color 400 (Figura 4), en cualquier formato arbitrario. El módulo TDI 140 (Figura 1) procesa las imágenes bidimensionales 115 (Figura 1) para generar filas, de tal forma que cada línea 410 (Figura 4) va asociada a dos filas: (a) una fila formada por todas las señales de componentes fotosensibles de R1 (421) y G1 (422) de la línea 410 y (b) una fila formada por todas las señales de componentes fotosensibles de G1' (423) y B1 (424) de la línea 410.
[0084] La imagen TDI, generada por el método 1200, está formada por las líneas cero a N, donde N es un entero impar. Las líneas de la imagen TDI generada por el método 1200 son equivalentes a las líneas 146 de la Figura 2, con la excepción de que cada línea 146 de la Figura 2 corresponde a dos líneas de la imagen TDI generada por el método 1200. Tras la fase 1210, el método 1200 lleva a cabo las fases 1220, 1230, 1241, 1242, 1251, 1252, 1261 y 1262 para cada par de líneas TDI vecinas pares e impares.
[0085] En la fase 1220, se forma una serie de filas R y G, cada una de ellas a partir de una imagen diferente. La serie de filas R y G sigue la progresión de un objeto a través de una escena, tal y como se ha descrito en relación con las Figuras 2 y 3. Por ejemplo, el módulo TDI 140 (Figura 1) forma una serie de filas R y G asociadas a la respectiva serie de líneas 410(1), 410(2) y 410(3) del sensor de imagen de escaneado de área en color 400 (Figura 4). La serie de filas R y G se extrae de una respectiva serie de imágenes capturadas secuencialmente 115 (Figura 1). En la fase 1230, la serie de filas R y G generadas en la fase 1220 se integra para formar una fila única R y G integrada. Por ejemplo, el módulo TDI 140 (Figura 1) integra la serie de filas R y G generadas en la fase 1220 para formar una fila única R y G integrada. La fase 1230 puede llevarse a cabo en cualquier momento tras la fase 1220 y antes de las fases 1261 y 1262. El método 1200 lleva a cabo las fases secuenciales 1241, 1251 y 1261 para poblar las líneas TDI pares y las fases 1242, 1252 y 1262 para poblar la línea TDI impar. Las fases secuenciales 1241, 1251 y 1261 pueden llevarse a cabo en serie o en paralelo con las fases secuenciales 1242, 1252 y 1262.
y G formada en la fase 1220, de tal forma que cada fila G' y B de la serie de filas G' y B se extrae de la misma línea de la misma imagen capturada como una fila respectiva de la serie de filas R y G generadas en la fase 1220. Por ejemplo, el módulo TDI 140 (Figura 1) forma una serie de filas G' y B asociadas con la respectiva serie de líneas 410(1), 410(2) y 410(3) del sensor de imagen de escaneado de área en color 400 (Figura 4), donde la serie de filas R y G formada en la fase 1220 también va asociada a la respectiva serie de líneas 410(1), 410(2) y 410(3).
[0087] En la fase 1251, la serie coincidente de filas G' y B generada en la fase 1241 se integra para formar una fila única G' y B coincidente integrada. Por ejemplo, el módulo TDI 140 (Figura 1) integra la serie coincidente de filas G' y B para formar una fila única G' y B integrada coincidente.
[0088] En la fase 1261, la fila R y G integrada generada en la fase 1230 y la fila G' y B integrada coincidente generada en la fase 1251 se combinan para formar una línea única de color incluyendo al menos datos R, G» y B para cada píxel. La línea TDI par se puebla con esta línea única de color. En una realización, los datos R, G» y B de cada píxel de la línea única de color incluyen (a) los datos R de la correspondiente fila R y G integrada, (b) el promedio de los datos G y G', para formar los datos G", de los correspondientes píxeles de la fila R y G integrada y la fila G' y B integrada coincidente, respectivamente, y (c) los datos B de la correspondiente fila G' y B integrada. En otra realización, se retienen tanto los datos G de la fila R y G integrada como los datos G' de la fila G' y B coincidente integrada. En esta realización, los datos R, G" y B de cada píxel de la línea única de color incluyen (a) los datos R de la correspondiente fila R y G integrada, (b) los datos G del correspondiente píxel de la fila R y G integrada, (c) los datos G' del correspondiente píxel de la fila G' y B integrada, y (d) los datos B de la correspondiente fila G' y B integrada. En esta realización, los datos G" incluyen los datos G y los datos G'. Por ejemplo, el módulo TDI 140 (Figura 1) combina la fila R y G integrada generada en la fase 1130 con la fila G' y B coincidente integrada generada en la fase 1251 para poblar la línea TDI par.
[0089] En la fase 1242, se forma una serie de filas G' y B. La serie de filas G' y B se desplaza un fotograma de imagen en el tiempo relativo a la serie de filas R y G formada en la fase 1220. Por ello, cada fila G' y B de la serie de filas G' y B se extrae de la misma posición de línea que la correspondiente fila R y G, pero de una imagen que es anterior en un fotograma con respecto a la imagen de la que se extrae la correspondiente fila R y G. Por ejemplo, el módulo TDI 140 (Figura 1) forma una serie de filas G' y B asociadas a las respectivas series de líneas 410(1), 410(2) y 410(3) del sensor de imagen con escaneado de área en color 400 (Figura 4), donde la serie de filas R y G formada en la fase 1220 también va asociada a la respectiva serie de líneas 410(1), 410(2) y 410(3). Sin embargo, la serie de filas G' y B se extrae de una serie respectiva de imágenes secuencialmente capturadas que se desplaza un fotograma en el tiempo, en comparación con la serie de imágenes capturadas secuencialmente empleada en la fase 1220.
[0090] En la fase 1252, la serie de filas G' y B desplazada generada en la fase 1242 se integra para formar una fila G' y B integrada desplazada. Por ejemplo, el módulo TDI 140 (Figura 1) integra la serie desplazada de filas G' y B para formar una fila única G' y B desplazada integrada.
[0091] En la fase 1262, la fila R y G integrada generada en la fase 1230 y la fila G' y B desplazada integrada generada en la fase 1252 se combinan para formar una línea única de color incluyendo, al menos, datos R, G" y B para cada píxel. La línea TDI impar se puebla con est línea única de color. Así, la línea TDI impar está formada de píxeles en color "cruzados", puesto que cada píxel de la línea TDI par se genera a partir de conjuntos de componentes fotosensibles extraídos de diferentes fotogramas de imágenes. En una realización, los datos R, G" y B de cada píxel de la línea única de color incluye (a) los datos R de la correspondiente fila R y G integrada, (b) el promedio de los datos G y G' de los correspondientes píxeles de la fila R y G integrada y la fila G' y B coincidente integrada, respectivamente, y (c) los datos B de la correspondiente fila G' y B integrada. En otra realización, se retienen tanto los datos G de la fila R y G integrada única de color incluyen (a) los datos R de la correspondiente fila R y G integrada, (b) los datos G del correspondiente píxel de la fila R y G integrada, (c) los datos G' del correspondiente píxel de la fila G' y B integrada, y (d) los datos B de la correspondiente fila G' y B integrada. Por ejemplo, el módulo TDI 140 (Figura 1) combina fila R y G integrada generada en la fase 1230 con la fila G' y B desplazada integrada generada en la fase 1252 para poblar la línea TDI impar.
[0092] Tras las fases 1241 y 1242, el método 1200 lleva a cabo la fase 360 del método 300 (Figura 3).
[0093] Con respecto a la dirección del objeto de movimiento 430 en la Figura 4, el objeto pasa de los componentes fotosensibles R y G 421(1) y 422(2), respectivamente, a los componentes fotosensibles G' y B 423(1) y 424(1), respectivamente, a medida que el tiempo avanza. Las líneas TDI pares se hacen coincidir con la posición del objeto cuando el objeto se centra en una línea dada 410(i). Las líneas TDI impares se hacen coincidir con la posición del objeto cuando el objeto se centra en la línea divisoria entre la línea 410(i) y la línea 410(i+1). Así, el método 1200 emplea los componentes fotosensibles individuales del sensor de imagen de escaneado de área en color tipo Bayer 400 (Figura 4) para generar una imagen TDI con doble resolución.
[0094] El método 1200 puede extenderse a otras orientaciones de la disposición de los componentes fotosensibles tipo Bayer sin alejarse del alcance de la presente. Por ejemplo, el método 1200 puede extenderse a una disposición de componentes fotosensibles tipo Bayer rotada noventa grados en comparación con la disposición ilustrada en la Figura 4. El método 1200 puede también extenderse a los sensores de escaneado de área en color tipo no Bayer sin alejarse del alcance de la presente. Por ejemplo, el método 1200 puede emplearse para procesar imágenes capturadas por sensores de imagen de escaneado de área en color, donde cada píxel en color está formado por cuatro Componentes fotosensibles únicos. Dichos sensores de imagen de escaneado de área en color incluyen sensores de imagen de escaneado de área en color configurados con una composición de filtro de color tipo RGBE (rojo, verde, azul, esmeralda) o CYGM (cian, amarillo, verde, magenta).
[0095] En otro ejemplo, el método 1200 se hace extensible al procesado de imágenes capturadas por el sensor de imagen en color trilineal 1500 de la Figura 15. En este caso, los dos conjuntos paralelos de las fases secuenciales (fases 1241, 1251 y 1261, y las fases 1242, 1252 y 1262) son sustituidos por tres conjuntos paralelos equivalentes de fases secuenciales: (a) un conjunto de fases que procesan las líneas R, G y B de una serie de líneas de píxeles en color capturadas secuencialmente siguiendo la progresión de un objeto a través del fotograma de imágenes, (b) un conjunto de fases que procesan las líneas R y G de una serie de líneas de píxeles en color capturadas secuencialmente, siguiendo la progresión de un objeto a través del fotograma de imágenes, con las líneas B de otra serie desplazadas un fotograma de imagen en el tiempo, y (c) un conjunto de fases que procesan las líneas R de una serie de líneas de píxeles en color capturadas secuencialmente, siguiendo la progresión de un objeto a través del fotograma de imagen, con las líneas G y B de otra serie de líneas de píxeles en color desplazadas un fotograma de imagen en el tiempo. Así, el método 1200 genera imágenes TDI con triple resolución temporal en comparación con las imágenes TDI generadas empleando el método 300 (Figura 3).
[0096] La Figura 13 ilustra un método ejemplar 1300 para generar una imagen TDI a partir de imágenes capturadas por un sensor de imagen con escaneado de área en color con una configuración de píxeles de tipo Bayer. El método 1300 genera imágenes TDI que muestran un objeto de interés con doble resolución, con respecto a las imágenes TDI generadas por el método 500 (Figura 5). El método 1300 emplea imágenes capturadas a una frecuencia de fotograma doble con respecto a las imágenes procesadas por el método 500 (Figura 5), y el procesado de componentes fotosensibles individuales. En el contexto de un sistema de temporización de eventos, la imagen TDI generada por el método 1300 proporciona el doble de resolución temporal en comparación con las imágenes TDI generadas por el método 500 (Figura de imagen de escaneado de área en color 400 (Figura 4) implementado como sensor de imagen de escaneado de área 110 (Figura 1). En la presente descripción del método 1300, el sensor de imagen de escaneado de área en color es un sensor de imagen tipo Bayer. Con todo, el método 1300 puede extenderse a la generación de una imagen TDI empleando imágenes capturadas por cualquier sensor de imagen en color donde cada píxel en color está formado por una disposición «de dos en dos» de componentes fotosensibles, sin alejarse del alcance de la presente.
[0097] El método 1300 asume que el sensor de imagen de escaneado de área captura las imágenes 115 (Figura 1) a una frecuencia de fotograma de tal forma que un objeto de interés progresa a través de las líneas 118 (Figura 2) del sensor de imagen de escaneado de área en color a una frecuencia de media línea por fotograma. El procesamiento de las imágenes del método 1300 es similar al del método 500 (Figura 5) salvo por que el procesamiento de las imágenes del método 1300 permite capturar las imágenes al doble de frecuencia de fotograma. El método 1300 se lleva a cabo, por ejemplo, mediante el sistema 100 (Figura 1) con sensor de imagen de escaneado de área en color 400 (Figura 4) implementado como sensor de imagen de escaneado de área 110 (Figura 1).
[0098] En una fase opcional 1310, un sensor de imagen de escaneado de área en color captura imágenes secuenciales 0 mediante N, donde N es un entero impar, de un objeto que atraviesa un escena. De este modo, la serie de imágenes está formada por imágenes alternativas de números pares e impares. El sensor de imagen de escaneado de área en color captura imágenes a una frecuencia de fotograma de forma tal que un objeto de interés progresa a través del fotograma a una frecuencia de media línea por fotograma. Por ejemplo, el sensor de imagen con escaneado de área en color 400 (Figura 4) captura imágenes 115 (Figura 1) a una frecuencia de fotograma tal que un objeto 135 (Figura 1) progresa a través de la escena 130 (Figura 1) a una frecuencia media línea 118 (Figura 2) por fotograma.
[0099] En una fase 1320, cada imagen bidimensional capturada por el sensor de imagen de escaneado de área en color se recibe en forma de filas R y G y filas G' y B, tal y como se define arriba. En una realización del método 1200 que incluye la fase opcional 1310, la fase 1320 recibe las imágenes capturadas en la fase 1310. En una realización del método 1300 que no incluye la fase opcional 1310, pueden recibirse las imágenes desde otra ubicación, por ejemplo, de una ubicación almacenada. Las filas están orientadas en paralelo a las líneas del método 300 (Figura 3) de tal modo que una línea del método 300 corresponde a dos filas del método 1300: una fila R y G formada por todas las señales de componentes fotosensibles R y G, y una fila G' y B formada por todas las señales de componentes fotosensibles G' y B. De este modo, un objeto de interés atraviesa las imágenes capturadas secuencialmente a una frecuencia de media línea por fotograma de imagen. Por ejemplo, el módulo TDI 140 (Figura 1) recibe imágenes bidimensionales 115 (Figura 1) capturadas por el sensor de imagen de escaneado de área en color 400 (Figura 4) como filas, de forma que cada fila 410 (Figura 4) se asocia con dos filas: (a) una fila formada por todas las señales de componentes fotosensibles R (421) y G (422) de la línea 410 y (b) una fila formada por todas las señales de componentes fotosensibles G' (423) y B (424) de la línea 410. En otro ejemplo, el módulo TDI 140 (Figura 1) recibe imágenes bidimensionales 115 (Figura 1), capturadas por el sensor de imagen con escaneado de área en color 400 (Figura 4) en un formato arbitrario. Módulo TDI 140 (Figura 1) procesa las imágenes bidimensionales 115 (Figura 1) para generar filas, de tal forma que cada línea 410 (Figura 4) va asociada a dos filas: (a) una fila formada por todas las señales de componentes fotosensibles R y G de la línea 410 y (b) una fila formada por todas las señales de componentes fotosensibles G' y B de la línea 410.
[0100] Tras la fase 1320, el método 1300 puebla cada línea de la imagen TDI llevando a cabo las fases 1331, 1332, 531 (Figura 5), 532 (Figura 5) y 540 (Figura 5) para cada línea de la imagen TDI. Las fases 1331 y 531 se llevan a cabo secuencialmente, al igual que las fases 1332 y 532. Las fases secuenciales 1331 y 531 pueden llevarse a cabo en paralelo o en serie con las fases secuenciales 1332 y 532.
la progresión de un objeto a través de una escena. La serie de filas R y G se extrae de al menos una porción de imágenes numeradas con números pares. Por ejemplo, el módulo TDI 140 (Figura 1) forma una serie de filas R y G asociada con la respectiva serie de líneas 410(1), 410(2), y 410(3) del sensor de imagen de escaneado de área en color 400 (Figura 4). La serie de filas R y G se extrae de una respectiva serie de imágenes numeradas con números impares capturadas secuencialmente 115 (Figura 1). Tras llevar a cabo la fase 1331, el método 1300 lleva a cabo la fase 531 del método 500 (Figura 5).
[0102] En la fase 1332, se forma una serie de filas G' y B, cada una de una imagen diferente. La serie de filas G' y B sigue la progresión de un objeto a través de una escena. La serie de filas G' y B se extrae de, al menos, una porción de las imágenes numeradas con números impares. Por ejemplo, el módulo TDI 140 (Figura 1) forma una serie de filas G' y B asociadas con la respectiva serie de líneas 410(1), 410(2) y 410(3) del sensor de imagen de escaneado de área en color 400 (Figura 4). La serie de filas G' y B se extrae de una respectiva serie de imágenes numeradas con números impares capturadas secuencialmente 115 (Figura 1). Tras llevar a cabo la fase 1332, el método 1200 lleva a cabo la fase 532 del método 500 (Figura 5).
[0103] Tras llevar a cabo las fases 531 y 532, el método 1300 lleva a cabo la fase 540 del método 500 (Figura 5) y la fase 360 del método 300 (Figura 3).
[0104] El método 1300 puede extenderse a otras orientaciones de disposición de componentes fotosensibles de tipo Bayer sin alejarse del alcance de la presente. Por ejemplo, un método 1300 puede extenderse a una disposición de componentes fotosensibles de tipo Bayer rotada noventa grados en comparación con la disposición ilustrada en la Figura 4. El método 1300 puede también extenderse a sensores de escaneado de área en color de tipo no Bayer sin alejarse del alcance de la presente. Por ejemplo, el método 1200 puede emplearse para procesar imágenes capturadas por sensores de imagen de escaneado de área en color, donde cada píxel en color está formado por cuatro componentes fotosensibles únicos. Dichos sensores de imagen de escaneado de área en color incluyen sensores de imagen de escaneado de área en color configurados con una composición de filtro de color tipo RGBE (rojo, verde, azul, esmeralda) o CYGM (cian, amarillo, verde, magenta).
[0105] En otro ejemplo, el método 1300 se extiende al procesado de imágenes capturadas por el sensor de imagen en color trilineal 1500 de la Figura 15. En este caso, las imágenes se capturan a una frecuencia de fotograma triple. Ambos conjuntos paralelos de fases secuenciales (las fases 1331 y 531 y las fases 1332 y 532) son sustituidas por tres conjuntos paralelos equivalentes de fases secuenciales: (a) un conjunto de fases que procesan las líneas R de una serie de líneas de píxeles en color capturadas secuencialmente siguiendo la progresión de un objeto a través del fotograma de imágenes, (b) un conjunto de fases que procesan las líneas G de una serie de líneas de píxeles en color capturadas secuencialmente siguiendo la progresión de un objeto a través del fotograma de imágenes, y (c) un conjunto de fases que procesan las líneas B de una serie de líneas de píxeles en color capturadas secuencialmente siguiendo la progresión de un objeto a través del fotograma de imágenes. Así, la imagen TDI generada por el método 1300 posee el triple de resolución temporal que las imágenes TDI procesadas de acuerdo con el método 300 (Figura 3).
[0106] La Figura 14 ilustra dos líneas de imagen adyacentes producidas por una porción de un sensor de imagen de escaneado de área en color tipo Bayer ejemplar 1400, donde los componentes fotosensibles individuales se emplean para doblar la resolución espacial de una cámara. De este modo, el sensor de imagen de escaneado de área en color 1400 se implementa ventajosamente en una imagen en base al sistema de temporización de eventos. El sensor de imagen con escaneado de área en color 1400 incluye una configuración de píxeles tipo Bayer. Cada píxel en color 1420 de una imagen generada por un sensor de imagen de escaneado de área en color 1400 está formado por cuatro señales de componentes roja (R), las señales de componentes fotosensibles 1422 y 1423 representan la luz verde (G), y la señal de componentes fotosensibles 1424 representa la luz azul (B). Se generan tres líneas de imagen de salida por par de líneas de imagen adyacentes 1410(1) y 1410(2). Dos de las líneas de imagen de salida son simplemente las líneas de imagen originales 1410(1) y 1410(2), cada píxel de las mismas está formado por señales de componentes fotosensibles R1 (1421(1)), G1 (1422(1)), G1' (1423(1)) y B1 (1424(1)) por línea de imagen 1410(1), y R2 (1421(2)), G2 (1422(2)), G2' (1423(2)) y B2 (1424(2)) por línea de imagen 1410(2). La tercera línea de imagen de salida se genera como píxeles en color cruzados 1430, cada uno de ellos formado por una combinación de señales de componentes fotosensibles de las líneas de imagen originales 1410(1) y 1410(2), específicamente señales de componentes fotosensibles G1' (1423(1)) y B1 (1424(1)) de la línea de imagen 1410(1) y componentes fotosensibles R2 (1421(2)) y G2 (1422(2)) de la línea de imagen 1410(2).
[0107] Una imagen formada por píxeles en color cruzados además de los píxeles en color originales proporciona líneas de píxeles en color con una resolución espacial doble en comparación con una imagen en color generada sin utilizar píxeles en color cruzados, puesto que cada par de líneas de imagen originales adyacentes puede utilizarse para formar una tercera línea de imagen formada por píxeles en color cruzados. Una serie de tales imágenes, capturadas secuencialmente, puede procesarse para formar una imagen TDI con líneas a una resolución doble en comparación con una imagen TDI basada en imágenes en color convencionales sin píxeles cruzados.
[0108] Las líneas generadas a partir del sensor de imagen de escaneado de área en color 1400 pueden emplearse como datos de entrada para el procesamiento TDI de imágenes tal y como se ha descrito en relación con las Figuras 1, 2 y 3. En una realización, el sensor de imagen de escaneado de área en color 1400 se implementa como sensor de imagen de escaneado de área 110 en el sistema 100. El módulo TDI 140 procesa imágenes de color estándar para (a) generar imágenes de mayor resolución formadas por píxeles en color originales y píxeles en color cruzados y (b) formar una imagen TDI, de acuerdo con el método300 (Figura 3), empleando tanto líneas de píxeles cruzados como líneas de píxeles originales.ara el sistema 100, empleado, por ejemplo, como una cámara de línea de meta, donde las imágenes se emplean para temporizar un evento o separar dos o más eventos en el tiempo, esto permite doblar la resolución temporal con respecto a la proporcionada por las imágenes originales.
[0109] A efectos de comparación, los píxeles en color cruzados del método 1200 (Figura 12) resultan de un cruce temporal de los componentes fotosensibles llevado a cabo mientras se combinan las filas de distintas imágenes para formar la imagen TDI. Los píxeles en color cruzados de la Figura 14 resultan de un cruce espacial de los componentes fotosensibles en las imágenes capturadas originalmente.
[0110] La Figura 15 ilustra dos líneas de imagen adyacentes producidas por una porción de un sensor de imagen en color trilineal ejemplar 1500, donde las líneas individuales de los componentes fotosensibles se emplean para triplicar la resolución espacial de la cámara. Del mismo modo, el sensor de imagen en color trilineal 1500 se implementa ventajosamente en un sistema de temporización de eventos basado en imágenes. En una realización, el sensor de imagen trilineal 1500 es un sensor de imagen de escaneo de línea con un único conjunto de líneas de componentes fotosensibles para formar una línea única de píxeles en color. En otra realización, el sensor de imagen en color trilineal 1500 es un sensor de imagen de escaneado de área con diversos conjuntos de líneas de componentes fotosensibles que forman una correspondiente pluralidad de líneas de píxeles en color. Esta realización del sensor de imagen en color trilineal 1500 puede implementarse en el sistema 100 como un sensor de imagen de escaneado de área 110. Para ambas realizaciones, cada línea de píxeles en color del sensor de imagen en color trilineal 1500 está formada por tres líneas de componentes fotosensibles, cada una de ellas con una sensibilidad al color diferente. En una realización, una línea de píxeles en color 1510 de una imagen generada por un sensor de imagen en color trilineal 1500 está formada por señales de tres líneas de componentes fotosensibles de forma que cada píxel en color 1520 de una línea de píxeles en color 1510 está formada respectivamente.
[0111] Para un par de líneas de imagen adyacentes 1510(1) y 1510(2), se generan tres líneas de imagen de salida. Dos de las líneas de imagen de salida son los fotogramas de imagen originales 1510(1) y 1510(2), cada píxel de los mismos está formado por señales de componentes fotosensibles R1 (1521(1)), G1 (1522(1)) y B1 (1523(1)) para la línea de imagen 1510(1) y R2 (1521(2)), G2 (1522(2)) y B2 (1523(2)) para la línea de imagen 1510(2). Se genera una tercera línea de imagen de salida como píxeles en color cruzados 1531, cada uno de ellos formado por una combinación de componentes fotosensibles de las líneas de imagen adyacentes originales 1510(1) y 1510(2), específicamente las señales de los componentes fotosensibles G1 (1522(1)) y B1 (1523(1)) de la línea de imagen 1510(1) y la señal de componentes fotosensibles R2 (1521(2)) de la línea de imagen 1510(2). De forma similar, se genera una cuarta línea de imagen de salida como píxeles en color cruzados 1532 formados por una combinación de componentes fotosensibles de las líneas de imagen adyacentes originales 1510(1) y 1510(2), específicamente la señal de componentes fotosensibles B1 (1523(1)) de la línea de imagen 1510(1) y la señal de componentes fotosensibles R2 (1521(2)) y G2 (1522(2)) de la línea de imagen 1510(2). Una imagen formada por píxeles en color cruzados proporciona líneas de píxeles en color a una resolución espacial tres veces superior a la de las imágenes en color originales, puesto que puede emplearse cada par de líneas de imagen originales adyacentes para formar dos fotogramas de imagen de líneas adicionales formados por píxeles cruzados.
[0112] Tal y como se ha descrito en la Figura 14, las líneas de imagen generadas a partir del sensor de imagen en color trilineal 1500 puede emplearse como datos de entrada para el procesamiento TDI. En una realización, el sensor de imagen en color trilineal 1500 se implementa como sensor de imagen de escaneado de área 110 en el sistema 100. El módulo TDI 140 procesa las imágenes en color estándar para (a) generar imágenes de mayor resolución formadas por píxeles en color originales y píxeles en color cruzados y (b) formar una imagen TDI, de acuerdo con el método 300 (Figura 3), empleando tanto líneas de píxeles cruzados como líneas de píxeles originales. Para el sistema 100, empleado, por ejemplo, como cámara de línea de meta, donde las imágenes se empelan para temporizar un evento o separar dos o más eventos en el tiempo, esto permite triplicar la resolución temporal con respecto a la proporcionada por las imágenes originales.
[0113] A efectos comparativos, los píxeles en color cruzados del método 1200 (Figura 12) resultan de un cruce temporal de los componentes fotosensibles llevado a cabo mientras se combinan las filas de distintas imágenes para formar la imagen TDI. Los píxeles en color cruzados de la Figura 15 resultan de un cruce espacial de los componentes fotosensibles de las imágenes capturadas originalmente.
[0114] La Figura 16 ilustra un método ejemplar 1600 para capturar y procesar imágenes de temporización de eventos. El método 1600 puede ejecutarse mediante el sistema 100 de la Figura 1 o el sistema 600 de la Figura 6, por ejemplo. En una fase 1610, las imágenes bidimensionales se capturan mediante un sensor de imagen de escaneado de área, por ejemplo, el sensor de imagen de escaneado de área 110 de la Figura 1, el sensor de imagen de escaneado de área 400 de la Figura 4, el sensor de imagen de escaneado de área con filtro 1000 de la Figura 10, el sensor de imagen de escaneado de área en color 1400 de la Figura 14, el sensor de imagen en color trilineal 1500 de la Figura 15, o el sensor de imagen de escaneado de área diagonal CFA 1700 (Figura 17). En una fase 1620, las imágenes capturadas se comunican a un módulo de procesamiento de imagen externo, por ejemplo, el módulo TDI 140 de la Figura 1. En una fase 1630, el módulo de procesamiento de imagen externo lleva a cabo la TDI de las imágenes capturadas y/o las imágenes de alta resolución generadas en la fase opcional 1630. Si las imágenes capturadas son imágenes en color capturadas por un sensor en color como el sensor de imagen de escaneado de área en color 400 (Figura 4), el sensor de imagen de escaneado de área en color 1300 (Figura 13), el sensor de imagen en color trilineal 1400 (Figura 14), o el sensor de imágenes de mayor resolución pueden generarse empleando píxeles en color cruzados. Esto se describe para el cruce temporal en relación con el método 1200 (Figura 12), y para el cruce espacial en relación con las Figuras 14 y 15. La TDI puede llevarse a cabo mediante el módulo TDI 140 (Figura 1) empleando el método 300 de la Figura 3, el método 500 de la Figura 5, el método 1200 de la Figura 12, o el método 1300 de la Figura 13. Una fase 1650 produce la imagen TDI. La fase 1650 puede llevarse a cabo mediante la interfaz 150 de la Figura 1.
[0115] En una realización, el módulo de procesamiento de imagen externo produce la imagen TDI cuando esta está completa. En otra realización, el módulo de procesamiento de imagen externo produce la imagen TDI píxel a píxel, fila a fila o línea a línea, de tal forma que los píxeles, las filas o las líneas se generan mediante un módulo de procesamiento de imagen externo.
[0116] En ciertas realizaciones, se omiten las fases 1610 y 1620. Un sistema de procesamiento de datos, como el módulo TDI 140 (Figura 1) o un ordenador con capacidad para procesar imágenes, recibe las imágenes capturadas por un sensor de imagen de escaneado de área y lleva a cabo las fases 1630 y 1650.
[0117] La Figura 17 ilustra un sensor de imagen de escaneado de área con una configuración de filtro en color diagonal (CFA) ejemplar 1700, donde cada píxel en color incluye una configuración de componentes fotosensibles en 3x3. El sensor de imagen de escaneado de área diagonal CFA 1700 ofrece una flexibilidad de procesamiento de imagen mejorada y amplia la elevada resolución unidimensional proporcionada por el sensor de imagen en color trilineal 1500 (Figura 15) a dos dimensiones. El sensor de imagen de escaneado de área diagonal CFA 1700 está formado por líneas 1710(i), donde i es un entero positivo. Se muestran tres líneas adyacentes ejemplares 1710(1), 1710(2) y 1710(3) en la Figura 17, aunque el sensor de imagen diagonal CFA 1700 puede tener cualquier número de líneas 1710, sin alejarse del alcance de la presente. Cada línea 1710(i) está formada por píxeles en color 1720(i,j), donde j indica la posición vertical , según la orientación de la Figura 17, del píxel en color 1720(i,j) en la línea 1710(i). La Figura 17 muestra tres píxeles en color ejemplares: el píxel en color 1720(1,1) de la línea 1710(1), el píxel en color 1720(1,2) de la línea 1710(2) y los píxeles en color 1720(1,3), 1720(2,3) y 1720(3,3) de la línea 1710(3). Cada línea 1710(i) puede incluir un número cualquiera de píxeles en color 1720(i,j). En ciertas realizaciones, todas las líneas 1710 incluyen el mismo número de píxeles en color 1720.
[0118] Cada píxel en color 1720(ij) incluye una configuración 3x3 de los componentes fotosensibles 1721(i,j)(n,m), donde n y m son enteros positivos inferiores o iguales a tres. No todos los componentes fotosensibles 1721 están explícitamente numerados en la Figura 17. Cada píxel en color 1720(i,j) incluye componentes fotosensibles 1721 (i,j)(1, 1), 1721 (i,j)(2,3) y 1721 (i,j)(3,2), sensibles a un primer color, componentes fotosensibles 1721 (ij)(1,2), 1721 (i,j)(2,1) y 1721 (i,j)(3,3), sensibles a un segundo color, y componentes fotosensibles 1721 (i,j)(1,3), 1721 (i,j)(2,2) y 1721 (i,j)(3,1), sensibles a un tercer color. En una realización, el primer color, el segundo y el tercero son rojo (R), verde (G) y azul (B). Con todo, el sensor de imagen diagonal CFA 1700 puede implementarse empleando otras configuraciones de sensibilidad al color, como cian, magenta y azul, sin alejarse del alcance de la presente. De acuerdo con la ilustración de la Figura 17, los componentes fotosensibles de la misma sensibilidad al color forman líneas diagonales. Los píxeles en color 1720 puede orientarse de forma diferente, por ejemplo, de forma que las líneas diagonales formadas por los componentes fotosensibles de la misma sensibilidad al color se rotan noventa grados, en comparación con la Figura 17, sin alejarse del alcance de la presente. Los componentes fotosensibles 1721 están dispuestos de forma que cualquier columna de tres componentes fotosensibles incluye un componente fotosensible de un primer color, un componente fotosensible de un segundo color, y un componente fotosensible de un tercer color, y cualquier fila de tres componentes fotosensibles incluye un componente fotosensible de un primer color, un componente fotosensible de un segundo color y un componente fotosensible de un tercer color, donde los componentes fotosensibles de un primer, un segundo y un tercer color son sensibles a la luz del primer, segundo y 1721 durante el procesamiento de las señales de componentes fotosensibles generadas por los componentes fotosensibles 1721 del sensor de imagen de escaneado de área diagonal CFA 1700.
[0119] En un escenario de uso, las imágenes capturadas por el sensor de imagen diagonal CFA 1700 se procesan reteniendo los píxeles en color individuales 1720 como ítems separados a lo largo del procesamiento. En este escenario, las imágenes se procesan de acuerdo, por ejemplo, con el método 300 (Figura 3). El método 500 de la Figura 5 puede extenderse al procesamiento de imágenes capturadas por el sensor de imagen diagonal CFA 1700, por ejemplo, tal y como se describe en adelante. La fase 510 se extiende para recibir tres filas: una fila R y G' y B", una fila G y B' y R" y una fila B y R' y G". Los procesos paralelos que incluyen las fases 521 y 531 y las fases 522 y 532 se extienden para incluir tres procesos paralelos equivalentes que funcionan en las filas R y G' y B", G y B' y R", y B y R' y G", respectivamente. La fase 540 se extiende para combinar datos de tres filas integradas.
[0120] En otro escenario de uso, las imágenes capturadas por un sensor de imagen diagonal CFA 1700 se procesan empleando grupos de componentes fotosensibles en una configuración 2x2. Cada grupo de componentes fotosensibles en configuración 2x2 puede encontrarse completamente dentro de un único píxel en color 1720 o incluir componente fotosensibles de dos, tres, o cuatro píxeles en color adyacentes 1720. En el último caso, puede seleccionarse un "conjunto de cobertura total" de grupos de componentes fotosensibles en configuración 2x2 de forma que el conjunto abarque todos los componentes fotosensibles del sensor de imagen diagonal CFA 1700, o una porción contigua del mismo. Se indica un grupo ejemplar de componentes fotosensibles en configuración 2x2 en la Figura 17 como píxel en color cruzado en configuración 2x21740. Esto es equivalente a un sensor de imagen de escaneado de área en color tipo Bayer 400 (Figura 4) excepto por el hecho de que no todos los grupos de componentes fotosensibles en configuración 2x2 del sensor de imagen diagonal CFA 1700 tienen la misma disposición de componentes fotosensibles. Sin embargo, todos los grupos de componentes fotosensibles en configuración 2x2 incluyen tres tipos de componentes fotosensibles diferentes y, por lo tanto, proporcionan una información sobre el color tan completa como los píxeles en color de un sensor de imagen tipo Bayer, como los píxeles en color 420 del sensor de imagen de escaneado de área en color tipo Bayer 400 (Figura 4). En este escenario de uso, las imágenes capturadas por el sensor de imagen diagonal CFA 1700 se procesan de acuerdo con uno o más métodos 300 (Figura 3), 500 (Figura 5), 1200 (Figura 12), 1300 (Figura 13), o 1600 (Figura 16). Al procesar las imágenes capturadas por el sensor de imagen diagonal CFA 1700 de acuerdo con los métodos 1300 (Figura 13) o 1600 (Figura 16), puede empelarse un conjunto de cobertura total de grupos de componentes fotosensibles en configuración 2x2 para producir imágenes TDI con el doble de resolución de las imágenes capturadas segmentadas en grupos de componentes fotosensibles en configuración 2x2. Al procesar las imágenes de acuerdo con los métodos 500 (Figura 5), 1300 (Figura 13), o 1600 (Figura 16), el procesamiento se adapta para justificar el hecho de que no todos los grupos de componentes fotosensibles en configuración 2x2 tienen la misma disposición de componentes fotosensibles. Además, en el caso del método 1300 (Figura 13) aplicado al sensor de imagen diagonal CFA 1700, las imágenes se capturan a una frecuencia de fotograma triple, de forma que un objeto de interés se mueve a una frecuencia de un tercio de línea 1710 por fotograma.
[0121] En otro escenario de uso, las imágenes capturadas por el sensor de imagen diagonal CFA 1700 se procesan empleando píxeles en color 1720 así como píxeles en color cruzados horizontales formados por disposiciones de componentes fotosensibles en configuración 3x3 que abarca porciones de dos píxeles en color adyacentes 1720 ubicados en la misma posición vertical en la Figura 17. Los píxeles cruzados horizontales se procesan, por ejemplo, del mismo modo que las imágenes capturadas por el sensor de imagen en color trilineal, de acuerdo con los métodos 1200 (Figura 12), 1300 (Figura 13) y 1600 (Figura 16).
también puede ser ventajoso para su uso en otras aplicaciones típicamente llevadas a cabo por cámaras de escaneado de línea.
[0123] La Figura 18 ilustra un método ejemplar 1800 para procesar imágenes de temporización de eventos capturadas por un sensor de imagen de escaneado de área en color que tenga píxeles en color con variación de componentes fotosensibles bidimensional. Entre los ejemplos de sensores de imagen de escaneado de área en color con variación de componentes fotosensibles bidimensionales se encuentran el sensor de imagen de escaneado de área en color tipo Bayer 400 (Figura 4) y el sensor de imagen de escaneado de área diagonal CFA 1700 (Figura 17). El método 1800 genera imágenes TDI con resolución mejorada en la dimensión paralela a las líneas TDI. Opcionalmente, la TDI se lleva a cabo a una resolución mejorada de tal forma que la imagen TDI posee una resolución mejorada en dos dimensiones. El método 1800 se lleva a cabo, por ejemplo, mediante el módulo TDI 140 (Figura 1).
[0124] En una fase 1810, el método 1800 recibe imágenes capturadas por un sensor de imagen de escaneado de área que tenga píxeles en color con variación de componentes fotosensibles bidimensional. Por ejemplo, el módulo TDI 140 recibe imágenes capturadas por un sensor de imagen diagonal CFA 1700 (Figura 17) implementado como sensor de imagen de escaneado de área 110 (Figura 1). Tras llevar a cabo la fase 1810, el método 1800 lleva a cabo la fase 1630 (Figura 16) para dos o más divisiones de grupos de componentes fotosensibles de las imágenes capturadas, donde las dos o más divisiones de grupos de componentes fotosensibles se intercambian mutuamente en la dimensión paralela a las líneas TDI.
[0125] En la Figura 17 se indica una dirección de movimiento asumida para un objeto de interés con una flecha 1760. Así, las líneas TDI son ortogonales con respecto a la flecha 1760 y paralelas a las líneas 1710. Para las imágenes capturadas por un sensor de imagen diagonal CFA 1700, la fase 1630 se lleva a cabo para (a) una división de grupos de componentes fotosensibles alineada, en la dimensión paralela a las líneas 1710, con los píxeles en color 1720, (b) una división de grupos de componentes fotosensibles desplazada una fila de componentes fotosensibles de los píxeles en color 1720, en la dimensión paralela a las líneas 1710 (por ejemplo, alineada con el grupo de componentes fotosensibles 1750), y (c) una división de grupos de componentes fotosensibles desplazada dos filas de componentes fotosensibles 1720 de los píxeles en color, en la dimensión paralela a las líneas 1710.
[0126] En la Figura 4, se indica una dirección asumida del movimiento para un objeto de interés con una flecha 430. Así, las líneas TDI son ortogonales con respecto a la flecha 430 y paralela a las líneas 410. Para las imágenes capturadas por el sensor de imagen de escaneado de área en color tipo Bayer 400, la fase 1630 se lleva a cabo para (a) una división de grupos de componentes fotosensibles alineada, en la dimensión paralela con las líneas 410, con los píxeles en color 420, y (b) una división de grupos de componentes fotosensibles desplazada una fila de componentes fotosensibles de los píxeles en color 420, en la dimensión paralela a las líneas 410.
[0127] Las múltiples iteraciones de la fase 1630 generan imágenes TDI respectivas con sus respectivos píxeles en color centrados en ubicaciones mutuamente desplazadas, en la dimensión paralela a las líneas TDI. Opcionalmente, la fase 1630 incluye la fase 1640 de tal forma que la imagen TDI tiene una resolución mejorada en la dimensión ortogonal con respecto a las líneas TDI. En una realización no ilustrada en la Figura 18, la fase 1630 se sustituye mediante el método 1300 (Figura 13), que también proporciona resolución mejorada en la dimensión ortogonal con respecto a las líneas TDI.
[0128] En una fase 1850, las imágenes TDI generadas en las múltiples iteraciones de la fase 1630 se combinan para formar una imagen TDI con resolución mejorada en la dimensión paralela a las líneas TDI. Por ejemplo, el módulo TDI 140 combina las imágenes TDI generadas en la fase 1630. Esto puede realizarse empleando el mismo método descrito la fase 1650 (Figura 16).
[0129] Así, el método 1800 puede emplear los datos de componentes fotosensibles individuales para maximizar la resolución en ambas dimensiones. En el caso de las imágenes capturadas por el sensor de imagen de escaneado de área en color tipo Bayer 400 (Figura 4), la resolución puede doblarse en ambas dimensiones, en comparación Con la resolución de píxeles en color del sensor de imagen de escaneado de área en color tipo Bayer 400. En el caso de las imágenes capturadas por un sensor de imagen diagonal CFA 1700 (Figura 17), la resolución puede triplicarse en ambas dimensiones en comparación con la resolución de píxeles en color del sensor de imagen diagonal CFA 1700.
[0130] La Figura 19 ilustra dos sensores de imagen de escaneado de área en color ejemplares 1900 y 1950 que tienen múltiples regiones con propiedades de disposición de filtro de color diferentes. Los sensores de imagen de escaneado de área en color 1900 y 1950 se implementan ventajosamente en un sistema de temporización de eventos como el sistema 100 (Figura 1).
[0131] El sensor de imagen de escaneado de área 1900 incluye tres regiones: la región 1910(1) configurada con una disposición de filtro de color optimizada para TDI de alta resolución, y las regiones 1910(2) y 1910(3) configuradas con una disposición de filtro de color tipo Bayer tal y como se ha descrito en relación con la Figura 4. En ciertas realizaciones, la región 1910(1) se encuentra en el eje óptico del objetivo de representación mediante imágenes empleado para formar imágenes en el sensor de imagen de escaneado de área en color. Así, una imagen TDI generada a partir de imágenes capturadas por la región 1910(1) puede formar una vista lateral ideal de un objeto de interés que se desplace en una dirección ortogonal con respecto al eje óptico. Por ejemplo, el sensor de imagen de escaneado de área en color 1900 se implementa como sensor de imagen de escaneado de área 110 en el sistema 100 (Figura 1), y la región 1910(1) se encuentra en el eje óptico del objetivo de representación mediante imágenes 120. La información sobre la imagen TDI puede extraerse de la región 1910(1), mientras la regiones 1910(2) y 1910(3) proporcionan imágenes bidimensionales estándar y/o imágenes TDI adicionales.
[0132] El sensor de imagen de escaneado de área en color 1950 incluye dos regiones: la región 1960(1), configurada con una disposición de filtro de color optimizada para una TDI de alta resolución, y la región 1960(2) configurada con una disposición de filtro de color tipo Bayer tal y como se ha descrito en relación con la Figura 4. En ciertas realizaciones, la región 1960(1) se encuentra ubicada en el eje óptico del objetivo de representación mediante imágenes empleado para formar imágenes en el sensor de imagen de escaneado de área en color 1950. Así, una imagen TDI generada a partir de imágenes capturadas por la región 1960(1) puede formar una vista lateral ideal de un objeto de interés que se desplace de forma ortogonal con respecto al eje óptico. Por ejemplo, el sensor de imagen de escaneado de área en color 1950 se implementa como sensor de imagen de escaneado de área 110 en el sistema 100 (Figura 1), y la región 1960(1) se encuentra en el eje óptico del objetivo de representación mediante imágenes 120. Esto requiere que se desplace el centro del sensor de imagen de escaneado de área en color 1950 apartándolo del eje óptico del objetivo de representación mediante imágenes 120. Puede extraerse información sobre imágenes TDI de la región 1960(1), mientras la región 1960(2) proporciona imágenes bidimensionales estándar y/o imágenes TDI adicionales.
[0133] El sensor de imagen de escaneado de área 1900 y 1950 puede modificarse para incluir más regiones y/o regiones de otras configuraciones de disposición de filtro de color, además de las respectivas regiones TDI específicas 1910 y 1920, sin alejarse del alcance de la presente.
[0134] La Figura 20 muestra un sistema ejemplar 2000 para captura de imágenes y, opcionalmente, temporización de eventos empleando un sensor 2010. En una realización, el sistema 2000 incorpora el sistema 100 de la Figura 1. El sensor 2010 se comunica con un sistema de procesamiento de datos 2020 a través de la interfaz 150 (Figuras 1 y 2).
2010, mediante óptica de imágenes 2012, y comunica imágenes TDI al sistema de procesamiento de datos 2020 mediante la interfaz 150. El sensor 2010, o el módulo TDI óptico 140, pueden estampar imágenes empleando el tiempo del reloj 160. En una realización, el sensor 2010 es un sensor de imagen de escaneado de área, por ejemplo, un sensor de imagen de escaneado de área CMOS. En otra realización, el sensor 2010 es un sensor de escaneado de línea. En otra realización, el sensor 2010 es un sensor de imagen de escaneado de área en color 400 de la Figura 4 o un sensor de imagen de escaneado de área en color 1400 de la Figura 14. En otra realización, el sensor 2010 es el sensor de imagen en color trilineal 1500 de la Figura 15. En una realización adicional, el sensor 2010 es el sensor de imagen de escaneado de área con filtro 1000 de la Figura 10. El sensor 2010, la óptica de imágenes 2012, el módulo TDI opcional 140, la interfaz 150 y el reloj opcional 160 pueden integrarse en una cámara 2015. El sistema de procesamiento de datos 2020 incluye un procesador 2030, memoria 2040 y una interfaz de entrada/salida 2050. La memoria 2040 incluye un espacio de almacenaje de datos 2041, para almacenar imágenes enviadas para procesamiento de datos 2020 desde la interfaz 150 y resultados del procesamiento llevado a cabo por el procesamiento de datos 2020. La memoria 2040 incluye además algoritmos 2042, implementados como instrucciones legibles por máquina en una memoria 2040, para procesar las imágenes recibidas de la interfaz 150. En una realización, los algoritmos 2042 se encuentran en una porción no volátil de la memoria 2040. En otra realización, el sistema de procesamiento de datos 2020 recupera los algoritmos 2042 de una memoria no volátil, ubicada externamente al sistema de procesamiento de datos 2020, y almacena los algoritmos 2042 en una porción volátil de la memoria 2040. La interfaz de entrada/salida 2050 proporciona comunicación bidireccional con un usuario.
[0135] En ciertas realizaciones, la interfaz de entrada/salida 2050 es una interfaz inalámbrica. Por ejemplo, la interfaz de entrada/salida 2050 es una interfaz WiFi o Bluetooth. En esta realización puede emplearse un dispositivo móvil, como un móvil o un smartphone, para controlar una cámara 2015 y/o recibir datos de la misma. Este dispositivo móvil puede funcionar como sistema de procesamiento de datos 2020, o ser un dispositivo de control separado 2016.
[0136] Opcionalmente, el sistema 2000 incluye un sistema de temporización de eventos alternativo 2060. El sistema de temporización de eventos alternativo 2060 incluye una grabadora de eventos 2062 y, opcionalmente, un reloj alternativo 2064. El sistema de temporización alternativo 2060 detecta e identifica eventos y asigna un tiempo a cada evento empleando un reloj. En una realización, el tiempo lo proporciona un reloj alternativo 2064. En otra realización, el tiempo lo proporciona el reloj 160. El sistema de temporización de eventos alternativo 2060 puede no estar basado en la representación de eventos mediante imágenes, y usar, en vez de ello, otras formas de detección de eventos. En una realización, el sistema de temporización de eventos alternativo 2060 proporciona temporización con mayor o menor exactitud que el sistema basado en cámara formado por una cámara 2015, un reloj 160, un módulo TDI opcional 140. El reloj alternativo 2064 puede estar basado en una señal de tiempo proveniente de un Sistema de Posicionamiento Global (Global Positioning System - GPS). Una realización de un reloj basado en GPS 2064 posee una función particular cuando se opera el sistema 2000 junto con otros sistemas de temporización de eventos, de forma que estos pueden sincronizarse entre sí.
[0137] En ciertas realizaciones, el sistema de temporización de eventos alternativo 2060 se basa en identificación por radiofrecuencia. Los objetos, p. ej., los participantes en una carrera, se etiquetan con un chip de identificación por radiofrecuencia (RFID). La grabadora de eventos 2062 y el reloj alternativo 2064 son un sistema de temporización por radiofrecuencia que detecta e identifica los chips RFID cuando estos se acercan a la grabadora de eventos 2062.
[0138] La Figura 21 ilustra una realización ejemplar del sistema 2000 de la Figura 20, en el cual un sistema de temporización de eventos alternativo 2060 es un sistema de temporización de eventos basado en RFID 2160 que incluye un decodificador RFID 2165. Los objetos se etiquetan con chips RFID 2170 que se detectan e identifican mediante un del reloj 160 asociado a la cámara 2010, haciendo que no sea necesario sincronizar dos relojes separados.
[0139] La Figura 22 es un diagrama de flujo que ilustra un método ejemplar 2200 para procesar una serie de imágenes de entrada, capturadas a una frecuencia de fotograma de entrada, y tiempos asociados para generar una serie de imágenes de salida, correspondientes a una frecuencia de fotograma arbitraria, y tiempos asociados. Las imágenes se proporcionan desde un sistema de temporización y grabación de eventos, p. ej., los sistemas 100, 600, 2000 o 2100 de las Figuras 1, 6, 20 y 21, respectivamente. El método 2200 puede emplearse para modificar la resolución temporal de un sistema de temporización de eventos basado en imágenes posterior a la captura de las imágenes. En una realización, el método 2200 se implementa en un sistema de procesamiento de datos 2020 (Figuras 20 y 21) como un algoritmo de ajuste de frecuencia de fotograma 2043 y ejecutado mediante el procesador 2030 del sistema de procesamiento de datos 2020.
[0140] Se recibe una serie de imágenes, capturadas a una frecuencia de fotograma de entrada, y temporización desde, por ejemplo, la interfaz 150 del sistema 2000 (Figura 20) o 2100 (Figura 21) en una fase 2210. En una fase 2220, se selecciona una frecuencia de fotograma de salida. En un ejemplo de la fase 2220, un usuario especifica una frecuencia de fotograma de salida. Esta frecuencia de fotograma de salida se comunica al sistema de procesamiento de datos 2020 del sistema 2000 (Figura 20) o 2100 (Figura 21) a través de la interfaz de entrada/salida 2050. En una fase 2225, se determina una serie de tiempos de salida iniciales, donde una serie de tiempos de salida iniciales corresponde a las imágenes capturadas a la frecuencia de fotograma de salida seleccionada en la fase 2220.
[0141] Las fases 2230 a 2260 se repiten para todos los tiempos de salida iniciales. Una fase 2230 evalúa el tiempo de salida inicial en cuestión. Si el tiempo de salida inicial es idéntico a un tiempo de entrada, el método 2200 pasa a la fase 2240, donde la imagen de salida se configura para que sea igual a la imagen de entrada Asociada al tiempo de entrada. Si el tiempo de salida inicial no es idéntico al tiempo de entrada, el método 2200 pasa a una fase 2250. En la fase 2250, la imagen de salida asociada al tiempo de salida inicial se calcula como media ponderada de las imágenes de entrada capturadas cerca del tiempo de salida inicial. En una realización, la imagen de salida se calcula como promedio ponderado de dos imágenes de entrada: la imagen de entrada capturada más cerca del tiempo de salida inicial y anterior al mismo y la imagen de entrada capturada más cerca del tiempo de salida inicial y posterior al mismo. Los pesos del promedio ponderado pueden disminuir, contribuyendo al promedio ponderado la diferencia temporal creciente entre el tiempo de salida inicial y el tiempo de entrada asociado a las imágenes de entrada. Desde las fases 2240 y 2250, el método 2200 pasa a la fase 2260. En la fase 2260, se asigna un tiempo de salida final a la imagen de salida generada en la fase 2240 o en la fase 2250. El tiempo de salida final se establece para que sea igual al último tiempo de entrada asociado a las imágenes de entrada que contribuyen a la imagen de salida. Las fases 2225 a 2260 pueden ejecutarse mediante el procesador 2030 de las Figuras 20 y 21 de acuerdo con las instrucciones del algoritmo de ajuste de la frecuencia de fotograma 2043 (Figuras 20 y 21). En una fase 2270, se envían las imágenes de salida y los tiempos de salida finales asociados, por ejemplo, a un usuario o sistema informático a través de la interfaz de entrada/salida 2050 (Figuras 20 y 21).
[0142] La Figura 23 es un diagrama de flujo que ilustra un método ejemplar 2300 para reducir automáticamente la cantidad de datos de imagen generados por un sistema de temporización de eventos empleando captura de imagen, como los sistemas 100 (Figura 1), 600 (Figura 6), 2000 (Figura 20) y 2100 (Figura 21). El método 2300 puede implementarse en el sistema de procesamiento de datos 2020 (Figuras 20 y 21) como una serie de imágenes reencuadradas del algoritmo 2044. En una fase 2310, se proporcionan una serie de imágenes y tiempos asociados, por ejemplo, desde la interfaz 150 (Figuras 1, 20 y 21). En una fase 2320, se proporcionan la correspondencia entre eventos, como un participante en una carrera que cruce la línea de meta, y los tiempos. La correspondencia proporcionada en la fase 2320 puede ser generada 21). En una realización, los eventos se identifican mediante el sistema de temporización de eventos alternativo 2060 (Figura 20) o mediante el sistema de temporización de eventos basado en RFID 2160 (Figura 21). En otra realización, los eventos se identifican mediante un módulo TDI 140 (Figuras 1, 20 y 21) empleando la detección de borde.
[0143] Tras llevar a cabo las fases 2310 y 2320, el método 2300 pasa a la fase 2330, donde se seleccionan los eventos de interés. Los eventos de interés pueden predefinirse como, por ejemplo, los primeros eventos N (donde N es un entero positivo especificado), los eventos asociados a ciertos RFID, o los eventos asociados a la ocurrencia de múltiples eventos dentro de un marco temporal breve. En una fase 2340, la serie de imágenes se re-encuadra retirando las imágenes no asociadas a un evento de interés, por ejemplo, las imágenes capturadas en un intervalo de tiempo específico antes o después del tiempo asociado con el evento de interés. Las fases 2330 y 2340 pueden ser implementadas exclusivamente por el procesador 2030 (Figuras 20 y 21) en base a las instrucciones incrustadas en el algoritmo de la serie de imágenes re-encuadradas 2044, o en combinación con unos datos de entrada de usuario proporcionados a través de la interfaz de entrada/salida 2050 (Figuras 20 y 21). Una fase 2350 produce la serie de imágenes re-encuadradas generadas en la fase 2040. En una realización, la fase 2350 se lleva a cabo mediante la interfaz de entrada/salida 2050 (Figuras 20 y 21).
[0144] En realizaciones en las que los eventos se identifican en tiempo real, empleando uno o más sistemas de temporización de eventos alternativos 2060 (Figura 20), un sistema de temporización de eventos basado en RFID 2160 (Figura 17) y un módulo TDI 140 (Figuras 1,20 y, el método 2300 puede llevarse a cabo solo en los momentos en los que se identifiquen los eventos. Por ejemplo, el módulo TDI 140 (Figuras 1,20 y 21) puede incluir un buffer circular. El módulo TDI 140 puede evaluar el buffer circular empleando detección de borde. Al detectar un borde, indicativo de un evento, se comunica la serie de datos de entrada correspondiente al sistema de procesamiento de datos 2020 (Figuras 20 y 21) para la ejecución de las fases 2340 y 2350.
[0145] La Figura 24 ilustra un escenario ejemplar 2400 y un método asociado para capturar las imágenes de un objeto en movimiento 2420 empleando un sensor de imagen con cuatro líneas 2410(1), 2410(2), 2410(3) y 2410(4). En una realización, las líneas 2410(i) son líneas de píxeles de un sensor de escaneado de área. En ciertas realizaciones, las líneas 2410(i) son líneas de píxeles seleccionadas de entre un número mayor de líneas de píxeles de un sensor de escaneado de área. En el escenario ilustrado en la Figura 24, se capturan cuatro fotogramas 2401, 2402, 2403 y 2404 como una función de tiempo (2415) mientras el objeto 2420 se desplaza a través del campo de imagen asociado a las líneas 2410(1), 2410(2), 2410(3) y 2410(4). Las líneas 2410(i) se orientan de forma perpendicular a la dirección de movimiento (2425) del objeto 2420.
[0146] A modo ilustrativo, el objeto 2420 se segmenta en cuatro áreas A, B, C, D de igual tamaño en la dimensión paralela a la dirección de movimiento del objeto 2420. La frecuencia de fotograma a la que se capturan los fotogramas 2401,2402, 2403, y 2404 coincide con la velocidad del objeto 2420, de forma que la imagen de cada área A, B, C, D se desplaza una línea 2410(i) entre cada fotograma. Específicamente, a medida que el objeto 2420 se mueve, el área A se representa en la línea 2410(1) en el fotograma 2401, en la línea 2410(2) en el fotograma 2402, en la línea 2410(3) en el fotograma 2403 y en la línea 2410(4) en el fotograma 2404.
[0147] La TDI puede llevarse a cabo integrando las líneas en los fotogramas y teniendo en cuenta al mismo tiempo los desplazamientos fotograma a fotograma de la imagen capturada del objeto 2420. Se forma una imagen mejorada del área A del objeto 2420 mediante la integración de la línea 2410(1) del fotograma 2401, de la línea 2410(2) del fotograma 2402, de la línea 2410(3) del fotograma 2403 y de la línea 2410(4) del fotograma 2404. El ejemplo ilustrado en la Figura 24 no es limitativo y puede extenderse a cualquier número de líneas 2410(i), a cualquier número de fotogramas, a cualquier número de objetos, y a cualquier número de áreas. En una realización, los fotogramas 2401, 2402, 2403 y 2404 se lleva a cabo fuera del sensor, por ejemplo, mediante el módulo TDI 140 (Figura 1), empleando, por ejemplo, el método 300 de la Figura 3. En otra realización, se alcanza mayor resolución empleando los sistemas 400 (Figura 4), 1400 (Figura 14) o 1500 (Figura 15) y métodos asociados.
[0148] En una realización, se capturan los fotogramas 2401, 2402, 2403 y 2404 mediante un sensor de escaneado de área con dispositivo de carga acoplada (CCD) interlineal con las líneas 2410(1), 2410(2), 2410(3) y 2410(4). En un sensor de escaneado de área con CCD interlineal, el proceso de lectura de las cargas de píxeles no impone retraso alguno entre la integración de los distintos fotogramas. Cada píxel del sensor de escaneado de área con CCD interlineal tiene un píxel enmascarado asociado. El proceso de lectura se pone en marcha gracias a una operación de reseteo que desplaza todas las cargas de píxeles acumuladas durante la integración de un fotograma en los correspondientes píxeles enmascarados, y la integración del siguiente fotograma tiene lugar inmediatamente después de la operación de reseteo. La de captación de la luz del sensor de escaneado de área con CCD interlineal es, por lo tanto, del 100 %, asumiendo que el retardo asociado a la operación de reseteo sea insignificante.
[0149] En otra realización, las líneas 2410(1), 2410(2), 2410(3) y 2410(4) pertenecen a un sensor de imagen de escaneado de área CMOS. Los sensores de imagen de escaneado de área CMOS pueden configurarse con un obturador global u obturador tipo rolling shutter («rodante»). El proceso de integración y lectura de un sensor de imagen de escaneado de área CMOS con obturador global es análogo al de un CCD interlineal. Los sensores de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») pueden implementarse con reseteo global o reseteo rodante, donde el reseteo rodante es la configuración más comúnmente disponible. La Figura 25 ilustra el proceso de integración y lectura 2500 para un sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») implementado con reseteo global. La Figura 26 ilustra el proceso de integración y lectura 2600 para un sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») implementado con reseteo rodante. En un sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») implementado con reseteo global, todos los píxeles se resetean al mismo tiempo y, a continuación, se leen línea a línea. Los píxeles no pueden integrarse durante la lectura, lo cual significa que el sensor permanece inactivo durante el proceso de lectura. En un sensor de imagen de escaneado de área CMOS con obturador tipo rodante implementado con reseteo rodante, las filas de píxeles individuales se resetean y leen de forma rodante. Mientras se lee una fila, las demás siguen integrándose. Cuando se completa la lectura una fila, esta puede volver a integrarse y comienza la lectura de la siguiente fila.
[0150] Para comparar la eficiencia de captación de la luz de ambos tipos de reseteo, se asume que el tiempo de integración es igual al tiempo de lectura para ambos tipos. En la realización ilustrada en la Figura 26, las cuatro líneas 2410(1), 2410(2), 2410(3) y 2410(4) coinciden con las filas de píxeles. Por lo tanto, los píxeles se leen línea a línea. De este modo, en caso de las líneas N de un sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante»), implementado con reseteo rodante y funcionando a su máxima frecuencia de fotograma, los períodos de lectura N se completan en un ciclo de fotograma completo. Con los mismos tiempos de lectura e integración, cada línea se integra durante un intervalo equivalente a N períodos de lectura antes de ser leídos. Aplicando las mismas asunciones a un sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») implementado con reseteo global, la realización ilustrada en la Figura 25, da como resultado que el sensor pasa la mitad de un ciclo de fotogramas integrando y la otra mitad de un ciclo de fotogramas leyendo.
[0151] En la Figura 25, el estatus de la línea para las líneas 2410(1), 2410(2), 2410(3) y 2410(4) se indica como función de tiempo 2415. Se asume que la duración de la operación de reseteo es insignificante y el estatus de la línea es, por lo tanto, "integrar" (INT) o "leer" (READ). La imagen de cada segmento del objeto 2420 se desplaza una línea durante un ciclo de fotogramas, según indica el segmento A, que se representa en la línea 2410(1) durante el fotograma 2401 2520(3)), y la línea 2410(4) durante el fotograma 2404 (etiqueta 2520(4)). El fotograma 2401, por ejemplo, está formada por señales de lectura 2530(1), 2530(2), 2530(3) y 2530(4), todas ellas resultantes de una integración sincronizada.
[0152] La integración de retraso de tiempo puede llevarse a cabo integrando líneas según se ha descrito para la Figura 24. El resultado es equivalente al obtenido con un sensor de imagen de escaneado de área CCD interlineal, o con un sensor de imagen de escaneado de área CMOS con obturador global, excepto por el hecho de que la eficiencia de captación de la luz es del 50 %. El sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») con reseteo global puede implementarse, por ejemplo, en los sistemas 100 (Figura 1), 200 (Figura 2), 600 (Figura 6), 2000 (Figura 20), o 2100 (Figura 21). La integración de retraso de tiempo puede llevarse a cabo, por ejemplo, empleando el método 300 de la Figura 3.
[0153] En la Figura 26, el estatus de la línea para las líneas 2410(1), 2410(2), 2410(3) y 2410(4) se indica como una función de tiempo 2415. En cuanto a la Figura 25, se asume que la duración de la operación de reseteo es insignificante y que el estatus de la línea es, por lo tanto, "integrar" (INT) o "leer" (READ). La imagen de cada segmento del objeto 2420 se desplaza una línea durante un ciclo de fotogramas. Con todo, en este caso, no todas las líneas se leen al mismo tiempo. Un fotograma ejemplar está formado por señales de lectura 2630(1), 2630(2), 2630(3) y 2630(4). Estas señales de lectura resultan de la integración asíncrona. Mientras la señal de lectura para la línea 2410(1) se alinea con las posiciones del segmento, las señales de lectura para las líneas 2410(2), 2410(3) y 2410(4) se desplazan cada vez más de las mismas. Del mismo modo, como el segmento A se desplaza de una línea a otra, según indican las etiquetas 2620(1), 2620(2), 2620(3) y 2620(4), la señal de lectura correspondiente contiene una creciente contribución del segmento B. Sin embargo, la frecuencia de fotograma puede ajustarse para compensar la integración asíncrona de forma que un sensor de imagen con obturador tipo shutter rolling implementado con reseteo rodante puede emplearse sin degradación de las imágenes TDI generadas a partir del mismo. Por ejemplo, la frecuencia de fotograma a la que se capturan las imágenes puede incrementarse, en comparación con la frecuencia de fotograma nominal de un sensor de imagen con obturador global, de tal forma que la imagen de un objeto que pase se mueva una línea mientras dure un tiempo de fotograma más un tiempo de lectura.
[0154] Una ventaja del sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») implementado con reseteo rodante es que la eficiencia de captura de la luz puede aproximarse al 100 %. Para un sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») con N líneas y reseteo rodante, el tiempo de lectura asociado a una línea es de solo 1/(N+1) de la duración del ciclo de fotogramas. El ciclo de funcionamiento de integración de la luz es, por lo tanto, N/(N+1). En la realización con cuatro líneas, ilustrada en la Figura 26, el ciclo de trabajo de integración de la luz es del 80 %. Sin embargo, para un sensor con, por ejemplo, 1024 líneas, el ciclo de trabajo de integración de la luz es del 99,9 %.
[0155] La integración de retraso de tiempo puede llevarse a cabo integrando las líneas tal y como se ha descrito para la Figura 24. El resultado es equivalente al obtenido con un sensor de imagen de escaneado de área CCD interlineal, o un sensor de imagen de escaneado de área CMOS con obturador global, salvo por un pequeño difuminado de subfotograma y una leve reducción en el ciclo de trabajo de integración de la luz. El sensor de imagen de escaneado de área CMOS con obturador tipo rolling shutter («rodante») con reseteo rodante puede implementarse en, por ejemplo, los sistemas 100 (Figura 1), 600 (Figura 6), 2000 (Figura 20), o 2100 (Figura 21). La integración de retraso de tiempo puede llevarse a cabo, por ejemplo, empleando el método 300 de la Figura 3.
[0156] La Figura 27 ilustra un sistema de cámara ejemplar 2700 configurado con un sistema de asistencia de alineación. El sistema de cámara 2700 incluye una cámara 2710 acoplada a una montura 2720 con un movimiento de al menos cuatro el sistema 100 de la Figura 1, un nivel 2712, y un sistema de control de la alineación opcional 2714. La cámara 2710 puede implementarse sin el módulo TDI 140 del sistema 100 (Figura 1) sin alejarse del alcance de la presente. La cámara 2710 se as ocia con un sistema de coordenadas definido por tres ejes ortogonales 2730, 2740 y 2750. El sistema de coordenadas está fijo con respecto a la cámara 2710 de forma que se mueve con la cámara 2710. El eje 2750 es paralelo a una dirección vertical en las imágenes capturadas por la cámara 2710. El origen del sistema de coordenadas, esto es, la intersección de ejes 2730, 2740 y 2750, puede encontrarse dentro de la cámara 2710 o puede ser externo a la misma. La montura 2720 está configurada para proporcionar al menos rotación 2731 sobre el eje 2730, rotación 2741 sobre el eje 2740, rotación 2751 sobre el eje 2750 y traslación 2742 a lo largo del eje 2740.
[0157] En un escenario de uso ejemplar, el sistema de cámara 2700 se emplea para capturar imágenes de una línea de meta. La dirección de la línea de meta y la dirección de la fuerza gravitacional, juntas, definen un plano de meta. Alternativamente, el plano de meta se define mediante la dirección de la línea de meta que es, generalmente, perpendicular a la dirección del movimiento de los participantes en la carrera que cruzan la línea de meta. La montura 2720 se emplea para alinear la cámara 2710 para que esté alineada, según indica el nivel 2712, de forma que la dirección de la fuerza gravitacional sea vertical en las imágenes 115 (Figura 1) capturadas por la cámara 2712. Esto corresponde al eje 2750 paralelo a la dirección de la fuerza gravitacional. Nótese que en este ejemplo la cámara 2710 se ha colocado con respecto a la línea de meta de forma que dicha traslación a lo largo del eje 2740 resulte en un movimiento general de izquierda a derecha de la línea de meta en las imágenes capturadas por la cámara 2710. La montura 2720 se emplea además para colocar la cámara 2710 en el plano de meta, de forma que la línea de meta sea vertical en las imágenes 115 (Figuras 1 y 2). Las Figuras 28 a 31, descritas más abajo, ilustran dos métodos para llevar a cabo esta alineación.
[0158] En una realización, el nivel 2712 es un nivel electrónico y la montura 2720 incluye actuación motorizada. El nivel 2712 está acoplado a y se comunica con un sistema de control de la alineación 2714. El sistema de control de la alineación 2714 está además acoplado a y se comunica con el sistema 100 y la montura 2720. El sistema de control de la alineación 2714 procesa las mediciones por nivel 2712 y las imágenes capturadas por el sistema 100. El sistema de control de la alineación 2714 controla la montura 2720 para lograr la alineación deseada de la cámara 2710. Esta realización facilita la alineación automática de la cámara 2710.
[0159] En otra realización, un operador alinea manualmente la cámara 2710 empleando mediciones 2910(1). En otro ejemplo, un operador identifica la imagen de línea de meta 2920(1) en la imagen 2910(1) y proporciona la ubicación identificada al sistema de control de la alineación 2714. En una fase 2840, la imagen de línea de meta 2920(1) de la imagen 2910(1) se emplea para calcular la rotación 2751por nivel 2712 e imágenes capturadas por el sistema 100. En otra realización, el sistema de control de la alineación 2714 controla una porción de los grados de libertad de la montura 2720, mientras un operador controla los demás grados de libertad. En esta realización, el operador puede ayudarse de las instrucciones proporcionadas por el sistema de control 2714. Por ejemplo, el sistema de control de la alineación 2714 controla la montura 2720 para controlar las rotaciones 2731, 2741 y 2751, y, según sea necesario, proporciona instrucciones a un operador para ajustar la traslación 2742.
[0160] La cámara 2710 puede incluir la cámara 2015 de la Figura 20, en vez del sistema 100, sin alejarse del alcance de la presente. Además, la cámara 2710 puede ser una cámara que no tenga una función TDI sin alejarse del alcance de la presente.
[0161] La Figura 28 ilustra un método ejemplar 2800 para alinear la cámara 2710 del sistema de cámara 2700 (Figura 27) con una línea de meta. La Figura 28 se ve mejor junto con la Figura 27 y la Figura 29. El método 2800 puede realizarse manualmente o automáticamente, o mediante una combinación de ambos, tal y como se ha descrito más arriba. En una corresp onde a la colocación del eje 2750 en paralelo a la dirección de la fuerza gravitacional. Por ejemplo, el sistema de control de la alineación 2714 recibe mediciones del nivel 2712 y controla la montura 2720 para nivelar la cámara 2710. En una fase 2820, la cámara 2710 captura una imagen de una escena que incluye la línea de meta. Por ejemplo, el sistema de control de la alineación 2714 activa la cámara 2710 para que esta capture una imagen 115 (Figuras 1 y 2). Se ilustra una imagen ejemplar 2910(1) que incluye una imagen de línea de meta 2920 (1) en la Figura 29. En una fase 2830, la línea de meta se detecta en la imagen capturada en la fase 2820. Por ejemplo, el sistema de control de la alineación 2714 detecta la imagen de línea de meta 2920(1) en la imagen sobre el eje 2750 y la traslación 2742 a lo largo del eje 2740 necesaria para ubicar la cámara 2710 en el plano de meta. Por ejemplo, el sistema de control de la alienación 2714 analiza la ubicación y la orientación de la línea de meta 2920(1) en la imagen 2910(1) para determinar la rotación 2751 y la traslación 2742 necesarias para ubicar la cámara 2710 en el plano de meta. Esto puede incluir el uso del conocimiento de la distancia desde la cámara 2710 hasta un punto especificado en la escena representada mediante imágenes. En una fase 2850, la montura 2720 rota y desplaza la cámara 2710 con un movimiento traslacional de acuerdo con el resultado de la fase 2840. La montura 2720 lleva a cabo la rotación 2751 y la traslación 2742. Por ejemplo, el sistema de control de la alineación 2714 controla la montura 2720 para que esta lleve a cabo la rotación 2751 y la traslación 2742. Una imagen resultante 2910(2), si es que se captura una, se ilustra en la Figura 29. La imagen de línea de meta 2920(2) es vertical en la imagen 2910(2).
[0162] La Figura 30 ilustra otro método ejemplar 2600 para alinear la cámara 2710 del sistema de cámara 2700 (Figura 27) con una línea de meta. La Figura 30 se ve mejor junto con la Figura 27 y la Figura 31. El método 3000 puede llevarse a cabo manualmente o automáticamente, tal y como se ha descrito más arriba. El método 3000 comienza llevando a cabo la fase 2810 de la Figura 28. En una fase subsiguiente 3020, la montura 2720 rota la cámara 2710 sobre el eje 2750 mientras se monitorea la posición de la línea de meta en las imágenes 115 (Figuras 1 y 2). La Figura 31 ilustra una imagen ejemplar 3110(1) capturada antes de llevar a cabo esta rotación. En la imagen 3110(1), la imagen de línea de meta 3120(1) se encuentra en la porción derecha de la imagen 3110(1). La montura 2720 rota la cámara 2710 hasta que la línea de meta está centrada horizontalmente en la imagen 115 (Figuras 1 y 2). Esto se ilustra en la Figura 31 como imagen ejemplar 3110(2) donde la imagen de línea de meta 3120(2) está centrada horizontalmente. Por ejemplo, el sistema de control de la alineación 2714 analiza continuamente las imágenes 115 (Figuras 1 y 2) capturadas por el sistema 100 mientras controla la montura 2720 para rotar la cámara 2710 según sea necesario. En una fase 3030, la montura 2720 desplaza la cámara 2710 con un movimiento traslacional a lo largo del eje 2750, mientras se monitorea la posición la línea de meta en las imágenes 115 (Figuras 1 y 2), hasta que la línea de meta está vertical. Cuando se logra una imagen de línea de meta vertical, la cámara 2710 se ubica en el plano de meta. La Figura 31 ilustra una imagen ejemplar 3110(3), con una imagen de línea de meta vertical 3120(3), capturada tras llevar a cabo esta traslación. Por ejemplo, el sistema de control de la alineación 2714 analiza continuamente las imágenes 115 (Figuras 1 y 2) capturadas por el sistema 100 mientras se controla la montura 2720 para que imprima un movimiento de traslación a la cámara TDI 2010 según sea necesario.
[0163] La Figura 32 ilustra un sistema ejemplar 3200 para generar y visualizar vídeo tipo marcador empleando un sistema de temporización de eventos con un sensor de imagen y una pantalla. El vídeo tipo marcador incluye, por ejemplo, listas de resultados, posiciones, imágenes generadas por una cámara TDI u otro sistema de camera photo finish, vídeo, anuncios y otros gráficos. El sistema 3200 es una realización del sistema 2000 de la Figura 20. El sistema 3200 incluye una cámara 3215, que es una realización de la cámara opcional 2015 (Figura 20), un sistema de procesamiento de datos 2020 (Figura 20), y una pantalla 3260. El sistema 3200 puede además incluir un sistema de temporización de eventos alternativo 2060 (Figura 20). La cámara 3215 incluye un sensor de imagen 3210, óptica de imágenes 2012 (Figura 20), una interfaz 3250, y un generador de vídeo 3220 para generar vídeo tipo marcador. En ciertas realizaciones, el sensor de imagen 3210 es un sensor de imagen de escaneado de área, como el sensor de imagen de escaneado de área 110 (FIG.
1). Opcionalmente, la cámara 3215 incluye además un módulo TDI 140 (Figura 1) y/o un reloj 160 (Figura 1). El generador 3242 para almacenar los datos de resultados generados por el sistema de procesamiento de datos 2020 y recibidos por el generador de vídeo 3220 a través de la interfaz 3250. Además, la memoria 3240 incluye instrucciones legibles por máquina 3244 codificadas en la memoria 3240. En una realización, las instrucciones legibles por máquina 3244 se encuentran en una porción no volátil de la memoria 3240. En otra realización, el generador de vídeo 3220 recupera las instrucciones legibles por máquina 3244 de una memoria no volátil, ubicada externamente al generador de vídeo 3220, y almacena las instrucciones legibles por máquina 3244 en una porción volátil de la memora 3240. El generador vídeo 3220 incluye además un procesador 3230 para procesar los datos de resultados 3242, de acuerdo con las instrucciones 3244, para producir vídeo tipo marcador. El generador de vídeo 3220 comunica el vídeo tipo marcador a la pantalla 3260 a través de la interfaz 3250. Las instrucciones pueden serle comunicadas al generador de vídeo por un usuario o un sistema informático externo, por ejemplo, un sistema de procesamiento de datos 2020, a través de la interfaz 3250 y almacenarse en las instrucciones 3244. Dichas instrucciones incluyen, por ejemplo, ajustes tipográficos, ajustes gráficos y disposición de pantalla general. La interfaz 3250 puede incluir puertos de comunicación para comunicar el vídeo tipo marcador a otras pantallas como un ordenador o una red de ordenadores. La interfaz 3250 puede incluir uno o más puertos de comunicación inalámbricos.
[0164] El sistema 3200 proporciona una alternativa sencilla y económica a la generación de marcador convencional, que está basada en un sistema o sistemas de temporización separados y generación de datos marcador. Convencionalmente, los datos marcador se generan empleando un marcador con un controlador marcador integrado o un controlador marcador externo. El controlador marcador recibe los resultados desde un sistema de temporización, los procesa empleando software de controlador marcador y genera vídeo para el marcador. Por el contrario, el sistema 3200 emplea la función de generación de vídeo integrada en el sistema de temporización, específicamente en la cámara 3215, para generar vídeo tipo marcador. El vídeo tipo marcador se le comunica directamente a la pantalla 3260 a través de la interfaz 3250. La interfaz 3250 puede incluir una Interfaz Multimedia de Alta Definición (High-Definition Multimedia Interface - HDMI) y/o un puerto de comunicación inalámbrico, a tal efecto. El puerto de comunicación inalámbrico puede ser un puerto de comunicación Wi-Fi, por ejemplo, capaz de comunicar vídeo tipo marcador a un convertidor inalámbrico a HDMI acoplado a y que se comunica con un puerto HDMI de visualización 3260. Así, el sistema 3200 elimina la necesidad de un marcador y un controlador marcador. Puesto que muchos sensores de imagen de escaneado de área disponibles en el mercado incluyen función de generación de vídeo, los elementos electrónicos de la cámara 3215 pueden estar basados en componentes electrónicos disponibles y asequibles. En una realización, la pantalla 3260 es una pantalla de Diodo Emisor de Luz (Light Emitting Diode - LED).
[0165] La función de generación de vídeo del sistema 3200 puede emplearse durante la alineación de la cámara 3215 con respecto a una escena. En una realización, la cámara 3215 está configurada para comunicar las imágenes capturadas por el sensor de imagen 3210 directamente al generador de vídeo 3220. El generador de vídeo 3220 puede procesar un flujo de dichas imágenes para generar vídeo tipo marcador que incluya el flujo de imágenes. Este vídeo tipo marcador puede ser comunicado a la pantalla 3260 a través de la interfaz 3250, de tal forma que un operador pueda alinear la cámara 3215 mirando un flujo de imágenes en tiempo real en la pantalla 3260.
[0166] La Figura 33 ilustra un método ejemplar 3300 para generar y visualizar vídeo tipo marcador empleando un sistema de temporización de eventos con función de generación de vídeo integrada. El método 3300 puede llevarse a cabo empleando el sistema 3200 de la Figura 32. En una fase 3310, los datos de temporización de eventos se generan empleando un sistema de cámara. En una realización, el sistema de cámara es un sistema de cámara TDI, como el sistema 100 (Figura 1) o el sistema de cámara 3215 (Figura 32), y los datos de temporización de eventos incluyen imágenes, como imágenes TDI 145 (Figuras 1 y 2). En otra realización, la temporización de eventos incluye imágenes de escaneado de área, como imágenes bidimensionales digitales 115 (Figuras 1 y 2) o imágenes bidimensionales capturadas la cámara 3215 (Figura 32).
[0167] En una fase 3320, los datos de temporización de eventos se comunican a un sistema de procesamiento de datos. Por ejemplo, la cámara 3215 (Figura 32) comunica datos de temporización de eventos, como imágenes, al sistema de procesamiento de datos 2020 (Figuras 20 y 32) mediante la interfaz 3250 (Figura 32).
[0168] En una fase 3330, el sistema de procesamiento de datos procesa los datos de temporización de eventos, que le han sido comunicados en la fase 3320, para generar datos de resultados. En una realización, los datos de resultados incluyen resultados de temporización de eventos determinados mediante el análisis de imágenes, como las imágenes TDI 145 (Figuras 1 y 2) recibidas del sistema de temporización de eventos. Por ejemplo, el procesador 2030 (Figuras 20 y 32) del sistema de procesamiento de datos 2020 (Figuras 20 y 32) procesa las imágenes recibidas desde la cámara 3215 (Figura 32) en la fase 3320 de acuerdo con los algoritmos 2042 (Figuras 20 y 32) para generar resultados de temporización de eventos. Los resultados de temporización de eventos pueden almacenarse en un espacio de almacenaje de datos 2041.
[0169] En una fase 3340, los datos de resultados generados en la fase 3330 se comunican al sistema de cámara. Por ejemplo, el sistema de procesamiento de datos 2020 (Figuras 20 y 32) comunica los datos de resultados a la interfaz 3250 de la cámara 3215 (Figura 32).
[0170] En una fase 3350, los datos de resultados se procesan mediante la cámara para generar vídeo tipo marcador. La cámara procesa los datos de resultados empleando la función de generación de vídeo integrada. Por ejemplo, el generador de vídeo 3220 (Figura 32) procesa los datos de resultados recibidos desde la interfaz 3250 (Figura 32) para generar vídeo tipo marcador. El procesador 3230 (Figura 32) almacena los datos recibidos desde la interfaz 3250 (Figura 32) en los datos de resultados 3242 (Figura 32). El procesador 3230 (Figura 32) recupera a continuación y procesa los datos de resultados de los datos de resultados 3242 (Figura 32) de acuerdo con las instrucciones 3244. El vídeo tipo marcador puede incluir otros elementos basados en otros datos distintos de los datos de resultados generados en la fase 3330 sin alejarse del alcance de la presente. Por ejemplo, el vídeo tipo marcador puede incluir imágenes capturadas por el sensor de imagen, como un flujo en directo de imágenes.
[0171] En una fase 3360, el vídeo tipo marcador generado en la fase 3350 se le comunica a una pantalla. Por ejemplo, la cámara 3215 (Figura 32) comunica el vídeo tipo marcador generado por el generador de vídeo 3220 (Figura 32) a la pantalla 3260 (Figura 32) mediante la interfaz 3250 (Figura 32). El vídeo tipo marcador puede ser transmitido por streaming a la pantalla 3260 (Figura 32) puesto que se genera o se almacena temporalmente en la memoria 3240 (Figura 32) y puede ser comunicado a la pantalla 3260 (Figura 32) más tarde. La memoria 3240 (Figura 32) puede funcionar como un buffer que garantice el streaming continuo.
[0172] La Figura 34 ilustra un sistema de temporización de eventos ejemplar 3400 que emplea el sistema de procesamiento de datos único 2020 (Figura 20) para generar resultados en base a los datos recibidos de múltiples cámaras separadas 2015 (Figura 20) y/u otros sistemas de generación de datos. En una realización, el sistema 3400 incluye uno o más sistemas de temporización de eventos alternativos 2060 (Figura 20). En ciertas realizaciones, el sistema 3400 incluye al menos una cámara 3215 (Figura 32) capaz de generar vídeo tipo marcador, y al menos una pantalla 3260 (Figura 32) para visualizar el vídeo tipo marcador. Opcionalmente, el sistema 3400 incluye uno o más sistemas de medición alternativos 3410 para proporcionar resultados de eventos no basados en tiempo. Por ejemplo, el sistema de medición alternativo 3410 es un sistema para medir la distancia, como la longitud de un salto o un lanzamiento. El sistema 3400 puede incluir un número cualquiera de cámaras 2015, sistemas de temporización de eventos alternativos 2060, sistemas de medición alternativos 3410, y cámaras 3215 acopladas a y que se comuniquen con un sistema de cualquiera de pantallas 3260 acopladas a y que se comuniquen con una o más cámaras 3215 sin alejarse del alcance del presente.
[0173] En un escenario de uso ejemplar, las cámaras 2015 y, opcionalmente, los sistemas de temporización opcionales 2060, las cámaras 3215, y los sistemas de medición alternativos 3410 se emplean en un evento deportivo que incluye varios eventos individuales que tienen lugar al mismo tiempo o secuencialmente. Por ejemplo, un evento de atletismo incluye, típicamente, diversas competiciones de carrera, de salto y de lanzamiento. Cada una de ellas conlleva necesidades para la medición de resultados empleando una o más cámaras 2015 y, opcionalmente, sistemas de temporización de eventos alternativos 2060, cámaras 3215 y sistemas de medición alternativos 3410. Con frecuencia, se instalan múltiples pantallas en la zona del estadio para visualizar distintos tipos de resultados.
[0174] Los procesos aquí revelados como llevados a cabo por un módulo TDI incluido en una cámara, por ejemplo, el módulo TDI 140 (Figura 1), en ciertas realizaciones, pueden ser llevados a cabo, alternativamente, en todo o en parte, por otro sistema de procesamiento externo a la cámara, por ejemplo, un sistema de procesamiento de datos 2020 (Figura 20), sin alejarse del alcance de la presente. Dicho sistema de procesamiento de datos puede recibir imágenes capturadas y procesarlas posteriormente en cualquier momento. La cámara puede estar equipada con un módulo de compresión de datos para reducir la frecuencia de datos asociados a la exportación de las imágenes capturadas (versus TDI). Del mismo modo, los procesos aquí revelados como llevados a cabo por un sistema de procesamiento de da tos externo a la cámara, como el sistema de procesamiento de datos 2020 (Figura 20), pueden ser llevados a cabo, alternativamente, en todo o en parte, por un módulo TDI incluido en la cámara, como las realizaciones del módulo TDI 140 (Figura 1), o por otro módulo de procesamiento de datos incluido en la cámara.
[0175] Las características arriba descritas así como las reivindicadas más abajo, pueden combinarse de varias formas sin alejarse del alcance del presente. Por ejemplo, se apreciará que algunos aspectos de un sistema o método para procesar imágenes de temporización de eventos aquí descritos pueden incorporar o intercambiar características de otro sistema o método para procesar imágenes de temporización de eventos aquí descritos. Los siguientes ejemplos ilustran posibles combinaciones, no limitativas, de las realizaciones arriba descritas. Debe quedar claro que pueden realizarse muchos otros cambios y modificaciones a los métodos y el dispositivo aquí descritos sin alejarse del alcance de las reivindicaciones anexas.

Claims (8)

1. Un sistema (100) para procesar imágenes de temporización de eventos que comprende:
un sensor de imagen de escaneado de área (110) para generar imágenes bidimensionales digitales secuenciales de una escena(130); y
un módulo de integración de retraso de tiempo (140) para procesar las imágenes bidimensionales digitales secuenciales para generar una imagen de integración de retraso de tiempo de un objeto en movimiento (135) en la escena (130);
el módulo de integración de retraso de tiempo (140) que comprende circuitos de procesamiento de imágenes (141) adaptados para:
(a) segmentar al menos una porción de cada imagen bidimensional digital secuencial (115) en líneas de entrada (118), y al menos esa porción incluye una imagen de una línea de meta en la escena, y (b) poblar cada línea de salida de la imagen de integración de retraso de tiempo (145) con una integral sobre diversas líneas de entrada (118), y cada línea de entrada (118) de la integral se extrae de una imagen bidimensional digital secuencial diferente (115) para hacerla coincidir sustancialmente con el objeto en movimiento (135) a través de la línea de meta en una dirección perpendicular a las líneas de entrada (118);
siendo el sensor de imagen de escaneado de área (110) un sensor en color (1400), y comprendiendo cada píxel del sensor en color (1420) una disposición tipo Bayer de filas de componentes fotosensibles (1421 - 1424), y teniendo el sensor de imagen de escaneado de área (110) tiene una frecuencia de fotograma correspondiente al movimiento de la imagen del objeto a una frecuencia de una fila por imagen bidimensional digital secuencial (115), caracterizado porque las líneas de entrada son paralelas a las filas de componentes fotosensibles de la disposición tipo Bayer y alternan entre (a) píxeles originales formados por señales de los componentes fotosensibles del mismo fotograma de imagen de línea capturado por el sensor en color (1400) y (b) píxeles cruzados (1430) formados por señales de los componentes fotosensibles de dos fotogramas de imagen de línea capturados secuencialmente, para producir líneas de entrada a una resolución doble con respecto a las imágenes bidimensionales digitales secuenciales (115) perpendiculares a las líneas de entrada.
2. El sistema de la reivindicación 1, donde el módulo de integración de retraso de tiempo (140) esté separado del sensor de imagen de escaneado de área (110).
3. El sistema (100) de la reivindicación 2, donde el sensor de imagen de escaneado de área (110) se implemente en una cámara (170), y el módulo de integración de retraso de tiempo (140) esté separado de la cámara (170).
4. El sistema (100, 600) de cualquiera de las reivindicaciones 1 a 3, que comprenda, además, un controlador (650) acoplado a y que se comunique con el módulo de integración de retraso de tiempo (640); y
los circuitos de procesamiento de imágenes (641) estén adaptados para ajustar el número de líneas de entrada, de acuerdo con las señales recibidas del controlador (650), para ajustar el brillo de la imagen de integración de retraso de tiempo (145).
5. El sistema (100, 600) de la reivindicación 4, donde los circuitos de procesamiento de imágenes (641) estén adaptados para ajustar el número de líneas de entrada, de forma independiente, para píxeles individuales de la imagen de integración de retraso de tiempo (145).
6. El sistema (100, 600) de cualquiera de las reivindicaciones anteriores, para cada integral de al menos una porción de la imagen de integración de retraso de tiempo (145), donde al menos una de las líneas de entrada contribuya a la integral a solo una fracción de sus correspondientes valores de píxeles.
área (1010) comprenda un filtro (1020) que incluya diversas porciones de filtro de densidad neutra (1025) con una respectiva diversidad de transmisiones diferentes, de forma que las imágenes bidimensionales digitales secuenciales (115) comprendan diversas porciones de imagen que comprendan, a su vez, diversos brillos respectivos, y donde cada porción de imagen corresponda a una de las porciones de filtro de densidad neutra, y el módulo de integración de retraso de tiempo esté configurado para segmentar las líneas de entrada (118) desde una de las porciones de imagen seleccionadas de acuerdo con un brillo deseado de la imagen de integración de retraso de tiempo (145).
8. Un método para procesar imágenes de temporización de eventos, que comprenda las fases de
captura de imágenes bidimensionales digitales secuenciales (115) de una escena (130) empleando un sensor de imagen de escaneado de área (110); e
imágenes bidimensionales digitales secuenciales (115) para generar una imagen de integración de retraso de tiempo de un objeto en movimiento (135) en la escena (130), donde la fase de procesamiento comprende la integración de las imágenes bidimensionales digitales secuenciales (115) para formar una imagen de integración de retraso de tiempo de al menos una porción de un objeto en movimiento (135) en la escena (130) por:
(a) segmentando al menos una porción de cada imagen bidimensional digital secuencial (115) en líneas de entrada (118), donde dicha porción incluya una imagen de una línea de meta en la escena, y (b) poblando cada línea de la imagen de integración de retraso de tiempo con una integral sobre diversas líneas de entrada (118), donde cada línea de entrada (118) de la integral se extraiga de una imagen bidimensional digital secuencial diferente (115) para hacerla coincidir sustancialmente con el movimiento del objeto en movimiento (135) a través de la línea de meta en una dirección perpendicular a las líneas de entrada (118);
donde el sensor de imagen de escaneado de área (110) es un sensor en color (1400), cada píxel del sensor en color (1420) incluye una disposición tipo Bayer de filas de componentes fotosensibles (1421 - 1424), el sensor de imagen de escaneado de área (110) tiene una frecuencia de fotograma correspondiente al movimiento de la imagen del objeto a una frecuencia de una fila por imagen bidimensional digital secuencial (115), caracterizado porque las líneas de entrada son paralelas a las filas de componentes fotosensibles de la disposición tipo Bayer y alternan entre (a) los píxeles originales formados por señales de los componentes fotosensibles del mismo fotograma de imagen de línea capturado por el sensor en color (1400) y (b) los píxeles cruzados (1430) formados por señales de los componentes fotosensibles de dos fotogramas de imagen de línea capturados secuencialmente, para producir líneas de entrada al doble de resolución que las imágenes bidimensionales digitales secuenciales (115) perpendiculares a las líneas de entrada.
ES15786708T 2014-04-28 2015-04-28 Sistemas y métodos para el procesamiento de imágenes de temporización de eventos Active ES2757809T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US14/263,578 US9413926B2 (en) 2014-04-28 2014-04-28 Systems for processing event timing images
US14/263,504 US20150312504A1 (en) 2014-04-28 2014-04-28 Camera Systems For Processing Event Timing Images
US14/263,532 US10375300B2 (en) 2014-04-28 2014-04-28 Methods for processing event timing data
US14/263,550 US9398196B2 (en) 2014-04-28 2014-04-28 Methods for processing event timing images
PCT/US2015/027887 WO2015168058A1 (en) 2014-04-28 2015-04-28 Systems and methods for processing event timing images

Publications (1)

Publication Number Publication Date
ES2757809T3 true ES2757809T3 (es) 2020-04-30

Family

ID=54359216

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15786708T Active ES2757809T3 (es) 2014-04-28 2015-04-28 Sistemas y métodos para el procesamiento de imágenes de temporización de eventos

Country Status (7)

Country Link
EP (4) EP3138278B1 (es)
JP (3) JP6196745B2 (es)
AU (5) AU2015253372B2 (es)
CA (4) CA2947266C (es)
ES (1) ES2757809T3 (es)
NZ (1) NZ726074A (es)
WO (1) WO2015168058A1 (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020034083A1 (en) * 2018-08-14 2020-02-20 Huawei Technologies Co., Ltd. Image processing apparatus and method for feature extraction
CN109089031B (zh) * 2018-09-21 2020-04-10 中国科学院长春光学精密机械与物理研究所 Cmos探测器不同帧频相同积分时间下输出一致的方法
EP3667415B1 (fr) * 2018-12-12 2022-03-02 Swiss Timing Ltd. Procede et systeme d'affichage d'une image instantanee de l'arrivee d'une course a partir d'une image temporelle de type photofinish
WO2020246186A1 (ja) * 2019-06-04 2020-12-10 ソニー株式会社 撮像システム
JP7166470B2 (ja) * 2019-10-24 2022-11-07 三菱電機株式会社 画像生成システム及び画像処理装置、並びにプログラム及び記録媒体
EP3869793B1 (en) * 2020-02-19 2022-10-12 Sick IVP AB Method for reducing effects of laser speckles
JP2022108472A (ja) * 2021-01-13 2022-07-26 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
CN116866726B (zh) * 2023-09-01 2023-11-07 合肥埃科光电科技股份有限公司 Tdi相机积分方法、彩色tdi相机积分方法、tdi相机及介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657077A (en) * 1993-02-18 1997-08-12 Deangelis; Douglas J. Event recording system with digital line camera
US6545705B1 (en) * 1998-04-10 2003-04-08 Lynx System Developers, Inc. Camera with object recognition/data output
US7009163B2 (en) * 2001-06-22 2006-03-07 Orbotech Ltd. High-sensitivity optical scanning using memory integration
KR20040047383A (ko) * 2002-11-29 2004-06-05 장영조 Cmos 이미지센서와 칼라 보간 알고리즘을 이용한 영상처리방법 및 장치.
KR100538322B1 (ko) * 2003-04-10 2005-12-23 스타브이-레이주식회사 면적센서를 이용한 티디아이(tdi) 방식의 디텍터 시스템
JP4432497B2 (ja) * 2004-01-13 2010-03-17 カシオ計算機株式会社 画像撮影装置
TWI243587B (en) * 2004-09-02 2005-11-11 Primax Electronics Ltd Multiple resolution image sensor and control method thereof
JP4357471B2 (ja) * 2005-09-30 2009-11-04 三洋電機株式会社 画像取得装置及びプログラム
JP4618100B2 (ja) * 2005-11-04 2011-01-26 ソニー株式会社 撮像装置、撮像方法、およびプログラム
WO2008085553A1 (en) * 2006-08-25 2008-07-17 Eliezer Jacob Improved digital camera with non-uniform image resolution
WO2008108071A1 (ja) * 2007-03-06 2008-09-12 Panasonic Corporation 画像処理装置および方法、画像処理プログラムおよび画像処理プロセッサ
US8446309B2 (en) * 2009-02-19 2013-05-21 Cmosis Nv Analog-to-digital conversion in pixel arrays
US8558899B2 (en) * 2009-11-16 2013-10-15 The Aerospace Corporation System and method for super-resolution digital time delay and integrate (TDI) image processing
US8827574B2 (en) * 2010-11-03 2014-09-09 Joseph M. Johnson Camera mounting assembly
JP5678911B2 (ja) * 2012-03-12 2015-03-04 カシオ計算機株式会社 画像合成装置、その画像合成方法、及びプログラム
JP2013236658A (ja) * 2012-05-11 2013-11-28 Flovel Co Ltd 着順判定装置およびその制御方法
GB2502065A (en) * 2012-05-14 2013-11-20 Sony Corp Video comparison apparatus for sports coverage
JP5653395B2 (ja) * 2012-07-06 2015-01-14 日本写真判定株式会社 走行競技の順位判定方法及びその装置
US9148601B2 (en) * 2012-09-26 2015-09-29 Teledyne Dalsa, Inc. CMOS TDI image sensor with rolling shutter pixels

Also Published As

Publication number Publication date
EP3934228A1 (en) 2022-01-05
EP3598731A1 (en) 2020-01-22
CA2947266C (en) 2017-07-18
AU2018204625B2 (en) 2020-07-09
AU2020205247B2 (en) 2022-03-17
NZ738243A (en) 2021-11-26
JP6564409B2 (ja) 2019-08-21
AU2020205247A1 (en) 2020-07-30
CA3171586A1 (en) 2015-11-05
JP6196745B2 (ja) 2017-09-13
AU2022204184A1 (en) 2022-07-07
EP3138278B1 (en) 2019-09-11
AU2015253372A1 (en) 2016-11-17
AU2018204625A1 (en) 2018-07-12
JP2019216441A (ja) 2019-12-19
NZ726074A (en) 2017-12-22
EP4307704A2 (en) 2024-01-17
AU2023282215A1 (en) 2024-01-04
JP2017514408A (ja) 2017-06-01
JP6842509B2 (ja) 2021-03-17
AU2022204184B2 (en) 2023-09-14
EP3138278A4 (en) 2018-02-21
CA3171586C (en) 2023-05-23
AU2015253372B2 (en) 2018-07-19
EP3934228C0 (en) 2023-11-29
EP4307704A3 (en) 2024-04-10
WO2015168058A1 (en) 2015-11-05
EP3138278A1 (en) 2017-03-08
CA3197174A1 (en) 2015-11-05
EP3934228B1 (en) 2023-11-29
CA2947266A1 (en) 2015-11-05
JP2017108428A (ja) 2017-06-15
CA2969933A1 (en) 2015-11-05
CA2969933C (en) 2022-12-13

Similar Documents

Publication Publication Date Title
ES2757809T3 (es) Sistemas y métodos para el procesamiento de imágenes de temporización de eventos
US10986267B2 (en) Systems and methods for generating time delay integration color images at increased resolution
US9398196B2 (en) Methods for processing event timing images
US9413926B2 (en) Systems for processing event timing images
US20150312504A1 (en) Camera Systems For Processing Event Timing Images
US8717485B2 (en) Picture capturing apparatus and method using an image sensor, an optical element, and interpolation
US9661210B2 (en) Image pickup device and image pickup apparatus
EP2630786A1 (en) System and method for imaging using multi aperture camera
WO2018195669A1 (en) Method and system for pixel-wise imaging
US9723179B2 (en) Time delay and integration (TDI) imaging sensor and method
NZ738243B2 (en) Systems and methods for processing event timing images