ES2930368T3 - Sistema de detección y obtención de imágenes de matriz lineal - Google Patents

Sistema de detección y obtención de imágenes de matriz lineal Download PDF

Info

Publication number
ES2930368T3
ES2930368T3 ES18704684T ES18704684T ES2930368T3 ES 2930368 T3 ES2930368 T3 ES 2930368T3 ES 18704684 T ES18704684 T ES 18704684T ES 18704684 T ES18704684 T ES 18704684T ES 2930368 T3 ES2930368 T3 ES 2930368T3
Authority
ES
Spain
Prior art keywords
array camera
view
data set
field
linear array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18704684T
Other languages
English (en)
Inventor
Peter R Harris
Jennifer M Alexander
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carrier Corp
Original Assignee
Carrier Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carrier Corp filed Critical Carrier Corp
Application granted granted Critical
Publication of ES2930368T3 publication Critical patent/ES2930368T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Holo Graphy (AREA)

Abstract

Se proporciona un método para monitorear un objeto en movimiento relativo. El método comprende: capturar uno o más conjuntos de datos primarios dentro de un primer campo de visión usando una cámara de matriz de primera línea que tiene una primera matriz unidimensional de píxeles, siendo cada conjunto de datos primarios una salida unidimensional de la primera matriz unidimensional de píxeles en un punto en el tiempo; determinar que un objeto en movimiento relativo con la primera cámara de matriz lineal está dentro del primer campo de visión en respuesta a al menos una de las variaciones dentro de cada conjunto de datos primarios y variaciones entre cada conjunto de datos primarios; y determinar un primer punto en el tiempo cuando el objeto ha entrado en el primer campo de visión. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema de detección y obtención de imágenes de matriz lineal
Antecedentes
El tema divulgado en la presente memoria se refiere, en general, al campo de la detección de objetos, y específicamente a un procedimiento y un aparato para detectar un objeto y cualquier movimiento asociado del objeto.
Por lo general, los detectores de movimiento se basan en cámaras de video bidimensionales o conjuntos de píxeles muy bajos para la detección de movimiento. Las cámaras de video bidimensionales funcionan bien, pero a menudo brindan más información de la que normalmente se necesita para una aplicación determinada, lo que aumenta los costos, reduce la privacidad y puede generar problemas de cumplimiento de las normas de exportación. Además, los sistemas de video bidimensionales también se basan en análisis avanzados para sustraer la señal de fondo e identificar el objeto que está en movimiento. La otra opción común para la detección de movimiento son las matrices con un recuento de píxeles muy bajo que, sin embargo, a menudo tienen dificultades para generar una imagen y también generan una alta tasa de falsas alarmas. En algunos casos, las cámaras de matriz lineal se utilizan como parte de la inspección de control de calidad en las líneas de montaje de los procesos de producción. En tales casos, se monitorean las desviaciones de un estado normal que pueden indicar fallas en la producción. Las imágenes no son de interés ni valor añadido.
El documento CN 104 268 882 A divulga un procedimiento para detectar y medir objetos en movimiento a alta velocidad utilizando una cámara de matriz de dos líneas, en el que la velocidad de movimiento del objeto se calcula haciendo coincidir las dos imágenes capturadas por la cámara de matriz de dos líneas.
El documento CN 104730280 A divulga un procedimiento de medición de la velocidad de la pelota, en el que se utilizan cámaras de exploración de primera y segunda línea para generar señales de pulso para calcular la velocidad de la pelota.
Breve sumario
De acuerdo con una realización, se proporciona un procedimiento para monitorear un objeto en movimiento relativo. El procedimiento comprende: capturar uno o más conjuntos de datos primarios dentro de un primer campo de visión usando una primera cámara de matriz lineal que tiene una primera matriz unidimensional de píxeles, siendo cada conjunto de datos primario una salida unidimensional de la primera matriz unidimensional de píxeles en un momento dado; determinar que un objeto en movimiento relativo con la primera cámara de matriz lineal está dentro del primer campo de visión en respuesta a al menos una de las variaciones dentro de cada conjunto de datos primario y variaciones entre cada conjunto de datos primario; y determinar un primer momento dado cuando el objeto ha entrado en el primer campo de visión; simultáneamente capturar uno o más conjuntos de datos primarios, capturar uno o más conjuntos de datos secundarios correspondientes dentro de un segundo campo de visión utilizando una segunda cámara de matriz lineal que tiene una segunda matriz unidimensional de píxeles, siendo cada conjunto de datos secundario unidimensional salido de la segunda matriz unidimensional de píxeles en un momento dado, en el que la segunda cámara de matriz lineal se orienta hacia la primera cámara de matriz lineal y está ubicada a una determinada distancia de la primera cámara de matriz lineal; determinar que un objeto en movimiento relativo con la segunda cámara de matriz lineal está dentro del segundo campo de visión en respuesta a al menos una de las variaciones dentro de cada conjunto de datos secundario y variaciones entre cada conjunto de datos secundario; y determinar al menos uno de un tamaño del objeto y una distancia entre el objeto, la primera cámara de matriz lineal en base a determinada distancia, y un conjunto correspondiente de conjuntos de datos primarios y secundarios. Además de una o más de las características descritas anteriormente, o como alternativa, otras realizaciones del procedimiento pueden incluir: activar una alarma cuando el tamaño del objeto está dentro del rango de tamaño seleccionado.
De acuerdo con otra realización, se proporciona un sistema de detección que supervisa un objeto en movimiento relativo con el sistema de detección. El sistema de detección comprende: una primera cámara de matriz lineal configurada para capturar uno o más conjuntos de datos primarios dentro de un primer campo de visión utilizando una primera matriz unidimensional de píxeles, siendo cada conjunto de datos primario una salida unidimensional de la primera matriz dimensional de píxeles en un momento dado; un sistema de control en comunicación con la primera cámara de matriz lineal, estando configurado el sistema de control para realizar operaciones que comprenden: determinar que un objeto en movimiento relativo con la primera cámara de matriz lineal está dentro del primer campo de visión en respuesta a al menos una de las variaciones dentro de cada conjunto de datos primario y variaciones entre cada conjunto de datos primario; y determinar un primer momento dado cuando el objeto ha entrado en el primer campo de visión; y una segunda cámara de matriz lineal en comunicación con el sistema de control y configurada para, simultáneamente con la captura de uno o más conjuntos de datos primarios, capturar uno o más conjuntos de datos secundarios correspondientes dentro de un segundo campo de visión usando una segunda matriz unidimensional de píxeles, siendo cada conjunto de datos secundario una salida unidimensional de la segunda matriz unidimensional de píxeles en un momento dado, en el que la segunda cámara de matriz lineal se orienta hacia la primera cámara de matriz lineal y está ubicada a una determinada distancia de la primera cámara de matriz lineal. Las operaciones comprenden además: determinar que un objeto en movimiento relativo con la segunda cámara de matriz lineal está dentro del segundo campo de visión en respuesta a al menos una de las variaciones dentro de cada conjunto de datos secundario y variaciones entre cada conjunto de datos secundario; y determinar al menos uno de un tamaño del objeto y una distancia entre el objeto, la primera cámara de matriz lineal en base a la distancia seleccionada, y un conjunto correspondiente de conjuntos de datos primarios y secundarios.
Además de una o más de las características descritas anteriormente, o como alternativa, otras realizaciones del sistema pueden incluir que la primera cámara de matriz lineal sea una cámara de infrarrojos de onda corta.
Además de una o más de las características descritas anteriormente, o como alternativa, otras realizaciones del sistema pueden incluir que la primera cámara de matriz lineal utilice iluminación activa.
Además de una o más de las características descritas anteriormente, o como alternativa, otras realizaciones del sistema de detección pueden incluir: una alarma configurada para activarse cuando el tamaño del objeto está dentro de un tamaño seleccionado.
Los efectos técnicos de las realizaciones de la presente divulgación incluyen la capacidad de detectar la presencia de un objeto y/o la velocidad de un objeto utilizando al menos una cámara de matriz lineal.
Las características y elementos anteriores pueden combinarse en varias combinaciones sin exclusividad, salvo que se indique expresamente lo contrario. Estas características y elementos, así como su funcionamiento, se harán más evidentes a la luz de la siguiente descripción y los dibujos adjuntos. Debe entenderse, sin embargo, que la siguiente descripción y dibujos pretenden ser de naturaleza ilustrativa y explicativa y no limitativa.
Breve descripción de las figuras
Las características anteriores y otras, y las ventajas de la divulgación son evidentes a partir de la siguiente descripción detallada tomada junto con las figuras adjuntas en las que los elementos similares se numeran de la misma manera en las diversas FIGURAS:
La Figura 1a-1e ilustra una vista esquemática de ejemplo de un sistema de detección de matriz lineal que captura múltiples conjuntos de datos unidimensionales de un objeto para compilar una imagen bidimensional; La Figura 2a ilustra una vista esquemática de ejemplo del sistema de detección de matriz lineal;
La Figura 2b ilustra una vista esquemática de ejemplo de una disposición alternativa del sistema de detección de matriz lineal de la Figura 2a;
La Figura 3 ilustra una vista esquemática de ejemplo de una aplicación del sistema de detección de matriz lineal de las Figuras 1 y 2; y
La Figura 4 es un diagrama de flujo de un procedimiento de ejemplo de detección de objetos que utiliza el sistema de detección de matriz lineal de las Figuras 1-4.
Descripción detallada
Una descripción detallada de una o más realizaciones del aparato y el procedimiento divulgados se presenta en la presente memoria a modo de ejemplo y no de limitación con referencia a las Figuras.
Las Figuras 1a-1e muestran una vista esquemática de un sistema de detección de matriz lineal 100 que captura múltiples conjuntos de datos unidimensionales 300a de un objeto 200 para compilar una imagen bidimensional 300. El objeto 200 puede ser cualquier cosa capaz de ser capturada por una cámara de matriz lineal que incluye, entre otros, un objeto sólido, un líquido y/o un gas. En un ejemplo, el objeto 200 puede ser una persona, mientras que, en otro ejemplo, el objeto puede ser una fuga de combustible. Las Figuras 1a-1e muestran una única cámara de matriz lineal 110 que se denominará primera cámara 110 de matriz lineal, ya que la primera cámara de matriz lineal 110 se analizará con una segunda cámara de matriz lineal 120 en las Figuras 2a y 2b. La segunda cámara de matriz lineal 120 y cualquier cámara de matriz lineal adicional pueden tener las mismas capacidades que la primera cámara de matriz lineal 110, como se ilustra en la descripción de las Figuras 1a-1e. Cada una de las primera y segunda cámaras de matriz lineal 110, 120 tiene una matriz unidimensional de píxeles 110a y 120a. La primera cámara 110 captura conjuntos de datos primarios a medida que pasa el tiempo y la segunda cámara 120 captura conjuntos de datos secundarios a medida que pasa el tiempo. Los conjuntos de datos son las salidas digitales unidimensionales de lo que es capturado por la matriz de píxeles 110a, 120a. Las cámaras de matriz lineal 110, 120 pueden ser cualquier cámara capaz de capturar un conjunto de datos unidimensional utilizando una matriz unidimensional de píxeles 110a, 120a, como, por ejemplo, una cámara de exploración lineal, una cámara de matriz lineal o una cámara de matriz unidimensional.
Como se muestra en las Figuras 1a-1e, la primera cámara de matriz lineal 110 tiene un campo de visión muy estrecho debido a una primera matriz unidimensional de píxeles 110a. A medida que un objeto 200 se mueve a través de un primer campo de visión 112 de la primera cámara de matriz lineal 110, se graba un conjunto de datos primario unidimensionales 300a del objeto 200 (la segunda cámara de matriz lineal 120 de las Figuras 2a-2b registra un conjunto de datos secundario unidimensionales). Nota: la primera cámara de matriz lineal 110 captura de forma continua conjuntos de datos incluso cuando no hay ningún objeto 200 moviéndose a través del primer campo de visión 112. El conjunto de datos primario unidimensionales 300a puede ser un "rebanado" de la imagen completa 300 del objeto 200, como se ve en las Figuras 1a-1e. Estos conjuntos de datos 300a pueden luego compilarse para crear una imagen bidimensional 300 del objeto 200 que se ha movido a través del primer campo de visión 112 de la primera cámara de matriz lineal 110. La detección de un objeto dentro del primer campo de visión 112 puede determinarse en respuesta a al menos una de las variaciones dentro de cada conjunto de datos primario y variaciones entre cada conjunto de datos primario. Esto es similar a las técnicas utilizadas para la inspección de calidad en las líneas de montaje, sin embargo, en ese caso, se conoce la velocidad de los objetos en movimiento (es decir, las piezas en la cinta transportadora en movimiento) y, por lo tanto, la imagen bidimensional se puede compilar correctamente con la velocidad conocida y el campo de visión. Cuando se usan cámaras de matriz lineal con fines de seguridad, los objetos 200 podrían moverse a diferentes velocidades o en diferentes direcciones a través del campo de visión de la primera cámara de matriz lineal 110. Por lo tanto, se puede usar una segunda cámara de matriz lineal 120 para calcular la velocidad y/o la dirección de un objeto 200 en movimiento.
Las Figuras 2a y 2b muestran dos configuraciones diferentes de sistemas de detección de matriz lineal 100 que usan dos cámaras de matriz lineal 110, 120, de acuerdo con una realización que cae fuera del ámbito de las reivindicaciones. Con referencia a La Figura 2a y 2b, el sistema de detección de matriz lineal 100 incluye una primera cámara de matriz lineal 110, una segunda cámara de matriz lineal 120 y un sistema de control 150. La primera cámara de matriz lineal 110 está configurada para capturar uno o más conjuntos de datos primarios dentro de un primer campo de visión 112 usando una primera matriz unidimensional de píxeles. Cada conjunto de datos primario es la salida digital unidimensional de lo que captura la primera matriz unidimensional de píxeles 110a de la primera cámara de matriz lineal 110. La segunda cámara de matriz lineal 120 se coloca a una distancia seleccionada D1 de la primera cámara de matriz lineal 110 y funciona de manera similar a la primera cámara de matriz lineal 110. La segunda cámara de matriz lineal 120 está configurada para capturar uno o más conjuntos de datos secundarios dentro de un segundo campo de visión 122. Cada conjunto de datos secundario es la salida digital unidimensional de lo que capturado una segunda matriz unidimensional de píxeles 120a de la segunda cámara de matriz lineal 120. La dirección del movimiento del objeto 200 se puede determinar en base a qué campo de visión 112 o 122 entra primero el objeto 200. Por ejemplo, si el objeto 200 cruza el primer campo de visión 112 y luego el segundo campo de visión 122, se puede determinar que el objeto 200 se dirige en una primera dirección XI. Usando la distancia seleccionada D1 entre las cámaras de matriz lineal 110, 120 y el período de tiempo entre el momento en que el objeto en movimiento 200 ingresa al primer campo de visión 112 de la primera cámara de matriz lineal 110 y el segundo campo de visión 122 de la segunda cámara 120, la velocidad del objeto 200 se puede calcular y utilizar para construir una imagen bidimensional (como se ve en las Figuras 1a-1e).
La Figura 2a muestra una disposición de las cámaras de matriz lineal 110, 120 mirando hacia abajo hacia un objeto en movimiento. La Figura 2b muestra una disposición alternativa de las cámaras de matriz lineal 110, 120 donde las cámaras miran horizontalmente hacia un objeto en movimiento. Como podrán apreciar los expertos en la técnica, las cámaras de matriz lineal pueden colocarse en una variedad de disposiciones diferentes y las Figuras. 2a y 2b son solo dos de esos arreglos. De acuerdo con la invención, las cámaras de matriz lineal 110, 120 están dispuestas de modo que sus campos de visión 112, 122 estén uno frente al otro. Ventajosamente, esto puede proporcionar información adicional sobre el tamaño del objeto 200 y la ubicación del objeto 200 entre las dos cámaras de matriz lineal 110, 120. Solo se requiere una sola cámara de matriz lineal 110, 120 para detectar la presencia de un objeto 200, sin embargo, se requieren al menos dos cámaras de matriz lineal 110, 120 para detectar la velocidad y el tamaño del objeto 200, así como la distancia de la cámara. Se pueden agregar cámaras de matriz lineal adicionales para aumentar la fidelidad. Con el fin de determinar la ubicación del objeto 200 entre las dos cámaras 110, 120 de matriz lineal enfrentadas, los dos conjuntos de datos de cada cámara de matriz lineal 110, 120 se comparan entre sí. Específicamente, el número de píxeles que ocupa el objeto 200 dentro de cada conjunto de datos (también conocido como píxeles en el objetivo). Por ejemplo, si un objeto ocupa 100 píxeles en el objetivo para la primera cámara de matriz lineal 110 y 2 píxeles en la segunda cámara de matriz lineal, entonces el objeto está más cerca de la primera cámara de matriz lineal 110. La ubicación real del objeto 200 entre las cámaras de matriz lineal 110, 120 se puede calcular en respuesta al número de píxeles en cada conjunto de datos, el campo de visión angular de cada cámara de matriz lineal 110, 120 y la distancia medida entre cada cámara de matriz lineal 110, 120. El tamaño del objeto 200 puede entonces determinarse utilizando la ubicación del objeto 200 entre las dos cámaras de matriz lineal 110, 120 y el número de "píxeles en el objetivo". Ventajosamente, la alarma 170 solo puede activarse cuando el tamaño del objeto está dentro de un rango de tamaño especificado.
Ventajosamente, una matriz unidimensional de píxeles 110a y 120a que produce un conjunto de datos unidimensional ayuda a reducir los problemas de privacidad al generar imágenes de solo segmentos de un objeto 200 que se mueve a través del campo de visión 112, 122 de la cámara de matriz lineal 110, 120, y no incluye el fondo. Además, el estrecho campo de visión 112, 122 de la cámara de matriz lineal 110, 120 puede ayudar a reducir los riesgos de molestias/falsas alarmas comunes en los sistemas de video (2D). En una realización, las cámaras de matriz lineal 110, 120 pueden ser cámaras de infrarrojos de onda corta (SWIR). Ventajosamente, las cámaras SWIR son beneficiosas para fines de seguridad porque no necesitan luz visible y, por lo tanto, pueden realizar una detección discreta. Además, las longitudes de onda SWIR también pueden penetrar en condiciones atmosféricas comunes, como la neblina, que normalmente oscurecería la vista de una cámara visible. Las cámaras SWIR se pueden utilizar con iluminación pasiva y activa. La iluminación pasiva usa luz ambiental para iluminar el objeto 200 dentro del campo de visión 112, 122, mientras que la iluminación activa usa una fuente de luz artificial para iluminar el objeto 200 dentro del campo de visión 112, 112, como, por ejemplo, un láser.
El sistema de control 150 está configurado para controlar el funcionamiento del sistema de detección de matriz lineal 100 y determinar la presencia de un objeto 200 en el campo de visión 112, 122. El sistema de control 150 está en comunicación con la primera cámara de matriz lineal 110 y la segunda cámara de matriz lineal 120. El sistema de control 150 puede estar separado de las cámaras de matriz lineal 110, 120 o puede estar alojado dentro de una de las cámaras de matriz lineal 110, 120. El sistema de control 150 puede incluir un procesador y una memoria asociada. El procesador puede ser, entre otros, un sistema de procesador único o multiprocesador de cualquiera de una amplia gama de arquitecturas posibles, incluida la matriz de compuertas programables en campo (FPGA), la unidad central de proceso (CPU), los circuitos integrados de aplicación específica (ASIC), procesador de señal digital (DSP) o hardware de unidad de procesamiento de gráficos (GPU) dispuestos de manera homogénea o heterogénea. La memoria puede ser, entre otros, una memoria de acceso aleatorio (RAM), una memoria de sólo lectura (ROM) u otro medio electrónico, óptico, magnético o cualquier otro medio legible por computadora.
Una vez que las cámaras de matriz lineal 110, 120 capturan un conjunto de datos, el sistema de control 150 procesa el conjunto de datos para determinar si se detectó un objeto 200 dentro de uno de los campos de visión 112, 122. Si se detecta un objeto 200 dentro de un campo de visión 112, 122, el controlador puede activar una alarma 170. La alarma 170 puede ser visual y/o audible. En un ejemplo, el sistema de detección de matriz lineal 100 puede configurarse en un borde y usarse como un sistema de seguridad, haciendo sonar así una alarma 170 si el sistema de detección de matriz lineal 100 detecta que alguien cruza la frontera. El sistema de control 150 también puede configurarse para realizar los cálculos de velocidad, trayectoria, tamaño y distancia que se describieron anteriormente. Usando esta información, el sistema de control 150 puede usar algoritmos para determinar si el objeto 200 es una falsa alarma antes de activar una alarma 170. Como ejemplo de esto para un sistema de seguridad, se podría suprimir una alarma 170 cuando hay un perro en el patio. En base al tamaño del objeto 200, los algoritmos podrían determinar que no se trata de una persona intrusa. Además, el sistema de control 150 es capaz de compilar una imagen bidimensional en respuesta a múltiples conjuntos de datos capturados por una sola cámara de matriz lineal 110, 120. Por ejemplo, se pueden capturar múltiples conjuntos de datos unidimensionales del objeto 200 a medida que se mueve a través de un campo de visión y, por lo tanto, el sistema de control 150 podría compilar estos conjuntos de datos unidimensionales para componer una imagen bidimensional del objeto 200. Además, el sistema de control 150, a través del reconocimiento visual, podría determinar una identidad del objeto 200. Por ejemplo, como ejemplo de seguimiento del ejemplo anterior de seguridad fronteriza, la alarma 170 puede no activarse si el sistema de control 150 determina que la identidad del objeto 200 es una ardilla inofensiva, pero puede activarse si la identidad del objeto 200 es una persona. Además, el sistema de control 150 también puede utilizar un dispositivo de comunicación 156 para transmitir la imagen bidimensional para verificación humana. Ventajosamente, la imagen bidimensional solo se puede transmitir cuando el tamaño del objeto se mueve dentro de un rango de velocidad específico, dentro de un rango de tamaño específico y/o los algoritmos determinan que la identidad del objeto es de interés. Esto puede ocurrir en caso de que el sistema de control 150 no pueda determinar la identidad del objeto o simplemente como procedimientos operativos estándar del sistema de control 150. Por ejemplo, algunos representantes de la patrulla fronteriza pueden querer revisar cada imagen capturada por las cámaras de matriz lineal 110, 120 y compilada por el sistema de control 150 independientemente de la identidad determinada por el sistema de control 150. En otras realizaciones, el sistema de detección de matriz lineal 100 podría usarse simplemente para monitorear un área y no hacer sonar una alarma, sino proporcionar datos para su uso posterior.
Con referencia ahora a la Figura 3 con referencia continua a las Figuras 1 y 2. La Figura 3 muestra un ejemplo de sistema de detección de matriz lineal 100 que se utiliza para la detección de objetos. La Figura 3 muestra una vista en perspectiva de una aeronave 2 que puede incorporar realizaciones de la presente divulgación. La aeronave 2 incluye un fuselaje 4 que se extiende desde una porción de morro 6 hasta una porción de cola 8 a través de una porción de cuerpo 10. La porción de cuerpo 10 alberga una cabina de avión 14 que incluye un compartimento para la tripulación 15 y un compartimento para pasajeros 16. La porción de cuerpo 10 soporta una primera ala 17 y una segunda ala 18. La primera ala 17 se extiende desde una primera porción de raíz 20 hasta una primera porción de punta 21 a través de una primera porción de perfil aerodinámico 23. La primera parte aerodinámica 23 incluye un borde de ataque 25 y un borde de salida 26. La segunda ala 18 se extiende desde una segunda porción de raíz (no mostrada) hasta una segunda porción de punta 31 a través de una segunda porción de perfil aerodinámico 33. La segunda parte aerodinámica 33 incluye un borde de ataque 35 y un borde de salida 36. La porción de cola 8 incluye un estabilizador 38. Como se ve en la Figura 3, el sistema de detección de matriz lineal 100 puede montarse en la primera ala 17 de la aeronave 2. El sistema de detección de matriz lineal 100 se puede montar en varias otras estructuras de la aeronave 2 en función de dónde se desee monitorear la colisión. En la realización de la Figura 3, el sistema de detección de matriz lineal 100 se utiliza para detectar un posible impacto con la primera ala 17. Como se describió anteriormente, el sistema de detección de matriz lineal 100 utiliza una primera cámara de matriz lineal 110. La primera cámara de matriz lineal 110 tiene un primer campo de visión 112 proyectado frente a la primera ala 17. El sistema de detección de matriz lineal 100 puede configurarse para activar una alarma 170 si el sistema de control 150 determina que el objeto 200 impactará en la primera ala 17. El ejemplo ilustrado en la Figura 3 es un ejemplo de una aplicación del sistema de detección de matriz lineal 100 y no pretende ser limitativo de ninguna manera. Además, el sistema de detección de matriz lineal 100 puede usarse para detectar el impacto con una variedad de estructuras independientemente de si las cámaras de matriz lineal 110, 120 están ubicadas o no en la estructura.
Con referencia ahora a la Figura 4, mientras se hace referencia a los componentes de las Figuras 1-3. La Figura 4 muestra un diagrama de flujo de un procedimiento de ejemplo 400 de detección de objetos 200 utilizando el sistema de detección de matriz lineal 100. En el bloque 404, se capturan uno o más conjuntos de datos primarios dentro de un primer campo de visión 112 utilizando una primera cámara de matriz lineal 110 que tiene una primera matriz unidimensional de píxeles 110a. Cada conjunto de datos primario es una salida unidimensional de la primera matriz unidimensional de píxeles 110a en un momento dado. En el bloque 406, se determina que un objeto 200 en movimiento relativo con la primera cámara de matriz lineal 110 dentro del primer campo de visión 112 en respuesta a al menos una de las variaciones dentro de cada conjunto de datos primario y variaciones entre cada conjunto de datos primario. En el bloque 408, se determina un primer momento en el que el objeto 200 ha entrado en el primer campo de visión 112.
En el bloque 410, se capturan uno o más conjuntos de datos secundarios dentro de un segundo campo de visión 122 utilizando una segunda cámara de matriz lineal 120 que tiene una segunda matriz unidimensional de píxeles 120a. Nota: el conjunto de datos secundario se captura simultáneamente con el conjunto de datos primario. Cada conjunto de datos secundario es una salida unidimensional de la segunda matriz unidimensional de píxeles 120a en un momento dado. La segunda cámara de matriz lineal 120 está ubicada a una distancia seleccionada D1 de la primera cámara de matriz lineal 110. En el bloque 412, se determina que un objeto 200 en movimiento relativo con la segunda cámara de matriz lineal 120 está en el segundo campo de visión 122 en respuesta a al menos una de las variaciones dentro de cada conjunto de datos secundario y a las variaciones entre cada conjunto de datos secundario. En el bloque 414, se determina un segundo momento en el que el objeto ha entrado en el segundo campo de visión 122. Nota: el segundo momento dado es al mismo tiempo que el primer momento dado.
Como se mencionó anteriormente, una vez que se determina el primer momento dado y el segundo momento dado, el sistema de control 150 también puede determinar la velocidad del objeto y la trayectoria del objeto. Además, si la primera cámara de matriz lineal 110 y la segunda cámara de matriz lineal 120 están enfrentadas, entonces se puede determinar el tamaño del objeto 200 y la distancia desde el objeto 200 a las cámaras de matriz lineal 110, 120. El controlador también puede configurarse para compilar los conjuntos de datos para formar imágenes bidimensionales como se describe anteriormente. Una vez compilada, la imagen bidimensional puede enviarse para verificación humana o el sistema de control 150 puede determinar la identidad mediante técnicas de reconocimiento visual. En una realización, las cámaras de matriz lineal 110, 120 pueden ser cámaras de infrarrojos de onda corta
Si bien la descripción anterior ha descrito el proceso de flujo de las Figuras 4 en un orden particular, debe apreciarse que, a menos que se requiera específicamente lo contrario en las reivindicaciones adjuntas, el orden de las etapas puede variar.
Como se describió anteriormente, las realizaciones pueden tener la forma de procesos y dispositivos implementados por procesador para llevar a la práctica esos procesos, tales como procesadores. Las realizaciones también pueden ser en forma de código de programa informático que contiene instrucciones incorporadas en medios tangibles, como almacenamiento en la nube en red, tarjetas SD, unidades flash, disquetes, CD ROM, discos duros o cualquier otro medio de almacenamiento legible por ordenador, en el que, cuando el código del programa informático se carga y ejecuta en un ordenador, el ordenador se convierte en un dispositivo para llevar a la práctica las realizaciones. Las realizaciones también pueden estar en forma de código de programa de ordenador, por ejemplo, ya sea almacenado en un medio de almacenamiento, cargado y/o ejecutado por un ordenador, o transmitido a través de algún medio de transmisión, cargado y/o ejecutado por un ordenador, o transmitido a través de algún medio de transmisión, tal como a través de cableado o cableado eléctrico, fibra óptica o radiación electromagnética, en el que, cuando el código del programa de ordenador se carga y ejecuta en un ordenador, el ordenador se convierte en un dispositivo para llevar a la práctica las realizaciones. Cuando se implementa en un microprocesador de uso general, los segmentos de código del programa informático configuran el microprocesador para crear circuitos lógicos específicos.
El término "aproximadamente" pretende incluir el grado de error asociado con la medición de la cantidad particular en función del equipo disponible en el momento de presentar la solicitud. Por ejemplo, "aproximadamente" puede incluir un rango de ± 8 % o 5 % o 2 % de un valor dado.
La terminología usada en la presente memoria es para el propósito de describir solo realizaciones particulares y no pretende limitar la presente divulgación. Como se usa en la presente memoria, las formas singulares "un", "uno(a)" y "el(la)" se pretende que incluyan las formas plurales también, a menos que el contexto claramente indique lo contrario de cualquier otra manera. Se entenderá además que los términos "comprende" y/o "que comprende", cuando se usan en esta memoria descriptiva, especifican la presencia de características, números enteros, etapas, operaciones, elementos y/o componentes indicados, pero no excluyen la presencia o la adición de una o más características, números enteros, etapas, operaciones, elementos, componentes y/o grupos de los mismos.
Aunque la presente divulgación se ha descrito con referencia a una realización o realizaciones ejemplares, los expertos en la técnica entenderán que se pueden realizar varios cambios sin apartarse del ámbito de la presente divulgación. Además, se pueden realizar muchas modificaciones para adaptar una situación o material particular a las enseñanzas de la presente divulgación sin apartarse del ámbito esencial de la misma. Por lo tanto, se pretende que la presente divulgación no se limite a la realización particular divulgada como el mejor modo contemplado para llevar a cabo esta presente divulgación, sino que la presente divulgación incluirá todas las realizaciones que caen dentro del ámbito de las reivindicaciones.

Claims (6)

REIVINDICACIONES
1. Un procedimiento para monitorear un objeto (200) en movimiento relativo, comprendiendo el procedimiento: capturar uno o más conjuntos de datos primarios (300a) dentro de un primer campo de visión (112) utilizando una cámara de matriz lineal (110) que tiene una primera matriz unidimensional de píxeles (110a), siendo cada conjunto de datos primario una salida unidimensional desde la primera matriz unidimensional de píxeles (110a) en un momento dado;
determinar que un objeto (200) en movimiento relativo con la primera cámara de matriz lineal (110) está dentro del primer campo de visión (112) en respuesta a al menos una de las variaciones dentro de cada conjunto de datos primario (300a) y variaciones entre cada conjunto de datos primario (300a); determinar un primer momento dado cuando el objeto ha entrado en el primer campo de visión (112); caracterizado porque el procedimiento comprende:
capturar simultáneamente uno o más conjuntos de datos primarios, capturar uno o más conjuntos de datos secundarios correspondientes dentro de un segundo campo de visión (122) usando una segunda cámara de matriz lineal (120) que tiene una segunda matriz unidimensional de píxeles (120a), siendo cada conjunto de datos secundario una salida unidimensional de la segunda matriz unidimensional de píxeles (120a) en un momento dado, en el que la segunda cámara de matriz lineal (120) se orienta hacia la primera cámara de matriz lineal y se ubica a una determinada distancia lejos de la primera cámara de matriz lineal (110);
determinar que un objeto (200) en movimiento relativo con la segunda cámara de matriz lineal (120) está dentro del segundo campo de visión (122) en respuesta a al menos una de las variaciones dentro de cada conjunto de datos secundario y variaciones entre cada conjunto de datos secundario;
determinar al menos uno de un tamaño del objeto (200) y una distancia entre el objeto (200) y la cámara de matriz lineal (110) en base a la distancia seleccionada, y un conjunto correspondiente de conjuntos de datos primarios y secundarios (300a).
2. El procedimiento de la reivindicación 1, que comprende, además:
activar una alarma (170) cuando el tamaño del objeto (200) está dentro de un rango de tamaño seleccionado.
3. Un sistema de detección que monitorea un objeto (200) en movimiento relativo con el sistema de detección, comprendiendo el sistema de detección:
una primera cámara de matriz lineal (110) configurada para capturar uno o más conjuntos de datos primarios (300a) dentro de un primer campo de visión (112) usando una primera matriz unidimensional de píxeles (110a), siendo cada conjunto de datos primario (300a) una salida unidimensional de la primera matriz unidimensional de píxeles (110a) en un momento dado;
un sistema de control (150) en comunicación con la primera cámara de matriz lineal (110), estando configurado el sistema de control (150) para realizar operaciones que comprenden:
determinar que un objeto (200) en movimiento relativo con la primera cámara de matriz lineal (110) está dentro del primer campo de visión (112) en respuesta a al menos una de las variaciones dentro de cada conjunto de datos primario (300a) y las variaciones entre cada conjunto de datos primario (300a); y determinar un primer momento dado cuando el objeto (200) ha entrado en el primer campo de visión (112);
caracterizado porque el sistema de detección comprende, además:
una segunda cámara de matriz lineal (120) en comunicación con el sistema de control (150) y configurada para, capturar simultáneamente el uno o más conjuntos de datos primarios, capturar uno o más conjuntos de datos secundarios correspondientes dentro de un segundo campo de visión (122) usando una segunda matriz unidimensional de píxeles (120a), siendo cada conjunto de datos secundario una salida unidimensional de la segunda matriz unidimensional de píxeles (120a) en un momento dado, en el que la segunda cámara de matriz lineal (120) se orienta hacia la primera cámara de matriz lineal (110) y se ubica a una determinada distancia de la primera cámara de matriz lineal (110);
en el que las operaciones comprenden, además:
determinar que un objeto (200) en movimiento relativo con la segunda cámara de matriz lineal (120) está dentro del segundo campo de visión (122) en respuesta a al menos una de las variaciones dentro de cada conjunto de datos secundario y variaciones entre cada conjunto de datos secundario;
determinar al menos uno de un tamaño del objeto (200) y una distancia entre el objeto (200) de la primera cámara de matriz lineal (110) en base a la distancia seleccionada y un conjunto correspondiente de conjuntos de datos primarios y secundarios (300a).
4. El sistema de detección de la reivindicación 3, en el que:
la primera cámara de matriz lineal (110) es una cámara infrarroja de onda corta.
5. El sistema de detección de la reivindicación 4, en el que:
la primera cámara de matriz lineal (110) utiliza iluminación activa.
6. El sistema de detección de la reivindicación 3, 4 o 5, que comprende, además:
una alarma (170) configurada para activarse cuando el tamaño del objeto (200) está dentro de un tamaño seleccionado.
ES18704684T 2017-01-25 2018-01-25 Sistema de detección y obtención de imágenes de matriz lineal Active ES2930368T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762450447P 2017-01-25 2017-01-25
PCT/US2018/015135 WO2018140547A1 (en) 2017-01-25 2018-01-25 Line array detection and imaging system

Publications (1)

Publication Number Publication Date
ES2930368T3 true ES2930368T3 (es) 2022-12-09

Family

ID=61193063

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18704684T Active ES2930368T3 (es) 2017-01-25 2018-01-25 Sistema de detección y obtención de imágenes de matriz lineal

Country Status (5)

Country Link
EP (1) EP3574647B1 (es)
JP (1) JP7157763B2 (es)
KR (1) KR102481485B1 (es)
ES (1) ES2930368T3 (es)
WO (1) WO2018140547A1 (es)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6186603A (ja) * 1984-10-05 1986-05-02 Bridgestone Corp ボ−ルの挙動測定器
JP4306017B2 (ja) 1999-05-20 2009-07-29 株式会社富士通ゼネラル 監視カメラシステム
US6675121B1 (en) * 1999-07-06 2004-01-06 Larry C. Hardin Velocity measuring system
DE10319700A1 (de) 2003-05-02 2004-11-18 Ibeo Automobile Sensor Gmbh Verfahren und Vorrichtung zur Ermittlung einer Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DK1645839T3 (da) * 2004-10-11 2007-10-29 Sick Ag Anordning og metode til registrering af bevægelige objekter
JP2007240290A (ja) * 2006-03-08 2007-09-20 Sony Corp 帯状体の表面欠陥検査装置
CN102472669B (zh) 2009-07-10 2013-10-30 西荣科技有限公司 红外运动传感器系统和方法
JP2013104783A (ja) * 2011-11-14 2013-05-30 Mitsubishi Electric Corp 異物検知装置
JP5838750B2 (ja) 2011-11-17 2016-01-06 三菱電機株式会社 物体認識システム及び物体認識装置
CN104268882A (zh) 2014-09-29 2015-01-07 深圳市热活力科技有限公司 基于双线阵摄像头的高速运动物体检测与测速方法及系统
CN104730280A (zh) * 2015-04-10 2015-06-24 苏州大学 一种球类测速方法及系统

Also Published As

Publication number Publication date
EP3574647A1 (en) 2019-12-04
JP2020510843A (ja) 2020-04-09
KR20190110537A (ko) 2019-09-30
EP3574647B1 (en) 2022-10-26
WO2018140547A8 (en) 2019-02-28
JP7157763B2 (ja) 2022-10-20
KR102481485B1 (ko) 2022-12-26
WO2018140547A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
ES2554549T3 (es) Procedimiento de búsqueda de un objetivo térmico
US10311584B1 (en) Estimation of absolute depth from polarization measurements
EP2826414B1 (en) Point-of-gaze detection device, point-of-gaze detection method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable storage medium
ES2352300T3 (es) Sistema para detectar vehículos.
US20180143018A1 (en) Distance sensor projecting parallel patterns
CN105916462B (zh) 光学跟踪系统
ES2966187T3 (es) Cámaras de distribución lineal para un sistema de detección de hombre al agua
US10872436B2 (en) Spatial positioning method, spatial positioning device, spatial positioning system and computer readable storage medium
US20130208948A1 (en) Tracking and identification of a moving object from a moving sensor using a 3d model
US10417782B2 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
US9420950B2 (en) Retro-reflectivity array for enabling pupil tracking
BR102017004701A2 (pt) Sistema de luz de aterrissagem, artigo de fabricação, e, método de controle de uma luz de aterrissagem de uma aeronave.
Mousse et al. Percentage of human-occupied areas for fall detection from two views
CN109920048A (zh) 监控画面生成方法及装置
EP3042341A1 (en) Method and apparatus for eye detection from glints
JP2020106970A (ja) 人検出装置および人検出方法
ES2930368T3 (es) Sistema de detección y obtención de imágenes de matriz lineal
US20200211202A1 (en) Fall detection method, fall detection apparatus and electronic device
US9835642B2 (en) High speed image processing device
US10638098B2 (en) Surveillance method
EP4071443B1 (en) Camera agnostic core monitor incorporating projected images with high spatial frequency
ES2797375T3 (es) Sistema de detección de localización de fuente de luz
CN104793252A (zh) 一种主动毫米波行人安全检测系统
EP3703356B1 (en) Positioning and orienting cameras to extend an angle of view
US20080194948A1 (en) Deformable marker device