ES2992859T3 - Automatic lighting and security device - Google Patents

Automatic lighting and security device Download PDF

Info

Publication number
ES2992859T3
ES2992859T3 ES17700048T ES17700048T ES2992859T3 ES 2992859 T3 ES2992859 T3 ES 2992859T3 ES 17700048 T ES17700048 T ES 17700048T ES 17700048 T ES17700048 T ES 17700048T ES 2992859 T3 ES2992859 T3 ES 2992859T3
Authority
ES
Spain
Prior art keywords
visible light
interest
light source
axis
infrared light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17700048T
Other languages
English (en)
Inventor
David Elvira
Mehdi Fehli
Frédéric Potter
Pauline Luc
Kelvin Moutet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netatmo SAS
Original Assignee
Netatmo SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netatmo SAS filed Critical Netatmo SAS
Application granted granted Critical
Publication of ES2992859T3 publication Critical patent/ES2992859T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • F21V23/0471Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person
    • F21V23/0478Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person by means of an image recording device, e.g. a camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

En varios aspectos, la invención divulga un dispositivo (100) que comprende una o más fuentes de luz infrarroja (40, 41); una o más fuentes de luz visible (50, 51); un sensor de imagen (10); una unidad de procesamiento (20) configurada para analizar una serie de imágenes de una región de interés generadas por el sensor de imagen; una unidad de control (30) configurada para generar una o más de una activación de la una o más fuentes de luz visible o una alarma en base a un comando recibido desde la unidad de procesamiento; en donde el análisis comprende detectar un primer plano en movimiento en la serie de imágenes de la región de interés, rastrear una o más características caracterizadoras en el primer plano en movimiento y clasificar la una o más características caracterizadoras en dos o más tipos de objetos de interés, determinando un tipo de objeto de interés un comando enviado por la unidad de procesamiento a la unidad de control. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Dispositivo de iluminación automática y seguridad
Campo de la invención
El campo técnico de la invención es el de la iluminación automática y, en particular, el de la iluminación automática de un entorno exterior. La presente invención se refiere a un dispositivo de iluminación automática.
Antecedentes
Para iluminar un entorno exterior, es una práctica conocida usar un dispositivo de iluminación automática que comprende un detector de movimiento. El detector de movimiento normalmente usa una tecnología de infrarrojos. Cuando se detecta un movimiento, el dispositivo activa la iluminación. Cuando no se detecta movimiento, el dispositivo desactiva la iluminación.
Sin embargo, un dispositivo de este tipo presenta el inconveniente de no hacer ninguna distinción entre diferentes categorías de objetos. Por lo tanto, la iluminación se activa tan pronto como se detecta un movimiento, ya sea, por ejemplo, el movimiento de un peatón, de un animal o de un vehículo. Esto crea una contaminación lumínica innecesaria.
Una serie de documentos de la técnica anterior divulgan sensores de imagen que son capaces de detectar y clasificar objetos o seres en movimiento en una escena o región de interés (Rdl) para generar un número de acciones cuando se identifican uno o más eventos desencadenantes. Tal es el caso de las patentes estadounidenses y las solicitudes de patente publicadas con los números US9215781, US2005002572, US2015062337.
Pero estos dispositivos y sistemas tienen algunas limitaciones, en particular porque la precisión de identificación mejorada se produce a expensas de un aumento en el número de falsas alarmas o un aumento en los requisitos de potencia de computación o ambos. Por lo tanto, existe la necesidad de un dispositivo con un equilibrio mejorado entre una alta precisión de identificación, una tasa baja de falsas alarmas, y un requisito bajo de potencia de computación, especialmente en un entorno doméstico.
Sumario de la invención
Con este fin, la invención divulga un dispositivo que comprende un sensor de imagen, una fuente de luz IR, una fuente de luz visible y una unidad de procesamiento configurada para detectar elementos en movimiento del primer plano de una escena, para rastrearlos y clasificarlos en diferentes tipos de objetos de interés que pueden activar o no la iluminación de la escena mediante la fuente de luz visible o una alarma.
De manera más precisa, de acuerdo con un primer aspecto, se proporciona un dispositivo como se define en la reivindicación independiente 1 adjunta, y un método de monitorización de una región de interés como se define en la reivindicación independiente 13 adjunta. Las realizaciones preferidas se definen en las reivindicaciones dependientes.
El dispositivo de la invención también aporta seguridad mejorada a la ubicación donde está instalado.
En algunas realizaciones, puede controlarse de forma remota, posiblemente a través de Internet.
Es bastante versátil dado que su software puede actualizarse de vez en cuando para mejorar la detección, la eficiencia de rastreo o clasificación y, por lo tanto, aún disminuye el número de falsos positivos y/o falsos negativos. En virtud de un aspecto de la invención, el entorno se ilumina con luz infrarroja, en un intervalo de longitudes de onda invisibles para el ojo humano. La cámara capta una luz infrarroja reflejada por el entorno y produce al menos una imagen del entorno a partir de la luz infrarroja reflejada por el entorno.
La unidad de procesamiento asigna, a al menos una parte de esta imagen, al menos una clase de una pluralidad de clases. En otras palabras, se pueden asignar una o más clases a toda la imagen o a una parte de la imagen. La unidad de control activa la fuente de luz visible en función de la clase asignada a cada área de interés detectada. Por lo tanto, un usuario puede elegir ventajosamente una o más clases para las que desea que se active la iluminación con luz visible. La iluminación con luz visible permanece desactivada para todas las clases que el usuario no haya elegido. La pluralidad de clases normalmente comprende:
- una primera clase para una categoría dada, y
- una segunda clase para todo lo que no pertenece a la categoría dada. La pluralidad de clases puede comprender alternativamente tres o más clases.
Además de las características que se acaban de describir en el párrafo anterior, el dispositivo de iluminación automática de acuerdo con un aspecto de la invención puede tener una o más características adicionales de las siguientes, consideradas individualmente o en todas las combinaciones técnicamente posibles:
- La unidad de procesamiento detecta al menos un área de interés dentro de la imagen y asigna al menos una clase de la pluralidad de clases a cada área de interés detectada. Debe entenderse que "detección de al menos un área de interés" significa una búsqueda de al menos un área de interés. El resultado de esta búsqueda puede ser positivo o negativo. El resultado de esta búsqueda es positivo si se detecta al menos un área de interés. El resultado de esta búsqueda es negativo si no se detecta ningún área de interés.
- Un área de interés puede ser un área que muestre un movimiento. Como alternativa, el área de interés puede ser un área predefinida y, en particular, un área predefinida por un usuario.
- La cámara filma el entorno iluminado por la al menos una fuente de luz infrarroja para obtener una película de N imágenes, siendo N un número entero natural mayor o igual que 2, y la unidad de procesamiento realiza:
opara cada par de imágenes inmediatamente consecutivas de la película, una detección de al menos un área de interés que exhibe un movimiento;
opara cada área de interés detectada:
• un rastreo en el tiempo de dicha área de interés para obtener un conjunto de k imágenes en miniatura de dicha área de interés, siendo k un número entero natural menor o igual que N, cada una de las k imágenes en miniatura que comprende dicha área de interés, extrayéndose las k imágenes en miniatura de k imágenes inmediatamente consecutivas de la película;
• una elección de al menos una imagen en miniatura del conjunto de k imágenes en miniatura;
• una aplicación de un algoritmo de clasificación a la al menos una imagen en miniatura elegida, para la asignación al área de interés contenida en la imagen en miniatura elegida de una clase de la pluralidad de clases.
Una primera imagen de la película, filmada a una hora t1, y una segunda imagen de la película, filmada a una hora t2 posterior a la hora t1, son "inmediatamente consecutivas" si no hay imagen de la película filmada en una hora t tal que t1 < t < t2.
Una imagen en miniatura extraída de una imagen puede tener dimensiones de píxel menores o iguales que las dimensiones de píxel de la imagen de la que se extrae.
Una y la misma área de interés que se mueve en el campo de la cámara aparece en una pluralidad de k imágenes inmediatamente consecutivas. A continuación, para cada imagen de la pluralidad de imágenes, se define una imagen en miniatura que contiene dicha área de interés. Se obtiene una pluralidad de N imágenes en miniatura. El rastreo de tal área de interés hace posible ventajosamente asociar la pluralidad de N imágenes en miniatura con dicha área única de interés. Por lo tanto, se evita detectar N áreas de interés con una única imagen en miniatura asociada con cada una de las N áreas de interés.
Elegir un subconjunto de p imágenes en miniatura de la pluralidad de N imágenes en miniatura de dicha área de interés, siendo p un número entero natural tal que: 1 < p < N, y aplicar el algoritmo de clasificación a dicho subconjunto de p imágenes en miniatura elegidas, en lugar de a la pluralidad de N imágenes en miniatura, hace posible ventajosamente minimizar el tiempo de computación vinculado a la operación del algoritmo de clasificación. Elegir un subconjunto de p imágenes en miniatura de la pluralidad de N imágenes en miniatura de dicha área de interés también hace posible mejorar la precisión del algoritmo de clasificación, proporcionando al algoritmo de clasificación un dato de entrada de buena calidad. De hecho, se puede elegir el subconjunto de p imágenes en miniatura, de la pluralidad de N imágenes en miniatura, por sus cualidades intrínsecas. De manera complementaria o alternativa, el subconjunto de p imágenes en miniatura puede procesarse para mejorar las propiedades de las mismas.
De acuerdo con un refinamiento, la etapa de detección, para cada par de imágenes inmediatamente consecutivas de la película, de al menos un área de interés que exhibe un movimiento comprende:
- una primera subetapa según la cual se detecta un conjunto de áreas en movimiento, y
- una segunda subetapa según la cual se aplica un filtro al conjunto de áreas en movimiento previamente detectadas, para eliminar al menos un primer tipo de movimiento.
El movimiento de una nube y el movimiento de una rama de árbol agitada por el viento pertenecen, por ejemplo, al primer tipo de movimiento.
Cada imagen en miniatura del conjunto de k imágenes en miniatura de cada área de interés detectada puede definirse como el rectángulo más pequeño que contiene dicha área de interés detectada. Por lo tanto, el tamaño de cada imagen en miniatura se minimiza, lo que hace posible reducir el tiempo de computación vinculado a la operación del algoritmo de clasificación.
Como alternativa, cada imagen en miniatura del conjunto de k imágenes en miniatura de cada área de interés detectada puede definirse como la elipse más pequeña que contiene dicha área de interés detectada, o como el polígono más pequeño que contiene dicha área de interés detectada. Las dimensiones de una imagen en miniatura pueden variar de un área de interés a otra. Las dimensiones de una imagen en miniatura también pueden variar durante el rastreo de una y la misma área de interés.
Para cada área de interés detectada, la elección de la única imagen en miniatura del conjunto de k imágenes en miniatura se realiza ventajosamente en función de un tipo de movimiento de dicha área de interés.
El dispositivo tiene ventajosamente un primer modo de funcionamiento según el cual la elección de la única imagen en miniatura se realiza a partir de un subconjunto del conjunto de k imágenes en miniatura, comprendiendo el subconjunto las q primeras imágenes del conjunto de k imágenes en miniatura, siendo q un número entero natural menor o igual que 10, y preferentemente menor o igual que 5. Por lo tanto, se hace posible ventajosamente un alto grado de capacidad de respuesta del dispositivo de iluminación de acuerdo con un aspecto de la invención.
La cámara que comprende una lente y un sensor de luz infrarroja y luz visible, teniendo la al menos una fuente de luz infrarroja un cono de emisión de luz infrarroja, y teniendo la al menos una fuente de luz visible un cono de emisión de luz visible, el dispositivo es ventajosamente tal que no hay intersección entre la lente de la cámara por un lado y los conos de emisión de luz infrarroja y luz visible por otro lado.
"No hay intersección entre la lente de la cámara, por un lado, y los conos de emisión de luz infrarroja y luz visible, por otro lado" debe entenderse que significa el hecho de que, para una cámara que comprende un sensor y una lente, teniendo la lente una primera cara orientada hacia el sensor y una segunda cara orientada hacia el entorno, el cono de emisión de luz infrarroja y el cono de emisión de luz visible no alcanzan la lente:
- ya sea en su primera cara, o en su segunda cara,
- ya sea directamente o después de un reflejo sobre un elemento protector.
De este modo, se evita cualquier deslumbramiento y cualquier contaminación de la lente de la cámara por cualquiera de las fuentes de luz infrarroja o visible.
La lente que tiene un eje de revolución A y que comprende una primera cara que tiene un vector normal orientado hacia el sensor y una segunda cara que tiene un vector normal orientado hacia el entorno, y un primer plano tangencial a la primera cara y en ángulo recto al eje de revolución A que define un primer semiespacio al que pertenece el sensor y un segundo semiespacio al que pertenecen la segunda cara de la lente y el entorno, el dispositivo es ventajosamente tal que:
- el cono de emisión de la al menos una fuente de luz infrarroja tiene un vértice dispuesto en el segundo semiespacio;
- el cono de emisión de la al menos una fuente de luz visible tiene un vértice dispuesto en el segundo semiespacio.
Teniendo la lente un eje de revolución A, el dispositivo comprende ventajosamente un elemento de protección para la al menos una fuente de luz infrarroja, para la al menos una fuente de luz visible y para la lente de la cámara, siendo el elemento de protección transparente a la luz infrarroja y a la luz visible, extendiéndose el elemento de protección sustancialmente a lo largo de un plano en ángulo recto con respecto al eje de revolución A. El dispositivo se hace así hermético, para su uso en un entorno exterior independientemente de las condiciones climáticas. También se garantiza la integridad de los ajustes del dispositivo en caso de manipulación por un usuario. Por último, el usuario que manipula el dispositivo está protegido de cualquier quemadura debido a las fuentes de luz infrarroja y visible.
La al menos una fuente de luz infrarroja que tiene un cono de emisión del eje A40, teniendo la al menos una fuente de luz visible un cono de emisión del eje A50, y teniendo la cámara un cono de absorción del eje A, el dispositivo es ventajosamente tal que:
- en el segundo semiespacio, la distancia entre el eje A40 y el eje A es constante o aumenta cuando se aleja del primer plano, y
- en el segundo semiespacio, la distancia entre el eje A50 y el eje A es constante o aumenta cuando se aleja del primer plano.
Así se evita un reflejo de la luz infrarroja o visible en el elemento de protección que alcanza la lente y, en particular, la segunda cara de la lente.
El dispositivo comprende ventajosamente una pluralidad de fuentes de luz visible, teniendo cada fuente de luz visible un cono de emisión que tiene un eje. En el primer semiespacio, para cada fuente de luz visible de la pluralidad de fuentes de luz visible, la distancia entre el eje del cono de emisión de dicha fuente y el eje del cono de emisión de cada otra fuente es ventajosamente constante o creciente cuando se aleja del primer plano.
Se obtiene así una región, en el segundo semiespacio, en la que al menos dos conos de emisión de luz visible se superponen. De este modo, se mejora la uniformidad de la iluminación con luz visible, en particular eliminando cualquier halo central.
El dispositivo comprende ventajosamente una pluralidad de fuentes de luz infrarroja, teniendo cada fuente de luz infrarroja un cono de emisión que tiene un eje. En el primer semiespacio, para cada fuente de luz infrarroja de la pluralidad de fuentes de luz infrarroja, la distancia entre el eje del cono de emisión de dicha fuente y el eje del cono de emisión de cada otra fuente es ventajosamente constante o creciente cuando se aleja del primer plano.
Se obtiene así una región, en el segundo semiespacio, en la que al menos dos conos de emisión de luz infrarroja se superponen. Por lo tanto, se mejora la uniformidad de la iluminación con luz infrarroja, en particular eliminando cualquier halo central.
Breve descripción de los dibujos
La invención y sus ventajas se entenderán mejor tras leer la siguiente descripción detallada de una realización particular, proporcionada puramente a modo de ejemplo no limitante, realizándose esta descripción con referencia a los dibujos adjuntos en los que:
- la figura 1 muestra una primera representación esquemática de un dispositivo de iluminación automática útil para la comprensión de las realizaciones;
- la figura 2 muestra una segunda representación esquemática de un dispositivo de iluminación automática útil para la comprensión de las realizaciones;
- la figura 3 muestra una tercera representación esquemática de un dispositivo de iluminación automática útil para la comprensión de las realizaciones;
- la figura 4a muestra una primera vista en sección transversal del dispositivo de iluminación automática de acuerdo con la tercera representación esquemática;
- la figura 4b muestra una segunda vista en sección transversal del dispositivo de iluminación automática de acuerdo con la tercera representación esquemática;
- la figura 5 muestra una vista en sección transversal de un dispositivo de iluminación automática de acuerdo con una variante de la tercera representación esquemática;
- la figura 6 muestra una representación esquemática de la disposición de una lente, de una fuente de luz visible y de una fuente de luz infrarroja de un dispositivo de iluminación automática útil para la comprensión de las realizaciones;
- la figura 7 muestra una representación esquemática de la disposición de una primera fuente de luz visible y de una segunda fuente de luz visible de un dispositivo de iluminación automática útil para la comprensión de las realizaciones;
- la figura 8 muestra una representación esquemática de un procesamiento de una imagen por una unidad de procesamiento de un dispositivo de iluminación automática útil para la comprensión de las realizaciones;
- la figura 9 muestra un diagrama de flujo de un método de identificación que usa un sensor de imagen útil para la comprensión de las realizaciones;
- la figura 10 muestra un diagrama de flujo de un método de detección de regiones de interés en una escena útil para la comprensión de las realizaciones;
- la figura 11 muestra un diagrama de flujo de un método de rastreo de regiones de interés que se han detectado en una escena útil para la comprensión de las realizaciones;
- la figura 12 muestra una arquitectura de un proceso de aprendizaje/clasificación de regiones de interés que se rastrean en una escena útil para la comprensión de las realizaciones.
Descripción detallada
La figura 1 muestra una representación esquemática de un dispositivo de iluminación automática 100 útil para la comprensión de las realizaciones. El dispositivo 100 comprende:
- una fuente de luz infrarroja 40,
- una cámara 10 que comprende una lente Ob y un sensor Ca,
- una unidad de procesamiento 20 para procesar al menos una imagen,
- una fuente de luz visible 50,
- una unidad de control 30 para controlar la fuente de luz visible 50, y
- un elemento de protección 60 para la fuente de luz infrarroja 40, para la fuente de luz visible 50 y para la lente Ob.
Por "luz visible" se entiende típicamente una luz visible para un usuario humano, es decir, una luz cuya longitud de onda pertenece sustancialmente al intervalo [380 nm; 780 nm]. Se entiende típicamente por "luz infrarroja" una luz invisible para un usuario humano y cuya longitud de onda es mayor que 780 nm. La fuente de luz infrarroja puede ser un diodo emisor de luz o LED. De manera similar, la fuente de luz visible puede ser un LED o, como alternativa, una lámpara halógena o una lámpara de neón, etc. La fuente de luz visible, la fuente de luz infrarroja y la cámara se pueden combinar en un solo módulo, como se representa en la figura 1. De acuerdo con una alternativa, la fuente de luz visible puede ubicarse en un primer módulo, mientras que la fuente de luz infrarroja y la cámara se combinan en un segundo módulo distinto del primer módulo. De acuerdo con otra alternativa, la fuente de luz visible puede ubicarse en un primer módulo, la fuente de luz infrarroja puede ubicarse en un segundo módulo distinto del primer módulo, y la cámara puede ubicarse en un tercer módulo distinto del primer y segundo módulos.
En un primer modo de funcionamiento, la fuente de luz infrarroja 40 se activa permanentemente. En un segundo modo de funcionamiento, la fuente de luz infrarroja 40 puede desactivarse. El primer modo de funcionamiento, por ejemplo, se activa durante la noche. El segundo modo de funcionamiento, por ejemplo, se activa durante el día. En el primer modo de funcionamiento, por lo tanto, un entorno se ilumina con luz infrarroja en cada instante. La cámara 10 puede entonces filmar un entorno iluminado con luz infrarroja.
Cada imagen filmada por la cámara 10 se obtiene típicamente en virtud de la luz infrarroja reflejada por el entorno y que llega al sensor Ca. El sensor Ca de la cámara 10 es, por ejemplo, un sensor CMOS.
La unidad de procesamiento 20 puede, por ejemplo, ser un microcontrolador o un microprocesador. De manera similar, la unidad de control 30 puede, por ejemplo, ser un microcontrolador o un microprocesador. Un único microcontrolador o microprocesador puede comprender simultáneamente la unidad de procesamiento 20 y la unidad de control 30.
El elemento de protección 60 sella el dispositivo 100 y, por lo tanto, permite su uso en un entorno exterior, mientras que es transparente a la luz infrarroja y a la luz visible.
La figura 2 muestra una segunda representación esquemática de un dispositivo de iluminación automática 101 útil para la comprensión de las realizaciones. El dispositivo 101 de acuerdo con la segunda representación esquemática comprende un elemento de separación Se, que separa la fuente de luz infrarroja 40 y la fuente de luz visible 50 por un lado, y la cámara 10 por otro lado. El elemento de separación Se hace posible evitar que una radiación de la fuente de luz infrarroja 40 y/o una radiación de la fuente de luz visible 50 alcancen el sensor Ca de la cámara 10. De acuerdo con la segunda representación esquemática, el elemento de protección 60 se divide en una primera parte 61 para la protección de la fuente de luz infrarroja 40 y de la fuente de luz visible 50, y una segunda parte 62 para la protección de la cámara 10.
La figura 3 muestra una tercera representación esquemática de un dispositivo de iluminación automática 102 útil para la comprensión de las realizaciones. El dispositivo 102 de acuerdo con la tercera representación esquemática comprende un filtro de infrarrojos fIR. El filtro de infrarrojos fIR se puede disponer típicamente en una primera posición o en una segunda posición, que se ilustran respectivamente en relación con las figuras 4a y 4b.
La figura 4a muestra una primera vista en sección transversal del dispositivo 102 de acuerdo con la tercera representación esquemática. La figura 4a muestra el filtro de infrarrojos fIR dispuesto en la primera posición. En la primera posición, el filtro de infrarrojos fIR está separado del sensor Ca para que la luz infrarroja pueda penetrar en el sensor Ca.
La figura 4b muestra una segunda vista en sección transversal del dispositivo 102 de acuerdo con la tercera representación esquemática. La figura 4b muestra el filtro de infrarrojos fIR dispuesto en la segunda posición. En la segunda posición, el filtro de infrarrojos fIR se coloca entre la lente Ob y el sensor Ca de la cámara 10 para evitar que la luz infrarroja penetre en el sensor Ca.
El dispositivo de iluminación automática 102 de acuerdo con la tercera representación esquemática puede operar ventajosamente en cualquier momento del día o de la noche: el filtro de infrarrojos fIR se coloca en su primera posición durante la noche y en su segunda posición durante el día. De hecho, es deseable cortar la luz infrarroja emitida por el sol durante el día, para mejorar la representación de las imágenes captadas por la cámara 10, para un usuario humano.
La segunda y tercera representaciones esquemáticas que se acaban de describir se pueden combinar entre sí, para obtener un dispositivo de iluminación automática que comprende el elemento de separación Se y el filtro de infrarrojos fIR.
La figura 5 muestra una vista en sección transversal de un dispositivo de iluminación automática 102' de acuerdo con una variante de la tercera representación esquemática. El dispositivo de iluminación automática 102' comprende una pluralidad de fuentes de luz infrarroja y una pluralidad de fuentes de luz visible. En el ejemplo particular de la figura 5, la pluralidad de fuentes de luz infrarroja comprende la fuente de luz infrarroja 40 y una segunda fuente de luz infrarroja 41. Como alternativa, la pluralidad de fuentes de luz infrarroja puede comprender tres o más fuentes de luz infrarroja. Aún en el ejemplo particular de la figura 5, la pluralidad de fuentes de luz visible comprende la fuente de luz visible 50 y una segunda fuente de luz visible 51. Como alternativa, la pluralidad de fuentes de luz visible puede comprender tres o más fuentes de luz visible.
La variante de la tercera representación esquemática que se acaba de describir es compatible con la primera y segunda representaciones esquemáticas. Dicho de otro modo:
- el dispositivo 100 de acuerdo con la primera representación esquemática puede comprender, de acuerdo con una variante, una pluralidad de fuentes de luz infrarroja y una pluralidad de fuentes de luz visible, y
- el dispositivo 101 de acuerdo con la segunda representación esquemática puede comprender, de acuerdo con una variante, una pluralidad de fuentes de luz infrarroja y una pluralidad de fuentes de luz visible.
De acuerdo con una segunda variante, no ilustrada, de la primera, segunda y tercera representaciones esquemáticas, el dispositivo de iluminación automática puede comprender una única fuente de luz infrarroja y una pluralidad de fuentes de luz visible. De acuerdo con una tercera variante, no ilustrada, de la primera, segunda y tercera representaciones esquemáticas, el dispositivo de iluminación automática puede comprender una pluralidad de fuentes de luz infrarroja y una única fuente de luz visible.
El dispositivo de iluminación automática de acuerdo con una de las representaciones esquemáticas comprende ventajosamente un acelerómetro. Por lo tanto, se puede detectar un movimiento del dispositivo de iluminación automática, para evitar, si es necesario, una detección incorrecta de un movimiento dentro del entorno observado. El dispositivo de iluminación automática de acuerdo con una de las representaciones esquemáticas comprende ventajosamente una interfaz de comunicación que hace posible recibir señales desde al menos un terminal móvil, y transmitir señales a al menos un terminal móvil. La interfaz de comunicación puede, por ejemplo, ser una interfaz de radiofrecuencia, una interfaz Wi-Fi, una interfaz Bluetooth o una interfaz Zigbee, etc.
La figura 6 muestra una representación esquemática de la disposición de la lente Ob, de la fuente de luz visible 50 y de la fuente de luz infrarroja 40 de un dispositivo de iluminación automática útil para la comprensión de las realizaciones. La lente Ob, que tiene un eje de revolución A, comprende:
- una primera cara f1 que tiene un vector normal nf1 orientado hacia el sensor Ca, y
- una segunda cara f2 que tiene un vector normal nf2 orientado hacia el entorno.
Un primer plano P1, tangente a la primera cara f1 y perpendicular al eje de revolución A de la lente Ob, define: - un primer semiespacio dE1, al que pertenece el sensor Ca, y
- un segundo semiespacio dE2, a la que pertenecen la segunda cara f2 de la lente Ob y el entorno.
La figura 6 muestra que:
- la fuente de luz visible 50 tiene un cono de emisión c50, del eje A50 y del vértice s50, y
- la fuente de luz infrarroja 40 tiene un cono de emisión c40, del eje a 40 y del vértice s40.
Para que el cono de emisión c50 de la fuente de luz visible 50 no incida sobre la primera cara f1 de la lente Ob, la fuente de luz visible 50 está dispuesta ventajosamente de tal manera que el vértice s50 del cono de emisión c50 está ubicado en el segundo semiespacio dE2.
De manera similar, para que el cono de emisión c40 de la fuente de luz infrarroja 40 no incida sobre la primera cara f1 de la lente Ob, la fuente de luz infrarroja 40 está dispuesta ventajosamente de tal manera que el vértice s40 del cono de emisión c40 está ubicado en el segundo semiespacio dE2.
El dispositivo de iluminación automática de acuerdo con una de las representaciones esquemáticas comprende preferentemente el elemento de protección 60. Es probable que la radiación emitida por la fuente de luz infrarroja 40 la refleje parcialmente el elemento de protección 60. Para evitar que dicha radiación reflejada en el elemento de protección 60 alcance la segunda cara f2 de la lente Ob, la fuente de luz infrarroja 40 está dispuesta ventajosamente de tal manera que, en el segundo semiespacio dE2, la distancia entre el eje A40 de la fuente de luz infrarroja 40 y el eje de revolución A de la lente Ob es constante o aumenta cuando se aleja del primer plano P1.
La figura 6 muestra, por ejemplo:
- una primera distancia D1 medida entre el eje de revolución A de la lente y el eje A40 de la fuente de luz infrarroja 40, a una primera distancia del primer plano P1 en el segundo semiespacio dE2, y
- una segunda distancia D2 medida entre el eje de revolución A de la lente y el eje A40 de la fuente de luz infrarroja 40, a una segunda distancia, mayor que la primera distancia, desde el primer plano P1 en el segundo semiespacio dE2.
La segunda distancia D2 es mayor o igual que la primera distancia D1.
De manera similar, es probable que la radiación emitida por la fuente de luz visible 50 la refleje parcialmente el elemento de protección 60. Para evitar que dicha radiación reflejada en el elemento de protección 60 alcance la segunda cara f2 de la lente Ob, la fuente de luz visible 50 está dispuesta ventajosamente de tal manera que, en el segundo semiespacio dE2, la distancia entre el eje A50 de la fuente de luz visible 50 y el eje de revolución A de la lente Ob es constante o aumenta cuando se aleja del primer plano P1.
Cuando el dispositivo de iluminación automática de acuerdo con un aspecto de la invención comprende una pluralidad de fuentes de luz visible, teniendo cada fuente de luz visible un cono de emisión, dicha pluralidad está dispuesta preferentemente para obtener, en el segundo semiespacio dE2, una región en la que al menos dos conos de emisión de luz visible se superponen.
De manera similar, cuando el dispositivo de iluminación automática comprende una pluralidad de fuentes de luz infrarroja, teniendo cada fuente de luz infrarroja un cono de emisión, dicha pluralidad está dispuesta preferentemente para obtener, en el segundo semiespacio dE2, una región en la que al menos dos conos de emisión de luz infrarroja se superponen.
En este sentido, la figura 7 muestra una representación esquemática de la disposición de las fuentes de luz visible de un dispositivo de iluminación automática que comprende una pluralidad de fuentes de luz visible. El dispositivo de la figura 7 comprende:
- teniendo la fuente de luz visible 50 el cono de emisión c50, el eje A50 y el vértice s50, y
- teniendo la segunda fuente de luz visible 51 un cono de emisión c51, un eje A51 y un vértice s51.
La fuente de luz visible 50 y la segunda fuente de luz visible 51 están dispuestas ventajosamente de modo que, en el primer semiespacio dE1, la distancia entre el eje A50 de la fuente de luz visible 50 y el eje A51 de la segunda fuente de luz visible 51 es constante o aumenta cuando se aleja del primer plano P1.
La figura 7 muestra, por ejemplo:
- una tercera distancia D3 medida entre el eje A50 de la fuente de luz visible y el eje A51 de la segunda fuente de luz visible, a una primera distancia desde el primer plano P1 en el primer semiespacio dE1, y
- una cuarta distancia D4 medida entre el eje A50 de la fuente de luz visible y el eje A51 de la segunda fuente de luz visible, a una segunda distancia, mayor que la primera distancia, desde el primer plano P1 en el primer semiespacio dE1.
La cuarta distancia D4 es mayor o igual que la tercera distancia D3.
La disposición ilustrada en la figura 7 para una pluralidad de fuentes de luz visible puede transponerse a una pluralidad de fuentes de luz infrarroja.
La figura 8 muestra una representación esquemática de un procesamiento de una imagen Im por la unidad de procesamiento 20 de una iluminación automática. En el ejemplo particular representado en la figura 8, la unidad de procesamiento 20 detecta la primera, segunda y tercera áreas de interés z1, z2 y z3 en la imagen Im. La primera área de interés z1 es, por ejemplo, un peatón en movimiento. La segunda área de interés z2 es, por ejemplo, un vehículo en movimiento. La tercera área de interés z3 es, por ejemplo, un animal en movimiento. La unidad de procesamiento 20 define una primera imagen en miniatura v i para la primera área de interés z1, una segunda imagen en miniatura v2 para la segunda área de interés z2 y una tercera imagen en miniatura v3 para la tercera área de interés z3. La unidad de procesamiento 20 asigna, a cada área de interés, una clase de una pluralidad de clases. En un primer ejemplo, la pluralidad de clases comprende:
- una primera clase con respecto a una primera categoría, y
- una segunda clase que concierne a todos los elementos que no pertenecen a la primera categoría.
De acuerdo con el primer ejemplo, la unidad de control 30 puede activar la fuente de luz visible tan pronto como la primera clase se asigna a al menos una imagen en miniatura.
La primera categoría es, por ejemplo, la de los peatones. Como alternativa, la primera categoría puede ser la de animales o vehículos. En el caso de que la primera categoría sea la de peatones, la unidad de procesamiento 20 asigna la primera clase a la primera imagen en miniatura v i, y la segunda clase a la segunda y tercera imágenes en miniatura v2 y v3.
En un segundo ejemplo, la pluralidad de clases comprende:
- una primera clase con respecto a la primera categoría,
- una segunda clase con respecto a una segunda categoría distinta de la primera categoría, y
- una tercera clase que concierne a todos los elementos que no pertenecen ni a la primera categoría ni a la segunda categoría.
En el caso de que la primera categoría sea la de peatones, la segunda categoría es, por ejemplo, la de animales o la de vehículos. De acuerdo con el segundo ejemplo, la unidad de control 30 puede activar la fuente de luz visible tan pronto como la primera clase se asigna a al menos una imagen en miniatura o tan pronto como la segunda clase se asigna a al menos una imagen en miniatura.
En un tercer ejemplo, la pluralidad de clases comprende:
- una primera clase con respecto a la primera categoría,
- una segunda clase con respecto a la segunda categoría,
- una tercera clase con respecto a una tercera categoría, y
- una cuarta clase con respecto a todos los elementos que no pertenecen ni a la primera categoría, ni a la segunda categoría, ni a la tercera categoría.
En el caso de que la primera categoría sea la de peatones y la segunda categoría sea la de animales, la tercera categoría es, por ejemplo, la de vehículos. De acuerdo con el tercer ejemplo, la unidad de control 30 puede activar la fuente de luz visible tan pronto como la primera clase se asigna a al menos una imagen en miniatura o tan pronto como la segunda clase se asigna a al menos una imagen en miniatura o tan pronto como la tercera clase se asigna a al menos una imagen en miniatura.
La figura 9 muestra un diagrama de flujo de un método de identificación que usa un sensor de imagen útil para la comprensión de ciertas realizaciones.
Como se muestra, el dispositivo de iluminación 100 comprende una unidad de procesamiento 20 que está configurada para determinar un objeto de interés que desencadenará una o más acciones. Una de las acciones es establecer a través de una unidad de control 30 una o más fuentes 50, 51 de luz visible ON (encendida) o dejarla en un estado OFF (apagado) dependiendo del tipo del objeto de interés que está iluminado por una o más fuentes de luz infrarroja (IR) 40, 41, y detectadas por un sensor de imagen 10. Otra acción posible es accionar una alarma que puede generarse localmente o enviarse a una ubicación remota. El propietario de la propiedad donde está instalado el dispositivo o un vigilante encargado de monitorizar la propiedad puede tomar las medidas apropiadas, basándose en particular en las imágenes capturadas por el sensor de imagen 10 que pueden enviarse al propietario o al vigilante en un dispositivo usando un enlace de comunicación.
Se tiene que implementar una serie de etapas antes de que se pueda enviar un comando apropiado a la unidad de control.
La unidad de procesamiento 20 comprende una lógica de procesamiento que puede estar integrada en el hardware del dispositivo de iluminación o almacenarse en una memoria conectada a la unidad de procesamiento para determinar si un evento que ocurre en el campo de visión del sensor de imagen debe o no desencadenar un comando o una alarma.
La lógica de procesamiento está configurada para minimizar el número de falsas alarmas, maximizar el número de detección verdadera de eventos alarmantes y minimizar la potencia de procesamiento utilizada.
de conformidad con la invención, una arquitectura de procesamiento implementa tres etapas de procesamiento sucesivas de análisis de imagen:
- En una primera etapa 910, se detecta un primer plano en movimiento mediante la separación de un fondo inmóvil analizando una serie de imágenes del sensor;
- En una segunda etapa 920, se rastrean las características de los primeros planos en movimiento detectados para confirmar si son objetos de interés válidos;
- En una tercera etapa 930, los objetos de interés válidos rastreados se clasifican en clases o tipos predeterminados usando un Clasificador de Red Neuronal Convolucional. Las representaciones anteriores constituyen realizaciones en combinación con estas características.
El análisis de imágenes es un campo de la tecnología informática que se usa para extraer información significativa de imágenes. En el caso de uso de las realizaciones preferidas de la invención, se aplica a una escena que rodea a un edificio que comprende Regiones de interés (Rdl), es decir, regiones donde se detectan objetos en movimiento y luego se clasifican en tipos de Objetos de Interés (Odl) que están presentes en la escena. Entre la etapa de detección y la etapa de clasificación, se rastrean las características de caracterización de los objetos en movimiento.
En una variante de la invención, la salida de la etapa de clasificación 930 que comprende probabilidades de que un objeto sea un Objeto de interés (Odl) de un tipo predefinido (humano, animal, vehículo, etc.) puede procesarse adicionalmente para desduplicar el Odl para comprobar si ya se han visto anteriormente. En esta variante, las probabilidades de que un Odl pertenezca a una de una clase definida se pasan (etapa 931) a una etapa de desduplicación 932. Si el Odl se ha visto antes, el Odl se descarta y no se realiza ninguna acción (encender la fuente de luz, activar una alarma o enviar una notificación) y se ignora el Odl (etapa 933). Si el Odl no se ha visto en una secuencia reciente de fotogramas, se realizan una o más de las acciones de encender la fuente de luz, la activación de una alarma o la notificación a un usuario (etapa 940). El tiempo que se tiene en cuenta para determinar que el Odl se ha visto antes es cuestión de segundos. Puede estar definido por el usuario, o puede definirse mediante la asignación de memoria a esta función en el dispositivo.
El comando o alarma apropiados pueden activarse con un mínimo de falsas alarmas y un máximo de verdaderos positivos, habiendo usado una potencia de procesamiento que es consistente con la capacidad de la unidad de procesamiento en un tiempo que es consistente con el caso de uso.
En otra variante, puede proponerse a algún usuario que informe de errores de clasificación. Estos errores se alimentan al clasificador para mejorar las probabilidades de clasificación verdadera y minimizar los falsos positivos. Las operaciones realizadas en cada una de las etapas 910, 920 y 930 se describen en detalle adicionalmente a continuación respectivamente en relación con las figuras 10, 11 y 12.
En algunos casos de uso, las clases o tipos de los objetos de interés pueden ser, por ejemplo: humanos; animales; coches. Pero pueden añadirse otras clases. O solo se pueden seleccionar una o dos clases para activar el encendido de las luces o activar una alarma.
La figura 10 muestra un diagrama de flujo de un método de detección de regiones de interés en una escena de acuerdo con algunas realizaciones de la invención.
El propósito de la etapa de detección de regiones de interés en una escena es diferenciar en una serie de imágenes de una escena un primer plano en movimiento, que incluirá las regiones de interés, de un fondo inmóvil. El método consiste en modelar primero el fondo de la escena para proporcionar una imagen de referencia. A continuación, una comparación entre la imagen en ejecución y la imagen de referencia (es decir, sustracción de fondo o extracción de primer plano) produce píxeles etiquetados como "en movimiento". Un diseñador de un método para realizar de manera eficiente esta etapa encontrará una serie de dificultades, en particular:
- cambios de iluminación, lentos con la posición del sol o la luna durante el día/noche, o repentinos con los movimientos de las nubes en el cielo;
- fondo dinámico, como árboles que se mueven con el viento o semáforos que cambian de color;
- camuflaje, cuando se mueven objetos que no contrastan con la escena de fondo;
- sombras, que pueden complicar la clasificación, típicamente cuando se basan en la forma;
- fondo cambiante, por ejemplo cuando un vehículo inmóvil comienza a moverse, una parte de la escena que hasta ahora se consideraba como fondo se convertirá en primer plano en movimiento...
- ruido del sensor de imagen, que puede provenir del propio sensor o del procesamiento de imágenes asociado con el mismo (en particular, la compresión) y se reproducirá en la salida de la detección.
Otros artefactos también pueden afectar la calidad de la detección, pero los inventores creen que, habiendo abordado los mencionados anteriormente, han llegado a un método de detección que es lo suficientemente sólido como para enfrentarse a la mayoría de los artefactos que no han identificado específicamente.
Un primer principio aplicado por los inventores es actualizar su Modelo de Fondo (MF, 1010) con la suficiente frecuencia. El m F se construye a partir de una serie de fotogramas que preceden al fotograma de la imagen actual y que se almacenan en una memoria FIFO ("First In First Out"). El tamaño n de los píxeles usados en la FIFO debería ser lo suficientemente pequeño para evitar un impacto de cambios de iluminación razonablemente lentos y lo suficientemente grande para incluir partes de la escena que normalmente no se mueven y deberían considerarse como fondo. Los inventores han determinado experimentalmente que una duración de unos pocos segundos (o de 50 a 250 fotogramas a 24 fps, es decir, fotogramas por segundo) es un buen compromiso. Obsérvese que los datos de luminancia Y en una codificación YUV realizada por el procesamiento del sensor de imagen son suficientes para extraer información de una serie de imágenes de una escena para construir el MF.
Puede construirse un MF eficiente partiendo de la suposición de que los píxeles que toman el valor de luminancia de la mediana de la memoria intermedia pertenecen al fondo. Pero calcular una mediana de una serie que varía con el tiempo es computacionalmente complejo. Por eso, en una variante, los inventores usan un promedio móvil de la serie de valores de luminancia de píxeles en la memoria intermedia.
Para calcular el promedio móvil, se puede hacer una serie de selecciones de los píxeles en la memoria intermedia: ya sean los p píxeles correspondientes más recientes en la memoria intermedia o los p píxeles más antiguos en la memoria intermedia, donde p es el número de píxeles seleccionados para corresponder al número n de píxeles en la FIFO determinados como óptimos como se ha explicado anteriormente. Los inventores han determinado experimentalmente que es ventajoso seleccionar la opción que produce la media que es la más cercana al MF actual.
En una etapa 1050, se construye una imagen en movimiento estableciendo el valor de luminancia de un píxel en un fotograma en 1 cuando la resta de la luminancia del píxel correspondiente del fotograma de MF del píxel correspondiente en el fotograma de entrada (que puede ser un fotograma preprocesado 1020, en caso de que se realice una limpieza de los fotogramas, es decir, para suprimir ruido como se explica a continuación) es mayor que una luminancia calculada de un píxel correspondiente en una Imagen de Umbral (IU) del fotograma, y estableciendo este valor de luminancia en 0 cuando no se cumple esta condición.
Antes de ejecutar la prueba 1050, se calcula una Imagen de Umbral dinámica, IU (etapa 1040). Los inventores han determinado que un umbral fijo crea un gran número de falsos negativos en áreas sombreadas, mientras que este no es el caso en áreas brillantes. Para compensar este efecto indeseable, se calcula una Varianza Desplazada en una etapa 1040. La Varianza Desplazada se calcula en una etapa 1030, de modo que:
Donde:
- s es el píxel actual;
-t(s)es el umbral correspondiente al píxel s actual;
-Odespiazada(s)es la Varianza Desplazada correspondiente al píxel s actual;
- a, p son parámetros que se seleccionan basándose en una heurística.
La heurística se basa en dos consideraciones:
- En áreas brillantes, el umbral debería ser más alto;
- Para píxeles con una varianza alta, el umbral también debería ser más alto.
Los inventores han determinado que establecer los parámetros a y p respectivamente en 30 y 3 disminuirá la tasa de falsos negativos en áreas sombreadas sin aumentar la tasa de falsos positivos en áreas brillantes, pero son posibles otros valores.
En algunas realizaciones de la invención, tanto el MF como el fotograma actual pueden desenfocarse (es decir, disminuir su contraste) a través de una etapa de preprocesamiento (1020) para reducir el impacto del ruido.
La determinación del umbral 1050 es el resultado de una extracción de las imágenes de manera que: |FP -MF|>IU.Esta etapa produjo un Primer fotograma en Primer plano 1060.
A continuación, en algunas realizaciones de la invención, se puede realizar una Limpieza de Fondo (1070) restando del fotograma actual el Primer fotograma de Primer plano. Esto produce un MF' de Fondo Modificado (1080) con el que puede realizarse una segunda determinación del umbral (1090) para producir un Segundo fotograma de Primer plano (10A0).
A continuación, en algunas realizaciones de la invención, se puede realizar un procesamiento posterior del Segundo fotograma de Primer plano 10A0 en una etapa 10B0. Uno de los objetivos de esta etapa será eliminar partes de la imagen que pueden ser ruido y que de todos modos son demasiado pequeñas para clasificarse adecuadamente. Podemos, por ejemplo, determinar el tamaño mínimo en píxeles que es necesario para detectar una persona de 1,6 m de altura usando relaciones opto-geométricas tales como:
,HW
n m= ----------------------------2 tan6xDM
donde:
- H es la altura mínima del objeto o persona que queremos detectar;
- W es la anchura en píxeles del fotograma;
- 0 es la mitad del ángulo de visión horizontal;
- Dm es la distancia máxima de detección.
Con un sensor de imagen de 5 M píxeles, el tamaño mínimo de objetos de 1,6 m de altura que serán detectables con el sensor desde 20 m es de aproximadamente 100 píxeles. La combinación de altura y anchura mínimas permite definir un elemento de estructuración o Caja Delimitadora (CD). Los objetos en primer plano de un tamaño inferior a la CD pero lo suficientemente cerca se agruparán, mientras que aquellos de también un tamaño inferior a la CD pero aislados se filtrarán.
La salida del proceso de detección es un conjunto de vectores de CD 10C0 que se pasan al proceso de rastreo. El proceso de detección de la invención es notable en particular porque considera únicamente los niveles de gris de los píxeles de la imagen y compensa el efecto "fantasma" al calcular una varianza desplazada.
El proceso de detección de la invención se ha descrito con una serie de características específicas, pero debe entenderse que varias de ellas son opcionales, en el sentido de que pueden mejorar el rendimiento, pero no son obligatorias para lograr un resultado aceptable.
La figura 11 muestra un diagrama de flujo de un método de rastreo de regiones de interés que se han detectado en una escena de acuerdo con algunas realizaciones de la invención.
El proceso de detección descrito anteriormente presenta notablemente la ventaja de permitir perder algunas CD. En consecuencia, el rastreo puede ser más simple que los de la técnica anterior.
El proceso de rastreo de la invención se deriva de un método descrito en Bouguet ("Pyramidal Implementation of the Lucas Kanade Feature Tracker", Intel Corp. Microprocessor Research Labs, 2000). Este proceso se basa en Lucas y Kanade, "An Iterative Image Registration Technique with an Application to Stereo Vision", Proceedings of the 7th International Joint Conference on Artificial Intelligence, Vol. 2, IJCAI'81, págs. 674-679, 1981, y en Tomasi y Shi, "Good Features to Track", 1994 I3E Conference on Computer Vision and Pattern Recognition, CVPR'94, págs. 593 600, 1994.
En algunas realizaciones de la invención, en cada salida de extracción de primer plano del proceso de detección, las CD detectadas se comparan con las ubicaciones de los rastreadores existentes, conduciendo a la creación de nuevos rastreadores cuando un rastreador comparable aún no está presente en la pluralidad de rastreadores existentes. Los rastreadores buscan Características Buenas (CB) en las CD atribuidas a los mismas. A continuación, las CB se rastrean fotograma a fotograma usando un rastreador de características piramidal modificado de Lucas Kanade descrito en las referencias citadas anteriormente. El algoritmo usado es del tipo descrito a continuación: Una ecuación de la formaZd=etiene que resolverse donde Z es una matriz de 2x2 computada en la imagen, d es la traslación que se va a encontrar, e es un vector de error.
La matriz tiene que satisfacer un criterio de minimización de sus valores propios A<1>y A<2>: Mín(A-i, A<2>)>A donde A es un umbral seleccionado apropiadamente mediante prueba y error.
A continuación, el vector de error mínimo se calcula usando la siguiente fórmula:
donde w es una función de ponderación que debe seleccionarse para minimizar e con el fin de encontrar la transformación de la ventana W del fotograma I al fotograma J. Esto permite discriminar entre puntos físicos reales y discontinuidades de profundidad u otros puntos no fiables, tales como características de oclusión que realmente se mueven independientemente o que se producen por reflejos de luz.
De acuerdo con algunas realizaciones de la invención, el proceso de rastreo puede implementarse a través de las siguientes etapas.
En las etapas 1111, 1112, el Bloque Delimitado BDi, BDi<+1>emitido por el proceso de detección es adquirido por el proceso de rastreo. En una etapa 1121, un rastreador Rj se crea como resultado de etapas anteriores (no ilustradas en la figura). En una etapa 1131, BDi, BDi<+1>se comparan con Rj. Si las pruebas de comparación tienen éxito, Rj absorbe BDi y/o BDi<+1>(1141). Si las pruebas de comparación fallan, se crea un nuevo rastreador Rj<+1>(1142).
Las CB en los rastreadores Rj, Rj<+1>se actualizan y monitorizan usando (1151), en algunas realizaciones de la invención, los siguientes datos:
- sus coordenadas;
- sus últimos y anteúltimos desplazamientos;
- una serie de contadores relacionados con el movimiento.
Los contadores relacionados con el movimiento pueden comprender un contador de movimientos correlacionados que puede incrementarse cuando el último y el anteúltimo desplazamiento son aproximadamente en la misma dirección. También pueden comprender un contador de inmovilidad que puede incrementarse cuando el último desplazamiento está por debajo de un umbral y establecerse en cero cuando está por encima de este umbral. A continuación, se puede definir una serie de estados (por ejemplo, válido, neutral y malo) para decidir si el movimiento de una característica en un rastreador califica dicha característica para ser una CB.
A continuación, en una etapa 1161, el algoritmo de rastreo toma una serie de decisiones: cuando el estado es malo, la característica se elimina; también se crean nuevas CB basándose en la misma heurística, si están lo suficientemente cerca de otras CB. Los rastreadores también pueden fusionarse.
A continuación, en una etapa 1171, se crean Viñetas Vk con los rastreadores que tienen un número suficiente de CB. En algunas realizaciones de la invención, las viñetas pueden clasificarse según un índice de calidad.
El proceso de rastreo de la invención es notable porque produce mejores resultados que los procesos de rastreo de la técnica anterior citados anteriormente, en particular, en un caso de uso que puede caracterizarse por una variedad de objetos a rastrear que posiblemente se están moviendo a diferentes velocidades y sobre un fondo borroso.
El proceso de rastreo de la invención se ha descrito con una serie de características específicas, pero debe entenderse que varias de ellas son opcionales, en el sentido de que pueden mejorar el rendimiento, pero no son obligatorias para lograr un resultado aceptable.
La figura 12 muestra una arquitectura de un proceso de aprendizaje/clasificación de regiones de interés que se rastrean en una escena de acuerdo con algunas realizaciones de la invención.
De acuerdo con la invención, se utiliza una técnica de clasificación de aprendizaje profundo basada en redes neuronales convolucionales (CNN, por sus siglas en inglés). La suposición de que un clasificador de CNN se adapta bien al problema a resolver se basa en la idea de que los patrones que están presentes en una viñeta tienen una probabilidad significativa de estar presentes en otro lugar. Además, una CNN es un método de aprendizaje de múltiples etapas en el que las neuronas están conectadas localmente y no conectadas a todas las capas de la red. Los grupos de neuronas que comparten los mismos parámetros se extienden regularmente para cubrir toda la imagen. Esto permite un procesamiento más eficiente desde el punto de vista computacional.
Se puede encontrar una descripción de un clasificador de CNN de la técnica anterior en Garschik y alii, "Rich Feature Hierarchies for Accurate Object Detection and Semantic Detection", 2014 I3E Conference on Computer Vision and Pattern Recognition, CVPR 2014, Colombus, OH, USA, págs. 580-587, 2014.
Una CNN realiza la clasificación y el aprendizaje al mismo tiempo. Puede usarse una serie de diferentes arquitecturas de CNN para implementar la invención. La arquitectura presentada en la figura es, por lo tanto, solo ilustrativa y no limitativa. Además, es posible implementar la invención con un método de clasificación que es diferente de una CNN. Por ejemplo, un método descrito en Viola y alii "Rapid Object Detection Using a Boosted Cascade of Simple Features", 2001 I3E, Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2001), Kawai, HI, USA, págs. 511-518, 2001, o en Dalal et alii "Histograms of Oriented Gradients for Human Detection", International Conference on Computer Vision and Patter Recognition, vol. 2, págs. 886-893, junio de 2005, o en Lowe, "Object Recognition from Local Scale-Invariant Features", Proceedings of the International Conference on Computer Vision, vol. 2, ICCV '99, págs. 1150-, 1999.
En algunas realizaciones de la invención, la CNN utilizada para clasificar los objetos de interés detectados, rastreados y acondicionados en Viñetas Vk comprende:
- Una serie de Capas Convolucionales (CCi), 1211, en donde los productos convolucionales se aplican a las viñetas de entrada usando matrices de núcleo de dimensiones 1x1, 3x3, 5x5 y 1x1; estas dimensiones se han probado adaptadas a algunos casos de uso ilustrativos de la invención, pero pueden establecerse en diferentes valores; también se suministran una serie de Capas de Transformación no Lineales (CTnLj), 1221; ejemplos de CTnL son: una Concatenación de Profundidad para normalizar la salida de las CC;
- una Capa de Agrupación para reducir el tamaño del problema agrupando una serie de parámetros; una Capa Drop_Out para eliminar elementos que no añaden información que es útil para mejorar la calidad de la clasificación. Las operaciones adicionales las realiza una Capa Totalmente Conectada (cTc , 1241); las CTC son similares a las CC en el sentido de que aplican un producto de convolución a su entrada, pero su núcleo tiene las dimensiones de la viñeta de entrada; los inventores han observado que es ventajoso usar una única CTC; pero en algunos casos de uso, es posible usar tantas CTC como clases de interés, cada CTC dedicada a una de las "hiperclases" que son uno de los casos de uso de la invención, es decir, Humanos (HC_H), Animales (HC_A), Coches(HC_C);
- Por último, para la salida de cada CTC, se determinan predicciones de la probabilidad de que la clase de una viñeta Vk es un humano, un animal o un vehículo usando una función de coste softmax 1251 para ajustar los coeficientes de las Capas Activas de la CNN que se aplican; la función de coste softmax no puede resolverse analíticamente en la mayoría de los casos; se puede usar, por ejemplo, un descenso de gradiente o un algoritmo de retropropagación para resolver la función de coste softmax en cada iteración.
Se pueden ajustar varios parámetros de los diversos módulos de la CNN mediante prueba y error para ajustar el rendimiento en términos del mejor compromiso entre verdadero y falso positivo y la potencia de procesamiento necesaria, por ejemplo, el tamaño de las viñetas de entrada, las dimensiones de los núcleos de las<c>C, el uso de un enfoque en cascada para eliminar los falsos positivos, la inicialización de la CTC para aumentar la velocidad de convergencia. Por ejemplo, se ha determinado que una matriz de 112x112 píxeles para la viñeta en la salida del proceso de rastreo es una buena elección.
Los ejemplos divulgados en esta memoria descriptiva son únicamente ilustrativos de algunas realizaciones de la invención. No limitan de ninguna manera el alcance de dicha invención definido por las reivindicaciones adjuntas.

Claims (13)

REIVINDICACIONES
1. Un dispositivo (100) que comprende:
- una o más fuentes de luz infrarroja (40, 41);
- una o más fuentes de luz visible (50, 51);
- un sensor de imagen (10);
- una unidad de procesamiento (20) configurada para analizar una serie de imágenes de una región de interés emitidas por el sensor de imagen;
- una unidad de control (30) configurada para generar una o más de una activación de la una o más fuentes de luz visible o una alarma a partir de un comando recibido desde la unidad de procesamiento;
en donde el análisis comprende
detectar un primer plano en movimiento en la serie de imágenes de la región de interés, rastrear una o más características de caracterización en el primer plano en movimiento y clasificar la una o más características de caracterización en dos o más tipos de objetos de interés,
un tipo de objeto de interés que determina un comando enviado por la unidad de procesamiento a la unidad de control,
estando dicho dispositivo caracterizado por que
la clasificación comprende usar
una Red Neuronal, en donde la Red Neuronal es un clasificador de Red Neuronal Convolucional.
2. El dispositivo de la reivindicación 1, conectable además a una red a través de un enlace de comunicación, en donde, en el caso en el que la unidad de control esté configurada para generar una alarma, la unidad de control está configurada además para enviar la alarma a un dispositivo de usuario en el enlace de comunicación.
3. El dispositivo de la reivindicación 2, en donde, en el caso de que la unidad de control esté configurada para generar una alarma, la unidad de control está configurada además para desencadenar imágenes del objeto de interés que se enviarán al dispositivo de usuario en el enlace de comunicación.
4. El dispositivo de una de las reivindicaciones 1 a 3, en donde la detección usa un valor de luminancia Y en una codificación YUV de píxeles en la serie de imágenes.
5. El dispositivo de una de las reivindicaciones 1 a 4, en donde el rastreo comprende asignar un valor de Característica Buena a una característica de caracterización en Bloques Delimitados emitidos mediante la detección de si un contador de movimientos correlacionados de la característica de caracterización aumenta y un contador de inmovilidad es igual a cero.
6. El dispositivo de la reivindicación 5, en donde el rastreo comprende además crear una viñeta con un Bloque Delimitado que tiene una serie de Características Buenas superior a un umbral.
7. El dispositivo de una de las reivindicaciones 1 a 6, en donde la Red Neuronal comprende una o más Capas Totalmente Conectadas.
8. El dispositivo de una de las reivindicaciones 1 a 7, en donde:
- la cámara (10) comprende una lente (Ob) y un sensor de luz infrarroja y luz visible (Ca),
- la al menos una fuente de luz infrarroja (40) tiene un cono de emisión de luz infrarroja (c40),
- la al menos una fuente de luz visible (50) tiene un cono de emisión de luz visible (c50),
- no hay intersección entre la lente (Ob) de la cámara (10) por un lado y los conos de emisión (c40, c50) de luz infrarroja y de luz visible por otro lado.
9. El dispositivo de la reivindicación 8, en donde la lente (Ob) tiene un eje de revolución A y comprende una primera cara (f1) que tiene un vector normal (nf1) orientado hacia el sensor (Ca) y una segunda cara (f2) que tiene un vector normal (nf2) orientado hacia el entorno, y en el que un primer plano (P1) tangencial a la primera cara (f1) y en ángulo recto al eje de revolución A define un primer semiespacio (dE1) al que pertenece el sensor (Ca) y un segundo semiespacio (dE2) al que pertenecen la segunda cara (f2) de la lente (Ob) y el entorno, y:
- el cono de emisión (c40) de la al menos una fuente de luz infrarroja (40) tiene un vértice (s40) dispuesto en el segundo semiespacio (dE2);
- el cono de emisión (c50) de la al menos una fuente de luz visible (50) tiene un vértice (s50) dispuesto en el segundo semiespacio (dE2).
10. El dispositivo de la reivindicación 9, en donde:
- la al menos una fuente de luz infrarroja (40) tiene un cono de emisión (c40) del eje A40,
- la al menos una fuente de luz visible (50) tiene un cono de emisión (c50) del eje A50, y
- la cámara (10) tiene un cono de absorción del eje A,
- en el segundo semiespacio (dE2), la distancia entre el eje A40 y el eje A es constante o aumenta cuando se aleja del primer plano (P1), y
- en el segundo semiespacio (dE2), la distancia entre el eje A50 y el eje A es constante o aumenta cuando se aleja del primer plano (P1).
11. El dispositivo de una de las reivindicaciones 8 a 10, que comprende una pluralidad de fuentes de luz visible (50, 51), teniendo cada fuente de luz visible un cono de emisión (c50, c51) que tiene un eje (A50, A51), en donde en el primer semiespacio (dE1), para cada fuente de luz visible (50, 51) de la pluralidad de fuentes de luz visible, la distancia entre el eje del cono de emisión de dicha fuente y el eje del cono de emisión de cada otra fuente es constante o aumenta cuando se aleja del primer plano (P1).
12. El dispositivo de una de las reivindicaciones 8 a 11, en donde la lente (Ob) tiene un eje de revolución A, que comprende además un elemento de protección (60, 61, 62) para la al menos una fuente de luz infrarroja (40), para la al menos una fuente de luz visible (50) y para la lente (Ob) de la cámara (10), siendo el elemento de protección transparente a la luz infrarroja y a la luz visible, extendiéndose el elemento de protección sustancialmente a lo largo de un plano en ángulo recto con el eje de revolución A.
13. Un método de monitorización de una región de interés que comprende:
- iluminar la región de interés con una o más fuentes de luz infrarroja (40, 41);
- capturar series de imágenes de la región de interés mediante un sensor de imagen (10);
- analizar mediante una unidad de procesamiento (20) la serie de imágenes de la región de interés emitida por el sensor de imagen;
- generar mediante una unidad de control (30) una o más de una activación de una o más fuentes de luz visible (50, 51) o una alarma basándose en un comando recibido desde la unidad de procesamiento;
en donde el análisis comprende
detectar un primer plano en movimiento en la serie de imágenes de la región de interés, rastrear una o más características de caracterización en el primer plano en movimiento y clasificar la una o más características de caracterización en dos o más tipos de objetos de interés,
un tipo de objeto de interés que determina un comando enviado por la unidad de procesamiento a la unidad de control,
caracterizándose dicho método por que la clasificación comprende usar una red neuronal, en donde la Red Neuronal es un clasificador de Red Neuronal Convolucional.
ES17700048T 2016-01-04 2017-01-04 Automatic lighting and security device Active ES2992859T3 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1650016A FR3046519B1 (fr) 2016-01-04 2016-01-04 Dispositif d'eclairage automatique
PCT/EP2017/050111 WO2017118647A1 (en) 2016-01-04 2017-01-04 Automatic lighting and security device

Publications (1)

Publication Number Publication Date
ES2992859T3 true ES2992859T3 (en) 2024-12-18

Family

ID=56069025

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17700048T Active ES2992859T3 (en) 2016-01-04 2017-01-04 Automatic lighting and security device

Country Status (7)

Country Link
US (1) US11227165B2 (es)
EP (1) EP3400405B1 (es)
KR (1) KR102148586B1 (es)
CN (1) CN109154435B (es)
ES (1) ES2992859T3 (es)
FR (1) FR3046519B1 (es)
WO (1) WO2017118647A1 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3572972A1 (en) * 2018-05-23 2019-11-27 IDEMIA Identity & Security Germany AG Extendend convolutional neural network for document analysis
JP7126864B2 (ja) * 2018-05-25 2022-08-29 キヤノンメディカルシステムズ株式会社 医用信号処理装置及び学習プログラム
EP3798620A1 (fr) * 2019-09-25 2021-03-31 ETA SA Manufacture Horlogère Suisse Systeme et procede de gestion d'un eclairement d'une zone d'interet comprenant au moins un objet susceptible d'etre manipule par un utilisateur
EP3876211A1 (en) 2020-03-06 2021-09-08 Signify Holding B.V. Selecting a light source for activation based on a type and/or probability of human presence
US20250254274A1 (en) * 2024-02-05 2025-08-07 Cambridge Mobile Telematics Inc. Low-power techniques for automatically detecting anomalous activity in an unoccupied vehicle

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6192155B1 (en) * 1998-09-16 2001-02-20 Xerox Corporation Systems and methods for reducing boundary artifacts in hybrid compression
JP2003008954A (ja) 2001-06-20 2003-01-10 Fujitsu General Ltd ドーム型監視カメラ装置
US7627171B2 (en) * 2003-07-03 2009-12-01 Videoiq, Inc. Methods and systems for detecting objects of interest in spatio-temporal signals
US20050163345A1 (en) * 2003-12-03 2005-07-28 Safehouse International Limited Analysing image data
GB2409123B (en) * 2003-12-03 2009-07-01 Safehouse Internat Inc Analysing image data
US20070122000A1 (en) * 2005-11-29 2007-05-31 Objectvideo, Inc. Detection of stationary objects in video
US8150155B2 (en) * 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US9215781B2 (en) * 2008-04-16 2015-12-15 Avo Usa Holding 2 Corporation Energy savings and improved security through intelligent lighting systems
WO2013052383A1 (en) * 2011-10-07 2013-04-11 Flir Systems, Inc. Smart surveillance camera systems and methods
JP5480600B2 (ja) * 2009-11-13 2014-04-23 パナソニック株式会社 照明制御システム
CN101930653B (zh) 2009-12-22 2011-11-30 广州广电运通金融电子股份有限公司 异物检测装置及其检测方法以及具有该装置的自动柜员机
CN102118554B (zh) 2010-01-04 2014-07-02 鸿富锦精密工业(深圳)有限公司 监控系统
CN102510480B (zh) 2011-11-04 2014-02-05 大连海事大学 驾驶员视线自动校准和跟踪系统
WO2013109609A2 (en) 2012-01-17 2013-07-25 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US20130329987A1 (en) * 2012-06-11 2013-12-12 Genesis Group Inc. Video segmentation method
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US9436692B1 (en) * 2013-06-25 2016-09-06 Emc Corporation Large scale video analytics architecture
US9165444B2 (en) * 2013-07-26 2015-10-20 SkyBell Technologies, Inc. Light socket cameras
US9454819B1 (en) * 2015-06-03 2016-09-27 The United States Of America As Represented By The Secretary Of The Air Force System and method for static and moving object detection
US20180048894A1 (en) * 2016-08-11 2018-02-15 Qualcomm Incorporated Methods and systems of performing lighting condition change compensation in video analytics
US10628961B2 (en) * 2017-10-13 2020-04-21 Qualcomm Incorporated Object tracking for neural network systems

Also Published As

Publication number Publication date
EP3400405C0 (en) 2024-07-24
EP3400405A1 (en) 2018-11-14
CN109154435A (zh) 2019-01-04
US11227165B2 (en) 2022-01-18
WO2017118647A1 (en) 2017-07-13
US20200274997A1 (en) 2020-08-27
EP3400405B1 (en) 2024-07-24
KR102148586B1 (ko) 2020-08-27
FR3046519A1 (fr) 2017-07-07
FR3046519B1 (fr) 2022-11-04
CN109154435B (zh) 2020-07-07
KR20180100406A (ko) 2018-09-10

Similar Documents

Publication Publication Date Title
ES2992859T3 (en) Automatic lighting and security device
Cristani et al. Background subtraction for automated multisensor surveillance: a comprehensive review
US9454819B1 (en) System and method for static and moving object detection
Ibrahim A comprehensive review on intelligent surveillance systems
US9299162B2 (en) Multi-mode video event indexing
US9230175B2 (en) System and method for motion detection in a surveillance video
US8744125B2 (en) Clustering-based object classification
Calderara et al. Vision based smoke detection system using image energy and color information
Choudhury et al. An evaluation of background subtraction for object detection vis-a-vis mitigating challenging scenarios
Ko et al. Background subtraction on distributions
JP2022509034A (ja) ニューラルネットワークを使用した輝点除去
WO2005122094A1 (en) Method for detecting desired objects in a highly dynamic environment by a monitoring system
CN104145276A (zh) 用于通过光学成像进行的对象检测和表征的增强对比度
CN112634577B (zh) 用于烟雾报警的方法和设备
CN115797666B (zh) 用于使用卷积技术来加速散斑图像块匹配的方法和装置
Sharma et al. What you can learn by staring at a blank wall
Choudhury et al. Improved pedestrian detection using motion segmentation and silhouette orientation
Gutiérrez-Zaballa et al. Hsi-drive v2. 0: More data for new challenges in scene understanding for autonomous driving
CN105741319A (zh) 基于盲目更新策略和前景模型的改进视觉背景提取方法
JP6275022B2 (ja) 画像監視装置
US20210342597A1 (en) Apparatus and method for identifying organisms
CN112365486B (zh) 基于移动侦测的灰尘检测方法、装置、介质及终端设备
Surendar et al. Animal tracking using background subtraction on multi threshold segmentation
Buch et al. Local feature saliency classifier for real-time intrusion monitoring
Scotti et al. A novel pedestrian classification algorithm for a high definition dual camera 360 degrees surveillance system