ES2759369T3 - Puesta en servicio de un sistema de sensores - Google Patents

Puesta en servicio de un sistema de sensores Download PDF

Info

Publication number
ES2759369T3
ES2759369T3 ES16781795T ES16781795T ES2759369T3 ES 2759369 T3 ES2759369 T3 ES 2759369T3 ES 16781795 T ES16781795 T ES 16781795T ES 16781795 T ES16781795 T ES 16781795T ES 2759369 T3 ES2759369 T3 ES 2759369T3
Authority
ES
Spain
Prior art keywords
sensor
location
area
location data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16781795T
Other languages
English (en)
Inventor
Fernandez David Caicedo
Ashish Pandharipande
Roger Delnoij
Marco Haverlag
Peter Deixler
Hugo Krajnc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Application granted granted Critical
Publication of ES2759369T3 publication Critical patent/ES2759369T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25068Check correct configuration of device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2642Domotique, domestic, home control, automation, smart house
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Un procedimiento de detección de errores de puesta en servicio en un sistema de sensores puesto en servicio, donde el sistema de sensores comprende una pluralidad de dispositivos sensores (6, 6a, 6b) instalados para cubrir un área (30a, 30b), y el procedimiento comprende las siguientes etapas: capturar, mediante los dispositivos sensores, datos del sensor del área mientras al menos una entidad (8) se mueve a través del área (2); procesar, mediante un sistema informático del sistema de sensores, los datos del sensor para generar un conjunto de datos de ubicación, que identifica ubicaciones atravesadas por al menos una entidad en movimiento; y detectar en el conjunto de datos de ubicación una discrepancia causada por al menos uno de los dispositivos sensores (6b) que se han puesto en servicio de forma incorrecta.

Description

DESCRIPCIÓN
Puesta en servicio de un sistema de sensores
CAMPO TÉCNICO
La presente invención se refiere a la detección de errores de puesta en servicio en un sistema de sensores puesto en servicio.
ANTECEDENTES
Un sistema de sensores puede comprender una pluralidad de sensores dispuestos para proporcionar cobertura de un área de sensores. Por ejemplo, en un sistema de iluminación que comprende una pluralidad de luminarias, un sensor puede estar integrado en o colocado de otra manera con cada luminaria.
En el contexto de un sistema de sensores, «puesta en servicio» se refiere a un procedimiento inicial, mediante el cual el sistema de sensores pasa a ser operativo, de modo que pueda realizar su función prevista. La fase de puesta en servicio incluye tanto la instalación física del sistema de sensores, que puede incluir, por ejemplo, el montaje o la colocación de los sensores, el cableado, los ajustes físicos de los sensores, etc., como cualquier configuración de los sensores, por ejemplo, la configuración del software asociado, de una base de datos asociada, etc. Por ejemplo, cada sensor puede estar asociado con un identificador del dispositivo (ID). La ID del dispositivo puede, por ejemplo, ser o comprender una ID del sensor que identifique de manera única ese sensor y/o una ID de la luminaria que identifique la luminaria con la que está colocado (cuando corresponda). Para proporcionar, por ejemplo, servicios de ubicación, cada una de las ID de dispositivo puede estar asociada con un identificador de ubicación que identifique su ubicación en una base de datos; en este caso, llenar la base de datos con las ID de ubicación se considera parte de la fase de puesta en servicio del sistema de sensores.
De la solicitud de patente estadounidense US2014/0235269 A1, se conoce un procedimiento de puesta en servicio de sensores dentro de un área. Con este fin, el procedimiento propone rastrear la ubicación de un dispositivo informático dentro de un área y acoplar el dispositivo informático con al menos una de una pluralidad de unidades de sensores. A continuación, el dispositivo informático identifica y registra una ubicación de al menos una de la pluralidad de unidades de sensores basándose en una ubicación rastreada del dispositivo informático y un identificador de al menos una de la pluralidad de unidades de sensores.
Un sistema de sensores puede ser grande y complejo, por ejemplo, con cientos o incluso miles de sensores. Particularmente en sistemas grandes, la fase de puesta en servicio es propensa a errores, sobre todo porque mucho, si no todo, es sustancialmente un procedimiento manual. Los errores de puesta en servicio pueden surgir de varias maneras, por ejemplo, debido a la colocación incorrecta del sensor durante la instalación, o (cuando corresponda) debido a errores al llenar la base de datos con información de ubicación. Además, los mecanismos existentes para detectar errores de puesta en servicio generalmente se basan en comprobaciones sustancialmente manuales que se realizarán, por ejemplo, comprobando cada sensor individualmente, de modo que el procedimiento de comprobación sea propenso a errores.
RESUMEN
La presente invención se refiere a la detección de errores de puesta en servicio mediante datos recopilados a lo largo del tiempo (es decir, datos de sensores históricos) de sensores, que pueden ser, por ejemplo, dispositivos de captura de imágenes, también denominados en este documento «sensores de visión» u otros dispositivos sensores, tales como, por ejemplo, dispositivos de radar, sónares o sensores de ultrasonido. Los datos históricos tienen la forma de un conjunto de datos de ubicación, recopilados durante un intervalo de tiempo durante al menos una entidad en movimiento que se mueve a través del área cubierta por los sensores.
Un primer aspecto de la presente invención se dirige a un procedimiento de detección de errores de puesta en servicio en un sistema de sensores puesto en servicio, donde el sistema de sensores comprende una pluralidad de dispositivos sensores instalados para cubrir un área, el procedimiento comprende las siguientes etapas: capturar, mediante los dispositivos sensores, datos del sensor del área mientras al menos una entidad se mueve a través del área; procesar, mediante un sistema informático del sistema de sensores, los datos del sensor para generar un conjunto de datos de ubicación, que identifica ubicaciones atravesadas por al menos una entidad en movimiento; detectar en el conjunto de datos de ubicación una discrepancia causada por al menos uno de los dispositivos sensores que se han puesto en servicio de forma incorrecta; y en función de la etapa de detección, realizar una modificación en el sistema de sensores para compensar o corregir la puesta en servicio incorrecta de al menos un dispositivo sensor.
Es decir, la discrepancia no se detecta directamente en los datos del sensor (por ejemplo, imágenes). Más bien, se detecta utilizando datos de ubicación extraídos de los datos del sensor (por ejemplo, imágenes), que se pueden representar utilizando menos bits que los datos del sensor (por ejemplo, datos de imagen) de los que se ha extraído, debido a su menor contenido de información. Esto permite guardar la memoria y el ancho de banda, ya que los datos del sensor (por ejemplo, los datos de la imagen) no necesitan almacenarse o transmitirse una vez que se extrajeron los datos de ubicación. Es decir, la memoria y el ancho de banda se pueden guardar, ya que la información (superflua) se puede descartar de los datos del sensor (por ejemplo, datos de imagen) al generar los datos de ubicación, de modo que solo se extraiga la información de ubicación relevante de los datos del sensor (por ejemplo, imágenes). Esto también proporciona privacidad adicional para cualquier persona presente en las imágenes, particularmente cuando los datos del sensor son datos de imágenes de imágenes capturadas por los dispositivos sensores, que pueden ser dispositivos de captura de imágenes.
En realizaciones preferidas de la invención, los dispositivos sensores son dispositivos de captura de imágenes, que capturan datos de imágenes del área mientras la al menos una entidad se mueve a través del área. Es decir, los datos del sensor a partir de los cuales se generan los datos de ubicación pueden ser datos de imagen capturados del área por los dispositivos de captura de imágenes mientras la al menos una entidad se mueve a través del área. En otras palabras, los datos del sensor pueden ser datos de imágenes del área capturada por los dispositivos de captura de imágenes.
Al menos uno de los dispositivos de captura de imágenes puede comprender una cámara de luz visible y/o al menos uno de los dispositivos de captura de imágenes puede comprender un sensor de imagen térmica (por ejemplo, una matriz de termopilas o un microbolómetro).
Sin embargo, los dispositivos sensores pueden tomar otras formas como, por ejemplo, dispositivos de radar, sonar o ultrasonido, que generan datos de sensores en forma de datos de radar, datos de sonar y datos de ultrasonido respectivamente.
En algunas realizaciones, el conjunto de datos de ubicación puede ser, por ejemplo, un conjunto de vectores de ubicación (vectores de ubicación bidimensionales o tridimensionales) en un marco de referencia global, es decir, relativo a un origen espacial común.
Los errores de puesta en servicio pueden, si no se corrigen o se tienen en cuenta adecuadamente, dar lugar a errores de aplicación, por ejemplo, errores de aplicación de nivel superior o comportamiento errático del sistema.
Por ejemplo, en determinadas realizaciones de la presente invención, el sistema de sensores puede usarse para realizar un conteo de personas. Es decir, para estimar el número total de personas en el área, en función de la información de ubicación extraída de los datos del sensor (por ejemplo, imágenes).
Como ejemplo, en las realizaciones descritas de la presente invención, el sistema de sensores es un sistema de iluminación conectado que comprende: sensores de visión, un procesador central configurado para generar un recuento de personas (que indica un número total estimado de personas en el área) en función de la ubicación datos extraídos/generados mediante el procesamiento de imágenes capturadas por los sensores de visión, y para proporcionar aplicaciones habilitadas para datos basadas en el recuento de personas. En dicho sistema, los errores en la puesta en servicio del sensor debido a la ubicación incorrecta de los sensores u otros errores de puesta en servicio pueden conducir a errores de aplicación de nivel superior o a un comportamiento errático del sistema.
El conteo de personas, a su vez, se puede utilizar para proporcionar aplicaciones habilitadas para datos basadas en el conteo de personas. Los inventores de la presente invención han apreciado que los errores de puesta en servicio, si no se corrigen o se tienen en cuenta adecuadamente, pueden conducir a errores, por ejemplo, errores en el número estimado de personas en un espacio particular o ubicación de un punto de interés, como mostradores, en un nivel de sistema más alto cuando el sistema se usa para contar personas. Esto, a su vez, puede conducir a un comportamiento no deseado de cualquier aplicación que dependa del recuento de personas.
En algunas realizaciones, el procedimiento puede comprender: el procesamiento, por parte de cada uno de una pluralidad de procesadores locales (por ejemplo, procesadores de imagen) del sistema informático, cada uno de los cuales es local para uno de los respectivos dispositivos sensores (por ejemplo, captura de imágenes), datos del sensor (por ejemplo, datos de imagen) capturados por ese dispositivo para generar un conjunto individual de datos de ubicación que identifique ubicaciones atravesadas por la al menos una entidad dentro del campo de visión de ese dispositivo; y la comunicación, por parte de cada procesador local (por ejemplo, procesador de imagen local), de su conjunto individual de datos de ubicación a un procesador central del sistema informático, donde los datos del sensor (por ejemplo, imagen) utilizados para generar ese conjunto no se comunican al procesador central, donde el procesador central agrega los conjuntos individuales de datos de ubicación recibidos de los procesadores locales (por ejemplo, procesadores de imágenes locales) para generar el conjunto de datos de ubicación utilizados para detectar la discrepancia.
Por ejemplo, en algunas realizaciones, el conjunto individual de datos de ubicación capturados por cada dispositivo sensor (por ejemplo, captura de imagen) puede ser un conjunto de uno o más vectores de ubicación (bi- o tridimensionales) con respecto a ese dispositivo. Más generalmente, los conjuntos individuales de datos de ubicación pueden expresarse en diferentes marcos de referencia, es decir, en relación con diferentes orígenes espaciales. Agregar el conjunto individual de datos de ubicación puede comprender aplicar una transformación espacial (por ejemplo, una transformación traslacional y/o rotacional) a al menos uno de los conjuntos individuales, de modo que los vectores de ubicación en el conjunto de datos de ubicación estén todos en el marco global de referencia, es decir, relativa al origen espacial común.
Esto ahorra ancho de banda y también garantiza que se mantenga la privacidad de cualquier persona en los campos de visión de los dispositivos del sensor (por ejemplo, captura de imágenes).
La etapa de detección puede ser realizada por el sistema informático aplicando un algoritmo de detección de ruta al conjunto de datos de ubicación. Es decir, un algoritmo de detección de ruta implementado por ordenador puede implementarse ejecutando el código que incorpora el algoritmo en un procesador del sistema informático.
Como alternativa, el procedimiento puede comprender controlar, mediante el sistema informático, una pantalla para mostrarle a un usuario una representación visual del conjunto de datos de ubicación, donde el usuario puede realizar la etapa de detección, utilizando la representación visualizada.
En las realizaciones descritas, los errores de puesta en servicio son errores detectados utilizando (i) datos de ubicación generados por un comisionado o robot que realiza una prueba de marcha (primera realización descrita) o (ii) trayectorias de usuario a través de los límites y/o patrones del sensor en un histograma de la ubicación datos (segunda realización descrita).
En la primera de las realizaciones descritas, cada dispositivo sensor es un dispositivo de captura de imágenes (sensor de visión) conectado con un procesador respectivo local para ese dispositivo y:
i. Cada procesador local procesa imágenes capturadas por su dispositivo sensor de visión, para extraer la ubicación de cualquier persona en las imágenes;
ii. Cada procesador local comunica a un procesador central la ubicación de cada persona, junto con un identificador (ID) del sensor de visión y una marca de tiempo (por ejemplo, contador);
iii. Un comisionado realiza una prueba de marcha (es decir, una marcha a través de una habitación u otro área siguiendo una trayectoria predefinida) cuando él/ella es el único presente en el espacio. Como alternativa, se hace que un robot siga una trayectoria definida de manera similar, en una configuración detectable por el sensor de visión.
iv. El procesador central presenta una compilación de la trayectoria del comisionado sobre el espacio;
v. El comisionado o un algoritmo de detección de ruta ejecutado en el procesador central detecta cualquier discrepancia o discrepancias entre la trayectoria informada y la trayectoria esperada.
Las imágenes del área (u otros datos del sensor) pueden capturarse durante un intervalo de tiempo durante el cual varias personas se mueven a través del área, donde el conjunto de datos de ubicación puede identificar ubicaciones en el área atravesada por las personas.
El procedimiento puede comprender generar, por el sistema informático, para cada una de una pluralidad de ubicaciones atravesadas por varias personas, un valor asociado que transmite una frecuencia relativa a la que se ha atravesado esa ubicación en el intervalo de tiempo, donde los valores de frecuencia pueden usarse para detectar la discrepancia.
Por ejemplo, la representación visual puede transmitirle al usuario visualmente información sobre los valores de frecuencia asociados con la pluralidad de ubicaciones, por ejemplo, mediante color (crominancia y/o luminancia) y/o sombreado, etc. para transmitir esta información. Como alternativa, solo se pueden mostrar aquellas ubicaciones que han sido atravesadas con frecuencias relativas por encima de un umbral. La representación visual puede, por ejemplo, superponerse en un mapa visualizado del área, para permitir la detección de discrepancias tales como trayectorias que parecen pasar a través de paredes, etc.
En la segunda de las realizaciones descritas, cada dispositivo sensor es un dispositivo de captura de imágenes (sensor de visión) conectado con un procesador respectivo local para ese dispositivo y:
i. Cada procesador local procesa imágenes capturadas por su dispositivo sensor de visión, para extraer la ubicación de cualquier persona en las imágenes;
ii. Cada procesador local se comunica con un procesador central: la ubicación de cada persona (y el tamaño del movimiento), junto con la identificación del sensor de visión y una marca de tiempo (por ejemplo, contador); iii. El procesador central recopila la información de ubicación de todos los sensores de visión durante un período de tiempo prolongado (por ejemplo, varias horas o, preferentemente, al menos un día);
iv. La unidad central de procesamiento construye un mapa de calor (u otra representación visual) de ubicaciones que se corresponden con un movimiento por encima de determinado umbral;
v. Un administrador o un algoritmo de detección de ruta ejecutado en el procesador central detecta discrepancias entre el mapa de calor de las ubicaciones y las ubicaciones válidas esperadas. Una trayectoria de ubicaciones no válida puede indicar un error en la configuración (por ejemplo, las trayectorias que cruzan una pared no son válidas).
La al menos una entidad puede ser un usuario o un robot. El robot puede determinar una ruta a través del área de forma automatizada (por ejemplo, siguiendo balizas, acelerómetros internos o algún tipo de posicionamiento en interiores), o puede ser controlado remotamente por un usuario.
La etapa de detección puede comprender: detectar una discontinuidad en el conjunto de datos de ubicación, por ejemplo, debido a que al menos uno de los dispositivos sensores (por ejemplo, captura de imágenes) se ha instalado con una orientación incorrecta, o debido a que un identificador de dispositivo se ha asociado incorrectamente con al menos un dispositivo sensor (por ejemplo, captura de imágenes) en una base de datos de dispositivos del sistema de sensores.
De manera alternativa o, además, la etapa de detección puede comprender: detectar esa parte de los datos de ubicación que se corresponde con una ruta no transitable a través del área comparando el conjunto de datos de ubicación con un mapa del área.
La etapa de modificación puede comprender:
• ajustar físicamente al menos un dispositivo sensor (por ejemplo, captura de imagen), y/o
• compensar el error almacenando los datos de corrección en una memoria accesible para el sistema informático, que identifica que al menos un dispositivo sensor (por ejemplo, captura de imagen) se ha instalado incorrectamente, permitiendo así que el sistema informático extraiga correctamente la información de los datos del sensor (por ejemplo, imágenes) capturadas por el al menos un dispositivo sensor (por ejemplo, captura de imágenes) a pesar del error, y/o
• modificar una base de datos de dispositivos del sistema de sensores, donde se ha almacenado un identificador de dispositivo incorrecto en asociación con un identificador de ubicación que identifica una ubicación y/o un identificador de orientación que identifica una orientación del al menos un dispositivo sensor (por ejemplo, captura de imagen), para reemplazar el identificador de dispositivo incorrecto con un identificador de dispositivo que identifica correctamente al menos un dispositivo sensor (por ejemplo, captura de imagen).
Se puede almacenar una pluralidad de identificadores de ubicación del dispositivo en una base de datos de dispositivos del sistema de sensores, cada uno en asociación con uno de los respectivos dispositivos sensores (por ejemplo, captura de imágenes) e identificando una ubicación de ese dispositivo sensor (por ejemplo, captura de imágenes), donde los identificadores de ubicación del dispositivo se usan para generar el conjunto de datos de ubicación.
Según un segundo aspecto de la presente invención, un sistema de sensores comprende: una pluralidad de dispositivos sensores instalados para capturar datos del sensor de un área mientras al menos una entidad se mueve a través del área; lógica de procesamiento configurada para procesar los datos del sensor para generar un conjunto de datos de ubicación, que identifica ubicaciones atravesadas por al menos una entidad en movimiento; y un módulo de detección de ruta configurado para aplicar un algoritmo de detección de ruta al conjunto de datos de ubicación, a fin de detectar una discrepancia en el conjunto de datos de ubicación causada por al menos uno de los dispositivos sensores que se han puesto en servicio incorrectamente, identificando así que al menos un dispositivo de sensor ha sido puesto en servicio incorrectamente.
«Lógica de procesamiento» (por ejemplo, «lógica de procesamiento de imágenes») significa cualquier combinación adecuada de hardware (localizado o distribuido) y/o software configurado para implementar el procesamiento (por ejemplo, procesamiento de imágenes).
Por ejemplo, preferentemente la lógica de procesamiento (por ejemplo, imagen) está formada por una pluralidad de procesadores locales (por ejemplo, procesadores de imagen), cada uno local para uno de los dispositivos de captura de imágenes respectivos y configurado para procesar (por ejemplo, imágenes) datos capturados por ese dispositivo para generar un conjunto individual de datos de ubicación que identifique las ubicaciones atravesadas por al menos una entidad dentro del campo de visión de ese dispositivo; y el sistema de sensor comprende un módulo de agregación (por ejemplo, implementado por el código ejecutado por un procesador central) configurado para agregar los conjuntos individuales para generar el conjunto de datos de ubicación usados para detectar la discrepancia.
En algunas realizaciones, el módulo de detección de ruta puede identificar con base en la discrepancia detectada el al menos un dispositivo sensor (por ejemplo, captura de imagen), por ejemplo, almacenando automáticamente un identificador del al menos un dispositivo en una memoria del sistema, que lo identifica como haber sido puesto en servicio incorrectamente y/o controlar automáticamente un dispositivo de salida (por ejemplo, pantalla) del sistema de sensores para enviar (por ejemplo, pantalla) a un usuario del dispositivo de salida la información que identifica el al menos un dispositivo sensor (por ejemplo, captura de imagen) puesto en servicio incorrectamente.
El sistema de sensores está integrado preferentemente en/en parte de un sistema de iluminación que comprende una pluralidad de luminarias. Más preferentemente, cada luminaria se coloca con uno de los respectivos dispositivos sensores (por ejemplo, captura de imágenes).
Un tercer aspecto de la presente invención está dirigido a un producto de programa informático para detectar errores de puesta en servicio en un sistema de sensores, donde el sistema de sensores comprende una pluralidad de dispositivos sensores instalados para cubrir un área, el producto de programa informático comprende el código almacenado en un medio de almacenamiento legible por ordenador y configurado cuando se ejecuta para implementar las siguientes etapas: procesar los datos del sensor capturados por los dispositivos sensores desde el área, generando así un conjunto de datos de ubicación, que identifica ubicaciones dentro del área atravesada por la al menos una entidad en movimiento; y detectar en el conjunto de datos de ubicación una discrepancia causada por al menos uno de los dispositivos sensores que se han puesto en servicio incorrectamente, identificando así al menos un dispositivo sensor que se ha puesto en servicio incorrectamente.
Un cuarto aspecto de la presente invención está dirigido a un procedimiento de detección de errores de puesta en servicio en un sistema de sensores puesto en servicio, donde el sistema de sensores comprende una pluralidad de dispositivos de captura de imágenes instalados para cubrir un área, el procedimiento comprende las siguientes etapas: la captura, por parte de los dispositivos de captura de imágenes, de imágenes del área mientras al menos una entidad se mueve a través del área; procesar, mediante un sistema informático del sistema de sensores, datos de imagen de las imágenes para generar un conjunto de datos de ubicación, que identifica ubicaciones atravesadas por al menos una entidad en movimiento; detectar en el conjunto de datos de ubicación una discrepancia causada por al menos uno de los dispositivos de captura de imágenes que se ha puesto en servicio incorrectamente; y en función de la etapa de detección, realizar una modificación en el sistema de sensores para compensar o corregir la puesta en servicio incorrecta del al menos un dispositivo de captura de imágenes.
Según un quinto aspecto de la presente invención, un sistema de sensores comprende: una pluralidad de dispositivos de captura de imágenes instalados para capturar imágenes de un área mientras al menos una entidad se mueve a través del área; una lógica de procesamiento de imágenes configurada para procesar datos de imágenes de las imágenes para generar un conjunto de datos de ubicación, que identifica ubicaciones atravesadas por al menos una entidad en movimiento; y un módulo de detección de ruta configurado para aplicar un algoritmo de detección de ruta al conjunto de datos de ubicación, a fin de detectar una discrepancia en el conjunto de datos de ubicación causada por al menos uno de los dispositivos de captura de imágenes que se han puesto en servicio de forma incorrecta.
Un sexto aspecto de la presente invención está dirigido a un producto de programa informático para detectar errores de puesta en servicio en un sistema de sensores, donde el sistema de sensores comprende una pluralidad de dispositivos sensores instalados para cubrir un área, el producto de programa informático comprende el código almacenado en un medio de almacenamiento legible por ordenador y configurado cuando se ejecuta para implementar las siguientes etapas: procesar datos de imagen capturados por los dispositivos de captura de imágenes, generando así un conjunto de datos de ubicación, que identifica ubicaciones dentro del área atravesada por la al menos una entidad en movimiento; y detectar en el conjunto de datos de ubicación una discrepancia causada por al menos uno de los dispositivos de captura de imágenes que se ha puesto en servicio incorrectamente.
Se debe tener en cuenta que cualquier característica descrita en relación con cualquiera de los aspectos anteriores puede implementarse en realizaciones de cualquier otro de los aspectos anteriores.
BREVE DESCRIPCIÓN DE LAS FIGURAS
Para una mejor comprensión de la presente invención, y para mostrar cómo se pueden llevar a cabo realizaciones de la misma, se hace referencia a las siguientes figuras, donde:
La figura 1 es una ilustración esquemática de un sistema de iluminación;
la figura 2 es un diagrama de bloques esquemático de una luminaria; la figura 3 es una vista en perspectiva de un par de luminarias adyacentes;
La figura 3A es una vista en planta de parte de un sistema de iluminación; la Figura 4 es un diagrama de bloques esquemático de una unidad central de procesamiento para el funcionamiento un sistema de iluminación; la Figura 4A es un diagrama de bloques esquemático que ilustra una arquitectura de control ejemplar de un sistema de iluminación;
la figura 5 ilustra cómo los procesadores de imágenes locales cooperan con una unidad central de procesamiento para proporcionar una función de conteo de personas;
la figura 6 muestra una imagen ejemplar capturada por un sensor de visión, que puede usarse para generar datos de ubicación individuales en forma de uno o más identificadores de ubicación de persona;
la figura 7A ilustra un conjunto de datos de ubicación generados por un sistema de sensores configurado correctamente;
la figura 7B ilustra un conjunto de datos de ubicación generados por un sistema de sensores donde un sensor de visión se ha orientado de forma incorrecta, causando un primer tipo de discrepancia interna en el conjunto de datos de ubicación; la figura 7C ilustra un conjunto de datos de ubicación generados por un sistema de sensores donde los datos de ubicación se han registrado de forma incorrecta para un sensor de visión, lo que provoca un segundo tipo de discrepancia interna en el conjunto de datos de ubicación;
la figura 7D ilustra un conjunto de datos de ubicación generados por un sistema de sensores donde los datos de ubicación se han registrado de forma incorrecta para una fila completa de sensores en una cuadrícula de sensores, lo que provoca una discrepancia entre los datos de ubicación y el diseño físico del área cubierta por los sensores; la figura 8A ilustra un procedimiento para detectar discrepancias en un conjunto de datos de ubicación generados por un sistema de sensor basado en el movimiento de un solo usuario o robot, como parte de un procedimiento de verificación de puesta en servicio específico;
la Figura 8B ilustra un procedimiento para detectar discrepancias en un conjunto de datos de ubicación recopilados durante un largo intervalo de tiempo mientras el sistema de sensores está en funcionamiento, basado en la detección del movimiento de varias personas que pasan por el área cubierta por los sensores; la figura 9 ilustra cómo se puede usar un sistema de sensores configurado correctamente para implementar el conteo de personas.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES PREFERIDAS
Las realizaciones de la presente invención proporcionan un sistema de sensores de visión. Dicho sistema puede ser un sistema de iluminación conectado con un sensor de visión en cada luminaria, o un sensor de visión asociado a un grupo de luminarias. Un sensor de visión, optimizado en cuanto a costes y complejidad, aún puede proporcionar datos mucho más ricos que un sensor PIR (infrarrojo pasivo) convencional que se usa comúnmente en sistemas de iluminación. Para preservar la privacidad, cada sensor de visión no proporciona imágenes completas a una unidad central de procesamiento cuando funciona en tiempo real, sino que solo proporciona información extraída de esas imágenes, en particular datos de ubicación (y opcionalmente otros datos como información de píxeles de bloque, por ejemplo, decisiones con respecto a presencia y/o niveles de luz). Esto también reduce la cantidad de memoria y ancho de banda de comunicación requerido en el sistema. Los sensores de visión tienen campos de visión superpuestos (FoV) y áreas de detección, para evitar lagunas en la cobertura del sensor.
Los datos de ubicación son generados localmente por procesadores de imágenes locales a los sensores de visión, recolectados centralmente de los sensores de visión en un procesador central (por ejemplo, de un dispositivo informático local, como un servidor local o plataforma de computación en la nube), y analizados en términos de trayectorias o patrones en un histograma de los datos, mediante un algoritmo de detección de ruta ejecutado en el procesador central y/o manualmente.
El sistema de sensores de visión es un sistema de iluminación conectado que comprende varias luminarias, los sensores de visión y un procesador central. Los sensores de visión están conectados con el procesador central a través de un enlace de comunicación de velocidad limitada a través de los respectivos procesadores de imagen locales. La unidad de procesamiento central puede estar en la misma ubicación del sistema de iluminación, o en una ubicación cercana, o puede estar ubicada en la nube o en algún otro servidor de internet (por ejemplo).
El uso del enlace de comunicación de velocidad limitada es posible ya que los datos de la imagen no son comunicativos a través de este enlace, solo lo es la información extraída más limitada (en particular, los datos de ubicación generados localmente).
La figura 1 ilustra un ejemplo de sistema de sensores de visión puesto en servicio, en forma de un sistema de iluminación puesto en servicio 1. Es decir, que ya se ha puesto en servicio.
Aunque el sistema de iluminación 1 ya se ha puesto en servicio, no se ha sometido necesariamente a un procedimiento de verificación de puesta en servicio específico posterior, que a veces se realiza antes de que el sistema se ponga en funcionamiento normal con la intención específica de detectar errores de puesta en servicio. En este caso, las técnicas actuales pueden aplicarse para implementar un procedimiento de verificación de puesta en servicio, como en la primera realización que se describe a continuación.
De forma alternativa, el sistema de iluminación puesto en servicio 1 puede estar ya en funcionamiento, es decir, «en vivo». En este caso, un procedimiento de verificación de puesta en servicio específico puede haberse realizado o no. Es decir, no todos los sistemas de iluminación puestos en servicio son necesariamente sujetos a una verificación específica antes de que entren en funcionamiento normal. En este caso, las técnicas actuales se pueden usar para detectar errores de puesta en servicio mientras el sistema está operativo, es decir, realizando su función prevista, tal como el conteo de personas, como en la segunda realización que se describe a continuación.
El sistema de iluminación 1 comprende una pluralidad de luminarias 4 instaladas en un entorno 2, dispuestas para emitir luz para iluminar ese entorno 2. Se muestra una puerta 10, con la que está conectada cada una de las luminarias 4. La puerta 10 efectúa el control de las luminarias 4 dentro del sistema de iluminación 1, y en ocasiones se denomina puente de iluminación.
En este ejemplo, el entorno 2 es un espacio interior, tal como una o más habitaciones y/o pasillos (o parte de ellos), o un espacio parcialmente cubierto tal como un estadio o un mirador (o parte de ellos). Las luminarias 4 están montadas en el techo, para poder iluminar la base (por ejemplo, el suelo) debajo de ellas. Están dispuestas en una cuadrícula a lo largo de dos direcciones perpendiculares entre sí en el plano del techo, para formar dos filas sustancialmente paralelas de luminarias 4, formando cada fila varias luminarias 4. Las filas tienen una separación aproximadamente igual, al igual que las luminarias individuales 4 dentro de cada fila.
Se muestran varias personas 8 en el entorno, de pie en el suelo directamente debajo de las luminarias 4.
La figura 2 muestra un diagrama de bloques de una luminaria 4, que representa la configuración individual de cada luminaria 4 en el sistema de iluminación 1. La luminaria 4 comprende al menos una lámpara 5 tal como una lámpara basada en LED (uno o más LED), lámpara de descarga de gas o bombilla de filamento, más cualquier alojamiento o soporte asociado. La luminaria 4 también comprende un sensor de visión 6 en forma de cámara, que se coloca con la lámpara 5; un procesador local (formado por una o más unidades de procesamiento, por ejemplo, CPU, GPU, etc.) 11; una interfaz de red 7 y una memoria local 13 (formada por una o más unidades de memoria, tales como unidades DMA y/o RAM) conectadas al procesador local 11. La cámara 6 puede detectar la radiación de las luminarias 4 cuando ilumina el entorno, y es preferentemente una cámara de luz visible. Sin embargo, no queda excluido el uso de una cámara térmica.
El sensor de visión 6 está conectado para suministrar, al procesador local 11, datos de imagen sin procesar capturados por el sensor de visión 6, al que se aplica un algoritmo de detección de persona local mediante el código de procesamiento de imagen local 12a ejecutado en el procesador local 11. El algoritmo local de detección de personas puede funcionar de varias maneras, cuyos ejemplos se describen en detalle a continuación. El algoritmo de detección de personas local genera una métrica de presencia local en forma de uno o más «identificadores de ubicación de entidad» (individual, local), que transporta la ubicación de cualquier entidad detectable en el campo de visión de los sensores en relación con la ubicación del sensor en sí. La entidad puede ser una persona o un robot tal como se detalla a continuación. Estos pueden, por ejemplo, ser vectores de ubicación bidimensionales o tridimensionales (x, y), (x, y, z) en relación con ese sensor. Es decir, los vectores de ubicación individuales pueden expresarse en diferentes marcos de referencia, es decir, en relación con diferentes orígenes espaciales.
El procesador local 11 está conectado con la lámpara 5, para permitir que el código de control local 12b ejecutado en el procesador local 11 controle al menos el nivel de iluminación emitido por la lámpara 5. Otras características de iluminación como el color también pueden ser controlables. Cuando la luminaria 4 comprende múltiples lámparas 5, estas pueden ser controladas individualmente por el procesador local 11, al menos en cierta medida. Por ejemplo, se pueden proporcionar lámparas de colores diferentes 5, de modo que el control general del balance de color se controle controlando por separado sus niveles de iluminación individuales.
La interfaz de red 7 puede ser una interfaz de red inalámbrica (por ejemplo, ZigBee, Wi-Fi, Bluetooth) o cableada (por ejemplo, Ethernet), y proporciona conectividad de red, por lo que las luminarias 4 en el sistema de iluminación 4 pueden formar una red de iluminación y, por lo tanto, conectarse con la puerta de enlace 10. La red puede tener cualquier topología de red adecuada, por ejemplo, una topología de malla, topología en estrella o cualquier otra topología adecuada que permita la transmisión y recepción de señales entre cada luminaria 4 y la puerta de enlace 10. La interfaz de red 7 está conectada con el procesador local 11, para permitir que el procesador local 11 reciba señales de control externas a través de la red. Estos controlan el funcionamiento del código de control local 12a y, de este modo, permiten que la iluminación de la lámpara 5 se controle externamente. Esta conexión también permite que el procesador local 11 transmita imágenes capturadas por el sensor de visión 6, al que se ha aplicado la cuantificación de la imagen con el código de procesamiento de imagen local 12a, a un destino externo a través de la red.
La figura 3 muestra una vista en perspectiva de una primera y una segunda de las luminarias (4a, 4b), que comprende una primera y una segunda fuente de luz 5a, 5b y un primer y segundo sensor de visión 6a, 6b, tal como se describió anteriormente. La primera y segunda luminaria 4a, 4b son luminarias vecinas, es decir, adyacentes entre sí en la red, a lo largo de una de las direcciones de la red o a lo largo de una de las diagonales de la red.
La lámpara respectiva 5a, 5b de cada una de las luminarias 4a, 4b está dispuesta para emitir iluminación hacia una superficie 29 (el suelo en este ejemplo), iluminando así la superficie 29 debajo de las luminarias 4. Además de laminar el entorno, la iluminación proporcionada por las luminarias 4 hace que las personas 8 sean detectables por los sensores de visión 6.
El sensor de visión respectivo 6a, 6b de cada luminaria 4a, 4b tiene un campo de visión limitado. El campo de visión define un volumen de espacio, marcado por líneas punteadas en la figura 4, dentro del cual la estructura visible es detectable por ese sensor de visión 6a, 6b. Cada sensor de visión 6a, 6b está posicionado para capturar imágenes de la porción respectiva (es decir, el área) 30a, 30b de la superficie 29 que está dentro de su campo de visión («área de detección»), directamente debajo de su respectiva luminaria 4a, 4b. Como se puede ver en la figura 3, los campos de visión del primer y segundo sensor de visión 4a, 4b se superponen en el sentido de que hay una región de espacio dentro de la cual los sensores de visión 6a, 6b pueden detectar la estructura. Como resultado, uno de los bordes 30R del área de detección 30a del primer sensor 6a está dentro del área de sensor 30b del segundo sensor 6b («segundo área de detección»). Asimismo, uno de los bordes 30L del área del sensor 30b del segundo sensor 6b está dentro del área del sensor 30a del primer sensor 6a («primer área de detección»). Se muestra un área A, que es la intersección del primer y segundo área del sensor 30a, 30b. El área A es la parte de la superficie 29 que es visible tanto para el primer sensor como para el segundo 6a, 6b («superposición del sensor»).
La figura 3A muestra una vista en planta de una parte del sistema de iluminación 1, donde se muestra una cuadrícula 3x3 de nueve luminarias 4a 4h, cada una con un área del sensor respectiva 30a 30h, que es el área del sensor de su sensor de visión respectivo tal como se describió anteriormente. El área de detección de cada luminaria se superpone con la de cada una de sus luminarias vecinas, en ambas direcciones a lo largo del ángulo y en ambas direcciones diagonales a la cuadrícula, tal como se muestra. Por lo tanto, cada pareja de luminarias vecinas (4a, 4b), (4a, 4c), (4a, 4d), (4b, 4c),... tiene un área de sensor superpuesta. Las áreas de detección/FoV superpuestas de los sensores de visión aseguran que no haya regiones de detección muertas.
Aunque se muestran nueve luminarias en la figura 3A, las técnicas actuales pueden aplicarse a sistemas de iluminación con menos o más luminarias.
La figura 4 muestra un diagrama de bloques de una unidad de procesamiento central 20. La unidad central de procesamiento es un dispositivo informático 20, como un servidor (por ejemplo, un servidor local o parte de una nube), para hacer funcionar el sistema de iluminación 1. La unidad de procesamiento central 20 comprende un procesador 21 (procesador central), formado por, por ejemplo, una o más CPU; y una interfaz de red 23. La interfaz de red 22 está conectada con el procesador central 21. La unidad central de procesamiento 21 tiene acceso a una memoria, formada por uno o más dispositivos de memoria, tales como dispositivos DMA y/o RAM. La memoria 22 puede ser externa o interna al ordenador 20, o una combinación de ambos (es decir, la memoria 22 puede, en algunos casos, denotar una combinación de dispositivos de memoria interna y externa), y en este último caso puede ser local o remota (es decir, se accede a través de una red). El procesador 20 está conectado con una pantalla 25, que puede integrarse, por ejemplo, en el dispositivo informático 20 o una pantalla externa.
El procesador 21 se muestra ejecutando el código de gestión del sistema de iluminación 24 (más generalmente, el código de gestión del sensor). Entre otras cosas, la gestión de la iluminación aplica un algoritmo de agregación para agregar múltiples identificadores de ubicación de entidad recibidos de diferentes luminarias 4 para generar un conjunto (agregado) de datos de ubicación que cubren todo el área cubierta por los sensores.
La interfaz de red 23 puede ser una interfaz de red cableada (por ejemplo, Ethernet, USB, FireWire) o inalámbrica (por ejemplo, Wi-Fi, Bluetooth), y permite que la unidad central de procesamiento 20 se conecte a la puerta de enlace 10 del sistema de iluminación 1. La puerta 10 funciona como una interfaz entre la unidad de procesamiento central 20 y la red de iluminación, y permite de esa manera que la unidad de procesamiento central 20 se comunique con cada una de las luminarias 4 a través de la red de iluminación. En particular, esto permite que la unidad central de procesamiento 20 transmita señales de control a cada una de las luminarias 4 y reciba imágenes de cada una de las luminarias 4. La puerta de enlace 10 proporciona cualquier conversión de protocolo necesaria para permitir la comunicación entre la unidad central de procesamiento 20 y la red de iluminación.
Tenga en cuenta que las figuras 2 y 4 son muy esquemáticas. En particular, las flechas denotan interacciones de alto nivel entre los componentes de la luminaria 4 y el ordenador central 20 y no denotan ninguna configuración específica de conexiones locales o físicas.
La figura 4A muestra una arquitectura de control de sistema de iluminación ejemplar, donde la unidad central de procesamiento 20 está conectada con la puerta de enlace 10 a través de una red básica de paquetes 42, que es una red TCP/IP en este ejemplo. La unidad central de procesamiento 20 se comunica con la puerta de enlace 10 a través de la red 42 basada en paquetes usando protocolos TCP/IP, que pueden realizarse, por ejemplo, en la capa de enlace usando protocolos Ethernet, protocolos Wi-Fi o una combinación de ambos. La red 42 puede ser, por ejemplo, una red de área local (red comercial o doméstica), internet, o simplemente una conexión directa por cable (por ejemplo, Ethernet) o inalámbrica (por ejemplo, Wi-Fi) entre la unidad de procesamiento central 20 y la puerta de enlace 10. La red de iluminación 44 es una red ZigBee en este ejemplo, donde las luminarias 4a, 4b, 4c,... se comunican con la puerta de enlace 10 utilizando los protocolos ZigBee. La puerta de enlace 10 realiza la conversión de protocolo entre los protocolos TCP/IP y ZigBee, de modo que el ordenador central 20 puede comunicarse con las luminarias 4a, 4b, 4c a través de la red basada en paquetes 42, la puerta de enlace 10 y la red de iluminación 44.
Tenga en cuenta que esto es ejemplar, y hay muchas formas de efectuar la comunicación entre el ordenador central 20 y las luminarias 4. Por ejemplo, la comunicación entre el ordenador 20 y la puerta de enlace 10 puede ser a través de algún otro protocolo, como Bluetooth, o mediante alguna otra conexión directa como USB, FireWire o una conexión a medida.
La memoria 22 almacena una base de datos del dispositivo 22a. La base de datos 22a contiene un identificador (ID) respectivo de cada sensor de visión 6 (o cada luminaria 4) en el sistema de iluminación 1, que identifica de manera única ese sensor de visión 6 dentro del sistema de iluminación 1, y un identificador de ubicación del dispositivo asociado de ese sensor de visión 6; por ejemplo, un identificador de ubicación bidimensional (x, y) o tridimensional (x, y, z) (por ejemplo, si los sensores de visión se instalan a diferentes alturas). El identificador de ubicación puede transmitir solo información de ubicación relativamente básica, tal como una referencia de cuadrícula que denota la posición de la luminaria correspondiente en la cuadrícula, p. ej., (m, n) para la enésima luminaria en la enésima fila, o puede transmitir una ubicación más exacta del sensor de visión 6 (o la luminaria 4), p. ej., en metros o pies a cualquier precisión deseada. Las ID de luminarias/sensores de visión, y sus ubicaciones, son conocidas por la unidad central de procesamiento 20.
La base de datos 22a ha sido poblada durante la fase de puesta en servicio del sistema de iluminación 1. Por ejemplo, durante la fase de puesta en servicio, los identificadores de ubicación del dispositivo que identifican ubicaciones de los dispositivos de captura de imágenes pueden asignarse a los dispositivos de captura de imágenes manualmente, es decir, asociarse con los identificadores de dispositivo de los propios dispositivos de captura de imágenes en la base de datos 22a.
Por ejemplo, durante la fase de puesta en servicio del sistema de sensores, los identificadores de ubicación del dispositivo que identifican ubicaciones de los dispositivos de captura de imágenes pueden asignarse a los dispositivos de captura de imágenes, es decir, asociarse con los identificadores de dispositivo de los propios dispositivos de captura de imágenes en la base de datos 22a. Las imágenes mismas transmiten ubicaciones relativas al dispositivo de captura, que se pueden convertir a un marco de referencia común utilizando los identificadores de ubicación del dispositivo. Es decir, las transformaciones espaciales (traslacionales y/o rotacionales) se pueden aplicar al menos a algunos de los vectores de ubicación individuales utilizando los identificadores de ubicación del dispositivo, de manera que los vectores transformados estén en el mismo marco de referencia, es decir, en relación con un origen común.
La figura 5 ilustra cómo el procesador central 20 y las luminarias 4 cooperan dentro del sistema 1. Primero, se muestran la segunda y tercera luminaria 4a, 4b, 4c, aunque esto es puramente ejemplar.
Los sensores de visión 6a, 6b, 6c de cada luminaria capturan al menos una imagen 60a, 60b, 60c de su área de detección respectiva. El procesador local 11a, 11b, 11c de esa luminaria aplica el algoritmo de detección de persona local a esa(s) imagen(es). Es decir, el algoritmo de detección de persona local se aplica por separado en cada una de las luminarias 4a, 4b, 4c, en paralelo para generar una métrica de presencia local respectiva 62a, 62b, 62c. Cada una de las métricas de presencia local 62a, 62b, 62c se transmite a la unidad central de procesamiento 20 a través de la red 42 y la puerta de enlace 10. Las imágenes 60a, 60b, 60c en sí no se transmiten
a la unidad central de procesamiento 20. En algunos casos, los metadatos de solapamiento del sensor 22b se usan localmente en las luminarias 4a, 4b, 4c para generar las métricas de presencia local; de manera alternativa o adicional, dicha información podría usarse en el ordenador central 20, aunque ninguna de ellas es esencial, ya que si es necesario se puede detectar cualquier FoV superpuesto a partir de los datos de ubicación en sí (ver más abajo).
La figura 6 muestra una imagen ejemplar 60 capturada por el sensor de visión 6a de la primera luminaria 4a.
En este ejemplo, una sola entidad 61 es detectable en la imagen 60. En este ejemplo, la entidad 61 es una persona, aunque alternativamente podría ser un robot y toda la descripción perteneciente a una persona se aplica igualmente a un robot en ese caso.
Tal como se abordó, el sensor de visión 6a captura imágenes de la parte de la superficie 29 directamente debajo de ella, por lo que la imagen 60 es una vista de arriba hacia abajo de la persona 61, por lo que la parte superior de su cabeza y hombros son visibles. Se debe tener en cuenta que, en el caso de que la persona 61 se encuentre en el área de superposición del sensor A, estas serían igualmente detectables en una imagen capturada por la segunda luminaria 4b. Es decir, la misma persona 61 sería visible simultáneamente en imágenes de la primera y segunda luminaria 4a, 4b, en diferentes ubicaciones respectivas en esas imágenes.
Cada sensor de visión 6 comunica la ubicación relativa con respecto al mismo sensor de visión de los ocupantes, junto con su ID y una marca de tiempo, a la unidad central de procesamiento 20, por ejemplo, como una métrica de presencia en forma de un vector de ubicación.
Un ejemplo se ilustra en la figura 6, que muestra cómo se genera un solo vector de ubicación 62 (x, y) que denota la ubicación de la persona individual 61 en relación con el primer sensor de visión 6a que captura la imagen 60, y se asocia con una marca de tiempo correspondiente que denota al menos aproximadamente el momento en que esa persona 61 estaba en esa ubicación (x, y) y el identificador del sensor que capturó la imagen.
La unidad central de procesamiento 20 recoge dichos vectores de ubicación de los múltiples sensores de visión. La unidad central 20 tiene conocimiento de la ubicación de cada sensor de visión de la base de datos 22a y, por lo tanto, puede traducir la ubicación relativa de cada ocupante dentro de cada sensor de visión en un marco de referencia común, es decir, en relación con un origen espacial común, por ejemplo, durante un intervalo de tiempo deseado, aplicando una transformación espacial adecuada, en particular una transformación traslacional (es decir, una traducción en el sentido matemático), utilizando el identificador de ubicación del dispositivo en la base de datos 22a. Los vectores de ubicación transformados recopilados de sensores de visiones múltiples constituyen un conjunto de datos de ubicación agregados para ese intervalo de tiempo.
A partir de los vectores de ubicación transformados, es posible determinar un camino atravesado por la persona 61 a medida que se mueve a través del área cubierta por los sensores, a través de las áreas de detección de múltiples sensores de visión.
Algunos ejemplos de esto se ilustran en las figuras 7A-7D. Los vectores transformados (denotados 62'), recogidos a lo largo del tiempo de los procesadores de imágenes locales 11, están representados por puntos en estas figuras, y se muestra que las áreas de sensores de los sensores de visión ayudan a la ilustración.
La figura 7A ilustra un ejemplo de datos de ubicación generados cuando el sistema de sensores 1 está configurado correctamente, es decir, sin errores de puesta en servicio. En este caso, puede ser que los vectores de ubicación transformados 62', recogidos a lo largo del tiempo a medida que la persona 61 se mueve a través del área, transmitan una ruta sustancialmente continua, es decir, no interrumpida, que refleja la ruta real seguida por la persona 61, según lo previsto.
Por el contrario, las figuras 7B-7D muestran cómo pueden surgir varios tipos de discrepancias en los vectores de ubicación transformados 62' debido a errores de puesta en servicio en el sistema de iluminación 1. Es decir, una discrepancia entre la ruta indicada por los vectores de ubicación transformados 62' y una ruta esperada (es decir, la ruta física real) atravesada por la persona 62' a través del área.
Esto podría ser una discrepancia «interna» dentro del conjunto agregado de datos de ubicación. Es decir, una discrepancia entre partes de los datos de ubicación en sí, tal como una discontinuidad en la ruta transportada por los vectores de ubicación transformados 62'. Dicha discontinuidad puede surgir, por ejemplo, cuando uno de los dispositivos de captura de imágenes está orientado incorrectamente, tal como se ilustra en la figura 7B. En este ejemplo, se puede ver que el error de orientación se propaga a los vectores de ubicación local 62 generados por el segundo sensor de visión 6b, correspondientes a ubicaciones en su área de detección 30b y, por lo tanto, a las versiones transformadas de esos vectores.
Como otro ejemplo, cuando las ubicaciones atravesadas por la entidad se determinan utilizando la información de ubicación del dispositivo previamente almacenada en la base de datos 20a, dicha discontinuidad puede surgir si hay errores en la información de ubicación previamente almacenada en la base de datos 22a. Es decir, si la base de datos 22a se ha rellenado incorrectamente durante la puesta en servicio. En el ejemplo de la figura 7C, aunque los vectores de ubicación generados localmente en relación con (en este ejemplo) el segundo sensor de visión 6b son correctos, la ubicación del segundo sensor de visión se ha recodificado incorrectamente en la base de datos 22a durante la puesta en servicio; específicamente, la ubicación asociada con el segundo sensor de visión 6b en la base de datos 22a es, de hecho, la ubicación del cuarto sensor de visión 6d. Este error de la base de datos se propaga a los vectores de ubicación transformados 62' para el segundo sensor 30b cuando la transformación espacial se aplica a los vectores de ubicación individuales del segundo sensor 30b, tal como se ilustra en la figura 7C.
Las discrepancias internas de cualquier tipo se pueden detectar manualmente, por ejemplo, mostrando a un usuario los vectores de ubicación transformados 62' como puntos en un plano bidimensional en la pantalla 25 para que el usuario pueda detectar la discrepancia por sí mismo, o automáticamente por un algoritmo de detección de ruta adecuado ejecutado en el procesador 21 y aplicado a los vectores de ubicación local 62 recibidos.
De forma alternativa, esto podría ser una discrepancia «externa», como en la figura 7D. Es decir, incluso si el conjunto de datos de ubicación es internamente consistente sin discontinuidades aparentes, puede entrar en conflicto con la realidad física del área. Las discrepancias externas se pueden detectar comparando los vectores de ubicación transformados 62' con un mapa 70 del área cubierta por los sensores 6, tal como un plano de planta. Por ejemplo, donde los datos de ubicación transmiten una ruta aparente que pasa a través de una pared, como en el ejemplo de la figura 7D, o de otra manera no es transitable en la realidad. La comparación puede ser manual o automática, en cuyo caso el algoritmo de detección de ruta compara los datos de mapas almacenados electrónicamente con el conjunto de datos de ubicación.
El sistema de detección de visión con los diversos elementos de información involucrados está representado en la figura 1.
La figura 8A ilustra una primera realización de la presente invención.
En la primera realización, cada sensor de visión se comunica con la unidad central de procesamiento 20: la ubicación de cada persona 8, junto con la ID del sensor de visión y una marca/contador de tiempo. La ubicación de cada persona 8 puede ser, por ejemplo, con respecto al sensor de visión 6 y, por lo tanto, la unidad central de procesamiento 20 convierte las ubicaciones en una referencia global. Como alternativa, un robot sigue una trayectoria definida, en una configuración detectable por los sensores de visión 6. El robot puede, por ejemplo, determinar su propia ruta automáticamente, p. ej., siguiendo balizas, acelerómetros internos o algún tipo de posicionamiento en interiores. Como alternativa, el robot puede ser controlado remotamente por un usuario desde, p. ej., una sala de control, utilizando un mecanismo de control remoto.
Un comisionado realiza una prueba de marcha, por ejemplo, durante un procedimiento de verificación de puesta en servicio específico, es decir, él/ella cruza la sala siguiendo una trayectoria predefinida cuando ninguna otra persona 8 está presente en el espacio.
La unidad central de procesamiento 22 recibe y recoge todas las ubicaciones 62 informadas de cada sensor de visión 6 y las compila en una ruta («trayectoria») sobre el plano xy del área cubierta por los sensores 6.
Esta información de trayectoria se le muestra al comisionado en la pantalla 25, o se analiza mediante un algoritmo de detección de trayectoria ejecutado en el procesador 21 para detectar cualquier discrepancia entre las trayectorias informadas y esperadas.
Tal como se abordó, la discrepancia puede indicar una configuración incorrecta u otros errores de puesta en servicio, p. ej., identificación incorrecta asignada a los sensores de visión en la base de datos 22a, uno o más sensores que están ubicados u orientados incorrectamente durante la instalación.
En la figura 8A, se muestra un ejemplo donde una primera trayectoria compilada 63 (i) sigue la trayectoria esperada, debido a que el sistema de visión 1 está configurado correctamente. Por el contrario, se muestra una segunda trayectoria compilada 63 (ii), donde el segundo sensor de visión 6b se ha instalado con la orientación incorrecta, como en el ejemplo de la figura 7B.
La figura 8B ilustra una segunda realización de la presente invención.
En la segunda realización, cada sensor de visión 6 comunica a la unidad central de procesamiento 20 la ubicación de cada persona 8 (como la persona 62 en la imagen ejemplar 60), junto con la ID del sensor de visión y una marca de tiempo (como un contador u otra marca de tiempo). La ubicación de cada persona 8 puede ser, por ejemplo, con respecto al sensor de visión 6 y, por lo tanto, la unidad central de procesamiento convierte las ubicaciones en una referencia global. Además, el sensor de visión 6 (es decir, el procesador de imagen local 11 conectado a ese sensor 6) puede informar el tamaño de movimiento de cada persona 8 detectada, por ejemplo, como un valor de velocidad o un vector de velocidad determinado sobre dos o más imágenes.
La unidad central de procesamiento 20 recopila la información de ubicación 62 de todos los sensores de visión 6 durante un período de tiempo prolongado (por ejemplo, uno o más días). La unidad central de procesamiento construye una distribución de ubicaciones que corresponden al movimiento (por ejemplo, que tiene una rapidez (escalar) o una velocidad (vector)) por encima de un determinado umbral.
Estos valores pueden, por ejemplo, mostrarse en la pantalla 25 en forma de un «mapa de calor» tal como se ilustra en la figura 8B, donde se muestran el primer y el segundo mapa de calor 72(i), 72(ii).
Para generar el mapa de calor 72(i)/72(ii), el área cubierta por los sensores se subdivide, por ejemplo, en una cuadrícula de subregiones. Las subregiones pueden, por ejemplo, ser muy pequeñas (por ejemplo, correspondientes a píxeles individuales o una pequeña cantidad de píxeles del sensor de visión) de modo que cada subregión sea efectivamente un punto dentro del área. Cada subregión está asociada con un valor generado para ese área, que se almacena en la memoria 22. En esta invención se denominan valores de frecuencia porque cada uno transmite la frecuencia relativa a la que se ha atravesado esa subregión. Sin embargo, los valores de frecuencia no necesitan ser frecuencias como tales; por ejemplo, cada valor de frecuencia puede ser un recuento de personas que han atravesado esa subregión.
Los diferentes valores de frecuencia se representan a continuación en el mapa de calor 72(i)/72(ii) mostrado usando diferentes colores (por ejemplo, diferentes crominancias y/o luminancias), y/o intensidades y/o sombreado, tal como se muestra en la figura 8B. En la figura 8B, las intensidades más oscuras denotan ubicaciones atravesadas con mayor frecuencia que las intensidades más claras. A partir del mapa de calor, es posible que un administrador deduzca intuitivamente las rutas atravesadas con mayor frecuencia a través del área, y también que detecte cualquier discrepancia.
El administrador o un algoritmo de detección de ruta ejecutado en el procesador 21 analiza las frecuencias relativas para ubicaciones en el mapa de calor para detectar una discrepancia entre el mapa de calor de las ubicaciones y las ubicaciones válidas esperadas. Una trayectoria de ubicaciones no válida puede indicar un error en la configuración. Como ejemplo de trayectorias no válidas debido a errores en la configuración: trayectorias que cruzan una pared (como en la figura 7D), discontinuidades en las trayectorias entre sensores de visión adyacentes (como en las figuras 7B y 7C). En la Figura 8B, el primer mapa de calor 72(i) se corresponde con una configuración correcta del sistema de visión, mientras que el segundo mapa de calor 72(ii) refleja un error de orientación del segundo sensor de visión 72(ii). Es decir, el segundo mapa de calor 72(ii) refleja una situación donde se ha instalado un sensor de visión con la orientación incorrecta.
Un mapa de calor es solo un ejemplo de una representación visual adecuada. Por ejemplo, otro tipo de representación visual es mostrar solo aquellas ubicaciones que han sido atravesadas con frecuencias relativas por encima de un umbral (por ejemplo, durante más del 50 % del intervalo de tiempo).
El tamaño del movimiento puede informarse desde el sensor de visión 6, o la unidad central de procesamiento 20 puede calcular el tamaño del movimiento basándose en ubicaciones informadas consecutivas de cada persona 8.
En cualquiera de las realizaciones anteriores, el algoritmo de detección de ruta puede calcular, por ejemplo, una probabilidad de una transición entre regiones para detectar discrepancias en la continuidad espacial y/o temporal de trayectorias, a fin de detectar automáticamente discrepancias internas en los datos de ubicación agregados 62'.
Tenga en cuenta que, en las realizaciones descritas anteriormente, las imágenes 60 en sí mismas no son comunicadas ni utilizadas por la unidad central de procesamiento 20 en los procedimientos descritos anteriormente, solo los datos de ubicación 62 extraídos de las imágenes, por los procesadores locales 11 que procesan las imágenes, se comunican a la unidad central de procesamiento 20. Esto usa menos ancho de banda y, en la segunda realización donde el procedimiento se realiza cuando el sistema de sensores está en uso, preserva la privacidad de las personas en el espacio. Es decir, no se detectan discrepancias de las imágenes 60 directamente, sino solo de los datos de ubicación 62 extraídos de esas imágenes.
Como se indicó anteriormente, la superposición A del sensor puede identificarse si es necesario a partir de los propios vectores de ubicación: para cualquier persona en áreas de superposición del sensor, dos o más de los vectores de ubicación local se corresponderán con la misma ubicación en relación con el origen común y el mismo tiempo (dentro de los respectivos umbrales de radio y tiempo). Esto puede ser detectado por la unidad de procesamiento central 20 ejecutada por código 24, de modo que múltiples vectores de ubicación de diferentes sensores 6 que se corresponden con la misma ubicación física solo se tienen en cuenta una vez al detectar la ruta recorrida por la persona/personas/robot. Como alternativa, la superposición puede ser detectada manualmente por un usuario cuando las ubicaciones se muestran en la pantalla 25.
Una vez que se han detectado los errores de puesta en servicio, se pueden corregir o compensar de varias maneras. Por ejemplo, un sensor orientado incorrectamente puede ajustarse físicamente o, como alternativa, puede compensarse al reconfigurar el software del sistema de sensores de visión 1, p. ej., de manera que, cuando se ejecuta en uno de los procesadores locales 11 o en el procesador central 21, el software está configurado para aplicar una transformación rotacional a las imágenes capturadas por ese sensor (en el procesador local 11 relevante) o a los vectores de ubicación extraídos de esas imágenes para tener en cuenta la orientación física incorrecta (en el procesador local relevante o en el procesador central 21). Cuando el error es un error en la base de datos 22a, se puede corregir corrigiendo la información en la base de datos 22a. Como otro ejemplo, además de registrar las ubicaciones de los sensores 6 en la base de datos 22a, adicionalmente podría registrarse y usarse su orientación para generar los vectores de ubicación transformados 62', en este caso aplicando tanto una transformación traslacional y (cuando sea necesario) una transformación rotacional a las imágenes y/o la información extraída. Como será evidente, en este caso un registro incorrecto de la orientación en la base de datos 22a conducirá al tipo de discrepancia que se muestra en la figura 7B. Una vez detectado, esto puede corregirse, por ejemplo, corrigiendo la información de orientación en la base de datos 22a.
En varias aplicaciones, se requiere el recuento de personas en un área particular. La información de conteo de personas se puede usar para habilitar aplicaciones como la optimización del espacio, la planificación y el mantenimiento, el control de HVAC (calefacción, ventilación y aire acondicionado) y el marketing impulsado por el análisis de datos. Por ejemplo, en el análisis de marketing, el conteo de personas es necesario como uno de los datos de entrada para el análisis. Para la optimización del espacio, se necesita un recuento de personas en tiempo (pseudo) real para identificar patrones de uso temporal y espacial. Los errores de configuración pueden conducir a recuentos de personas incorrectos, lo que a su vez interrumpe los procedimientos que dependen de un recuento de personas exacto.
Una vez que se han detectado y rectificado los errores de puesta en servicio según las técnicas anteriores, el sistema 1 se puede utilizar para proporcionar un recuento de personas exacto 66 utilizando los identificadores de ubicación 62 generados por los procesadores de imágenes locales 11 mientras el sistema está en uso (véase la figura 9).
Si bien lo anterior se ha descrito con referencia a los dispositivos sensores que son dispositivos de captura de imágenes, los dispositivos sensores pueden tomar otras formas como, por ejemplo, dispositivos de radar, sonar o ultrasonido, que generan datos de sensores en forma de datos de radar, datos de sonar y datos de ultrasonido respectivamente; o cualquier otro sensor que pueda detectar y proporcionar información de ubicación, es decir, que pueda generar datos de sensor que puedan procesarse para detectar y localizar entidades (robots, personas, otros objetos, etc.). Toda descripción relacionada con un «dispositivo de captura de imágenes» o «datos de imágenes» se aplica igualmente a los otros tipos de dispositivos sensores y datos de sensores, respectivamente. Por ejemplo, el sistema de sensores puede comprender una pluralidad de dispositivos sensores multimodal. Es decir, una combinación de dos o más de estos (u otros) tipos de sensores.
Mientras que lo anterior se ha descrito con referencia a un sistema de iluminación interior, con luminarias montadas en el techo dispuestas en una cuadrícula, como se verá, las técnicas pueden aplicarse en general a cualquier sistema de iluminación (interior, exterior o una combinación de ambos), donde se emplean sensores de visión. Por ejemplo, en un espacio al aire libre como un parque o jardín. Si bien puede ser conveniente colocar los sensores con las luminarias por los motivos analizados, esto no es de ninguna manera esencial, ni es necesario tener el mismo número de luminarias y sensores. Además, las técnicas no necesitan aplicarse en absoluto en un sistema de iluminación.
Además, para evitar dudas debe tenerse en cuenta que la arquitectura descrita anteriormente es ejemplar. Por ejemplo, las técnicas de esta descripción pueden implementarse de una manera más distribuida, p. ej., sin la puerta de enlace 10 o la unidad central de procesamiento 20. En este caso, la funcionalidad de la unidad de procesamiento central 20 como se describió anteriormente puede ser implementada por el procesador local 13 conectado a uno de los sensores de visión 6 (que pueden o no estar colocados con una luminaria 4 en general), o distribuirse a través de múltiples procesadores locales 13.
Los expertos en la materia pueden entender y realizar otras variaciones de las realizaciones descritas al poner en práctica la invención reivindicada, a partir del estudio de los dibujos, la descripción y las reivindicaciones adjuntas. En las reivindicaciones, la palabra «que comprende» no excluye otros elementos o etapas, y el artículo indefinido «un» o «una» no excluyen una pluralidad. Un único procesador u otra unidad puede cumplir las funciones de varios elementos enumerados en las reivindicaciones. El mero hecho de que determinadas medidas se reciten en reivindicaciones dependientes mutuamente diferentes no indica que no se pueda usar una combinación de estas medidas para obtener ventajas. Un programa informático puede almacenarse/distribuirse en un medio adecuado, tal como un medio de almacenamiento óptico o un medio de estado sólido suministrado junto con o como parte de otro hardware, pero también puede distribuirse en otras formas, tal como a través de Internet u otros sistemas de telecomunicaciones por cable o inalámbricos. Cualquier signo de referencia en las reivindicaciones no debe interpretarse como una limitación del alcance.

Claims (15)

REIVINDICACIONES
1. Un procedimiento de detección de errores de puesta en servicio en un sistema de sensores puesto en servicio, donde el sistema de sensores comprende una pluralidad de dispositivos sensores (6, 6a, 6b) instalados para cubrir un área (30a, 30b), y el procedimiento comprende las siguientes etapas:
capturar, mediante los dispositivos sensores, datos del sensor del área mientras al menos una entidad (8) se mueve a través del área (2);
procesar, mediante un sistema informático del sistema de sensores, los datos del sensor para generar un conjunto de datos de ubicación, que identifica ubicaciones atravesadas por al menos una entidad en movimiento; y detectar en el conjunto de datos de ubicación una discrepancia causada por al menos uno de los dispositivos sensores (6b) que se han puesto en servicio de forma incorrecta.
2. El procedimiento de la reivindicación 1, que comprende, además:
en función de la etapa de detección, realizar una modificación en el sistema de sensores para compensar o corregir la puesta en servicio incorrecta de al menos un dispositivo sensor (6b).
3. Un procedimiento según la reivindicación 1 o 2, donde los dispositivos sensores (6, 6a, 6b) son dispositivos de captura de imágenes, donde los datos del sensor a partir de los cuales se generan los datos de ubicación son datos de imágenes capturados del área por los dispositivos de captura de imágenes mientras la al menos una entidad (8) se mueve a través del área (2).
4. Un procedimiento según la reivindicación 1 o 2, donde la etapa de detección la realiza el sistema informático aplicando un algoritmo de detección de ruta al conjunto de datos de ubicación.
5. Un procedimiento según la reivindicación 1 o 2, que comprende: controlar, mediante el sistema informático (20), una pantalla (25) para mostrarle a un usuario una representación visual del conjunto de datos de ubicación, donde el usuario realiza la etapa de detección, utilizando la representación visualizada.
6. Un procedimiento según la reivindicación 1, 2, 3, 4 o 5, donde los datos del sensor del área (2) se capturan durante un intervalo de tiempo durante el cual varias personas (8) se mueven a través del área (2), donde el conjunto de datos de ubicación puede identificar ubicaciones en el área atravesada por las personas (8).
7. Un procedimiento según la reivindicación 6 que comprende la generación por parte del sistema informático (20), para cada una de una pluralidad de ubicaciones atravesadas por las personas, un valor asociado que transmite una frecuencia relativa a la que se ha atravesado esa ubicación en el intervalo de tiempo, donde los valores de frecuencia son usados para detectar la discrepancia.
8. Un procedimiento según las reivindicaciones 5 y 7, donde la representación visual le transmite visualmente al usuario información sobre los valores de frecuencia asociados con la pluralidad de ubicaciones.
9. Un procedimiento según la reivindicación 1 o 2, donde la al menos una entidad (8) es un usuario o un robot.
10. Un procedimiento según la reivindicación 3 o cualquier reivindicación dependiente al respecto, que comprende:
el procesamiento, por cada uno de una pluralidad de procesadores locales (11a, 11b, 11c) del sistema informático, cada uno de los cuales es local para uno de los respectivos dispositivos sensores (6a, 6b, 6c), datos de sensores capturados por ese dispositivo para generar un conjunto individual de datos de ubicación que identifique ubicaciones atravesadas por la al menos una entidad dentro del campo de visión de ese dispositivo, donde el campo de visión es un volumen de espacio desde el cual el sensor puede generar datos del sensor; y la comunicación, por cada procesador local (11a, 11b, 11c), de su conjunto individual de datos de ubicación a un procesador central del sistema informático, donde los datos del sensor utilizados para generar ese conjunto no se comunican al procesador central, donde el procesador central agrega los conjuntos individuales de datos de ubicación recibidos de los procesadores locales para generar el conjunto de datos de ubicación utilizados para detectar la discrepancia.
11. Un procedimiento según cualquiera de las reivindicaciones anteriores, donde la etapa de detección comprende:
detectar una discontinuidad en el conjunto de datos de ubicación, y/o
detectar esa parte de los datos de ubicación que se corresponde con una ruta no transitable a través del área comparando el conjunto de datos de ubicación con un mapa del área.
12. Un procedimiento según la reivindicación 2 o cualquier reivindicación dependiente al respecto, donde la etapa de modificación comprende:
ajustar físicamente al menos un dispositivo sensor (6b), y/o
compensar el error mediante el almacenamiento de los datos de corrección en una memoria accesible para el sistema informático, que identifica el al menos un dispositivo sensor como instalado incorrectamente, permitiendo así que el sistema informático extraiga correctamente la información de los datos del sensor capturada por el al menos un dispositivo sensor a pesar del error, y/o
modificar una base de datos de dispositivos del sistema de sensores, donde se ha almacenado un identificador de dispositivo incorrecto en asociación con un identificador de ubicación que identifica una ubicación y/o un identificador de orientación que identifica una orientación del al menos un dispositivo sensor, para reemplazar el identificador de dispositivo incorrecto con un identificador de dispositivo que identifica correctamente el al menos un dispositivo sensor.
13. Un procedimiento según cualquiera de las reivindicaciones anteriores, donde una pluralidad de identificadores de ubicación del dispositivo se almacena en una base de datos del dispositivo (22a) del sistema sensor, cada uno en asociación con uno de los dispositivos sensores respectivos (6a, 6b, 6c) e identificando una ubicación de ese dispositivo sensor, donde los identificadores de ubicación del dispositivo se utilizan para generar el conjunto de datos de ubicación.
14. Un sistema de sensores que comprende:
una pluralidad de dispositivos sensores (6a, 6b, 6c) instalados para capturar datos del sensor de un área (30a, 30b) mientras que al menos una entidad (8) se mueve a través del área (2);
una lógica de procesamiento configurada para procesar los datos del sensor para generar un conjunto de datos de ubicación, que identifica ubicaciones atravesadas por la al menos una entidad en movimiento; y
un módulo de detección de ruta configurado para aplicar un algoritmo de detección de ruta al conjunto de datos de ubicación, a fin de detectar una discrepancia en el conjunto de datos de ubicación causada por al menos uno de los dispositivos sensores (6b) que se han puesto en servicio incorrectamente, identificando así el al menos un dispositivo sensor que se ha puesto en servicio incorrectamente.
15. Un producto de programa informático que comprende un código almacenado en un medio de almacenamiento legible por ordenador y configurado cuando se ejecuta para implementar las siguientes etapas:
procesar datos del sensor capturados por los dispositivos sensores (6, 6a, 6b) desde un área (2), generando así un conjunto de datos de ubicación, que identifica ubicaciones dentro del área (2) atravesadas por al menos una entidad en movimiento (8); y
detectar en el conjunto de datos de ubicación una discrepancia causada por al menos uno de los dispositivos sensores que se han puesto en servicio incorrectamente, identificando así el al menos un dispositivo sensor que se ha puesto en servicio incorrectamente.
ES16781795T 2015-10-30 2016-10-14 Puesta en servicio de un sistema de sensores Active ES2759369T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15192249 2015-10-30
PCT/EP2016/074699 WO2017071969A1 (en) 2015-10-30 2016-10-14 Commissioning of a sensor system

Publications (1)

Publication Number Publication Date
ES2759369T3 true ES2759369T3 (es) 2020-05-08

Family

ID=54477850

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16781795T Active ES2759369T3 (es) 2015-10-30 2016-10-14 Puesta en servicio de un sistema de sensores

Country Status (6)

Country Link
US (1) US11347192B2 (es)
EP (1) EP3368953B1 (es)
JP (1) JP6467112B2 (es)
CN (1) CN108431702B (es)
ES (1) ES2759369T3 (es)
WO (1) WO2017071969A1 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017071969A1 (en) * 2015-10-30 2017-05-04 Philips Lighting Holding B.V. Commissioning of a sensor system
GB2553566B (en) * 2016-09-09 2021-02-03 Ambx Uk Ltd Control of output devices
US10606814B2 (en) * 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
US10742940B2 (en) 2017-05-05 2020-08-11 VergeSense, Inc. Method for monitoring occupancy in a work area
US11044445B2 (en) 2017-05-05 2021-06-22 VergeSense, Inc. Method for monitoring occupancy in a work area
EP3425324B2 (de) * 2017-07-04 2022-11-16 Sick Ag Verfahren zur parametrierung eines sensors
US11039084B2 (en) * 2017-11-14 2021-06-15 VergeSense, Inc. Method for commissioning a network of optical sensors across a floor space
US10825337B2 (en) 2018-04-12 2020-11-03 Carrier Corporation Autonomous commissioning and inspection of alarm systems
JP7286916B2 (ja) * 2018-04-20 2023-06-06 東芝ライテック株式会社 照明装置および照明システム
US10860642B2 (en) 2018-06-21 2020-12-08 Google Llc Predicting topics of potential relevance based on retrieved/created digital media files
JP7405863B2 (ja) 2019-03-12 2023-12-26 シグニファイ ホールディング ビー ヴィ モバイルデバイス、システム及び方法
AU2020241843B2 (en) 2019-03-15 2023-09-28 VergeSense, Inc. Arrival detection for battery-powered optical sensors
US11137770B2 (en) * 2019-04-30 2021-10-05 Pixart Imaging Inc. Sensor registering method and event identifying method of smart detection system
US11373318B1 (en) 2019-05-14 2022-06-28 Vulcan Inc. Impact detection
WO2021001305A1 (en) 2019-07-01 2021-01-07 Signify Holding B.V. Use of visible light signals for determining one or more parameters for presence detection
US11620808B2 (en) 2019-09-25 2023-04-04 VergeSense, Inc. Method for detecting human occupancy and activity in a work area
CN117241445B (zh) * 2023-11-10 2024-02-02 深圳市卡能光电科技有限公司 组合式氛围灯自适应场景的智能调试方法及系统

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US6970183B1 (en) * 2000-06-14 2005-11-29 E-Watch, Inc. Multimedia surveillance and monitoring system including network configuration
CN2497276Y (zh) 2001-08-09 2002-06-26 宝山钢铁股份有限公司 具有故障自诊断的编码式位置检测装置
JPWO2004046704A1 (ja) * 2002-11-15 2006-03-16 株式会社ルネサステクノロジ 建造物品質モニタシステム、建造物品質モニタ方法、及びそれらに用いられる半導体集積回路装置
US7502068B2 (en) * 2004-06-22 2009-03-10 International Business Machines Corporation Sensor for imaging inside equipment
TW200719766A (en) * 2005-09-07 2007-05-16 Koninkl Philips Electronics Nv Lighting commissioning device and method
DE102007001649A1 (de) 2007-01-11 2008-07-17 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zur Selbstkalibrierung einer Überwachungskamera
US20090201375A1 (en) 2008-02-08 2009-08-13 Kelsey-Hayes Company Fail safe test for motion sensors
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US9807849B2 (en) * 2008-09-10 2017-10-31 Enlighted, Inc. Automatically commissioning lighting controls using sensing parameters of the lighting controls
JP2010117880A (ja) * 2008-11-13 2010-05-27 Ricoh Elemex Corp ガス警報器
JP5230793B2 (ja) 2009-02-24 2013-07-10 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
US8159156B2 (en) * 2009-08-10 2012-04-17 Redwood Systems, Inc. Lighting systems and methods of auto-commissioning
AU2010295352B2 (en) * 2009-09-21 2014-12-04 Checkpoint Systems, Inc. Retail product tracking system, method, and apparatus
US9872271B2 (en) * 2010-09-02 2018-01-16 Enlighted, Inc. Tracking locations of a computing device and recording locations of sensor units
WO2013057646A1 (en) 2011-10-17 2013-04-25 Koninklijke Philips Electronics N.V. Commissioning lighting systems
EP2600611A1 (de) * 2011-11-29 2013-06-05 Xovis AG Verfahren und Vorrichtung zur überwachung eines Überwachungsbereichs
US8774556B2 (en) 2011-11-30 2014-07-08 Microsoft Corporation Perspective correction using a reflection
US9165190B2 (en) 2012-09-12 2015-10-20 Avigilon Fortress Corporation 3D human pose and shape modeling
US9585228B2 (en) * 2012-11-30 2017-02-28 Enlighted, Inc. Associating information with an asset or a physical space
CN103063250A (zh) 2012-12-25 2013-04-24 苏州长菱测试技术有限公司 振动试验设备故障监测系统及方法
CN105723809B (zh) 2013-09-13 2018-11-20 库珀技术公司 用于基于智能传感器进行自动调试的系统、方法和装置
US9747196B2 (en) * 2014-01-31 2017-08-29 General Electric Company Automatic commissioning of digital addressable lighting control systems
US10134064B2 (en) * 2014-06-27 2018-11-20 Ledvance Llc Lighting audit and LED lamp retrofit
RU2692515C2 (ru) * 2014-09-29 2019-06-25 Филипс Лайтинг Холдинг Б.В. Системы и способы управления окружающими условиями
WO2017025854A1 (en) * 2015-08-07 2017-02-16 Tridonic Gmbh & Co Kg Commissioning device for commissioning installed building technology devices
US20170105129A1 (en) * 2015-10-08 2017-04-13 Terralux, Inc. Provisioning and commissioning retrofitted devices
WO2017071969A1 (en) * 2015-10-30 2017-05-04 Philips Lighting Holding B.V. Commissioning of a sensor system

Also Published As

Publication number Publication date
US11347192B2 (en) 2022-05-31
CN108431702A (zh) 2018-08-21
US20180321645A1 (en) 2018-11-08
CN108431702B (zh) 2021-11-30
JP6467112B2 (ja) 2019-02-06
EP3368953A1 (en) 2018-09-05
JP2019501482A (ja) 2019-01-17
WO2017071969A1 (en) 2017-05-04
EP3368953B1 (en) 2019-09-25

Similar Documents

Publication Publication Date Title
ES2759369T3 (es) Puesta en servicio de un sistema de sensores
EP3414746B1 (en) People sensing system.
US20180336420A1 (en) Image processing system
EP2410822B1 (en) Illumination control system and method for controlling illumination
WO2017060083A1 (en) Integrated lighting and people counting system
ES2898686T3 (es) Detectar una nueva puesta en servicio
EP3698609B1 (en) Occupancy sensor calibration and occupancy estimation
CN109691234B (zh) 照明传感器分析
JP2019500596A (ja) 移動通信システムのための光ベースの車両位置特定
US20200367341A1 (en) Equivalent melanopic lux (eml) quotas
TWI702805B (zh) 對能夠自主移動的機器進行導引的系統和方法
WO2017108374A1 (en) Sensor system.
TWI746973B (zh) 通過光通信裝置對能夠自主移動的機器進行導引的方法
US10299355B2 (en) Intelligent gating mechanism
WO2020025320A1 (en) Controller for detecting animals with physiological conditions
CN112720517A (zh) 一种用于室内疫情消杀机器人的控制系统
CN113949841A (zh) 封闭环境中的活动监控系统和方法
WO2017108408A1 (en) Sensor system.
CN115004861A (zh) 用于控制空间中的多个照明单元的控制器及其方法
JP5843934B2 (ja) 照明制御装置、人感センサ、照明制御方法、および照明制御用プログラム
TWI647976B (zh) 照明控制系統及照明控制方法
CN202422153U (zh) 一种视频检测人体数量和位置及其移动的装置
US20150262349A1 (en) Free space positioning method and system
TWM515110U (zh) 展場定位系統
ES2948621T3 (es) Determinación de una posición alternativa para un dispositivo de iluminación para mejorar una función auxiliar