ES2800725T3 - Métodos y sistemas para detectar intrusiones en un volumen controlado - Google Patents
Métodos y sistemas para detectar intrusiones en un volumen controlado Download PDFInfo
- Publication number
- ES2800725T3 ES2800725T3 ES16175808T ES16175808T ES2800725T3 ES 2800725 T3 ES2800725 T3 ES 2800725T3 ES 16175808 T ES16175808 T ES 16175808T ES 16175808 T ES16175808 T ES 16175808T ES 2800725 T3 ES2800725 T3 ES 2800725T3
- Authority
- ES
- Spain
- Prior art keywords
- dimensional
- sensor
- local
- controlled volume
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/181—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B29/00—Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
- G08B29/02—Monitoring continuously signalling or alarm systems
- G08B29/04—Monitoring of the detection circuits
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/16—Actuation by interference with mechanical vibrations in air or other fluid
- G08B13/1654—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
- G08B13/1672—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19678—User interface
- G08B13/19682—Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19678—User interface
- G08B13/19691—Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Alarm Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Un método para detectar intrusiones en un volumen controlado, en el cual una pluralidad de N sensores (2) tridimensionales controlan, respectivamente, al menos una parte de un volumen (V) controlado y se comunican, respectivamente, con una unidad central de procesamiento (3), que comprende: - cada sensor (2) de dicha pluralidad de N sensores tridimensionales adquiere una nube (C) de puntos locales en un sistema (S) local de coordenadas de dicho sensor, comprendiendo dicha nube de puntos locales un conjunto de puntos (D) de datos tridimensionales de las superficies del objeto en un volumen (L) local que rodea dicho sensor (2) y que se superpone al volumen (V) controlado, - dicha unidad central de procesamiento (3) recibe las nubes (C) de puntos locales adquiridas de la pluralidad de N sensores (2) tridimensionales, almacenando dichas nubes (C) de puntos adquiridas en una memoria (5) y, para cada sensor (2) de dicha pluralidad de N sensores (2) tridimensionales, calcular la posición y orientación tridimensionales actualizadas de dicho sensor (2) en un sistema (G) de coordenadas global del volumen controlado alineando una nube (C) de puntos locales adquirida por dicho sensor tridimensional con un mapa (M) tridimensional global del volumen (V) controlado, que se determina de manera automatizada y se almacena en una memoria (5), y generar una nube (A) de puntos local alineada en el sistema (G) de coordenadas global a partir de dicha nube (C) de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor (2), - controlar una intrusión en el volumen (V) controlado comparando un espacio libre de dicha nube (A) de puntos locales alineada con un espacio libre del mapa (M) tridimensional global.
Description
DESCRIPCIÓN
Métodos y sistemas para detectar intrusiones en un volumen controlado
Sector de la técnica
La presente invención se refiere a métodos y sistemas para detectar intrusiones en un volumen o espacio tridimensional.
Estado de la técnica
La presente solicitud pertenece al campo de control de área y volumen para aplicaciones de vigilancia, tales como ingeniería de seguridad o seguridad de emplazamientos. En tales aplicaciones, se realizan verificaciones regulares o continuas para detectar si hay una intrusión de un objeto, en particular un cuerpo humano, en un volumen controlado, por ejemplo, una zona de peligro que rodea una máquina o una zona prohibida en un área privada. Cuando se detecta una intrusión, se notifica al operador del sistema de control y/o la instalación puede detenerse o quedar protegida.
Los enfoques tradicionales para el control del área implican el uso de una cámara 2D para rastrear individuos y objetos en el área espacial. El documento US 20060033746 describe un ejemplo de tal control por cámara.
El uso de una cámara bidimensional proporciona una solución de control de bajo coste y fácil de configurar. Sin embargo, un inconveniente importante de estos enfoques radica en el hecho de que una sola cámara solo proporciona información de posición bidimensional y no proporciona información sobre la distancia del objeto detectado desde la cámara. Como resultado, las alertas falsas pueden desencadenarse por objetos distantes que parecen estar en el volumen controlado pero que en realidad están fuera del peligro o zona prohibida.
Para superar este problema, se propuso utilizar sensores de distancia o tridimensionales o cámara estereoscópica para adquirir información tridimensional sobre los individuos y objetos ubicados en el área espacial controlada. Tal sistema de control generalmente comprende varios sensores 3D o cámaras estereoscópicas distribuidas en el área controlada para evitar el efecto de sombra de los objetos ubicados dentro del volumen controlado.
Los documentos US 7.164.116, US 7.652.238 y US 9.151.446 describen ejemplos de tales sistemas de sensores 3D.
En el documento US 7.164.116, cada sensor se considera de forma independiente, se calibra por separado y su información de adquisición se trata por separado de los otros sensores. Después, el operador del sistema puede combinar la información de varios sensores 3D para resolver problemas de sombreado. La calibración y la configuración de dicho sistema es un proceso costoso en cuanto a tiempo, ya que cada sensor 3D debe calibrarse de forma independiente, por ejemplo, especificando un área peligrosa o prohibida por separado para cada sensor. Además, el uso de dicho sistema es engorroso ya que el operador tiene que combinar mentalmente la información de varios sensores.
Los documentos US 7.652.238 y US 9.151.446 desvelan otro enfoque en el que se define un sistema de coordenadas uniforme para todos los sensores 3D del sistema de control. De este modo, los sensores se calibran en un sistema de coordenadas común del volumen controlado. Sin embargo, en tales sistemas, la posición respectiva de cada sensor con respecto a la zona controlada debe ser fija y estable a lo largo del tiempo para poder fusionar las mediciones de manera fiable, que a menudo es difícil de garantizar con el tiempo y dar como resultado necesita recalibrar periódicamente el sistema de control.
Además, el proceso de calibración de estos sistemas requiere una determinación precisa de la posición y orientación tridimensional de cada sensor, lo que implica herramientas de medición 3D y una interfaz de entrada 3D que son difíciles de gestionar para un operador no experto. El documento US2010/0053330 es otro ejemplo de un sistema de seguridad.
Objeto de la invención
La presente invención está definida por las reivindicaciones adjuntas y tiene como objetivo mejorar esta situación.
Con este objetivo, un primer objeto de la invención es un método para detectar intrusiones en un volumen controlado, en el cual una pluralidad de N sensores tridimensionales controlan, respectivamente, al menos una parte del volumen controlado y se comunican respectivamente con una unidad central de procesamiento, que comprende:
- adquisición por cada sensor de dicha pluralidad de N sensores tridimensionales de una nube de puntos local en un sistema de coordenadas local de dicho sensor, comprendiendo dicha nube de puntos local un conjunto de puntos D de datos tridimensionales superficies de objetos en un volumen local que rodea dicho sensor y se superpone al volumen controlado,
- recepción por dicha unidad central de procesamiento las nubes de puntos locales adquiridas de la pluralidad de N
sensores tridimensionales, almacenando dichas nubes de puntos adquiridas en una memoria y, para cada sensor de dicha pluralidad de N sensores tridimensionales,
calcular la posición y orientación tridimensional actualizadas de dicho sensor en un sistema de coordenadas global del volumen controlado alineando una nube de puntos locales adquirida por dicho sensor tridimensional con un mapa tridimensional global del volumen controlado almacenado en una memoria, y
generar una nube de puntos locales alineada a partir de dicha nube de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor,
- controlar una intrusión en el volumen controlado comparando un espacio libre de dicha nube de puntos locales alineada con un espacio libre del mapa tridimensional global.
En algunas realizaciones, también se podría usar una o más de las siguientes características:
- para cada sensor de dichos al menos dos sensores tridimensionales, la posición y orientación tridimensionales actualizadas de dicho sensor en el sistema de coordenadas global se calcula realizando una alineación multiescaneada simultánea de cada nube de puntos adquirida por dicho sensor con el mapa tridimensional global del volumen controlado;
- la posición y orientación tridimensionales actualizadas de cada sensor de dichos al menos dos sensores se calcula solo a partir de las nubes de puntos locales adquiridas por dicho sensor tridimensional y el mapa tridimensional global del volumen controlado almacenado en una memoria, y sin información de posicionamiento adicional; - los N sensores tridimensionales están ubicados de manera que la unión de los volúmenes locales que rodean dichos sensores es un espacio conectado, formando dicho espacio conectado el volumen controlado, el mapa tridimensional global del volumen controlado se determina mediante
- recibir al menos una nube de puntos locales de cada uno de dichos al menos dos sensores tridimensionales y almacenar dichas nubes de puntos locales en una memoria,
- realizar una alineación simultánea de barridos múltiples de las nubes de puntos locales almacenadas para generar una pluralidad de nubes de puntos locales alineadas, respectivamente, asociadas a las nubes de puntos locales adquiridas de cada uno de dichos al menos dos sensores tridimensionales, y
- fusionar dicha pluralidad de nubes de puntos locales alineadas para determinar un mapa tridimensional global del volumen controlado y almacenar dicho mapa tridimensional global en la memoria;
- el método comprende además mostrar a un usuario una indicación gráfica de la intrusión en un dispositivo de visualización;
- el método comprende además generar una imagen bidimensional del volumen controlado mediante la proyección del mapa tridimensional global del volumen controlado y ordenar al dispositivo de visualización que muestre la indicación gráfica de la intrusión superpuesta sobre dicha imagen bidimensional del volumen controlado;
- el método comprende además ordenar al dispositivo de visualización que muestre la indicación gráfica de la intrusión superpuesta sobre una imagen bidimensional de al menos una parte del volumen controlado adquirido por una cámara del sistema de control autocalibrado;
- el método comprende además orientar la cámara del sistema de control autocalibrado de modo que la intrusión detectada se localice en un campo de visión de la cámara.
Otro objeto de la invención es un método para extender un volumen controlado por un método como se ha detallado anteriormente, en el cual una pluralidad de N sensores tridimensionales controlan, respectivamente, al menos una parte del volumen controlado y se comunican respectivamente con una unidad central de procesamiento, que comprende:
- posicionar un sensor tridimensional N lésimo adicional que se comunica con la unidad central de procesamiento, adquiriendo el sensor tridimensional N lésimo adicional una nube de puntos locales en un sistema de coordenadas local de dicho sensor, comprendiendo dicha nube de puntos locales un conjunto de puntos D de datos tridimensionales las superficies del objeto en un volumen local que rodea dicho sensor y solapando al menos parcialmente el volumen controlado por la pluralidad de N sensores tridimensionales,
- determinar una mapa tridimensional global actualizado del sistema de control autocalibrado mediante
recibir al menos una nube de puntos locales adquirida de cada uno de dichos al menos dos sensores tridimensionales y almacenar dichas nubes de puntos locales en una memoria,
realizar una alineación simultánea de barridos múltiples de las nubes de puntos locales almacenadas para generar una pluralidad de nubes de puntos locales alineadas, respectivamente, asociadas a las nubes de puntos locales adquiridas de cada uno de dichos al menos dos sensores tridimensionales, y
determinar un mapa tridimensional global de un volumen controlado fusionando dicha pluralidad de nubes de puntos locales alineadas.
Otro objeto de la invención es un método para determinar una ubicación tridimensional de una cámara para un sistema de control autocalibrado, en el cual una pluralidad de N sensores tridimensionales controlan, respectivamente, al menos una parte del volumen controlado y se comunican respectivamente con una unidad central de procesamiento,
- proporcionar una cámara que comprende al menos un patrón reflectante de manera que un punto de datos de dicho patrón reflectante adquirido por un sensor tridimensional del sistema de control autocalibrado pueda
asociarse a dicha cámara,
- posicionar la cámara en el volumen controlado, en un campo de visión de al menos un sensor de la pluralidad de N sensores tridimensionales para que dicho sensor adquiera una nube de puntos local que comprenda al menos un punto de datos tridimensional del patrón reflectante de la cámara,
- recibir una nube de puntos local de dicho al menos un sensor tridimensional y calcular una nube de puntos local alineada alineando dicha nube C de puntos locales son el mapa tridimensional global del sistema de control autocalibrado,
- identificar, en la nube de puntos local alineada, al menos un punto de datos correspondiente al patrón reflectante de la cámara, y
- determinar al menos una ubicación tridimensional de la cámara en un sistema de coordenadas global del mapa tridimensional global sobre la base de las coordenadas de dicho punto de datos identificado de la nube de puntos local alineada correspondiente al patrón reflectante de la cámara.
Otro objeto de la invención es un sistema de control autocalibrado para detectar intrusiones en un volumen controlado, comprendiendo el sistema:
- una pluralidad de N sensores tridimensionales respectivamente capaces de controlar al menos una parte del volumen controlado, siendo cada sensor de dicha pluralidad de N sensores tridimensionales capaz de adquirir una nube de puntos local en un sistema de coordenadas local de dicho sensor, comprendiendo dicha nube de puntos local un conjunto de puntos D de datos tridimensionales las superficies del objeto en un volumen local que rodea dicho sensor y que se superpone al volumen controlado
- una memoria para almacenar dicha nube de puntos local y un mapa tridimensional global de un volumen controlado que comprende un conjunto de puntos D de datos tridimensionales las superficies del objeto en un volumen controlado, solapando el volumen local menos parcialmente con el volumen controlado,
- una unidad central de procesamiento capaz de recibir las nubes de puntos locales adquiridas de la pluralidad de N sensores tridimensionales, almacenar dichas nubes de puntos adquiridas en una memoria y,
para cada sensor de dicha pluralidad de N sensores tridimensionales,
calcular la posición y orientación tridimensionales actualizadas de dicho sensor en un sistema de coordenadas global del volumen controlado alineando una nube de puntos local adquirida por dicho sensor tridimensional con un mapa tridimensional global del volumen controlado almacenado en una memoria,
generar una nube de puntos local alineada a partir de dicha nube de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor, y
controlar una intrusión en el volumen controlado comparando un espacio libre de dicha nube de puntos local alineada con un espacio libre del mapa tridimensional global.
En algunas realizaciones, también se podría usar una o más de las siguientes características:
- el sistema comprende además al menos una cámara capaz de adquirir una imagen bidimensional de una parte del volumen controlado;
- dicha al menos una cámara comprende al menos un patrón reflectante de manera que un punto de datos de dicho patrón reflectante adquirido por un sensor tridimensional del sistema de control autocalibrado puede asociarse a dicha cámara mediante la unidad central de procesamiento del sistema;
- el sistema comprende además al menos un dispositivo de visualización capaz de mostrar a un usuario una indicación gráfica de la intrusión.
Otro objeto de la invención es un medio de almacenamiento legible por ordenador no transitorio, que ha almacenado en él un programa informático que comprende instrucciones del programa, pudiéndose cargar el programa informático en una unidad central de procesamiento de un sistema de control como se ha detallado anteriormente y adaptado para hacer que la unidad de procesamiento lleve a cabo las etapas de un método como se ha detallado anteriormente, cuando la unidad central de procesamiento ejecuta el programa informático.
Descripción de las figuras
Otras características y ventajas de la invención aparecerán fácilmente a partir de la siguiente descripción de varias de sus realizaciones, proporcionadas como ejemplos no limitativos, y de los dibujos adjuntos.
En los dibujos:
- La figura 1 es una vista superior esquemática de un sistema de control para detectar intrusiones en un volumen controlado de acuerdo con una realización de la invención,
- la figura 2 es un diagrama de flujo que detalla un método para detectar intrusiones en un volumen controlado de acuerdo con una realización de la invención,
- la figura 3 es un diagrama de flujo que detalla un método para determinar un mapa tridimensional global de un volumen controlado y un método para extender un volumen controlado de acuerdo con las realizaciones de la invención,
- la figura 4 es un diagrama de flujo que detalla un método para determinar una ubicación tridimensional de una cámara para un sistema de control autocalibrado de acuerdo con una realización de la invención.
En las diferentes figuras, los mismos signos de referencia designan elementos iguales o similares.
Descripción detallada de la invención
La figura 1 ilustra un sistema 1 de control autocalibrado para detectar intrusiones en un volumen V controlado, capaz de realizar un método para detectar intrusiones en un volumen controlado como se detalla más adelante.
El sistema 1 de control se puede usar para controlar objetos valiosos (control de una cámara acorazada y otras) y/o para controlar áreas de entrada en edificios públicos, aeropuertos, etc. El sistema 1 de control también se puede usar para controlar áreas de trabajo peligrosas alrededor de un robot o una instalación de fábrica por ejemplo. La invención no está restringida a estas aplicaciones y puede usarse en otros campos.
El volumen V controlado puede estar delimitado, por ejemplo, por un suelo F que se extiende a lo largo de un plano horizontal H y paredes reales o virtuales que se extienden a lo largo de una dirección vertical Z perpendicular a dicho plano horizontal H.
El volumen V controlado puede comprender una o varias zonas de peligro o zonas prohibidas F. Una zona prohibida F puede definirse, por ejemplo, mediante el movimiento de un brazo robótico dentro del volumen V. Los objetos que entran en la zona prohibida F pueden ponerse en riesgo por los movimientos del brazo del robot de modo que una intrusión de este tipo debe, por ejemplo, provocar la desconexión del robot. Una zona prohibida F también puede definirse como una zona privada a la que solo deben acceder personas acreditadas por razones de seguridad. Por lo tanto, una zona prohibida F es un área espacial dentro de la zona de control que puede abarcar la zona de control completa en algunas realizaciones de la invención.
Como se ilustra en la figura 1, el sistema de control 1 comprende una pluralidad de N sensores 2 tridimensionales y una unidad central de procesamiento 3.
En una realización, la unidad central de procesamiento 3 está separada de los sensores 2 y está conectada funcionalmente a cada sensor 2 para poder recibir datos de cada sensor 2. La unidad central de procesamiento 3 puede estar conectada a cada sensor 2 mediante una conexión por cable o inalámbrica.
En una variante, la unidad central de procesamiento 3 puede integrarse en uno de los sensores 2, por ejemplo, siendo un circuito de procesamiento integrado en dicho sensor 2.
La unidad central de procesamiento 3 recoge y procesa las nubes de puntos de todos los sensores 2 y, por lo tanto, es, ventajosamente, una sola unidad centralizada.
La unidad central de procesamiento 3 comprende, por ejemplo, un procesador 4 y una memoria 5.
El número N de sensores 2 tridimensionales del sistema 1 de control puede estar comprendido entre 2 y varias decenas de sensores.
Cada sensor 2 tridimensional puede controlar un volumen L local que rodea dicho sensor 2 que se superpone al volumen v controlado.
Más precisamente, cada sensor 2 tridimensional puede adquirir una nube C de puntos locales en un sistema S de coordenadas local de dicho sensor 2. Una nube C de puntos locales comprende un conjunto de puntos D de datos tridimensionales. Cada uno de los puntos D de datos de la nube C de puntos locales corresponde a un punto P de una superficie de un objeto ubicado en el volumen L local que rodea el sensor 2.
Por un "punto de datos tridimensionales", se entienden las coordenadas tridimensionales de un punto P en el entorno del sensor 2. Un punto D de datos tridimensionales puede comprender además características adicionales, por ejemplo, la intensidad de la señal detectada por el sensor 2 en dicho punto P.
El sistema S local de coordenadas de dicho sensor 2 es un sistema S de coordenadas relacionado con dicho sensor 2, por ejemplo con un punto de origen ubicado en la ubicación del sensor. El sistema S local de coordenadas puede ser un sistema de coordenadas cartesianas, cilíndricas o polares.
Un sensor 2 tridimensional puede comprender, por ejemplo, un telémetro láser, tal como un módulo de detección de luz y rango (LIDAR), un módulo de radar, un módulo de rango ultrasónico, un módulo de sonar, un módulo de rango que utiliza triangulación o cualquier otro dispositivo capaz de adquirir la posición de un único o una pluralidad de puntos P del entorno en un sistema S local de coordenadas del sensor 2.
En una realización preferida, un sensor 2 tridimensional emite una señal física inicial y recibe una señal física reflejada a lo largo de la dirección controlada del sistema local de coordenadas. Las señales físicas emitidas y reflejadas pueden ser, por ejemplo, haces de luz, ondas electromagnéticas u ondas acústicas.
A continuación, el sensor 2 calcula un rango, que corresponde a una distancia desde el sensor 2 hasta un punto P de reflexión de la señal inicial en una superficie de un objeto ubicado en el volumen L local que rodea el sensor 2. Dicho rango puede calcularse comparando la señal inicial y la señal reflejada, por ejemplo comparando el tiempo o las fases de emisión y recepción.
Por tanto, los puntos D de datos tridimensionales pueden calcularse a partir de dicho rango y dicha dirección controlada.
En un ejemplo, el sensor 2 comprende un láser que emite pulsos de luz con una velocidad de tiempo constante, siendo desviados dichos pulsos de luz por un espejo en movimiento que gira a lo largo de dos direcciones. El sensor recoge los pulsos de luz reflejada y la diferencia de tiempo entre los pulsos emitidos y recibidos da la distancia de las superficies reflectantes de los objetos en el entorno local del sensor 2. Un procesador del sensor 2, o una unidad de procesamiento separada, transforma después, usando fórmulas trigonométricas simples, cada observación adquirida por el sensor en un punto D de datos tridimensionales.
Periódicamente se adquiere un escaneo completo del entorno local del sensor 2 y comprende un conjunto de puntos D de datos tridimensionales representativos de los objetos en el volumen local del sensor 2.
Por "escaneo completa del entorno local", se entiende que el sensor 2 ha cubierto un campo de visión completo. Por ejemplo, después de un escaneo completo del entorno local, el espejo móvil de un sensor basado en láser vuelve a su posición original y está listo para comenzar un nuevo período de movimiento de rotación. Por lo tanto, una nube C de puntos locales del sensor 2 también se denomina a veces "fotograma" y es el equivalente tridimensional de un fotograma adquirido por una cámara bidimensional.
Un conjunto de puntos D de datos tridimensionales adquiridos en un escaneo completo del entorno local del sensor 2 se denomina nube C de puntos locales.
El sensor 2 puede adquirir periódicamente nubes C de puntos locales con una velocidad de fotogramas dada.
Las nubes C de puntos locales de cada sensor 2 se transmiten a la unidad central de procesamiento 3 y se almacenan en la memoria 5 de la unidad central de procesamiento 3.
Como se detalla a continuación, la memoria 5 de la unidad central de procesamiento 3 también almacena un mapa M tridimensional global del volumen V controlado.
El mapa M tridimensional global comprende un conjunto de puntos D de datos tridimensionales de las superficies del objeto en el volumen V controlado.
Un método para detectar intrusiones en un volumen controlado que ahora se desvelará con mayor detalle con referencia a la figura 2.
El método para detectar intrusiones es realizado por un sistema 1 de control como se ha detallado anteriormente. En una primera etapa del método, cada sensor 2 de los N sensores tridimensionales adquiere una nube C de puntos locales en un sistema S local de coordenadas de dicho sensor 2 como se ha detallado anteriormente.
La unidad central de procesamiento 3 recibe las nubes C de puntos locales adquiridas de los N sensores 2 y almacena dichas nubes C de puntos adquiridas en la memoria 5.
La memoria 5 puede contener otras nubes C de puntos locales de adquisiciones anteriores de cada sensor 2.
En una tercera etapa, la unidad central de procesamiento 3 realiza varias operaciones para cada sensor 2 de los N sensores tridimensionales.
La unidad central de procesamiento 3 primero calcula la posición y orientación tridimensionales actualizadas de cada sensor 2 en un sistema G global de coordenadas del volumen V controlado alineando al menos una nube C de puntos locales adquirida por dicho sensor 2 con el mapa M tridimensional global del volumen V controlado almacenado en la memoria 5.
Por "posición y orientación tridimensionales", se entiende información de la localización 6D para un sensor 2, que comprende, por ejemplo, la posición 3D y la orientación 3D de dicho sensor 2 en un sistema G de coordenadas global.
El sistema G de coordenadas global es un sistema de coordenadas virtual obtenido mediante la alineación de las nubes C de puntos locales. Es posible que no sea necesario calibrar el sistema G de coordenadas global con respecto al entorno físico real del sistema 1, en particular si no hay una zona prohibida F por definir.
Gracias a estas características del método y sistema de acuerdo con la invención, es posible recalibrar automáticamente la posición de cada sensor 2 en cada fotograma. De este modo, los errores de calibración se reducen considerablemente y aumenta la facilidad de uso del sistema. Esto resuelve el problema de fiabilidad cuando los sensores se mueven en el viento o se mueven debido a choques mecánicos.
La posición y orientación tridimensionales actualizadas de un sensor 2 se calculan solo a partir de las nubes C de puntos locales adquiridas por dicho sensor 2 y del mapa M tridimensional global del volumen controlado almacenado en una memoria, y sin información adicional de posicionamiento.
Por "sin información de posicionamiento adicional", se entiende, en particular, que el cálculo de la posición y orientación tridimensionales actualizadas de un sensor no requiere otros datos de entrada que las nubes C de puntos locales adquiridas por dicho sensor 2 y el mapa M tridimensional global. Por ejemplo, no se requiere una localización adicional del dispositivo de orientación, tal como un GPS o un acelerómetro. Además, no se debe suponer la ubicación o el movimiento del sensor.
Con este objetivo, la unidad central de procesamiento 3 realiza una alineación simultánea de barridos múltiples de cada nube C de puntos adquirida por dicho sensor con el mapa tridimensional global del volumen controlado.
Por "alineación simultánea de múltiples barridos", se entiende que las nubes C de puntos adquiridas por los N sensores, junto con el mapa M tridimensional global del volumen controlado, se consideran barridos que deben alinearse simultáneamente.
En una realización, las nubes C de puntos adquiridas por los N sensores durante el tiempo de funcionamiento se alinean en cada etapa. Por ejemplo, el sistema puede haber realizado M fotogramas de adquisición sucesivos de los sensores 2 hasta un tiempo t actual. Las M nubes C de puntos adquiridas por los N sensores se agrupan así con el mapa M tridimensional global para formar M * N 1 barridos para que la unidad central de procesamiento 3 los alinee.
En una variante, las M-1 nubes C de puntos previamente adquiridas pueden reemplazarse por sus nubes A de puntos alineadas asociadas respectivamente como se detalla más adelante. La (M-1)*N nube A de puntos alineados puede, por lo tanto, agruparse con las N nubes C de puntos adquiridas más recientes y con el mapa M tridimensional global para formar nuevamente M * N 1 barridos para ser alineados juntos por la unidad central de procesamiento 3.
Tal alineación simultánea de múltiples barridos puede realizarse, por ejemplo, utilizando un algoritmo de punto más cercano iterativo (ICP) como se detalla en P.J. Besl y N.D. McKay en "A method for registration of 3-d shapes" published in IEEE Transactions on Pattern Analysis and Machine Intelligence, 14(2):239-256, 1992 o en "Object modelling by registration of multiple range images" de Yang Chen y Gerard Medioni publicado en Image Vision Comput., 10(3), 1992. Un algoritmo ICP implica la búsqueda en el espacio de transformación tratando de encontrar el conjunto de transformaciones de barridos en pares optimizando una función definida en el espacio de transformación. La variante de ICP implica funciones de optimización que van desde métricas de error como "suma de distancias de mínimos cuadrados" hasta métricas de calidad como "distancia de imagen" o métricas probabilísticas. En esta realización, la unidad central de procesamiento 3 puede optimizar de este modo una función definida en un espacio de transformación de cada nube C de puntos para determinar la posición y orientación tridimensionales actualizadas de un sensor 2.
De esta manera, es posible realizar de manera fácil y eficiente una alineación simultánea de múltiples barridos de cada nube C de punto para calcular la posición y orientación tridimensionales actualizadas de un sensor 2.
A continuación, la unidad central de procesamiento 3 genera una nube A de puntos locales alineada asociada a cada nube C de puntos adquirida en la que los puntos D de datos de dicha nube C de punto se traducen desde el sistema S local de coordenadas al sistema G de coordenadas global del mapa M tridimensional global. La nube A de puntos locales alineada se determina sobre la base de la posición y orientación tridimensionales actualizadas del sensor 2.
La nube A de puntos locales alineada de cada sensor 2 se puede comparar de manera fiable, ya que la posición y orientación de cada sensor se han actualizado durante el proceso.
En una etapa posterior del método, la unidad central de procesamiento 3 puede controlar una intrusión en el volumen V controlado.
Con este objetivo, la unidad central de procesamiento 3 puede comparar un espacio libre de cada nube A de puntos locales alineada con un espacio libre del mapa M tridimensional global.
Con este objetivo, el volumen V de control puede dividirse, por ejemplo, en una matriz de volúmenes E elementales y cada volumen E elemental puede marcarse como "espacio libre" o "espacio ocupado" sobre la base del mapa M tridimensional global.
La nube A de puntos locales alineada se puede usar para determinar una alerta actualizada para el volumen E elemental contenido en el volumen L local que rodea un sensor 2.
Un cambio en la señalización de un volumen E elemental de "espacio libre" a "espacio ocupado", por ejemplo, por intrusión de un objeto O como se ilustra en la figura 1, puede activar la detección de una intrusión en el volumen V controlado por el Unidad central de procesamiento 3.
En una realización de la invención, el mapa M tridimensional global del volumen V controlado puede ser determinado por el propio sistema 1 de control de manera automatizada como se describirá a continuación con referencia a la figura 3.
Con este fin, los N sensores tridimensionales pueden ubicarse de modo que la unión de los volúmenes L locales que rodean dichos sensores 2 sea un espacio conectado. Este espacio conectado forma el volumen controlado.
Por "espacio conectado", se entiende que la unión de los volúmenes L locales que rodean los N sensores 2 forman un espacio único y no dos o más subespacios abiertos no vacíos disjuntos.
A continuación, se puede determinar un mapa M tridimensional global del volumen V controlado recibiendo primero al menos una nube C de puntos locales de cada uno de dichos sensores y almacenando dichas nubes C de puntos locales en la memoria 5 del sistema.
A continuación, la unidad central de procesamiento 5 realiza una alineación simultánea de barridos múltiples de las nubes C de puntos locales almacenadas para generar una pluralidad de nubes A de puntos locales alineadas como se ha detallado anteriormente. Cada nube A de puntos locales alineada está asociada, respectivamente, a una nube C de puntos locales adquirida de un sensor 2 tridimensional.
A diferencia de lo que se ha detallado anteriormente, los fotogramas utilizados para la alineación simultánea de múltiples barridos no comprenden el mapa M tridimensional global ya que aún no se ha determinado. Los fotogramas utilizados para la alineación simultánea de barridos múltiples pueden comprender una pluralidad de M nubes C de puntos adquiridas sucesivamente para cada sensor 2. Las M nubes C de puntos adquiridas por los N sensores se agrupan así para formar M * N 1 barridos para que la unidad central de procesamiento 3 los alinee como se ha detallado anteriormente.
Al alinear las nubes C de puntos locales almacenadas, se obtiene un sistema G de coordenadas global en el que las nubes A de puntos locales alineadas se pueden comparar juntas.
Una vez que se ha determinado la pluralidad de nubes A de puntos locales alineadas, la unidad central de procesamiento 5 puede fusionar de este modo la pluralidad de nubes A de puntos locales alineadas para formar un mapa M tridimensional global del volumen controlado V. El mapa M tridimensional global se almacena después en la memoria 5 del sistema 1.
En una realización de la invención, una vez que el sistema 1 ha detectado una intrusión, el método puede implicar además mostrar a un usuario una indicación gráfica I de la intrusión en un dispositivo 6 de visualización.
El dispositivo 6 de visualización puede ser cualquier pantalla, LCD, OLED y similares, que sea conveniente para un operador del sistema 1. El dispositivo 6 de visualización está conectado y controlado por la unidad central de procesamiento 3 del sistema 1.
En una primera realización del método, la unidad de procesamiento 3 puede generar una imagen bidimensional B del volumen V controlado proyectando el mapa M tridimensional global del volumen V controlado a lo largo de una dirección de observación.
A continuación, la unidad de procesamiento 3 puede ordenar al dispositivo 6 de visualización que muestre la indicación I gráfica de la intrusión superpuesta sobre dicha imagen B bidimensional del volumen V controlado.
En otra realización, el sistema 1 puede comprender además al menos una cámara 7. La cámara 7 puede ser capaz de adquirir directamente una imagen B bidimensional de una parte del volumen V controlado. La cámara 7 está conectada y controlada por la unidad central de procesamiento 3 del sistema 1.
A continuación, la unidad central de procesamiento 3 puede ordenar al dispositivo 6 de visualización que muestre la indicación I gráfica de la intrusión superpuesta sobre la imagen B bidimensional adquirida por la cámara 7.
En una variante, la unidad central de procesamiento 3 puede controlar la panorámica, la rotación o el zoom de la cámara 7 para que la intrusión detectada pueda ubicarse en un campo de visión de la cámara 7.
Con este objetivo, otro objeto de la invención es un método para determinar una ubicación tridimensional de una cámara 7 de un sistema 1 de control autocalibrado como se ha descrito anteriormente. Este método permite una fácil calibración sin requerir una medición manual y la entrada de la posición de la cámara 7 en el volumen V de control. Una realización de este método se ilustra en la figura 4.
La cámara 7 está provista de al menos un patrón 8 reflectante. El patrón 8 reflectante es tal que un punto de datos de dicho patrón reflectante adquirido por un sensor 2 tridimensional del sistema 1 de control autocalibrado puede asociarse a dicha cámara mediante la unidad central de procesamiento 3 del sistema 1.
El patrón 8 reflectante puede estar hecho de un material de alta reflectividad de modo que los puntos D de datos Del patrón 8 reflectante adquiridos por el sensor 2 presenten una alta intensidad, por ejemplo, una intensidad por encima de una intensidad umbral predefinida.
El patrón 8 reflectante también puede tener una forma predefinida, por ejemplo, la forma de una cruz o un círculo o marcadores en "L". Tal forma puede ser identificada por la unidad central de procesamiento 3 utilizando algoritmos de análisis de datos e imágenes conocidos HABITUALMENTE.
En una primera etapa del método para determinar una ubicación tridimensional de una cámara 7, la cámara se coloca en el volumen V controlado. La cámara 7 está dispuesta en al menos un volumen L local que rodea un sensor 2 del sistema 1, de modo que el patrón 8 reflectante de la cámara 7 está en un campo de visión de al menos un sensor 2 de la pluralidad de N sensores tridimensionales. Dicho al menos un sensor 2 puede así adquirir una nube C de puntos locales que comprende al menos un punto D de datos tridimensionales correspondiente al patrón 8 reflectante de la cámara 7.
A continuación, la unidad central de procesamiento 3 recibe una nube C de puntos locales de dicho al menos un sensor tridimensional y calcula una nube A de puntos locales alineada alineando dicha nube C de puntos locales con el mapa M tridimensional global del sistema de control autocalibrado como se ha detallado anteriormente.
En la nube A de puntos locales alineada, la unidad central de procesamiento 3 puede identificar después al menos un punto de datos correspondiente al patrón 8 reflectante de la cámara 7. Como se ha mencionado anteriormente, esta identificación puede realizarse sobre la base de la intensidad de los puntos D de datos recibidos del sensor 2 y/o la forma de los puntos de datos de alta intensidad adquiridos por el sensor 2. Esta identificación puede realizarse utilizando algoritmos de procesamiento de datos e imágenes conocidos, por ejemplo, la biblioteca OpenCV.
Eventualmente, la unidad central de procesamiento 3 puede determinar una ubicación y/u orientación tridimensionales de la cámara en el sistema G de coordenadas global del mapa M tridimensional global sobre la base de las coordenadas de dicho punto de datos identificado del patrón 8 reflectante de la cámara 7 en la nube A de puntos locales alineada.
El concepto subyacente de la invención también se puede usar para extender de manera fácil y eficiente un volumen controlado por un sistema y un método como se ha detallado anteriormente.
Tal método puede encontrar interés en muchas situaciones en las que un ligero cambio en el volumen controlado implica mover o agregar sensores 2 adicionales y generalmente requiere una calibración manual compleja y lenta del sistema de control. Por el contrario, la presente invención proporciona un sistema y método de autocalibración que supera esos problemas.
Por lo tanto, otro objeto de la invención es un método para extender un volumen controlado por un método y sistema como se ha detallado anteriormente.
En el sistema 1 de control, una pluralidad de N sensores 2 tridimensionales controlan, respectivamente, al menos una parte del volumen V controlado y se comunican respectivamente con una unidad central de procesamiento 3 como se ha detallado anteriormente. Un mapa M tridimensional global está asociado al volumen V controlado por los N sensores 2 tridimensionales como se ha detallado anteriormente.
El método para extender el volumen controlado por el sistema 1 implica así determinar un mapa M' tridimensional global actualizado del sistema de control autocalibrado asociado a un volumen V' actualizado controlado por los N 1 sensores 2 tridimensionales.
El método para extender el volumen controlado por el sistema 1 implica primero colocar un N+lésimo sensor 2 tridimensional adicional capaz de comunicarse con la unidad central de procesamiento 3.
El N+lésimo sensor 2 tridimensional adicional es similar a los N sensores 2 del sistema 1 de control y, por lo tanto,
puede adquirir una nube C de puntos locales en un sistema L local de coordenadas de dicho sensor 2. Esta nube C de puntos locales comprende un conjunto de puntos D de datos tridimensionales de las superficies del objeto en un volumen L local que rodea dicho sensor 2. El volumen L local se superpone al menos parcialmente al volumen V controlado por la pluralidad de N sensores tridimensionales.
El mapa M tridimensional global actualizado del sistema de control autocalibrado se puede determinar de la siguiente manera.
En primer lugar, la unidad central de procesamiento 3 recibe al menos una nube C de puntos locales adquirida de cada uno de dichos al menos dos sensores tridimensionales y almacenar dichas nubes de puntos locales en una memoria.
A continuación, la unidad central de procesamiento 3 realiza una alineación simultánea de barridos múltiples de las nubes C de puntos locales almacenadas para generar una pluralidad de nubes A de puntos locales alineadas, respectivamente, asociadas a las nubes C de puntos locales adquiridas de cada sensor 2 como se ha detallado anteriormente.
La alineación de barridos múltiples se puede calcular en un grupo de barridos que comprende el mapa M tridimensional global.
Esto es particularmente interesante si la unión de los volúmenes L locales que rodean los sensores 2 tridimensionales no es un espacio conectado.
La alineación de barridos múltiples también se puede calcular solo en las nubes C de puntos adquiridas por los sensores 2.
En este caso, la determinación del mapa M tridimensional global actualizado M es similar al cálculo del mapa M tridimensional global del volumen V controlado por el sistema 1 de control como se ha detallado anteriormente. Una vez que se ha determinado la pluralidad de nubes A de puntos locales alineadas, la unidad central de procesamiento 5 puede fusionar la pluralidad de nubes A de puntos locales alineadas y, si es necesario, el mapa M tridimensional global, para formar un mapa M' tridimensional global actualizado del volumen V' controlado actualizado. El mapa M' tridimensional global actualizado se almacena después en la memoria 5 del sistema 1 para uso futuro en un método para detectar intrusiones en un volumen controlado como se ha detallado anteriormente.
Claims (14)
1. Un método para detectar intrusiones en un volumen controlado, en el cual una pluralidad de N sensores (2) tridimensionales controlan, respectivamente, al menos una parte de un volumen (V) controlado y se comunican, respectivamente, con una unidad central de procesamiento (3), que comprende:
- cada sensor (2) de dicha pluralidad de N sensores tridimensionales adquiere una nube (C) de puntos locales en un sistema (S) local de coordenadas de dicho sensor, comprendiendo dicha nube de puntos locales un conjunto de puntos (D) de datos tridimensionales de las superficies del objeto en un volumen (L) local que rodea dicho sensor (2) y que se superpone al volumen (V) controlado,
- dicha unidad central de procesamiento (3) recibe las nubes (C) de puntos locales adquiridas de la pluralidad de N sensores (2) tridimensionales, almacenando dichas nubes (C) de puntos adquiridas en una memoria (5) y, para cada sensor (2) de dicha pluralidad de N sensores (2) tridimensionales,
calcular la posición y orientación tridimensionales actualizadas de dicho sensor (2) en un sistema (G) de coordenadas global del volumen controlado alineando una nube (C) de puntos locales adquirida por dicho sensor tridimensional con un mapa (M) tridimensional global del volumen (V) controlado, que se determina de manera automatizada y se almacena en una memoria (5), y
generar una nube (A) de puntos local alineada en el sistema (G) de coordenadas global a partir de dicha nube (C) de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor (2), - controlar una intrusión en el volumen (V) controlado comparando un espacio libre de dicha nube (A) de puntos locales alineada con un espacio libre del mapa (M) tridimensional global.
2. El método de acuerdo con la reivindicación 1, en el que, para cada sensor (2) de dichos al menos dos sensores tridimensionales, la posición y orientación tridimensionales actualizadas de dicho sensor en el sistema (G) de coordenadas global se calcula realizando una alineación simultánea de múltiples barridos de cada nube (C) de puntos adquirida por dicho sensor (2) con el mapa (M) tridimensional global del volumen (V) controlado.
3. El método de acuerdo con la reivindicación 1 o 2, en el que la posición y orientación tridimensionales actualizadas de cada sensor (2) de dichos al menos dos sensores se calcula solo a partir de las nubes (C) de puntos locales adquiridas por dicho sensor tridimensional y el mapa ( M) tridimensional global del volumen (V) controlado almacenado en una memoria (5) y sin información adicional de posicionamiento.
4. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 3, en el que los N sensores (2) tridimensionales están ubicados de manera que la unión de los volúmenes (L) locales que rodean dichos sensores es un espacio conectado, formando dicho espacio conectado formando el volumen (V) controlado,
y en el que el mapa (M) tridimensional global del volumen (V) controlado está determinado por
- recibir al menos una nube (C) de puntos locales de cada uno de dichos al menos dos sensores (2) tridimensionales y almacenar dichas nubes (C) de puntos locales en una memoria (5),
- realizar una alineación simultánea de barridos múltiples de las nubes (C) de puntos locales almacenadas para generar una pluralidad de nubes (A) de puntos locales alineadas asociadas, respectivamente, a las nubes de puntos locales adquiridas de cada uno de dichos al menos dos sensores tridimensionales, y
- fusionar dicha pluralidad de nubes (A) de puntos locales alineadas para determinar un mapa (M) tridimensional global del volumen (V) controlado y almacenar dicho mapa tridimensional global en la memoria (5).
5. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 4, que comprende además mostrar a un usuario una indicación gráfica de la intrusión en un dispositivo (6) de visualización.
6. El método de acuerdo con la reivindicación 5, que comprende además generar una imagen bidimensional del volumen (V) controlado mediante la proyección del mapa (M) tridimensional global del volumen (V) controlado y ordenar al dispositivo (6) de visualización que muestre la indicación gráfica de la intrusión superpuesta sobre dicha imagen bidimensional del volumen (V) controlado.
7. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 6, que comprende además ordenar al dispositivo (6) de visualización que muestre la indicación gráfica de la intrusión superpuesta sobre una imagen bidimensional de al menos una parte del volumen controlado adquirido por una cámara (7) del sistema (1) de control autocalibrado.
8. El método de acuerdo con la reivindicación 7, que comprende además orientar la cámara (7) del sistema (1) de control autocalibrado para que la intrusión detectada se ubique en un campo de visión de la cámara (7).
9. Un método para extender un volumen controlado por un método de acuerdo con una cualquiera de las reivindicaciones 1 a 8, en el que una pluralidad de N sensores (2) tridimensionales controlan, respectivamente, al menos una parte del volumen (V) controlado y se comunican, respectivamente, con un procesamiento central unidad (5), que comprende:
- colocar un sensor tridimensional N lésimo adicional (2) que se comunica con la unidad central de procesamiento (3), adquiriendo el sensor tridimensional N lésimo adicional una nube (C) de puntos locales en un sistema (S) local de coordenadas de dicho sensor, comprendiendo dicha nube (C) de puntos locales un conjunto de puntos (D) de datos tridimensionales de superficies de objetos en un volumen (L) local que rodea dicho sensor y que se solapa al menos parcialmente con el volumen controlado por la pluralidad de N sensores tridimensionales,
- determinar un mapa (M) tridimensional global actualizado del sistema de control autocalibrado mediante
recibir al menos una nube de puntos locales adquirida de cada uno de dichos al menos dos sensores tridimensionales y almacenar dichas nubes de puntos locales en una memoria,
realizar una alineación simultánea de barridos múltiples de las nubes de puntos locales almacenadas (C) para generar una pluralidad de nubes de puntos locales alineadas, respectivamente, asociadas a las nubes de puntos locales adquiridas de cada uno de dichos al menos dos sensores tridimensionales, y
determinar un mapa (M) tridimensional global de un volumen controlado fusionando dicha pluralidad de nubes de puntos locales alineadas.
10. Un sistema (1) de control autocalibrado para detectar intrusiones en un volumen (V) controlado, comprendiendo el sistema:
- una pluralidad de N sensores (2) tridimensionales, respectivamente, capaces de controlar (M) al menos una parte del volumen controlado, pudiendo cada sensor de dicha pluralidad de N sensores (2) tridimensionales adquirir una nube (C) de puntos locales en un sistema (S) local de coordenadas de dicho sensor, comprendiendo dicha nube de puntos locales un conjunto de puntos (D) de datos tridimensionales de superficies de objetos en un volumen (L) local que rodea dicho sensor y se superpone al volumen controlado
- una memoria (5) para almacenar dicha nube (C) de puntos local y un mapa (M) tridimensional global de un volumen controlado que comprende un conjunto de puntos D de datos tridimensionales se las superficies del objeto en un volumen (V) controlado, solapando el volumen local menos parcialmente con el volumen controlado, - una unidad central de procesamiento (3) capaz de recibir las nubes de puntos locales adquiridas de la pluralidad de N sensores (2) tridimensionales, almacenar dichas nubes de puntos adquiridas en una memoria y,
para cada sensor (2) de dicha pluralidad de N sensores tridimensionales,
calcular la posición y orientación tridimensionales actualizadas de dicho sensor (2) en un sistema (G) de coordenadas global del volumen (V) controlado alineando una nube (C) de puntos locales adquirida por dicho sensor tridimensional con un mapa (M) tridimensional global del volumen controlado, que se determina mediante el sistema (1) de control y se almacena en una memoria,
generar una nube (A) de puntos local alineada en el sistema (G) de coordenadas global a partir de dicha nube de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor (2), y controlar una intrusión en el volumen (V) controlado comparando un espacio libre de dicha nube (A) de puntos locales alineada con un espacio libre del mapa (M) tridimensional global.
11. El sistema de control de acuerdo con la reivindicación 10, que comprende además al menos una cámara (7) capaz de adquirir una imagen bidimensional de una parte del volumen (V) controlado.
12. El sistema de control de acuerdo con la reivindicación 11, en el que dicha al menos una cámara (7) comprende al menos un patrón (8) reflectante de tal manera que un punto de datos de dicho patrón (8) reflectante adquirido por un sensor (2) tridimensional del sistema (1) de control autocalibrado puede ser asociado por el sistema (1) de control autocalibrado a dicha cámara (7).
13. El sistema de control de acuerdo con una cualquiera de las reivindicaciones 10 a 12, que comprende además al menos un dispositivo (6) de visualización capaz de mostrar a un usuario una indicación gráfica de la intrusión.
14. Un medio de almacenamiento legible por ordenador no transitorio, que ha almacenado en él un programa informático que comprende instrucciones del programa, pudiéndose cargar el programa informático en una unidad central de procesamiento (3) de un sistema de control de acuerdo con una cualquiera de las reivindicaciones 10 a 13 y adaptado para hacer que la unidad de procesamiento (3) lleve a cabo las etapas de un método de acuerdo con una cualquiera de las reivindicaciones 1 a 9, cuando la unidad central de procesamiento ejecuta el programa informático.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP16175808.1A EP3261071B1 (en) | 2016-06-22 | 2016-06-22 | Methods and systems for detecting intrusions in a monitored volume |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2800725T3 true ES2800725T3 (es) | 2021-01-04 |
Family
ID=56148318
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES16175808T Active ES2800725T3 (es) | 2016-06-22 | 2016-06-22 | Métodos y sistemas para detectar intrusiones en un volumen controlado |
Country Status (5)
| Country | Link |
|---|---|
| US (2) | US10878689B2 (es) |
| EP (2) | EP3657455B1 (es) |
| CN (1) | CN109362237B (es) |
| ES (1) | ES2800725T3 (es) |
| WO (1) | WO2017220714A1 (es) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109949347B (zh) * | 2019-03-15 | 2021-09-17 | 百度在线网络技术(北京)有限公司 | 人体跟踪方法、装置、系统、电子设备和存储介质 |
| CN111724558B (zh) * | 2019-03-21 | 2021-10-19 | 杭州海康威视数字技术股份有限公司 | 一种监控方法、装置及入侵报警系统 |
| US10943456B1 (en) * | 2019-09-30 | 2021-03-09 | International Business Machines Corporation | Virtual safety guardian |
| CN110927731B (zh) * | 2019-11-15 | 2021-12-17 | 深圳市镭神智能系统有限公司 | 一种立体防护方法、三维检测装置和计算机可读存储介质 |
| US11327506B2 (en) * | 2019-11-20 | 2022-05-10 | GM Global Technology Operations LLC | Method and system for localized travel lane perception |
| US11216669B1 (en) * | 2020-01-16 | 2022-01-04 | Outsight SA | Single frame motion detection and three-dimensional imaging using free space information |
| US12200405B2 (en) | 2020-01-30 | 2025-01-14 | Outsight | Surveillance sensor system |
| CN111553844B (zh) | 2020-04-29 | 2023-08-29 | 阿波罗智能技术(北京)有限公司 | 用于更新点云的方法及装置 |
| CN112732313B (zh) * | 2020-12-21 | 2021-12-21 | 南方电网电力科技股份有限公司 | 一种变电站巡检机器人地图增量更新方法及系统 |
| EP4485115A1 (en) * | 2023-06-30 | 2025-01-01 | Sandvik Mining and Construction Oy | Monitoring a volume of an underground work site |
| CN117274912B (zh) * | 2023-10-17 | 2025-06-24 | 广东电网有限责任公司 | 一种电力作业安全预警方法和系统 |
Family Cites Families (68)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5517429A (en) * | 1992-05-08 | 1996-05-14 | Harrison; Dana C. | Intelligent area monitoring system |
| IL106617A (en) * | 1993-08-08 | 1995-06-29 | Israel State | Intrusion detector |
| US5910767A (en) * | 1997-07-11 | 1999-06-08 | Laser Guard | Intruder detector system |
| US6560354B1 (en) * | 1999-02-16 | 2003-05-06 | University Of Rochester | Apparatus and method for registration of images to physical space using a weighted combination of points and surfaces |
| US7208720B2 (en) * | 1999-07-06 | 2007-04-24 | Larry C. Hardin | Intrusion detection system |
| US7995096B1 (en) * | 1999-09-23 | 2011-08-09 | The Boeing Company | Visual security operations system |
| JP4118674B2 (ja) * | 2000-09-06 | 2008-07-16 | 株式会社日立製作所 | 異常行動検出装置 |
| CN1554193A (zh) * | 2001-07-25 | 2004-12-08 | �����J��ʷ����ɭ | 摄像机控制装置及方法 |
| JP2003187342A (ja) * | 2001-12-19 | 2003-07-04 | Hitachi Ltd | セキュリティシステム |
| JP3704706B2 (ja) * | 2002-03-13 | 2005-10-12 | オムロン株式会社 | 三次元監視装置 |
| JP4006577B2 (ja) | 2002-03-13 | 2007-11-14 | オムロン株式会社 | 監視装置 |
| AU2003242974A1 (en) * | 2002-07-15 | 2004-02-02 | Magna B.S.P. Ltd. | Method and apparatus for implementing multipurpose monitoring system |
| US7317456B1 (en) * | 2002-12-02 | 2008-01-08 | Ngrain (Canada) Corporation | Method and apparatus for transforming point cloud data to volumetric data |
| JP4568009B2 (ja) * | 2003-04-22 | 2010-10-27 | パナソニック株式会社 | カメラ連携による監視装置 |
| JP4609125B2 (ja) | 2004-05-06 | 2011-01-12 | 日本電気株式会社 | データ転送システムおよびその方法 |
| DE102004043515A1 (de) | 2004-09-08 | 2006-03-09 | Sick Ag | Verfahren und Vorrichtung zum Erfassen eines Objekts |
| US8471910B2 (en) * | 2005-08-11 | 2013-06-25 | Sightlogix, Inc. | Methods and apparatus for providing fault tolerance in a surveillance system |
| US8284254B2 (en) * | 2005-08-11 | 2012-10-09 | Sightlogix, Inc. | Methods and apparatus for a wide area coordinated surveillance system |
| DE102005063217C5 (de) | 2005-12-22 | 2022-08-18 | Pilz Gmbh & Co. Kg | Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung |
| US7940955B2 (en) * | 2006-07-26 | 2011-05-10 | Delphi Technologies, Inc. | Vision-based method of determining cargo status by boundary detection |
| US8619140B2 (en) | 2007-07-30 | 2013-12-31 | International Business Machines Corporation | Automatic adjustment of area monitoring based on camera motion |
| US8002465B2 (en) * | 2007-11-19 | 2011-08-23 | Pyronia Medical Technologies, Inc. | Patient positioning system and methods for diagnostic radiology and radiotherapy |
| US20090153326A1 (en) * | 2007-12-13 | 2009-06-18 | Lucent Technologies, Inc. | Method for locating intruder |
| CN101350125A (zh) * | 2008-03-05 | 2009-01-21 | 中科院嘉兴中心微系统所分中心 | 三维智能防入侵系统 |
| CN101236688B (zh) * | 2008-03-05 | 2011-08-24 | 中国科学院嘉兴无线传感网工程中心 | 基于传感器网络技术的防入侵传感器系统测试平台 |
| US8390684B2 (en) * | 2008-03-28 | 2013-03-05 | On-Net Surveillance Systems, Inc. | Method and system for video collection and analysis thereof |
| US8086876B2 (en) * | 2008-07-02 | 2011-12-27 | Dell Products L.P. | Static and dynamic power management for a memory subsystem |
| US8294881B2 (en) * | 2008-08-26 | 2012-10-23 | Honeywell International Inc. | Security system using LADAR-based sensors |
| US7961137B2 (en) * | 2008-11-10 | 2011-06-14 | The Boeing Company | System and method for detecting performance of a sensor field at all points within a geographic area of regard |
| CN102378919B (zh) * | 2009-02-20 | 2015-01-28 | 数字信号公司 | 用于利用激光雷达和视频测量结果生成三维图像的系统与方法 |
| US9536348B2 (en) * | 2009-06-18 | 2017-01-03 | Honeywell International Inc. | System and method for displaying video surveillance fields of view limitations |
| JP5643552B2 (ja) * | 2010-06-28 | 2014-12-17 | キヤノン株式会社 | 撮像装置 |
| CN103069796B (zh) * | 2010-08-17 | 2016-05-11 | Lg电子株式会社 | 用于计数目标的方法和使用多个传感器的装置 |
| ES2392229B1 (es) * | 2010-08-27 | 2013-10-16 | Telefónica, S.A. | Método de generación de un modelo de un objeto plano a partir de vistas del objeto. |
| US8890936B2 (en) * | 2010-10-12 | 2014-11-18 | Texas Instruments Incorporated | Utilizing depth information to create 3D tripwires in video |
| US8829417B2 (en) * | 2010-11-08 | 2014-09-09 | The Johns Hopkins University | Lidar system and method for detecting an object via an optical phased array |
| JP5883881B2 (ja) * | 2010-11-17 | 2016-03-15 | オムロン サイエンティフィック テクノロジーズ, インコーポレイテッドOmron Scientific Technologies, Inc. | ゾーンを監視する方法及び装置 |
| EP2772676B1 (de) * | 2011-05-18 | 2015-07-08 | Sick Ag | 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs |
| KR101302803B1 (ko) * | 2011-05-26 | 2013-09-02 | 주식회사 엘지씨엔에스 | 네트워크 카메라를 이용한 지능형 감시 방법 및 시스템 |
| EP2754129A4 (en) * | 2011-09-07 | 2015-05-06 | Commw Scient Ind Res Org | SYSTEM AND METHOD FOR IMPRINTING THREE-DIMENSIONAL SURFACES |
| DE102012212613A1 (de) * | 2012-07-18 | 2014-01-23 | Robert Bosch Gmbh | Überwachungssystem mit positionsabhängigem Schutzbereich, Verfahren zur Überwachung eines Überwachungsbereichs sowie Computerprogramm |
| WO2014039050A1 (en) * | 2012-09-07 | 2014-03-13 | Siemens Aktiengesellschaft | Methods and apparatus for establishing exit/entry criteria for a secure location |
| EP2896025A1 (en) * | 2012-09-13 | 2015-07-22 | MBDA UK Limited | Room occupancy sensing apparatus and method |
| US20140104413A1 (en) * | 2012-10-16 | 2014-04-17 | Hand Held Products, Inc. | Integrated dimensioning and weighing system |
| WO2014080330A2 (en) * | 2012-11-22 | 2014-05-30 | Geosim Systems Ltd. | Point-cloud fusion |
| US9182812B2 (en) * | 2013-01-08 | 2015-11-10 | Ayotle | Virtual sensor systems and methods |
| US9080856B2 (en) * | 2013-03-13 | 2015-07-14 | Intermec Ip Corp. | Systems and methods for enhancing dimensioning, for example volume dimensioning |
| US10228452B2 (en) * | 2013-06-07 | 2019-03-12 | Hand Held Products, Inc. | Method of error correction for 3D imaging device |
| US20150062123A1 (en) * | 2013-08-30 | 2015-03-05 | Ngrain (Canada) Corporation | Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model |
| US9652852B2 (en) * | 2013-09-24 | 2017-05-16 | Faro Technologies, Inc. | Automated generation of a three-dimensional scanner video |
| CN104574722A (zh) * | 2013-10-12 | 2015-04-29 | 北京航天长峰科技工业集团有限公司 | 一种基于多传感器的海港安全控制系统 |
| US9412040B2 (en) * | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
| CN106463032B (zh) * | 2014-03-03 | 2019-05-31 | Vsk电子有限公司 | 利用方向感应的入侵检测方法及系统 |
| US9641830B2 (en) * | 2014-04-08 | 2017-05-02 | Lucasfilm Entertainment Company Ltd. | Automated camera calibration methods and systems |
| US9823059B2 (en) * | 2014-08-06 | 2017-11-21 | Hand Held Products, Inc. | Dimensioning system with guided alignment |
| WO2016116946A2 (en) * | 2015-01-20 | 2016-07-28 | Indian Institute Of Technology, Bombay | A system and method for obtaining 3-dimensional images using conventional 2-dimensional x-ray images |
| US10142538B2 (en) * | 2015-02-24 | 2018-11-27 | Redrock Microsystems, Llc | LIDAR assisted focusing device |
| US10436904B2 (en) * | 2015-04-15 | 2019-10-08 | The Boeing Company | Systems and methods for modular LADAR scanning |
| US10066982B2 (en) * | 2015-06-16 | 2018-09-04 | Hand Held Products, Inc. | Calibrating a volume dimensioner |
| CN104935893B (zh) * | 2015-06-17 | 2019-02-22 | 浙江大华技术股份有限公司 | 监视方法和装置 |
| US9857167B2 (en) * | 2015-06-23 | 2018-01-02 | Hand Held Products, Inc. | Dual-projector three-dimensional scanner |
| US10795000B2 (en) * | 2015-07-10 | 2020-10-06 | The Boeing Company | Laser distance and ranging (LADAR) apparatus, array, and method of assembling thereof |
| US10249030B2 (en) * | 2015-10-30 | 2019-04-02 | Hand Held Products, Inc. | Image transformation for indicia reading |
| US9855661B2 (en) * | 2016-03-29 | 2018-01-02 | The Boeing Company | Collision prevention in robotic manufacturing environments |
| US9824559B2 (en) * | 2016-04-07 | 2017-11-21 | Tyco Fire & Security Gmbh | Security sensing method and apparatus |
| US10718613B2 (en) * | 2016-04-19 | 2020-07-21 | Massachusetts Institute Of Technology | Ground-based system for geolocation of perpetrators of aircraft laser strikes |
| US11379688B2 (en) * | 2017-03-16 | 2022-07-05 | Packsize Llc | Systems and methods for keypoint detection with convolutional neural networks |
| US10789506B2 (en) * | 2018-09-24 | 2020-09-29 | Rockwell Automation Technologies, Inc. | Object intrusion detection system and method |
-
2016
- 2016-06-22 ES ES16175808T patent/ES2800725T3/es active Active
- 2016-06-22 EP EP20150141.8A patent/EP3657455B1/en active Active
- 2016-06-22 EP EP16175808.1A patent/EP3261071B1/en active Active
-
2017
- 2017-06-22 US US16/303,440 patent/US10878689B2/en active Active
- 2017-06-22 CN CN201780038046.4A patent/CN109362237B/zh active Active
- 2017-06-22 WO PCT/EP2017/065359 patent/WO2017220714A1/en not_active Ceased
-
2020
- 2020-12-29 US US17/136,529 patent/US11335182B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US10878689B2 (en) | 2020-12-29 |
| CN109362237A (zh) | 2019-02-19 |
| EP3657455B1 (en) | 2024-04-24 |
| CA3024504A1 (en) | 2017-12-28 |
| US20200175844A1 (en) | 2020-06-04 |
| US11335182B2 (en) | 2022-05-17 |
| US20210125487A1 (en) | 2021-04-29 |
| WO2017220714A1 (en) | 2017-12-28 |
| EP3261071B1 (en) | 2020-04-01 |
| EP3657455A1 (en) | 2020-05-27 |
| CN109362237B (zh) | 2021-06-25 |
| EP3261071A1 (en) | 2017-12-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2800725T3 (es) | Métodos y sistemas para detectar intrusiones en un volumen controlado | |
| US9562971B2 (en) | Point-cloud fusion | |
| EP3062066B1 (en) | Determination of object data by template-based UAV control | |
| US8699005B2 (en) | Indoor surveying apparatus | |
| US9188430B2 (en) | Compensation of a structured light scanner that is tracked in six degrees-of-freedom | |
| WO2019196478A1 (zh) | 机器人定位 | |
| US20170052017A1 (en) | Registering of a scene disintegrating into clusters with position tracking | |
| US11145116B2 (en) | System and method of scanning an environment and generating two dimensional images of the environment | |
| JP6333396B2 (ja) | モバイルプラットフォームの変位を計測する方法及び装置 | |
| RU2652535C2 (ru) | Способ и система измерения расстояния до удаленных объектов | |
| EP4181063A1 (en) | Markerless registration of image data and laser scan data | |
| JP2017096813A (ja) | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
| Piniotis et al. | Experimental assessment of 3D narrow space mapping technologies | |
| ES2918126T3 (es) | Medidor de sondeo portátil y método | |
| EP4258023A1 (en) | Capturing three-dimensional representation of surroundings using mobile device | |
| US20240210563A1 (en) | Scanning project planning | |
| US12254642B2 (en) | Automatic registration of multiple measurement devices | |
| ES2742831T3 (es) | Aparato y método para determinar elementos de referencia de un entorno | |
| CA3024504C (en) | Methods and systems for detecting intrusions in a monitored volume | |
| Pfeifer et al. | The Riegl laser scanner for the survey of the interiors of Schönbrunn Palace | |
| RU2838123C1 (ru) | Способ определения собственных координат по трем визирным светоизлучающим маркерам | |
| Crosilla et al. | Basics of Terrestrial Laser Scanning | |
| Jia | A Model-based, Optimal Design System for Terrestrial Laser Scanning Networks in Complex Sites | |
| Do et al. | Design and performance of a wearable geospatial data acquisition system |