ES2667096T3 - Monitorización - Google Patents

Monitorización Download PDF

Info

Publication number
ES2667096T3
ES2667096T3 ES15175986.7T ES15175986T ES2667096T3 ES 2667096 T3 ES2667096 T3 ES 2667096T3 ES 15175986 T ES15175986 T ES 15175986T ES 2667096 T3 ES2667096 T3 ES 2667096T3
Authority
ES
Spain
Prior art keywords
space
computer
monitored
implemented
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15175986.7T
Other languages
English (en)
Inventor
Francesco Cricri
Jukka Saarinen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Application granted granted Critical
Publication of ES2667096T3 publication Critical patent/ES2667096T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Astronomy & Astrophysics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Un método que comprende: colocar uno o más drones en un espacio del escenario monitorizado para definir, al menos parcialmente, la forma y la posición de un límite virtual implementado por ordenador en un espacio de monitorización correspondiente; causar la implementación del límite virtual implementado por ordenador en el espacio de monitorización correspondiente al espacio del escenario monitorizado, y procesar los datos recibidos desde los sensores del espacio del escenario monitorizado para generar un episodio de respuesta, que responde a un cambio en al menos una parte del espacio del escenario monitorizado con respecto al límite virtual implementado por ordenador en el espacio de monitorización correspondiente.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Monitorización Campo tecnológico
Las realizaciones de la presente invención se refieren a la monitorización de un escenario. En concreto, se refieren a la monitorización automatizada de un escenario.
Antecedentes
Los sistemas de monitorización actuales, tales como sistemas de vigilancia, pueden comprender una o más cámaras para grabar en vídeo, con o sin grabación de audio, conectadas a través de cables o de manera inalámbrica a un concentrador que almacena o permite almacenar los datos grabados del escenario. En algunos ejemplos, un operario puede ser capaz de utilizar el concentrador para programar la configuración de las cámaras y/o del concentrador. Por ejemplo, el documento US2006/0099969A1 divulga un sistema que utiliza dispositivos de localización basados en GPS para monitorizar a gente y/o vehículos dependiendo de su ubicación.
Breve sumario
De acuerdo con varios, aunque no necesariamente todos los ejemplos de la divulgación, se proporciona un método según cualquiera de las reivindicaciones 1-13.
De acuerdo con varios, aunque no necesariamente todos los ejemplos de la divulgación, se proporciona un aparato según la reivindicación 14.
De acuerdo con varios, aunque no necesariamente todos los ejemplos de la divulgación, se proporciona un aparato que comprende: al menos un procesador; y al menos una memoria que incluye un código de programa informático, estando configurados la al menos una memoria y el código de programa informático para hacer que el aparato, con el al menos un procesador, lleve a cabo por lo menos un método según cualquiera de las reivindicaciones 1-13.
De acuerdo con varios, aunque no necesariamente todos los ejemplos de la divulgación, se proporciona un código de programa informático que, cuando lo lleva a cabo al menos un procesador, hace que se lleve a cabo un método de al menos una de las reivindicaciones 1-13. De acuerdo con varios, aunque no necesariamente todos los ejemplos de la divulgación, se proporciona un programa informático que, cuando se ejecuta en un ordenador, lleva a cabo: un método según cualquiera de las reivindicaciones 1-13.
De acuerdo con varios, aunque no necesariamente todos los ejemplos de la divulgación, se proporciona un método que comprende: ubicar un primer artefacto móvil en un espacio del escenario monitorizado, para así definir al menos parcialmente la forma y posición de un límite virtual implementado por ordenador en un espacio de monitorización correspondiente; generar la implementación del límite virtual implementado por ordenador en el espacio de monitorización correspondiente al espacio del escenario monitorizado; procesar los datos recibidos desde los sensores del espacio del escenario monitorizado para permitir la creación de un episodio de respuesta, que responde a un cambio en al menos una parte del espacio del escenario monitorizado con respecto al límite virtual implementado por ordenador en el espacio de monitorización correspondiente; reconocer un traspaso desde el primer artefacto móvil hasta un segundo artefacto móvil; ubicar el segundo artefacto móvil en el espacio del escenario monitorizado para definir al menos parcialmente un nuevo límite virtual implementado por ordenador en el espacio de monitorización correspondiente; y procesar los datos recibidos desde los sensores del espacio del escenario monitorizado para permitir la creación de un episodio de respuesta, que responde a un cambio en al menos una parte del espacio del escenario monitorizado con respecto al nuevo límite virtual implementado por ordenador en el espacio de monitorización correspondiente.
De acuerdo con varias, aunque no necesariamente todas las realizaciones de la invención, se proporcionan ejemplos según las reivindicaciones adjuntas.
Breve descripción
Para una mejor comprensión de los diversos ejemplos que son útiles para comprender la breve descripción, a continuación se hará referencia, únicamente a modo de ejemplo, a los dibujos adjuntos, en los que:
la figura 1 ilustra esquemáticamente un ejemplo de un sistema; la figura 2 ilustra un ejemplo de una máquina de estados; la figura 3 ilustra un ejemplo de un módulo de procesamiento;
la figura 4 ilustra un ejemplo de un mecanismo de suministro para un programa informático; la figura 5 ilustra un ejemplo de un artefacto móvil; las figuras 6A-D ilustran el funcionamiento del sistema;
5
10
15
20
25
30
35
40
45
50
55
60
65
las figuras 7A-7C ilustran la definición/redefinición de los límites virtuales implementados por ordenador utilizando un artefacto móvil;
las figuras 8A-8C ilustran la definición del límite virtual implementado por ordenador utilizando un traspaso entre artefactos móviles;
la figura 9 ilustra un ejemplo de un método.
Definiciones
En este documento, el término "maniobra", cuando se utiliza como sustantivo en relación con un artefacto móvil, se refiere a un cambio en la posición del artefacto móvil a lo largo del tiempo y, cuando se utiliza como sustantivo en relación con varios artefactos móviles, se refiere a sus posiciones relativas en un momento en el tiempo o a un cambio en las posiciones o posiciones relativas de uno o más de los artefactos móviles a lo largo del tiempo. Si se considera que un conjunto de coordenadas espaciales define una posición en un momento en particular, se define una maniobra con varios conjuntos diferentes de coordenadas espaciales para uno o más artefactos móviles que definen distintas posiciones en el espacio. El término "maniobrar", cuando se utiliza como verbo o adjetivo, se refiere a la eficacia de una maniobra.
En este documento, un "artefacto móvil" es un transporte, vehículo u otro medio de transporte.
En este documento, un "espacio del escenario monitorizado" o "espacio del escenario" o "escenario" es un espacio tridimensional que está siendo monitorizado.
En este documento, un "espacio de monitorización" es un espacio tridimensional virtual que se corresponde con el espacio del escenario monitorizado y dentro del que se define un límite virtual implementado por ordenador.
En este documento, un "límite virtual implementado por ordenador" es un límite en el espacio de monitorización, que es un espacio virtual implementado por ordenador.
En este documento, un "episodio" es un suceso.
En este documento, un "episodio de respuesta" es un suceso producido en respuesta a un cambio detectado en el espacio del escenario monitorizado.
Descripción detallada
El sistema 100 descrito es un sistema que monitoriza al menos un escenario 140. Un escenario 140 es un espacio donde puede suceder un episodio. El escenario 140 también puede denominarse consecuentemente espacio del escenario monitorizado 140. El funcionamiento del sistema 100 puede ser controlado por uno o más artefactos móviles que maniobran dentro del espacio del escenario monitorizado 140. Por ejemplo, uno o más artefactos móviles pueden definir al menos un límite virtual 144 implementado por ordenador que sea monitorizado por el sistema 100.
La figura 1 ilustra esquemáticamente un sistema 100 que comprende: uno o más sensores 110, configurados para grabar los datos 112 de sensor de un escenario 140; un módulo de procesamiento 120, configurado para grabar los datos 112 de sensor grabados en el escenario 140, para así reconocer automáticamente los episodios que se producen en el escenario 140 y automáticamente tomar decisiones como consecuencia de dicho reconocimiento; y un módulo de comunicación 130, configurado para informar, cuando el módulo de procesamiento 120 toma una decisión de la que hay que informar.
Algunos, aunque no necesariamente todos los episodios que son reconocidos pueden referirse a un objeto 152 o a un objeto 152 en particular del escenario 140. Un objeto puede ser un objeto inanimado, un animal, una persona o una persona en particular que esté en el escenario 140. En algunos, aunque no necesariamente en todos los ejemplos del sistema 100, el sistema 100 es un sistema de reconocimiento en tiempo real y, si hubiera un reconocimiento y decisión automáticos, se producirían sustancialmente al mismo tiempo que se graban los datos 112 de sensor.
El sistema 100 puede permitir que un usuario controle la monitorización, por ejemplo, desde dentro del escenario 140. El sistema 100 puede permitir que un usuario controle el reconocimiento y/o una consecuencia del reconocimiento, por ejemplo, a través del movimiento del usuario u otro objeto de control 150 dentro del escenario. El objeto de control 150 puede ser parte de una persona que está en el escenario 140 o de un objeto portado por una persona, o puede ser un artefacto 200 móvil que está en el escenario 140.
Entre los ejemplos de acciones realizadas, puede haber la generación de una alerta o notificación.
En algunos, aunque no necesariamente en todos los ejemplos, el sistema 100 puede comprender varios aparatos diferentes. Por ejemplo, los sensores 110 pueden estar alojados en uno o más aparatos separados, el módulo de
5
10
15
20
25
30
35
40
45
50
55
60
65
procesamiento 120 puede estar alojado en uno o más aparatos y el módulo de comunicación 130 puede estar alojado en uno o más aparatos. Cuando un componente o componentes del sistema 100 están alojados en aparatos diferentes, dichos aparatos pueden ser locales o remotos entre sí, y cuando son remotos se pueden comunicar, por ejemplo, a través de una red.
En algunos, aunque no necesariamente en todos los ejemplos, el sistema 100 puede estar alojado en un único aparato.
Los sensores 110 están configurados para grabar o permitir la grabación de los datos 112 de sensor del escenario 140.
Un escenario 140 puede comprender componentes estáticos que, por ejemplo, tengan posiciones fijas relativas, tal como, por ejemplo, objetos estáticos. Estos objetos estáticos tienen diferentes posiciones estáticas en el espacio tridimensional del escenario (espacio del escenario). Un escenario 140 puede comprender componentes que se muevan, tales como, por ejemplo, un objeto móvil. Un objeto móvil adopta diferentes posiciones en el espacio del escenario a lo largo del tiempo. La referencia al 'escenario' en relación con diferentes datos 112 de sensor o diferentes tiempos implica una continuidad de los componentes estáticos del escenario 140 que se detectan, pero no necesariamente implica una continuidad de ciertos o todos los componentes dinámicos, aunque sí puede ocurrir.
La grabación de los datos 112 de sensor puede comprender solo la grabación temporal, o puede comprender una grabación permanente, o puede comprender ambas, la grabación temporal y permanente. La grabación temporal implica la grabación de datos de manera temporal. Esto, por ejemplo, puede producirse durante la detección, producirse en cualquier memoria dinámica, producirse en una memoria intermedia, tal como una memoria intermedia circular, un registro, una caché o similares. La grabación permanente implica que los datos estén en forma de estructura de datos direccionable, que es recuperable desde un espacio de memoria direccionable y, por lo tanto, puede almacenarse y recuperarse hasta que se elimine o sobrescriba, aunque el almacenamiento a largo plazo puede producirse, o no.
Los sensores 110 pueden configurarse para transducir ondas propagantes, tales como ondas de sonido y/u ondas de luz, en señales eléctricas que codifican los datos de ondas propagantes desde el escenario 140 como datos 112 de sensor.
En algunos, aunque no necesariamente en todos los ejemplos, uno o más de los sensores 110 están fijados en el espacio con respecto al espacio del escenario 140. En otros ejemplos, que pueden ser los mismos o ejemplos distintos, uno o más de los sensores 110 son móviles o se mueven con respecto al espacio del escenario 140. Por ejemplo, uno o más de los sensores 110 pueden formar parte de algunos, todos o ninguno del uno o más artefactos 200 móviles.
En algunas, aunque no necesariamente en todas las realizaciones, los sensores 110 son o comprenden sensores 114 de imagen. Un ejemplo de un sensor 114 de imagen es un sensor de imagen digital que está configurado para funcionar como una cámara. Dicha cámara puede funcionar para grabar imágenes estáticas y/o imágenes de vídeo.
En algunas, aunque no necesariamente en todas las realizaciones, las cámaras pueden configurarse de manera estereoscópica u otra disposición distribuida en el espacio, de modo que el escenario 140 se observa desde distintas perspectivas. Esto puede permitir la creación de una imagen tridimensional y/o procesamiento para establecer la profundidad, por ejemplo, a través del efecto Parallax.
En algunas, aunque no necesariamente en todas las realizaciones, los sensores 110 son o comprenden sensores 116 de audio. Un ejemplo de un sensor 116 de audio es un micrófono o micrófonos. Los micrófonos pueden configurarse de manera estereoscópica u otra disposición distribuida en el espacio, tal como una serie de micrófonos, de modo que se obtienen registros del escenario 140 desde diferentes perspectivas. Esto puede posibilitar el procesamiento de audio espacial tridimensional, lo que permite la ubicación del audio dentro del escenario 140.
En algunas, aunque no necesariamente en todas las realizaciones, los sensores son o comprenden sensores 118 de profundidad. Un sensor 118 de profundidad puede comprender un transmisor y un receptor. El transmisor transmite una señal (por ejemplo, una señal que un humano no pueda detectar, tal como ultrasonido o una luz infrarroja) y el receptor recibe la señal reflejada. Con el uso de un solo transmisor y un solo receptor puede conseguirse cierta información de profundidad a través de la medición del tiempo de vuelo desde la transmisión hasta la recepción. Puede conseguirse una mejor resolución utilizando más transmisores y/o más receptores (diversidad espacial). En un ejemplo, el transmisor está configurado para "pintar"el escenario 140 con luz, preferentemente luz invisible, tal como luz infrarroja, con un patrón que depende del espacio. La detección de un patrón determinado por parte del receptor permite encuadrar espacialmente el escenario 140. La distancia con la parte espacialmente encuadrada del escenario 140 puede determinarse mediante el tiempo de vuelo y/o estereoscopia (si el receptor está en una posición estereoscópica con respecto al transmisor).
5
10
15
20
25
30
35
40
45
50
55
60
65
Estos ejemplos "pasivos" o "no activos" de detección de profundidad son pasivos y únicamente reflejan la luz incidente o las ondas de sonido emitidas por un transmisor. Sin embargo pueden utilizarse adicional o alternativamente ejemplos "activos" que requieren actividad en el objeto detectado.
En el ejemplo ilustrado, aunque no necesariamente en todos los ejemplos, el módulo de procesamiento 120 comprende un submódulo de memoria 122, un submódulo de procesamiento 124, un submódulo de reconocimiento 126 y un submódulo de control 128. Aunque los "módulos" se describen e ilustran de manera separada, estos pueden, aunque no tienen que estar separados o combinados en distintas combinaciones. Por ejemplo, el submódulo de procesamiento 124, el submódulo de reconocimiento 126 y el submódulo de control 128 pueden funcionar con la misma circuitería o mediante el control del mismo programa informático. De manera alternativa, uno o más del submódulo de procesamiento 124, el submódulo de reconocimiento 126 y el submódulo de control 128 pueden funcionar mediante circuitería especializada o un programa informático especializado. Los submódulos pueden funcionar utilizando un software, un hardware especializado o una mezcla de hardware y software programados.
El submódulo de memoria 122 puede utilizarse para almacenar los datos del sensor sin procesar y/o los datos 112 de sensor procesados (datos del escenario), de los programas informáticos, de los modelos del espacio del escenario y otros datos utilizados por el módulo de procesamiento 120, aunque otros submódulos pueden disponer de sus propias memorias.
El submódulo de procesamiento 124 puede configurarse para procesar los datos 112 de sensor y determinar los datos del escenario que son significativos del escenario 140.
El submódulo de procesamiento 124 puede configurarse para llevar a cabo el procesamiento de imágenes, donde los datos del sensor 110 comprenden datos de imágenes de una cámara o cámaras 114. El submódulo de procesamiento 124 puede configurarse para llevar a cabo el procesamiento de audio, donde los datos del sensor 110 comprenden datos de audio de un micrófono o micrófonos 116.
El submódulo de procesamiento 124 puede configurarse para llevar a cabo automáticamente una o más de las siguientes tareas mediante el uso de los datos 112 de sensor, para así crear datos del escenario que tengan un significado potencial del escenario 140:
utilizar la visión electrónica (informática) para realizar una o más de las siguientes tareas:
detectar un objeto o persona (móvil o estacionaria), clasificar un objeto o persona (móvil o estacionaria), y/o localizar un objeto o persona (móvil o estacionaria);
utilizar el análisis espacial para realizar una o más de las siguientes tareas:
ubicar un objeto (móvil o estacionario) en el espacio del escenario, utilizando la determinación de profundidad; y/o
crear un mapa del espacio del escenario; y/o
utilizar el análisis de comportamiento para describir un episodio que se produzca en el escenario 140 como símbolo potencialmente significativo.
Un ejemplo de procesamiento de imágenes es un análisis del "histograma de las características de gradiente", que crea una distribución de los gradientes de intensidad o direcciones del borde de una imagen. La imagen puede dividirse en pequeñas regiones (celdas) conectadas y, para cada celda, se crea un histograma de direcciones de gradiente u orientaciones de borde de cada píxel de dentro de la celda. La combinación de estos histogramas representa entonces un descriptor.
Un ejemplo de procesamiento de audio es la determinación de los "coeficientes cepstrales en las frecuencias de Mel", procesamiento de audio espacial que utiliza, por ejemplo, técnicas de formación de haces de audio, reconocimiento o clasificación de los episodios de audio, reconocimiento o verificación del interlocutor o reconocimiento del discurso.
La detección del movimiento puede conseguirse, por ejemplo, utilizando la diferenciación con respecto a un modelo de fondo (sustracción de fondo) o con respecto a una imagen previa (diferenciación temporal), o utilizando cualquier otro enfoque, tal como el análisis del flujo óptico que utiliza un enfoque vectorial.
La clasificación de los objetos puede conseguirse, por ejemplo, utilizando un análisis basado en la forma y/o un análisis basado en el movimiento.
La clasificación de una persona puede ser la clasificación de que un objeto es un humano, o la clasificación de que un objeto es un humano en particular (identificación). La identificación puede conseguirse utilizando un atributo o una
5
10
15
20
25
30
35
40
45
50
55
60
65
combinación de atributos que identifiquen de manera exclusiva una persona dentro del grupo de posibles personas. Entre los ejemplos de atributos se incluyen: características biométricas que son o pueden ser específicas de una persona, tal como su cara o su voz: su forma y tamaño; su comportamiento.
La localización de un objeto puede conseguirse marcando los objetos y grabando la posición del objeto marcado dentro del escenario 140. Puede ser necesario que el algoritmo se enfrente a uno o más de los siguientes episodios: entrada de un objeto al escenario 140; salida de un objeto del escenario 140; reentrada de un objeto al escenario 140; obstrucción de un objeto; combinación de un objeto. En la técnica se conoce cómo afrontar estos episodios.
La localización del objeto puede utilizarse para determinar cuándo cambia un objeto o una persona. Por ejemplo, la localización del objeto sobre una macroescala permite crear un marco de referencia que se mueva con el objeto. Dicho marco de referencia puede utilizarse después para localizar los cambios que suceden con el tiempo, en cuanto a la forma del objeto, mediante el uso de diferenciación temporal con respecto al objeto. Esto puede utilizarse para detectar los movimientos humanos a pequeña escala, tales como gestos, el movimiento de las manos o el movimiento facial. Estos son movimientos del usuario independientes del escenario (solo) con respecto al usuario.
El sistema puede localizar una pluralidad de objetos y/o puntos en relación con el cuerpo de una persona, por ejemplo, una o más articulaciones del cuerpo de una persona. En algunos ejemplos, el sistema 100 puede llevar a cabo una localización esquelética del cuerpo completo de una persona.
En el reconocimiento de gestos y otros rasgos, el sistema 100 puede utilizar la localización de uno o más objetos y/o puntos en relación con el cuerpo de una persona.
El análisis del comportamiento requiere la descripción de un episodio que se produzca en el escenario 140 utilizando una simbología significativa. Un episodio puede ser algo que ocurra en un caso espacio-temporal, o puede ser una secuencia espacio-temporal (un patrón de casos espacio-temporales a lo largo del tiempo). Un episodio puede referirse al movimiento de un objeto (o persona) o a la interacción de una persona y un objeto.
En algunas, aunque no necesariamente en todas las implementaciones, un episodio puede representarse por un supuesto símbolo definido en términos de parámetros, determinados a partir del análisis de visión electrónica (informática) y/o del análisis espacial. Estos parámetros codifican cierta cantidad o más información de lo que está ocurriendo, dónde está ocurriendo, cuándo está ocurriendo y quién lo está haciendo.
El submódulo de reconocimiento 126 está configurado para reconocer un supuesto símbolo, que codifica un episodio en el escenario 140, como símbolo significativo asociado a un significado en particular.
El submódulo de reconocimiento 126 puede configurarse para reconocer un supuesto símbolo, definido en términos de parámetros determinados a partir del análisis de visión electrónica (informática) y/o del análisis espacial, y producido por el submódulo de procesamiento 124 disponiendo de un significado. El submódulo de reconocimiento 126, por ejemplo, puede almacenar o acceder a una base de datos de símbolos de referencia significativos, y puede valerse de una prueba de similitud para determinar si un supuesto símbolo es "similar" a un símbolo significativo.
El submódulo de reconocimiento 126 puede configurarse como un motor de inferencia electrónica (informática) u otro motor de reconocimiento, tal como una red neuronal artificial o agrupación en el espacio del parámetro. El submódulo de reconocimiento 126, en algunos ejemplos, puede prepararse, mediante un aprendizaje supervisado, para reconocer los símbolos significativos similares a los símbolos de referencia.
El submódulo de control 128 responde a la determinación de que se haya producido un episodio significativo en el escenario 140 dependiendo del episodio:
a) si el supuesto símbolo es similar a un símbolo de respuesta, el episodio significativo es un episodio "de respuesta", y el submódulo de control 126 lleva a cabo una acción de respuesta.
En algunos, aunque no necesariamente en todos los ejemplos, la acción realizada la puede programar un usuario. En algunos, aunque no necesariamente en todos los ejemplos, la programación puede producirse a través del movimiento del usuario u otro objeto de control 150 dentro del escenario. Entre los ejemplos de acciones realizadas, puede haber la generación de una alerta o notificación.
La alerta o notificación puede proporcionarse a través del módulo de comunicación 130. El módulo de comunicación 130 puede comunicarse de manera inalámbrica, por ejemplo, a través de ondas de radio o a través de una conexión por cable con un aparato local o remoto. Entre los ejemplos de dichos aparatos se incluyen, aunque no se limitan a, pantallas, televisiones, aparatos de salida de audio, dispositivos personales, tales como teléfonos móviles u ordenadores personales, un proyector u otro aparato de salida del usuario.
En algunos, aunque no necesariamente en todos los ejemplos, el símbolo de respuesta puede programarlo un usuario. Por ejemplo, un usuario puede programar o enseñar un episodio significativo que esté representado por un
5
10
15
20
25
30
35
40
45
50
55
60
65
símbolo de respuesta significativo. El símbolo de respuesta creado por el usuario puede añadirse a la base de datos de los símbolos de referencia, o de otra forma utilizarse para reconocer un supuesto símbolo como símbolo significativo. En algunos, aunque no necesariamente en todos los ejemplos, la programación puede producirse a través del movimiento del usuario dentro del escenario 140. Entre los ejemplos de episodios significativos que están representados por símbolos significativos se incluyen acciones o movimientos realizados en particular, tales como gestos de entrada de un usuario.
La acción de una única persona o la acción colectiva de varias personas puede utilizarse como símbolo de respuesta. En algunos, aunque no necesariamente en todos los ejemplos, pueden utilizarse como símbolos de respuesta una entrada del usuario de gesto en particular o un grupo de entradas del usuario de gesto.
b) Si el supuesto símbolo es similar a un símbolo de control, el episodio significativo es un episodio "de control", y el submódulo de control 126 posibilita el control de la monitorización y/o el control de la respuesta.
Por ejemplo, un usuario puede programar o enseñar un símbolo de respuesta significativo que se añada a la base de datos de los símbolos de referencia. En algunos, aunque no necesariamente en todos los ejemplos, la programación puede producirse a través del movimiento de un objeto de control 150, por ejemplo, un usuario o artefacto móvil dentro del escenario 140.
Por ejemplo, un usuario puede programar o enseñar una acción realizada cuando el supuesto símbolo coincide con un símbolo de respuesta. Entre los ejemplos de acciones realizadas, puede haber la generación de una alerta o notificación.
El funcionamiento del módulo de procesamiento 120 puede entenderse además gracias a la figura 2, que ilustra una máquina de estados 20 para el módulo de procesamiento 120. La máquina de estados 20 tiene un estado de monitorización 21, un estado de control 22 y un estado de respuesta 23 automática.
En el estado de monitorización 21, los sensores 110 proporcionan datos 112 de sensor, y el submódulo de procesamiento 124 procesa automáticamente los datos 112 de sensor (vídeo y/o audio y/o profundidad) para crear datos del escenario que tengan un posible significado. El submódulo de reconocimiento 126 procesa automáticamente los datos del escenario para identificar el significado real entre los datos del escenario, es decir, los símbolos significativos.
Los símbolos significativos son predeterminados, es decir, son acciones que han ocurrido que determinan un símbolo antes de su reconocimiento. Sin embargo, no debería considerarse que el término "predeterminado" signifique exacto o fijo. El símbolo utilizado para la coincidencia de similitudes simplemente tiene una determinación previa, que puede evolucionar dinámicamente o fijarse.
Si el submódulo de reconocimiento 126 determina que se ha producido un episodio significativo en el escenario 140, el submódulo de control 126 responde automáticamente dependiendo del episodio. Si el episodio significativo es un episodio "de respuesta", entonces la máquina de estados 20 pasa al estado de respuesta 23 y el submódulo de control 126 lleva a cabo una acción de respuesta. La acción de respuesta puede relacionarse con el episodio de respuesta. Si el episodio es un episodio "de control", entonces la máquina de estados 20 pasa al estado de control 22 y se posibilita el control de la monitorización y/o de la respuesta. Esta habilitación puede realizarse en relación con el estado de control 22.
La acción de una única persona o la acción colectiva de varias personas puede utilizarse como símbolo "de control". En algunos, aunque no necesariamente en todos los ejemplos, puede utilizarse una entrada del usuario de gesto en particular como símbolo de control.
En algunos ejemplos, en el reconocimiento de gestos, el sistema 100 puede localizar uno o más objetos y/o puntos en relación con el cuerpo de una persona. Por ejemplo, en el reconocimiento de gestos, el sistema 100 puede llevar a cabo una localización esquelética del cuerpo completo de una persona.
La implementación del módulo de procesamiento 120 o de parte del módulo de procesamiento 120 puede ser la circuitería del controlador. La circuitería del controlador 120 puede implementarse solo en el hardware, en ciertos aspectos en el software, incluyendo solo el firmware, o puede implementarse en una combinación del hardware y el software (incluyendo el firmware).
Tal y como se ilustra en la figura 3, el controlador 120 puede implementarse utilizando las instrucciones que permiten la funcionalidad del hardware, por ejemplo, utilizando instrucciones de programa informático 322 ejecutables con un procesador 310 de uso general o especializado que puede almacenarse en un medio de almacenamiento legible por ordenador (disco, memoria, etc.) para ejecutarlas por medio de dicho procesador 310.
El procesador 310 está configurado para leer desde y escribir en la memoria 320. El procesador 310 también puede comprender una interfaz de salida a través de la que el procesador 310 emite los datos y/o las órdenes y una interfaz
5
10
15
20
25
30
35
40
45
50
55
60
65
de entrada a través de la que el procesador 310 recibe los datos y/o las órdenes.
La memoria 320 almacena un programa informático 322 que comprende instrucciones de programa informático (código de programa informático), que controlan el funcionamiento del módulo de procesamiento 120 cuando se cargan en el procesador 310. Las instrucciones de programa informático del programa informático 322 proporcionan la lógica y las rutinas que posibilitan que el módulo de procesamiento lleve a cabo los métodos comentados referentes a las figuras. El procesador 310, al leer la memoria 320, es capaz de cargar y ejecutar el programa informático 322.
Por lo tanto, el sistema 100 puede comprender un aparato 120 que comprenda:
al menos un procesador 310; y al menos una memoria 320 que incluya un código de programa informático 322, estando configurados la al menos una memoria 320 y el código de programa informático 322, junto con el al menos un procesador 310, para hacer que el aparato 120 lleve a cabo, al menos, uno o más bloques 124, 126, 128 de la figura 1 y/o uno o más de los bloques de la figura 8.
Como se ilustra en la figura 4, el programa informático 322 puede llegar hasta dicho aparato a través de cualquier mecanismo de suministro 324 adecuado. El mecanismo de suministro 324 puede ser, por ejemplo, un medio de almacenamiento no transitorio legible por ordenador, un producto de programa informático, un dispositivo de memoria, un medio de grabación, tal como un disco compacto de memoria de solo lectura (CD-ROM) o disco versátil digital (DVD), un artículo de fabricación que represente el programa informático 322. El mecanismo de suministro puede ser una señal configurada para transferir de manera fiable el programa informático 322, tal como una onda electromagnética modulada o señal eléctrica digitalmente codificada. El aparato 120 puede propagar o transmitir el programa informático 322 como señal de datos informáticos.
A pesar de que la memoria 320 se ilustra como único componente/circuitería, puede implementarse como uno o más componentes/circuitería separados, algunos de los cuales pueden integrarse/quitarse y/o pueden proporcionar un almacenamiento permanente/semipermanente/dinámico o caché.
A pesar de que el procesador 310 se ilustra como único componente/circuitería, puede implementarse como uno o más componentes/circuitos separados, algunos de los cuales pueden integrarse/quitarse. El procesador 310 puede ser un procesador de un solo núcleo o multinúcleo.
Debería entenderse que las referencias a "medio de almacenamiento legible por ordenador", "producto de programa informático", "programa informático de ordenador concretamente incorporado", etc., o a un "controlador", "ordenador", "procesador", etc., abarcan no solo ordenadores que presenten diversas estructuras, tales como estructuras de procesador único/multiprocesador y estructuras secuenciales (Von Neumann)/paralelas, sino también circuitos especializados, tales como matrices de puertas programables por campo (FPGA), circuitos para aplicaciones específicas (ASIC), dispositivos de procesamiento de señales y otra circuitería de procesamiento. Debería entenderse que las referencias a programas informáticos, instrucciones, códigos, etc., abarcan el software para un procesador programable o firmware, tal como, por ejemplo, el contenido programable de un dispositivo hardware, ya sean instrucciones para un procesador o ajustes de configuración para un dispositivo de función específica, una matriz de puertas o dispositivo lógico programable, etc.
Según se usa en la presente solicitud, el término "circuitería" se refiere a todos de los siguientes:
a) implementaciones de solo circuito de hardware (tales como implementaciones solo en circuitería analógica y/o digital) y
b) combinaciones de circuitos y software (y/o firmware), tales como (según proceda): i) una combinación de procesador(es) o ii) partes de procesador(es)/soffware (incluyendo procesador(es) digital(es) de señal)), software y memoria(s) que trabajan juntos para hacer que un aparato, tal como un teléfono móvil o servidor, lleve a cabo varias funciones) y
(c) circuitos, tales como un/unos microprocesador(es) o una parte de un/unos microprocesador(es), que requieren software o firmware para funcionar, incluso si el software o firmware no está presente de forma física.
Esta definición de "circuitería" se aplica a todos los usos de este término en la presente aplicación, incluyendo en cualquier reivindicación. Como ejemplo adicional, según se usa en la presente solicitud, el término "circuitería" también abarcaría una implementación de simplemente un procesador (o varios procesadores) o una parte de un procesador y su (o sus) software y/o firmware adjunto. El término "circuitería" también abarcaría, por ejemplo y si procediera con respecto al elemento de la reivindicación en particular, un circuito integrado de banda base o circuito integrado de procesador de aplicaciones para un teléfono móvil o circuito integrado similar en un servidor, un dispositivo de red celular u otro dispositivo de red.
Los bloques 124, 126, 128 ilustrados en la figura 1 y/o los bloques ilustrados en la figura 9 pueden representar las etapas de un método y/o secciones de código del programa informático 322. La ilustración con un orden particular de los bloques no implica necesariamente que se requiera o se prefiera un orden de los bloques, y el orden y disposición de los bloques puede variar. Además, puede ser posible omitir algunos bloques.
5
10
15
20
25
30
35
40
45
50
55
60
65
En algunos, aunque no necesariamente en todos los ejemplos, el objeto de control 150 puede ser un usuario, por ejemplo, una persona 150 en el escenario 140. En algunos, aunque no necesariamente en todos los ejemplos, que pueden ser los mismos o ejemplos distintos, el objeto de control 150 puede ser uno o más artefactos 200 móviles. En algunos, aunque no necesariamente en todos los ejemplos, el artefacto 200 móvil puede ser una aeronave. Un ejemplo de un artefacto 200 móvil es un "dron". Un dron es un artefacto radiocontrolado no pilotado. Un dron aeronave es una aeronave radiocontrolada no pilotada.
La figura 5 ilustra un ejemplo de un dron 200. En este ejemplo, aunque no necesariamente en todos los ejemplos, el dron es un dron aeronave. El dron aeronave 200 comprende un sistema de propulsión 202 para mover el dron aeronave 200 en tres dimensiones.
La ubicación o reubicación del dron aeronave puede llevarla a cabo el usuario, manualmente o a través de control por voz, de manera semiautónoma o autónoma. La posición del dron aeronave 200 puede estar definida, en algunos ejemplos, únicamente por la posición, en otros ejemplos, únicamente por la orientación, y en otros ejemplos tanto por la posición como por la orientación. Así, en algunos, aunque no necesariamente en todos los ejemplos, el dron aeronave puede ser autónomo, semiautónomo o controlado totalmente por el usuario para cambiar de posición tridimensional y/o una orientación tridimensional.
El término "totalmente autónomo", cuando se utiliza para describir una función, significa que el artefacto puede realizar la función de acuerdo con reglas predefinidas sin necesitar ninguna entrada de usuario en tiempo real. El controlador en tiempo real está completamente basado en reglas.
El término "semiautónomo", cuando se utiliza para describir una función, significa que el artefacto puede realizar la función de acuerdo con reglas predefinidas, pero adicionalmente requiere ciertas entradas de usuario en tiempo real. El control en tiempo real no está totalmente basado en reglas ni totalmente basado en el control del usuario.
El término "autónomo" abarca los términos "totalmente autónomo" y "semiautónomo". Si una característica se describe como "autónoma", puede ser "totalmente autónoma" o "semiautónoma".
El dron aeronave 200 puede comprender adicionalmente un sistema de estabilidad de la posición 204 autónomo. El sistema de estabilidad de la posición 204 autónomo controla el sistema de propulsión 202 para mantener el dron aeronave 200 en una posición tridimensional en particular. La posición tridimensional mantenida puede ser, por ejemplo, una posición absoluta definida en un sistema de coordinadas fijado a la Tierra, o la posición tridimensional mantenida puede ser, por ejemplo, una posición relativa definida en un sistema de coordinadas que se mueve, por ejemplo, con un objeto localizado 152 en el espacio del escenario monitorizado 140. El objeto localizado 152 puede ser, por ejemplo, otro dron aeronave 200.
El dron aeronave 200 puede comprender adicionalmente un sistema de estabilidad de la orientación 206 autónomo. El sistema de estabilidad de la orientación 206 autónomo controla el sistema de propulsión 202 para mantener el dron aeronave 200 en una orientación tridimensional en particular. La orientación tridimensional mantenida puede ser, por ejemplo, una orientación absoluta definida en un sistema de coordinadas fijado a la Tierra, o la orientación tridimensional mantenida puede ser, por ejemplo, una orientación relativa definida en un sistema de coordenadas que se mueve, por ejemplo, con un objeto localizado 152 en el espacio del escenario monitorizado 140. El objeto localizado 152 puede ser, por ejemplo, otro dron aeronave 200.
El dron aeronave 200 puede comprender, adicionalmente, un sistema de comunicaciones inalámbrico 208 para comunicarse con un módulo de comunicación 130 del sistema 100.
El dron aeronave 200 puede comprender, opcionalmente, un sistema de navegación 210 para posibilitar la ubicación del dron aeronave 200 en tres dimensiones, por ejemplo, a través de una ubicación satélite u otra tecnología de ubicación. En algunos ejemplos, la posición del dron aeronave 200 se comunica al sistema 100. El sistema de navegación 210 también puede posibilitar la planificación de una ruta que siga el dron aeronave 200 y/o proporcionar una entrada en el sistema de estabilidad de la posición 204 y/o en el sistema de propulsión 202.
El dron aeronave 200 puede comprender opcionalmente sensores cinemáticos 212 para posibilitar la detección de los cambios en la posición y/u orientación utilizando, por ejemplo, una brújula electrónica, giroscopios, magnetómetros y acelerómetros a lo largo de los diferentes ejes. Estos sensores cinemáticos 212 pueden proporcionar una entrada en el sistema de estabilidad de la posición 204 y/o en el sistema de estabilidad de la orientación 206.
El dron aeronave 200 puede comprender, opcionalmente, al menos algunos sensores 110 configurados para monitorizar el espacio del escenario monitorizado 140. Los sensores 110 están configurados para grabar o permitir la grabación de los datos 112 de sensor del escenario 140.
El dron aeronave 200 puede estar configurado para funcionar al aire libre. Por ejemplo, el dron aeronave 200 puede
5
10
15
20
25
30
35
40
45
50
55
60
65
estar configurado para funcionar con lluvia y viento. El dron aeronave puede ser impermeable.
El dron aeronave 200 puede utilizarse, por ejemplo, para definir un límite virtual implementado por ordenador al aire libre, sobre una gran área de decenas, cientos o miles de metros y/o extenderse hasta una gran altitud. Esto puede ser particularmente útil en eventos al aire libre a gran escala, tales como conciertos, festivales, eventos deportivos, en áreas donde es necesario el control de la multitud o en áreas donde es necesaria la vigilancia.
La figura 6 ilustra un ejemplo de funcionamiento del sistema 100. La parte A ilustra un escenario del mundo real dentro de un espacio tridimensional monitorizado por el sistema 100. El escenario 140 también puede denominarse espacio del escenario monitorizado 140.
En el ejemplo de la figura 6, un artefacto 200 móvil, por ejemplo, un dron aeronave, está realizando una maniobra 146 para definir al menos un límite virtual implementado por ordenador 144.
En el ejemplo ilustrado, el artefacto 200 móvil está realizando una maniobra para definir un único límite virtual implementado por ordenador 144. La maniobra 148 comprende cualquier movimiento o serie de movimientos en una dimensión espacial, dos dimensiones espaciales o tres dimensiones espaciales, y puede adoptar cualquier forma.
La parte C del ejemplo de la figura 6 ilustra una vista aérea del espacio del escenario monitorizado 140, en la que se ilustra el artefacto 200 móvil haciendo la maniobra 146 para definir el límite virtual implementado por ordenador 144.
Como puede verse en las partes A y C de los ejemplos de la figura 6, la maniobra 146 tiene una posición que presenta coordenadas ortogonales cartesianas (x¡(t), y¡(t), z¡(t)) del escenario 140 para cada objeto de entrada de usuario "i", en el tiempo "t". En este ejemplo, xi(t) se mide desde la izquierda, yi(t) se mide desde el frente y zi(t) se mide desde abajo. Se entenderá que pueden utilizarse otros sistemas de coordenadas y que pueden utilizarse distintas orientaciones del sistema de coordenadas cartesianas.
Para simplificar la ilustración de la figura 6, la maniobra 146 comprende el movimiento de un artefacto 200 móvil en una dimensión espacial, mientras que el valor de los cambios "x" y los valores de "y" y "z" permanecen constantes. En otros ejemplos, los valores de "x", "y" y/o "z" pueden variar de cualquier manera con el movimiento 148, desde la posición de inicio en el espacio del escenario monitorizado 140. También pueden utilizarse artefactos 200 móviles, por ejemplo, simultáneamente.
Las partes B y D del ejemplo de la figura 6 ilustran un espacio de monitorización 142 que se corresponde con el espacio del escenario monitorizado 140 (un espacio de monitorización 142 correspondiente). El espacio de monitorización 142 comprende una representación virtual del espacio del escenario monitorizado 140 creado y utilizado por el sistema 100. El espacio de monitorización 142 puede formarse, por ejemplo, a partir de los datos recibidos por los sensores 110, tal como los datos de imagen recibidos y/o los datos de profundidad. Las partes B y D ilustran, respectivamente, las mismas vistas que se ilustran en las partes A y C de la figura 6.
En algunos ejemplos, el sistema 100 puede utilizar la información de la geometría del espacio del escenario monitorizado 140 para formar el espacio de monitorización 142. Por ejemplo, el sistema 100 puede utilizar un modelo tridimensional del espacio del escenario monitorizado 140 en la formación del espacio de monitorización 142. El modelo tridimensional del espacio del escenario monitorizado 140 puede crearlo el sistema 100 y/o puede recibirlo el sistema 100. En la técnica se conocen los métodos para crear un modelo tridimensional del espacio del escenario monitorizado 140.
El sistema 100 puede utilizar el espacio de monitorización 142 para monitorizar el espacio del escenario 140. Por ejemplo, el sistema puede utilizar el espacio de monitorización 142 para implementar y monitorizar al menos un límite virtual implementado por ordenador 144.
Tal y como indican las flechas entre las partes A y B y las partes C y D de la figura 6, hay una correspondencia entre el espacio de monitorización 142 y el espacio del escenario monitorizado 140. En algunos ejemplos, puede haber un mapeo M individual entre el espacio de monitorización 142 y el espacio del escenario monitorizado 140.
En otros ejemplos, puede haber una transformación invariable a escala entre el espacio del escenario monitorizado 140 y el espacio de monitorización 142.
El sistema 100 reconoce la maniobra 146 realizada por el artefacto 200 móvil y, como respuesta, implementa al menos un límite virtual implementado por ordenador 144 en el espacio de monitorización 142.
En algunos ejemplos, el reconocimiento de la maniobra 146 puede comprender el procesamiento de los datos recibidos. En un ejemplo, los datos recibidos pueden ser datos de imagen que se analizan para ubicar el artefacto 200 móvil utilizando procesamiento de imagen. En otro ejemplo, los datos recibidos pueden comprender los datos de posición, que ubican el artefacto 200 móvil que, en algunos ejemplos, puede ser una posición proporcionada por un sistema de ubicación que está dentro del artefacto 200 móvil.
5
10
15
20
25
30
35
40
45
50
55
60
65
En ejemplos, la maniobra 146 del espacio del escenario monitorizado 140 determina, al menos parcialmente, una forma y posición del límite virtual implementado por ordenador 144 en el espacio de monitorización, y el límite virtual implementado por ordenador 144 está ubicado en el espacio de monitorización, en una posición correspondiente equivalente a la posición de la maniobra 146 en el espacio del escenario monitorizado 140.
Por lo tanto, se entenderá que el sistema 100 posibilita ubicar uno o más artefactos 200 móviles en un espacio del escenario monitorizado 140 para definir, al menos parcialmente, la forma y posición de un límite virtual implementado por ordenador 144 en un espacio de monitorización 142 correspondiente; provocar la implementación del límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente al espacio del escenario monitorizado 140; y procesar los datos recibidos 112 desde los sensores 110 del espacio del escenario monitorizado 140 para generar un episodio de respuesta, que responde a un cambio en al menos una parte del espacio del escenario monitorizado 140 con respecto al límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente.
En las figuras 7A, 7B, 7C, 8A, 8B, 8C se ilustran distintos ejemplos de diferentes posiciones de uno o más artefactos 200 móviles en un espacio del escenario monitorizado 140, que definen 210 la forma y posición de un límite virtual implementado por ordenador 144 en un espacio de monitorización 142 correspondiente.
En algunos, aunque no necesariamente en todos los ejemplos, puede ser necesario que un artefacto 200 móvil se "empareje" con el sistema 100 para posibilitar que el artefacto 200 móvil controle una forma y posición de un límite virtual implementado por ordenador 144. El emparejamiento puede comprender, por ejemplo, un procedimiento de autenticación que identifique el artefacto 200 móvil y/o un procedimiento de autorización que compruebe uno o más credenciales de seguridad.
En estas figuras, un punto pn(tx) se refiere a un punto 214 en el espacio monitorizado 140 en un tiempo tx y está definido por un artefacto móvil "n". Un punto pn(tx) se corresponde con un punto en particular pn'(tx) 216 en el espacio del escenario monitorizado 140, donde la misma etiqueta "n" se utiliza de modo sistemático en ambos espacios para marcar los puntos 214, 216 correspondientes, y la etiqueta "x" se utiliza de modo sistemático en ambos espacios para marcar el tiempo de correspondencia.
La maniobra 148 en el espacio del escenario monitorizado 140 especifica un conjunto de diferentes puntos {pn(tx)}, que se correlacionan con un conjunto correspondiente de puntos {pn'(tx)} en el espacio de monitorización 142. El mapeo M que correlaciona el espacio del escenario monitorizado 140 con el espacio de monitorización 142 también correlaciona el conjunto de diferentes puntos {pn(tx)} en el espacio del escenario monitorizado 140 con un conjunto correspondiente de diferentes puntos {pn'(tx)} en el espacio de monitorización 142.
El conjunto de diferentes puntos {pn'(tx)} en el espacio de monitorización 142 define una forma y posición del límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente.
En el ejemplo ilustrado, el límite virtual implementado por ordenador 144 en el espacio de monitorización pasa a través de cada uno de los puntos 216 de los puntos del conjunto {pn'(tx)}. En los ejemplos ilustrados, el límite virtual implementado por ordenador 144 es un polígono con N lados que tiene un vértice (punto angular) en cada uno de los puntos 216 de los puntos del conjunto {pn'(tx)}.
El límite virtual implementado por ordenador 144 puede ser mono-, bi- o tridimensional.
En la figura 7A, un límite virtual implementado por ordenador 144 está definido 210 por una maniobra 148 que comprende solo el movimiento de un único artefacto 200 móvil en el espacio del escenario monitorizado 140. El límite virtual implementado por ordenador 144 está definido 210 por la secuencia de posiciones 214 del único artefacto 200 móvil en el espacio del escenario monitorizado 140. El artefacto 200 móvil en el espacio del escenario monitorizado 140 especifica una secuencia de puntos 214 en el espacio del escenario monitorizado 140, que se corresponde con los puntos 216 en el espacio de monitorización 143. La forma y posición del límite virtual implementado por ordenador 144 están definidas por la posición de los puntos 216 del espacio de monitorización 142. En este ejemplo, el límite virtual implementado por ordenador 144 es un polígono con N lados que tiene N vértices (puntos angulares) en los puntos 216. El único artefacto 200 móvil en el espacio del escenario monitorizado 140 define, en cada posición 214, uno de los N vértices. El artefacto 200 móvil puede transmitir una señal de punto de ruta para indicar al sistema 100 que un punto de ruta de su recorrido especifica un punto 214.
Como se ilustra en la figura 7A, la maniobra 148 en el espacio del escenario monitorizado 140 define los puntos p1(ti), p1(t2), pi1(t3), p1 (t4) en el espacio del escenario monitorizado 140. Los puntos p1(t1), p1(t2), pn(t3), p1(t4) en el espacio del escenario monitorizado 140, determinan 210 los puntos correspondientes pV(ti), pV(t2), p1'(t3), pV(t4) 216 en el espacio de monitorización 142. De este modo, la maniobra 148 en el espacio del escenario monitorizado 140 especifica los puntos pV(ti), pV(t2), p1'(t3), p4'(t4) en el espacio de monitorización 142, que definen el límite virtual implementado por ordenador 144.
5
10
15
20
25
30
35
40
45
50
55
60
65
En la figura 7B, se define un límite virtual implementado por ordenador 144 mediante una maniobra 148, que comprende la ubicación simultánea de varios artefactos 200 móviles en el espacio del escenario monitorizado 140. Se define 210 un límite virtual implementado por ordenador 144 mediante una ubicación simultánea 214 de varios artefactos 200 móviles en el espacio del escenario monitorizado 140. Los artefactos 200 móviles del espacio del escenario monitorizado 140 especifican una disposición de puntos 214 en el espacio del escenario monitorizado 140, que corresponde a una disposición de puntos 216 en el espacio de monitorización 142. La forma y posición del límite virtual implementado por ordenador 144 están definidas por la posición de los puntos 216 del espacio de monitorización 142. En este ejemplo, el límite virtual implementado por ordenador 144 es un polígono con N lados que tiene N vértices (puntos angulares) en los puntos 216. Cada uno de los diferentes artefactos 200 móviles en el espacio del escenario monitorizado 140 define uno de los N vértices. Un artefacto 200 móvil puede transmitir una señal de punto de ruta para indicar al sistema 100 que un punto de ruta en ese momento de su recorrido especifica un punto 214, o que los puntos de ruta de los diversos artefactos 200 móviles en ese momento de su recorrido especifican los puntos 214.
Como se ilustra en la figura 7B, la maniobra 148 en el espacio del escenario monitorizado 140 define los puntos p1(t1), p2(t1), p3(t1), p4(t1) en el espacio del escenario monitorizado 140. Como se ilustra en la figura 7B, los puntos p1(t1), p2(t1), p3(t1), p4(t1) en el espacio del escenario monitorizado 140, determinan los puntos correspondientes p1'(t1), p2'(t1), p3'(t1), p4'(t1) en el espacio de monitorización 142. De este modo, la maniobra 148 en el espacio del escenario monitorizado 140 especifica los puntos pV(ti), p2'(ti), p3'(ti), p4'(ti) en el espacio de monitorización 142, que definen el límite virtual implementado por ordenador 144.
En otro ejemplo (que no está ilustrado de manera separada), una maniobra 148 define un límite virtual implementado por ordenador 144 que comprende la ubicación simultanea de un primer conjunto de uno o más artefactos 200 móviles en el espacio del escenario monitorizado 140 (como en la figura 7B) y, además, el movimiento de un segundo conjunto de uno o más artefactos 200 móviles en el espacio del escenario monitorizado 140 (como en la figura 7A). El límite virtual implementado por ordenador 144 se define 210, en parte, por las posiciones 214 simultáneas del primer conjunto de artefactos 200 móviles y, en parte, por la secuencia de posiciones 214 del segundo conjunto de artefactos 200 móviles en el espacio del escenario monitorizado 140. El primer conjunto de artefactos 200 móviles en el espacio del escenario monitorizado 140 especifica una disposición de un primer conjunto de puntos 214 en el espacio del escenario monitorizado 140, que corresponde a una disposición de puntos 216 en el espacio de monitorización 142. La forma y posición de una primera parte o primeras partes del límite virtual implementado por ordenador 144 están definidas por la posición del primer conjunto de puntos 216 en el espacio de monitorización 142. El segundo conjunto de artefactos 200 móviles en el espacio del escenario monitorizado 140 especifica una o más secuencias de puntos 214 en el espacio del escenario monitorizado 140, que corresponde a un segundo conjunto de puntos 216 en el espacio de monitorización 143. La forma y posición de una segunda parte o segundas partes del límite virtual implementado por ordenador 144 están definidas por la posición del segundo conjunto de puntos 216 en el espacio de monitorización 142. En algunos ejemplos, el límite virtual implementado por ordenador 144 es un polígono con N lados que tiene N vértices (puntos angulares) en el primer y segundo conjunto de puntos 216. El artefacto 200 móvil puede transmitir señales de punto de ruta para indicar al sistema 100 que un punto de ruta en ese momento de su recorrido especifica un punto 214.
Es posible la modificación dinámica del límite virtual implementado por ordenador 144. En la figura 7C, el límite virtual implementado por ordenador 144, tal y como se define en la figura 7B, se redefine con una nueva maniobra 148 que comprende la reubicación de uno o más artefactos 200 móviles en el espacio del escenario monitorizado 140. Se redefine 210 un límite virtual implementado por ordenador 144 con nuevas posiciones 214 de los diversos artefactos 200 móviles en el espacio del escenario monitorizado 140. Los artefactos 200 móviles del espacio del escenario monitorizado 140 especifican una disposición de puntos 214 en el espacio del escenario monitorizado 140, que corresponde a una nueva disposición de puntos 216 en el espacio de monitorización 142. La nueva forma y posición del límite virtual implementado por ordenador 144 están definidas por las nuevas posiciones de los puntos 216 del espacio de monitorización 142. En este ejemplo, el límite virtual implementado por ordenador 144 es un polígono con N lados que tiene N vértices (puntos angulares) en los puntos 216. Cada uno de los diferentes artefactos 200 móviles en el espacio del escenario monitorizado 140 redefine uno de los N vértices. Un artefacto 200 móvil puede transmitir una señal de punto de ruta para indicar al sistema 100 que un punto de ruta en ese momento de su recorrido especifica un punto 214, o que los puntos de ruta de los diversos artefactos 200 móviles en ese momento de su recorrido especifican los puntos 214.
Como se ilustra en la figura 7C, la maniobra 148 en el espacio del escenario monitorizado 140 define los puntos p1(t2), p2(t2), p3(t2), p4(t2) en el espacio del escenario monitorizado 140. Como se ilustra en la figura 7C, los puntos p1(t2), p2(t2), p3(t2), p4(t2) en el espacio del escenario monitorizado 140, determinan los puntos correspondientes p1'(t2), p2'(t2), p3'(t2), p4'(t2) en el espacio de monitorización 142. De este modo, la maniobra 148 en el espacio del escenario monitorizado 140 especifica los puntos pV(t2), P2'(t2), p3'(t2), p4'(t2) en el espacio de monitorización 142, que redefinen el límite virtual implementado por ordenador 144.
La maniobra 148, por ejemplo, tal y como se ha descrito con referencia a las figuras 7A, 7B, 7C, puede ser autónoma, semiautónoma o estar controlada por el usuario.
5
10
15
20
25
30
35
40
45
50
55
60
65
Por ejemplo, un usuario puede especificar un tamaño del límite virtual implementado por ordenador 144. El usuario puede definir un tamaño fijado. El usuario puede definir las reglas que controlan la redimensión del límite virtual implementado por ordenador 144 de manera autónoma.
Por ejemplo, un usuario puede especificar una forma del límite virtual implementado por ordenador 144. El usuario puede definir una forma fijada. El usuario puede definir las reglas que controlan la redimensión del límite virtual implementado por ordenador 144 de manera autónoma. Esto puede producirse, por ejemplo, cuando hay disponibles para su uso más o menos artefactos 200 móviles.
Por ejemplo, un usuario puede especificar posición del límite virtual implementado por ordenador 144. El usuario puede definir una posición absoluta fijada o una posición relativa fijada con respecto a un objeto localizado específico del usuario. El usuario puede definir las reglas que controlan la reubicación del límite virtual implementado por ordenador 144 de manera autónoma. Esto puede producirse, por ejemplo, cuando un objeto localizado u objetos cambian de posición, o cuando cambian otros factores contextuales, tales como la posición del sol.
El control del usuario proporcionado para posibilitar la especificación del usuario de una característica de un límite virtual implementado por ordenador 144, o una regla que controla una característica de un límite virtual implementado por ordenador 144, puede realizarse mediante cualquier medio adecuado. Por ejemplo, el usuario puede ser capaz de proporcionar órdenes de entrada de usuario a los diversos artefactos 200 móviles a través del sistema 100, utilizando, por ejemplo, el control gestual, una interfaz de pantalla táctil, una interfaz de programación, órdenes por voz y similares.
En las figuras 8A, 8B y 8C se ilustra un procedimiento de traspaso desde un primer artefacto 2001 móvil hasta un segundo artefacto 2002 móvil. Antes del traspaso, el primer artefacto 2001 móvil se utiliza para definir un límite virtual implementado por ordenador 144. Tras el traspaso, el primer artefacto 2001 móvil ya no se utiliza para definir el límite virtual implementado por ordenador 144, y se utiliza el segundo artefacto 2002 móvil para definir el límite virtual implementado por ordenador 144.
En estas figuras, se define un límite virtual implementado por ordenador 144 mediante una maniobra 148, que comprende la ubicación simultánea de varios artefactos 200 móviles en el espacio del escenario monitorizado 140. Se define 210 un límite virtual implementado por ordenador 144 mediante una ubicación simultánea 214 de varios artefactos 200 móviles en el espacio del escenario monitorizado 140. Los artefactos 200 móviles del espacio del escenario monitorizado 140 especifican una disposición de puntos 214 en el espacio del escenario monitorizado 140, que corresponde a una disposición de puntos 216 en el espacio de monitorización 142. La forma y posición del límite virtual implementado por ordenador 144 están definidas por la posición de los puntos 216 del espacio de monitorización 142. En este ejemplo, el límite virtual implementado por ordenador 144 es un polígono con N lados que tiene N vértices (puntos angulares) en los puntos 216. Cada uno de los diferentes artefactos 200 móviles en el espacio del escenario monitorizado 140 define uno de los N vértices. Un artefacto 200 móvil puede transmitir una señal de punto de ruta para indicar al sistema 100 que un punto de ruta en ese momento de su recorrido especifica un punto 214, o que los puntos de ruta de los diversos artefactos 200 móviles en ese momento de su recorrido especifican los puntos 214.
La maniobra 148 en el espacio del escenario monitorizado 140 define los puntos p^), p2(t1), p3(t1), p4(t1) en el espacio del escenario monitorizado 140.
Como se ilustra en la figura 8A, antes del traspaso 300, los puntos p1 (t1), p2(t1), p3(t1), p4(t1) en el espacio del escenario monitorizado 140, determinan los puntos correspondientes pV(ti), p2'(ti), p3'(ti), p4'(t1) en el espacio de monitorización 142, que definen el límite virtual implementado por ordenador 144. El primer artefacto 2001 móvil está asociado con la posición p2(ti) y define, al menos parte, del límite virtual implementado por ordenador 144. El segundo artefacto 2002 móvil está asociado con la posición p5(t1) y no define ninguna parte del límite virtual implementado por ordenador 144.
Como se ilustra en la figura 8B, después del traspaso 300, los puntos p1(t2), ps(t2), p3(t2), p4(t2) en el espacio del escenario monitorizado 140, determinan los puntos correspondientes pV(t2), ps'fe), p3'(t2), p4'(t2) en el espacio de monitorización 142, que definen el límite virtual implementado por ordenador 144. El primer artefacto 2001 móvil, asociado a la posición p2(ti), ya no define ninguna parte del límite virtual implementado por ordenador 144. El segundo artefacto 2002 móvil, asociado a la posición ps(t2), define parte del límite virtual implementado por ordenador 144.
En el ejemplo ilustrado en la figura 8C, aunque no necesariamente en todos los ejemplos, después del traspaso 300, el segundo artefacto 2002 móvil, asociado a la posición p5(t), cambia la posición 302, de modo que su posición p5(t3) = p2(t1).
Es decir, el segundo artefacto 2002 móvil ocupa la misma posición 214 que ocupó el primer artefacto 2001 móvil antes del traspaso 300. Los puntos p^), p5(t3), p3(t3), p4(t3) en el espacio del escenario monitorizado 140, determinan los puntos correspondientes pV(t3), p5'(t3), p3(t3), p4'(t3) en el espacio de monitorización 142, que definen el límite virtual implementado por ordenador 144. El límite virtual implementado por ordenador 144 en el tiempo t3 es el mismo que el límite virtual implementado por ordenador 144 en el tiempo ti, sin embargo, ahora está definido por
5
10
15
20
25
30
35
40
45
50
55
60
65
el segundo artefacto 2002 móvil y no por el primer artefacto 200i móvil.
El traspaso 300 entre los artefactos 200 móviles puede ser automático. Por ejemplo, si una batería utilizada por el primer artefacto 2001 móvil se descarga por debajo de un nivel umbral, puede transmitir una señal de sustitución. El segundo artefacto 2002 móvil, en respuesta a la señal de sustitución, se aproxima al primer artefacto 2001 móvil y realiza un traspaso 300 con el primer artefacto 2001 móvil.
El traspaso 300 puede involucrar adicionalmente al sistema 100, de modo que las comunicaciones desde el sistema 100 hasta el primer artefacto 2001 móvil cambian para llevar a cabo la comunicación desde el sistema 100 hasta el segundo artefacto 2002 móvil. Puede ser necesario, por ejemplo, que el sistema 100 se desempareje del primer artefacto 2001 móvil y se empareje con el segundo artefacto 2002 móvil.
De este modo, el sistema 100 en el tiempo ti, ubica el primer artefacto 2001 móvil en el espacio del escenario monitorizado 140 para definir, al menos parcialmente, una forma y posición de un límite virtual implementado por ordenador 144 en un espacio de monitorización 142 correspondiente, y provoca la implementación del límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente al espacio del escenario monitorizado 140. El sistema 100 procesa los datos recibidos 112 desde los sensores 110 del espacio del escenario monitorizado 140 para posibilitar la generación de un episodio de respuesta, que responde a un cambio en al menos una parte del espacio del escenario monitorizado 140 con respecto al límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente.
El sistema 100, entre el tiempo t1 y el tiempo t2, reconoce un traspaso 300 desde un primer artefacto 2001 móvil hasta un segundo artefacto 2002 móvil.
El sistema 100 en el tiempo t2, ubica el segundo artefacto 2002 móvil en el espacio del escenario monitorizado 140 para definir al menos parcialmente un nuevo límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente; y procesa los datos recibidos 112 desde los sensores 110 del espacio del escenario monitorizado 140 para posibilitar la generación de un episodio de respuesta, que responde a un cambio en al menos una parte del espacio del escenario monitorizado 140 con respecto al límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente.
En el ejemplo anterior, el traspaso 300 se utiliza para sustituir un artefacto 200 móvil por otro. En otros ejemplos, uno o más artefactos móviles pueden añadirse, lo que aumenta N, o quitarse, lo que disminuye N.
En otros ejemplos, pueden combinarse uno o más límites implementados por ordenador distintos para definir un nuevo límite implementado por ordenador 214.
El sistema 100 puede proporcionar retroalimentación al usuario para confirmar que el sistema 100 ha reconocido una maniobra 146 y ha implementado el límite implementado por ordenador 144. La retroalimentación puede comprender cualquier retroalimentación adecuada, por ejemplo, retroalimentación por audio y/o visual y/o táctil y otras. Adicional o alternativamente, el sistema 100 puede enviar uno o más mensajes a un dispositivo o dispositivos para informar al usuario de que el sistema 100 ha implementado el límite implementado por ordenador 144.
El sistema 100 puede procesar los datos recibidos para generar un episodio de respuesta cuando, con respecto al al menos un límite virtual 144, hay un cambio en la parte del espacio del escenario monitorizado 140 que provoque un cambio en una parte del espacio de monitorización 142 delimitado por el límite implementado por ordenador.
Por ejemplo, el sistema 100 puede procesar los datos recibidos por los sensores 110, tales como datos de audio y/o imagen, para así generar el episodio de respuesta. El sistema puede analizar uno o más suministros de datos de audio y/o vídeo para generar el episodio de respuesta. En algunos ejemplos, el procesamiento de los datos recibidos para generar el episodio de respuesta puede considerarse como la monitorización del límite implementado por ordenador 144.
En ejemplos, el mismo sensor, tal como una cámara, puede utilizarse para reconocer la maniobra 146, que define el al menos un límite virtual 144, y para monitorizar el al menos un límite virtual 144.
En algunos ejemplos, el procesamiento de los datos recibidos para generar el episodio de respuesta puede comprender el procesamiento de los datos recibidos para monitorizar el límite implementado por ordenador 144, y así detectar la actividad a través del límite implementado por ordenador 144 y/o la actividad dentro de un umbral del límite implementado por ordenador 144. Por ejemplo, el sistema 100 puede procesar los datos de audio y/o imagen y/o profundidad para monitorizar el límite implementado por ordenador 144 y así detectar la actividad a través del límite implementado por ordenador 144 y/o la actividad dentro de un umbral del límite implementado por ordenador 144.
El episodio de respuesta puede comprender la provisión de retroalimentación, por ejemplo, utilizando el módulo de comunicación 130. En algunos ejemplos, la retroalimentación puede comprender una o más alertas. La una o más
5
10
15
20
25
30
35
40
45
50
55
60
alertas pueden comprender cualquier forma de alerta, tal como alertas de audio y/o visuales. Adicional o alternativamente, la retroalimentación puede comprender la provisión de uno o más mensajes a un aparato, tal como un teléfono móvil, tablet, ordenador portátil, ordenador de sobremesa y otros.
En algunos ejemplos, el episodio de respuesta puede comprender, adicional o alternativamente, el aumento de un contador. Por ejemplo, el sistema 100 puede monitorizar el número de veces que hay interacción con el límite, tal como un objeto 152 que toca y/o cruza y/o se aproxima al límite dentro de un umbral del límite implementado por ordenador 144. Adicional o alternativamente, el sistema 100 puede monitorizar la dirección de las interacciones del límite, tales como la dirección de los cruces del límite. El sistema 100 puede configurarse para proporcionar estadísticas o interacciones con el límite.
Un usuario del sistema 100 puede configurar el episodio de respuesta.
El sistema 100, en algunos ejemplos, puede procesar los datos recibidos para generar un episodio de respuesta cuando hay, con respecto al límite implementado por ordenador 144, un cambio en una parte del espacio del escenario monitorizado 140 en relación con cualquier objeto 152. Por ejemplo, el sistema puede generar un episodio de respuesta cuando cualquier objeto 152 cruza, toca y/o entra dentro de un umbral del límite implementado por ordenador 144. Dichos límites virtuales 144 pueden considerarse límites virtuales 144 generales.
En otros ejemplos, el sistema puede procesar los datos recibidos para generar un episodio de respuesta cuando hay, con respecto al límite implementado por ordenador 144, un cambio en una parte del espacio del escenario monitorizado 140 en relación con uno o más objetos 152 especificados por el usuario.
Por ejemplo, tras definir el límite virtual implementado por ordenador 144, un usuario del sistema 100 puede indicar al sistema 100 uno o más objetos 152. El sistema 100, en respuesta, el sistema 100 solo puede generar un episodio de respuesta cuando hay un cambio en una parte del espacio del escenario monitorizado 140 con respecto al límite implementado por ordenador 144, en relación con los objetos 152 indicados. Por ejemplo, el sistema 100 solo puede generar un episodio de respuesta cuando uno de los objetos 152 cruza, toca y/o entra dentro de un umbral del límite implementado por ordenador 144. Dichos límites virtuales 144 pueden considerarse límites virtuales específicos de objeto.
En algunos ejemplos, un límite virtual implementado por ordenador 144 puede monitorizarse condicionalmente y/o habilitarse/deshabilitarse condicionalmente. Por ejemplo, el sistema 100 puede procesar los datos recibidos para generar un episodio de respuesta cuando, con respecto al límite virtual implementado por ordenador 144, hay un cambio en una parte del espacio del escenario monitorizado 140 cuando se cumplen uno o más criterios, pero no procesa los datos recibidos para generar el episodio de respuesta de otra manera.
El usuario puede definir previamente y/o configurar los criterios.
En ejemplos, puede utilizarse cualquier criterio/criterios. Por ejemplo, puede utilizarse cualquier criterio temporal y/o físico. En ejemplos, un límite virtual implementado por ordenador 144 puede monitorizarse condicionalmente dependiendo del tiempo del día y/o día de la semana y/o semana del mes y/o mes del año y/o independientemente de la presencia de uno o más objetos 152 en el espacio del escenario monitorizado 140.
La figura 9 ilustra un ejemplo de un método 800. El sistema 100 puede llevar a cabo el método 800. En el bloque 802, el método 800 comprende: ubicar uno o más artefactos 200 móviles en un espacio del escenario monitorizado 140 para, al menos, definir parcialmente una forma y posición de un límite virtual implementado por ordenador 144 en un espacio de monitorización 142 correspondiente. En el bloque 804, el método 800 comprende: provocar la implementación del límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente al espacio del escenario monitorizado 140. En el bloque 806, el método 800 comprende: procesar los datos recibidos 112 desde los sensores 110 del espacio del escenario monitorizado 140 para generar un episodio de respuesta, que responde a un cambio en al menos una parte del espacio del escenario monitorizado 140 con respecto al límite virtual implementado por ordenador 144 en el espacio de monitorización 142 correspondiente.
Donde se haya descrito una característica estructural, puede sustituirse por medios que lleven a cabo una o más de las funciones de la característica estructural, tanto si esa o esas funciones se describen de manera explícita como implícita.
Los ejemplos de la divulgación proporcionan una manera fácil e intuitiva de definir límites virtuales para un sistema de vigilancia.

Claims (14)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    REIVINDICACIONES
    1. Un método que comprende:
    colocar uno o más drones en un espacio del escenario monitorizado para definir, al menos parcialmente, la forma y la posición de un límite virtual implementado por ordenador en un espacio de monitorización correspondiente; causar la implementación del límite virtual implementado por ordenador en el espacio de monitorización correspondiente al espacio del escenario monitorizado, y
    procesar los datos recibidos desde los sensores del espacio del escenario monitorizado para generar un episodio de respuesta, que responde a un cambio en al menos una parte del espacio del escenario monitorizado con respecto al límite virtual implementado por ordenador en el espacio de monitorización correspondiente.
  2. 2. Un método según la reivindicación 1, en el que el dron es un dron aeronave configurado para mantener, de manera autónoma, una posición tridimensional y/o configurado para mantener, de manera autónoma, una orientación tridimensional.
  3. 3. Un método según la reivindicación 2, en el que el dron aeronave está configurado para funcionar al aire libre.
  4. 4. Un método según cualquiera de las reivindicaciones anteriores, en el que el uno o más drones que están en el espacio del escenario monitorizado especifican los puntos del espacio del escenario monitorizado que se corresponden con los puntos del espacio de monitorización, en el que se definen, al menos parcialmente, una forma y una posición del límite virtual implementado por ordenador mediante los puntos del espacio de monitorización.
  5. 5. Un método según cualquiera de las reivindicaciones anteriores, en el que el límite virtual implementado por ordenador es un polígono con N lados que dispone de N vértices, en el que el uno o más artefactos móviles dentro del espacio del escenario monitorizado definen los N vértices.
  6. 6. Un método según cualquiera de las reivindicaciones anteriores, en el que el límite virtual implementado por ordenador solo está definido por el movimiento de un único dron en el espacio del escenario monitorizado.
  7. 7. Un método según cualquiera de las reivindicaciones 1 a 5, en el que el límite virtual implementado por ordenador está definido por las posiciones de diversos drones en el espacio del escenario monitorizado.
  8. 8. Un método según cualquiera de las reivindicaciones anteriores, en el que la ubicación de uno o más drones comprende procesar los datos recibidos para localizar el movimiento del uno o más drones móviles en el espacio del escenario monitorizado.
  9. 9. Un método según cualquiera de las reivindicaciones anteriores, que comprende además el emparejamiento de uno o más drones móviles en el espacio del escenario monitorizado, para posibilitar la ubicación del uno o más drones móviles en el espacio del escenario monitorizado, y la definición de una forma y una posición del límite virtual implementado por ordenador.
  10. 10. Un método según cualquiera de las reivindicaciones anteriores, que comprende además el reconocimiento de al menos una señal de punto de ruta predeterminada para permitir que se reconozca un vértice en el límite virtual implementado por ordenador.
  11. 11. Un método según cualquiera de las reivindicaciones anteriores, en el que al menos algunos de los sensores del espacio del escenario monitorizado forman parte del uno o más drones móviles.
  12. 12. Un método según cualquiera de las reivindicaciones anteriores, en el que el procesamiento de los datos recibidos para generar un episodio de respuesta comprende el procesamiento de los datos de imagen, para monitorizar el límite virtual implementado por ordenador, y así detectar la actividad a través del límite virtual implementado por ordenador y/o la actividad dentro de un umbral del límite virtual implementado por ordenador.
  13. 13. Un método según cualquier reivindicación anterior, que comprende además: reconocer un traspaso desde el primer dron hasta un segundo dron;
    ubicar el segundo dron en el espacio del escenario monitorizado para definir, al menos parcialmente, un nuevo límite virtual implementado por ordenador en el espacio de monitorización correspondiente; y procesar los datos recibidos desde los sensores del espacio del escenario monitorizado para permitir la creación de un episodio de respuesta, en a un cambio en al menos una parte del espacio del escenario monitorizado con respecto al nuevo límite virtual implementado por ordenador en el espacio de monitorización correspondiente.
  14. 14. Un aparato que comprende medios para llevar a cabo el método de al menos una de las reivindicaciones 1 a 13, o un programa informático, que cuando lo ejecuta al menos un procesador hace que se lleve a cabo al menos el método de al menos una de las reivindicaciones 1 a 13.
ES15175986.7T 2015-07-09 2015-07-09 Monitorización Active ES2667096T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP15175986.7A EP3115978B1 (en) 2015-07-09 2015-07-09 Monitoring

Publications (1)

Publication Number Publication Date
ES2667096T3 true ES2667096T3 (es) 2018-05-09

Family

ID=53717885

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15175986.7T Active ES2667096T3 (es) 2015-07-09 2015-07-09 Monitorización

Country Status (7)

Country Link
US (1) US10776631B2 (es)
EP (1) EP3115978B1 (es)
JP (2) JP6705886B2 (es)
KR (1) KR102096191B1 (es)
CN (1) CN107851358B (es)
ES (1) ES2667096T3 (es)
WO (1) WO2017005976A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2667096T3 (es) * 2015-07-09 2018-05-09 Nokia Technologies Oy Monitorización
JP6302956B2 (ja) * 2016-06-15 2018-03-28 株式会社Subaru 隊形設定装置、隊形設定方法及び隊形設定プログラム
US11238281B1 (en) * 2017-02-27 2022-02-01 Amazon Technologies, Inc. Light source detection in field of view
CN111824406A (zh) * 2020-07-17 2020-10-27 南昌航空大学 一种基于机器视觉的公共安全自主巡查四旋翼无人机

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002211494A (ja) 2001-01-17 2002-07-31 Todaka Seisakusho:Kk 無人ヘリコプタ用飛行計画装置
AU2003225862A1 (en) * 2002-03-19 2003-10-08 Rocket City Technology, Inc. Keeping pets in a defined boundary having exclusion areas
JP2004062611A (ja) 2002-07-30 2004-02-26 Denso Corp 車両盗難防止センタ、および車両盗難防止装置
JP2004106802A (ja) 2002-09-20 2004-04-08 Nippon Telegr & Teleph Corp <Ntt> 盗難検出装置及び盗難監視装置
US7564348B2 (en) 2004-11-05 2009-07-21 Wirelesswerx International, Inc. Method and system to monitor movable entities
US7317927B2 (en) * 2004-11-05 2008-01-08 Wirelesswerx International, Inc. Method and system to monitor persons utilizing wireless media
JP2006281830A (ja) 2005-03-31 2006-10-19 Yamaha Motor Co Ltd カメラの視点表示システム
JP2007099197A (ja) 2005-10-07 2007-04-19 Toyota Motor Corp 車両用盗難防止装置
JP2008068710A (ja) 2006-09-13 2008-03-27 Yamaha Motor Co Ltd 無人ヘリコプタのデータ管理方法
US9043052B2 (en) * 2008-05-27 2015-05-26 Wilfred So System and method for multiple vehicles moving a common payload
JP5248292B2 (ja) 2008-12-03 2013-07-31 株式会社東芝 捜索作業支援システム及び捜索作業支援方法
US8779925B2 (en) 2010-05-18 2014-07-15 Woodstream Corporation Custom-shape wireless dog fence system and method
US8726847B2 (en) * 2010-05-18 2014-05-20 Woodstream Corporation Custom-shape wireless dog fence system and method with temperature compensated crystal oscillator for reduced clock speed variation between multiple base units and collar
CN102682627B (zh) 2012-05-04 2014-04-09 北京民航天宇科技发展有限公司 一种基于ads-b的通用航空飞行监视机载系统
US9102406B2 (en) * 2013-02-15 2015-08-11 Disney Enterprises, Inc. Controlling unmanned aerial vehicles as a flock to synchronize flight in aerial displays
US9075415B2 (en) 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
WO2016057098A2 (en) * 2014-07-15 2016-04-14 Richard Postrel System and method for automated traffic management of intelligent unmanned aerial vehicles
CN104156821A (zh) * 2014-08-11 2014-11-19 江苏恒创软件有限公司 一种基于无人机的自然草场畜牧业管理方法
EP3800532B1 (en) 2014-12-24 2024-06-19 Nokia Technologies Oy Automated monitoring of a scene
US9864372B2 (en) * 2015-03-12 2018-01-09 Nightingale Intelligent Systems Automated drone systems
EP3101511A1 (en) 2015-06-03 2016-12-07 Nokia Technologies Oy Monitoring
EP3101629B1 (en) 2015-06-04 2021-03-17 Nokia Technologies Oy Mediated reality
EP3115926A1 (en) 2015-07-08 2017-01-11 Nokia Technologies Oy Method for control using recognition of two-hand gestures
EP3115870B1 (en) 2015-07-09 2023-11-08 Nokia Technologies Oy Monitoring
ES2667096T3 (es) * 2015-07-09 2018-05-09 Nokia Technologies Oy Monitorización

Also Published As

Publication number Publication date
WO2017005976A1 (en) 2017-01-12
KR102096191B1 (ko) 2020-04-02
US10776631B2 (en) 2020-09-15
JP2019198077A (ja) 2019-11-14
KR20180031013A (ko) 2018-03-27
EP3115978A1 (en) 2017-01-11
CN107851358B (zh) 2019-09-17
CN107851358A (zh) 2018-03-27
US20180197015A1 (en) 2018-07-12
JP2018523231A (ja) 2018-08-16
EP3115978B1 (en) 2018-03-07
JP6705886B2 (ja) 2020-06-03

Similar Documents

Publication Publication Date Title
US11861892B2 (en) Object tracking by an unmanned aerial vehicle using visual sensors
JP6592183B2 (ja) モニタリング
Alwateer et al. Drone services: issues in drones for location-based services from human-drone interaction to information processing
JP6784434B2 (ja) 方法、uav制御プログラム、無人航空機、及び制御システム
US11640486B2 (en) Architectural drawing based exchange of geospatial related digital content
ES2667096T3 (es) Monitorización
KR102032662B1 (ko) 장면 공간 모니터링을 통한 사람-컴퓨터 상호 작용
EP3115870B1 (en) Monitoring
US11436389B2 (en) Artificial intelligence based exchange of geospatial related digital content
CN109656319B (zh) 一种用于呈现地面行动辅助信息方法与设备
US11620597B1 (en) Machine learning real property object detection and analysis apparatus, system, and method
JP2018523231A5 (es)
CN109618131B (zh) 一种用于呈现决策辅助信息的方法与设备
CN108700877A (zh) 用于在存在活动物体时控制无人载运工具的系统和方法
KR102270246B1 (ko) 공장 및 실험실 환경 모니터링 시스템
Meng et al. Arpico: Using pictures to build localization service for indoor iot applications
KR20180106178A (ko) 무인 비행체, 전자 장치 및 그에 대한 제어 방법
US20240062478A1 (en) Spatial navigation to digital content
Hamim et al. Reconnaissance Robot for Military Operation and Multipurpose Surveillance
Jeya et al. Indoor Environment Surveillance via an Autonomous Mobile Robotic Device
Yu FPGA based formation control of multiple ubiquitous indoor robots