ES2936342T3 - Control por gestos - Google Patents

Control por gestos Download PDF

Info

Publication number
ES2936342T3
ES2936342T3 ES15701125T ES15701125T ES2936342T3 ES 2936342 T3 ES2936342 T3 ES 2936342T3 ES 15701125 T ES15701125 T ES 15701125T ES 15701125 T ES15701125 T ES 15701125T ES 2936342 T3 ES2936342 T3 ES 2936342T3
Authority
ES
Spain
Prior art keywords
user
space
gesture
detected
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15701125T
Other languages
English (en)
Inventor
Julian Charles Nolan
Matthew John Lawrenson
Eeuwijk Alexander Henricus Waltherus Van
Wyngaert Hilbrand Vanden
William Nathan Chelton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Application granted granted Critical
Publication of ES2936342T3 publication Critical patent/ES2936342T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/196Controlling the light source by remote control characterised by user interface arrangements
    • H05B47/1975Gesture control
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/198Grouping of control procedures or address assignation to light sources
    • H05B47/1985Creation of lighting zones or scenes
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/198Grouping of control procedures or address assignation to light sources
    • H05B47/199Commissioning of light sources
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/196Controlling the light source by remote control characterised by user interface arrangements
    • H05B47/1965Controlling the light source by remote control characterised by user interface arrangements using handheld communication devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Un controlador, método y programa para controlar una o más fuentes de una utilidad para proporcionar la utilidad en un espacio ocupado por uno o más usuarios, por ejemplo, para controlar fuentes de luz que iluminan un espacio interior o exterior. Se procesa una entrada de uno o más sensores para detectar movimientos de un usuario en el espacio, para detectar que los movimientos corresponden a gestos predeterminados realizados por el usuario y para detectar una posición desde la que se realizó cada gesto. Además, cada una de una pluralidad de políticas de control discretas está asociada con una combinación respectiva de gesto predeterminado y demarcación posicional dentro del espacio. Cada política de control define una respuesta respectiva de la utilidad al gesto asociado respectivo. Para gestos realizados desde cada una de una pluralidad de posiciones diferentes, (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Control por gestos
CAMPO TÉCNICO
La presente divulgación se refiere al control de una utilidad, tal como la iluminación, a través de la detección de gestos físicos realizados por un usuario.
ESTADO DE LA TÉCNICA ANTERIOR
En los últimos años, los productos, tales como las consolas de videojuegos y, más recientemente, los teléfonos móviles, han introducido el control por gestos entre los consumidores. Por ejemplo, el control por gestos puede utilizarse para encender y apagar un dispositivo utilizando un gesto con la mano o para controlar un personaje en un videojuego en función del propio movimiento corporal del usuario.
El control por gestos está basado en el reconocimiento de gestos, que puede implementarse utilizando una combinación de diversas tecnologías. Una de tales tecnologías es la detección de imágenes con reconocimiento de profundidad, que es capaz de producir una imagen de 3D basada en la información del tiempo de vuelo. Por ejemplo, una cámara de 3D no solo capturará la luz visible en una matriz de píxeles bidimensional, sino que también aumentará esta con información del tiempo de vuelo para la luz recibida en algunos o en todos los píxeles. Otra posibilidad es utilizar un algoritmo de reconocimiento de imágenes para reconocer un gesto en una imagen capturada desde una cámara 2D convencional. Otra posibilidad más es detectar el movimiento en función de uno o más acelerómetros y/o sensores rotacionales, tales como giroscopios o magnetómetros dispuestos alrededor del usuario, tanto puestos como sujetados por el usuario.
Un gesto es una acción realizada explícitamente por un usuario humano con el propósito de señalar una intención de controlar algún sistema o aparato. Además, el término "gesto" como se utiliza en el presente documento se refiere al movimiento de al menos un miembro corporal en el aire (u otro medio fluido del espacio que esté ocupando el usuario, por ejemplo, agua). Como tal, este excluye una acción detectada únicamente al detectar el miembro corporal en cuestión que se esté presionando o sujetando contra un botón o una superficie de control, tal como una pantalla táctil, una almohadilla de presión o una almohadilla de seguimiento (tanto directa como indirectamente a través de un complemento, tal como un lápiz óptico). También excluye la detección basada únicamente en mover un dispositivo de detección sobre una superficie mientras está en contacto con dicha superficie, por ejemplo, un ratón. En cambio, detectar un gesto significa detectar el movimiento del usuario por medio de un principio de detección sin contacto o no táctil. En el caso de reconocimiento de imágenes bidimensionales o tridimensionales, la detección puede conseguirse sin que el usuario tenga que tocar necesariamente ningún dispositivo de control en absoluto. En el caso de un sensor o sensores dispuestos alrededor de la persona del usuario, por ejemplo uno o más acelerómetros que se usan en una pulsera o se llevan como parte de un controlador de mano, el usuario no toca el dispositivo que aloja el(los) sensor(es), sino que es el propio mecanismo de detección en función de un principio no táctil en el que el dispositivo y el sensor se mueven con el gesto formado por el miembro corporal del usuario, por ejemplo como es el caso con un controlador de juegos basado en gestos. Esto puede contrastarse con un principio de detección táctil por medio del cual la acción es detectada por el miembro corporal o complemento que se mueve por la superficie del sensor mientras está en contacto y/o está siendo presionado contra el sensor mientras el dispositivo que lo aloja permanece inmóvil o está reforzado para resistir esa presión, como es el caso de presionar un botón o de operar una pantalla táctil.
Una aplicación del control por gestos es controlar la iluminación en un espacio, tal como una habitación. La Patente US2012/0019168 desvela realizaciones de un sistema en el que la iluminación es controlada tanto basándose en gestos como en otros tipos de acción. Según la Patente US' 168, se analiza una imagen desde una cámara para determinar un tipo de acción que está siendo realizada por un usuario, y también para determinar las coordenadas del usuario dentro de una habitación. En una realización de la Patente US' 168, la acción detectada no es un gesto explícito, sino si el usuario está caminando, leyendo, escribiendo u operando un ordenador personal. En esta realización, las luces se encienden únicamente en una zona en la que es detectado el usuario, o las luces se encienden en una distribución alrededor del usuario, de manera que el brillo de las diferentes luces disminuya con su distancia desde las coordenadas detectadas del usuario. El brillo en la zona o el brillo general de la distribución dependen del tipo de acción, por ejemplo, si se camina o si se está sentado en un PC. En otra realización de la Patente US' 168, el sistema no trabaja en función de un control por gestos: el usuario alza su mano para encender las luces y baja la mano para apagar las luces. En esta realización, las coordenadas detectadas del usuario se utilizan como "información de marcador" para ayudar al sistema a aprender el gesto.
La Patente WO 2013/175341 A2 desvela un aparato y un método de control de un primer dispositivo y/o un segundo dispositivo. El aparato comprende una primera unidad, una segunda unidad y una tercera unidad. La primera unidad es para obtener datos que representan un lugar físico donde está un usuario y el gesto de un usuario en el espacio físico. El lugar físico comprende una primera zona asociada con el primer dispositivo, una segunda zona asociada con el segundo dispositivo y una tercera zona asociada con el primer dispositivo y el segundo dispositivo. La segunda unidad es para identificar el gesto del usuario y una posición del gesto del usuario entre la primera zona, la segunda zona y la tercera zona en función de los datos obtenidos. La tercera unidad es para generar, en función del gesto del usuario y la posición del gesto del usuario, una señal de control para controlar el primer dispositivo y/o el segundo dispositivo. De esta manera, al definir correctamente los gestos de interacción en estas tres zonas, puede conseguirse el equilibrio entre menos gestos y una pequeña área de movimiento.
La Patente US 2006/0182346 A1 desvela que se proporciona una interfaz que corresponde a una persona individual sin estar restringida a un lugar particular dentro de una habitación, mediante la realización del reconocimiento de gestos mientras se identifica a una persona individual. Una cámara estéreo captura una imagen de un usuario y, en función de la salida de la captura de imagen, un procesador de imágenes transmite una imagen a color dentro de un campo visual y una imagen de distancia a un dispositivo de reconocimiento integrado de información. El dispositivo de reconocimiento integrado de información identifica a un individuo mediante la cara del usuario, detecta la posición y reconoce un gesto significativo basado en un gesto de la mano del usuario. El dispositivo de reconocimiento integrado de información ejecuta un comando correspondiente al usuario identificado y ejecuta las operaciones de todos los dispositivos que serán operados en la habitación (tales como un conjunto de TV, un aire acondicionado, un ventilador eléctrico, la iluminación, la condición acústica y la apertura/cierre de ventanas).
SUMARIO
Incluso si se combinara el control por gestos con una respuesta particular, tal como que las luces se atenúen en una distribución alrededor del usuario, entonces un gesto dado siempre tendría la misma respuesta o función dondequiera que el usuario fuera dentro del espacio en cuestión. Por ejemplo, dondequiera que fuera el usuario, la subida o la bajada de la mano todavía seguiría simplemente realizando siempre la misma función de subir o bajar las luces en una distribución alrededor de la ubicación del usuario.
Por otra parte, aquí se reconoce que sería deseable que no solo la propia iluminación se controlara en función del gesto y la posición, sino también que la manera en la que el gesto controla la iluminación también pudiera variar en función de la posición del usuario. En consecuencia, en la siguiente divulgación, se aplican diferentes políticas de control dependiendo de la posición del usuario, donde cada política define una respectiva respuesta diferente de la iluminación a un gesto. Es decir, cada política de control controla la salida del sistema como una función diferente del gesto, y se proporcionan diferentes funciones del gesto para diferentes posiciones del usuario. El término "posición", como se utiliza en el presente documento, puede referirse a la ubicación y/u orientación, por lo que, por ejemplo, pueden asignarse diferentes respuestas a diferentes zonas dentro de una habitación u otro espacio, y/o la respuesta puede depender de la dirección hacia la que esté orientado el usuario.
La invención se establece en el conjunto de reivindicaciones adjunto.
Por lo tanto, ventajosamente, un gesto puede ser interpretado en función de la posición del usuario detectada, a fin de asignar un significado que sea el más adecuado para la posición actual del usuario desde la cual realice el gesto el usuario. Por ejemplo, un usuario que realiza un determinado gesto en la entrada de una habitación puede desear atenuar todas las fuentes de luz en la habitación de manera uniforme, mientras que un usuario sentado en un escritorio puede desear atenuar únicamente las fuentes de luz alrededor del escritorio y/o atenuar las fuentes de luz según una distribución del brillo alrededor del escritorio. Como otro ejemplo, un usuario puede desear atenuar únicamente aquellas fuentes de luz dentro de su campo de visión, a menos que no haya fuentes de luz en el campo de visión del usuario, en cuyo caso, puede aplicarse una política alternativa. También pueden aplicarse políticas que definan otras respuestas. Además, también podrían aplicarse principios similares al control de otras utilidades, tales como la calefacción o el aire acondicionado.
Por lo tanto, según un aspecto desvelado en el presente documento, se proporciona un controlador para controlar uno o más recursos de una utilidad para proporcionar la utilidad en un espacio ocupado por uno o más usuarios. En algunas realizaciones, el uno o más recursos son fuentes de luz, y la utilidad que proporcionan es la iluminación del espacio. El controlador comprende lógica de detección del movimiento, lógica de posicionamiento, lógica de selección de la política de control y lógica de comando configurada para operar de la siguiente manera.
La lógica de detección del movimiento procesa una entrada desde un sensor para detectar movimientos de un usuario en dicho espacio y también para detectar que los movimientos corresponden a los gestos predeterminados realizados por el usuario. Por ejemplo, el gesto puede comprender subir o bajar una mano, o dibujar una forma en el aire.
Además, los gestos se realizan desde diferentes posiciones respectivas en dicho espacio, y la lógica de posicionamiento procesa una entrada desde un sensor para detectar la posición desde la cual el usuario ha realizado cada uno de dichos gestos, por ejemplo la ubicación aproximada y la orientación en la que se ha detectado que el usuario estaba de pie o sentado cuando realizó el gesto.
La lógica de selección de la política de control está configurada para operar basándose en un medio de asociación, tal como una tabla de consulta, algoritmo u otra lógica, que asocia cada una de una pluralidad de políticas de control discretas con una combinación respectiva de gesto predeterminado y demarcación posicional dentro de dicho espacio. Cada política de control define una respectiva respuesta de dicha utilidad al respectivo gesto asociado. En función de esta asociación, la lógica selecciona una de las políticas de control que está asociada con el gesto detectado y la posición detectada, seleccionándose las diferentes políticas de control para los gestos detectados realizados desde cada una de las diferentes posiciones detectadas en función de la respectiva posición detectada. Entonces, la lógica de comando controla el uno o más recursos para proporcionar la utilidad de acuerdo con la respuesta respectiva de la política de control seleccionada.
En el caso en el que los recursos son fuentes de luz, la utilidad proporcionada es la iluminación del espacio, por ejemplo, un espacio interior que comprende una o más habitaciones y/o pasillos, o un espacio exterior, tal como un jardín o un parque.
En algunas realizaciones, la respuesta definida por al menos una de las políticas de control es una cuestión de grado que depende de una magnitud del gesto detectado. Por ejemplo, la distancia a la cual un usuario sube o baja su brazo puede corresponder a la cantidad a la cual se atenúa o se aumenta la intensidad de una o más fuentes de luz. Otro ejemplo sería el ángulo de un arco a lo largo del cual el usuario dibuje un movimiento circular en el aire, que podría controlar la cantidad de atenuación o una variación en alguna otra variable, tal como la temperatura del color.
En algunas realizaciones, así como la selección de la política de control está basada en la posición detectada, la respuesta respectiva definida por al menos una de las políticas de control comprende una distribución espacial en la provisión de dicha utilidad dentro de dicho espacio, en donde la distribución espacial también es una función de la posición detectada. Es decir, la respuesta definida por al menos una de las políticas es una función tanto del gesto como de la posición del usuario, además de la cuestión de que la política que se selecciona también es una función de la posición. Por ejemplo, al menos una política puede definir una respuesta mediante la cual una pluralidad de fuentes de luz se atenúa en una distribución alrededor de la ubicación del usuario, siendo la distribución para que el brillo de las fuentes disminuya con su separación desde la posición del usuario. Es posible que una o más políticas no definan dicha distribución espacial, por ejemplo, con al menos una política que varía uniformemente todas las fuentes de luz en el espacio relevante.
En algunas realizaciones, al menos dos políticas de control diferentes pueden estar asociadas con el mismo gesto predeterminado, pero diferentes demarcaciones posicionales respectivas, de modo que el mismo gesto se interpreta de manera diferente dependiendo de la posición. Por ejemplo, subir o bajar una mano puede aumentar o disminuir la intensidad de las luces de acuerdo con una función del gesto cuando el usuario está ubicado en una zona y/u orientarse en una dirección, mientras el mismo gesto aumenta o disminuye la intensidad de las luces de acuerdo con una función diferente de dicho gesto cuando el usuario está ubicado en una zona diferente o está orientado en una dirección diferente.
Como se ha mencionado, la demarcación posicional comprende una demarcación en la ubicación y orientación del usuario. Por ejemplo, puede haber definidas diferentes zonas, tal como una macrozona que controla las fuentes de luz uniformemente y/o controla todas las luces en un espacio, y una zona no macro que controla únicamente un subconjunto de las fuentes de luz dentro de un cierto rango desde la posición del usuario y/o controla fuentes de luz de acuerdo con una distribución espacial, mediante lo cual la intensidad disminuye con la separación desde la posición del usuario. Como alternativa o adicionalmente, puede habar diferentes demarcaciones direccionales definidas, tales como demarcaciones basadas en el campo de visión del usuario. Por ejemplo, cuando una o más fuentes de luz en un espacio están dentro del campo de visión del usuario, entonces el gesto puede controlar esas fuentes de luz (a favor de las que no están en el campo de visión del usuario), mientras que cuando no hay fuentes de luz en el campo de visión del usuario, entonces puede aplicarse una política de control predeterminada (tal como la que solo uno de un subconjunto de las fuentes de luz más próximas al usuario sea controlado por el gesto). En algunas realizaciones, el control de las fuentes de luz en el campo de visión del usuario puede realizarse en función de una distribución espacial mediante la cual la intensidad disminuye con la separación desde el usuario.
En otras realizaciones alternativas o adicionales más, pueden proporcionarse otras políticas de control que asocien otras respuestas, demarcaciones posicionales y/o gestos. Además, las políticas pueden estar preconfiguradas o ser definidas por el usuario (por un usuario responsable o por el usuario final). Por ejemplo, un usuario podría seleccionar asociar una función de control con dibujar una determinada forma en el aire (por ejemplo un cuadrado) en una parte de la habitación o mirando en una dirección, y asociar una función de control diferente con la misma forma o una forma diferente (por ejemplo un triángulo) dibujado mientras está en otra parte de la habitación o está orientado en otra dirección.
Según un aspecto adicional desvelado en el presente documento, se proporciona un producto de programa informático configurado para que cuando sea ejecutado en una o más unidades de procesamiento para realizar operaciones que implementen cualquiera de las lógicas u operaciones mencionadas anteriormente.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Para una mejor comprensión de la presente divulgación y para mostrar cómo puede ponerse en práctica, se hace referencia, a modo de ejemplo, a los dibujos adjuntos, en los que:
la figura 1 ilustra esquemáticamente un entorno que comprende un espacio ocupado por un usuario,
la figura 2 ilustra esquemáticamente un sistema de detección basado en el tiempo de vuelo,
la figura 3 es una ilustración esquemática de un espacio ocupado por un usuario,
la figura 4 es un diagrama de bloques esquemático de un sistema de iluminación,
la figura 5 es un diagrama de bloques esquemático de un sistema de detección basado en el tiempo de vuelo, y la figura 6 es un diagrama de flujo esquemático de un método de control basado en gestos.
DESCRIPCIÓN DETALLADA DE REALIZACIONES PREFERIDAS
Lo siguiente describe realizaciones de un sistema de iluminación que selecciona automáticamente entre diferentes políticas de control, es decir, diferentes formas en las que uno o más gestos controlan la luz, en función de una posición desde la cual se detecta que el usuario ha realizado el gesto. La selección de la política de control puede depender de en cuál de una pluralidad de zonas predeterminadas se encuentra situado el usuario y/o en qué dirección está mirando el usuario. Además, en una o más zonas y/o cuando el usuario está orientado en una o más direcciones particulares, el control no es binario, sino que el efecto que un gesto tiene en el sistema de iluminación está relacionado con la magnitud del gesto y/o la distancia del usuario desde una o más de las fuentes de luz que se estén controlando. Por ejemplo, la influencia que el gesto del usuario pude ejercer sobre una pluralidad de las fuentes de luz del sistema puede variar progresivamente según cuanto afecte cada fuente de luz a la iluminación en la ubicación del usuario (una fuente de luz que se encuentre más alejada del usuario representa una contribución menor a la iluminación proporcionada en la ubicación del usuario, y como tal, el sistema está dispuesto de manera que, recíprocamente, el gesto del usuario tendrá menos influencia sobre las fuentes de luz que estén más alejadas que sobre las que estén más próximas). En algunas realizaciones, una o más de las políticas de control también pueden tener en cuenta la ubicación del usuario frente a la ubicación de otros usuarios en el mismo espacio, de modo que la influencia que el gesto de un usuario tiene en cada fuente de luz depende de la ubicación del usuario con respecto a uno o más de los otros usuarios, así como a la ubicación relativa con respecto a la fuente de luz y a la magnitud del gesto. Además, la distancia del usuario desde una o más fuentes de luz también puede influir sobre a qué funciones se le concede acceso al usuario.
En algunas realizaciones, el sistema determina la ubicación de un usuario A a partir de las lámparas B comprendidas por un sistema de iluminación C. Inicialmente, el sistema determina las ubicaciones respectivas de todas las lámparas Y comprendidas por sistema de iluminación C, tanto mediante el proceso de puesta en marcha como por técnicas como la triangulación. Se crean políticas que especifican un mapeo entre: (i) la posición del usuario A, (ii) la distancia del usuario desde cada lámpara B, (iii) el gesto realizado por el usuario y (iv) el cambio que va a efectuarse en las características de la lámpara. El sistema también puede aplicar una mediación entre múltiples usuarios A1 y A2 (por ejemplo).
El sistema de iluminación comprende un sistema de detección basado en la detección del tiempo de vuelo (ToF) y/o cualquier otro tipo adecuado de tecnología de detección. Esto se utiliza para detectar la ubicación relativa de los usuarios a las fuentes de luz y para detectar los gestos que se estén realizando. Después, esta información puede combinarse con la ubicación de las fuentes de luz para determinar qué políticas deberían adoptarse a lo largo del tiempo. Las características definidas en las políticas pueden ser cargadas en el controlador de iluminación a medida que se hagan cambios.
La ubicación absoluta de los usuarios en el espacio también puede ser detectada por el ToF o por otros medios, tales como un terminal móvil del usuario u otro dispositivo dispuesto alrededor de la persona del usuario. Esta ubicación absoluta puede utilizarse para determinar si el usuario está en una determinada zona asignada, por ejemplo una "macrozona". Las macrozonas son zonas descritas en el presente documento, que pueden reservarse para que tengan una función "macro" independientemente de la distancia del usuario desde el sistema de iluminación. Una acción realizada por el usuario en una macrozona se aplica a toda el área asociada con la macrozona. Por ejemplo, alguien de pie en la entrada de una oficina puede tener el control completo de todas las luces de la oficina, a pesar de estar fuera de la planta principal de la oficina, donde los gestos realizados por el usuario pueden ser interpretados proporcionalmente según la proximidad y/u orientación de un usuario con respecto a las fuentes de luz del sistema. Tanto como en las zonas macro como en las proporcionales, la iluminación también puede ser controlada en proporción a la magnitud del gesto. Téngase en cuenta que "proporcional", como se utiliza en el presente documento, no significa necesariamente proporcional en el sentido matemático estricto, es decir, no es necesariamente una relación lineal entre cualquiera de las dos cantidades, tales como la intensidad y la distancia que se mueve una mano (aunque dicha relación es una posibilidad).
Cabe destacar que el sistema no se basa simplemente en recibir o no recibir una señal (como puede ser el caso con un control remoto). En vez de esto, el sistema proporciona el control por gestos basado en el tiempo de vuelo (ToF) o una tecnología similar y, como tal, se espera que una señal (el fotón emitido desde la fuente de iluminación) sea recibida por un detector de fotones, con el tiempo de viaje proporcional a la profundidad del objeto en relación con la fuente/sensor del ToF del fotón. En esta implementación, puede utilizarse una tabla de consulta para almacenar los ajustes de luz que se refieren a las diferentes zonas o distancias del usuario desde la fuente de luz y los diferentes gestos. En consecuencia, la ubicación particular referenciada en la tabla de consulta puede depender parcialmente de la ubicación relativa del usuario desde la fuente de luz y parcialmente de la solicitud de control (gesto).
Las figuras 1 y 3 proporcionan ilustraciones esquemáticas de un entorno 2, que puede comprender un entorno interior, tal como una o más habitaciones 4 y/o pasillos 6 de un edificio, tal como una oficina, y/o un entorno exterior tal como un jardín o un parque. El entorno 2 se instala con un sistema de iluminación que comprende una pluralidad de fuentes de luz 8. Una fuente de luz 8 puede referirse a una luminaria que comprenda una o más lámparas, o a una lámpara individual de una luminaria. Por ejemplo, las fuentes de luz pueden estar montadas en el techo, las paredes, el suelo o la tierra, o pueden disponerse en cualquier otra parte, tal como en unidades independientes.
El entorno 2 proporciona un espacio ocupado por un usuario 12, y ese espacio está iluminado por al menos alguna de las fuentes de luz 8. El espacio en cuestión puede referirse a todo el entorno 2 o un área dentro de ese entorno. Por ejemplo, en el caso del interior de un edificio, el espacio en cuestión puede ser una sola habitación 4 o pasillo, un área dentro de una habitación 4 o pasillo 6, o cualquier combinación de una o más habitaciones 4 y/o pasillos 6 o áreas dentro de ellos. A los efectos de ilustración, en la siguiente discusión el espacio será una habitación 4, por lo que cuando se hace referencia a todas las fuentes de luz en el espacio o a iluminar el espacio o similar, esto se refiere a todas las fuentes de luz dentro o que iluminan la habitación 4 relevante. Sin embargo, se apreciará que en otras realizaciones el control puede ajustarse para operar en función de cualquier otra distribución espacial en el entorno 2 o por todo el entorno 2.
El sistema de iluminación también comprende un sistema de detección en forma de al menos un sensor 14, en ciertas realizaciones, un sensor de formación de imágenes de tiempo de vuelo. El uno o más sensores 14 están dispuestos para detectar la posición de un usuario 12 en el espacio 4 (por ejemplo, habitación), y para detectar un gesto realizado por el usuario 12 en esa posición en el espacio 4. Además, el espacio 4 puede subdividirse en una pluralidad de zonas discretas 16, 18, correspondientes a diferentes subáreas del espacio 4 en el que pude detectarse que el usuario está ubicado en función de la detección mediante el sensor 14. Por ejemplo, en una realización las zonas comprenden una primera zona 16 que actúa como una "macro" zona en una subárea alrededor de la entrada 10 a la habitación 4, mientras que el resto de la habitación 4 se designa como una segunda zona 18 que actúa como una zona "proporcionada" o "selectiva". Estas se discutirán con más detalle en breve.
Haciendo referencia a la Figura 2, en ciertas realizaciones, el sensor 14 comprende un sensor de tiempo de vuelo, que comprende un elemento detector del tiempo de vuelo 42. El elemento detector del tiempo de vuelo 42 es capaz de detectar la radiación emitida desde un emisor, y esta detección se sincroniza con la emisión de la radiación desde el emisor. El emisor puede ser un emisor dedicado 20 que puede considerarse parte del sensor 14 (según se ilustra). En este caso, la radiación emitida puede ser radiación distinta de la luz visible, por ejemplo infrarroja, RF o ultrasonidos, para que no interfiera o sea confundida con la luz visible en el espacio 4; o la radiación podría ser luz visible modulada con una señal identificable para distinguirla del esto de la luz en el espacio 4. Como alternativa, la radiación utilizada en la detección del tiempo de vuelo puede proceder de una fuente incidental, tal como una o más de las fuentes de luz 8 que ya están emitiendo luz visible en el espacio con el fin de iluminar.
Algo de la radiación emitida será reflejada por el usuario 12 de nuevo hacia el sensor 14. Como está sincronizado con la emisión, el sensor 14 puede utilizarse para detectar la cantidad de tiempo entre la emisión desde el emisor 20 y la recepción de nuevo en el elemento de detección 42, es decir, la información del tiempo de vuelo. Además, el elemento de detección 42 toma la forma de una matriz de píxeles bidimensional y es capaz de asociar una medición del tiempo de vuelo con una medición de la radiación capturada por algunos o todos los píxeles individuales. Por tanto, el sensor de tiempo de vuelo 14 es operable para capturar una imagen tridimensional o sensible a la profundidad del espacio 4, que incluye al usuario 12 y sus gestos. En caso de que el elemento de detección 42 capture luz visible, el sensor de tiempo de vuelo también pude denominarse cámara 3D o de detección de profundidad. Al aplicar el reconocimiento de imágenes, las imágenes de 3D o de detección de profundidad capturadas por el sensor 14, es posible detectar información como la ubicación del usuario 12 en el espacio 4, la dirección hacia la que está mirando y/o el gesto que está realizando. Los detalles de la detección de imágenes basada en el tiempo de vuelo serán familiares en sí mismos para una persona experta en la técnica.
En algunas realizaciones, el sistema de detección 14 puede comprender adicionalmente o como alternativa uno o más de otros sensores. Por ejemplo, el sistema de detección puede comprender uno o más sensores de formación de imágenes de tiempo de vuelo adicionales dispuestos en otros puntos en el espacio 4, y la información desde los sensores puede ser utilizada en conjunto para detectar la posición y/o los gestos del usuario. Como alternativa o adicionalmente, el sistema de detección 14 puede comprender uno o más de otros tipos de sensor. Por ejemplo, pueden utilizarse una o más cámaras bidimensionales junto con técnicas de reconocimiento de imágenes para detectar la posición y/o movimiento del usuario. Como otro ejemplo, uno o más acelerómetros y/o sensores rotacionales dispuestos alrededor de la persona de un usuario pueden utilizarse para detectar gestos, siendo retransmitida la información detectada desde el sensor al sistema de iluminación a través de una conexión inalámbrica, tal como Bluetooth o Wi-Fi.
En otro ejemplo más, puede utilizarse un sistema de ubicación para detectar la ubicación del usuario detectando la ubicación de un dispositivo (por ejemplo un terminal de usuario, tal como un teléfono móvil) dispuesto alrededor de la persona del usuario. Dichos sistemas de ubicación trabajan detectando la ubicación del dispositivo móvil relativa a una pluralidad de nodos inalámbricos en función de mediciones, tales como el tiempo de vuelo y/o la intensidad de señal, basadas típicamente en la triangulación o, más generalmente, la multilateración. Por ejemplo, la posición puede determinarse con respecto a los satélites en el caso de un sistema de ubicación por satélite, tal como el GPS, y/o puede determinarse con respecto a nodos de anclaje basados en tierra, tales como estaciones base celulares, puntos de acceso WLAN o nodos de anclaje dedicados. Otro ejemplo es utilizar un sistema de navegación inercial que combina un sistema de ubicación, tal como el GPS, con acelerómetros. Después, esto puede utilizarse para determinar la dirección en la que el usuario viaja más comúnmente (que será hacia adelante) para calibrar el sistema, y después, a partir de aquí, determinar su dirección hacia adelante en el momento del gesto de control.
El sensor o sensores 14 utilizados para la detección del movimiento y la posición pueden comprender uno o más de los mismos sensores, por ejemplo, tiempo de vuelo o cámara con reconocimiento de imágenes; o diferentes sensores, por ejemplo, GPS para la posición y acelerómetros para el gesto. Generalmente, puede emplearse cualquier combinación de las tecnologías anteriores en el sistema del sensor 14 para detectar la posición del usuario y los gestos realizado por el usuario 12.
La Figura 4 es un diagrama de bloques esquemático de un sistema de iluminación que incluye la funcionalidad de control. El sistema de iluminación comprende el uno o más sensores 14, las fuentes de luz 8 y un controlador 22 conectados juntos por medio de un sistema de interconexión 24 adecuado que comprende uno o más canales por cable o inalámbricos, tales como un bus I2C, un bus DMX, un bus DALI, una conexión Ethernet, conexión Wi-Fi o conexión ZigBee. El controlador 22 está dispuesto para recibir información detectada desde el(los) sensor(es) 14 a través del sistema de interconexión 24, y para enviar comandos de control a las fuentes de luz 8 a través del sistema de interconexión 24 a fin de controlar control las fuentes de luz 8. En algunas realizaciones, las fuentes de luz 8 pueden comprender diferentes clases de fuentes de luz, tales como iluminación ambiental 8a (que ilumina el espacio 8 en general) e iluminación de tareas 8b (dirigidas a un área específica en el espacio 4, tal como una superficie de trabajo, por ejemplo un escritorio).
El controlador 22 comprende: lógica de detección del movimiento 36, lógica de posicionamiento 38, lógica de selección de la política de control 40 y lógica de generación de comandos 41. En algunas realizaciones, cada una de estas se implementa como una porción de código almacenado en una memoria 28 que comprende uno o más medios de almacenamiento y está dispuesto para ser ejecutado en un procesador 26 que comprende una o más unidades de procesamiento. Por lo tanto, téngase en cuenta que el término lógica no implica circuito de hardware (aunque sería una implementación alternativa para alguna o toda la lógica).
La lógica de posicionamiento 38 está configurada para recibir información detectada desde al menos uno del uno o más sensores 14, para procesar esa información, para determinar una posición (ubicación y orientación) de un usuario 12 en el espacio 4, y para enviar una indicación de la posición detectada a la lógica de selección de la política de control 40. La lógica de detección del movimiento 36 está configurada para recibir información detectada desde al menos uno del uno o más sensores 14, para procesar esa información, para detectar un gesto realizado por el usuario 12 y para enviar una indicación del gesto detectado a la lógica de selección de la política de control 40. Téngase en cuenta que procesamiento en el sentido de procesar una señal desde un sensor no implica necesariamente la ejecución de software en un procesador, aunque es ciertamente una implementación.
La Figura 5 ilustra un mayor detalle de un sensor de tiempo de vuelo (ToF) 14 que puede ser utilizado para determinar la posición de un usuario y/o reconocer gestos. El sensor ToF 14 comprende un emisor 20. El sensor ToF 14 también comprende un elemento de detección 42 en forma de un transductor de recepción de ToF 3D (por ejemplo el TI OPT8140), que incluye un terminal de entrada análogo que interactúa con el elemento de detección y componentes de administración de energía adecuados. El elemento de detección ToF 3D 42 comprende una matriz 2D de elementos de píxeles, cada uno para capturar un píxel respectivo de datos de imágenes, y al menos algunos de estos también son operables para capturar el píxel respectivo en asociación con un tiempo de vuelo respectivo, capturando de este modo datos de imágenes 3D. Además, el sensor ToF comprende un controlador ToF 48 (por ejemplo el TI OPT9110) que se comunica con el procesador anfitrión 26 del sistema de control de iluminación a través de una interfaz de salida 52 y el sistema de interconexión 24. El controlador ToF puede tomar la forma de un microcontrolador ejecutando un código dedicado almacenado en una memoria local 50 del sensor ToF 14. La información de imágenes ToF 3D recibida se proporciona desde el elemento de detección 42 al controlador ToF 48 a través de una interfaz de recepción 46.
Bajo el control del controlador ToF 48, se utiliza un generador de sincronización 44 para sincronizar la emisión desde el emisor 20 con la detección a través del elemento de detección 42, ya sea controlando el emisor 20 para que emita en sincronización con la tasa de captura del elemento de detección 42, o controlando el elemento de detección 42 para capturar datos en sincronización con la modulación de la radiación desde el emisor 20, o controlando tanto el elemento de detección como el emisor juntos. Por lo tanto, se conoce el momento relativo de la emisión y la captura, por lo que el controlador ToF es capaz de asociar información del tiempo de vuelo con los datos capturados.
En algunas realizaciones, la radiación utilizada para detectar el tiempo de vuelo puede comprender radiación no visible, tal como infrarroja, RF o de ultrasonidos, o puede comprender luz visible. La radiación utilizada para detectar el tiempo de vuelo puede comprender un cierto identificador o firma, por lo que puede distinguirse de otra radiación en el entorno, por ejemplo, incrustado con un cierto código, o ser dotada de una forma de onda característica, frecuencia o espectro. Por ejemplo, si la radiación es luz visible, entonces se puede incrustar con un identificador al ser modulada de acuerdo con técnicas de luz codificada (por ejemplo, véase la Patente WO/127439), de modo que el controlador ToF 48 pueda reconocerla cuando la reciba de entre la luz de otras diversas fuentes de luz. Como alternativa, si todas las fuentes de luz 8 que iluminan el espacio 4 se sincronizan con la captura, entonces dicho identificador o firma puede no ser necesario. En otra alternativa, el emisor 20 puede reemplazarse por una interfaz adecuada para sincronizar la detección ToF con emisión pulsada por una o más de las fuentes de luz 8 (tanto a través del sistema de interconexión 24 como de un enlace dedicado separado).
El controlador ToF 48 envía la información detectada que incluye la información del tiempo de vuelo al procesador anfitrión 26 a través de la interfaz de salida 52 y el sistema de interconexión 24. El procesador anfitrión 26 puede ejecutar middleware (lógica de detección del movimiento 36 y lógica de posicionamiento 38) para reconocer diversos estos y también para identificar la ubicación de gente 12 en el espacio 4, por ejemplo, por medio de reconocimiento facial y/u otras técnicas de reconocimiento de imágenes. En algunas realizaciones, rastreando las características faciales o analizando el movimiento de la extremidad o extremidades del usuario, la información detectada también puede utilizarse para determinar la orientación o el usuario 12.
Como se ha mencionado, también existen otras técnicas para utilizar la detección de la posición del usuario y el gesto, por ejemplo GPS para detectar la ubicación y/o acelerómetros para detectar los gestos.
Volviendo a la Figura 4, la lógica de selección de la política de control 40 está configurada para recibir la posición detectada desde la lógica de posicionamiento 38 y el gesto detectado desde la lógica de detección del movimiento 36. La lógica de selección de la política de control 40 también está configurada para acceder a una base de datos de políticas de control 30 y a una base de datos de puesta en marcha 32, que pueden almacenarse localmente (en la memoria local 28) o remotamente (por ejemplo, en uno o más servidores a los que se accede a través de una red como Internet), o una combinación de almacenamiento local y remoto. La base de datos de puesta en marcha 32 mapea las ubicaciones respectivas de las fuentes de luz 8 contra los respectivos identificadores de esas fuentes de luz 8. La base de datos de políticas de control 30 mapea políticas de control respecto a las respectivas combinaciones de gesto y posición del usuario. Cada base de datos 30, 32 podría tomar la forma de cualquier estructura de datos, una tabla de consulta relativamente pequeña puede ser suficiente en el caso de sistemas de iluminación más pequeños. Como alternativa o adicionalmente, en algunas implementaciones, pueden utilizarse medios analíticos de mapeo, es decir, un algoritmo o fórmula, en lugar de cualquiera o ambas de estas bases de datos 30, 32. Lo siguiente se describirá en términos de una implementación de base de datos, pero se apreciará que las enseñanzas se extienden a otras implementaciones.
En ciertas realizaciones, la base de datos de políticas de control 30 define las zonas operativas que son utilizadas por el controlador de iluminación 22. Estas pueden expresarse de una diversidad de maneras: (i) como una medida de la distancia entre el usuario y la ubicación conocida de una de las fuentes de luz 8 comprendida por el sistema de iluminación, (ii) como una medida de la distancia entre el usuario 12 y el emisor ToF 20 (u 8) y/o receptor 42, (iii) como una medida de la luminancia recibida por un dispositivo portátil (por ejemplo un teléfono inteligente) sostenido por el usuario, y/o (iv) como una medida de la distancia del usuario y la orientación relativa a fuentes de luz 8 controladas por el sistema de iluminación utilizando una imagen adquirida por el teléfono inteligente del usuario (o similar) y procesada de tal manera que se pueda calcular la posición y orientación probables del usuario. Por ejemplo, la base de datos de políticas de control 30 puede definir la funcionalidad de control de iluminación asociada con uno o más gestos a una o más distancias desde el emisor y/o el detector ToF.
La base de datos de puesta en marcha 32 contiene las ubicaciones respectivas de las fuentes de luz 8 puestas en servicio en relación con el emisor ToF 20 (u 8) y/o el detector 42. Se apreciará que dada una ubicación absoluta conocida para el emisor ToF y/o el detector, y una ubicación absoluta conocida para las fuentes de luz 8, puede calcularse la distancia relativa. Las ubicaciones de las fuentes de luz 8 en la base de datos de puesta en marcha 32 pueden ser utilizadas por la lógica de políticas de control 40 para determinar demarcaciones posicionales o implementar políticas que estén basadas en la posición del usuario relativa a una o más de las fuentes de luz 8. Opcionalmente, la base de datos de puesta en marcha también puede comprender información sobre el diseño del espacio 4 o los obstáculos en el espacio 4, para su uso en la evaluación de demarcaciones posicionales especificadas en función de qué fuentes de luz están en el campo visión de un usuario.
Un administrador puede configurar el sistema. Esto puede comprender un número de etapas que incluyen: entrar en un modo de administración, seleccionar y cargar políticas de control existentes en la base de datos de políticas 30 y crear nuevas políticas de control en la base de datos de políticas 30. Por ejemplo, el administrador puede crear nuevas políticas de control utilizando una interfaz gráfica de usuario mediante la cual el administrador puede seleccionar entre una variedad de iconos que representan diferentes gestos y la magnitud y otras características de estos gestos, y asociar estos con diversas zonas dentro del área donde los usuarios deben tener el control del sistema de iluminación. Pueden definirse zonas u otras demarcaciones posicionales de una diversidad de maneras, por ejemplo, en función de las fuentes de luz 8 dentro del campo de visión del usuario y/o en función de la proximidad a la fuente de luz 8 más próxima. También pueden definirse uno o más gestos de una diversidad de maneras, por ejemplo, el usuario mueve el brazo hacia arriba para aumentar la intensidad de la iluminación y mueve el brazo hacia abajo para disminuir la intensidad de la iluminación. Dichos ajustes son almacenados en la base de datos de políticas 30.
En función del mapeo en la base de datos de políticas de control 30, la posición detectada desde la lógica de posicionamiento 38 y el gesto detectado desde la lógica de detección del movimiento 36, la lógica de selección de la política de control 40 selecciona la política asignada para la posición detectada y el gesto mediante la base de datos de políticas 30. Además, la lógica de selección 40 puede cambiar dinámicamente entre políticas de control según el contexto operativo (a medida que el usuario se mueve entre zonas, mira en diferentes direcciones y/o realiza diferentes gestos). La lógica de selección de la política de control 40 emite debidamente una indicación de los parámetros de la política seleccionada a la lógica de generación de comandos 41, que emite uno o más comandos sobre el sistema de interconexión 24 para controlar la iluminación 8 de acuerdo con la política seleccionada y con la posición y el gesto detectados.
Para ayudar a la comprensión, a continuación se muestran varios ejemplos simplificados de políticas de control que, en diversas realizaciones, pueden estar comprendidas por la base de datos de políticas 30.
Figure imgf000009_0001
Un ejemplo del efecto creado por la política de control de la iluminación para la zona proporcional 18 definida anteriormente se ilustra esquemáticamente en la Figura 1. Aquí, las luces se controlan en una distribución que es una función de la ubicación del usuario y la dirección. El usuario controla únicamente aquellas fuentes de luz 8 dentro de su campo de visión, que se muestra sombreado en la figura. Opcionalmente, también puede imponerse un límite de alcance sobre la distancia desde el usuario, para que no se controlen aquellas fuentes de luz más allá de un radio terminado. Además, las luces se atenúan según una distribución espacial graduada, por lo que las fuentes de luz 8 en el campo de visión se atenúan en proporción a su separación en términos de distancia desde el usuario 12. Es decir, para una magnitud de gesto, el usuario tiene una mayor influencia sobre las fuentes de luz 8 en el campo de visión que están físicamente más próximas al usuario que sobre las que están más alejadas. Esto también se ilustra esquemáticamente en la Figura 1, mostrándose el sombreado de las fuentes de luz más influenciadas más denso y mostrándose más escaso el sombreado de las fuentes de luz 8 menos influenciadas. La influencia también podría variar con la separación angular desde de la dirección en la que mira el usuario.
Un ejemplo de una política de control alternativa que podría aplicarse en una zona proporcional 18 se ilustra esquemáticamente en la Figura 3. Aquí, la distribución de iluminación aplicada en la zona proporcional no es una función del campo de visión, pero sigue siendo una función de la ubicación del usuario. El usuario controla todas (y solo) aquellas fuentes de luz 8 que están dentro de un umbral de alcance predeterminado, por ejemplo, un umbral en un radio desde el usuario 12, de modo que las fuentes de luz controladas 8 formen aproximadamente un círculo o anillo alrededor del usuario 12. De aquellas fuentes de luz 8 que entran dentro de este alcance, las fuentes de luz 8 se atenúan en proporción a su respectiva distancia desde el usuario 12. De un modo similar a la Figura 1, las fuentes de luz 8 controladas y el grado de influencia se representan esquemáticamente mediante el sombreado de la Figura 3.
En un caso de uso de ejemplo, el usuario A está en una habitación 4. Hace un "gesto de brillo" estando de pie justo debajo de una luminaria 8. La luminaria 8 bajo la que está de pie cambia de intensidad, sin embargo, todas las otras luminarias de la habitación permanecen sin cambios. Entonces, el usuario A se mueve a un extremo de la habitación 4 y mira hacia el pasillo 6. Entonces, el usuario A vuelve a hacer un gesto de brillo mientras mira hacia el pasillo 6 (el mismo gesto o un gesto diferente dependiendo de lo que esté definido en la base de datos de políticas 30). Se cambia la intensidad de la luz en el pasillo 6. Entonces, el usuario A se gira y mira hacia la habitación 4 que está iluminada por medio de múltiples luminarias 8. Hace de nuevo un gesto de brillo. Se cambia la intensidad de todas las luces en la habitación 4.
En otro caso de uso de ejemplo, el usuario B está saliendo de una habitación 4 y desea apagar todas las luces de la habitación 4, pero como la habitación es muy grande, esto significa entonces que muchas de las fuentes de luz en esa habitación 4 no influyen en la iluminación en su ubicación particular, por lo que bajo la "política proporcional" aplicada en la mayoría de la habitación, su gesto no controlaría todas las fuentes de luz 8 de la habitación 4. Por lo tanto, el usuario se mueve a una macrozona 18 adyacente a la puerta 10 y hace un "gesto de apagar". Se apagan todas las luces de la habitación 4.
Un algoritmo de ejemplo para implementar realizaciones de la presente divulgación se describe a continuación con referencia al diagrama de flujo de la Figura 6.
En la etapa S10, se adquieren datos desde uno o más sensores 14, tales como datos de imágenes de un sensor de formación de imágenes de tiempo de vuelo y/o datos de uno o más acelerómetros que lleve puestos el usuario. Otro ejemplo serían datos recibidos desde un dispositivo, tal como un dispositivo de navegación inercial que utiliza GPS y acelerómetros.
En la etapa S20, la lógica de detección del movimiento 36 procesa algunos o todos los datos detectados para determinar si se está realizando un gesto identificable por parte de un usuario. Esto puede comprender determinar si el dato es coherente con un gesto de entre un conjunto de gestos predeterminados que la lógica de detección del movimiento 36 está configurada para reconocer. Si no, la lógica de detección del movimiento continúa procesando datos detectados en la etapa S10, pero si es así, entonces en la etapa S30 la lógica de selección de la política de control 40 determina si el gesto identificado coincide con un gesto asociado con una política de control de la iluminación. Esto puede comprender si hay una coincidencia entre uno o más gestos asociados con una pluralidad de políticas de control en la base de datos de políticas 30. Si lo, el algoritmo retorna a la etapa S10. Si es así, el algoritmo continúa a la etapa S40.
En la etapa S40, la lógica de selección de la política de control 40 determina un tipo del gesto, por ejemplo si hay una señal para subir o bajar las luces, por ejemplo alzando y bajando la mano o "marcando" alrededor de un poco o toda la circunferencia de un círculo imaginario en el aire. En la etapa S50, la lógica de selección 40 también determina cualquiera de las propiedades relevantes del gesto, tales como su magnitud, por ejemplo cómo de rápido se alza o se baja la mano, o a través del grado de arco que se marca en el círculo imaginario. Por tanto, la lógica de selección de la política de control 40 determina la acción de iluminación y la magnitud que están siendo solicitadas por el gesto del usuario.
En la etapa S60, la lógica de posicionamiento 38 procesa algunos o todos los datos detectados para determinar las coordenadas del usuario 12 en el espacio 4, por ejemplo un punto en un plano horizontal paralelo al suelo, por ejemplo en términos de coordenadas cartesianas X e Y. Por ejemplo, esto puede realizarse basándose en datos procedentes de un sensor de formación de imágenes de tiempo de vuelo y/o basándose en un multilateración entre nodos de referencia, tales como satélites de GPS o nodos de anclaje basados en tierra. En la etapa S70, la lógica de selección de la política de control 40 utiliza estas coordenadas para determinar en cuál de una pluralidad de zonas (por ejemplo 16 o 18) especificadas en la base de datos de políticas 30 entra la ubicación actual del usuario.
En la etapa S80, la lógica de selección de la política de control 40 se refiere a la base de datos de políticas de control 30 para determinar qué política de control está asociada con el tipo y zona del gesto detectado.
Si se determina que el usuario está en una macrozona 16, el algoritmo se bifurca a la etapa S90, donde la lógica de selección de la política de control 40 selecciona aplicar la política de control de macrozona. Por ejemplo, la macrozona podría ser un área de 1 m2 adyacente a la puerta 10. En función de esta selección, la lógica de comando 41 formula un comando o comandos adecuados (dependiendo del protocolo del sistema de interconexión 24), haciendo que todas las fuentes de luz 8 en el espacio relevante 4 sean controladas de acuerdo con la respuesta definida por la política de control seleccionada, por ejemplo, acentuándolas o atenuándolas todas uniformemente en proporción a la magnitud del gesto del usuario.
Si se determina que el usuario está en una zona proporcional 18, el algoritmo se bifurca a la etapa S100, donde la lógica de posicionamiento determina la orientación del usuario 12, por ejemplo en función de los datos de imágenes ToF y/o en función de otro tipo de sensor, tal como un magnetómetro dispuesto alrededor de la persona del usuario. En función de la orientación del usuario detectada y una suposición de un cierto campo de visión, por ejemplo una porción de 120° en el plano horizontal, entonces, en la etapa S110, la lógica de selección de la política de control 40 calcula qué fuentes de luz 8 almacenadas en la base de datos de puesta en marcha 32 estarán en el campo de visión del usuario.
En la etapa S120, la lógica de selección 40 determina si cualquiera de las fuentes de luz 8 están actualmente en el campo de visión. Si no, el algoritmo se bifurca a la etapa S130, donde la lógica de selección de la política de control 40 selecciona aplicar una política de control predeterminada, por ejemplo determina qué fuente de luz 8 está (o qué pequeño subconjunto de fuentes de luz 8 están) más próxima al usuario 12 y permite que el gesto controle únicamente esa fuente o fuentes de luz 8. En consecuencia, la lógica de comando 41 formula un comando o comandos que controlan la fuente o fuentes de luz 8 relevantes, por ejemplo, para acentuarlas o atenuarlas en proporción a la magnitud del gesto del usuario (uniformemente o en alguna distribución en el caso de un pequeño subconjunto).
Si, por otra parte, se determina que una o más fuentes de luz 8 están dentro del campo de visión del usuario, la lógica de selección de la política de control 40 almacena una lista de esas fuentes de luz 8, proporcionando la lista una base de datos temporal de fuentes de luz en el campo de visión. En la etapa S150, la lógica de selección de política 40 también determina la distancia de las fuentes de luz 8 en esta lista relativa al usuario restando la magnitud de las coordenadas XY del usuario de las coordenadas XY de la fuente de luz, y almacena los resultados como un campo adicional para cada entrada de la lista. En la etapa S160, la lógica de selección de la política de control 40 selecciona aplicar la política de control proporcional, por ejemplo, por lo que el grado de influencia no está solo en proporción con la magnitud del gesto, sino también proporción a la distancia de las fuentes de luz 8 controladas desde la ubicación del usuario y/o la desviación angular desde su orientación. La lógica de comando 41 formula un comando o comandos para controlar solo las fuentes de luz 8 en el campo de visión de acuerdo con la política de control seleccionada.
Las etapas anteriores pueden repetirse periódicamente en función del tiempo o pueden repetirse en función de un evento.
Cabe destacar que todas estas etapas no tienen que realizarse necesariamente en el orden en el que se han enumerado anteriormente (aunque es una realización posible). También, en algunas realizaciones, no tienen por qué ser necesariamente incluidas todas las etapas anteriores (aunque, de nuevo, es una realización posible). En una realización alternativa, por ejemplo, no tienen por qué implementarse necesariamente las diferentes zonas, en cuyo caso, las etapas S60-S90 pueden omitirse, por lo que la etapa S100 sigue a la etapa S50. Como alternativa, el campo de visión no tiene por qué ser tenido en cuenta necesariamente, en cuyo caso, las etapas S100-160 pueden omitirse y la etapa S80 puede seleccionarse entre la política de macro y una o más políticas alternativas. En cambio, por ejemplo, en una zona proporcional 18, las fuentes de luz 8 podrían ser controladas en un patrón alrededor de la ubicación del usuario, por ejemplo, como se muestra esquemáticamente en la Figura 3.
Otra posibilidad para las distribuciones centradas en la ubicación o centradas en el capo de visión aplicadas en la zona proporcional 18 es que todas las fuentes de luz 8 en el espacio 4 sean controladas, pero no uniformemente (a diferencia de en la macrozona 16), es decir, las fuentes de luz 8 en el espacio 4 todavía están controladas de manera que la influencia del gesto disminuya con la separación de las fuentes de luz desde la posición del usuario, pero no se impone ningún umbral absoluto de distancia ni umbral angular en el espacio 4 (por ejemplo, la habitación), más allá del cual, el gesto no tendría influencia. Por ejemplo, la intensidad puede disminuir radialmente desde la ubicación del usuario hasta los bordes de la habitación 4, o esas fuentes de luz 8 dentro del campo de visión pueden ser controladas selectiva o preferencialmente, pero no exclusivamente, por lo que el gesto influye sobre ellas en un mayor grado que sobre las que están fuera del campo de visión.
En otras realizaciones, la lógica de selección de la política de control 40 puede estar configurada adicionalmente para aplicar unas reglas de arbitraje de múltiples usuarios para tratar la posibilidad de que dos o más usuarios sean detectados en el mismo espacio 4 (por ejemplo, la misma habitación) y ambos intenten gesticular operaciones en conflicto al mismo tiempo. Puede emplearse cualquiera de las operaciones de percepción y detección para detectar la posición y/o el gesto realizado por uno o más usuarios distintos en el espacio 4. En función de esto, la lógica de selección de la política de control 40 puede configurarse para determinar la posición relativa (distancia y orientación relativas) entre dos o más usuarios que realicen gestos y para moderar la aplicación de una política de control de acuerdo con la una o más reglas de arbitraje. Por ejemplo, si el usuario 12 está en la zona proporcional 18 y puede observas más de una fuente de luz 8, el control que tiene sobre las fuentes de luz 8 que afecte a otros usuarios puede ser reducido de acuerdo con el efecto relativo que la luz tenga sobre (i) el usuario que hace el gesto y (ii) el otro u otros usuarios. Por ejemplo, si uno o más de otros usuarios se vieran afectados en gran parte por la operación de una o más de esas fuentes de luz (por ejemplo, porque estén más cerca), entonces tales fuentes de luz podrían ser excluidas de las que estén siendo controladas en el espacio 4 o verse influidas en un menor grado de lo que lo habrían estado de otra manera.
Se apreciará que las realizaciones anteriores se han descrito únicamente a modo de ejemplo. Aunque se han ilustrado y descrito con detalle realizaciones en los dibujos y en la descripción anterior, dicha ilustración y dicha descripción deben considerarse ilustrativas o ejemplares y no restrictivas, y la invención no se limita a las realizaciones desveladas. La invención se define por medio de las reivindicaciones.
Por ejemplo, el alcance de la divulgación no se limita a las políticas y asociaciones especificadas, ilustradas anteriormente. En algunas realizaciones, pueden implementarse diversas combinaciones de algunos o todos los siguientes en la base de datos de políticas de control 30 (u otros medios de especificar políticas de control y asociar las políticas con posiciones y gestos).
La distancia relativa del usuario desde una o más fuentes de luz 8, u otras características de un sistema de iluminación (por ejemplo, la distancia del usuario desde un promedio de algunas o todas las ubicaciones de fuentes de luz del sistema). Ejemplo: cuanto más lejos está un usuario, menos influencia tiene sobre las luces específicas de la tarea 8b, pero tiene mayor influencia sobre la iluminación ambiental general 8a.
El efecto de una fuente de luz 8 o sistema de iluminación en la ubicación del usuario.
Ejemplo: cuanto menos efecto tiene una luz sobre una ubicación del usuario, menos control tiene este sobre ella.
La orientación del usuario. Ejemplo: la dirección hacia la que mira un usuario, y si está mirando hacia o desde una fuente de luz 8, afecta a su percepción de la iluminación proporcionada por la fuente de luz 8.
El efecto de una fuente de luz 8 o sistema de iluminación en ubicaciones de otros usuarios.
La magnitud de los gestos del usuario.
La ubicación absoluta del usuario en el espacio 4 y, opcionalmente, la ubicación absoluta de otros usuarios en el espacio 4. Ejemplo: a un usuario en una macrozona 16 se le puede dar el control de toda la iluminación en el espacio correspondiente, independientemente de otros usuarios, mientras que cuando dos o más usuarios están intentando ejercer el control en una zona proporcional 18, entonces pueden aplicarse las reglas de arbitraje.
En otras realizaciones, pueden reconocerse y asociarse otros gestos con las políticas de control. Por ejemplo, las formas definidas por el usuario podrían programarse en la base de datos de políticas de control por parte de un usuario según sus preferencias, por ejemplo, por lo que trazar formas similares a un cuadrado, un triángulo y/o un círculo podría configurarse para invocar diferentes funciones, tales como cambiar la temperatura del color de la iluminación, solicitar una lectura del estado, restablecer el sistema de iluminación, etc.; y la función de estos gestos también puede hacerse dependiente de la posición. Por ejemplo, solo se permite invocar ciertas funciones al estar de pie en una cierta dirección o zona, o utilizando el gesto correcto en la habitación correcta, etc.
Además, las técnicas desveladas en el presente documento no se limitan a controlar la iluminación. En otras aplicaciones, la utilidad controlada puede comprender, por ejemplo, la calefacción o el aire acondicionado. Por ejemplo, pueden controlarse las unidades calefactoras o las unidades de aire acondicionado en una distribución alrededor de la posición del usuario, o pueden controlarse únicamente aquellas unidades dentro del campo de visión, o pueden controlarse todas las unidades de un edificio a condición de realizar el gesto en una macrozona.
Otras variaciones a las realizaciones desveladas pueden ser comprendidas y efectuadas por los expertos en la técnica, poniendo en práctica la invención reivindicada, a partir del estudio de los dibujos, la divulgación y las reivindicaciones adjuntas. En las reivindicaciones, la expresión "que comprende" o excluye otros elementos o etapas, y el artículo indefinido "un" o "una" no excluye una pluralidad. Un solo procesador u otra unidad pueden cumplir las funciones de varios elementos enumerados en las reivindicaciones. El mero hecho de que determinadas medidas se mencionen en reivindicaciones dependientes mutuamente diferentes no indica que una combinación de estas medidas no pueda utilizarse con ventaja. Un programa informático puede ser almacenado y/o distribuido en un medio adecuado, tal como un medio de almacenamiento óptico o un medio de estado sólido suministrado junto con, o como parte, de otro hardware, pero también puede ser distribuido de otras formas, tal como a través de Internet u otros sistemas de telecomunicaciones por cable o inalámbricos. Ningún signo de referencia en las reivindicaciones debe interpretarse como una limitación del alcance.

Claims (14)

REIVINDICACIONES
1. Un controlador (22) para controlar uno o más recursos (8) de una utilidad para proporcionarla en un espacio (4) ocupado por uno o más usuarios, comprendiendo el controlador:
lógica de detección del movimiento (36) configurada para procesar una entrada desde un sensor (14) para detectar movimientos de un usuario (12) en dicho espacio, y para detectar que los movimientos corresponden a gestos predeterminados realizados por el usuario, siendo los gestos realizados desde diferentes posiciones respectivas dentro de dicho espacio;
lógica de posicionamiento (38) configurada para procesar una entrada desde un sensor (14) para detectar la posición respectiva desde la cual fue realizado cada uno de dichos gestos por parte del usuario, en donde la posición respectiva comprende una ubicación y una orientación del usuario cuando se realizó cada uno de dichos gestos;
lógica de selección de la política de control (40) configurada, en función de una asociación (30) que asocia cada una de una pluralidad de políticas de control discretas con una combinación respectiva de un gesto predeterminado y una demarcación posicional dentro de dicho espacio, en donde la demarcación posicional comprende una demarcación en la ubicación y orientación de un usuario dentro de dicho espacio, para seleccionar diferentes políticas de control en función de los gestos detectados y las posiciones detectadas, definiendo cada política de control, una respectiva respuesta de dicha utilidad al respectivo gesto asociado; y
lógica de comando (41) dispuesta para controlar el uno o más recursos para proporcionar la utilidad de acuerdo con la respuesta respectiva de la política de control seleccionada.
2. El controlador, según la reivindicación 1, en el que, así como la selección de la política de control que está basada en la posición detectada, la respuesta respectiva definida por al menos una de las políticas de control comprende una distribución espacial en la provisión de dicha utilidad dentro de dicho espacio (4), en donde la distribución espacial también es una función de la posición detectada.
3. El controlador, según la reivindicación 1 o 2, en el que la posición detectada comprende al menos una ubicación dentro de dicho espacio desde la cual el usuario (12) realizó el gesto detectado, y la demarcación posicional asociada con una, algunas o cada una de dichas políticas de control comprende una respectiva zona (16, 18) dentro de dicho espacio (4); estando configurada la lógica de selección de la política de control (40) para seleccionar dicha una de las políticas de control que está asociada con el gesto detectado y con la zona dentro de la cual se detecta que cae dicha ubicación.
4. El controlador, según cualquier reivindicación precedente, en el que dicha asociación comprende al menos dos diferentes de dichas políticas de control que están asociadas con el mismo gesto predeterminado, pero diferentes demarcaciones posicionales respectivas, por lo que el mismo gesto se interpreta de forma diferente dependiendo de la posición.
5. El controlador, según cualquier reivindicación precedente, en el que la respuesta definida por al menos una de las políticas de control es una cuestión de grado que depende de la magnitud del gesto detectado.
6. El controlador, según cualquier reivindicación precedente, en el que el uno o más recursos son una o más fuentes de luz (8) dispuestas para iluminar el espacio (4), dicha iluminación siendo la utilidad.
7. El controlador, según la reivindicación 6, en el que la posición detectada comprende al menos una ubicación dentro de dicho espacio desde la cual el usuario (12) realizó el gesto detectado, y la demarcación posicional asociada con una, algunas o cada una de dichas políticas de control comprende una respectiva zona (16, 18) dentro de dicho espacio (4); estando configurada la lógica de selección de la política de control (40) para seleccionar dicha una de las políticas de control que está asociada con el gesto detectado y con la zona dentro de la cual se detecta que cae dicha ubicación; y en el que las fuentes son una pluralidad de fuentes de luz (8) dispuestas para iluminar dicho espacio, y dichas zonas comprenden:
una primera zona (16) asociada con una política de control mediante la cual todas las fuentes de luz que iluminan el espacio son controladas como respuesta al gesto detectado; y
una segunda zona (18) asociada con una política de control mediante la cual solo un subconjunto de dichas fuentes de luz dentro una vecindad especificada de la ubicación detectada es controlada como respuesta al gesto detectado.
8. El controlador, según la reivindicación 6 o 7, en el que:
así como la selección de la política de control que está basada en la posición detectada, la respuesta respectiva definida por al menos una de las políticas de control comprende una distribución espacial en la iluminación proporcionada en dicho espacio (4), en donde la distribución espacial también es una función de la posición detectada, según la cual la iluminación disminuye con la separación desde la posición detectada.
9. El controlador, según la reivindicación 8, en el que la posición detectada comprende la ubicación dentro de dicho espacio desde la cual el usuario (12) realizó el gesto detectado, y la demarcación posicional asociada con una, algunas o cada una de dichas políticas de control comprende una respectiva zona (16, 18) dentro de dicho espacio (4); estando configurada la lógica de selección de la política de control (40) para seleccionar dicha una de las políticas de control que está asociada con el gesto detectado y con la zona dentro de la cual es detectada que cae dicha ubicación; y en donde dichas zonas comprenden:
una primera zona (16) asociada con una política de control por medio de la cual la iluminación desde dichas fuentes de luz (8) es controlada uniformemente como respuesta al gesto detectado; y
una segunda zona (18) asociada con una política de control mediante la cual la iluminación desde alguna o todas las fuentes de luz es controlada de acuerdo con dicha distribución espacial.
10. El controlador, según la reivindicación 8 o 9, en el que la posición detectada comprende la orientación del usuario (12) desde la cual realizó el gesto detectado, y la demarcación posicional asociada con una, algunas o todas las políticas de control comprende una respectiva demarcación direccional; estando configurada la lógica de selección de la política de control (40) para seleccionar dicha una de las políticas de control que está asociada con el gesto detectado y con la demarcación direccional dentro de la cual se detecta que cae dicha orientación; y en donde las demarcaciones direccionales comprenden:
una primera demarcación direccional correspondiente a orientaciones en las que una o más de las fuentes de luz (8) están dentro del campo de visión de un usuario, estando asociada la primera demarcación direccional con una política de control mediante la cual son controladas una o más de las fuentes de luz dentro del campo de visión como respuesta al gesto detectado; y una segunda demarcación direccional correspondiente a orientaciones en las que ninguna de dichas fuentes de luz están dentro del campo de visión del usuario, estando asociada la segunda demarcación direccional con una política de control mediante la cual es controlada una luminaria predeterminada como respuesta al gesto detectado.
11. El controlador, según la reivindicación 10, en el que:
así como la política de control que está basada en la posición detectada, la respuesta respectiva definida por al menos una de las políticas de control comprende una distribución espacial en la iluminación proporcionada en dicho espacio (4), en donde la distribución espacial también es una función de la posición detectada, según la cual la iluminación disminuye con la separación desde la posición detectada; y
bajo la política de control asociada con la primera demarcación direccional, una pluralidad de las fuentes de luz (8) dentro del campo de visión son controladas según dicha distribución espacial.
12. El controlador, según cualquier reivindicación precedente, en el que:
la entrada procesada para detectar dicho movimiento comprende una entrada desde un sensor de formación de imágenes de tiempo de vuelo, una cámara, uno o más acelerómetros dispuestos alrededor de la persona del usuario y/o uno o más sensores rotacionales dispuestos alrededor de la persona del usuario; y/o
la entrada procesada para detectar dicha posición comprende una entrada desde un sensor de formación de imágenes de tiempo de vuelo, dicho sensor de formación de imágenes de tiempo de vuelo, una cámara, dicha cámara y/o un sistema de ubicación para ubicar un dispositivo de usuario dispuesto alrededor de la persona del usuario.
13. Un sistema que comprende el controlador (22) de cualquier reivindicación precedente, el uno o más recursos (8) y el sensor o sensores (14).
14. Un producto de programa informático para controlar uno o más recursos (8) de una utilidad para proporcionar la utilidad en un espacio (4) ocupado por uno o más usuarios, comprendiendo el producto de programa informático, un código incorporado en un medio legible por ordenador y configurado para que cuando se ejecute en una o más unidades de procesamiento realice operaciones de:
procesar una entrada desde un sensor (14) para detectar movimientos de un usuario (12) en dicho espacio, y para detectar que los movimientos corresponden a gestos predeterminados realizados por el usuario, siendo realizados los gestos desde diferentes posiciones respectivas dentro de dicho espacio;
procesar una entrada desde un sensor (14) para detectar la posición respectiva desde la cual el usuario realizó cada uno de dichos gestos, en donde la posición respectiva comprende una ubicación y una orientación del usuario cuando se realizó cada uno de dichos gestos;
en función de una asociación que asocia cada una de una pluralidad de políticas de control discretas con una combinación respectiva de gesto predeterminado y una demarcación posicional dentro de dicho espacio, en donde la demarcación posicional comprende una demarcación en la ubicación y orientación de un usuario dentro de dicho espacio, seleccionar las diferentes políticas de control en función de los gestos detectados y las posiciones detectadas, definiendo cada política de control, una respectiva respuesta de dicha utilidad al respectivo gesto asociado; y
controlar el uno o más recursos para proporcionar la utilidad de acuerdo con la respuesta respectiva de la política de control seleccionada.
ES15701125T 2014-01-30 2015-01-16 Control por gestos Active ES2936342T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14153288 2014-01-30
PCT/EP2015/050721 WO2015113833A1 (en) 2014-01-30 2015-01-16 Gesture control

Publications (1)

Publication Number Publication Date
ES2936342T3 true ES2936342T3 (es) 2023-03-16

Family

ID=50064432

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15701125T Active ES2936342T3 (es) 2014-01-30 2015-01-16 Control por gestos

Country Status (6)

Country Link
US (1) US9872362B2 (es)
EP (1) EP3100249B1 (es)
JP (1) JP6445025B2 (es)
CN (1) CN106164995B (es)
ES (1) ES2936342T3 (es)
WO (1) WO2015113833A1 (es)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3338517B1 (en) * 2015-08-20 2023-06-07 Signify Holding B.V. Spatial light effects based on lamp location
US10057078B2 (en) * 2015-08-21 2018-08-21 Samsung Electronics Company, Ltd. User-configurable interactive region monitoring
DE102015218844A1 (de) * 2015-09-30 2017-03-30 Tridonic Gmbh & Co Kg Verfahren zum Steuern einer Beleuchtungsvorrichtung und Beleuchtungssystem
JP6611038B2 (ja) * 2015-10-06 2019-11-27 パナソニックIpマネジメント株式会社 照明制御装置及び照明システム
EP3466210B1 (en) * 2016-05-30 2020-11-18 Signify Holding B.V. Lighting control
DE102016212234A1 (de) * 2016-07-05 2018-01-11 Siemens Aktiengesellschaft Verfahren zur Interaktion eines Bedieners mit einem technischen Objekt
KR102724342B1 (ko) 2016-11-30 2024-11-01 삼성전자주식회사 조명 제어장치 및 방법
WO2018206359A1 (en) * 2017-05-08 2018-11-15 Philips Lighting Holding B.V. Voice control
CN110945969B (zh) * 2017-08-17 2023-03-28 昕诺飞控股有限公司 控制照明系统
EP3445138A1 (en) * 2017-08-17 2019-02-20 Philips Lighting Holding B.V. Storing a preference for a light state of a light source in dependence on an attention shift
EP3782439B1 (en) 2018-04-19 2021-11-10 Signify Holding B.V. A method of selecting a controllable lighting device from a plurality of lighting devices
ES2994329T3 (en) * 2018-08-14 2025-01-22 Signify Holding Bv A device for providing an action upon detecting an object in a space
EP3626166A1 (en) * 2018-09-19 2020-03-25 Koninklijke Philips N.V. Device, system and method for providing a skeleton model
WO2020254225A1 (en) 2019-06-18 2020-12-24 Signify Holding B.V. System and methods to provide group lighting interaction
ES3049797T3 (en) 2019-07-25 2025-12-18 Signify Holding Bv A method and a controller for controlling a group of lighting units
US11789542B2 (en) * 2020-10-21 2023-10-17 International Business Machines Corporation Sensor agnostic gesture detection
CN121694032A (zh) 2023-07-21 2026-03-17 昕诺飞控股有限公司 用于重置设备的方法和装置
WO2025061555A1 (en) 2023-09-20 2025-03-27 Signify Holding B.V. Activating an electrical device using time of flight sensor data

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69830295T2 (de) 1997-11-27 2005-10-13 Matsushita Electric Industrial Co., Ltd., Kadoma Steuerungsverfahren
JP4304337B2 (ja) * 2001-09-17 2009-07-29 独立行政法人産業技術総合研究所 インタフェース装置
KR101738497B1 (ko) 2009-06-30 2017-08-28 필립스 라이팅 홀딩 비.브이. 제어가능한 조명 네트워크들과의 상호작용을 관리하기 위한 시스템들 및 방법들
CN102055735A (zh) * 2009-11-04 2011-05-11 中国移动通信集团山东有限公司 防火墙访问控制策略的配置方法及装置
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9477324B2 (en) * 2010-03-29 2016-10-25 Hewlett-Packard Development Company, L.P. Gesture processing
JP5728009B2 (ja) * 2010-06-17 2015-06-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
DE102010027491A1 (de) 2010-07-16 2012-01-19 Schaeffler Technologies Gmbh & Co. Kg Überwachungssystem für einen schienengebundenen Waren- oder Personentransport in einem Waggon
JP2012028015A (ja) * 2010-07-20 2012-02-09 Toshiba Corp 照明制御システムおよび照明制御方法
DE102010032761A1 (de) 2010-07-29 2012-02-02 E:Cue Control Gmbh Verfahren zur Steuerung einer Beleuchtungsanlage, Steuerung für eine Beleuchtungsanlage und Beleuchtungsanlage
US8659230B2 (en) 2011-06-16 2014-02-25 Panasonic Corporation Illumination control system
EP2735214B1 (en) * 2011-07-22 2018-01-17 Philips Lighting Holding B.V. Control unit and method for lighting control
WO2013175341A2 (en) * 2012-05-24 2013-11-28 Koninklijke Philips N.V. Method and apparatus for controlling multiple devices
US9220156B2 (en) * 2012-08-13 2015-12-22 Organic Response Investors Pty Ltd. Lighting control apparatus and process
US9430044B2 (en) * 2013-03-15 2016-08-30 Lutron Electronics Co., Inc. Gesture-based load control
CN103532945B (zh) * 2013-09-30 2017-01-18 华为技术有限公司 分享控制方法和相关设备及通信系统

Also Published As

Publication number Publication date
JP2017506794A (ja) 2017-03-09
CN106164995A (zh) 2016-11-23
CN106164995B (zh) 2019-07-12
US9872362B2 (en) 2018-01-16
WO2015113833A1 (en) 2015-08-06
JP6445025B2 (ja) 2018-12-26
EP3100249A1 (en) 2016-12-07
EP3100249B1 (en) 2022-12-21
US20160345407A1 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
ES2936342T3 (es) Control por gestos
ES2949308T3 (es) Control de un sistema de iluminación mediante un terminal móvil
ES2576498T3 (es) Control de fuente(s) de luz mediante un dispositivo portátil
EP3192330B1 (en) Lighting preference arbitration.
ES2748608T3 (es) Método para controlar un dispositivo de iluminación
ES2651920T3 (es) Sistema de iluminación con interfaz de usuario con conocimiento de la posición
US9801260B2 (en) Techniques and graphical user interface for controlling solid-state luminaire with electronically adjustable light beam distribution
JP6466596B2 (ja) 携帯型照明デバイス
CN109417843B (zh) 照明控制的设备和方法
CN108353482B (zh) 基于灯地点的空间光效果
JP2014535154A (ja) 光制御方法及び該光制御方法を使用する照明装置
US20170099716A1 (en) Lighting control device, lighting system, and method of controlling lighting device
US12560304B2 (en) Digital lampshade system and method
JP5977477B1 (ja) 光出射角の制御用のタッチ入力ユニットを備えた照明器具システム
KR101618020B1 (ko) 스마트 기기를 사용하는 사용자의 자세에 대응하여 실내 조명을 제어하는 실내 조명 제어 장치 및 그 방법
CN112287717A (zh) 智能系统、手势控制方法、电子设备及存储介质