ES2690139T3 - Método e interfaz de usuario - Google Patents
Método e interfaz de usuario Download PDFInfo
- Publication number
- ES2690139T3 ES2690139T3 ES14156674.5T ES14156674T ES2690139T3 ES 2690139 T3 ES2690139 T3 ES 2690139T3 ES 14156674 T ES14156674 T ES 14156674T ES 2690139 T3 ES2690139 T3 ES 2690139T3
- Authority
- ES
- Spain
- Prior art keywords
- controlled
- user interface
- coordinates
- remote control
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0227—Cooperation and interconnection of the input arrangement with other functional units of a computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Selective Calling Equipment (AREA)
- Details Of Television Systems (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Un método para controlar un dispositivo a controlar (420), comprendiendo el método: capturar (115), mediante un dispositivo de captura de imágenes (320) de un dispositivo de control remoto (300, 410), una imagen del dispositivo a controlar (420), en donde el dispositivo a controlar (420) incluye una primera interfaz de usuario; visualizar (140, 240) una segunda interfaz de usuario asociada con el dispositivo a controlar (420) en una pantalla de visualización (310) del dispositivo de control remoto (300, 410), en donde la segunda interfaz de usuario es idéntica a la primera interfaz de usuario y se utiliza para controlar el dispositivo a controlar (420), caracterizado por que el método comprende, además: reconocer (135) el dispositivo a controlar (420) por una primera vez comparando la imagen con las varias imágenes almacenadas y, en respuesta a la misma, visualizar (140) la segunda interfaz de usuario; asociar (155) las primeras coordenadas con el dispositivo a controlar (420), las primeras coordenadas identificadas al reconocer el dispositivo a controlar (420) por primera vez; y después de que el dispositivo a controlar haya sido reconocido por primera vez, identificar (235) el dispositivo a controlar (420) basándose en la coincidencia de las coordenadas actualmente identificadas (220) del dispositivo a controlar (420) con las primeras coordenadas y, en respuesta a ello, mostrar (240) la segunda interfaz de usuario.
Description
5
10
15
20
25
30
35
40
45
DESCRIPCION
Método e interfaz de usuario Campo
La presente invención se refiere en general a una interfaz de usuario y a un método de utilización de una interfaz de usuario. Más particularmente, la presente invención se refiere a una interfaz de usuario para el control de dispositivos de automatización del hogar y un método de utilización de una interfaz de usuario para controlar los dispositivos de automatización del hogar.
Antecedentes
Los dispositivos de automatización del hogar son conocidos en la técnica. Por ejemplo, un dispositivo de automatización del hogar puede incluir un termostato, cerradura, interruptor, panel de seguridad y similares. Cada dispositivo de automatización del hogar puede incluir una interfaz de usuario.
Los dispositivos de control remoto y las aplicaciones para controlar los dispositivos de automatización del hogar también son conocidos en la técnica. Por ejemplo, un dispositivo o aplicación de control remoto puede incluir una interfaz de usuario, que se puede utilizar para controlar de forma remota un sistema de automatización del hogar.
El documento US 2009/285443 A1 describe el control remoto de un dispositivo con un dispositivo móvil que tiene una cámara para detectar elementos de control del usuario del dispositivo controlado. Los documentos US 2008/200205 A1 y US 2012/178431 A1 describen el control de un objeto que tiene una primera interfaz de usuario mediante un dispositivo de control remoto que tiene una pantalla de visualización mostrando una interfaz de usuario, en esencia, idéntica a una interfaz de usuario del objeto a controlar para controlar dicho objeto .
La interfaz de usuario de un dispositivo de control remoto es diferente de la interfaz de la interfaz de usuario de un dispositivo de automatización del hogar. Por lo tanto, un usuario participará en diferentes experiencias dependiendo de si el usuario accede al dispositivo de automatización del hogar directamente a través de la interfaz de usuario del dispositivo de automatización del hogar o a través de la interfaz de usuario del dispositivo de control remoto. Por ejemplo, la apariencia visual y las indicaciones y/o las indicaciones de audio y sonido de las interfaces de usuario pueden variar. Por consiguiente, una curva de aprendizaje se puede asociar con una interfaz de usuario de un dispositivo de control remoto.
En vista de lo anterior, existe una necesidad continua y permanente de una interfaz de usuario mejorada.
Resumen de la invención
La presente invención proporciona un método según se define en la reivindicación 1. El método puede incluir las características de una cualquiera o más de las reivindicaciones dependientes 2 a 4.
La presente invención también proporciona un sistema según se define en la reivindicación 5. El método puede incluir las características de una cualquiera o más de las reivindicaciones dependientes 6 a 8.
Breve descripción de los dibujos
La FIG. 1 es un diagrama de flujo de un método de control remoto de un objeto reconocido por primera vez de acuerdo con las formas de realización descritas;
La FIG. 2 es un diagrama de flujo de un método de control remoto de un objeto que ha sido previamente reconocido de acuerdo con las formas de realización descritas;
La FIG. 3 es un diagrama de bloques de un dispositivo de control remoto para llevar a cabo los métodos de la FIG. 1, FIG. 2 y otros de acuerdo con las formas de realización descritas; y
La FIG. 4 es una vista en perspectiva de un sistema para llevar a cabo los métodos de la FIG. 1, FIG. 2 y otros de acuerdo con las formas de realización descritas.
Descripción detallada
Aunque esta invención es susceptible de una forma de realización en muchas formas diferentes, se muestran en los dibujos y se describirán en la presente memoria en detalle formas de realización específicas de la misma con el entendimiento de que la presente descripción se debe considerar como una ejemplificación de los principios de la invención.
Las formas de realización descritas en la presente memoria incluyen una interfaz de usuario de un dispositivo o aplicación de control remoto que se puede utilizar para controlar varios dispositivos de automatización del hogar diferentes. En algunas formas de realización, la interfaz de usuario del dispositivo de control remoto puede ser, en esencia, idéntica a la interfaz de usuario del dispositivo de automatización del hogar que controla el dispositivo de
5
10
15
20
25
30
35
40
45
50
55
control remoto. Es decir, un usuario puede participar en una experiencia, en esencia, idéntica independientemente de si el usuario está accediendo a un dispositivo de automatización del hogar directamente a través de la interfaz de usuario del dispositivo de automatización del hogar o a través de una interfaz de usuario del dispositivo de control remoto. Debido a que la interfaz del usuario en la aplicación de control remoto "coincide" con la interfaz del usuario en el dispositivo de automatización del hogar, la experiencia de un usuario al utilizar la interfaz del usuario en el dispositivo de control remoto puede ser más intuitiva y se puede reducir cualquier curva de aprendizaje.
El dispositivo de control remoto descrito en la presente memoria puede incluir un teléfono celular, un teléfono inteligente, asistencia digital personal, o cualquier otro dispositivo de control remoto según sería conocido por los expertos en la técnica. Por ejemplo, en algunas formas de realización, una aplicación de software se puede descargar y/o cargar en el dispositivo de control remoto.
De acuerdo con las formas de realización descritas, la interfaz de usuario del dispositivo de control remoto puede cambiar dependiendo del dispositivo de automatización del hogar que el dispositivo de control remoto está controlando. Por ejemplo, cuando el dispositivo de control remoto está controlando un primer dispositivo de automatización del hogar, el dispositivo de control remoto puede mostrar una primera interfaz de usuario que es, en esencia, idéntica a una interfaz de usuario del primer dispositivo de automatización del hogar. Sin embargo, cuando el dispositivo de control remoto está controlando un segundo dispositivo de automatización del hogar, el dispositivo de control remoto puede mostrar una segunda interfaz de usuario que es, en esencia, idéntica a una interfaz de usuario del segundo dispositivo de automatización del hogar.
Algunas formas de realización del dispositivo de control remoto descrito en la presente memoria pueden incluir un mecanismo para identificar un dispositivo u objeto a controlar, por ejemplo, un sistema de automatización del hogar a controlar. Por ejemplo, el dispositivo de control remoto puede incluir una cámara u otro dispositivo de captura de imágenes para capturar una imagen del dispositivo u objeto. Cuando se captura una imagen, las formas de realización descritas en la presente memoria pueden comparar la imagen capturada con varias imágenes almacenadas, por ejemplo, en una biblioteca de entrenamiento. El dispositivo u objeto en la imagen capturada se puede reconocer cuando las formas de realización descritas en la presente memoria hacen coincidir la imagen capturada con una de las varias imágenes almacenadas.
Después de que se reconozca el dispositivo u objeto a controlar, las formas de realización descritas en la presente memoria pueden proporcionar y visualizar una interfaz de usuario en el dispositivo de control remoto para controlar el dispositivo u objeto. Las formas de realización descritas en la presente memoria también pueden asociar la interfaz de usuario mostrada con el dispositivo u objeto. En algunas formas de realización, la interfaz de usuario que se muestra en el dispositivo de control remoto puede ser, en esencia, idéntica a la propia interfaz de usuario del dispositivo u objeto. En algunas formas de realización, la representación tridimensional se puede emplear para visualizar la interfaz de usuario del dispositivo u objeto en el dispositivo de control remoto.
En algunas formas de realización, cuando se reconoce un dispositivo u objeto a controlar, las formas de realización descritas en la presente memoria pueden proporcionar una actualización de estado en vivo para el dispositivo u objeto y/o facilitar una capacidad del usuario para controlar de forma remota el dispositivo u objeto. En algunas formas de realización, los eventos o videos relacionados con el dispositivo y/o una lista de elementos, tales como un interruptor o cerradura, que están asociados con el dispositivo u objeto también pueden mostrarse al usuario.
En algunas formas de realización, cuando se reconoce un dispositivo u objeto a controlar, por ejemplo, cuando el dispositivo u objeto se reconoce por primera vez, las coordenadas se pueden identificar y asociar con el dispositivo u objeto. Por ejemplo, en algunas formas de realización, se pueden identificar las coordenadas del usuario, el dispositivo de control remoto y/o la cámara u otro dispositivo de captura de imágenes. En algunas formas de realización, se pueden identificar las coordenadas del dispositivo u objeto reconocido a controlar.
En algunas formas de realización, las coordenadas se pueden identificar en relación con las direcciones de la brújula. En algunas formas de realización, las coordenadas se pueden identificar como una ubicación dentro de una región, por ejemplo, una posición relativa con respecto a otros objetos en la región. En algunas formas de realización, las coordenadas se pueden identificar como coordenadas geográficas o como coordenadas de GPS.
El dispositivo de control remoto descrito en la presente memoria puede continuar utilizándose para controlar de forma remota un dispositivo u objeto después de que se hayan identificado las coordenadas del dispositivo u objeto. Por ejemplo, en algunas formas de realización, cuando la cámara o el dispositivo de captura de imágenes toma una panorámica de un objeto o dispositivo que ha sido reconocido previamente, la interfaz de usuario puede proporcionar y visualizar la interfaz de usuario asociada con el objeto o dispositivo a controlar. Es decir, las formas de realización descritas en la presente memoria pueden identificar las coordenadas actuales como las mismas coordenadas identificadas previamente, pueden identificar el objeto o dispositivo asociado con las coordenadas actuales, y pueden proporcionar y visualizar la interfaz de usuario asociada con el objeto o dispositivo identificado.
La FIG. 1 es un diagrama de flujo de un método 100 de control remoto de un objeto reconocido por primera vez de acuerdo con las formas de realización descritas. Según se ve en la FIG. 1, el método 100 puede incluir proporcionar un objeto a controlar que aún no se haya reconocido como en 105. Por ejemplo, el objeto a controlar puede tener
5
10
15
20
25
30
35
40
45
50
55
una primera interfaz de usuario. El método 100 también puede incluir proporcionar un dispositivo de control remoto como en 110. Por ejemplo, el dispositivo de control remoto puede incluir una pantalla de visualización y un dispositivo de captura de imágenes, tal como una cámara.
El método 100 puede incluir tomar una panorámica o enfocar el dispositivo de captura de imágenes del dispositivo de control remoto hacia o sobre el objeto a controlar como en 115. A continuación, el método 100 puede incluir capturar una imagen del objeto a controlar como en 120 y comparar la imagen capturada a varias imágenes almacenadas como en 125. Cuando el método 100 determina que una de las varias imágenes almacenadas se ha identificado como una coincidencia de la imagen capturada como en 130, el método 100 puede reconocer el objeto a controlar como en 135.
Después de que el objeto a controlar se haya reconocido como en 135, el método 100 puede incluir proporcionar y visualizar una segunda interfaz de usuario en la pantalla de visualización del dispositivo de control remoto como en 140. Por ejemplo, la segunda interfaz de usuario puede ser, en esencia, idéntica a la primera interfaz de usuario del objeto a controlar. El método también puede incluir la asociación de la segunda interfaz de usuario con el objeto a controlar como en 145.
Finalmente, el método 100 puede incluir identificar las coordenadas como en 150 y asociar las coordenadas identificadas con el objeto a controlar como en 155.
La FIG. 2 es un diagrama de flujo de un método 200 de control remoto de un objeto que se ha reconocido previamente de acuerdo con las formas de realización descritas. Según se ve en la FIG. 2, el método 200 puede incluir proporcionar un objeto a controlar que se haya reconocido previamente como en 205. Por ejemplo, el objeto a controlar puede tener una primera interfaz de usuario. El método 200 también puede incluir proporcionar un dispositivo de control remoto como en 210. Por ejemplo, el dispositivo de control remoto puede incluir una pantalla de visualización y un dispositivo de captura de imágenes, tal como una cámara.
El método 200 puede incluir tomar una panorámica o enfocar el dispositivo de captura de imagen del dispositivo de control remoto hacia o sobre el objeto a controlar como en 215. A continuación, el método 200 puede incluir identificar las coordenadas como en 220 y determinar que las coordenadas identificadas en la etapa 220 coinciden con una de las varias coordenadas previamente identificadas como en 225. Por ejemplo, el método 200 puede determinar que las coordenadas identificadas en la etapa 220 coinciden con las coordenadas identificadas en la etapa 150 del método 100.
A continuación, el método 200 puede incluir identificar un objeto a controlar que está asociado con las coordenadas identificadas en la etapa 220 como en 230. Por ejemplo, el método 200 puede identificar el objeto a controlar que estaba asociado con las coordenadas en la etapa 155 del método 100.
El método 200 también puede incluir identificar una primera interfaz de usuario que está asociada con el objeto a controlar identificado en la etapa 230 como en 235. Por ejemplo, el método 200 puede identificar la primera interfaz de usuario que se asoció con el objeto a controlar en la etapa 145 del método 100.
Finalmente, el método 200 puede incluir visualizar una segunda interfaz de usuario en la pantalla de visualización del dispositivo de control remoto como en 240. Por ejemplo, la segunda interfaz de usuario puede ser, en esencia, idéntica a la primera interfaz de usuario que se identificó en la etapa 235.
La FIG. 3 es un diagrama de bloques de un dispositivo de control remoto 300 para llevar a cabo los métodos de la FIG. 1, FIG. 2 y otros de acuerdo con las formas de realización descritas. Según se ve en la FIG. 3, el dispositivo 300 puede incluir una pantalla de visualización 310, un dispositivo de captura de imágenes 320, un dispositivo de determinación de coordenadas 330, un transceptor 340 cableado y/o inalámbrico, un dispositivo de memoria 350, circuitos de control 360, uno o más procesadores programables 370 y software de control ejecutable 380. El software de control ejecutable 380 se puede almacenar en un medio legible por ordenador transitorio o no transitorio, que incluye, pero no se limita a, memoria de la computadora, RAM, medio de almacenamiento óptico, medio de almacenamiento magnético, memoria flash y similares. En algunas formas de realización, el software de control ejecutable 380 puede ejecutar las etapas de los métodos 100 y 200 mostrados en la FIG. 1 y la FIG. 2, respectivamente, así como otros descritos en la presente memoria.
El dispositivo de captura de imágenes 320 puede tomar una panorámica o enfocar hacia o sobre un objeto a controlar y capturar una imagen del objeto a controlar. Por ejemplo, en algunas formas de realización, el dispositivo de captura de imágenes 320 puede incluir una cámara. En algunas formas de realización, la imagen capturada se puede almacenar en el dispositivo de memoria 350. En algunas formas de realización, la imagen capturada se puede enviar, a través del transceptor 340, a un sistema, servidor o dispositivo de memoria desplazado.
Cuando la imagen capturada se compara con varias imágenes almacenadas, las varias imágenes almacenadas se pueden recuperar desde el dispositivo 350 de memoria o, a través del transceptor 340, desde un sistema, servidor o dispositivo de memoria desplazado.
5
10
15
20
25
30
35
40
Se pueden visualizar varios interfaces de usuario en la pantalla de visualización 310. Por ejemplo, una interfaz de usuario que es, en esencia, idéntica a una interfaz de usuario de un objeto a controlar se puede visualizar en la pantalla de visualización 310. En algunas formas de realización, la pantalla de visualización 310 puede mostrar ventanas interactivas y de visualización. En algunas formas de realización, la pantalla 310 de visualización puede ser una interfaz gráfica de usuario multidimensional y puede incluir mecanismos de entrada y salida como entenderían los expertos en la técnica.
El dispositivo de determinación de coordenadas 330 puede identificar coordenadas de acuerdo con las formas de realización descritas en la presente memoria. Por ejemplo, en algunas formas de realización, el dispositivo de determinación de coordenadas 330 puede incluir una brújula y/o un receptor de GPS. En algunas formas de realización, las coordenadas identificadas se pueden almacenar en el dispositivo de memoria 350. En algunas formas de realización, las coordenadas identificadas se pueden enviar, a través del transceptor 340, a un sistema, servidor o dispositivo de memoria desplazado.
Cuando se identifica un objeto a controlar que está asociado con coordenadas identificadas, los datos de asociación y/o la identificación del objeto a controlar se pueden recuperar desde el dispositivo de memoria 350 o, a través del transceptor 340, desde un sistema, servidor o dispositivo de memoria desplazado. De manera similar, cuando se identifica la interfaz de usuario que está asociada con el objeto identificado a controlar, los datos de asociación y/o la identificación de la interfaz de usuario se pueden recuperar del dispositivo de memoria 350 o, a través del transceptor 340, de un sistema, servidor o dispositivo de memoria desplazado.
La FIG. 4 es una vista en perspectiva de un sistema 400 para llevar a cabo los métodos de la FIG. 1, FIG. 2 y otros de acuerdo con las formas de realización descritas. Según se ve en la FIG. 4, el sistema 400 puede incluir un dispositivo de control remoto 410 y un objeto a controlar 420. Por ejemplo, en algunas formas de realización, el objeto a controlar 420 puede incluir un dispositivo de automatización del hogar.
Una cámara u otro tipo de dispositivo de captura de imágenes asociado con el dispositivo de control remoto 410 puede capturar una imagen del objeto a controlar 420. A continuación, el dispositivo 410 y/o una aplicación de software que se ejecuta en el mismo puede reconocer el objeto 420, mostrar una interfaz de usuario 412 en la pantalla de visualización 414 del dispositivo 410 que es, en esencia, idéntica a una interfaz de usuario 422 del objeto 420, e identificar las coordenadas, por ejemplo, de los metadatos extraídos de la imagen capturada, de acuerdo con las formas de realización descritas en la presente memoria. Alternativamente, el dispositivo 410 y/o la aplicación de software que se ejecuta allí pueden identificar primero las coordenadas de acuerdo con las formas de realización descritas en la presente memoria y a continuación identificar el objeto 420 asociado con las coordenadas identificadas, identificar una interfaz de usuario 422 asociada con el objeto identificado 420 y visualizar al usuario la interfaz 412 en la pantalla de visualización 414 del dispositivo 410, donde la interfaz de usuario 412 visualizada es, en esencia, idéntica a la interfaz de usuario 422 identificada.
Aunque algunas formas de realización se han descrito en detalle anteriormente, son posibles otras modificaciones. Por ejemplo, los flujos lógicos descritos anteriormente no requieren el orden particular descrito, o el orden secuencial, para lograr resultados deseables. Se pueden proporcionar otras etapas, o se pueden eliminar etapas, de los flujos descritos y se pueden agregar otros componentes o eliminarlos de los sistemas descritos.
A partir de lo anterior, se observará que se pueden efectuar numerosas variaciones y modificaciones sin apartarse del alcance de la invención. Se debe entender que no se pretende o no se debe inferir ninguna limitación con respecto al sistema o método específico descrito en la presente memoria. Por supuesto, se pretende cubrir todas dichas modificaciones como estando dentro del alcance de la invención.
Claims (8)
- 51015202530354045REIVINDICACIONES1. Un método para controlar un dispositivo a controlar (420), comprendiendo el método:capturar (115), mediante un dispositivo de captura de imágenes (320) de un dispositivo de control remoto (300, 410), una imagen del dispositivo a controlar (420), en donde el dispositivo a controlar (420) incluye una primera interfaz de usuario;visualizar (140, 240) una segunda interfaz de usuario asociada con el dispositivo a controlar (420) en una pantalla de visualización (310) del dispositivo de control remoto (300, 410), en donde la segunda interfaz de usuario es idéntica a la primera interfaz de usuario y se utiliza para controlar el dispositivo a controlar (420), caracterizado por que el método comprende, además:reconocer (135) el dispositivo a controlar (420) por una primera vez comparando la imagen con las varias imágenes almacenadas y, en respuesta a la misma, visualizar (140) la segunda interfaz de usuario;asociar (155) las primeras coordenadas con el dispositivo a controlar (420), las primeras coordenadas identificadas al reconocer el dispositivo a controlar (420) por primera vez; y después de que el dispositivo a controlar haya sido reconocido por primera vez, identificar (235) el dispositivo a controlar (420) basándose en la coincidencia de las coordenadas actualmente identificadas (220) del dispositivo a controlar (420) con las primeras coordenadas y, en respuesta a ello, mostrar (240) la segunda interfaz de usuario.
- 2. El método para controlar el dispositivo a controlar (420) de la reivindicación 1, en donde el dispositivo a controlar (420) incluye un dispositivo de automatización.
- 3. El método para controlar el dispositivo a controlar (420) de la reivindicación 1, en donde el dispositivo de control remoto (300, 410) incluye uno de un teléfono celular, un asistente digital personal y un teléfono inteligente.
- 4. El método para controlar el dispositivo a controlar (420) de la reivindicación 1, en donde las primeras coordenadas y las coordenadas identificadas actualmente incluyen direcciones de brújula, coordenadas geográficas o coordenadas de GPS.
- 5. Un sistema para controlar un dispositivo a controlar (420) que comprende:el dispositivo a controlar (420), en donde el dispositivo a controlar (420) incluye una primera interfaz de usuario; yun dispositivo de control remoto (300, 410), en donde el dispositivo de control remoto (300, 410) incluye una pantalla de visualización (310) y un dispositivo de captura de imágenes (320), en donde el dispositivo de captura de imágenes (320) se configura para capturar (115) una imagen del dispositivo a controlar (420), en donde el dispositivo de control remoto (300, 410) se configura para mostrar (140, 240) una segunda interfaz de usuario del dispositivo a controlar (420) en la pantalla de visualización ( 310) del dispositivo de control remoto (300, 410), en donde la segunda interfaz de usuario es idéntica a la primera interfaz de usuario y se utiliza para controlar el dispositivo a controlar (420); en donde el sistema se caracteriza por que :el dispositivo de control remoto (300, 410) se configura para reconocer (135) el dispositivo a controlar (420) por primera vez comparando la imagen con las varias imágenes almacenadas y, en respuesta a esto, se configura para mostrar (140) la segunda interfaz de usuario y asociar (155) las primeras coordenadas con el dispositivo a controlar (420), en donde las primeras coordenadas se identifican (150) al tiempo que el dispositivo de control remoto (300, 410) reconoce el dispositivo a controlar (420) por primera vez; y, después de que el dispositivo a controlar (420) se haya reconocido por primera vez, el dispositivo de control remoto (300, 410) se configura para identificar (235) el dispositivo a controlar (420) basándose en la coincidencia identificada actualmente (220 ) de las coordenadas del dispositivo a controlar (420) con las primeras coordenadas y, en respuesta a ello, para visualizar (240) la segunda interfaz de usuario.
- 6. El sistema para controlar el dispositivo a controlar (420) de la reivindicación 5 en donde el dispositivo a controlar (420) incluye un dispositivo de automatización.
- 7. El sistema para controlar el dispositivo a controlar (420) de la reivindicación 5, en donde el dispositivo de control remoto (300, 410) incluye uno de un teléfono celular, un asistente digital personal y un teléfono inteligente.
- 8. El sistema para controlar el dispositivo a controlar (420) de la reivindicación 5, en donde las primeras coordenadas y las coordenadas actualmente identificadas incluyen direcciones de brújula, coordenadas geográficas o coordenadas de GPS.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/783,507 US20140250397A1 (en) | 2013-03-04 | 2013-03-04 | User interface and method |
US201313783507 | 2013-03-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2690139T3 true ES2690139T3 (es) | 2018-11-19 |
Family
ID=50193241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14156674.5T Active ES2690139T3 (es) | 2013-03-04 | 2014-02-25 | Método e interfaz de usuario |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140250397A1 (es) |
EP (1) | EP2775374B1 (es) |
CN (1) | CN104035656A (es) |
CA (1) | CA2843840A1 (es) |
ES (1) | ES2690139T3 (es) |
IN (1) | IN2014CH01031A (es) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10677484B2 (en) | 2015-05-04 | 2020-06-09 | Johnson Controls Technology Company | User control device and multi-function home control system |
US9964328B2 (en) | 2015-05-04 | 2018-05-08 | Johnson Controls Technology Company | User control device with cantilevered display |
US9898869B2 (en) * | 2015-09-09 | 2018-02-20 | Microsoft Technology Licensing, Llc | Tactile interaction in virtual environments |
US10760809B2 (en) | 2015-09-11 | 2020-09-01 | Johnson Controls Technology Company | Thermostat with mode settings for multiple zones |
US10559045B2 (en) | 2015-09-11 | 2020-02-11 | Johnson Controls Technology Company | Thermostat with occupancy detection based on load of HVAC equipment |
GB2542777A (en) * | 2015-09-28 | 2017-04-05 | Sony Corp | A first apparatus for controlling a second apparatus |
US10655881B2 (en) | 2015-10-28 | 2020-05-19 | Johnson Controls Technology Company | Thermostat with halo light system and emergency directions |
US10546472B2 (en) | 2015-10-28 | 2020-01-28 | Johnson Controls Technology Company | Thermostat with direction handoff features |
US10162327B2 (en) | 2015-10-28 | 2018-12-25 | Johnson Controls Technology Company | Multi-function thermostat with concierge features |
WO2018191688A2 (en) | 2017-04-14 | 2018-10-18 | Johnson Controls Techology Company | Thermostat with exhaust fan control for air quality and humidity control |
FI20185772A1 (fi) | 2018-09-17 | 2020-03-18 | Cargotec Finland Oy | Etäohjaustyöasema |
US11107390B2 (en) | 2018-12-21 | 2021-08-31 | Johnson Controls Technology Company | Display device with halo |
US11461991B2 (en) | 2020-12-30 | 2022-10-04 | Imagine Technologies, Inc. | Method of developing a database of controllable objects in an environment |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7266777B2 (en) * | 2004-09-08 | 2007-09-04 | Universal Electronics Inc. | Configurable controlling device having an associated editing program |
US7830417B2 (en) * | 2006-08-15 | 2010-11-09 | Fuji Xerox Co., Ltd | System and method for interacting with objects via a camera enhanced mobile device |
US20090102617A1 (en) * | 2007-10-22 | 2009-04-23 | Douglas Thommes | Method, system and computer program product for controlling a plurality of devices in an environment |
US20090285443A1 (en) * | 2008-05-15 | 2009-11-19 | Sony Ericsson Mobile Communications Ab | Remote Control Based on Image Recognition |
CN101655689A (zh) * | 2008-08-19 | 2010-02-24 | 马海英 | 具操作界面可远程控制的智能遥控器虚拟机装置 |
US20100138007A1 (en) * | 2008-11-21 | 2010-06-03 | Qwebl, Inc. | Apparatus and method for integration and setup of home automation |
CN101799975A (zh) * | 2009-02-10 | 2010-08-11 | Tcl集团股份有限公司 | 一种学习型遥控器及其按键模板创建方法 |
US20100229194A1 (en) * | 2009-03-03 | 2010-09-09 | Sony Corporation | System and method for remote control based customization |
CN101887637B (zh) * | 2009-05-14 | 2013-06-19 | Tcl集团股份有限公司 | 一种对设备进行遥控的方法及万能遥控器 |
CN102024317B (zh) * | 2009-09-17 | 2012-09-19 | Tcl集团股份有限公司 | 一种遥控器及其实现方法 |
EP2528351A4 (en) * | 2010-01-18 | 2013-05-22 | Nec Corp | INFORMATION TERMINAL DEVICE, CONTROL METHOD USING THE METHOD AND PROGRAM |
US8766783B1 (en) * | 2010-11-05 | 2014-07-01 | Google Inc. | Methods and systems for remotely controlling electronics |
CN102467815B (zh) * | 2010-11-09 | 2016-05-04 | 夏普株式会社 | 多功能遥控器、遥控方法和能耗监控方法 |
JP5620287B2 (ja) * | 2010-12-16 | 2014-11-05 | 株式会社オプティム | ユーザインターフェースを変更する携帯端末、方法及びプログラム |
US8655345B2 (en) * | 2011-01-08 | 2014-02-18 | Steven K. Gold | Proximity-enabled remote control |
CN102253805A (zh) * | 2011-07-14 | 2011-11-23 | 徐响林 | 一种遥控装置及其实现方法 |
US9332019B2 (en) * | 2013-01-30 | 2016-05-03 | International Business Machines Corporation | Establishment of a trust index to enable connections from unknown devices |
-
2013
- 2013-03-04 US US13/783,507 patent/US20140250397A1/en not_active Abandoned
-
2014
- 2014-02-24 CA CA2843840A patent/CA2843840A1/en not_active Abandoned
- 2014-02-25 EP EP14156674.5A patent/EP2775374B1/en active Active
- 2014-02-25 ES ES14156674.5T patent/ES2690139T3/es active Active
- 2014-02-28 IN IN1031CH2014 patent/IN2014CH01031A/en unknown
- 2014-03-03 CN CN201410073584.5A patent/CN104035656A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP2775374A2 (en) | 2014-09-10 |
US20140250397A1 (en) | 2014-09-04 |
CA2843840A1 (en) | 2014-09-04 |
IN2014CH01031A (es) | 2015-05-08 |
CN104035656A (zh) | 2014-09-10 |
EP2775374A3 (en) | 2014-12-03 |
EP2775374B1 (en) | 2018-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2690139T3 (es) | Método e interfaz de usuario | |
KR102332752B1 (ko) | 지도 서비스를 제공하는 전자 장치 및 방법 | |
KR102362117B1 (ko) | 지도 정보를 제공하기 위한 전자 장치 | |
US11417365B1 (en) | Methods, systems and apparatuses for multi-directional still pictures and/or multi-directional motion pictures | |
CN104350736B (zh) | 附近位置信息的增强现实布置 | |
US10171731B2 (en) | Method and apparatus for image processing | |
US10534972B2 (en) | Image processing method, device and medium | |
US10157324B2 (en) | Systems and methods of updating user identifiers in an image-sharing environment | |
US10733799B2 (en) | Augmented reality sensor | |
US10911818B2 (en) | Electronic device and method for controlling the same | |
US9607654B2 (en) | Video editing | |
US11657085B1 (en) | Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures | |
WO2017049794A1 (zh) | 指令生成方法及装置 | |
US20160050349A1 (en) | Panoramic video | |
US20170303089A1 (en) | Obstacle locating method and apparatus | |
CN104123339A (zh) | 图像管理方法及装置 | |
KR102424296B1 (ko) | 복수의 영상들을 제공하기 위한 방법, 저장 매체 및 전자 장치 | |
RU2012119843A (ru) | Способ отображения видеоданных на мобильном устройстве | |
WO2020042494A1 (zh) | Vr场景截图方法、设备及存储介质 | |
WO2017197882A1 (zh) | 一种视频播放方法及装置 | |
US20170345197A1 (en) | Display control method and display control device | |
US10748000B2 (en) | Method, electronic device, and recording medium for notifying of surrounding situation information | |
JP2014038592A5 (ja) | 情報処理装置、情報処理方法、システム | |
US9349350B2 (en) | Method for providing contents along with virtual information and a digital device for the same | |
CN107710736A (zh) | 辅助用户捕获图像或视频的方法和系统 |