MX2014001469A - Aparato electronico que usa reconocimiento de movimiento y metodo para controlar el aparato electronico del mismo. - Google Patents

Aparato electronico que usa reconocimiento de movimiento y metodo para controlar el aparato electronico del mismo.

Info

Publication number
MX2014001469A
MX2014001469A MX2014001469A MX2014001469A MX2014001469A MX 2014001469 A MX2014001469 A MX 2014001469A MX 2014001469 A MX2014001469 A MX 2014001469A MX 2014001469 A MX2014001469 A MX 2014001469A MX 2014001469 A MX2014001469 A MX 2014001469A
Authority
MX
Mexico
Prior art keywords
user
hand
screen
movement
control unit
Prior art date
Application number
MX2014001469A
Other languages
English (en)
Inventor
Sang-Jin Han
Hee-Seob Ryu
Chan-Hee Choi
Dong-Ho Lee
Ki-Jun Jeong
Seung-Kwon Park
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of MX2014001469A publication Critical patent/MX2014001469A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Neurosurgery (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Details Of Television Systems (AREA)
  • Position Input By Displaying (AREA)
  • Manipulator (AREA)
  • Control Of Amplification And Gain Control (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Se describe un aparato electrónico y método de control del mismo. El método para controlar el aparato electrónico incluye el uso de fotografías de reconocimiento de movimiento como un objeto, y cambiar y presentar visualmente una pantalla con base en una dirección de movimiento del objeto, cuando se haga una determinación de que el objeto fotografiado es movido mientras mantiene una primera forma. Mediante este método, el usuario es capaz de llevar a cabo operaciones de acercamiento y alejamiento de manera más fácil e intuitiva al usar reconocimiento de movimiento.

Description

APARATO ELECTRÓNICO QUE USA RECONOCIMIENTO DE MOVIMIENTO Y MÉTODO PARA CONTROLAR EL APARATO ELECTRÓNICO DEL MISMO Campo técnico Los métodos y aparatos de acuerdo con los ejemplos de modalidad se refieren a un aparato electrónico y a un método para controlar el aparato electrónico del mismo, y más particularmente a un aparato electrónico que es controlado de acuerdo a un movimiento de un objeto fotografiado por una unidad de fotografiado, y un método de control de los mismos.
Antecedentes de la invención Varios aparatos electrónicos se están desarrollando y distribuyendo con base en los desarrollos correspondientes de tecnologías electrónicas. En particular, recientemente, varios tipos de aparatos electrónicos, incluyendo televisores (TVs), se están usando en los hogares residenciales.
Estos aparatos electrónicos han sido provistos con diferentes funciones de acuerdo con las demandas del usuario. Por ejemplo, los televisores proporcionan no sólo funciones de recepción de difusión, sino que también se conectan a la Internet, a fin de proporcionar servicios de Internet. Además, los televisores se han vuelto capaces de proporcionar y/o presentar visualmente una variedad de tipos de contenidos mediante la ejecución de las funciones que ofrecen los diversos contenidos, como, por ejemplo, fotografías e imágenes de video.
Sin embargo, al proporcionar contenidos usando este aparato electrónico, existe un problema de no ser capaz de llevar a cabo operaciones de acercamiento o alejamiento del contenido mediante el uso de métodos de entrada simples. Por ejemplo, cuando se presenta visualmente una fotografía en un televisor, hay un problema de no poder acercar o alejar fácilmente una porción seleccionada de la fotografía mediante el uso de un control remoto.
Existe otro problema de que, con el fin de navegar por una lista de contenido proporcionada por el aparato electrónico, es necesario un aparato de entrada adicional, tal como, por ejemplo, un ratón.
Breve descripción de la invención Problema técnico Un aspecto de los ejemplos de modalidad se refiere a un aparato electrónico que lleva a cabo operaciones de acercamiento o alejamiento con base en un movimiento de un objeto fotografiado por una unidad de fotografiado usando el reconocimiento de movimiento, y un método de control del mismo.
Solución al problema De acuerdo con una modalidad ejemplar de la presente invención, un método para controlar un aparato electrónico mediante el uso de reconocimiento de movimiento puede incluir fotografiar un objeto; y cambiar y presentar visualmente una pantalla con base en una primera dirección de movimiento del objeto, cuando se haga una determinación de que el objeto fotografiado se ha movido mientras mantiene una primera forma.
El objeto puede ser la mano de un usuario, y el método puede incluir además la detección de una primera forma de la mano del usuario como una forma de agarre.
El método puede incluir además la determinación de una ubicación detectada de la mano del usuario, y el cambio de la pantalla en función de la ubicación detectada.
El método puede incluir causar que un cursor incluido en la pantalla no se mueva mientras se cambia y presenta visualmente la pantalla.
El método puede incluir además presentar visualmente una pantalla en relación a cuando se libere la primera forma cuando se realice una determinación de que la primera forma del objeto ha sida liberada.
El método puede incluir además mover un cursor incluido en la pantalla de presentación visual con base en una segunda dirección de movimiento del objeto mientras mantiene una segunda forma, cuando se haga una determinación de que el objeto se ha movido mientras mantiene la segunda forma después de que la primera forma del objeto haya sido liberada.
De acuerdo con una modalidad ejemplar de la presente invención, un aparato electrónico que lleva a cabo reconocimiento de movimiento puede incluir una unidad de presentación visual; una unidad de fotografiado que fotografía un objeto; y una unidad de control que controla la unidad de presentación visual para cambiar y presentar visualmente una pantalla basada en una primera dirección de movimiento del objeto, cuando se haga una determinación de que el objeto fotografiado se ha movido mientras mantiene una primera forma.
El objeto puede ser la mano de un usuario, y una primera forma de la mano del usuario puede ser una forma de agarre.
La unidad de control puede determinar una ubicación detectada de la mano del usuario, y controlar la unidad de presentación visual para cambiar la pantalla con base en la ubicación detectada.
La unidad de control puede causar que un cursor incluido en la pantalla no se mueva mientras controla la unidad de presentación visual para cambiar y presentar visualmente la pantalla.
La unidad de control puede controlar la unidad de presentación visual para presentar visualmente una pantalla en relación a cuando se libere la primera forma cuando se haga una determinación de que la primera forma del objeto ha sido liberada.
La unidad de control puede controlar la unidad de presentación visual para mover un cursor incluido en la pantalla de presentación visual con base en una segunda dirección de movimiento del objeto, mientras mantiene una segunda forma, cuando se haga una determinación de que el objeto se mueve mientras mantiene la segunda forma después de que la primera forma del objeto haya sido liberada.
De acuerdo con una modalidad ejemplar de la presente invención, un método para controlar un aparato electrónico mediante el uso de reconocimiento de movimiento puede incluir fotografiar un primer objeto y un segundo objeto; determinar que el primer objeto fotografiado y el segundo objeto fotografiado se han movido mientras mantienen una primera forma; y acercar o alejar una pantalla basada en una dirección de movimiento del primer objeto y el segundo objeto.
El primer objeto puede ser la mano izquierda de un usuario y el segundo objeto puede ser la mano derecha del usuario, y el acercamiento o alejamiento puede ocurrir cuando la mano izquierda y la mano derecha se muevan mientras mantienen simetría entre las mismas.
El acercamiento o alejamiento puede ocurrir cuando la mano izquierda y la mano derecha se muevan en una de una dirección hacia arriba/abajo, una dirección izquierda/derecha, y una dirección diagonal.
El acercamiento o alejamiento puede comprender alejar la pantalla cuando la mano izquierda y la mano derecha se muevan hacia un punto central con respecto a la mano izquierda y la mano derecha.
El acercamiento o alejamiento puede comprender acercar la pantalla cuando la mano izquierda y la mano derecha se alejan una de otra.
De acuerdo con una modalidad ejemplar de la presente invención, un aparato electrónico que lleva a cabo reconocimiento de movimiento puede incluir una unidad de presentación visual; una unidad de fotografiado que fotografía un primer objeto y un segundo objeto; y una unidad de control que controla la unidad de presentación visual para acercar o alejar una pantalla con base en direcciones de movimiento respectivas del primer objeto y el segundo objeto, cuando se haga una determinación de que el primer objeto fotografiado y el segundo objeto fotografiado se han movido mientras mantienen una primera forma.
El primer objeto puede ser la mano izquierda de un usuario y el segundo objeto puede ser la mano derecha del usuario, y la unidad de control puede acercar o alejar la imagen de una pantalla de la unidad de presentación visual cuando la mano izquierda y la mano derecha se muevan mientras mantienen simetría entre las mismas.
La unidad de control puede acercar o alejar la pantalla cuando la mano izquierda y la mano derecha se muevan en una de una dirección hacia arriba/abajo, una dirección izquierda/derecha, y una dirección diagonal.
La unidad de control puede alejar la pantalla cuando la mano izquierda y la mano derecha se muevan hacia un punto central con respecto a la mano izquierda y la mano derecha.
La unidad de control puede acercar la pantalla cuando la mano izquierda y la mano derecha se alejen una de otra.
De acuerdo con una modalidad ejemplar de la presente invención, un método para controlar un aparato electrónico mediante el uso de reconocimiento de movimiento puede incluir fotografiar un objeto; determinar que el objeto fotografiado se ha movido mientras mantiene una primera forma, y acercar o alejar una pantalla de presentación visual con base en una dirección de movimiento del objeto.
El objeto puede ser una de la mano izquierda de un usuario y la mano derecha del usuario, y el acercamiento o alejamiento puede comprender acercar la pantalla de presentación visual cuando el objeto se mueva en una de una dirección hacia arriba y una dirección hacia la derecha, y el acercamiento o alejamiento puede comprender alejar la pantalla de presentación visual cuando el objeto se mueva en una de una dirección hacia abajo y una dirección hacia la izquierda.
El objeto puede ser una de la mano izquierda de un usuario y la mano derecha del usuario, y el acercamiento o alejamiento puede comprender acercar pantalla de presentación visual cuando el objeto se mueva mientras gire en una de una dirección hacia la derecha y una dirección hacia la izquierda, y el acercamiento o alejamiento puede comprender alejar la pantalla de presentación visual cuando el objeto se mueva mientras se gire en una opuesta de la dirección hacia la derecha y la dirección hacia la izquierda.
El objeto puede ser una de la mano izquierda de un usuario y la mano derecha del usuario, y el acercamiento o alejamiento puede comprender acercar la pantalla de presentación visual cuando el objeto se mueva hacia adentro con respecto a la pantalla, y el acercamiento o alejamiento puede comprender alejar la pantalla de presentación visual cuando el objeto se mueva hacia afuera con respecto a la pantalla.
De acuerdo con una modalidad ejemplar de la presente invención, un aparato electrónico que lleva a cabo reconocimiento de movimiento puede incluir una unidad de presentación visual; una unidad de fotografiado que fotografía un objeto; y una unidad de control que acerca o aleja una pantalla de la unidad de presentación visual con base en una dirección de movimiento del objeto, cuando se haga una determinación de que el objeto fotografiado se ha movido mientras mantiene una primera forma.
El objeto puede ser una de la mano izquierda de un usuario y la mano derecha del usuario, y la unidad de control puede acercar la pantalla de presentación visual cuando el objeto se mueva en una de dirección hacia arriba y una dirección hacia la derecha, y la unidad de control puede alejar la pantalla de presentación visual cuando el objeto se mueva en una de una dirección hacia abajo y una dirección hacia la izquierda.
El objeto puede ser una de la mano izquierda de un usuario y la mano derecha del usuario, y la unidad de control puede acercar la pantalla de presentación visual cuando el objeto se mueva mientras gire en una de una dirección hacia la derecha y una dirección hacia la izquierda, y la unidad de control puede alejar la pantalla de presentación visual cuando el objeto se mueva mientras gire en una opuesta de una de la dirección hacia la derecha y la dirección hacia la izquierda.
El objeto puede ser una de la mano izquierda de un usuario y la mano derecha del usuario, y la unidad de control puede acercar la pantalla de presentación visual cuando el objeto se mueva hacia adentro con respecto a la pantalla, y la unidad de control puede alejar la pantalla de presentación visual cuando el objeto se mueva hacia afuera con respecto a la pantalla.
Efectos adecuados de la invención Como se describió anteriormente, el usuario se hace capaz de llevar a cabo una operación de acercamiento o una operación de alejamiento con respecto a la pantalla de presentación visual más fácil y convenientemente mediante el uso de reconocimiento de movimiento.
Breve descripción de los dibujos Los aspectos anteriores y/o otros de la presente invención serán más evidentes mediante la descripción de ciertos ejemplos de modalidad con referencia a los dibujos que se acompañan, en los cuales: La figura 1 es un diagrama de bloques que ilustra una configuración de un aparato electrónico de acuerdo con una modalidad ejemplar de la presente invención.
Las figuras 2a, 2b, 2c, y 2d son vistas que ilustran operaciones de acercamiento usando dos manos, de acuerdo con varias modalidades ejemplares de la presente invención.
Las figuras 3a, 3b, 3c, y 3d son vistas que ilustran operaciones de alejamiento usando dos manos, de acuerdo con varias modalidades ejemplares de la presente invención.
La figura 4 es una vista que ilustra operaciones de acercamiento/alejamiento con una sola mano, de acuerdo con un primer ejemplo de modalidad de la presente invención.
Las figuras 5a y 5b son vistas que ilustran operaciones de acercamiento/alejamiento con una sola mano, de acuerdo con un segundo ejemplo de modalidad de la presente invención.
Las figuras 6a y 6b son vistas que ilustran operaciones de acercamiento/alejamiento con una sola mano, de acuerdo con un tercer ejemplo de modalidad de la presente invención.
Las figuras 7a y 7b son vistas que ilustran un método para navegar por una lista de contenidos, de acuerdo con una modalidad ejemplar de la presente invención.
Las figuras 8a y 8b son vistas que ilustran un método para la ejecución de un icono en una lista de contenidos, de acuerdo con una modalidad ejemplar de la presente invención.
La figura 9 es un diagrama de flujo que ¡lustra un método de control de un aparato electrónico para llevar a cabo operaciones de acercamiento/alejamiento mediante el uso de reconocimiento de movimiento, de acuerdo con una modalidad ejemplar de la presente invención.
La figura 10 es un diagrama de flujo que ilustra un método de control de un aparato electrónico para llevar a cabo la navegación en una lista de contenidos mediante el uso de reconocimiento de movimiento, de acuerdo con una modalidad ejemplar de la presente invención.
Descripción detallada de la invención Ciertas modalidades ejemplares se describen en mayor detalle a continuación con referencia a los dibujos que se acompañan.
En la siguiente descripción, números de referencia de dibujo iguales se usan para los elementos similares, incluso en diferentes dibujos. Las materias definidas en la descripción, tales como la construcción y elementos detallados, se proporcionan para ayudar a una comprensión exhaustiva de las modalidades ejemplares. Sin embargo, las modalidades ejemplares se pueden practicar sin esas materias específicamente definidas. Además, las funciones o construcciones bien conocidas no se describen en detalle, debido a que oscurecerían la solicitud con detalles innecesarios.
La figura 1 es un diagrama de bloques que ilustra una configuración de un aparato electrónico 100, de acuerdo con una modalidad ejemplar de la presente invención. Como se ilustra en la figura 1 , el aparato electrónico 100 incluye una unidad de fotografiado 1 10, una unidad de entrada de imagen 120, una unidad de almacenamiento 130, una unidad de salida 140, y una unidad de control 50. En la presente memoria, el aparato electrónico 100 puede incorporarse como una televisión (TV), computadora personal (PC) en tableta, y/o como un teléfono móvil, pero esto es meramente un ejemplo de modalidad, y por lo tanto el concepto tecnológico de la presente invención puede ser aplicado a cualquier aparato electrónico que sea capaz de usar reconocimiento de voz y reconocimiento de movimiento.
La unidad de fotografiado 1 10 fotografía un objeto (por ejemplo, la palma de la mano, el puño, y/o el dedo de un usuario) y proporciona la fotografía del objeto a la unidad de control 150. Por ejemplo, la unidad de fotografiado 1 10 puede incorporarse como una cámara, pero esto es meramente un ejemplo de modalidad, y por lo tanto la unidad de fotografiado 1 10 puede incorporarse como una cámara de profundidad también, o cualquier otro tipo de cámara o aparato que sea capaz de fotografiar un objeto.
La unidad de fotografiado 1 10 puede estar situada, por ejemplo, en un centro de un lado izquierdo de un bisel situado en la periferia de una unidad de presentación visual 143 que se incluya en la unidad de salida 140. Sin embargo, esto es meramente una modalidad ejemplar, y por lo tanto la unidad de fotografiado 1 10 puede estar situada en un área diferente del aparato electrónico 100, y aún más, puede estar separada y situada externamente con respecto al aparato electrónico 100. En un caso en el que la unidad de fotografiado esté separada del aparato electrónico 100, la unidad de fotografiado 1 10 separada puede ser conectada o acoplada eléctricamente al aparato electrónico 100.
La unidad de entrada de imagen 120 recibe una imagen desde el exterior. En particular, la unidad de entrada de imagen 120 puede incluir una unidad de recepción de transmisión 123 y una unidad de entrada de terminal externa 126. La unidad de recepción de transmisión 123 busca una señal de canal de difusión transmitida desde una estación de difusión externa, y lleva a cabo procesamiento de señales en la señal de canal de difusión buscada. La unidad de entrada de terminal externa 126 puede recibir una señal de imagen desde un dispositivo externo, tal como, por ejemplo, un disco de video digital (DVD), una PC, o un decodificador.
La unidad de almacenamiento 130 almacena varios datos y programas para accionar y controlar el aparato electrónico 100. En particular, la unidad de almacenamiento 130 puede almacenar un módulo de reconocimiento de movimiento para reconocer el movimiento de un usuario recibido a través de la unidad de fotografiado 1 10. Además, la unidad de almacenamiento 130 puede almacenar una base de datos de movimiento. La base de datos de movimiento se refiere a una base de datos donde el movimiento del usuario y una tarea de movimiento respectiva que corresponda al movimiento de cada usuario se almacenan en conjunto unos con otros. En la presente memoria, una tarea del aparato electrónico 100 se refiere a una función tal como el cambio de canal, el cambio de volumen, y la navegación en red que pueden llevarse a cabo por el dispositivo electrónico 00.
La unidad de salida 140 emite datos de imagen que se han procesado en señales y datos de audio correspondientes a los datos de imagen. En la presente memoria, los datos de imagen pueden ser emitidos por la unidad de presentación visual 143, y los datos de audio pueden ser emitidos por una unidad de salida de audio 146. La unidad de salida de audio 146 puede incluir, por ejemplo, al menos uno de un altavoz, un terminal de salida de auriculares, o una terminal de salida en formato de interconexión digital Sony/Philips (S/PDIF).
La unidad de control 150 controla las operaciones globales del aparato electrónico 100 de acuerdo con el comando de un usuario. En particular, la unidad de control 50 puede controlar la unidad de fotografiado 1 10, la unidad de entrada de imagen 120, la unidad de almacenamiento 130, y la unidad de salida 140 de acuerdo con el comando del usuario. La unidad de control 150 puede incluir una CPU (unidad central de procesamiento), módulos para controlar el aparato electrónico 100, y ROM (memoria de sólo lectura) y RAM (memoria de acceso aleatorio) para el almacenamiento de los módulos.
La unidad de control 150 puede reconocer el movimiento del usuario recibido a través de la unidad de fotografiado 1 10 mediante el uso de un módulo de reconocimiento de movimiento almacenado en la unidad de almacenamiento 130.
Más específicamente, en un caso en el que se fotografíe un objeto mediante el uso de la unidad de fotografiado 1 10, la unidad de control 150 reconoce un movimiento mediante el uso de un módulo de detección de movimiento y la base de datos de movimiento. En un caso en el que un objeto sea fotografiado por la unidad de fotografiado 1 10, la unidad de control 150 almacena una imagen recibida en unidades de cuadro, y detecta el objeto sujeto al movimiento del usuario (por ejemplo, la mano del usuario) mediante el uso del cuadro almacenado. El módulo de detección de movimiento detecta al menos una de una forma, un color, y un movimiento del objeto incluido en el cuadro y por lo tanto detecta el objeto.
La unidad de control 150 puede rastrear un movimiento del objeto detectado. Además, la unidad de control 150 puede eliminar el ruido no relacionado con el movimiento del objeto.
La unidad de control 150 determina un movimiento con base en una forma y ubicación del objeto rastreado. La unidad de control 150 determina un cambio de posición, una velocidad, una ubicación y una dirección de rotación de una forma del objeto, para determinar el movimiento del usuario. El movimiento del usuario puede incluir, por ejemplo, uno o más de un agarre que es un movimiento de sostener una mano, un movimiento de apuntamiento que es un movimiento de mover un cursor marcado usando una mano, un manazo que es un movimiento de mover una mano en una dirección a una cierta velocidad o más, una sacudida que es un movimiento de balancear una mano en cualquiera de una de una dirección a la izquierda/derecha o una dirección hacia arriba/abajo, y una rotación que es un movimiento circular de una mano. El concepto tecnológico de la presente invención también se puede aplicar a otros movimientos que no sean los de las modalidades ejemplares anteriormente mencionadas. Por ejemplo, un movimiento de apertura, que es un movimiento de abrir una mano, se puede incluir además.
En particular, la unidad de control 150 detecta el objeto fotografiado, rastrea el movimiento del objeto detectado (por ejemplo, la mano del usuario), y acerca o aleja una pantalla de la unidad de presentación visual con base en el movimiento del objeto rastreado.
El siguiente texto proporciona una descripción de un método de la unidad de control 150 para llevar a cabo una operación de acercamiento o alejamiento usando dos manos, con referencia a las figuras 2a, 2b, 2c, 2d, 3a, 3b, 3c, y 3d.
Primero, la unidad de control 150 detecta las dos manos del usuario, que son fotografiadas por la unidad de fotografiado 1 10. En particular, la unidad de control 150 puede detectar dos manos usando al menos una de una forma, un color, y un movimiento de las dos manos del usuario. Además, la mano de un usuario se refiere a por lo menos uno de una palma de la mano, un puño, y un dedo del usuario.
En particular, en un caso en el que se fotografíe un movimiento de agarre, que es un movimiento del usuario que sostiene dos manos, la unidad de control 150 puede detectar el movimiento de agarre y detectar así las dos manos del usuario. Alternativamente, en un caso en el que se fotografíe un movimiento de sacudida del usuario sacudiendo las dos manos varias veces, la unidad de control 150 puede detectar el movimiento de sacudida y detectar entonces las dos manos del usuario. En otra alternativa, en un caso en el que se fotografíe un movimiento del usuario manteniendo la palma fija durante un tiempo predeterminado (por ejemplo, 5 segundos), la unidad de control 150 puede detectar la palma, y detectar entonces las dos manos.
En cualquier caso en el que se detecten las dos manos, la unidad de control 150 puede presentar visualmente un icono que incluya información relativa a la detección de las dos manos en una pantalla de presentación visual.
Cuando se detectan las dos manos, la unidad de control 150 determina si las dos manos se han movido o no mientras mantienen una primera forma (por ejemplo, un estado en el que la palma esté abierta) y mientras se mantiene simetría entre las dos manos. Además, cuando se determina que las dos manos han sido movidas mientras mantienen la primera forma y mientras mantienen simetría entre ellas, la unidad de control 150 lleva a cabo una de una operación de acercamiento y alejamiento con respecto a la pantalla de presentación visual con base en la dirección de movimiento de las dos manos.
En particular, cuando las dos manos del usuario se mueven hacia un punto central con respecto a las dos manos mientras mantienen simetría entre las mismas, la unidad de control 150 aleja la pantalla de presentación visual. Por ejemplo, como se ilustra en la figura 2a, cuando la mano izquierda del usuario se mueve hacia la derecha y la mano derecha del usuario se mueve a la izquierda manteniendo la simetría entre la mano izquierda del usuario y la mano derecha del usuario, la unidad de control 150 puede alejar la pantalla de presentación visual. Además, como se ilustra en la figura 2b, cuando la mano izquierda del usuario se mueve diagonalmente en una dirección hacia abajo y hacia la derecha y la mano derecha del usuario se mueve diagonalmente en una dirección hacia arriba y hacia la izquierda mientras se mantiene la simetría entre la mano izquierda del usuario y la mano derecha del usuario, la unidad de control 10 puede alejar la pantalla de presentación visual. Aún más, como se ilustra en la figura 2c, cuando la mano izquierda del usuario se mueve diagonalmente en una dirección hacia arriba y hacia la derecha y la mano derecha del usuario se mueve diagonalmente en una dirección hacia abajo y hacia la izquierda mientras se mantiene la simetría entre la mano izquierda del usuario y la mano derecha del usuario, la unidad de control 150 puede alejar la pantalla de presentación visual. Más aún, como se ilustra en la figura 2d, cuando cualquier mano de la mano izquierda y derecha del usuario se encuentra en la posición relativa superior se mueve en una dirección hacia abajo y la otra mano se mueve en una dirección hacia arriba mientras se mantiene la simetría entre las dos manos, la unidad de control 150 puede alejar la pantalla de presentación visual.
Cuando las dos manos del usuario se mueven hacia afuera lejos una de otra mientras mantienen simetría entre las mismas, la unidad de control 150 acerca la pantalla de presentación visual. Por ejemplo, como se ilustra en la figura 3a, cuando la mano izquierda del usuario se mueve a la izquierda y la mano derecha del usuario se mueve hacia la derecha mientras se mantiene la simetría entre la mano izquierda del usuario y la mano derecha del usuario, la unidad de control 150 puede acercar la pantalla de presentación visual. Además, como se ilustra en la figura 3b, cuando la mano izquierda del usuario se mueve diagonalmente en una dirección hacia arriba y hacia la izquierda y la mano derecha del usuario se mueve diagonalmente en una dirección hacia abajo y hacia la derecha mientras se mantiene la simetría entre las manos izquierda y derecha del usuario, la unidad de control 150 puede acercar la pantalla de presentación visual. Aún más, como se ilustra en la figura 3c, cuando la mano izquierda del usuario se mueve diagonalmente en una dirección hacia abajo y hacia la izquierda y la mano derecha del usuario se mueve diagonalmente en una dirección hacia arriba y hacia la derecha mientras se mantiene la simetría entre las manos izquierda y derecha del usuario, la unidad de control 150 puede acercar la pantalla de presentación visual. Más aún, como se ilustra en la figura 3d, cuando cualquier mano de la mano izquierda y derecha del usuario se encuentra en la posición relativa superior se mueve en una dirección hacia arriba y la otra mano se mueve en una dirección hacia abajo mientras se mantiene la simetría entre las dos manos, la unidad de control 150 puede acercar la pantalla de presentación visual.
Mientras tanto, como se ilustra en las figuras 2a, 2b, 2c, 2d, 3a, 3b, 3c, y 3d, incluso si las dos manos no mantienen la simetría entre las mismas cuando se muevan, cuando se muevan más cerca entre sí, la unidad de control 150 puede alejar la pantalla de presentación visual. Además, cuando las dos manos se muevan lejos una de otra, la unidad de control 150 puede acercar la pantalla de presentación visual.
Además, en un estado en donde una mano se mantenga fija y la otra mano se mueva más cerca de la mano que se mantiene fija, la unidad de control 150 puede alejar la pantalla de presentación visual. Además, en un estado en el que una mano se mantenga fija y la otra mano se aleje de la mano que se mantenga fija, la unidad de control 150 puede acercar la pantalla de presentación visual.
El siguiente texto proporciona una descripción de un método de la unidad de control 150 para llevar a cabo una operación de acercamiento o alejamiento con una sola mano, con referencia a las figuras 4, 5a, 5b, 6a, y 6b.
Primero, la unidad de control 150 detecta una mano de un usuario, que es fotografiada por la unidad de fotografiado 1 10. En particular, la unidad de control 150 puede detectar la mano usando al menos una de una forma, un color, y un movimiento de una o ambas de las manos del usuario.
Un método de detección de una mano puede ser el mismo que el método de detección de dos manos, como el descrito anteriormente. Por ejemplo, en un caso en que un movimiento de agarre, un movimiento de sacudida de sacudir una mano varias veces, o un movimiento en donde una mano se mantenga fija durante un tiempo predeterminado, sea fotografiado usando la unidad de fotografiado 1 10, la unidad de control 150 puede detectar una mano.
Cuando se detecta una mano, la unidad de control 150 determina si la mano detectada es movida o no mientras mantiene una primera forma, tal como, por ejemplo, un estado en el que la mano detectada se mantenga abierta. Además, la unidad de control 150 lleva a cabo una de una operación de acercamiento y alejamiento con respecto a la pantalla de presentación visual con base en la dirección del movimiento de la mano detectada.
Por ejemplo, en un caso en el que la dirección de movimiento de la mano detectada es una de una dirección ascendente y una dirección hacia la derecha, la unidad de control 150 acerca la pantalla de presentación visual, como se ilustra en la figura 4. Sin embargo, en un caso en el que la dirección de movimiento de la mano detectada es una de una dirección hacia abajo y una dirección hacia la izquierda, la unidad de control 150 aleja la pantalla de presentación visual.
Además, en un caso en el que la dirección de movimiento de la mano detectada es una dirección de rotación a la derecha, la unidad de control 150 acerca la pantalla de presentación visual, como se ilustra en la figura 5a. Por el contrario, en un caso en el que la dirección de movimiento de la mano detectada es una dirección de rotación a la izquierda, la unidad de control 150 aleja la pantalla de presentación visual, como se ilustra en la figura 5b. Sin embargo, las operaciones de acercamiento o alejamiento ¡lustradas en las figuras 5a y 5b son simplemente modalidades ejemplares de la presente invención, y por lo tanto la pantalla de presentación visual puede ser alejada cuando la mano detectada sea girada en la dirección a la derecha, y la pantalla de presentación visual puede ser acercada cuando la mano detectada sea girada en la dirección hacia la izquierda.
Aún más, en un caso en el que la mano detectada se mueve hacia adentro con respecto a la pantalla de presentación visual del aparato electrónico, la unidad de control 150 acerca la pantalla de presentación visual, como se ilustra en la figura 6a. Por el contrario, en un caso en el que la mano detectada se mueve hacia afuera con respecto a la pantalla, la unidad de control 150 aleja la pantalla de presentación visual, como se ilustra en la figura 6b.
Sin embargo, las modalidades ejemplares de llevar a cabo operaciones de acercamiento/alejamiento con respecto a una detección de una mano como las descritas anteriormente con respecto a las figuras 4, 5a, 5b, 6a, 6b y pueden aplicarse sólo cuando las operaciones de acercamiento/alejamiento de la pantalla sean posibles, tales como, por ejemplo, para una fotografía o una página web, o cuando el aparato electrónico 100 haya entrado en un modo de acercamiento/alejamiento de la pantalla de presentación visual.
Al llevar a cabo operaciones de acercamiento/alejamiento como se describió anteriormente, el usuario se hace capaz de llevar a cabo operaciones de acercamiento y alejamiento más fácilmente y de manera intuitiva mediante el uso de reconocimiento de movimiento.
Además, cuando se reconoce que el objeto fotografiado por la unidad de fotografiado 1 10 se mueve mientras se mantiene la primera forma, la unidad de control 150 controla la unidad de presentación visual 143 para mover la pantalla en la dirección de movimiento del objeto y luego presentar visualmente la pantalla. En particular, la pantalla puede presentar visualmente una lista que incluya una pluralidad de iconos o viñetas, pero esto es meramente un ejemplo de modalidad, y por lo tanto el concepto tecnológico de la presente invención se puede aplicar a cualquier pantalla que se pueda mover. Además, la primera forma puede ser, por ejemplo, una forma de agarre.
Por ejemplo, como se ilustra en la figura 7a, en un estado en el que se presenta visualmente una pantalla de lista de contenidos 720 que incluye una pluralidad de iconos de aplicaciones 730, cuando se reconoce que la mano del usuario, que ha sido fotografiada por la unidad de fotografiado 1 10, se ha movido mientras mantiene un movimiento de agarre, la unidad de control 150 puede mover la pantalla de lista de contenidos 720 en la dirección del movimiento correspondiente al movimiento de agarre y luego presentar visualmente la pantalla de lista de contenidos. Por consiguiente, cuando se reconoce que la mano del usuario, que ha sido fotografiada por la unidad de fotografiado 1 10, se ha movido en una dirección hacia la izquierda mientras mantiene el movimiento de agarre en la pantalla de lista de contenidos 720 como se ilustra en la figura 7a, la unidad de control 150 puede mover la pantalla de lista de contenidos 720 a la derecha y luego presentar visualmente la pantalla de lista de contenidos 720, como se ilustra en la figura 7b.
Por el contrario, cuando se reconoce que la mano del usuario, que ha sido fotografiada por la unidad de fotografiado 1 10, se ha movido en una dirección hacia la derecha mientras se mantiene el movimiento de agarre en la pantalla de lista de contenidos 720, como se ilustra en la figura 7b, la unidad de control 150 puede mover la pantalla de lista de contenidos 720 a la izquierda y luego presentar visualmente la pantalla de lista de contenidos 720, como se ¡lustra en la figura 7a.
En este documento, incluso cuando el objeto se mueve mientras mantiene la primera forma, un cursor de pantalla 710 en la pantalla de presentación visual no se mueve.
Además, cuando se determina que la primera forma se libera y el objeto se mueve mientras mantiene una segunda forma, tal como, por ejemplo, un estado en el que sólo un dedo es desplegado, la unidad de control 150 puede mover el cursor 710 incluido en la pantalla de presentación visual en la dirección de movimiento del objeto que mantiene la segunda forma.
En particular, las figuras 7a y 7b ilustran sólo un área de la pantalla de lista de contenidos donde se encuentra el cursor, pero esto no es más que un ejemplo de modalidad, por lo que toda la pantalla se puede mover.
Además, las figuras 7a y 7b ilustran, respectivamente, los casos en los que la pantalla de lista de contenidos se mueve hacia la izquierda y la derecha, pero esto también es sólo un ejemplo de modalidad, y por lo tanto es posible aplicar el concepto tecnológico de la presente invención a casos en los que la pantalla de lista de contenidos sea movida en una o más de una dirección hacia arriba, dirección hacia abajo, y una dirección diagonal.
Más aún, cuando se reconoce que el movimiento de agarre del usuario fotografiado por la unidad de fotografiado 1 10 se libera, la unidad de control 150 controla la unidad de presentación visual 143 para presentar visualmente la pantalla de lista de contenidos correspondiente al momento en que el movimiento de agarre fue liberado.
Aún más, cuando el primer movimiento del objeto es fotografiado por la unidad de fotografiado 1 10 en una circunstancia en la que el cursor se encuentra en uno de la pluralidad de iconos presentados visualmente en la lista de contenidos, la unidad de control 150 puede ejecutar el icono donde el cursor esté situado.
Por ejemplo, como se ilustra en la figura 8a, en un caso en el que la mano del usuario, que ha sido fotografiada por la unidad de fotografiado 1 10, lleve a cabo el movimiento de agarre en una circunstancia en la que el cursor 810 se encuentre en el icono APP4 de la pluralidad de iconos de aplicación 830 en la pantalla de lista de contenidos 820, la unidad de control 150 puede ejecutar el icono APP4 como se ilustra en la figura 8b.
En particular, la unidad de control 150 puede ejecutar el icono inmediatamente cuando la mano del usuario realice el movimiento de agarre, pero esto es meramente un ejemplo de modalidad, y por lo tanto, por ejemplo, la unidad de control 150 puede ejecutar el icono en un momento cuando el usuario despliegue o abra la mano de nuevo después de llevar a cabo el movimiento de agarre.
En consecuencia, las figuras 7a, 7b, 8a, y 8b se basan en la suposición de que la presente invención se aplique a una pantalla de lista de contenidos, pero esto es meramente un ejemplo de modalidad, y por lo tanto, por ejemplo, el concepto tecnológico de la presente invención se puede aplicar a una pantalla que sea movible, tal como, por ejemplo, una página web.
Como se ilustra en las figuras 7a, 7b, 8a, y 8b, al mover la pantalla de presentación visual, el usuario se hace capaz de navegar más fácilmente y convenientemente por la pantalla de lista de contenidos sin el uso de un dispositivo de entrada tal como un control remoto.
El texto siguiente proporciona una descripción detallada de un método para controlar el aparato electrónico mediante el uso de reconocimiento de movimiento de acuerdo con una modalidad ejemplar, con referencia a las figuras 9 y 10.
La figura 9 es un diagrama de flujo que ilustra un método para controlar el aparato electrónico 100 que lleva a cabo operaciones de acercamiento/alejamiento mediante el uso de reconocimiento de movimiento, de acuerdo con una modalidad ejemplar de la presente invención.
Primero, el aparato electrónico 100 fotografía un objeto (operación S910). En particular, el aparato electrónico 100 puede fotografiar el objeto usando, por ejemplo, una cámara o una cámara de profundidad.
A continuación, el aparato electrónico 100 detecta el objeto fotografiado (operación S920). Más específicamente, el aparato electrónico 100 puede detectar el objeto mediante el uso de una de una forma, un color, y un movimiento del objeto. En particular, el objeto puede ser la mano de un usuario (por ejemplo, la palma, puño, y un dedo del usuario). Además, en un caso en el que el objeto sea la mano del usuario, la mano del usuario puede incluir o bien las dos manos o una mano.
Por ejemplo, en un caso en el que se fotografíe un movimiento de agarre en relación con el usuario sosteniendo dos manos, el aparato electrónico 100 puede detectar el movimiento de agarre y detectar las dos manos del usuario. Alternativamente, en un caso en el que se fotografíe un movimiento de sacudida en relación con el usuario sacudiendo las dos manos varias veces, el aparato electrónico 100 puede detectar el movimiento de sacudida y detectar las dos manos del usuario. En una alternativa adicional, en un caso en el que un movimiento en relación al usuario manteniendo la palma fija durante un tiempo predeterminado (por ejemplo, 5 segundos) sea fotografiado, el aparato electrónico 100 puede detectar la palma y detectar las dos manos.
A continuación, el aparato electrónico rastrea el movimiento del objeto detectado (operación S930).
Por último, el aparato electrónico 100 lleva a cabo ya sea de una operación de acercamiento o una operación de alejamiento con base en el movimiento del objeto detectado (operación S940). Más específicamente, en un caso en que el objeto detectado sea las dos manos del usuario, cuando se haga una determinación de que las dos manos del usuario se han movido mientras se mantiene simetría entre las mismas, el aparato electrónico 100 realiza una de una operación de acercamiento y una operación de alejamiento con respecto a la pantalla de presentación visual con base en el movimiento de las dos manos. En particular, cuando las dos manos se muevan una hacia la otra, el aparato electrónico 100 puede llevar a cabo una operación de alejamiento, y cuando las dos manos se alejen una de la otra, el aparato electrónico 100 puede llevar a cabo una operación de acercamiento. En un caso en el que el objeto sea una mano del usuario, el aparato electrónico 100 puede llevar a cabo una operación de acercamiento o una operación de alejamiento, como se ilustra en las figuras 4, 5a, 5b, 6a, y 6b.
En consecuencia, el usuario se hace capaz de llevar a cabo una operación de acercamiento o una operación de alejamiento con respecto a la pantalla de presentación visual de manera más fácil y conveniente mediante el uso de reconocimiento de movimiento.
La figura 10 es un diagrama de flujo que ilustra un método para controlar el aparato electrónico con el fin de llevar a cabo la navegación de la lista de contenidos mediante el uso de reconocimiento de movimiento, de acuerdo con una modalidad ejemplar de la presente invención.
Primero, el aparato electrónico 100 presenta visualmente la lista de contenidos (operación S1010). En particular, la lista de contenidos puede ser una lista que incluya una pluralidad de iconos o una pluralidad de viñetas.
A continuación, el aparato electrónico 100 fotografía el objeto mediante el uso de la unidad de fotografiado 0 (operación S 020).
Luego, el aparato electrónico 100 determina si el objeto (por ejemplo, la mano del usuario) se ha movido o no mientras mantiene la primera forma (tal como, por ejemplo, la forma de agarre) (operación S1030).
Cuando se hace una determinación de que el objeto se ha movido mientras mantiene la primera forma (operación S1030-Y), el aparato electrónico 100 mueve la pantalla de presentación visual y presenta visualmente, con base en el movimiento del objeto que mantiene la primera forma (operación S1040).
A continuación, el aparato electrónico 100 determina si el primer movimiento (por ejemplo, el movimiento de agarre) se ha producido o no en una circunstancia en la que el cursor esté situado sobre el icono de la lista de contenidos (operación S1050).
Cuando se hace una determinación de que el primer movimiento se ha producido en una circunstancia en la que el cursor está situado sobre el icono de la lista de contenidos (operación S1050-Y), el aparato electrónico 100 ejecuta el icono en donde se encuentra el cursor (operación S1060).
Mediante la ejecución del método ilustrado en la figura 10, el usuario puede navegar por la pantalla de lista de contenidos en forma más fácil y cómoda mediante el uso de reconocimiento de movimiento, y puede ejecutar el icono de la lista de contenidos.
Los métodos de acuerdo con las modalidades ejemplares de la presente invención se pueden incorporar como programas que se pueden ejecutar mediante el uso de uno o más de diversos medios informáticos, y pueden grabarse en medios legibles por computadora. El medio legible por computadora puede almacenar un comando de programa, archivo de datos, estructura de datos o una combinación de los mismos. El programa grabado en los medios antes mencionados puede ser uno que esté especialmente diseñado y configurado con base en la presente invención.
Aunque algunas modalidades ejemplares de acuerdo con el presente concepto inventivo se han mostrado y descrito, se apreciará por los expertos en la técnica que se pueden hacer cambios en estas modalidades ejemplares sin apartarse de los principios y el espíritu de la presente invención, el alcance de los cuales se define en las reivindicaciones y sus equivalentes.

Claims (14)

REIVINDICACIONES
1 . Un método para controlar un aparato electrónico mediante el uso de reconocimiento de movimiento, el método se caracteriza porque comprende: fotografiar un objeto; y cambiar y presentar visualmente una pantalla de acuerdo con una primera dirección de movimiento del objeto, cuando se haga la determinación de que el objeto fotografiado se ha movido mientras mantiene una primera forma.
2. El método de conformidad con la reivindicación 1 , caracterizado porque el objeto es la mano de un usuario, y el método comprende además detectar una primera forma de la mano del usuario como una forma de agarre.
3. El método de conformidad con la reivindicación 2, caracterizado porque comprende además: determinar una ubicación detectada de la mano del usuario; y cambiar la pantalla con base en la ubicación detectada.
4. El método de conformidad con la reivindicación 1 , caracterizado porque comprende además causar que un cursor incluido en la pantalla no se mueva mientras se cambia y presenta visualmente la pantalla.
5. El método de conformidad con la reivindicación 1 , caracterizado porque comprende además presentar visualmente una pantalla en relación a cuando se libere la primera forma cuando se haga una determinación de que la primera forma del objeto ha sido liberada.
6. El método de conformidad con la reivindicación 1 , caracterizado porque comprende además mover un cursor incluido en la pantalla de presentación visual de acuerdo con una segunda dirección de movimiento del objeto mientras mantiene una segunda forma, cuando se haga una determinación de que el objeto se ha movido mientras mantiene la segunda forma después de que la primera forma del objeto haya sido liberada.
7. Un aparato electrónico que lleva a cabo reconocimiento de movimiento, el aparato se caracteriza porque comprende: una unidad de presentación visual; una unidad de fotografiado que fotografía un objeto; y una unidad de control que controla la unidad de presentación visual para cambiar y presentar visualmente una pantalla de acuerdo con una primera dirección de movimiento del objeto, cuando se haga la determinación de que el objeto fotografiado se ha movido mientras mantiene una primera forma.
8. El aparato de conformidad con la reivindicación 7, caracterizado porque el objeto es la mano de un usuario, y una primera forma de la mano del usuario es una forma de agarre.
9. El aparato de conformidad con la reivindicación 8, caracterizado porque la unidad de control determina una ubicación detectada de la mano del usuario, y controla la unidad de presentación visual para cambiar la pantalla con base en la ubicación detectada.
10. El aparato de conformidad con la reivindicación 7, caracterizado porque la unidad de control hace que un cursor incluido en la pantalla no se mueva mientras controla la unidad de presentación visual para cambiar y presentar visualmente la pantalla.
1 1 . El aparato de conformidad con la reivindicación 7, caracterizado porque la unidad de control controla la unidad de presentación visual para presentar visualmente una pantalla en relación a cuando se libere la primera forma cuando se haga una determinación de que la primera forma del objeto ha sido liberada.
12. El aparato de conformidad con la reivindicación 7, caracterizado porque la unidad de control controla la unidad de presentación visual para mover un cursor incluido en la pantalla de presentación visual de acuerdo con una segunda dirección de movimiento del objeto mientras mantiene una segunda forma, cuando se haga una determinación de que el objeto se ha movido mientras mantiene la segunda forma después de que la primera forma del objeto haya sido liberada.
13. Un método para controlar un aparato electrónico mediante el uso de reconocimiento de movimiento, el método se caracteriza porque comprende: fotografiar un primer objeto y un segundo objeto; determinar que el primer objeto fotografiado y el segundo objeto fotografiado se han movido mientras mantienen una primera forma; y acercar o alejar una pantalla de acuerdo con una dirección de movimiento del primer objeto y el segundo objeto.
14. Un método para controlar un aparato electrónico mediante el uso de reconocimiento de movimiento, el método se caracteriza porque comprende: fotografiar un objeto; determinar que el objeto fotografiado se ha movido mientras mantiene una primera forma; y acercar o alejar una pantalla de acuerdo con una dirección de movimiento del objeto.
MX2014001469A 2011-08-05 2012-08-02 Aparato electronico que usa reconocimiento de movimiento y metodo para controlar el aparato electronico del mismo. MX2014001469A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161515459P 2011-08-05 2011-08-05
KR1020110117849A KR20130016026A (ko) 2011-08-05 2011-11-11 모션 인식을 이용한 전자 장치 및 이의 제어 방법
PCT/KR2012/006172 WO2013022224A1 (en) 2011-08-05 2012-08-02 Electronic apparatus using motion recognition and method for controlling electronic apparatus thereof

Publications (1)

Publication Number Publication Date
MX2014001469A true MX2014001469A (es) 2014-02-27

Family

ID=47895696

Family Applications (5)

Application Number Title Priority Date Filing Date
MX2013008889A MX2013008889A (es) 2011-08-05 2012-08-02 Metodo para controlar un aparato electronico basado en el reconocimiento de voz y reconocimiento de movimiento, y el aparto electronico aplicando el mismo.
MX2014001469A MX2014001469A (es) 2011-08-05 2012-08-02 Aparato electronico que usa reconocimiento de movimiento y metodo para controlar el aparato electronico del mismo.
MX2013008891A MX2013008891A (es) 2011-08-05 2012-08-02 Aparato electronico y metodo para proporcionar interfaz de usuario del mismo.
MX2013008892A MX2013008892A (es) 2011-08-05 2012-08-02 Metodo para controlar un aparato electronicobasado en el reconocimiento de voz y reconocimiento de movimiento, y aparatoelectronico que aplica los mismos.
MX2013008888A MX2013008888A (es) 2011-08-05 2012-08-02 Metodo para controlar aparato electronico basandose en el reconocimiento de movimiento, y el aparato electronico aplicando el mismo.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
MX2013008889A MX2013008889A (es) 2011-08-05 2012-08-02 Metodo para controlar un aparato electronico basado en el reconocimiento de voz y reconocimiento de movimiento, y el aparto electronico aplicando el mismo.

Family Applications After (3)

Application Number Title Priority Date Filing Date
MX2013008891A MX2013008891A (es) 2011-08-05 2012-08-02 Aparato electronico y metodo para proporcionar interfaz de usuario del mismo.
MX2013008892A MX2013008892A (es) 2011-08-05 2012-08-02 Metodo para controlar un aparato electronicobasado en el reconocimiento de voz y reconocimiento de movimiento, y aparatoelectronico que aplica los mismos.
MX2013008888A MX2013008888A (es) 2011-08-05 2012-08-02 Metodo para controlar aparato electronico basandose en el reconocimiento de movimiento, y el aparato electronico aplicando el mismo.

Country Status (10)

Country Link
US (2) US20130033422A1 (es)
EP (2) EP2740018A4 (es)
KR (5) KR101262700B1 (es)
CN (6) CN103733163A (es)
AU (5) AU2012293066A1 (es)
BR (5) BR112013019984A2 (es)
CA (5) CA2825813A1 (es)
MX (5) MX2013008889A (es)
RU (4) RU2013139311A (es)
WO (1) WO2013022224A1 (es)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
EP3754997B1 (en) 2011-08-05 2023-08-30 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
KR20140085055A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR102057629B1 (ko) 2013-02-19 2020-01-22 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US20140258942A1 (en) * 2013-03-05 2014-09-11 Intel Corporation Interaction of multiple perceptual sensing inputs
US20140282273A1 (en) * 2013-03-15 2014-09-18 Glen J. Anderson System and method for assigning voice and gesture command areas
KR102129786B1 (ko) * 2013-04-03 2020-07-03 엘지전자 주식회사 단말기 및 이의 제어방법
KR102112522B1 (ko) * 2013-05-06 2020-05-19 삼성전자주식회사 디지털 텔레비전을 이용한 소셜 네트워크 서비스 제공 장치 및 방법
KR102069322B1 (ko) * 2013-06-05 2020-02-11 삼성전자주식회사 프로그램 실행 방법 및 그 전자 장치
KR102114612B1 (ko) * 2013-07-02 2020-05-25 엘지전자 주식회사 리모트 컨트롤러 및 멀티미디어 디바이스의 제어 방법
KR102199558B1 (ko) * 2013-08-06 2021-01-07 엘지전자 주식회사 단말기 및 그 동작 방법
CN104346127B (zh) * 2013-08-02 2018-05-22 腾讯科技(深圳)有限公司 语音输入的实现方法、装置及终端
CN103442138A (zh) * 2013-08-26 2013-12-11 华为终端有限公司 语音控制方法、装置及终端
KR102158315B1 (ko) 2013-10-14 2020-09-21 삼성전자주식회사 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
KR102092164B1 (ko) 2013-12-27 2020-03-23 삼성전자주식회사 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들
KR20150092996A (ko) * 2014-02-06 2015-08-17 삼성전자주식회사 디스플레이 장치 및 이를 이용한 전자 장치의 제어 방법
KR102171817B1 (ko) 2014-03-14 2020-10-29 삼성전자주식회사 디스플레이 장치 및 제어 방법
KR102216048B1 (ko) 2014-05-20 2021-02-15 삼성전자주식회사 음성 명령 인식 장치 및 방법
CN105208056B (zh) 2014-06-18 2020-07-07 腾讯科技(深圳)有限公司 信息交互的方法及终端
KR101594874B1 (ko) 2014-07-16 2016-02-17 삼성전자주식회사 전자 장치, 외부 장치 및 전자 장치의 외부 장치 전원 제어방법
KR102048329B1 (ko) 2014-09-19 2019-11-25 후아웨이 테크놀러지 컴퍼니 리미티드 애플리케이션 프로그램 실행 방법 및 장치
KR101587625B1 (ko) * 2014-11-18 2016-01-21 박남태 음성제어 영상표시 장치 및 영상표시 장치의 음성제어 방법
KR102311331B1 (ko) * 2014-11-20 2021-10-13 에스케이플래닛 주식회사 데이터저장장치 및 그 동작 방법
KR102334860B1 (ko) * 2014-11-21 2021-12-03 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법
KR102254894B1 (ko) * 2015-01-05 2021-05-24 엘지전자 주식회사 음성 인식 검색 결과를 이용하여 카테고리를 배열하는 디스플레이 디바이스 및 그 제어 방법
KR102310870B1 (ko) * 2015-01-12 2021-10-12 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102340231B1 (ko) * 2015-01-16 2021-12-16 엘지전자 주식회사 멀티미디어 디바이스 및 그 제어 방법
KR20160090584A (ko) 2015-01-22 2016-08-01 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
CN104795065A (zh) * 2015-04-30 2015-07-22 北京车音网科技有限公司 一种提高语音识别率的方法和电子设备
EP3096216B1 (en) * 2015-05-12 2018-08-29 Konica Minolta, Inc. Information processing device, information processing program, and information processing method
WO2016185586A1 (ja) * 2015-05-20 2016-11-24 三菱電機株式会社 情報処理装置及びインタロック制御方法
WO2016209039A1 (ko) * 2015-06-24 2016-12-29 주식회사 브이터치 의사소통을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR101702760B1 (ko) * 2015-07-08 2017-02-03 박남태 가상 키보드 음성입력 장치 및 방법
KR102077228B1 (ko) * 2015-09-03 2020-04-07 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN105302298B (zh) * 2015-09-17 2017-05-31 深圳市国华识别科技开发有限公司 空中书写断笔系统和方法
KR20180128101A (ko) 2015-10-12 2018-11-30 주식회사 네오펙트 측정센서장치의 부착위치 초기설정시스템, 초기설정방법 및 초기설정프로그램
KR102496617B1 (ko) * 2016-01-04 2023-02-06 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
WO2018127901A1 (en) 2017-01-05 2018-07-12 Noveto Systems Ltd. An audio communication system and method
IL243513B2 (en) 2016-01-07 2023-11-01 Noveto Systems Ltd A system and method for voice communication
US11388541B2 (en) 2016-01-07 2022-07-12 Noveto Systems Ltd. Audio communication system and method
CN106293064A (zh) * 2016-07-25 2017-01-04 乐视控股(北京)有限公司 一种信息处理方法及设备
US10297254B2 (en) * 2016-10-03 2019-05-21 Google Llc Task initiation using long-tail voice commands by weighting strength of association of the tasks and their respective commands based on user feedback
CN113361999A (zh) * 2017-03-03 2021-09-07 北京星选科技有限公司 信息生成方法及装置
CN107146609B (zh) * 2017-04-10 2020-05-15 北京猎户星空科技有限公司 一种播放资源的切换方法、装置及智能设备
US11170768B2 (en) * 2017-04-17 2021-11-09 Samsung Electronics Co., Ltd Device for performing task corresponding to user utterance
FR3065545B1 (fr) * 2017-04-25 2019-06-28 Thales Procede de detection d'un signal d'un utilisateur pour generer au moins une instruction de commande d'un equipement avionique d'un aeronef, programme d'ordinateur et dispositif electronique associes
KR102524675B1 (ko) * 2017-05-12 2023-04-21 삼성전자주식회사 디스플레이 장치 및 이의 제어방법
EP3401797A1 (en) 2017-05-12 2018-11-14 Samsung Electronics Co., Ltd. Speech navigation for multilingual web pages
CN107452382A (zh) * 2017-07-19 2017-12-08 珠海市魅族科技有限公司 语音操作方法及装置、计算机装置和计算机可读存储介质
WO2019087495A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR102519635B1 (ko) * 2018-01-05 2023-04-10 삼성전자주식회사 음성 명령을 처리하기 위한 전자 문서 표시 방법 및 그 전자 장치
KR102482589B1 (ko) 2018-02-12 2022-12-30 삼성전자주식회사 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
DK201870353A1 (en) * 2018-05-07 2019-12-04 Apple Inc. USER INTERFACES FOR RECOMMENDING AND CONSUMING CONTENT ON AN ELECTRONIC DEVICE
CN113791557A (zh) * 2018-05-18 2021-12-14 创新先进技术有限公司 一种智能设备的控制方法和装置
KR102607666B1 (ko) * 2018-08-08 2023-11-29 삼성전자 주식회사 전자 장치에서 사용자 의도 확인을 위한 피드백 제공 방법 및 장치
CN109343754A (zh) * 2018-08-27 2019-02-15 维沃移动通信有限公司 一种图像显示方法及终端
KR102669100B1 (ko) * 2018-11-02 2024-05-27 삼성전자주식회사 전자 장치 및 그 제어 방법
CN109788344A (zh) * 2019-01-30 2019-05-21 四川省有线广播电视网络股份有限公司 智能语音弹窗附加信息投放设计方法
KR102219943B1 (ko) * 2019-03-13 2021-02-25 주식회사 아이스크림미디어 스마트 마이크 제어 서버 및 시스템
CN113454583A (zh) * 2019-06-11 2021-09-28 深圳迈瑞生物医疗电子股份有限公司 医疗设备控制系统及医疗设备
CN112533041A (zh) 2019-09-19 2021-03-19 百度在线网络技术(北京)有限公司 视频播放方法、装置、电子设备和可读存储介质
CN112530419B (zh) * 2019-09-19 2024-05-24 百度在线网络技术(北京)有限公司 语音识别控制方法、装置、电子设备和可读存储介质
WO2021096957A1 (en) 2019-11-11 2021-05-20 Apple Inc. User interfaces for time period-based curated playlists
CN111128163A (zh) * 2019-12-26 2020-05-08 珠海格力电器股份有限公司 一种语音电器的控制器及其控制方法、装置和存储介质
CN111208927B (zh) * 2019-12-30 2021-09-07 国电南瑞科技股份有限公司 一种适用于电力系统二次设备的人机接口及人机交互方法
KR102243477B1 (ko) * 2020-02-24 2021-04-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102318660B1 (ko) * 2020-02-28 2021-10-28 (주)재플 방송 수신 장치와 그의 동영상 재핑 광고 제공 방법 및 동영상 재핑 광고 제공 시스템
CN113497958B (zh) * 2020-04-01 2023-08-11 青岛海信传媒网络技术有限公司 一种显示设备及图片的展示方法
CN111782098A (zh) * 2020-07-02 2020-10-16 三星电子(中国)研发中心 一种页面导航方法、装置和智能设备
CN112397069A (zh) * 2021-01-19 2021-02-23 成都启英泰伦科技有限公司 一种语音遥控方法及装置
CN113573132B (zh) * 2021-07-23 2023-08-11 深圳康佳电子科技有限公司 一种基于语音实现的多应用拼屏方法、装置及存储介质
CN114020192B (zh) * 2021-09-18 2024-04-02 特斯联科技集团有限公司 一种基于曲面电容实现非金属平面的互动方法和系统
CN114461063B (zh) * 2022-01-18 2022-09-20 深圳时空科技集团有限公司 一种基于车载屏幕的人机交互方法
KR102526790B1 (ko) * 2022-07-15 2023-04-27 헬로칠드런 주식회사 치매 환자를 위한 소통 케어 시스템 및 방법

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5704009A (en) * 1995-06-30 1997-12-30 International Business Machines Corporation Method and apparatus for transmitting a voice sample to a voice activated data processing system
US20040243529A1 (en) * 1996-03-25 2004-12-02 Stoneman Martin L. Machine computational-processing systems for simulated-humanoid autonomous decision systems
IL119948A (en) * 1996-12-31 2004-09-27 News Datacom Ltd Voice activated communication system and program guide
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
US6508706B2 (en) * 2001-06-21 2003-01-21 David Howard Sitrick Electronic interactive gaming apparatus, system and methodology
US7324947B2 (en) * 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
US7821541B2 (en) * 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
FI20020847A (fi) * 2002-05-03 2003-11-04 Nokia Corp Menetelmä ja laite valikkotoimintojen käyttämiseksi
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
CN101430631B (zh) * 2003-05-08 2012-05-30 希尔克瑞斯特实验室公司 与多个图像交互的方法以及用户界面装置
JP2005208798A (ja) * 2004-01-21 2005-08-04 Nissan Motor Co Ltd 情報提供端末、および情報提供方法
JP2007052397A (ja) 2005-07-21 2007-03-01 Denso Corp 操作装置
JP2007034525A (ja) * 2005-07-25 2007-02-08 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR20070030398A (ko) * 2005-09-13 2007-03-16 주식회사 팬택 사용자의 손 동작에 따라서 마우스 포인터를 제어하는 이동통신 단말기 및 그 구현 방법
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
DE102005061144A1 (de) * 2005-12-21 2007-06-28 Robert Bosch Gmbh Bedienvorrichtung für ein elektronisches Gerät, insbesondere eine Fahrerinformationsvorrichtung
JP2007171809A (ja) * 2005-12-26 2007-07-05 Canon Inc 情報処理装置及び情報処理方法
EP1804500A1 (fr) * 2005-12-30 2007-07-04 Le Club Confort et Sécurité Téléviseur multifonction et autonome
KR100858358B1 (ko) * 2006-09-29 2008-09-11 김철우 손의 움직임 인식을 이용한 사용자인터페이스 장치 및 방법
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
KR100885699B1 (ko) * 2006-12-01 2009-02-26 엘지전자 주식회사 키 입력 장치 및 입력 방법
DE202007014957U1 (de) * 2007-01-05 2007-12-27 Apple Inc., Cupertino Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
CN101483683A (zh) * 2008-01-08 2009-07-15 宏达国际电子股份有限公司 手持装置及其语音识别方法
KR20090077480A (ko) * 2008-01-11 2009-07-15 삼성전자주식회사 조작 가이드를 표시하는 ui 제공방법 및 이를 적용한멀티미디어 기기
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
KR20100007625A (ko) * 2008-07-14 2010-01-22 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
KR20100030737A (ko) * 2008-09-11 2010-03-19 이필규 3d 인터랙션을 위한 영상정보 기반의 마우스 구현 방법 및장치
CN101714355A (zh) * 2008-10-06 2010-05-26 宏达国际电子股份有限公司 语音辨识功能启动系统及方法
US8344870B2 (en) * 2008-10-07 2013-01-01 Cisco Technology, Inc. Virtual dashboard
CN101729808B (zh) * 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
US20100138797A1 (en) * 2008-12-01 2010-06-03 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
CN101437124A (zh) * 2008-12-17 2009-05-20 三星电子(中国)研发中心 面向电视控制的动态手势识别信号处理方法
US20100171696A1 (en) * 2009-01-06 2010-07-08 Chi Kong Wu Motion actuation system and related motion database
KR20100101389A (ko) * 2009-03-09 2010-09-17 삼성전자주식회사 사용자 메뉴를 제공하는 디스플레이 장치 및 이에 적용되는ui제공 방법
US8136051B2 (en) * 2009-03-13 2012-03-13 Sony Corporation Method and apparatus for automatically updating a primary display area
KR101567785B1 (ko) * 2009-05-28 2015-11-11 삼성전자주식회사 휴대단말에서 줌 기능 제어 방법 및 장치
US8693724B2 (en) * 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US11012732B2 (en) * 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
US9483138B2 (en) * 2009-07-10 2016-11-01 Adobe Systems Incorporated Natural media painting using a realistic brush and tablet stylus gestures
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
KR101289081B1 (ko) * 2009-09-10 2013-07-22 한국전자통신연구원 음성 인터페이스를 이용한 iptv 시스템 및 서비스 방법
CN102055925A (zh) * 2009-11-06 2011-05-11 康佳集团股份有限公司 支持手势遥控的电视机及其使用方法
JP2011118725A (ja) * 2009-12-04 2011-06-16 Sharp Corp 情報処理機器、情報処理方法および情報処理プログラム
RU2422878C1 (ru) * 2010-02-04 2011-06-27 Владимир Валентинович Девятков Способ управления телевизором с помощью мультимодального интерфейса
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
CN201708869U (zh) * 2010-03-31 2011-01-12 广东长虹电子有限公司 一种通过手势控制电视机的装置
US20110310005A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
EP2421251A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
CN101951474A (zh) * 2010-10-12 2011-01-19 冠捷显示科技(厦门)有限公司 基于手势控制的电视技术

Also Published As

Publication number Publication date
CN104486679A (zh) 2015-04-01
AU2012293065B2 (en) 2015-04-16
EP2740018A1 (en) 2014-06-11
CA2825822A1 (en) 2013-02-14
AU2012293063A1 (en) 2013-05-02
CN103150010A (zh) 2013-06-12
RU2013139297A (ru) 2015-02-27
US20130033422A1 (en) 2013-02-07
AU2012293060B2 (en) 2015-06-04
MX2013008892A (es) 2014-03-12
CN103034328A (zh) 2013-04-10
MX2013008888A (es) 2014-03-12
KR20130016025A (ko) 2013-02-14
RU2625439C2 (ru) 2017-07-13
KR20130016016A (ko) 2013-02-14
AU2012293064A1 (en) 2013-05-02
BR112013019984A2 (pt) 2017-07-11
CA2825827C (en) 2020-08-04
CN103150011A (zh) 2013-06-12
AU2012293060A1 (en) 2013-05-02
BR112013019982A2 (pt) 2016-12-13
RU2013139295A (ru) 2015-02-27
BR112014002842A2 (pt) 2017-06-13
MX2013008889A (es) 2014-03-12
AU2012293064B2 (en) 2015-12-17
RU2013139311A (ru) 2015-02-27
CN107396154A (zh) 2017-11-24
BR112013019981A2 (pt) 2016-12-13
KR20130018464A (ko) 2013-02-25
CN103733163A (zh) 2014-04-16
BR112013019983A2 (pt) 2016-12-13
CA2825813A1 (en) 2013-02-14
EP2740018A4 (en) 2015-04-22
AU2012293063B2 (en) 2015-08-13
KR20130016026A (ko) 2013-02-14
MX2013008891A (es) 2014-03-12
EP2986015A1 (en) 2016-02-17
CA2825831A1 (en) 2013-02-14
AU2012293066A1 (en) 2014-01-09
CN103150010B (zh) 2016-08-03
CA2825827A1 (en) 2013-02-14
WO2013022224A1 (en) 2013-02-14
CA2842813A1 (en) 2013-02-14
US20130033428A1 (en) 2013-02-07
RU2013139310A (ru) 2015-02-27
AU2012293065A1 (en) 2013-05-02
KR20130016024A (ko) 2013-02-14
KR101262700B1 (ko) 2013-05-08

Similar Documents

Publication Publication Date Title
MX2014001469A (es) Aparato electronico que usa reconocimiento de movimiento y metodo para controlar el aparato electronico del mismo.
KR102085181B1 (ko) 데이터 전송 방법, 데이터 수신 방법, 및 디바이스
US9495066B2 (en) Method for providing GUI using motion and display apparatus applying the same
KR101971624B1 (ko) 이동 단말의 정보 표시 방법, 디스플레이 장치의 정보 제공 방법, 이동 단말의 제어 신호 생성 방법
EP2417517B1 (en) Directional touch remote
US20190205004A1 (en) Mobile terminal and method of operating the same
KR102354328B1 (ko) 영상 표시 장치 및 그 동작 방법
KR102575230B1 (ko) 원격제어장치 및 그 동작방법
KR20160097867A (ko) 영상 표시 장치 및 영상 표시 방법
EP2469878B1 (en) Display apparatus, remote controller and method for controlling applied thereto
KR102474244B1 (ko) 영상 표시 장치 및 그 동작방법
KR20180024504A (ko) 영상 표시 장치 및 그 동작방법
KR20160074658A (ko) 프리뷰 인터페이스 선택 영역의 줌인 방법 및 장치
US10545633B2 (en) Image output method and apparatus for providing graphical user interface for providing service
KR20160019293A (ko) 전자기기 및 그것의 제어방법
US20180122130A1 (en) Image display apparatus, mobile device, and methods of operating the same
KR20140089858A (ko) 전자 장치 및 그의 제어 방법
JP6700775B2 (ja) 電子機器及びその制御方法
EP3057313A1 (en) Display apparatus and display method
JP7080711B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US20140189600A1 (en) Display apparatus and method for controlling display apparatus thereof
KR20150121565A (ko) 미러링 서비스를 수행하는 방법 및 장치
KR101601763B1 (ko) 거치형 단말기에 대한 모션 제어 방법
KR20130010613A (ko) 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법
JP2015192362A (ja) 画像再生装置,画像再生方法およびその制御プログラム

Legal Events

Date Code Title Description
FA Abandonment or withdrawal