ES2958183T3 - Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo - Google Patents

Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo Download PDF

Info

Publication number
ES2958183T3
ES2958183T3 ES20189197T ES20189197T ES2958183T3 ES 2958183 T3 ES2958183 T3 ES 2958183T3 ES 20189197 T ES20189197 T ES 20189197T ES 20189197 T ES20189197 T ES 20189197T ES 2958183 T3 ES2958183 T3 ES 2958183T3
Authority
ES
Spain
Prior art keywords
voice
user
motion
control unit
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20189197T
Other languages
English (en)
Inventor
Jung-Geun Kim
Yoo-Tai Kim
Seung-Dong Yu
Sang-Jin Han
Hee-Seob Ryu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110104840A external-priority patent/KR101262700B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2958183T3 publication Critical patent/ES2958183T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/31Voice input
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time

Abstract

Se proporciona un método para controlar un aparato electrónico que utiliza reconocimiento de voz y reconocimiento de movimiento, y un aparato electrónico que aplica los mismos. En un modo de tarea de voz, en el que las tareas de voz se realizan según comandos de voz reconocidos, el aparato electrónico muestra información de asistencia de voz para ayudar a realizar las tareas de voz. En un modo de tarea de movimiento, en el que las tareas de movimiento se realizan según gestos de movimiento reconocidos, el aparato electrónico muestra información de asistencia de movimiento para ayudar en la realización de las tareas de movimiento. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo
Las realizaciones ejemplares se refieren a un procedimiento para controlar un aparato electrónico basado en el reconocimiento de voz y el reconocimiento de movimiento, y un aparato electrónico que aplica el mismo, y más particularmente, a un procedimiento para controlar un aparato electrónico, que facilita la manipulación del usuario para llevar a cabo una tarea del aparato electrónico basado en el reconocimiento de voz y el reconocimiento de movimiento, y un aparato electrónico que aplica el mismo.
A medida que se han desarrollado aparatos electrónicos multifuncionales y mejorados, se han desarrollado diversas interfaces de usuario para controlar los aparatos electrónicos. Por ejemplo, los procedimientos de ingreso que usan un mando a distancia, un ratón y un panel táctil se han aplicado a aparatos electrónicos.
En los últimos años, se han desarrollado un procedimiento para controlar un aparato electrónico por medio de reconocimiento de voz y un procedimiento para controlar un aparato electrónico por medio de reconocimiento de movimiento. Sin embargo, un procedimiento de control de arte relacionado que usa el reconocimiento de voz o el reconocimiento de movimiento corresponde a algunas funciones simples de las funciones de control de los aparatos electrónicos y no considera la conveniencia de manipulación del usuario.
Por lo tanto, una técnica para proporcionar una interfaz de usuario sistemática y cómoda en un aparato electrónico mediante el uso del reconocimiento de voz
El Documento US 2010/333163 desvela un aparato de TV con control por voz con ayuda e icono visualizados.
El Documento WO 02/11122 desvela dos “modos de tareas de voz” que usan dos micrófonos diferentes, uno en el aparato y otro en un mando a distancia del aparato.
Dan Ionescuet al. “An intelligent gesture interface for controlling TV sets and set-top boxes", Applied Computational Intelligence and Informatics(SACI), 2011,6th IEEE International Symposium,19 de mayo de 2011, describe un lenguaje gestual personalizable que se usa para crear una interfaz gestual inteligente con control de televisores y decodificadores.
Una o más realizaciones ejemplares pueden superar las desventajas anteriores y otras desventajas no descritas anteriormente. Sin embargo, se entiende que una o más realizaciones ejemplares no están obligadas a superar las desventajas descritas anteriormente, y pueden no superar ninguno de los problemas descritos anteriormente.
De acuerdo con un aspecto de la invención, se proporciona un procedimiento de acuerdo con la reivindicación 1.
De acuerdo con un aspecto de la invención, se proporciona un aparato electrónico de acuerdo con la reivindicación 8.
Las características opcionales se establecen en las reivindicaciones dependientes.
Los aspectos anteriores y otros se harán más evidentes por medio de la descripción en detalle de ejemplos de realizaciones, con referencia a los dibujos adjuntos, en los cuales:
Las FIGS. 1 a 3 son diagramas de bloques para explicar la configuración de un aparato electrónico de acuerdo con diversas realizaciones de la presente divulgación;
Las FIGS. 4 y 5 son vistas que ilustran los botones de un mando a distancia correspondientes a una tarea de voz y a una tarea de movimiento;
Las FIGS. 6 a 32 son vistas para explicar diversos ejemplos de un procedimiento para llevar a cabo una tarea de voz; Las FIGS. 33 a 58 son vistas para explicar diversos ejemplos de un procedimiento para llevar a cabo una tarea de movimiento;
Las FIGS. 59 y 60 son diagramas de flujo para explicar un procedimiento de control de un aparato electrónico que controla tareas por medio de la división de las tareas en una tarea de movimiento y una tarea de voz de acuerdo con diversas realizaciones ejemplares;
Las FIGS. 61 y 62 son vistas que ilustran una UI de voz relativa a una tarea de voz de un aparato electrónico de acuerdo con una realización ejemplar.
La FIG. 63 es una vista que ilustra una UI de movimiento relativa a una tarea de movimiento de un dispositivo electrónico de acuerdo con una realización ejemplar;
Las FIGS. 64 a 66 son vistas que ilustran una respuesta visual de reconocimiento de voz o reconocimiento de movimiento de acuerdo con una realización ejemplar;
Las FIGS. 67 a 69 son diagramas de flujo para explicar un procedimiento de control de un aparato electrónico que proporciona una UI de voz y una UI de movimiento de acuerdo con diversas realizaciones ejemplares;
Las FIGS. 70 a 78 son vistas para explicar un procedimiento para exhibir una UI de un aparato electrónico para explicar un icono exclusivo para una aplicación de voz de acuerdo con diversas realizaciones ejemplares;
La FIG. 79 es un diagrama de flujo para explicar un procedimiento para exhibir una UI de un aparato electrónico de acuerdo con una realización ejemplar;
Las FIGS. 80 a 91 son vistas que ilustran una pantalla que cambia de acuerdo con un movimiento del usuario en direcciones hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha de acuerdo con diversas realizaciones ejemplares;
Las FIGS. 92 y 93 son diagramas de flujo para explicar un procedimiento de control de un aparato electrónico en el que una pantalla cambia de acuerdo con un movimiento del usuario de acuerdo con diversas realizaciones ejemplares;
Las FIGS. 94 a 97 son vistas y un diagrama de flujo para explicar un procedimiento para llevar a cabo un modo de control remoto, un modo de tarea de movimiento, y un modo de tarea de voz de acuerdo con diversas realizaciones ejemplares;
La FIG. 98 es un diagrama de flujo para explicar el reconocimiento de voz mediante el uso de un dispositivo móvil de acuerdo con una realización ejemplar;
Las FIGS. 99 a 104 son vistas y un diagrama de flujo para explicar un modo de apuntar de acuerdo con una realización ejemplar;
Las FIGS. 105 a 108 son vistas y un diagrama de flujo para explicar un procedimiento de visualización si se ingresa un movimiento en un modo de apuntar de acuerdo con una realización ejemplar;
Las FIGS. 109 a 111 son vistas y un diagrama de flujo para explicar un procedimiento para exhibir un ítem en un modo de tarea de voz de acuerdo con una realización ejemplar;
Las FIGS. 112 a 115 son vistas y un diagrama de flujo para explicar una IU que tiene un croma diferente entre sí de acuerdo con una realización ejemplar;
Las FIGS. 116 a 118 son vistas y un diagrama de flujo para explicar la realización de una tarea correspondiente a un comando diferente de un ítem de voz de pantalla de acuerdo con una realización ejemplar;
Las FIGS. 119 a 121 son vistas y un diagrama de flujo para explicar un comando de inicio de movimiento para cambiar un modo actual a un modo de tarea de movimiento mediante el uso de ambas manos de acuerdo con una realización ejemplar;
La FIG. 122 es un diagrama de flujo para explicar un procedimiento para llevar a cabo un modo de tarea de movimiento si se recibe un comando de inicio de movimiento de una pluralidad de usuarios de acuerdo con una realización ejemplar;
Las FIGS. 123 a 126 son vistas y un diagrama de flujo para explicar un procedimiento para llevar a cabo una tarea por fases mediante el uso de reconocimiento de voz de acuerdo con una realización ejemplar;
Las FIGS. 127 a 129 son vistas y un diagrama de flujo para explicar la ejecución de un icono ejecutable cuyo nombre se exhibe parcialmente de acuerdo con una realización ejemplar;
Las FIGS. 130 a 134 son vistas y un diagrama de flujo para explicar la realización de una tarea de acuerdo con un gesto especial de acuerdo con una realización ejemplar;
Las FIGS. 135 a 137 son vistas y un diagrama de flujo para explicar un icono exhibido de forma diferente dependiendo de un procedimiento de ingreso de voz de acuerdo con una realización ejemplar;
Las FIGS. 138 a 142 son vistas y un diagrama de flujo para explicar un procedimiento para exhibir un menú de ingreso de texto de acuerdo con una realización ejemplar;
La FIG. 143 es un diagrama de flujo para explicar un procedimiento para llevar a cabo una tarea de voz mediante el uso de un aparato externo de acuerdo con una realización ejemplar;
Las FIGS. 144 a 146 son vistas y un diagrama de flujo para explicar un procedimiento para llevar a cabo una tarea de voz si se exhibe un comando pronunciable en una pantalla de visualización de acuerdo con una realización ejemplar;
La FIG. 147 es un diagrama de flujo para explicar un procedimiento para reconocer una voz automáticamente de acuerdo con una realización ejemplar;
La FIG. 148 es un diagrama de flujo para explicar un procedimiento para exhibir un listado de candidatos de acuerdo con una realización ejemplar; y
La FIG. 149 es un diagrama de flujo para explicar una UI para guiar un error de reconocimiento de voz de acuerdo con una realización ejemplar.
En adelante en la presente memoria, se describirán en detalle realizaciones ejemplares con referencia a los dibujos adjuntos.
En la siguiente descripción, se usan los mismos números de referencia para los mismos elementos cuando se representan en dibujos diferentes. Las cuestiones definidas en la descripción, tales como la construcción y los elementos detallados, se proporcionan para ayudar a comprender las realizaciones ejemplares. De este modo, es evidente que las realizaciones ejemplares se pueden llevar a cabo sin esas materias específicamente definidas. Además, no se describen en detalle funciones o elementos conocidos en la técnica relacionada, dado que oscurecerían las realizaciones ejemplares con detalles innecesarios.
La FIG. 1 es un diagrama de bloques esquemático que ilustra un aparato electrónico 100 de acuerdo con una realización ejemplar.
Con referencia a la FIG. 1, el aparato electrónico 100 incluye una unidad de ingreso de voz 110, una unidad de ingreso de movimiento 120, una unidad de almacenamiento 130 y una unidad de control 140. El aparato electrónico 100 se puede llevar a cabo por medio de, entre otros, un televisor inteligente (TV), un decodificador, un ordenador personal (PC) o un televisor digital que se pueda conectar a una red externa.
La unidad de ingreso de voz 110 recibe el ingreso de una voz emitida por un usuario, es decir, un sonido producido por la voz de un usuario. La unidad de ingreso de voz 110 convierte una señal de voz de ingreso en una señal eléctrica y emite la señal eléctrica a la unidad de control 140. Por ejemplo, la unidad de ingreso de voz 110 se puede llevar a cabo por medio de un micrófono. Asimismo, la unidad de ingreso de voz 110 puede estar llevada a cabo por un componente interno del aparato electrónico 100 o por un dispositivo externo. La unidad de ingreso de voz 110 del dispositivo externo se puede conectar al aparato electrónico 100 a través de una conexión por cable o inalámbrica o a través de una red.
La unidad de ingreso de movimiento 120 recibe una señal de imagen (por ejemplo, un fotograma continuo) que se obtiene fotografiando un movimiento del usuario y proporciona la señal de imagen a la unidad de control 140. Por ejemplo, la unidad de ingreso de movimiento 120 se puede llevar a cabo por medio de una unidad que incluya una lente y un sensor de imagen. La unidad de ingreso de movimiento 120 puede ser llevada a cabo por un componente interno del aparato electrónico 100 o por un dispositivo externo. La unidad de ingreso de movimiento del dispositivo externo 120 puede estar conectada al aparato electrónico 100 por medio de una conexión por cable o inalámbrica o a través de una red.
La unidad de almacenamiento 130 almacena diversos datos y programas para accionar y controlar el aparato electrónico 100. La unidad de almacenamiento 130 almacena un módulo de reconocimiento de voz que reconoce un ingreso de voz a través de la unidad de ingreso de voz 110, y un módulo de reconocimiento de movimiento que reconoce un ingreso de movimiento a través de la unidad de ingreso de movimiento 120.
La unidad de almacenamiento 130 puede incluir una base de datos de voz y una base de datos de movimiento. La base de datos de voz se refiere a una base de datos en la que se registra una voz predeterminada y una tarea de voz que coincide con la voz predeterminada. La base de datos de movimiento se refiere a una base de datos en la que se registra un movimiento predeterminado y una tarea de movimiento que coincide con el movimiento predeterminado.
La unidad de control 140 controla la unidad de ingreso de voz 110, la unidad de ingreso de movimiento 120 y la unidad de almacenamiento 130. La unidad de control 140 puede incluir un procesador de hardware tal como una unidad central de procesamiento (CPU), y una memoria de sólo lectura (ROM) y una memoria de acceso aleatorio (RAM) para almacenar un módulo y datos para controlar el aparato electrónico 100.
Si se ingresa una voz a través de la unidad de ingreso de voz 110, la unidad de control 140 reconoce la voz mediante el uso del módulo de reconocimiento de voz y la base de datos de voz. El reconocimiento de voz se puede dividir en reconocimiento de palabras aisladas, que reconoce una voz pronunciada por medio de la distinción de palabras de acuerdo con la forma de una voz de ingreso, reconocimiento de voz continua, que reconoce una palabra continua, una frase continua y una voz dialogada, y detección de palabras clave, que es un tipo intermedio entre el reconocimiento de palabras aisladas y el reconocimiento de voz continua y reconoce una voz por medio de la detección de una palabra clave predefinida. Si se ingresa una voz del usuario, la unidad de control 140 determina una sección de voz por medio de la detección de un principio y un final de la voz emitida por el usuario a partir de una señal de voz de ingreso. La unidad de control 140 calcula la energía de la señal de voz de ingreso, clasifica un nivel de energía de la señal de voz de acuerdo con la energía calculada y detecta la sección de voz por medio de programación dinámica. La unidad de control 140 genera datos de fonemas por medio de la detección de un fonema, que es la unidad más pequeña de voz, a partir de la señal de voz dentro de la sección de voz detectada en base a un modelo acústico. La unidad de control 140 genera información de texto por medio de la aplicación de un modelo oculto de Markov (HMM) a los datos de fonemas generados. Sin embargo, el procedimiento de reconocimiento de voz descrito anteriormente es sólo un ejemplo y se pueden usar otros procedimientos de reconocimiento de voz. En el procedimiento descrito, la unidad de control 140 reconoce la voz del usuario incluida en la señal de voz.
Si se ingresa un movimiento a través de la unidad de ingreso de movimiento 120, la unidad de control 140 reconoce el movimiento mediante el uso del módulo de reconocimiento de movimiento y la base de datos de movimiento. El reconocimiento de movimiento divide una imagen (por ejemplo, un fotograma continuo) correspondiente al ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120 en un fondo y un área de la mano (por ejemplo, extender los dedos o cerrar el puño ahuecando la mano), y reconoce un movimiento continuo de la mano. Si se ingresa un movimiento del usuario, la unidad de control 140 almacena una imagen recibida en una base de fotogramas y detecta un objeto (por ejemplo, la mano de un usuario) del movimiento del usuario mediante el uso de un fotograma almacenado. La unidad de control 140 detecta el objeto por medio de la detección de al menos una de las siguientes características: forma, color y movimiento del objeto incluido en el marco. La unidad de control 140 puede trazar el movimiento del objeto mediante el uso de ubicaciones del objeto incluidas en la pluralidad de fotogramas.
La unidad de control 140 determina el movimiento de acuerdo con una forma y un movimiento del objeto trazado. Por ejemplo, la unidad de control 140 determina el movimiento del usuario mediante el uso de al menos uno de un cambio en la forma, una velocidad, una ubicación y una dirección del objeto. El movimiento del usuario incluye un movimiento de agarre para apretar una mano, un movimiento de apuntar para mover un cursor exhibido con una mano, un movimiento de palmada para mover una mano en una dirección a una velocidad predeterminada o superior, un movimiento de sacudida para agitar una mano horizontal o verticalmente, y un movimiento de rotación para girar una mano. La idea técnica de la presente divulgación se puede aplicar a otros movimientos. Por ejemplo, el movimiento del usuario además puede incluir un movimiento de extender una mano.
La unidad de control 140 determina si el objeto abandona un área predeterminada (por ejemplo, un cuadrado de 40 cm X 40 cm) dentro de un tiempo predeterminado (por ejemplo, 800 ms) a fin de determinar si el movimiento del usuario es el movimiento de movimiento puntual o el movimiento de palmada. Si el objeto no abandona el área predeterminada dentro del tiempo predeterminado, la unidad de control 140 puede determinar que el movimiento del usuario es un movimiento de apuntar. Si el objeto abandona el área predeterminada dentro del tiempo predeterminado, la unidad de control 140 puede determinar que el movimiento del usuario es un movimiento de palmada. Como otro ejemplo, si la velocidad del objeto es inferior a una velocidad predeterminada (por ejemplo, 30 cm/s), la unidad de control 140 puede determinar que el movimiento del usuario es un movimiento de movimiento de apuntar. Si la velocidad del objeto supera la velocidad predeterminada, la unidad de control 140 determina que el movimiento del usuario es un movimiento de palmada.
Como se ha descrito anteriormente, la unidad de control 140 lleva a cabo una tarea del aparato electrónico 100 mediante el uso de la voz y el movimiento reconocidos. La tarea del aparato electrónico incluye al menos una de las funciones llevadas a cabo por el aparato electrónico 100, tal como el cambio de canal, el control de volumen, la reproducción de contenidos (por ejemplo, una imagen en movimiento, música o foto) o la navegación por Internet.
A continuación se explicará un procedimiento detallado para controlar el aparato electrónico 100 por medio de la unidad de control 140.
La FIG. 2 es un diagrama de bloques que ilustra un aparato electrónico 100 de acuerdo con una realización ejemplar. Con referencia a la FIG. 2, el aparato electrónico 100 incluye una unidad de ingreso de voz 110, una unidad de ingreso de movimiento 120, una unidad de almacenamiento 130, una unidad de control 140, una unidad de recepción de emisiones 150, una unidad de ingreso de terminal externo 160, una unidad de recepción de señal de control remoto 170, una unidad de interfaz de red 180 y una unidad de salida de imagen 190. Como se muestra en la FIG. 2, el aparato electrónico 100 se puede llevar a cabo por medio de un decodificador, un ordenador personal, etc.
La unidad de ingreso de voz 110, la unidad de ingreso de movimiento 120, la unidad de almacenamiento 130 y la unidad de control 140 de la FIG. 2 son las mismas que la unidad de ingreso de voz 110, la unidad de ingreso de movimiento 120, la unidad de almacenamiento 130 y la unidad de control 140 de la FIG. 1 y, por lo tanto, se omite una descripción detallada de las mismas.
La unidad de recepción de emisiones 150 recibe una señal de emisión de una fuente externa de forma cableada o inalámbrica. La señal de emisión incluye un vídeo, un audio y datos adicionales (por ejemplo, una guía electrónica de programas (EPG)). La unidad de recepción de emisiones 150 puede recibir una señal de emisión de diversas fuentes, tales como una emisiones por onda terrestre, una emisiones por cable, una emisiones por satélite, una emisiones por Internet, etc.
La unidad de ingreso de terminal externo 160 recibe datos de vídeo (por ejemplo, una imagen en movimiento o una foto) y datos de audio (por ejemplo, música) de una fuente externa. La unidad de ingreso de terminal externo 160 puede incluir al menos un terminal de ingreso de interfaz multimedia de alta definición (HDMI), un terminal de ingreso de componentes, un terminal de ingreso de PC, un terminal de ingreso USB, etc. La unidad de recepción de señales de control remoto 170 recibe una señal de control remoto procedente de un mando a distancia externo. La unidad de recepción de señales de control remoto 170 puede recibir una señal de control remoto en un modo de tarea de voz o en un modo de tarea de movimiento del aparato electrónico 100. La unidad de interfaz de red 180 puede conectar el aparato electrónico 100 a un aparato externo (por ejemplo, un servidor) bajo el control de la unidad de control 140. La unidad de control 140 puede descargar una aplicación de un aparato externo conectado a través de la unidad de interfaz de red 180 o puede llevar a cabo una navegación web. La unidad de interfaz de red 180 puede proporcionar al menos una de Ethernet, una LAN inalámbrica 182, Bluetooth, etc.
La unidad de salida de imagen 190 envía la señal de emisión externa recibida a través de la unidad de recepción de emisiones 150, los datos de vídeo ingresados desde la unidad de ingreso de terminal externo 160, o los datos de vídeo almacenados en la unidad de almacenamiento 130 a un aparato de visualización externo (por ejemplo, un monitor o un televisor). La unidad de salida de imagen 190 puede incluir un terminal de salida tal como HDMI, componente, compuesto, Matriz de Gráficos de Vídeo (VGA), Interfaz de Vídeo Digital (DVI), S-vídeo, etc.
La FIG. 3 es un diagrama de bloques que ilustra un aparato electrónico 100 de acuerdo con otra realización ejemplar. Como se muestra en la FIG. 3, el aparato electrónico 100 incluye una unidad de ingreso de voz 110, una unidad de ingreso de movimiento 120, una unidad de almacenamiento 130, una unidad de control 140, una unidad de recepción de emisiones 150, una unidad de ingreso de terminal externo 160, una unidad de recepción de señal de control remoto 170, una unidad de interfaz de red 180, una unidad de visualización 193 y una unidad de salida de audio 196. El aparato electrónico 100 puede ser, entre otros, un televisor digital.
La unidad de ingreso de voz 110, la unidad de ingreso de movimiento 120, la unidad de almacenamiento 130, la unidad de control 140, la unidad de recepción de emisiones 150, la unidad de ingreso de terminal externo 160, la unidad de recepción de señal de control remoto 170 y la unidad de interfaz de red 180 de la FIG. 3 son los mismos que los que tienen los mismos números de referencia en las FIGS. 1 y 2 y, por lo tanto, se omite una descripción detallada de las mismas.
La unidad de visualización 193 exhibe una imagen correspondiente a una señal de emisión recibida a través de la unidad de recepción de emisiones 150. La unidad de visualización 193 puede exhibir datos de imagen (por ejemplo, una imagen en movimiento) ingresados a través de la unidad de ingreso de terminal externo 160 o vídeo almacenado en la unidad de almacenamiento. La unidad de visualización 193 puede exhibir información de asistencia de voz para llevar a cabo una tarea de voz e información de asistencia de movimiento para llevar a cabo una tarea de movimiento bajo el control de la unidad de control 140.
La unidad de salida de audio 196 emite un audio correspondiente a una señal de emisión bajo el control de la unidad de control 140. La unidad de salida de audio 196 puede incluir al menos un altavoz 196a, un terminal de salida de auriculares 196b y un terminal de salida S/PDIF 163c. La unidad de almacenamiento 130 incluye un módulo de control de potencia 130a, un módulo de control de canal 130b, un modo de control de volumen 130c, un módulo de control de ingreso externo 130d, un módulo de control de pantalla 103e, un módulo de control de audio 130f, un módulo de control de Internet 130g, un módulo de aplicación 130h, un módulo de control de búsqueda 130i, un módulo de proceso de interfaz de usuario (UI) 130j, un módulo de reconocimiento de voz 130k, un módulo de reconocimiento de movimiento 130l, una base de datos de voz 130m y una base de datos de movimiento 130n. Estos módulos 130a a 130n se pueden llevar a cabo por medio de software a fin de llevar a cabo una función de control de potencia, una función de control de canal, una función de control de volumen, una función de control de ingreso externo, una función de control de pantalla, una función de control de audio, una función de control de Internet, una función de ejecución de aplicación, una función de control de búsqueda y una función de proceso de UI. La unidad de control 140 lleva a cabo una función correspondiente por medio de la ejecución del software almacenado en la unidad de almacenamiento 130.
En adelante en la presente memoria, se explicarán diversas realizaciones ejemplares con referencia a los dibujos adjuntos.
Si se reconoce una voz del usuario (sonido) a través del módulo de reconocimiento de voz 130k, la unidad de control 140 lleva a cabo una tarea de voz correspondiente a la voz del usuario reconocida. En algunos aspectos, la tarea es de entre las tareas que son controlables por un mando a distancia. Si se reconoce un movimiento del usuario a través del módulo de reconocimiento de movimiento 130l, la unidad de control 140 lleva a cabo una tarea de movimiento correspondiente al movimiento del usuario reconocido de entre las tareas que son controlables por el mando a distancia. La tarea de voz y la tarea de movimiento se pueden asignar por medio de la clasificación por botones en el mando a distancia.
La tarea de voz se refiere a una tarea que es controlable de acuerdo con una voz reconocida a través del módulo de reconocimiento de voz. Por ejemplo, la tarea de voz puede incluir al menos una de las funciones de apagar el aparato electrónico 100, acceso directo a canales, silenciar, cambiar un terminal externo, ajustar un nivel de volumen, ingresar textos y reproducir/detener una imagen. Es decir, diversas tareas que tienen un nombre o un identificador que puede ser pronunciado por la voz del usuario o una tarea que requiere el ingreso de un texto se puede establecer como una tarea de voz.
La tarea de movimiento se refiere a una tarea que es controlable de acuerdo con un movimiento reconocido a través del módulo de reconocimiento de movimiento. Por ejemplo, la tarea de movimiento puede incluir el cambio de canal, el control del nivel de volumen, la navegación por la pantalla, el control de la barra deslizante y el señalamiento del cursor. Es decir, diversas tareas que pueden ser controladas en fases o cantidades de acuerdo con un tipo y una dirección de un movimiento del usuario y una tarea mediante el uso de un cursor pueden ser configuradas como una tarea de movimiento.
Si se reconoce un comando de voz del usuario a través del módulo de reconocimiento de voz, la unidad de control 140 lleva a cabo una tarea de voz que corresponde directamente a la expresión incluida en la voz del usuario.
Por ejemplo, la unidad de control 140 reconoce un identificador de canal a partir de la voz emitida por el usuario. El identificador de canal sirve para identificar un canal y puede incluir al menos uno de los siguientes elementos: un nombre de canal, un número de canal y un nombre de programa.
Si se almacena un identificador de canal en la base de datos de voz almacenada en la unidad de almacenamiento 130 como se ha descrito anteriormente, la unidad de control 140 lleva a cabo un acceso directo a un canal correspondiente al identificador de canal reconocido mediante el uso de la base de datos de voz. Es decir, si el usuario dice “11”, la unidad de control 140 confirma si una tarea de voz correspondiente a “11” está registrada en la base de datos de voz. Si la tarea de voz correspondiente a “11” es una función de acceso directo al canal para seleccionar el canal 11, la unidad de control 140 lleva a cabo el acceso directo al canal 11.
Si se reconoce un movimiento del usuario a través del módulo de reconocimiento de movimiento, la unidad de control 140 lleva a cabo una tarea de movimiento correspondiente al movimiento del usuario de acuerdo con una dirección del movimiento del usuario. El movimiento del usuario está separado y alejado de cualquier parte del aparato. El movimiento se detecta sin percibir el movimiento de una parte del aparato.
Por ejemplo, si se reconoce un movimiento de palmada en dirección ascendente a través del módulo de reconocimiento de movimiento, la unidad de control 140 puede confirmar una tarea de movimiento correspondiente al movimiento de palmada en dirección ascendente de la base de datos de movimiento y puede llevar a cabo el cambio de canal para cambiar un canal actual a un canal cuyo número se incrementa en un número predeterminado (por ejemplo, 1). Si se reconoce un movimiento de palmada en dirección descendente a través del módulo de reconocimiento de movimiento, la unidad de control 140 puede identificar una tarea de movimiento correspondiente al movimiento de palmada en dirección descendente de la base de datos de movimiento y puede llevar a cabo un cambio de canal para cambiar un canal actual a un canal cuyo número disminuya en un número predeterminado (por ejemplo, 1).
Las tareas de voz y las tareas de movimiento pueden ser mapeadas siendo clasificadas por botones en un mando a distancia como se muestra en las FIGS. 4 y 5.
La FIG. 4 ilustra los botones de un mando a distancia correspondientes a un comando para llevar a cabo al menos una tarea de voz. Es decir, una tarea llevada a cabo si se reconoce un ingreso de voz puede corresponder a una tarea llevada a cabo por uno de los botones del mando a distancia. Por ejemplo, una tarea que se lleva a cabo por medio de un botón de encendido 401 del mando a distancia corresponde a una tarea que se lleva a cabo si se reconoce una “palabra de llamada” de voz (por ejemplo, “Ginny” o “encendido”). Por consiguiente, un botón de ingreso externo 402 corresponde a una voz “ingreso externo”. Además, un botón numérico 403 corresponde a un número pronunciado. Además, un botón de canal anterior 404 corresponde a una voz “canal anterior”. Un botón de silencio 405 corresponde a una voz “silenciado” o “desilenciado”. Además, un botón de listado de canales 406 corresponde a una “listado de canales” de voz. Un botón desmartfruó/menú/búsqueda/menú rápido/visualización de información 407, un botón de retorno 408, un botón de salida 409, un botón de red social/provisión de imágenes 3D 410, un botón de ayuda 411 y un botón de repetición/pausa/parada/grabación 412 corresponden a las voces correspondientes a sus respectivos nombres.
La FIG. 5 ilustra los botones de un mando a distancia correspondientes a un movimiento para llevar a cabo al menos una tarea de movimiento. Es decir, una tarea que se lleva a cabo si se reconoce un ingreso de movimiento puede corresponder a una tarea que se lleva a cabo de acuerdo con uno de los botones del mando a distancia. Por ejemplo, como se muestra en la FIG. 5, una tarea que se lleva a cabo de acuerdo con un botón de subir/bajar volumen y un botón de subir/bajar canal 421 corresponde a una tarea que se lleva a cabo por medio de diferentes movimientos, por ejemplo, si se reconocen movimientos de palmada en direcciones hacia arriba, hacia abajo, hacia la derecha y hacia la izquierda. En consecuencia, los botones de dirección hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha 422 corresponden a movimientos de palmada en dirección hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha. Un botón de selección 423 puede corresponder a un movimiento de agarre. Un botón de función 425 puede corresponder a un movimiento de apuntar de una tecla correspondiente si la visualización en pantalla (OSD) incluye una guía de teclas.
La tarea de voz y la tarea de movimiento pueden cambiar los ajustes del aparato electrónico 100 independientemente sin combinarse entre sí. Es decir, la tarea de voz puede cambiar los ajustes del aparato electrónico 100 mediante el uso de una voz del usuario reconocida por el módulo de reconocimiento de voz 130k, y la tarea de movimiento puede cambiar los ajustes del aparato electrónico 100 mediante el uso de un movimiento de usuario reconocido por el módulo de reconocimiento de movimiento 130l.
La unidad de control 140 reconoce una de la voz del usuario y el movimiento del usuario a través de uno de los módulos de reconocimiento de voz 130k y el módulo de reconocimiento de movimiento 130l. Si se reconoce una voz del usuario a través del módulo de reconocimiento de voz 130k, la unidad de control 140 ejecuta un contenido que tiene un identificador de contenido correspondiente a la voz del usuario reconocida de entre una pluralidad de contenidos que tienen identificadores de contenido, respectivamente. Si se reconoce un movimiento del usuario a través del módulo de reconocimiento de movimiento 130l, la unidad de control 140 cambia una pluralidad de contenidos de acuerdo con una dirección del movimiento del usuario.
El contenido mencionado en la presente memoria puede ser un contenido de emisiones. En particular, si se reconoce una voz del usuario a través del módulo de reconocimiento de voz 130k, la unidad de control 140 cambia un canal de emisión actual a un canal de emisión que tiene un identificador de canal de emisión correspondiente a la voz del usuario reconocida de entre una pluralidad de canales de emisión que tienen identificadores de canal de emisión, respectivamente. El identificador del canal puede incluir al menos uno de los siguientes: un número de canal, un nombre de canal y un nombre de programa.
Si se reconoce un movimiento del usuario a través del módulo de reconocimiento de movimiento 130l, la unidad de control 140 cambia una pluralidad de canales de emisión en fases de acuerdo con una dirección del movimiento del usuario. El movimiento del usuario puede incluir un movimiento de palmada. Por ejemplo, si el movimiento del usuario reconocido es un movimiento de palmada en dirección ascendente, la unidad de control 140 lleva a cabo el cambio de canal de forma que un canal de emisión actual se cambia a un canal de emisión cuyo número se incrementa en un número predeterminado. Si el movimiento del usuario reconocido es un movimiento de palmada en dirección descendente, la unidad de control 140 lleva a cabo un cambio de canal de forma que un canal de emisión actual se cambia a un canal de emisión cuyo número disminuye en un número predeterminado.
El contenido puede ser uno de los siguientes: contenido de imagen, contenido de música y contenido de foto. Si el contenido es uno de los contenidos de imagen, música o foto, el identificador de contenido puede ser un nombre del contenido.
Si el contenido es uno de los contenidos de imagen, el contenido de música y el contenido de foto, el movimiento del usuario puede incluir un movimiento de palmada. Por ejemplo, si el movimiento de usuario reconocido es un movimiento de palmada hacia la derecha, la unidad de control 140 puede cambiar un contenido actual a un contenido siguiente en un listado de contenidos que incluye una pluralidad de contenidos a reproducir, y, si el movimiento de usuario reconocido es un movimiento de palmada hacia la izquierda, la unidad de control 140 puede cambiar un contenido actual a un contenido anterior en el listado de contenidos.
Si se reconoce un comando de inicio de voz a través del módulo de reconocimiento de voz 130k, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el que el aparato electrónico 100 se controla de acuerdo con una voz del usuario reconocida a través del módulo de reconocimiento de voz 130k. Si se reconoce un comando de inicio de movimiento a través del módulo de reconocimiento de movimiento 130l, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento en el que el aparato electrónico 100 se controla de acuerdo con un movimiento del usuario reconocido a través del módulo de reconocimiento de movimiento 130l.
Específicamente, la unidad de control 140 puede ser operada en uno de los modos de control remoto en el que el aparato electrónico 100 es controlado por un aparato de control remoto (por ejemplo, un mando a distancia), un modo de tarea de voz en el que el aparato electrónico 100 es controlado de acuerdo con una voz, y un modo de tarea de movimiento en el que el aparato electrónico 100 es controlado de acuerdo con un movimiento. Si se ingresa un comando para iniciar otro modo, la unidad de control 140 puede cambiar un modo actual a un modo correspondiente.
Si se reconoce un comando de inicio de voz (voz de activación) a través del módulo de reconocimiento de voz 130k mientras el aparato electrónico 100 está en el modo de control remoto o en el modo de tarea de movimiento, la unidad de control 140 cambia un modo del aparato electrónico 100 al modo de tarea de voz. El comando de inicio de voz es un comando que incluye una palabra coincidente con una operación de entrada en el modo de tarea de voz. Por ejemplo, si se establece una palabra “Ginny” como comando de inicio de voz, la unidad de control 140 cambia un modo del aparato electrónico 100 al modo de tarea de voz cuando se reconoce la palabra “Ginny”. La palabra relativa al comando de inicio de voz puede ser cambiada directamente por el usuario en un modo de configuración del aparato electrónico 100 o puede ser un comando fijo que se define como predeterminado en el momento de fabricación del aparato electrónico 100.
En el modo de tarea de voz, la unidad de control 140 lleva a cabo una tarea de voz correspondiente a una palabra incluida en la voz pronunciada por el usuario mediante el uso de la base de datos de voz.
La unidad de control 140 puede mantener el modo de tarea de voz hasta que se reconozca un comando de inicio para volver al modo de control remoto, un comando de cancelación de modo o un comando de inicio de movimiento para cambiar a un modo de tarea de movimiento. Si no se reconoce ninguna voz durante un tiempo predeterminado (por ejemplo, 5 minutos) después de que el modo se haya cambiado al modo de tarea de voz, la unidad de control 140 puede volver al modo de control remoto automáticamente.
Si se reconoce un comando de inicio de movimiento (movimiento de activación) a través del módulo de reconocimiento de movimiento 130l en el modo general o en el modo de tarea de voz, la unidad de control 140 puede cambiar un modo actual al modo de tarea de movimiento. El comando de inicio de movimiento es un movimiento preestablecido para entrar en el modo de tarea de movimiento. Por ejemplo, si se establece un movimiento de agitar una mano horizontalmente 3 a 4 veces como comando de inicio de movimiento, la unidad de control 140 cambia el modo al modo de tarea de movimiento cuando se reconoce dicho movimiento. El movimiento relativo al comando de inicio de movimiento puede ser modificado directamente por el usuario en un modo de configuración o puede ser un movimiento fijo que se define por defecto en el momento de fabricación del aparato electrónico 100.
En el modo de tarea de movimiento, la unidad de control 140 lleva a cabo una tarea de movimiento correspondiente al movimiento del usuario mediante el uso de la base de datos de movimiento. La unidad de control 140 puede mantener el modo de tarea de movimiento hasta que se reconozca un comando de inicio para volver al modo de control remoto, un comando de cancelación de modo o un comando de inicio de voz para cambiar al modo de tarea de voz. Si no se reconoce ningún movimiento durante un tiempo predeterminado (por ejemplo, 5 minutos) después de que el modo se haya cambiado al modo de tarea de movimiento, la unidad de control 140 puede volver al modo de control remoto automáticamente.
La unidad de control 140 exhibe una de las informaciones de asistencia de voz que incluye un ítem de voz para guiar el reconocimiento de voz y una información de asistencia de movimiento que incluye un ítem de movimiento para guiar el reconocimiento de movimiento. Si se reconoce uno de los comandos correspondientes a los ítems de voz incluidos en la información de asistencia de voz, la unidad de control 140 lleva a cabo una tarea de voz correspondiente al comando reconocido. Si se reconoce uno de los movimientos correspondientes al ítem de movimiento incluido en la información de asistencia al movimiento, la unidad de control 140 lleva a cabo una tarea de movimiento correspondiente al movimiento reconocido.
Específicamente, si un comando de inicio de voz es reconocido a través del módulo de reconocimiento de voz 130k, la unidad de control 140 puede controlar para exhibir ítems de voz relativos a tareas de voz que son controlables por la voz del usuario. Los ítems de voz pueden exhibir órdenes correspondientes a las distintas tareas de voz. En consecuencia, si el usuario pronuncia un determinado comando, puede reconocer fácilmente qué tarea de voz se va a llevar a cabo y, por lo tanto, puede llevar a cabo la tarea de voz más fácilmente.
Si un comando de inicio de movimiento es reconocido a través del módulo de reconocimiento de movimiento 130l, la unidad de control 140 puede controlar para exhibir un ítem de movimiento con respecto a las tareas de movimiento que son controlables por el movimiento del usuario. El ítem de movimiento puede exhibir movimientos correspondientes a las distintas tareas de movimiento. Por consiguiente, si el usuario lleva a cabo un determinado movimiento, puede reconocer fácilmente qué tarea de movimiento se va a llevar a cabo y, por lo tanto, puede llevar a cabo la tarea de movimiento con mayor facilidad.
El ítem de voz o el ítem de movimiento se pueden exhibir en la misma área de una pantalla de visualización (por ejemplo, una porción inferior de la pantalla). El área en la que se exhibe el ítem de voz o el ítem de movimiento se puede superponer a una imagen exhibida. No obstante, esto es sólo un ejemplo y el ítem de voz y el ítem de movimiento se pueden exhibir en otras ubicaciones o con otros procedimientos. Por ejemplo, el ítem de voz o el ítem de movimiento se pueden exhibir en una porción derecha o izquierda de la pantalla.
La tarea del aparato electrónico 100 se puede dividir en la tarea de voz que es controlada por la voz del usuario y la tarea de movimiento que es controlada por el movimiento del usuario de la siguiente manera:
Tabla 1
La tarea de voz mostrada en la tabla 1 se puede llevar a cabo en el modo de tarea de voz que se ejecuta por medio del comando de inicio de voz, y la tarea de movimiento mostrada en la tabla 1 se puede llevar a cabo en el modo de tarea de movimiento que se ejecuta por medio del comando de inicio de movimiento. En algunos ejemplos, la tarea, o el tipo de cambio en la tarea, es diferente entre las tareas controladas por voz y las tareas controladas por movimiento. En algunos aspectos, las tareas se dividen entre tareas de voz y tareas de movimiento, de forma que cada tarea se ejecuta por medio de una sola de las órdenes de voz o de movimiento.
En adelante en la presente memoria, las tareas de voz que se controlan de acuerdo con la voz del usuario se explicarán con referencia a las FIGS. 6 a 32, y las tareas de movimiento opcionales que se controlan de acuerdo con el movimiento del usuario se explicarán con referencia a las FIGS. 33 a 58.
Las FIGS. 6 y 7 son vistas para explicar la potencia en el uso del reconocimiento de voz de acuerdo con una realización ejemplar. Como se muestra en la FIG. 6, en un modo de espera en el que no se emite una imagen pero se suministra energía a la unidad de ingreso de voz 110 y a la unidad de control 140, si se reconoce “encendido” a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 se enciende como se muestra en la FIG. 7.
Las FIGS. 8 a 10 son vistas para explicar el apagado por medio de reconocimiento de voz de acuerdo con una realización ejemplar. Como se muestra en la FIG. 8, si el aparato electrónico 100 entra en el modo de tarea de voz y exhibe la información de asistencia de voz en la porción inferior de la pantalla de visualización y se reconoce el “apagado correspondiente a un ítem de voz 811 a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 exhibe un área de guía 920 para confirmar si se apaga el aparato electrónico 100 de nuevo en la información de guía de voz, como se muestra en la FIG. 9. Si el “Sí” correspondiente a un ítem de voz 922 es reconocido a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 se apaga como se muestra en la FIG. 10.
Las FIGS. 11 y 12 son vistas para explicar la energía inteligente en el uso de reconocimiento de voz de acuerdo con una realización ejemplar. El encendido inteligente es una función que enciende el aparato electrónico 100 y cambia simultáneamente un canal actual a un canal deseado por el usuario. Como se muestra en la FIG. 11, en el modo de espera en el que no se emite una imagen pero se suministra energía a la unidad de ingreso de voz 110 y a la unidad de control 140, si “Ginny” y “Canal 6” se reconocen continuamente a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 se enciende y exhibe el canal 6 como se muestra en la FIG. 12.
Las FIGS. 13 a 16 son vistas para explicar el atajo de canal mediante el uso del reconocimiento de voz que incluyen un número de canal de acuerdo con una realización ejemplar. Si el aparato electrónico 100 entra en el modo de tarea de voz y exhibe la información de asistencia de voz en la porción inferior de la pantalla de visualización y “canal” correspondiente a un ítem de voz 812 es reconocido a través del módulo de reconocimiento de voz 130k como se muestra en la FIG. 13, el aparato electrónico 100 exhibe un área de guía 830 para guiar un número de canal y un nombre de canal en la información de asistencia de voz en el extremo inferior de la pantalla de visualización, como se muestra en la FIG. 14. Si se exhibe el área de guía 830 y se reconoce una voz “siete” a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 cambia un canal para sintonizar el canal 7.
Si hay una tarea (por ejemplo, comando de canal) que incluye el comando, por ejemplo, “siete”, reconocido a través del módulo de reconocimiento de voz 130k o hay un grupo candidato similar al comando, por ejemplo, “siete”, el aparato electrónico 100 exhibe un listado de un grupo candidato de voz 1100 y una guía de selección de grupo candidato 1510 para guiar una forma de ingresar el grupo candidato de voz, como se muestra en la FIG. 15.
Si se exhibe el listado del grupo candidato a voz 1100 y se reconoce el “número 1” correspondiente a un ítem número uno 1101 del listado del grupo candidato a voz a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 sintoniza el canal 7 como se muestra en la FIG. 16.
Las FIGS. 17 a 20 son vistas para explicar el acceso directo a un canal por medio del reconocimiento de voz que incluyen un nombre de canal de acuerdo con una realización ejemplar. Si el aparato electrónico 100 entra en el modo de tarea de voz y exhibe la información de asistencia de voz en la porción inferior de la pantalla de visualización y el “canal” correspondiente al ítem de voz 812 se reconoce a través del módulo de reconocimiento de voz 130k como se muestra en la FIG. 17, el aparato electrónico 100 exhibe el área de guía 830 para guiar un número de canal y un nombre de canal en la información de asistencia de voz como se muestra en la FIG. 18. Si el área de guía 830 se exhibe y una voz “MBC” es reconocida a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 sintoniza el canal 11 que tiene el nombre de canal “MBC” como se muestra en la FIG. 20.
Si hay un canal que incluye “MBC” reconocido a través del módulo de reconocimiento de voz 130k o hay un grupo candidato similar a “MBC”, el aparato electrónico 100 exhibe un listado de un grupo candidato de voz 1900 y una guía de selección de grupo candidato 1910 para guiar una forma de ingresar el grupo candidato de voz como se muestra en la FIG. 19. Si se exhibe el listado del grupo candidato a voz 1900 y se reconoce una voz “número 11” correspondiente a un ítem número uno 1901 del listado del grupo candidato a voz 1900 a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 sintoniza el canal 11 que tiene el nombre de canal “MBC” como se muestra en la FIG. 20.
Las FIGS. 21 a 23 son vistas para explicar el silenciamiento por medio de reconocimiento de voz de acuerdo con una realización ejemplar. Como se muestra en la FIG. 21, si la información de asistencia de voz se exhibe en la porción inferior de la pantalla de visualización y se reconoce “silenciado” correspondiente a un ítem de voz 813 a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 controla la unidad de salida de audio 196 para que no emita audio. También, como se muestra en la FIG. 22, el aparato electrónico 100 exhibe un icono de silencio 2200 en la pantalla de visualización. En este momento, un área de guía 2210 exhibe un comando desilenciado 2213 en lugar del comando silenciado 813.
Si “desilenciado” es reconocido a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 controla la unidad de salida de audio 196 para emitir un audio a un nivel anterior que es efectivo antes del silenciado. También, como se muestra en la FIG. 23, el aparato electrónico 100 borra el icono de silencio 2200 de la pantalla de visualización.
Las FIGS. 24 a 26 son vistas para explicar el cambio de ingreso externo mediante el uso del reconocimiento de voz de acuerdo con una realización ejemplar. Como se muestra en la FIG. 24, si el aparato electrónico 100 entra en el modo de tarea de voz y exhibe la información de asistencia de voz en la porción inferior de la pantalla de visualización, y la “ingreso externo” correspondiente a un ítem de voz 814 se reconoce a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 exhibe un listado de ingreso externo 2500 y una guía 2510 para guiar la selección de un ingreso externo, como se muestra en la FIG. 25. El listado de ingreso externo 2500 exhibe claramente un terminal externo USB, un terminal externo AV1 y un terminal externo PC, que están conectados a la unidad de ingreso de terminal externo 160, y exhibe débilmente un HDMI 1 y un HDMI 2, que no están conectados a la unidad de ingreso de terminal externo 160. Si se exhibe el listado de ingresos externos 2500 y se reconoce “PC” a través del módulo de reconocimiento de voz 130, el aparato electrónico 100 exhibe un estado de conexión con el ingreso externo “PC” en la pantalla de visualización.
Las FIGS. 27 y 29 son vistas que ilustran una tarea de ejecución de función que tiene un nombre definido para ser pronunciado de acuerdo con una realización ejemplar. Como se muestra en la FIG. 27, si se ingresa un comando de usuario para exhibir un listado de contenidos para llevar a cabo funciones inteligentes (por ejemplo, funciones de acceso a Internet, ejecución de una aplicación, reproducción de una imagen en movimiento y audición de música), se exhibe unsmart hub2700. Elsmart hub2700 es una UI que sirve como concentrador de funciones soportadas por el aparato electrónico 100 y es una UI que exhibe iconos ejecutables correspondientes a una pluralidad de funciones soportadas por el aparato electrónico 100 (por ejemplo, funciones de ver un vídeo, escuchar música y acceder a Internet). Asimismo, elsmart hub2700 es una UI que exhibe iconos ejecutables correspondientes a contenidos almacenados en la unidad de almacenamiento 130 del aparato electrónico 100 (por ejemplo, una foto, música y un vídeo), iconos ejecutables correspondientes a contenidos recibidos de fuentes externas (por ejemplo, una foto, música y un vídeo) e iconos ejecutables correspondientes a aplicaciones conectables con el exterior (por ejemplo, un navegador de Internet).
Si “Ginny” es reconocida a través del módulo de reconocimiento de voz 130k para entrar en el modo de tarea de voz, el aparato electrónico 100 exhibe una GUI de voz en la porción inferior de la pantalla de visualización y entra en el modo de tarea de voz como se muestra en la FIG. 28. Al entrar en el modo de tarea de voz, el aparato electrónico 100 subraya los nombres de los iconos ejecutables delsmart hub2700 de forma que éste muestre los iconos ejecutables seleccionables por la voz del usuario.
Como se muestra en la FIG. 28, si se exhibe la información de asistencia por voz y se reconoce una voz “tu vídeo” a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 ejecuta una imagen en movimiento incluida en “tu vídeo” delsmart hub2700, como se muestra en la FIG. 29. Si se incluye una imagen en movimiento en “tu vídeo”, ésta se ejecuta rápidamente y, si se incluye una pluralidad de imágenes en movimiento en “tu vídeo”, se exhibe un listado de las imágenes en movimiento incluidas en “tu vídeo”.
Las FIGS. 30 a 32 son vistas para explicar una función de reproducción de imagen y una función de parada de imagen mediante el uso de reconocimiento de voz de acuerdo con una realización ejemplar. Como se muestra en la FIG. 30, si se reproduce una imagen (por ejemplo, una imagen en movimiento almacenada en la unidad de almacenamiento 130) y se reconoce “Ginny” a través del módulo de reconocimiento de voz 130k para entrar en el modo de tarea de voz, el aparato electrónico 100 entra en el modo de tarea de voz y exhibe la información de asistencia de voz en la porción inferior de la pantalla de visualización, como se muestra en la FIG. 31.
En este estado, si se reconoce “pausa” a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 detiene temporalmente la reproducción de la imagen actual y exhibe un icono de pausa en la pantalla de visualización como se muestra en la FIG. 32. Si se reconoce “repetición” a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 reproduce la imagen pausada como se muestra en la FIG. 31.
Se puede exhibir un comando de pausa/parada en la información de asistencia de voz mientras se reproduce la imagen, y se puede exhibir un comando de reproducción mientras la imagen está en pausa.
Como se ha descrito anteriormente, dado que la tarea de voz que se controla de acuerdo con la voz del usuario reconocida a través del módulo de reconocimiento de voz 130k es una tarea que tiene un identificador pronunciable o una tarea que requiere el ingreso de texto, el usuario puede controlar la tarea de voz a través de su voz más fácilmente y más convenientemente.
La FIG. 33 y 34 son vistas para explicar el cambio de canal mediante el uso del reconocimiento de movimiento de acuerdo con una realización ejemplar. Si el aparato electrónico 100 entra en el modo de tarea de movimiento y exhibe la información de asistencia de movimiento en la porción inferior de la pantalla de visualización como se muestra en la FIG. 33, y se reconoce un movimiento (por ejemplo, un movimiento de palmada) de mover la mano de un usuario en dirección hacia la derecha, que corresponde a un ítem de movimiento 3313, a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 sintoniza un canal siguiente de un canal actual, es decir, el canal 7, que se incrementa desde el canal actual 6 en 1, como se muestra en la FIG. 34. Por otro lado, si el canal 7 aparece como se muestra en la FIG. 34 y un movimiento de palmada de mover la mano del usuario en una dirección hacia la izquierda desde una ubicación actual, que corresponde al ítem de movimiento 3313, es reconocido, el aparato electrónico 100 sintoniza un canal anterior, es decir, el canal 6 que es disminuido del canal actual 7 por 1, como se muestra en la FIG. 33.
Las FIGS. 35 y 37 son vistas para explicar el control del nivel de volumen mediante el uso del reconocimiento de movimiento de acuerdo con una realización ejemplar. Si el aparato electrónico 100 entra en el modo de tarea de movimiento y exhibe la información de asistencia de movimiento en la porción inferior de la pantalla de visualización como se muestra en la FIG. 35, y se reconoce un movimiento (por ejemplo, un movimiento de palmada) de mover la mano del usuario en dirección ascendente, que corresponde a un ítem de movimiento 3312, a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 exhibe una barra de control de nivel de volumen 3600 que exhibe un nivel de volumen y emite un volumen de un nivel siguiente 10 que se incrementa desde un nivel de volumen actual 9 en un nivel, como se muestra en la FIG. 36. Si no se reconoce ningún movimiento del usuario durante un tiempo predeterminado (por ejemplo, 5 segundos) después de que se haya exhibido la barra de control del nivel de volumen 3600, el aparato electrónico 100 retira la barra de control del nivel de volumen 3600 de la pantalla de visualización y emite un audio de acuerdo con el nivel de volumen controlado.
Las FIGS. 38 a 41 son vistas para explicar el cambio de canal mediante el uso de un movimiento de apuntar del usuario de acuerdo con una realización ejemplar. Si el usuario ingresa un comando para generar un listado de canales 3800 (por ejemplo, un botón de listado de canales en un mando a distancia) a fin de seleccionar un canal y el listado de canales 3800 se exhibe en la pantalla de visualización como se muestra en la FIG. 38, y se reconoce un movimiento para entrar en el modo de tarea de movimiento a través del módulo de reconocimiento de movimiento 130l (por ejemplo, agitar la mano de un usuario 3 a 4 veces), el aparato electrónico 100 genera un cursor 3910 y exhibe la información de asistencia al movimiento en la porción inferior de la pantalla de visualización, como se muestra en la FIG. 39.
Si se exhibe la información de asistencia al movimiento y se reconoce un movimiento de mover la mano desde una ubicación actual en dirección izquierda-abajo para mover el cursor 3910 a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 mueve el cursor 2010 a “11-1 MBC” de acuerdo con el movimiento como se muestra en la FIG. 40.
Si un movimiento de agarre, que corresponde a un ítem de movimiento 3314, es reconocido a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 sintoniza la ubicación actual seleccionada, por ejemplo “11-1 MBC” y exhibe el canal “11-1 MBC” como se muestra en la FIG. 41.
Las FIGS. 42 a 45 son vistas para explicar la ejecución de la aplicación mediante el uso de un movimiento de apuntar del usuario de acuerdo con una realización ejemplar. Si se exhibe unsmart huben la pantalla de visualización como se muestra en la FIG. 42, y se reconoce un movimiento (por ejemplo, agitar la mano 3 a 4 veces) para entrar en el modo de tarea de movimiento a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 genera y exhibe un cursor 4305 y exhibe la información de asistencia al movimiento 4310 en la porción inferior de la pantalla de visualización, como se muestra en la FIG. 43.
Si un movimiento de mover la mano desde una ubicación actual en dirección izquierda-abajo es reconocido a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 mueve el cursor 4305 a “APP 2” de acuerdo con el movimiento como se muestra en la FIG. 44.
Si un movimiento de agarre, que corresponde a un ítem de movimiento 4311, es reconocido a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 ejecuta el ítem seleccionado “APP 2” como se muestra en la FIG. 45. De este modo, se usan dos movimientos diferentes para seleccionar un ítem y, a continuación, ejecutarlo. En este momento, el aparato electrónico 100 puede exhibir una pantalla que indica la ejecución de una aplicación seleccionada en lugar de la pantalla que exhibe elsmart hubcomo se muestra en la FIG. 45. Sin embargo, esto es meramente un ejemplo y el aparato electrónico 100 puede exhibir la ejecución de la aplicación en una pantalla delsmart hubmás pequeña que elsmart hub.
Las FIGS. 46 a 48 son vistas para explicar la navegación en un área de visualización de aplicaciones delsmart hubmediante el uso de un movimiento del usuario de acuerdo con una realización ejemplar. Si elsmart hubaparece en la pantalla de visualización como se muestra en la FIG. 46 y se reconoce un movimiento de agitar la mano 3 a 4 veces para entrar en el modo de tarea de movimiento a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 genera un cursor 4710 y exhibe la información de asistencia al movimiento en la porción inferior de la pantalla de visualización como se muestra en la FIG. 47.
Si el cursor 4710 está ubicado en un área navegable (por ejemplo, un área donde se exhiben las teclas de dirección de movimiento hacia la izquierda y hacia la derecha 4713 y 4716) y se reconoce un movimiento de palmada de mover la mano desde una ubicación actual en dirección hacia la derecha a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 mueve un área de visualización de aplicación 4720 donde está ubicado el cursor 4710 en dirección hacia la izquierda, como se muestra en la FIG. 48.
Las FIGS. 49 a 52 son vistas para explicar la ejecución de un icono que tiene un nombre indefinido mediante el uso de reconocimiento de movimiento de acuerdo con una realización ejemplar. Si se exhibe una pantalla de página web en la pantalla de visualización como se muestra en la FIG. 49, y un movimiento de agitar la mano 3 a 4 veces para entrar en el modo de tarea de movimiento es reconocido a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico genera un cursor 5005 y exhibe la información de asistencia de movimiento 5010 en la porción inferior de la pantalla de visualización como se muestra en la FIG. 50.
Si se reconoce un movimiento de mover la mano desde una ubicación actual en dirección izquierda-arriba para mover el cursor 5005 a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 mueve el cursor 5005 a un icono “marcador” de acuerdo con el movimiento como se muestra en la FIG. 51.
Si se reconoce un movimiento de agarre a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 exhibe la ejecución del marcador 5220 que indica el marcador de la página web actualmente exhibida en la pantalla de visualización como se muestra en la FIG. 52.
Las FIGS. 53 a 55 son vistas para explicar una tarea de control de reproducción mediante el uso de reconocimiento de movimiento de acuerdo con una realización ejemplar. Si una imagen de contenido (por ejemplo, una imagen en movimiento almacenada en la unidad de almacenamiento 130 o una imagen en movimiento recibida de una fuente externa) se exhibe en la pantalla de visualización como se muestra en la FIG. 53, y un movimiento de agitar la mano 3 a 4 veces para entrar en el modo de tarea de movimiento es reconocido a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 genera una barra de control de reproducción 5410 y exhibe la información de asistencia de movimiento en la porción inferior de la pantalla de visualización como se muestra en la FIG. 54. En este momento, la barra de control de reproducción 5410 se exhibe en la pantalla de visualización si se reconoce un comando de inicio de movimiento. La barra de control de reproducción 5410 se puede exhibir en la pantalla de visualización si se recibe un ingreso de usuario adicional (por ejemplo, un botón de control remoto).
Si se reconoce un movimiento de palmada en dirección izquierda a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 salta hacia atrás desde una imagen actual un tiempo predeterminado (por ejemplo, 10 minutos) y reproduce la imagen. El tiempo predeterminado se puede modificar por medio de la configuración.
Las FIGS. 56 a 58 son vistas para explicar una tarea de control de reproducción mediante el uso de otro reconocimiento de movimiento de acuerdo con una realización ejemplar. Si una imagen (por ejemplo, una imagen en movimiento almacenada en la unidad de almacenamiento 130 o una imagen en movimiento recibida de una fuente externa) se exhibe en la pantalla de visualización como se muestra en la FIG. 56, y un movimiento de agitar la mano 3 a 4 veces para entrar en el modo de tarea de movimiento es reconocido a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 genera una barra de control de reproducción 5710 y exhibe la información de asistencia de movimiento en la porción inferior de la pantalla de visualización como se muestra en la FIG. 57. En este momento, la barra de control de reproducción 5710 se exhibe en la pantalla de visualización si se reconoce un comando de inicio de movimiento. La barra de control de reproducción 5710 se puede exhibir en la pantalla de visualización si se recibe un ingreso de usuario adicional (por ejemplo, un botón de control remoto).
Si se reconoce un movimiento de selección particular, por ejemplo, un movimiento de agarre, a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 selecciona un icono 5715 que indica una ubicación de reproducción actual y, si después se reconoce un movimiento de desplazamiento en dirección hacia la izquierda a través del módulo de reconocimiento de movimiento 130l, el aparato electrónico 100 vuelve a una ubicación tanto como un tiempo predeterminado correspondiente al movimiento de desplazamiento en dirección hacia la izquierda. El icono 5715 también retrocede tanto como el movimiento de desplazamiento hacia la izquierda. Si se reconoce un movimiento de soltar la pinza a través del módulo de reconocimiento de movimiento 130l (por ejemplo, un movimiento de extender la mano), el aparato electrónico 100 reproduce la imagen desde el lugar al que retrocede el icono 5715, como se muestra en la FIG. 58. Sin embargo, esto no es más que un ejemplo. Si después del agarre se reconoce un movimiento hacia la derecha, el aparato electrónico 100 avanza el tiempo predeterminado correspondiente al movimiento hacia la derecha. El icono 5715 también avanza tanto como el movimiento hacia la derecha.
Como se ha descrito anteriormente, dado que la tarea de movimiento que se controla de acuerdo con el movimiento del usuario reconocido a través del módulo de reconocimiento de movimiento 130l es una tarea cuyo valor de ajuste se cambia en fases o una tarea que usa un cursor, el usuario puede controlar la tarea de movimiento más fácil y convenientemente.
Las FIGS. 59 y 60 son diagramas de flujo que ilustran un procedimiento de control de un aparato electrónico, que controla una tarea completa por medio de la división en una tarea de movimiento y una tarea de voz de acuerdo con diversas realizaciones ejemplares.
La FIG. 59 es un diagrama de flujo de un procedimiento para el control del aparato electrónico de acuerdo con una realización ejemplar.
El aparato electrónico 100 reconoce una voz del usuario o un movimiento de usuario (S5910). La voz del usuario se ingresa a través de un micrófono y es reconocida por un módulo de reconocimiento de voz, y el movimiento del usuario es fotografiado por una cámara y es reconocido por un módulo de reconocimiento de movimiento.
Si se reconoce un ingreso de usuario a través de uno de los módulos de reconocimiento de voz o de movimiento (S5910), el aparato electrónico 100 lleva a cabo una de las tareas de voz o de movimiento de acuerdo con el ingreso de usuario (S5920). La tarea de voz es una tarea que incluye un identificador correspondiente a una voz del usuario de entre las tareas para controlar el aparato electrónico 100, y la tarea de movimiento es una tarea que se lleva a cabo en fases de acuerdo con un movimiento de usuario de entre las tareas para controlar el aparato electrónico 100.
Como se ha descrito anteriormente, el usuario puede controlar el aparato electrónico 100 de manera más eficiente mediante el uso de la voz y el movimiento.
La FIG. 60 es un diagrama de flujo para explicar un procedimiento para el control del aparato electrónico de acuerdo con una realización ejemplar.
El aparato electrónico 100 reconoce un comando de inicio a través de uno de los módulos de reconocimiento de voz y el módulo de reconocimiento de movimiento (S6005). El comando de inicio puede ser un comando de inicio de voz que se reconoce a través del módulo de reconocimiento de voz o un comando de inicio de movimiento que se reconoce a través del módulo de reconocimiento de movimiento.
Si el comando de inicio reconocido es un comando de inicio de voz (S6010-Y), el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz (S6015). El modo de tarea de voz es un modo en el que se lleva a cabo una tarea de acuerdo con una voz del usuario reconocida a través del módulo de reconocimiento de voz.
Si el modo se cambia al modo de tarea de voz, el aparato electrónico 100 genera información de asistencia de voz que incluye ítems de voz (S6020). Por ejemplo, la información de asistencia de voz que incluye ítems de voz para llevar a cabo tareas de voz se exhibe como se muestra en la FIG. 61.
En el modo de tarea de voz, el aparato electrónico 100 determina si un comando de voz del usuario es reconocido o no (S6030). Si se determina que se reconoce un comando de voz del usuario (S6030-Y), el aparato electrónico lleva a cabo una tarea de voz correspondiente al comando de voz del usuario reconocido (S6035). Por ejemplo, la tarea de voz se lleva a cabo como se ha explicado anteriormente con referencia a las FIGS. 6 a 32.
La tarea de voz puede incluir al menos una de las funciones de control de potencia, acceso directo a canales, ajuste del nivel de volumen, silenciamiento, cambio de ingreso externo, ingreso de texto y repetición/parada del aparato electrónico.
Se determina si se reconoce o no un comando de inicio de movimiento en el modo de tarea de voz (S6040). Si se reconoce el comando de inicio de movimiento (S6040-Y), el aparato electrónico 100 cambia el modo del aparato electrónico 100 a un modo de tarea de movimiento (S6045). Por ejemplo, si el comando de inicio de movimiento es reconocido en el modo de tarea de voz, el aparato electrónico 100 cambia el modo al modo de tarea de movimiento y exhibe información de asistencia de movimiento que incluyen ítems de movimiento como se muestra en la FIG. 62.
Si no se reconoce el comando de inicio de movimiento (S6040-N), el aparato electrónico 100 mantiene el modo de tarea actual, es decir, el modo de tarea de voz (S6070). Si el comando de inicio reconocido inicialmente es el comando de inicio de movimiento en lugar del comando de inicio de voz (S6010-N), el aparato electrónico 100 cambia el modo del aparato electrónico 100 al modo de tarea de movimiento (S6045). El modo de tarea de movimiento es un modo en el que una tarea se lleva a cabo únicamente por medio de un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento 130l.
Si el modo del aparato electrónico 100 se cambia al modo de tarea de movimiento, el aparato electrónico 100 genera información de asistencia al movimiento que incluyen un ítem de movimiento (S6050). Por ejemplo, como se muestra en la FIG. 62, se exhibe la información de asistencia al movimiento que incluye un ítem de movimiento para controlar una tarea de movimiento.
El aparato electrónico 100 determina si se reconoce o no un movimiento del usuario (S6055). Si se determina que se reconoce un movimiento del usuario (S6055-Y), el aparato electrónico 100 lleva a cabo una tarea de movimiento correspondiente al movimiento del usuario reconocido (S6060). Por ejemplo, la tarea de movimiento se lleva a cabo como se ha explicado anteriormente con referencia a las FIGS. 33 a 58.
La tarea de movimiento puede incluir al menos uno de los siguientes: cambio de canal, control del nivel de volumen, navegación por la pantalla, control de la barra de deslizamiento y apuntar con el cursor.
Se determina si se reconoce o no un comando de inicio de voz en el modo de tarea de movimiento (S6065), y si se reconoce un comando de inicio de voz (S6065-Y), el aparato electrónico 100 cambia el modo al modo de tarea de voz (S6010). Por ejemplo, si se reconoce un comando de inicio de voz en el modo de tarea de movimiento, el aparato electrónico 100 cambia el modo al modo de tarea de voz y exhibe la información de asistencia de voz que incluyen los ítems de voz como se muestra en la FIG. 60
Si no se reconoce un comando de inicio de voz (S6040-N), el aparato electrónico 100 mantiene el modo de tarea actual, es decir, el modo de tarea de movimiento (S6070).
Como se ha descrito anteriormente, el aparato electrónico 100 puede llevar a cabo diversas tareas de acuerdo con el movimiento del usuario o la voz del usuario, y de este modo se puede mejorar la comodidad del usuario.
La unidad de control 140 puede controlar para exhibir la información de asistencia de voz (primer sonido) para llevar a cabo las tareas de voz en el modo de tarea de voz en el que al menos una de las tareas de voz se lleva a cabo de acuerdo con la voz reconocida. Por ejemplo, si se reconoce un comando de inicio de voz a través del módulo de reconocimiento de voz, la unidad de control 140 puede controlar para exhibir la información de asistencia de voz para llevar a cabo las tareas de voz que son controlables de acuerdo con la voz del usuario. Al menos un ítem de voz correspondiente a diversas tareas de voz se puede exhibir como información de asistencia de voz. Al menos un ítem de voz puede ser un comando pronunciable. En consecuencia, el usuario puede identificar fácilmente un comando reconocible en el modo de tarea de voz. Además, si se pronuncia un comando correspondiente, el usuario puede reconocer fácilmente qué tarea de voz se va a llevar a cabo.
La unidad de control 140 puede reconocer una primera voz (primer sonido) correspondiente a un primer ítem de voz de entre al menos un ítem de voz exhibido como información de asistencia de voz en el modo de tarea de voz. La unidad de control 140 determina si existe o no información adicional sobre el primer ítem de voz correspondiente a la primera voz reconocida. Si no existe información adicional sobre el ítem, la unidad de control 140 puede llevar a cabo una tarea correspondiente al primer ítem de voz. Por ejemplo, la tarea se inicia directamente. Si es necesario cambiar la información de asistencia por voz, la unidad de control 140 puede controlar una unidad de visualización (no se muestra) para exhibir la información de asistencia por voz modificada. Si existe información adicional sobre el ítem, la unidad de control 140 puede controlar que se muestre la información adicional sobre el primer ítem de voz correspondiente a la primera voz reconocida. La unidad de control 140 puede reconocer una segunda voz (es decir, un segundo comando hablado) correspondiente a la información adicional del ítem. La unidad de control 140 puede llevar a cabo una tarea correspondiente al primer ítem de voz y a la segunda voz de entre las tareas de voz.
La unidad de control 140 puede controlar para exhibir la información de la ayuda del movimiento para llevar a cabo las tareas del movimiento en el modo de la tarea del movimiento en el cual por lo menos una de las tareas del movimiento se lleva a cabo de acuerdo con el movimiento reconocido. Por ejemplo, si se reconoce un comando de inicio de movimiento a través del módulo de reconocimiento de movimiento, la unidad de control 140 controla para exhibir la información de asistencia de movimiento para llevar a cabo las tareas de movimiento que son controlables de acuerdo con el movimiento del usuario. Al menos un ítem de movimiento correspondiente a diversas tareas de movimiento se puede exhibir como la información de asistencia al movimiento. El al menos un ítem de movimiento puede incluir una imagen de movimiento que indica un movimiento reconocible en el modo de tarea de movimiento y una tarea correspondiente al movimiento reconocible. En consecuencia, el usuario puede identificar fácilmente un movimiento reconocible en el modo de tarea de movimiento y puede reconocer fácilmente qué tarea de movimiento se llevará a cabo en función del movimiento que realice el usuario. Por lo tanto, el usuario puede llevar a cabo fácilmente la tarea de movimiento.
La unidad de control 140 puede reconocer un primer movimiento correspondiente a un primer ítem de movimiento de entre al menos un ítem de movimiento exhibido como la información de asistencia al movimiento en el modo de tarea de movimiento. La unidad de control 140 puede determinar si existe o no información adicional sobre el primer movimiento correspondiente al primer movimiento reconocido. Si no existe información adicional sobre el ítem, la unidad de control 140 puede llevar a cabo una tarea correspondiente al primer ítem de movimiento. Por ejemplo, la tarea se inicia directamente. Además, si es necesario cambiar la información de asistencia al movimiento, la unidad de control 140 puede controlar una unidad de visualización (no se muestra) para exhibir la información de asistencia al movimiento modificada. Si existe información adicional del ítem, la unidad de control 140 puede controlar para exhibir la información adicional del ítem con respecto al primer ítem de movimiento correspondiente al primer movimiento reconocido. La unidad de control 140 puede reconocer un segundo movimiento (es decir, un segundo comando de movimiento) correspondiente a la información adicional del ítem. La unidad de control 140 puede llevar a cabo tareas correspondientes al primer ítem de movimiento y al segundo movimiento reconocido de entre las tareas de movimiento. La información de asistencia de voz, la información de asistencia de movimiento, la información de ítem adicional relativa al ítem de voz o la información de ítem adicional relativa al ítem de movimiento se pueden exhibir en la misma área (la porción inferior) de la pantalla de visualización. La información descrita se puede exhibir en un área preestablecida o en un área que se puede modificar dinámicamente. Por ejemplo, la información de asistencia por voz o la información de asistencia por movimiento se pueden exhibir en una porción superior, inferior, derecha o izquierda de la pantalla, y pueden cambiar dinámicamente en función de una imagen exhibida en la pantalla.
La información de asistencia de voz, la información de asistencia de movimiento, la información de ítem adicional relativa al ítem de voz, o la información de ítem adicional relativa al ítem de movimiento se pueden exhibir junto con una imagen exhibida o reproducida, una aplicación, un OSD, o un candidato a reconocimiento, o se pueden exhibir independientemente. El área donde se exhibe la información anterior se puede solapar con un área donde se exhibe la imagen, la aplicación, el OSD o el candidato a reconocimiento. Al menos parte de la información de asistencia por voz o de la información de asistencia por movimiento se puede exhibir de forma transparente o semitransparente. La transparencia se puede ajustar de acuerdo con la selección del usuario.
La información de asistencia de voz y la información de asistencia de movimiento descritas anteriormente se pueden proporcionar al usuario de diversas formas. En adelante en la presente memoria, la información de asistencia de voz, la información adicional relativa al ítem de voz y la información de asistencia de movimiento se explicarán en detalle con referencia a las FIGS. 61 a 63.
La FIG. 61 es una vista que ilustra la información de asistencia de voz exhibida en la unidad de visualización 193 en el modo de tarea de voz de acuerdo con una realización ejemplar.
Como se muestra en la FIG. 61, la unidad de visualización 193 puede exhibir al menos un ítem de voz 811, 812, 813, 814, 815, 816, 817 y 818 en el modo de tarea de voz como la información de asistencia de voz. Cada uno de los ítems vocales se puede referir a un comando pronunciable (vocal). De este modo, una indicación de los comandos de voz se exhiben en la pantalla para ser seleccionados por un comando de voz correspondiente. Además, la información de asistencia de guía puede incluir una imagen de modo o un texto que indique el modo de tarea de voz. La información de asistencia de voz puede incluir un área de guía 810 que incluya el al menos un ítem de voz o un área de<visualización de modo>820<que muestre un modo designado (por ejemplo, el modo de tarea de voz o el modo de tarea>de movimiento) del aparato electrónico 100. El área de visualización de modo 820 puede incluir al menos una imagen de modo y un texto que indique el modo designado del modo de tarea de voz y el modo de tarea de movimiento. Además, el área de guía 810 y el área de visualización del modo 820 se pueden exhibir de forma distintiva como se muestra en la FIG. 61 o se puede exhibir sin trazar un límite entre las dos áreas. El área de visualización de modo 820 se puede omitir. La ubicación de cada una del área de guía 810 y el área de visualización de modo 820 se puede establecer en el momento de la fabricación del aparato electrónico 100, o se puede establecer arbitrariamente por el usuario, o el área de guía 810 y el área de visualización de modo 820 se pueden ubicar dinámicamente de acuerdo con una imagen exhibida a lo largo de una UI. Por ejemplo, si se exhibe una OSD, la ubicación de cada una de las áreas de guía 810 y el área de visualización de modo 820 se puede cambiar a una ubicación determinada fuera de un área en la que se muestre la OSD, de forma que se resalte la visualización de la OSD. El área de guía 810 se puede exhibir en la porción inferior de la pantalla de visualización y el área de visualización del modo 820 se puede exhibir en la parte inferior central de la pantalla de visualización. Además, la ubicación del área de visualización de modo 820 se puede cambiar a otra ubicación, tal como la porción inferior derecha, independientemente del área de guía 810 de acuerdo con la configuración.
En el modo de tarea de voz, el área de guía 810 incluye al menos un ítem de voz 811, 812, 813, 814, 815, 816, 817 y 818. Por ejemplo, cada uno de los al menos un ítem de voz puede ser un comando para llevar a cabo una tarea de voz. Al menos un comando incluido en el área de guía 810 puede incluir apagado 811, canal 812, silenciado 813, ingreso externo 814,smart hub815, aplicaciones 816, búsqueda 817 o todos 818. El apagado 811 es un comando para apagar el aparato electrónico 100. El canal 812 es un comando para llevar a cabo el acceso directo al canal. El silenciado 813 es un comando para llevar a cabo el silenciado. El ingreso externo 814 es un comando para cambiar el ingreso externo. Elsmart hub815 es un comando para llevar a cabo una tarea de entrada de una función inteligente, tal como una función de Internet, una función de provisión de aplicaciones y una función de provisión multimedia (por ejemplo, una imagen en movimiento, música y una foto) del aparato electrónico 100. La aplicación 816 es un comando para llevar a cabo una tarea de búsqueda de una aplicación del aparato electrónico 100. La búsqueda 817 es un comando para llevar a cabo una búsqueda de contenidos, aplicaciones y web proporcionada por el aparato electrónico 100. Elall818 es un comando para exhibir todos los comandos. El área de guía 818 puede incluir “más” como comando en lugar del todo 818. Es decir, los todos 818 y “más” pueden ser ítems de voz para exhibir otros ítems diferentes de los al menos un ítem de voz 811, 812, 813, 814, 815, 816, 817 y 818 de entre los ítems de voz correspondientes a las tareas de voz. Además, si el aparato electrónico 100 exhibe otros ítems, el aparato electrónico 100 se puede configurar para no usar un temporizador preestablecido. El temporizador preestablecido es un temporizador para detener el modo de tarea de voz si al menos uno de los ítems de voz exhibidos 811, 812, 813, 814, 815, 816, 817 y 818 no se reconoce durante un tiempo preestablecido. Si se detiene el modo de tarea de voz, la información de asistencia por voz puede desaparecer y el modo puede cambiar a un modo en el que el aparato electrónico 100 se controle por medio de un mando a distancia general. Además, si se detiene el modo de tarea de voz, la realización de la tarea de voz se puede ver limitada hasta que el aparato electrónico 100 vuelva a entrar en el modo de tarea de voz de acuerdo con un comando de inicio de voz. Además, si se exhibe en la pantalla un OSD o un candidato a reconocimiento junto con la información de asistencia de voz, la información de asistencia de movimiento y la información de ítems adicionales, es posible que el temporizador preestablecido para detener el modo designado no se accione independientemente del modo designado. Además, el área de guía 810 puede incluir otros comandos además de los descritos anteriormente.
El al menos un ítem de voz 811, 812, 813, 814, 815, 816, 817, 818, que se exhibe como la información de asistencia de voz, se puede configurar de forma diferente de acuerdo con una función actualmente llevada a cabo. Es decir, al menos un comando exhibido en el área de guía 810 puede estar configurado de forma diferente de acuerdo con la función que se esté llevando a cabo. Específicamente, al menos uno de los ítems de voz correspondientes a las tareas de voz se puede configurar selectivamente de acuerdo con al menos una de una aplicación, OSD, y un candidato exhibido junto con la información de asistencia de voz. Por ejemplo, si se está ejecutando una función inteligente en el aparato electrónico 100, se puede exhibir información de asistencia por voz que incluya un comando de “retorno” para volver a una función de recepción de emisiones. Un candidato a reconocimiento puede incluir al menos uno de un nombre que tenga al menos uno de un número o un texto similar a una voz reconocida, un comando similar a una voz reconocida, una tarea correspondiente a un comando similar, un movimiento similar a un movimiento reconocido y una tarea correspondiente a un movimiento similar. Por ejemplo, los candidatos similares a una voz reconocida pueden exhibir un listado de identificadores de canal similares a la voz reconocida en una ventana emergente. El OSD puede incluir información de configuración actual del aparato electrónico 100 y un menú de configuración del aparato electrónico 100 excluyendo el candidato a reconocimiento. Por ejemplo, como el OSD, se puede exhibir un identificador de un canal actual (un número de canal o un nombre de canal) o se puede exhibir un listado de ingresos externos o un listado de canales.
La unidad de control 140 puede reconocer una primera voz correspondiente a un primer ítem de voz de entre los al menos un ítem de voz 811, 812, 813, 814, 815, 816, 817, 818 exhibidos como la información de asistencia de voz. La unidad de control 140 puede controlar la visualización de información adicional relativa al primer ítem de voz correspondiente a la primera voz reconocida. La información adicional relativa al primer ítem de voz puede incluir, por ejemplo, un comando adicional con respecto al primer ítem de voz, un mensaje de guía o un ejemplo de enunciado. Por ejemplo, si el “canal” se reconoce a través del módulo de reconocimiento de voz 130k como un primer comando de voz correspondiente al ítem de voz 812 exhibido en el área de guía 810 y una tarea correspondiente al ítem de voz 812 es acceso directo a canal, la unidad de visualización 193 puede exhibir información adicional del ítem que incluyen uno o más de: un mensaje de guía, un ejemplo de pronunciación, o un comando adicional (por ejemplo, “anterior”) para la pronunciación de al menos un identificador de un nombre de canal, un nombre de programa, y un número de canal, como se muestra en la FIG. 62. La información adicional sólo se exhibe y se puede seleccionar después de ejecutar el primer comando. El “anterior” en la presente memoria puede ser un comando para exhibir una UI que incluya el área de guía 810 de la FIG. 61 otra vez. La información del ítem adicional puede incluir un área de guía 830 que incluya uno o más de: un comando adicional, un mensaje de guía, o un ejemplo de pronunciación (vocal), y el área de visualización del modo 820. De este modo, la selección de una operación del aparato se lleva a cabo con una primera etapa y una segunda etapa relacionada. En algunos aspectos, la segunda etapa depende de la primera etapa seleccionada. Por ejemplo, el mensaje de guía se puede exhibir en la porción izquierda del área de guía 830 y el comando adicional o el ejemplo de enunciado se pueden exhibir en la porción derecha del área de guía 830.
En algunos ejemplos, la información adicional del ítem proporciona información sobre qué otro comando (segundo) se puede recibir y/o información adicional relativa al primer y/o segundo comando. La información adicional del ítem contiene más información relacionada con el primer ítem seleccionado, que proporciona la visualización en una pluralidad de etapas de comandos y/o información para la selección por control vocal o de movimiento. En algunos ejemplos, la información adicional del ítem sustituye a todos los ítems que indicaban opciones para el primer comando.
La unidad de control 140 puede reconocer un segundo comando, por ejemplo un segundo comando de voz, correspondiente a la información adicional del ítem. La unidad de control 140 puede llevar a cabo una tarea correspondiente al primer ítem de voz y al segundo comando de voz de entre las tareas de voz. Por ejemplo, si el primer ítem de voz es el ítem de voz 812 y “MBC” es reconocido como el segundo comando de voz correspondiente a la información del ítem adicional de la FIG. 60, la unidad de control 140 puede llevar a cabo un atajo de canal para cambiar un canal actual a un canal correspondiente al identificador de canal que incluye “MBC”. Es decir, la información adicional relativa al primer ítem de voz puede ser información para guiar un nuevo comando de voz, por ejemplo, guiar una emisión (sonido) del segundo comando de voz para preguntar si se debe llevar a cabo la tarea correspondiente al primer ítem de voz (es decir, proporcionar confirmación del primer comando) u obtener información adicional necesaria para llevar a cabo la tarea. El primer y segundo comando pueden ser cualquier combinación de comandos de voz y/o comandos de movimiento.
La FIG. 63 es una vista que ilustra la información de asistencia al movimiento exhibida en la unidad de visualización 193 del aparato electrónico 100 en el modo de tarea de movimiento de acuerdo con una realización ejemplar.
Como se muestra en la FIG. 63, la unidad de visualización 193 puede exhibir al menos un ítem de movimiento 3311, 3312, 3313 y 3314 como la información de asistencia al movimiento en el modo de tarea de movimiento. Cada uno de los al menos un ítem de movimiento puede incluir una imagen de movimiento que indica un movimiento reconocible en el modo de tarea de movimiento o un texto que indica una tarea correspondiente a un movimiento reconocible (o una imagen de movimiento). La información de asistencia al movimiento puede incluir una imagen de modo o un texto que indique el modo de tarea de movimiento. La información de asistencia al movimiento puede incluir un área de guía 3310 que incluya al menos un ítem de movimiento y un área de visualización de modo 3320 que muestre un modo del aparato electrónico 100. El área de visualización de modo 3320 puede incluir al menos una imagen de modo y un texto que indique un modo designado del modo de tarea de voz y del modo de tarea de movimiento. El área de guía 3310 y el área de visualización del modo 3320 se pueden exhibir de forma distintiva como se muestra en la FIG. 63 o se puede exhibir sin trazar un límite entre las dos áreas. Además, el área de visualización del modo 3320 se puede omitir. Por ejemplo, el área de guía 3310 se puede exhibir en la porción inferior de la pantalla de visualización y el área de visualización de modo 3320 se puede exhibir en el centro de la porción inferior de la pantalla de visualización. La ubicación del área de visualización de modo 3320 se puede cambiar de acuerdo con la configuración (por ejemplo, una porción inferior derecha).
En el modo de tarea de movimiento, el área de guía 3310 incluye al menos un ítem de movimiento 3311, 3312, 3313, 3314. Por ejemplo, cada uno de los al menos un ítem de movimiento puede incluir una imagen de movimiento y un texto que indica una tarea correspondiente a la imagen de movimiento. El al menos un ítem de movimiento incluido en el área de guía 3310 puede incluir un ítem de movimiento 3311 que indique que un movimiento de rotación en sentido contrario a las agujas del reloj corresponde a “atrás” para volver a un ajuste anterior, un ítem de movimiento 3312 que indique que los movimientos de palmada en sentido ascendente/descendente corresponden a “subir/bajar volumen” para controlar un nivel de volumen, un ítem de movimiento 3313 que indica que los movimientos hacia la izquierda/derecha corresponden a “subir/bajar canal” para cambiar de canal, y un ítem de movimiento 3314 que indica que un movimiento de agarre corresponde a “repetición” para reproducir una imagen. El área de guía 3310 puede exhibir otros ítems de movimiento diferentes de los descritos anteriormente. La imagen de movimiento incluida en cada uno de los ítems de movimiento descritos anteriormente y el texto correspondiente a la imagen de movimiento se pueden modificar de acuerdo con los ajustes de asignación entre un movimiento reconocible y una tarea correspondiente al movimiento reconocible. Por ejemplo, el área de guía 3310 puede incluir un ítem de movimiento que indique que los movimientos de palmada en las direcciones arriba/abajo corresponden al canal arriba/abajo para llevar a cabo el cambio de canal, y un ítem de movimiento que indique que los movimientos de palmada en las direcciones izquierda/derecha corresponden al volumen arriba/abajo para controlar el nivel de volumen.
El al menos un ítem de movimiento 3311, 3312, 3313, 3314 exhibido como la información de asistencia al movimiento se puede configurar de forma diferente de acuerdo con una función actualmente ejecutada. Es decir, el al menos un ítem de movimiento 3311, 3312, 3314, 3314 exhibido en el área de guía 3310 se puede configurar de forma diferente de acuerdo con una función actual del aparato electrónico 100. Por ejemplo, al menos uno de los ítems de movimiento correspondientes a las tareas de movimiento se puede configurar de forma selectiva en función de al menos una de las aplicaciones, la OSD y un candidato de reconocimiento que se exhiben junto con la información de asistencia al movimiento.
La unidad de control 140 puede reconocer un primer movimiento correspondiente a un primer ítem de movimiento de entre los al menos un ítem de movimiento 3311, 3312, 3313, 3314 exhibidos como la información de asistencia al movimiento. Si existe información adicional del ítem, la unidad de control 140 puede controlar para exhibir información adicional del ítem con respecto al primer ítem de movimiento correspondiente al primer movimiento reconocido. Por ejemplo, si se reconoce un movimiento de agarre correspondiente al ítem de movimiento 3314, se puede exhibir información adicional del ítem que incluya uno o más de un mensaje de guía que pregunte si se va a reproducir un ítem o archivo de imagen seleccionado, y/o un ítem de movimiento que indique que los movimientos de palmada en dirección izquierda/derecha corresponden a una respuesta Sí/No.
La unidad de control 140 puede reconocer un segundo movimiento correspondiente a la información adicional del ítem. La unidad de control 140 puede llevar a cabo una tarea correspondiente al primer ítem de movimiento y al segundo movimiento reconocido de entre las tareas de movimiento. Por ejemplo, si el primer ítem de movimiento es el ítem de movimiento 3314 y se reconoce un movimiento de palmada en dirección hacia la izquierda como el segundo movimiento correspondiente a la información de ítem adicional que incluye un mensaje de guía que pregunta si se debe reproducir un archivo de imagen designado y un ítem de movimiento que indica que los movimientos de palmada en las direcciones hacia la izquierda/hacia la derecha corresponden a la respuesta Sí/No, se reproduce el archivo de imagen designado. Como se ha descrito anteriormente, la información adicional relativa al primer ítem de movimiento puede ser información para guiar el segundo movimiento para preguntar si se debe llevar a cabo la tarea correspondiente al primer ítem de movimiento o para obtener adicionalmente la información necesaria para llevar a cabo la tarea. De este modo, se ingresan un primer y un segundo comando relacionados con el primer comando, correspondientes a la información exhibida.
Si se produce un error en el reconocimiento de movimiento, se puede exhibir información de asistencia al movimiento que indica el error. Por ejemplo, la información de asistencia al movimiento puede incluir un mensaje de guía “No se ha reconocido el gesto. Por favor, ingréselo de nuevo” o una imagen de la palma de la mano con un texto que indica que hay que volver a ingresar los datos. Además, la información de asistencia al movimiento puede incluir un mensaje de guía “El reconocimiento de ambas manos es ahora imposible.” o un mensaje de guía “Disponible sólo en 'Navegador web', “Ver foto” y 'Google Map App'“ . El reconocimiento de ambas manos se puede llevar a cabo para llevar a cabo una tarea de ampliación o reducción de una pantalla, en respuesta a un movimiento de separación o acercamiento de ambas manos. Además, como parte de la información de asistencia al movimiento, se puede exhibir una imagen o un texto que indique un error en el área de visualización del modo.
En adelante en la presente memoria, una interfaz de usuario (UI) para proporcionar una respuesta de acuerdo con el reconocimiento de voz o reconocimiento de movimiento del aparato electrónico 100 se explicará con referencia a las FIGS. 64 a 66.
Como se muestra en la FIG. 64, la información de asistencia de voz que incluye el área de guía 810 y el área de visualización de modo 820 se puede exhibir en el modo de tarea de voz. El área de guía 810 y el área de visualización de modo 820 se pueden exhibir con un efecto visual que hace que el área de guía 810 y el área de visualización de modo 820 parezcan surgir del extremo inferior de la pantalla. Por ejemplo, el área de guía 810 y el área de visualización de modo 820 se pueden exhibir en forma de animación durante un tiempo predeterminado (por ejemplo, durante 3 segundos). Por ejemplo, una parte del área de guía 810 y del área de visualización de modo 820 se eleva desde el extremo inferior rápidamente y posteriormente se eleva lentamente. La animación ascendente finaliza cuando el área de guía 810 y el área de visualización del modo 820 se exhiben completamente como se muestra en la FIG. 64. Cuando el aparato electrónico 100 entra en el modo de tarea de movimiento, la información de asistencia al movimiento se puede exhibir en la forma de animación descrita anteriormente. Si desaparece la UI de un modo específico o si se cambia a un modo específico, se pueden producir diversos efectos visuales o auditivos diferentes del efecto visual descrito anteriormente.
Si el aparato electrónico 100 reconoce la primera voz correspondiente al primer ítem de voz, el aparato electrónico 100 puede proporcionar al menos uno de respuesta visual y respuesta auditiva correspondiente a un nivel de exactitud de reconocimiento de acuerdo con la exactitud de reconocimiento de la primera voz. Si el aparato electrónico 100 reconoce el primer movimiento correspondiente al primer ítem de movimiento, el aparato electrónico 100 puede proporcionar al menos una de las respuestas visuales y auditivas correspondientes a un nivel de precisión de reconocimiento de acuerdo con la precisión de reconocimiento del primer movimiento. La precisión de reconocimiento en la presente memoria puede indicar un nivel basado en el cual se determina si la primera voz (o el primer movimiento) es una voz (o un movimiento) reconocible por el aparato electrónico 100, o puede indicar un nivel basado en el cual se identifica si una voz (o movimiento) reconocido corresponde a uno de los comandos preestablecidos (o movimientos preestablecidos). La precisión del reconocimiento puede ser un índice que cambia en función del tiempo que se tarda en identificar una tarea correspondiente a una voz o un movimiento reconocidos.
Por ejemplo, si se reconoce“smart hub’’como una voz correspondiente al ítem de voz 815, el aparato electrónico 100 puede determinar la precisión del reconocimiento calculando estocásticamente la capacidad de identificar la voz como uno de los al menos un comando 811, 812, 813, 814, 815, 816, 817, 818 incluidos en el área de guía 810. El aparato electrónico 100 puede comparar la precisión del reconocimiento y un valor umbral preestablecido y puede exhibir de forma diferente un efecto visual en función de si la precisión del reconocimiento es mayor o menor que el valor umbral preestablecido. Por ejemplo, como se muestra en la FIG. 65, se puede exhibir una animación giratoria en el sentido de las agujas del reloj sobre una porción de fondo de una imagen en un área de visualización de modo 6520 que indica el modo de tarea de voz, de acuerdo con la precisión del reconocimiento de voz. Si la precisión del reconocimiento es inferior al valor umbral, la velocidad de rotación de la imagen de la animación es lenta y, si la precisión del reconocimiento es superior al valor umbral, la velocidad de rotación de la imagen es rápida. Cuando se proporciona la respuesta visual descrita anteriormente en función de la precisión del reconocimiento, también se puede proporcionar una respuesta auditiva.
La animación, que se exhibe en el área de visualización de modo 820 como respuesta visual, se exhibe durante un período de tiempo hasta que unsmart hub6600 de la FIG. 66 se maneja y se exhibe después de que se haya reconocido la voz correspondiente al ítem de voz, y puede no tener nada que ver con la precisión del reconocimiento.
Si el aparato electrónico 100 reconoce la primera voz correspondiente al primer ítem de voz, el aparato electrónico 100 puede proporcionar una respuesta visual o una respuesta auditiva que indica al menos uno de los primeros ítems de voz y la tarea correspondiente al primer ítem de voz. Si el aparato electrónico 100 reconoce el primer movimiento correspondiente al primer ítem de movimiento, el aparato electrónico 100 puede proporcionar una respuesta visual o una respuesta auditiva que indique al menos uno de los ítems del primer movimiento y la tarea correspondiente al primer ítem de movimiento.
Por ejemplo, si“smart hub’’es reconocido como una voz correspondiente al ítem de voz 815,“smart hub’’puede ser exhibido en un área de respuesta 6530, que indica el ítem de voz 815 o la tarea correspondiente al ítem de voz 815 como se muestra en la FIG. 65. La respuesta visual se puede exhibir en una ubicación predeterminada de la pantalla sin poner un límite al área de respuesta 6530. Además, se puede emitir la respuesta auditiva “Has dicho,smart hub’’junto con la respuesta visual exhibida en el área de respuesta 6530.
Si se reconoce un movimiento de palmada hacia la derecha como un movimiento correspondiente al ítem 813, el aparato electrónico 100 puede exhibir una respuesta visual (por ejemplo, “Lo hiciste, Canal ARRIBA”) que indica una tarea correspondiente a uno de los ítems de movimiento en el área de respuesta 6530, o puede controlar la salida de respuesta auditiva mediante el uso de un módulo de texto a voz (TTS) (no se muestra) del aparato electrónico 100.
Las FIGS. 67 a 69 son diagramas de flujo para explicar un procedimiento de control de un aparato electrónico que proporciona información de asistencia de voz e información de asistencia de movimiento de acuerdo con diversas realizaciones ejemplares.
La FIG. 67 es un diagrama de flujo para explicar un procedimiento para el control del aparato electrónico 100 de acuerdo con una realización ejemplar.
El aparato electrónico 100 puede reconocer un ingreso de usuario (una voz o un movimiento) mediante el uso de uno de los módulos de reconocimiento de voz o un módulo de reconocimiento de movimiento (S6710). La voz del usuario puede ser ingresada a través de un micrófono y la voz ingresada puede ser reconocida por el módulo de reconocimiento de voz, y el movimiento del usuario puede ser fotografiado por una cámara y el movimiento fotografiado puede ser reconocido por el módulo de reconocimiento de movimiento.
El aparato electrónico 100 puede llevar a cabo una tarea de voz o una tarea de movimiento de acuerdo con el ingreso de usuario recibida (S6720). Es decir, el aparato electrónico 100 puede funcionar de acuerdo con un modo designado de un modo de tarea de voz y un modo de tarea de movimiento. Por ejemplo, si se reconoce un comando de inicio de voz o un comando de inicio de movimiento, se designa un modo correspondiente al comando de inicio reconocido.
El modo de tarea de voz es un modo en el que al menos una de las primeras tareas (es decir, tareas de voz) se lleva a cabo de acuerdo con una voz reconocida, y el modo de tarea de movimiento es un modo en el que al menos una de las segundas tareas (es decir, tareas de movimiento) se lleva a cabo de acuerdo con un movimiento reconocido. Las tareas de voz indican tareas que se llevan a cabo de acuerdo con una voz reconocida, y las tareas de movimiento indican tareas que se llevan a cabo de acuerdo con un movimiento reconocido. Las tareas de voz y las tareas de movimiento pueden ser diferentes entre sí.
Las FIGS. 68 y 69 son diagramas de flujo que ilustran un procedimiento de control del aparato electrónico 100 de acuerdo con una realización ejemplar.
El aparato electrónico 100 puede identificar cuál de los modos de tarea de voz y de movimiento está designado (S6805). Aunque en la presente realización ejemplar sólo se exhibe el modo de tarea de voz o el modo de tarea de movimiento, los modos identificables pueden incluir además un modo en el que el aparato electrónico 100 se controla por medio de un mando a distancia. Si se designa el modo de tarea de movimiento, el aparato electrónico 100 entra en la operación S6910 de la FIG. 69 y continúa una operación de control del aparato electrónico 100 de acuerdo con la presente realización ejemplar.
Si se designa el modo de tarea de voz, el aparato electrónico 100 puede exhibir información de asistencia de voz para llevar a cabo las primeras tareas en el modo de tarea de voz en el que al menos una de las primeras tareas se lleva a cabo de acuerdo con una voz reconocida (S6810).
El aparato electrónico 100 puede reconocer una primera voz correspondiente a un primer ítem de voz de entre al menos un ítem de voz exhibido como la información de asistencia de voz (S6815).
El aparato electrónico 100 puede determinar si existe o no información adicional sobre el primer ítem de voz correspondiente a la primera voz reconocida (S6820). Si la información adicional sobre el primer ítem de voz no existe, el aparato electrónico 100 puede llevar a cabo una tarea correspondiente al primer ítem de voz (S6825). Además, si es necesario modificar la información de asistencia por voz, el aparato electrónico 100 puede exhibir la información de asistencia por voz modificada. Por ejemplo, si el silenciamiento es reconocido como un comando de voz correspondiente al ítem de voz 813, el aparato electrónico 100 ejecuta el silenciamiento, y cambia el ítem de voz 813 al ítem de voz 2213 y exhibe la información de asistencia de voz cambiada como se muestra en la FIG. 22.
Si existe información adicional sobre el primer ítem de voz, el aparato electrónico 100 puede exhibir la información adicional sobre el primer ítem de voz correspondiente a la primera voz reconocida (S6830). Por ejemplo, si se reconoce “canal” como un comando de voz correspondiente al ítem de voz, se puede exhibir información adicional sobre el ítem, incluido un mensaje de guía o un ejemplo de enunciado.
El aparato electrónico 100 puede reconocer una segunda voz correspondiente a la información adicional del ítem (S6835).
El aparato electrónico 100 puede llevar a cabo una tarea correspondiente al primer ítem de voz y al segundo comando de voz reconocido de entre las primeras tareas (S6840). Por ejemplo, si el primer ítem de voz es el ítem de voz 812 y la segunda voz es “siete”, el aparato electrónico 100 puede llevar a cabo un atajo de canal para cambiar un canal actual a un canal que tenga el identificador de canal 7.
Si se designa el modo de tarea de movimiento, el aparato electrónico 100 puede exhibir información de asistencia de movimiento para llevar a cabo las segundas tareas en el modo de tarea de movimiento en el que al menos una de las segundas tareas se lleva a cabo de acuerdo con un movimiento reconocido (S6910 de la FIG. 69).
El aparato electrónico 100 puede reconocer un primer movimiento correspondiente a un primer ítem de movimiento a partir de al menos un ítem de movimiento exhibido como la información de asistencia al movimiento (S6915).
El aparato electrónico 100 puede determinar si existe o no información adicional sobre el primer ítem de movimiento correspondiente al primer movimiento reconocido (S6920). Si la información adicional sobre el primer ítem de movimiento no existe, el aparato electrónico 100 puede llevar a cabo una tarea correspondiente al primer ítem de movimiento (S6925). Por ejemplo, si un movimiento de palmada hacia la derecha es reconocido como un movimiento correspondiente al ítem de movimiento 3313 en la FIG. 33, el aparato electrónico 100 cambia un canal actual (canal 6) a un canal siguiente (canal 7), que está situado después del canal actual (canal 6) de acuerdo con un orden preestablecido, de acuerdo conchannel-up.Además, si es necesario cambiar la información de asistencia al movimiento, el aparato electrónico puede exhibir la información de asistencia al movimiento modificada.
Si existe la información de ítem adicional relativa al primer ítem de movimiento, el aparato electrónico 100 puede exhibir la información de ítem adicional relativa al primer ítem de movimiento correspondiente al primer movimiento reconocido (S6930). Por ejemplo, si se reconoce un movimiento de agarre correspondiente al ítem de movimiento, se puede exhibir la información adicional del ítem que incluye un mensaje de guía que pregunta si se debe reproducir un ítem o archivo de imagen seleccionado o un ítem de movimiento que indica que los movimientos de palmada en dirección izquierda/derecha corresponden a una respuesta Sí/No.
El aparato electrónico 100 puede reconocer un segundo movimiento correspondiente a la información de ítem adicional (S6935).
El aparato electrónico 100 puede llevar a cabo una tarea correspondiente al primer ítem de movimiento y al segundo movimiento reconocido de entre las segundas tareas (S6940). Por ejemplo, si el primer ítem de movimiento es un ítem de movimiento para reproducir una imagen y el segundo movimiento es un movimiento de palmada en dirección hacia la izquierda, el aparato electrónico 100 puede reproducir un archivo de imagen designado.
La unidad de control 140 puede exhibir de forma distintiva un icono ejecutable de un contenido que es controlable por medio de reconocimiento de voz y un icono ejecutable de un contenido que no es controlable por medio de reconocimiento de voz mediante el uso del módulo de proceso de UI 130j.
La unidad de control 140 puede determinar si un contenido es compatible con el reconocimiento de voz mediante el uso de un encabezado (no se muestra) del contenido almacenado en el aparato electrónico 100 o un archivo de configuración separado (no se muestra) incluido en el contenido.
Si se determina que el contenido es controlable por medio de reconocimiento de voz, la unidad de control 140 combina un icono adicional almacenado en la unidad de almacenamiento y un icono ejecutable original del contenido mediante el uso del módulo de proceso de UI 130j, y exhibe el icono combinado. El usuario puede saber que el contenido es controlable por medio de reconocimiento de voz en base a la presencia del icono adicional que aparece en la pantalla de visualización.
Una pluralidad de iconos adicionales pueden ser almacenados en la unidad de almacenamiento 130. El usuario puede cambiar un icono adicional para combinarlo con el icono ejecutable original por medio de la configuración.
Además, la unidad de control 140 puede exhibir de forma distintiva el nombre de un contenido que es controlable por medio de reconocimiento de voz y el nombre de un contenido que no es controlable por medio de reconocimiento de voz mediante el uso del módulo de proceso de UI 130j, por ejemplo, por medio del subrayado y exhibición del nombre en negrita. El usuario puede saber que el contenido es controlable por medio de reconocimiento de voz en base al nombre del icono ejecutable subrayado y exhibido en negrita.
La unidad de control 140 puede exhibir un icono ejecutable de un contenido que es controlable por medio de reconocimiento de voz y un nombre del icono ejecutable de forma distintiva de un icono ejecutable de un contenido que no es controlable por medio de reconocimiento de voz y un nombre del icono ejecutable mediante el uso del módulo de proceso de UI 130j.
La unidad de control 140 o el contenido pueden exhibir de forma distintiva un menú controlable por medio de reconocimiento de voz y un menú no controlable por medio de reconocimiento de voz de entre los menús de una barra de herramientas exhibida en una UI del contenido ejecutado (por ejemplo, los menús “siguiente”, “anterior” o “abrir”).
En adelante en la presente memoria, se explicará un procedimiento para exhibir un icono ejecutable de una aplicación que es controlable por medio de reconocimiento de voz y un nombre del icono ejecutable de forma distintiva de un icono ejecutable de una aplicación que no es controlable por medio de reconocimiento de voz y un nombre del icono ejecutable de acuerdo con diversas realizaciones ejemplares con referencia a las FIGS. 70 a 79.
Con referencia a la FIG. 70, la unidad de control 140 del aparato electrónico 100 emite un vídeo, un audio y datos de control (por ejemplo, una guía electrónica de programas (EPG)) correspondientes a una señal de emisión recibida de la unidad de recepción de emisiones 150 a la unidad de salida de audio 196 y a una pantalla de visualización 7000 de la unidad de visualización 193.
La unidad de control 140 reconoce un comando de inicio de voz (voz de activación) pronunciado por el usuario mediante el uso de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. La unidad de control 140 se cambia a un modo de tarea de voz, en el que el aparato electrónico 100 es controlable por medio de reconocimiento de voz, por el comando de inicio de voz reconocido (por ejemplo, “Ginny”). La unidad de control 140 compara el comando de inicio de voz reconocido a través de la unidad de ingreso de voz 110 y el módulo de reconocimiento de voz 130k y un comando de inicio de voz almacenado previamente en la base de datos de voz 130m. Si la voz se reconoce como el comando de inicio de voz como resultado de la comparación, el aparato electrónico 100 se cambia al modo de tarea de voz bajo el control de la unidad de control 140. La base de datos de voz 130m puede almacenar un primer comando correspondiente a una voz que es reconocible a través de la unidad de ingreso de voz 110 y el módulo de reconocimiento de voz 130k (por ejemplo, un comando correspondiente a “cambiar al modo de tarea de voz” o un comando correspondiente a “cambio de canal”. La unidad de control 140 puede llevar a cabo una tarea de voz del aparato electrónico 100 correspondiente al primer comando. El comando de inicio de voz o el comando almacenado previamente en la base de datos de voz 130m puede ser cambiado (por ejemplo, puede ser añadido, cambiado o borrado) a través de la configuración. El reconocimiento del comando de inicio de voz de ingreso podría ser fácilmente entendido por los expertos ordinarios en la técnica relacionada.
Con referencia a la FIG. 71, la unidad de control 140 exhibe información de asistencia de voz 7110 para llevar a cabo el modo de tarea de voz en una pantalla de visualización 400 en la que se exhibe una imagen. La unidad de control 140 puede exhibir la información de asistencia por voz 7110 para superponerla sobre la imagen exhibida. La unidad de control 140 puede exhibir la información de asistencia por voz 7110 en una porción inferior de la pantalla de visualización 400. La información de asistencia por voz 7110 puede incluir un área de visualización de comandos/guías 7111, un área de visualización de modos 7120 y 7120a, y un primer área de visualización de respuesta 7230 (véase la FIG. 72). Con referencia a la FIG. 72, la primera área de visualización de respuesta 7230 se puede exhibir en una porción lateral del área de visualización de modo 7120. La primera área de visualización de respuesta 7230 puede incluir una primera respuesta visual 7230a (véase la FIG. 72). La unidad de control 140 envía el primer comando reconocido al altavoz 161 del aparato electrónico 100, para de este modo proporcionar una primera respuesta auditiva (no se muestra) al usuario. El aparato electrónico 100 puede proporcionar una de las respuestas visuales y auditivas, o ambas.
Con referencia a la FIG. 73, si se reconoce el primer comando, la unidad de control 140 exhibe un listado de contenidos correspondiente al primer comando (en adelante en la presente memoria, se denomina como unsmart hub7300). Elsmart hub7300 es una UI que sirve de centro de diversas funciones soportadas por el aparato electrónico 100. Elsmart hub7300 es una UI en la que se exhiben iconos ejecutables correspondientes a diversas funciones soportadas por el aparato electrónico 100 (por ejemplo, funciones de visualización de una imagen en movimiento, escucha de música, acceso a Internet). Además, elsmart hub7300 es una UI en la que se exhiben iconos ejecutables de contenidos almacenados en la unidad de almacenamiento 130 del aparato electrónico 100 (por ejemplo, una foto, música, una imagen en movimiento), iconos ejecutables correspondientes a contenidos recibidos de fuentes externas (por ejemplo, una foto, música, una imagen en movimiento) e iconos ejecutables de aplicaciones ejecutables (por ejemplo, un navegador web).
Elsmart hub7300 puede incluir una pluralidad de áreas de entre un área de búsqueda 7310 que busca diversos contenidos, aplicaciones o información de Internet mediante el uso de una voz (por ejemplo, un modo de tarea de voz) o un movimiento (por ejemplo, un modo de tarea de movimiento), un área de emisión 7320 que está situada en una porción lateral del área de búsqueda 7310 y exhibe una imagen de emisión a tamaño reducido, un área de vídeo 7330 que está situada debajo del área de búsqueda 7310 y exhibe un icono ejecutable correspondiente a una imagen en movimiento almacenada en la unidad de almacenamiento 130, un área de visualización de información 7340 que está situada debajo del área de búsqueda 7310 y exhibe un aviso o un anuncio de un fabricante del aparato electrónico 100 un área de Aplicaciones 7350 que está situada bajo el área de búsqueda 7310 y exhibe iconos ejecutables de aplicaciones correspondientes a diversos servicios gratuitos o de pago proporcionados por el fabricante del aparato electrónico 100, un área recomendada 7360 que está situada bajo el área de búsqueda 7310 y exhibe un servicio recomendado por el fabricante del aparato electrónico 100, y un área de listado de aplicaciones 7370 que está situada bajo el área de búsqueda 7310 y exhibe un icono ejecutable correspondiente a una aplicación ejecutable en el aparato electrónico 100. Los expertos ordinarios en la técnica relacionada deben entender que la pluralidad de áreas 7310 a 7370 exhibidas en elsmart hub7300 se pueden añadir o eliminar de acuerdo con el rendimiento o la función del aparato electrónico.
Elsmart hub7300 puede exhibir la información de asistencia de voz 7110 correspondiente al modo de tarea de voz. Además, elsmart hub7300 puede exhibir la información de asistencia al movimiento 7720 correspondiente al modo de tarea de movimiento. La información de asistencia por voz 7110 o la información de asistencia por movimiento 7720 (véase la Fig. 77) se pueden solapar en elsmart hub7300. Con referencia a la FIG. 73, elsmart hub7300 exhibe la información de la guía de voz 7110 correspondiente al modo de tarea de voz.
En el modo de tarea de voz, elsmart hub7300 exhibe un icono ejecutable (por ejemplo, 7371) correspondiente a un contenido que es controlable por medio de reconocimiento de voz (por ejemplo, una aplicación y una imagen en movimiento) de forma diferente a un icono ejecutable (por ejemplo, 7372) correspondiente a un contenido que no es controlable por medio de reconocimiento de voz. El icono ejecutable 7371 correspondiente al contenido controlable por medio de reconocimiento de voz puede ser una combinación de un icono ejecutable original 7371a correspondiente al contenido controlable por medio de reconocimiento de voz y un icono adicional 7371b (uno de una imagen fija, una imagen en movimiento y un texto) situado en una porción lateral del icono ejecutable original 7371a. El icono adicional 7371b se puede exhibir solapado con el icono ejecutable original 7371a o separado del icono ejecutable original 7371a. El icono adicional se añade a un lado del icono ejecutable correspondiente al contenido en función de si se reconoce una voz o no. Sin embargo, esto no es más que un ejemplo. Los expertos ordinarios en la técnica deben entender que el icono ejecutable correspondiente al contenido se puede exhibir distintivamente de diversas maneras de acuerdo con si se reconoce o no una voz, por ejemplo, por medio del cambio de la ubicación o el tamaño del icono adicional 7371b.
Un nombre 7371c del icono ejecutable correspondiente al contenido que es controlable a través del reconocimiento de voz se puede exhibir distintivamente de un nombre 7372a del icono ejecutable correspondiente al contenido que no es controlable a través del reconocimiento de voz (por ejemplo, subrayado y en negrita). Sin embargo, distinguir el nombre del icono ejecutable correspondiente al contenido en función de si se reconoce una voz por medio del subrayado del nombre y la inserción de una fuente en negrita es sólo un ejemplo. Los expertos ordinarios en la técnica deben entender que el nombre del icono ejecutable correspondiente al contenido se puede exhibir de forma distintiva de diversas maneras en función de si la voz es reconocible, por ejemplo, por medio del cambio del tipo de letra o el color.
Si el nombre de un icono ejecutable tiene letras más largas que el número de letras definido en elsmart hub7300 (por ejemplo, 15 letras en inglés y 8 letras en coreano) (por ejemplo, un nombre 7373c), es posible que sólo se muestre una parte del nombre del icono ejecutable. Por ejemplo, la parte restante del nombre del icono ejecutable que no se exhibe puede aparecer como una elipsis.
El comando exhibido en la información de asistencia por voz 7110 delsmart hub7300 se puede cambiar. Si se exhibe elsmart hub7300 en respuesta a una primera voz de comando, se exhibe un comando (retorno 7111i) para volver a una imagen anterior (que se exhibía antes de que se exhiba elsmart hub7300). El comando a devolver se puede añadir a la información de asistencia de voz 7110 (por ejemplo, se exhiben 9 comandos en total) o se puede sustituir por uno de los comandos exhibidos (por ejemplo, un comando “todos” por ejemplo, se exhiben 8 comandos en total).
La unidad de control 140 reconoce una segunda voz de comando pronunciado por el usuario mediante el uso de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m (por ejemplo, el nombre de la aplicación 7371c, “Libro electrónico emocionante”). La unidad de control 140 compara la segunda voz de comando reconocido a través de la unidad de ingreso de voz 110 y el módulo de reconocimiento de voz 130k y una segunda voz de comando almacenada previamente en la base de datos de voz 130m. Si la voz es reconocida como un segundo comando como resultado de la comparación, la unidad de control 140 exhibe una tercera respuesta visual (por ejemplo, “usted dijo “Libro electrónico emocionante”" (no se muestra)) correspondiente al segundo comando reconocido en la primera área de visualización de respuesta 7230. La tercera respuesta visual (no se muestra) puede ser proporcionada por un tiempo predeterminado (por ejemplo, 500 mseg). El tiempo predeterminado se puede cambiar a través de la configuración.
La unidad de control 140 puede emitir el segundo comando reconocido al altavoz 161 del aparato electrónico, para de este modo proporcionar una tercera respuesta auditiva (no se muestra) al usuario.
Si la voz no es reconocida como el segundo comando como resultado de la comparación, la unidad de control 140 puede proporcionar una cuarta respuesta visual (por ejemplo, “por favor dígalo de nuevo” (no se muestra)) en la primera área de visualización de respuesta 7230. La unidad de control 140 puede proporcionar una cuarta respuesta auditiva (por ejemplo, “por favor, dígalo de nuevo” (no se muestra)) para reconocer la segunda voz de comando.
Si una pluralidad de nombres de aplicaciones corresponden al segundo comando reconocido, la unidad de control 140 puede exhibir una ventana emergente 7314 de candidatos que muestre la pluralidad de nombres de aplicaciones en elsmart hub7300.
Con referencia a la FIG. 74, si se reconoce un segundo comando (por ejemplo, que incluyen una parte del nombre de la aplicación, “Emocionante”) a través de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k, y la base de datos de voz 130m, la unidad de control 140 exhibe un listado de una pluralidad de aplicaciones correspondientes al segundo comando en la ventana emergente de candidatos 7414. Por ejemplo, la ventana emergente de candidatos 7414 exhibe ® libro electrónico emocionante 7414a y @ festival de tambores emocionante 7414b. Si se exhibe la ventana emergente de candidatos 7414 en elsmart hub7300, se cambia el comando en el área de visualización de comandos/guías 7111 que se exhibe en la porción inferior delsmart hub7300. Por ejemplo, el área de visualización de comandos/guía 7111 exhibe “Diga el número del ítem que desea seleccionar” 7111j en la porción izquierda del área de visualización de modo 7112, y exhibe “Ejemplos > 1, 2 7111k y Retorno 7111i” en la porción derecha. Si se reconoce una voz correspondiente a un número (por ejemplo, “uno”) a través de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m, la unidad de control 140 selecciona ® libro electrónico emocionante 7414a en la ventana emergente de candidatos 7414. La unidad de control 140 puede exhibir el nombre de la aplicación seleccionada en la ventana emergente de candidatos 7414 de forma diferente al nombre de la aplicación no seleccionada.
Además, si se reconoce una voz correspondiente a un nombre completo de una aplicación exhibida en la ventana emergente de candidatos 7414, la unidad de control 140 puede exhibir distintivamente el ® libro electrónico emocionante en la ventana emergente de candidatos 7414.
Con referencia a la FIG. 75, la unidad de control 140 ejecuta la aplicación, Libro electrónico emocionante, correspondiente al segundo comando (por ejemplo, “Libro electrónico emocionante”) reconocida a través de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. La unidad de control 140 exhibe una UI 7500 del Libro electrónico emocionante que se está ejecutando. La unidad de control 140 exhibe la UI 7500 del Libro electrónico emocionante para solaparse en elsmart hub7300. La unidad de control 140 puede exhibir la UI 7500 del Libro electrónico emocionante a tamaño de pantalla completa por medio del reemplazo delsmart hub7300 por la UI 7500.
La UI 7500 del libro electrónico emocionante exhibe iconos ejecutables 7501 a 7504 correspondientes a una pluralidad de libros electrónicos almacenados en la unidad de almacenamiento del aparato electrónico 100 y los nombres 7501a a 7504a de los iconos ejecutables. La unidad de control 140 puede exhibir los nombres 7501a a 7504a de los iconos ejecutables correspondientes a la pluralidad de libros electrónicos de forma distintiva entre sí en función de si se reconoce una voz. Por ejemplo, la unidad de control 140 exhibe el nombre 7501a del icono ejecutable correspondiente al libro electrónico controlable por medio de reconocimiento de voz de forma diferente al nombre 7502a del icono ejecutable correspondiente al libro electrónico no controlable por medio de reconocimiento de voz. Además, la unidad de control 140 o la aplicación (Libro electrónico emocionante) pueden exhibir de forma distintiva un menú controlable por medio de reconocimiento de voz y un menú no controlable por medio de reconocimiento de voz de entre los menús de un área de herramientas (no se muestra) del Libro electrónico emocionante (por ejemplo, un menú “siguiente”, “anterior” o “abrir” (no se muestran)). Distinguir el nombre 7501a del icono ejecutable correspondiente al libro electrónico controlable por medio de reconocimiento de voz por medio del subrayado del nombre y la inserción de una fuente en negrita es sólo un ejemplo. Los expertos ordinarios en la técnica deben entender que el nombre del icono ejecutable correspondiente al libro electrónico se puede exhibir de forma distintiva de diversas maneras en función de si la voz es reconocible, por ejemplo, por medio del cambio del tipo de letra o el color. La unidad de control 140 puede descargar el libro electrónico reconocible por voz desde un servidor externo a través de la unidad de interfaz de red 180.
Si el nombre 7501a del icono ejecutable correspondiente al libro electrónico controlable por medio de reconocimiento de voz se reconoce a través de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m, la unidad de control 140 ejecuta y exhibe el libro electrónico 7501. El usuario puede controlar el libro electrónico que se está exhibiendo por medio de reconocimiento de voz (por ejemplo, por medio del cambio de una página).
La unidad de control 140 reconoce un comando de inicio de movimiento 700 mediante el uso de la unidad de ingreso de movimiento 120, el módulo de reconocimiento de movimiento 130l, y la base de datos de movimiento 130n. Con referencia a la FIG. 76, el comando de inicio de movimiento 7600 es un movimiento de agitar los dedos extendidos del usuario horizontalmente 3 a 4 veces opuesto a la unidad de ingreso de movimiento 120. La unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento, en el que el aparato electrónico 100 es controlable a través del reconocimiento de movimiento, de acuerdo con el comando de inicio de movimiento reconocido. La unidad de control 140 compara el comando de inicio de movimiento reconocido a través de la unidad de ingreso de movimiento 120 y el módulo de reconocimiento de movimiento 13ol y un comando de inicio de movimiento almacenado previamente en la base de datos de movimiento 130n. Si el movimiento se reconoce como el comando de inicio de movimiento como resultado de la comparación, la unidad de control 140 cambia el aparato electrónico 100 del modo de tarea de voz al modo de tarea de movimiento. La base de datos de movimiento 130n puede almacenar un segundo comando correspondiente a un movimiento reconocible a través de la unidad de ingreso de movimiento 120 y el módulo de reconocimiento de movimiento 130l (por ejemplo, un comando correspondiente a “anterior” o un comando correspondiente a “repetición”). La unidad de control 140 puede llevar a cabo una tarea de movimiento del aparato electrónico 100 correspondiente al segundo comando. El comando de inicio de movimiento almacenado previamente en la base de datos de movimiento 130n se puede cambiar a través de la configuración (por ejemplo, se puede añadir, cambiar o borrar).
Elsmart hubexhibe información de asistencia al movimiento y exhibe igualmente un icono ejecutable de una aplicación controlable por medio de reconocimiento de voz y un icono ejecutable de una aplicación no controlable por medio de reconocimiento de voz.
Con referencia a la FIG. 77, la unidad de control 140 exhibe información de asistencia al movimiento 7720 y un cursor 7725 correspondiente al modo de tarea de movimiento en elsmart hub7300. La unidad de control 140 puede superponer la información de asistencia al movimiento 7720 en elsmart hub7300. La unidad de control 140 puede exhibir la información de asistencia al movimiento 7720 en una porción inferior delsmart hub7300. La información de asistencia de movimiento 7720 puede incluir un área de visualización de movimiento/guía 7721, un área de visualización de modo 7722, y un segundo área de visualización de respuesta (no se muestra).
La unidad de control 140 exhibe la información de asistencia al movimiento 7720 en elsmart hub7300 y exhibe igualmente el icono ejecutable de la aplicación controlable por medio de reconocimiento de voz y el icono ejecutable de la aplicación no controlable por medio de reconocimiento de voz.
Con referencia a la FIG. 74, la unidad de control 140 reconoce una tercera voz de comando pronunciada por el usuario (por ejemplo, un nombre completo de una aplicación, “Festival de tambores emocionante”, o una parte del nombre) mediante el uso de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k, y la base de datos de voz 130m. La unidad de control 140 compara el tercer comando reconocido a través de la unidad de ingreso de voz 110 y el módulo de reconocimiento de voz 130k y un tercer comando almacenado previamente en la base de datos de voz 130m. Si la voz es reconocida como el tercer comando como resultado de la comparación, la unidad de control 140 puede exhibir una sexta respuesta visual (por ejemplo, “usted dijo “Festival de tambores emocionante”" (no se muestra)) correspondiente al tercer comando reconocido en la primera área de visualización de respuesta 7413. La sexta respuesta visual (no se muestra) se puede proporcionar durante un tiempo predeterminado (por ejemplo, 500 mseg).
Si el tercer comando no es reconocido, la unidad de control 140 puede exhibir una séptima respuesta visual (por ejemplo, “por favor dígalo de nuevo” (no se muestra)) en la primera área de visualización de respuesta 7413. La unidad de control 140 puede proporcionar una sexta respuesta auditiva (por ejemplo, “por favor, dígalo de nuevo”) para reconocer la tercera voz de comando.
Con referencia a la FIG. 74, si una pluralidad de nombres de aplicaciones corresponden al tercer comando (por ejemplo, que incluyen una parte del nombre de la aplicación a seleccionar, “Emocionante”), la unidad de control 140 puede exhibir la ventana emergente de candidatos 7414 que exhibe la pluralidad de nombres de aplicaciones en elsmart hub7400. Si se reconoce una voz correspondiente a un número (por ejemplo, “dos”) a través de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m, la unidad de control 130 selecciona (2) festival de tambores emocionante 414b en la ventana emergente de candidatos 7414.
Con referencia a la FIG. 78, la unidad de control 140 ejecuta la aplicación, Festival de tambores emocionante, correspondiente al tercer comando (por ejemplo, “Festival de tambores emocionante”) reconocido a través de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. La unidad de control 140 exhibe una UI 7800 del Festival de tambores emocionante que se está ejecutando. La unidad de control 140 puede exhibir la UI 7800 del Festival de tambores emocionante para solaparse en elsmart hub7300. La unidad de control 140 puede exhibir la UI 7800 del Festival de tambores emocionante a tamaño de pantalla completa por medio del reemplazo delsmart hub7300 por la UI 7800.
Los tambores 7801 a 7809 exhibidos en la UI 7800 del festival de tambores Emocionante se pueden reproducir por medio del reconocimiento de la voz de un usuario o un mando a distancia. Los tambores 7801 a 7809 del Festival de tambores emocionante se pueden reproducir por medio del reconocimiento de movimiento (por ejemplo, un movimiento de agarre) en el modo de tarea de movimiento.
La FIG. 79 es un diagrama de flujo que ilustra un procedimiento para exhibir una UI de un aparato electrónico de acuerdo con una realización ejemplar.
El aparato electrónico 100 se enciende en S7901. Por ejemplo, si se pulsa un botón de encendido (no se muestra) situado en el aparato electrónico 100, si se selecciona una tecla de encendido (no se muestra) del aparato electrónico 100 situada en un mando a distancia (por ejemplo, se pulsa una tecla), o si se reconoce una voz del usuario (por ejemplo, “encendido”) a través de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k, y la base de datos de voz 130m del aparato electrónico 100, el aparato electrónico 100 se puede encender.
Se emite una emisión (S7902). Por ejemplo, el aparato electrónico 100 emite una imagen correspondiente a una señal de emisión recibida de la unidad de recepción de emisiones 150, como se muestra en la FIG. 70.
Se reconoce un comando de inicio de voz (S7903). Es decir, el aparato electrónico 100 reconoce un comando de inicio de voz pronunciado por el usuario mediante el uso de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz, en el que el aparato electrónico 100 es controlable a través del reconocimiento de voz, de acuerdo con el comando de inicio de voz reconocido.
Se exhibe un conjunto de comandos (S7904). Por ejemplo, el aparato electrónico 100 exhibe un conjunto de comandos 7110 correspondientes al modo de tarea de voz en la pantalla de visualización 7000 donde se exhibe una imagen, como se muestra en la FIG. 71.
Se reconoce una primera voz de comando (S7905). En concreto, el aparato electrónico 100 reconoce un primer comando vocal (por ejemplo,“smart hub")pronunciada por el usuario por medio de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. Si la voz es reconocida como un primer comando, el aparato electrónico 100 exhibe la primera respuesta visual correspondiente al primer comando reconocido en la primera área de visualización de respuesta 7230 como se muestra en la FIG. 72.
Se exhibe una UI (S7906). Por ejemplo, si se reconoce el primer comando, el aparato electrónico 100 exhibe la pantalla de acción/UI correspondiente, por ejemplo, elsmart hub7300 correspondiente al primer comando, como se muestra en la FIG. 73.
Se reconoce una segunda voz de comando (S7907). En concreto, el aparato electrónico 100 reconoce una segunda voz de comando (por ejemplo, el nombre de una aplicación, “Libro electrónico emocionante” 7371c) pronunciado por el usuario por medio de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. Si una pluralidad de nombres de aplicaciones corresponden al segundo comando reconocido, el aparato electrónico 100 puede exhibir la ventana emergente de candidatos 7414 que exhibe la pluralidad de nombres de aplicaciones, como se muestra en la FIG. 74.
Se ejecuta una primera aplicación (S7908). Por ejemplo, el aparato electrónico 100 ejecuta la aplicación, Libro electrónico emocionante, correspondiente al segundo comando como se muestra en la FIG. 75.
Se reconoce un comando de inicio de movimiento (movimiento de activación) (S7909). Específicamente, el aparato electrónico 100 reconoce un comando de inicio de movimiento 7600 del usuario mediante el uso de la unidad de ingreso de movimiento 120, el módulo de reconocimiento de movimiento 130l y la base de datos de movimiento 130n. Por ejemplo, el comando de inicio de movimiento 7600 es un movimiento de agitar los dedos extendidos del usuario horizontalmente 3 a 4 veces opuesto a la unidad de ingreso de movimiento 120 como se muestra en la FIG. 76.
Los ítems de movimiento se exhiben en unsmart huby se exhiben igualmente un icono ejecutable de una aplicación controlable por medio de reconocimiento de voz y un icono ejecutable de una aplicación no controlable por medio de reconocimiento de voz. Por ejemplo, el aparato electrónico 100 exhibe la información de asistencia al movimiento 7720 y el cursor 7725 correspondientes al modo de tarea de movimiento en elsmart hub7300, como se muestra en la FIG.
77.
Si no se reconoce el segundo comando en la operación S7907, se lleva a cabo la operación S7911.
Se reconoce un tercer comando (S7911). La unidad de control 140 reconoce una tercera voz de comando pronunciada por el usuario mediante el uso de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. Si una pluralidad de nombres de aplicaciones corresponden al tercer comando, la unidad de control 140 puede exhibir la ventana emergente de candidatos 7414 que exhibe la pluralidad de nombres de aplicaciones en elsmart hub500 como se muestra en la FIG. 74.
Se ejecuta una tercera aplicación (S7912). Por ejemplo, el aparato electrónico 100 ejecuta la aplicación, Festival de tambores emocionante, correspondiente al tercer comando reconocido a través de la unidad de ingreso de voz 110, el módulo de reconocimiento de voz 130k, y la base de datos de voz 130m, como se muestra en la FIG. 78.
Si no se reconoce el tercer comando en la operación S7911, la operación finaliza.
La unidad de control 140 puede proporcionar una de una pluralidad de señales de emisión recibidas a través de la unidad de recepción de emisiones 150 y uno de los contenidos almacenados a la unidad de salida de imagen 190 o a la unidad de visualización 193. La unidad de visualización 193 puede exhibir la señal de emisión recibida o el contenido almacenado. El contenido almacenado incluye todos los contenidos que se almacenan en el aparato electrónico 100 de forma permanente, momentánea o temporal. Por ejemplo, el contenido puede almacenase puede almacenar en la unidad de almacenamiento 130 del aparato electrónico 100 de forma permanente hasta que se reciba una solicitud de eliminación por parte del usuario. Además, si una parte de la unidad de almacenamiento 130 del aparato electrónico 100 sirve como memoria intermedia, el contenido se puede almacenar en la unidad de almacenamiento 130 de forma momentánea o temporal. Específicamente, si un ingreso de contenido desde la unidad de ingreso de terminal externo 160 o la unidad de interfaz de red 180 se proporciona a la unidad de salida de imagen 190 o a la unidad de visualización 193 en tiempo real, la unidad de control 140 puede almacenar el contenido en una parte de la unidad de almacenamiento 130 momentánea o temporalmente de forma que una velocidad de ingreso del contenido sea sustancialmente igual a una velocidad de salida del contenido.
La unidad de control 140 puede reconocer un movimiento del usuario mediante el uso del módulo de reconocimiento de movimiento 130l y puede cambiar un estado de la señal de emisión o contenido proporcionado en respuesta al movimiento del usuario reconocido. Si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede controlar un nivel de volumen de la señal de emisión o puede proporcionar otra señal de emisión de entre la pluralidad de señales de emisión en respuesta al movimiento reconocido del usuario. Si la unidad de control 140 proporciona un contenido, la unidad de control 140 puede cambiar al menos parte de la pantalla en la que se exhibe el contenido en respuesta al movimiento reconocido del usuario.
Por ejemplo, si un contenido (por ejemplo, una imagen que incluye una pluralidad de páginas o un documento que incluye una pluralidad de páginas) incluye una pluralidad de páginas y una de la pluralidad de páginas se exhibe en la pantalla, la unidad de control 140 puede cambiar la pantalla en la que se exhibe una de la pluralidad de páginas a una pantalla en la que se exhibe otra página. En particular, la unidad de control 140 puede cambiar la pantalla en la que se exhibe una de la pluralidad de páginas a una pantalla en la que se exhibe una de las páginas situadas en una porción superior, inferior, izquierda o derecha de una página de la pluralidad de páginas en respuesta al movimiento reconocido del usuario.
Como otro ejemplo, si un contenido (por ejemplo, una página web) incluye una página, la unidad de control 140 puede cambiar una pantalla en la que se exhibe una parte de la página a una pantalla en la que se exhibe otra parte de la página.
Además, la unidad de control 140 puede cambiar una pantalla en la que se exhibe un contenido proporcionado (por ejemplo, una imagen o una imagen en movimiento) a una pantalla en la que se exhibe un contenido diferente del contenido.
La unidad de control 140 puede reconocer una voz del usuario mediante el uso del módulo de reconocimiento de voz 130k, y puede proporcionar una de la pluralidad de señales de difusión de acuerdo con la voz del usuario reconocida. Por ejemplo, si se reconoce un identificador de canal a través del módulo de reconocimiento de voz 130k, la unidad de control 140 puede proporcionar una señal de emisión que tenga el identificador de canal reconocido de entre la pluralidad de señales de emisión mediante el uso del módulo de control de canal 130b.
En otra realización ejemplar, la unidad de control 140 puede seleccionar una señal de emisión de entre la pluralidad de señales de emisión en respuesta a un movimiento de usuario reconocido mediante el uso del módulo de reconocimiento de movimiento 130l. La unidad de control 140 puede proporcionar la señal de emisión seleccionada a la unidad de salida de imagen 190 o a la unidad de visualización 193. La unidad de visualización 193 puede exhibir la señal de emisión proporcionada. A continuación, la unidad de control 140 puede dejar de proporcionar la señal de emisión a la unidad de salida de imagen 190 o a la unidad de visualización 193. Por ejemplo, la unidad de control 140 puede dejar de proporcionar la señal de emisión en respuesta a un ingreso de usuario recibida a través del módulo de reconocimiento de movimiento 130l, el módulo de reconocimiento de voz 130k o el mando a distancia. La unidad de control 140 puede proporcionar un contenido almacenado en el aparato electrónico 100.
Cuando la unidad de control 140 proporciona el contenido almacenado a la unidad de visualización 193, la unidad de control 140 puede volver a reconocer un movimiento del usuario que tenga la misma forma que el movimiento del usuario cuando se selecciona una de la pluralidad de señales de emisión. El movimiento de usuario de la misma forma incluye un movimiento de usuario que tiene sustancialmente la misma forma. Por ejemplo, si las formas de los objetos de una pluralidad de movimientos de usuario se consideran iguales, una o más de las siguientes propiedades son sustancialmente iguales: las formas de los objetos se mueven en la misma dirección, y las velocidades de movimiento de las formas de los objetos son superiores a una velocidad predeterminada, la unidad de control 140 puede reconocer la pluralidad de movimientos de usuario como un movimiento de usuario de la misma forma. Por ejemplo, si un movimiento de usuario para seleccionar una señal de emisión y un movimiento de usuario re-reconocido son todos movimientos de palmada y los movimientos de palmada se mueven en la misma dirección, la unidad de control 140 puede reconocer el movimiento de usuario para seleccionar una señal de emisión y el movimiento de usuario re reconocido como un movimiento de usuario de la misma forma. Además, si un movimiento del usuario para seleccionar una señal de emisión es un movimiento de palmada en dirección ascendente y un movimiento del usuario para cambiar al menos parte de una pantalla en la que se exhibe un contenido proporcionado es también un movimiento de palmada en dirección ascendente, la unidad de control 140 puede reconocer esos dos movimientos como un movimiento del usuario de la misma forma.
A continuación, la unidad de control 140 puede cambiar al menos parte de la pantalla donde se exhibe el contenido proporcionado en respuesta al movimiento del usuario re-reconocido.
En otra realización ejemplar, la unidad de control 130 puede proporcionar primeros datos de imagen a la unidad de salida de imagen 190 o a la unidad de visualización 193. La unidad de control 130 puede proporcionar datos de audio para los primeros datos de imagen a la unidad de salida de audio 196. Los primeros datos de imagen pueden ser datos de imagen de una señal de emisión y los datos de audio para los primeros datos de imagen pueden ser datos de audio de la señal de emisión, por ejemplo. La unidad de control 140 puede controlar un nivel de volumen de los datos de audio en respuesta al movimiento reconocido del usuario. Por ejemplo, la unidad de control 140 puede controlar un nivel de volumen de los datos de audio para los primeros datos de imagen. A continuación, la unidad de control 140 puede dejar de proporcionar los datos de la primera imagen y los datos de audio para los datos de la primera imagen y puede proporcionar los datos de la segunda imagen. Los segundos datos de imagen pueden ser datos de imagen de un contenido almacenado en el aparato electrónico 100, por ejemplo. A continuación, la unidad de control 140 puede volver a reconocer un movimiento del usuario sustancialmente igual al del movimiento del usuario reconocido para controlar el nivel de volumen de los datos de audio. La unidad de control 140 puede cambiar al menos parte de la pantalla en la que se exhiben los datos de la segunda imagen en respuesta al movimiento del usuario reconocido de nuevo.
En otra realización ejemplar, la unidad de control 140 puede proporcionar uno de los primeros datos de imagen de entre los datos de imagen proporcionados desde una pluralidad de fuentes, respectivamente, y segundos datos de imagen de entre una pluralidad de datos de imagen proporcionados desde una única fuente a la unidad de salida de imagen 190 o a la unidad de visualización 193. La unidad de visualización 193 exhibe los datos de la primera imagen o los datos de la segunda imagen. Por ejemplo, los primeros datos de imagen de entre los datos de imagen proporcionados por la pluralidad de fuentes, respectivamente, pueden ser datos de imagen de una señal de emisión que se recibe a través de un canal seleccionado por un sintonizador incluido en la unidad de recepción de emisiones 210 de entre los datos de imagen de una pluralidad de señales de emisión recibidas a través de una pluralidad de canales. Por ejemplo, los segundos datos de imagen de entre la pluralidad de datos de imagen proporcionados desde una única fuente pueden ser datos de imagen de un contenido de entre una pluralidad de contenidos proporcionados desde la unidad de almacenamiento 130 del aparato electrónico 100, un aparato externo conectado a la unidad de ingreso de terminal externo 200, o un servidor conectado a la unidad de interfaz de red 180. A continuación, la unidad de control 140 puede reconocer un movimiento del usuario a través del módulo de reconocimiento de movimiento 130l. Si la unidad de control 140 proporciona los primeros datos de imagen, la unidad de control 140 puede proporcionar datos de imagen proporcionados por una fuente diferente de la fuente de los primeros datos de imagen en respuesta al movimiento reconocido del usuario. Si la unidad de control 140 proporciona los datos de la segunda imagen, la unidad de control 140 puede proporcionar datos de imagen diferentes de la segunda imagen de entre la pluralidad de datos de imagen proporcionados desde la fuente única.
En otra realización ejemplar, la unidad de control 140 puede proporcionar a la unidad de salida de imagen 190 o a la unidad de visualización 193 uno de los primeros datos de imagen que se reproducen rápidamente cuando se suministra alimentación al aparato electrónico 100 y los segundos datos de imagen que se reproducen después de que el aparato electrónico 100 entre en un modo tras suministrar alimentación al aparato electrónico 100. La unidad de visualización 193 puede exhibir la primera imagen o los datos de la segunda imagen. Los primeros datos de imagen que se reproducen rápidamente cuando se suministra alimentación al aparato electrónico 100 pueden ser una señal de emisión que se reproduce rápidamente cuando se enciende un televisor, si el aparato electrónico 100 es un televisor, por ejemplo. Los segundos datos de imagen que se reproducen después de que el aparato electrónico 100 entre en un modo tras suministrar alimentación al aparato electrónico 100 pueden ser un contenido que se reproduce después de que un televisor entre en un modo de acuerdo con un ingreso de usuario a través de la unidad de ingreso de voz 110, la unidad de ingreso de movimiento 120 o el mando a distancia después de encender el televisor, si el aparato electrónico es un televisor, por ejemplo. A continuación, si se proporcionan los primeros datos de imagen, la unidad de control 140 puede proporcionar datos de imagen diferentes que se reproducen rápidamente cuando se suministra alimentación (por ejemplo, datos de imagen de una señal de emisión de un canal diferente) en respuesta a un movimiento del usuario reconocido a través del módulo de reconocimiento de movimiento 1301. Si se proporcionan los segundos datos de imagen, la unidad de control 140 puede proporcionar diferentes datos de imagen que se reproducen después de que el aparato electrónico 100 entra en un modo (por ejemplo, datos de imagen de un contenido almacenado en la unidad de almacenamiento 130, o datos de imagen de un contenido recibido de la unidad de ingreso de terminal externo 160 o la unidad de interfaz de red 180) en respuesta al movimiento del usuario reconocido a través del módulo de reconocimiento de movimiento 1301.
En otra realización ejemplar, la unidad de control 140 puede proporcionar una de una pluralidad de imágenes en movimiento o una de una pluralidad de imágenes a la unidad de salida de imagen 190 o a la unidad de visualización 193. La unidad de visualización 193 puede exhibir la imagen en movimiento o la imagen. Por ejemplo, una de la pluralidad de imágenes en movimiento puede indicar una imagen que cambia con el tiempo como una de una pluralidad de señales de emisión. Además, una de la pluralidad de imágenes puede ser una de una pluralidad de imágenes almacenadas. A continuación, si se proporciona la imagen en movimiento, la unidad de control 140 puede proporcionar una imagen en movimiento que sea diferente de la imagen en movimiento proporcionada de entre la pluralidad de imágenes en movimiento (por ejemplo, una señal de emisión de un canal diferente) en respuesta a un movimiento del usuario reconocido a través del módulo de reconocimiento de movimiento 1301. Si se proporciona la imagen, la unidad de control 140 puede proporcionar una imagen que sea diferente de la imagen proporcionada de entre la pluralidad de imágenes en respuesta al movimiento del usuario reconocido a través del módulo de reconocimiento de movimiento 1031.
En adelante en la presente memoria, una pantalla que es cambiada en respuesta a un movimiento del usuario será explicada con referencia a las FIGS. 80 a 91.
Las FIGS. 80 y 81 son vistas que ilustran una pantalla que se cambia en respuesta a un movimiento del usuario en dirección ascendente de acuerdo con diversas realizaciones ejemplares.
En la FIG. 80, la unidad de control 140 puede reconocer un movimiento de palmada en dirección ascendente como un movimiento del usuario. Con referencia a 8010 y 8020 de la FIG. 80, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede dejar de proporcionar la señal de emisión en una pantalla y puede proporcionar una señal de emisión cuyo número de canal se incremente a partir de un número de canal de la señal de emisión detenida en respuesta al movimiento de palmada en dirección ascendente. Por ejemplo, una señal de emisión con el número de canal “7” se cambia a una señal de emisión con el número de canal “8”. Con referencia a 8030 y 8040 de la FIG. 80, si la unidad de control 140 proporciona un contenido que incluye una pluralidad de páginas, la unidad de control 140 puede cambiar una pantalla en la que se exhibe una de las páginas de la pluralidad a una pantalla en la que se exhibe una página situada debajo de la página de la pluralidad de páginas en respuesta al movimiento de palmada en dirección ascendente. Por ejemplo, la pantalla donde se exhibe la segunda página como en 8030 se puede cambiar a la pantalla donde se exhibe la tercera página como en 8040.
En la FIG. 81, la unidad de control 140 puede reconocer un movimiento de palmada en dirección ascendente como un movimiento del usuario. Con referencia a 8110 y 8120 de la FIG. 81, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 deja de proporcionar la señal de emisión en una pantalla y puede proporcionar una señal de emisión cuyo número de canal se incrementa a partir de un número de canal de la señal de emisión detenida en respuesta al movimiento de palmada en dirección ascendente. Con referencia a 8130 y 8140 de la FIG.
81, si la unidad de control 140 proporciona un contenido que incluye una página, la unidad de control 140 puede cambiar una parte de la página en la pantalla por otra parte situada debajo de la parte de la página en respuesta al movimiento de palmada en dirección ascendente.
Las FIGS. 82 y 83 son vistas que ilustran una pantalla que cambia en respuesta a un movimiento del usuario en dirección hacia abajo de acuerdo diversas realizaciones ejemplares.
En la FIG. 82, la unidad de control 140 puede reconocer un movimiento de palmada en dirección descendente como un movimiento del usuario. Con referencia 8210 a 8220 de la FIG. 82, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 deja de proporcionar la señal de emisión en una pantalla y puede proporcionar una señal de emisión cuyo número de canal disminuya a partir de un número de canal de la señal de emisión detenida en respuesta al movimiento de palmada en dirección descendente. Por ejemplo, una señal de emisión con el número de canal “8” se cambia a una señal de emisión con el número de canal “7”. Con referencia a 8230 y 8240 de la FIG. 82, si la unidad de control 140 proporciona un contenido que incluye una pluralidad de páginas, la unidad de control 140 puede cambiar una pantalla en la que se exhibe una de la pluralidad de páginas a una pantalla en la que se exhibe una página situada por encima de la página de la pluralidad de páginas en respuesta al movimiento de palmada en la dirección descendente. Por ejemplo, la pantalla donde se exhibe la segunda página como en 8230 se puede cambiar a la pantalla donde se exhibe la primera página como en 8240.
En la FIG. 83, la unidad de control 140 puede reconocer un movimiento de palmada en dirección descendente como un movimiento del usuario. Con referencia a 8310 y 8320 de la FIG. 83, si la unidad de control 140 puede proporcionar una señal de emisión, la unidad de control 140 deja de proporcionar la señal de emisión en una pantalla y puede proporcionar una señal de emisión para un número de canal que disminuye desde un número de canal de la señal de emisión detenida en respuesta al movimiento de palmada en la dirección descendente. Con referencia a 8330 y 8340, si la unidad de control 140 proporciona un contenido que incluye una página, la unidad de control 140 puede cambiar una parte de la página en la pantalla a otra parte situada por encima de la parte de la página en respuesta al movimiento de palmada en la dirección hacia abajo.
Las FIGS. 84 a 87 son vistas que ilustran una pantalla que cambia en respuesta a un movimiento del usuario en dirección hacia la izquierda de acuerdo con diversas realizaciones ejemplares.
En la FIG. 84, la unidad de control 140 puede reconocer un movimiento de palmada en dirección a la izquierda como un movimiento del usuario. Con referencia a 8410 y 8420, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede reducir un nivel de volumen de la señal de emisión que se proporciona en respuesta al movimiento de palmada en la dirección hacia la izquierda. Por ejemplo, el nivel de volumen de la señal de emisión se puede reducir de “14” a “13”. Con referencia a 8430 y 8440, si la unidad de control 120 proporciona un contenido que incluye una pluralidad de páginas, la unidad de control 140 puede cambiar una pantalla en la que se exhibe una de la pluralidad de páginas a una pantalla en la que se exhibe una página situada en la porción derecha de la única página de la pluralidad de páginas en respuesta al movimiento de palmada en la dirección hacia la izquierda. Por ejemplo, la pantalla donde se exhibe la segunda página como en 8430 se puede cambiar a la pantalla donde se exhibe la tercera página como en 8440.
En la FIG. 85, la unidad de control 140 puede reconocer un movimiento de palmada en dirección a la izquierda como un movimiento del usuario. Con referencia a 8510 a 8520 de la FIG. 85, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede reducir un nivel de volumen de la señal de emisión que se proporciona en respuesta al movimiento de palmada en la dirección hacia la izquierda. Con referencia a 8530 y 8540 de la FIG.
85, si la unidad de control 140 proporciona un contenido que incluye una página, la unidad de control 140 puede cambiar una pantalla en la que se exhibe una parte de la única página a una pantalla en la que se exhibe otra parte situada en la porción derecha de la parte en respuesta a un comando de movimiento, por ejemplo, el movimiento de palmada en la dirección hacia la izquierda.
En la FIG. 86, la unidad de control 140 puede reconocer un movimiento de palmada en dirección a la izquierda como un movimiento del usuario. Con referencia a 8610 y 8620 de la FIG. 86, si la unidad de control proporciona una señal de emisión, la unidad de control 140 puede reducir un nivel de volumen de la señal de emisión que se proporciona en respuesta al movimiento de palmada en la dirección hacia la izquierda. Con referencia a 8630 y 8640 de la FIG. 86, la unidad de control 140 puede cambiar una pantalla en la que se exhibe un segundo contenido a una pantalla en la que se exhibe un tercer contenido, que está situado después del segundo contenido, en respuesta al movimiento de palmada en la dirección hacia la izquierda. De este modo, el contenido adicional se exhibe en respuesta al movimiento detectado.
En la FIG. 87, la unidad de control 140 puede reconocer un movimiento de palmada en dirección a la izquierda como un movimiento del usuario. Con referencia a 8710 y 8720 de la FIG. 87, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede reducir un nivel de volumen de la señal de emisión que se proporciona en respuesta al movimiento de palmada en la dirección hacia la izquierda. Con referencia a 8730 y 8740 de la FIG.
87, si la unidad de control 140 proporciona al menos un contenido en una primera área 8731 y una segunda área 8735 en una pantalla, respectivamente, la unidad de control 140 puede eliminar un contenido 8751 de la segunda área 8735 y en su lugar puede exhibir un contenido diferente 8752 en la segunda área 8735 en respuesta al movimiento detectado, por ejemplo, el movimiento de palmada en la dirección hacia la izquierda.
En la FIG. 88, la unidad de control 140 puede reconocer un movimiento de palmada en dirección a la derecha como un movimiento del usuario. Con referencia a 8810 y 8820 de la FIG. 88, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede aumentar un nivel de volumen de la señal de emisión que se proporciona en respuesta al movimiento de palmada en la dirección hacia la derecha. Por ejemplo, el nivel de volumen de la señal de emisión puede aumentar de “14” a “15”. Con referencia a 8830 a 8840 de la FIG. 88, si la unidad de control 140 proporciona un contenido que incluye una pluralidad de páginas, la unidad de control 140 puede cambiar una pantalla en la que se exhibe una de la pluralidad de páginas a una pantalla en la que se exhibe una página situada en la porción izquierda de la única página de la pluralidad de páginas en respuesta al movimiento de palmada en la dirección hacia la derecha. Por ejemplo, la pantalla donde se exhibe la segunda página como en 8830 se puede cambiar a la pantalla donde se exhibe la primera página como en 8840.
En la FIG. 89, la unidad de control 140 puede reconocer un movimiento de palmada en dirección a la derecha como un movimiento del usuario. Con referencia a 8910 y 8920 de la FIG. 89, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede aumentar un nivel de volumen de la señal de emisión que se proporciona en respuesta al movimiento de palmada en la dirección hacia la derecha. Con referencia a 8930 y 8940 de la FIG. 89, si la unidad de control 140 proporciona un contenido que incluye una página, la unidad de control 140 puede cambiar una pantalla en la que se exhibe una parte de la página a una pantalla en la que se exhibe otra parte situada en la porción izquierda de la parte en respuesta al movimiento de palmada en la dirección hacia la derecha.
En la FIG. 90, la unidad de control 140 puede reconocer un movimiento de palmada en dirección a la derecha como un movimiento del usuario. Con referencia a 9010 a 9020 de la FIG. 90, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede aumentar un nivel de volumen de la señal de emisión que se proporciona en respuesta al movimiento de palmada en la dirección hacia la derecha. Con referencia a 9030 y 9040 de la FIG. 90, si la unidad de control 140 proporciona un segundo contenido, la unidad de control 140 puede cambiar una pantalla en la que se exhibe el segundo contenido a una pantalla en la que se exhibe un primer contenido, que se encuentra antes del segundo contenido, en respuesta al movimiento de palmada en la dirección hacia la derecha.
En la FIG. 91, la unidad de control 140 puede reconocer un movimiento de palmada en dirección a la derecha como un movimiento del usuario. Con referencia a 9110 y 9120 de la FIG. 91, si la unidad de control 140 proporciona una señal de emisión, la unidad de control 140 puede aumentar un nivel de volumen de la señal de emisión que se proporciona en respuesta al movimiento de palmada en la dirección hacia la derecha. Con referencia a 9130 y 9140 de la FIG. 91, si la unidad de control 140 proporciona al menos un contenido en una primera área 9131 y una segunda área 9135 en una pantalla, respectivamente, la unidad de control 140 puede eliminar un contenido 9151 de la segunda área 9135 y en su lugar puede exhibir un contenido diferente 9152 en la segunda área 9135 en respuesta al movimiento detectado, por ejemplo, el movimiento de palmada en la dirección hacia la derecha.
Las FIGS. 92 y 93 son diagramas de flujo que ilustran un procedimiento de control de un aparato electrónico que cambia una pantalla en respuesta a un movimiento del usuario de acuerdo con diversas realizaciones ejemplares.
Con referencia a la FIG. 92, el aparato electrónico 100 selecciona una señal de emisión de entre una pluralidad de señales de emisión en respuesta a un movimiento de usuario reconocido (S9212). El movimiento reconocido del usuario puede ser ingresado a través de la unidad de ingreso de movimiento 120 y puede ser reconocido por el módulo de reconocimiento de movimiento 130l. El aparato electrónico 100 proporciona la señal de emisión seleccionada (S9214). La señal de emisión se puede proporcionar a la unidad de salida de imagen 190 o a la unidad de visualización 193. Entonces, en el caso de que el aparato electrónico 100 deje de proporcionar la señal de emisión seleccionada y proporcione un contenido almacenado (S9216), el aparato electrónico 100 puede volver a reconocer un movimiento de usuario que tenga sustancialmente la misma forma que la del movimiento de usuario reconocido (S9218). El contenido almacenado puede ser un contenido almacenado en la unidad de almacenamiento 130 o recibido desde la unidad de ingreso de terminal externo 160 o la interfaz de red 180. El movimiento del usuario re-reconocido puede ser ingresado a través de la unidad de ingreso de movimiento 120 y puede ser reconocido por el módulo de reconocimiento de movimiento 1301. En respuesta al movimiento del usuario re-reconocido, el aparato electrónico 100 puede cambiar al menos parte de una pantalla donde se exhibe el contenido proporcionado (S9220).
Con referencia a la FIG. 93, el aparato electrónico 100 proporciona una señal de emisión de entre una pluralidad de señales de emisión y un contenido almacenado (S9312). El aparato electrónico 100 reconoce un movimiento del usuario a través del módulo de reconocimiento de movimiento 130l (S9314). El aparato electrónico 100 puede determinar si la señal proporcionada es una señal de emisión o un contenido en respuesta al movimiento del usuario (S9316). Si se proporciona la señal de emisión, el aparato electrónico 100 puede controlar un nivel de volumen de la señal de emisión o proporcionar otra señal de emisión de entre la pluralidad de señales de emisión (S9318). Si se proporciona el contenido, el aparato electrónico 100 cambia al menos parte de una pantalla en la que se exhibe el contenido proporcionado (S9320).
Como se ha descrito anteriormente, el usuario puede controlar el aparato electrónico 100 de manera más eficiente e intuitiva mediante el uso del movimiento del usuario.
La unidad de control 140 controla el aparato electrónico 100 de acuerdo con una señal de control remoto recibida de la unidad de recepción de señales de control remoto 170, un ingreso de voz del usuario a través de la unidad de ingreso de voz 110, y un ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120. El mando a distancia descrito en la presente memoria puede ser un mando a distancia general, pero esto no se debe considerar una limitación. El mando a distancia puede ser un mando a distancia que incluya un panel táctil.
Específicamente, si se reconoce un ingreso de comando de inicio de voz a través de la unidad de ingreso de voz 110 en un modo de control remoto, en el que el aparato electrónico 100 se controla de acuerdo con una señal de control remoto recibida en la unidad de recepción de señal de control remoto 170, la unidad de control 140 cambia un modo a un modo de tarea de voz para llevar a cabo una tarea de voz que se controla por medio de un ingreso de voz del usuario a través de la unidad de ingreso de voz 110.
Si el modo se cambia al modo de tarea de voz, la unidad de control 140 puede controlar la unidad de visualización 193 para que muestre un icono que indique que el modo del aparato electrónico 100 es el modo de tarea de voz, e información de asistencia de voz que incluya un ítem de voz que guíe una tarea de voz.
Si se selecciona un primer botón de entre los botones del mando a distancia para cambiar al modo de control remoto en el modo de tarea de voz, la unidad de recepción de señales de control remoto 170 recibe una primera señal de control remoto correspondiente al primer botón. La unidad de control 140 cambia el modo del aparato electrónico 100 al modo de control remoto, en el que el aparato electrónico 100 es controlado por el mando a distancia, en respuesta a la primera señal de control remoto. El primer botón puede ser un botón de cambio de modo de control remoto para cambiar el modo al modo de control remoto. Sin embargo, esto es sólo un ejemplo y el primer botón puede ser un botón determinado de entre los botones del mando a distancia. Si el primer botón es un botón determinado, la unidad de control 140 cambia el modo al modo de control remoto al recibir la primera señal de control remoto correspondiente al primer botón y, a continuación, lleva a cabo una tarea correspondiente al primer botón. Por ejemplo, si el primer botón es un botón de silencio, la unidad de control 140 cambia el modo de la tarea de voz al modo de control remoto y, a continuación, lleva a cabo el silencio.
Si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 en el modo de tarea de voz, la unidad de control 140 reconoce el comando de inicio de movimiento mediante el uso del módulo de reconocimiento de movimiento 1301. Si se reconoce el comando de inicio de movimiento, la unidad de control 140 cambia el modo del aparato electrónico 100 a un modo de tarea de movimiento en el que el aparato electrónico 100 es controlado por un ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120.
Si el ingreso de comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 es reconocida en el modo de control remoto, en el cual el aparato electrónico 100 es controlado de acuerdo con una señal de control remoto recibida en la unidad de recepción de señal de control remoto 170, la unidad de control 140 cambia el modo al modo de tarea de movimiento para llevar a cabo una tarea de movimiento que es controlada por un ingreso de movimiento de usuario a través de la unidad de ingreso de movimiento 120.
Si el modo se cambia al modo de tarea de movimiento, la unidad de control 140 puede controlar la unidad de visualización 193 para que muestre un icono que indique que el modo del aparato electrónico 100 es el modo de tarea de movimiento, e información de asistencia al movimiento que incluya un ítem de movimiento que guíe una tarea de movimiento.
Si se selecciona un primer botón de entre los botones del mando a distancia para cambiar al modo de control remoto en el modo de tarea de movimiento, la unidad de recepción de señales de control remoto 170 recibe una primera señal de control remoto correspondiente al primer botón. La unidad de control 140 cambia el modo del aparato electrónico 100 al modo de control remoto en el que el aparato electrónico 100 es controlado por el mando a distancia en respuesta a la primera señal de control remoto. El primer botón puede ser un botón de cambio de modo de control remoto para cambiar al modo de control remoto. Sin embargo, esto es sólo un ejemplo y el primer botón puede ser un botón determinado de entre los botones del mando a distancia. Si el primer botón es un botón determinado, la unidad de control 140 cambia el modo al modo de control remoto al recibir la primera señal de control remoto correspondiente al primer botón, y posteriormente lleva a cabo una tarea correspondiente al primer botón. Por ejemplo, si el primer botón es un botón de silencio, la unidad de control 140 cambia el modo del aparato electrónico 100 del modo de tarea de voz al modo de control remoto y, a continuación, lleva a cabo el silencio.
Si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110 en el modo de tarea de movimiento, la unidad de control 140 reconoce el comando de inicio de voz mediante el uso del módulo de reconocimiento de voz 130k. Si se reconoce el comando de inicio de voz, la unidad de control 140 puede cambiar el modo del aparato electrónico 100 al modo de tarea de voz en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110.
En adelante en la presente memoria, se explicará un procedimiento para cambiar a un modo de control remoto, un modo de tarea de movimiento y un modo de tarea de voz de acuerdo con una realización ejemplar con referencia a las FIGS. 94 a 97.
Específicamente, después de que el aparato electrónico 100 es encendido, la unidad de control 140 es generalmente operada en un modo de control remoto en el cual el aparato electrónico 100 es controlado por una señal de control remoto. En el modo de control remoto, no se exhibe una UI independiente, como se muestra en la FIG. 94. Sin embargo, esto es meramente un ejemplo y la unidad de control 140 puede exhibir una IU que indica el modo de control remoto en el modo de control remoto.
Si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110 en el modo de control remoto, la unidad de control 140 reconoce el comando de inicio de voz y cambia el modo del aparato electrónico 100 a un modo de tarea de voz, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110. Cuando se cambia al modo de tarea de voz, la unidad de control 140 puede exhibir información de asistencia de voz como se muestra en la FIG. 95.
Si se selecciona un primer botón de un mando a distancia en el modo de tarea de voz, la unidad de control 110 recibe una primera señales de control remoto correspondiente al primer botón a través de la unidad de recepción de señales de control remoto 170, y cambia de nuevo el modo del aparato electrónico 100 al modo de mando a distancia, como se muestra en la FIG. 94. El primer botón del mando a distancia puede ser un botón de cambio de modo de control remoto. Sin embargo, esto es sólo un ejemplo y el primer botón puede ser un botón determinado del mando a distancia.
Si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 en el modo de tarea de voz, la unidad de control 140 reconoce el comando de inicio de movimiento y cambia el modo del aparato electrónico 100 a un modo de tarea de movimiento, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120. La unidad de control 140 reconoce el comando de inicio de movimiento y cambia el modo del aparato electrónico 100 a un modo de tarea de movimiento. Cuando se cambia al modo de tarea de movimiento, la unidad de control 140 puede exhibir información de asistencia de movimiento 3310 como se muestra en la FIG. 96.
Si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 en el modo de control remoto, la unidad de control 140 reconoce el comando de inicio de movimiento y cambia el modo del aparato electrónico 100 al modo de tarea de movimiento en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120. Cuando se cambia al modo de tarea de movimiento, la unidad de control 140 puede exhibir la información de asistencia de movimiento 3310 como se muestra en la FIG. 96.
Si se selecciona un primer botón del mando a distancia en el modo de tarea de movimiento, la unidad de control 140 recibe una primera señales de control remoto correspondiente al primer botón a través de la unidad de recepción de señales de control remoto 170 y cambia de nuevo el modo del aparato electrónico 100 al modo de mando a distancia, como se muestra en la FIG. 94. El primer botón del mando a distancia puede ser un botón de cambio de modo de control remoto. Sin embargo, esto es sólo un ejemplo y el primer botón puede ser un botón determinado del mando a distancia.
Si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110 en el modo de tarea de movimiento, la unidad de control 140 reconoce el comando de inicio de voz y cambia el modo del aparato electrónico 100 al modo de tarea de voz en el que el aparato electrónico se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110. Cuando se cambia al modo de tarea de voz, la unidad de control 140 puede exhibir información de asistencia de voz como se muestra en la FIG. 95.
Como se ha descrito anteriormente, el aparato electrónico 100 puede cambiase puede cambiar al modo de control remoto, al modo de tarea de voz y al modo de tarea de movimiento mediante el uso de la señal de control remoto, el comando de inicio de voz y el comando de inicio de movimiento, respectivamente.
La FIG. 97 es un diagrama de flujo para explicar un procedimiento para cambiar a un modo de control remoto, un modo de tarea de movimiento y un modo de tarea de voz de acuerdo con una realización ejemplar.
El aparato electrónico 100 se enciende y, a continuación, entra en un modo de control remoto en el que el aparato electrónico 100 se controla por medio de un mando a distancia (S9710).
El aparato electrónico 100 permanece en el modo de control remoto (S9710) a menos que se ingrese un comando de inicio de voz o un comando de inicio de movimiento.
El aparato electrónico 100 determina si se ingresa o no un comando de inicio de voz (S9720). Si se ingresa un comando de inicio de voz (S9720-Y), el aparato electrónico 100 cambia el modo del aparato electrónico 100 a un modo de tarea de voz, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110 (S9730). Al entrar en el modo de tarea de voz, el aparato electrónico 100 puede exhibir información de asistencia de voz como se muestra en la FIG. 95.
El aparato electrónico 100 determina si se ingresa o no un comando de inicio de movimiento (S9740). Si se ingresa un comando de inicio de movimiento en el modo de tarea de voz (S9740-Y), el aparato electrónico 100 cambia el modo del aparato electrónico 100 a un modo de tarea de movimiento, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120 (S9750).
Si el aparato electrónico 100 está en el modo de tarea de voz o en el modo de tarea de movimiento, la unidad de control 140 determina si volver o no al modo de control remoto (S9760). Como se ha descrito anteriormente, la unidad de control 140 puede volver al modo de control remoto si se reconoce un comando de inicio para volver al modo de control remoto o un comando de cancelación de modo. Además, si el aparato electrónico 100 está en modo de tarea de voz, la unidad de control 140 puede volver automáticamente al modo de control remoto si no se reconoce ninguna voz durante un tiempo predeterminado (por ejemplo, 5 minutos). Del mismo modo, si el aparato electrónico 100 está en un modo de tarea de movimiento, la unidad de control 140 puede volver automáticamente al modo de control remoto si no se reconoce ningún movimiento durante un tiempo predeterminado (por ejemplo, 5 minutos).
Como se muestra en la FIG. 97, el aparato electrónico 100 funciona en el modo de control remoto (S9710), el modo de tarea de voz (S9730) y el modo de tarea de movimiento (S9750). En los tres modos, la unidad de control 140 determina si cambiar al modo de tarea de voz (S9720-Y), si cambiar al modo de tarea de movimiento (S9740-Y), si cambiar al modo de control remoto (S9760-Y) o si permanecer en el modo actual (S9720-N, S9740-N, S9760-N). Aunque en el procedimiento en la FIG. 97 se ha descrito, esto es meramente un ejemplo y la idea técnica de la presente divulgación se puede aplicar a cualquier procedimiento para cambiar de/a el modo de control remoto, el modo de tarea de voz y el modo de tarea de movimiento.
Como se ha descrito anteriormente, el modo del aparato electrónico 100 se cambia al modo de control remoto, al modo de tarea de voz y al modo de tarea de movimiento de forma que el usuario pueda controlar el aparato electrónico 100 de acuerdo con un modo deseado por el usuario.
La unidad de control 140 puede controlar el aparato electrónico 100 por medio de reconocimiento de voz mediante el uso de un dispositivo móvil externo.
Específicamente, si se ingresa una voz del usuario a través de un micrófono incluido en un dispositivo móvil externo, la unidad de control 140 recibe el ingreso de la voz del usuario a través de la unidad de ingreso de voz 110, reconoce la voz del usuario ingresada y lleva a cabo una tarea de voz del aparato electrónico 100 de acuerdo con la voz del usuario reconocida. El dispositivo móvil puede ser, entre otros, un mando a distancia, un teléfono móvil, un asistente digital personal (PDA) y un ordenador portátil. La unidad de ingreso de voz 110 puede ser una unidad de comunicación para recibir una señal de voz del usuario desde el dispositivo móvil externo.
Se ejecuta una aplicación de reconocimiento de voz en el dispositivo móvil externo y se ingresa una voz del usuario. Si el dispositivo móvil reconoce la voz del usuario, genera una señal de control correspondiente a la voz del usuario y, a continuación, transmite la señal de control al aparato electrónico 100, la unidad de control 140 puede llevar a cabo una tarea de voz del aparato electrónico 100 de acuerdo con la señal de control ingresada desde el dispositivo móvil.
Si se ejecuta una aplicación de reconocimiento de voz en el dispositivo móvil y se ingresa una voz del usuario en el micrófono incluido en el dispositivo móvil, la unidad de control 140 reconoce la voz del usuario ingresada y lleva a cabo una tarea de voz del aparato electrónico 100 de acuerdo con la voz del usuario.
Si se selecciona un primer botón incluido en el dispositivo móvil después de que se haya ejecutado la aplicación para el reconocimiento de voz en el dispositivo móvil, la unidad de control 140 recibe una primera señal correspondiente al primer botón a través de una unidad de comunicación (no se muestra) y cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a la primera señal. El modo de tarea de voz que se cambia por medio de la selección del primer botón incluido en el dispositivo móvil es un modo en el que se lleva a cabo una tarea de voz de acuerdo con un ingreso de voz del usuario desde el micrófono incluido en el dispositivo móvil. El modo de tarea de voz que se cambia por medio de la selección del primer botón incluido en el dispositivo móvil se puede liberar si se selecciona uno de los dos botones del dispositivo móvil. El primer botón y el segundo botón pueden ser un botón físico incluido en el dispositivo móvil. Sin embargo, esto es meramente un ejemplo y el primer botón y el segundo botón puede ser una UI que se exhibe en el dispositivo móvil después de la aplicación para el reconocimiento de voz se ha ejecutado.
La unidad de control 140 puede recibir el ingreso de la voz de un usuario desde el dispositivo móvil, mientras el segundo botón del dispositivo móvil está seleccionado en el modo de tarea de voz. La unidad de control 140 puede exhibir una UI que indique que se puede ingresar una voz del usuario en el dispositivo móvil, mientras se selecciona el segundo botón del dispositivo móvil. En consecuencia, el usuario puede saber que es posible ingresar una voz a través de la UI exhibida en el dispositivo móvil.
Si se ingresa una voz del usuario en el dispositivo móvil, la unidad de control 140 no recibe una voz del usuario a través de un micrófono incluido en el aparato electrónico 100.
El micrófono incluido en el dispositivo móvil se puede usar cuando el dispositivo móvil lleva a cabo una llamada telefónica. Es decir, si el dispositivo móvil lleva a cabo una función de llamada telefónica general, el micrófono recibe el ingreso de una voz para una llamada telefónica del usuario. Si el dispositivo móvil ejecuta una aplicación para el reconocimiento de voz, el dispositivo móvil puede recibir el ingreso de una voz para controlar el aparato electrónico 100 desde el usuario.
La FIG. 98 es un diagrama de flujo para explicar un procedimiento para reconocer la voz de un usuario mediante el uso de un dispositivo móvil externo de acuerdo con una realización ejemplar.
El dispositivo móvil ejecuta una aplicación para el ingreso de voz (S9810). El dispositivo móvil puede ser un teléfono móvil.
Una vez ejecutada la aplicación para el ingreso de voz en el dispositivo móvil, éste recibe el ingreso de voz de un usuario a través de un micrófono incluido en el dispositivo móvil (S9820). El micrófono incluido en el dispositivo móvil puede ser un micrófono para llevar a cabo una llamada telefónica.
El aparato electrónico 100 recibe el ingreso de voz del usuario al dispositivo móvil externo desde el dispositivo móvil (9830).
Si la voz del usuario se recibe desde el dispositivo móvil, el aparato electrónico 100 reconoce la voz del usuario mediante el uso del módulo de reconocimiento de voz 130k (S9840).
El aparato electrónico 100 lleva a cabo una tarea de voz de acuerdo con la voz del usuario reconocida mediante el uso de la base de datos de voz (S9850).
En la forma de realización ejemplar anterior, el dispositivo móvil recibe el ingreso de la voz del usuario y transmite la voz del usuario al aparato electrónico 100. Sin embargo, esto es simplemente un ejemplo y el dispositivo móvil puede reconocer directamente la voz del usuario, puede generar una señal de control correspondiente a la voz del usuario y, a continuación, puede transmitir la señal de control al aparato electrónico 100.
Como se ha descrito anteriormente, la tarea de voz del aparato electrónico 100 se lleva a cabo mediante el uso del dispositivo móvil, tal como un teléfono móvil, de forma que el usuario pueda controlar el aparato electrónico más fácilmente mediante el uso del reconocimiento de voz.
De acuerdo con una realización ejemplar, el modo de tarea de movimiento puede ser uno de un modo de movimiento y un modo de apuntar de acuerdo con si se necesita un puntero para llevar a cabo una tarea. Específicamente, el modo de movimiento es un modo en el que una tarea para cambiar la configuración del aparato electrónico 100 se controla de acuerdo con un movimiento preestablecido (por ejemplo, un movimiento de palmada hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha, un movimiento de agarre o un movimiento de rotación en sentido contrario a las agujas del reloj). Por ejemplo, si se ingresa un comando de inicio de movimiento mientras el aparato electrónico 100 lleva a cabo una función de recepción de emisiones, la unidad de control 140 puede cambiar un modo del aparato electrónico 100 al modo de movimiento. En consecuencia, el aparato electrónico 100 puede llevar a cabo una tarea tal como el control de volumen o el cambio de canal en respuesta a un movimiento del usuario que coincida con un movimiento preestablecido.
El modo de apuntar es un modo en el que se usa un puntero para llevar a cabo una tarea. Por ejemplo, si se ingresa un comando de inicio de movimiento cuando el aparato electrónico 100 exhibe uno de los listados que incluyen una pluralidad de ítems seleccionables (por ejemplo, un listado de contenidos, un listado de canales, una guía electrónica de programas o EPG, y una página web), la unidad de control 140 puede cambiar un modo del aparato electrónico 100 al modo de apuntar. En el modo de apuntar, la unidad de control 140 exhibe un puntero en el centro de una pantalla de visualización. El puntero puede aparecer en una posición superior del centro de la pantalla de visualización debido a la presencia de información de asistencia al movimiento.
A continuación se explicará con más detalle el modo de apuntar.
Si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 mientras el aparato electrónico 100 exhibe uno de un listado de contenido que incluye una pluralidad de iconos ejecutables para ejecutar aplicaciones (por ejemplo, unsmart hub)y una página web, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de apuntar y exhibe un puntero en un centro de la pantalla de visualización.
En el modo de apuntar, el aparato electrónico 100 puede exhibir información de asistencia al movimiento para llevar a cabo una tarea de movimiento en una porción inferior de la pantalla de visualización. La información de asistencia al movimiento exhibida puede ser diferente de la información de asistencia al movimiento del modo de movimiento.
Si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 mientras el aparato electrónico 100 exhibe un listado de contenidos, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de apuntar. En el modo de apuntar, si el puntero se sitúa en un primer icono ejecutable del listado de contenidos de acuerdo con un ingreso de movimiento del usuario en la unidad de ingreso de movimiento 120, la unidad de control 140 exhibe el primer icono ejecutable de forma diferenciada de otros iconos ejecutables. Si se ingresa un comando para finalizar una pantalla del listado de contenidos en el modo de apuntar, la unidad de control 140 puede eliminar no sólo el listado de contenidos, sino también el puntero de la pantalla de visualización.
Si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 mientras el aparato electrónico 100 exhibe una página web, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de apuntar. La página web puede incluir una pluralidad de hipervínculos. En el modo de apuntar, si el puntero se sitúa en un primer hipervínculo de la página web de acuerdo con un ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120, la unidad de control 140 exhibe el primer hipervínculo de forma diferenciada de otros hipervínculos. Si el puntero se encuentra en el primer hipervínculo y se ingresa un primer movimiento del usuario (por ejemplo, un movimiento de agarre) a través de la unidad de ingreso de movimiento 120, la unidad de control 140 ejecuta el primer hipervínculo.
En adelante en la presente memoria, el modo de apuntar se explicará en más detalle con referencia a las FIGS. 99 a 103.
Si se exhibe un listado de contenido que incluye iconos ejecutables para ejecutar aplicaciones como se muestra en la FIG. 99 y se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120, la unidad de control 140 puede exhibir información de asistencia al movimiento y un puntero 10010 como se muestra en la FIG. 100. El puntero 10010 se puede exhibir en el centro de una pantalla de visualización.
Si se ingresa un movimiento en dirección izquierda-abajo a través de la unidad de ingreso de movimiento 120 para colocar el puntero 10010 en el icono ejecutable “APP<2>”, la unidad de control 140 coloca el puntero 10010 en el icono ejecutable “APP<2>”. Si el puntero 10010 se sitúa en el icono ejecutable “APP<2>”, la unidad de control 140 resalta el icono ejecutable “APP<2>” y un nombre del icono ejecutable más grueso que otros iconos, como se muestra en la FIG. 101.
Si el puntero 10010 está localizado en el icono ejecutable “APP<2>” y un primer movimiento de usuario (por ejemplo, un movimiento de agarre) es ingresado a través de la unidad de ingreso de movimiento 120, la unidad de control 120 ejecuta el icono ejecutable “APP<2>” como se muestra en la FIG. 102.
Si el listado de contenido se exhibe y un comando de liberación del listado de contenido (por ejemplo, un movimiento de rotación en dirección contraria a las manecillas del reloj o un botón de un control remoto) es ingresado por el usuario como se muestra en la FIG. 100, la unidad de control 140 retira el listado de contenidos y el puntero de la pantalla de visualización y exhibe una pantalla de recepción de emisiones como se muestra en la FIG. 103.
Aunque el listado de contenidos se exhibe en la realización ejemplar anterior, la idea técnica de la presente divulgación se puede aplicar si se exhibe una página web que incluya una pluralidad de hipervínculos.
La FIG. 104 es un diagrama de flujo para explicar un procedimiento para proporcionar un modo de apuntar de acuerdo con una realización ejemplar;
El aparato electrónico 100 exhibe uno de los listados de contenido y una página web (S10410). El listado de contenidos puede incluir una pluralidad de iconos ejecutables para ejecutar aplicaciones y la página web puede incluir una pluralidad de hipervínculos.
El aparato electrónico 100 determina si se ingresa o no un comando de inicio de movimiento (S10420).
Si se ingresa un comando de inicio de movimiento (S10420-Y), el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de apuntar (S10430). El modo de apuntar es un modo para llevar a cabo una tarea que requiere un puntero (por ejemplo, ejecutar una aplicación y navegar por una página web).
Si el modo se cambia al modo de apuntar, el aparato electrónico 100 exhibe un puntero en una pantalla de visualización (S10440). El puntero puede aparecer en el centro de la pantalla.
Como se ha descrito anteriormente, el aparato electrónico 100 se cambia al modo de apuntar para llevar a cabo una tarea que requiera un puntero, de forma que el usuario pueda controlar el aparato electrónico 100 más fácilmente.
Si un primer movimiento es ingresado a través de la unidad de ingreso de movimiento 120 en el modo de apuntar, la unidad de control 140 mueve un puntero en una dirección correspondiente al primer movimiento, y, si un segundo movimiento es ingresado a través de la unidad de ingreso de movimiento 120, la unidad de control 140 lleva a cabo una tarea de movimiento correspondiente al segundo movimiento.
Si el segundo movimiento es ingresado cuando el puntero está localizado en un primer icono ejecutable del listado de contenido o en un primer hipervínculo de la página web, la unidad de control 140 puede des-iluminar el primer icono ejecutable y el primer hipervínculo en el cual el puntero está localizado.
El segundo movimiento puede ser un movimiento que está preestablecido para llevar a cabo un modo de movimiento del aparato electrónico 100 y puede ser uno de un movimiento de palmada en una dirección hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha, un movimiento de agarre, y un movimiento de rotación en una dirección contraria a las agujas del reloj.
Por ejemplo, si el segundo movimiento es un movimiento de palmada en dirección ascendente, descendente, hacia la izquierda o hacia la derecha, la unidad de control 140 puede mover la pantalla de visualización de acuerdo con el movimiento de palmada en dirección ascendente, descendente, hacia la izquierda o hacia la derecha. Después de mover la pantalla, la unidad de control 140 puede volver a exhibir el puntero en una ubicación anterior.
Además, si el segundo movimiento es un movimiento de agarre, la unidad de control 140 puede ejecutar el primer icono ejecutable en el que se encuentra el puntero. Tras ejecutar el primer icono ejecutable, la unidad de control 140 puede volver a exhibir el puntero en la ubicación anterior.
Además, si el segundo movimiento es un movimiento de rotación en sentido contrario a las agujas del reloj, la unidad de control 140 puede exhibir un programa de emisión de un canal sintonizado actualmente en la pantalla de visualización. Es decir, la unidad de control 140 puede eliminar el listado de contenidos o la página web de la pantalla de visualización y proporcionar una función de recepción de emisiones. En este momento, dado que la función de recepción de difusión no requiere un puntero, éste no se exhibe.
Aunque el puntero no se exhibe en el ejemplo anterior, esto es meramente un ejemplo. El puntero se puede mantener en el lugar donde se ha visualizado.
En adelante en la presente memoria, un caso en el cual un movimiento preestablecido es ingresado en un modo de apuntar será explicado en detalle con referencia a las FIGS. 105 a 107.
Si un modo del aparato electrónico 100 es cambiado a un modo de apuntar como se muestra en la FIG. 100, la unidad de control 140 exhibe un puntero 10510 en un centro de la pantalla de visualización como se muestra en la FIG. 105.
Si se ingresa un movimiento de palmada en dirección derecha a través de la unidad de ingreso de movimiento 120 en el estado en el que el puntero se exhibe en la pantalla de visualización, la unidad de control 140 retira el puntero 10510 de la pantalla de visualización y cambia una pantalla de un área de visualización de aplicaciones 1520 a una pantalla de otra área de visualización de aplicaciones 10530 como se muestra en la FIG. 106.
Después de mover el área de visualización de la aplicación 10520, la unidad de control 140 exhibe el puntero 10510 nuevamente como se muestra en la FIG. 107.
La FIG. 108 es un diagrama de flujo para explicar un procedimiento de control del aparato electrónico 100 si se ingresa un movimiento preestablecido en un modo de apuntar de acuerdo con una realización ejemplar.
El aparato electrónico 100 exhibe uno de los listados de contenido y una página web (S10810). El listado de contenidos puede incluir una pluralidad de iconos ejecutables para ejecutar aplicaciones y la página web puede incluir una pluralidad de hipervínculos.
El aparato electrónico 100 determina si se ingresa o no un comando de inicio de movimiento (S10820).
Si se ingresa un comando de inicio de movimiento (S10820-Y), el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de apuntar (S10830). El modo de apuntar es un modo para llevar a cabo una tarea que requiere un puntero (por ejemplo, ejecutar una aplicación y navegar por una página web).
Si se cambia al modo de apuntar, el aparato electrónico 100 exhibe un puntero en la pantalla de visualización (S10840). El puntero puede estar situado en el centro de la pantalla.
Si se ingresa un movimiento preestablecido a través de la unidad de ingreso de movimiento 120 en el estado en el que se exhibe el puntero (S10850-Y), el aparato electrónico 100 retira el puntero y lleva a cabo una tarea de movimiento correspondiente al movimiento preestablecido (S10860). El movimiento preestablecido es un movimiento preestablecido en un modo de movimiento y puede ser un movimiento de palmada en dirección ascendente, descendente, hacia la izquierda o hacia la derecha, un movimiento de agarre o un modo de rotación en sentido contrario a las agujas del reloj.
El aparato electrónico 100 se controla como se ha descrito anteriormente de forma que el usuario pueda llevar a cabo la tarea de acuerdo con el movimiento preestablecido incluso en el modo de apuntar.
La unidad de control 140 puede exhibir un ítem seleccionado de forma distintiva de otros ítems de acuerdo con un modo del aparato electrónico 100.
Específicamente, la unidad de control 140 controla la unidad de visualización 193 para exhibir una pluralidad de ítems seleccionables. El ítem seleccionable puede ser un icono ejecutable de un listado de contenidos o un hipervínculo de una página web.
Si una de las voces del usuario y un movimiento del usuario se ingresan a través de una de la unidad de ingreso de voz 110 y la unidad de ingreso de movimiento 120, la unidad de control 140 selecciona un primer ítem de entre la pluralidad de ítems de acuerdo con el ingreso del usuario. La unidad de control 140 puede exhibir el primer ítem seleccionado de forma diferenciada de otros ítems. Por ejemplo, la unidad de control 140 puede resaltar el primer ítem seleccionado con más espesor que otros ítems.
Si un nombre del primer ítem tiene un número de caracteres que excede un número preestablecido y un modo del aparato electrónico 100 es un modo de tarea de movimiento cuando el primer ítem se exhibe de forma distintiva de otros ítems, la unidad de control 140 puede exhibir el nombre completo del primer ítem. Por ejemplo, el nombre completo de un icono ejecutable seleccionado, “Tambor Emocionante”, se exhibe como se muestra en la FIG. 109. La unidad de control 140 puede exhibir el nombre completo del primer ítem en un procedimiento de desplazamiento. En el ejemplo anterior, se exhibe el nombre completo del ítem en el modo de tarea de movimiento. Sin embargo, esto es sólo un ejemplo y el nombre completo del ítem se puede exhibir incluso en un modo de control remoto.
Por otro lado, si un nombre del primer ítem tiene un número de caracteres que excede un número preestablecido y un modo del aparato electrónico 100 es un modo de tarea de voz, la unidad de control 140 puede exhibir sólo una parte del nombre del primer ítem. La parte del nombre del primer ítem es fija. Por ejemplo, sólo se exhibe una parte del nombre del icono ejecutable seleccionado, “Tambor Emocionante”, como se muestra en la FIG. 110.
Si sólo se exhibe una parte del nombre del primer ítem en el modo de tarea de voz y un ingreso de voz del usuario a través de la unidad de ingreso de voz 110 es coherente con la parte exhibida del nombre, la unidad de control 140 ejecuta el primer ítem.
Si no hay espacio en una parte del nombre del primer ítem visualizado y se ingresa una voz del usuario correspondiente a una pluralidad de grafías del nombre del primer ítem visualizado a través de la unidad de ingreso de voz 110, la unidad de control 140 ejecuta el primer ítem. Por ejemplo, si el nombre del primer ítem exhibido es “hombre” y se ingresan en secuencia las voces “h”, “o”, “m”, “b”, “r” y “e”, la unidad de control 140 ejecuta el primer ítem.
Si un modo del aparato electrónico 100 es un modo de tarea de voz y una pluralidad de ítems que tienen nombres que son coherentes con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110 se incluyen entre los nombres de los ítems exhibidos, la unidad de control 140 puede exhibir un listado de un grupo candidato que incluye la pluralidad de ítems. Si se exhibe el listado del grupo candidato, la unidad de control 140 puede exhibir los nombres completos de los ítems de forma que el usuario pueda distinguirlos claramente.
La FIG. 111 es un diagrama de flujo para explicar un procedimiento de control del aparato electrónico 100 que exhibe ítems de forma diferente de acuerdo con un modo de acuerdo con una realización ejemplar.
El aparato electrónico 100 exhibe una pluralidad de ítems seleccionables (S11110). La pluralidad de ítems pueden ser iconos ejecutables incluidos en un listado de contenidos para ejecutar aplicaciones o hipervínculos incluidos en una página web.
El aparato electrónico 100 recibe el ingreso de una voz del usuario y un movimiento de usuario a través de una de la unidad de ingreso de voz 110 y la unidad de ingreso de movimiento 120 (S11120).
El aparato electrónico 100 selecciona un primer ítem de acuerdo con un ingreso de usuario (S11130). Por ejemplo, en un modo de tarea de voz, el aparato electrónico 100 puede seleccionar el primer ítem de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110, y, en un modo de tarea de movimiento, el aparato electrónico 100 puede seleccionar el primer ítem de acuerdo con un ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120. En un modo de control remoto, el aparato electrónico 100 puede seleccionar el primer ítem de acuerdo con un ingreso de señal de control remoto a través de la unidad de recepción de señal de control remoto 170.
Si se selecciona el primer ítem, el aparato electrónico 100 exhibe el primer ítem seleccionado de forma distintiva de otros ítems (S11140). Por ejemplo, el aparato electrónico 100 puede resaltar el primer ítem seleccionado en una línea o estilo más grueso que otros ítems.
Si un nombre del primer ítem tiene un número de caracteres que excede un número preestablecido y un modo del aparato electrónico 100 es el modo de tarea de movimiento (o el modo de control remoto) cuando el primer ítem se exhibe de forma distintiva de otros ítems, el aparato electrónico 100 puede exhibir el nombre completo del primer ítem. Por ejemplo, como se muestra en la FIG. 109, se exhibe el nombre completo de un icono ejecutable seleccionado, “Tambor Emocionante”. Además, el aparato electrónico 100 puede exhibir el nombre completo del primer ítem en un procedimiento de desplazamiento.
Por otro lado, si un nombre del primer ítem tiene un número de caracteres que excede un número preestablecido y el modo del aparato electrónico 100 es el modo de tarea de voz, el aparato electrónico 100 puede exhibir sólo una parte del nombre del primer ítem. La parte del nombre del primer ítem es fija. Por ejemplo, sólo se exhibe una parte (“Emocionante”) del nombre del icono ejecutable, “Tambor Emocionante”, como se muestra en la FIG. 110.
Como se ha descrito anteriormente, sólo la parte del nombre del ítem se exhibe en el modo de tarea de voz, de forma que el usuario puede ejecutar el primer ítem pronunciando sólo la parte del nombre.
La unidad de control 140 exhibe información de asistencia de voz que incluye una pluralidad de ítems de voz en el modo de tarea de voz. La información de asistencia de voz incluye un icono que indica que el modo del aparato electrónico 100 es el modo de tarea de voz, y el icono que indica el modo de tarea de voz puede estar situado en el centro de la información de asistencia de voz.
Si se exhibe la información de asistencia de voz y se ingresa una voz del usuario correspondiente a uno de la pluralidad de ítems de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 exhibe un mensaje de guía para llevar a cabo una tarea de voz en una primera área de la información de asistencia de voz, y exhibe el ítem de voz en una segunda área de la información de asistencia de voz. La primera área puede ser un área izquierda del icono y la segunda área puede ser un área derecha del icono. Una propiedad de salida del mensaje de guía puede ser diferente de una propiedad de salida del ítem de voz. La propiedad de salida puede incluir al menos una de tamaño, croma, brillo y color de los caracteres.
Si la voz del usuario es un comando para cambiar un canal, la unidad de control 140 puede exhibir un mensaje de guía para guiar el cambio de un canal en la primera área, y puede exhibir un ítem de voz correspondiente a un ejemplo de un comando pronunciable, por ejemplo, para cambiar un canal, y un ítem de voz correspondiente a, por ejemplo, la cancelación del cambio de un canal en la segunda área.
Si la voz del usuario es un comando para apagar la alimentación, la unidad de control 140 puede exhibir un mensaje de guía para confirmar el apagado de la alimentación en la primera área, y puede exhibir un ítem de voz correspondiente a un comando relativo a si se apaga la alimentación en la segunda área.
En adelante en la presente memoria, la visualización de la información de asistencia por voz se explicará con referencia a las FIGS. 112 a 114.
Si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110. La unidad de control 140 exhibe información de asistencia por voz como se muestra en la FIG. 112.
La información de asistencia de voz puede exhibir un icono 820 que indica que el modo actual del aparato electrónico 100 es el modo de tarea de voz. La información de asistencia de voz puede exhibir una pluralidad de ítems de voz seleccionables, por ejemplo, un ítem de voz de apagado 811, un ítem de voz de canal 812, un ítem de voz de silencio 813 y un ítem de voz de ingreso externo 814 en un área izquierda del icono 820, y puede exhibir un ítem de voz desmart hub815, un ítem de voz de aplicaciones 816, un ítem de voz de búsqueda 817 y un ítem de voz “todo” 818 en un área derecha del icono 820.
Si la información de asistencia de voz se exhibe y un comando, “canal”, correspondiente al ítem de voz de canal 812 se ingresa a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia la información de asistencia de voz como se muestra en la FIG. 113. La unidad de control 140 exhibe un mensaje de guía con primer croma en el área izquierda del icono 820 en la información de asistencia de voz para llevar a cabo una tarea de voz. Por ejemplo, como se muestra en la FIG. 113, “Por favor, diga un nombre de canal o un número de canal” 810 puede aparecer en el área izquierda.
La unidad de control 140 exhibe un ítem de voz con un segundo croma en el área derecha del icono 820 en la información de asistencia de voz. El ítem de voz puede ser un ítem de voz correspondiente a un ejemplo de un comando pronunciable para cambiar un canal y un ítem de voz correspondiente a la cancelación del cambio de un canal (por ejemplo, un ítem de voz anterior). Por ejemplo, como se muestra en la FIG. 113, “(ejemplo: 11, MBC, canal anterior, etc.) Anterior” 11320 puede aparecer en el área derecha del icono 820.
La unidad de control 140 puede controlar de forma que el croma del área derecha del icono 820 sea más grueso que el croma del área izquierda del icono 820.
Si la información de asistencia de voz se exhibe como se muestra en la FIG. 112 y se ingresa un comando, “apagar”, correspondiente al ítem de voz de apagado 811 a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia la información de asistencia de voz como se muestra en la FIG. 114. La unidad de control 140 exhibe un mensaje de guía con primer croma en el área izquierda del icono 820 en la información de asistencia de voz para llevar a cabo una tarea de voz. Por ejemplo, como se muestra en la FIG. 114, “¿Quiere desconectar la corriente? 11410 puede aparecer en el área izquierda del icono 820.
La unidad de control 140 exhibe un ítem de voz con un segundo croma en el área derecha del icono 820 en la información de asistencia de voz. El ítem de voz puede ser un ítem de voz correspondiente a un comando relativo a si se debe desconectar la alimentación. Por ejemplo, como se muestra en la FIG. 114, “Sí o No” 11420 y 11430 pueden aparecer en el área derecha del icono 820.
La unidad de control 140 puede controlar de forma que el croma del área derecha del icono 820 sea más grueso que el croma del área izquierda del icono 820.
La FIG. 115 es un diagrama de flujo para explicar un procedimiento de control del aparato electrónico 100, que exhibe información de asistencia por voz de acuerdo con una realización ejemplar.
El aparato electrónico 100 exhibe información de asistencia por voz (S11510). La información de asistencia de voz puede incluir un icono que indica que un modo actual del aparato electrónico 100 es un modo de tarea de voz, y una pluralidad de ítems de voz que guían el modo de tarea de voz.
Si se ingresa una voz del usuario correspondiente a uno de la pluralidad de ítems de voz a través de la unidad de ingreso de voz 110, el aparato electrónico 100 exhibe un mensaje de guía que tiene un primer croma en una primera área, y exhibe un ítem de voz que tiene un segundo croma en una segunda área (S11520). La primera área puede ser un área derecha del icono en la información de asistencia por voz y la segunda área puede ser un área izquierda del icono en la información de asistencia por voz. El segundo croma puede ser diferente, por ejemplo más grueso, que el primer croma.
Como se ha descrito anteriormente, el ítem de voz pronunciable se exhibe con un croma diferente al del mensaje de guía de forma que el usuario pueda saber qué comando debe pronunciar con mayor claridad.
La unidad de control 140 exhibe información de asistencia de voz que incluye una pluralidad de ítems de voz que guían una tarea de voz. Si un ingreso de voz del usuario a través de la unidad de ingreso de voz 110 incluye una palabra preestablecida que no pertenece a un comando correspondiente a la pluralidad de ítems de voz, la unidad de control 140 puede llevar a cabo una tarea de voz correspondiente a la palabra preestablecida.
La palabra preestablecida puede ser una palabra que corresponda a una tecla ejecutable incluida en un mando a distancia que esté interconectado con (es decir, que se comunique con) el aparato electrónico 100. Por ejemplo, la palabra preestablecida puede incluir al menos una de las siguientes órdenes: un comando para generar un listado de canales, un comando para generar un menú, un comando para ejecutar una red social, un comando para guiar una programación, un comando para cambiar a una imagen 3D y un comando para guiar la emisión.
La palabra preestablecida puede ser una palabra que corresponde a un comando para proporcionar una tarea relacionada con una función llevada a cabo por el aparato electrónico 100. Por ejemplo, si el aparato electrónico 100 lleva a cabo actualmente una función de reproducción de una imagen en movimiento, la palabra preestablecida puede incluir al menos una de las siguientes órdenes: reproducir la imagen en movimiento, pausar la imagen en movimiento, detener la imagen en movimiento, reproducir un archivo anterior, reproducir un archivo siguiente, saltar hacia delante y saltar hacia atrás.
Es decir, un comando correspondiente a una función esencial del aparato electrónico 100 se almacena previamente en la base de datos de voz 130m, de forma que el usuario puede usar la función esencial del aparato electrónico 100 por medio de reconocimiento de voz aunque la función no se muestre en la información de asistencia de voz.
En adelante en la presente memoria, un caso en el que un comando que no pertenece a un ítem de voz exhibido en la información de asistencia de voz es pronunciado será explicado con referencia a las FIGS. 116 y 117.
Si se ingresa un comando de inicio de voz (por ejemplo, “Ginny”) a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110. Si el modo se cambia al modo de tarea de voz, la unidad de control 140 exhibe información de asistencia de voz en la porción inferior de la pantalla de visualización como se muestra en la FIG. 116.
En este momento, se exhibe en la información de asistencia de voz un icono 820 que indica que el modo actual del aparato electrónico 100 es el modo de tarea de voz. La información de asistencia de voz exhibe un ítem de voz de apagado 811, un ítem de voz de canal 812, un ítem de voz de silencio 813 y un ítem de voz de ingreso externo 814 en un área izquierda del icono 820, y exhibe un ítem de voz desmart hub815, un ítem de voz de aplicaciones 816, un ítem de voz de búsqueda 817 y un ítem de voz de todo 818 en un área derecha del icono 820.
Si se exhibe la información de asistencia de voz y se ingresa un comando, “listado de canales”, que no pertenece a la información de asistencia de voz, a través de la unidad de ingreso de voz 110, la unidad de control 140 puede exhibir un listado de canales 11700 en una porción lateral de la pantalla de visualización, como se muestra en la FIG. 117.
El listado de canales 11700 incluye un canal de emisión que cae dentro de un intervalo numérico preestablecido con referencia a un canal de emisión sintonizado actualmente. Por ejemplo, si el canal actualmente sintonizado es “9-1 KΒS2”, la unidad de control 140 exhibe “6-1 SBS”, 7-1 KΒS 1”, “9-1 KΒS 2”, “11-1 MBC”, y “13-1 EBS” en el listado de canales 1170 como se muestra en la FIG. 117.
El usuario puede cambiar el canal por medio de la selección de uno de los canales del listado de canales 11700. En consecuencia, incluso si la información de asistencia de voz no exhibe un ítem de voz correspondiente al listado de canales, el usuario puede llevar a cabo una tarea de visualización del listado de canales por medio del reconocimiento de voz.
La FIG. 118 es un diagrama de flujo para explicar un procedimiento de control del aparato electrónico 100 si se pronuncia un comando que no pertenece a un ítem de voz exhibido en la información de asistencia de voz de acuerdo con una realización ejemplar.
El aparato electrónico 100 exhibe información de asistencia por voz (S11810). La información de asistencia de voz puede incluir un icono que indica que un modo actual del aparato electrónico 100 es un modo de tarea de voz y una pluralidad de ítems de voz que guían el modo de tarea de voz.
El aparato electrónico 100 recibe el ingreso de un comando diferente de los comandos correspondientes a los ítems de voz (S11820). Si el comando diferente de los comandos correspondientes a los ítems de voz puede ser una palabra que corresponde a una tecla ejecutable incluida en un mando a distancia que se comunica con el aparato electrónico 100. Por ejemplo, la palabra puede incluir uno de los siguientes comandos: un comando para generar un listado de canales, un comando para generar un menú, un comando para ejecutar una red social, un comando para guiar una programación, un comando para cambiar a una imagen 3D y un comando para guiar la emisión.
El comando diferente de los comandos correspondientes a los ítems de voz puede ser una palabra que corresponde a un comando para proporcionar una tarea relacionada con una función actualmente llevada a cabo por el aparato electrónico 100. Por ejemplo, si el aparato electrónico 100 lleva a cabo actualmente una función de reproducción de una imagen en movimiento, la palabra puede incluir al menos una de las siguientes órdenes: comando de reproducir la imagen en movimiento, comando de pausar la imagen en movimiento, comando de detener la imagen en movimiento, comando de reproducir un archivo anterior, comando de reproducir un archivo siguiente, comando de saltar hacia delante y comando de saltar hacia atrás.
El aparato electrónico 100 lleva a cabo una tarea de voz de acuerdo con el comando de ingreso (S11830). Por ejemplo, si se ingresa un comando para generar un listado de canales, el aparato electrónico 100 genera y exhibe un listado de canales.
Como se ha descrito anteriormente, el usuario puede llevar a cabo una tarea correspondiente a un comando que no se exhibe en la información de asistencia de voz.
La unidad de control 140 puede ejecutar un modo de tarea de movimiento mediante el uso de una mano y/o mediante el uso de ambas manos.
Específicamente, si un comando de inicio de movimiento mediante el uso de ambas manos es ingresado a través de la unidad de ingreso de movimiento 120, la unidad de control 140 puede cambiar un modo del aparato electrónico 100 a un modo de tarea de movimiento mediante el uso de ambas manos para llevar a cabo una tarea de movimiento mediante el uso de ambas manos.
En un modo de tarea de movimiento mediante el uso de una mano, si se ingresa un comando de inicio de movimiento mediante el uso de la otra mano, la unidad de control 140 puede reconocer el comando de inicio de movimiento mediante el uso de ambas manos. Específicamente, si un comando de inicio de movimiento (un movimiento de agitar una mano 3 a 4 veces) es ingresado a través de la unidad de ingreso de movimiento 120 como se muestra en la FIG.
119, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de movimiento del usuario a través de la unidad de ingreso de movimiento 120. Si se ingresa un comando de inicio de movimiento mediante el uso de la otra mano a través de la unidad de ingreso de movimiento 120 en el modo de tarea de movimiento, la unidad de control 140 puede cambiar el modo del aparato electrónico 100 a un modo de tarea de movimiento mediante el uso de ambas manos para llevar a cabo una tarea de movimiento mediante el uso de ambas manos.
En otra realización ejemplar, el comando de inicio de movimiento mediante el uso de ambas manos puede ser reconocido si se ingresa un movimiento de agitar ambas manos simultáneamente múltiples veces (por ejemplo, 3 a 4 veces). Específicamente, si el movimiento de agitar ambas manos simultáneamente múltiples veces es ingresado a través de la unidad de ingreso de movimiento 120 como se muestra en la FIG. 120, la unidad de control 140 puede cambiar un modo del aparato electrónico 100 a un modo de tarea de movimiento mediante el uso de ambas manos para llevar a cabo una tarea de movimiento mediante el uso de ambas manos.
La tarea de movimiento mediante el uso de ambas manos puede ser una tarea de ampliación o reducción de una pantalla de visualización.
En particular, si se ejecuta una aplicación en la que es imposible llevar a cabo la tarea de movimiento mediante el uso de ambas manos, la unidad de control 140 puede emitir un mensaje que indica que es imposible llevar a cabo la tarea de movimiento mediante el uso de ambas manos. Por ejemplo, si se ejecuta la aplicación en la que es imposible llevar a cabo la tarea de movimiento mediante el uso de ambas manos, la unidad de control 140 puede exhibir un icono que indique que es imposible llevar a cabo la tarea de movimiento mediante el uso de ambas manos.
La FIG. 121 es un diagrama de flujo para explicar un modo de tarea de movimiento mediante el uso de ambas manos de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe el ingreso de un comando de inicio de movimiento mediante el uso de ambas manos (S12110). Por ejemplo, en un modo de tarea de movimiento mediante el uso de una mano, si se ingresa un comando de inicio de movimiento mediante el uso de la otra mano, el comando de inicio de movimiento mediante el uso de ambas manos se reconoce como ingresado.
En otra realización ejemplar, el comando de inicio de movimiento mediante el uso de ambas manos puede ser reconocido si se ingresa un movimiento de agitar ambas manos simultáneamente múltiples veces (por ejemplo, 3 a 4 veces).
Si se ingresa el comando de inicio de movimiento mediante el uso de ambas manos, el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento mediante el uso de ambas manos para llevar a cabo una tarea del aparato electrónico mediante el uso de ambas manos (S12120). El modo de tarea de movimiento mediante el uso de ambas manos puede ser la tarea de ampliar o reducir una pantalla de visualización.
Como se ha descrito anteriormente, el usuario puede llevar a cabo una tarea de movimiento mediante el uso de no sólo una mano, sino también ambas manos.
Si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento, en el que se lleva a cabo una tarea de movimiento de acuerdo con un movimiento de un usuario que ingresa el comando de inicio de movimiento. En el modo de tarea de movimiento, la tarea de movimiento se lleva a cabo sólo de acuerdo con el movimiento del usuario que ingresa el comando de inicio de movimiento hasta que el usuario que ingresa el comando de inicio de movimiento libera el modo de tarea de movimiento. El modo de tarea de movimiento se mantiene incluso si un comando de inicio de movimiento se ingresa desde otros usuarios diferentes del usuario que ingresa el comando de inicio de movimiento.
Específicamente, si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120, la unidad de control 140 traza una mano de un usuario que ingresa el comando de inicio de movimiento mediante el uso del módulo de reconocimiento de movimiento 130l. La unidad de control 140 puede trazar la mano del usuario mediante el uso de al menos uno de los siguientes ítems: forma, color y movimiento de la mano del usuario.
Incluso si un comando de inicio de movimiento de una mano de otro usuario es ingresado a través de la unidad de ingreso de movimiento 120, la unidad de control 140 no lleva a cabo una tarea de movimiento por la mano de otro usuario, y rastrea la mano del usuario que inicialmente ingresa el comando de inicio de movimiento y lleva a cabo una tarea de movimiento.
Incluso si un comando de inicio de movimiento es ingresado por otro usuario, la unidad de control 140 puede llevar a cabo la tarea de movimiento de acuerdo con el movimiento del usuario que inicialmente ingresa el comando de inicio de movimiento hasta que un comando para liberar el modo de tarea de movimiento sea ingresado por el usuario que ingresa el comando de inicio de movimiento.
Incluso si la mano del usuario que ingresa el comando de inicio de movimiento se solapa con las manos de otros usuarios en el modo de tarea de movimiento, la tarea de movimiento se puede llevar a cabo de acuerdo con el movimiento del usuario que ingresa el comando de inicio de movimiento.
Alternativamente, si se ingresa un comando de inicio de movimiento mediante el uso de una mano y se ingresa otro comando de inicio de movimiento mediante el uso de una mano de un usuario diferente del usuario que ingresa el comando de inicio de movimiento, la unidad de control 140 puede cambiar el modo del aparato electrónico 100 a un modo de tarea de movimiento mediante el uso de ambas manos para llevar a cabo una tarea de movimiento mediante el uso de ambas manos. El modo de tarea de movimiento mediante el uso de ambas manos puede ser llevado a cabo por una mano del usuario que ingresa inicialmente el comando de inicio de movimiento y una mano de otro usuario.
Si una pluralidad de comandos de inicio de movimiento son ingresados por una pluralidad de usuarios a través de la unidad de ingreso de movimiento 120, la unidad de control 140 determina un comando de inicio de movimiento que es inicialmente ingresado de entre la pluralidad de comandos de inicio de movimiento. Si se determina el comando de inicio de movimiento ingresado inicialmente, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento en el que se lleva a cabo una tarea de movimiento de acuerdo con un movimiento del usuario que ingresa inicialmente el comando de inicio de movimiento.
La tarea de movimiento puede ser llevada a cabo solamente de acuerdo con el movimiento del usuario que inicialmente ingresa el comando de inicio de movimiento hasta que el usuario que inicialmente ingresa el comando de inicio de movimiento libera el modo de tarea de movimiento. El modo de tarea de movimiento se puede mantener incluso si un comando de inicio de movimiento es ingresado por otros usuarios diferentes del usuario que inicialmente ingresa el comando de inicio de movimiento.
La FIG. 122 es un diagrama de flujo para explicar un procedimiento de control del aparato electrónico 100 si una pluralidad de comandos de inicio de movimiento son ingresados por una pluralidad de usuarios de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe el ingreso de una pluralidad de comandos de inicio de movimiento de una pluralidad de usuarios a través de la unidad de ingreso de movimiento 120 (S12210). El comando de inicio de movimiento puede ser un movimiento de agitar la mano del usuario múltiples veces (por ejemplo, 3 a 4 veces).
El aparato electrónico 100 determina un comando de inicio de movimiento que se ingresa inicialmente de entre la pluralidad de comandos de inicio de movimiento (S12220). Específicamente, el aparato electrónico 100 puede determinar el comando de inicio de movimiento ingresado inicialmente mediante el uso de una característica de la(s) mano(s) del usuario, por ejemplo, forma, color, y un movimiento de la(s) mano(s) del usuario que se usa para ingresar el comando de inicio de movimiento.
El aparato electrónico 100 lleva a cabo una tarea de movimiento mediante el uso del movimiento del usuario que ingresa inicialmente el comando de inicio de movimiento (S12230). Específicamente, si el aparato electrónico 100 determina el comando de inicio de movimiento ingresado inicialmente, el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento en el que se lleva a cabo una tarea de movimiento de acuerdo con un movimiento del usuario que ingresa inicialmente el comando de inicio de movimiento. El aparato electrónico 100 lleva a cabo una tarea de movimiento mediante el uso de un movimiento del usuario que ingresa inicialmente el comando de inicio de movimiento en el modo de tarea de movimiento.
La tarea de movimiento puede ser llevada a cabo solamente de acuerdo con el movimiento del usuario que inicialmente ingresa el comando de inicio de movimiento hasta que el usuario que inicialmente ingresa el comando de inicio de movimiento libera el modo de tarea de movimiento. El modo de tarea de movimiento se puede mantener incluso si un comando de inicio de movimiento es ingresado por otros usuarios diferentes del usuario que inicialmente ingresa el comando de inicio de movimiento.
Como se ha descrito anteriormente, la tarea de movimiento se lleva a cabo de acuerdo con el comando de inicio de movimiento ingresado inicialmente, de forma que se pueda evitar un mal funcionamiento por movimientos de otros usuarios.
La unidad de control 140 puede llevar a cabo una tarea de voz por fases. Específicamente, si se ingresa una primera voz de un usuario a través de la unidad de ingreso de voz 110, la unidad de control 140 puede exhibir un primer menú que guíe al menos una tarea de voz en un área de una imagen en respuesta a la primera voz. Si se ingresa una segunda voz del usuario a través de la unidad de ingreso de voz 110, la unidad de control 140 puede llevara cabo una tarea de voz correspondiente a la segunda voz del usuario de entre al menos una tarea de voz.
Por ejemplo, si se ingresa un comando para cambiar un canal a través de la unidad de ingreso de voz 110, la unidad de control 140 puede exhibir un primer menú que incluya información para guiar el cambio de un canal. Si se ingresa una voz del usuario correspondiente a un identificador de canal (por ejemplo, uno de un número de canal, un nombre de canal y un nombre de programa) a través de la unidad de ingreso de voz 110, la unidad de control 140 puede cambiar un canal actual a un canal correspondiente a la voz del usuario.
Si se ingresa una voz del usuario correspondiente a un nombre de programa a través de la unidad de ingreso de voz 110, la unidad de control 140 busca el nombre de programa ingresado a través de la unidad de ingreso de voz 110 en una guía de programas almacenada previamente (EPG), y cambia un canal actual a un canal para emitir el nombre de programa ingresado o programa una hora de visionado.
En adelante en la presente memoria, un caso en el cual el reconocimiento de voz es llevado a cabo en fases será explicado con referencia a las FIGS. 123 a 125.
Si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110. La unidad de control 140 exhibe información de asistencia de voz que incluyen una pluralidad de ítems de voz como se muestra en la FIG. 123.
Si se exhibe la información de asistencia de voz y se ingresa una voz del usuario (por ejemplo, “canal”) correspondiente a un ítem de voz de canal 812 a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia la información de asistencia de voz y exhibe un primer menú que guía la realización de una tarea de voz. Por ejemplo, la unidad de control 140 puede exhibir “Por favor, diga el nombre o el número de un canal” 12410 para guiar el cambio de un canal como se muestra en la FIG. 124.
Si una voz del usuario correspondiente a uno de un número de canal, un nombre de canal, y un nombre de programa de emisión es ingresada a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia un canal actual a un canal correspondiente a la voz del usuario. Por ejemplo, si se ingresa “7” a través de la unidad de ingreso de voz 110, la unidad de control 140 exhibe el canal 7 por medio de la sintonización del canal 7 como se muestra en la FIG.
125.
Como se ha descrito anteriormente, la tarea de voz se lleva a cabo en fases para poder prevenir un mal funcionamiento. Específicamente, si el usuario desea cambiar un canal, el usuario cambia el canal después de seleccionar el ítem de voz de canal una vez y de este modo puede evitar cambiar a un canal no deseado.
La FIG. 126 es un diagrama de flujo para explicar un procedimiento de control del aparato electrónico 100 que lleva a cabo una tarea de voz en fases de acuerdo con una realización ejemplar.
El aparato electrónico 100 exhibe una imagen (S12610). La imagen puede incluir información de asistencia por voz.
El aparato electrónico 100 recibe el ingreso de una primera voz a través de la unidad de ingreso de voz 110 (S12620). La primera voz puede ser una voz del usuario que corresponde a uno de una pluralidad de ítems de voz incluidos en la información de asistencia de voz exhibida.
El aparato electrónico 100 exhibe un primer menú que guía la realización de una tarea de voz en respuesta a la primera voz ingresada (S12630).
El aparato electrónico 100 recibe el ingreso de una segunda voz a través de la unidad de ingreso de voz 110 (S12640). La segunda voz es un comando para llevar a cabo una tarea vocal específica.
El aparato electrónico 100 lleva a cabo una tarea de voz correspondiente a la segunda voz en respuesta a la segunda voz ingresada (S12650). Por ejemplo, si la segunda voz es un nombre de canal, el aparato electrónico 100 cambia un canal de emisión a un canal correspondiente a la segunda voz.
Como se ha descrito anteriormente, la tarea de voz se lleva a cabo en fases para poder prevenir un mal funcionamiento.
En un modo de tarea de voz en el que se lleva a cabo una tarea de voz de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110, la unidad de control 140 exhibe al menos un icono ejecutable y un nombre del icono ejecutable.
La unidad de ingreso de voz 110 recibe el ingreso de una voz del usuario. Si entre los al menos un icono ejecutable existe un primer icono ejecutable que exhibe sólo una parte del nombre del icono ejecutable, y la voz del usuario ingresada es coherente con la parte exhibida del nombre del primer icono ejecutable, la unidad de control 140 ejecuta el primer icono ejecutable.
Si la voz del usuario ingresada es coherente con una pluralidad de grafías que constituyen la parte visualizada del nombre del primer icono ejecutable, la unidad de control 140 ejecuta el primer icono ejecutable.
Si un segundo icono ejecutable cuyo nombre incluye un carácter especial existe entre los iconos ejecutables y la voz del usuario ingresada es coherente con un nombre pronunciable excluyendo el carácter especial incluido en el nombre del segundo icono ejecutable, la unidad de control 140 ejecuta el segundo icono ejecutable.
El carácter especial puede ser un símbolo no pronunciable por el usuario. Por ejemplo, el carácter especial puede ser, entre otros, un signo de interrogación (?), una coma (,) y un punto (.).
Por ejemplo, si existe una aplicación con un nombre de icono ejecutable, “reconocimiento facial, reconocimiento de voz”, la unidad de control 140 ejecuta la aplicación cuando una voz del usuario, “reconocimiento facial, reconocimiento de voz”, es ingresada a través de la unidad de ingreso de voz 110.
En el ejemplo anterior, la unidad de control 140 lleva a cabo el icono ejecutable. Sin embargo, esto es meramente un ejemplo y la idea técnica de la presente divulgación se puede aplicar si la unidad de control 140 lleva a cabo un hipervínculo.
En adelante en la presente memoria, se explicará un procedimiento para ejecutar un icono ejecutable que exhibe una parte de un nombre del icono ejecutable de acuerdo con una realización ejemplar con referencia a las FIGS. 127 y 128.
La unidad de control 140 exhibe un listado de contenidos (por ejemplo, unsmart hub)que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación de acuerdo con un comando específico de un usuario. Si un icono ejecutable cuyo nombre tiene un número de caracteres superior a un número predeterminado está incluido entre la pluralidad de iconos ejecutables incluidos en el listado de contenidos, la unidad de control 140 puede exhibir sólo una parte del nombre completo del icono ejecutable. Por ejemplo, si un icono ejecutable cuyo nombre tiene más de 10 caracteres está incluido entre la pluralidad de iconos ejecutables incluidos en el listado de contenidos, la unidad de control 140 no exhibe el nombre completo del icono ejecutable, “Tambor Emocionante”, y exhibe sólo “Emocionante”, como se muestra en la FIG. 127.
Si se exhibe el listado de contenido y se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el que el aparato electrónico se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110. Si el modo se cambia al modo de tarea de voz, el aparato electrónico 100 exhibe información de asistencia de voz como se muestra en la FIG. 127.
Si la información de asistencia de voz se exhibe y “Emocionante”, que es coherente con la parte exhibida del nombre, es pronunciada a través de la unidad de ingreso de voz 110, la unidad de control 140 ejecuta “Tambor Emocionante” como se muestra en la FIG. 128.
También, si la información de asistencia de voz se exhibe y una pluralidad de deletreos, “E”, “M”, “O”, “C”, “ I”, “O”, “N”, “A”, “N”, “T”, y “E”, los cuales constituyen la parte exhibida del nombre, son ingresados a través de la unidad de ingreso de voz 110, la unidad de control 140 ejecuta “Tambor Excitante” como se muestra en la FIG. 128.
La FIG. 129 es un diagrama de flujo para explicar un procedimiento para ejecutar un icono ejecutable que exhibe sólo una parte de un nombre del icono ejecutable de acuerdo con una realización ejemplar.
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a un ingreso de comando de inicio de voz a través de la unidad de ingreso de voz 110 (S12910). El aparato electrónico 100 exhibe un listado de contenidos que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación.
En particular, el aparato electrónico 100 exhibe un icono ejecutable que exhibe una parte de un nombre del icono ejecutable en el listado de contenido (S12920). Esto se debe a que el nombre del icono ejecutable tiene un número de caracteres superior a un número predeterminado y, por lo tanto, no se puede exhibir el nombre completo del icono ejecutable.
El aparato electrónico 100 recibe el ingreso de la voz de un usuario a través de la unidad de ingreso de voz 110 (S12930).
El aparato electrónico 100 determina si el ingreso de voz del usuario a través de la unidad de ingreso de voz 110 es coherente con la parte exhibida del nombre (S12940).
Si hay un icono ejecutable parte de cuyo nombre coincide con el ingreso de voz del usuario a través de la unidad de ingreso de voz 110 (S12940-Y), el aparato electrónico 100 ejecuta el icono ejecutable (S12950).
En la realización ejemplar anterior, el aparato electrónico 100 ejecuta el icono ejecutable. Sin embargo, esto es meramente un ejemplo y la idea técnica de la presente divulgación se puede aplicar si el aparato electrónico 100 ejecuta un hipervínculo.
Como se ha descrito anteriormente, una aplicación o un hipervínculo se pueden ejecutar pronunciando sólo una parte del nombre de un icono ejecutable correspondiente.
Si uno de un primer movimiento de usuario y un segundo movimiento de usuario es ingresado a través de la unidad de ingreso de movimiento 120 en un modo de tarea de movimiento, la unidad de control 140 puede exhibir una pantalla de ejecución de aplicación por medio de la ampliación o la reducción de la pantalla de ejecución de aplicación en respuesta al reconocido uno del primer movimiento de usuario y el segundo movimiento de usuario si la pantalla de ejecución de aplicación es agrandable o reducible.
Específicamente, si se ingresa un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 cuando se ejecuta una aplicación, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento. Si se ingresa uno de los movimientos del primer usuario y del segundo usuario a través de la unidad de ingreso de movimiento 120, la unidad de control 140 reconoce el ingreso de uno de los movimientos del primer usuario y del segundo usuario y amplía o reduce la pantalla de ejecución de la aplicación en respuesta al movimiento reconocido.
El primer movimiento del usuario puede ser un movimiento de separar ambas manos, y si el primer movimiento del usuario es reconocido, la unidad de control 140 puede exhibir la pantalla de ejecución de la aplicación agrandándola.
El segundo movimiento del usuario puede ser un movimiento de acercar ambas manos entre sí, y si se reconoce el segundo movimiento del usuario, la unidad de control 140 puede exhibir la pantalla de ejecución de la aplicación reduciéndola.
Si se ingresa un tercer movimiento del usuario a través de la unidad de ingreso de movimiento 120 en el modo de tarea de movimiento, la unidad de control 140 puede reconocer el tercer movimiento del usuario y exhibir la pantalla de ejecución de la aplicación por medio del movimiento en respuesta al tercer movimiento del usuario. El tercer movimiento del usuario puede consistir en mover una mano mientras se mantiene el movimiento de agarre. La pantalla de ejecución de la aplicación es móvil dentro de la pantalla de visualización del aparato electrónico 100.
En adelante en la presente memoria, un gesto especial que se ingresa en una página web se explicará con referencia a las FIGS. 130 a 133.
Si una página web se exhibe y un comando de inicio de movimiento se ingresa a través de la unidad de ingreso de movimiento 120, la unidad de control 140 puede exhibir información de asistencia de movimiento en una porción inferior de la página web como se muestra en la FIG. 130. Además, si el aparato electrónico 100 entra en un modo de tarea de movimiento, la unidad de control 140 exhibe un puntero 13000 en el centro de una pantalla de visualización.
Si la información de asistencia de movimiento es exhibida y un comando de inicio de movimiento mediante el uso de ambas manos es ingresado a través de la unidad de ingreso de movimiento 120, la unidad de control 140 entra en un modo de tarea de movimiento mediante el uso de ambas manos.
Si un movimiento de separar ambas manos es ingresado a través de la unidad de ingreso de movimiento 120 en el modo de tarea de movimiento mediante el uso de ambas manos, la unidad de control 140 agranda una pantalla de página web como se muestra en la FIG. 131. Cuando se amplía la pantalla de la página web, el puntero puede desaparecer.
Si la pantalla de la página web es ampliada, la unidad de control 140 exhibe el puntero 13000 de nuevo como se muestra en la FIG. 132.
Si se exhibe el puntero 13000 y se ingresa un movimiento de agarrar una mano y mover la mano agarrada a través de la unidad de ingreso de movimiento 120, la unidad de control 140 puede mover la pantalla de visualización de acuerdo con el movimiento de agarrar una mano y mover la mano agarrada.
Por ejemplo, si un movimiento de agarrar una mano y mover la mano agarrada en dirección derecha es ingresado a través de la unidad de ingreso de movimiento 120, la unidad de control 140 puede mover la pantalla de visualización en dirección derecha como se muestra en la FIG. 133.
Como se ha descrito anteriormente, el usuario puede mover o ampliar o reducir la pantalla de visualización del aparato electrónico 100 mediante el uso de un movimiento del usuario.
La FIG. 134 es un diagrama de flujo que ilustra un procedimiento de control del aparato electrónico 100 si se ingresa un gesto especial de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe un comando de inicio de movimiento a través de la unidad de ingreso de movimiento 120 (S13410).
Si se ingresa el comando de inicio de movimiento, el aparato electrónico 100 reconoce el comando de inicio de movimiento y cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento (S13420). Si el modo se cambia al modo de tarea de movimiento, el aparato electrónico 100 exhibe un puntero e información de asistencia al movimiento para llevar a cabo el modo de tarea de movimiento.
El aparato electrónico 100 ejecuta una aplicación de acuerdo con una manipulación del usuario (S13430).
El aparato electrónico 100 recibe el ingreso de un movimiento especial a través de la unidad de ingreso de movimiento 120 (S13440). El movimiento especial puede consistir en usar las dos manos para ampliar o reducir una pantalla de visualización o en mover la mano agarrada para desplazar la pantalla de visualización.
Si se ingresa el movimiento especial, el aparato electrónico 100 lleva a cabo una tarea de movimiento correspondiente al movimiento especial (S13450). Por ejemplo, si se ingresa el movimiento de acercar ambas manos, el aparato electrónico 100 lleva a cabo la tarea de reducir la pantalla de visualización, y si se ingresa el movimiento de separar ambas manos, el aparato electrónico 100 lleva a cabo la tarea de ampliar la pantalla de visualización. Si se ingresa un movimiento de movimiento de la mano agarrada, el aparato electrónico 100 mueve la pantalla de visualización en la dirección del movimiento.
Como se ha descrito anteriormente, el usuario puede mover o ampliar o reducir la pantalla de visualización mediante el uso de un movimiento del usuario.
La unidad de control 140 puede recibir un comando de inicio de voz a través de la unidad de ingreso de voz 110 incluida en el aparato electrónico 100 y también puede recibir un comando de inicio de voz de un aparato que se comunica con el aparato electrónico 100.
El reconocimiento de voz obtenido si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110 incluida en el aparato electrónico 100 se denomina como reconocimiento de voz a larga distancia. Si se lleva a cabo el reconocimiento de voz a larga distancia, se exhibe un icono 13510 que indica el reconocimiento de voz a larga distancia, como se muestra en la FIG. 135.
Específicamente, si se ingresa un comando de inicio de voz desde la unidad de ingreso de voz 110 incluida en el aparato electrónico 100, la unidad de control 140 cambia un modo del aparato electrónico 100 a un primer modo de tarea de voz. El primer modo de tarea de voz es un modo en el que se lleva a cabo una tarea de voz de acuerdo con un ingreso de voz del usuario desde la unidad de ingreso de voz 110 incluida en el aparato electrónico 100. Si el modo se cambia al primer modo de tarea de voz, la unidad de control 140 exhibe el icono 13510 que indica el reconocimiento de voz a larga distancia.
Si se exhibe el icono que indica el reconocimiento de voz a larga distancia y no se ingresa una voz del usuario en la unidad de ingreso de voz 110 incluida en el aparato electrónico 100 durante un tiempo predeterminado, la unidad de control 140 libera el primer modo de tarea de voz y cambia el modo del aparato electrónico 100 a un modo de control remoto en el que el aparato electrónico 100 es controlado por un mando a distancia.
El reconocimiento de voz obtenido si se ingresa un comando de inicio de voz desde un aparato que se comunica con el aparato electrónico 100 se denomina como reconocimiento de voz a corta distancia. Si se lleva a cabo el reconocimiento de voz a corta distancia, aparece un icono 13610 que indica el reconocimiento de voz a corta distancia, como se muestra en la FIG. 136. El aparato que se comunica con el aparato electrónico 100 puede ser, entre otros, un mando a distancia o un teléfono móvil. El aparato se puede comunicar con el aparato electrónico 100 a través de una conexión por cable o inalámbrica, a través de una red, etc. El aparato se puede emparejar con el aparato electrónico 100 por medio de un proceso de emparejamiento.
el ingreso de comando de inicio de voz desde el aparato que se comunica con el aparato electrónico 100 es una señal que corresponde a un botón específico (botón de cambio de modo de tarea de voz) incluido en el aparato que se comunica con el aparato electrónico 100.
Si el comando de inicio de voz se ingresa desde el aparato que se comunica con el aparato electrónico 100, la unidad de control 140 cambia un modo del aparato electrónico 100 a un segundo modo de tarea de voz. El segundo modo de tarea de voz es un modo en el que se lleva a cabo una tarea de voz de acuerdo con un ingreso de voz del usuario a través del micrófono incluido en el aparato que se comunica con el aparato electrónico 100. Si el modo se cambia al segundo modo de tarea de voz, la unidad de control 140 exhibe el icono 13610 que indica el reconocimiento de voz a corta distancia.
Si se exhibe el icono que indica el reconocimiento de voz a corta distancia y no se ingresa una voz del usuario en el micrófono incluido en el aparato que se comunica con el aparato electrónico 100 durante un tiempo predeterminado, la unidad de control 140 libera el segundo modo de tarea de voz y cambia el modo del aparato electrónico 100 a un modo de control remoto en el que el aparato electrónico 100 es controlado por un mando a distancia.
La FIG. 137 es un diagrama de flujo para explicar un procedimiento de control del aparato electrónico 100 que proporciona un icono diferente dependiendo de un procedimiento de ingreso de voz de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe un comando de inicio de voz de uno de los micrófonos incluidos en el aparato electrónico 100 y un micrófono incluido en un mando a distancia (S13710). Si el comando de inicio de voz se ingresa desde el micrófono incluido en el aparato electrónico 100, el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz de larga distancia. Si el comando de inicio de voz se ingresa desde el micrófono incluido en el mando a distancia, el aparato electrónico 100 cambia el modo del aparato electrónico 100 a un modo de tarea de voz a corta distancia.
El aparato electrónico 100 puede exhibir un icono de forma diferente dependiendo del aparato desde el que se ingresa el comando de inicio de voz (S13720). Específicamente, si el comando de inicio de voz se ingresa desde el micrófono incluido en el aparato electrónico 100, el aparato electrónico 100 exhibe un icono que indica el modo de tarea de voz de larga distancia y, si el comando de inicio de voz se ingresa desde el micrófono incluido en el mando a distancia, el aparato electrónico 100 exhibe un icono que indica el modo de tarea de voz de corta distancia.
Como se ha descrito anteriormente, el modo de tarea de voz se divide en función del aparato desde el que se ingresa el comando de inicio de voz y el icono diferente se exhibe en función del modo de tarea de voz, de forma que el usuario pueda saber qué aparato se debe usar para llevar a cabo el modo de tarea de voz.
Después de llevar a cabo el reconocimiento de voz, la unidad de control 140 exhibe un menú de corrección de ingreso de texto (por ejemplo, un editor de procedimiento de ingreso (IME)) para corregir un texto correspondiente a una voz reconocida a fin de reconocer una voz más exactamente.
Por ejemplo, si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 exhibe información de asistencia de voz para llevar a cabo una tarea de voz, que se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110.
Si se ingresa una primera voz del usuario para llevar a cabo una tarea que requiere el ingreso de texto, la unidad de control 140 exhibe una ventana de ingreso de texto para el ingreso de texto. La tarea que requiere el ingreso de texto puede ser, entre otras, la navegación por páginas web.
Si se ingresa una segunda voz del usuario para ingresar un texto en la ventana de ingreso de texto, la unidad de control 140 puede exhibir un texto correspondiente a la segunda voz del usuario ingresada en la ventana de ingreso de texto y puede exhibir un menú de ingreso de texto.
La unidad de control 140 exhibe una pantalla anterior mientras reconoce la voz del usuario, y exhibe un texto en la ventana de ingreso de texto después de reconocer la segunda voz del usuario para ingresar un texto en la ventana de ingreso de texto. La unidad de control 140 puede exhibir el menú de ingreso de texto.
Si existe una pluralidad de palabras de búsqueda candidatas que incluyen el texto ingresado en la ventana de ingreso de texto, la unidad de control 140 exhibe un listado de palabras de búsqueda candidatas por medio de la superposición al menú de ingreso de texto.
Si el ingreso de texto en la ventana de ingreso de texto se completa o el ingreso de texto en la ventana de ingreso de texto se cancela, la unidad de control 140 puede eliminar el menú de ingreso de texto de la pantalla de visualización. En adelante en la presente memoria, se explicará un procedimiento para exhibir un menú de ingreso de texto de acuerdo con una realización ejemplar con referencia a las FIGS. 138 a 141.
Si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110 cuando se exhibe una página web, la unidad de control 140 exhibe información de asistencia de voz como se muestra en la FIG. 138.
Si se ingresa una voz del usuario (por ejemplo, “buscar”) correspondiente a un ítem de voz “buscar” a través de la unidad de ingreso de voz 110, la unidad de control 110 exhibe una ventana de ingreso de texto 13910.
Si se ingresa una voz del usuario (por ejemplo, “Samsung Electronics”) para ingresar un texto en la ventana de ingreso de texto 13910, la unidad de control 140 reconoce la voz del usuario y exhibe la voz del usuario reconocida en la ventana de ingreso de texto 13910. Es decir, la unidad de control 140 ingresa y exhibe “Samsung Electronics” en la ventana de ingreso de texto 13910 como se muestra en la FIG. 139.
Si “Samsung Electronics” se ingresa en la ventana de ingreso de texto 13910, la unidad de control 140 exhibe un menú de ingreso de texto 13920 en un lado de la ventana de ingreso de texto como se muestra en la FIG. 140. El menú de ingreso de texto es un menú para corregir un texto si el ingreso de texto en la ventana de ingreso de texto no es correcta.
Si existe una pluralidad de palabras de búsqueda candidatas que incluyan el ingreso “Samsung Electronics” en la ventana de ingreso de texto 13910, la unidad de control 140 exhibe un listado de palabras de búsqueda candidatas 13930. Por ejemplo, si las palabras de búsqueda candidatas que incluyen “Samsung Electronics” incluyen “Samsung Electronics”, “Precio de las acciones de Samsung Electronics”, y “Noticias de Samsung Electronics”, la unidad de control 140 exhibe el listado de palabras de búsqueda candidatas 13930 como se muestra en la FIG. 141.
La FIG. 142 es un diagrama de flujo para explicar un procedimiento de control del aparato electrónico que exhibe un menú de ingreso de texto (IME) de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe un comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14210). El aparato electrónico 100 puede exhibir un listado de contenidos que incluya una pluralidad de iconos ejecutables y una página web que incluya una pluralidad de hipervínculos.
Si se ingresa el comando de inicio de voz, el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz y exhibe información de asistencia de voz para llevar a cabo el modo de tarea de voz (S14220).
El aparato electrónico 100 recibe el ingreso de la voz de un usuario para llevar a cabo una búsqueda a través de la unidad de ingreso de voz 110 (S14230).
El aparato electrónico 100 exhibe una ventana de ingreso de texto para llevar a cabo la búsqueda (S14240).
Si se exhibe la ventana de ingreso de texto, el aparato electrónico 100 recibe el ingreso de voz de un usuario para ingresar un texto en la ventana de ingreso de texto a través de la unidad de ingreso de voz 110 (S14250).
Si se ingresa la voz del usuario para ingresar un texto, el aparato electrónico 100 ingresa un texto correspondiente a la voz del usuario ingresada en la ventana de ingreso de texto (S14260).
Si el texto se ingresa en la ventana de ingreso de texto, el aparato electrónico 100 exhibe un menú de ingreso de texto (S14270). El menú de ingreso de texto es un menú para corregir el ingreso de texto en la ventana de ingreso de texto si el reconocimiento de voz no es claro.
En consecuencia, si el ingreso de voz del usuario a la unidad de ingreso de voz 110 no es perfectamente reconocida, el usuario puede complementar el reconocimiento de voz mediante el uso del menú de ingreso de texto.
La unidad de control 140 puede reconocer una voz mediante el uso de un aparato externo.
Específicamente, si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 exhibe información de asistencia de voz para guiar una tarea de voz que se lleva a cabo de acuerdo con un ingreso de voz del usuario a través de un aparato que se comunica con el aparato electrónico 100 (por ejemplo, un mando a distancia). Si se selecciona un primer botón de ingreso de voz incluido en el aparato externo que se comunica con el aparato electrónico 100, la unidad de control 140 exhibe un primer mensaje de guía que orienta una búsqueda por voz en la información de asistencia por voz. Por ejemplo, puede aparecer el mensaje de guía “Pulse un botón de búsqueda por voz y, a continuación, ingrese una voz”.
La unidad de control 140 reconoce una voz del usuario a través de la unidad de ingreso de voz 110, mientras se selecciona un segundo botón de ingreso de voz incluido en el aparato externo. La unidad de ingreso de voz 110 recibe un ingreso de voz del usuario a un micrófono del aparato externo y transmite la voz del usuario a la unidad de control 140. La unidad de control 140 exhibe un segundo mensaje de guía que incluye información que indica que se ha ingresado una voz del usuario a través de la unidad de ingreso de voz 110 en la información de asistencia por voz. Por ejemplo, puede aparecer un mensaje de guía, “Se está reconociendo la voz del usuario”.
La unidad de control 140 puede ingresar la voz del usuario reconocida en una ventana de ingreso de texto como texto. La unidad de control 140 puede llevar a cabo una tarea de voz correspondiente a la voz del usuario reconocida. Si se suelta la selección del segundo botón de ingreso de voz, la unidad de control 140 puede exhibir un tercer mensaje de guía que confirma si el ingreso de la voz del usuario se ha completado o no en la información de asistencia de voz. El tercer mensaje de guía puede incluir un mensaje que pregunte si se debe continuar o no ingresando una voz del usuario, un mensaje que pregunte si la voz del usuario ingresada se ha completado o no, y un mensaje que pregunte si se debe cancelar la voz del usuario ingresada.
Si se ingresa una voz del usuario por medio de la selección de nuevo del segundo botón de ingreso de voz mientras se exhibe el tercer mensaje de guía, la unidad de control 140 puede reconocer la voz del usuario ingresada de forma continua además de la voz del usuario reconocida previamente. Por ejemplo, si la voz del usuario previamente reconocida es “Samsung” y se ingresa una voz del usuario, “Electronics”, por medio de la selección de nuevo del segundo botón de ingreso de voz, la unidad de control 140 puede ingresar “Samsung Electronics” en la ventana de ingreso de texto.
El primer botón de ingreso de voz es un botón de ingreso de voz y el segundo botón de ingreso de voz es un botón de búsqueda de voz. El primer botón de ingreso de voz y el segundo botón de ingreso de voz pueden ser diferentes entre sí o pueden ser el mismo botón.
La FIG. 143 es un diagrama de flujo para explicar un procedimiento para llevar a cabo una tarea de voz mediante el uso de un aparato externo de acuerdo con una realización ejemplar.
El aparato electrónico 100 exhibe información de asistencia de voz para llevar a cabo un modo de tarea de voz (S14310).
Un aparato externo selecciona un botón de ingreso de voz de acuerdo con una manipulación del usuario (S14320). Si se selecciona el botón de ingreso de voz, el aparato electrónico 100 exhibe un primer mensaje de guía (S14330). El primer mensaje de guía es una UI que guía una búsqueda por voz en la información de asistencia por voz.
El aparato electrónico 100 recibe el ingreso de la voz de un usuario a través de la unidad de ingreso de voz 110, mientras se selecciona un botón de búsqueda de voz en el aparato externo (S14340). La unidad de ingreso de voz 110 puede ser una unidad de comunicación que recibe un ingreso de voz del usuario desde el aparato externo. El aparato electrónico 100 reconoce el ingreso de voz del usuario a través de la unidad de ingreso de voz 110 mediante el uso del módulo de reconocimiento de voz 130k (S14350).
En la realización ejemplar anterior, el botón de ingreso de voz y el botón de búsqueda por voz pueden ser el mismo botón.
Como se ha descrito anteriormente, la voz se ingresa mientras se selecciona el botón de búsqueda por voz en el aparato externo, de forma que se puede evitar el reconocimiento de voz no deseado.
Si se exhibe un nombre pronunciable en la pantalla de visualización, la unidad de control 140 puede extraer el nombre y exhibirlo de forma distintiva. Si se ingresa un nombre a través de la unidad de ingreso de voz 110, la unidad de control 140 lleva a cabo una tarea de voz correspondiente al nombre.
Específicamente, si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz para llevar a cabo una tarea de voz en respuesta al comando de inicio de voz ingresado, y exhibe información de asistencia de voz para llevar a cabo el modo de tarea de voz.
La unidad de control 140 extrae textos de ítems seleccionables de la pantalla de visualización. La pantalla de visualización puede exhibir un listado de contenidos que incluya una pluralidad de iconos ejecutables para ejecutar una aplicación o una página web. El ítem seleccionable puede ser uno de los siguientes: un icono ejecutable incluido en el listado de contenidos para ejecutar una aplicación y un hipervínculo incluido en la página web.
Si un texto de un nombre de un ítem tiene un número de caracteres superior a un número predeterminado, la unidad de control 140 extrae sólo un texto que tenga un número de caracteres inferior al número predeterminado de entre todo el texto del nombre del ítem, y exhibe el texto.
La unidad de control 140 puede exhibir el ítem del que se extrae el texto de forma diferente a otros ítems de los que no se extraen textos.
Si un ingreso de voz del usuario a través de la unidad de ingreso de voz 110 es coherente con el texto extraído, la unidad de control 140 ejecuta el ítem correspondiente al texto.
Si el ingreso de voz del usuario a través de la unidad de ingreso de voz 110 es coherente con el texto extraído que tiene un número de caracteres menor que el número predeterminado, la unidad de control 140 ejecuta el ítem correspondiente al texto que tiene un número de caracteres menor que el número predeterminado.
En adelante en la presente memoria, se explicará un caso en el que se exhibe un comando pronunciable en una pantalla de visualización con referencia a las FIGS. 144 y 145.
La unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a un ingreso de comando de inicio de voz a través de la unidad de ingreso de voz 110. La unidad de control 140 exhibe información de asistencia por voz en una porción inferior de la pantalla.
Si se ingresa“smart hub’’a través de la unidad de ingreso de voz 110, la unidad de control 140 genera un listado de contenidos que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación y exhibe el listado de contenidos como se muestra en la FIG. 144.
La unidad de control 140 extrae los nombres de la pluralidad de iconos ejecutables.
Si se extrae el nombre de un icono ejecutable, la unidad de control 140 subraya el nombre del icono ejecutable como se muestra en la FIG. 144, y, si no se extrae el nombre de un icono ejecutable (por ejemplo, APP10 y APP11), la unidad de control 140 no subraya el nombre del icono ejecutable.
Si el nombre de un icono ejecutable tiene un número de caracteres superior a un número predeterminado, la unidad de control 140 extrae una parte del nombre del icono ejecutable y exhibe la parte del nombre. Por ejemplo, si el nombre de un icono ejecutable es “Tambor Emocionante”, la unidad de control 140 extrae una parte del nombre del icono ejecutable, “Emocionante”, y exhibe la parte del nombre como se muestra en la FIG. 144. A fin de indicar que “Emocionante” forma parte del nombre, la unidad de control 140 puede exhibir “...” después de “Emocionante”.
Si se exhibe el nombre extraído del icono ejecutable y se ingresa el nombre del icono ejecutable a través de la unidad de ingreso de voz 110, la unidad de control 140 ejecuta el icono ejecutable. Por ejemplo, si se ingresa “Emocionante” a través de la unidad de ingreso de voz 110, la unidad de control 140 ejecuta la aplicación “Tambor Emocionante”, como se muestra en la FIG. 145.
La FIG. 146 es un diagrama de flujo para explicar un procedimiento para llevar a cabo una tarea de voz si un comando pronunciable se exhibe en una pantalla de visualización de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe un comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14610).
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta al ingreso del comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14620).
El aparato electrónico 100 exhibe información de asistencia de voz para llevar a cabo el modo de tarea de voz en una porción inferior de la pantalla de visualización (S14630).
El aparato electrónico 100 extrae un texto de un ítem incluido en la pantalla de visualización (S14640). El ítem puede ser el nombre de un icono ejecutable incluido en un listado de contenidos o el texto de un hipervínculo incluido en una página web.
El aparato electrónico 100 recibe el ingreso de la voz de un usuario a través de la unidad de ingreso de voz 110 (S14650).
Si hay un ítem que tiene un texto coherente con el ingreso de voz del usuario a través de la unidad de ingreso de voz 110, el aparato electrónico 100 ejecuta el ítem correspondiente (S14660). Si sólo se exhibe una parte del texto y se ingresa una voz del usuario coherente con la parte del texto, la unidad de control 140 puede ejecutar el ítem correspondiente.
Como se ha descrito anteriormente, el nombre del texto se extrae y se exhibe de forma distintiva, de forma que el usuario pueda usar el reconocimiento de voz más fácilmente.
Mientras se ingresa una voz del usuario a través de la unidad de ingreso de voz 110, si sólo hay un hipervínculo que tenga un texto incluido en la voz del usuario ingresada, la unidad de control 140 puede ejecutar el hipervínculo correspondiente al texto.
Específicamente, si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110, en respuesta al comando de inicio de voz.
En el modo de tarea de voz, la unidad de control 140 extrae textos de una pluralidad de hipervínculos de una página web que incluye la pluralidad de hipervínculos.
Después de extraer los textos, la unidad de control 140 puede exhibir los textos extraídos de forma diferente a los textos no extraídos. Por ejemplo, la unidad de control 140 puede subrayar el texto extraído, exhibirlo grueso o resaltarlo.
Mientras se ingresa una voz del usuario a través de la unidad de ingreso de voz 110, si sólo hay un hipervínculo que tenga un texto que incluya la voz del usuario ingresada, la unidad de control 140 ejecuta el hipervínculo correspondiente al texto. Por ejemplo, si el ingreso de voz del usuario a través de la unidad de ingreso de voz 110 es “Samsung Electronics” y el único texto extraído del hipervínculo es “Samsung Electronics”, la unidad de control 140 ejecuta el hipervínculo que tiene el texto “Samsung Electronics”.
Mientras se ingresa una voz del usuario a través de la unidad de ingreso de voz 110, si sólo hay un hipervínculo cuyo texto es coherente con la voz del usuario ingresada en parte y no en su totalidad, la unidad de control 140 puede ejecutar el hipervínculo correspondiente al texto.
En la realización ejemplar anterior, se ha descrito el procedimiento para ejecutar un hipervínculo incluido en una página web. Sin embargo, esto es meramente un ejemplo y la idea técnica de la presente divulgación se puede aplicar a un procedimiento para ejecutar un icono ejecutable incluido en un listado de contenido para ejecutar una aplicación.
La FIG. 147 es un diagrama de flujo para explicar un procedimiento de reconocimiento de voz automático de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe un comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14710).
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta al ingreso del comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14720).
Si se incluye un hipervínculo en la pantalla de visualización del aparato electrónico 100, el aparato electrónico 100 extrae un texto del hipervínculo (S14730).
El aparato electrónico 100 recibe el ingreso de una voz del usuario a través de la unidad de ingreso de voz 110. Si hay un hipervínculo que incluye un texto coherente con la voz del usuario ingresada mientras se ingresa la voz del usuario, el aparato electrónico 100 ejecuta el hipervínculo correspondiente (S14740). El texto coherente con la voz del usuario puede ser un texto completo del hipervínculo. Sin embargo, esto es sólo un ejemplo y el texto coherente con la voz del usuario puede formar parte del texto del hipervínculo.
Como se ha descrito anteriormente, si sólo hay un texto coherente con la voz del usuario, el hipervínculo correspondiente se ejecuta automáticamente, de forma que el usuario puede ejecutar el hipervínculo más fácilmente mediante el uso del reconocimiento de voz.
Si se reconoce una voz del usuario de ingreso y hay una pluralidad de hipervínculos que tienen un texto coherente con la voz del usuario reconocida, la unidad de control 140 exhibe un listado de un grupo candidato que incluye los hipervínculos que tienen el texto coherente con la voz del usuario reconocida.
Específicamente, si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110, en respuesta al comando de inicio de voz.
La pantalla de visualización exhibe una página web que incluye una pluralidad de hipervínculos.
La unidad de control 140 extrae los textos incluidos en la pluralidad de hipervínculos incluidos en la página web. La unidad de control 140 puede exhibir el texto extraído diferenciado del texto no extraído. Por ejemplo, la unidad de control 140 puede subrayar el texto extraído, exhibirlo grueso o resaltarlo.
Si se ingresa una voz del usuario a través de la unidad de ingreso de voz 110, la unidad de control 140 reconoce la voz del usuario ingresada y, si hay una pluralidad de hipervínculos que tienen un texto coherente con la voz del usuario reconocida, la unidad de control 140 exhibe un listado de un grupo candidato que incluye los hipervínculos que tienen el texto coherente con la voz del usuario reconocida. Por ejemplo, si el ingreso de voz del usuario en la unidad de ingreso de voz 110 es “Samsung Electronics”, la unidad de control 140 puede generar un listado de un grupo candidato que incluya hipervínculos con un texto que incluya “Samsung Electronics”.
Si se vuelve a ingresar una voz del usuario a través de la unidad de ingreso de voz 110, la unidad de control 140 puede reconocer la voz del usuario reingresada y puede cambiar el listado del grupo candidato en base a la voz del usuario reingresada. Por ejemplo, si se reconoce “Samsung Electronics” y se vuelve a ingresar “Acciones”, la unidad de control 140 puede cambiar el listado del grupo candidato para incluir sólo un hipervínculo que tenga un texto que incluya “Acciones de Samsung Electronics “.
Si se libera el modo de tarea de voz, la unidad de control 140 puede eliminar el listado del grupo candidato de la pantalla de visualización.
La FIG. 148 es un diagrama de flujo para explicar un procedimiento para exhibir un listado de un grupo candidato de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe un comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14810).
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta al ingreso del comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14820).
El aparato electrónico 100 exhibe una página web en la pantalla de visualización de acuerdo con una manipulación del usuario (S14830). La página web incluye una pluralidad de hipervínculos.
El aparato electrónico 100 extrae los textos de los hipervínculos incluidos en la página web (S14840).
El aparato electrónico 100 recibe el ingreso de la voz de un usuario a través de la unidad de ingreso de voz 110 (S14850).
El aparato electrónico 100 determina si sólo hay un hipervínculo que tenga un texto coherente con la voz del usuario (S14860).
Si sólo hay un hipervínculo que tenga el texto coherente con la voz del usuario (S14860-Y), la unidad de control 140 ejecuta el hipervínculo correspondiente (S14870).
Sin embargo, si hay una pluralidad de hipervínculos que tienen el texto coherente con la voz del usuario (S14860-N), la unidad de control 140 genera un listado de un grupo candidato que incluye la pluralidad de hipervínculos y exhibe el listado del grupo candidato (S14880). La unidad de control 140 selecciona un hipervínculo de acuerdo con una manipulación del usuario (por ejemplo, ingresar un texto de un hipervínculo como voz) (S14890), y ejecuta el hipervínculo seleccionado (S14870).
Como se describió anteriormente, el listado del grupo candidato se genera, de forma que, incluso si hay una pluralidad de hipervínculos que son coherentes con la voz del usuario, el usuario puede ejecutar un hipervínculo deseable mediante el uso del listado del grupo candidato.
Si el nivel de un ingreso de voz del usuario a través de la unidad de ingreso de voz 110 es inferior a un nivel predeterminado, la unidad de control 140 puede exhibir una UI de respuesta que indica que una voz del usuario es irreconocible en una primera área de información de asistencia de voz.
Específicamente, si se ingresa un comando de inicio de voz a través de la unidad de ingreso de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz, en el que el aparato electrónico 100 se controla de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110, en respuesta al comando de inicio de voz.
En el modo de tarea de voz, la unidad de control 140 exhibe información de asistencia de voz guiando una tarea de voz que se lleva a cabo de acuerdo con un ingreso de voz del usuario a través de la unidad de ingreso de voz 110. La información de asistencia por voz se puede exhibir en la porción inferior de la pantalla.
La unidad de ingreso de voz 110 recibe el ingreso de una voz del usuario.
Si el ingreso de voz del usuario a través de la unidad de ingreso de voz 110 es inferior a un volumen predeterminado, la unidad de control 140 exhibe una UI de respuesta que indica que la voz del usuario es irreconocible en una primera área de la información de asistencia de voz. La UI de respuesta puede incluir una GUI que representa el volumen predeterminado y un volumen del ingreso de voz del usuario a través de la unidad de ingreso de voz 110 en forma de barra. La primera área puede estar situada en una porción inferior de la información de asistencia por voz.
Además, la unidad de control 140 puede exhibir un mensaje de que la voz del usuario debe ser más alta que el volumen predeterminado en la información de asistencia de voz. Por ejemplo, puede aparecer el mensaje “Por favor, diga más alto”.
La FIG. 149 es un diagrama de flujo para explicar una UI para guiar un error de reconocimiento de voz de acuerdo con una realización ejemplar.
El aparato electrónico 100 recibe un comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14910).
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta al ingreso del comando de inicio de voz a través de la unidad de ingreso de voz 110 (S14920).
El aparato electrónico 100 exhibe información de asistencia de voz para llevar a cabo el modo de tarea de voz en una porción inferior de la pantalla de visualización (S14930).
El aparato electrónico 100 recibe el ingreso de la voz de un usuario a través de la unidad de ingreso de voz 110 (S14940).
Si un nivel del ingreso de voz del usuario a través de la unidad de ingreso de voz 110 es inferior a un nivel predeterminado, el aparato electrónico 100 exhibe una UI de respuesta (S14950). La UI de respuesta puede incluir un mensaje de que la voz del usuario es irreconocible porque el nivel de la voz del usuario es inferior a un nivel predeterminado y un mensaje de que el usuario debe pronunciar más alto.
Como se ha descrito anteriormente, si la voz del usuario es tan pequeña que la voz es irreconocible, el aparato electrónico 100 informa de que la voz es irreconocible, de forma que el usuario pueda reconocer fácilmente que la voz es irreconocible y de ese modo pueda resolverlo fácilmente.
Como se ha descrito anteriormente, el usuario puede controlar el aparato electrónico 100 de manera más eficiente e intuitiva a través de uno de la voz del usuario y el movimiento del usuario.
En las realizaciones ejemplares anteriores, se describen movimientos de usuario (tales como un comando de inicio de movimiento de usuario que se establece como un movimiento de agitar una mano horizontalmente 3 a 4 veces). Sin embargo, estas realizaciones ejemplares no se deben considerar limitativas, dado que las realizaciones ejemplares se pueden llevar a cabo por medio de cualquier movimiento del usuario.
En las realizaciones ejemplares anteriores, se describen los comandos de voz del usuario. Sin embargo, estas realizaciones ejemplares no deben considerase deben considerar limitativas, dado que las realizaciones ejemplares se pueden llevar a cabo por medio de cualquier ingreso de voz del usuario.
En la realización ejemplar anterior, la unidad de ingreso de voz 110 puede ser llevada a cabo por un micrófono que recibe el ingreso de la voz de un usuario directamente, o por una interfaz que recibe una señal de voz de ingreso al micrófono. Asimismo, la unidad de ingreso de movimiento 120 puede estar llevada a cabo por una cámara que fotografía directamente al usuario, o puede estar llevada a cabo por una interfaz que recibe datos fotografiados por la cámara.
El aparato electrónico 100 descrito anteriormente se puede llevara cabo por medio de un televisor. Sin embargo, esto no se debe considerar limitativo y el aparato electrónico 100 se puede llevar a cabo por medio de diversos aparatos, tales como un decodificador, un Pc , un ordenador portátil, un tablet PC, un álbum electrónico, un libro electrónico, una PDA, un teléfono móvil, etc.
También, con referencia a la FIG. 3, en la unidad de almacenamiento 130 se almacenan diversos módulos de software. Sin embargo, los módulos de software no se almacenan necesariamente en una unidad de almacenamiento 130.
Es decir, el módulo de reconocimiento de voz y el módulo de reconocimiento de movimiento se pueden almacenar en unidades de almacenamiento separadas, respectivamente. En consecuencia, el módulo de reconocimiento de voz puede reconocer una voz del usuario a partir de una señal de voz ingresada desde un micrófono y puede proporcionar un resultado del reconocimiento a la unidad de control 140. Además, el módulo de reconocimiento de movimiento puede reconocer un movimiento del usuario mediante el uso de una señal de imagen fotografiada por una cámara y puede proporcionar un resultado del reconocimiento a la unidad de control 140.
También, el módulo de reconocimiento de voz y el módulo de reconocimiento de movimiento pueden ser almacenados en aparatos externos separados, respectivamente. Por ejemplo, un aparato de reconocimiento de voz que incluya un micrófono puede reconocer la voz de un usuario mediante el uso de un módulo de reconocimiento de voz y, a continuación, puede proporcionar un resultado del reconocimiento al aparato electrónico 100. Del mismo modo, un aparato de reconocimiento de movimiento que incluya una cámara puede reconocer un movimiento del usuario mediante el uso de un módulo de reconocimiento de movimiento y, a continuación, puede proporcionar un resultado del reconocimiento al aparato electrónico 100.
El aparato puede comprender una o más unidad(es) para recibir sólo uno de, o ambos, comandos de voz y movimiento. Del mismo modo, el procedimiento puede incluir la visualización, el reconocimiento y la ejecución de una tarea de voz, y/o la visualización, el reconocimiento y la ejecución de una tarea de movimiento. Cualquier característica descrita para uno de los controles de voz y control de movimiento es también aplicable al otro de los controles de voz y control de movimiento. Los comandos de movimiento y/o voz descritos son sólo ejemplos, y cualquier ejemplo puede corresponder a un comando general de movimiento y/o voz. Cualquier característica de procedimiento puede corresponder a una característica de aparato equivalente, y viceversa.
El aparato puede comprender una o más unidad(es) para recibir sólo uno o ambos comandos de voz y movimiento. Un código de programa para llevar a cabo los procedimientos de control descritos anteriormente se puede almacenar en diversos tipos de soportes de grabación. Concretamente, el código de programa se puede almacenar en diversos tipos de soportes de grabación legibles por un aparato terminal, tal como una memoria de acceso aleatorio (RAM), una memoria flash, una memoria de sólo lectura (ROM), una memoria ROM programable y borrable (EPROM), una memoria ROM programable y borrable electrónicamente (EEPROM), un registro, un disco duro, un disco extraíble, una tarjeta de memoria, una memoria USB, un CD-ROM, etc.

Claims (13)

REIVINDICACIONES
1. Un procedimiento para controlar un dispositivo electrónico, que comprende:
en respuesta a un comando de inicio de voz que se ingresa a través de un primer micrófono (no) incluido en el aparato electrónico, convertir un estado del aparato electrónico a un estado de reconocimiento de voz de larga distancia y exhibir un primer icono (13510) para indicar el estado de reconocimiento de voz de larga distancia; en respuesta a un comando de inicio de voz ingresado a través de un botón incluido en un dispositivo de control remoto externo asociado con el aparato electrónico, convertir el estado del aparato electrónico a un estado de reconocimiento de voz a corta distancia y exhibir un segundo icono (13610) para indicar el estado de reconocimiento de voz a corta distancia;
exhibir información de guía de voz (810) que incluya una pluralidad de indicadores para indicar una función ejecutable en uno de los estados de reconocimiento de voz a larga distancia o de reconocimiento de voz a corta distancia; y
en el que la voz del usuario se ingresa a través del primer micrófono (110) incluido en el aparato electrónico y en el que una tarea de voz se lleva a cabo de acuerdo con el ingreso de voz del usuario desde el primer micrófono mientras el aparato electrónico se encuentra en el estado de reconocimiento de voz a larga distancia, y en el que la voz del usuario se ingresa a través de un segundo micrófono incluido en el mando a distancia externo y en el que una tarea de voz se lleva a cabo de acuerdo con el ingreso de voz del usuario a través del segundo micrófono mientras el aparato electrónico se encuentra en el estado de reconocimiento de voz a corta distancia.
2. El procedimiento de acuerdo con la reivindicación 1, que además comprende:
en respuesta a una voz del usuario que incluye uno de la pluralidad de indicadores que se ingresan, la ejecución de un ítem correspondiente a un indicador incluido en la voz del usuario.
3. El procedimiento de acuerdo con la reivindicación 2, en el que el indicador consiste en al menos uno de un número y un carácter.
4. El procedimiento de acuerdo con se reivindica en la reivindicación 1, que además comprende:
en respuesta al ingreso de una voz del usuario irrelevante para la información de la guía de voz (810), exhibir un mensaje de respuesta que incluya un mensaje para seleccionar uno de la pluralidad de ítems.
5. El procedimiento de acuerdo con la reivindicación 4, en el que el mensaje de respuesta se exhibe en un área en la que se exhibe la información de la guía de voz (810).
6. El procedimiento de acuerdo con la reivindicación 1, en el que la voz del usuario es una voz del usuario para cambiar un canal, el procedimiento comprende exhibir un listado (1100) que incluye una pluralidad de ítems correspondientes a una pluralidad de canales relacionados con la información de canal incluida en la voz del usuario.
7. El procedimiento de acuerdo con la reivindicación 6, en el que la visualización comprende, en respuesta a la voz del usuario que incluye un número de canal, la visualización del listado (1100) que incluye la pluralidad de ítems correspondientes a la pluralidad de canales que incluyen el número de canal incluido en la voz del usuario.
8. Un aparato electrónico, que comprende:
una pantalla (193);
un primer micrófono (110); y
un controlador (140) configurado para:
en respuesta a un comando de inicio de voz que se ingresa a través del primer micrófono (110), convertir un estado del aparato electrónico a un estado de reconocimiento de voz a larga distancia y controlar la pantalla para que muestre un primer icono (13510) para indicar el estado de reconocimiento de voz a larga distancia,
en respuesta a una señal recibida de un dispositivo de control remoto asociado con el aparato electrónico que indica que se ha pulsado un botón de comando de inicio de voz, convertir el estado del aparato electrónico a un estado de reconocimiento de voz a corta distancia y controlar la pantalla para que muestre un segundo icono (13610) para indicar el estado de reconocimiento de voz a corta distancia, y exhibir información de guía de voz (810) que incluya una pluralidad de indicadores para indicar una función ejecutable en uno de los estados de reconocimiento de voz a larga distancia o de reconocimiento de voz a corta distancia,
en el que el controlador (140) además está configurado para recibir el ingreso de voz del usuario a través del primer micrófono (110) incluido en el aparato electrónico y para llevar a cabo una tarea de voz de acuerdo con la voz del usuario recibida a través del primer micrófono mientras el aparato electrónico se encuentra en el estado de reconocimiento de voz a larga distancia, y para recibir el ingreso de voz del usuario a través de un segundo micrófono incluido en el mando a distancia y para llevar a cabo una tarea de voz de acuerdo con la voz del usuario recibida a través del segundo micrófono mientras el aparato electrónico se encuentra en el estado de reconocimiento de voz a corta distancia.
9. El aparato de acuerdo con la reivindicación 8, en el que el controlador (140) además está configurado para, en respuesta a la detección de una voz del usuario que incluye uno de la pluralidad de indicadores que se están ingresando, ejecutar un ítem correspondiente a un indicador incluido en la voz del usuario, en el que el indicador puede consistir en al menos uno de entre número y un carácter.
10. El aparato como se reivindica en la reivindicación 8, que además comprende:
en respuesta a una voz del usuario irrelevante a la información de la guía de voz (830) que se está ingresando, exhibir un mensaje de respuesta que incluya un mensaje para seleccionar uno de la pluralidad de ítems.
11. El aparato de acuerdo con la reivindicación 10, en el que el mensaje de respuesta se exhibe en un área en la que se exhibe la información de la guía de voz (810).
12. El aparato de acuerdo con la reivindicación 10, en el que la voz del usuario es una voz del usuario para cambiar un canal, y
en el que el controlador (140) además está configurado para exhibir un listado (1100) que comprende una pluralidad de ítems correspondientes a una pluralidad de canales relacionados con la información de canal incluida en la voz del usuario.
13. El aparato de acuerdo con la reivindicación 12, en el que el controlador (140) además está configurado para, en respuesta a la voz del usuario que incluye un número de canal, exhibir el listado (1100) que incluye la pluralidad de ítems correspondientes a la pluralidad de canales que incluyen el número de canal incluido en la voz del usuario.
ES20189197T 2011-08-05 2012-07-10 Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo Active ES2958183T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161515459P 2011-08-05 2011-08-05
KR1020110104840A KR101262700B1 (ko) 2011-08-05 2011-10-13 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치

Publications (1)

Publication Number Publication Date
ES2958183T3 true ES2958183T3 (es) 2024-02-05

Family

ID=46601682

Family Applications (1)

Application Number Title Priority Date Filing Date
ES20189197T Active ES2958183T3 (es) 2011-08-05 2012-07-10 Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo

Country Status (5)

Country Link
US (2) US9002714B2 (es)
EP (5) EP3754997B1 (es)
JP (1) JP5819269B2 (es)
ES (1) ES2958183T3 (es)
WO (1) WO2013022223A2 (es)

Families Citing this family (228)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8914729B2 (en) * 2006-10-30 2014-12-16 Yahoo! Inc. Methods and systems for providing a customizable guide for navigating a corpus of content
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
EP3754997B1 (en) 2011-08-05 2023-08-30 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2013022218A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing user interface thereof
US20130033644A1 (en) * 2011-08-05 2013-02-07 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
US20130212478A1 (en) * 2012-02-15 2013-08-15 Tvg, Llc Audio navigation of an electronic interface
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9734839B1 (en) * 2012-06-20 2017-08-15 Amazon Technologies, Inc. Routing natural language commands to the appropriate applications
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9805721B1 (en) * 2012-09-21 2017-10-31 Amazon Technologies, Inc. Signaling voice-controlled devices
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
KR20140087717A (ko) * 2012-12-31 2014-07-09 삼성전자주식회사 디스플레이 장치 및 제어 방법
CN105009202B (zh) * 2013-01-04 2019-05-07 寇平公司 分为两部分的语音识别
AU349920S (en) * 2013-01-05 2013-07-29 Samsung Electronics Co Ltd Display screen for an electronic device
JP2016508007A (ja) 2013-02-07 2016-03-10 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
USD758439S1 (en) * 2013-02-23 2016-06-07 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US20140244267A1 (en) * 2013-02-26 2014-08-28 Avaya Inc. Integration of user orientation into a voice command system
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
USD739873S1 (en) * 2013-06-10 2015-09-29 Huawei Technologies Co., Ltd. Display screen with icon
JP6102588B2 (ja) * 2013-07-10 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8938760B1 (en) * 2013-08-01 2015-01-20 Browan Communications Inc. Television box and method for controlling display to display audio/video information
JP5955299B2 (ja) * 2013-11-08 2016-07-20 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置、表示制御方法、プログラム及び情報記憶媒体
US20150139483A1 (en) * 2013-11-15 2015-05-21 David Shen Interactive Controls For Operating Devices and Systems
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9229529B2 (en) * 2013-12-19 2016-01-05 Sony Corporation Apparatus and control method based on motion
US9120027B2 (en) * 2014-01-31 2015-09-01 Zyrobotics, LLC Toy controller for providing input to a computing device
USD765690S1 (en) * 2014-02-11 2016-09-06 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN103885596B (zh) * 2014-03-24 2017-05-24 联想(北京)有限公司 一种信息处理方法及电子设备
EP2947635B1 (en) * 2014-05-21 2018-12-19 Samsung Electronics Co., Ltd. Display apparatus, remote control apparatus, system and controlling method thereof
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
CN106415475A (zh) 2014-06-24 2017-02-15 苹果公司 用于在用户界面中导航的列界面
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9632686B1 (en) * 2014-07-24 2017-04-25 Wells Fargo Bank, N.A. Collaborative document creation
GB2528867A (en) * 2014-07-31 2016-02-10 Ibm Smart device control
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
JP2016095614A (ja) * 2014-11-13 2016-05-26 ソフトバンク株式会社 表示制御装置及びプログラム
JP2016122980A (ja) * 2014-12-25 2016-07-07 京セラ株式会社 タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラム
JP6426025B2 (ja) * 2015-02-20 2018-11-21 クラリオン株式会社 情報処理装置
USD771133S1 (en) * 2015-02-27 2016-11-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10726197B2 (en) * 2015-03-26 2020-07-28 Lenovo (Singapore) Pte. Ltd. Text correction using a second input
CN106157955A (zh) 2015-03-30 2016-11-23 阿里巴巴集团控股有限公司 一种语音控制方法及装置
CN104994214B (zh) * 2015-05-04 2018-06-05 上海智臻智能网络科技股份有限公司 一种向通话中的用户提供语音反馈信息的方法和装置
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) * 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
US10481863B2 (en) * 2016-07-06 2019-11-19 Baidu Usa Llc Systems and methods for improved user interface
USD817337S1 (en) 2016-07-07 2018-05-08 Baidu Usa Llc Display screen or portion thereof with graphical user interface
USD812635S1 (en) * 2016-07-07 2018-03-13 Baidu Usa Llc. Display screen or portion thereof with graphical user interface
USD815110S1 (en) 2016-07-07 2018-04-10 Baidu Usa Llc Display screen or portion thereof with graphical user interface
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
DE102016221564A1 (de) * 2016-10-13 2018-04-19 Bayerische Motoren Werke Aktiengesellschaft Multimodaler Dialog in einem Kraftfahrzeug
EP4044613A1 (en) 2016-10-26 2022-08-17 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
KR20180060328A (ko) * 2016-11-28 2018-06-07 삼성전자주식회사 멀티 모달 입력을 처리하는 전자 장치, 멀티 모달 입력을 처리하는 방법 및 멀티 모달 입력을 처리하는 서버
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
CN106601254B (zh) 2016-12-08 2020-11-06 阿里巴巴(中国)有限公司 信息输入方法和装置及计算设备
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10692489B1 (en) * 2016-12-23 2020-06-23 Amazon Technologies, Inc. Non-speech input to speech processing system
CN108279839A (zh) 2017-01-05 2018-07-13 阿里巴巴集团控股有限公司 基于语音的交互方法、装置、电子设备及操作系统
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
KR102362850B1 (ko) * 2017-04-14 2022-02-15 삼성전자주식회사 디스플레이장치, 디스플레이 시스템 및 디스플레이장치의 제어방법
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US20180365175A1 (en) * 2017-06-19 2018-12-20 Lenovo (Singapore) Pte. Ltd. Systems and methods to transmit i/o between devices based on voice input
CN109474843B (zh) 2017-09-08 2021-09-03 腾讯科技(深圳)有限公司 语音操控终端的方法、客户端、服务器
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN110800045A (zh) * 2017-10-24 2020-02-14 北京嘀嘀无限科技发展有限公司 用于不间断应用唤醒和语音识别的系统和方法
KR102480728B1 (ko) 2017-11-10 2022-12-23 삼성전자주식회사 전자장치 및 그 제어방법
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
FR3075427A1 (fr) * 2017-12-18 2019-06-21 Orange Assistant vocal
KR102519635B1 (ko) * 2018-01-05 2023-04-10 삼성전자주식회사 음성 명령을 처리하기 위한 전자 문서 표시 방법 및 그 전자 장치
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
CN108600796B (zh) * 2018-03-09 2019-11-26 百度在线网络技术(北京)有限公司 智能电视的控制模式切换方法、设备及计算机可读介质
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10656806B2 (en) * 2018-04-21 2020-05-19 Augmentalis Inc. Display interface systems and methods
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
CN112154412A (zh) * 2018-06-01 2020-12-29 苹果公司 用数字助理提供音频信息
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11422692B2 (en) 2018-09-28 2022-08-23 Apple Inc. System and method of controlling devices using motion gestures
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
KR102620705B1 (ko) 2018-10-11 2024-01-04 삼성전자주식회사 전자 장치 및 그의 동작 방법
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11375283B2 (en) * 2018-10-30 2022-06-28 Sony Group Corporation Configuring settings of a television
EP3647936B1 (en) * 2018-11-01 2024-02-21 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
KR20200050373A (ko) * 2018-11-01 2020-05-11 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20200054354A (ko) * 2018-11-02 2020-05-20 삼성전자주식회사 전자 장치 및 그 제어 방법
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
WO2020159047A1 (ko) * 2019-01-29 2020-08-06 삼성전자 주식회사 보이스 어시스턴트 서비스를 이용한 컨텐츠 재생 장치 및 그 동작 방법
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN113940088A (zh) 2019-03-24 2022-01-14 苹果公司 用于查看和访问电子设备上的内容的用户界面
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
CN113906419A (zh) 2019-03-24 2022-01-07 苹果公司 用于媒体浏览应用程序的用户界面
CN114115676A (zh) 2019-03-24 2022-03-01 苹果公司 包括内容项的可选表示的用户界面
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
EP3977245A1 (en) 2019-05-31 2022-04-06 Apple Inc. User interfaces for a podcast browsing and playback application
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
KR102633594B1 (ko) * 2019-10-04 2024-02-05 삼성전자주식회사 디스플레이장치, 그 제어방법 및 기록매체
JP2021071807A (ja) * 2019-10-29 2021-05-06 東芝映像ソリューション株式会社 電子機器およびプログラム
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11442607B2 (en) 2020-05-11 2022-09-13 Apple Inc. Task shortcut user interface
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
EP4165521A4 (en) * 2020-06-16 2024-03-06 Microsoft Technology Licensing Llc IMPROVE ACCESSIBILITY OF APPLICATIONS RELATED TO TOPOLOGY DIAGRAM
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US20210405761A1 (en) * 2020-06-29 2021-12-30 Ilteris Canberk Augmented reality experiences with object manipulation
CN111782098A (zh) * 2020-07-02 2020-10-16 三星电子(中国)研发中心 一种页面导航方法、装置和智能设备
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
USD973691S1 (en) * 2021-01-08 2022-12-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD978168S1 (en) * 2021-01-08 2023-02-14 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD973692S1 (en) * 2021-01-08 2022-12-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD973690S1 (en) * 2021-01-08 2022-12-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD973693S1 (en) * 2021-01-08 2022-12-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
CN116266871A (zh) * 2021-12-17 2023-06-20 广州迈聆信息科技有限公司 Android设备的控制模式切换方法、装置、存储介质及电子设备

Family Cites Families (175)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07222129A (ja) * 1994-01-28 1995-08-18 Hitachi Ltd 映像通信装置
US5732227A (en) 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5704009A (en) 1995-06-30 1997-12-30 International Business Machines Corporation Method and apparatus for transmitting a voice sample to a voice activated data processing system
US20040243529A1 (en) 1996-03-25 2004-12-02 Stoneman Martin L. Machine computational-processing systems for simulated-humanoid autonomous decision systems
JPH09322086A (ja) * 1996-05-31 1997-12-12 Hitachi Ltd 番組予約システム
IL119948A (en) * 1996-12-31 2004-09-27 News Datacom Ltd Voice activated communication system and program guide
US5909667A (en) * 1997-03-05 1999-06-01 International Business Machines Corporation Method and apparatus for fast voice selection of error words in dictated text
JPH11184669A (ja) 1997-12-24 1999-07-09 Sharp Corp 情報処理装置及び情報処理方法並びに情報処理装置制御プログラムを記憶した媒体
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6182046B1 (en) 1998-03-26 2001-01-30 International Business Machines Corp. Managing voice commands in speech applications
US6085159A (en) 1998-03-26 2000-07-04 International Business Machines Corporation Displaying voice commands with multiple variables
JP2000112610A (ja) 1998-09-30 2000-04-21 Victor Co Of Japan Ltd コンテンツ表示選択システム及びコンテンツ記録媒体
US6351222B1 (en) 1998-10-30 2002-02-26 Ati International Srl Method and apparatus for receiving an input by an entertainment device
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US7685252B1 (en) 1999-10-12 2010-03-23 International Business Machines Corporation Methods and systems for multi-modal browsing and implementation of a conversational markup language
JP2001216069A (ja) 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
KR20010015934A (ko) 2000-03-11 2001-03-05 김하철 음성인식을 이용한 응용프로그램의 메뉴 실행방법
US6428449B1 (en) * 2000-05-17 2002-08-06 Stanford Apseloff Interactive video system responsive to motion and voice command
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
JP2004505327A (ja) * 2000-07-28 2004-02-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声命令で装置を制御するシステム
US20040263377A1 (en) 2000-08-03 2004-12-30 Risi Christopher P. Television remote control systems and methods
JP3793913B2 (ja) * 2000-09-22 2006-07-05 株式会社リコー 遠隔制御システムおよび遠隔制御方法および記録媒体
US7085723B2 (en) 2001-01-12 2006-08-01 International Business Machines Corporation System and method for determining utterance context in a multi-context speech application
JP3523213B2 (ja) 2001-03-28 2004-04-26 株式会社ジャストシステム コマンド処理装置、コマンド処理方法、及びコマンド処理プログラム
US6508706B2 (en) * 2001-06-21 2003-01-21 David Howard Sitrick Electronic interactive gaming apparatus, system and methodology
CA2397451A1 (en) 2001-08-15 2003-02-15 At&T Corp. Systems and methods for classifying and representing gestural inputs
JP2003084794A (ja) 2001-09-07 2003-03-19 Olympus Optical Co Ltd 音声制御システム
US7324947B2 (en) 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
US6889191B2 (en) * 2001-12-03 2005-05-03 Scientific-Atlanta, Inc. Systems and methods for TV navigation with compressed voice-activated commands
US7996232B2 (en) 2001-12-03 2011-08-09 Rodriguez Arturo A Recognition of voice-activated commands
DE60222852D1 (de) 2001-12-18 2007-11-22 Matsushita Electric Ind Co Ltd Fernsehapparat mit Spracherkennungsfunktion
US7821541B2 (en) 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
FI20020847A (fi) 2002-05-03 2003-11-04 Nokia Corp Menetelmä ja laite valikkotoimintojen käyttämiseksi
JP4024134B2 (ja) 2002-11-22 2007-12-19 シャープ株式会社 折り畳み型携帯電話機
US7571100B2 (en) 2002-12-03 2009-08-04 Speechworks International, Inc. Speech recognition and speaker verification using distributed speech processing
US7461352B2 (en) 2003-02-10 2008-12-02 Ronald Mark Katsuranis Voice activated system and methods to enable a computer user working in a first graphical application window to display and control on-screen help, internet, and other information content in a second graphical application window
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
AU2003214512A1 (en) 2003-04-07 2004-11-01 Nokia Corporation Method and device for providing speech-enabled input in an electronic device having a user interface
JP4332707B2 (ja) 2003-05-12 2009-09-16 ソニー株式会社 操作入力受付装置、操作入力受付方法および遠隔操作システム
JP3728304B2 (ja) 2003-07-10 2005-12-21 キヤノン株式会社 情報処理方法、情報処理装置、プログラム、及び記憶媒体
US20050132420A1 (en) 2003-12-11 2005-06-16 Quadrock Communications, Inc System and method for interaction with television content
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
JP2005208798A (ja) 2004-01-21 2005-08-04 Nissan Motor Co Ltd 情報提供端末、および情報提供方法
TW200537941A (en) 2004-01-26 2005-11-16 Koninkl Philips Electronics Nv Replay of media stream from a prior change location
TWI253298B (en) 2004-02-09 2006-04-11 Delta Electronics Inc Video device with voice-assisted system
JP2007052397A (ja) * 2005-07-21 2007-03-01 Denso Corp 操作装置
JP2007034525A (ja) 2005-07-25 2007-02-08 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR20070030398A (ko) 2005-09-13 2007-03-16 주식회사 팬택 사용자의 손 동작에 따라서 마우스 포인터를 제어하는 이동통신 단말기 및 그 구현 방법
US8620667B2 (en) 2005-10-17 2013-12-31 Microsoft Corporation Flexible speech-activated command and control
KR100733964B1 (ko) 2005-11-25 2007-06-29 한국전자통신연구원 모션인식과 음성인식을 이용한 게임 장치 및 그 방법
US20070130547A1 (en) 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
EP1961619B1 (en) 2005-12-16 2012-03-14 Panasonic Corporation Input device and input method for mobile body
DE102005061144A1 (de) 2005-12-21 2007-06-28 Robert Bosch Gmbh Bedienvorrichtung für ein elektronisches Gerät, insbesondere eine Fahrerinformationsvorrichtung
JP2007171809A (ja) 2005-12-26 2007-07-05 Canon Inc 情報処理装置及び情報処理方法
EP1804500A1 (fr) 2005-12-30 2007-07-04 Le Club Confort et Sécurité Téléviseur multifonction et autonome
US8869200B2 (en) 2006-02-14 2014-10-21 At&T Intellectual Property I, L.P. Selection list of thumbnails
KR100858358B1 (ko) 2006-09-29 2008-09-11 김철우 손의 움직임 인식을 이용한 사용자인터페이스 장치 및 방법
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP4267648B2 (ja) 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
KR100783552B1 (ko) 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
KR100885699B1 (ko) 2006-12-01 2009-02-26 엘지전자 주식회사 키 입력 장치 및 입력 방법
WO2008069519A1 (en) 2006-12-04 2008-06-12 Electronics And Telecommunications Research Institute Gesture/speech integrated recognition system and method
KR100948600B1 (ko) 2006-12-04 2010-03-24 한국전자통신연구원 제스처/음성 융합 인식 시스템 및 방법
US20080140944A1 (en) 2006-12-12 2008-06-12 Hitachi, Ltd. Method and apparatus for storage resource management in plural data centers
DE202007014957U1 (de) 2007-01-05 2007-12-27 Apple Inc., Cupertino Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
WO2008093683A1 (ja) 2007-01-31 2008-08-07 Alps Electric Co., Ltd. 静電容量式モーション検出装置及びそれを用いた入力装置
US8620652B2 (en) 2007-05-17 2013-12-31 Microsoft Corporation Speech recognition macro runtime
DE112008001396B4 (de) 2007-06-05 2015-12-31 Mitsubishi Electric Corp. Fahrzeugbedienungsvorrichtung
US9094717B2 (en) 2007-06-21 2015-07-28 Imagine Communications Corp. System and method for creating and using a smart electronic programming guide
KR20090022465A (ko) 2007-08-30 2009-03-04 엘지전자 주식회사 단말기 메뉴 선택 방법 및 이를 구비한 단말기
US8666525B2 (en) * 2007-09-10 2014-03-04 Palo Alto Research Center Incorporated Digital media player and method for facilitating music recommendation
US20090079625A1 (en) 2007-09-20 2009-03-26 Scott Denton Golf gps device with voice recognition
US8595642B1 (en) 2007-10-04 2013-11-26 Great Northern Research, LLC Multiple shell multi faceted graphical user interface
US8165886B1 (en) 2007-10-04 2012-04-24 Great Northern Research LLC Speech interface system and method for control and interaction with applications on a computing system
JP5253376B2 (ja) 2007-10-16 2013-07-31 パナソニック株式会社 放送受信装置、放送受信方法およびプログラム
US8294669B2 (en) 2007-11-19 2012-10-23 Palo Alto Research Center Incorporated Link target accuracy in touch-screen mobile devices by layout adjustment
JP2011504710A (ja) 2007-11-21 2011-02-10 ジェスチャー テック,インコーポレイテッド メディア嗜好
US20090158190A1 (en) 2007-12-13 2009-06-18 Yuvee, Inc. Computing apparatus including a personal web and application assistant
CN101483683A (zh) 2008-01-08 2009-07-15 宏达国际电子股份有限公司 手持装置及其语音识别方法
KR20090077480A (ko) 2008-01-11 2009-07-15 삼성전자주식회사 조작 가이드를 표시하는 ui 제공방법 및 이를 적용한멀티미디어 기기
US20090182562A1 (en) 2008-01-14 2009-07-16 Garmin Ltd. Dynamic user interface for automated speech recognition
US9177551B2 (en) 2008-01-22 2015-11-03 At&T Intellectual Property I, L.P. System and method of providing speech processing in user interface
KR20090084212A (ko) 2008-01-31 2009-08-05 포항공과대학교 산학협력단 멀티모달 대화 인터페이스를 이용하는 홈 네트워크 제어시스템 및 그 방법
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
CN101965689B (zh) 2008-03-06 2014-04-30 Gn奈康有限公司 在远程控制系统中作为集线器的耳麦
US9077933B2 (en) 2008-05-14 2015-07-07 At&T Intellectual Property I, L.P. Methods and apparatus to generate relevance rankings for use by a program selector of a media presentation system
KR20100007625A (ko) 2008-07-14 2010-01-22 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
JP2010045730A (ja) * 2008-08-18 2010-02-25 Sony Corp 情報処理装置、情報処理方法、遠隔制御装置及び情報処理システム
TW201009650A (en) 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
KR20100030737A (ko) 2008-09-11 2010-03-19 이필규 3d 인터랙션을 위한 영상정보 기반의 마우스 구현 방법 및장치
KR101017936B1 (ko) 2008-09-18 2011-03-04 동명대학교산학협력단 사용자의 제스춰 정보 인식을 기반으로 하여 디스플레이장치의 동작을 제어하는 시스템
JP2010072507A (ja) 2008-09-22 2010-04-02 Toshiba Corp 音声認識検索装置及び音声認識検索方法
US8176438B2 (en) 2008-09-26 2012-05-08 Microsoft Corporation Multi-modal interaction for a screen magnifier
CN101714355A (zh) 2008-10-06 2010-05-26 宏达国际电子股份有限公司 语音辨识功能启动系统及方法
US8344870B2 (en) 2008-10-07 2013-01-01 Cisco Technology, Inc. Virtual dashboard
CN101729808B (zh) 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
JP4591798B2 (ja) * 2008-10-23 2010-12-01 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
CN101419499B (zh) 2008-11-14 2010-06-02 东南大学 基于摄像头和话筒的多媒体人机交互方法
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
KR20100062012A (ko) * 2008-12-01 2010-06-10 엘지전자 주식회사 디지털 방송 수신 장치 및 그 동작 방법
US20100138797A1 (en) 2008-12-01 2010-06-03 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
CN101437124A (zh) 2008-12-17 2009-05-20 三星电子(中国)研发中心 面向电视控制的动态手势识别信号处理方法
US20100153996A1 (en) 2008-12-17 2010-06-17 Migos Charles J Gesture based electronic program management system
US20100171696A1 (en) 2009-01-06 2010-07-08 Chi Kong Wu Motion actuation system and related motion database
JP5175755B2 (ja) 2009-02-04 2013-04-03 株式会社東芝 ジェスチャ認識装置、その方法及びそのプログラム
JP5177075B2 (ja) 2009-02-12 2013-04-03 ソニー株式会社 動作認識装置、動作認識方法、プログラム
KR20100101389A (ko) 2009-03-09 2010-09-17 삼성전자주식회사 사용자 메뉴를 제공하는 디스플레이 장치 및 이에 적용되는ui제공 방법
KR101046022B1 (ko) 2009-03-11 2011-07-01 삼성전기주식회사 인체 움직임 및 인간 음성을 이용한 원격 조정 장치
US8136051B2 (en) 2009-03-13 2012-03-13 Sony Corporation Method and apparatus for automatically updating a primary display area
US9123341B2 (en) 2009-03-18 2015-09-01 Robert Bosch Gmbh System and method for multi-modal input synchronization and disambiguation
JP2011040036A (ja) 2009-03-30 2011-02-24 Avaya Inc グラフィカル・ユーザ・インターフェースを用いて通信セッションを管理するシステムと方法。
US20100257475A1 (en) 2009-04-07 2010-10-07 Qualcomm Incorporated System and method for providing multiple user interfaces
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
KR101567785B1 (ko) 2009-05-28 2015-11-11 삼성전자주식회사 휴대단말에서 줌 기능 제어 방법 및 장치
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US20100306716A1 (en) 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US11012732B2 (en) * 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
US9710097B2 (en) 2009-07-10 2017-07-18 Adobe Systems Incorporated Methods and apparatus for natural media painting using touch-and-stylus combination gestures
US8428368B2 (en) 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
KR101611302B1 (ko) * 2009-08-10 2016-04-11 엘지전자 주식회사 제스쳐 입력이 가능한 휴대 단말기 및 그 제어방법
TW201106701A (en) 2009-08-14 2011-02-16 Novatek Microelectronics Corp Device and method of voice control and related display device
US8432305B2 (en) 2009-09-03 2013-04-30 Samsung Electronics Co., Ltd. Electronic apparatus, control method thereof, remote control apparatus, and control method thereof
KR101289081B1 (ko) 2009-09-10 2013-07-22 한국전자통신연구원 음성 인터페이스를 이용한 iptv 시스템 및 서비스 방법
KR101602461B1 (ko) 2009-09-22 2016-03-15 삼성전자주식회사 디스플레이 장치 및 휴대폰의 제어방법
US8346432B2 (en) 2009-09-23 2013-01-01 Ford Global Technologies, Llc System and method for remotely controlling vehicle components from a nomadic communication device or computer
JP5473520B2 (ja) * 2009-10-06 2014-04-16 キヤノン株式会社 入力装置及びその制御方法
US20120188164A1 (en) 2009-10-16 2012-07-26 Prasenjit Dey Gesture processing
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
CN102055925A (zh) 2009-11-06 2011-05-11 康佳集团股份有限公司 支持手势遥控的电视机及其使用方法
KR101623007B1 (ko) 2009-11-11 2016-05-20 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
JP2011118725A (ja) 2009-12-04 2011-06-16 Sharp Corp 情報処理機器、情報処理方法および情報処理プログラム
US8626511B2 (en) 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
KR101086699B1 (ko) 2010-02-04 2011-11-24 성균관대학교산학협력단 사용자 선호도 기반 이미지 관리장치 및 이미지 관리방법
RU2422878C1 (ru) 2010-02-04 2011-06-27 Владимир Валентинович Девятков Способ управления телевизором с помощью мультимодального интерфейса
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US20110219340A1 (en) 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
JP2011209786A (ja) 2010-03-29 2011-10-20 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
CN201708869U (zh) 2010-03-31 2011-01-12 广东长虹电子有限公司 一种通过手势控制电视机的装置
KR101134245B1 (ko) 2010-05-28 2012-04-09 엘지이노텍 주식회사 3차원 가상 리모콘을 포함한 전자기기 및 그의 구동 방법
JP5625506B2 (ja) 2010-06-04 2014-11-19 ソニー株式会社 操作端末装置、電子機器、および電子機器システム
US20110307250A1 (en) 2010-06-10 2011-12-15 Gm Global Technology Operations, Inc. Modular Speech Recognition Architecture
US20110310005A1 (en) 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
EP2421251A1 (en) 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US9213890B2 (en) 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
CN101951474A (zh) 2010-10-12 2011-01-19 冠捷显示科技(厦门)有限公司 基于手势控制的电视技术
US20120110456A1 (en) 2010-11-01 2012-05-03 Microsoft Corporation Integrated voice command modal user interface
US9304592B2 (en) 2010-11-12 2016-04-05 At&T Intellectual Property I, L.P. Electronic device control based on gestures
KR101789619B1 (ko) 2010-11-22 2017-10-25 엘지전자 주식회사 멀티미디어 장치에서 음성과 제스쳐를 이용한 제어 방법 및 그에 따른 멀티미디어 장치
US20120239396A1 (en) 2011-03-15 2012-09-20 At&T Intellectual Property I, L.P. Multimodal remote control
US8918544B2 (en) 2011-03-31 2014-12-23 Logitech Europe S.A. Apparatus and method for configuration and operation of a remote-control system
US20120260287A1 (en) 2011-04-07 2012-10-11 Sony Corporation Personalized user interface for audio video display device such as tv
US20120257035A1 (en) 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
US20120280915A1 (en) 2011-05-02 2012-11-08 Nokia Corporation Method and apparatus for facilitating interacting with a multimodal user interface
US8923686B2 (en) 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
US8788203B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation User-driven navigation in a map navigation tool
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
WO2013022221A2 (en) 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
KR101262700B1 (ko) 2011-08-05 2013-05-08 삼성전자주식회사 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치
WO2013022218A2 (en) 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing user interface thereof
EP3754997B1 (en) 2011-08-05 2023-08-30 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
KR101733115B1 (ko) 2011-11-08 2017-05-10 한국전자통신연구원 원격 스크린내 콘텐츠 원격 제어 방법 및 장치
US8788269B2 (en) 2011-12-15 2014-07-22 Microsoft Corporation Satisfying specified intent(s) based on multimodal request(s)
EP2860726B1 (en) * 2011-12-30 2017-12-06 Samsung Electronics Co., Ltd Electronic apparatus and method of controlling electronic apparatus
KR102003267B1 (ko) * 2011-12-30 2019-10-02 삼성전자주식회사 전자 장치 및 그의 제어 방법
US9225891B2 (en) * 2012-02-09 2015-12-29 Samsung Electronics Co., Ltd. Display apparatus and method for controlling display apparatus thereof
US10209954B2 (en) 2012-02-14 2019-02-19 Microsoft Technology Licensing, Llc Equal access to speech and touch input
US9292253B2 (en) 2012-08-02 2016-03-22 Nuance Communications, Inc. Methods and apparatus for voiced-enabling a web application
US20140095172A1 (en) 2012-10-01 2014-04-03 Nuance Communications, Inc. Systems and methods for providing a voice agent user interface
US20140351729A1 (en) 2013-05-21 2014-11-27 Samsung Electronics Co., Ltd. Method of operating application and electronic device implementing the same

Also Published As

Publication number Publication date
EP4235365A3 (en) 2023-11-01
US20130033643A1 (en) 2013-02-07
US20150160919A1 (en) 2015-06-11
EP3754997A1 (en) 2020-12-23
EP4235365A2 (en) 2023-08-30
EP3754997B1 (en) 2023-08-30
EP2555536A1 (en) 2013-02-06
WO2013022223A3 (en) 2013-05-02
US9002714B2 (en) 2015-04-07
JP5819269B2 (ja) 2015-11-18
WO2013022223A2 (en) 2013-02-14
EP2986014A1 (en) 2016-02-17
JP2013037688A (ja) 2013-02-21
US9733895B2 (en) 2017-08-15
EP3754997C0 (en) 2023-08-30
EP3413575A1 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
ES2958183T3 (es) Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo
EP2555537B1 (en) Electronic apparatus and method for providing user interface thereof
JP5746111B2 (ja) 電子装置及びその制御方法
AU2012293060B2 (en) Electronic apparatus and method for providing user interface thereof
US20130035941A1 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US20130033644A1 (en) Electronic apparatus and method for controlling thereof