ES2739396T3 - Terminal móvil y método de control del mismo - Google Patents

Terminal móvil y método de control del mismo Download PDF

Info

Publication number
ES2739396T3
ES2739396T3 ES14000426T ES14000426T ES2739396T3 ES 2739396 T3 ES2739396 T3 ES 2739396T3 ES 14000426 T ES14000426 T ES 14000426T ES 14000426 T ES14000426 T ES 14000426T ES 2739396 T3 ES2739396 T3 ES 2739396T3
Authority
ES
Spain
Prior art keywords
display unit
mobile terminal
screen
touch
touch gestures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14000426T
Other languages
English (en)
Inventor
Jongseok Park
Jinhae Choi
Andy Kim
Chulbae Lee
Yoosok Saw
Hyunghoon Oh
Eunyoung Kim
Younghoon Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2739396T3 publication Critical patent/ES2739396T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • G06F3/0433Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/56Details of telephonic subscriber devices including a user help function

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Telephone Function (AREA)

Abstract

Un terminal móvil (100) que comprende: una unidad de comunicación inalámbrica (110) configurada para comunicarse de forma inalámbrica con al menos otro terminal; una unidad de visualización (151) que comprende una visualización configurada para mostrar información; un sensor de contacto configurado para detectar gestos de toque aplicados a la unidad de visualización (151); una memoria (160) configurada para almacenar una coincidencia de una pluralidad de acciones para realizar con una pluralidad de gestos de toque; y un controlador (180) configurado para: mostrar, en la unidad de visualización (151), en un estado activado de la unidad de visualización (151) en la que la iluminación proporcionada para iluminar la unidad de visualización (151) está en estado encendido, una de la pantalla de inicio y una pantalla de bloqueo, en el que la pantalla de inicio incluye al menos una región en la que se genera un objeto correspondiente a una aplicación instalada en el terminal móvil, y al menos una región de espacio vacío en la que no se genera ningún objeto, y en la que la pantalla de bloqueo se muestra en un modo de bloqueo del terminal móvil incluye un objeto relacionado con una función de control preestablecida, y al menos una región de espacio vacío en la que no se emite ningún objeto; calcular una región en la que los gestos de toque se detectan en la pantalla de inicio o en la pantalla de bloqueo, incluyendo calcular, cuando se detecta un primer gesto de toque, una región predeterminada que comienza desde un punto en el que se detecta el primer gesto de toque en la zona de la pantalla de inicio y la pantalla de bloqueo y determinar si se detecta un segundo gesto de toque en la región predeterminada dentro de un tiempo de referencia a partir de un punto en el tiempo en el que se detectó el primer gesto de toque; ejecutar, cuando el primer gesto de toque se detecta en una región en la que se muestra un objeto específico incluido en la pantalla de inicio y la pantalla de bloqueo, una función de control preestablecida; conmutar, cuando el primer gesto de toque y el segundo gesto de toque se aplican dentro del tiempo de referencia a la región predeterminada incluida en la al menos una región de espacio vacío de la pantalla de inicio, la unidad de visualización (151) del estado activado, en el que el la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado encendido, a un estado desactivado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en un estado apagado; y cuando el primer gesto de toque y el segundo gesto de toque se aplican dentro del tiempo de referencia a la región predeterminada incluida en la al menos una región de espacio vacío de la pantalla de bloqueo, la unidad de visualización (151) del estado activado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado encendido, a un estado desactivado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado apagado.

Description

DESCRIPCIÓN
Terminal móvil y método de control del mismo
Antecedentes de la invención
Campo de la invención
La presente invención se refiere a un terminal móvil que detecta gestos de toque al tocar un objeto y un método de control del mismo.
Descripción de la técnica relacionada
En general, los terminales se pueden dividir en un terminal móvil y un terminal fijo. Además, los terminales móviles se pueden dividir en un terminal de mano y un terminal de montaje en vehículo. A medida que tales funciones se diversifican, el terminal móvil puede admitir funciones más complicadas, como capturar imágenes o videos, reproducir música o archivos de video, jugar juegos, recibir señales de transmisión y similares. El terminal móvil es así un reproductor o dispositivo multimedia.
Sin embargo, debido a que el terminal móvil incluye ahora tantas funciones diferentes, a menudo es difícil de operar y las interfaces de usuario están limitadas en naturaleza.
El documento US 2010/0085216 A1 se refiere a una entrada basada en vibración para dispositivos móviles, donde se genera una vibración por un impacto controlado por el usuario en una superficie acoplada mecánicamente a un dispositivo electrónico. Con un módulo de detección de vibraciones, tal como un micrófono, se puede recibir una señal de impacto que incluye la vibración generada por el impacto controlado por el usuario con la superficie. Una acción predesignada se puede ejecutar en función de un patrón de vibración asignado a la acción predesignada. Iris Leung, "The Mobile Applications Lab is Canada's First Laboratory for Mobile App Development", techvibes.com se refiere a un dispositivo móvil con un micrófono para captar las vibraciones generadas por un usuario tocando en diversas partes de una mesa para generar firmas acústicas. Al definir algunas teclas en una superficie, el usuario puede avanzar, retroceder y acercarse a deslizamientos específicos sin tener que tocar el dispositivo móvil.
Heo Seongkook, "Force Tap: Extending the Input Vocabulary of Mobile Touch Screens by adding Tap Gestures", MobileHCI 2011, del 30 de agosto al 2 de septiembre de 2011, Estocolmo, Suecia se refiere a la distinción entre un toque fuerte y un toque suave. Cuando un usuario toca una pantalla de contacto, el dispositivo se mueve momentáneamente en la dirección de la intensidad que el dedo aplica a la pantalla. Este movimiento se puede medir al monitorizar la aceleración del dispositivo a lo largo de la dirección perpendicular a la pantalla de contacto.
"A tour around my DYI Tasker sidebar UI - Pocketables", recuperado de Internet se refiere a la activación de una interfaz de usuario de la barra lateral de un acceso directo en una pantalla de bloqueo o haciendo doble espacio vacío tocando en una pantalla de inicio.
El documento US 2008/168290 A1 se refiere a un proceso para el apagado de un dispositivo. El apagado se realiza presionando inicialmente un botón seguido de una acción de apagado que incluye el contacto del usuario con una pantalla de contacto y un gesto. El dispositivo muestra en la pantalla de contacto una o más indicaciones visuales de la acción de apagado que el usuario puede realizar para completar el procedimiento de apagado. La/s indicación/indicaciones visuales proporcionan sugerencias o recordatorios de la acción de apagado al usuario. El usuario puede iniciar el contacto con la pantalla de contacto, como uno o más toques en la pantalla de contacto, seguido del gesto para completar el proceso de apagado. Si el contacto corresponde a un intento fallido o abortado por parte del usuario de realizar la acción de apagado, entonces el dispositivo permanece encendido.
Sumario de la invención
La presente invención proporciona un terminal móvil como se define en la reivindicación 1. Realizaciones preferidas se definen mediante las reivindicaciones dependientes. Un aspecto de la presente divulgación proporciona un terminal móvil capaz de generar un comando de control basado en gestos de toque de un objeto, y un método de control del mismo.
Para lograr estas y otras ventajas y de acuerdo con el propósito de la presente invención, como se realiza y describe ampliamente en el presente documento, la presente invención proporciona en un aspecto un terminal móvil que incluye: una unidad de detección configurada para detectar gestos de toques al tocar un objeto; y un controlador configurado para ejecutar una o más funciones, en el que cuando se ejecutan una o más funciones, y cuando la unidad de detección detecta los gestos de toque continuos dentro de un tiempo de referencia, el controlador controla al menos una de la una o más funciones ejecutadas y desactiva la unidad de visualización.
En una realización de la presente invención, el controlador puede detener al menos una de las funciones en respuesta a los gestos de toque.
En una realización de la presente invención, pantallas ejecutadas puede emitirse a la unidad de visualización de acuerdo con la ejecución de las una o más funciones, y el controlador puede desactivar la unidad de visualización a la que las pantallas ejecutadas se emiten en respuesta a los gestos de toque.
En una realización de la presente invención, la unidad de visualización puede emitir información de pantalla, y el controlador puede controlar una función correspondiente a la información de pantalla emitida a un punto en que se han aplicado los gestos de toque.
En una realización de la presente invención, la unidad de visualización puede emitir pantallas ejecutadas de acuerdo con la ejecución de la una o más funciones, en el que el controlador puede interrumpir la visualización de la pantalla ejecutada emitida a la posición a la que los gestos de toques se han aplicado.
En una realización de la presente invención, la pantalla ejecutada terminado puede corresponder a una pantalla ejecutada de una aplicación, y el controlador puede terminar la visualización de la pantalla ejecutada emitida a la posición a la que se han aplicado los gestos de toques, y terminar el accionamiento de la aplicación.
En una realización de la presente invención, cuando las pantallas ejecutadas de la una o más funciones no se muestran en la posición en la que se han aplicado los gestos de toques, el controlador puede desactivar la unidad de visualización.
En una realización de la presente invención, la unidad de visualización puede emitir una pluralidad de pantallas ejecutadas en conjunto de acuerdo con la ejecución de una o más funciones, y el controlador puede terminar la visualización de una cualquiera de la pluralidad de pantallas ejecutadas de acuerdo con una posición a la que se han aplicado los gestos de toque.
En una realización de la presente invención, cualquier pantalla ejecutada puede ser una pantalla ejecutada emitida a una posición en la que se han aplicado los gestos de toque, entre la pluralidad de pantallas ejecutadas, y el controlador puede cambiar un tamaño de visualización de al menos una pantalla ejecutada diferente de cualquiera de las pantallas ejecutadas, cuando se termina la visualización de cualquiera de la pluralidad de pantallas ejecutadas.
En una realización de la presente invención, la al menos una función controlada puede variar según el número de puntos a los que los gestos de toques que se han aplicado de forma simultánea.
En una realización de la presente invención, cuando se detectan los gestos de toques, el controlador puede emitir información de guía con respecto a las funciones que corresponden al número de puntos a los que los gestos de toques que se han aplicado de forma simultánea.
En una realización de la presente invención, el terminal móvil puede incluir además: una memoria configurada para almacenar información de función que corresponde a diferentes funciones a ser ejecutadas de acuerdo con el número de puntos a los que se aplican simultáneamente los gestos de toque, en el que cuando una se recibe la solicitud del usuario o cuando se detectan los gestos de toque, el controlador puede emitir una lista de información de función correspondiente a diferentes funciones a la unidad de visualización con referencia a la información de función almacenada en la memoria.
En una realización de la presente invención, basada en la manipulación del usuario con respecto a la lista de información de función, al menos una de las diferentes funciones que corresponden a la lista de información de función puede cambiarse.
En una realización de la presente invención, el controlador puede controlar diferentes funciones entre la una o más funciones en ejecución de acuerdo con el punto de destino al que se han aplicado los gestos de toque.
En una realización de la presente invención, el punto de destino puede incluir el cuerpo del terminal y un punto fuera del cuerpo del terminal.
En una realización de la presente invención, cuando los gestos de toque se aplican a un punto fuera del cuerpo, una función relacionada con una salida de sonido entre la una o más funciones en ejecución puede terminarse, y cuando los gestos de toque se aplican al cuerpo, las funciones relacionadas con la salida de sonido y una visualización de pantalla entre una o más funciones que se ejecutan pueden terminarse juntas.
En una realización de la presente invención, un comando de control para controlar diferentes funciones entre la una o más funciones en ejecución puede generarse de acuerdo con la intensidad con la que se aplican los gestos de toque.
En una realización de la presente invención, la unidad de detección puede incluir un acelerómetro configurado para detectar los gestos de toque mediante el uso de un movimiento del terminal generado por los gestos de toque. Para lograr estas y otras ventajas y de acuerdo con el propósito de la presente invención, como se realiza y describe ampliamente en el presente documento, la presente invención proporciona en otro aspecto un método para controlar un terminal móvil. El método incluye: generar pantallas ejecutadas de acuerdo con la ejecución de una o más funciones; detectar continuamente gestos de toque al tocar un objeto dentro de un tiempo de referencia cuando se muestran las pantallas ejecutadas; y generar una señal de control para ejecutar una función que previamente haya coincidido con los gestos de toque.
En una realización de la presente invención, la función previamente coincidente puede variar en base a al menos uno de un punto de destino de los gestos de toque, una intensidad con la que se aplican los gestos de toque, y el número de puntos a los que se aplican los gestos de toque simultáneamente.
En una realización de la presente invención, cualquiera de las funciones anteriormente coincidentes a los gestos de toque puede ser una función de terminación de al menos una de la una o más funciones.
De acuerdo con una realización de la presente invención, cuando gestos de toque continuos dentro de un tiempo de referencia son detectados, el terminal móvil realiza una función previamente coincidente con las características de los gestos de toque, por lo que una nueva interfaz de usuario capaz de simplemente controlar las funciones del terminal puede proporcionarse.
Además, según una realización de la presente invención, puesto que el terminal móvil ejecuta diferentes funciones basadas en al menos uno de un punto de destino de gestos de toque, la intensidad con que se aplican los gestos de toque, y el número de puntos a los que se aplican simultáneamente, los gestos de toque, se pueden proporcionar varias interfaces que utilizan gestos de toque.
Además, de acuerdo con una realización de la presente invención, ya que el terminal móvil detecta gestos de toque continuos dentro de un tiempo de referencia mediante el uso de un impacto generado por los gestos de toque, aunque un punto de destino de los gestos de toque está fuera del cuerpo del terminal, el terminal móvil puede detectar los gestos de toque. Por ejemplo, con el terminal móvil colocado en los bolsillos de un pantalón, cuando se recibe una llamada, el usuario puede tocar el pantalón con el terminal dentro del mismo para rechazar la llamada recibida.
Otro ámbito de aplicación de la presente invención resultará evidente a partir de la descripción detallada que se da a continuación. Sin embargo, la descripción detallada y los ejemplos específicos, aunque indican realizaciones preferidas de la invención, se dan solo a modo de ilustración.
Breve descripción de los dibujos
La presente invención se comprenderá más completamente a partir de la descripción detallada que se da a continuación y de los dibujos que se acompañan, que se proporcionan como ilustración únicamente y, por lo tanto, no son limitativos de la presente invención, y en los que:
La figura 1 es un diagrama de bloques de un terminal móvil de acuerdo con una realización de la presente invención. Las figuras 2A y 2B son vistas conceptuales de sistemas de comunicación en los que el terminal móvil de acuerdo con una realización de la presente invención es operable.
La figura 3A es una vista en perspectiva frontal del terminal móvil relacionado con la presente invención.
La figura 3B es una vista en perspectiva trasera del terminal móvil ilustrado en la figura 3A.
La figura 4 es un diagrama de flujo que ilustra una realización del terminal móvil de acuerdo con una realización de la presente invención.
La figura 5 es una vista que ilustra un ejemplo de una operación del terminal móvil de la figura 4.
La figura 6 es una vista conceptual que ilustra un ejemplo de una operación de desactivación de una unidad de visualización en respuesta a gestos de toque en el terminal móvil de acuerdo con una realización de la presente invención.
Las figuras 7A y 7B son vistas conceptuales que ilustran un ejemplo de operaciones de control de funciones correspondientes a la salida de información de pantalla a la unidad de visualización en el terminal móvil de acuerdo con una realización de la presente invención.
Las figuras 8A y 8B son vistas conceptuales que ilustran ejemplos de operaciones del terminal móvil que ejecutan diferentes funciones según el número de puntos a los que se aplican simultáneamente los gestos de toque.
Las figuras 9A y 9B son vistas conceptuales que ilustran ejemplos de operaciones de la información de la función de salida del terminal móvil a medida que se detectan los gestos de toque.
La figura 10 es una vista que ilustra el terminal móvil que genera una lista de información de función que coincide con las características de los gestos de toque, respectivamente.
La figura 11 es una vista conceptual que ilustra un ejemplo de una operación de generar una lista de información de función en respuesta a gestos de toque en el terminal móvil de acuerdo con una realización de la presente invención.
La figura 12 es una vista conceptual que ilustra un ejemplo de una operación del terminal móvil en el que cualquier pantalla ejecutada se controla mediante gestos de toque cuando se emiten una pluralidad de pantallas ejecutadas. Las figuras 13A, 13B y 13C son vistas conceptuales que ilustran ejemplos de operaciones del terminal móvil que ejecutan diferentes funciones según los puntos de destino de los gestos de toque.
La figura 14 es una vista conceptual que ilustra un ejemplo de una operación del terminal móvil en el que se realizan diferentes funciones de acuerdo con la intensidad de los gestos de toque.
La figura 15 es una vista conceptual que ilustra un ejemplo del terminal móvil en el que se realiza una función de acuerdo con los gestos de toque cuando el terminal móvil está emparejado con un dispositivo externo.
Las figuras 16A, 16B y 16C son vistas conceptuales que ilustran ejemplos de operaciones del terminal móvil que generan un objeto formado para desactivar la unidad de visualización.
Descripción detallada de la invención
Las realizaciones de la presente invención se describirán ahora con referencia a los dibujos adjuntos, en los que los números similares se refieren a elementos similares en todo el documento, aunque las realizaciones son diferentes, y una descripción de los elementos similares se usará en una primera realización para aquellos de la realización diferente. En la siguiente descripción, el uso de sufijos tales como "módulo", "parte" o "unidad" utilizados para referirse a elementos se da simplemente para facilitar la explicación de la presente invención, sin tener ningún significado significativo por sí mismo. Al describir la presente invención, si se considera que una explicación detallada de una función o construcción conocida relacionada desvía innecesariamente la esencia de la presente invención, dicha explicación se ha omitido, pero los expertos en la materia entenderán dicha explicación. Los dibujos adjuntos de la presente invención pretenden facilitar la comprensión de la presente invención y no debe considerarse limitada a los dibujos adjuntos.
Los terminales móviles descritos en la presente invención pueden incluir teléfonos móviles, teléfonos inteligentes, ordenadores de tableta, ordenadores portátiles, receptores de difusión digitales, PDA (asistentes personales digitales), PMP (reproductor multimedia portátil), dispositivos de navegación, ordenadores de pizarra, ordenadores de tableta, ultrabooks y similares. Sin embargo, se entenderá por parte de una persona experta en la técnica que la configuración de acuerdo con las realizaciones de la presente invención puede ser también aplicable a tipos fijos de terminales, tal como televisores digitales, ordenadores de sobremesa y similares, con la excepción de cualquier elemento especialmente configurado para un propósito móvil.
La figura 1 es un diagrama de bloques de un terminal móvil de acuerdo con una realización de la presente invención. El terminal móvil 100 puede incluir una unidad de comunicación inalámbrica 110, una unidad de entrada de A/V 120 (audio/video), una unidad 130 de entrada de usuario, una unidad 140 de detección, una unidad 150 de salida, una memoria 160, una unidad de interfaz 170, un controlador 180, y una unidad de suministro de energía 190, etc. La figura 1 muestra el terminal móvil como que tiene varios componentes, pero la implementación de todos los componentes ilustrados no es un requisito. Alternativamente, se pueden implementar más o menos componentes. Los elementos del terminal móvil se describirán en detalle a continuación.
La unidad de comunicación inalámbrica 110 incluye normalmente uno o más módulos que permiten la comunicación de radio entre el terminal móvil 100 y un sistema de comunicación inalámbrica o una red en la que se encuentra el terminal móvil. Por ejemplo, la unidad de comunicación inalámbrica puede incluir al menos uno de un módulo de recepción de difusión 111, un módulo de comunicación móvil 112, un módulo de Internet inalámbrico 113, un módulo de comunicación de corto alcance 114 y un módulo de información de ubicación 115.
El módulo de recepción de difusión 111 recibe señales de difusión y/o difunde información asociada desde un servidor de gestión de difusión externo (u otra entidad de red) a través de un canal de difusión.
El canal de difusión puede incluir un canal de satélite y/o un canal terrestre. El servidor de gestión de difusión puede ser un servidor que genera y transmite una señal de difusión y/o difunde información asociada o un servidor que recibe una señal de difusión generada previamente y/o difunde información asociada y la transmite a un terminal. La señal de difusión puede incluir una señal de difusión de televisión, una señal de difusión de radio, una señal de difusión de datos, y similares. Además, la señal de difusión puede incluir además una señal de difusión combinada con una señal de difusión de televisión o de radio.
La información asociada a la emisión puede referirse a información asociada con un canal de difusión, un programa de difusión o un proveedor de servicios de difusión. La información asociada a la emisión también puede proporcionarse a través de una red de comunicación móvil y la información asociada a la emisión puede recibirse mediante el módulo de comunicación móvil 112.
La información de difusión asociada puede existir en diversas formas. Por ejemplo, puede existir en forma de una guía electrónica de programas (EPG) de difusión multimedia digital (DMB), guía electrónica de servicio (ESG) de difusión de vídeo digital portátil (DVB-H) y similares.
El módulo de recepción de difusión 111 puede estar configurado para recibir señales difundidas utilizando diversos tipos de sistemas de difusión. En particular, el módulo de recepción de difusión 111 puede recibir una emisión digital utilizando un sistema de difusión digital tal como difusión multimedia terrestre (DMB-T), difusión digital multimedia por satélite (DMB-S), difusión de vídeo digital portátil (DVB-H), sistema de difusión de datos conocido como enlace directo de medios (MediaFLO®), servicios integrados de difusión digital terrestre (ISDB-T), etc. El módulo de recepción de difusión 111 puede configurarse para ser adecuado para cada sistema de difusión que proporcione una señal de difusión, así como los sistemas de difusión digitales antes mencionados.
Las señales de difusión y/o la información asociada a la difusión recibida a través del módulo de recepción de difusión 111 pueden almacenarse en la memoria 160.
El módulo de comunicación móvil 112 transmite y/o recibe señales de radio hacia y/o desde al menos una de una estación base, un terminal externo y un servidor. Tales señales de radio pueden incluir una señal de llamada de voz, una señal de llamada de video o varios tipos de datos de acuerdo con la transmisión y/o la recepción de mensajes de texto y/o multimedia.
El módulo de Internet inalámbrico 113 soporta acceso inalámbrico a Internet para el terminal móvil. Este módulo puede estar acoplado interna o externamente al terminal. La técnica de acceso a Internet inalámbrico implementada puede incluir WLAN (LAN inalámbrica) (Wi-Fi), Wibro (banda ancha inalámbrica), Wimax (interoperabilidad mundial para acceso a microondas), HSDPA (acceso de paquetes de enlace descendente de alta velocidad) o similares. El módulo de comunicación de corto alcance 114 es un módulo para soportar comunicaciones de corto alcance. Algunos ejemplos de tecnología de comunicación de corto alcance incluyen Bluetooth™, identificación de radiofrecuencia (RFID), asociación de datos infrarrojos (IrDA), banda ultra-ancha (UWB), ZigBee™ y similares. El módulo de información de localización 115 es un módulo para comprobar o adquirir una ubicación (o posición) del terminal móvil. Un ejemplo típico del módulo de información de ubicación es un módulo GPS (Sistema de posicionamiento global) o un módulo WiFi (fidelidad inalámbrica).
Con referencia a la figura 1, la unidad de entrada de A/V 120 está configurada para recibir una señal de audio o vídeo. La unidad de entrada de A/V 120 puede incluir una cámara 121 y un micrófono 122. La cámara 121 procesa datos de imagen de imágenes fijas o de vídeo obtenidas mediante un dispositivo de captura de imágenes en un modo de captura de vídeo o un modo de captura de imágenes. Los cuadros de imagen procesados pueden visualizarse en una unidad 151 de visualización.
Los cuadros de imagen procesados por la cámara 121 pueden almacenarse en la memoria 160 (u otro medio de almacenamiento) o transmitirse a través de la unidad de comunicación inalámbrica 110. Se pueden proporcionar dos o más cámaras 121 de acuerdo con la configuración del terminal móvil.
El micrófono 122 puede recibir sonidos (datos audibles) a través de un micrófono en un modo de llamada telefónica, un modo de grabación, un modo de reconocimiento de voz y similares, y puede procesar dichos sonidos en datos de audio. Los datos de audio (voz) procesados pueden convertirse para su salida en un formato transmisible a una estación base de comunicación móvil a través del módulo de comunicación móvil 112 para el modo de llamada telefónica. El micrófono 122 puede implementar diversos tipos de algoritmos de cancelación de ruido (o supresión) para cancelar (o suprimir) el ruido o la interferencia generada en el transcurso de la recepción y la transmisión de señales de audio.
La unidad de entrada de usuario 130 puede generar datos de entrada a partir de comandos introducidos por un usuario para controlar diversas operaciones del terminal móvil. La unidad de entrada de usuario 130 puede incluir un teclado, un interruptor de cúpula, una almohadilla de contacto, una rueda de desplazamiento, un interruptor de desplazamiento, y similares.
La unidad de detección 140 detecta un estado actual (o estado) del terminal móvil 100 tal como un estado abierto o cerrado del terminal móvil 100, una ubicación del terminal móvil 100, la presencia o ausencia de contacto del usuario con el terminal móvil 100 (es decir, entradas de contacto), la orientación del terminal móvil 100, un movimiento de aceleración o deceleración y dirección del terminal móvil 100, etc., y genera comandos o señales para controlar la operación del terminal móvil 100. Por ejemplo, cuando el terminal móvil 100 se implementa como un teléfono móvil de tipo deslizante, la unidad de detección 140 puede detectar si el teléfono deslizante está abierto o cerrado. Además, la unidad de detección 140 puede detectar si la unidad de suministro de energía 190 suministra energía o si la unidad de interfaz 170 está acoplada o no con un dispositivo externo.
La unidad de salida 150 está configurada para proporcionar salidas de una manera visual, audible y/o de contacto (por ejemplo, señal de audio, señal de vídeo, señal de alarma, señal de vibración, etc.). La unidad de salida 150 puede incluir la unidad de visualización 151, un módulo de salida de audio 153, una unidad de alarma 154, un módulo háptico 155 y similares.
La unidad de visualización 151 puede mostrar (emitir) información procesada en el terminal móvil 100. Por ejemplo, cuando el terminal móvil 100 está en un modo de llamada telefónica, la unidad de visualización 151 puede mostrar una interfaz de usuario (UI) o una interfaz gráfica de usuario (GUI) asociada con una llamada u otra comunicación (tal como mensajes de texto, descarga de archivos multimedia, etc.). Cuando el terminal móvil 100 está en un modo de videollamada o modo de captura de imagen, la unidad de visualización 151 puede mostrar una imagen capturada y/o una imagen recibida, una UI o una GUI que muestre vídeos o imágenes y funciones relacionadas con los mismos y similares.
La unidad de visualización 151 puede incluir al menos una de una pantalla de cristal líquido (LCD), un LCD de transistor de película delgada (TFT-LCD), una pantalla de diodo emisor de luz orgánico (OLED), una pantalla flexible, una pantalla tridimensional (3D) y una pantalla de tinta electrónica.
Algunos de los mismos pueden estar configurados para ser transparentes o transmisores de luz para permitir la visualización del exterior, lo que se pueden denominar pantallas transparentes. Una pantalla transparente típica puede ser, por ejemplo, una pantalla TOLED (diodo emisor de luz orgánico transparente), o similar. A través de dicha configuración, el usuario puede ver un objeto posicionado en el lado trasero del cuerpo terminal a través de la región ocupada por la unidad 151 de visualización del cuerpo terminal.
El terminal móvil 100 puede incluir dos o más unidades de visualización de acuerdo con su realización particular deseada. Por ejemplo, una pluralidad de unidades de visualización puede estar dispuesta por separado o integralmente en una superficie del terminal móvil, o puede estar dispuesta por separado en superficies mutuamente diferentes.
Además, la unidad de visualización 151 puede estar configurada como una unidad de visualización estereoscópica 152 que muestra una imagen estereoscópica. En este caso, la imagen estereoscópica puede ser una imagen estereoscópica tridimensional (3D), y la imagen estereoscópica 3D es una imagen que se refiere a una imagen que hace que el espectador sienta que la profundidad y la realidad de un objeto en un monitor o pantalla es la misma que un espacio de realidad. Una imagen estereoscópica 3D se implementa mediante el uso de disparidad binocular. La disparidad binocular se refiere a la disparidad hecha por las posiciones de dos ojos. Cuando dos ojos ven diferentes imágenes en 2D, las imágenes se transfieren al cerebro a través de la retina y se combinan en el cerebro para proporcionar la percepción de la profundidad y el sentido de la realidad.
La unidad de visualización estereoscópica 152 puede emplear un esquema de visualización estereoscópica tal como un esquema estereoscópico (un esquema de vidrio), un esquema autoestereoscópico (esquema sin vidrio), un esquema de proyección (esquema holográfico), o similares. Los esquemas estereoscópicos comúnmente utilizados para los receptores de televisión domésticos, o similares, incluyen el esquema estereoscópico de Wheatstone o similares.
El esquema auto-estereoscópico incluye, por ejemplo, un esquema de barrera de paralaje, un esquema lenticular, un esquema de formación de imágenes integral, o similares. El esquema de proyección incluye un esquema holográfico reflexivo, un esquema holográfico transmisivo, o similar.
En general, una imagen estereoscópica en 3D está compuesta de una imagen izquierda (imagen del ojo izquierdo) y una imagen derecha (una imagen del ojo derecho). De acuerdo con la forma en que las imágenes izquierda y derecha se combinan en una imagen estereoscópica en 3D, el método de formación de imágenes estereoscópicas en 3D se divide en un método de arriba hacia abajo en el que las imágenes izquierda y derecha se disponen arriba y abajo en un marco, un método L a R (de izquierda a derecha, lado a lado) en el que las imágenes izquierda y derecha se colocan a la izquierda y a la derecha en un marco, un método de tablero de ajedrez en el que los fragmentos de imágenes izquierda y derecha se disponen en forma de mosaico, un método entrelazado en el que las imágenes izquierda y derecha están dispuestas alternativamente en columnas y filas, y un método secuencial de tiempo (o cuadro por cuadro) en el que las imágenes izquierda y derecha se muestran alternativamente por tiempo. Además, como para una imagen en miniatura en 3D, una miniatura de la imagen izquierda y una miniatura de la imagen derecha se generan a partir de una imagen izquierda y una imagen derecha del cuadro de imagen original, respectivamente, y luego se combinan para generar una única imagen en miniatura en 3D. En general, la miniatura se refiere a una imagen reducida o una imagen fija reducida. La miniatura de la imagen izquierda así generada y la miniatura de la imagen derecha se muestran con una diferencia de distancia horizontal entre las mismas por una profundidad correspondiente a la disparidad entre la imagen izquierda y la imagen derecha en la pantalla, proporcionando un sentido estereoscópico del espacio.
Una imagen izquierda y una imagen derecha requeridas para la implementación de una imagen estereoscópica en 3D se visualiza en la unidad de visualización estereoscópica 152 mediante una unidad de procesamiento estereoscópico 152a. La unidad de procesamiento estereoscópico puede recibir la imagen en 3D y extraer la imagen izquierda y la imagen derecha, o puede recibir la imagen en 2D y cambiarla en una imagen izquierda y una imagen derecha.
Mientras tanto, cuando la unidad de visualización 151 y un sensor (denominado en lo sucesivo "sensor de contacto") para detectar una operación de contacto se superponen de una manera estratificada para formar una pantalla de contacto, la unidad de visualización 151 puede funcionar como un dispositivo de entrada y como un dispositivo de salida. El sensor de contacto puede tener una forma de una película de contacto, una lámina de contacto, una almohadilla de contacto, y similares.
El sensor de contacto puede estar configurado para convertir una presión aplicada a una porción particular de la unidad 151 de visualización o un cambio en la capacitancia o similar generada en una porción particular de la unidad 151 de visualización en una señal de entrada eléctrica. El sensor de contacto puede configurarse para detectar la presión cuando se aplica un toque por parte de un sujeto de contacto, así como la posición tocada y el área en el sensor de contacto. En este caso, el sujeto de contacto, un sujeto que aplica un toque al sensor de contacto, puede ser, por ejemplo, un dedo, un lápiz de contacto, un lápiz óptico, un puntero o similar.
Cuando hay una entrada de toque con respecto al sensor de contacto, se transmite una señal (señales) correspondiente a un controlador de contacto. El controlador de contacto procesa las señales y transmite los datos correspondientes al controlador 180. En consecuencia, el controlador 180 puede reconocer qué porción de la unidad 151 de visualización ha sido tocada.
Con referencia a la figura 1, un sensor de proximidad 141 puede estar dispuesto dentro o cerca de la pantalla de contacto. El sensor de proximidad 141 es un sensor para detectar la presencia o ausencia de un objeto relativo a una cierta superficie de detección o a un objeto que existe cerca utilizando la intensidad de electromagnetismo o rayos infrarrojos sin un contacto físico. Por lo tanto, el sensor de proximidad 141 tiene una vida útil considerablemente más larga en comparación con un sensor de tipo de contacto, y puede utilizarse para diversos fines.
Ejemplos del sensor 141 de proximidad pueden incluir un detector fotoeléctrico de tipo de transmisión, un detector fotoeléctrico de tipo de reflexión directa, un detector fotoeléctrico de tipo de reflexión de espejo, un sensor de proximidad del tipo de oscilación de RF, un sensor de proximidad de tipo capacitancia, un sensor de proximidad magnética, un sensor de proximidad infrarrojo, y similares. En el caso de que la pantalla de contacto sea del tipo de capacitancia, la proximidad del puntero se detecta mediante un cambio en el campo eléctrico según la proximidad del puntero. En este caso, la pantalla de contacto (sensor de contacto) puede clasificarse como un sensor de proximidad.
En la siguiente descripción, por motivos de brevedad, el reconocimiento del puntero situado para estar cerca de la pantalla de contacto se denominará "toque de proximidad", mientras que el reconocimiento del contacto real del puntero en la pantalla de contacto se llamará un "toque de contacto". En este caso, cuando el puntero está en el estado del toque de proximidad, significa que el puntero está situado para corresponder verticalmente a la pantalla de contacto.
Al emplear el sensor de proximidad 141 se puede detectar un toque de proximidad y un patrón de contacto de proximidad (por ejemplo, una distancia de contacto de proximidad, una velocidad de contacto de proximidad, un tiempo de contacto de proximidad, una posición de contacto de proximidad, un estado de movimiento de contacto de proximidad o similar), e información correspondiente a la operación de contacto de proximidad detectada y el patrón de contacto de proximidad se puede enviar a la pantalla de contacto.
Cuando un sensor de contacto se superpone sobre la unidad de visualización estereoscópica 152 de una manera estratificada, o cuando la unidad de visualización estereoscópica y un sensor 3D de detección de una operación de toque se combinan, la unidad de visualización estereoscópica 152 también puede usarse como un dispositivo de entrada en 3D.
Como ejemplos del sensor 3D, la unidad de detección 140 puede incluir el sensor de proximidad 141, una unidad de detección de contacto estereoscópica 142, una unidad de detección ultrasónica 143, y una unidad de detección de la cámara 144.
El sensor de proximidad 141 detecta la distancia entre un objeto de detección (por ejemplo, el dedo del usuario o un lápiz) aplicando un toque mediante el uso de la intensidad del electromagnetismo o rayos infrarrojos, sin un contacto mecánico y una superficie de detección. Al usar la distancia, el terminal reconoce qué parte de una imagen estereoscópica ha sido tocada. En particular, cuando la pantalla de contacto es una pantalla de contacto electrostática, el grado de proximidad del objeto sensor se detecta en función de un cambio de un campo eléctrico según la proximidad del objeto sensor, y se reconoce un toque a la imagen en 3D mediante el uso del grado de proximidad.
La unidad de detección de toque estereoscópica 142 está configurada para detectar la intensidad o la duración de un toque aplicado a la pantalla de contacto. Por ejemplo, la unidad de detección de toque estereoscópica 142 percibe la presión aplicando un toque, y la presión aplicada es fuerte, la unidad de detección de toque estereoscópica 142 reconoce el toque como un toque con respecto a un objeto posicionado para estar más alejado de la pantalla de contacto hacia el interior del terminal.
La unidad de detección ultrasónica 143 está configurada para reconocer información de posición del objeto de detección mediante el uso de ondas ultrasónicas. La unidad de detección ultrasónica 143 puede incluir, por ejemplo, un sensor óptico y una pluralidad de sensores ultrasónicos. El sensor óptico está configurado para detectar la luz, y los sensores ultrasónicos pueden configurarse para detectar ondas ultrasónicas. Debido a que la luz es mucho más rápida que las ondas ultrasónicas, la luz llega al sensor óptico mucho antes que las ondas ultrasónicas a los sensores ultrasónicos. Por lo tanto, según la luz como señal de referencia, la posición de una fuente de generación de onda puede calcularse utilizando una diferencia de tiempo entre el momento en que la luz llega al sensor óptico y el momento en que las ondas ultrasónicas alcanzan los sensores ultrasónicos.
La unidad de detección de cámara 144 incluye al menos uno de una cámara, un sensor fotográfico, y un sensor de láser. Por ejemplo, la cámara y el sensor láser pueden combinarse para detectar un toque del objeto sensor con respecto a una imagen estereoscópica en 3D. Cuando la información de distancia detectada por un sensor láser se agrega a una imagen en 2D capturada por la cámara, se puede obtener información en 3D.
En otro ejemplo, un sensor fotográfico se puede laminar sobre el dispositivo de visualización. El sensor fotográfico está configurado para escanear un movimiento del objeto sensor cerca de la pantalla de contacto. En más detalle, el sensor fotográfico incluye diodos fotográficos y transistores en filas y columnas para escanear el contenido montado en el sensor fotográfico mediante el uso de una señal eléctrica que cambia según la cantidad de luz aplicada. A saber, el sensor fotográfico calcula las coordenadas del objeto sensor según la variación de la luz para obtener así la información de posición del objeto sensor.
El módulo de salida de audio 153 puede convertir y emitir como datos de audio de sonido recibidos desde la unidad de comunicación inalámbrica 110 o almacenados en la memoria 160 en un modo de recepción de señal de llamada, un modo de llamada, un modo de grabación, un modo de reconocimiento de voz, y similares. Además, el módulo de salida de audio 153 puede proporcionar salidas audibles relacionadas con una función particular (por ejemplo, un sonido de recepción de señal de llamada, un sonido de recepción de mensaje, etc.) realizada por el terminal móvil 100. El módulo de salida de audio 153 puede incluir un altavoz, un zumbador u otro dispositivo generador de sonido. La unidad de alarma 154 emite una señal para informar acerca de una ocurrencia de un suceso del terminal móvil 100. Los eventos generados en el terminal móvil pueden incluir la recepción de una señal de llamada, recepción de mensajes, entradas de señales clave, una entrada de contacto, etc. Además de señales de video o audio, la unidad 154 de alarma puede emitir señales de una manera diferente, por ejemplo, para informar sobre una ocurrencia de un evento. Las señales de vídeo o de audio pueden ser también emitidas a través del módulo de salida de audio 153, de modo que la unidad de visualización 151 y el módulo de salida de audio 153 pueden clasificarse como partes de la unidad de alarma 154.
Un módulo háptico 155 genera diversos efectos de contacto que el usuario puede sentir. Un ejemplo típico de los efectos de contacto generados por el módulo háptico 155 es la vibración. La resistencia y el patrón del módulo háptico 155 pueden controlarse. Por ejemplo, se pueden combinar diferentes vibraciones para ser emitidas o transferidas secuencialmente.
Además de la vibración, el módulo háptico 155 puede generar diversos otros efectos de contacto, tal como un efecto por estimulación, tal como una disposición de clavija que se mueve verticalmente con respecto a una piel de contacto, una intensidad de pulverización o intensidad de succión de aire a través de un orificio de chorro o una abertura de succión, un contacto sobre la piel, un contacto de un electrodo, una intensidad electrostática, etc., un efecto que reproduce la sensación de frío y calor utilizando un elemento que puede absorber o generar calor.
El módulo háptico 155 puede implementarse para permitir al usuario sentir un efecto de contacto a través de una sensación muscular, tal como los dedos o el brazo del usuario, así como transferir el efecto de contacto a través de un contacto directo. Pueden proporcionarse dos o más módulos 155 hápticos de acuerdo con la configuración del terminal móvil 100.
La memoria 160 puede almacenar programas de software utilizados para las operaciones de procesamiento y control realizadas por el controlador 180, o puede almacenar temporalmente datos (por ejemplo, una agenda, mensajes, imágenes fijas, video, etc.) que se introducen o se emiten. Además, la memoria 160 puede almacenar datos relativos a diversos patrones de vibraciones y señales de audio emitidas cuando se introduce un toque en la pantalla de contacto.
La memoria 160 puede incluir al menos un tipo de medio de almacenamiento que incluye una memoria flash, un disco duro, una tarjeta multimedia de tipo micro, una memoria de tipo de tarjeta (por ejemplo, memoria SD o DX, etc.), una memoria de acceso aleatorio (RAM), una memoria de acceso aleatorio estática (SRAM), una memoria de solo lectura (ROM), una memoria de solo lectura programable borrable eléctricamente (EEPROM), una memoria programable de solo lectura (PROM), una memoria magnética, un disco magnético y un disco óptico. Además, el terminal móvil 100 puede ser operado en relación con un dispositivo de almacenamiento web que realiza la función de almacenamiento de la memoria 160 a través de Internet.
La unidad de interfaz 170 sirve como una interfaz con cada dispositivo externo conectado con el terminal móvil 100. Por ejemplo, los dispositivos externos pueden transmitir datos a un dispositivo externo, recibir y transmitir energía a cada elemento del terminal móvil 100, o transmitir datos internos del terminal móvil 100 a un dispositivo externo. Por ejemplo, la unidad de interfaz 170 puede incluir puertos de auriculares con cable o inalámbricos, puertos de suministro de energía externa, puertos de datos por cable o inalámbricos, puertos de tarjetas de memoria, puertos para conectar un dispositivo con un módulo de identificación, puertos de entrada/salida de audio (E/S), puertos de E/S de vídeo, puertos de auriculares o similares.
El módulo de identificación puede ser un chip que almacene varios tipos de información para autentificar la autoridad para usar el terminal móvil 100 y puede incluir un módulo de identidad de usuario (UIM), un módulo de identidad de abonado (SIM), un módulo universal de identidad de abonado (USIM), y similares. Además, el dispositivo que tiene el módulo de identificación (denominado a continuación como el "dispositivo de identificación") puede adoptar la forma de una tarjeta inteligente. Por consiguiente, el dispositivo de identificación puede estar conectado con el terminal 100 a través de un puerto.
Cuando el terminal móvil 100 está conectado con una cuna externa, la unidad 170 de interfaz puede servir como un pasaje para permitir que la energía desde la cuna sea suministrada a través de la misma hasta el terminal móvil 100, o puede servir como un pasaje para permitir que varias señales de mando introducidas por el usuario desde la cuna sean transferidas al terminal móvil a través de la misma. Varias señales de comando o energía introducidas desde la cuna pueden operar como señales para reconocer que el terminal móvil está montado apropiadamente en la cuna. El controlador 180 controla normalmente las operaciones generales del terminal móvil. Por ejemplo, el controlador 180 realiza el control y el procesamiento asociados con llamadas de voz, comunicaciones de datos, llamadas de video y similares. El controlador 180 puede incluir un módulo multimedia 181 para reproducir datos multimedia. El módulo 181 multimedia puede estar configurado dentro del controlador 180 o puede estar configurado para separarse del controlador 180.
El controlador 180 puede realizar un procesamiento de reconocimiento de patrones para reconocer una entrada de escritura a mano o una entrada de dibujo de imagen realizada en la pantalla de contacto como caracteres o imágenes, respectivamente.
Además, cuando un estado del terminal móvil satisface las condiciones preestablecidas, el controlador 180 puede ejecutar un estado de bloqueo para limitar una entrada de un comando de control del usuario. Además, en el estado bloqueado, el controlador 180 puede controlar una pantalla bloqueada mostrada en el estado bloqueado en base a una entrada de contacto detectada a través de la unidad de visualización 151.
La unidad de fuente de alimentación 190 recibe energía externa o energía interna y suministra energía apropiada requerida para operar los respectivos elementos y componentes bajo el control del controlador 180.
Se pueden implementar diversas realizaciones descritas en el presente documento en un medio legible por ordenador o su medio similar utilizando, por ejemplo, software, hardware o cualquier combinación de los mismos. Para una implementación de hardware, las realizaciones descritas en el presente documento pueden implementarse utilizando al menos uno de circuitos integrados específicos de aplicación (ASIC), procesadores de señales digitales (DSP), dispositivos de procesamiento de señales digitales (DSPD), dispositivos lógicos programables (PLD), matrices de puertas programables de campo (FPGA), procesadores, controladores, microcontroladores, microprocesadores, unidades electrónicas diseñadas para realizar las funciones descritas en el presente documento. En algunos casos, tales realizaciones pueden implementarse mediante el propio controlador 180.
Para una implementación software, las realizaciones tales como los procedimientos o funciones descritas en este documento pueden implementarse mediante módulos de software separados. Cada módulo de software puede realizar una o más funciones u operaciones descritas en este documento. Los códigos de software pueden implementarse mediante una aplicación de software escrita en cualquier lenguaje de programación adecuado. Los códigos de software pueden almacenarse en la memoria 160 y ejecutarse mediante el controlador 180.
Se describirán a continuación, un sistema de comunicación implementable a través del terminal móvil 100 de acuerdo con una realización de la presente invención.
Las figuras 2A y 2B son vistas conceptuales de sistemas de comunicación en los que el terminal móvil 100 de acuerdo con una realización de la presente invención es operable.
En primer lugar, con referencia a la figura 2A, un sistema de comunicación puede usar diferentes interfaces aéreas y/o capas físicas. Por ejemplo, las interfaces aéreas utilizadas por los sistemas de comunicación incluyen, por ejemplo, acceso múltiple por división de frecuencia (FDMA), acceso múltiple por división de tiempo (TDMA), acceso múltiple por división de código (CDMA) y sistema de telecomunicaciones móviles universales (UMTS) (en particular, evolución a largo plazo (LTE)), sistema global para comunicaciones móviles (GSM) y similares. Como ejemplo no limitativo, la descripción a continuación se relaciona con un sistema de comunicación CDMA, pero tales enseñanzas se aplican igualmente a otros tipos de sistemas.
En lo sucesivo, por motivos de descripción, CDMA se describirá, pero, obviamente, la presente invención es aplicable a cualquier sistema de comunicación que incluye un sistema de comunicación inalámbrica CDMA.
Con referencia a la figura 2A, un sistema de comunicación inalámbrica CDMA puede incluir una pluralidad de terminales móviles 100, una pluralidad de estaciones base (BS) 270, controladores de estación base (BSC) 275 y un centro de conmutación móvil (MSC) 280. El MSC 280 está configurado para interactuar con una red telefónica pública de conmutación (PSTN) 290. El MSC 280 también está configurado para interactuar con los BSC 275, que pueden estar acoplados a las estaciones base 270 a través de líneas de retorno. Las líneas de retorno pueden configurarse de acuerdo con cualquiera de las varias interfaces conocidas que incluyen, por ejemplo, E1/T1, ATM, IP, PPP, relé de trama, HDSL, ADSL o xDSL. Debe entenderse que el sistema como se muestra en la figura 2 puede incluir una pluralidad de BSC 275.
Cada BS 270 puede servir a uno o más sectores (o regiones), cada sector cubierto por una antena omnidireccional o una antena apuntada en una dirección particular radialmente alejada del BS 270. Alternativamente, cada sector puede estar cubierto por dos o más antenas para la recepción de diversidad. Cada BS 270 puede configurarse para admitir una pluralidad de asignaciones de frecuencia, y cada asignación de frecuencia tiene un espectro particular (por ejemplo, 1,25 MHz, 5 MHz, etc.).
La intersección de una asignación de sector y la frecuencia puede denominarse un canal CDMA. El BS 270 también puede denominarse subsistemas de transceptor de estación base (BTS) u otros términos equivalentes. En tal caso, el término "estación base" puede usarse para referirse colectivamente a un único BSC 275 y al menos un BS 270. La estación base también puede denominarse como un "sitio celular". Alternativamente, los sectores individuales de un BS 270 particular pueden denominarse una pluralidad de sitios celulares.
Como se muestra en la figura 2A, un transmisor de difusión (BT) 295 transmite una señal de difusión a los terminales móviles 100 que operan dentro del sistema. El módulo de recepción de difusión 111 como se muestra en la figura 1 se proporciona en el terminal 100 para recibir señales de transmisión transmitidas por el BT 295.
Además, en la figura 2A, se muestran varios satélites 300 de sistemas de posicionamiento global (GPS). Los satélites 300 ayudan a localizar al menos uno de una pluralidad de terminales 100. En la figura 2, se muestran varios satélites 300, pero se entiende que se puede obtener información de posicionamiento útil con cualquier número de satélites. El módulo GPS 115 como se muestra en la figura 1 está configurado normalmente para cooperar con los satélites 300 para obtener la información de posicionamiento deseada. En lugar de o además de las técnicas de rastreo por GPS, se pueden usar otras tecnologías que pueden rastrear la ubicación de los terminales móviles. Además, al menos uno de los satélites 300 de GPS puede manejar de forma selectiva o adicional las transmisiones de DMB por satélite.
Como una operación típica del sistema de comunicación inalámbrica, los BS 270 reciben señales de enlace inverso desde varios terminales móviles 100. Los terminales móviles 100 normalmente se involucran en llamadas, mensajes y otros tipos de comunicaciones. Cada señal de enlace inverso recibida por una estación base particular 270 se procesa dentro del BS 270 particular. Los datos resultantes se envían a un BSC 275 asociado. El BSC proporciona la asignación de recursos de llamadas y la funcionalidad de administración de movilidad, incluida la coordinación de los procedimientos de transferencia suave entre los BS 270. Los BSC 275 también enrutan los datos recibidos al MSC 280, que proporciona servicios de enrutamiento adicionales para interactuar con la PSTN 290. De manera similar, la PSt N 290 interactúa con el MSC 280, el MSC interactúa con los BSC 275 y los BSC 275 a su vez controlan los BS 270 para transmitir señales de enlace directo a los terminales móviles 100.
A continuación, un método de adquisición de la información de localización de un terminal móvil usando un sistema de posicionamiento WiFi (fidelidad inalámbrica) (WPS) se describirá con referencia a la figura 2B. El sistema de posicionamiento WiFi (WPS) 300 se refiere a una tecnología de determinación de ubicación basada en una red de área local inalámbrica (WLAN) que utiliza WiFi como una tecnología para rastrear la ubicación del terminal móvil 100 mediante un módulo WiFi proporcionado en el terminal móvil 100 y un punto de acceso inalámbrico 320 para transmitir y recibir desde y hacia el módulo WiFi.
El sistema de posicionamiento WiFi 300 puede incluir un servidor de determinación de la ubicación WiFi 310, un terminal móvil 100, un punto de acceso inalámbrico (AP) 320 conectado al terminal móvil 100, y una base de datos 330 almacenada con cualquier información de punto de acceso inalámbrico.
El servidor de determinación de la ubicación WiFi 310 extrae la información de la conexión inalámbrica AP 320 conectada al terminal móvil 100 en base a un mensaje de solicitud de información de ubicación (o señal) del terminal móvil 100. La información del AP inalámbrico 320 puede transmitirse al servidor de determinación de ubicación WiFi 310 a través del terminal móvil 100 o transmitirse al servidor de determinación de ubicación WiFi 310 desde el AP inalámbrico 320.
La información del AP inalámbrico extraído en base al mensaje de solicitud de información de localización del terminal móvil 100 puede ser al menos uno de la dirección MAC, SSID, RSSI, información de canal, privacidad, tipo de red, intensidad de la señal e intensidad de ruido.
La ubicación del servidor de determinación WiFi 310 recibe la información del AP inalámbrico 320 conectado al terminal móvil 100 como se describe anteriormente, y compara la información del AP inalámbrico 320 recibida con la información contenida en la base de datos preestablecida 330 para extraer (o analizar) la información de ubicación del terminal móvil 100.
Por otro lado, con referencia a la figura 2B, como ejemplo, el AP inalámbrico conectado al terminal móvil 100 se ilustra como un primer, segundo y tercer AP inalámbrico 320. Sin embargo, el número de AP inalámbricos conectados al terminal móvil 100 se puede cambiar de varias maneras según un entorno de comunicación inalámbrica en el que se encuentra el terminal móvil 100. Cuando el terminal móvil 100 está conectado a al menos uno de los AP inalámbricos, el sistema de posicionamiento WiFi 300 puede rastrear la ubicación del terminal móvil 100.
A continuación, teniendo en cuenta la base de datos 330 almacenada con cualquier información de AP inalámbrico en más detalle, diversas informaciones de cualesquiera AP inalámbricos dispuestos en diferentes lugares puede ser almacenada en la base de datos 330.
La información de cualquier AP inalámbrico almacenado en la base de datos 330 puede ser información como la dirección MAC, SSID, RSSI, información del canal, privacidad, tipo de red, latitud y longitud coordinadas, edificio en el que se encuentra el AP inalámbrico, número de piso, información detallada sobre la ubicación en el interior (coordenadas GPS disponibles), dirección del propietario del AP, número de teléfono y similares.
De esta manera, cualquier información de AP inalámbrico y de ubicación correspondiente a cualquier AP inalámbrico se almacenan juntos en la base de datos 330 y, por lo tanto, el servidor de determinación de ubicación WiFi 310 puede recuperar información de AP inalámbrico correspondiente a la información del AP inalámbrico 320 conectado al terminal móvil 100 de la base de datos 330 para extraer la información de ubicación coincidente con el AP inalámbrico buscado, extrayendo así la información de ubicación del terminal móvil 100.
Además, la información de localización extraída del terminal móvil 100 puede ser transmitida al terminal móvil 100 a través del servidor de determinación de ubicación WiFi 310, adquiriendo de ese modo la información de localización del terminal móvil 100.
A continuación, se ilustra un terminal móvil de acuerdo con una realización de la presente invención como se ilustra en la figura 1 o se describirá un terminal móvil dispuesto con los elementos constituyentes del terminal móvil o la estructura de un terminal móvil.
La figura 3A es una vista en perspectiva frontal que ilustra un ejemplo del terminal móvil 100 asociado con la presente invención. El terminal móvil 100 descrito en el presente documento está provisto de un cuerpo de terminal de tipo barra. Sin embargo, la presente invención no se limita a esto, sino que también puede aplicarse a diversas estructuras tales como tipo de reloj, tipo de clip, tipo de gafas o tipo de carpeta, tipo de solapa, tipo de giro, tipo basculante o similar, en el que dos y más cuerpos se combinan entre sí de una manera relativamente móvil.
El cuerpo de terminal incluye una caja (carcasa, alojamiento, cubierta, etc.) que forma el aspecto del terminal. En esta realización, la carcasa puede dividirse en una carcasa frontal 101 y una carcasa trasera 102. Se incorporan varios componentes electrónicos en un espacio formado entre la carcasa frontal 101 y la carcasa trasera 102. Al menos una carcasa intermedia puede disponerse adicionalmente entre la carcasa delantera 101 y la carcasa trasera 102, y una cubierta de batería 103 para cubrir la batería 191 puede configurarse de manera desmontable en la carcasa trasera 102. Las carcasas pueden estar formadas por moldeo por inyección de una resina sintética o pueden estar formadas también de un metal, por ejemplo, acero inoxidable (STS), titanio (Ti), o similares.
Una unidad de visualización 151, un primer módulo de salida de audio 153a, una primera cámara 121a, una primera unidad de manipulación 131 y similares pueden estar dispuestos en una superficie frontal del cuerpo de terminal, y un micrófono 122, una unidad de interfaz 170, una segunda unidad de manipulación 132 y similares pueden proporcionarse en una superficie lateral del mismo.
La unidad de visualización 151 puede estar configurada para mostrar (emitir) información que se procesa en el terminal móvil 100. La unidad 151 de visualización puede incluir al menos una de una pantalla de cristal líquido (LCD), un LCD de transistor de película delgada (TFT-LCD), una pantalla de diodo emisor de luz orgánico (OLED), una pantalla flexible, una pantalla tridimensional (3D) y una pantalla de tinta electrónica.
La unidad de visualización 151 puede incluir un mecanismo de detección de contacto para recibir una orden de control mediante un método de contacto. Cuando se realiza un toque en cualquier lugar de la unidad de visualización 151, el mecanismo de detección de toque puede configurarse para detectar este toque e ingresar el contenido correspondiente al lugar tocado. El contenido ingresado por un método de contacto puede ser un texto o un valor numérico, o un elemento de menú capaz de indicar o designar en varios modos.
El mecanismo de detección de toque puede estar formado con transparencia para que se vea la información visual que aparece en la unidad de visualización 151, y puede incluir una estructura para mejorar la visibilidad de una pantalla de contacto en lugares brillantes. Haciendo referencia a la figura 3A, la unidad de visualización 151 ocupa la mayor parte de una superficie frontal de la carcasa frontal 101.
El primer módulo de salida de audio 153a y la primera cámara 121a están dispuestos en una región adyacente a uno de ambos extremos de la unidad de visualización 151, y la primera unidad de entrada de manipulación 131 y el micrófono 122 están dispuestos en una región adyacente al otro extremo del mismo. La segunda unidad de manipulación 132 (consúltese la figura 3B), la interfaz 170, y similares, pueden estar dispuestas en una superficie lateral del cuerpo del terminal.
El primer módulo de salida de audio 153a se puede implementar en forma de un receptor para la transferencia de sonidos de voz al oído del usuario o un altavoz para la salida de varios sonidos de alarma o sonidos de reproducción multimedia.
Puede configurarse de tal manera que los sonidos generados desde el primer módulo de salida de audio 153a se liberen a lo largo de un espacio de montaje entre los cuerpos estructurales. En este caso, un orificio formado independientemente para emitir sonidos de audio puede no verse u ocultarse en términos de apariencia, lo que simplifica aún más la apariencia del terminal móvil 100. Sin embargo, la presente invención no se limita a esto, sino que se puede formar un orificio para liberar los sonidos en la ventana.
La primera cámara 121a procesa los cuadros de vídeo como imágenes fijas u obtenidas por el sensor de imagen en un modo de llamada de vídeo o modo de captura. Los cuadros de video procesados pueden visualizarse en la unidad de visualización 151.
La unidad de entrada de usuario 130 se manipulan para recibir un comando para controlar la operación del terminal móvil 100. La unidad de entrada de usuario 130 puede incluir una primera y una segunda unidad de manipulación 131, 132. La primera y la segunda unidad de manipulación 131, 132 pueden referirse comúnmente como una porción de manipulación, y se puede emplear cualquier método si es una manera de contacto que le permite al usuario realizar la manipulación con una sensación de contacto como tocar, empujar, desplazarse o similares.
La primera unidad de manipulación 131 se ilustra como una tecla de contacto, pero la presente invención no se limita a esto. Por ejemplo, la primera unidad de manipulación 131 puede configurarse con una tecla mecánica, o una combinación de una tecla de contacto y una tecla mecánica.
El contenido recibido por la primera y/o segunda unidades de manipulación 131, 132 se puede fijar de varias formas. Por ejemplo, la primera unidad de manipulación 131 puede usarse para recibir un comando, tal como menú, tecla local, cancelar, buscar o similares, y la segunda unidad de manipulación 132 puede recibir un comando, tal como controlar un nivel de volumen que se emite desde el primer módulo de salida de audio 153a, o conversión en un modo de reconocimiento de contacto de la unidad de visualización 151.
El micrófono 122 puede estar formado para recibir la voz del usuario, otros sonidos, o similares. El micrófono 122 puede proporcionarse en una pluralidad de lugares y configurarse para recibir sonidos estéreo.
La unidad de interfaz 170 sirve como una ruta que permite al terminal móvil 100 intercambiar datos con dispositivos externos. Por ejemplo, la unidad de interfaz 170 puede ser al menos una de un terminal de conexión para conectarse a un auricular de forma cableada o inalámbrica, un puerto para comunicación de campo cercano (por ejemplo, un puerto de Asociación de Datos de Infrarrojos (IrDA), un puerto Bluetooth, un puerto LAN inalámbrico, y similares), y un terminal de suministro de energía para suministrar energía al terminal móvil 100. La unidad de interfaz 170 puede implementarse en forma de una toma para acomodar una tarjeta externa como el Módulo de Identificación de Suscriptor (SIM) o el Módulo de Identidad de Usuario (UIM), y una tarjeta de memoria para el almacenamiento de información.
La figura 3B es una vista en perspectiva trasera que ilustra el terminal móvil 100 ilustrado en la figura 3A. Haciendo referencia a la figura 3B, una segunda cámara 121b se puede montar además en una superficie trasera del cuerpo del terminal, es decir, sobre la carcasa trasera 102. La segunda cámara 121b tiene una dirección de captura de imagen, que es sustancialmente opuesta a la dirección de la primera unidad de cámara 121a (consúltese la figura 3A), y puede tener un número de píxeles diferente al de la primera unidad de cámara 121a.
Por ejemplo, es preferible que la primera cámara 121a tenga un número relativamente pequeño de píxeles lo suficiente como para no causar dificultad cuando el usuario captura su propia cara y la envía a la otra parte durante una llamada de video o similar, y la segunda cámara 121b tiene un número relativamente grande de píxeles, ya que el usuario a menudo captura un objeto general que no se envía de inmediato. La primera y la segunda cámara 121a, 121b pueden proporcionarse en el cuerpo del terminal de manera giratoria y emergente.
Un flash 123 y un espejo 124 pueden disponerse adicionalmente adyacentes a la segunda cámara 121b. El flash 123 ilumina luz hacia un objeto cuando captura el objeto con la segunda cámara 121b. El espejo 124 permite al usuario mirar su propia cara, o algo similar, de manera reflejada cuando se captura a sí mismo (en un modo de autorretrato) utilizando la segunda cámara 121b.
Un segundo módulo de salida de audio 153b puede estar dispuesto adicionalmente en una superficie trasera del cuerpo del terminal. El segundo módulo de salida de audio 153b junto con el primer módulo de salida de audio 153a (consúltese la figura 3A) puede implementar una función estéreo, y también puede usarse para implementar un modo de teléfono con altavoz durante una llamada telefónica.
Una antena para la recepción de señales de difusión puede estar dispuesta, además, en una superficie lateral del cuerpo de terminal, además de una antena para hacer una llamada telefónica o similar. La antena que constituye parte del módulo de recepción de difusión 111 (consúltese la figura 1) puede proporcionarse en el cuerpo del terminal de manera retráctil.
Una unidad de fuente de alimentación 190 (consúltese la figura 1) para suministrar energía al terminal móvil 100 se puede montar en el cuerpo del terminal. La unidad de fuente de alimentación 190 puede estar incorporada en el cuerpo del terminal, o puede incluir una batería 191 configurada de una manera separable en el exterior del cuerpo del terminal. La cubierta de la batería 103 se ilustra como combinada con la carcasa posterior 102 para cubrir la batería 191, lo que restringe la liberación de la batería 191 y protege la batería 191 de golpes externos y sustancias extrañas.
Mientras tanto, en el terminal móvil de acuerdo con una realización de la presente invención, una o más funciones, que se está ejecutando o que pueden ser ejecutables, puede controlarse. Por lo tanto, para controlar una o más funciones, es posible que el usuario no necesite aplicar una manipulación (por ejemplo, una entrada de contacto o similar) con respecto al terminal móvil, y mediante un simple gesto de tocar un objeto, pueden controlarse una o más funciones.
En lo sucesivo, el terminal móvil que proporciona una nueva interfaz de usuario basada en gestos de toques de un objeto y un método de control del mismo se describirá en detalle con referencia a los dibujos adjuntos.
A continuación, la figura 4 es un diagrama de flujo que ilustra una realización del terminal móvil 100 de acuerdo con una realización de la presente invención, y la figura 5 es una vista que ilustra un ejemplo de una operación del terminal móvil 100 de la figura 4. El terminal móvil 100 incluye la unidad de visualización 151, la unidad de detección 140 y el controlador 180.
Con referencia a la figura 4, en una realización de la presente invención, a medida que se ejecutan una o más funciones, las pantallas ejecutadas se envían a la unidad de visualización 151 del terminal móvil (S110). En este caso, las pantallas ejecutadas pueden ser varios tipos de salida de información de pantalla a la unidad de visualización 151. Por ejemplo, la información de la pantalla puede ser una pantalla ejecutada de una aplicación, una pantalla de página de una pantalla de inicio, una pantalla de menú, una pantalla correspondiente a una función ejecutada de acuerdo con una solicitud del usuario, una pantalla de notificación que indica que se produjo un evento, una pantalla de bloqueo para evitar el mal funcionamiento debido a una entrada de contacto involuntaria, y similares. Cuando una pantalla ejecutada se envía a la unidad de visualización 151, los gestos de toque al tocar un objeto se detectan continuamente dentro de un tiempo de referencia (S120). En una realización de la presente invención, el controlador 180 puede dividir una pantalla ejecutada en una región en la que se envía un objeto y una región que es de otro modo.
El objeto se refiere a un elemento gráfico, y cuando se aplica una entrada de contacto a una región en la que se emite el elemento gráfico, se ejecuta una función de control preestablecida. Por ejemplo, un icono, un menú o similar puede ser un objeto. En este caso, el controlador 180 puede calcular una región en la que los gestos de toque se detectan en una pantalla ejecutada. Cuando se detectan gestos de toque en una región (un espacio vacío) en el que no se genera un objeto, el controlador 180 puede desactivar la unidad de visualización 151.
En este caso, un gesto de toque se refiere a un gesto de tocar un objeto. Con más detalle, un gesto de toque puede ser una operación de voltear un objeto con un mecanismo de toque tal como un dedo, o similar, o una operación de traer suavemente un mecanismo de toque a un objeto.
Mientras tanto, el mecanismo de toque que aplica gestos de toque aplica una intensidad externa a un objeto, y puede ser un dedo, un lápiz óptico, una pluma, un puntero, un puño, y similares, por ejemplo. Mientras tanto, el mecanismo de toque no se limita a aplicar una entrada de contacto al terminal móvil y puede ser cualquier cosa capaz de aplicar una intensidad externa al objeto, independientemente de su tipo.
Mientras tanto, el objeto al que se aplica el gesto de toque incluye al menos uno de un cuerpo del terminal móvil, un objeto en el que se coloca el terminal móvil, y un objeto que cubre el terminal móvil. Además, se puede determinar que los gestos de toque solo se han detectado cuando se aplican al menos dos o más gestos de toque dentro de un tiempo de referencia.
Por ejemplo, cuando el objetivo de contacto aplica un solo gesto de toque, el controlador 180 puede reconocer el gesto de toque único como una entrada de contacto. A saber, el controlador 180 puede controlar una función correspondiente a la entrada de contacto correspondiente al gesto de un solo toque (por ejemplo, una función de seleccionar una salida de icono en un punto al que se aplica la entrada de contacto), en lugar de controlar una función correspondiente al gesto de un solo toque.
Por lo tanto, cuando al menos dos o más (o una pluralidad de) gestos de toque se aplican continuamente dentro de un tiempo de referencia, el controlador 180 puede determinar los gestos de toque para controlar que una o más funciones han sido detectadas. A saber, los gestos de toque significan que al menos dos o más gestos de toque se detectan continuamente dentro de un tiempo de referencia.
Además, así como los gestos de toque detectados dentro del tiempo de referencia, cuando los gestos de toque se aplican a una "región predeterminada", el controlador 180 puede determinar que se han detectado gestos de toque. Por ejemplo, los gestos de toque pueden ser primer y segundos gestos de toque continuamente detectados dentro de una región predeterminada dentro del tiempo de referencia.
Además, el tiempo de referencia puede ser un tiempo muy corto. Por ejemplo, puede ser un tiempo dentro de 300 microsegundos a 2 segundos. Además, la región predeterminada puede ser el mismo punto al que se han aplicado los gestos de toque o puede ser una región estrecha considerada como el mismo punto.
Así, cuando el primer gesto del toque es detectado por la unidad de detección 140, la unidad de detección 140 calcula una región predeterminada a partir de un punto en el que se detectó el primer gesto de toque. Cuando el segundo gesto de toque se detecta en la región predeterminada dentro del tiempo de referencia a partir del momento en que se detectó el primer gesto de toque, la unidad de detección 140 o el controlador 180 pueden determinar que los movimientos de toque han sido detectados.
Además, la unidad de detección 140 puede contar gestos de toques detectados dentro del tiempo de referencia. Por ejemplo, cuando se cuentan dos gestos de toque, puede denominarse un "gesto de doble toque" y cuando se cuentan tres gestos de toque, puede denominarse "gesto de toque triple". Los gestos de toque también pueden incluir cuatro o más gestos de toque.
Además, en respuesta a los gestos de toque correspondientes a diferentes números contados como se mencionó anteriormente, el controlador 180 puede controlar diferentes funciones. El tiempo de referencia anterior y la región predeterminada pueden modificarse de forma diversa de acuerdo con una realización.
Mientras tanto, los gestos de toque pueden aplicarse mediante uno o más mecanismos de toque. En este caso, la unidad de detección 140 puede calcular los puntos a los que se aplicaron los gestos de toque y determinar el número de mecanismos de toque que han aplicado los gestos de toque utilizando el número calculado de gestos de toque. Por ejemplo, el usuario puede tocar un solo punto con un dedo o puede tocar simultáneamente el primer y segundo puntos con dos dedos. Los gestos de toque también pueden aplicarse simultáneamente a tres o más puntos. En este caso, el controlador 180 puede controlar diferentes funciones de acuerdo con uno o más mecanismos de toque.
Además, en una realización de la presente invención, los gestos de toque pueden detectarse mediante un acelerómetro incluido en la unidad de detección 140. En este caso, el acelerómetro puede ser un sensor capaz de medir la intensidad dinámica, tal como la aceleración, las vibraciones, el impacto y similares, del cuerpo del terminal. Es decir, el acelerómetro puede detectar gestos de toque aplicados a un objeto al detectar un movimiento (o vibración) del cuerpo terminal generado por el gesto de toque, y el controlador 180 puede determinar que se han aplicado los gestos de toque. Por lo tanto, el objeto al que se aplican los gestos de toque puede ser el cuerpo del terminal o un objeto posicionado para estar tan cerca del cuerpo del terminal, que el acelerómetro del cuerpo terminal puede detectar un movimiento o vibración del mismo.
Mientras el cuerpo terminal puede detectar un movimiento o una vibración, aunque los gestos de toque se aplican a un punto fuera del cuerpo de terminal, así como cuando el gesto de toque se aplica al cuerpo de terminal, el gesto de toque puede detectarse.
Por ejemplo, cuando el terminal se coloca sobre una mesa, el usuario puede aplicar gestos de toque tocando la mesa. En otro ejemplo, cuando el terminal está en un bolsillo de pantalones, el usuario puede aplicar gestos de toque tocando una superficie exterior de los pantalones.
Además, la unidad de detección 140 que incluye un acelerómetro también puede detectar una dirección en la que se generan gestos de toque o intensidad de los gestos de toque. En este caso, para mejorar la precisión de la unidad de detección 140, la unidad de detección 140 puede incluir un sensor de contacto, un sensor de proximidad, un sensor de sonido, etc., así como el acelerómetro, y puede detectar los gestos de toque utilizando estos sensores juntos.
La figura 5 ilustra una realización en la que se aplican gestos de toque al terminal móvil 100 de la figura 4. Haciendo referencia a la figura 5, la unidad de visualización 151 genera una pantalla ejecutada de una función de ejecución. Por ejemplo, cuando se recibe un mensaje o una llamada de un terminal de otra parte, una pantalla de recepción de mensajes o una pantalla de recepción de llamadas se envía a la unidad de visualización 151.
El controlador 180 puede emitir al menos una de información visual, sonora, y háptica mediante el uso de al menos uno del módulo de salida de audio 153 y el módulo háptico 155 incluido en la unidad de salida 150. A continuación, se describirá como ejemplo una realización en la que se genera una salida relacionada con la sensación visual utilizando la unidad de visualización 151.
Mientras tanto, cuando se envía una pantalla ejecutada a medida que se ejecutan una o más funciones, se pueden aplicar gestos de toque al cuerpo del terminal o puntos fuera del cuerpo. Por ejemplo, cuando el terminal móvil 100 se coloca en una mesa, el usuario puede aplicar gestos de toque tocando la mesa dos veces sucesivamente.
Como se muestra en la figura 4, cuando se aplican los gestos de toque, se controlan una o más funciones (S310). A saber, se genera un comando de control para ejecutar funciones que coincidían previamente con los gestos de toque detectados por la unidad de detección 140 (S320). Es decir, en respuesta a los gestos de toque, el controlador 180 puede controlar al menos una de las una o más funciones.
En este caso, la una o más funciones pueden controlarse de varias maneras. Por ejemplo, la una o más funciones pueden ser controladas para ser ejecutadas, terminadas (o detenidas o interrumpidas), y diferidas. En este caso, el controlador 180 puede generar diferentes comandos de control para realizar diferentes controles de acuerdo con las características de los gestos de toque como se describió anteriormente.
Además, las características de los gestos de toque incluyen características basadas en al menos uno de 1) el número de gestos de toque (por ejemplo, gestos de doble toque o gestos de triple toque) aplicados dentro del tiempo de referencia, 2) el número de mecanismos de toque (por ejemplo, un dedo o dos dedos) que aplican gestos de toque, 3) una posición o un punto al que se aplican gestos de toque (por ejemplo, el cuerpo del terminal o un punto fuera del cuerpo del terminal) y 4) la intensidad de los gestos de toque.
Luego, en respuesta a los gestos de toque detectados por la unidad de detección 140, el controlador 180 puede realizar funciones coincidentes con los gestos de toque, como funciones para controlar al menos una de las una o más funciones.
En una realización de la presente invención, en respuesta a los gestos doble toque que tocan el mismo punto dos veces sucesivamente, el controlador 180 puede terminar al menos una o más de la una de más funciones en ejecución en el terminal móvil y desactivar la unidad de visualización 151. Por ejemplo, como se ilustra en la figura 5, cuando se está recibiendo una llamada, es decir, cuando se está ejecutando una función de recepción de llamada, el controlador 180 puede negarse a recibir la llamada del terminal de la parte contraria. Además, el controlador 180 puede rechazar la llamada y desactivar la iluminación de la unidad de visualización 151.
Es decir, en respuesta a los gestos de toque, el controlador 180 puede controlar la unidad de visualización 151 para que se desactive. La desactivación de la unidad de visualización 151 se refiere a cuando la iluminación proporcionada para iluminar la unidad de visualización 151 está en estado DESACTIVADO y cualquier información o imagen gráfica no se muestra en la unidad de visualización 151. Cuando se desactiva la unidad de visualización 151 se puede hacer referencia a una función de suspensión (o un modo de suspensión).
Además, el controlador 180 puede desactivar la unidad de visualización 151 que ha mostrado una pantalla ejecutada correspondiente a la función de llamada, y detener al menos uno de un sonido de alarma (o un sonido de campana) y la emisión de vibraciones de acuerdo con la recepción de la llamada.
Como se describió anteriormente, en el terminal móvil de acuerdo con una realización de la presente invención, cuando se aplican los gestos de toque como se ejecutan una o más funciones, por lo menos una de las funciones ejecutadas puede controlarse. De este modo, el usuario puede controlar las funciones a través de un simple gesto de toque, sin tener que aplicar una manipulación de contacto para realizar el control anterior al terminal.
Además, en el terminal móvil 100 de acuerdo con una realización de la presente invención, cuando se detectan gestos de toque continuados dentro del tiempo de referencia, por lo menos una de la una o más funciones en ejecución en el terminal móvil se puede controlar en respuesta a los gestos de toque.
Además, en el terminal móvil 100 de acuerdo con una realización de la presente invención, mediante la generación de un comando de control de acuerdo con gestos de toque, se proporciona una nueva interfaz de usuario, diferente de un toque existente. Además, debido a que el terminal se controla mediante el método simple de gestos de toque, la conveniencia del usuario se ve incrementada.
En la realización anterior, se ha descrito el método para controlar al menos una de la una o más funciones en ejecución en el terminal móvil. En el terminal móvil 100 según una realización de la presente invención, aunque una función no se ejecuta actualmente en el terminal móvil, se puede ejecutar una nueva función o el terminal móvil puede entrar en un modo particular en respuesta a los gestos de toque.
De aquí en adelante, diversas realizaciones relacionadas con las funciones coincidentes con las características de gestos de toque, a saber, las funciones controladas por el controlador 180 se describirán en detalle con referencia a las figuras 6 a 14. Las funciones de control que pueden coincidir con las características de los gestos de toque se describirán primero.
En el terminal móvil de acuerdo con una realización de la presente invención, diferentes funciones se pueden ejecutar de acuerdo con las características de gestos de toque. Las diferentes funciones pueden ser funciones relacionadas con una salida de la unidad de visualización 151. Por ejemplo, las diferentes funciones pueden incluir una función de suspensión, una función privada, una función silenciosa, una función de apagado, una función de apagado de la ventana y similares.
En este caso, la función de suspensión se refiere a una función de desactivación de la unidad de visualización 151. La desactivación de la unidad de visualización 151 puede referirse a apagar la iluminación proporcionada dentro de la unidad de visualización 151. Mientras tanto, cuando se ejecuta la función de suspensión y se produce un nuevo evento, el controlador 180 puede generar una salida de acuerdo con la ocurrencia del evento. Por ejemplo, cuando se recibe una llamada cuando se ejecuta la función de suspensión, se puede emitir un sonido de notificación (o un sonido de campana) o vibraciones que indican la recepción de la llamada o la información de la pantalla que indica que la recepción de la llamada puede enviarse a la unidad de visualización 151.
Además, cuando la información de la pantalla se envía a la unidad de visualización 151, la función de apagado automático ya no puede ejecutarse. Mientras tanto, cuando la función de suspensión se ejecuta en el terminal móvil 100, la iluminación de la unidad de visualización 151 se apaga, lo que reduce el consumo de la batería. La función privada se refiere a la función de reducir el brillo de una pantalla para evitar que las personas cercanas al usuario del terminal vean la unidad de visualización 151.
A saber, la función privada se refiere a una función proporcionada para la protección de la privacidad mediante el ajuste del brillo de la iluminación proporcionada dentro de la unidad de visualización 151 o el ajuste de una dirección de iluminación. La función silenciosa se refiere a la función de controlar los componentes incluidos en la unidad de salida 150 para no generar una salida, así como para desactivar la unidad de visualización 151. A diferencia de la función de suspensión, cuando se ejecuta la función silenciosa, aunque se produzca un nuevo evento, el controlador 180 no puede generar una salida de acuerdo con la ocurrencia del evento. Sin embargo, al liberar la función silenciosa, el usuario puede verificar un evento que se haya generado mientras se ejecutaba la función silenciosa. Además, la función de apagado se refiere a una función de apagar el terminal móvil 100. Además, la función de apagado de la ventana puede ser una función para detener la visualización de una salida de la pantalla ejecutada en las posiciones a las que se aplican los gestos de toque. Cuando se ejecuta la función de apagado de la ventana, el controlador 180 puede terminar la ejecución de una aplicación correspondiente a la pantalla ejecutada, así como terminar la visualización de la pantalla ejecutada. Por lo tanto, el usuario puede terminar una aplicación ejecutada a través de la función de apagado de la ventana usando gestos de toque.
Además, cuando se ejecutan las funciones, el terminal móvil ha entrado en los modos correspondientes a las funciones ejecutadas. Por ejemplo, cuando se ejecuta la función de suspensión, el terminal móvil ha entrado en un modo de suspensión o el modo de suspensión está activado en el terminal móvil.
Mientras tanto, las funciones de control previamente emparejadas de acuerdo con las características de los gestos de toque pueden ajustarse a cualquiera de la función de suspensión, la función privada, la función silenciosa, la función de apagado, y la función de apagado de la ventana. Sin embargo, la presente invención no se limita a esto y las funciones de control pueden modificarse de diversas maneras.
A continuación, la figura 6 es una vista conceptual que ilustra un ejemplo de una operación (función de suspensión) para desactivar la unidad de visualización 151 en el terminal móvil 100 de acuerdo con una realización de la presente invención. Haciendo referencia a la figura 6, una pantalla de ejecución, una pantalla inactiva, una pantalla de bloqueo o similar, que corresponde a una o más funciones, pueden enviarse a la unidad de visualización. Cuando la información de la pantalla se envía a la unidad de visualización 151 y se detectan gestos de toque, el controlador 180 puede desactivar la unidad de visualización 151.
Cuando se aplican los gestos de toque, si una o más funciones se han ejecutado en el terminal móvil, el controlador 180 puede terminar al menos una de las funciones.
En una realización, cuando se aplican gestos de toque a un espacio vacío de una salida de pantalla ejecutada a la unidad de visualización 151, el controlador 180 puede desactivar la unidad de visualización 151. Por ejemplo, cuando una pantalla de inicio que incluye un objeto, como un icono, se muestra como una pantalla ejecutada, una región en la que no se muestra un icono puede ser un espacio vacío. Esto es para evitar el mal funcionamiento del terminal.
Además, cuando se aplican los gestos de toque, el controlador 180 puede visualizar una lista de funciones que corresponden a las funciones actualmente en ejecución en la unidad de visualización 151. Posteriormente, se puede determinar si finalizará la función ejecutada o si se desactivará solo la unidad de visualización 151 en respuesta a los gestos de toque aplicados posteriormente. Por ejemplo, cuando se aplican dos gestos de toque, el controlador 180 puede terminar todas las funciones actualmente ejecutadas y desactivar la unidad de visualización 151. Además, cuando se aplican tres gestos de toque, el controlador 180 puede desactivar solo la unidad de visualización 151, mientras mantiene las funciones actualmente ejecutadas como están.
Como se ha descrito anteriormente, cuando la función de suspensión se ejecuta en respuesta a los gestos de toque, el controlador 180 puede desactivar la unidad de visualización 151 cuando se visualiza una pantalla de bloqueo, una pantalla ejecutada de una aplicación, o similar.
A continuación, las figuras 7A y 7B son vistas conceptuales que ilustran un ejemplo de operaciones (función de apagado de la ventana) de control de funciones correspondientes a la salida de información de pantalla a la unidad de visualización 151 en el terminal móvil 100 de acuerdo con una realización de la presente invención.
Con referencia a la figura 7A, el controlador 180 puede ejecutar una aplicación y mostrar una pantalla ejecutada de la aplicación en la unidad de visualización 151. Por ejemplo, cuando se ejecuta una aplicación como un álbum de fotos, una captura de imágenes, un navegador web o similar, se puede enviar una pantalla ejecutada correspondiente a la unidad de visualización 151.
En este caso, el controlador 180 puede controlar una función correspondiente a una salida de pantalla ejecutada a un punto en que se han aplicado los gestos de toque. Por ejemplo, el controlador 180 puede terminar la visualización de la pantalla ejecutada en una posición a la que se han aplicado los gestos de toque y terminar la ejecución de la aplicación correspondiente a la pantalla ejecutada. Dicha función de control puede denominarse función de apagado de la ventana.
A medida que termina la visualización de una pantalla ejecutada particular, el controlador 180 puede enviar una pantalla ejecutada de una aplicación, que se ha ejecutado más recientemente y no ha terminado, a la unidad de visualización 151.
Por ejemplo, una primera aplicación, una segunda aplicación y una tercera aplicación pueden ejecutarse en orden. Cuando una pantalla ejecutada 730 se emite de acuerdo con la ejecución de la tercera aplicación, cuando se detectan gestos de toque, el controlador 180 puede terminar la ejecución de la tercera aplicación. El controlador 180 puede emitir una pantalla ejecutada 720 de la segunda aplicación, que se ha ejecutado más recientemente y no ha finalizado, a la unidad de visualización 151.
En otro ejemplo, cuando una pluralidad de aplicaciones no se han terminado, el controlador 180 puede emitir imágenes en miniatura de las respectivas aplicaciones a la unidad de visualización 151. A saber, cuando se termina la ejecución de la tercera aplicación, el controlador 180 puede organizar las imágenes en miniatura 710 y 720 correspondientes a la primera y segunda aplicaciones ejecutadas en orden.
En este caso, cuando se selecciona una cualquiera de las imágenes en miniatura emitidas a la unidad de visualización 151, el controlador 180 puede emitir una pantalla ejecutada de una aplicación que corresponde a la seleccionada de las imágenes en miniatura.
Mientras tanto, cuando no se ejecuta ninguna aplicación, el controlador 180 puede emitir una pantalla de inicio a la unidad de visualización 151. La pantalla de inicio se refiere a una pantalla inactiva del terminal móvil 100 que incluye íconos o widgets de aplicaciones instaladas en el terminal móvil 100.
Con referencia a la figura 7B, una pluralidad de pantallas ejecutadas se envían a la unidad de visualización 151. Por ejemplo, la primera y segunda pantallas ejecutadas 710 y 720 correspondientes a la primera y segunda aplicaciones, respectivamente, se envían a la unidad de visualización 151.
En este caso, con la primera y segunda pantallas ejecutadas 710 y 720 emitidas, los gestos de toque se aplican a una posición en la que se emite la segunda pantalla ejecutada 720, el controlador 180 puede interrumpir la visualización de la segunda pantalla ejecutada 720. Además, el controlador 180 puede terminar la ejecución de la aplicación correspondiente a la segunda pantalla ejecutada 720.
Además, cuando la visualización de la segunda pantalla ejecutada 720 entre la pluralidad de pantallas ejecutadas emitidas a la unidad de visualización 151, el controlador 180 puede cambiar un tamaño de visualización de la primera pantalla ejecutada 1 que no ha terminado. Por ejemplo, a medida que termina la visualización de la segunda pantalla ejecutada 720, la primera pantalla ejecutada 720, que no ha finalizado, puede maximizarse en tamaño. Por lo tanto, el terminal móvil 100 de acuerdo con una realización de la presente invención proporciona una nueva interfaz para el control de una aplicación a través de un método simple.
A continuación, las figuras 8A y 8B son vistas conceptuales que ilustran ejemplos de operaciones del terminal móvil que ejecutan diferentes funciones según el número de puntos a los que se aplican simultáneamente los gestos de toque. Haciendo referencia a las figuras 8A y 8B, cuando se ejecuta una aplicación (por ejemplo, un álbum de fotos), la pantalla ejecutada correspondiente se envía a la unidad de visualización 151.
Con la pantalla ejecutada de la aplicación mostrada, el controlador 180 puede ejecutar diferentes funciones de control correspondientes a la información de la pantalla mostrada en la unidad de visualización 151 según el número de puntos a los que se aplican simultáneamente los gestos de toque. Es decir, aunque se muestra la misma pantalla ejecutada, se pueden controlar diferentes funciones de acuerdo con la cantidad de puntos a los que se aplican los gestos de toque.
Con referencia a la figura 8A, cuando el número de puntos a los que se aplican los gestos de toque es uno, se puede ejecutar una función de suspensión, y refiriéndose a la figura 8B, cuando el número de puntos a los que se aplican los gestos de toque es dos, se puede ejecutar una función de apagado de la ventana. La función de control según el número de puntos a los que se aplican los gestos de toque puede variar según una realización.
Mientras tanto, cuando los gestos de toque se aplican a dos puntos, es decir, el primer y segundo puntos, diferentes funciones de control pueden ser ejecutadas de acuerdo con una distancia entre el primer y segundo puntos. Por ejemplo, cuando la distancia entre el primer y el segundo punto es más larga que una distancia de referencia, una pantalla ejecutada emitida a la unidad de visualización 151 puede ampliarse alrededor de un punto central entre el primer punto y el segundo punto.
Por el contrario, cuando la distancia entre el primer y el segundo punto es más corta que la distancia de referencia, la pantalla ejecutada puede reducirse alrededor del punto central. En este caso, las pantallas ejecutadas pueden ampliarse o reducirse en proporción a la diferencia entre la distancia entre el primer y el segundo punto y la distancia de referencia.
A saber, haciendo referencia a las figuras 8A y 8B, se pueden ejecutar funciones de control coincidentes de manera diferente según el número de puntos a los que se aplican los gestos de toque.
Las figuras 9A y 9B son vistas conceptuales que ilustran ejemplos de operaciones de la información de la función de salida del terminal móvil a medida que se detectan los gestos de toque. Cuando se detectan gestos de toque, el controlador 180 puede dar información de guía con respecto a las funciones de control correspondientes a las características de los gestos de toque. Por ejemplo, con referencia a la figura 9A, cuando el número de puntos a los que se aplican los gestos de toque es uno y una función de control correspondiente a la misma es una primera función, puede emitirse información de guía relacionada con la primera función.
En otro ejemplo, haciendo referencia a la figura 9B, cuando el número de puntos a los que se aplican los gestos de toque es dos y la función de control correspondiente a los mismos es una segunda función, la información de guía relacionada con la segunda función puede ser emitida. Además del método visual ilustrado en las figuras 9A y 9B, cuando el número de puntos a los que se aplican los gestos de toque es dos y la función de control correspondiente a los mismos es una segunda función, se puede emitir información de guía relacionada con la segunda función. Además, la información de guía puede emitirse de una manera auditiva o háptica, tal como una voz o vibración, así como de la manera visual como se ilustra en las figuras 9A y 9B.
A continuación, la figura 10 es una vista que ilustra el terminal móvil que genera una lista de información de función que coincide con las características de los gestos de toque, respectivamente. La memoria 160 del terminal móvil 100 según una realización de la presente invención puede almacenar información (en lo sucesivo, denominada información de función) relacionada con diferentes funciones de control que se ejecutarán según las características de los gestos de toque.
Cuando se aplica una solicitud de usuario o gestos de toque, el controlador puede enviar una lista de información de función a la unidad de visualización 151 con referencia a la información de función almacenada en la memoria 160. La lista de información de la función puede incluir al menos una información de la función, y la información de la función puede incluir información sobre las características de los gestos de toque que corresponden a un título de una función de control a ejecutar, una descripción de la función de control y una condición previa bajo la cual la función debe ser ejecutada.
Por ejemplo, la primera función puede ser una función de suspensión y puede ejecutarse cuando dos gestos de toque se aplican sucesivamente a un punto. En otro ejemplo, la segunda función puede ser una función de apagado de la ventana y puede ejecutarse cuando dos gestos de toque se aplican sucesivamente a dos puntos.
La información de la función almacenada en la memoria 160 puede editarse basándose en una entrada del usuario. Por ejemplo, cuando la primera función se establece como una función de suspensión, la primera función puede cambiarse a una función de apagado. En otro ejemplo, cuando la segunda función está configurada para ejecutarse cuando dos gestos de toque se aplican sucesivamente a dos puntos, la segunda función puede cambiarse para ejecutarse cuando tres gestos de toque se aplican sucesivamente a un punto.
En un ejemplo específico de información de función de edición, el controlador 180 puede incluir al menos una información de función almacenada en la memoria 160 en la lista de información de la función de acuerdo con una solicitud del usuario o cuando se aplican gestos de toque preestablecidos. En este caso, el controlador 180 puede mostrar un icono de menú formado para editar al menos una información de función junto con la lista de información de funciones. Cuando se detecta una entrada de contacto aplicada al icono del menú, el controlador 180 puede seleccionar al menos una información de función y generar un menú de edición con respecto a la al menos una información de función seleccionada. El usuario puede editar un tipo de función de control, las características de los gestos de toque como condiciones para ejecutar la función de control, y similares, mediante el uso del menú de edición.
Por lo tanto, debido a que al menos una información de función incluida en la lista de información de función puede editarse de acuerdo con una entrada del usuario, el usuario recibe una interfaz optimizada.
La figura 11 es una vista conceptual que ilustra un ejemplo de una operación de generar una lista de información de función en respuesta a gestos de toque en el terminal móvil de acuerdo con una realización de la presente invención. Haciendo referencia a la figura 11, cuando las pantallas ejecutadas se emiten a medida que se ejecutan una o más funciones, y se detectan gestos de toque, el controlador 180 puede emitir una lista de información de función correspondiente a diferentes gestos de toque con referencia a la información de función almacenada en la memoria 160.
En un ejemplo específico, cuando la unidad de visualización 151 en un estado desactivado se activa de acuerdo con una manipulación de usuario, una pantalla de bloqueo puede ser emitida a la unidad de visualización 151. La pantalla de bloqueo puede ser una pantalla emitida a la unidad de visualización 151 en un modo de bloqueo del terminal, en el que las entradas que no sean una entrada para desbloqueo están limitadas. Es decir, cuando se emite la pantalla de bloqueo, la entrada es limitada y, por lo tanto, la ejecución de una función de control de acuerdo con una entrada puede ser limitada.
Cuando la pantalla de bloqueo se envía a la unidad de visualización 151, y los gestos de toque se aplican a la unidad de visualización 151, el controlador 180 puede generar una lista de información de función. La lista de información de función puede incluir al menos una función de control que coincida con las características de los gestos de toque. Incluso cuando se genera una pantalla ejecutada de una aplicación, en lugar de la pantalla de bloqueo, se puede generar la lista de información de la función.
Cuando se selecciona una de las funciones incluidas en la lista de información de funciones, el controlador 180 puede ejecutar una función de control correspondiente a la función seleccionada. Por ejemplo, cuando se selecciona una segunda función establecida como privada, el controlador 180 puede controlar la iluminación dentro de la unidad de visualización 151 para tener un brillo preestablecido de manera que las personas que lo rodean no puedan ver la unidad de visualización 151. Además, el controlador 180 puede emitir información de guía de acuerdo con la ejecución de la segunda función.
Posteriormente, cuando se aplican los mismos gestos de pulsación a la unidad de visualización 151 del terminal, se ejecuta la función privada. Es decir, cuando los gestos de toque se aplican a la unidad de visualización en la pantalla de bloqueo (o una pantalla ejecutada de una aplicación), el brillo de la unidad de visualización 151 puede controlarse de acuerdo con la función privada. En este caso, la lista de información de la función se puede mostrar de nuevo solo cuando se detectan nuevos tipos de gestos de toque (por ejemplo, los gestos de toque que se aplican a diferentes puntos o la intensidad de los gestos de toque son diferentes).
Sin embargo, la presente invención no está limitada a ello y siempre que se apliquen gestos de toque, la lista de información de función puede emitirse y puede definirse una función de control correspondiente al gesto de toque. La figura 12 es una vista conceptual que ilustra un ejemplo de una operación del terminal móvil 100 en el que cualquier pantalla ejecutada se controla mediante gestos de toque cuando se emiten una pluralidad de pantallas ejecutadas.
Cuando se emite una pluralidad de pantallas ejecutadas, y se ingresan gestos de toque, el controlador 180 puede ejecutar una función de control con respecto a cualquiera de las pantallas ejecutadas en una posición a la que se aplican los gestos de toque. La función de control ejecutada puede ser una función previamente adaptada a las características de los gestos de toque. En este caso, la pluralidad de pantallas ejecutadas pueden ejecutarse como pantallas de aplicaciones multitarea respectivas.
Por ejemplo, con referencia a la figura 12, la unidad de visualización 151 puede emitir la primera, segunda y tercera pantallas 1210, 1220 y 1230 según la ejecución de la primera, segunda y tercera aplicaciones. Cuando los gestos de toque se detectan en una posición en la que se emite la tercera pantalla 1230, el controlador 180 puede ejecutar una función de control correspondiente a los gestos de toque.
En este caso, la pantalla ejecutada como un objetivo de control puede ser fijado por un punto al que se aplican los gestos de toque del usuario. Por ejemplo, cuando el usuario toca la primera pantalla 1210, la primera pantalla puede ser un objetivo de control, y cuando el usuario toca la segunda pantalla 1220, la segunda pantalla puede ser un objetivo de control.
Cuando se ejecuta una función privada mediante gestos de toque se describirá ahora. En este caso, cuando el gesto de toque del usuario se detecta en la tercera pantalla 1230, el controlador 180 puede ajustar la tercera pantalla 1230 para que tenga un brillo preestablecido de modo que las personas que lo rodean no puedan ver la tercera pantalla 1230. A saber, cuando la primera y la segunda pantalla 1210 y 1220 se mantienen, una función de control correspondiente a los gestos de toque puede ejecutarse solo para la tercera pantalla 1230.
Cuando el usuario vuelve a tocar la tercera pantalla 1230, el brillo de la tercera pantalla 1230 puede volver al brillo original. A saber, una función de control ejecutada por gestos de toque anteriores puede liberarse mediante gestos de toque posteriores, y los gestos de toque pueden aplicarse al mismo objetivo (es decir, la tercera pantalla en esta realización).
Las figuras 13A, 13B y 13C son vistas conceptuales que ilustran ejemplos de operaciones del terminal móvil que ejecutan diferentes funciones según los puntos de destino de los gestos de toque. El controlador 180 puede ejecutar diferentes funciones de control de acuerdo con un punto objetivo de gestos de toque.
Por ejemplo, cuando se aplican gestos de toque a un punto fuera del cuerpo del terminal, se puede terminar una función relacionada con una salida de sonido entre una o más funciones que se ejecutan. Alternativamente, cuando se aplican gestos de toque al cuerpo del terminal móvil, una función relacionada con la salida de sonido y la visualización de la pantalla, entre una o más funciones que se ejecutan, puede terminar juntas.
En este ejemplo, una región de entrada del terminal móvil 100 puede extenderse hacia el exterior del cuerpo del terminal. Por lo tanto, un punto en el que la unidad de detección 140 del terminal detecta los gestos de toque en una región fuera del cuerpo terminal puede ser una región de entrada virtual.
Además, la región de entrada virtual puede tener un ancho que varía de acuerdo con un lugar u objetivo en el que se coloca el terminal o la intensidad de los gestos de toque. Por ejemplo, cuando el terminal se coloca sobre una mesa, o similar, cuando el usuario toca la mesa, el terminal puede moverse, y en consecuencia, se pueden detectar los gestos de toque. Por lo tanto, cuando la intensidad del toque es fuerte, la región de entrada virtual puede aumentar. En otro ejemplo, cuando el usuario sostiene el cuerpo del terminal, la región de entrada virtual puede desaparecer. En la presente realización, se ilustra que diferentes funciones de control se ejecutan de acuerdo con los puntos de destino de los gestos de toque dentro de la región de entrada virtual. Por ejemplo, con referencia a la figura 13A, cuando se ejecuta una aplicación relacionada con la alarma, una pantalla ejecutada relacionada con la alarma se envía a la unidad de visualización 151 y el audio relacionado con la alarma se envía al módulo de salida de audio 153.
En este ejemplo, cuando los gestos de toque se detectan en un punto fuera del cuerpo de terminal, el controlador 180 puede terminar solo una función relacionada con una salida de sonido. Alternativamente, cuando se aplican gestos de toque al cuerpo del terminal móvil, la ejecución de la aplicación relacionada con la alarma puede terminar. A saber, las funciones relacionadas con una salida de sonido y una visualización de pantalla, entre las funciones relacionadas con la aplicación de alarma, pueden terminarse juntas.
Sin embargo, la presente invención no se limita a los objetivos de control que varían en función de si los gestos de toque se aplican fuera del cuerpo del terminal. Por ejemplo, diferentes funciones de control pueden ejecutarse de acuerdo con una distancia entre un punto objetivo al que se aplican los gestos de toque y el terminal. Más detalladamente, en el ejemplo de la figura 13A, cuando los gestos de toque se aplican a un punto entre un primer punto objetivo TP1 en 13A(a) y un segundo punto objetivo TP2 en 13A(b), una ventana de selección para seleccionar cualquiera de una función de control de (a) y una función de control de (b) puede ser emitida.
En otro ejemplo, haciendo referencia a la figura 13B, el controlador 180 puede terminar una función relacionada con una salida de sonido o puede terminar funciones relacionadas con una salida de sonido y una pantalla que se muestra en un modo de conexión de señal de llamada según los puntos de destino de los gestos de toque. Más detalladamente, cuando se ejecuta una aplicación relacionada con la recepción de llamadas, una pantalla ejecutada que incluye información sobre un terminal homólogo puede enviarse a la unidad de visualización 151 y un sonido de recepción de llamadas puede enviarse al módulo de salida de audio 153.
En este caso, cuando los gestos de toque del usuario se aplican a un punto fuera del cuerpo del terminal, el controlador 180 puede terminar la función relacionada con la salida de sonido, y cuando los gestos de pulsación del usuario se aplican al cuerpo del terminal, el controlador 180 puede terminar la emisión de sonido y la pantalla ejecutada del modo de conexión de la señal de llamada juntos. Por lo tanto, el modo de conexión de la señal de llamada puede terminarse completamente.
De acuerdo con un punto objetivo de gestos de toque, el controlador 180 puede terminar la función relacionada con la salida de sonido o puede terminar las funciones tanto de la salida de sonido como de la pantalla.
En otro ejemplo, haciendo referencia a la figura 13C, la presente invención también se puede aplicar a una aplicación relacionada con la reproducción de video. Como se ilustra, una aplicación relacionada con una reproducción de video puede ejecutarse en el terminal de acuerdo con una manipulación del usuario.
Cuando los gestos de toque se detectan en un punto fuera del cuerpo del terminal, el controlador 180 puede detener solo una salida de audio y puede reproducir continuamente un video. Alternativamente, cuando se aplican gestos de toque al cuerpo del terminal, el controlador 180 puede detener temporalmente la reproducción del video o puede dejar de ejecutar la aplicación relacionada con la reproducción del video.
En otro ejemplo, según el cual de una región central y una región de borde se aplican gestos de toque, se puede realizar un control diferente. Como se ilustra en la figura 13C(b), cuando se aplican gestos de toque en la región del borde del cuerpo del terminal, la reproducción de video puede detenerse temporalmente, y cuando se aplican gestos de toque en la región central del cuerpo del terminal, la ejecución de la aplicación relacionada con la reproducción de video puede detenerse.
Según se ilustra, si un punto objetivo de gestos de toque está dentro del cuerpo del terminal o dentro de una región de entrada virtual fuera del cuerpo del terminal, según si el punto objetivo está dentro del cuerpo del terminal, o si la distancia a la que se encuentre el punto de destino del cuerpo del terminal, se pueden realizar diferentes funciones de control.
A continuación, la figura 14 es una vista conceptual que ilustra un ejemplo de una operación del terminal móvil en el que se realizan diferentes funciones de acuerdo con la intensidad de los gestos de toque. El controlador 180 puede digitalizar la intensidad de los gestos de toque aplicados y ejecutar diferentes funciones de control de acuerdo con la intensidad de los gestos de toque.
Con más detalle, la intensidad de los gestos de toque se puede dividir en una pluralidad de niveles, y diferentes funciones de control se pueden establecer de acuerdo con cada nivel de la intensidad. Por ejemplo, la intensidad de los gestos de toque puede clasificarse en un primer y segundo niveles correspondientes a la primera y segunda funciones, respectivamente, y cuando la intensidad de los gestos de toque detectados corresponde al primer nivel, la primera función puede ejecutarse. Además, cuando la intensidad de los gestos de toque detectados corresponde al segundo nivel, se puede ejecutar la segunda función.
Por ejemplo, como se muestra en la figura 14, cuando el brillo de la unidad de visualización 151 se establece de acuerdo con las condiciones de entrada anteriores, y el usuario aplica gestos de toque con la primera intensidad 1410, el brillo de la unidad de visualización 151 puede reducirse. En este caso, el brillo reducido puede tener un primer nivel. A continuación, cuando el usuario aplica gestos de toque con una segunda intensidad 1420, el brillo de la unidad de visualización 151 se puede reducir para tener un segundo nivel. En este caso, el primer nivel puede definirse como más alto que el segundo nivel.
En la descripción anterior, se ilustran de forma secuencial los gestos de toque que tienen una primera y una segunda intensidades, pero la presente invención no está limitada a las mismas. Por ejemplo, en el primer estado de la figura 14, a medida que se aplican los gestos de toque que tienen la primera o la segunda intensidad 1410 o 1420, la unidad de visualización 151 se puede cambiar para que tenga brillo en el primer o segundo nivel.
En otro ejemplo, una dirección en la cual se controla una función se puede cambiar de acuerdo con la intensidad de los gestos de toque. Con más detalle, cuando el toque tiene la primera intensidad se aplica al terminal mediante gestos de toque, el brillo puede aumentar, y cuando el toque la segunda intensidad se aplica al terminal, el brillo puede reducirse. Basado en esto, el usuario puede aumentar o reducir el brillo.
En otro ejemplo, una función puede ajustarse para ser controlada de acuerdo con la intensidad de los gestos de toque. A saber, una aplicación como objetivo de control puede variar de acuerdo con un nivel de intensidad. Por ejemplo, cuando se está ejecutando una aplicación de reproducción de música, la aplicación de reproducción de música puede controlarse mediante gestos de toque que tienen la primera intensidad, y si activar la unidad de visualización 151 puede controlarse mediante gestos de toque que tienen la segunda intensidad.
A continuación, la figura 15 es una vista conceptual que ilustra un ejemplo del terminal móvil en el que se realiza una función de acuerdo con los gestos de toque cuando el terminal móvil está emparejado con un dispositivo externo. El terminal móvil puede emparejarse con un dispositivo externo 200 tal como un televisor. Emparejado se refiere a la conexión entre dos o más dispositivos para intercambiar datos. Por ejemplo, el terminal móvil 100 y el televisor 200 pueden emparejarse a través de una comunicación de corto alcance. Como tecnología de comunicación de corto alcance se puede usar Bluetooth™, identificación de radiofrecuencia (RFID), asociación de datos infrarrojos (IrDA), banda ultra-ancha (UWB), ZigBee™ o similares.
Además, el terminal móvil 100 puede emparejarse con el dispositivo externo 200 tal como un televisor a través de comunicación de datos tal como Wi-Fi, o similar. Por ejemplo, el terminal móvil 100 y el dispositivo externo 200 pueden estar emparejados por el medio de una estación base de comunicación de datos, un compartidor, o similar. Mientras tanto, cuando los gestos de toque se detectan cuando se ejecutan una o más funciones del terminal móvil, el terminal puede controlar al menos una de las una o más funciones de ejecutar, en asociación con el dispositivo externo.
Por ejemplo, en un estado emparejado, cuando se detectan gestos de toque en el terminal móvil 100, el controlador 180 puede controlar la unidad de comunicación inalámbrica 110 para emitir la pantalla ejecutada, que se envía a la unidad de visualización 151, al dispositivo externo 200 y desactiva la unidad de visualización 151. A saber, el dispositivo externo emparejado 200, en lugar del terminal móvil 100, puede mostrar la pantalla ejecutada generada por el controlador 180 del terminal móvil 100.
Más detalladamente, cuando un video es reproducido por el terminal móvil 100, el terminal móvil 100 puede transmitir una orden de salida de video a la televisión basándose en gestos de toque detectados. Además, el terminal móvil 100 puede transmitir datos correspondientes al video a la televisión. En este caso, la televisión se puede cambiar a un estado en el que puede reproducir el video transmitido desde el terminal móvil 100, desde un estado en el que la unidad de visualización está desactivada, desde un estado en el que se emite una imagen diferente, o similar. Por consiguiente, el usuario puede seleccionar un dispositivo de salida de video de una manera simple como gestos de toque.
Las figuras 16A, 16B y 16C son vistas conceptuales que ilustran ejemplos de operaciones del terminal móvil que generan un objeto formado para desactivar la unidad de visualización. Haciendo referencia a la figura 16A, a medida que se ejecutan una o más funciones de control, las pantallas ejecutadas pueden enviarse a la unidad de visualización 151. En este momento, en respuesta a un toque detectado desde un extremo de la unidad de visualización 151, el controlador 180 puede enviar al menos una parte de una ventana de cortina 1610 a la unidad de visualización 151.
Posteriormente, cuando el toque se mueve continuamente de un primer punto a un segundo punto, el controlador 180 puede cambiar una región de visualización de la ventana de cortina 1610 en función del movimiento del toque. Por ejemplo, cuando el toque se mueve continuamente desde un punto en un extremo superior de la unidad de visualización 151 hacia abajo, una región de visualización de la ventana de cortina 1610 puede ampliarse hasta una posición en la que el contacto finaliza. Es decir, se puede generar un efecto de animación que la ventana de cortina 1610 desciende desde el extremo superior.
Mientras tanto, la ventana de cortina 1610 puede incluir iconos relacionados con el control del terminal, y puede incluir, además, un objeto gráfico 1620 formado para desactivar la unidad de visualización 151. Por ejemplo, cuando se aplica un toque al objeto gráfico 1620, el controlador 180 puede ejecutar una función de suspensión. Es decir, el controlador 180 puede desactivar la unidad de visualización 151 en respuesta a una entrada del usuario con respecto al objeto gráfico 1620.
Con referencia a la figura 16B, la pantalla de bloqueo descrita anteriormente con referencia a la figura 11 puede emitirse a la unidad de visualización 151. La pantalla de bloqueo puede incluir un teclado para ingresar un icono o una contraseña para desbloquear el terminal. Además, la pantalla de bloqueo puede incluir además el objeto gráfico 1620 formado para desactivar la unidad de visualización 151. En este caso, cuando se aplica un toque al objeto gráfico 1620, el controlador 180 puede ejecutar una función de suspensión.
Con referencia a la figura 16C, la pantalla de inicio descrita anteriormente, con referencia a la figura 7 puede emitirse a la unidad de visualización 151. La pantalla de inicio también se puede denominar pantalla inactiva, y cuando el terminal móvil 100 está inactivo, la pantalla de inicio puede enviarse a la unidad de visualización 151.
La pantalla de inicio puede incluir al menos un objeto. El objeto puede ser un icono o un widget de una aplicación instalada en el terminal móvil. Además, la pantalla de inicio puede incluir una pluralidad de páginas según el número de aplicaciones según una selección de usuario o instaladas en el terminal móvil, y al menos una de la pluralidad de páginas puede enviarse a la unidad de visualización 151 según una selección del usuario.
La pantalla de inicio también puede incluir al menos una de una región de información de identificación en la que se muestra información de identificación con respecto a una salida de página a la unidad de visualización 151, una región de información de estado en la que se muestra información de estado del terminal móvil 100, y una región preestablecida en la que se muestra un icono de una aplicación preestablecida.
En la región de información de identificación se puede visualizar la información de identificación que indica a cuál de la pluralidad de páginas corresponde una página de salida actual. Además, en la región de información de estado, se puede mostrar al menos una información de antena del terminal móvil 100, información de modo de comunicación, información de batería, información sobre un evento generado, información sobre una función preestablecida e información de tiempo.
En la región preestablecida, los iconos o widgets correspondientes a aplicaciones particulares previamente establecidas de acuerdo con una selección de usuario o previamente configuradas por el controlador 180 pueden mostrarse de manera fija. También se puede enviar una pantalla de fondo a la unidad de visualización 151 de acuerdo con una selección del usuario o de acuerdo con una configuración del controlador 180, y el controlador 180 puede controlar la unidad de visualización 151 para visualizar la pantalla de fondo y la pantalla de inicio de manera superpuesta.
En el terminal móvil 100 de acuerdo con una realización de la presente invención, la pantalla de inicio puede incluir además el objeto gráfico 1620 formado para desactivar la unidad de visualización 151. El objeto gráfico 1620 se puede generar en una región parcial de la pantalla de inicio, y una posición en la que se genera el objeto gráfico 1620 se puede cambiar mediante una entrada de toque y arrastre.
Cuando el objeto gráfico 1620 se superpone con un icono o un widget incluido en la pantalla de inicio, el controlador 180 puede generar el objeto gráfico 1620 en la etapa más alta de una disposición escalonada, o puede cambiar una posición de salida o un tamaño del mismo que no se superponga con el icono o el widget.
Además, el objeto gráfico 1620 puede incluirse en la pantalla de inicio o no de acuerdo con un modo de configuración. El modo de configuración puede modificarse en función de una entrada del usuario. Cuando el objeto gráfico 1620 se muestra en la pantalla de inicio, cuando se aplica un toque al objeto gráfico 1620, el controlador 180 puede ejecutar un modo de suspensión y desactivar la unidad de visualización 151.
La pantalla de inicio puede incluir al menos una de una región de información de identificación en la que se visualiza información de identificación con respecto a una salida de página a la unidad de visualización 151, una región de información de estado en el que se visualiza la información de estado del terminal móvil 100, y una región preestablecida en la que se muestra un icono de una aplicación preestablecida.
Como se describió anteriormente, en el terminal móvil de acuerdo con una realización de la presente invención, cuando continuos gestos de toque se detectan dentro de un tiempo de referencia, las funciones adaptadas a las características de los gestos de toque son ejecutadas, en el que una nueva interfaz de usuario que permite simplemente se puede proporcionar la función de control del terminal móvil.
En las realizaciones de la presente invención, el método anterior puede implementarse como códigos que pueden ser leídos por un procesador en un medio grabado en el programa. El medio legible por procesador puede incluir una ROM, una RAM, un CD-ROM, una cinta magnética, un disquete, un dispositivo óptico de almacenamiento de datos y similares. El medio legible por procesador también incluye implementaciones en forma de transmisión a través de Internet.
El terminal móvil de acuerdo con las realizaciones de la presente invención no está limitado en su aplicación de las configuraciones y métodos, pero la totalidad o una parte de las realizaciones se pueden combinar selectivamente para ser configurado en varias modificaciones.
Como las realizaciones ejemplares pueden implementarse en varias formas sin apartarse de las características de las mismas, también debe entenderse que las realizaciones descritas anteriormente no están limitadas por ninguno de los detalles de la descripción anterior, a menos que se especifique lo contrario, sino más bien debe interpretarse ampliamente dentro de su alcance como se define en las reivindicaciones adjuntas.

Claims (5)

REIVINDICACIONES
1. Un terminal móvil (100) que comprende:
una unidad de comunicación inalámbrica (110) configurada para comunicarse de forma inalámbrica con al menos otro terminal;
una unidad de visualización (151) que comprende una visualización configurada para mostrar información;
un sensor de contacto configurado para detectar gestos de toque aplicados a la unidad de visualización (151); una memoria (160) configurada para almacenar una coincidencia de una pluralidad de acciones para realizar con una pluralidad de gestos de toque; y
un controlador (180) configurado para:
mostrar, en la unidad de visualización (151), en un estado activado de la unidad de visualización (151) en la que la iluminación proporcionada para iluminar la unidad de visualización (151) está en estado encendido, una de la pantalla de inicio y una pantalla de bloqueo, en el que la pantalla de inicio incluye al menos una región en la que se genera un objeto correspondiente a una aplicación instalada en el terminal móvil, y al menos una región de espacio vacío en la que no se genera ningún objeto, y en la que la pantalla de bloqueo se muestra en un modo de bloqueo del terminal móvil incluye un objeto relacionado con una función de control preestablecida, y al menos una región de espacio vacío en la que no se emite ningún objeto;
calcular una región en la que los gestos de toque se detectan en la pantalla de inicio o en la pantalla de bloqueo, incluyendo calcular, cuando se detecta un primer gesto de toque, una región predeterminada que comienza desde un punto en el que se detecta el primer gesto de toque en la zona de la pantalla de inicio y la pantalla de bloqueo y
determinar si se detecta un segundo gesto de toque en la región predeterminada dentro de un tiempo de referencia a partir de un punto en el tiempo en el que se detectó el primer gesto de toque;
ejecutar, cuando el primer gesto de toque se detecta en una región en la que se muestra un objeto específico incluido en la pantalla de inicio y la pantalla de bloqueo, una función de control preestablecida;
conmutar, cuando el primer gesto de toque y el segundo gesto de toque se aplican dentro del tiempo de referencia a la región predeterminada incluida en la al menos una región de espacio vacío de la pantalla de inicio, la unidad de visualización (151) del estado activado, en el que el la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado encendido, a un estado desactivado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en un estado apagado; y
cuando el primer gesto de toque y el segundo gesto de toque se aplican dentro del tiempo de referencia a la región predeterminada incluida en la al menos una región de espacio vacío de la pantalla de bloqueo, la unidad de visualización (151) del estado activado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado encendido, a un estado desactivado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado apagado.
2. El terminal móvil (100) de la reivindicación 1, en el que el controlador (180) está además configurado para suprimir la generación de una salida de acuerdo con un evento, cuando el evento se produce cuando la unidad de visualización (151) está en el estado desactivado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado apagado.
3. El terminal móvil (100) de la reivindicación 1 o 2, en el que el controlador (180) está configurado además para mostrar un objeto gráfico (1620) en la pantalla de inicio para cambiar la unidad de visualización (151) del estado activado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado encendido, al estado desactivado, en el que la iluminación proporcionada para iluminar la unidad de visualización (151) está en el estado apagado.
4. El terminal móvil (100) de la reivindicación 3, en el que el objeto gráfico (1620) se puede mover en la unidad de visualización (151) basándose en una entrada de toque y arrastre sobre el objeto gráfico.
5. El terminal móvil (100) de la reivindicación 1, en el que la región predeterminada es un mismo punto al que se aplican el primer gesto de toque y el segundo gesto de toque.
ES14000426T 2013-07-09 2014-02-05 Terminal móvil y método de control del mismo Active ES2739396T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130080560A KR101474467B1 (ko) 2013-07-09 2013-07-09 이동 단말기 및 그것의 제어방법

Publications (1)

Publication Number Publication Date
ES2739396T3 true ES2739396T3 (es) 2020-01-30

Family

ID=50112669

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14000426T Active ES2739396T3 (es) 2013-07-09 2014-02-05 Terminal móvil y método de control del mismo

Country Status (6)

Country Link
US (1) US9342236B2 (es)
EP (2) EP2824559B1 (es)
KR (1) KR101474467B1 (es)
CN (2) CN111580736B (es)
DE (2) DE202014011064U1 (es)
ES (1) ES2739396T3 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9185062B1 (en) 2014-05-31 2015-11-10 Apple Inc. Message user interfaces for capture and transmittal of media and location content
EP3373122B1 (en) * 2014-09-02 2022-04-06 Apple Inc. Reduced-size interfaces for managing alerts
CN104503569B (zh) * 2014-12-09 2018-10-12 上海斐讯数据通信技术有限公司 电子设备及其唤醒方法
JP6598089B2 (ja) * 2015-04-14 2019-10-30 華為技術有限公司 ジェスチャコントロール方法、装置、端末デバイス、およびストレージ媒体
CN105094801B (zh) 2015-06-12 2019-12-24 阿里巴巴集团控股有限公司 应用功能激活方法及装置
KR20170017572A (ko) * 2015-08-07 2017-02-15 삼성전자주식회사 사용자 단말 장치 및 이의 제어 방법
CN105204730B (zh) * 2015-08-27 2018-06-29 广东欧珀移动通信有限公司 一种屏幕控制方法及用户终端
US10416840B2 (en) * 2015-12-10 2019-09-17 Appelago Inc. Multi-tap functionality for interactive dynamic push notifications and other content
US9977530B2 (en) * 2015-12-11 2018-05-22 Google Llc Use of accelerometer input to change operating state of convertible computing device
CN106896973A (zh) * 2015-12-18 2017-06-27 阿里巴巴集团控股有限公司 基于即时通讯软件的功能启动控制方法及装置
CN105718179B (zh) * 2016-01-20 2019-02-12 Oppo广东移动通信有限公司 信息处理方法及装置
CN105718165B (zh) * 2016-01-20 2019-02-12 Oppo广东移动通信有限公司 一种终端后台应用的启动方法及装置
CN106775402A (zh) * 2016-12-14 2017-05-31 努比亚技术有限公司 一种移动终端及其实现控制的方法
WO2018124809A1 (ko) * 2016-12-29 2018-07-05 주식회사 인바디 착용형 단말기 및 그 동작 방법
KR101977092B1 (ko) * 2017-12-11 2019-08-28 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
CN108235087B (zh) * 2017-12-28 2019-07-26 维沃移动通信有限公司 一种视频数据的播放方法、移动终端
US10969956B2 (en) * 2018-03-20 2021-04-06 Cemtrex Inc. Smart desk with gesture detection and control features
CN114489558A (zh) * 2018-04-20 2022-05-13 华为技术有限公司 一种免打扰方法和终端
US11152100B2 (en) 2019-06-01 2021-10-19 Apple Inc. Health application user interfaces
CN110262688B (zh) * 2019-06-06 2022-08-19 深圳市锦读科技有限公司 一种屏幕发光控制方法、设备及计算机可读存储介质
USD917940S1 (en) 2019-07-24 2021-05-04 Norm, Inc. Table
US11445816B2 (en) 2019-07-24 2022-09-20 Norm, Inc. Table with one or more tap gesture-activated light indicators
DE102020209226A1 (de) 2020-07-22 2022-01-27 Robert Bosch Gesellschaft mit beschränkter Haftung Haptische und/oder Taktile Warnung von Personen durch ein Fahrzeug
CN112596604A (zh) * 2020-12-09 2021-04-02 Oppo广东移动通信有限公司 消息发送方法、消息接收方法、装置及电子设备

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963783B1 (en) * 1995-10-16 2005-11-08 Packard Bell Nec Audio compression in a wireless remote interface tablet
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7683889B2 (en) * 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7890778B2 (en) * 2007-01-06 2011-02-15 Apple Inc. Power-off methods for portable electronic devices
US8063872B2 (en) * 2007-01-07 2011-11-22 Apple Inc. Portable electronic device with auto-dim timers
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8851992B2 (en) * 2008-08-29 2014-10-07 Disney Enterprises, Inc. Music player for video game consoles and electronic devices operable in sleep or power-saving modes
US8477463B2 (en) * 2008-10-02 2013-07-02 Lsi Corporation Vibration based user input for mobile devices
KR101737829B1 (ko) * 2008-11-10 2017-05-22 삼성전자주식회사 휴대 단말기의 모션 입력 장치 및 그의 운용 방법
CN101770331B (zh) * 2009-01-05 2012-12-19 联想(北京)有限公司 一种计算机图标排列管理方法及管理装置
KR101572071B1 (ko) 2009-01-06 2015-11-26 삼성전자주식회사 휴대단말 표시부의 온/오프 제어 방법 및 장치
US8493344B2 (en) * 2009-06-07 2013-07-23 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US10620794B2 (en) * 2010-12-23 2020-04-14 Apple Inc. Device, method, and graphical user interface for switching between two user interfaces
KR101677639B1 (ko) * 2011-05-06 2016-11-18 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
KR101860341B1 (ko) * 2011-09-09 2018-05-24 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR101873744B1 (ko) * 2011-11-29 2018-07-03 엘지전자 주식회사 이동단말기 및 그 제어방법
US8812994B2 (en) * 2011-12-29 2014-08-19 Apple Inc. Device, method, and graphical user interface for configuring restricted interaction with a user interface
EP2807532B1 (en) * 2012-01-23 2019-04-17 BlackBerry Limited Electronic device and method of controlling a display
KR101483776B1 (ko) * 2012-05-07 2015-01-26 이문상 락 스크린의 제공 방법 및 그 제공 방법이 구현된 단말 장치
US8339377B1 (en) * 2012-05-18 2012-12-25 Google Inc. Method and apparatus for LED transition from physical to virtual space
CN102968242A (zh) * 2012-11-12 2013-03-13 中兴通讯股份有限公司 屏幕状态控制方法、装置和触摸屏终端
CN103025019B (zh) * 2012-12-13 2015-04-01 广东欧珀移动通信有限公司 一种移动终端及其快捷照明方法
US20140195943A1 (en) * 2013-01-04 2014-07-10 Patent Category Corp. User interface controls for portable devices

Also Published As

Publication number Publication date
KR101474467B1 (ko) 2014-12-19
CN104281402A (zh) 2015-01-14
DE202014006254U1 (de) 2014-10-22
EP2824559B1 (en) 2019-07-03
EP2824559A1 (en) 2015-01-14
DE202014011064U1 (de) 2017-08-09
US9342236B2 (en) 2016-05-17
CN111580736A (zh) 2020-08-25
US20150019963A1 (en) 2015-01-15
CN111580736B (zh) 2023-08-01
EP3557391A1 (en) 2019-10-23
CN104281402B (zh) 2020-04-07
EP3557391B1 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
ES2739396T3 (es) Terminal móvil y método de control del mismo
ES2770677T3 (es) Terminal móvil
EP2760186B1 (en) Mobile terminal with external case
KR102083595B1 (ko) 이동 단말기 및 그것의 제어 방법
CN104767874B (zh) 移动终端及其控制方法
ES2737425T3 (es) Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo
CN102857592B (zh) 移动终端及其3d图像显示方法
TWI488112B (zh) 行動終端機,控制行動終端機的方法,及顯示行動終端機影像的方法
CN104301709B (zh) 眼镜型便携式设备及其信息投影面搜索方法
KR102130797B1 (ko) 이동 단말기 및 그것의 제어방법
KR20150016683A (ko) 이동 단말기 및 그것의 제어방법
KR102057558B1 (ko) 이동 단말기 및 그것의 제어 방법
KR20120102365A (ko) 이동 단말기 및 그 제어방법
KR20140113154A (ko) 이동 단말기 및 그것의 제어 방법
KR102135362B1 (ko) 이동 단말기 및 이의 커버
KR20150041451A (ko) 이동 단말기
KR102098098B1 (ko) 이동 단말기 및 이의 제어방법
KR20150009488A (ko) 이동 단말기 및 그것의 제어방법
KR20140133083A (ko) 이동 단말기 및 이의 제어방법
KR102043151B1 (ko) 이동 단말기 및 이의 제어방법
KR102110205B1 (ko) 이동 단말기 및 그것의 제어방법
KR20150035242A (ko) 이동 단말기 및 그것의 제어방법
KR20150000281A (ko) 이동 단말기 및 이의 제어방법
KR20140122955A (ko) 이동 단말기 및 그것의 제어 방법
KR20140128199A (ko) 이동 단말기