ES2878224T3 - Dispositivo terminal móvil, método de funcionamiento, programa y medio de almacenamiento - Google Patents

Dispositivo terminal móvil, método de funcionamiento, programa y medio de almacenamiento Download PDF

Info

Publication number
ES2878224T3
ES2878224T3 ES18177813T ES18177813T ES2878224T3 ES 2878224 T3 ES2878224 T3 ES 2878224T3 ES 18177813 T ES18177813 T ES 18177813T ES 18177813 T ES18177813 T ES 18177813T ES 2878224 T3 ES2878224 T3 ES 2878224T3
Authority
ES
Spain
Prior art keywords
touch panel
terminal device
mobile terminal
input operation
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18177813T
Other languages
English (en)
Inventor
Kenji Tokutake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Application granted granted Critical
Publication of ES2878224T3 publication Critical patent/ES2878224T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • G06F1/3218Monitoring of peripheral devices of display devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3262Power saving in digitizer or tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

Un dispositivo terminal móvil (10) que comprende: un módulo de visualización; un panel táctil (7) configurado para detectar una operación de entrada; un detector de entrada configurado para detectar un patrón de la operación de entrada basado en una posición de un indicador en el panel táctil; y conjunto de circuitos configurados para: controlar el terminal para que entre en un estado de suspensión de modo que módulo de visualización no muestre una imagen cuando no se detecte una operación de entrada en el panel táctil durante un período de tiempo predeterminado y de modo que una frecuencia de barrido de una superficie del panel táctil en el estado de suspensión sea menor que la frecuencia de barrido en un estado activo; controlar el módulo de visualización para mostrar una pantalla de inicio sin la entrada de una contraseña por parte de un usuario cuando el detector de entrada detecta un patrón predeterminado de la operación de entrada en el panel táctil durante el estado de suspensión; y caracterizado porque el circuito está, además, configurado para: controlar el módulo de visualización para mostrar una guía que representa el patrón predeterminado cuando la operación de entrada para mostrar la pantalla de inicio finaliza en un fallo y el conjunto de circuitos considera que el patrón de la operación de entrada es similar al patrón predeterminado para mostrar la pantalla de inicio.

Description

DESCRIPCIÓN
Dispositivo terminal móvil, método de funcionamiento, programa y medio de almacenamiento
La presente invención se refiere, no exclusivamente, a un dispositivo terminal móvil, un método de funcionamiento, un programa y un medio de almacenamiento que se aplican al caso en donde un usuario realiza una operación de entrada para que un panel táctil ejecute una función específica.
En los últimos años, los paneles táctiles se han adoptado cada vez más para dispositivos terminales que incluyen un terminal de teléfono móvil, un terminal de información móvil de alto rendimiento que tiene una función de conversación, lo que se conoce como un teléfono inteligente, un terminal de tipo tableta electrónica, y así sucesivamente, como dispositivos de entrada para los que los usuarios realizan una entrada operativa. El panel táctil es un dispositivo que incluye una unidad de visualización que muestra una imagen, etc. y un dispositivo de entrada de posición, tal como un sensor táctil, que están integrados en un solo cuerpo.
En un dispositivo terminal que incluye un panel táctil, un usuario introduce operaciones especificadas en diversos iconos que se muestran en la pantalla de la unidad de visualización, por ejemplo, para que se ejecute el software de aplicación (en lo sucesivo, a menudo abreviado como "aplicación"). La aplicación está asociada con el icono y realiza una operación de conformidad con los datos de la entrada operativa. Como métodos de entrada operativa, una operación de pulsación obtenida tocando la pantalla, una operación de arrastre obtenida desplazando un indicador que incluye un dedo pulsado, un lápiz óptico, etc. desde una posición especificada a una posición diferente, una operación de movimiento rápido obtenida desplazando el dedo o el indicador en la pantalla de tal manera que realice una carrera de barrido rápido, una operación de pulsación obtenida tocando la pantalla, etc.
Las distintas operaciones se determinan en base, por ejemplo, a información sobre una posición de coordenadas, definida en la pantalla donde un dedo del usuario o el indicador entra en contacto o se aproxima, que se logra durante una serie de operaciones realizadas desde que el dedo o el indicador entra en contacto la pantalla a cuando el dedo o el indicador abandona la pantalla. Concretamente, la información sobre, por ejemplo, la magnitud de un cambio en la posición de las coordenadas por unidad de tiempo, la velocidad de desplazamiento de la posición de las coordenadas, un área en la pantalla donde se detecta una pulsación, etc., se utiliza como información que especifica los datos de una entrada operativa.
A continuación, en el dispositivo terminal móvil, se realiza un cambio a un estado de suspensión que es un modo de ahorro de energía cuando no existe entrada operativa del usuario durante un período de tiempo fijo, con el fin de reducir el consumo de energía. En el estado de suspensión, se reduce la intensidad luminosa de la luz de fondo de la unidad de visualización o se interrumpen diversas funciones para reducir el consumo de energía. Sin embargo, puesto que los datos de una entrada operativa realizada antes de hacer el cambio al estado de suspensión, etc., se almacenan en una memoria, el procesamiento se puede iniciar de nuevo mediante la lectura de los datos de la entrada operativa, etc. desde la memoria después de la activación desde el estado de suspensión (denominado "activación"). En la siguiente descripción, el procesamiento realizado para la activación desde el estado de suspensión se denomina "reanudación".
La Figura 17 es un diagrama esquemático que ilustra una configuración externa, a modo de ejemplo, de un dispositivo terminal móvil 100 conocido. La Figura 17A ilustra una operación, a modo de ejemplo, realizada para activación del dispositivo terminal móvil 100 desde el estado de suspensión, y la Figura 17B ilustra un ejemplo en donde se inicia una aplicación a través de la reanudación y se muestran iconos, etc. en una unidad de visualización 102.
El dispositivo terminal móvil 100 incluye un panel táctil 101, estando la unidad de visualización 102 superpuesta sobre el panel táctil 101 y un botón de inicio 103 proporcionado para mostrar una imagen de la pantalla de inicio. Cuando el dispositivo terminal móvil 100 está en el estado de suspensión, un usuario realiza una operación pulsando el botón de inicio 103 con un dedo (véase Figura 17A). Cuando el dispositivo terminal móvil 100 se activa mediante la reanudación, la imagen de la pantalla de inicio se muestra en la unidad de visualización 102 (véase Figura 17B). En la imagen de la pantalla de inicio, se muestran listas de diversos tipos de vídeos e iconos funcionales.
Además, el método de iniciar el funcionamiento de un dispositivo mediante la detección de una operación realizada en el panel táctil también está disponible. Por ejemplo, en la literatura de patentes 1, se describe el método de cambiar un dispositivo a un estado desbloqueado de la interfaz de usuario cuando un contacto con una pantalla sensible al tacto corresponde a una postura especificada.
Lista de citas
Literatura de patentes
PTL 1 - Descripción de la patente de EE.UU. n° 8.046.721
Otra técnica anterior se describe en los documentos EP2434368, US2011/163976 A1 y WO2009/142345 A1.
Tal como se indicó con anterioridad, en el dispositivo terminal móvil 100 conocido, cada unidad se reanuda después de que el usuario pulse el botón de inicio 103, o después de que el usuario introduzca una operación de postura de acción especificada. A continuación, se realiza una operación que incluye seleccionar el icono funcional correspondiente a una aplicación que se iniciará de nuevo después de que se muestre la imagen de la pantalla de inicio y se inicie la aplicación. Sin embargo, es muy problemático realizar la operación, incluyendo la selección del icono funcional después de pasar por la imagen de la pantalla de inicio cada vez que se realiza la reanudación, lo que hace que sea imposible utilizar una función objetivo de manera inmediata. Además, cuando se realiza la reanudación, se necesita el procesamiento de inicialización, etc., para cada función objetivo, lo que se convierte en una causa de retardo en el inicio de una aplicación.
En consecuencia, el inventor reconoce la necesidad de ejecutar, de manera inmediata, una función específica cuando se encuentra en el estado de suspensión.
La invención está definida por las reivindicaciones independientes. Otros aspectos de la invención se describen en las reivindicaciones dependientes.
La invención se describe de manera sustancial en las Figuras 7A, 7B, 15A-15D y en las etapas correspondientes de la descripción.
Si el término forma de realización se utiliza para describir combinaciones de características que caen fuera del alcance de las reivindicaciones, el término debe entenderse como una referencia a ejemplos útiles para comprender la presente invención.
Según un ejemplo no abarcado por las reivindicaciones, cuando una operación de entrada realizada en el panel táctil no se detecta durante un período de tiempo especificado, el consumo de energía se reduce disminuyendo la frecuencia de ejecución del procesamiento dispuesto para detectar la operación de entrada realizada en el panel táctil. A continuación, cuando se detecta el patrón de la operación de entrada cuando se reduce la frecuencia de ejecución del procesamiento, se hace que una unidad controlada determinada como un objetivo de operación en relación con el patrón de la operación de entrada ejecute una operación especificada. En consecuencia, una función específica se puede ejecutar de manera inmediata cuando no se realiza ninguna operación de entrada y se realiza un cambio al estado de suspensión.
En las reivindicaciones adjuntas se definen diversos aspectos y características respectivas de la invención. Las combinaciones de características de las reivindicaciones dependientes pueden combinarse con características de las reivindicaciones independientes según sea apropiado y no simplemente como se establece explícitamente en las reivindicaciones.
Se describirán a continuación ejemplos con referencia a los dibujos adjuntos, en los que se hace referencia a partes similares mediante referencias similares, y en los que:
La Figura 1 es un diagrama esquemático que ilustra una configuración externa, a modo de ejemplo, de un dispositivo terminal móvil según una primera forma de realización de la presente invención.
La Figura 2 es un diagrama de bloques que ilustra una configuración interna, a modo de ejemplo, del dispositivo terminal móvil según la primera forma de realización de la presente invención.
La Figura 3 es un diagrama explicativo que ilustra una configuración de capa, a modo de ejemplo, de software y hardware que funciona en el dispositivo terminal móvil según la primera forma de realización de la presente invención.
La Figura 4 es un diagrama explicativo que ilustra ejemplos de un barrido usual y de un barrido intermitente que se realizan de conformidad con la primera forma de realización de la presente invención.
La Figura 5 es un diagrama explicativo que ilustra valores de capacitancia, a modo de ejemplo, que se detectan con un sensor táctil en una superficie operativa durante una operación táctil realizada en un estado usual según la primera forma de realización de la presente invención.
La Figura 6 es un diagrama explicativo que ilustra valores de capacitancia, a modo de ejemplo, que se detectan con el sensor táctil en la superficie operativa en el estado en donde el dispositivo terminal móvil, de conformidad con la primera forma de realización de la presente invención, está en un bolsillo, etc., de un usuario.
La Figura 7 es un diagrama explicativo que ilustra un ejemplo en donde se muestra una imagen de la pantalla de inicio desde un estado de suspensión a través de una primera operación de postura de acción realizada según la primera forma de realización de la presente invención.
La Figura 8 es un diagrama explicativo que ilustra un ejemplo en donde se inicia una función de formación de imágenes desde el estado de suspensión y se toma una imagen mediante una segunda operación de postura de acción realizada según la primera forma de realización de la presente invención.
La Figura 9 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, ejecutado para iniciar una aplicación de cámara y realizar el disparo a través de una operación conocida.
La Figura 10 es un diagrama de secuencia que ilustra el procesamiento, a modo de ejemplo, ejecutado para iniciar la aplicación de cámara y realizar el disparo a través de una operación efectuada según la primera forma de realización de la presente invención.
La Figura 11 es un diagrama explicativo que ilustra un ejemplo en donde una función de reproducción de música se inicia desde el estado de suspensión y un archivo de música se reproduce mediante una tercera operación de postura de acción realizada según la primera forma de realización de la presente invención.
La Figura 12 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, ejecutado para iniciar una aplicación de reproducción de música 23 y reproducir música a través de una operación realizada de conformidad con la primera forma de realización de la presente invención.
La Figura 13 es un diagrama de flujo que ilustra un procesamiento, a modo de ejemplo, realizado para ejecutar diversas funciones combinando una operación de postura de acción realizada según una segunda forma de realización de la presente invención con un valor de aceleración detectado con un sensor de aceleración.
La Figura 14 es un diagrama explicativo que ilustra una operación, a modo de ejemplo, dispuesta para iniciar una aplicación a través de una operación de postura de acción de dos etapas efectuada de conformidad con una tercera forma de realización de la presente invención.
La Figura 15 es un diagrama explicativo que ilustra un procesamiento de asistencia, a modo de ejemplo, realizado cuando una operación de postura de acción finaliza en fallo según una cuarta forma de realización de la presente invención.
La Figura 16 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, realizado para ejecutar una función de asistencia según la cuarta forma de realización de la presente invención.
La Figura 17 es un diagrama esquemático que ilustra una configuración externa, a modo de ejemplo, de un dispositivo terminal móvil conocido.
La Figura 18 es un diagrama esquemático que ilustra una configuración externa, a modo de ejemplo, de un dispositivo terminal móvil según una quinta forma de realización de la presente invención.
Las Figuras 19A y 19B son diagramas explicativos que ilustran un ejemplo en donde un dispositivo terminal móvil se sujeta con una mano en los lados laterales y el área detectada de objeto ejemplo de paneles laterales de conformidad con la quinta forma de realización de la presente invención.
La Figura 20 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, realizado para activar un dispositivo terminal móvil detectando la sujeción del dispositivo terminal móvil por los paneles laterales según la quinta forma de realización de la presente invención.
Las Figuras 21A y 21B son diagramas explicativos que ilustran un ejemplo en donde se sostiene un dispositivo terminal móvil para capturar (o disparar) una imagen con las dos manos en los lados laterales y el área detectada del objeto ejemplo de paneles laterales según la quinta forma de realización de la presente invención.
La Figura 22 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, ejecutado para iniciar la aplicación de la cámara y realizar el disparo a través de una operación detectada por los paneles laterales según la quinta forma de realización de la presente invención.
Las Figuras 23A y 23B son diagramas explicativos que ilustran un ejemplo en donde un dispositivo terminal móvil se sujeta con una mano evitando tocar los paneles laterales y el área detectada de objeto ejemplo de los paneles laterales de conformidad con la quinta forma de realización de la presente invención.
Las Figuras 24A y 24B son diagramas explicativos que ilustran un ejemplo en donde un dispositivo terminal móvil se sostiene con una mano y el área detectada del objeto ejemplo, de un panel frontal de conformidad con la quinta forma de realización de la presente invención.
La Figura 25 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, realizado para activar un dispositivo terminal móvil detectando la sujeción del dispositivo terminal móvil por un panel frontal de conformidad con la quinta forma de realización de la presente invención.
Las Figuras 26A y 26B son diagramas explicativos que ilustran un ejemplo en donde un dispositivo terminal móvil se sostiene para disparar con las dos manos y el área detectada del objeto ejemplo del panel frontal de conformidad con la quinta forma de realización de la presente invención.
La Figura 27 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, ejecutado para iniciar la aplicación de la cámara y realizar el disparo a través de una operación detectada por un panel frontal de conformidad con la quinta forma de realización de la presente invención.
Las Figuras 28A y 28B son diagramas explicativos que ilustran un ejemplo en donde un dispositivo terminal móvil se sostiene con una mano evitando tocar un panel frontal y el área detectada del objeto ejemplo de un panel frontal según la quinta forma de realización de la presente invención.
DESCRIPCIÓN DE LAS FORMAS DE REALIZACIÓN
A continuación, se describirán formas de realización de la presente invención. Conviene señalar que las descripciones se proporcionarán en el orden siguiente.
Primera forma de realización
1. Configuración externa, a modo de ejemplo, de un dispositivo terminal móvil
2. Configuración interna, a modo de ejemplo, de un dispositivo terminal móvil
3. Configuración de software a modo de ejemplo
4. Barridos, a modo de ejemplo, realizados para el sensor táctil
5. Operaciones de posturas de acción a modo de ejemplo
5-1. Ejecución de operaciones de posturas de acción, a modo de ejemplo, para iniciar la imagen de la pantalla de inicio 5-2. Ejecución de operación de postura de acción, a modo de ejemplo, para ejecutar una función de disparo 5-3. Operación de postura de acción, a modo de ejemplo, para realizar la reproducción de música
Segunda forma de realización
6. Ejemplo donde la operación se realiza en conjunción con otro dispositivo
Tercera forma de realización
7. Ejemplo en donde la aplicación se inicia mediante una operación de postura de acción de dos etapas Cuarta forma de realización
8. La función de asistencia, a modo de ejemplo, se inicia cuando la operación de postura de acción finaliza en fallo A continuación, se describirá una primera forma de realización de la presente invención con referencia a la Figura 1 a la Figura 12. En la presente forma de realización, una aplicación, a modo de ejemplo, de un dispositivo terminal móvil 10 configurado para iniciar de manera inmediata una función específica en respuesta a una operación realizada para un panel táctil 7. El dispositivo terminal móvil 10 logra un método de funcionamiento realizado por bloques internos que trabajan en cooperación entre sí, que se describirá más adelante, a través de un ordenador que ejecuta un programa. Conviene señalar que los componentes comunes que se muestran en los dibujos se designan con los mismos signos de referencia.
Primera forma de realización
1. Configuración externa, a modo de ejemplo, de un dispositivo terminal móvil
La Figura 1 es un diagrama esquemático que ilustra una configuración externa, a modo de ejemplo, del dispositivo terminal móvil 10.
El dispositivo terminal móvil 10 incluye una carcasa 19, un panel táctil 7 donde se realiza una operación de entrada especificada con un indicador, estando el panel táctil 7 alojado en la parte frontal de la carcasa 19, y las teclas operativas 8 que se proporcionan en, por ejemplo, la parte extrema de la zona frontal de la carcasa 19.
El panel táctil 7 se emplea como un dispositivo de entrada para el cual un usuario realiza una operación de entrada para un dispositivo terminal que incluye un terminal de teléfono móvil, un terminal de información móvil del tipo de alto rendimiento que tiene una función de conversación, lo que se denomina un teléfono inteligente, un terminal tipo tableta electrónica, etc. El panel táctil 7 está configurado como, por ejemplo, un sensor obtenido bajo el sistema de capacitancia. A continuación, el panel táctil 7 incluye un sensor táctil 7 (véase Figura 2) utilizado como un dispositivo de entrada de posición en el cual se introduzca una posición especificada por un indicador que incluye un dedo, un lápiz óptico, etc. y una unida de visualización 12 que muestra una imagen, etc., que se integran en un solo cuerpo. La unidad de visualización 12 incluye, por ejemplo, un panel de cristal líquido o un panel orgánico EL (Electro­ Luminiscencia), etc.
Como sistema de detección que permite que el panel táctil 7 detecte una operación de entrada obtenida por el indicador, se pueden utilizar los siguientes sistemas. Por ejemplo, el sistema de película resistiva detecta un cambio en el valor de resistencia de una parte que entra en contacto con el indicador, detectando el sistema de inducción electromagnética la energía electromagnética de un indicador diseñado concretamente para generar un campo magnético, detectando el sistema de capacitancia un cambio en el valor de la capacitancia de una parte con la que se entra en contacto, etc.
A continuación, se describirá un ejemplo en donde se utiliza un dedo como indicador que realiza una operación de entrada en el panel táctil 7.
En cuanto al dispositivo terminal 10, el usuario introduce operaciones especificadas para diversos iconos que se muestran en la pantalla de la unidad de visualización 12, por ejemplo, para que diversas aplicaciones que están asociadas con los iconos realicen operaciones basadas en los datos de las entradas operativas. Los datos de las operaciones de entrada incluyen una operación de pulsación obtenida tocando la superficie del panel táctil 7, una operación de arrastre obtenida desplazando un dedo para tocar el panel táctil 7 desde una posición especificada a una posición diferente, una operación de movimiento rápido obtenida por el desplazamiento del dedo en la pantalla de tal manera que realice un trazo de barrido rápido, y así sucesivamente.
Las distintas operaciones se determinan en base, por ejemplo, a la información sobre las coordenadas en la pantalla donde un dedo entra en contacto o se aproxima durante una serie de operaciones realizadas desde cuando el dedo del usuario o un dedo entra en contacto con la pantalla a cuando el dedo del usuario o el dedo abandona la pantalla. Concretamente, la información sobre, por ejemplo, la magnitud de un cambio en las coordenadas por unidad de tiempo, la velocidad de desplazamiento de las coordenadas, un área en la pantalla donde se detecta una pulsación, etc., se utiliza como información que especifica los datos de una entrada operativa.
Las teclas operativas 8 incluyen un botón de inicio, un botón de encendido, un botón de volumen, etc. El usuario puede visualizar una imagen de la pantalla de inicio en la unidad de visualización 12 pulsando el botón de inicio. Además, la energía del dispositivo terminal móvil 10 se puede activar/desactivar pulsando el botón de encendido. Además, la magnitud del volumen se puede cambiar durante una conversación o durante la reproducción de música pulsando el botón de volumen.
2. Configuración interna, a modo de ejemplo, del dispositivo terminal móvil
La Figura 2 es un diagrama de bloques que ilustra una configuración interna, a modo de ejemplo, del dispositivo terminal móvil 10.
El dispositivo terminal móvil 10 incluye una antena 1 que realiza la transmisión y recepción de una onda eléctrica entre una estación base de radioteléfono, una unidad de procesamiento de comunicaciones 2 a la que está conectada la antena 1, y una unidad de control 3. Además, el dispositivo terminal móvil 10 incluye una unidad de procesamiento de voz 4, un altavoz 5 y un micrófono 6.
La unidad de procesamiento de comunicaciones 2 realiza comunicaciones por radio con la estación base de radioteléfono bajo la supervisión de la unidad de control 3. Durante una conversación de voz, los datos de voz incluidos en los datos recibidos con la unidad de procesamiento de comunicaciones 2 se suministran a la unidad de procesamiento de voz 4, que realiza el procesamiento de voz para los datos de voz y que hace que el altavoz 5 emita una voz. A continuación, la unidad de procesamiento de voz 4 realiza el procesamiento de decodificación de los datos de voz de modo que se obtenga una señal de voz analógica. La señal de voz analógica obtenida con la unidad de procesamiento de voz 4 se suministra al altavoz 5, que es una unidad de emisión de sonido a modo de ejemplo, y que se emite a su salida como una voz. Una señal de voz recogida y adquirida con el micrófono 6 también se suministra a la unidad de procesamiento de voz 4 y se codifica en datos de voz en un formato de codificación específico (por ejemplo, PWM (Modulación por Ancho de Pulso)) con la unidad de procesamiento de voz 4. A continuación, los datos de voz adquiridos se suministran a la unidad de procesamiento de comunicaciones 2 y se emiten a través de la antena 1 como una onda de radio.
Las unidades de procesamiento que incluyen la unidad de procesamiento de comunicaciones 2, la unidad de procesamiento de voz 4, etc., intercambian datos de control con la unidad de control 3 a través de una línea de control CL, y transfieren datos a través de una línea de datos DL. La unidad de control 3 incluye una CPU (Unidad Central de Procesamiento), una GPU (Unidad de Procesamiento de Gráficos), etc., y controla las unidades que constituyen el dispositivo terminal móvil 10. Por ejemplo, la unidad de control 3 realiza el cambio de una orden emitida para el software de aplicación almacenado en una unidad de almacenamiento 3 que se describirá más adelante, etc. en base a un resultado de la determinación de la operación realizada con una unidad de accionamiento del sensor táctil 72 que se describirá más adelante.
Además, el dispositivo terminal móvil 10 incluye el panel táctil 7 y las teclas operativas 8. En el panel táctil 7, se incluyen el sensor táctil 71, la unidad de accionamiento del sensor táctil 72 y la unidad de visualización 12. El sensor táctil 71 está configurado como, por ejemplo, un sensor obtenido bajo el sistema de capacitancia mutua del sistema de capacitancia diseñado, e incluye electrodos de transmisión (TX) y electrodos de recepción (RX) que no se muestran, que están dispuestos en forma de matriz en la dirección X y en la dirección Y.
Al conectar a tierra el electrodo de recepción e introducir un pulso de activación en el electrodo de transmisión, se genera un campo eléctrico entre el electrodo de transmisión y el electrodo de recepción. Cuando un indicador que incluye un dedo del usuario, que es una especie de conductor eléctrico, un lápiz óptico, etc., se aproxima a la superficie del panel táctil 7 (en lo sucesivo, denominada como la "superficie operativa"), parte del campo eléctrico se absorbe en el conductor eléctrico de modo que se reduce el campo eléctrico generado entre el electrodo de transmisión y el electrodo de recepción. En consecuencia, también se reduce una carga eléctrica (valor de capacitancia) que se genera en el electrodo de recepción. Por consiguiente, la medición de una disminución de la carga eléctrica, estando asociada dicha disminución con una disminución del campo eléctrico generado entre el electrodo de transmisión y el electrodo de recepción, permite detectar que la superficie operativa del panel táctil 7 ha sido pulsada/no pulsada.
La unidad de accionamiento del sensor táctil 72 introduce un pulso de activación a cada electrodo de transmisión y detecta una carga eléctrica del electrodo de recepción. El sensor táctil 71 se utiliza como una unidad de detección de entrada que detecta si el indicador para el que se realiza una operación de entrada entra en contacto, o no, con la superficie operativa del panel táctil 7 midiendo un cambio en el valor de capacitancia detectado con la unidad de accionamiento del sensor táctil 72.
El sensor táctil 71 detecta una posición definida en la superficie operativa del panel táctil 7 donde se detecta una pulsación o un acercamiento del indicador, y detecta la posición del indicador en el panel táctil 7. A continuación, el sensor táctil 71 también genera información sobre las coordenadas XY correspondientes a dicha posición. En cuanto a los datos de una operación de entrada realizada por el usuario, se realiza una operación de pellizco (pinch-in/pinch out) obtenida al disminuir y aumentar el espacio entre dos dedos, etc., que se realizan además de la operación de pulsación descrita con anterioridad, de la operación de arrastre y de la operación de desplazamiento rápido. Además, el sensor táctil 71 detecta el patrón de una operación de entrada realizada por el indicador en el panel táctil 7 basándose en una posición (información de coordenadas, etc.) definida en la pantalla donde el indicador entra en contacto o se aproxima durante una serie de operaciones realizadas desde cuando el indicador entra en contacto con la superficie operativa hasta cuando el indicador abandona la superficie operativa.
La unidad de accionamiento del sensor táctil 72 se utiliza como una unidad de determinación de operación que determina el tipo de indicador (si es, o no, un dedo, etc.) que entra en contacto o se aproxima a la superficie operativa del panel táctil 7 basándose en un valor de capacitancia detectado con el sensor táctil 71. El valor de capacitancia incluye, por ejemplo, información sobre una distribución alcanzada en la superficie operativa del panel táctil 7, la magnitud del valor de capacitancia, etc.
La unidad de control 3 controla la unidad de procesamiento de visualización 9 para realizar el control y hacer que la unidad de visualización 12 muestre una imagen de pantalla especificada.
La unidad de procesamiento de visualización 9 hace que la unidad de visualización 12 muestre la imagen de pantalla correspondiente a una aplicación ejecutada con la unidad de control 3. Por ejemplo, la unidad de visualización 12 hace que se muestre el vídeo tomado por una aplicación de cámara. Además, un navegador o similar, a menudo se desplaza hacia arriba o hacia abajo para mostrarlo en función de los datos de una operación realizada en la superficie operativa del panel táctil 7, desplazándose la imagen de la pantalla a menudo en función de la operación de desplazamiento rápido y un punto seleccionado se suele mostrar reducido o ampliado para su visualización según la operación de pellizco antes citada. Para mostrar una imagen en la unidad de visualización 12, la unidad de procesamiento de visualización 9 almacena diversas tramas de datos de vídeo en una memoria intermedia de tramas 11. La memoria intermedia de tramas 11 es una memoria que almacena datos de vídeo sobre una base de FIFO (primero en entrar, primero en salir). La unidad de visualización 12 muestra vídeo en base a los datos de vídeo de cada trama objeto de lectura desde la memoria intermedia de tramas 11.
Además, el dispositivo terminal móvil 10 incluye una unidad de control de formación de imagen 13, una unidad de imagen 14, una unidad de almacenamiento 15, una antena 16, una unidad de procesamiento de comunicaciones por radio 17 y una unidad de sensor 18.
La unidad de imagen 14 incluye un elemento de formación de imagen 14a que tiene un sensor de imagen que incluye, por ejemplo, un CCD (Dispositivo Acoplado por Carga), un CMOS (Semiconductor de Óxido Metálico Complementario), etc. Además, la unidad de imagen 14 tiene un sistema óptico que incluye una lente no ilustrada proporcionada para fotografiar un sujeto, un obturador, etc. A continuación, la unidad de imagen 14 genera una señal de imagen al realizar la conversión fotoeléctrica para una luz objeto formada en su superficie receptora de luz a través de la lente no ilustrada. Una operación de formación de imágenes de la unidad de imagen 14 se controla con la unidad de control de formación de imagen 13.
La unidad de procesamiento de voz 4 y el altavoz 5, la unidad de procesamiento de visualización 9, la memoria intermedia de trama 11 y la unidad de visualización 12, así como la unidad de control de formación de imagen 13 y la unidad de imagen 14, se utilizan como unidades controladas. Las operaciones de las unidades controladas se controlan mediante middleware cuando se realiza una operación de entrada en el panel táctil 7 en el estado en donde se inicia el software de aplicación, y las operaciones se controlan a través del middleware en un estado de suspensión.
A continuación, cuando se detecta el patrón de la operación de entrada cuando la frecuencia de ejecución del procesamiento dispuesto para detectar una operación de entrada es baja, la unidad de accionamiento del sensor táctil 72 instruye a una unidad controlada que se determina que es un objetivo operativo en base al patrón de la operación de entrada para ejecutar una operación especificada. Además, cuando el patrón de la operación de entrada se detecta en el estado de suspensión en donde al menos el software de aplicación y el middleware no se inician, la unidad de accionamiento del sensor táctil 72 inicia el middleware que se describirá más adelante. A continuación, se ejecuta una operación especificada desde el middleware a la unidad controlada que se determina que es el objetivo de la operación en relación con el patrón de la operación de entrada.
La unidad de almacenamiento 15 incluye una memoria ROM (memoria de solamente lectura) o una memoria RAM (memoria de acceso aleatorio) y almacena diversos tipos de software de aplicación, datos necesarios para ejecutarlos, etc. La unidad de procesamiento de comunicaciones por radio 17 se comunica con dispositivos periféricos por radio basándose en procedimientos que se ajustan a una norma de comunicación especificada a través de la antena conectada 16.
La unidad de sensor 18 incluye un sensor de aceleración, un sensor de campo magnético, etc., y emite un valor de sensor especificado. Debido a la salida del sensor de aceleración, la unidad de control 3 puede determinar una operación obtenida elevando y agitando el dispositivo terminal móvil 10, y la orientación en donde se utiliza el dispositivo terminal móvil 10.
3. Configuración de capa a modo de ejemplo
La Figura 3 es un diagrama explicativo que ilustra una configuración de capa, a modo de ejemplo, de software y hardware que funciona en el dispositivo terminal móvil 10.
En el dispositivo terminal móvil 10, se establecen una capa HMI (Interfaz Hombre-Máquina), una capa de middleware y una capa de hardware, y diversos módulos funcionan en relación entre sí en cada capa. Los grupos de módulos que se incluyen en la capa h M i y en la capa de middleware se denominan como el software a diferencia del hardware.
En la siguiente descripción, el software que gestiona las operaciones de las aplicaciones y el middleware que se incluyen en cada capa, y las unidades que se incluyen en el dispositivo terminal móvil 10, y la energización, etc. de las unidades bajo supervisión de la unidad de control 3 se denomina "sistema". El sistema incluye, por ejemplo, un SO (sistema operativo), etc. El sistema realiza el procesamiento, incluyendo el control de interrupciones, la gestión del tiempo de espera, etc., emite diversas instrucciones, etc., gestiona de manera colectiva las operaciones del dispositivo terminal móvil 10 y realiza el control para ejecutar el procesamiento de reanudación y el procesamiento de suspensión en cada unidad, a modo de ejemplo.
En la capa de hardware, se incluyen las unidades que se proporcionan en el dispositivo terminal móvil 10, que se ilustra en la Figura 2. Entre la capa HMI y la capa de middleware, los datos se transfieren mutuamente a través de una API pública (Interfaz de Programación de Aplicaciones) que controla el procesamiento de diversos tipos de software de aplicación. Entre la capa de middleware y la capa de hardware, los datos se transfieren mutuamente a través de un procesamiento de control de API de controlador realizado para las unidades que están incluidas en el dispositivo terminal móvil 10.
En la capa HMI, se proporcionan diversos módulos que incluyen una aplicación de imagen de pantalla de inicio 21, una aplicación de cámara 22, una aplicación de reproducción de música 23, etc. La aplicación de imagen de la pantalla de inicio 21 realiza el control para mostrar una imagen de la pantalla de inicio en la unidad de visualización 12. La aplicación de cámara 22 realiza el control para mostrar diversos menús, etc., que se proporcionan para realizar una formación de imágenes a través de la unidad de imagen 14. La aplicación de reproducción de música 23 realiza el control para hacer que la unidad de procesamiento de voz 4 realice un códec de datos de voz, a modo de ejemplo.
En la capa de middleware, se proporcionan un inicio rápido 31, un middleware de cámara 32 y un middleware multimedia 33. El inicio rápido 31 realiza el control para reanudar el sistema del dispositivo terminal móvil 10 que se encuentra en el estado de suspensión. Además, el inicio rápido 31 se utiliza como una interfaz que inicia cada una de las unidades de la capa de hardware con alta velocidad realizando un control de secuencia durante el procesamiento de reanudación. Como función que permite al inicio rápido 31 realizar el control de secuencia, existe una que desarchiva un fichero de música cuya reproducción se interrumpe en una memoria y que aumenta la velocidad de una operación de lectura para controlar una serie de operaciones necesarias para ejecutar una función de formación de imágenes y ejecutar una función de reproducción de música, a modo de ejemplo.
El middleware de cámara 32 convierte y transfiere una instrucción emitida desde la aplicación de cámara 22 a la unidad de control de formación de imagen 13, y notifica a la aplicación de cámara 22 el estado de funcionamiento de la unidad de imagen 14, etc., que se recibe desde la unidad de control de formación de imagen 13. El middleware multimedia 33 acumula datos de vídeo, etc. en la memoria intermedia de tramas 11, y envía los datos de vídeo objeto de lectura desde la memoria intermedia de tramas 11 a la unidad de visualización 12 para mostrar el vídeo. Además, el middleware multimedia 33 hace que la unidad de procesamiento de voz 4 realice procesamiento de códec, etc. para datos de voz, etc., y envía los datos de voz procesados al altavoz 5 para emitir una voz.
Incidentalmente, en el pasado, durante el procesamiento realizado para reactivar el sistema que está en el estado de suspensión mediante la reanudación, el procesamiento se realiza para mostrar una imagen de la pantalla de inicio en la unidad de visualización 12 bajo el control de la aplicación de imagen de la pantalla de inicio 21. La imagen de la pantalla de inicio que se inició mediante la reanudación se encuentra en un estado desbloqueado donde el usuario puede realizar una entrada operativa.
Por otro lado, cuando el sistema se activa desde el estado de suspensión en el dispositivo terminal móvil 10, según la presente forma de realización, las operaciones de las unidades de la capa de hardware se controlan directamente desde la capa de middleware sin pasar por la capa HMI. Por ejemplo, en el dispositivo terminal móvil 10, el middleware de cámara 32 se controla directamente con el inicio rápido 31 sin pasar por una operación de la aplicación de cámara 22, lo que permite el procesamiento de imágenes inmediato. Asimismo, en el dispositivo terminal móvil 10, el middleware multimedia 33 se controla directamente con el inicio rápido 31 sin pasar por una operación de la aplicación de reproducción de música 23, lo que permite el procesamiento inmediato de reproducción de música. Así, en el dispositivo terminal móvil 10, se consigue una función de ‘atajo’ para ejecutar de manera inmediata diversas funciones sin pasar por el control realizado en la API pública.
4. Barridos, a modo de ejemplo, realizados para el sensor táctil
En este caso, se describirán barridos, a modo de ejemplo, que se realizan para el sensor táctil 71 para detectar que se realiza una entrada operativa mediante un dedo que entra en contacto con la superficie operativa del panel táctil 7 con referencia desde la Figura 4 a la Figura 6.
La Figura 4 es un diagrama explicativo que ilustra ejemplos de un barrido usual y de un barrido intermitente. La Figura 4A ilustra un barrido usual, a modo de ejemplo, y la Figura 4B ilustra un barrido intermitente a modo de ejemplo. En la Figura 4, los ejes horizontales indican el tiempo (t) y los ejes verticales indican la magnitud de una corriente de barrido.
El barrido usual ilustrado en la Figura 4A se realiza cuando el dispositivo terminal móvil 10 no está en el estado de suspensión. Durante el barrido usual, la superficie del sensor táctil 71 es objeto de barrido a una frecuencia de barrido de 60 Hz, por ejemplo, y la respuesta se incrementa para enviar un resultado de vuelta a una entrada operativa del usuario. Sin embargo, puesto que los barridos se realizan con una frecuencia aumentada durante el barrido usual, también aumenta el consumo de energía del panel táctil.
El barrido intermitente ilustrado en la Figura 4B se realiza cuando el dispositivo terminal móvil 10 está en estado de suspensión. En ese momento, el sensor táctil 71, que se utiliza como una unidad de detección de entrada, disminuye la frecuencia de ejecución del procesamiento dispuesto para detectar una operación de entrada realizada para el panel táctil cuando no se detecta ninguna operación de entrada realizada para el panel táctil durante un periodo de tiempo especificado.
Durante el barrido intermitente, la superficie del sensor táctil 71 es objeto de barrido a una frecuencia de barrido de 10 Hz, por ejemplo, y se proporciona un período de latencia en donde se interrumpen las diversas funciones del dispositivo terminal móvil 10 entre cada barrido. Por lo tanto, el consumo de energía del barrido intermitente es menor que el del barrido usual. Además, una entrada operativa del usuario se realiza con una frecuencia disminuida en el estado de suspensión. En consecuencia, es aconsejable detectar la operación de pulsación o arrastre cuando esas operaciones se realizan con la frecuencia mínima. El barrido intermitente no causa molestias en la operatividad siempre que se disponga que el barrido usual se realice después de detectar una entrada operativa del usuario y de realizar el procesamiento de reanudación.
La Figura 5 es un diagrama explicativo que ilustra valores de capacitancia, a modo de ejemplo, que se detectan con el sensor táctil 71 en la superficie operativa durante una operación táctil realizada en un estado usual. La Figura 5A ilustra valores de capacitancia, a modo de ejemplo, que se obtienen durante una operación táctil realizada en el estado usual, y la Figura 5B ilustra valores de capacitancia, a modo de ejemplo, que se muestran en un gráfico tridimensional. Conviene señalar que la siguiente descripción se proporciona en instalaciones en las que se determina que el lado corto del panel táctil 7 es X, el lado largo es Y, y las coordenadas del panel táctil 7 son equivalentes a las del sensor táctil 71 en la Figura 5 y en la Figura 6.
Tal como se ilustra en la Figura 5A, un dedo entra en contacto con la posición de las coordenadas (X, Y) = (3, 14) del panel táctil 7. En ese momento, los valores de capacitancia (90 a 100) en la proximidad de la posición de las coordenadas (3, 14) son mayores que los valores de capacitancia (7 a 10) que se detectan en diferentes posiciones. En consecuencia, el sensor táctil 71 detecta que se realiza una entrada operativa en el panel táctil 7. Según el gráfico estereoscópico de los valores de capacitancia, que se ilustra en la Figura 5B, es evidente que un valor de capacitancia obtenido en la posición de coordenadas (3, 14) es llamativo. Es aconsejable proporcionar un valor de umbral especificado (por ejemplo, 50) para el valor de capacitancia y detectar una operación táctil cuando el valor de capacitancia exceda el valor de umbral.
La Figura 6 es un diagrama explicativo que ilustra valores de capacitancia, a modo de ejemplo, que se detectan con el sensor táctil 71 en la superficie operativa en el estado en donde el dispositivo terminal móvil 10 está en un bolsillo, etc., del usuario. La Figura 6A ilustra valores de capacitancia, a modo de ejemplo, que se obtienen cuando el dispositivo terminal móvil 10 se coloca en el bolsillo, etc., del usuario, y la Figura 6B ilustra un ejemplo donde los valores de capacitancia se muestran en un gráfico tridimensional.
Tal como se ilustra en la Figura 6A, el sensor táctil 71 proporciona valores de capacitancia altos (40 a 80) en la totalidad de la parte frontal cuando el dispositivo terminal móvil 10 se coloca en el bolsillo, etc. del usuario, porque un cuerpo humano entra en contacto sobre la totalidad de la parte frontal del panel táctil 7 a través de la tela, etc. En ese momento, puesto que los valores de alta capacitancia se detectan en la totalidad de la parte frontal del panel táctil 7, la unidad de accionamiento del sensor táctil 72 determina que no se realiza ninguna entrada operativa intencional por el usuario, aunque un objeto entre en contacto con el panel táctil 7 por algún motivo. Según el gráfico estereoscópico de los valores de capacitancia, que se ilustra en la Figura 6B, es evidente que se detectan valores de capacitancia altos en la totalidad de la parte frontal del sensor táctil 71.
Por tanto, la unidad de accionamiento del sensor táctil 72 no detecta nada como una operación táctil cuando se detectan valores de capacitancia en la totalidad de la parte frontal del sensor táctil 71, para no hacer que el dispositivo terminal móvil 10 funcione mal en el estado de suspensión. A continuación, el mal funcionamiento se evita realizando el control de modo que se ejecute el procesamiento especificado cuando el sensor táctil 71 detecte valores de capacitancia para operaciones de posturas de acción que se realizan en patrones específicos que se describirán más adelante.
5. Operaciones de posturas de acción a modo de ejemplo
A continuación, se describirán operaciones de posturas de acción, a modo de ejemplo, que se realizan de conformidad con la presente forma de realización con referencia a la Figura 7 y a la Figura 8.
5-1. Ejecución de operaciones de posturas de acción, a modo de ejemplo, para iniciar la imagen de la pantalla de inicio
La Figura 7 es un diagrama explicativo que ilustra un ejemplo en donde se muestra una imagen de la pantalla de inicio desde el estado de suspensión a través de una primera operación de postura de acción. La Figura 7A ilustra un ejemplo de la primera operación de postura de acción realizada por el usuario en el panel táctil 7, y la Figura 7B ilustra una imagen de pantalla de inicio a modo de ejemplo.
En la Figura 7, un ejemplo en donde el usuario inicia la imagen de la pantalla de inicio entrando en contacto con la superficie operativa del panel táctil 7 en lugar del procesamiento realizado en el pasado para iniciar una imagen de la pantalla de inicio desde el estado de suspensión pulsando el botón tecla de encendido del dispositivo terminal móvil 100.
De manera incidental, aunque el dispositivo terminal móvil 10 esté en el estado de suspensión, el barrido intermitente de la superficie del panel táctil 7, tal como se ilustra en la Figura 4B, permite realizar de manera continua el procesamiento de detección táctil.
La primera operación de postura de acción, que es una operación de entrada especificada a modo de ejemplo, es una operación obtenida barriendo el panel táctil 7 en forma de Z (véase Figura 7A) cuando el dispositivo terminal móvil 10 está en el estado de suspensión. Cuando el sensor táctil 71 detecta que la primera operación de postura de acción se realiza en el panel táctil 7 en el estado de suspensión, la unidad de accionamiento del sensor táctil 72 muestra una imagen de pantalla especificada en la unidad de visualización 12.
En ese momento, el dispositivo terminal móvil 10 comienza a reanudarse desde el estado de suspensión y comienza la imagen de la pantalla de inicio (véase Figura 7B). Puesto que la imagen de la pantalla de inicio se puede iniciar directamente desde el estado de suspensión sin introducir una contraseña, el usuario puede seleccionar, de manera inmediata, un menú de la imagen de la pantalla de inicio a través de una operación sencilla.
5-2. Ejecución de operación de postura de acción, a modo de ejemplo, para ejecutar una función de disparo
La Figura 8 es un diagrama explicativo que ilustra un ejemplo en donde se realiza una segunda operación de postura de acción para iniciar una función de formación de imágenes desde el estado de suspensión y obtener una imagen. La Figura 8A ilustra un ejemplo en donde el usuario realiza la segunda operación de postura de acción en el panel táctil 7, y la Figura 8B ilustra un ejemplo en donde una imagen obtenida mediante la toma de imagen se muestra en la unidad de visualización 12.
Puesto que la unidad de accionamiento del sensor táctil 72 puede detectar un patrón específico realizado en la superficie operativa en el panel táctil 7, las operaciones de diversas aplicaciones, distintas de la función de iniciar la imagen de la pantalla de inicio desde el estado de suspensión tal como se ilustra en la Figura 7, se puede combinar con patrones específicos que se realizan en la superficie operativa. Una función ilustrada en la Figura 8 logra capturar una cámara a través de la imagen obtenida por la unidad de imagen 14 realizando una operación de arrastre obtenida trazando un círculo con un dedo en la superficie operativa del panel táctil 7 cuando el dispositivo terminal móvil 10 está en el estado de suspensión.
La segunda operación de postura de acción, que es una operación de entrada especificada a modo de ejemplo, es una operación obtenida barriendo el panel táctil 7 en forma circular (véase Figura 8A) cuando el dispositivo terminal móvil 10 está en el estado de suspensión. Cuando el sensor táctil 71 detecta que la segunda operación de postura de acción diferente de la primera operación de postura de acción se realiza en el panel táctil 7 en el estado de suspensión, la unidad de accionamiento del sensor táctil 72 hace que la unidad de control de formación de imagen 13 inicie una operación de la unidad de imagen 14. A continuación, la unidad de accionamiento del sensor táctil 72 hace que la unidad de visualización 12 muestre una imagen obtenida por formación de imágenes realizada con la unidad de imagen 14.
En ese momento, el dispositivo terminal móvil 10 comienza a reanudar desde el estado de suspensión, inicia la unidad de control de formación de imagen 13 y dispara a un sujeto a través de la unidad de imagen 14 sin iniciar la aplicación de cámara 22 (véase Figura 8B). Una imagen del sujeto, que se obtiene a través de la formación de imagen, se muestra en la unidad de visualización 12. Puesto que una operación de la unidad de imagen 14 no se ejecuta después de pasar por un menú de imagen desde la imagen de la pantalla de inicio, el usuario puede realizar la imagen de inmediato en el momento deseado para obtener una imagen del sujeto.
A continuación, se realiza una comparación, a modo de ejemplo, entre la secuencia de un ejemplo en donde se realiza el disparo iniciando la aplicación de cámara 22 a través de una operación conocida y la de un ejemplo en donde se realiza el disparo a alta velocidad mediante una función según la presente forma de realización descrita con referencia a las Figuras 9 y 10. Conviene señalar que el dispositivo terminal móvil 10, según la presente forma de realización, puede realizar tanto la operación conocida como la función según la presente forma de realización.
La Figura 9 es un diagrama de secuencia que ilustra el procesamiento, a modo de ejemplo, ejecutado para iniciar la aplicación de cámara 22 y realizar el disparo a través de la operación conocida.
La operación conocida permite iniciar la aplicación de cámara 22 después de que el sistema del dispositivo terminal móvil 10 se active después de que el usuario presione la tecla de encendido en el estado de suspensión. A continuación, el proceso de disparo se ejecuta después de que se inicie la aplicación de cámara 22.
En la siguiente descripción, el dispositivo terminal móvil 10 que está en el estado de suspensión o el desplazamiento a diversos modos se expresa por la unidad de control 3 funcionando como un sistema ilustrado en el diagrama de secuencia.
En primer lugar, se supone que el sistema está en el estado de suspensión (etapa S1). Cuando se pulse la tecla de encendido incluida en las teclas operativas 8, cuando el sistema está en el estado de suspensión, se inicia el procesamiento realizado para reanudar el sistema (etapa S2).
En ese momento, la unidad de control 3 envía una instrucción de reanudación a la unidad de accionamiento del sensor táctil 72 (etapa S3), realizando la unidad de accionamiento del sensor táctil 72 el procesamiento de reanudación para el sensor táctil 71, y el sensor táctil 71 espera una operación realizada para detectar una operación de entrada (etapa S4). A continuación, un icono de cámara no ilustrado proporcionado para iniciar la aplicación de cámara 22 se muestra en la unidad de visualización 12 no ilustrada en la Figura 9.
Además, la unidad de control 3 envía una instrucción de reanudación a la unidad de control de formación de imagen 13 (etapa S5), y la unidad de control de formación de imagen 13 realiza el procesamiento de reanudación para el elemento de formación de imagen 14a, y espera una entrada de una operación de formación de imagen (etapa S6). Una vez finalizado el procesamiento de reanudación para cada unidad, el sistema entra en un estado de activación en donde se envía una respuesta a una entrada operativa del usuario (etapa S10).
Al detectar que una operación de entrada obtenida con una pulsación se realiza en la posición donde se muestra el icono de la cámara (etapa S7), el sensor táctil 71 notifica a la unidad de accionamiento del sensor táctil 72 las coordenadas donde se detecta la pulsación (etapa S8). Además, la unidad de accionamiento del sensor táctil 72 notifica a la unidad de control 3 dichas coordenadas (etapa S9).
Al ser informada de que la operación de entrada se realiza para el icono de la cámara a través de la notificación desde la unidad de accionamiento del sensor táctil 72, la unidad de control 3 envía una instrucción para iniciar la aplicación de cámara 22 a la aplicación de cámara 22 (etapa S11). Al recibir la instrucción de inicio, la aplicación de cámara 22 inicializa el middleware de cámara 32 (etapa S12). A continuación, el middleware de cámara 32 envía una instrucción para realizar el procesamiento de encendido y el procesamiento de inicialización a la unidad de control de formación de imagen 13 (etapa S13). Por consiguiente, la unidad de control de formación de imagen 13 se activa y se realiza el proceso de inicialización.
Además, la unidad de control de formación de imagen 13 envía una instrucción para realizar el procesamiento de encendido y el procesamiento de inicialización al elemento de formación de imagen 14a (etapa S14). Por consiguiente, el elemento de formación de imagen 14a se activa y se realiza el proceso de inicialización. A continuación, se muestra un icono de disparo proporcionado para especificar una operación de disparo en la unidad de visualización 12.
Al detectar que una operación de entrada obtenida con una pulsación se realiza en la posición donde se muestra el icono de disparo (etapa S15), el sensor táctil 71 notifica a la unidad de accionamiento del sensor táctil 72 las coordenadas donde se detecta la pulsación (etapa S16). Además, la unidad de accionamiento del sensor táctil 72 notifica a la unidad de control 3 dichas coordenadas (etapa S17).
Tras ser informada de que se realiza la operación de entrada para el icono de disparo a través de la notificación desde la unidad de accionamiento del sensor táctil 72, la unidad de control 3 notifica a la aplicación de cámara 22 de las coordenadas pulsadas (etapa S18). Al recibir dichas coordenadas pulsadas, la aplicación de cámara 22 envía una instrucción para iniciar el procesamiento de disparos al middleware de cámara 32 (etapa S19).
El middleware de cámara 32 instruye a la unidad de control de formación de imagen 13 para realizar el procesamiento para capturar una imagen de disparo (etapa S20), y la unidad de control de formación de imagen 13 realiza el procesamiento para capturar la imagen de disparo en base a una señal de imagen emitida por el elemento de formación de imagen 14a (etapa S21). La imagen sometida al procesamiento de captura se muestra en la unidad de visualización 12.
Por tanto, de conformidad con el procesamiento conocido, el usuario pulsa en primer lugar el botón de encendido para cancelar el estado de suspensión, busca y selecciona el icono de la cámara en la imagen de la pantalla de inicio mostrada a través del procesamiento de reanudación y realiza el disparo con el icono de disparo. Por lo tanto, muchos procedimientos se realizan desde el estado de suspensión hasta que se inicia el disparo, lo que conduce a operaciones complicadas.
La Figura 10 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, ejecutado para iniciar la aplicación de cámara 22 y realizar el disparo a través de una operación realizada según la presente forma de realización.
En primer lugar, se supone que el sistema está en el estado de suspensión (etapa S31). Cuando el dispositivo terminal móvil 10 está en el estado de suspensión, se realiza el barrido intermitente para que el sensor táctil 71 espere la detección de una operación táctil en el modo de bajo consumo de energía donde el consumo de energía se mantiene bajo (etapa S32).
Cuando se realiza una entrada operativa en el panel táctil 7 a través de la segunda operación de postura de acción que instruye para comenzar a realizar el disparo, el sensor táctil 71 detecta que se realiza la entrada operativa (etapa S33). En ese momento, el sensor táctil 71 envía una instrucción de interrupción particular emitida para activar el sistema a la unidad de accionamiento del sensor táctil 72 (etapa S34).
Conviene señalar que, cuando la unidad de control 3 está en el estado de suspensión, no se realiza ningún procesamiento al recibir una instrucción de interrupción usual. Sin embargo, la instrucción de interrupción particular ordena a la unidad de control 3 que comience a realizar el procesamiento de reanudación. Por lo tanto, al recibir la instrucción de interrupción particular, la unidad de control 3 comienza a realizar el procesamiento de reanudación y realiza el procesamiento para hacer que se produzca una transición desde el estado de suspensión a un estado de activación.
La unidad de accionamiento del sensor táctil 72 envía una instrucción para iniciar el procesamiento de reanudación para el sistema a la unidad de control 3 como la instrucción de interrupción particular (etapa S35). Por consiguiente, la unidad de control 3 comienza a realizar el procesamiento de reanudación para el sistema (etapa S36).
Además, la unidad de accionamiento del sensor táctil 72 envía una instrucción para realizar el procesamiento de activación para el middleware de cámara 32, y una instrucción que especifica el inicio del procesamiento de captura en el inicio rápido 31 (etapa S37). Al recibir las instrucciones desde la unidad de accionamiento del sensor táctil 72, el inicio rápido 31 envía la instrucción para realizar el procesamiento de activación para el middleware de cámara 32 al middleware de cámara 32, y envía la instrucción que especifica el inicio del procesamiento de captura (etapa S38).
Después de realizar el procesamiento de reactivación, el middleware de cámara 32 envía una instrucción para realizar el procesamiento de encendido y el procesamiento de inicialización a la unidad de control de formación de imagen 13 (etapa S39). Por consiguiente, la unidad de control de formación de imagen 13 se activa y se realiza el proceso de inicialización.
Además, la unidad de control de formación de imagen 13 envía una instrucción para realizar el procesamiento de encendido y el procesamiento de inicialización al elemento de formación de imagen 14a (etapa S40). Por consiguiente, el elemento de formación de imagen 14a se activa y se realiza el proceso de inicialización. A continuación, el icono de disparo proporcionado para especificar la operación de disparo se muestra en la unidad de visualización 12.
El procesamiento de reanudación realizado para el sistema finaliza y la unidad de control 3 entra en el estado de activación (etapa S41). A continuación, el middleware de cámara 32 instruye a la unidad de control de formación de imagen 13 para que realice el procesamiento para capturar una imagen de disparo (etapa S42). En ese momento, el middleware de cámara 32 genera una instrucción para iniciar la aplicación de cámara 22 (etapa S43).
A continuación, la unidad de control de formación de imagen 13 realiza el procesamiento para capturar la imagen de disparo en base a una señal de imagen emitida desde el elemento de formación de imagen 14a (etapa S44). La imagen sometida al procesamiento de captura se muestra en la unidad de visualización 12. A continuación, para la imagen mostrada en la unidad de visualización 12, se muestra, en la unidad de visualización 12, un menú de operaciones, etc., proporcionado debido al inicio de la aplicación de cámara 22.
Por tanto, el procesamiento o software ejecutado a través de la segunda operación de postura de acción está limitado. A continuación, la aplicación de cámara 22 se inicia después de capturar la imagen de manera inmediata después de detectar la operación de postura de acción, lo que minimiza el tiempo que transcurre antes de que se inicie el disparo. Por consiguiente, es posible realizar el disparo al sujeto en el momento en que el usuario desea disparar, y eliminar la queja del usuario sobre la falta de sincronización al tomar demasiado tiempo en el inicio para realizar el disparo a través del dispositivo terminal móvil 10 que se encuentra en el estado de suspensión.
5-3. Ejecución de operación de postura de acción, a modo de ejemplo, para realizar la reproducción de música
A continuación, se describirá una operación de postura de acción, a modo de ejemplo, ejecutada para realizar la reproducción de música con referencia a la Figura 11 y a la Figura 12.
La Figura 11 es un diagrama explicativo que ilustra un ejemplo en donde una función de reproducción de música se inicia desde el estado de suspensión y un archivo de música se reproduce mediante una tercera operación de postura de acción. La Figura 11A ilustra un ejemplo de la tercera operación de postura de acción realizada en el panel táctil 7 por el usuario, y la Figura 11B ilustra un ejemplo en donde se emite música reproduciendo el archivo de música.
La función de reproducción de música aquí descrita reduce el tiempo que transcurre antes de que se inicie la reproducción de música cuando se realiza una operación en el panel táctil 7 mediante una postura de acción específica. Conviene señalar que, como funciona con un bajo consumo de energía, el dispositivo terminal móvil 10 se encuentra en un estado de suspensión temprana en donde la unidad de visualización 12 está en el estado de suspensión y no se muestra ninguna imagen.
La tercera operación de postura de acción, que es una operación de entrada especificada, a modo de ejemplo, es una operación obtenida efectuando el barrido del panel táctil 7 en forma de N (véase Figura 11A) cuando el dispositivo terminal móvil 10 está en el estado de suspensión. Cuando el sensor táctil 71 detecta que la tercera operación de postura de acción se realiza en el panel táctil 7 en el estado de suspensión, la unidad de accionamiento del sensor táctil 72 hace que el procesamiento de voz comience a realizar el procesamiento de voz y hace que una unidad emisora de sonido emita una voz.
En ese momento, el dispositivo terminal móvil 10 comienza a realizar la reanudación desde el estado de suspensión, inicia la unidad de procesamiento de voz 4 y emite música reproducida a través del altavoz 5 (véase Figura 11B). Cuando la unidad de visualización 12 se inicia en el estado de suspensión anticipada, diversa información relacionada con la música que se está reproduciendo (por ejemplo, el nombre de la pista, el nombre del cantante, etc.) no se muestra en la unidad de visualización 12. Sin embargo, puede disponerse que la unidad de visualización 12 se inicie y la diversa información relativa a la música que se está reproduciendo se muestre en la unidad de visualización 12.
La Figura 12 es un diagrama de secuencia que ilustra el procesamiento, a modo de ejemplo, ejecutado para iniciar la aplicación de reproducción de música 23 y reproducir música a través de una operación según la presente forma de realización.
En primer lugar, se supone que el sistema está en estado de suspensión (etapa S51). Cuando el dispositivo terminal móvil 10 está en el estado de suspensión, se realiza el barrido intermitente para que el sensor táctil 71 espere la detección de una operación táctil en el modo de bajo consumo de energía (etapa S52).
Cuando se realiza una entrada operativa en el panel táctil 7 a través de una postura de acción realizada para reiniciar la reproducción de música (la tercera operación de postura de acción), el sensor táctil 71 detecta que se realiza la entrada operativa (etapa S53). En ese momento, el sensor táctil 71 envía una instrucción de interrupción particular a la unidad de accionamiento del sensor táctil 72 (etapa S54).
La unidad de accionamiento del sensor táctil 72 envía una instrucción para iniciar el procesamiento de reanudación para el sistema e iniciar el estado de suspensión anticipada a la unidad de control 3, tal como una instrucción de interrupción particular (etapa S55). En consecuencia, la unidad de control 3 comienza a realizar el procesamiento de reanudación para el sistema (etapa S56).
Además, la unidad de accionamiento del sensor táctil 72 envía una instrucción para realizar el procesamiento para reiniciar la reproducción de música del middleware multimedia 33 al inicio rápido 31 (etapa S57). Al recibir la instrucción desde la unidad de accionamiento del sensor táctil 72, el inicio rápido 31 envía la instrucción para realizar el procesamiento para reiniciar la reproducción de música del middleware multimedia 33 al middleware multimedia 33 (etapa S58).
Después de lo que antecede, el middleware multimedia 33 envía una instrucción para realizar el procesamiento de encendido y el procesamiento de inicialización a la unidad de procesamiento de voz 4 (etapa S59). Por consiguiente, la unidad de procesamiento de voz 4 se activa y se realiza el procesamiento de inicialización.
Además, la unidad de procesamiento de voz 4 envía una instrucción para realizar el procesamiento de encendido y el procesamiento de inicialización al altavoz 5 (etapa S60). En consecuencia, se energiza el altavoz 5, se realiza el procesamiento de inicialización y se emite la música reproducida.
Después de lo que antecede, cuando finaliza el procesamiento de reanudación realizado para el sistema, el sistema entra en el estado de suspensión anticipada (etapa S61). En ese momento, se logra un estado desconectado de modo que no se muestre ninguna imagen en la unidad de visualización 12. A continuación, cuando el sistema entra en el estado de suspensión anticipada, el middleware multimedia 33 transmite una notificación de inicio que indica que la reproducción de música se reinicia con la aplicación de reproducción de música 23 (etapa S62). Al recibir la notificación, se inicia la aplicación de reproducción de música 23.
El dispositivo terminal móvil 10 descrito con anterioridad, según la primera forma de realización, permite ejecutar de manera inmediata una función específica en el estado de suspensión cuando se realiza una entrada operativa en el panel táctil 7 a través de una operación de postura de acción específica. En este caso, los módulos que se proporcionan en la capa de middleware generan instrucciones directamente e instruyen a las unidades que están incluidas en la capa de hardware para que comiencen a realizar operaciones sin pasar por las diversas aplicaciones que se proporcionan en la capa de HMI (véase Figura 3). Por lo tanto, el usuario puede ejecutar diversas funciones que están asignadas a operaciones de posturas de acción específicas sin esperar el lento inicio de las diversas aplicaciones que se proporcionan en la capa HMI, lo que conduce a una mayor operatividad.
Además, cuando se realiza la primera operación de postura de acción en el panel táctil 7 del dispositivo terminal móvil 10 que está en el estado de suspensión, la imagen de la pantalla de inicio se inicia sin accionar la tecla operativa 8. Cuando cada usuario puede configurar por separado la primera operación de postura de acción para iniciar la imagen de la pantalla de inicio, la entrada de la contraseña se puede omitir utilizando la primera operación de postura de acción que solamente es conocida por el usuario en lugar de la entrada de contraseña.
Además, cuando se realiza la segunda operación de postura de acción en el panel táctil 7, el disparo se puede iniciar iniciando de manera inmediata la unidad de control de formación de imagen 13 y la unidad de imagen 14. En ese caso, el disparo también se puede realizar sin esperar el inicio de la aplicación de cámara 22, que lleva mucho tiempo antes de dicho inicio, lo que evita perder la sincronización de la imagen.
Además, cuando se realiza la tercera operación de postura de acción en el panel táctil 7, la reproducción de música puede iniciarse iniciando, de manera inmediata, la unidad de reproducción de música 4. Reiniciando la reproducción desde algún punto medio de una pista, donde la reproducción de música había sido detenida, el usuario puede reproducir y disfrutar de manera inmediata de la música que había estado escuchando hasta que se detenga el uso del dispositivo terminal móvil 10.
Además, cuando el dispositivo terminal móvil 10 está en el estado de suspensión, el consumo de energía se puede reducir realizando el barrido intermitente. Además, se obtiene una distribución de valores de capacitancia cuando el área donde el sensor táctil 71 detecta una entrada operativa es parte de la zona frontal completa del sensor táctil 71, lo que permite determinar por separado si el usuario realizó de manera intencional, o no, la entrada operativa. Por lo tanto, para una entrada operativa involuntaria que se realiza cuando un cuerpo humano entra en contacto indirectamente con el panel táctil 7 del dispositivo terminal móvil 10 que el usuario coloca en un bolsillo, es posible evitar la determinación errónea de que se realiza una entrada operativa.
Conviene señalar que, para el dispositivo terminal móvil 10, según la primera forma de realización, se han descrito aplicaciones, a modo de ejemplo, con respecto al inicio de la imagen de la pantalla de inicio, el disparo y la reproducción de música. Sin embargo, además, se puede utilizar cualquier aplicación siempre que se desee que se inicie de manera inmediata para su uso. Por ejemplo, se puede utilizar una aplicación de mapa que ilustra el valor actual, etc., o una aplicación que inicie sesión en SNS (Servicio de Redes Sociales) o acceda a un sitio de blogs o un sitio de noticias.
Segunda forma de realización
6. Ejemplo en donde la operación se realiza en conjunción con otro dispositivo
A continuación, se describirá el dispositivo terminal móvil 10 según una segunda forma de realización de la presente invención con referencia a la Figura 13.
El dispositivo terminal móvil 10, de conformidad con la segunda forma de realización, logra de manera inmediata una función utilizada por un usuario no solamente mediante diversas operaciones de posturas de acción que son entrada operativa al panel táctil 7, sino también combinando una salida de valor de sensor desde la unidad de sensor 18.
Cuando el sensor táctil 71 detecta que se realiza una operación de entrada especificada en el panel táctil 7 en el estado de suspensión, la unidad de accionamiento del sensor táctil 72 selecciona una única unidad controlada de entre diversos tipos de unidades controladas basándose en el valor del sensor, y hace que la unidad controlada seleccionada ejecute una operación especificada.
La Figura 13 es un diagrama de flujo que ilustra un procesamiento, a modo de ejemplo, realizado para ejecutar diversas funciones combinando una operación de postura de acción con un valor de aceleración detectado con el sensor de aceleración.
Se supone que el dispositivo terminal móvil 10 está en el estado de suspensión. A continuación, también se supone que el sensor táctil 71 realiza el barrido intermitente (véase Figura 4B), y en cuanto a un valor de sensor (valor de aceleración) del sensor de aceleración incluido en la unidad de sensor 18, el valor del sensor se emite en la misma frecuencia de barrido que el barrido intermitente.
En primer lugar, la unidad de accionamiento del sensor táctil 72 determina si se realiza, o no, una cuarta operación de postura de acción obtenida para iniciar una función de acceso directo que ejecuta diversas funciones sin pasar por una aplicación en el panel táctil 7 (etapa S71). En este caso, puesto que la cuarta operación de postura de acción, que es una operación de entrada especificada a modo de ejemplo, no se utiliza para seleccionar una función deseada a ejecutar, puede ser equivalente o diferente de cualquiera de las operaciones de posturas de acción primera a tercera descritas con anterioridad. Cuando no se detecta la cuarta operación de postura de acción, se repite el procesamiento de determinación de la etapa S71.
A continuación, se determina si el sensor táctil 71 detecta, o no, una quinta operación de postura de acción (por ejemplo, una doble pulsación) obtenida para realizar una operación rápida (etapa S72). La quinta operación de postura de acción incluye, por ejemplo, una operación que se logra pulsando dos veces el panel táctil 7.
Cuando no se realiza la quinta operación de postura de acción, se inicia el procesamiento de reanudación para el sistema (etapa S73). El procesamiento de reanudación aquí descrito es una alternativa al procesamiento realizado para iniciar una imagen de la pantalla de inicio pulsando la tecla de encendido, a modo de ejemplo. A continuación, se hace que la unidad de visualización 12 muestre una imagen de pantalla de inicio desbloqueada y las operaciones continúan en el estado en donde se activa el sistema.
Cuando se realiza la cuarta operación de postura de acción en la etapa S72, el inicio rápido 31 detecta la orientación del dispositivo terminal móvil 10 basándose en el valor del sensor recibido desde el sensor de aceleración (etapa S74). A continuación, se determina si la orientación es, o no, la dirección lateral del dispositivo terminal móvil 10 (etapa S75). En este caso, el dispositivo terminal móvil 10 que está orientado en la dirección lateral indica que está en reposo en el estado en donde el lado largo de la carcasa 19 del dispositivo terminal móvil 10 es casi paralelo a la horizontal.
Además, el dispositivo terminal móvil 10 que está orientado en una dirección vertical indica que está en reposo en el estado en donde el lado largo de la carcasa 19 del dispositivo terminal móvil 10 es casi paralelo a una línea vertical.
Al determinar que el dispositivo terminal móvil 10 está orientado en la dirección lateral, el inicio rápido 31 indica a cada unidad que inicie el procesamiento descrito con anterioridad ilustrado en la Figura 10. A continuación, la unidad de imagen 14 realiza el procesamiento de captura de una imagen del sujeto, que se obtiene a través de la formación de imágenes, para que se muestre en la unidad de visualización 12 (etapa S76). Después de lo que antecede, se inicia la aplicación de cámara 22 (etapa S77), y las operaciones de la unidad de imagen 14 continúan en el estado en donde se activa el sistema.
Al determinar que el dispositivo terminal móvil 10 está orientado en la dirección vertical, el inicio rápido 31 indica a cada unidad que inicie el procesamiento descrito con anterioridad ilustrado en la Figura 12. A continuación, la unidad de procesamiento de voz 4 hace que el altavoz 5 emita música cuya reproducción se reinicia desde el lugar en donde se detiene la reproducción de música (etapa S78). Después de lo que antecede, se inicia la aplicación de reproducción de música 23 y las operaciones de la unidad de procesamiento de voz 4 continúan en el estado en donde se activa el sistema.
El dispositivo terminal móvil 10 descrito con anterioridad de conformidad con la segunda forma de realización determina el tipo de una entrada operativa realizada para el dispositivo terminal móvil 10 en base a un valor de sensor (valor de aceleración) del sensor de aceleración incluido en la unidad de sensor 18, además, de una operación de postura de acción realizada en el panel táctil 7. En ese momento, comienza la reproducción de música de conformidad con una operación de postura de acción realizada en el estado en donde el dispositivo terminal móvil 10 se sostiene en la dirección vertical, y comienza, de manera inmediata, a realizar la formación de imagen con la unidad de imagen 14 de conformidad con una operación de postura de acción realizada en el estado en donde el dispositivo terminal móvil 10 se mantiene en la dirección lateral.
Además, cuando la unidad de sensor 18 incluye un sensor giroscópico, la dirección en donde se coloca el dispositivo terminal móvil 10 puede determinarse basándose en un valor de sensor transmitido desde el sensor giroscópico. Asimismo, la orientación del dispositivo terminal móvil 10 puede determinarse mediante el uso de un sensor de campo magnético. Además, en la etapa S72, se produce una transición a la imagen de pantalla desbloqueada cuando se realiza la operación de pulsación. Sin embargo, se puede omitir el procesamiento de la etapa S72. En ese caso, la orientación del dispositivo terminal móvil 10 puede detectarse de manera inmediata después de que se inicie la función de acceso directo.
Además, durante el procesamiento de bifurcación de la etapa S72 de la Figura 13, puede disponerse que la imagen de la pantalla desbloqueada se visualice después de que se detecte la doble pulsación, y que se inicie una aplicación especificada después de que el usuario introduzca una contraseña.
Tercera forma de realización
7. Ejemplo en donde la aplicación se inicia mediante una operación de postura de acción de dos etapas
A continuación, se describirá el dispositivo terminal móvil 10 según una tercera forma de realización de la presente invención con referencia a la Figura 14.
El dispositivo terminal móvil 10, según la tercera forma de realización, logra de manera inmediata una función específica cuando se realiza una entrada operativa en el panel táctil 7 en dos etapas.
La Figura 14 es un diagrama explicativo que ilustra una operación, a modo de ejemplo, realizada para iniciar una aplicación a través de una operación de postura de acción de dos etapas. La Figura 14A ilustra una operación de postura de acción de primera etapa a modo de ejemplo, mientras que las Figuras 14B y 14C ilustran operaciones de posturas de acción de segunda etapa a modo de ejemplo, y las Figuras 14D y 14E ilustran aplicaciones iniciadas de forma a modo de ejemplo.
En el dispositivo terminal móvil 10, de conformidad con la tercera forma de realización, una aplicación se ejecuta de manera inmediata no solamente a través de la operación de postura de acción realizada en la primera etapa. La operación de postura de acción realizada en la primera etapa es solamente una operación preliminar, y la aplicación se ejecuta a través de la operación de postura de acción realizada en la segunda etapa.
A continuación, cuando el sensor táctil 71 detecta que se realizan diferentes posturas de acción diversas veces en el panel táctil 7 en un orden predeterminado en el estado de suspensión, la unidad de accionamiento del sensor táctil 72 hace que una unidad controlada asociada con una operación de entrada diferente ejecute una operación especificada.
En primer lugar, se supone que el usuario realiza una operación de entrada en el estado en donde el lado largo de la carcasa 19 del dispositivo terminal móvil 10 es casi paralelo a la horizontal. Por ejemplo, la operación de postura de acción de la primera etapa es una operación obtenida por el usuario barriendo el panel táctil 7 en forma de Z cuando el dispositivo terminal móvil 10 está en el estado de suspensión (véase Figura 14A).
Para iniciar un navegador web, el usuario realiza una operación deslizando un dedo desde cerca del centro del panel táctil 7 hacia la dirección izquierda en línea recta (véase Figura 14B) tal como la operación de postura de acción de la segunda etapa. Después de la operación, el dispositivo terminal móvil 10 se conecta a Internet y se inicia el navegador web de modo que un sitio al que se accede pueda mostrarse en la unidad de visualización 12 (véase Figura 14D).
Por otro lado, para iniciar una aplicación de galería de una imagen, el usuario realiza una operación deslizando un dedo desde cerca del centro del panel táctil 7 hacia la dirección derecha (véase Figura 14C) tal como la postura de acción de la segunda etapa. Después de la operación, el dispositivo terminal móvil 10 puede iniciar la aplicación de la galería y mostrar una imagen obtenida o un vídeo objeto de lectura desde la unidad de almacenamiento 15 en la unidad de visualización 12 como una miniatura (véase Figura 14E).
El dispositivo terminal móvil 10 descrito con anterioridad según la tercera forma de realización permite iniciar diversos tipos de aplicaciones combinando diferentes posturas de acción en dos etapas. Tal como se indicó con anterioridad, las aplicaciones para comenzar incluyen el navegador web, la aplicación de la galería, etc. Cuando se inicia la aplicación de la galería, es posible que se muestre una página específica al principio. Además, cuando se inicia el navegador web, se puede visualizar una página de búsqueda dispuesta para realizar una búsqueda de palabras de modo que el usuario pueda realizar, de manera inmediata, la búsqueda de palabras. Además, se puede especificar una URL concreta como un argumento (parámetro) que se pasa a una aplicación en el inicio.
Además, la operación de postura de acción, que incluye, a modo de ejemplo, la operación obtenida al deslizar el dedo que hace que en entre en contacto con el panel táctil 7 en una forma de Z y la obtenida mediante el barrido en la dirección horizontal, puede combinarse con una operación de postura de acción diferente que incluye, por ejemplo, una operación obtenida efectuando una pulsación o barrido del panel táctil 7 en una forma circular. Además, se puede iniciar una aplicación realizando una operación de postura de acción de dos etapas mientras se sujeta el dispositivo terminal móvil 10 en una dirección vertical. Además, las operaciones de posturas de acción se pueden combinar en tres o más etapas, aunque la combinación conduzca a operaciones complicadas.
Cuarta forma de realización
8. La función de asistencia, a modo de ejemplo, se inicia cuando la operación de postura de acción finaliza en fallo.
A continuación, se describirá el dispositivo terminal móvil 10 según una cuarta forma de realización de la presente invención con referencia a la Figura 15 y a la Figura 16.
El dispositivo terminal móvil 10, de conformidad con la cuarta forma de realización, muestra una guía dispuesta para ayudar en una operación de postura de acción cuando la operación de postura de acción finaliza en fallo, lo que hace que sea imposible iniciar una aplicación.
La Figura 15 es un diagrama explicativo que ilustra un procesamiento de asistencia, a modo de ejemplo, realizado cuando una operación de postura de acción finaliza en fallo. La Figura 15A ilustra un ejemplo donde una operación de postura de acción finaliza en fallo, y la Figura 15B ilustra un ejemplo en donde la guía se muestra en la unidad de visualización 12. Además, la Figura 15C ilustra un ejemplo en donde la operación de postura de acción se realiza de nuevo a lo largo de la guía y la Figura 15D ilustra un ejemplo en donde una aplicación se inicia de manera satisfactoria.
Las operaciones de posturas de acción descritas con anterioridad que se realizan de conformidad con la primera a la tercera forma de realización, se efectúan para el dispositivo terminal móvil 10 que se encuentra en el estado de suspensión. Sin embargo, puesto que no se muestra nada en la unidad de visualización 12 cuando el dispositivo terminal móvil 10 está en el estado de suspensión, las operaciones de posturas de acción se suelen realizar en posiciones incorrectas, lo que hace que sea imposible iniciar una aplicación (véase Figura 15A).
En ese momento, cuando el sensor táctil 71 detecta que una operación de entrada especificada es similar a una operación de entrada estipulada, la unidad de accionamiento del sensor táctil 72 hace que la unidad de visualización 12 muestre una guía que representa la operación de entrada estipulada. A continuación, cuando el sensor táctil 71 detecta que una operación de entrada realizada de nuevo en el panel táctil 7, de conformidad con la guía, es la operación de entrada estipulada, se instruye a una unidad controlada asociada con la operación de entrada estipulada para ejecutar una operación especificada.
Concretamente, el dispositivo terminal móvil 10 según la cuarta forma de realización muestra una guía 75 en la unidad de visualización 12 como una función de complementar una operación de postura de acción (véase Figura 15B). Por ejemplo, cuando una operación de postura de acción que se puede detectar con el sensor táctil 71 es una operación obtenida efectuando el barrido del panel táctil 7 en forma de Z, en la proximidad del centro del panel táctil 7, la guía 75 muestra un área efectiva en forma de Z en la unidad de visualización 12.
En ese momento, el usuario realiza una operación de postura de acción consultando la guía 75 que se muestra en la unidad de visualización 12 (véase Figura 15C). Cuando se realiza una operación de barrido con un dedo que se mantiene en contacto con el panel táctil 7 en el área efectiva de la guía 75, el sensor táctil 71 reconoce que la operación de postura de acción se realiza con mayor fiabilidad. Además, la anchura de la guía mostrada 75 es más ancha que la del dedo. Por lo tanto, el usuario puede realizar la operación de postura de acción mientras evita que el dedo se desvíe de la guía 75. Cuando se reconoce la operación de postura de acción, se inicia una aplicación de manera satisfactoria y se realiza un inicio de la aplicación (véase Figura 15D).
Además, para visualizar la guía 75, funciona el procesamiento de reanudación realizado para el dispositivo terminal móvil 10. Sin embargo, la operación solamente hace que la guía 75 se muestre sin visualizar una imagen de pantalla bloqueada. Además, para determinar que una operación de postura de acción finaliza en fallo, es necesario asegurarse de no reaccionar de tal manera que se trate de una operación de postura de acción que finaliza en fallo cuando se realiza una operación táctil en el caso en que el dispositivo terminal móvil 10 se guarde en un bolsillo, o un dedo entre en contacto por poco tiempo con el panel táctil 7. Lo que antecede se debe a que mostrar la guía 75 consume demasiada energía. Por lo tanto, es deseable hacer una comparación entre una operación de postura de acción estipulada y una operación detectada con el sensor táctil 71, y mostrar la guía 75 cuando se confirme una similitud entre las operaciones.
La Figura 16 es un diagrama de secuencia que ilustra un procesamiento, a modo de ejemplo, realizado para ejecutar la función de asistencia.
En primer lugar, se supone que el sistema está en el estado de suspensión (etapa S81). Cuando el dispositivo terminal móvil 10 está en el estado de suspensión, se realiza el barrido intermitente para que el sensor táctil 71 espere la detección de una operación táctil en el modo de bajo consumo de energía (etapa S82).
El sensor táctil 71 detecta que se realiza una operación similar a una operación de postura de acción que activa el sistema (denominada "postura de acción de activación" en el dibujo) en el panel táctil 7 (etapa S83). En ese momento, el sensor táctil 71 envía una instrucción de interrupción particular a la unidad de accionamiento del sensor táctil 72 (etapa S84).
La unidad de accionamiento del sensor táctil 72 envía una instrucción para iniciar el procesamiento de reanudación realizado para el sistema y comenzar a realizar el procesamiento de reanudación en la unidad de control 3 como la instrucción de interrupción particular (etapa S85). En consecuencia, la unidad de control 3 comienza a realizar el procesamiento de reanudación para el sistema (etapa S86).
Cuando la unidad de control 3 comienza a realizar el procesamiento de reanudación, la unidad de accionamiento del sensor táctil 72 emite una demanda de visualización de guía emitida para mostrar la guía 75 al inicio rápido 31 (etapa S87). Al recibir la demanda de visualización de la guía desde la unidad de accionamiento del sensor táctil 72, el inicio rápido 31 envía la demanda de visualización de la guía al middleware multimedia 33 (etapa S88). En este caso, el middleware multimedia 33 tiene una función de visualización de guía proporcionada para encontrar una operación de postura de acción similar a una operación difícil de determinar cuando la operación se realiza en el panel táctil 7 y hace que la unidad de visualización 12 muestre la guía 75.
Al recibir la demanda de visualización de guía desde la unidad de accionamiento del sensor táctil 72, el middleware multimedia 33 envía una instrucción para realizar la visualización de guía a la unidad de procesamiento de visualización 9 (etapa S89). A continuación, la unidad de procesamiento de visualización 9 almacena una imagen de la guía 75 en la memoria intermedia de tramas 11. La unidad de visualización 12 muestra la guía 75 en base a la imagen objeto de lectura desde la memoria intermedia de tramas 11 (etapa S90). Después de lo que antecede, la unidad de control 3 hace que el sistema entre en el estado de activación (etapa S91) y espera hasta que se introduzca de nuevo una operación de postura de acción. En ese momento, el sistema está en un modo de visualización de guía donde la guía 75 se muestra en la unidad de visualización 12.
Cuando el sensor táctil 71 detecta una operación de postura de acción que activa el sistema en el modo de visualización de guía (etapa S92), el sensor táctil 71 emite una instrucción solicitando que el sistema sea activado a la unidad de accionamiento del sensor táctil 72 (etapa S93). Una instrucción para iniciar el procesamiento de reanudación realizado para el sistema y comenzar a realizar el procesamiento de reanudación se envía a la unidad de control 3 (etapa S94). En consecuencia, la unidad de control 3 hace que el sistema entre en el estado de activación (etapa S95).
Después de lo que antecede, la unidad de accionamiento del sensor táctil 72 emite una demanda de visualización de guía para mostrar la guía 75 al middleware multimedia 33 (etapa S96). Además, una instrucción para actualizar y mostrar una imagen de menú obtenida en el estado usual en la unidad de visualización 12 se envía desde el sistema que había entrado en el estado de activación a la memoria intermedia de tramas 11 (etapa S97). La memoria intermedia de tramas 11 realiza el procesamiento para actualizar la imagen del menú mostrada en la unidad de visualización 12 (etapa S98).
El dispositivo terminal móvil 10 descrito con anterioridad, de conformidad con la cuarta forma de realización, es efectivo cuando una operación de postura de acción que activa el sistema no puede ser reconocida debido a una deriva de la posición de arrastre, etc. En ese caso, cuando se realiza una operación similar a una operación de postura de acción estipulada, la guía 75 se muestra en la unidad de visualización 12 de modo que se realiza una operación de nuevo. A continuación, se ejecuta una función específica basada en una operación de postura de acción realizada a lo largo de la guía 75. En consecuencia, puesto que no se muestra ninguna imagen en el dispositivo terminal móvil 10 que está en el estado de suspensión, el usuario que ha fallado en una operación de postura de acción puede realizar una operación de postura de acción a lo largo de la guía 75 en el momento de la re-operación de modo que se pueda realizar una operación de entrada con fiabilidad.
Además, cuando una operación de postura de acción finaliza en fallo, el sistema no se activa por completo. Sin embargo, el sistema cambia al modo de visualización de guía y espera continuamente hasta que se realiza una operación de postura de acción. A continuación, después de detectar una operación de postura de acción apropiada realizada de nuevo, el sistema se activa en el estado usual. A partir de ese momento, la actualización de la imagen de la pantalla, las operaciones, etc. se realizan en el estado usual.
Además, se puede disponer que la ubicación de una operación de postura de acción se muestre en la superficie operativa del panel táctil 7. El lugar que se muestra permite al usuario reconocer fácilmente cómo la operación de entrada finaliza en fallo.
Quinta forma de realización
A continuación, se describirá el dispositivo terminal móvil de conformidad con una quinta forma de realización de la presente invención con referencia desde la Figura 18 a la Figura 28B.
La Figura 18 es un diagrama esquemático que ilustra una configuración externa, a modo de ejemplo, de un dispositivo terminal móvil según una quinta forma de realización de la presente invención. En esta forma de realización, el panel táctil 7 incluye una pluralidad de paneles, tal como un panel frontal ubicado en una zona frontal del dispositivo terminal móvil 10, paneles laterales ubicados en las zonas laterales del dispositivo terminal móvil 10 y/o un panel posterior (no mostrado) ubicado en la parte posterior del dispositivo terminal móvil 10. Por ejemplo, cuando el panel frontal no detecta una operación de entrada durante un período de tiempo específico (por ejemplo, 15 segundos), una frecuencia de detección (frecuencia de barrido) por el panel frontal puede reducirse en cualquier lugar de 60 Hz a 5 Hz o incluso 0 Hz (por ejemplo, modo de latencia profunda o modo de desconexión) y una frecuencia de detección (frecuencia de barrido) por los paneles laterales puede reducirse de 60 Hz a 10 Hz (modo de barrido de baja potencia). Por tanto, en esta forma de realización, la frecuencia de detección por el panel frontal puede ser menor que la de los paneles laterales, de modo que se puede reducir el consumo de energía.
La Figura 19A es un diagrama explicativo que ilustra un ejemplo en donde un dispositivo terminal móvil se sujeta con una mano en las zonas laterales y un área de ejemplo de objeto detectado de paneles laterales de conformidad con la quinta forma de realización de la presente invención. La Figura 19B es un diagrama esquemático que muestra puntos de posición donde se detectan objetos. En este ejemplo, los circuitos de procesamiento (tal como una CPU, ASCI, PLA, etc.) pueden ejecutar una operación especificada (por ejemplo, activación del dispositivo terminal móvil) cuando un contacto predeterminado de una operación de entrada en los paneles laterales correspondientes a la operación específica es detectada por un detector de entrada (por ejemplo, múltiples ubicaciones predeterminadas de paneles laterales se tocan de manera simultánea sosteniendo el dispositivo terminal móvil con una mano). En este ejemplo, un panel frontal ubicado en la parte frontal del dispositivo terminal móvil está configurado en modo de latencia profunda o en modo desconectado para que no se detecte una operación de entrada en el panel frontal. Por otro lado, un panel del lado derecho ubicado en el lado derecho del dispositivo terminal móvil y un panel del lado izquierdo ubicado en el lado izquierdo del dispositivo terminal móvil están configurados para el modo de barrido de baja potencia para que los paneles del lado derecho e izquierdo puedan detectar una operación de entrada.
La Figura 20 es un diagrama de secuencia que ilustra un flujo de proceso, a modo de ejemplo, realizado para activación de un dispositivo terminal móvil detectando la sujeción del dispositivo terminal móvil por los paneles laterales según la quinta forma de realización de la presente invención. Aparte de que el sensor táctil está ubicado en el lado derecho e izquierdo del dispositivo terminal móvil y los paneles laterales derecho e izquierdo detectan la sujeción del dispositivo terminal móvil, multitud de las etapas realizan una función similar a las descritas en la Figura16.
La Figura 21A es un diagrama explicativo que ilustra un ejemplo en donde se sostiene un dispositivo terminal móvil para disparar con las dos manos en las zonas laterales. La Figura 21B es un diagrama esquemático que muestra zonas, a modo de ejemplo, de objetos detectados de paneles laterales de conformidad con la quinta forma de realización de la presente invención. En este ejemplo, los circuitos de procesamiento pueden ejecutar una operación especificada (por ejemplo, iniciar una aplicación de cámara y capturar una imagen) cuando un detector de entrada detecta un contacto predeterminado de una operación de entrada en los paneles laterales correspondientes a la operación especificada (por ejemplo, ubicaciones múltiples predeterminadas de los paneles laterales se tocan de manera simultánea sosteniendo el dispositivo terminal móvil para obtener una fotografía con las dos manos).
La Figura 22 es un diagrama de secuencia que ilustra un flujo de proceso, a modo de ejemplo, ejecutado para iniciar la aplicación de la cámara y realizar el disparo a través de una operación detectada por los paneles laterales según la quinta forma de realización de la presente invención. Aparte de que el sensor táctil está ubicado en el lado derecho e izquierdo del dispositivo terminal móvil y los paneles laterales derecho e izquierdo detectan la sujeción del dispositivo terminal móvil para disparar, muchas de las etapas realizan una función similar a las descritas en la Figura 10.
La Figura 23A es un diagrama explicativo que ilustra un ejemplo en donde un dispositivo terminal móvil se sostiene con una mano evitando tocar los paneles laterales y la Figura 23B es un diagrama esquemático que muestra zonas, a modo de ejemplo, de objetos detectados de paneles laterales de conformidad con la quinta forma de realización de la presente invención. En este ejemplo, un dispositivo terminal móvil se sostiene tocando solamente un panel frontal que está configurado para el modo de latencia profunda o el modo de desconexión, evitando tocar los paneles laterales que están configurados para el modo de barrido de baja potencia. Por lo tanto, el panel frontal no detecta ninguna operación de entrada y puede evitarse una operación imprevista del dispositivo terminal móvil.
La Figura 24A es un diagrama explicativo que ilustra un ejemplo en donde un dispositivo terminal móvil se sujeta con una mano y la Figura 24B es un diagrama esquemático que muestra zonas, a modo de ejemplo, de objetos detectados de un panel frontal según la quinta forma de realización de la presente invención. En este ejemplo, circuitos de procesamiento pueden ejecutar una operación específica (por ejemplo, activación del dispositivo terminal móvil) cuando un detector de entrada detecta un contacto predeterminado de una operación de entrada en el panel frontal correspondiente a la operación especificada (por ejemplo, ubicaciones múltiples predeterminadas del panel frontal son objeto de contacto simultáneo al sujetar el dispositivo terminal móvil con una sola mano).
La Figura 25 es un diagrama de secuencia que ilustra un flujo de proceso, a modo de ejemplo, realizado para activación de un dispositivo terminal móvil detectando la sujeción del dispositivo terminal móvil por un panel frontal de conformidad con la quinta forma de realización de la presente invención. Aparte de que la sujeción del dispositivo terminal móvil no se detecte mediante una postura de acción, sino al detectar la pulsación simultánea de múltiples ubicaciones predeterminadas del panel frontal, multitud de las etapas realizan una función similar a las descritas en la Figura 16.
La Figura 26A es un diagrama explicativo que ilustra un ejemplo en donde un dispositivo terminal móvil se sostiene para disparar con las dos manos y la Figura 26B es un diagrama esquemático que muestra zonas, a modo de ejemplo, de objetos detectados de un panel frontal de conformidad con la quinta forma de realización de la presente invención. En este ejemplo, un circuito de procesamiento puede ejecutar una operación especificada (por ejemplo, iniciar una aplicación de cámara y capturar una imagen) cuando un detector de entrada detecta un contacto predeterminado de una operación de entrada en el panel frontal correspondiente a la operación específica (por ejemplo, ubicaciones múltiples predeterminadas del panel frontal son objeto de contacto simultáneo al sujetar el dispositivo terminal móvil para obtener una fotografía con las dos manos).
La Figura 27 es un diagrama de secuencia que ilustra un flujo de proceso, a modo de ejemplo, ejecutado para iniciar la aplicación de la cámara y realizar el disparo a través de una operación detectada por un panel frontal de conformidad con la quinta forma de realización de la presente invención. Aparte de sostener el dispositivo terminal móvil no se detecta mediante una postura de acción, sino al detectar la pulsación simultánea de múltiples ubicaciones predeterminadas del panel frontal para efectuar el disparo, gran parte de las etapas realizan una función similar a las descritas en la Figura 10.
La Figura 28A es un diagrama explicativo que ilustra un ejemplo en donde un dispositivo terminal móvil se sostiene con una sola mano evitando tocar un panel frontal y la Figura 28B es un diagrama esquemático que muestra zonas, a modo de ejemplo, de objetos detectados de un panel frontal de conformidad con la quinta forma de realización de la presente invención. En este ejemplo, cuando se sujeta un dispositivo terminal móvil evitando tocar un panel frontal que está configurado para ser un modo de barrido de baja potencia, el panel frontal no detecta ninguna operación de entrada y se puede evitar una operación imprevista del dispositivo terminal móvil.
En cada una de las formas de realización descritas, un usuario puede cambiar un contacto predeterminado de una operación de entrada desde un panel táctil. Por ejemplo, un usuario puede cambiar una postura de acción predeterminada o múltiples ubicaciones predeterminadas para ser objeto de contacto simultáneo para iniciar una aplicación de cámara a un nuevo contacto cambiando un ajuste desde el panel táctil. Basándose en el cambio del ajuste por parte del usuario, los circuitos de procesamiento cambian el contacto predeterminado de la operación de entrada requerida para ejecutar una operación especificada al nuevo contacto predeterminado.
Conviene señalar que, las funciones descritas con anterioridad de conformidad con la primera a la cuarta formas de realización pueden utilizarse por separado o combinadas de manera arbitraria entre sí. Además, el tipo de operación de postura de acción no se limita a las formas de realización descritas con anterioridad, de modo que puede proporcionarse una combinación de la operación denominada pellizco y de la operación de pulsación. Por lo tanto, la combinación de una operación de postura de acción, una función, etc. puede cambiarse de forma apropiada en base a las especificaciones del dispositivo terminal móvil 10.
Además, una serie de procesamientos de conformidad con las formas de realización descritas con anterioridad se suelen ejecutar mediante software. En ese caso, la ejecución es habilitada por un ordenador que tiene hardware concretamente diseñado donde se instala un programa que constituye el software, o un ordenador donde se instala un programa que logra ejecutar diversas funciones. Por ejemplo, un programa que constituye el software deseado puede instalarse en un ordenador de uso general, etc. para su ejecución.
Además, un medio de almacenamiento que almacena código de programa de software para poner en práctica las funciones de las formas de realización descritas con anterioridad se pueden suministrar a un sistema o aparato. Además, es innecesario decir que un ordenador (o un dispositivo de control tal como una CPU) del sistema o del aparato puede efectuar la lectura y ejecutar el código de programa almacenado en el medio de almacenamiento para que se pongan en prácticas las funciones.
El medio de almacenamiento proporcionado para suministrar el código del programa puede incluir, por ejemplo, un disco flexible, un disco duro, un disco óptico, un disco magneto-óptico, un CD-ROM, un CD-R, una cinta magnética, una tarjeta de memoria no volátil, una memoria ROM, etc.
Además, las funciones de las formas de realización descritas con anterioridad son puestas en práctica por el ordenador al efectuar la lectura y ejecutar el código del programa. Además, un sistema operativo o similar existente en el ordenador ejecuta parte o la totalidad del procesamiento real basándose en las instrucciones del código del programa. Las funciones de las formas de realización descritas con anterioridad pueden ponerse en práctica mediante el procesamiento, que constituye otra forma de realización. Además, los procesamientos de conformidad con las presentes formas de realización pueden estar constituidos por hardware en lugar de ser ejecutados por software tal como se indicó con anterioridad.
Asimismo, se da por sentado que la presente invención no se limita a las formas de realización descritas con anterioridad, sino que puede aplicarse y modificarse de diferentes y diversas formas sin quedar fuera del alcance de las reivindicaciones. Con este fin, los expertos en esta técnica deben entender que pueden producirse diversas modificaciones, combinaciones y otras formas de realización, a modo de ejemplo, dependiendo del diseño y/o de otros factores, por supuesto.
Lista de elementos de referencia
7: panel táctil, 10: dispositivo terminal móvil, 39: panel de visualización, 71: sensor táctil, 72: unidad de accionamiento del sensor táctil, 73: unidad de visualización.

Claims (7)

REIVINDICACIONES
1. Un dispositivo terminal móvil (10) que comprende: un módulo de visualización; un panel táctil (7) configurado para detectar una operación de entrada; un detector de entrada configurado para detectar un patrón de la operación de entrada basado en una posición de un indicador en el panel táctil; y
conjunto de circuitos configurados para:
controlar el terminal para que entre en un estado de suspensión de modo que módulo de visualización no muestre una imagen cuando no se detecte una operación de entrada en el panel táctil durante un período de tiempo predeterminado y de modo que una frecuencia de barrido de una superficie del panel táctil en el estado de suspensión sea menor que la frecuencia de barrido en un estado activo;
controlar el módulo de visualización para mostrar una pantalla de inicio sin la entrada de una contraseña por parte de un usuario cuando el detector de entrada detecta un patrón predeterminado de la operación de entrada en el panel táctil durante el estado de suspensión; y
caracterizado porque el circuito está, además, configurado para:
controlar el módulo de visualización para mostrar una guía que representa el patrón predeterminado cuando la operación de entrada para mostrar la pantalla de inicio finaliza en un fallo y el conjunto de circuitos considera que el patrón de la operación de entrada es similar al patrón predeterminado para mostrar la pantalla de inicio.
2. Un dispositivo terminal móvil según la reivindicación 1, en donde la operación de entrada es una operación táctil en el panel táctil.
3. Un dispositivo terminal móvil según cualquiera de las reivindicaciones anteriores, en donde el panel táctil es un panel táctil de capacitancia.
4. Un método de funcionamiento de un dispositivo terminal móvil (10) que comprende un panel táctil y un módulo de visualización; comprendiendo el método las etapas de:
detectar una operación de entrada en el panel táctil (7);
detectar, mediante un detector de entrada, un patrón de la operación de entrada en base a una posición de un indicador en el panel táctil;
controlar el dispositivo terminal para que entre en un estado de suspensión de modo que no se muestre ninguna imagen cuando no se detecte una operación de entrada en el panel táctil durante un período de tiempo predeterminado y que una frecuencia de barrido de una superficie del panel táctil en el estado de suspensión sea menor que la frecuencia de barrido en un estado activo;
mostrar una pantalla de inicio sin una contraseña introducida por un usuario cuando el detector de entrada detecte un patrón predeterminado de la operación de entrada en el panel táctil durante el estado de suspensión; y
caracterizado porque el método comprende, además, la etapa de:
mostrar una guía que representa el patrón predeterminado cuando la operación de entrada para mostrar la pantalla de inicio finaliza en un fallo y el patrón de la operación de entrada es similar al patrón predeterminado para mostrar la pantalla de inicio.
5. Un método según la reivindicación 4, en donde la operación de entrada es una operación táctil en el panel táctil.
6. Un método según cualquiera de las reivindicaciones 4 o 5, en donde el panel táctil es un panel táctil de capacitancia.
7. Un programa informático que comprende un código informático que, cuando se carga en un ordenador, configura el ordenador para realizar un método según cualquiera de las reivindicaciones 4, 5 o 6.
ES18177813T 2012-07-18 2013-07-03 Dispositivo terminal móvil, método de funcionamiento, programa y medio de almacenamiento Active ES2878224T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261672953P 2012-07-18 2012-07-18
US13/926,744 US9116696B2 (en) 2012-07-18 2013-06-25 Mobile terminal device, operation method, program, and storage medium

Publications (1)

Publication Number Publication Date
ES2878224T3 true ES2878224T3 (es) 2021-11-18

Family

ID=48792969

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18177813T Active ES2878224T3 (es) 2012-07-18 2013-07-03 Dispositivo terminal móvil, método de funcionamiento, programa y medio de almacenamiento

Country Status (4)

Country Link
US (7) US9116696B2 (es)
EP (4) EP3407163B1 (es)
DE (1) DE202013012746U1 (es)
ES (1) ES2878224T3 (es)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9116696B2 (en) 2012-07-18 2015-08-25 Sony Corporation Mobile terminal device, operation method, program, and storage medium
US9323310B2 (en) * 2012-09-19 2016-04-26 Sony Corporation Mobile client device, operation method, and recording medium
KR102133410B1 (ko) * 2013-01-31 2020-07-14 삼성전자 주식회사 멀티태스킹 운용 방법 및 이를 지원하는 단말기
US9715282B2 (en) * 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
US9665206B1 (en) * 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
US9111076B2 (en) * 2013-11-20 2015-08-18 Lg Electronics Inc. Mobile terminal and control method thereof
US20150227269A1 (en) * 2014-02-07 2015-08-13 Charles J. Kulas Fast response graphical user interface
KR102182401B1 (ko) * 2014-06-11 2020-11-24 엘지전자 주식회사 이동단말기 및 그 제어방법
CN105278766B (zh) * 2014-07-22 2020-06-16 中兴通讯股份有限公司 一种终端及其操作方法
KR102273499B1 (ko) * 2014-12-29 2021-07-07 엘지디스플레이 주식회사 터치 센서를 갖는 표시장치와 이의 구동 방법
KR102303217B1 (ko) 2015-02-03 2021-09-17 삼성전자주식회사 터치 스크린을 제어하는 방법과 이를 지원하는 전자 장치
JP6549921B2 (ja) * 2015-07-06 2019-07-24 株式会社ジャパンディスプレイ タッチ検出機能付き表示装置
CN105242767A (zh) * 2015-09-29 2016-01-13 努比亚技术有限公司 一种省电方法和终端设备
WO2018008492A1 (ja) * 2016-07-06 2018-01-11 シャープ株式会社 タッチパネル制御装置および電子機器
JP6374456B2 (ja) * 2016-09-02 2018-08-15 ファナック株式会社 電子機器及び数値制御装置
CN109804339B (zh) * 2016-10-11 2021-01-01 华为技术有限公司 识别操作的方法、装置及移动终端
JP6961451B2 (ja) * 2017-10-12 2021-11-05 キヤノン株式会社 電子機器、その制御方法およびプログラム
CN109814768A (zh) * 2018-12-14 2019-05-28 中国平安财产保险股份有限公司 悬浮框的位置优化的方法、装置、计算机设备和存储介质
WO2020127242A1 (en) * 2018-12-21 2020-06-25 Jt International Sa Device for use in a commercial outlet
TWI697822B (zh) * 2019-03-29 2020-07-01 友達光電股份有限公司 觸控顯示方法與觸控顯示裝置
CN111381662A (zh) * 2020-03-19 2020-07-07 深圳传音控股股份有限公司 省电控制方法、控制设备及存储介质
JP2024080985A (ja) * 2022-12-05 2024-06-17 東洋電装株式会社 操作装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7911456B2 (en) * 1992-06-08 2011-03-22 Synaptics Incorporated Object position detector with edge motion feature and gesture recognition
US6639584B1 (en) * 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
US7233316B2 (en) * 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8681098B2 (en) * 2008-04-24 2014-03-25 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US20110050638A1 (en) 2008-05-23 2011-03-03 Atlab Inc. Touch sensor device and the method of switching operation mode thereof
US8704767B2 (en) * 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
CN102117166A (zh) 2009-12-31 2011-07-06 联想(北京)有限公司 电子设备及其实现预设操作指令的方法及一种手机
CN101702106B (zh) 2009-11-04 2011-11-23 深圳市汇顶科技有限公司 一种触摸屏终端的唤醒方法及系统
US8441460B2 (en) 2009-11-24 2013-05-14 Mediatek Inc. Apparatus and method for providing side touch panel as part of man-machine interface (MMI)
US8866791B2 (en) * 2010-01-06 2014-10-21 Apple Inc. Portable electronic device having mode dependent user input controls
US20120154303A1 (en) * 2010-09-24 2012-06-21 Research In Motion Limited Method for conserving power on a portable electronic device and a portable electronic device configured for the same
CN102184078A (zh) 2011-06-02 2011-09-14 宇龙计算机通信科技(深圳)有限公司 一种触控屏移动终端及其解屏方法
US9116696B2 (en) * 2012-07-18 2015-08-25 Sony Corporation Mobile terminal device, operation method, program, and storage medium

Also Published As

Publication number Publication date
US10146430B2 (en) 2018-12-04
US10372326B2 (en) 2019-08-06
US9116696B2 (en) 2015-08-25
EP3944057A1 (en) 2022-01-26
US20180095658A1 (en) 2018-04-05
EP3407163B1 (en) 2021-06-09
US20190050145A1 (en) 2019-02-14
US20160011643A1 (en) 2016-01-14
US9569096B2 (en) 2017-02-14
EP2687943A2 (en) 2014-01-22
EP2687943A3 (en) 2016-06-15
EP2687943B1 (en) 2020-04-15
US20140022190A1 (en) 2014-01-23
US20190302999A1 (en) 2019-10-03
US20160259521A1 (en) 2016-09-08
US10712935B2 (en) 2020-07-14
EP3407163A1 (en) 2018-11-28
US9864512B2 (en) 2018-01-09
US9507401B2 (en) 2016-11-29
US20170115873A1 (en) 2017-04-27
DE202013012746U1 (de) 2019-01-30
EP3185102A1 (en) 2017-06-28

Similar Documents

Publication Publication Date Title
ES2878224T3 (es) Dispositivo terminal móvil, método de funcionamiento, programa y medio de almacenamiento
US10416748B2 (en) Method and apparatus for controlling an operation mode of a mobile terminal
US10009849B2 (en) Mobile client device, operation method, and recording medium
US9973685B2 (en) Mobile terminal and method of controlling the same
US20210084216A1 (en) Method of controlling camera device and electronic device thereof
CN108391171B (zh) 视频播放的控制方法及装置、终端
KR102308201B1 (ko) 사용자 단말 장치 및 그 제어 방법
JP6940353B2 (ja) 電子機器
KR20200087813A (ko) 오디오 데이터를 재생하기 위한 방법 및 장치
US20190303549A1 (en) Electronic device, controller, and operation method of electronic device
US20160021291A1 (en) Launching a camera of a wireless device from a wearable device
CN111158575B (zh) 终端执行处理的方法、装置、设备以及存储介质
TWI442274B (zh) 一種電子裝置及其圖形化使用者介面控制方法
KR20140028795A (ko) 단말기 및 그 제어 방법
JP6871846B2 (ja) 電子機器および制御方法
JP2019082823A (ja) 電子機器
US20150062365A1 (en) Method for capturing image and electronic device thereof
CN112486371A (zh) 应用图标的拖动方法、装置及存储介质