ES2909087T3 - Dispositivo móvil y procedimiento para ejecutar una función particular a través de un evento táctil en una lista relacionada con la comunicación - Google Patents

Dispositivo móvil y procedimiento para ejecutar una función particular a través de un evento táctil en una lista relacionada con la comunicación Download PDF

Info

Publication number
ES2909087T3
ES2909087T3 ES20164944T ES20164944T ES2909087T3 ES 2909087 T3 ES2909087 T3 ES 2909087T3 ES 20164944 T ES20164944 T ES 20164944T ES 20164944 T ES20164944 T ES 20164944T ES 2909087 T3 ES2909087 T3 ES 2909087T3
Authority
ES
Spain
Prior art keywords
item
touch
mobile device
touch input
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20164944T
Other languages
English (en)
Inventor
Hyun Kyung Shin
In Won Jong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2909087T3 publication Critical patent/ES2909087T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/2747Scrolling on a display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

Un procedimiento para la operación basado en el tacto en un dispositivo móvil, el procedimiento comprende: visualizar (S107), en una pantalla (141,143) táctil del dispositivo móvil, una lista relacionada con la comunicación que comprende una pluralidad de artículos; detectar (S109), en la pantalla (141,143) táctil, una primera entrada táctil en una primera ubicación de toma de contacto en un primer artículo de la pluralidad de artículos; en respuesta a la detección de un movimiento de la primera entrada táctil a partir de la primera ubicación de toma de contacto en una primera dirección hacia un primer lado del primer artículo, mover (S113) el primer artículo en la pantalla (141,143) táctil en la primera dirección correspondiente al movimiento de la primera entrada táctil, y visualizar un primer icono en un segundo lado del primer artículo, en el que el primer icono representa una función ejecutable asignada al movimiento de la primera entrada táctil en la primera dirección en el primer artículo, y en el que el segundo lado del primer artículo es opuesto al primer lado; y ejecutar (S117) la función ejecutable en respuesta a la detección de al menos el movimiento de la primera entrada táctil en la primera dirección hasta un punto más allá de un primer punto crítico el cual cambia dependiendo de la primera ubicación de toma de contacto.

Description

DESCRIPCIÓN
Dispositivo móvil y procedimiento para ejecutar una función particular a través de un evento táctil en una lista relacionada con la comunicación
Campo técnico
La presente invención se refiere en general a un dispositivo móvil y a un procedimiento para ejecutar funciones previamente programadas en el mismo. Más particularmente, la presente invención se refiere a una función particular predefinida en uno de los artículos seleccionados dispuestos en una lista desplazable relacionada con la comunicación cuando se invoca un evento táctil en una pantalla táctil de un tal dispositivo móvil.
Técnica antecedente
Actualmente, un dispositivo móvil soporta una gran variedad de funciones de fácil uso para satisfacer las crecientes demandas de los clientes con respecto al número de funciones basadas en la movilidad. Hoy en día, un tal dispositivo móvil se ha vuelto ampliamente utilizado debido a su comodidad de uso y a su fácil portabilidad.
El documento US 2009/093277 A1 divulga un terminal móvil que tiene una función táctil. El terminal móvil incluye un módulo de visualización y un controlador. El módulo de visualización visualiza las listas de contenidos en una pantalla de lista de contenidos. El controlador está configurado para dividir una región predeterminada de la pantalla de lista de contenidos en una primera región y una segunda región y para ejecutar diferentes funciones según si una lista de contenido en la pantalla de la lista de contenido se arrastra a la primera región o a la segunda región.
El documento EP 1850217 A2 divulga un terminal que incluye una pantalla táctil configurada para ser tocada por un usuario, y un controlador configurado para determinar un número de toques simultáneos en la pantalla táctil y para realizar una función en base al número determinado de toques simultáneos.
El documento US 2009/006955 A1 divulga un aparato, un procedimiento, un sistema y un producto de programa de ordenador para la descarga selectiva e interactiva de un artículo multimedia, tal como un vídeo. Antes de descargar el artículo multimedia, el usuario puede descargar primero una aproximación de cada grupo de imágenes (GOPs) del vídeo. A continuación, el usuario puede navegar a través de las aproximaciones para determinar cuál de los GOPs debe descargar. Cada aproximación puede incluir al menos una parte de intra-trama (“trama-I”) del GOP correspondiente. En particular, la aproximación puede incluir, sólo la componente de baja frecuencia, de la trama I o la propia trama I. Una vez descargadas, las aproximaciones pueden ser visualizadas, y el usuario puede seleccionar una o más de las aproximaciones para descargar selectivamente los GOPs correspondientes. Los GOPs seleccionados pueden descargarse posteriormente de acuerdo con un nivel seleccionado de especificidad o detalle.
Divulgación de la invención
Problema Técnico
Tales dispositivos móviles pueden adoptar diversas técnicas de entrada. Por ejemplo, un dispositivo móvil convencional tiene, en general, un teclado tradicional el cual está dispuesto mecánicamente cerca de una unidad de visualización en el lado frontal de un cuerpo. Además, los dispositivos móviles convencionales más recientes tienen un tamaño limitado para mejorar la portabilidad y a menudo emplean una pantalla táctil en la cual se utiliza un panel táctil en lugar de un teclado dispuesto en una unidad de visualización.
Además, un usuario que desea acceder a una de las funciones relacionadas con la comunicación en un dispositivo móvil convencional a menudo tiene que pasar a través de varias páginas de pantalla con diferentes profundidades visualizadas en una pantalla antes de ser capaz de seleccionar la pantalla o función o deseada. Por ejemplo, un usuario que quiera llamar a alguien tiene que abrir una página para buscar en una agenda telefónica, entrar en una página para ver información detallada sobre un destinatario seleccionado y, luego, entrar en una página para ejecutar una función de llamada o lanzar una lista de menús asociada. Desafortunadamente, esto a veces puede causar inconvenientes a un usuario.
Solución al Problema
La invención está definida por las reivindicaciones independientes. Otros aspectos de la invención se describen en las reivindicaciones dependientes. Cuando se utiliza el término “realización” para describir combinaciones de características no reivindicadas, debe comprenderse que el término se refiere a ejemplo(s) útil(es) para la comprensión de la presente invención.
Por lo tanto, como se mostrará en algunos de los aspectos ejemplares de la presente invención proporcionados en la presente memoria, un usuario puede seleccionar fácilmente uno de los artículos dispuestos en una lista desplazable relacionada con la comunicación a través de un primer evento táctil y luego utilizar rápidamente una función particular predefinida en el artículo seleccionado a través de un evento táctil posterior sin requerir ninguna página o menú adicional.
Otros aspectos ejemplares, ventajas, y características sobresalientes de la divulgación se harán evidentes para los expertos en la técnica a partir de la siguiente descripción detallada, la cual, tomada en conjunto con los dibujos anexos, divulga varias realizaciones de la presente divulgación.
Efectos Ventajosos de la Invención
En consecuencia, la presente invención proporciona un dispositivo móvil con una interfaz sensible al tacto y también un procedimiento de operación basado en el tacto de este, permitiendo a un usuario utilizar de manera fácil y conveniente una función relacionada con la comunicación deseada a través de la interfaz sensible al tacto.
Breve descripción de los dibujos
Lo anterior y otros aspectos ejemplares, características, y ventajas de determinadas realizaciones ejemplares de la presente invención se harán más evidentes a partir de la siguiente descripción tomada en conjunto con los dibujos adjuntos, en los cuales:
La Figura 1 es un diagrama de bloques que ilustra la configuración de un dispositivo móvil de acuerdo con una realización ejemplar de la presente invención;
La Figura 2 es una vista de ejemplo que ilustra un procedimiento de operación basado en el tacto en un dispositivo móvil de acuerdo con la primera realización ejemplar de la presente invención;
La Figura 3 es una vista de ejemplo que ilustra un procedimiento de operación basado en el tacto en un dispositivo móvil de acuerdo con la segunda realización ejemplar de la presente invención;
La Figura 4 es una vista de ejemplo que ilustra un procedimiento de operación basado en el tacto en un dispositivo móvil de acuerdo con la tercera realización ejemplar de la presente invención; y
La Figura 5 es un diagrama de flujo que ilustra un procedimiento de operación basado en el tacto en un dispositivo móvil de acuerdo con una realización ejemplar de la presente invención;
Modo para la Invención
Las realizaciones ejemplares y no limitativas de la presente invención se describirán ahora más detalladamente con referencia a los dibujos que la acompañan La presente invención puede, sin embargo, realizarse en muchas formas diferentes y la reivindicación anexa no se limita en modo alguno a las realizaciones ejemplares expuestas en la presente memoria. Más bien, las realizaciones ejemplares divulgadas se proporcionan de modo que la presente divulgación sea exhaustiva y completa, y transmita completamente el ámbito de la invención a los expertos en la técnica. Los principios y características de la presente invención pueden emplearse en variadas y numerosas realizaciones ejemplares sin apartarse del ámbito de la invención.
Además, las técnicas, los elementos, las estructuras, y los procedimientos bien conocidos o ampliamente utilizados pueden no describirse o ilustrarse en detalle para evitar que una persona experta en la técnica no pueda apreciar la presente invención. Aunque los dibujos representan realizaciones ejemplares de la invención, los dibujos no están necesariamente a escala y determinadas características pueden ser exageradas u omitidas para ilustrar y explicar mejor la presente invención.
La Figura 1 es un diagrama de bloques que ilustra la configuración de un dispositivo móvil de acuerdo con una realización ejemplar de la presente invención;
Ahora con referencia a la Figura 1, el dispositivo 100 móvil puede incluir una unidad 110 de radio frecuencia (RF), una unidad 120 de entrada, una unidad 130 de procesamiento de audio, una pantalla 140 táctil, una unidad 150 de memoria, y una unidad 160 de control.
El dispositivo móvil que tiene los elementos anteriores permite la ejecución de una función particular predefinida en uno de los artículos seleccionados dispuestos en una lista desplazable relacionada con la comunicación, sin requerir ninguna vista de página adicional, cuando un usuario invoca un evento táctil en el artículo seleccionado en una dirección no desplazable. En particular, las funciones ejecutables predefinidas en los respectivos artículos de la lista relacionada con la comunicación pueden incluir una función de llamada en base a un registro de llamadas o en una agenda telefónica, una función de mensaje en base a una lista de mensajes o en una agenda telefónica, una función de correo electrónico en base a una lista de correo electrónico o en una agenda telefónica, y similares. Tales funciones ejecutables pueden ser definidas selectivamente o, por ejemplo, cambiadas por un usuario o fabricante. Por esta razón, el dispositivo móvil puede ofrecer por separado un menú de edición y una página para configurar las funciones ejecutables en los respectivos artículos. A continuación, se describirá con más detalle cada elemento del dispositivo móvil.
La unidad 110 de RF establece los canales de comunicación necesarios bajo el control de la unidad 160 de control. Es decir, la unidad 110 de RF forma un canal de llamada de voz, un canal de videollamada, y un canal de comunicación de datos con un sistema de comunicación móvil. La unidad 110 de RF puede incluir un transmisor de RF el cual convierte hacia arriba la frecuencia de las señales por transmitir y amplifica las señales, y un receptor de RF el cual amplifica las señales recibidas con bajo ruido y convierte hacia abajo la frecuencia de las señales recibidas. La unidad 110 de RF puede activarse selectivamente bajo el control de la unidad 160 de control, dependiendo de un evento táctil invocado en un panel 143 táctil de la pantalla 140 táctil.
En particular, en una realización ejemplar de la presente invención, algunas funciones ejecutables en base a la unidad 110 de RF pueden representarse como iconos de menú, imágenes o cualquier otro elemento gráfico. Si estas funciones antes mencionadas, junto con otras funciones del dispositivo móvil, se visualizan en forma de una lista, tales funciones pueden ser seleccionadas y ejecutadas a través de un evento táctil del usuario. Es decir, cuando una página de menú contiene algunos elementos gráficos que indican funciones en base a la unidad 110 de RF y otros tipos de funciones, el dispositivo móvil ejecuta una función particular en base a la unidad 110 de RF dependiendo de un evento táctil determinado invocado en un elemento gráfico seleccionado en una dirección no desplazable. En este caso, en relación con las funciones en base a la unidad 110 de RF, el dispositivo móvil puede ofrecer, en una pantalla, varias páginas requeridas, tales como una página de agenda telefónica, una página de escritura de mensajes, una página de escritura de correo electrónico, una página de registro de llamadas, una página de mensajes recibidos, y similares.
La unidad 120 de entrada incluye una pluralidad de teclas de entrada normales y teclas de función especiales, ambas configuradas para recibir instrucciones del usuario. Las teclas de función pueden tener teclas de navegación, teclas laterales, teclas de acceso directo, y cualquier otra tecla especial. La unidad 120 de entrada crea varias señales de tecla en asociación con las instrucciones del usuario y las entrega a la unidad 160 de control. La unidad 120 de entrada puede estar formada por un teclado QWERTY, un teclado de 3 por 4, un teclado de 4 por 3, un teclado Dvorak, etc. cada uno de los cuales tiene una pluralidad de teclas. En algunas realizaciones ejemplares, la unidad 120 de entrada puede omitirse y reemplazarse con la pantalla 140 táctil si ésta se realiza en forma de pantalla táctil completa.
La unidad 130 de procesamiento de audio incluye preferentemente un altavoz (SPK) para emitir señales de audio y un micrófono (MIC) para recibir señales de audio. Cuando las imágenes o las páginas visualizadas para una interfaz de usuario se cambian o alteran, la unidad 130 de procesamiento de audio puede emitir señales de audio específicas, las cuales pueden ser preestablecidas por un fabricante o recién establecidas o modificadas por un usuario.
En particular, la unidad 130 de procesamiento de audio puede emitir cualquier señal de audio específica asociada con la ejecución de una función seleccionada. Es decir, cuando un usuario invoca un evento táctil en un artículo seleccionado de una lista relacionada con la comunicación en una dirección no desplazable, la unidad 130 de procesamiento de audio puede emitir una señal de audio determinada para informar a un usuario sobre una función seleccionada que se ejecutará por un evento táctil del usuario. Por ejemplo, cuando se produce un evento de arrastre táctil en un artículo seleccionado en una dirección hacia la izquierda, la unidad 130 de procesamiento de audio puede emitir una señal de audio informando de la “marcación”, por ejemplo, predefinida en un artículo seleccionado bajo el control de la unidad 160 de control.
Aún con referencia a la Figura 1, la pantalla 140 táctil incluye una unidad 141 de visualización y un panel 143 táctil. Típicamente, el panel 143 táctil está dispuesto en toda la parte frontal de la unidad 141 de visualización. El tamaño de la pantalla 140 táctil puede depender del panel 143 táctil particular.
La unidad 141 de visualización representa una variedad de información en una pantalla en asociación con la operación del dispositivo móvil. Por ejemplo, la unidad 141 de visualización puede ofrecer varias pantallas, tales como una pantalla de inicio o una pantalla de inactividad, una pantalla de menú, una pantalla de llamada, una pantalla de mensajes, etc.
Más particularmente, la unidad 141 de visualización de acuerdo con una realización ejemplar de la presente invención emite una lista desplazable relacionada con la comunicación que tiene al menos un artículo. Además, la unidad 141 de visualización puede ofrecer, en una pantalla, una retroalimentación visual causada por una selección de un artículo específico a partir de la lista relacionada con la comunicación, una variación en una imagen de un artículo seleccionado en respuesta a la ocurrencia de un evento táctil, un efecto de fondo dependiendo de tales variaciones de imagen, una imagen que muestra la ejecución de una función particular en un artículo seleccionado, y similares. Mientras tanto, la unidad 141 de visualización puede estar formada por una pantalla de cristal líquido (LCD), un dispositivo orgánico de emisión de luz (OLED), o cualquier otro tipo de pantallas de tecnología de película fina. La unidad 141 de visualización puede tener un tamaño menor que el del panel 143 táctil y puede estar dispuesta debajo del panel 143 táctil. También es posible que la pantalla táctil y la pantalla de visualización se superpongan total o parcialmente.
El panel 143 táctil está configurado para cubrir la unidad 141 de visualización. Además, el panel 143 táctil crea un evento táctil de acuerdo con el toque o la proximidad de un objeto tal como el dedo de un usuario (o un lápiz óptico) y luego entrega un evento táctil creado a la unidad 160 de control. El panel 143 táctil puede estar compuesto por sensores táctiles dispuestos en forma de matriz. Con respecto a un evento táctil específico, el panel 143 táctil envía información sobre una ubicación y un tipo de evento táctil a la unidad 160 de control. Los tipos de un evento táctil pueden incluir un evento de toma de contacto el cual se produce por un contacto de un objeto en el panel táctil, un evento de retoque o liberación táctil el cual se produce por una liberación de un contacto a partir del panel táctil, un evento de barrido o arrastre de toque el cual se produce por un movimiento de un contacto en el panel táctil, un evento de deslizamiento el cual se produce por un movimiento rápido y acelerado de un contacto, y similares. Cuando el panel 143 táctil envía un evento táctil a la unidad 160 de control, la unidad 160 de control comprueba la información sobre la ubicación y el tipo de un evento táctil recibido, comprueba una imagen visualizada mapeada con la ubicación de un evento táctil, y luego activa una función particular vinculada a la imagen visualizada.
Con referencia continua a la Figura 1, la unidad 150 de memoria almacena una variedad de aplicaciones y datos necesarios para la operación del dispositivo móvil, incluyendo un mapa de teclas o un mapa de menús para la operación de la pantalla 140 táctil. En este caso, un tal mapa de teclas o mapa de menús puede proporcionarse de diversas formas. Es decir, el mapa de teclas puede comprender, por ejemplo, un mapa de teclado, un mapa de teclas 3*4, un mapa de teclas QWERTY, un mapa de teclas Dvorak o similares. Además, el mapa de teclas puede incluir un mapa de teclas de control adecuado para la operación de una aplicación actualmente activada. Además, el mapa de menús puede comprender un mapa de menús específico adecuado para la operación de una aplicación actualmente activada u otro mapa de menús que tenga varios artículos de menú utilizados para el dispositivo móvil. La unidad 150 de memoria puede incluir una región de programa y una región de datos.
La región de programa también puede almacenar un sistema operativo (SO) para arrancar el dispositivo móvil y para operar los elementos antes mencionados, una aplicación para soportar una función de llamada, un navegador web para soportar el acceso a un servidor de Internet, una aplicación para reproducir un archivo de música, una aplicación para visualizar un archivo de imagen, una aplicación para reproducir un archivo de vídeo, y similares, sólo para nombrar unas pocas posibilidades.
En particular, la región de programa de acuerdo con una realización ejemplar de la presente invención puede almacenar una aplicación de operación basada en el tacto para soportar funciones relacionadas con el tacto. Esta aplicación de operación basada en el tacto puede incluir una rutina de control para controlar el desplazamiento de una lista relacionada con la comunicación cuando un usuario invoca el primer tipo de un evento táctil en la primera dirección, por ejemplo, una dirección desplazable, una rutina de control para controlar la ejecución de una función particular definida en los artículos dispuestos en la lista relacionada con la comunicación cuando un usuario invoca el segundo tipo de un evento táctil en la segunda dirección, por ejemplo, una dirección no desplazable, y cualquier otra rutina de control necesaria. Además, la región de programa puede incluir una rutina para variar una imagen de un artículo seleccionado en respuesta a la ocurrencia de un evento táctil.
La región de datos almacena preferentemente los datos creados a la vez que se utiliza el dispositivo móvil. Específicamente, la región de datos puede almacenar datos del usuario asociados con varias funciones opcionales que ofrece el dispositivo móvil, incluyendo datos de la agenda telefónica, al menos un icono asociado con una función de widget, una gran variedad de contenidos, etc. Además, la región de datos también puede almacenar datos de entrada recibidos a partir de un usuario a través de la pantalla 140 táctil.
En particular, la región de datos de acuerdo con una realización ejemplar de la presente invención puede almacenar una tabla de mapeo la cual defina las relaciones entre los artículos dispuestos en una lista relacionada con la comunicación, las funciones ejecutables asignadas a los respectivos artículos, el tipo de eventos táctiles que se producirán en los artículos, y una función particular que se ejecutará dependiendo de la ocurrencia de un evento táctil. Por ejemplo, cada artículo en la lista relacionada con la comunicación puede estar vinculado a al menos una función de “una marcación de llamada de voz”, una “escritura de mensaje”, “una escritura de correo electrónico”, “una marcación de videollamada” y “una eliminación de un artículo”.
Con referencia continua a la Figura 1, la unidad 160 de control realiza una función de control general relacionada con el dispositivo móvil y controla el flujo de señales entre los elementos del dispositivo móvil. Específicamente, cuando se visualiza en la unidad 141 de visualización una lista desplazable relacionada con la comunicación que tiene al menos un artículo y también se produce un evento táctil determinado en un artículo seleccionado en una dirección no desplazable, la unidad 160 de control lee una tabla de mapeo almacenada en la región de datos de la unidad 150 de memoria. Luego, la unidad 160 de control recupera a partir de la tabla la información sobre una función concreta asignada al artículo seleccionado y al evento táctil. Por lo tanto, la unidad 160 de control puede ofrecer información adecuada en diversas formas de texto, gráfico, y/o sonido y para informar a un usuario sobre una función seleccionada para ser ejecutada por un evento táctil del usuario. A continuación, cuando un evento táctil supera un punto crítico para activar una función seleccionada, la unidad 160 de control ejecuta una función seleccionada. En este caso, la unidad 160 de control también puede ofrecer determinados efectos gráficos en conexión con la ejecución de una función seleccionada.
La Figura 2 es una vista de ejemplo que ilustra un procedimiento de operación basado en el tacto en un dispositivo móvil de acuerdo con la primera realización ejemplar de la presente invención. En otras palabras, la Figura 2 muestra una interfaz de usuario en base a un registro de llamadas y también un procedimiento basado en el tacto de ejecución de una función particular.
Ahora con referencia a la Figura 2, como se muestra en la primera pantalla 101, la unidad 141 de visualización puede incluir una región 11 de indicador, una región 13 de título, una región 15 de lista, y una región 17 de tecla de control.
La región 11 de indicador emite varios iconos que indican el estado del dispositivo móvil. Por ejemplo, la región 11 de indicador puede contener un icono que indique la intensidad de las señales recibidas en la unidad de RF, un icono que indique un modo de silencio, un icono que indique la cantidad de batería utilizable, y similares.
La región 13 de título emite el título de una lista relacionada con la comunicación que se visualiza en la región 15 de lista. En un ejemplo de la Figura 2, la región 13 de título identifica una lista visualizada en la región 15 de lista es un registro de llamadas.
La región 15 de lista emite al menos un artículo de una lista relacionada con la comunicación que tiene un título mostrado en la región 13 de título. Es decir, si la región 13 de título visualiza un registro de llamadas, la región 15 de lista muestra artículos detallados de la ocurrencia de llamadas, cada uno de los cuales se representa como un identificador de llamada en la Figura 2. Estos artículos pueden clasificarse o disponerse de acuerdo con sus tipos, tales como una llamada marcada, una llamada recibida, una llamada perdida, etc. Además, la región 15 de lista puede emitir además una casilla 21 de prefijo en cada artículo, como se muestra en los dibujos. La casilla 21 de prefijo puede mostrar iconos específicos que indican los tipos de artículos o, alternativamente, mostrar imágenes de los identificadores de llamadas.
La región 17 de tecla de control puede visualizar, por ejemplo, una salida de una tecla de retroceso, una tecla OK y una tecla de menú. La tecla de retroceso se utiliza para ordenar un regreso a la página anterior. La tecla OK se utiliza para ordenar la activación de una función determinada, tal como la visualización de información detallada, posterior a la selección de un artículo. La tecla de menú se utiliza, por ejemplo, para ordenar el despliegue de una lista de menú. La región 17 de tecla de control puede ser eliminada o parcialmente disponible de acuerdo con la intención del fabricante o la configuración del usuario.
Como se ha mencionado anteriormente, la región 15 de lista dispone un número de artículos, por ejemplo, “ID 1 de llamada, ID 2 de llamada, ID 3 de llamada, ID 4 de llamada, e ID 5 de llamada” como se muestra. Normalmente, la región 15 de lista puede ofrecer una función de desplazamiento para mover verticalmente tales artículos a través de la pantalla. Con el fin de desplazar una lista visualizada, un usuario puede tocar un lugar arbitrario (por ejemplo, “ ID 3 de llamada” como se muestra) y luego arrastrar en la primera dirección, por ejemplo, una dirección desplazable, una dirección vertical como se muestra, sin liberar un toque de la pantalla.
Además, un usuario puede seleccionar intencionadamente un artículo específico (por ejemplo, “ID 3 de llamada”) como se muestra en la segunda pantalla 103 con el fin de activar una de las funciones definidas en ese artículo. Es decir, un usuario que desea seleccionar un artículo específico puede invocar el primer evento táctil, tal como un evento de toma de contacto en ese artículo. Luego, el dispositivo móvil puede ofrecer una retroalimentación visual a un usuario con el fin de indicar la selección de un artículo específico. Por ejemplo, una imagen de un artículo seleccionado se representa como un color distintivo o el color inverso, y/o o resaltado.
Si el dispositivo móvil tiene un teclado típico tal como 3 x 4, 4x3, QWERTY o DVORAK, un usuario puede seleccionar un artículo específico utilizando una tecla de navegación o una tecla numérica del teclado. Mientras tanto, el dispositivo móvil puede cambiar la información visualizada sobre un artículo seleccionado. Es decir, el “ ID 3 de llamada” que representa un artículo específico en la primera pantalla 101 antes de ser seleccionado se cambia al “Número” de ese artículo en la segunda pantalla 103 después de ser seleccionado. Por ejemplo, “ID 3 de llamada” puede ser “John”, y “Número” puede ser el número de teléfono de John registrado en la agenda telefónica. De manera alternativa, si “ ID 3 de llamada” es un número de teléfono de un determinado destinatario, “Número” puede ser cualquier otro índice de ese destinatario registrado en la agenda telefónica. A veces, es posible que un determinado artículo en una lista visualizada no esté registrado en la agenda telefónica. Este artículo no se cambia después de ser seleccionado.
Después de seleccionar un artículo específico, un usuario puede invocar el segundo evento táctil para desplazarse por una lista visualizada como se ha mencionado anteriormente. Es decir, como se muestra en la segunda pantalla 103, un usuario que realiza un evento de toma de contacto en un determinado artículo (por ejemplo, “ ID 3 de llamada” como se muestra) puede mover un punto táctil hacia arriba o hacia abajo en la región 15 de lista. Luego, el dispositivo móvil reconoce este evento de arrastre como una señal de entrada para un desplazamiento, y, por lo tanto, cambia la visualización en la región 15 de lista. Es decir, si existen artículos adicionales no visualizados en la región 15 de lista, tales artículos pueden aparecer uno a uno a través de un desplazamiento. A la vez que se desplaza una lista, el dispositivo móvil puede eliminar una retroalimentación visual que indique la selección de un artículo específico. Es decir, una imagen de un artículo seleccionado se representa como un color original o no se resalta cuando se realiza un desplazamiento.
Un evento táctil para realizar una función de desplazamiento no se limita al antes mencionado toque y arrastre. De manera alternativa, se puede realizar una función de desplazamiento, por ejemplo, por medio de un evento de deslizamiento. Mientras tanto, el movimiento de una lista mediante un desplazamiento puede depender de una distancia recorrida de un evento de arrastre o de una magnitud de aceleración de un evento de deslizamiento, y también puede fijarse o cambiarse mediante una regla de diseño o una configuración del usuario.
Con referencia continua a la Figura 2, después de seleccionar un artículo específico (por ejemplo, “ ID 3 de llamada”) como se muestra en la segunda pantalla 103, un usuario que desee utilizar una función particular puede invocar el segundo evento táctil en un artículo seleccionado en la segunda dirección, por ejemplo, una dirección no desplazable como se muestra en la tercera o cuarta pantalla 105 o 107. Por ejemplo, si un usuario barre o arrastra un artículo tocado en una dirección hacia la derecha, el dispositivo móvil mueve el artículo tocado hacia la derecha, como se muestra en la tercera pantalla 105. Luego, el dispositivo móvil emite información sobre una función ejecutable específica (por ejemplo, “Llamar”, como se muestra) asignada a un evento táctil hacia la derecha en este artículo “ ID 3 de llamada” en forma de texto o imagen a la izquierda del artículo movido. A continuación, cuando este evento táctil supera un punto crítico determinado, el dispositivo móvil puede ejecutar una función seleccionada.
De manera alternativa, si un usuario barre o arrastra un artículo tocado en dirección hacia la izquierda, el dispositivo móvil mueve el artículo tocado hacia la izquierda como se muestra en la cuarta pantalla 107. Luego, el dispositivo móvil emite información sobre una función ejecutable específica (por ejemplo, “SMS”, como se muestra) asignada a un evento táctil hacia la izquierda en este elemento “ID 3 de llamada” en forma de texto o imagen a la derecha del artículo movido. A continuación, cuando este evento táctil supera un punto crítico determinado, el dispositivo móvil puede ejecutar una función seleccionada.
Mientras tanto, cuando un usuario barre o arrastra un artículo tocado, el dispositivo móvil puede ofrecer una retroalimentación visual para la función particular que aparece, así como el artículo tocado y movido, como se muestra en las pantallas 105 y 107 tercera y cuarta. Además, al ofrecer una retroalimentación visual para la función particular que aparece a la izquierda o a la derecha del artículo movido, el dispositivo móvil puede utilizar a menudo el mismo color y forma. Sin embargo, a veces se pueden utilizar colores y formas diferentes para mejorar la distinción intuitiva entre las diferentes funciones asignadas respectivamente a los eventos táctiles hacia la izquierda y hacia la derecha.
Como se ha discutido completamente en el presente documento, el dispositivo móvil de acuerdo con una realización ejemplar de la presente invención permite ejecutar una función particular predefinida en uno de los artículos seleccionados dispuestos en una lista desplazable relacionada con la comunicación, sin requerir ninguna vista de página adicional, cuando un usuario invoca un evento táctil en el artículo seleccionado en una dirección no desplazable, la cual en el caso sería al menos a la izquierda y a la derecha. Por lo tanto, un usuario puede seleccionar fácilmente un artículo y utilizar rápidamente una función deseada en una sola pantalla sin necesidad de ninguna página o entrada adicional.
La Figura 3 es una vista de ejemplo que ilustra un procedimiento de operación basado en el tacto en un dispositivo móvil de acuerdo con la segunda realización ejemplar de la presente invención. En otras palabras, la Figura 3 muestra una interfaz de usuario en base a una agenda telefónica y también un procedimiento basado en el tacto de ejecución de una función particular.
Ahora con referencia a la Figura 3, como se muestra en la primera pantalla 201, la unidad 141 de visualización puede incluir una región 11 de indicador, una región 13 de título, una región 15 de lista, y una región 17 de tecla de control. Dado que la región 11 de indicador y la región 17 de tecla de control son las mismas que las descritas en la Figura 2, se omitirán en la presente memoria las descripciones sobre ellos.
La región 13 de título visualiza una salida del título de una lista relacionada con la comunicación que se visualiza en la región 15 de lista. En el ejemplo de la Figura 3, la región 13 de título indica que una lista visualizada en la región 15 de lista es una agenda telefónica.
La región 15 de lista emite al menos un artículo de una lista relacionada con la comunicación que tiene un título que se muestra en la región 13 de título. Es decir, si la región 13 de título muestra una agenda telefónica, la región 15 de lista muestra artículos detallados de una agenda telefónica, tales como el nombre de un destinatario, el número de teléfono, la imagen, el historial de comunicaciones, y similares. La Figura 3 muestra los nombres de los destinatarios dispuestos como artículos. Estos artículos pueden clasificarse o disponerse de acuerdo con el alfabeto, un número de teléfono, y similares. Además, cada artículo puede tener una casilla de prefijo para emitir una imagen redimensionada de la imagen del destinatario.
Como se ha mencionado anteriormente, la región 15 de lista puede disponer los nombres de los destinatarios, por ejemplo, “Adam, Aura Bill, Bill, Chul-su, y Crimson” como se muestra. Normalmente, la región 15 de lista puede ofrecer una función de desplazamiento para mover verticalmente tales artículos a través de la pantalla. Con el fin de desplazarse por una lista visualizada, un usuario puede tocar un lugar arbitrario (por ejemplo, “Bill” como se muestra) y luego arrastrar en una dirección desplazable (por ejemplo, una dirección vertical como se muestra) sin liberar un toque de la pantalla.
Por ejemplo, si un usuario invoca un evento táctil y de arrastre en una dirección ascendente, como se muestra en la segunda pantalla 203, el dispositivo móvil visualiza una lista de la agenda telefónica desplazada hacia arriba. Es decir, algunos artículos “Adam, Aura Bill” desaparecen de la pantalla, y en su lugar aparecen en la pantalla otros artículos “Drakoon, Duri”. A la vez que se desplaza una lista, el dispositivo móvil puede eliminar una retroalimentación visual que indique un artículo tocado (por ejemplo, “Bill” en la primera pantalla 201). Es decir, una imagen de un artículo seleccionado se representa como un color original o no se resalta cuando se realiza un desplazamiento.
Mientras tanto, cuando un usuario toca un artículo específico (por ejemplo, “Bill”) como se muestra en la primera pantalla 201, el dispositivo móvil puede ofrecer una retroalimentación visual a un usuario con el fin de indicar la selección de un artículo específico. Por ejemplo, la imagen de un artículo seleccionado “Bill” se representa como un color distintivo o el color inverso, o se resalta. Si el dispositivo móvil tiene un teclado normal, un usuario puede seleccionar un artículo específico utilizando una tecla de navegación o una tecla numérica del teclado. También puede haber un fondo pulsante o intermitente.
Un evento táctil para realizar una función de desplazamiento no se limita al antes mencionado toque y arrastre. De manera alternativa, la función de desplazamiento puede ser realizada por medio de un evento de deslizamiento. Mientras tanto, el movimiento de una lista mediante un desplazamiento puede depender de una distancia recorrida de un evento de arrastre o de una magnitud de aceleración de un evento de deslizamiento, y también puede fijarse o cambiarse mediante una regla de diseño o una configuración del usuario.
Con referencia continua a la Figura 3, después de seleccionar un artículo específico (por ejemplo, “Bill”) como se muestra en la primera pantalla 201, un usuario que desea utilizar una función particular puede invocar el segundo evento táctil en un artículo seleccionado en una dirección no desplazable como se muestra en la tercera o cuarta pantalla 205 o 207. Por ejemplo, si un usuario barre o arrastra un artículo tocado en una dirección hacia la izquierda, el dispositivo móvil mueve el artículo tocado hacia la izquierda, como se muestra en la tercera pantalla 205. Luego, el dispositivo móvil emite información sobre una función ejecutable específica (por ejemplo, “Eliminar”, como se muestra) asignada a un evento táctil hacia la izquierda en este artículo “Bill” en forma de texto o imagen a la derecha del artículo movido. A continuación, cuando este evento táctil supera un punto crítico determinado, el dispositivo móvil puede ejecutar una función seleccionada.
Específicamente, cuando el artículo tocado “Bill” se mueve, el dispositivo móvil puede ofrecer una retroalimentación visual tal como pasar una página o despegar una cinta adhesiva estrecha como se muestra en la tercera pantalla 205. Por lo tanto, cuando el borde derecho del artículo tocado se mueve hacia la izquierda, la porción restante del artículo tocado puede parecer reducida. En este caso, tal visualización puede modificarse de varias formas. Además, el movimiento del borde derecho del artículo tocado puede depender del evento táctil y arrastrar o barrer. Es decir, la distancia recorrida y la velocidad del borde derecho del artículo tocado pueden variar de acuerdo con la distancia y la velocidad de una acción de arrastre o barrido.
Por otro lado, si un usuario barre o arrastra un artículo tocado “Bill” en dirección hacia la derecha, el dispositivo móvil mueve el artículo tocado a la derecha como se muestra en el rollo en la cuarta pantalla 207. Luego, el dispositivo móvil emite información sobre una función ejecutable específica (por ejemplo, “Editar”, como se muestra) asignada a un evento táctil hacia la derecha en este artículo “Bill” en forma de texto o imagen a la izquierda del artículo movido. A continuación, cuando este evento táctil supera un punto crítico determinado, el dispositivo móvil puede ejecutar una función seleccionada.
Específicamente, cuando el artículo tocado “Bill” se mueve, el dispositivo móvil puede ofrecer una retroalimentación visual como si el borde izquierdo del artículo tocado se enrollara como se muestra en la cuarta pantalla 207. Por lo tanto, cuando el borde izquierdo del artículo tocado se mueve hacia la derecha, la porción restante del artículo tocado puede parecer reducida. En este caso, tal visualización puede modificarse de varias formas.
Mientras tanto, cuando un usuario barre o arrastra un artículo tocado, el dispositivo móvil también puede ofrecer una retroalimentación visual para la función particular que aparece, así como el artículo tocado y movido, como se muestra en las pantallas 205 y 207 tercera y cuarta. Al ofrecer una retroalimentación visual para la función concreta que aparece a la izquierda o a la derecha del artículo movido, el dispositivo móvil puede utilizar a menudo el mismo color y forma. Sin embargo, a veces se pueden utilizar colores y formas diferentes para mejorar la distinción intuitiva entre las diferentes funciones asignadas respectivamente a los eventos táctiles hacia la izquierda y hacia la derecha.
Aunque las Figuras 2 y 3 utilizan “Llamar”, “SMS”, “Eliminar” y “Editar” como funciones ejecutables específicas predefinidas en un artículo seleccionado, estos términos son sólo ejemplares y no deben considerarse como una limitación de la invención actualmente reivindicada. Cualquier otra función ejecutable también puede ser asignada a los artículos respectivos y puede, si es necesario, ser cambiada por un usuario.
La Figura 4 es una vista ejemplar que ilustra un procedimiento de operación basado en el tacto en un dispositivo móvil de acuerdo con la tercera realización ejemplar de la presente invención. En otras palabras, la Figura 4 muestra una interfaz de usuario en base a una lista de mensajes y también un procedimiento basado en el tacto de ejecución de una función particular.
Ahora con referencia a la Figura 4, como se muestra en la primera pantalla 301, la unidad 141 de visualización puede incluir una región 11 de indicador, una región 13 de título, una región 15 de lista, y una región 17 de tecla de control, todas ellas descritas anteriormente en la presente memoria.
La región 13 de título emite el título de una lista relacionada con la comunicación que se visualiza en la región 15 de lista. En el ejemplo de la Figura 4, la región 13 de título identifica que una lista visualizada en la región 15 de lista es una casilla de mensajes recibidos. En este caso, se puede utilizar de manera alternativa una casilla de mensajes transmitidos o una casilla de todos los mensajes en la región 13 de título.
La región 15 de lista emite al menos un artículo de una lista relacionada con la comunicación que tiene un título que se muestra en la región 13 de título. Es decir, si la región 13 de título visualiza la indicación de una casilla de mensajes recibidos, la región 15 de lista muestra los artículos detallados en la casilla de mensajes recibidos, es decir, los mensajes recibidos. Estos artículos pueden clasificarse o disponerse de acuerdo con el orden de recepción y similares. Además, cada artículo puede tener una casilla de prefijo para emitir un icono en forma de sobre que indique un mensaje recibido.
Como se ha mencionado anteriormente, la región 15 de lista puede disponer la información sobre los mensajes recibidos, por ejemplo, “010-9797-7903, John, Adam, 1004, y 070-2663-7814” como se muestra. Si el remitente de un mensaje recibido está registrado en la agenda telefónica, la información emitida en la región 15 de lista puede ser un índice específico, por ejemplo, tal como el nombre del remitente registrado en la agenda telefónica. En este ejemplo, “John, Adam” son remitentes registrados en la agenda telefónica. Si el remitente de un mensaje recibido no está registrado en la agenda telefónica, la información emitida en la región 15 de lista puede ser sólo un número de teléfono.
Como se ha discutido anteriormente, la región 15 de lista puede ofrecer una función de desplazamiento para mover tales artículos verticalmente a través de la pantalla. Con el fin de desplazarse por una lista visualizada, un usuario puede tocar un lugar arbitrario (por ejemplo, “Adam” como se muestra) y luego arrastrar en una dirección desplazable (por ejemplo, una dirección vertical como se muestra) sin liberar un toque de la pantalla.
Por ejemplo, si un usuario invoca un evento táctil y de arrastre en una dirección ascendente como se muestra en la segunda pantalla 303, el dispositivo móvil visualiza una lista desplazada hacia arriba. Es decir, algún artículo “010­ 9797-7903” mostrado en la pantalla 301 desaparece de la segunda pantalla 303, y en su lugar aparece en la pantalla otro artículo “Yuna”. A la vez que se desplaza una lista, el dispositivo móvil puede eliminar una retroalimentación visual que indique un artículo tocado (por ejemplo, “Adam” en la primera pantalla 301). Es decir, una imagen de un artículo seleccionado se representa como un color original o no se resalta cuando se realiza un desplazamiento.
Mientras tanto, cuando un usuario toca un artículo específico (por ejemplo, “Adam”) como se muestra en la primera pantalla 301, el dispositivo móvil puede ofrecer una retroalimentación visual a un usuario con el fin de indicar la selección de un artículo específico. Por ejemplo, una imagen de un artículo seleccionado “Adam” puede representarse como un color distintivo, brillo, flash, o el color inverso, cambiar de tamaño, o convertirse en resaltado, etc., sólo para nombrar unas pocas posibilidades. Si el dispositivo móvil tiene un teclado normal, un usuario puede seleccionar un artículo específico utilizando una tecla de navegación o una tecla numérica del teclado.
Un evento táctil para realizar una función de desplazamiento no se limita al antes mencionado toque y arrastre. De manera alternativa, por ejemplo, una función de desplazamiento puede ser realizada por medio de un evento de deslizamiento. Mientras tanto, el movimiento de una lista mediante un desplazamiento puede depender de una distancia recorrida de un evento de arrastre o de una magnitud de aceleración de un evento de deslizamiento, y también puede fijarse o cambiarse mediante una regla de diseño o una configuración del usuario.
Después de seleccionar un artículo específico (por ejemplo, “Adam”) como se muestra en la primera pantalla 301 de la Figura 4, un usuario que desee utilizar una función particular puede invocar el segundo evento táctil sobre un artículo seleccionado en una dirección no desplazable, como se muestra en la tercera o cuarta pantalla 305 o 307. Por ejemplo, si un usuario barre o arrastra un artículo tocado en una dirección hacia la izquierda, el dispositivo móvil mueve el artículo tocado hacia la izquierda, como se muestra en la tercera pantalla 305. Luego, el dispositivo móvil emite información sobre una función ejecutable específica (por ejemplo, “Responder”, como se muestra) asignada a un evento táctil hacia la izquierda en este elemento “Adam” en forma de texto o imagen a la derecha del artículo movido. A continuación, cuando este evento táctil supera un punto crítico determinado, el dispositivo móvil puede ejecutar una función seleccionada.
Más específicamente, cuando el artículo tocado “Adam” es movido, el dispositivo móvil puede ofrecer una retroalimentación visual como si una imagen del artículo tocado fuera rotada como se muestra en la tercera pantalla 305. Es decir, la parte izquierda de la imagen de un artículo se gira hacia el lado posterior, y la parte derecha se gira hacia el lado delantero. Además, una tal rotación puede representarse en perspectiva. En este caso, tal visualización puede modificarse de varias formas.
En particular, cuando una rotación excede un ángulo determinado tal como, por ejemplo, aproximadamente 60 grados, el dispositivo móvil puede ejecutar una función seleccionada “Repetir”. Además, la cantidad de rotación de la imagen de un artículo puede depender de la distancia y la velocidad de una acción de arrastre o barrido. Si se libera un toque antes de que la rotación alcance un ángulo determinado, la imagen del artículo tocado puede ser devuelta a una imagen original.
De manera alternativa, cuando se produce un evento de liberación táctil, el dispositivo móvil puede mantener la apariencia de una función ejecutable. En este caso, si un usuario toca una porción de una función ejecutable, el dispositivo móvil puede ejecutar una función seleccionada. En otro caso, el dispositivo móvil puede ofrecer información sobre una función ejecutable en forma de botón o similar.
Por otro lado, si un usuario barre o arrastra un artículo tocado “Adam” en una dirección hacia la derecha, el dispositivo móvil mueve el artículo tocado hacia la derecha como se muestra en la cuarta pantalla 307. Luego, el dispositivo móvil emite información sobre una función ejecutable específica (por ejemplo, “Hacia adelante”, como se muestra) asignada a un evento táctil hacia la derecha en este artículo “Adam” en forma de texto o imagen a la izquierda del artículo movido. A continuación, cuando este evento táctil supera un punto crítico determinado, el dispositivo móvil puede ejecutar una función seleccionada.
Además, cuando el artículo tocado “Adam” se mueve, el dispositivo móvil puede ofrecer una retroalimentación visual como si una imagen del artículo tocado se eliminara parcial y gradualmente, como se muestra en la cuarta pantalla 307. Es decir, la imagen de un artículo comienza a desaparecer de la parte derecha. Por lo tanto, el borde derecho de la imagen del artículo se mueve hacia la izquierda el lado delantero, a la vez que la información sobre una función ejecutable aparece gradualmente. En este caso, tal visualización puede modificarse de diversas formas, y las presentes reivindicaciones no se limitan a los ejemplos que se muestran y describen en la presente memoria.
Mientras tanto, como se mencionó anteriormente, una función particular asignada a un artículo seleccionado se ejecuta cuando un evento de arrastre o barrido supera un punto crítico determinado en una lista de registro de llamadas, una lista de agenda telefónica, o una lista de mensajes. Específicamente, el dispositivo móvil puede ejecutar una función particular tan pronto como un evento de arrastre o barrido va más allá de un punto crítico o cuando se produce un evento de liberación táctil después de ir más allá de un punto crítico. Un tal punto crítico puede cambiar dependiendo de la variación de la imagen de un artículo o de la ubicación de un evento táctil.
Un punto crítico puede establecerse en cualquier posición del artículo tocado o en los límites izquierdo y derecho de este. Si el artículo tocado está rotado, se puede establecer un punto crítico en un eje de rotación. Además, un punto crítico puede ser desplazado más allá de la ubicación de un evento de toma de contacto o fijarse independientemente de la ubicación de un evento de toma de contacto.
Mientras tanto, en algunos casos, el dispositivo móvil puede cambiar una imagen de retroalimentación ofrecida para indicar un evento de arrastre o barrido a medida que tiene lugar. Por ejemplo, si un evento de arrastre o barrido se desvía de una dirección no desplazable o se libera de la pantalla en la mitad del recorrido antes de alcanzar un punto crítico, el dispositivo móvil puede eliminar una imagen de retroalimentación y visualizar en su lugar una imagen original. Además, aunque se sobrepase un punto crítico, un evento de arrastre o barrido que se desvíe de una dirección no desplazable puede no producir la ejecución de una función particular.
En otras palabras, el dispositivo móvil puede eliminar una imagen de retroalimentación, es decir, el efecto de variación de la imagen, en al menos uno de los casos donde un evento de arrastre o barrido se libera antes de pasar a través de un punto crítico, donde un evento de arrastre o barrido se libera después de pasar a través de un punto crítico, donde un evento de arrastre o barrido se desvía de una dirección no desplazable antes de pasar a través de un punto crítico, y donde un evento de arrastre o barrido se desvía de una dirección no desplazable después de pasar a través de un punto crítico.
Además, cuando se selecciona un artículo específico de los dispuestos en una lista relacionada con la comunicación, el dispositivo móvil puede informar a un usuario, en forma de un visual o cualquier otra manera, si un artículo seleccionado es mapeado con cualquier función ejecutable. Por ejemplo, si un usuario invoca un evento de toma de contacto para seleccionar un artículo específico que tenga asignada al menos una función ejecutable, el dispositivo móvil puede ofrecer un efecto gráfico determinado, tal como un resaltado o indicadores hacia la derecha y hacia la izquierda, que indique que un artículo seleccionado está disponible para la ejecución de una función predefinida.
Sin embargo, si un artículo seleccionado (por ejemplo, un número de teléfono) no está disponible para la ejecución de ninguna función, el dispositivo móvil puede ofrecer un efecto gráfico adecuado, tal como una línea discontinua en el borde de un artículo seleccionado o una imagen que indique que no hay función ejecutable. En algunos casos, si un artículo seleccionado no tiene una función ejecutable de comunicación, tal como una función de marcación de llamadas, o una función de escritura de mensajes, el dispositivo móvil puede ofrecer una función de “eliminación” sólo a ese artículo. Además, el dispositivo móvil puede determinar si un número de teléfono seleccionado es válido o predefinido. Es decir, si un número de teléfono seleccionado es un número incompleto, tal como “1004” o “7979”, o tiene un número de prefijo determinado, tal como “070-xxx-xxxx”, el dispositivo móvil puede establecer de manera automática una función particular determinada para ese número.
La Figura 5 es un diagrama de flujo que ilustra un procedimiento de operación basado en el tacto en un dispositivo móvil de acuerdo con una realización ejemplar de la presente invención;
Ahora con referencia a la Figura 5, en la etapa (S101), cuando se suministra energía eléctrica, el dispositivo móvil inicializa sus elementos y emite una página determinada de inactividad en la unidad de visualización. Además, el dispositivo móvil activa el panel táctil de la unidad de visualización para detectar un toque de un usuario.
A continuación, en la etapa (S103) un dispositivo móvil determina si se recibe o no una señal de entrada para visualizar una lista relacionada con la comunicación. Si se recibe cualquier otra señal de entrada, entonces en la etapa (S105) el dispositivo móvil realiza otra función, tal como la reproducción de un archivo o la recepción de una emisión, en respuesta a la señal de entrada recibida.
Si la señal de entrada recibida es para visualizar una lista relacionada con la comunicación, luego en la etapa (S107) el dispositivo móvil emite una lista adecuada, tal como una lista de registro de llamadas, una lista de agenda telefónica, una lista de mensajes, una lista de correo electrónico, una lista de mensajería, o similares, en respuesta a la señal de entrada recibida. Luego, en la etapa (S109), el dispositivo móvil determina si se produce un evento de toma de contacto en uno de los artículos seleccionados dispuestos en la lista relacionada con la comunicación. Si no se produce ningún evento de toma de contacto, el dispositivo móvil mantiene la etapa anterior S107. Sin embargo, si se produce un evento de toma de contacto, luego en la etapa (S111) el dispositivo móvil selecciona el artículo tocado y también ofrece una retroalimentación visual para el artículo seleccionado.
A continuación, en la etapa (S113), el dispositivo móvil determina si un evento táctil posterior, tal como un evento de arrastre o barrido, se produce en una dirección desplazable sin liberar el toque.
Si un tal evento de arrastre o barrido se produce en una dirección desplazable, luego en la etapa (S115) el dispositivo móvil desplaza la lista relacionada con la comunicación en respuesta al evento de arrastre o barrido.
Sin embargo, en la etapa (S117), si un tal evento de arrastre o barrido se produce en una dirección no desplazable, el dispositivo móvil ejecuta una función particular predefinida en el artículo seleccionado en respuesta a la dirección del evento de arrastre o barrido y al tipo de la lista relacionada con la comunicación. Como se ha discutido anteriormente, las funciones predefinidas en conexión con los artículos pueden incluir una marcación de llamada, la escritura de un mensaje, la escritura de un correo electrónico, la escritura de un texto para mensajería, la eliminación de un artículo, y la entrega de una información determinada.
Los procedimientos descritos anteriormente de acuerdo con la presente invención pueden realizarse en hardware o como software o código informático que pueden almacenarse en un medio de grabación tal como un CD ROM, una memoria RAM, una unidad de memoria USB, un disquete, un almacenamiento flash, un disco duro, o un disco magneto-óptico o descargarse a través de una red y almacenarse como un dato no transitorio en uno de los medios antes mencionados, de modo que los procedimientos descritos en la presente memoria puedan ser ejecutados por tal software utilizando un ordenador de propósito general, o un procesador especial o en hardware programable o dedicado, tal como un ASIC o FPGA. Como se entiende en la técnica, el ordenador, el procesador o el hardware programable incluyen componentes de memoria, por ejemplo, RAM, ROM, Flash, etc. que pueden almacenar o recibir software o código informático que, cuando se accede a ellos y son ejecutados por el ordenador, el procesador o el hardware, implementan los procedimientos de procesamiento descritos en la presente memoria. Además, se reconoce que cuando un ordenador de propósito general accede al código para implementar el procesamiento que se muestra en la presente memoria, la ejecución del código transforma el ordenador de propósito general en un ordenador de propósito especial para ejecutar el procesamiento que se muestra en la presente memoria.
A la vez que la presente invención se muestra de manera particular y se describe con referencia a una realización ejemplar de la misma, se entenderá por aquellos expertos en la técnica que diversos cambios en la forma y los detalles se pueden hacer en el mismo sin apartarse del ámbito de la invención como se define por las reivindicaciones adjuntas. Por ejemplo, aunque a lo largo de la memoria descriptiva se ha divulgado el toque del usuario, un artesano aprecia que la invención reivindicada sea aplicable con otros tipos de contacto, tales como a través de un lápiz óptico, o a través del uso de un dispositivo de señalamiento tal como un ratón. Además, aunque es preferente un dispositivo móvil para las explicaciones proporcionadas en la presente memoria, la invención reivindicada es aplicable a muchos otros tipos de dispositivos, incluidos, pero de ninguna manera limitado a, los ordenadores personales, los ordenadores portátiles, las tabletas, los ordenadores portátiles, y los Asistentes Digitales Personales (PDAS).

Claims (15)

REIVINDICACIONES
1. Un procedimiento para la operación basado en el tacto en un dispositivo móvil, el procedimiento comprende:
visualizar (S107), en una pantalla (141,143) táctil del dispositivo móvil, una lista relacionada con la comunicación que comprende una pluralidad de artículos;
detectar (S109), en la pantalla (141,143) táctil, una primera entrada táctil en una primera ubicación de toma de contacto en un primer artículo de la pluralidad de artículos;
en respuesta a la detección de un movimiento de la primera entrada táctil a partir de la primera ubicación de toma de contacto en una primera dirección hacia un primer lado del primer artículo, mover (S113) el primer artículo en la pantalla (141,143) táctil en la primera dirección correspondiente al movimiento de la primera entrada táctil, y visualizar un primer icono en un segundo lado del primer artículo, en el que el primer icono representa una función ejecutable asignada al movimiento de la primera entrada táctil en la primera dirección en el primer artículo, y en el que el segundo lado del primer artículo es opuesto al primer lado; y ejecutar (S117) la función ejecutable en respuesta a la detección de al menos el movimiento de la primera entrada táctil en la primera dirección hasta un punto más allá de un primer punto crítico el cual cambia dependiendo de la primera ubicación de toma de contacto.
2. El procedimiento de la reivindicación 1, en el que el primer lado del primer artículo es uno de un lado izquierdo del primer artículo o un lado derecho del primer artículo, y el segundo lado del primer artículo es el otro de un lado izquierdo del primer artículo y el lado derecho del primer artículo.
3. El procedimiento de la reivindicación 2, en el que:
si el primer lado del primer artículo es el lado izquierdo, la primera dirección es una dirección hacia la izquierda, y
si el primer lado del primer artículo es el lado derecho, la primera dirección es una dirección hacia la derecha.
4. El procedimiento de cualquier reivindicación anterior, en el que la ejecución de la función ejecutable incluye una de:
ejecutar la función ejecutable tan pronto como se produzca el movimiento detectado de la primera entrada táctil en la primera dirección más allá del primer punto crítico; y
ejecutar la función ejecutable si se produce un evento de liberación táctil después del movimiento detectado de la primera entrada táctil en la primera dirección más allá del primer punto crítico.
5. El procedimiento de cualquier reivindicación anterior, en el que la visualización del primer icono comprende:
visualizar el primer artículo con una retroalimentación visual en respuesta al movimiento en la primera dirección, modificando la visualización del primer artículo en la pantalla (141,143) táctil a la vez que se mueve el primer artículo; y
en el que el movimiento detectado de la primera entrada táctil es un primer arrastre de dirección.
6. El procedimiento de la reivindicación 5, en el que el procedimiento comprende, además:
eliminar la retroalimentación visual cuando al menos uno de: (i) el primer arrastre de dirección se libera antes de alcanzar el primer punto crítico, (ii) el primer arrastre de dirección se desvía a partir de la primera dirección antes de pasar a través del primer punto crítico, y (iii) el primer arrastre de dirección se desvía a partir de la primera dirección después de pasar a través del primer punto crítico.
7. El procedimiento de cualquier reivindicación anterior, en el que la visualización del primer icono comprende:
en respuesta a la primera entrada táctil que se detecta en el primer artículo, visualizar el primer artículo con una retroalimentación visual a la vez que se mantiene la primera entrada táctil, de modo que el primer artículo que se toca se distingue por la retroalimentación visual de otros artículos de la pluralidad de artículo.
8. El procedimiento de cualquier reivindicación anterior, comprende, además, en respuesta a la detección de una segunda entrada táctil en una segunda ubicación de toma de contacto en un segundo artículo de la pluralidad de artículos, al menos uno de:
visualizar un efecto gráfico para el segundo artículo si éste no está disponible para la ejecución de cualquier función ejecutable; y
visualizar una función de eliminación de artículo sólo para el segundo artículo si el segundo artículo no está disponible para la ejecución de una función de comunicación.
9. Un dispositivo móvil que comprende:
una pantalla (141,143) táctil configurada para detectar una entrada táctil;
un procesador; y
una unidad (150) de memoria configurada para almacenar instrucciones ejecutables por ordenador las cuales, cuando son ejecutadas por el procesador, hacen que el dispositivo móvil:
controle la pantalla (141,143) táctil para que visualice una lista relacionada con la comunicación que comprende una pluralidad de artículos dispuestos en una pluralidad de filas respectivas;
detecte, a través de la pantalla (141,143) táctil, una primera entrada táctil en una primera ubicación de toma de contacto en un primer artículo de la pluralidad de artículos;
en respuesta a la detección de un movimiento de la primera entrada táctil a partir de la primera ubicación de toma de contacto en una primera dirección hacia un primer lado del primer artículo, mover (S113) el primer artículo en la pantalla (141,143) táctil en la primera dirección correspondiente al movimiento de la primera entrada táctil, y visualizar un primer icono en un segundo lado del primer artículo, en el que el primer icono representa una función ejecutable asignada al movimiento de la primera entrada táctil en la primera dirección en el artículo, y en el que el segundo lado del primer artículo es opuesto al primer lado; y
ejecuta (S117) la función ejecutable en respuesta a la detección de al menos el movimiento de la primera entrada táctil en la primera dirección hasta un punto más allá de un primer punto crítico el cual cambia dependiendo de la primera ubicación de toma de contacto.
10. El dispositivo móvil de la reivindicación 9, en el que el primer lado del primer artículo es uno de un lado izquierdo del primer elemento o un lado derecho del primer artículo, y el segundo lado del primer artículo es el otro de un lado izquierdo del primer elemento y un lado derecho del primer artículo.
11. El dispositivo móvil de la reivindicación 10, en el que:
si el primer lado del primer artículo es el lado izquierdo, la primera dirección es una dirección hacia la izquierda, y
si el primer lado del primer artículo es el lado derecho, la primera dirección es una dirección hacia la derecha.
12. El dispositivo móvil de cualquiera de las reivindicaciones 9 a 11, en el que las instrucciones ejecutables por ordenador, cuando son ejecutadas por el procesador, hacen además que el dispositivo móvil:
controle la pantalla (141,143) táctil para que visualice el primer artículo con una retroalimentación visual en respuesta al movimiento en la primera dirección, modificando la visualización del primer artículo en la pantalla (141,143) táctil a la vez que se mueve el primer artículo,
en el que el movimiento detectado de la primera entrada táctil es un primer arrastre de dirección.
13. El dispositivo móvil de la reivindicación 12, en el que las instrucciones ejecutables por ordenador, cuando son ejecutadas por el procesador, hacen además que el dispositivo móvil:
controle la eliminación de la retroalimentación visual cuando al menos uno de: (i) el primer arrastre de dirección se libera antes de alcanzar el primer punto crítico, (ii) el primer arrastre de dirección se desvía a partir de la primera dirección antes de pasar a través del primer punto crítico, y (iii) el primer arrastre de dirección se desvía a partir de la primera dirección después de pasar a través del primer punto crítico.
14. El dispositivo móvil de cualquiera de las reivindicaciones 9 a 13, en el que el primer icono comprende al menos uno de un texto y una imagen.
15. El dispositivo móvil de cualquiera de las reivindicaciones 9 a 14, en el que, para ejecutar la primera función ejecutable, las instrucciones ejecutables por ordenador, cuando son ejecutadas por el procesador, hacen además que el dispositivo móvil:
ejecute la función ejecutable tan pronto como se produzca el movimiento detectado de la primera entrada táctil en la primera dirección más allá del primer punto crítico; o
ejecute la función ejecutable si se produce un evento de liberación táctil después del movimiento detectado de la primera entrada táctil en la primera dirección más allá del primer punto crítico.
ES20164944T 2009-05-19 2010-05-19 Dispositivo móvil y procedimiento para ejecutar una función particular a través de un evento táctil en una lista relacionada con la comunicación Active ES2909087T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090043414A KR101646922B1 (ko) 2009-05-19 2009-05-19 휴대 단말기의 통신 관련 기능 운용 방법 및 이를 지원하는 휴대 단말기

Publications (1)

Publication Number Publication Date
ES2909087T3 true ES2909087T3 (es) 2022-05-05

Family

ID=43125380

Family Applications (1)

Application Number Title Priority Date Filing Date
ES20164944T Active ES2909087T3 (es) 2009-05-19 2010-05-19 Dispositivo móvil y procedimiento para ejecutar una función particular a través de un evento táctil en una lista relacionada con la comunicación

Country Status (9)

Country Link
US (2) US9817546B2 (es)
EP (3) EP3716594B1 (es)
JP (1) JP5676578B2 (es)
KR (1) KR101646922B1 (es)
CN (1) CN102439859B (es)
ES (1) ES2909087T3 (es)
HU (1) HUE058187T2 (es)
PL (1) PL3716594T3 (es)
WO (1) WO2010134748A2 (es)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
JP5063150B2 (ja) * 2007-03-16 2012-10-31 株式会社ソニー・コンピュータエンタテインメント データ処理プログラム、データ処理装置、及びデータ処理方法
KR101461954B1 (ko) * 2008-05-08 2014-11-14 엘지전자 주식회사 단말기 및 그 제어 방법
KR101646922B1 (ko) * 2009-05-19 2016-08-23 삼성전자 주식회사 휴대 단말기의 통신 관련 기능 운용 방법 및 이를 지원하는 휴대 단말기
KR20110047422A (ko) * 2009-10-30 2011-05-09 삼성전자주식회사 휴대단말의 리스트 제공 방법 및 장치
US9232043B2 (en) * 2010-03-03 2016-01-05 Lg Electronics Inc. Mobile terminal and control method thereof
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
KR20120017649A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR101685991B1 (ko) * 2010-09-30 2016-12-13 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP5742187B2 (ja) * 2010-11-26 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101892630B1 (ko) * 2011-01-10 2018-08-28 삼성전자주식회사 터치 디스플레이 장치 및 그 디스플레이 방법
JP5418508B2 (ja) * 2011-01-13 2014-02-19 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
KR101691478B1 (ko) 2011-02-09 2016-12-30 삼성전자주식회사 통합 입력에 따른 단말기 운용 방법 및 이를 지원하는 휴대 단말기
KR20130000160A (ko) * 2011-06-22 2013-01-02 광주과학기술원 사용자 적응형 증강현실 이동통신 장치와 서버 및 그 방법
WO2013051054A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
US8504940B1 (en) 2011-10-03 2013-08-06 Google Inc. Smooth hardware accelerated scrolling
US8988467B2 (en) 2011-10-13 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen selection visual feedback
US9367233B2 (en) 2011-10-31 2016-06-14 Samsung Electronics Co., Ltd. Display apparatus and method thereof
CN103135913A (zh) * 2011-11-28 2013-06-05 联想(北京)有限公司 在屏幕上显示对象的方法和系统
JP5907713B2 (ja) * 2011-12-08 2016-04-26 シャープ株式会社 表示装置、情報端末装置、表示方法、プログラム、および記録媒体
KR101515629B1 (ko) 2012-01-07 2015-04-27 삼성전자주식회사 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치
CN102662555B (zh) * 2012-03-06 2015-01-21 华为终端有限公司 一种终端复选操作方法和终端
ES2845274T3 (es) 2012-03-06 2021-07-26 Huawei Device Co Ltd Método de operación de pantalla táctil y terminal
US10282033B2 (en) 2012-06-01 2019-05-07 E Ink Corporation Methods for updating electro-optic displays when drawing or writing on the display
US9513743B2 (en) * 2012-06-01 2016-12-06 E Ink Corporation Methods for driving electro-optic displays
CN102768617B (zh) * 2012-06-29 2016-12-28 惠州Tcl移动通信有限公司 手持式电子设备及基于触摸屏的列表项编辑的方法
TWI474218B (zh) * 2012-07-24 2015-02-21 Inventec Corp 觸控裝置功能鍵處理方法以及其觸控裝置
JP2015537299A (ja) * 2012-10-31 2015-12-24 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びそのディスプレイ方法
US9729695B2 (en) * 2012-11-20 2017-08-08 Dropbox Inc. Messaging client application interface
EP2923260B1 (en) * 2012-11-20 2020-05-06 Jolla OY A graphical user interface for a portable computing device
KR102108061B1 (ko) * 2012-11-27 2020-05-08 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
KR102174916B1 (ko) * 2012-11-30 2020-11-05 삼성전자주식회사 종료 효과를 표시하는 모바일 장치 및 그 제어방법
EP2743812B1 (en) * 2012-12-14 2018-09-05 Orange Method for selecting a plurality of entries on a user interface
CN103945040A (zh) * 2013-01-17 2014-07-23 腾讯科技(深圳)有限公司 终端的通讯控制方法及装置
US11388120B2 (en) 2015-11-10 2022-07-12 Wrinkl, Inc. Parallel messaging apparatus and method thereof
US10025459B2 (en) * 2013-03-14 2018-07-17 Airwatch Llc Gesture-based workflow progression
KR102074347B1 (ko) * 2013-03-15 2020-03-02 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN104077007A (zh) * 2013-03-25 2014-10-01 腾讯科技(深圳)有限公司 信息条目整理方法和系统
CN104144248B (zh) * 2013-05-08 2016-04-13 腾讯科技(深圳)有限公司 触发与联系人通信的方法和装置
US20140365968A1 (en) * 2013-06-07 2014-12-11 Apple Inc. Graphical User Interface Elements
CN103309673B (zh) * 2013-06-24 2017-03-01 小米科技有限责任公司 一种基于手势的会话处理方法、装置
KR101801554B1 (ko) 2013-07-11 2017-11-27 삼성전자주식회사 컨텐츠를 표시하는 사용자 단말 장치 및 그 방법
USD766253S1 (en) 2013-09-25 2016-09-13 Google Inc. Display panel or portion thereof with a graphical user interface component
US9519420B2 (en) * 2013-10-16 2016-12-13 Samsung Electronics Co., Ltd. Apparatus and method for editing synchronous media
KR102138529B1 (ko) * 2014-02-04 2020-07-28 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US10025461B2 (en) * 2014-04-08 2018-07-17 Oath Inc. Gesture input for item selection
WO2015159498A1 (en) * 2014-04-14 2015-10-22 Sony Corporation Method and apparatus for displaying additional objects on a graphical user interface based on pinch gesture
JP6139455B2 (ja) * 2014-04-17 2017-05-31 日本電信電話株式会社 情報表示装置
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
CN104038631A (zh) * 2014-06-11 2014-09-10 华为技术有限公司 发起通信的方法和终端设备
EP2960764A1 (en) 2014-06-27 2015-12-30 Orange Method for selecting an entry for an application using a graphical user interface
CN104156245B (zh) * 2014-08-06 2018-04-10 小米科技有限责任公司 列表更新方法和装置
CN104253905B (zh) * 2014-09-24 2017-09-08 努比亚技术有限公司 移动终端的呼叫建立方法及装置
JP6459358B2 (ja) * 2014-09-30 2019-01-30 キヤノンマーケティングジャパン株式会社 情報処理装置、制御方法、及びプログラム
CN105700762B (zh) * 2014-11-25 2020-06-02 深圳市腾讯计算机系统有限公司 一种显示选择项信息的方法和装置
JP2016122354A (ja) * 2014-12-25 2016-07-07 セイコーソリューションズ株式会社 数値入力装置、数値入力方法、および数値入力プログラム
CN104636066B (zh) * 2015-01-30 2018-04-24 小米科技有限责任公司 触控显示屏上的文档显示方法及装置
CN104636067A (zh) * 2015-01-30 2015-05-20 小米科技有限责任公司 触控显示屏上的文档显示方法及装置
CN104967719A (zh) * 2015-05-13 2015-10-07 深圳市金立通信设备有限公司 一种联系人信息提示方法及终端
JP2017004204A (ja) * 2015-06-09 2017-01-05 ファナック株式会社 タッチ操作により電子データを編集する情報処理装置
US10547575B2 (en) 2015-11-10 2020-01-28 Wrinkl, Inc. Apparatus and method for control of access to communication channels
US10805247B1 (en) 2015-11-10 2020-10-13 Wrinkl, Inc. Method and apparatus for requesting private replies in messaging
US10999226B2 (en) 2015-11-10 2021-05-04 Wrinkl, Inc. Apparatus and method for message image reference management
WO2017052109A1 (en) * 2015-09-22 2017-03-30 Samsung Electronics Co., Ltd. Screen grab method in electronic device
KR102408942B1 (ko) * 2015-10-19 2022-06-14 삼성전자주식회사 전자 장치의 입력 처리 방법 및 전자 장치
US20180284960A1 (en) * 2015-10-26 2018-10-04 Motorola Solutions, Inc. Apparatus, system, and method for establishing a push-to-talk communication
CN105573645B (zh) * 2015-12-10 2019-02-05 Oppo广东移动通信有限公司 一种列表排序的调整方法及移动终端
KR102438823B1 (ko) * 2016-05-09 2022-08-31 삼성에스디에스 주식회사 리스트 상의 복수의 아이템에 대한 기능 실행 방법 및 그 장치
US10620812B2 (en) 2016-06-10 2020-04-14 Apple Inc. Device, method, and graphical user interface for managing electronic communications
US11543936B2 (en) 2016-06-16 2023-01-03 Airwatch Llc Taking bulk actions on items in a user interface
KR20180014644A (ko) * 2016-08-01 2018-02-09 삼성전자주식회사 터치 인식 방법 및 이를 수행하는 전자 장치
USD820880S1 (en) 2016-08-22 2018-06-19 Airwatch Llc Display screen with animated graphical user interface
US10486938B2 (en) 2016-10-28 2019-11-26 Otis Elevator Company Elevator service request using user device
US10853716B2 (en) * 2016-12-27 2020-12-01 Microsoft Technology Licensing, Llc Systems and methods for a mathematical chat bot
CN107943386A (zh) * 2017-11-09 2018-04-20 珠海格力电器股份有限公司 一种调整显示界面尺寸的方法及设备
KR20190054397A (ko) * 2017-11-13 2019-05-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
US20200333925A1 (en) * 2019-04-19 2020-10-22 Microsoft Technology Licensing, Llc System and method for navigating interfaces using touch gesture inputs
US20210149556A1 (en) * 2019-11-18 2021-05-20 Dell Products, Lp System and method for graphical menu management
JP2023125444A (ja) 2022-02-28 2023-09-07 フォルシアクラリオン・エレクトロニクス株式会社 情報処理装置、及び情報処理方法

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010047263A1 (en) * 1997-12-18 2001-11-29 Colin Donald Smith Multimodal user interface
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7503016B2 (en) * 1999-08-12 2009-03-10 Palm, Inc. Configuration mechanism for organization of addressing elements
JP2001069223A (ja) 1999-08-27 2001-03-16 Matsushita Electric Ind Co Ltd 通信装置
CN1119051C (zh) 1999-11-03 2003-08-20 摩托罗拉公司 用于在便携式电子设备上选择用户界面选项的装置和方法
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2002333951A (ja) 2001-05-08 2002-11-22 Matsushita Electric Ind Co Ltd 入力装置
GB0117543D0 (en) 2001-07-18 2001-09-12 Hewlett Packard Co Document viewing device
TWI238348B (en) 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
JP4063246B2 (ja) 2004-05-11 2008-03-19 日本電気株式会社 ページ情報表示装置
US20060041847A1 (en) 2004-08-23 2006-02-23 Wai-Lin Maw Paged graphical user interface
KR100665819B1 (ko) * 2004-11-23 2007-01-09 엘지전자 주식회사 이동 통신 단말기의 전화번호부 갱신 방법
US20070226204A1 (en) * 2004-12-23 2007-09-27 David Feldman Content-based user interface for document management
JP4711695B2 (ja) 2005-02-16 2011-06-29 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 携帯端末及びオブジェクト装飾方法
JP4166229B2 (ja) 2005-03-14 2008-10-15 株式会社日立製作所 タッチパネルを備えた表示装置
US20060246955A1 (en) 2005-05-02 2006-11-02 Mikko Nirhamo Mobile communication device and method therefor
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
KR101179890B1 (ko) 2006-02-09 2012-09-06 삼성전자주식회사 휴대단말의 디지털 이미지 표시방법 및 장치
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
KR20070120368A (ko) 2006-06-19 2007-12-24 엘지전자 주식회사 사용자인터페이스 기반의 메뉴 아이콘 제어방법 및 장치
JP4764274B2 (ja) * 2006-07-11 2011-08-31 京セラミタ株式会社 電子機器及びプログラム
US20080057940A1 (en) 2006-08-31 2008-03-06 Martin Wraber Christensen Method for operating a mobile communication device, software provided for carrying out the method, software storage medium for storing the software, and the mobile communication device
US8014760B2 (en) * 2006-09-06 2011-09-06 Apple Inc. Missed telephone call management for a portable multifunction device
US7934156B2 (en) 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
US9304675B2 (en) * 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
KR100774927B1 (ko) 2006-09-27 2007-11-09 엘지전자 주식회사 이동통신 단말기, 메뉴 및 아이템 선택방법
JP4835357B2 (ja) 2006-09-29 2011-12-14 株式会社日立製作所 情報処理装置の表示方法
KR100849332B1 (ko) * 2007-01-03 2008-07-29 삼성전자주식회사 이미지를 이용한 호 발신 장치 및 방법
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
DE202007014957U1 (de) 2007-01-05 2007-12-27 Apple Inc., Cupertino Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
US9049302B2 (en) * 2007-01-07 2015-06-02 Apple Inc. Portable multifunction device, method, and graphical user interface for managing communications received while in a locked state
KR101524572B1 (ko) 2007-02-15 2015-06-01 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 인터페이스 제공 방법
KR100849684B1 (ko) 2007-03-13 2008-08-01 삼성전자주식회사 용두키를 갖는 휴대 단말기 및 그의 기능 수행 방법
KR101415296B1 (ko) * 2007-05-29 2014-07-04 삼성전자주식회사 휴대 단말기의 메뉴 실행 장치 및 방법
KR101397152B1 (ko) 2007-06-12 2014-05-20 삼성전자주식회사 디지털 멀티미디어 재생 장치 및 그 제어방법
US20090006955A1 (en) 2007-06-27 2009-01-01 Nokia Corporation Method, apparatus, system and computer program product for selectively and interactively downloading a media item
KR20090005680A (ko) * 2007-07-09 2009-01-14 삼성전자주식회사 원통형 입체 형상의 메뉴를 제공하기 위한 gui 제공방법및 이를 적용한 멀티미디어 기기
US9569088B2 (en) 2007-09-04 2017-02-14 Lg Electronics Inc. Scrolling method of mobile terminal
KR100873679B1 (ko) 2007-09-04 2008-12-12 엘지전자 주식회사 휴대단말기의 스크롤링 방법
US8509854B2 (en) 2007-09-18 2013-08-13 Lg Electronics Inc. Mobile terminal and method of controlling operation of the same
KR101418510B1 (ko) * 2007-09-28 2014-07-10 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101397080B1 (ko) 2007-10-05 2014-05-21 엘지전자 주식회사 멀티 기능 실행능력을 갖는 휴대 단말기 및 그 방법
CN101162420B (zh) 2007-11-29 2010-12-15 天津津科电子系统工程有限公司 基于触摸屏的旋转式连续变速浏览与检索方法
KR101387527B1 (ko) * 2007-12-06 2014-04-23 엘지전자 주식회사 단말기 및 그 메뉴 아이콘 디스플레이 방법
GB0804164D0 (en) * 2008-03-06 2009-01-07 Software Hothouse Ltd Enhancements to unified communications and messaging systems
US9274681B2 (en) * 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
KR101398478B1 (ko) * 2008-04-10 2014-05-26 엘지전자 주식회사 가변 메뉴 아이콘을 사용하는 휴대 단말기 및 그 제어방법
US20090267909A1 (en) * 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
KR101461954B1 (ko) * 2008-05-08 2014-11-14 엘지전자 주식회사 단말기 및 그 제어 방법
KR101524616B1 (ko) * 2008-07-07 2015-06-02 엘지전자 주식회사 자이로센서를 구비한 휴대 단말기 및 그 제어방법
KR20100020818A (ko) 2008-08-13 2010-02-23 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR20100027686A (ko) 2008-09-03 2010-03-11 엘지전자 주식회사 이동단말기 및 그 제어 방법
JP5093080B2 (ja) 2008-12-05 2012-12-05 富士通モバイルコミュニケーションズ株式会社 携帯端末
US8499251B2 (en) * 2009-01-07 2013-07-30 Microsoft Corporation Virtual page turn
US8370762B2 (en) 2009-04-10 2013-02-05 Cellco Partnership Mobile functional icon use in operational area in touch panel devices
KR101640463B1 (ko) * 2009-05-19 2016-07-18 삼성전자 주식회사 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기
KR101646922B1 (ko) * 2009-05-19 2016-08-23 삼성전자 주식회사 휴대 단말기의 통신 관련 기능 운용 방법 및 이를 지원하는 휴대 단말기
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
US9563350B2 (en) * 2009-08-11 2017-02-07 Lg Electronics Inc. Mobile terminal and method for controlling the same
KR20110037298A (ko) * 2009-10-06 2011-04-13 삼성전자주식회사 리스트 편집 방법 및 이를 지원하는 휴대 단말기
KR101684704B1 (ko) * 2010-02-12 2016-12-20 삼성전자주식회사 휴대용 단말기에서 메뉴 실행 방법 및 이를 제공하는 장치
EP2378406B1 (en) * 2010-04-13 2018-08-22 LG Electronics Inc. Mobile terminal and method of controlling operation of the mobile terminal
KR101701834B1 (ko) * 2010-06-22 2017-02-02 엘지전자 주식회사 이동 단말기 및 이것의 통신 데이터 송신 및 통신 리스트 디스플레이 제어 방법
US10552032B2 (en) * 2010-11-30 2020-02-04 Ncr Corporation System, method and apparatus for implementing an improved user interface on a terminal
KR101852821B1 (ko) * 2011-09-08 2018-04-27 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
CN105260049B (zh) * 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
US9654426B2 (en) * 2012-11-20 2017-05-16 Dropbox, Inc. System and method for organizing messages
US9729695B2 (en) * 2012-11-20 2017-08-08 Dropbox Inc. Messaging client application interface
US9898162B2 (en) * 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9632664B2 (en) * 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9880735B2 (en) * 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
DK179657B1 (en) * 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback

Also Published As

Publication number Publication date
EP3716594B1 (en) 2022-02-16
CN102439859A (zh) 2012-05-02
KR20100124429A (ko) 2010-11-29
EP4020151A1 (en) 2022-06-29
JP5676578B2 (ja) 2015-02-25
JP2012527686A (ja) 2012-11-08
HUE058187T2 (hu) 2022-07-28
PL3716594T3 (pl) 2022-06-13
US11029816B2 (en) 2021-06-08
WO2010134748A3 (en) 2011-03-03
WO2010134748A2 (en) 2010-11-25
EP2433371B1 (en) 2020-03-25
EP2433371A2 (en) 2012-03-28
KR101646922B1 (ko) 2016-08-23
EP3716594A1 (en) 2020-09-30
EP2433371A4 (en) 2014-10-22
US20100299599A1 (en) 2010-11-25
US20180024710A1 (en) 2018-01-25
US9817546B2 (en) 2017-11-14
CN102439859B (zh) 2014-09-24

Similar Documents

Publication Publication Date Title
ES2909087T3 (es) Dispositivo móvil y procedimiento para ejecutar una función particular a través de un evento táctil en una lista relacionada con la comunicación
AU2023201816B2 (en) Device, method, and graphical user interface for managing concurrently open software applications
US20220035522A1 (en) Device, Method, and Graphical User Interface for Displaying a Plurality of Settings Controls
US10891023B2 (en) Device, method and graphical user interface for shifting a user interface between positions on a touch-sensitive display in response to detected inputs
JP5613208B2 (ja) 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース
US9513801B2 (en) Accessing electronic notifications and settings icons with gestures
ES2728576T3 (es) Dispositivo móvil y procedimiento para editar páginas usadas para una pantalla de inicio
US20130254714A1 (en) Method and apparatus for providing floating user interface
AU2021202903B2 (en) Gesture based graphical user interface for managing concurrently open software applications