ES2900188T3 - Dispositivo electrónico portátil y método para controlar el mismo - Google Patents

Dispositivo electrónico portátil y método para controlar el mismo Download PDF

Info

Publication number
ES2900188T3
ES2900188T3 ES17208105T ES17208105T ES2900188T3 ES 2900188 T3 ES2900188 T3 ES 2900188T3 ES 17208105 T ES17208105 T ES 17208105T ES 17208105 T ES17208105 T ES 17208105T ES 2900188 T3 ES2900188 T3 ES 2900188T3
Authority
ES
Spain
Prior art keywords
touch
gesture
application
display area
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17208105T
Other languages
English (en)
Inventor
Mihal Lazaridis
Danny Thomas Dodge
Donald James Lindsay
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Application granted granted Critical
Publication of ES2900188T3 publication Critical patent/ES2900188T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

Un método para un dispositivo electrónico (100) con un procesador (102) y una pantalla sensible al tacto (118) que comprende un área de visualización (206), un área de no visualización (208) y una superposición sensible al tacto (114) que cubre el área de visualización (206) y el área de no visualización (208), en donde un límite (210) se dispone cerca de una periferia de la pantalla sensible al tacto (118), el límite (210) es una región o banda a lo largo de un margen de la superposición sensible al tacto (114), el método que comprende: - visualizar (402) información asociada con una primera aplicación (502) en el área de visualización (206); - detectar (404) un gesto en la pantalla sensible al tacto (118) y determinar los atributos táctiles que incluyen una ubicación de inicio del gesto; - determinar (406) si el gesto es un gesto de meta navegación (304-316) asociado con una segunda aplicación (504-514) o un gesto de no meta navegación (318) asociado con la primera aplicación (502) en base a si el gesto cruza el límite (210) por: cuando el gesto detectado tiene la ubicación de inicio en el margen de la superposición sensible al tacto (114) y se extiende a través del límite (210), determinar que el toque es el gesto de meta navegación (304-316); cuando el gesto detectado tiene la ubicación de inicio no en el margen y no se extiende a través del límite (210), determinar que el toque es el gesto de no meta navegación (318); y cuando se determina que el toque es el gesto de meta navegación (304-316), visualizar (410) información asociada con la segunda aplicación (504-514) en el área de visualización (206), de lo contrario reenviar (408) los datos táctiles relacionados con el gesto a la primera aplicación (502), en donde cuando el gesto de meta navegación (304-316) se origina cerca de una parte inferior, del centro de la pantalla sensible al tacto y sigue una trayectoria generalmente vertical en la orientación en la que se visualiza la información de la primera aplicación (502), que hace que una pantalla de inicio asociada con una aplicación de navegación raíz reemplace la información asociada con la primera aplicación (502).

Description

DESCRIPCIÓN
Dispositivo electrónico portátil y método para controlar el mismo
Campo de tecnología
La presente descripción se refiere a dispositivos electrónicos que incluyen, pero no se limitan a, dispositivos electrónicos portátiles que tienen pantallas sensibles al tacto.
Antecedentes
Los dispositivos electrónicos, que incluyen los dispositivos electrónicos portátiles, se han generalizado y pueden proporcionar una variedad de funciones que incluyen, por ejemplo, telefonía, mensajería electrónica y otras funciones de aplicación de gestión de información personal (PIM). Los dispositivos electrónicos portátiles incluyen varios tipos de dispositivos que incluyen estaciones móviles tales como teléfonos celulares simples, teléfonos inteligentes, Asistentes digitales personales (PDA), tabletas, y ordenadores portátiles, con comunicaciones de red inalámbrica o conectividad de comunicaciones de campo cercano tales como capacidades de Bluetooth®.
Los dispositivos electrónicos portátiles tales como PDA, o tabletas se diseñan generalmente para uso de mano y facilidad de portabilidad. Los dispositivos más pequeños son generalmente convenientes para la portabilidad. Una pantalla sensible al tacto, conocida además como una pantalla táctil, es particularmente útil en dispositivos de mano, que son pequeños y tienen el espacio limitado para la entrada y salida del usuario. La información visualizada en la pantalla sensible al tacto puede modificarse en dependencia de las funciones y operaciones que se realizan.
El documento US 2010/105443 A1 describe métodos y aparatos para facilitar la interacción con aparatos de pantalla táctil. Un método incluye detectar una interacción táctil con una pantalla táctil, e identificar la interacción táctil como que comprende una interacción táctil del disparador. La interacción táctil del disparador puede incluir deslizar un objeto de entrada a lo largo de una trayectoria desde un punto de origen fuera de una región activa de la pantalla táctil hasta un punto dentro de la región activa. El método puede incluir además determinar, en base al menos en parte en la interacción táctil del disparador, una función asociada con la interacción táctil del disparador. El método puede incluir adicionalmente ejecutar la función determinada. Se proporcionan además los aparatos correspondientes.
El documento EP2184671A1 describe un método y un aparato para cambiar una pantalla táctil de un aparato electrónico de mano. Un área superficial del panel táctil es más grande que la de una pantalla de cristal líquido, un área táctil principal se define como una porción superpuesta del panel táctil y la pantalla de cristal líquido, y un área táctil secundaria se define como una porción no superpuesta del panel táctil y la pantalla de cristal líquido. Se determina una acción de arrastre táctil a operar al deslizar un dedo inicialmente desde el área táctil principal o el área táctil secundaria. Después, se ejecuta una acción de cambio de página correspondiente o una acción táctil de acuerdo con una secuencia de cambio entre el área táctil principal y el área táctil secundaria. De esta modo, la acción de cambio de página puede operarse rápidamente por los usuarios.
El documento US 2010/185989 A1 describe una interfaz de usuario que se presenta para iniciar actividades en un dispositivo electrónico.
El documento US 2009/189868 A1 describe un método para proporcionar una interfaz de usuario (UI) para detectar un trazo multipunto y un aparato multimedia mediante el uso del mismo.
El documento US 2010/164959 A1 describe un método para iniciar un teclado virtual en una pantalla sensible al tacto, la pantalla sensible al tacto que comprende una porción central, renderizable en la que pueden renderizarse datos y gráficos y una porción exterior, no renderizable que rodea la porción central, renderizable. Para iniciar el teclado virtual, un usuario desliza un dedo desde un borde particular (por ejemplo borde inferior) de la porción no renderizable de la pantalla sensible al tacto en una dirección particular (por ejemplo dirección hacia arriba). Aunque el dedo se mueve de esta manera a través de la porción no renderizada, el teclado virtual se inicia y se visualiza en la porción renderizable de la pantalla sensible al tacto.
Son convenientes mejoras en los dispositivos electrónicos con pantallas sensibles al tacto.
Resumen
De acuerdo con un aspecto de la presente invención, se proporciona un método de acuerdo con la reivindicación 1 de las reivindicaciones adjuntas.
De acuerdo con otro aspecto de la presente invención, se proporciona un dispositivo electrónico de acuerdo con la reivindicación 4 de las reivindicaciones adjuntas.
De acuerdo con otro aspecto de la presente invención, se proporciona un medio legible por ordenador de acuerdo con la reivindicación 5 de las reivindicaciones adjuntas.
Las modalidades preferidas de la presente invención se establecen en las reivindicaciones dependientes.
De acuerdo con las reivindicaciones independientes 1, 4 y 5, la invención reivindicada se refiere a determinar si un gesto detectado en una pantalla sensible al tacto es un gesto de meta navegación basada en si el gesto cruza un límite que se dispone cerca de una periferia de la pantalla sensible al tacto, en donde el límite es una región o banda a lo largo de un margen de una superposición sensible al tacto que cubre un área de visualización y un área de no visualización de la pantalla sensible al tacto. En consecuencia, cualquier referencia en la descripción a un límite entre el área de visualización y el área de no visualización, o un límite que no es una región o banda, sino un límite rodeado por una región de amortiguación como se ilustra en la Figura 2 y la Figura 3, debe entenderse como una referencia a un ejemplo que se proporciona como útil para comprender la invención reivindicada, pero sin ser parte de la invención reivindicada.
Aunque las características de las reivindicaciones independientes 1, 4 y 5 a veces se refieren en la descripción como opcionales o preferidas, se entiende que cada característica incluida en las reivindicaciones independientes es una característica obligatoria de la presente invención.
Breve descripción de los dibujos
Se describirán ahora modalidades de la presente descripción, sólo a modo de ejemplo, con referencia a las Figuras adjuntas, en donde:
La Figura 1 es un diagrama de bloques de un dispositivo electrónico portátil de acuerdo con una modalidad ilustrativa;
La Figura 2 es una vista frontal de un ejemplo de un dispositivo electrónico portátil;
La Figura 3 ilustra ejemplos de toques en el dispositivo electrónico portátil de la Figura 2;
La Figura 4 es un diagrama de flujo que ilustra un método para controlar el dispositivo electrónico portátil de acuerdo con la presente invención; y
La Figura 5 ilustra ejemplos de asociaciones entre gestos de meta navegación e información de aplicaciones. Descripción detallada
A continuación, se describe un dispositivo electrónico con un procesador y una pantalla sensible al tacto, la pantalla sensible al tacto que incluye un área de visualización y un área de no visualización. Un método para el dispositivo electrónico, que no se cubre por las reivindicaciones, incluye proporcionar un límite en base al área de visualización y al área de no visualización.
Por simplicidad y claridad de la ilustración, los numerales de referencia pueden repetirse entre las figuras para indicar elementos correspondientes o análogos. Se exponen numerosos detalles para proporcionar una comprensión de las modalidades descritas en la presente descripción. Las modalidades pueden ponerse en práctica sin estos detalles. En otros casos, no se han descrito en detalle métodos, procedimientos, y componentes bien conocidos para evitar oscurecer las modalidades descritas.
La descripción se refiere generalmente a un dispositivo electrónico, tal como un dispositivo electrónico portátil. Los ejemplos de dispositivos electrónicos portátiles incluyen dispositivos de comunicación inalámbrica tales como buscapersonas, teléfonos móviles o celulares, teléfonos inteligentes, organizadores inalámbricos, PDA, ordenadores portátiles, ordenadores netbook, tabletas, etcétera. El dispositivo electrónico portátil puede ser además un dispositivo electrónico portátil sin capacidades de comunicación inalámbrica. Los ejemplos incluyen el dispositivo de juegos electrónicos de mano, álbum de fotografías digitales, cámara digital, ordenadores portátiles, ordenadores netbook, tabletas, u otros dispositivos.
Un diagrama de bloques de un ejemplo de un dispositivo electrónico portátil 100 se muestra en la Figura 1. El dispositivo electrónico portátil 100 incluye múltiples componentes, tales como un procesador 102 que controla el funcionamiento general del dispositivo electrónico portátil 100. El dispositivo electrónico portátil 100 descrito actualmente incluye opcionalmente un subsistema de comunicación 104 y un módulo de comunicaciones de corto alcance 132 para realizar varias funciones de comunicación, que incluyen comunicaciones de datos y voz. Los datos recibidos por el dispositivo electrónico portátil 100 se descomprimen y descifran por un decodificador 106. El subsistema de comunicación 104 recibe mensajes desde y envía mensajes a una red inalámbrica 150. La red inalámbrica 150 puede ser cualquier tipo de red inalámbrica, que incluye, pero no se limita a, redes inalámbricas de datos, redes inalámbricas de voz, y redes que admiten comunicaciones tanto de voz como de datos. Una fuente de alimentación 142, tal como una o más baterías recargables o un puerto a una fuente de alimentación externa, alimenta el dispositivo electrónico portátil 100.
El procesador 102 interactúa con otros componentes, tales como la Memoria de acceso aleatorio (RAM) 108, la memoria 110, una pantalla 112 con una superposición sensible al tacto 114 conectada operativamente a un controlador electrónico 116 que juntos comprenden una pantalla sensible al tacto 118, uno o más accionadores 120, uno o más sensores de fuerza 122, un subsistema de entrada/salida (E/S) auxiliar 124, un puerto de datos 126, un altavoz 128, un micrófono 130, comunicaciones de corto alcance 132, y otros subsistemas del dispositivo 134. La interacción del usuario con una interfaz gráfica de usuario se realiza a través de la superposición sensible al tacto 114. El procesador 102 interactúa con la superposición sensible al tacto 114 a través del controlador electrónico 116. La información, tal como texto, caracteres, símbolos, imágenes, íconos, y otros elementos que pueden visualizarse o reproducirse en un dispositivo electrónico portátil, se muestra en la pantalla sensible al tacto 118 a través del procesador 102. El procesador 102 puede interactuar con un sensor de orientación tal como un acelerómetro 136 para detectar la dirección de las fuerzas gravitacionales o las fuerzas de reacción inducidas por la gravedad para determinar, por ejemplo, la orientación del dispositivo electrónico portátil 100.
Para identificar a un abonado para el acceso a la red, el dispositivo electrónico portátil 100 usa un Módulo de identidad de abonado o una tarjeta del Módulo de identidad del usuario extraíble (SIM/RUIM) 138 para la comunicación con una red, tal como la red inalámbrica 150. Alternativamente, la información de identificación del usuario puede programarse en la memoria 110.
El dispositivo electrónico portátil 100 incluye un sistema operativo 146 y programas o componentes de software 148 que se ejecutan por el procesador 102 y típicamente se almacenan en un almacén persistente, actualizable tal como la memoria 110. Pueden cargarse aplicaciones o programas adicionales en el dispositivo electrónico portátil 100 a través de la red inalámbrica 150, el subsistema de E/S auxiliar 124, el puerto de datos 126, el subsistema de comunicaciones de corto alcance 132, o cualquier otro subsistema 134 adecuado.
Una señal recibida, tal como un mensaje de texto, un mensaje de correo electrónico, o la descarga de una página web, se procesa por el subsistema de comunicación 104 y se ingresa al procesador 102. El procesador 102 procesa la señal recibida para enviarla a la pantalla 112 y/o al subsistema de e/s auxiliar 124. Un abonado puede generar elementos de datos, por ejemplo, mensajes de correo electrónico, que pueden transmitirse a través de la red inalámbrica 150 a través del subsistema de comunicación 104, por ejemplo.
La pantalla sensible al tacto 118 puede ser cualquier pantalla sensible al tacto adecuada, tal como una pantalla sensible al tacto capacitiva, resistiva, infrarroja, de onda acústica de superficie (SAW), galga extensiométrica, imágenes ópticas, tecnología de señal dispersiva, reconocimiento de pulso acústico, etcétera, como se conoce en la técnica. En la modalidad ilustrativa descrita actualmente, la pantalla sensible al tacto 118 es una pantalla sensible al tacto capacitiva que incluye una superposición sensible al tacto capacitiva 114. La superposición 114 puede ser un conjunto de múltiples capas en una pila que puede incluir, por ejemplo, un sustrato, una capa de apantallamiento a tierra, una capa de barrera, una o más capas de sensores táctiles capacitivos separadas por un sustrato u otra barrera, y una cubierta. Las capas de sensores táctiles capacitivos pueden ser de cualquier material adecuado, tal como óxido de indio y estaño estampado (ITO).
La pantalla 112 de la pantalla sensible al tacto 118 incluye un área de visualización en la que puede visualizarse información, y un área de no visualización que se extiende alrededor de la periferia del área de visualización. La información no se visualiza en el área de no visualización, que se utiliza para acomodar, por ejemplo, trazas electrónicas o conexiones eléctricas, adhesivos u otros selladores, y/o revestimientos protectores alrededor de los bordes del área de visualización.
Uno o más toques, conocidos además como contactos táctiles o eventos táctiles, puede detectarse por la pantalla sensible al tacto 118. El procesador 102 determina los atributos del toque, que incluyen la ubicación de un toque. Los datos de ubicación táctil pueden incluir un área de contacto o un solo punto de contacto, tal como un punto en o cerca de un centro del área de contacto, conocido como el centroide. Se proporciona una señal al controlador 116 en respuesta a la detección de un toque. Puede detectarse un toque desde cualquier objeto adecuado, tal como un dedo, pulgar, apéndice, u otros elementos, por ejemplo, un lápiz óptico, bolígrafo, u otro puntero, en dependencia de la naturaleza de la pantalla sensible al tacto 118. La ubicación del toque se mueve a medida que el objeto detectado se mueve durante un toque. El controlador 116 y/o el procesador 102 pueden detectar un toque por cualquier miembro de contacto adecuado en la pantalla sensible al tacto 118. De manera similar, se detectan, múltiples toques simultáneos.
Uno o más gestos se detectan además por la pantalla sensible al tacto 118. Un gesto es un tipo particular de toque en una pantalla sensible al tacto 118 que comienza en un punto de origen y continúa hasta un punto final. Un gesto puede identificarse por atributos del gesto, que incluyen el punto de origen, el punto final, la distancia recorrida, la duración, la velocidad, y la dirección, por ejemplo. Un gesto puede ser largo o corto en distancia y/o duración. Pueden utilizarse dos puntos del gesto para determinar la dirección del gesto.
Un ejemplo de un gesto es un deslizamiento (conocido además como un movimiento rápido). Un deslizamiento tiene una sola dirección. La superposición sensible al tacto 114 puede evaluar deslizamientos con respecto al punto de origen en el que se hace contacto inicialmente con la superposición sensible al tacto 114 y el punto final en el que termina el contacto con la superposición sensible al tacto 114 en lugar de usar cada una de las ubicaciones o punto de contacto durante la duración del gesto para resolver una dirección.
Los ejemplos de deslizamientos incluyen un deslizamiento horizontal, un deslizamiento vertical, y un deslizamiento diagonal. Un deslizamiento horizontal comprende típicamente un punto de origen hacia el lado izquierdo o derecho de la superposición sensible al tacto 114 para inicializar el gesto, un movimiento horizontal del objeto detectado desde el punto de origen hasta un punto final hacia el lado derecho o izquierdo de la superposición sensible al tacto 114 mientras se mantiene un contacto continuo con la superposición sensible al tacto 114, y una ruptura de contacto con la superposición sensible al tacto 114. De manera similar, un deslizamiento vertical comprende típicamente un punto de origen hacia la parte superior o parte inferior de la superposición sensible al tacto 114 para inicializar el gesto, un movimiento horizontal del objeto detectado desde el punto de origen hasta un punto final hacia la parte inferior o parte superior de la superposición sensible al tacto 114 mientras se mantiene un contacto continuo con la superposición sensible al tacto 114, y una ruptura de contacto con la superposición sensible al tacto 114.
Los deslizamientos pueden ser de varias longitudes, pueden iniciarse en varios lugares de la superposición sensible al tacto 114, y no es necesario que abarquen la dimensión completa de la superposición sensible al tacto 114. Asimismo, romper el contacto de un deslizamiento puede ser gradual porque el contacto con la superposición sensible al tacto 114 se reduce gradualmente mientras el deslizamiento aún está en marcha.
Los gestos de meta navegación pueden detectarse además por la superposición sensible al tacto 114. Un gesto de meta navegación es un gesto que tiene un punto de origen que está fuera del área de visualización de la superposición sensible al tacto 114 y que se mueve a una posición en el área de visualización de la pantalla sensible al tacto. Pueden detectarse otros atributos del gesto y utilizarse para detectar el gesto de meta navegación. Los gestos de meta navegación pueden incluir además gestos multitáctiles en los que los gestos son simultáneos o se superponen en el tiempo y al menos uno de los toques tiene un punto de origen que está fuera del área de visualización y se mueve a una posición en el área de visualización de la superposición sensible al tacto 114. Por lo tanto, pueden utilizarse dos dedos para los gestos de meta navegación. Además, los gestos de meta navegación multitáctiles pueden distinguirse de los gestos de meta navegación de un solo toque y pueden proporcionar una funcionalidad adicional u otra funcionalidad.
En algunas modalidades ilustrativas, un sensor de fuerza opcional 122 o sensores de fuerza se disponen en cualquier ubicación adecuada, por ejemplo, entre la pantalla sensible al tacto 118 y la parte posterior del dispositivo electrónico portátil 100 para detectar una fuerza impartida por un toque en la pantalla sensible al tacto 118. El sensor de fuerza 122 puede ser una resistencia sensible a la fuerza, galga extensiométrica, el dispositivo piezoeléctrico o piezorresistivo, el sensor de presión, u otro dispositivo adecuado. La fuerza como se utiliza en toda la descripción se refiere a mediciones de fuerza, estimaciones, y/o cálculos, tales como presión, deformación, esfuerzo, tensión, densidad de fuerza, relaciones fuerza-área, empuje, torque, y otros efectos que incluyen fuerza o cantidades relacionadas.
La información de fuerza relacionada con un toque detectado puede utilizarse para seleccionar información, tal como información asociada con la ubicación de un toque. Por ejemplo, un toque que no cumple un umbral de fuerza puede resaltar una opción de selección, mientras que un toque que cumple un umbral de fuerza puede seleccionar o ingresar esa opción de selección. Las opciones de selección incluyen, por ejemplo, teclas visualizadas o virtuales de un teclado; cuadros de selección o ventanas, por ejemplo, "cancelar", "eliminar", o "desbloquear"; botones de función, tales como reproducir o detener en un reproductor de música; etcétera. Pueden asociarse diferentes magnitudes de fuerza con diferentes funciones o entradas. Por ejemplo, una fuerza menor puede dar como resultado un movimiento panorámico, y una fuerza mayor puede dar como resultado una ampliación.
En la Figura 2 se muestra una vista frontal de un ejemplo del dispositivo electrónico portátil 100. El dispositivo electrónico portátil 100 incluye una carcasa 202 que encierra componentes tales como los mostrados en la Figura 1. La carcasa 202 puede incluir una parte trasera, paredes laterales, y una parte delantera 204 que enmarca la pantalla sensible al tacto 118.
En el ejemplo mostrado de la Figura 2, la pantalla sensible al tacto 118 se centra generalmente en la carcasa 202 de manera que un área de visualización 206 de la superposición sensible al tacto 114 se centre generalmente con respecto a la parte delantera 204 de la carcasa 202. El área de no visualización 208 de la superposición sensible al tacto 114 se extiende alrededor del área de visualización 206. En el ejemplo descrito actualmente, el ancho del área de no visualización es 4 mm.
De acuerdo con la invención, la superposición sensible al tacto 114 se extiende para cubrir el área de visualización 206 y el área de no visualización 208. Los toques en el área de visualización 206 pueden detectarse y, por ejemplo, pueden asociarse con características seleccionables visualizadas. Pueden detectarse toques en el área de no visualización 208, por ejemplo, para detectar un gesto de meta navegación. Alternativamente, los gestos de meta navegación pueden determinarse tanto por el área de no visualización 208 como por el área de visualización 206. La densidad de los sensores táctiles puede diferir del área de visualización 206 al área de no visualización 208. Por ejemplo, la densidad de nodos en una pantalla sensible al tacto capacitiva mutua, o la densidad de ubicaciones en las que los electrodos de una capa se cruzan sobre los electrodos de otra capa, puede diferir entre el área de visualización 206 y el área de no visualización 208.
Los gestos recibidos en la pantalla sensible al tacto 118 se analizan en base a los atributos para discriminar entre los gestos de meta navegación y otros toques, o gestos de no meta navegación. Los gestos de meta navegación pueden identificarse cuando el gesto cruza sobre un límite cerca de una periferia de la pantalla 112, tal como un límite 210 entre el área de visualización 206 y el área de no visualización 208. En el ejemplo de la Figura 2, el punto de origen de un gesto de meta navegación puede determinarse utilizando el área de la superposición sensible al tacto 114 que cubre el área de no visualización 208.
Una región de amortiguación 212 o banda que se extiende alrededor del límite 210 entre el área de visualización 206 y el área de no visualización 208 puede utilizarse de manera que se identifique un gesto de meta navegación cuando un toque tiene un punto de origen fuera del límite 210 y la región de amortiguación 212 y cruza a través de la región de amortiguación 212 y sobre el límite 210 hasta un punto dentro del límite 210. Aunque se ilustra en la Figura 2, la región de amortiguación 212 puede no ser visible. En cambio, la región de amortiguación 212 puede ser una región alrededor del límite 210 que se extiende a un ancho que es equivalente a un número predeterminado de píxeles, por ejemplo. Alternativamente, el límite 210 puede extenderse un número predeterminado de sensores táctiles o puede extenderse una distancia predeterminada desde el área de visualización 206. De acuerdo con la invención, el límite 210 es una región sensible al tacto.
Los gestos que tienen un punto de origen en la región de amortiguación 212, por ejemplo, pueden identificarse como gestos de no meta navegación. Opcionalmente, los datos de tales gestos pueden utilizarse por una aplicación como un gesto de no meta navegación. Alternativamente, los datos de tales gestos pueden descartarse de manera que los toques que tienen un punto de origen en la región de amortiguación 212 no se utilicen como entrada en el dispositivo electrónico portátil 100.
La Figura 3 ilustra ejemplos de toques en la pantalla sensible al tacto 118. La región de amortiguación 212 se ilustra en la Figura 3 mediante marcas de almohadilla con el fin de explicación. Como se indica, la región de amortiguación 212 puede no ser visible para el usuario. Con el fin de explicación, los toques se ilustran mediante círculos en sus puntos de origen. Las flechas que se extienden desde los círculos ilustran las trayectorias de los toques que son gestos.
El toque 302 comienza en el punto de origen fuera del límite 210 y fuera de la región de amortiguación 212. La trayectoria del toque 302 cruza la región de amortiguación 212 y el límite 210 y por lo tanto se identifica como un gesto de meta navegación. De manera similar, los toques 304, 306, 308, 310, 312, 314, 316 tienen cada uno puntos de origen fuera del límite 210 y la región de amortiguación 212 y sus trayectorias cruzan la región de amortiguación 212 y el límite 210. Por lo tanto, cada uno de los toques 304, 306, 308, 310, 312, 314, 316 se identifica como un gesto de meta navegación. El toque 318, sin embargo, tiene un punto de origen que cae dentro de la región de amortiguación 212 y por lo tanto el toque 318 no se identifica como un gesto de meta navegación. El toque 320 comienza en un punto de origen fuera del límite 210 y la región de amortiguación 212. Sin embargo, la trayectoria del toque 320, no cruza el límite 210 y por lo tanto no se identifica como un gesto de meta navegación. El toque 322 tiene además un punto de origen fuera del límite 210 y la región de amortiguación 212 pero no es un gesto y por lo tanto no cruza el límite 210 y no se identifica como un gesto de meta navegación.
Se muestra en la Figura 4, un diagrama de flujo que ilustra un método para controlar un dispositivo electrónico, tal como el dispositivo electrónico portátil 100. El método se lleva a cabo mediante un código legible por ordenador ejecutado, por ejemplo, por el procesador 102. La codificación de software para llevar a cabo tal método está dentro del alcance de un experto en la técnica dada la presente descripción. El método puede contener procesos adicionales o menos que los mostrados y/o descritos, y puede realizarse en un orden diferente. El código legible por ordenador ejecutable por al menos un procesador del dispositivo electrónico portátil para realizar el método se almacena en un medio legible por ordenador, tal como un medio legible por ordenador no transitorio.
El proceso puede llevarse a cabo en cualquier aplicación adecuada, tal como, una aplicación de pantalla de inicio, una aplicación de correo electrónico, una aplicación de mensajería de texto, una aplicación de calendario, una aplicación de tareas, una aplicación de libreta de direcciones, una aplicación de navegador web, o cualquier otra aplicación adecuada. La información de la aplicación, denominada como la primera aplicación, se visualiza en la pantalla sensible al tacto 118 del dispositivo electrónico portátil 100 en 402. Cuando se detecta un toque en 404, el proceso continúa en 406 y se hace una determinación de si el toque es o no un gesto de meta navegación. La determinación se hace en base a los atributos del toque como se describe anteriormente. En respuesta a la determinación de que el toque no es un gesto de meta navegación, que puede ser un toque en la pantalla sensible al tacto 118 o puede ser un gesto de no meta navegación, los datos táctiles se utilizan en asociación con la primera aplicación para la que la información se visualiza en la pantalla sensible al tacto 118 en el momento que se recibe el gesto, en 408. En respuesta a identificar el toque como un gesto de meta navegación en 406, los datos táctiles se utilizan en una segunda aplicación y la información asociada con la segunda, o con otra aplicación, se visualiza en la pantalla sensible al tacto 118 en 410. La información asociada con la segunda aplicación puede superponerse sobre la información asociada con la primera aplicación, por ejemplo, para facilitar la navegación de regreso a la información asociada con la primera aplicación. Alternativamente, la información asociada con la segunda aplicación puede incluir, por ejemplo, información de una interfaz de navegación a nivel del sistema, una interfaz de configuración, una interfaz de notificación, una interfaz de estado, una interfaz de menú, o información asociada con cualquier otra interfaz.
Con referencia nuevamente a la Figura 3, los toques 302, 304, 306, 308, 310, 312, 314, 316 identificados como gestos de meta navegación pueden asociarse cada uno con información desde una aplicación de manera que los atributos del gesto de meta navegación tal como el punto de origen, puedan utilizarse para determinar con qué aplicación se asocia el gesto de meta navegación. La Figura 5 ilustra ejemplos de asociaciones entre gestos de meta navegación e información de aplicaciones, además de la aplicación asociada con la información visualizada en la pantalla sensible al tacto 118 en el momento en que se recibe el gesto. Las relaciones mostradas en la Figura 5 se muestran sólo con fines ilustrativos y son intercambiables. Pueden utilizarse otras aplicaciones y asociaciones alternativas. Pueden utilizarse otras aplicaciones y asociaciones alternativas. Los términos superior, inferior, derecha, e izquierda se utilizan en la presente descripción con el fin de proporcionar una referencia y se refieren a un área del dispositivo electrónico portátil 100 con relación a la orientación en la que se visualiza la información asociada con la aplicación.
El gesto de meta navegación 302, que se origina cerca de una parte inferior, central de la pantalla sensible al tacto 118 y sigue una trayectoria generalmente vertical en la orientación en la que se visualiza la información desde una aplicación actual 502, hace que una pantalla de inicio asociada con una aplicación de navegación de raíz 510 reemplace la información asociada con la aplicación actual 502. La pantalla de inicio incluye un carrusel que muestra las aplicaciones activas actualmente indicadas en una porción superior de la pantalla. En consecuencia, las aplicaciones actualmente activas se muestran en un carrusel navegable en la porción superior de la pantalla de inicio. El carrusel se ubica en la porción superior de la pantalla de inicio. En el presente ejemplo, la porción superior utiliza sólo aproximadamente 1/3 de la pantalla de inicio, y los íconos de aplicación para aplicaciones no activas se proporcionan en la porción inferior de la pantalla de inicio para facilitar la selección.
El gesto de meta navegación 304, que se origina cerca de una parte izquierda, en el centro de la pantalla sensible al tacto 118 y sigue una trayectoria generalmente lateral, hace que la información asociada con la aplicación actual 502 se reemplace con información asociada con una aplicación anterior 506, que puede ser una aplicación anterior en una agrupación o puede ser una aplicación asociada con información visualizada anteriormente. El gesto de meta navegación 306, que se origina cerca de una parte derecha, en el centro de la pantalla sensible al tacto 118 y sigue una trayectoria generalmente lateral, hace que la información asociada con la aplicación actual 502 se reemplace con información asociada con una siguiente aplicación 508, que puede ser una siguiente aplicación en una agrupación.
El gesto lateral desde ya sea el lado izquierdo o el lado derecho de la pantalla sensible al tacto 118 puede hacer que la información asociada con la aplicación actual 502 se reduzca en tamaño para proporcionar una pista visual de otras aplicaciones activas antes de reemplazar la información con la aplicación anterior 506 o la siguiente aplicación 508. Por ejemplo, una parte de la información de la aplicación anterior 506 puede visualizarse en una franja delgada adyacente al borde o bordes del área de visualización 206 durante el gesto y antes de la sustitución de la información asociada con la aplicación actual 502. La información asociada con la aplicación actual 502 puede reemplazarse con la aplicación anterior o siguiente 508 a medida que continúa el gesto. En un ejemplo alternativo, una porción de la información de la aplicación anterior 506 o una porción de la información de la siguiente aplicación 508 puede visualizarse en una franja delgada adyacente a los bordes del área de visualización 206 en respuesta a la recepción de un primer gesto lateral. En este ejemplo, un deslizamiento dentro de la franja delgada puede provocar el desplazamiento de la siguiente y última aplicación en una lista. Puede utilizarse un segundo gesto de meta navegación lateral tal como los gestos 304, 306, para hacer que la información asociada con la aplicación actual 502, cuya información se reduce en tamaño, se reemplace.
El gesto de meta navegación 308, que se origina cerca de la parte superior, en el centro de la pantalla sensible al tacto 118 y sigue una trayectoria generalmente vertical, hace que la información asociada con la aplicación actual 502 se reemplace con información asociada con una aplicación de configuraciones de aplicaciones 504.
El gesto de meta navegación 310, que se origina cerca de una esquina superior, izquierda de la pantalla sensible al tacto 118, hace que la información asociada con una aplicación de notificaciones 512 se coloque sobre la información asociada con la aplicación actual 502. De manera similar, el gesto de meta navegación 312, que se origina cerca de una esquina superior, derecha de la pantalla sensible al tacto 118, hace que la información asociada con la aplicación de notificaciones 512 se coloque sobre la información asociada con la aplicación actual 502.
El gesto de meta navegación 314, que se origina cerca de una esquina inferior, izquierda de la pantalla sensible al tacto 118, hace que la información asociada con una aplicación de estado 514 se coloque sobre la información asociada con la aplicación actual 502. De manera similar, el gesto de meta navegación 316, que se origina cerca de una esquina inferior, derecha de la pantalla sensible al tacto 118, hace que la información asociada con la aplicación de estado 514 se coloque sobre la información asociada con la aplicación actual 502.
De acuerdo con la invención, los gestos de meta navegación se identifican utilizando una superposición sensible al tacto que se extiende sobre el área de no visualización. Los gestos de meta navegación se detectan en base a la primera ubicación táctil detectada en un margen de la superposición sensible al tacto, que, en un ejemplo no cubierto por las reivindicaciones, puede estar en un margen del área visualizable, y, opcionalmente, en base a la velocidad o la dirección del gesto cuando se detecta el toque o atraviesa la trayectoria mediante el gesto. La identificación de los gestos de meta navegación puede llevarse a cabo además utilizando un algoritmo heurístico en base a atributos táctiles y que responda a atributos táctiles tales como uno o más de los puntos de origen, velocidad, dirección, distancia y trayectoria del gesto.
Opcionalmente, el dispositivo electrónico puede incluir un marco de la carcasa sensible al tacto o un bisel sensible al tacto que circunscriba la superposición sensible al tacto. En un ejemplo no cubierto por las reivindicaciones, los gestos de meta navegación pueden identificarse en base a un punto de origen detectado en el marco o bisel sensible al tacto.
De acuerdo con un ejemplo que no se cubre por las reivindicaciones, el límite que se cruza por un gesto de meta navegación es el límite entre el área de visualización y el área de no visualización de la pantalla sensible al tacto. Sin embargo, de acuerdo con la presente invención, el límite es una región o banda a lo largo de un margen de la superposición sensible al tacto. En otros ejemplos que no se cubren por las reivindicaciones, pueden utilizarse otros límites adecuados y pueden incluir una línea predeterminada, o líneas en la pantalla sensible al tacto 118, o el límite donde el bisel o marco del dispositivo electrónico se encuentra con la pantalla sensible al tacto.
El uso de gestos de meta navegación y la identificación de tales gestos proporcionan una entrada adicional que puede distinguirse de los gestos de no meta navegación u otros toques. Estos gestos de meta navegación facilitan la entrada de información relacionados con una aplicación para la que no se visualiza información en el momento que se recibe el gesto. Por lo tanto, puede recibirse información relacionada con una aplicación que no se asocia con la información visualizada en la pantalla sensible al tacto sin el uso de íconos o características seleccionables visualizadas en la pantalla sensible al tacto y sin la necesidad de usar otros controles en el dispositivo electrónico tales como botones o conmutadores físicos. Un área o áreas de la pantalla sensible al tacto no se utilizan para visualizar tales íconos o características seleccionables. Por lo tanto, la navegación a nivel del sistema se proporciona sin el uso de pantallas o menús adicionales para tal navegación, lo que proporciona una interfaz mejorada.
De acuerdo con un ejemplo, se proporciona un método para un dispositivo electrónico con un procesador y una pantalla sensible al tacto, la pantalla sensible al tacto que incluye un área de visualización y un área de no visualización. De acuerdo con un aspecto no cubierto por las reivindicaciones, el método incluye proporcionar un límite en base al área de visualización y el área de no visualización.
De acuerdo con otro ejemplo, un dispositivo electrónico incluye una pantalla sensible al tacto, una memoria, y un procesador acoplado a la pantalla sensible al tacto y la memoria para llevar a cabo el método anterior.
La presente descripción puede realizarse en otras formas específicas. Las modalidades descritas deben considerarse en todos los aspectos sólo como ilustrativas y no restrictivas. El alcance de la presente invención, por lo tanto, se indica por las reivindicaciones adjuntas en lugar de por la descripción anterior.

Claims (1)

  1. REIVINDICACIONES
    Un método para un dispositivo electrónico (100) con un procesador (102) y una pantalla sensible al tacto (118) que comprende un área de visualización (206), un área de no visualización (208) y una superposición sensible al tacto (114) que cubre el área de visualización (206) y el área de no visualización (208), en donde un límite (210) se dispone cerca de una periferia de la pantalla sensible al tacto (118), el límite (210) es una región o banda a lo largo de un margen de la superposición sensible al tacto (114), el método que comprende:
    - visualizar (402) información asociada con una primera aplicación (502) en el área de visualización (206);
    - detectar (404) un gesto en la pantalla sensible al tacto (118) y determinar los atributos táctiles que incluyen una ubicación de inicio del gesto;
    - determinar (406) si el gesto es un gesto de meta navegación (304-316) asociado con una segunda aplicación (504-514) o un gesto de no meta navegación (318) asociado con la primera aplicación (502) en base a si el gesto cruza el límite (210) por:
    cuando el gesto detectado tiene la ubicación de inicio en el margen de la superposición sensible al tacto (114) y se extiende a través del límite (210), determinar que el toque es el gesto de meta navegación (304-316);
    cuando el gesto detectado tiene la ubicación de inicio no en el margen y no se extiende a través del límite (210), determinar que el toque es el gesto de no meta navegación (318); y cuando se determina que el toque es el gesto de meta navegación (304-316), visualizar (410) información asociada con la segunda aplicación (504-514) en el área de visualización (206), de lo contrario reenviar (408) los datos táctiles relacionados con el gesto a la primera aplicación (502), en donde cuando el gesto de meta navegación (304-316) se origina cerca de una parte inferior, del centro de la pantalla sensible al tacto y sigue una trayectoria generalmente vertical en la orientación en la que se visualiza la información de la primera aplicación (502), que hace que una pantalla de inicio asociada con una aplicación de navegación raíz reemplace la información asociada con la primera aplicación (502).
    El método de acuerdo con cualquier reivindicación anterior, en donde los atributos táctiles comprenden además al menos una distancia recorrida, una velocidad, o una dirección del gesto.
    El método de acuerdo con cualquier reivindicación anterior, en donde detectar (404) un gesto comprende detectar múltiples toques que se superponen en el tiempo en la pantalla sensible al tacto (118) y determinar los atributos táctiles para cada toque.
    Un dispositivo electrónico (100) que comprende:
    una pantalla sensible al tacto (118) que incluye un área de visualización (206), un área de no visualización (208) y una superposición sensible al tacto (114) que cubre el área de visualización (206) y el área de no visualización (208), en donde un límite (210) se dispone cerca de una periferia de la pantalla sensible al tacto (118), el límite (210) que es una región o banda a lo largo de un margen de la superposición sensible al tacto (114); y
    un procesador (102) acoplado a la pantalla sensible al tacto (118); el procesador se configura para: visualizar (402) información asociada con una primera aplicación (502) en el área de visualización (206);
    detectar (404) un gesto en la pantalla sensible al tacto (118) y determinar los atributos táctiles que incluyen una ubicación de inicio del gesto; y
    determinar (406) si el gesto es un gesto de meta navegación (304-316) asociado con una segunda aplicación (504-514) o un gesto de no meta navegación (318) asociado con la primera aplicación (502) en base a si el gesto cruza el límite (210); en donde
    el procesador se configura para determinar que el toque es el gesto de meta navegación (304­ 316) cuando el gesto detectado tiene la ubicación de inicio en el margen de la superposición sensible al tacto (114) y se extiende a través del límite (210); y
    el procesador se configura para determinar que el toque es el gesto de no meta navegación (318) cuando el gesto detectado no tiene la ubicación de inicio en el margen y no se extiende a través del límite (210);
    en donde cuando se determina que el toque es el gesto de meta navegación (304-316), el procesador se configura para visualizar (410) información asociada con la segunda aplicación (504-514) en el área de visualización (206), de lo contrario el procesador se configura para reenviar (408) los datos táctiles relacionados con el gesto a la primera aplicación (502), y
    en donde cuando el gesto de meta navegación (304-316) se origina cerca de una parte inferior, del centro de la pantalla sensible al tacto y sigue una trayectoria generalmente vertical en la orientación en la que se visualiza la información de la primera aplicación (502),
    el procesador se configura para visualizar una pantalla de inicio asociada con una aplicación de navegación raíz para reemplazar la información asociada con la primera aplicación (502).
    5. Un medio legible por ordenador que tiene un código legible por ordenador ejecutable por al menos un procesador (102) de un dispositivo electrónico (100) de acuerdo con la reivindicación 4 para realizar el método de acuerdo con cualquiera de las reivindicaciones 1 a la 3.
ES17208105T 2010-09-24 2011-09-23 Dispositivo electrónico portátil y método para controlar el mismo Active ES2900188T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US38621910P 2010-09-24 2010-09-24

Publications (1)

Publication Number Publication Date
ES2900188T3 true ES2900188T3 (es) 2022-03-16

Family

ID=44764223

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17208105T Active ES2900188T3 (es) 2010-09-24 2011-09-23 Dispositivo electrónico portátil y método para controlar el mismo

Country Status (10)

Country Link
US (3) US8976129B2 (es)
EP (5) EP2434388B1 (es)
JP (2) JP5784712B2 (es)
KR (3) KR20130019407A (es)
CN (4) CN102870076A (es)
CA (3) CA2797877C (es)
DE (3) DE112011101203T5 (es)
ES (1) ES2900188T3 (es)
GB (3) GB2493116B (es)
WO (3) WO2012037664A1 (es)

Families Citing this family (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200145B (zh) 2007-09-24 2020-10-27 苹果公司 电子设备中的嵌入式验证系统
US20110252376A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
CA2750352C (en) * 2010-09-24 2019-03-05 Research In Motion Limited Method for conserving power on a portable electronic device and a portable electronic device configured for the same
US9785335B2 (en) * 2010-12-27 2017-10-10 Sling Media Inc. Systems and methods for adaptive gesture recognition
US8933888B2 (en) * 2011-03-17 2015-01-13 Intellitact Llc Relative touch user interface enhancements
US9843665B2 (en) 2011-05-27 2017-12-12 Microsoft Technology Licensing, Llc Display of immersive and desktop shells
US10417018B2 (en) * 2011-05-27 2019-09-17 Microsoft Technology Licensing, Llc Navigation of immersive and desktop shells
WO2012167735A1 (zh) * 2011-06-07 2012-12-13 联想(北京)有限公司 电子设备、触摸输入方法和控制方法
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
EP3401774B1 (en) * 2011-08-12 2019-10-09 BlackBerry Limited Portable electronic device and method of controlling same
US20130300704A1 (en) * 2011-09-13 2013-11-14 Tomonari Takahashi Information input device and information input method
JP5372091B2 (ja) 2011-09-15 2013-12-18 株式会社ワコム 電子機器および電子機器の表示画面制御方法
US8810535B2 (en) * 2011-10-18 2014-08-19 Blackberry Limited Electronic device and method of controlling same
US9360940B2 (en) * 2011-11-14 2016-06-07 Google Inc. Multi-pane interface
US8411060B1 (en) * 2012-01-13 2013-04-02 Google Inc. Swipe gesture classification
JP2013186702A (ja) * 2012-03-08 2013-09-19 Sony Corp 入力処理装置、入力処理プログラム及び入力処理方法
FR2990020B1 (fr) * 2012-04-25 2014-05-16 Fogale Nanotech Dispositif de detection capacitive avec arrangement de pistes de liaison, et procede mettant en oeuvre un tel dispositif.
GB2506231A (en) * 2012-04-30 2014-03-26 Blackberry Ltd Touchscreen keyboard with correction of previously input text
US20130285927A1 (en) * 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard with correction of previously input text
EP2847659B1 (en) 2012-05-09 2019-09-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN107728906B (zh) 2012-05-09 2020-07-31 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
JP6082458B2 (ja) 2012-05-09 2017-02-15 アップル インコーポレイテッド ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
EP3410287B1 (en) 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
US8451246B1 (en) 2012-05-11 2013-05-28 Google Inc. Swipe gesture classification
US9098192B2 (en) * 2012-05-11 2015-08-04 Perceptive Pixel, Inc. Overscan display device and method of using the same
JP6023879B2 (ja) * 2012-05-18 2016-11-09 アップル インコーポレイテッド 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
CN103488321A (zh) * 2012-06-14 2014-01-01 腾讯科技(深圳)有限公司 一种在触摸屏终端上识别触摸动作的方法及装置
WO2014000184A1 (en) * 2012-06-27 2014-01-03 Nokia Corporation Using a symbol recognition engine
CN103529976B (zh) * 2012-07-02 2017-09-12 英特尔公司 手势识别系统中的干扰消除
US20140022183A1 (en) * 2012-07-19 2014-01-23 General Instrument Corporation Sending and receiving information
US8842088B2 (en) * 2012-07-27 2014-09-23 Apple Inc. Touch gesture with visible point of interaction on a touch screen
JP5956873B2 (ja) * 2012-08-28 2016-07-27 シャープ株式会社 携帯情報装置、選択メニュー表示方法、選択メニュー表示プログラム、および、プログラム記録媒体
US9075519B2 (en) 2012-10-11 2015-07-07 Apple Inc. System and method for interacting with a displayed work space
US9785291B2 (en) * 2012-10-11 2017-10-10 Google Inc. Bezel sensitive touch screen system
US20140118281A1 (en) * 2012-10-26 2014-05-01 Cirque Corporation DETERMINING WHAT INPUT TO ACCEPT BY A TOUCH SENSOR AFTER INTENTIONAL AND ACCIDENTAL LIFT-OFF and SLIDE-OFF WHEN GESTURING OR PERFORMING A FUNCTION
US8806384B2 (en) * 2012-11-02 2014-08-12 Google Inc. Keyboard gestures for character string replacement
CN103853481B (zh) * 2012-12-06 2021-03-12 腾讯科技(深圳)有限公司 模拟触屏移动终端按键的方法和系统
CN104903834B (zh) 2012-12-29 2019-07-05 苹果公司 用于在触摸输入到显示输出关系之间过渡的设备、方法和图形用户界面
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
AU2013368440B2 (en) 2012-12-29 2017-01-05 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
KR20140103584A (ko) * 2013-02-18 2014-08-27 삼성디스플레이 주식회사 전자 기기, 이의 동작 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 매체
JP2014174760A (ja) 2013-03-08 2014-09-22 Japan Display Inc タッチ検出機能付き表示装置及び電子機器
US9477404B2 (en) * 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
CN110851034B (zh) * 2013-03-15 2024-03-15 苹果公司 用于管理用户界面的方法和电子设备
JP2014225245A (ja) 2013-04-25 2014-12-04 パナソニックIpマネジメント株式会社 交通情報呈示システム、交通情報呈示方法および電子デバイス
US10481769B2 (en) * 2013-06-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing navigation and search functionalities
US9330545B2 (en) * 2013-07-17 2016-05-03 Google Inc. Determining input received via tactile input device
CN104346044A (zh) * 2013-08-06 2015-02-11 北京怡孚和融科技有限公司 拉幕式菜单控制方法
JP6221527B2 (ja) * 2013-09-02 2017-11-01 富士通株式会社 電子機器及び座標入力プログラム
KR102130797B1 (ko) 2013-09-17 2020-07-03 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
TWI525525B (zh) * 2013-12-04 2016-03-11 緯創資通股份有限公司 行動裝置及其致能方法
JP6352626B2 (ja) * 2013-12-11 2018-07-04 シャープ株式会社 表示装置及びアンロック方法
JP2015172861A (ja) * 2014-03-12 2015-10-01 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器の使用環境を切り換える方法、携帯式電子機器およびコンピュータ・プログラム
US9477337B2 (en) * 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
US20150286391A1 (en) * 2014-04-08 2015-10-08 Olio Devices, Inc. System and method for smart watch navigation
WO2015159774A1 (ja) * 2014-04-14 2015-10-22 シャープ株式会社 入力装置、入力装置の制御方法
JP6184368B2 (ja) * 2014-04-25 2017-08-23 株式会社東芝 情報処理装置及びグラフ表示方法
CN104007932B (zh) * 2014-06-17 2017-12-29 华为技术有限公司 一种触摸点识别方法及装置
US20160041702A1 (en) * 2014-07-08 2016-02-11 Nan Wang Pull and Swipe Navigation
KR20140138361A (ko) * 2014-11-07 2014-12-03 이용재 루프 형태의 택타일 멀티터치 입력장치, 제스처와 그 방법
JP6219264B2 (ja) * 2014-12-22 2017-10-25 アルプス電気株式会社 入力装置とその制御方法及びプログラム
US10203804B2 (en) * 2014-11-26 2019-02-12 Alps Electric Co., Ltd. Input device, and control method and program therefor
CN105049780A (zh) * 2014-12-15 2015-11-11 牛三平 习录仪
JP2016126363A (ja) * 2014-12-26 2016-07-11 レノボ・シンガポール・プライベート・リミテッド タッチスクリーンに入力する方法、携帯式電子機器およびコンピュータ・プログラム
KR102320770B1 (ko) * 2015-01-20 2021-11-02 삼성디스플레이 주식회사 표시장치의 터치 인식방법 및 이를 이용한 표시장치
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10152162B1 (en) 2015-05-15 2018-12-11 Apple Inc. Method of optimizing touch detection
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US20180095653A1 (en) * 2015-08-14 2018-04-05 Martin Hasek Device, method and graphical user interface for handwritten interaction
JP6410693B2 (ja) * 2015-08-31 2018-10-24 アルプス電気株式会社 入力装置とその制御方法及びプログラム
JP2016015181A (ja) * 2015-10-29 2016-01-28 Kddi株式会社 押圧の度合いによって異なる機能を発動可能なユーザインタフェース装置、プログラム及び機能発動方法
US10739927B2 (en) * 2016-10-11 2020-08-11 Huawei Technologies Co., Ltd. Operation detection method and apparatus, and mobile terminal
US10592027B2 (en) * 2017-09-11 2020-03-17 Apple Inc. State-based touch threshold
CN107704126A (zh) * 2017-09-22 2018-02-16 广州视源电子科技股份有限公司 一种触摸数据的分离方法、装置、设备和存储介质
US10585536B2 (en) * 2017-09-29 2020-03-10 Apple Inc. Method for transitioning power states of an electronic device
JP7022846B2 (ja) * 2018-05-07 2022-02-18 アップル インコーポレイテッド ユーザインタフェース間でのナビゲーション、ドックの表示、及びシステムユーザインタフェース要素の表示のためのデバイス、方法、及びグラフィカルユーザインタフェース
US11797150B2 (en) 2018-05-07 2023-10-24 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces, displaying a dock, and displaying system user interface elements
CN109947243B (zh) * 2019-03-01 2021-09-28 清华大学 基于触摸手检测的智能电子设备手势捕获与识别技术
JP6874789B2 (ja) * 2019-06-21 2021-05-19 カシオ計算機株式会社 入力装置及び電子機器
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces

Family Cites Families (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0458316A (ja) 1990-06-28 1992-02-25 Toshiba Corp 情報処理装置
US5579487A (en) 1992-10-02 1996-11-26 Teletransaction, Inc. Portable work slate computer with multiple docking positions for interchangeably receiving removable modules
US5579036A (en) 1994-04-28 1996-11-26 At&T Global Information Solutions Company Touch screen device and shielding bracket therefor
US6473069B1 (en) * 1995-11-13 2002-10-29 Cirque Corporation Apparatus and method for tactile feedback from input device
US5754809A (en) 1995-12-12 1998-05-19 Dell U.S.A., L.P. Perspective windowing technique for computer graphical user interface
JPH1011208A (ja) 1996-06-24 1998-01-16 Sharp Corp 座標入力装置
JP3069949B2 (ja) * 1996-10-09 2000-07-24 日精樹脂工業株式会社 射出成形機の入力装置
WO1998044407A1 (en) 1997-03-28 1998-10-08 Sun Microsystems, Inc. Method and apparatus for configuring sliding panels
JP3492493B2 (ja) * 1997-06-13 2004-02-03 日本電気株式会社 タッチパネル及びタッチパネル上の押圧位置検出方法
EP1040406B1 (en) * 1997-12-16 2003-05-02 Microsoft Corporation Soft input panel system and method
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6437836B1 (en) 1998-09-21 2002-08-20 Navispace, Inc. Extended functionally remote control system and method therefore
US6552719B2 (en) * 1999-01-07 2003-04-22 Microsoft Corporation System and method for automatically switching between writing and text input modes
US6936965B1 (en) 1999-11-24 2005-08-30 Lg Electronics Inc. Plasma display panel
US7183948B2 (en) * 2001-04-13 2007-02-27 3M Innovative Properties Company Tangential force control in a touch location device
US6809723B2 (en) 2001-05-14 2004-10-26 Agilent Technologies, Inc. Pushbutton optical screen pointing device
US20020186257A1 (en) 2001-06-08 2002-12-12 Cadiz Jonathan J. System and process for providing dynamic communication access and information awareness in an interactive peripheral display
CN100339809C (zh) * 2001-09-21 2007-09-26 联想(新加坡)私人有限公司 输入装置、计算机装置、输入对象的识别方法、软件键盘的输入对象识别方法
US7487462B2 (en) 2002-02-21 2009-02-03 Xerox Corporation Methods and systems for indicating invisible contents of workspace
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
EP1593112A4 (en) 2003-02-14 2007-07-25 Mattel Inc PORTABLE INTERACTIVE ELECTRONIC DEVICE
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7047092B2 (en) 2003-04-08 2006-05-16 Coraccess Systems Home automation contextual user interface
JP4685338B2 (ja) * 2003-09-19 2011-05-18 株式会社東芝 情報処理装置
US8504798B2 (en) 2003-12-30 2013-08-06 Sandisk Technologies Inc. Management of non-volatile memory systems having large erase blocks
JP2005208991A (ja) 2004-01-23 2005-08-04 Canon Inc 位置情報出力装置及び信号処理方法
US8281241B2 (en) * 2004-06-28 2012-10-02 Nokia Corporation Electronic device and method for providing extended user interface
US8184108B2 (en) 2004-06-30 2012-05-22 Poa Sana Liquidating Trust Apparatus and method for a folded optical element waveguide for use with light based touch screens
KR100958490B1 (ko) 2004-07-30 2010-05-17 애플 인크. 사용자 인터페이스 방법, 미디어 항목들을 통해 스크롤하는방법, 디스플레이 및 터치 스크린을 갖는 사용자-조작되는전자 장치 상에서 수행되는 방법, 디스플레이 및 터치감지 입력 장치를 갖는 컴퓨팅 장치 상에서 수행되는 방법,컴퓨팅 시스템, 컴퓨팅 장치, 터치 감지 장치를 통해플로팅 컨트롤을 기동시키는 컴퓨터 구현 방법 및 컴퓨터구현 방법
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
JP4578947B2 (ja) * 2004-11-19 2010-11-10 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP4583893B2 (ja) 2004-11-19 2010-11-17 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20060146055A1 (en) 2005-01-06 2006-07-06 Raymond Chow Graphics controller providing for animated windows
JP5550211B2 (ja) * 2005-03-04 2014-07-16 アップル インコーポレイテッド 多機能ハンドヘルド装置
JP4394057B2 (ja) * 2005-09-21 2010-01-06 アルプス電気株式会社 入力装置
DE102006045591A1 (de) 2005-10-28 2007-05-03 Volkswagen Ag Anzeigevorrichtung zur Anzeige von Informationen, insbesondere den Betrieb eines Kraftfahrzeuges betreffenden Informationen
JP2007199819A (ja) 2006-01-24 2007-08-09 Fujitsu Ltd メッセージ表示制御プログラムおよびメッセージ表示制御装置
EP3835920B1 (en) * 2006-03-03 2023-10-11 Apple Inc. Electronic device having display with touch sensitive perimeter for user interface and control
US20070236468A1 (en) * 2006-03-30 2007-10-11 Apaar Tuli Gesture based device activation
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US20070250787A1 (en) 2006-04-21 2007-10-25 Hideya Kawahara Enhancing visual representation and other effects for application management on a device with a small screen
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US7880728B2 (en) 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
US20080051642A1 (en) 2006-08-24 2008-02-28 Hagai Krupnik Device, system and method of displaying in -vivo images at variable rate
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
KR20080041809A (ko) * 2006-11-08 2008-05-14 삼성전자주식회사 휴대용 단말기에서 디스플레이 제어 방법 및 장치
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US20080222545A1 (en) 2007-01-07 2008-09-11 Lemay Stephen O Portable Electronic Device with a Global Setting User Interface
US20080238884A1 (en) 2007-03-29 2008-10-02 Divyasimha Harish Edge sensors forming a touchscreen
US9195329B2 (en) 2007-05-04 2015-11-24 Blackberry Limited Touch-sensitive device
CN101308415B (zh) * 2007-05-15 2015-05-13 宏达国际电子股份有限公司 具有可切换使用者界面以及无阻碍触控操作的电子装置
TWI357012B (en) 2007-05-15 2012-01-21 Htc Corp Method for operating user interface and recording
US9477395B2 (en) 2007-09-04 2016-10-25 Apple Inc. Audio file interface
US20090058820A1 (en) * 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
TWI417764B (zh) * 2007-10-01 2013-12-01 Giga Byte Comm Inc A control method and a device for performing a switching function of a touch screen of a hand-held electronic device
JP5133022B2 (ja) * 2007-10-04 2013-01-30 任天堂株式会社 プログラム、情報処理装置、情報処理システムおよび情報処理方法
EP2045700A1 (en) * 2007-10-04 2009-04-08 LG Electronics Inc. Menu display method for a mobile communication terminal
US20090119678A1 (en) 2007-11-02 2009-05-07 Jimmy Shih Systems and methods for supporting downloadable applications on a portable client device
JP5119888B2 (ja) 2007-11-26 2013-01-16 ブラザー工業株式会社 ラスタデータ作成装置、ラスタデータ作成プログラム及び表示装置
US20090146970A1 (en) 2007-12-10 2009-06-11 Research In Motion Limited Electronic device and touch screen having discrete touch-sensitive areas
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
KR101224588B1 (ko) * 2008-01-24 2013-01-22 삼성전자주식회사 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
US20090189875A1 (en) 2008-01-29 2009-07-30 Research In Motion Limited Electronic device and touch screen display
KR101012300B1 (ko) 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
US9448721B2 (en) 2008-03-19 2016-09-20 Blackberry Limited Electronic device including touch-sensitive input device and method of determining selection
US8159469B2 (en) * 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
US20090278795A1 (en) 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Illumination Assembly Therefor
EP2283427A4 (en) 2008-05-12 2013-01-16 Energy And Power Solutions Inc SYSTEMS AND METHOD FOR ASSESSING AND OPTIMIZING ENERGY UTILIZATION AND ENVIRONMENTAL IMPACT
US9280255B2 (en) 2008-05-28 2016-03-08 Qualcomm Incorporated Structured displaying of visual elements
US8659555B2 (en) * 2008-06-24 2014-02-25 Nokia Corporation Method and apparatus for executing a feature using a tactile cue
KR20100006003A (ko) 2008-07-08 2010-01-18 삼성전자주식회사 휴대단말기의 터치 인터페이스를 이용한 영상편집 방법 및장치
KR101496844B1 (ko) 2008-07-28 2015-02-27 삼성디스플레이 주식회사 터치 스크린 표시 장치 및 그 구동 방법
US10375223B2 (en) 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
US8692776B2 (en) * 2008-09-19 2014-04-08 Apple Inc. Correction of parasitic capacitance effect in touch sensor panels
EP2169521A1 (en) 2008-09-26 2010-03-31 Research In Motion Limited Touch-screen device having soft escape key
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
CA2680666A1 (en) 2008-10-08 2010-04-08 Research In Motion Limited An electronic device having a state aware touchscreen
US20100100067A1 (en) 2008-10-17 2010-04-22 Pugliese Iii Sebastian C Articles with a series of graphical objects providing a functional cue
US8533844B2 (en) 2008-10-21 2013-09-10 Lookout, Inc. System and method for security data collection and analysis
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
DE602008006738D1 (de) * 2008-10-29 2011-06-16 Giga Byte Comm Inc Verfahren und Vorrichtung zum Umschalten eines Touchscreens einer tragbaren elektronischen Vorrichtung
US9122356B2 (en) * 2008-10-30 2015-09-01 Dell Products L.P. Virtual periphery display buttons
KR101544475B1 (ko) 2008-11-28 2015-08-13 엘지전자 주식회사 터치를 통한 입출력 제어
US8368657B2 (en) 2008-12-01 2013-02-05 Freescale Semiconductor, Inc. Touch sensor panel using regional and local electrodes to increase number of sense locations
US9864513B2 (en) * 2008-12-26 2018-01-09 Hewlett-Packard Development Company, L.P. Rendering a virtual input device upon detection of a finger movement across a touch-sensitive display
US8499251B2 (en) 2009-01-07 2013-07-30 Microsoft Corporation Virtual page turn
JP4670970B2 (ja) 2009-01-28 2011-04-13 ソニー株式会社 表示入力装置
US8442509B2 (en) 2009-01-30 2013-05-14 Cassis International Pte. Ltd. System and method for managing a wireless device from removable media with processing capability
WO2010092993A1 (ja) 2009-02-13 2010-08-19 株式会社 東芝 情報処理装置
US9176747B2 (en) 2009-02-17 2015-11-03 Sandisk Il Ltd. User-application interface
US20100214218A1 (en) 2009-02-20 2010-08-26 Nokia Corporation Virtual mouse
US20100229090A1 (en) 2009-03-05 2010-09-09 Next Holdings Limited Systems and Methods for Interacting With Touch Displays Using Single-Touch and Multi-Touch Gestures
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US8355698B2 (en) 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
US8238876B2 (en) 2009-03-30 2012-08-07 Microsoft Corporation Notifications
KR101579309B1 (ko) 2009-03-31 2016-01-04 엘지전자 주식회사 디스플레이 장치
TW201035829A (en) * 2009-03-31 2010-10-01 Compal Electronics Inc Electronic device and method of operating screen
JP4904375B2 (ja) 2009-03-31 2012-03-28 京セラ株式会社 ユーザインタフェース装置及び携帯端末装置
US9444894B2 (en) 2009-04-15 2016-09-13 Wyse Technology Llc System and method for communicating events at a server to a remote device
US20110004845A1 (en) 2009-05-19 2011-01-06 Intelliborn Corporation Method and System For Notifying A User of An Event Or Information Using Motion And Transparency On A Small Screen Display
US8836648B2 (en) * 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US20110004888A1 (en) 2009-07-06 2011-01-06 Sudharshan Srinivasan Screen sharing method with selective access to both data and logic of a shared application using a helper application
KR20110022347A (ko) 2009-08-27 2011-03-07 삼성전자주식회사 터치 스크린에서의 노이즈 제거 방법 및 터치 스크린을 구비한 디스플레이 장치에서의 터치 동작 디스플레이 방법
KR101644416B1 (ko) 2009-12-17 2016-08-02 삼성전자주식회사 화상형성장치 및 그 로컬 유저 인터페이스 제공방법
US8793611B2 (en) 2010-01-06 2014-07-29 Apple Inc. Device, method, and graphical user interface for manipulating selectable user interface objects
US20110164065A1 (en) * 2010-01-06 2011-07-07 Ati Technologies Ulc Method And Apparatus For Configuring Display Bezel Compensation For A Single Large Surface Display Formed By A Plurality Of Displays
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8483518B2 (en) * 2010-02-19 2013-07-09 Microsoft Corporation Image-based CAPTCHA exploiting context in object recognition
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US20110252376A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US9164620B2 (en) * 2010-06-07 2015-10-20 Apple Inc. Touch sensing error compensation
US8260247B2 (en) * 2010-07-21 2012-09-04 Research In Motion Limited Portable electronic device and method of operation
US9710154B2 (en) 2010-09-03 2017-07-18 Microsoft Technology Licensing, Llc Dynamic gesture parameters
JP5792971B2 (ja) 2011-03-08 2015-10-14 任天堂株式会社 情報処理システム、情報処理プログラム、および情報処理方法
US9423876B2 (en) * 2011-09-30 2016-08-23 Microsoft Technology Licensing, Llc Omni-spatial gesture input

Also Published As

Publication number Publication date
CN102870076A (zh) 2013-01-09
WO2012040616A2 (en) 2012-03-29
CA2797883A1 (en) 2012-03-29
CN103221914A (zh) 2013-07-24
EP3352060B1 (en) 2021-11-03
JP2013529338A (ja) 2013-07-18
GB2497388A (en) 2013-06-12
GB201305335D0 (en) 2013-05-08
US20120105345A1 (en) 2012-05-03
CA2812288C (en) 2016-12-13
EP2434388A3 (en) 2016-02-17
CN102870075B (zh) 2016-09-21
DE112011103202T5 (de) 2013-07-11
US20120127098A1 (en) 2012-05-24
KR101497249B1 (ko) 2015-03-04
WO2012037663A1 (en) 2012-03-29
US8976129B2 (en) 2015-03-10
US20120098766A1 (en) 2012-04-26
CA2797877C (en) 2016-02-09
WO2012040616A3 (en) 2012-07-05
GB2493116A (en) 2013-01-23
EP2434389A8 (en) 2012-05-23
EP2434389A3 (en) 2016-02-10
EP2619646A2 (en) 2013-07-31
EP2434389A2 (en) 2012-03-28
CA2797877A1 (en) 2012-03-29
JP5685695B2 (ja) 2015-03-18
CN107479737B (zh) 2020-07-24
JP2013529339A (ja) 2013-07-18
CA2797883C (en) 2016-02-09
GB2497479A (en) 2013-06-12
GB201219038D0 (en) 2012-12-05
GB201218170D0 (en) 2012-11-21
GB2497388B (en) 2019-03-06
DE112011101206T5 (de) 2013-03-14
EP2434389B1 (en) 2019-01-23
DE112011103202T8 (de) 2013-09-19
JP5784712B2 (ja) 2015-09-24
US9218125B2 (en) 2015-12-22
CN103221914B (zh) 2020-01-31
CN102870075A (zh) 2013-01-09
DE112011101203T5 (de) 2013-01-17
KR20130019407A (ko) 2013-02-26
GB2493116B (en) 2019-02-27
US9383918B2 (en) 2016-07-05
CN107479737A (zh) 2017-12-15
EP3940516A1 (en) 2022-01-19
EP2434388A2 (en) 2012-03-28
EP3352060A1 (en) 2018-07-25
WO2012037664A1 (en) 2012-03-29
EP3940516B1 (en) 2024-04-03
CA2812288A1 (en) 2012-03-29
KR20130005296A (ko) 2013-01-15
KR20130105662A (ko) 2013-09-25
EP2434388B1 (en) 2017-12-20
EP2619646B1 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
ES2900188T3 (es) Dispositivo electrónico portátil y método para controlar el mismo
EP2508972B1 (en) Portable electronic device and method of controlling same
US9740400B2 (en) Electronic device and method for character deletion
ES2758130T3 (es) Dispositivo electrónico portátil y método de control del mismo
KR20120094728A (ko) 유저인터페이스 제공 방법 및 이를 이용한 휴대 단말기
CA2791486C (en) Electric device and method for character deletion
GB2495384A (en) Keyboard for an electronic device having a key with indicia to indicate the direction of the key function
WO2013048397A1 (en) Electronic device and method for character deletion