ES2758130T3 - Dispositivo electrónico portátil y método de control del mismo - Google Patents

Dispositivo electrónico portátil y método de control del mismo Download PDF

Info

Publication number
ES2758130T3
ES2758130T3 ES18181978T ES18181978T ES2758130T3 ES 2758130 T3 ES2758130 T3 ES 2758130T3 ES 18181978 T ES18181978 T ES 18181978T ES 18181978 T ES18181978 T ES 18181978T ES 2758130 T3 ES2758130 T3 ES 2758130T3
Authority
ES
Spain
Prior art keywords
display area
touch
command
gesture
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18181978T
Other languages
English (en)
Inventor
Jan Hendrik Lucas Bakker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BlackBerry Ltd
Original Assignee
BlackBerry Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BlackBerry Ltd filed Critical BlackBerry Ltd
Application granted granted Critical
Publication of ES2758130T3 publication Critical patent/ES2758130T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1059End-user terminal functionalities specially adapted for real-time communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

Un método para un equipo de usuario, UE, comprendiendo el UE áreas de interacción que incluyen al menos un área de no visualización (208) y un área de visualización (206), comprendiendo el método: en respuesta, al menos en parte, a un comando de atención, AT, para información de orientación, proporcionar información de orientación; antes de notificación, emulación o recepción de comandos táctiles, proporcionar una lista con identificadores que identifican las áreas de interacción; proporcionar un comando para habilitar el envío de códigos de resultados no solicitados o habilitar el envío de eventos no solicitados dependiendo del área de interacción; en respuesta, al menos en parte, a un comando de AT para acción de dispositivo de entrada táctil, emular un gesto de metanavegación para un dispositivo de entrada táctil que incluye un área de visualización (206) y un área de no visualización (208); y en el que el gesto de metanavegación es un gesto que tiene un punto de origen que está fuera del área de visualización (206) y que se mueve a una posición en el área de visualización (206).

Description

DESCRIPCIÓN
Dispositivo electrónico portátil y método de control del mismo
Campo de tecnología
La presente divulgación se refiere a dispositivos electrónicos que incluyen, pero sin limitación, dispositivos electrónicos portátiles que tienen visualizadores táctiles.
Antecedentes
Dispositivos electrónicos, incluyendo dispositivos electrónicos portátiles, han ganado un uso extenso y pueden proporcionar una diversidad de funciones incluyendo, por ejemplo, telefónicas, mensajería electrónica y otras funciones de aplicación de gestor de información personal (PIM). Dispositivos electrónicos portátiles incluyen varios tipos de dispositivos que incluyen estaciones móviles tales como teléfonos celulares sencillos, teléfonos inteligentes, Asistentes Digitales Personales (PDA), ordenadores de tableta y ordenadores portátiles, con comunicaciones de red inalámbrica o conectividad de comunicación de campo cercanos tal como capacidades Bluetooth®.
Dispositivos electrónicos portátiles tales como PDA, u ordenadores de tableta se conciben generalmente para uso con la mano y facilidad de portabilidad. Dispositivos más pequeños generalmente son deseables para portabilidad. Un visualizador táctil, también conocido como una pantalla táctil, es particularmente útil en dispositivos portátiles, que son pequeños y tienen espacio limitado para entrada y salida de usuario. La información visualizada en el visualizador táctil puede modificarse dependiendo de las funciones y operaciones que se realizan.
Son deseables mejoras en dispositivos electrónicos con visualizadores táctiles. El documento EP 2 003 539 A1 se refiere a un dispositivo electrónico con interfaz de usuario conmutable.
El documento US 2010/0105443 A1 se refiere a métodos y aparatos para facilitar la interacción con aparatos de pantalla táctil.
Breve descripción de los dibujos
Realizaciones de la presente divulgación se describirán ahora, a modo de ejemplo únicamente, con referencia a las figuras adjuntas, en las que:
la Figura 1 es un diagrama de bloques de un dispositivo electrónico portátil de acuerdo con una realización de ejemplo; la Figura 2 es una vista frontal de un ejemplo de un dispositivo electrónico portátil;
la Figura 3 ilustra ejemplos de toques en el dispositivo electrónico portátil de la Figura 2;
la Figura 4 es un diagrama de flujo que ilustra un método de control del dispositivo electrónico portátil de acuerdo con la divulgación;
la Figura 5 ilustra ejemplos de asociaciones entre gestos de metanavegación e información de diversas aplicaciones o funciones de aplicación;
la Figura 6 ilustra un ejemplo de componentes funcionales de un equipo de usuario, tal como el dispositivo electrónico portátil de la Figura 1; y
la Figura 7 es un diagrama de secuencia que ilustra un ejemplo de uso de comandos de AT para emular gestos relativos a una orientación.
Descripción detallada
Lo siguiente describe un equipo de usuario (UE) y un método que incluye en respuesta, al menos en parte, a un comando de atención (AT) para acción de visualizador táctil, emular un gesto de metanavegación para un dispositivo de entrada táctil que comprende un área de visualización y un área de no visualización.
Por simplicidad y claridad de ilustración, pueden repetirse números de referencia entre las figuras para indicar elementos correspondientes o análogos. Se exponen numerosos detalles para proporcionar un entendimiento de las realizaciones descritas en este documento. Las realizaciones pueden practicarse sin estos detalles. En otros casos, métodos bien conocidos, procedimientos y componentes no se han descrito en detalle para evitar obstaculizar las realizaciones descritas. La descripción no debe considerarse como limitada al alcance de las realizaciones descritas en este documento.
La divulgación generalmente se refiere a un dispositivo electrónico, tal como un dispositivo electrónico portátil. Ejemplos de dispositivos electrónicos portátiles incluyen dispositivos de comunicación inalámbrica tal como buscapersonas, teléfonos móviles o celulares, teléfonos inteligentes, agenda electrónica inalámbrica, PDA, ordenadores portátiles, ordenadores de mano, ordenadores de tableta y así sucesivamente. El dispositivo electrónico portátil también puede ser un dispositivo electrónico portátil sin capacidades de comunicación inalámbrica. Ejemplos incluyen dispositivo de juegos electrónico de mano, álbum de fotografías digital, cámara digital, ordenadores portátiles, ordenadores de mano, ordenadores de tableta u otro dispositivo.
En la Figura 1 se muestra un diagrama de bloques de un ejemplo de un dispositivo electrónico portátil 100. El dispositivo electrónico portátil 100 incluye múltiples componentes, tal como un procesador 102 que controla la operación general del dispositivo electrónico portátil 100. El dispositivo electrónico portátil 100 descrito en la actualidad opcionalmente incluye un subsistema de comunicación 104 y un módulo de comunicaciones de corto alcance 132 para realizar diversas funciones de comunicación, incluyendo comunicaciones de datos y por voz. En el presente ejemplo, se incluye comunicación de corto alcance. Puede utilizarse cualquier tipo adecuado de comunicación inalámbrica en su lugar o además de la comunicación de corto alcance. Datos recibidos por el dispositivo electrónico portátil 100 se descomprimen y descifran mediante un decodificador 106. El subsistema de comunicación 104 recibe mensajes desde y envía mensajes a una red inalámbrica 150. La red inalámbrica 150 puede ser cualquier tipo de red inalámbrica, incluyendo, pero sin limitación, redes inalámbricas de datos, redes inalámbricas de voz y redes que soportan tanto comunicaciones de voz como de datos. Una fuente de alimentación 142, tal como una o más baterías recargables o un puerto a una fuente de alimentación externa, alimenta el dispositivo electrónico portátil 100.
El procesador 102 interactúa con otros componentes, tal como Memoria de Acceso Aleatorio (RAM) 108, memoria 110, un visualizador 112 con un recubrimiento táctil 114 conectada operativamente a un controlador electrónico 116 que juntos comprenden un dispositivo de entrada táctil para el visualizador táctil 118, uno o más accionadores 120, uno o más sensores de fuerza 122, un subsistema de entrada/salida auxiliar (I/O) 124, un puerto de datos 126, un altavoz 128, un micrófono 130, comunicaciones de corto alcance 132 y otros subsistemas de dispositivo 134. Interacción de usuario con a interfaz gráfica de usuario se realiza a través del recubrimiento táctil 114. El procesador 102 interactúa con el recubrimiento táctil 114 a través del controlador electrónico 116. Información, tal como texto, caracteres, símbolos, imágenes, iconos y otros artículos que pueden visualizarse o representarse en un dispositivo electrónico portátil, se visualiza en el visualizador táctil 118 a través del procesador 102. El procesador 102 puede interactuar con un sensor de orientación 136, tal como un acelerómetro, para detectar la dirección de fuerzas gravitatorias o fuerzas de reacción inducidas por la gravedad para determinar, por ejemplo, la orientación del dispositivo electrónico portátil 100.
Para identificar a un abonado para acceso de red, el dispositivo electrónico portátil 100 puede utilizar una UICC (Tarjeta de Circuito Integrado Universal). La UICC es una tarjeta inteligente utilizada en Equipo de Usuario (UE) tal como el dispositivo electrónico portátil 100 en redes GSM (Sistema Global para Comunicaciones Móviles) y UMTS (Sistema Universal de Telecomunicaciones Móviles). La UICC se utiliza para garantizar la integridad y seguridad de datos personales. Por ejemplo, en una red GSM, la UICC contiene una aplicación de SIM (Módulo de Identidad de Abonado). En una red de UMTS la UICC utiliza la aplicación de USIM (Módulo de Identidad de Abonado Universal). En una red CDMA (Acceso Múltiple por División de Código), el UE puede incluir un Módulo de Identidad de Usuario Transportable (RUIM). El dispositivo electrónico portátil 100 puede usar el SIM/USIM/RUIM 138 para comunicación con una red, tal como la red inalámbrica 150. Como alternativa, puede programarse información de identificación de usuario en la memoria 110.
El dispositivo electrónico portátil 100 incluye un sistema operativo 146 y programas de software o componentes 148 que se ejecutan por el procesador 102 y se almacenan habitualmente en un almacenamiento persistente y actualizable tal como la memoria 110. Aplicaciones o programas adiciones pueden cargarse en el dispositivo electrónico portátil 100 a través de la red inalámbrica 150, el subsistema de I/O auxiliar 124, el puerto de datos 126, el subsistema de comunicaciones de corto alcance 132 o cualquier otro subsistema adecuado 134.
Una señal recibida, tal como un mensaje de texto, un mensaje de correo electrónico, o descarga de página web, se procesa por el subsistema de comunicación 104 e introduce en el procesador 102. El procesador 102 procesa la señal recibida para emitir al visualizador 112 y/o al subsistema de I/O auxiliar 124. Un abonado puede generar artículos de datos, por ejemplo, mensajes de correo electrónico, que pueden transmitirse a través de la red inalámbrica 150 a través del subsistema de comunicación 104, por ejemplo.
El visualizador táctil 118 puede ser cualquier visualizador táctil adecuado, tal como un visualizador táctil capacitivo, resistivo, infrarrojo, de onda acústica de superficie, extensómetro, formación de imagen óptica, tecnología de señal dispersiva, reconocimiento de pulso acústico y así sucesivamente, como se conoce en la técnica. En el ejemplo de realización descrito en la actualidad, el visualizador táctil 118 es un visualizador táctil capacitivo que incluye un recubrimiento táctil capacitivo 114. El recubrimiento 114 puede ser un conjunto de múltiples capas en una pila que puede incluir, por ejemplo, un sustrato, una capa de blindaje de tierra, una capa de barrera, una o más capas de sensor táctil capacitivo separadas por un sustrato y otra barrera, y una cubierta. Las capas de sensor táctil capacitivo pueden ser cualquier material adecuado, tal como óxido de estaño e indio (ITO) estampado.
El visualizador 112 del visualizador táctil 118 incluye un área de visualización 206 en la que puede visualizarse información, y un área de no visualización 208 que se extiende alrededor de la periferia del área de visualización 206. No se visualiza información en el área de no visualización 208, que se utiliza para acomodar, por ejemplo, rastros electrónicos o conexiones eléctricas, adhesivos u otros sellantes, y/o revestimientos protectores alrededor de los bordes del área de visualización 206.
Uno o más toques, también conocidos como contactos táctiles o eventos táctiles, pueden detectarse por el visualizador táctil 118. El procesador 102 puede determinar atributos del toque, incluyendo una ubicación de un toque. Datos de ubicación de toque pueden incluir un área de contacto o un único punto de contacto, tal como un punto en o cerca de un centro del área de contacto, conocido con el centroide. Se proporciona una señal al controlador 116 en respuesta a la detección de un toque. Puede detectarse un toque desde cualquier objeto adecuado, tal como un dedo, pulgar, apéndice u otros artículos, por ejemplo, un lápiz óptico, lápiz u otro puntero, dependiendo de la naturaleza del visualizador táctil 118. La ubicación del toque se mueve a medida que el objeto detectado se mueve durante un toque. El controlador 116 y/o el procesador 102 pueden detectar un toque mediante cualquier miembro de contacto adecuado en el visualizador táctil 118. De manera similar, se detectan múltiples toques simultáneos. Cuando múltiples toques simultáneos se emulan o indican entre componentes dentro de un dispositivo, por ejemplo, a través de una Interfaz de Programación de Aplicación (API), un identificador único puede asociarse con un toque simultáneo. Por ejemplo, el identificador único puede ser un valor entero distinto de cero N, que representa la N-ésima acción de toque simultáneo realizada en el visualizador táctil 118. Un toque puede incluir múltiples eventos. Por ejemplo, un toque puede incluir un primer evento que indica que la pantalla, que puede ser el área de visualización 206 o el área de no visualización 208, se presiona (se detecta un toque) en una primera ubicación de coordenadas en el visualizador táctil 118, y un segundo evento que indica que la presión de la pantalla se detiene (es decir, libera) (el toque se detiene o no continúa) en una segunda ubicación de coordenadas en el visualizador táctil 118. La segunda ubicación de coordenadas del toque cuando deja de continuarse puede diferir de la primera ubicación de coordenadas del toque cuando el toque se detecta inicialmente. Si el primero y segundo eventos representan un toque simultáneo o gesto multitoque, los eventos pueden correlacionarse o los toques pueden identificarse mediante el mismo identificador único.
Uno o más gestos se detectan también en el visualizador táctil 118. Un gesto es un tipo particular de toque en un visualizador táctil 118 que comienza en un punto de origen y continúa hasta un punto de finalización. Un gesto puede identificarse mediante atributos del gesto, incluyendo el punto de origen, el punto de finalización, la distancia recorrida, la duración, la velocidad y la dirección, por ejemplo. Un gesto puede ser largo o corto en distancia y/o duración. Dos puntos del gesto pueden utilizarse para determinar una dirección del gesto. En algunas implementaciones un sistema de coordenadas, utilizado para identificar ubicaciones o puntos en un visualizador táctil 118, puede ser fijo, es decir, la coordenada de origen (0,0) del sistema de coordenadas no cambia dependiendo de la orientación del dispositivo electrónico portátil 100.
Un ejemplo de un gesto es un deslizamiento (también conocido como un impulso). Un deslizamiento tiene una única dirección. El recubrimiento táctil 114 puede evaluar deslizamientos con respecto al punto de origen en el que se hace inicialmente contacto con el recubrimiento táctil 114 y el punto de finalización en el que finaliza en contacto con el recubrimiento táctil 114 en lugar de usar cada una de ubicación o punto de contacto durante la duración del gesto para resolver una dirección.
Ejemplos de deslizamientos incluyen un deslizamiento horizontal, un deslizamiento vertical y un deslizamiento diagonal. Un deslizamiento horizontal habitualmente comprende un punto de origen hacia el lado izquierdo o derecho del recubrimiento táctil 114 para inicializar el gesto, un movimiento horizontal del objeto detectado desde el punto de origen hasta un punto de finalización hacia el lado derecho o izquierdo del recubrimiento táctil 114 mientras mantiene contacto continuo con el recubrimiento táctil 114, y una ruptura de contacto con el recubrimiento táctil 114. De manera similar, un deslizamiento vertical habitualmente comprende un punto de origen hacia la parte superior o inferior del recubrimiento táctil 114 para inicializar el gesto, un movimiento vertical del objeto detectado desde el punto de origen hasta un punto de finalización hacia la parte inferior o superior del recubrimiento táctil 114 mientras mantiene contacto continuo con el recubrimiento táctil 114, y una ruptura de contacto con el recubrimiento táctil 114.
Los términos superior, inferior, derecha e izquierda se utilizan en este documento para el propósito de proporcionar una referencia y referirse a un borde o lado del visualizador táctil 118 del dispositivo electrónico portátil 100 en relación con la orientación en la que se visualiza la información asociada con la aplicación.
Como se describe anteriormente, un sensor de orientación 136, tal como un acelerómetro, puede utilizarse para detectar la dirección de fuerzas gravitatorias o fuerzas de reacción inducidas por la gravedad para determinar, por ejemplo, la orientación del dispositivo electrónico portátil 100 y para detectar cambios de una orientación a otra. Como alternativa, pueden utilizarse otros medios para detectar la orientación y cambio de orientación. Pueden utilizarse, por ejemplo, cuatro orientaciones. La orientación del dispositivo electrónico portátil 100 puede utilizarse por una aplicación o función de aplicación o programa para determinar, por ejemplo, si un deslizamiento es un deslizamiento horizontal o un deslizamiento vertical, y qué lados del visualizador táctil 118 son la parte superior, la parte inferior, el lado izquierdo y el lado derecho. La orientación del dispositivo electrónico portátil 100 puede determinarse basándose en una salida desde el sensor de orientación 136 y la orientación puede identificarse, por ejemplo, identificando una característica del visualizador táctil 118 como una referencia. Por ejemplo, valores de coordenadas de una esquina del área de no visualización 208 pueden identificarse como la esquina superior izquierda. Como alternativa, un lado del visualizador táctil 118 puede identificarse como la parte superior. El lado puede identificarse, por ejemplo, identificando valores de coordenadas de la esquina superior izquierda y valores de coordenadas de la esquina superior derecha. Como alternativa pueden identificarse otras esquinas o lados. Identificando una esquina o un lado, la dirección y la orientación del deslizamiento pueden determinarse en relación con la orientación del dispositivo electrónico portátil 100 y en relación con la orientación en la que se visualiza la información asociada con la aplicación.
Como alternativa, lados del visualizador táctil 118 pueden tener una orientación "normal" de tal forma que los cuatro lados se etiquetan con etiquetas estáticas. Las etiquetas estáticas pueden incluir, por ejemplo, "superior", "inferior", "lado derecho", y "lado izquierdo", y estas etiquetas pueden corresponder a ubicaciones de los lados en una orientación normal o vertical en la que se coloca o mantiene el dispositivo electrónico portátil 100. Por lo tanto, cuando se requiere, la orientación puede ser de tal forma que el lado etiquetado "derecho" está en el lado izquierdo o el lado etiquetado "superior" está en la parte inferior. La orientación puede determinarse utilizando un único valor que representa, por ejemplo, un ángulo en grados desde la orientación "normal". Una orientación de 180 grados puede indicar que la orientación actual del dispositivo electrónico portátil 100 es de tal forma que el lado con coordenadas físicas (x, y) a la izquierda es el lado en la parte superior en la orientación en la que se coloca o mantiene el dispositivo electrónico portátil 100. Como alternativa, pueden utilizarse dos valores para identificar orientación. Los dos valores pueden representar ángulos, en relación con las coordenadas de origen. Cada valor corresponde a un ángulo en una dirección diferente para facilitar representación de la orientación del dispositivo en tres dimensiones. Utilizando dos valores, puede indicarse un ángulo en grados en relación con la orientación normal y una inclinación del dispositivo electrónico portátil 100.
Deslizamientos pueden ser de diversas longitudes, pueden iniciarse en diversos lugares en el recubrimiento táctil 114, y no necesitan expandirse toda la dimensión del recubrimiento táctil 114. Además, la ruptura de contacto de un deslizamiento puede ser gradual en que se reduce gradualmente el contacto con el recubrimiento táctil 114 mientras el deslizamiento todavía está en marcha.
Gestos de metanavegación también pueden detectarse por el recubrimiento táctil 114. Un gesto de metanavegación es un gesto que tiene un punto de origen que está fuera del área de visualización 206 del recubrimiento táctil 114 y que se mueve a una posición en el área de visualización 206 del visualizador táctil 118. Pueden detectarse otros atributos del gesto y utilizarse para detectar el gesto de metanavegación. Gestos de metanavegación también pueden incluir gestos multitoque en los que gestos son simultáneos o se solapan en tiempo y al menos uno de los toques tiene un punto de origen que está fuera del área de visualización 206 y se mueve a una posición en el área de visualización 206 del recubrimiento táctil 114. Por lo tanto, pueden utilizarse dos dedos para gestos de metanavegación. Además, gestos de metanavegación multitoque pueden distinguirse de gestos de metanavegación de un solo toque y pueden proporcionar funcionalidad adicional.
En algunas realizaciones de ejemplo, un sensor de fuerza 122 opcional o sensores de fuerza se disponen en cualquier ubicación adecuada, por ejemplo, entre el visualizador táctil 118 y una parte trasera del dispositivo electrónico portátil 100 para detectar una fuerza impartida por un toque en el visualizador táctil 118. El sensor de fuerza 122 puede ser una resistencia sensible a la fuerza, extensómetro, dispositivo piezoeléctrico o piezoresistivo, sensor de presión u otro dispositivo adecuado. La fuerza como se utiliza a lo largo de toda la memoria descriptiva se refiere a mediciones, estimadas y/o cálculo de fuerza, tal como presión, deformación, estrés, tensión, densidad de fuerza, relaciones de área de fuerza, empuje, torsión y otros efectos que incluyen fuerza o cantidades relacionadas.
Información de fuerza relacionada con un toque detectado puede utilizarse para seleccionar información, tal como información asociada con una ubicación de un toque. Por ejemplo, un toque que no cumple con un umbral de fuerza puede destacar una opción de selección, mientras que un toque que cumple con un umbral de fuerza puede seleccionar o introducir esa opción de selección. Opciones de selección incluyen, por ejemplo, teclas virtuales o visualizadas de un teclado; cajas o ventanas de selección, por ejemplo, "cancelar", "borrar" o "desbloquear"; botones de función, tal como reproducir o detener un reproductor de música; y así sucesivamente. Diferentes magnitudes de fuerza pueden asociarse con diferentes funciones o entradas. Por ejemplo, una menor fuerza puede resultar en panoramización y una mayor fuerza puede resultar en ampliación.
Una vista frontal de un ejemplo del dispositivo electrónico portátil 100 se muestra en la Figura 2. El dispositivo electrónico portátil 100 incluye un alojamiento 202 que incluye componentes tal como se muestra en la Figura 1. El alojamiento 202 puede incluir una parte trasera, paredes laterales y una parte frontal 204 que enmarca el visualizador táctil 118.
En el ejemplo mostrado de la Figura 2, el visualizador táctil 118 está generalmente centrado en el alojamiento 202 de tal forma que un área de visualización 206 del recubrimiento táctil 114 está generalmente centrada con respecto a la parte frontal 204 del alojamiento 202. El área de no visualización 208 del recubrimiento táctil 114 se extiende alrededor del área de visualización 206. En el ejemplo de realización descrito en la actualidad, la anchura del área de no visualización 208 es de 4 mm.
Para el propósito del presente ejemplo, el recubrimiento táctil 114 se extiende para cubrir el área de visualización 206 y el área de no visualización 208. Pueden detectarse toques en el área de visualización 206 y, por ejemplo, pueden asociarse con características seleccionables visualizadas. Pueden detectarse toques en el área de no visualización 208, por ejemplo, para detectar un gesto de metanavegación. Como alternativa, gestos de metanavegación pueden determinarse tanto por el área de no visualización 208 como el área de visualización 206. La densidad de sensores táctiles puede diferir del área de visualización 206 al área de no visualización 208. Por ejemplo, la densidad de nodos en un visualizador táctil capacitivo mutuo, o densidad de ubicaciones en las que electrodos de una capa cruzan electrodos de otra capa, puede diferir entre el área de visualización 206 y el área de no visualización 208.
Gestos recibidos en el visualizador táctil 118 pueden analizarse basándose en los atributos para discriminar entre gestos de metanavegación y otros toques, o gestos no de metanavegación. Gestos de metanavegación pueden identificarse cuando el gesto cruza un límite cerca de una periferia del visualizador 112, tal como un límite 210 entre el área de visualización 206 y el área de no visualización 208. En el ejemplo de la Figura 2, el punto de origen de un gesto de metanavegación puede determinarse utilizando el área del recubrimiento táctil 114 que cubre el área de no visualización 208.
Un toque, tal como un gesto, puede incluir múltiples eventos. Estos eventos pueden notificarse (por ejemplo, entre componentes del dispositivo electrónico portátil 100 o UE). Pueden detectarse gestos de metanavegación, por ejemplo, determinando que un gesto tiene un punto de origen que está fuera del área de visualización 206, o un límite entre el área de visualización 206 y el área de no visualización 208, y un punto de finalización que está dentro del límite. El límite puede determinarse obteniendo el tamaño de coordenadas del recubrimiento táctil 114 y el tamaño y ubicación de coordenadas del área de visualización 206. El tamaño de coordenadas del recubrimiento táctil 114 puede obtenerse, por ejemplo, comenzando en valores de coordenadas (0,0) y utilizando un valor de coordenada x máximo y un valor de coordenada y máximo. El límite del área de visualización 206 puede determinarse, por ejemplo, utilizando los valores de coordenadas x e y para la esquina superior izquierda del área de visualización 206 y los valores de coordenadas x e y para la esquina inferior derecha del área de visualización 206.
La determinación de la ubicación del límite puede efectuarse de tal forma que pueden determinarse gestos de metanavegación para una aplicación. Pueden determinarse y utilizarse gestos de metanavegación, por dispositivos electrónicos de diferentes tamaños, incluyendo áreas de no visualización con diferente tamaño y/o áreas de visualización con diferente tamaño. Por lo tanto, la misma aplicación o programa puede ejecutarse en dispositivos electrónicos que tienen diferentes tamaños de áreas de visualización y/o diferentes tamaños de áreas de no visualización.
Una región de memoria intermedia 212 o banda que se extiende alrededor del límite 210 entre el área de visualización 206 y el área de no visualización 208 puede utilizarse de tal forma que un gesto de metanavegación se identifica cuando un toque tiene un punto de origen fuera del límite 210 y la región de memoria intermedia 212 y cruza a través de la región de memoria intermedia 212 y por el límite 210 a un punto dentro del límite 210. Aunque se ilustra en la Figura 2, la región de memoria intermedia 212 puede no ser visible. En su lugar, la región de memoria intermedia 212 puede ser una región alrededor del límite 210 que se extiende una anchura que es equivalente a un número predeterminado de píxeles, por ejemplo. Como alternativa, el límite 210 puede extenderse un número predeterminado de sensores táctiles o puede extenderse una distancia predeterminada desde el área de visualización 206. El límite 210 puede ser una región táctil o puede ser una región en la que no se detectan toques. El límite puede determinarse, como se describe anteriormente, obteniendo el tamaño de coordenadas del recubrimiento táctil 114 y el tamaño y ubicación de coordenadas del área de visualización 206. También puede utilizarse una anchura de la región de memoria intermedia para detectar gestos de metanavegación.
Gestos que se originan en la región de memoria intermedia 212, por ejemplo, pueden identificarse como gestos no de metanavegación. Opcionalmente, datos de tales gestos pueden utilizarse por una aplicación como un gesto no de metanavegación. Como alternativa, datos de tales gestos pueden descartarse de tal forma que toques que tienen un punto de origen en la región de memoria intermedia 212 no se utilizan como entrada en el dispositivo electrónico portátil 100.
La Figura 3 ilustra ejemplos de toques en el visualizador táctil 118. La región de memoria intermedia 212 se ilustra en la Figura 3 mediante marcas rayadas para el propósito de explicación. Como se indica, la región de memoria intermedia 212 puede no ser visible para el usuario. Para el propósito de explicación, se ilustran toques mediante círculos en sus puntos de origen. Flechas que se extienden desde los círculos ilustran las trayectorias de los toques que son gestos.
El toque 302 comienza en el punto de origen fuera del límite 210 y fuera de la región de memoria intermedia 212. La trayectoria del toque 302 cruza la región de memoria intermedia 212 y el límite 210 y se identifica, por lo tanto, como un gesto de metanavegación. De manera similar, los toques 304, 306, 308, 310, 312, 314, 316 tienen cada uno puntos de origen fuera del límite 210 y la región de memoria intermedia 212 y sus trayectorias cruzan la región de memoria intermedia 212 y el límite 210. Cada uno de los toques 304, 306, 308, 310, 312, 314, 316 se identifica, por lo tanto, como un gesto de metanavegación. El toque 318, sin embargo, tiene un punto de origen que se encuentra dentro de la región de memoria intermedia 212 y el toque 318 no se identifica, por lo tanto, como un gesto de metanavegación. El toque 320 comienza en un punto de origen fuera del límite 210 y la región de memoria intermedia 212. La trayectoria del toque 320, sin embargo, no cruza el límite 210 y, por lo tanto, no se identifica como un gesto de metanavegación. El toque 322 también tiene un punto de origen fuera del límite 210 y la región de memoria intermedia 212 pero no es un gesto y, por lo tanto, no cruza el límite 210 y no se identifica como un gesto de metanavegación.
En la Figura 4 se muestra un diagrama de flujo que ilustra un método de control de un dispositivo electrónico, tal como el dispositivo electrónico portátil 100. El método puede efectuarse mediante código legible por ordenador ejecutado, por ejemplo, por el procesador 102. Codificación de software para efectuar un método de este tipo están dentro del alcance de un experto en la materia dada la presente descripción. El método puede contener procesos adicionales o menos que los mostrados y/o descritos, y pueden realizarse en un comando diferente.
El proceso puede efectuarse en cualquier aplicación adecuada, tal como, una aplicación de pantalla de inicio, una aplicación de correo electrónico, una aplicación de mensajería de texto, una aplicación de calendario, una aplicación de tareas, una aplicación de agenda de direcciones, una aplicación de explorador web o cualquier otra aplicación adecuada. Información acerca de la aplicación, denominada como la primera aplicación, se visualiza en el visualizador táctil 118 del dispositivo electrónico portátil 100 en 402. Cuando se detecta un toque en 404, el proceso continúa en 406 y se hace una determinación de si el toque es o no un gesto de metanavegación. La determinación se hace basándose en los atributos del toque como se describe anteriormente. En respuesta a la determinación que el toque no es un gesto de metanavegación, que puede ser un golpe en el visualizador táctil 118 o puede ser un gesto no de metanavegación, los datos de toque se utilizan en asociación con la primera aplicación para la que se visualiza información en el visualizador táctil 118 en el momento que se recibe el gesto, en 408. En respuesta a identificar el toque como un gesto de metanavegación en 406, los datos de toque se utilizan en una segunda aplicación e información asociada con la segunda, o con una aplicación adicional, se visualiza en el visualizador táctil 118 en 410. La información asociada con la segunda aplicación puede superponerse en la información asociada con la primera aplicación, por ejemplo, para facilitar la navegación de vuelta a la información asociada con la primera aplicación. Como alternativa, la información asociada con la segunda aplicación puede incluir, por ejemplo, información de una interfaz de navegación de nivel de sistema, una interfaz de configuración, una interfaz de notificación, una interfaz de estado, una interfaz de menú, o información asociada con cualquier otra interfaz.
Haciendo referencia de nuevo a la Figura 3, los toques 302, 304, 306, 308, 310, 312, 314, 316 identificados como gestos de metanavegación pueden cada uno asociarse con información acerca de una aplicación de tal forma que atributos del gesto de metanavegación tal como el punto de origen, pueden utilizarse para determinar con qué aplicación se asocia el gesto de metanavegación. La Figura 5 ilustra ejemplos de asociaciones entre gestos de metanavegación e información acerca de aplicaciones, distintas de la aplicación asociada con la información visualizada en el visualizador táctil 118 en el momento que se recibe el gesto. Las relaciones mostradas en la Figura 5 se muestran para propósitos de ilustración únicamente y son intercambiables. Puede utilizarse aplicaciones adicionales y asociaciones alternativas.
El gesto de metanavegación 302, que se origina en el presente ejemplo cerca de un centro inferior del visualizador táctil 118 y sigue una trayectoria generalmente vertical en la orientación en la que se visualiza la información acerca de una aplicación actual 502, provoca que una a pantalla de inicio asociada con una aplicación de navegación de raíz 510 sustituya la información asociada con la aplicación actual 502. La pantalla de inicio incluye un carrusel que muestra las aplicaciones activas en la actualidad indicadas en una porción superior del visualizador. Por consiguiente, aplicaciones activas en la actualidad se muestran en un carrusel navegable en la porción superior de la Pantalla de Inicio. El carrusel se ubica en una porción superior de la pantalla de inicio. En el presente ejemplo, la porción superior utiliza únicamente aproximadamente 1/3 de la pantalla de inicio, y se proporcionan iconos de aplicación para aplicaciones no activas en la porción inferior de la pantalla de inicio para facilidad de selección.
El gesto de metanavegación 304, que se origina cerca de un centro izquierdo del visualizador táctil 118 y sigue una trayectoria generalmente lateral, provoca que la información asociada con la aplicación actual 502 se sustituya con información asociada con una aplicación anterior 506, que puede ser una aplicación anterior en una agrupación o puede ser una aplicación asociada con información anteriormente visualizada. El gesto de metanavegación 306, que se origina cerca de un centro derecho del visualizador táctil 118 y sigue una trayectoria generalmente lateral, provoca que la información asociada con la aplicación actual 502 se sustituya con información asociada con una siguiente aplicación 508, que puede ser una siguiente aplicación en una agrupación.
El gesto lateral, en los presentes ejemplos, se origina desde o bien el lado izquierdo o bien el lado derecho del visualizador táctil 118, y puede provocar que la información asociada con la aplicación actual 502 se reduzca en tamaño para proporcionar una indicación visual de otras aplicaciones activas antes de sustituir la información con la aplicación anterior 506 o la siguiente aplicación 508. Por ejemplo, una porción de la información de la aplicación anterior 506 puede visualizarse en una lengüeta delgada adyacente al borde o bordes del área de visualización 206 durante el gesto y antes de la sustitución de la información asociada con la aplicación actual 502. La información asociada con la aplicación actual 502 puede sustituirse con la siguiente o anterior aplicación 508 a medida que el gesto continúa. En un ejemplo alternativo, una porción de la información de la aplicación anterior 506 o una porción de la información para la siguiente aplicación 508 puede visualizarse en una delgada lengüeta adyacente a los bordes del área de visualización 206 en respuesta a una recepción de un primer gesto lateral. En este ejemplo, un deslizamiento dentro de la lengüeta delgada puede provocar el desplazamiento de la siguiente y última aplicación en una lista. Un segundo gesto lateral de metanavegación tal como los gestos 304, 306 puede utilizarse para provocar que se sustituya la información asociada con la aplicación actual 502, cuya información se reduce en tamaño.
El gesto de metanavegación 308, que se origina cerca de un centro superior del visualizador táctil 118 y sigue una trayectoria generalmente vertical, provoca que la información asociada con la aplicación actual 502 se sustituya con información asociada con una aplicación de ajustes de aplicación 504.
El gesto de metanavegación 310, que se origina cerca de esquina superior izquierda del visualizador táctil 118, provoca que información asociada con una aplicación de notificación 512 se muestre como un mosaico sobre la información asociada con la aplicación actual 502. De manera similar, el gesto de metanavegación 312, que se origina en el presente ejemplo cerca de una esquina superior derecha del visualizador táctil 118, provoca que información asociada con la aplicación de notificación 512 se muestre como un mosaico sobre la información asociada con la aplicación actual 502.
El gesto de metanavegación 314, que en el presente ejemplo se origina cerca de una esquina inferior derecha del visualizador táctil 118, provoca que información asociada con una aplicación de estado 514 se muestre como un mosaico sobre la información asociada con la aplicación actual 502. De manera similar, en el presente ejemplo el gesto de metanavegación 316, que se origina cerca de una esquina inferior derecha del visualizador táctil 118, provoca que información asociada con la aplicación de estado 514 se muestre como un mosaico sobre la información asociada con la aplicación actual 502.
Pueden utilizarse comandos de atención (AT) para controlar funciones y servicios de red de Terminación Móvil (MT) de un Equipo Terminal (TE) a través de Adaptador de Terminal (TA). AT es la abreviatura de dos caracteres que se utiliza para iniciar una línea de comandos que se envía desde el TE al TA. Por ejemplo, puede utilizarse el comando de control de acción de pantalla táctil (+CTSA) para operar un visualizador táctil de una MT. Las coordenadas x, y del dispositivo electrónico portátil 100 pueden ser fijas incluso cuando el dispositivo electrónico portátil 100 se da la vuelta o cambia de orientación apaisada a retrato o desde orientación de retrato a apaisada, o la orientación cambia de otra manera (por ejemplo, a través de emulación). Un gesto de metanavegación en el visualizador táctil 118 puede emularse. En el siguiente ejemplo se envían comandos de AT a la MT para emular un usuario tocando el visualizador táctil 118. El visualizador táctil 118 se toca en la ubicación (10,10), la ubicación de toque se mueve (50,50), y a continuación se mueve a (100,100). El toque se retira del visualizador táctil 118 o no se continúa en la ubicación (100,100).
• AT+CTSA= 1, 10, 10
• AT+CTSA= 1,50,50
• CTSA= 0,100,100
Adicionalmente, gesto de metanavegación en el visualizador táctil 118 puede notificarse proporcionando eventos no solicitados o proporcionando códigos no solicitados. Cuando se reciben los eventos o los códigos, puede determinarse un gesto de metanavegación.
Los ejemplos anteriores se refieren a operación a través del TE. Cuando la MT se opera a través de un teclado numérico de la MT, o utilizando el visualizador táctil 118 de la MT, o cuando hay cambios en el estado de un elemento de visualización, se proporciona información acerca de estas acciones al TE. La información puede proporcionarse a través de códigos de resultados no solicitados o respuestas de comandos de AT no solicitadas que devuelven eventos de teclado numérico, texto de visualización e indicador y visualizador táctil. Por ejemplo, el comando de AT CKEV (véase 3GPP TS 27.007 [http://www.3gpp.org/ftp/Specs/archive/27_series/27.007/27007-a40.zip]) devuelve el código de tecla y una indicación cuando se presiona la tecla (1) o libera (0), y el comando de AT CTEV devuelve la ubicación de la acción realizada en el visualizador táctil 118. En el siguiente ejemplo, se presiona la tecla asociada con el número 1, el visualizador se actualiza, y la tecla se libera:
• CKEV: 49,1
• CDEV: 1",1"
• CKEV: 49,0
Como se describe anteriormente, una esquina del área de no visualización 208 puede identificarse como que es la esquina superior izquierda. Puede utilizarse un comando de AT, Orientación de Pantalla de Comando (CSO), para establecer o leer la orientación del visualizador táctil 118. La Tabla 1 ilustra comandos CSO y respuestas de ejemplo a los comandos CSO. Se aplican las siguientes definiciones sintácticas:
• <CR> Carácter de retorno de carro, cuyo valor se especifica con el comando S3.
• < LF> Carácter de salto de línea, cuyo valor se especifica con el comando S4.
• <...> Nombre incluido en paréntesis angulares es un elemento sintáctico. Paréntesis no aparecen en la línea de comandos.
• [...] Subparámetro opcional de un comando o una parte opcional de respuesta de información de TA se incluye en corchetes. Paréntesis no aparecen en la línea de comandos. Cuando no se proporciona subparámetro en comandos de tipo parámetro, el valor nuevo es igual al valor anterior.
Tabla 1: sintaxis de comando de parámetro CSO
Figure imgf000009_0002
La X superior izquierda puede ser un número entero positivo que representa la coordenada x del píxel superior izquierdo, y la Y superior izquierda puede ser un número entero positivo que representa la coordenada y del píxel superior izquierdo. Los comandos CSO pueden utilizarse para establecer la orientación de referencia y pueden utilizarse para propósitos de pruebas.
Como una alternativa, también descrita anteriormente, la orientación puede expresarse en uno o más escalares, representando cada uno, por ejemplo, un ángulo en relación con una coordenada o una esquina, por ejemplo, la esquina superior izquierda. De nuevo, un comando de AT, por ejemplo, Orientación de Pantalla de Comando (CSO), puede utilizarse para establecer o leer la orientación del visualizador táctil 118. La Tabla 2 ilustra comandos CSO y respuestas de ejemplo a los comandos CSO.
Tabla 2: sintaxis de comando de parámetro CSO
Figure imgf000009_0001
El degrees_orientation y el degrees_tilted pueden ser un número entero positivo que representa el ángulo con las coordenadas de origen y ejes de coordenadas. El degrees_orientation y el degrees_tilted pueden utilizar un número fijo de valores de tal forma que el ángulo de degrees_orientation y/o el degrees_tilted están en incrementos fijos en relación con 0 grados. Por ejemplo, pueden utilizarse incrementos de 90 grados. Pueden utilizarse otros incrementos dependiendo del dispositivo. Los comandos CSO pueden utilizarse para establecer la orientación de referencia y pueden utilizarse para propósitos de pruebas. Un dispositivo no necesita ser capaz de proporcionar o aceptar un valor de degrees_tilted, como se expresa con la notación en corchetes.
Como se describe anteriormente, la orientación puede expresarse en 4 valores, por ejemplo, "superior", "inferior", "lado izquierdo", "lado derecho". De nuevo, un comando de a T, por ejemplo, llamado Orientación de Pantalla de Comando (CSO), puede utilizarse para establecer o leer la orientación del visualizador 112 y el recubrimiento táctil 114.
Pueden detectarse gestos de metanavegación, por ejemplo, determinando el tamaño de coordenadas del recubrimiento táctil 114 y el tamaño y ubicación de coordenadas del área de visualización 206. Un comando de AT, por ejemplo, llamado Tamaño de Pantalla de Comando (CSS), puede utilizarse para determinar el tamaño de coordenadas del recubrimiento táctil 114, o el tamaño total del área de visualización 206 y el área de no visualización 208. El comando de AT CSS puede proporcionar el valor de coordenada x máximo y el valor de coordenada y máximo.
Pueden obtenerse el tamaño y ubicación de coordenadas del área de visualización 206. Un comando de AT, por ejemplo, Límite de Pantalla de Visualización (DSB), puede utilizarse para obtener la coordenada x superior izquierda, la coordenada y superior izquierda, la coordenada x inferior derecha y la coordenada y inferior derecha. Este comando facilita la identificación del límite entre el área de visualización 206 y el área de no visualización 208. La coordenada x superior izquierda puede ser un número entero positivo que representa la coordenada x del píxel superior izquierdo y la coordenada y superior izquierda puede ser un número entero positivo que representa la coordenada y del píxel superior izquierdo del área de visualización 206. La coordenada x inferior derecha puede ser un número entero positivo que representa la coordenada x del píxel inferior derecho y la coordenada y inferior izquierda puede ser un número entero positivo que representa la coordenada y del píxel inferior derecho del área de visualización 206. Para un dispositivo electrónico para el que el recubrimiento táctil no se extiende sobre el área de no visualización 208, los valores de coordenadas de DSB coinciden con los valores de CSS. Los comandos de CSS y DSB pueden utilizarse para detectar el límite entre el área de visualización 206 y el área de no visualización 208 y pueden utilizarse para propósitos de pruebas. Por ejemplo, los comandos de CSS y DSB pueden utilizarse para emular un gesto que cruza el límite. El límite cruzado puede tener una anchura de 1 píxel. En algunas realizaciones, este tamaño de límite puede tener diferente anchura o tamaño. Por ejemplo, en algunas realizaciones, la anchura del límite en la parte superior es diferentes de la anchura del límite en la parte inferior. También el límite puede, opcionalmente, ser parte del área de visualización 206 del visualizador táctil 118.
El UE puede, por lo tanto, probarse proporcionando comandos al UE para emular un gesto de metanavegación. Si los comandos son comandos de AT, pueden recibirse comandos de AT como CSS, DSB y CSO por el dispositivo. Uno o más comandos pueden constituir un gesto de metanavegación.
La Figura 6 ilustra un ejemplo de componentes funcionales de un equipo de usuario (UE), tal como el dispositivo electrónico portátil 100 de la Figura 1. El UE 600 puede incluir la UICC para contener datos personales. Si presente, la UICC se acopla al Equipo Móvil (ME) 604. El ME 604 incluye el TE 606 y la MT 608, entre los que se pasan, o comunican, los comandos de AT. Un ME o AT es un ejemplo de un destino de comando de AT y un TE es un ejemplo de una fuente de comando de AT.
La Figura 7 muestra un diagrama de secuencia que ilustra un ejemplo de uso de comandos de AT para emular gestos de metanavegación relativos a una orientación. La Figura 7 incluye un destino de comando de AT 702 y una fuente de comando de AT 704. Un TA es un ejemplo de un destino tal como el destino 702. Un TA puede adaptar los comandos de AT y respuestas de comando de AT antes de implicar a un MT. Un TE es un ejemplo de una fuente, tal como la fuente 704. Una fuente envía comandos de AT y el TE puede recibir respuestas de comando de AT. La fuente determina la orientación en 706 utilizando, por ejemplo, un comando AT+CSO y se recibe la respuesta 708. La respuesta 708 puede indicar, por ejemplo, que el visualizador táctil 118 está en orientación "normal". La fuente determina el tamaño del visualizador táctil 118 en 710 enviando, por ejemplo, un comando AT+CSS y recibe la respuesta 712. La respuesta 712 puede indicar, por ejemplo, un tamaño de Xmax=200, Ymax=100. La fuente determina la presencia del área de visualización 206 del visualizador táctil 118 y el tamaño del área de visualización 206 en 714 enviando, por ejemplo, un comando AT+DSB. La fuente recibe la respuesta en 716, que puede indicar, por ejemplo, Xtl= 10, Ytl= 10, Xtl= 190, YTL= 90. En algunas realizaciones de ejemplo, se determinan las coordenadas del límite en el visualizador táctil 118 del ME. Por ejemplo, cuando se conoce o recibe un valor entero, el valor entero representa el tamaño o anchura del límite, y el valor es positivo, el límite puede ser parte del área de visualización 206 del visualizador táctil 118. Cuando el valor entero es negativo, el límite puede ser parte del área de no visualización 208 del visualizador táctil 118. La fuente genera o emula un gesto de metanavegación en relación con la orientación en 718, proporcionando coordenadas del punto de origen del gesto dentro del área de no visualización 208 del visualizador táctil 118 y proporcionando coordenadas del punto de finalización dentro del área de visualización 206 del visualizador táctil 118. En el ejemplo ilustrado, el gesto de metanavegación emulado es un gesto multitoque que incluye múltiples toques simultáneos. Los toques son, por ejemplo, deslizamientos verticales en una dirección alejada y perpendicular en relación con el lado que está en la parte superior. La Figura 7 ilustra ejemplos de interacciones y comandos de AT o respuestas. También pueden pasarse mensajes no solicitados entre fuente de comando de AT y destino de comando AT (por ejemplo, CMER: 1,25,5; CMER: 1,30,5 ...,1; CMER: 0,30,25 ...,1; CMER: 0,25,25) que informan a un receptor que se han producido los gestos que representan el gesto de metanavegación.
El dispositivo electrónico portátil 100 ilustrado en el ejemplo de la Figura 2 incluye un área de no visualización 208 y límite 210 que se extiende alrededor o cubre el área de visualización 206. La emulación o indicación de gestos no se limita al área de no visualización 208 que se extiende en su totalidad alrededor de un área de visualización 206. Por ejemplo, puede efectuarse emulación de gestos para un dispositivo electrónico que incluye un área de visualización 206 que está adyacente a un área de no visualización 208 o tiene un área de no visualización 206 que está adyacente a menos de cuatro lados.
Además, la divulgación no se limita a la emulación o indicación de gestos usando un único y común sistema de coordenadas para un área de visualización 206 y área de no visualización 208 adyacentes de un único visualizador. Por ejemplo, un UE puede incluir múltiples áreas de visualización o áreas de no visualización adyacentes. De acuerdo con otro ejemplo, el UE puede incluir múltiples áreas de visualización y/o áreas de no visualización, y algunas de estas áreas pueden no compartir un único punto de origen. De acuerdo con aun un ejemplo adicional, múltiples áreas de visualización y/o áreas de no visualización pueden incluir múltiples sistemas de coordenadas que puede superponerse entre sí.
En los ejemplos descritos anteriormente, una indicación o identificador adicional del área de visualización o área de no visualización del visualizador táctil, o el sistema de coordenadas en el que se emula una presión o toque, es beneficiosa cuando un comando de AT se utiliza para emular un toque que se detecta en el visualizador táctil 118, por ejemplo, en las coordenadas (25,45). De manera similar, cuando se notifica un evento táctil, por ejemplo, usando código de resultado no solicitado CTEV: 1,25,45, es beneficiosa una indicación de en qué área de visualización 206 o área de no visualización 208, o dentro de qué sistema de coordenadas, se ha producido el evento táctil. El área de visualización 206 y el área de no visualización 208 se denominan cada una en este documento como una pantalla.
Cuando existen múltiples áreas de interacción, o áreas táctiles, estas áreas pueden tener propiedades, tal como la propiedad de ser un área de no visualización 208 o un área de visualización 206. Puede utilizarse información para las áreas de interacción cuando se emula o para entender un evento táctil notificado. Pueden proporcionarse propiedades para cada área antes de interactuar con un área. Interactuar incluye recibir comandos de a T emulando gestos o eventos de notificación. Por ejemplo, un comando puede soportarse por un MT o TA de tal forma que se proporciona una lista que incluye identificadores que identifica áreas para interacción en respuesta al comando. Un comando de AT puede soportarse por un MT o t A que lista propiedades asociadas con un área de interacción. Un comando de este tipo puede utilizar un identificador que identifica un área de interacción como parámetro. Una lista de propiedades asociadas con el área de interacción puede proporcionarse en respuesta al comando de AT. Ejemplos de tales propiedades incluyen una indicación de si el área es un área de visualización 206 o área de no visualización 208, una indicación de si el área está adyacente a otra área de interacción, una indicación de si el área de interacción está o no en el UE. Si el área de interacción no está en el mismo UE, el área puede conectarse, o acoplarse, comunicativamente al UE. La indicación de si un área de interacción no está en el UE puede identificar el área a través de nombre de protocolo de comunicación, puerto de protocolo de comunicación o dirección de comunicación, por ejemplo, "USB", "USB1", "HDMI", "HDMI5", "BLUETOOTH", "SIP: interactive-tv-screen@home.nl".
Otros ejemplos de propiedades de las áreas de interacción incluyen la resolución o tamaño de área (por ejemplo, en píxeles).
Como se ha indicado anteriormente, un ejemplo de una propiedad es una indicación de si el área de interacción está adyacente a otra área de interacción. Existe un límite en el que un área de interacción está adyacente con otra área de interacción. Un gesto de metanavegación puede proporcionarse, identificarse o detectarse cuando el gesto de metanavegación cruza el límite, por ejemplo, el gesto se origina en un área de interacción y finaliza en otra área de interacción. Un gesto de metanavegación puede emularse mediante un primer comando de emulación que indica la iniciación de un evento táctil, ese evento táctil puede identificarse mediante un identificador, en o asociado con una primera área de interacción. Posteriormente, se proporciona un segundo comando de emulación, indicando liberación en una segunda área de interacción o indicando terminación del evento táctil. Cuando el evento táctil se identifica mediante un identificador, el identificador puede ser el mismo identificador utilizado para identificar el primer evento táctil. Habitualmente, emulación de un gesto de metanavegación incluye múltiples comandos, por ejemplo, el primer comando de emulación y el segundo comando de emulación. Tales comandos de emulación pueden ser comandos de AT.
Un gesto de metanavegación también puede identificarse, detectarse, emularse o notificarse si el gesto de metanavegación se produce en área de interacción no adyacente. Eventos táctiles notificados y comandos táctiles para tales gestos de metanavegación incluyen al menos un parámetro que identifica el área de interacción. Antes de notificación, emulación o recepción de comandos táctiles, se proporciona una lista con identificadores que identifican las áreas de interacción. En una implementación, pueden proporcionarse propiedades para cada área de interacción en respuesta a recibir un comando de AT.
Otros comandos y eventos notificados también pueden indicar el área de interacción a la que pertenece el comando o evento. Por ejemplo, cuando se visualiza uno o más caracteres, el comando que inicia la visualización puede indicar el área de interacción. De manera similar, cuando se notifica la impresión de un carácter, el evento de notificación puede indicar el área de interacción. Con la proliferación de teclados en un UE, también puede proporcionarse un área de interacción en comandos o eventos de notificación, por ejemplo, cuando el teclado es un teclado virtual.
Pueden utilizarse comandos para configurar un filtro de tal forma que no todos los códigos de resultados no solicitados se reciben por un TE. Por ejemplo, un comando puede habilitar o deshabilitar el envío de códigos de resultados no solicitados desde TA o MT en el caso de presiones de tecla o toques, cambios de visualización, eventos táctiles y cambios de estado de indicador, tal como un indicador de batería o un indicador de intensidad de radio. Un ejemplo de un comando de AT que habilita la deshabilitación de envío es notificación de evento de Terminación Móvil: CmEr.
Puede ser ventajoso habilitar o deshabilitar el envío de códigos de resultados no solicitados o envío de eventos no solicitados dependiendo del área de interacción. Cuando se recibe un comando para habilitar el envío de códigos de resultados no solicitados o habilitar el envío de eventos no solicitados dependiendo del área de interacción, el comando puede incluir al menos un identificador que identifica el área de interacción. Cuando un comando se recibe para deshabilitar el envío de códigos de resultados no solicitados o deshabilitar el envío de eventos no solicitados dependiendo del área de interacción, el comando puede incluir al menos un identificador que identifica el área de interacción. Antes de recibir códigos de resultados no solicitados o antes de recibir eventos no solicitados, dependiendo del área de interacción, puede proporcionarse un comando que habilita el envío de códigos de resultados no solicitados o que habilita el envío de eventos no solicitados dependiendo. Adicionalmente, antes de enviar códigos de resultados no solicitados o antes de enviar eventos no solicitados, dependiendo del área de interacción, puede recibirse un comando que habilita el envío de códigos de resultados no solicitados o que habilita el envío de eventos no solicitados. La presente divulgación no se limita a identificar gestos de metanavegación utilizando un recubrimiento táctil 114 que se extiende sobre el área de no visualización 208. Pueden detectarse gestos de metanavegación basándose en, por ejemplo, la primera ubicación de toque detectada en un margen del recubrimiento táctil 114, que puede estar en un margen del área visualizable, y, opcionalmente, basándose en la velocidad de gesto o dirección cuando el toque se detecta o trayectoria atravesada por el gesto. Identificación de gestos de metanavegación también puede efectuarse utilizando un algoritmo heurístico basándose en atributos de toque y en respuesta a atributos de toque tal como uno o más del punto de origen, velocidad, dirección, distancia y trayectoria del gesto.
Opcionalmente, el dispositivo electrónico puede incluir un marco táctil del alojamiento o un bisel táctil que circunscribe el recubrimiento táctil 114. Pueden identificarse gestos de metanavegación basándose en un punto de origen detectado en el marco o bisel táctil.
Además, el límite que se cruza por un gesto de metanavegación no se limita al límite entre el área de visualización 206 y el área de no visualización 208 del visualizador táctil 118. Pueden utilizarse otros límites adecuados y pueden incluir una región o banda a lo largo de un margen del recubrimiento táctil 114, una línea predeterminada, o líneas, en el visualizador táctil 118, o el límite en el que el bisel o marco del dispositivo electrónico se junta con el visualizador táctil 118.
Identificación de gestos de metanavegación no se limita a dispositivos electrónicos con visualizadores táctiles que incluyen un recubrimiento táctil 114 que cubre el área de no visualización 208 del visualizador. Puede efectuarse identificación de gestos de metanavegación utilizando otros dispositivos electrónicos. Además, el dispositivo electrónico descrito con referencia a las figuras se proporciona como un ejemplo de un dispositivo electrónico. Pueden utilizarse otros dispositivos electrónicos y muchas de las características del dispositivo electrónico descrito con particular referencia a la Figura 1 son opcionales. Por ejemplo, el subsistema de comunicación 104 es opcional. Además, las comunicaciones de corto alcance y el SIM/USIM/RUIM 138 son también opcionales. Además, el dispositivo electrónico puede incluir características adicionales no referenciadas o descritas en este documento.
El uso de gestos de metanavegación y la identificación de tales gestos proporcionan entrada adicional que puede distinguirse de gestos no de metanavegación u otros toques. Estos gestos de metanavegación facilitan la entrada de entradas relacionadas con una aplicación para la que no se visualiza información en el momento en el que se recibe el gesto. Por lo tanto, puede recibirse entrada en relación con una aplicación que no está asociada con información visualizada en el visualizador táctil 118 sin el uso de iconos o características seleccionables visualizadas en el visualizador táctil y sin la necesidad de usar otros controles en el dispositivo electrónico tal como botones o interruptores físicos. Un área o áreas del visualizador táctil 118 no se dedican a visualizar tales iconos o características seleccionables. Se proporciona, por lo tanto, navegación de nivel de sistema, sin el uso de visualización adicional de información o menús para tal navegación, proporcionando una interfaz mejorada.
De acuerdo con un aspecto, un método para un equipo de usuario (UE) incluye en respuesta, al menos en parte, a un comando de atención (AT) para acción de dispositivo de entrada táctil, emular un gesto de metanavegación para un dispositivo de entrada táctil que incluye un área de visualización y un área de no visualización.
De acuerdo con otro aspecto, un método para un dispositivo incluye emitir un comando de AT para emular un gesto de metanavegación.
De acuerdo con otro aspecto, un método de probar un UE incluye recibir uno o más comandos de AT para emular un gesto de metanavegación y proporcionar información en respuesta a al menos uno del uno o más comandos de AT.
La presente divulgación puede incorporarse en otras formas específicas sin alejarse de sus características esenciales. Las realizaciones descritas deben considerarse en todos los respectos únicamente como ilustrativas y no restrictivas. El alcance de la presente divulgación se indica, por lo tanto, mediante las reivindicaciones adjuntas en lugar de mediante la descripción anterior.

Claims (15)

REIVINDICACIONES
1. Un método para un equipo de usuario, UE, comprendiendo el UE áreas de interacción que incluyen al menos un área de no visualización (208) y un área de visualización (206), comprendiendo el método:
en respuesta, al menos en parte, a un comando de atención, AT, para información de orientación, proporcionar información de orientación;
antes de notificación, emulación o recepción de comandos táctiles, proporcionar una lista con identificadores que identifican las áreas de interacción;
proporcionar un comando para habilitar el envío de códigos de resultados no solicitados o habilitar el envío de eventos no solicitados dependiendo del área de interacción;
en respuesta, al menos en parte, a un comando de AT para acción de dispositivo de entrada táctil, emular un gesto de metanavegación para un dispositivo de entrada táctil que incluye un área de visualización (206) y un área de no visualización (208); y
en el que el gesto de metanavegación es un gesto que tiene un punto de origen que está fuera del área de visualización (206) y que se mueve a una posición en el área de visualización (206).
2. El método de acuerdo con la reivindicación 1, que comprende en respuesta, al menos en parte, a un comando de AT para información de límite de no visualización, proporcionar información de límite de no visualización.
3. El método de acuerdo con la reivindicación 1, en el que el comando para habilitar el envío de códigos de resultados no solicitados o habilitar el envío de eventos no solicitados dependiendo del área de interacción incluye al menos un identificador que identifica el área de interacción.
4. El método de acuerdo con la reivindicación 1, que comprende en respuesta, al menos en parte, a un comando de AT para tamaño de pantalla de comando, proporcionar información de tamaño de pantalla de comando.
5. El método de acuerdo con la reivindicación 1, en el que la información de orientación comprende una identificación de al menos una característica del dispositivo de entrada táctil como una referencia.
6. El método de acuerdo con la reivindicación 5, en el que la información de orientación comprende una identificación de al menos una esquina del dispositivo de entrada táctil, opcionalmente en el que la información de orientación comprende valores de coordenadas de la al menos una esquina.
7. El método de acuerdo con la reivindicación 5, en el que la información de orientación comprende una identificación de al menos un lado del dispositivo de entrada táctil.
8. El método de acuerdo con la reivindicación 1, en el que la información de orientación comprende un escalar que representa un ángulo de rotación del UE a una orientación de referencia, opcionalmente en el que la información de orientación comprende un escalar que representa un ángulo de inclinación o en el que el al menos un escalar comprende uno de un número fijo de valores que representa el ángulo de rotación.
9. El método de acuerdo con la reivindicación 4, en el que la información de tamaño de pantalla de comando comprende un valor de coordenada x máximo y un valor de coordenada y máximo.
10. El método de acuerdo con la reivindicación 2, en el que límite de no visualización comprende un límite entre el área de no visualización y el área de visualización, opcionalmente en el que la información de límite de no visualización comprende valores de coordenadas del límite.
11. El método de acuerdo con la reivindicación 10, en el que los valores de coordenadas comprenden valores de coordenadas de esquinas opuestas del límite.
12. El método de acuerdo con la reivindicación 1, en el que el gesto de metanavegación comprende un gesto multitoque, opcionalmente en el que los toques del gesto multitoque se identifican mediante un mismo identificador.
13. El método de acuerdo con la reivindicación 1, que comprende, en respuesta, al menos en parte, a un comando de AT para al menos una del área de visualización y el área de no visualización, proporcionar una indicación de una propiedad de la al menos una del área de visualización y el área de no visualización.
14. Un medio legible por ordenador que tiene código legible por ordenador que, cuando se ejecuta por al menos un procesador de un equipo de usuario, UE, provoca que el UE realice el método de la reivindicación 1.
15. Un equipo de usuario, UE, que comprende:
un visualizador táctil;
memoria;
un procesador acoplado al visualizador táctil y la memoria, configurándose el procesador para efectuar el método de acuerdo con la reivindicación 1.
ES18181978T 2011-08-12 2011-08-12 Dispositivo electrónico portátil y método de control del mismo Active ES2758130T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18181978.0A EP3401774B1 (en) 2011-08-12 2011-08-12 Portable electronic device and method of controlling same
PCT/US2011/047677 WO2013025192A1 (en) 2011-08-12 2011-08-12 Portable electronic device and method of controlling same

Publications (1)

Publication Number Publication Date
ES2758130T3 true ES2758130T3 (es) 2020-05-04

Family

ID=44534676

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18181978T Active ES2758130T3 (es) 2011-08-12 2011-08-12 Dispositivo electrónico portátil y método de control del mismo

Country Status (9)

Country Link
EP (3) EP3572921B1 (es)
JP (1) JP5667301B2 (es)
KR (1) KR101451534B1 (es)
CN (1) CN103080890B (es)
CA (1) CA2808792C (es)
DE (1) DE112011102694B4 (es)
ES (1) ES2758130T3 (es)
GB (1) GB2496346A (es)
WO (1) WO2013025192A1 (es)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5809202B2 (ja) * 2013-06-21 2015-11-10 シャープ株式会社 画面操作可能な画像表示装置及びその操作方法
DE102014003611A1 (de) * 2014-03-13 2015-09-17 Audi Ag Verfahren zum Betreiben einer Mensch-Maschine-Schnittstelle sowie eine Mensch-Maschine-Schnittstelle zur Ausführung des Verfahrens
KR102451122B1 (ko) * 2015-05-18 2022-10-05 애플 인크. 패킷 데이터 네트워크 접속 오프로드를 위한 주의(at) 명령
KR101687184B1 (ko) 2015-08-31 2016-12-16 린나이코리아 주식회사 스팀오븐의 열 변형저감과 모터의 과열을 방지하는 장치 및 그 방법
CN106814903B (zh) * 2015-12-01 2020-01-14 小米科技有限责任公司 功能键的触控方法和装置
US20210373758A1 (en) * 2020-05-28 2021-12-02 Microsoft Technology Licensing, Llc Active accessibility control bar

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9008A (en) * 1852-06-08 Improvement in the construction of soap-boilers
AU4495600A (en) * 1999-04-28 2000-11-21 Adobe Systems Incorporated A system and method for changing the rotational orientation of display data
US6567101B1 (en) 1999-10-13 2003-05-20 Gateway, Inc. System and method utilizing motion input for manipulating a display of data
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
TWI337321B (en) * 2007-05-15 2011-02-11 Htc Corp Electronic device with switchable user interface and accessable touch operation
US8106881B2 (en) * 2007-11-07 2012-01-31 International Business Machines Corporation System, computer program product and method of manipulating windows on portable computing devices through motion
US8159469B2 (en) * 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
US10031549B2 (en) * 2008-07-10 2018-07-24 Apple Inc. Transitioning between modes of input
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
CN101739125A (zh) * 2008-11-12 2010-06-16 联想(北京)有限公司 一种通过操作体执行操作的方法、装置及电子设备
EP2211256A1 (en) * 2009-01-27 2010-07-28 Research In Motion Limited A handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
CN101860892A (zh) 2009-04-11 2010-10-13 深圳富泰宏精密工业有限公司 模拟手机at命令测试的系统及方法
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
ES2900188T3 (es) * 2010-09-24 2022-03-16 Huawei Tech Co Ltd Dispositivo electrónico portátil y método para controlar el mismo

Also Published As

Publication number Publication date
EP2596420B1 (en) 2018-07-18
CA2808792A1 (en) 2013-02-21
JP5667301B2 (ja) 2015-02-12
CA2808792C (en) 2016-02-16
CN103080890B (zh) 2016-06-15
WO2013025192A1 (en) 2013-02-21
KR20130075767A (ko) 2013-07-05
EP2596420A1 (en) 2013-05-29
DE112011102694T5 (de) 2013-05-29
GB201303167D0 (en) 2013-04-10
JP2013537992A (ja) 2013-10-07
EP3572921A1 (en) 2019-11-27
DE112011102694B4 (de) 2021-12-09
CN103080890A (zh) 2013-05-01
EP3572921B1 (en) 2021-10-06
KR101451534B1 (ko) 2014-10-22
EP3401774B1 (en) 2019-10-09
EP3401774A1 (en) 2018-11-14
GB2496346A (en) 2013-05-08

Similar Documents

Publication Publication Date Title
US8884892B2 (en) Portable electronic device and method of controlling same
ES2900188T3 (es) Dispositivo electrónico portátil y método para controlar el mismo
US8179376B2 (en) Touch-sensitive display with capacitive and resistive touch sensors and method of control
ES2753498T3 (es) Ampliación automática de área de visualización con objetos seleccionables
ES2758130T3 (es) Dispositivo electrónico portátil y método de control del mismo
EP2224325A1 (en) A handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
US8121652B2 (en) Portable electronic device including touchscreen and method of controlling the portable electronic device
CN114930289A (zh) 一种微件处理方法以及相关装置
EP2290510A1 (en) Touch-sensitive display with capacitive and resistive touch sensors and method of control
US20130050120A1 (en) Device, method, and storage medium storing program
KR20170053410A (ko) 복수의 화면을 표시하는 전자장치 및 그 제어 방법
EP2199898B1 (en) Portable electronic device including touchscreen and method of controlling the portable electronic device