ES2753498T3 - Ampliación automática de área de visualización con objetos seleccionables - Google Patents

Ampliación automática de área de visualización con objetos seleccionables Download PDF

Info

Publication number
ES2753498T3
ES2753498T3 ES10797583T ES10797583T ES2753498T3 ES 2753498 T3 ES2753498 T3 ES 2753498T3 ES 10797583 T ES10797583 T ES 10797583T ES 10797583 T ES10797583 T ES 10797583T ES 2753498 T3 ES2753498 T3 ES 2753498T3
Authority
ES
Spain
Prior art keywords
enlarged view
user
screen
user interface
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10797583T
Other languages
English (en)
Inventor
Michael Feldstein
Jordan Feldstein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2753498T3 publication Critical patent/ES2753498T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Un método implementado en ordenador para ampliar una parte de una vista de una interfaz de usuario mostrada dentro de una pantalla táctil (130), y este método comprende: proporcionar, para su visualización en pantalla, una interfaz de usuario, y la interfaz de usuario incluye objetos seleccionables; calibrar la interfaz de usuario mediante la medición de un área de contacto del dedo de un usuario detectado en la pantalla táctil e identificar un área de separación espacial para el dedo correspondiente al área de contacto; recibir un primer toque de usuario (525) en la pantalla táctil; determinar que dos o más objetos seleccionables se encuentran dentro del área de separación espacial del primer toque de usuario; generar automáticamente una vista ampliada de los dos o más objetos seleccionables en respuesta a que los dos o más objetos seleccionables (510 y 520) se encuentren dentro del área de separación espacial del primer toque de usuario; recibir (455) una indicación de una selección asociada con la vista ampliada; y eliminar (460) la vista ampliada en respuesta a la indicación de la selección.

Description

DESCRIPCIÓN
Ampliación automática de área de visualización con objetos seleccionables
ANTECEDENTES
1. CAMPO DE LA TÉCNICA
[0001] Esta divulgación se refiere generalmente al campo de las pantallas de visualización y, más en concreto, a la visualización de información seleccionable dentro de un área de pantalla delimitada.
2. DESCRIPCIÓN DE LA TÉCNICA
[0002] Los dispositivos informáticos con pantallas pequeñas, como por ejemplo los teléfonos inteligentes (smartphones) y los teléfonos móviles con funcionalidad mejorada, son bien conocidos. Dichos dispositivos informáticos incluyen pantallas que muestran interfaces de usuario de redes y aplicaciones, por ejemplo páginas de navegador web o applets. Estas interfaces de usuario pueden mostrar un gran volumen de información que incluye objetos seleccionables dentro de la interfaz de usuario representada. Además, las pantallas están configuradas para ser táctiles y permitir la interacción directa con la interfaz de usuario a través de la pantalla.
[0003] Un problema derivado de tener dichos objetos seleccionables dentro de una interfaz de usuario representada es que los objetos a menudo son difíciles de leer debido al área reducida de visualización. Otro problema de los objetos seleccionables dentro de la interfaz de usuario representada es que los objetos seleccionables a menudo están muy próximos entre sí, por ejemplo son adyacentes. Por lo tanto, se requiere que un usuario tenga habilidades motrices muy finas para seleccionar un objeto seleccionable deseado. Dichas habilidades motrices finas a menudo son difíciles de aplicar y, en tales casos, a menudo se selecciona un objeto seleccionable incorrecto.
[0004] Un intento para abordar las deficiencias en el estado de la técnica ha sido permitir que un usuario aumente manualmente el zoom de la interfaz de usuario que se está representando. Sin embargo, la invocación de esa función de zoom amplía la totalidad de la interfaz de usuario, haciendo desaparecer así normalmente una parte de la pantalla de la interfaz de usuario representada originalmente. Con frecuencia las partes de la interfaz de usuario que desaparecen de la vista incluyen los elementos relevantes que se desean ampliar, incluidos vínculos potencialmente seleccionables. Además, un gran número de interfaces de usuario carecen de mecanismos para permitir el zoom.
[0005] Por lo tanto, la técnica carece, entre otras cosas, de un mecanismo para ampliar partes relevantes de una interfaz de usuario sin requerir la interacción con comandos de aplicación para realizar el zoom.
[0006] La patente de Estados Unidos n.° 2008/172633 A1 se refiere a un método de dispositivo de pantalla táctil para mostrar e interactuar con menús en un dispositivo de pantalla táctil.
[0007] La solicitud de patente n.° WO 00/75766 A1 se refiere a un terminal de autoservicio (SST por sus siglas en inglés, Self-Service Terminal), en particular a un SST que tiene una pantalla táctil.
[0008] La patente de Estados Unidos n.° 2006/161846 A1 describe una función de acercamiento (zoom-in) en un teclado virtual para facilitar la selección de teclas.
[0009] La solicitud de patente n.° WO 94/29788 A1 divulga un acercamiento automático de un área alrededor de un carácter señalado.
[0010] La patente de Estados Unidos n.° 2008/136785 A1 divulga un acercamiento automático de un área bajo el dedo del usuario cuando la selección es ambigua, por ejemplo para un objetivo más pequeño que la punta de un dedo. BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0011] Las realizaciones divulgadas tienen otras ventajas y características que resultarán más evidentes tras la lectura de la descripción detallada, las reivindicaciones adjuntas y las figuras (o dibujos) que se adjuntan. A continuación se ofrece una breve introducción de las figuras.
En la Figura (FIG.) 1a se ilustra una realización de un dispositivo informático móvil en un primer estado posicional.
En la Figura 1b se ilustra una realización del dispositivo informático móvil en un segundo estado posicional. En la Figura 2 se ilustra una realización de una arquitectura de un dispositivo informático móvil.
En la Figura 3a se ilustra una realización del proceso de calibración de un dispositivo y la interfaz de usuario correspondiente para la determinación de la ampliación.
En la Figura 3b se ilustra una realización de una interacción del usuario para la calibración.
En la Figura 4a se ilustra una realización de un proceso para ampliar automáticamente una parte de la interfaz de usuario.
En la Figura 4b se ilustra una realización de un proceso para eliminar una vista ampliada de la interfaz de usuario.
En la Figura 5 se ilustra una realización de ejemplos de interfaces de usuario para ampliar una parte de una interfaz de usuario.
DESCRIPCIÓN DETALLADA
[0012] El alcance de la invención está definido por las reivindicaciones adjuntas. Las Figuras (FIG.) y la siguiente descripción se refieren a las realizaciones preferidas solo a título ilustrativo. Cabe señalar que a partir del siguiente análisis, se reconocerán fácilmente realizaciones alternativas de las estructuras y los métodos descritos en el presente que pueden ser alternativas viables y pueden utilizarse sin apartarse de los principios de la materia que se reivindica.
[0013] Se hará referencia en detalle a varias realizaciones, ejemplos de las cuales se ilustran en las figuras que se adjuntan. Cabe señalar que siempre que sea posible, en las figuras se usarán números de referencia similares o iguales, los cuales pueden indicar una funcionalidad similar o igual. Las figuras representan realizaciones del sistema (o método) divulgado a título ilustrativo únicamente. Un experto en la técnica reconocerá fácilmente a partir de la siguiente descripción que se pueden utilizar realizaciones alternativas de las estructuras y métodos ilustrados en el presente sin apartarse de los principios descritos en el mismo.
[0014] Una realización de un sistema (y método y medio de almacenamiento legible por ordenador) divulgado que está configurado para ampliar una parte de una vista de una interfaz de usuario visualizada dentro de una pantalla táctil. En una realización, el sistema está configurado para determinar una zona de contacto predeterminada correspondiente a una unidad de medida asociada con un toque aplicado en la pantalla. La zona de contacto predeterminada puede calibrarse específicamente para un usuario y/o establecerse como predeterminada. La zona de contacto se puede medir en unidades de distancia lineal o de área utilizando valores que se pueden determinar en píxeles o unidades de medida más convencionales, como por ejemplo milímetros o pulgadas (o una unidad correspondiente de medición de área).
[0015] De acuerdo con un aspecto de la presente invención, se da a conocer un método implementado en ordenador para ampliar una parte de una vista de una interfaz de usuario mostrada dentro de una pantalla táctil, y este método comprende: proporcionar, para su visualización en pantalla, una interfaz de usuario, y la
interfaz de usuario incluye objetos seleccionables; determinar un área de contacto de un usuario detectado en la pantalla táctil; definir un área de separación espacial para el usuario basada en el área de contacto; recibir una primera entrada de usuario en la pantalla táctil; determinar que dos o más objetos seleccionables se encuentran dentro del área de separación espacial de la primera entrada de usuario; generar automáticamente una vista ampliada de una pluralidad de objetos seleccionables en respuesta a la pluralidad de objetos seleccionables (510 y 520) que se encuentran dentro del área de separación espacial de la primera entrada de usuario; recibir (455) una indicación de una selección asociada con la vista ampliada; y eliminar (460) la vista ampliada en respuesta a la indicación de la selección.
[0016] De acuerdo con otro aspecto de la presente invención, se da a conocer un medio de almacenamiento legible por ordenador que almacena instrucciones en el mismo. Cuando un procesador ejecuta las instrucciones, estas hacen que el procesador: proporcione, para su visualización en una pantalla táctil, una interfaz de usuario, y la interfaz de usuario incluye objetos seleccionables; determine un área de contacto de un usuario detectada en la pantalla táctil; defina un área de separación espacial para el usuario basada en el área de contacto; reciba una primera entrada de usuario en la pantalla táctil; determine que dos o más objetos seleccionables están dentro del área de separación espacial de la primera entrada de usuario; genere automáticamente una vista ampliada de una pluralidad de objetos seleccionables en respuesta a la pluralidad de objetos seleccionables que se encuentran dentro del área de separación espacial de la primera entrada de usuario; reciba una indicación de una selección asociada con la vista ampliada; y elimine la vista ampliada en respuesta a la indicación de la selección.
DESCRIPCIÓN DEL EJEMPLO GENERAL
[0017] El sistema proporciona, para su visualización en pantalla, una interfaz de usuario para la ampliación automática. La interfaz de usuario incluye objetos (o elementos) seleccionables, por ejemplo hipervínculos o marcadores (o burbujas). El sistema también proporciona, para su visualización en pantalla, una capa adicional de visualización (scrim en inglés) de la interfaz de usuario como respuesta a que una parte de una pluralidad de objetos seleccionables se coloquen dentro de la zona de contacto predeterminada en cualquier lugar de la interfaz de usuario que aparece en la pantalla. La zona de contacto puede basarse en la distancia lineal, el área u otro parámetro de medición y puede basarse en un toque detectado en la pantalla y medido como un radio, un diámetro, un perímetro, una longitud y ancho o un área correspondiente.
[0018] El sistema genera una vista ampliada de la zona de contacto basada en la detección de la pluralidad de objetos seleccionables que están presentes dentro de la zona de contacto predeterminada. El sistema proporciona, para su visualización en pantalla sobre la capa adicional de visualización de la interfaz de usuario, la vista ampliada generada que tiene un área mayor que la zona de contacto. La vista ampliada proporciona un zoom del área de radio predeterminada anterior y se puede configurar para que cubra parcialmente la pantalla. El resultado incluye tener un área de visualización ampliada en la que los objetos seleccionables están presentes para permitir una interacción más fácil con los objetos seleccionables dentro, por ejemplo, de una pequeña pantalla o área de visualización. Cuando el sistema recibe una indicación de una selección dentro de la vista ampliada, la vista ampliada y la vista de capa adicional de visualización se eliminan y se devuelve la vista normal de la interfaz de usuario dentro de la pantalla.
EJEMPLO DE DISPOSITIVO INFORMÁTICO MÓVIL
[0019] En la Figura (FIG.) 1a se ilustra una realización de un primer estado posicional del dispositivo informático móvil (110) que tiene una funcionalidad telefónica, por ejemplo un teléfono móvil o un teléfono inteligente. En la Figura 1b se ilustra una realización de un segundo estado posicional del dispositivo informático móvil (110) que tiene funcionalidad telefónica, por ejemplo, un teléfono móvil o un teléfono inteligente. El dispositivo informático móvil está configurado para alojar y ejecutar una aplicación de teléfono con el fin de realizar y recibir llamadas telefónicas. Cabe señalar que, en aras de facilitar la comprensión, los principios divulgados en el presente se encuentran en un contexto de ejemplo de un dispositivo informático móvil (110) con funcionalidad telefónica que opera en una red de telecomunicaciones móviles. Sin embargo, los principios divulgados en este documento pueden aplicarse en otros contextos telefónicos dúplex (o multiplexados), como por ejemplo dispositivos con funcionalidad telefónica configurada para interactuar directamente con redes telefónicas públicas conmutadas (PSTN por sus siglas en inglés, Public Switched Telephone Networks) y/o redes de datos con funcionalidad de voz sobre protocolo de internet (VoIP).
[0020] El dispositivo informático móvil (110) incluye una primera parte (110a) y una segunda parte (110b). La primera parte (110a) comprende una pantalla para mostrar información (o datos) y puede incluir mecanismos de navegación. Estos aspectos de la primera parte (110a) se describen en mayor detalle más adelante. La segunda parte (110b) comprende un teclado y también se describe en mayor detalle más adelante. El primer estado posicional del dispositivo informático móvil (110) puede denominarse una posición “abierta”, en la que la primera parte (110a) del dispositivo informático móvil se desliza en una primera dirección y expone la segunda parte (110b) del dispositivo informático móvil (110) (o viceversa en términos de movimiento). El dispositivo informático móvil (110) permanece operativo tanto en el primer estado posicional como en el segundo estado posicional.
[0021] El dispositivo informático móvil (110) está configurado para tener un factor de forma que sea cómodo a la hora de ser sostenido en la mano de un usuario, por ejemplo un factor de forma de un asistente digital personal (PDA por sus siglas en inglés, Personal Digital Assistant) o de teléfono inteligente. Por ejemplo, el dispositivo informático móvil (110) puede tener dimensiones que van desde 7,5 a 15,5 centímetros de largo, desde 5 a 15 centímetros de ancho y desde 0,5 a 2,5 centímetros de grosor y que puede pesar entre 50 y 250 gramos.
[0022] El dispositivo informático móvil (110) incluye un altavoz (120), una pantalla (130) y un área de navegación opcional (140), como se muestra en el primer estado posicional. El dispositivo informático móvil (110) también incluye un teclado (150), el cual está expuesto en el segundo estado posicional. El dispositivo informático móvil también incluye un micrófono (no mostrado). El dispositivo informático móvil (110) también puede incluir uno o varios conmutadores (no mostrados). El conmutador o conmutadores pueden ser botones, controles deslizantes o interruptores basculantes y pueden ser mecánicos o de estado sólido (por ejemplo, conmutadores de estado sólido táctiles).
[0023] La pantalla (130) del dispositivo informático móvil (110) es, por ejemplo, una pantalla de visualización táctil o sensible al tacto (incluidos gestos) de 240 x 240, 320 x 320, 320 x 480 o 640 x 480. La pantalla (130) se estructura a partir de, por ejemplo, cristal, plástico, película delgada o material compuesto. La pantalla táctil puede ser una pantalla de cristal líquido (LCD, por sus siglas en inglés, Liquid Crystal Display) transflectivo. En realizaciones alternativas, las relaciones de aspecto y la resolución pueden ser diferentes sin apartarse de los principios de las características inventivas divulgadas en la descripción. A modo de ejemplo, las realizaciones de la pantalla (130) comprenden una pantalla de cristal líquido de matriz activa (AMLCD, por sus siglas en inglés, Active-Matrix Liquid-Crystal Display), una pantalla de cristal líquido de transistores de película delgada (TFT-LCD, por sus siglas en inglés, Thin Film Transistor-Liquid Crystal Display), un diodo orgánico de emisión de luz (OLED, por sus siglas en inglés, Organic Light-Emitting Diode), una pantalla moduladora interferométrica (IMOD, por sus siglas en inglés, Interferometric Modulator Display), una pantalla de cristal líquido (LCD por sus siglas en inglés, Liquid Crystal Display) u otro dispositivo de visualización apropiado. En una realización, la pantalla muestra imágenes en color. En otra realización, la pantalla (130) comprende además una pantalla táctil (por ejemplo, sensible a la presión (resistiva), sensible a la electricidad (capacitiva), acústicamente sensible (onda acústica de superficie o SAW por sus siglas en inglés, surface acoustic wave), fotosensible (infrarroja)), incluido un digitalizador para recibir datos, comandos o información introducidos por un usuario. En configuraciones convencionales, un usuario puede usar un lápiz óptico, un dedo u otro dispositivo de entrada adecuado para la entrada de datos, como por ejemplo mediante la selección de un menú o la introducción de datos de texto.
[0024] El área de navegación opcional (140) está configurada para controlar las funciones de una aplicación que se ejecuta en el dispositivo informático móvil (110) y es visible a través de la pantalla (130). Por ejemplo, el área de navegación incluye un anillo de navegación X-Way (x es un número entero, por ejemplo el número 5) que proporciona funcionalidades de control del cursor, selección y similares. Además, el área de navegación puede incluir botones de selección para seleccionar las funciones mostradas a través de una interfaz de usuario en la pantalla (130). Asimismo, el área de navegación también puede incluir botones de función dedicados a funciones específicas como, por ejemplo, un calendario, un navegador web, un cliente de correo electrónico o una pantalla de inicio. En este ejemplo, el anillo de navegación puede implementarse a través de conmutadores mecánicos, conmutadores de estado sólido, esferas o una combinación de los mismos. En una realización alternativa, el área de navegación (140) puede estar configurada como un área dedicada de gestos, lo que permite la interacción y el control mediante gestos de las funciones y operaciones mostradas a través de una interfaz de usuario que aparece en la pantalla (130).
[0025] El área del teclado (150) puede ser un teclado numérico (por ejemplo, un teclado de marcado) o un teclado numérico integrado con un teclado alfabético o alfanumérico o un teclado de caracteres (150) (por ejemplo, un teclado con teclas consecutivas QWERTY, AZERTY u otro conjunto de teclas equivalente en un teclado de tipo DVORAK o un teclado de caracteres de doble byte).
[0026] Aunque no se ilustra, cabe señalar que el dispositivo informático móvil (110) también puede incluir una ranura de expansión. La ranura de expansión está configurada para recibir y admitir tarjetas de expansión (o tarjetas de medios). Entre los ejemplos de factores de forma de tarjetas de memoria o de medios figuran COMPACTFLASH, TARJETA SD, TARJETA XD, MEMORIA EXTRAÍBLE, TARJETA MULTIMEDIA, SDIO y similares.
DESCRIPCIÓN GENERAL DE UN EJEMPLO DE ARQUITECTURA DEL DISPOSITIVO INFORMÁTICO MÓVIL
[0027] Por lo que respecta ahora a la Figura 2, en un diagrama de bloques se ilustra una realización de una arquitectura de un dispositivo informático móvil (110) con funcionalidad telefónica. A modo de ejemplo, la arquitectura ilustrada en la Figura 2 se describirá con respecto al dispositivo informático móvil de las Figuras 1a y 1b. El dispositivo informático móvil (110) incluye un procesador central (220), una fuente de alimentación (240) y un subsistema de radio (250). El procesador central (220) está configurado para funcionar con un sistema operativo informático. El sistema operativo es una interfaz entre el hardware y una aplicación, con la que un usuario normalmente interactúa. El sistema operativo es responsable de la administración y coordinación de las actividades y del uso compartido de recursos del dispositivo informático móvil (110). El sistema operativo proporciona un entorno de host para las aplicaciones que se ejecutan en el dispositivo informático móvil (110). En su calidad de host, uno de los objetivos de un sistema operativo es administrar los detalles del funcionamiento del dispositivo informático móvil (110).
[0028] El procesador central (220) se comunica con un sistema de audio (210), un subsistema de captura de imágenes (por ejemplo, una cámara, un vídeo o un escáner) (212), una memoria flash (214), una memoria RAM (216), un módulo de radio de corto alcance (218) (por ejemplo, Bluetooth, un componente de Wireless Fidelity (WiFi) (por ejemplo, IEEE 802.11)) y un módulo de representación de interfaz de usuario (285). El procesador central acopla comunicativamente estos diversos componentes o módulos a través de una línea de datos (o bus) (278). La fuente de alimentación (240) alimenta el procesador central (220), el subsistema de radio (250) y un controlador de pantalla (230) (que puede ser sensible al contacto o inductiva). La fuente de alimentación (240) puede corresponder a una fuente de corriente continua (por ejemplo, un paquete de baterías, incluidas las baterías recargables) o a una fuente de corriente alterna (CA). La fuente de alimentación (240) alimenta los diversos componentes a través de una línea de alimentación (o bus) (279).
[0029] El procesador central se comunica con las aplicaciones que se ejecutan dentro del dispositivo informático móvil (110) a través del sistema operativo (220a). Además, los componentes intermedios, por ejemplo el módulo de representación de interfaz de usuario (285), proporcionan canales de comunicación adicionales entre el procesador central (220) y el sistema operativo (220) y los componentes del sistema, por ejemplo el controlador de pantalla (230a). El módulo de representación de interfaz de usuario (285) incluye un módulo administrador de ventanas (222), un módulo administrador de pantallas (226) y un módulo de ampliación automática (228).
[0030] En una realización, el módulo administrador de ventanas (222) comprende un software (por ejemplo, integrado con el sistema operativo) o firmware (código de nivel inferior que reside en una memoria específica para dicho código y cuya función es interactuar con un hardware específico, por ejemplo el procesador (220)). El módulo administrador de ventanas (222) está configurado para inicializar un espacio de pantalla virtual, que puede almacenarse en la memoria RAM (216) y/o en la memoria flash (214). El espacio de pantalla virtual incluye una o más aplicaciones que un usuario está ejecutando en ese momento y el estado actual de las aplicaciones ejecutadas. El módulo administrador de ventanas (222) recibe solicitudes, procedentes de entradas de usuarios o procesos de software o firmware, para mostrar una ventana y determina la posición inicial de la ventana solicitada. Además, el módulo administrador de ventanas (222) recibe comandos o instrucciones para modificar una ventana, como por ejemplo cambiar el tamaño de la ventana, mover la ventana o cualquier otro comando que altere el aspecto o la posición de la ventana, y modifica la ventana de manera acorde.
[0031] El módulo administrador de pantallas (226) comprende un software (por ejemplo, integrado con el sistema operativo) o firmware. El módulo administrador de pantallas (226) está configurado para administrar el contenido que se mostrará en la pantalla (130). En una realización, el módulo administrador de pantallas (226) supervisa y controla la ubicación física de los datos mostrados en la pantalla (130) y determina qué datos se muestran en la pantalla (130).
El módulo administrador de pantallas (226) altera o actualiza la ubicación de los datos que se muestran en la pantalla (130). La alteración o actualización responde a entradas del procesador central (220) y del controlador de pantalla (230), las cuales modifican los aspectos mostrados en la pantalla (130). En una realización, el administrador de pantallas (226) también está configurado para supervisar y controlar el brillo de la pantalla. Además, el administrador de pantallas (226) está configurado para transmitir señales de control al procesador central (220) con el fin de modificar el uso de energía de la pantalla (130).
[0032] El módulo de ampliación automática (228) comprende software, por ejemplo software integrado con el sistema operativo o como una aplicación configurada para comunicarse con el sistema operativo o firmware. El módulo de ampliación automática (228) está configurado para ampliar (o agrandar o realizar un zoom de) una vista mostrada en una pantalla (130), como se divulgará más adelante en el presente.
[0033] El subsistema de radio (250) incluye un procesador de radio (260), una memoria de radio (262) y un transceptor (264). El transceptor (264) puede estar formado por dos componentes separados para transmitir y recibir señales o por un único componente para transmitir y recibir señales. En cualquiera de estos casos, se hace referencia al mismo como transceptor (264). La parte receptora del transceptor (264) se acopla comunicativamente con una entrada de señal de radio del dispositivo (110), por ejemplo, una antena, donde se reciben señales de comunicación de una llamada establecida (por ejemplo, una llamada conectada o activa). Las señales de comunicación recibidas incluyen voz (u otras señales de sonido) recibida de la llamada y procesada por el procesador de radio (260) para su salida a través del altavoz (120 o 184). La parte transmisora del transceptor (264) se acopla comunicativamente con una salida de señal de radio del dispositivo (110), por ejemplo la antena, donde se transmiten las señales de comunicación a una llamada establecida (por ejemplo, una llamada conectada (o acoplada) o activa). Las señales de comunicación para la transmisión incluyen la voz, por ejemplo, la voz recibida a través del micrófono del dispositivo (110), (u otras señales de sonido) que es procesada por el procesador de radio (260) para su transmisión a través del transmisor del transceptor (264) a la llamada establecida.
[0034] En una realización, las comunicaciones que utilizan las comunicaciones de radio descritas pueden realizarse a través de una red de voz o datos. Entre los ejemplos de redes de voz figuran el sistema global para las comunicaciones móviles (GSM, por sus siglas en inglés, Global System for Mobile Communications), un acceso múltiple por división de código (sistema CDMA, por sus siglas en inglés, Code-Division Múltiple Access) y un sistema universal de telecomunicaciones móviles (UMTs , por sus siglas en inglés, Universal Mobile Telecommunications System). Entre los ejemplos de redes de datos figuran el servicio general de paquetes vía radio (GPRS, por sus siglas en inglés, General Packet Radio Service), el móvil de tercera generación (3g ) o superior, el acceso a paquetes de datos en enlace descendente de alta velocidad (HSDPA, por sus siglas en inglés, High Speed Download Packet Access), el acceso a paquetes de datos en enlace ascendente de alta velocidad (HSUPA, por sus siglas en inglés, High Speed Uplink Packet Access) y la interoperabilidad mundial para acceso por microondas (WiMAX, por sus siglas en inglés, Worldwide Interoperability for Microwave Access).
[0035] Aunque pueden proporcionarse otros componentes con el subsistema de radio (250), los componentes básicos mostrados proporcionan la capacidad de que el dispositivo informático móvil realice comunicaciones de radiofrecuencia, incluidas las comunicaciones telefónicas. En una realización, muchos -s i no todos- los componentes bajo el control del procesador central (220) no son requeridos por el subsistema de radio (250) cuando se establece una llamada telefónica, por ejemplo, cuando la llamada está conectada o activa. El procesador de radio (260) puede comunicarse con el procesador central (220) usando la línea de datos (o bus) (278).
[0036] La interfaz de tarjeta (224) está adaptada para comunicarse con la ranura de expansión. La interfaz de tarjeta (224) transmite datos y/o instrucciones entre el procesador central y una tarjeta de expansión o tarjeta de medios incluida en la ranura de expansión. La interfaz de la tarjeta (224) también transmite señales de control desde el procesador central (220) a la ranura de expansión para configurar una tarjeta de expansión o tarjeta de medios incluida en la ranura de expansión.
[0037] En una realización, el procesador central 220 ejecuta la lógica (por ejemplo, por medio de programación, código o instrucciones) correspondiente a la ejecución de aplicaciones con las que se conecta a través de, por ejemplo, el área de navegación (140) o los conmutadores (170). Cabe señalar que otros numerosos componentes y variaciones son posibles para la arquitectura de hardware del dispositivo informático (200), y por lo tanto una realización como la que se muestra en la Figura 2 es solo ilustrativa de una implementación de una realización.
CONFIGURACIÓN DE UN MÓDULO DE AMPLIACIÓN AUTOMÁTICA
[0038] Como se ha señalado anteriormente, el módulo de ampliación automática (228) está configurado para ampliar (o agrandar) una parte de una vista de interfaz de usuario. La parte que se amplía corresponde a un área de una interfaz de usuario en la que dos o más objetos seleccionables se encuentran muy cerca los unos de los otros. Por ejemplo, la proximidad puede ser tal que se superpongan dos o más objetos seleccionables. En otro ejemplo, la proximidad puede ser tal que dos o más objetos seleccionables se encuentren dentro de un radio, diámetro o perímetro predeterminados de forma que la selección de uno pueda provocar la selección inadvertida de otro u otros. En estos ejemplos, los objetos seleccionables pueden ser hipervínculos seleccionables o marcadores (o burbujas) seleccionables (por ejemplo, los que se utilizan en mapas como GOOGLE MAPS, MAPQUEST o MICROSOFT BING MAPS).
[0039] En las Figuras 3a y 3b se ilustra una realización del proceso de calibración de un dispositivo de forma que se corresponda con una interfaz de usuario para la determinación de la ampliación. En la Figura 3a se ilustra un ejemplo de realización de un proceso para la calibración y en la Figura 3b se ilustra un ejemplo de realización de una calibración en la pantalla (130) del dispositivo informático móvil (110). El proceso comienza (310) con la ejecución de un módulo de calibración (no mostrado) por el procesador (220) del dispositivo informático móvil (110). El módulo de calibración está configurado para que el controlador de pantalla (230) calibre la pantalla táctil (130) del dispositivo informático móvil (110) con respecto al módulo de ampliación automática (228).
[0040] El módulo de calibración recibe (315) una señal correspondiente a una indicación de contacto en la pantalla (130) con un dedo (350) (o algún objeto correspondiente a la activación de la pantalla táctil). El módulo de calibración mide (320) los parámetros táctiles correspondientes al toque en la pantalla (130). Los ejemplos de parámetros táctiles incluyen la medición de un área de contacto, por ejemplo un radio, diámetro, perímetro o longitud y ancho en píxeles. A fin de facilitar la comprensión, se utilizan en la descripción en el presente los parámetros táctiles correspondientes al diámetro de un dedo en unidades de medida correspondientes a un tamaño de píxel.
[0041] El módulo de calibración guarda (325) los parámetros táctiles, por ejemplo el número de píxeles correspondientes al diámetro (355) del toque recibido con el dedo (350) en la pantalla táctil (130). El área en la que dos o más objetos seleccionables se encuentran dentro de los límites identificados a través del proceso de calibración se puede denominar un área de separación espacial. En una realización, los parámetros táctiles se almacenan en la memoria flash (214) del dispositivo informático móvil (110). El módulo de calibración puede ahora asociar (330) los parámetros medidos con el módulo de ampliación automática (228) antes de terminar el proceso (335). La asociación con el módulo de calibración automática (228) [sic] describe una proximidad como aquella que está dentro o en los límites de los parámetros táctiles.
OPERACIÓN DE AMPLIACIÓN AUTOMÁTICA
[0042] En la Figura 4a se ilustra una realización de un proceso para ampliar automáticamente una parte de la interfaz de usuario. El proceso comienza (410) cuando el procesador (220) recibe un comando para representar una interfaz de usuario en la pantalla (130). El proceso dibuja (130) una vista de esa interfaz de usuario en la pantalla (130). El proceso determina (420) si en la vista de la interfaz de usuario hay más de un objeto seleccionable (un número superior a 1) dentro del área de separación espacial, por ejemplo, los límites de los parámetros táctiles guardados, como el número de píxeles correspondientes al diámetro de un toque con un dedo. Si no, no se realiza ninguna acción y el proceso vuelve a comenzar. Si hay más de un objeto seleccionable dentro de los límites de los parámetros táctiles guardados, el proceso dibuja (425) una capa adicional de visualización de la vista de interfaz de usuario original (o actual). El proceso amplía (430) el área dentro de los parámetros medidos y proporciona para su visualización (435) sobre la capa adicional de visualización de la vista de interfaz de usuario original la parte ampliada de la vista antes de terminar el proceso (440).
[0043] Con la vista ampliada, los objetos seleccionables que anteriormente pueden haber estado demasiado cerca los unos de los otros para ser tocados con facilidad, por ejemplo porque estaban superpuestos o debido a una estrecha proximidad, ahora están separados espacialmente en la vista ampliada. La separación espacial permite una interacción fácil a través de los toques en la pantalla (130).
[0044] Una vez que se completa la interacción con la vista ampliada, el proceso elimina la vista ampliada de la visualización en la pantalla (130). En la Figura 4b se ilustra una realización de un proceso para eliminar una vista ampliada de la interfaz de usuario. El proceso comienza (450) y recibe (455) una indicación de contacto dentro de la vista ampliada. El procesador (220) procesa la señal correspondiente a la indicación de contacto y elimina (460) la vista ampliada de la pantalla y elimina (465) la capa adicional de visualización de la vista de interfaz de usuario original. El proceso ahora permite al usuario continuar (470) con interacciones con la vista de interfaz de usuario original antes de finalizar (475).
[0045] En la Figura 5 se ilustra una realización de ejemplos de interfaces de usuario que proporcionan una visualización en una pantalla (130) del dispositivo informático móvil. Las interfaces de usuario ilustran un ejemplo correspondiente a la ampliación de una parte de una interfaz de usuario basada en el proceso descrito anteriormente. Las Figuras 5(1) y 5(2) ilustran la vista de interfaz de usuario original (517) presentada (mostrada) en la pantalla (130) del dispositivo informático móvil. En este ejemplo, un mapa muestra tres ubicaciones de interés representadas por marcadores. Cada marcador es un objeto seleccionable. Las dos primeras ubicaciones, los marcadores “A” y “B”, se muestran en una primera área (510) de la vista y se muestra una tercera ubicación (520), un marcador “I”, en una segunda área (520) de la vista. Las dos primeras ubicaciones están condensadas espacialmente en la vista, mientras que la tercera ubicación se encuentra en un área espacialmente separada de la vista de interfaz de usuario original (517).
[0046] En la Figura 5(2), si un usuario toca (520) el marcador “I”, se muestra al usuario un globo emergente sobre la vista de interfaz de usuario original con más información (523) sobre el marcador “ I”. En este ejemplo, la Figura 5(3) muestra información (523) correspondiente al marcador “I” que incluye detalles adicionales sobre un restaurante TACO BELL en esa ubicación. Sin embargo, si el usuario toca (525) en la ubicación de los marcadores “A” y “B”, el proceso determina que estos marcadores no tienen la separación espacial requerida. Por lo tanto, el proceso crea una vista de capa adicional de visualización (527) de la vista de interfaz de usuario original (517). En la parte superior de la vista de capa adicional de visualización (527), el proceso proporciona para su visualización una vista de cuadro ampliada (529) del área donde se ubican los marcadores “A” y “B”. En la vista de cuadro ampliada (529), los marcadores “A” y “B” están separados debido a la vista ampliada de la región de la interfaz de usuario. Un usuario ahora puede seleccionar fácilmente entre los dos marcadores debido a su separación espacial en la vista de cuadro ampliada (529).
[0047] Si un usuario toca (530) el marcador “B”, el proceso elimina la vista de cuadro ampliada (529), elimina la capa adicional de visualización (527) de la vista de interfaz de usuario original y muestra la vista de interfaz de usuario original (517) y una ventana emergente (531) correspondiente al marcador “B” seleccionado sobre esa vista (517). En este ejemplo, la ventana emergente muestra detalles adicionales de la ubicación seleccionada en el marcador “B”. Sin embargo, si desde la vista ampliada de la Figura 5(4) se realizó una selección fuera del cuadro de vista ampliada (529), el proceso elimina el cuadro de vista ampliada (529), elimina la capa adicional de visualización (527) de la vista de interfaz de usuario original y vuelve a la vista de interfaz de usuario original (517), como se muestra en la Figura 5(6).
[0048] Cabe señalar que si hubiera dos o más objetos seleccionables, por ejemplo marcadores, muy próximos entre sí en el cuadro de vista ampliada (529), el proceso podría configurarse para proporcionar una ampliación adicional a través de los principios divulgados en el presente. Por ejemplo, si el proceso detecta la selección alrededor de donde los marcadores están muy cerca los unos de los otros, puede eliminar la capa adicional de visualización (527) de la vista original, crear una capa adicional de visualización en pantalla completa del cuadro de vista ampliada (529) y superponer a esa capa adicional de visualización en pantalla completa del cuadro de vista ampliada (529) un nuevo (o segundo) cuadro de vista ampliada. El nuevo cuadro de vista ampliada (529) ahora tendría una vista ampliada con separación espacial dentro de la interfaz de usuario. De nuevo, si hay dos o más marcadores que carecen de la separación espacial requerida, entonces el proceso puede repetirse nuevamente para esos marcadores dentro de la interfaz de usuario.
[0049] Aunque el ejemplo proporcionado se encuentra en el contexto de un mapa, los principios examinados pueden aplicarse a otros contextos de interfaces de usuario con objetos seleccionables. Por ejemplo, una página web con dos o más objetos seleccionables, por ejemplo hipervínculos o botones, muy cerca los unos de los otros puede ser representada en un cuadro de vista ampliada para crear una separación espacial dentro de la vista ampliada. En las aplicaciones, las listas con múltiples objetos seleccionables, por ejemplo entradas de agenda telefónica, pueden configurarse para crear un cuadro de vista ampliada para esas entradas adyacentes entre sí con el fin de crear una separación espacial para interactuar más fácilmente con una entrada de lista específica.
[0050] Además, las configuraciones divulgadas pueden integrarse en cada aplicación en la que una interfaz de usuario tiene objetos seleccionables que pueden estar muy próximos entre sí. En realizaciones alternativas, la configuración divulgada en el presente puede integrarse a nivel de sistema de manera que las aplicaciones y los applets puedan realizar llamadas a nivel de sistema para proporcionar la configuración de la interfaz de usuario, tal y como se describe en el presente, en lugar de tener que integrar las funciones directamente en la aplicación.
[0051] La configuración para la ampliación automática, tal y como se describe en el presente, proporciona beneficiosamente un zoom automatizado de una parte de una interfaz de usuario en la que los objetos seleccionables se encuentran muy próximos los unos de los otros. El grado de proximidad puede ser específico del usuario según se establezca mediante un proceso de calibración que determina si los vínculos se encuentran dentro de un límite (o distancia) predeterminado entre sí, como se muestra en una pantalla (130) de un dispositivo informático móvil. Por lo tanto, las configuraciones divulgadas proporcionan facilidad de uso e interacción a través de las interfaces de usuario que pueden representarse en áreas o pantallas de visualización de tamaño reducido.
CONSIDERACIONES ADICIONALES PARA LA AMPLIACIÓN AUTOMÁTICA
[0052] Algunas partes de la divulgación anterior describen las realizaciones en términos de algoritmos y representaciones simbólicas de operaciones sobre información, por ejemplo como se ilustra y describe con respecto a las Figuras 2, 3a, 4a y 5a. Estas descripciones y representaciones algorítmicas son normalmente utilizadas por los expertos en las técnicas de procesamiento de datos para transmitir la esencia de su trabajo eficazmente a otros expertos en la técnica. Se entiende que estas operaciones, aunque se describen funcionalmente, computacionalmente o lógicamente, son implementadas por programas informáticos o circuitos eléctricos, microcódigos o elementos similares equivalentes. Además, también resulta práctico a veces referirse a estas configuraciones de operaciones como módulos, sin pérdida de generalidad. Las operaciones descritas y sus módulos asociados pueden estar incorporados en software, firmware, hardware o cualquier combinación de los anteriores.
[0053] Las referencias en el presente a “una realización” significan que un elemento, función, estructura o característica particular descritos con respecto a las realizaciones se incluyen en al menos una realización de la invención. Aunque en varios lugares de la memoria descriptiva aparezca la expresión “en una realización”, dicha expresión no se refiere necesariamente en todos los casos a la misma realización.
[0054] Algunas realizaciones pueden describirse usando los términos “acoplado/a” y “conectado/a”, así como términos derivados de los mismos. Por ejemplo, se pueden describir algunas realizaciones utilizando el término “conectado/a” para indicar que dos o más elementos se encuentran en contacto físico o eléctrico directo entre sí. En otro ejemplo, se pueden describir algunas realizaciones utilizando el término “acoplado/a” para indicar que dos o más elementos se encuentran en contacto físico o eléctrico directo entre sí. Sin embargo, el término “acoplado/a” también puede significar que dos o más elementos no están en contacto directo entre sí, pero aun así colaboran o interactúan entre sí. Las realizaciones no se encuentran limitadas en este contexto.
[0055] Tal y como se usan en el presente, las expresiones “comprende/n”, “que comprende/n”, “incluye/n”, “que incluye/n”, “tiene/n”, “que tiene/n” o cualquier otra variación de las mismas, tienen como objetivo abarcar una inclusión no exclusiva. Por ejemplo, un proceso, método, artículo o aparato que comprende una lista de elementos no está necesariamente limitado solo a esos elementos, sino que puede incluir otros elementos no enumerados expresamente o inherentes a dicho proceso, método, artículo o aparato. Además, a menos que se indique expresamente lo contrario, la conjunción “o” se refiere a un “o” inclusivo y no a un “o” exclusivo. Por ejemplo, una condición “A o B” se satisface en cualquiera de los siguientes casos: si A es verdadero (o está presente) y B es falso (o no está presente), si A es falso (o no está presente) y B es verdadero (o está presente), y si tanto A como B son verdaderos (o están presentes).
[0056] Además, se emplean los términos “un” o “una” para describir elementos y componentes de la invención en el presente. Esto se hace simplemente por comodidad y para proporcionar un sentido general de la invención. Esta descripción deberá interpretarse como que incluye uno o al menos uno y el singular también incluye el plural, a menos que sea obvio que se refiere a lo contrario.
[0057] Al leer esta descripción, los expertos en la técnica también podrán apreciar diseños estructurales y funcionales alternativos adicionales para un sistema y un proceso con el fin de ampliar automáticamente una vista de la interfaz de usuario basándose en la proximidad de objetos seleccionables dentro de esa vista a través de los principios divulgados en el presente. Por consiguiente, aunque se han ilustrado y descrito realizaciones y aplicaciones particulares, deberá entenderse que las realizaciones divulgadas no se limitan únicamente a la construcción precisa y a los componentes exactos descritos en el presente. Diversas modificaciones, cambios y variaciones que resultarán evidentes para los expertos en la técnica pueden llevarse a cabo en la configuración, el funcionamiento y los detalles del método y el aparato divulgados en el presente sin abandonar el alcance que se define en las reivindicaciones adjuntas.

Claims (12)

REIVINDICACIONES
1. Un método implementado en ordenador para ampliar una parte de una vista de una interfaz de usuario mostrada dentro de una pantalla táctil (130), y este método comprende:
proporcionar, para su visualización en pantalla, una interfaz de usuario, y la interfaz de usuario incluye objetos seleccionables;
calibrar la interfaz de usuario mediante la medición de un área de contacto del dedo de un usuario detectado en la pantalla táctil e identificar un área de separación espacial para el dedo correspondiente al área de contacto;
recibir un primer toque de usuario (525) en la pantalla táctil;
determinar que dos o más objetos seleccionables se encuentran dentro del área de separación espacial del primer toque de usuario;
generar automáticamente una vista ampliada de los dos o más objetos seleccionables en respuesta a que los dos o más objetos seleccionables (510 y 520) se encuentren dentro del área de separación espacial del primer toque de usuario;
recibir (455) una indicación de una selección asociada con la vista ampliada; y
eliminar (460) la vista ampliada en respuesta a la indicación de la selección.
2. El método implementado en ordenador de la reivindicación 1, en el que el área de contacto del dedo del usuario y el área de separación espacial se miden en píxeles.
3. El método implementado en ordenador de la reivindicación 1, en el que recibir la indicación de la selección comprende además recibir una indicación de la selección de un objeto seleccionable dentro de la vista ampliada.
4. El método implementado en ordenador de la reivindicación 1, que comprende además:
proporcionar, para su visualización en pantalla, una capa adicional de visualización (527) (scrim) de la interfaz de usuario en respuesta a la determinación de que dos o más objetos seleccionables se encuentran dentro del área de separación espacial del primer toque de usuario; y
proporcionar la vista ampliada para su visualización en pantalla sobre la capa adicional de visualización de la interfaz de usuario.
5. El método implementado en ordenador de la reivindicación 4, que comprende además:
proporcionar, para su visualización en pantalla, una segunda capa adicional de visualización correspondiente a la vista ampliada en respuesta a que al menos una parte de una pluralidad de objetos seleccionables dentro de la vista ampliada se encuentre dentro del área de separación espacial del primer toque de usuario; generar una segunda vista ampliada de los objetos seleccionables dentro de la vista ampliada; proporcionar, para su visualización sobre la segunda capa adicional de visualización en la pantalla, la segunda vista ampliada;
recibir una indicación de una selección de un objeto seleccionable dentro de la segunda vista ampliada; y eliminar las vistas ampliadas en respuesta a la indicación de la selección.
6. El método implementado en ordenador de la reivindicación 5, que comprende además proporcionar, para su visualización en pantalla, un diálogo configurado para recibir una indicación correspondiente a proceder con la segunda vista ampliada antes de proporcionar la segunda capa adicional de visualización.
7. Un medio de almacenamiento legible por ordenador que almacena instrucciones en el mismo. Cuando un procesador (220) ejecuta las instrucciones, estas hacen que el procesador:
proporcione, para su visualización en una pantalla táctil, una interfaz de usuario, y la interfaz de usuario incluye objetos seleccionables;
calibre la interfaz de usuario mediante la medición de un área de contacto del dedo de un usuario detectado en la pantalla táctil e identifique un área de separación espacial para el dedo correspondiente al área de contacto;
reciba un primer toque de usuario (525) en la pantalla táctil;
determine que dos o más objetos seleccionables están dentro del área de separación espacial del primer toque de usuario;
genere automáticamente una vista ampliada de los dos o más objetos seleccionables en respuesta a que los dos o más objetos seleccionables se encuentren dentro del área de separación espacial del primer toque del usuario;
reciba una indicación de una selección asociada con la vista ampliada; y
elimine la vista ampliada en respuesta a la indicación de la selección.
8. El medio de almacenamiento legible por ordenador de la reivindicación 7, en el que el área de contacto del dedo del usuario y el área de separación espacial se miden en píxeles.
9. El medio de almacenamiento legible por ordenador de la reivindicación 8, en el que las instrucciones que hacen que el procesador reciba la indicación de la selección comprenden además instrucciones que hacen que el procesador reciba una indicación de la selección de un objeto seleccionable dentro de la vista ampliada.
10. El medio de almacenamiento legible por ordenador de la reivindicación 7, que comprende además instrucciones que hacen que el procesador:
proporcione, para su visualización en pantalla, una capa adicional de visualización de la interfaz de usuario en respuesta a la determinación de que dos o más objetos seleccionables están dentro del área de separación espacial del primer toque de usuario; y
proporcione la vista ampliada para su visualización en pantalla sobre la capa adicional de visualización de la interfaz de usuario.
11. El medio de almacenamiento legible por ordenador de la reivindicación 10, que comprende además instrucciones que hacen que el procesador:
proporcione, para su visualización en pantalla, una segunda capa adicional de visualización correspondiente a la vista ampliada en respuesta a que al menos una parte de una pluralidad de objetos seleccionables dentro de la vista ampliada esté dentro del área de separación espacial del primer toque de usuario;
genere una segunda vista ampliada de los objetos seleccionables dentro de la vista ampliada; proporcione la segunda vista ampliada para su visualización sobre la segunda capa adicional de visualización en la pantalla;
reciba una indicación de una selección de un objeto seleccionable dentro de la segunda vista ampliada; y elimine las vistas ampliadas en respuesta a la indicación de la selección.
12. El medio de almacenamiento legible por ordenador de la reivindicación 11, que comprende además instrucciones que hacen que el procesador proporcione, para su visualización en pantalla, un diálogo configurado para recibir una indicación correspondiente a proceder con la segunda vista ampliada antes de proporcionar la segunda capa adicional de visualización.
ES10797583T 2009-07-09 2010-06-22 Ampliación automática de área de visualización con objetos seleccionables Active ES2753498T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/500,504 US9372614B2 (en) 2009-07-09 2009-07-09 Automatic enlargement of viewing area with selectable objects
PCT/US2010/039542 WO2011005543A2 (en) 2009-07-09 2010-06-22 Automatic enlargement of viewing area with selectable objects

Publications (1)

Publication Number Publication Date
ES2753498T3 true ES2753498T3 (es) 2020-04-08

Family

ID=43428411

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10797583T Active ES2753498T3 (es) 2009-07-09 2010-06-22 Ampliación automática de área de visualización con objetos seleccionables

Country Status (5)

Country Link
US (1) US9372614B2 (es)
EP (1) EP2452260B1 (es)
ES (1) ES2753498T3 (es)
HU (1) HUE045887T2 (es)
WO (1) WO2011005543A2 (es)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD666567S1 (en) * 2008-05-02 2012-09-04 Hewlett-Packard Development Company, L.P. Housing for a mobile computing device
US20110154260A1 (en) * 2009-12-17 2011-06-23 Motorola Inc Method and apparatus for displaying information in an electronic device
US8704783B2 (en) 2010-03-24 2014-04-22 Microsoft Corporation Easy word selection and selection ahead of finger
US9292161B2 (en) * 2010-03-24 2016-03-22 Microsoft Technology Licensing, Llc Pointer tool with touch-enabled precise placement
GB2482339A (en) * 2010-07-30 2012-02-01 Jaguar Cars Computing device with improved function element selection
US9785335B2 (en) * 2010-12-27 2017-10-10 Sling Media Inc. Systems and methods for adaptive gesture recognition
KR20120082102A (ko) * 2011-01-13 2012-07-23 삼성전자주식회사 터치 영역에서 타깃 선택 방법
US8863232B1 (en) 2011-02-04 2014-10-14 hopTo Inc. System for and methods of controlling user access to applications and/or programs of a computer
US8624858B2 (en) 2011-02-14 2014-01-07 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling same
US9317196B2 (en) 2011-08-10 2016-04-19 Microsoft Technology Licensing, Llc Automatic zooming for text selection/cursor placement
US9251144B2 (en) * 2011-10-19 2016-02-02 Microsoft Technology Licensing, Llc Translating language characters in media content
FR2991070B1 (fr) * 2012-05-23 2015-04-17 Airbus Operations Sas Dispositif d'affichage a ecran tactile pour environnement vibrant et applications.
US8713658B1 (en) 2012-05-25 2014-04-29 Graphon Corporation System for and method of providing single sign-on (SSO) capability in an application publishing environment
US9419848B1 (en) 2012-05-25 2016-08-16 hopTo Inc. System for and method of providing a document sharing service in combination with remote access to document applications
JP2014016707A (ja) * 2012-07-06 2014-01-30 Nec Saitama Ltd 情報処理装置
US9239812B1 (en) 2012-08-08 2016-01-19 hopTo Inc. System for and method of providing a universal I/O command translation framework in an application publishing environment
US9690449B2 (en) * 2012-11-02 2017-06-27 Microsoft Technology Licensing, Llc Touch based selection of graphical elements
CN103809948A (zh) * 2012-11-12 2014-05-21 三亚中兴软件有限责任公司 基于事件监听的移动应用编辑框放大的方法及装置
FR2999310A1 (fr) * 2012-12-12 2014-06-13 Oberthur Technologies Dispositif electronique comprenant une interface tactile
GB2509541A (en) 2013-01-08 2014-07-09 Ibm Display tool with a magnifier with a crosshair tool.
US9158414B1 (en) * 2013-07-09 2015-10-13 Google Inc. System and method for indicating a selected feature of an interactive digital map
US9329692B2 (en) 2013-09-27 2016-05-03 Microsoft Technology Licensing, Llc Actionable content displayed on a touch screen
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
USD781318S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9972121B2 (en) 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
US10007406B1 (en) * 2014-11-24 2018-06-26 Evernote Corporation Adaptive writing interface
CN105786377B (zh) * 2016-02-17 2019-08-06 京东方科技集团股份有限公司 触控监测方法及装置、终端

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994029788A1 (en) 1993-06-15 1994-12-22 Honeywell Inc. A method for utilizing a low resolution touch screen system in a high resolution graphics environment
US6211856B1 (en) 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
US6610917B2 (en) * 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
WO2000075766A1 (en) 1999-06-02 2000-12-14 Ncr International, Inc. Self-service terminal
JP2002149152A (ja) 2000-11-10 2002-05-24 Fujitsu Ltd 画像表示制御装置
US7437670B2 (en) 2001-03-29 2008-10-14 International Business Machines Corporation Magnifying the text of a link while still retaining browser function in the magnified display
EP1567927B1 (en) 2002-11-29 2013-07-10 Koninklijke Philips Electronics N.V. System and method for user interface with displaced representation of touch area
JP2006134184A (ja) * 2004-11-08 2006-05-25 Honda Access Corp 遠隔制御スイッチ
TWI328185B (en) 2006-04-19 2010-08-01 Lg Electronics Inc Touch screen device for potable terminal and method of displaying and selecting menus thereon
KR100770936B1 (ko) 2006-10-20 2007-10-26 삼성전자주식회사 문자 입력 방법 및 이를 위한 이동통신단말기
US7692629B2 (en) 2006-12-07 2010-04-06 Microsoft Corporation Operating touch screen interfaces
US20080284756A1 (en) 2007-05-15 2008-11-20 Chih-Feng Hsu Method and device for handling large input mechanisms in touch screens
KR20090016209A (ko) 2007-08-10 2009-02-13 엘지전자 주식회사 문자 입력 방법 및 문자 입력 장치
US20100162163A1 (en) * 2008-12-18 2010-06-24 Nokia Corporation Image magnification

Also Published As

Publication number Publication date
WO2011005543A2 (en) 2011-01-13
US20110010668A1 (en) 2011-01-13
EP2452260A2 (en) 2012-05-16
EP2452260B1 (en) 2019-08-21
HUE045887T2 (hu) 2020-01-28
EP2452260A4 (en) 2016-02-24
US9372614B2 (en) 2016-06-21
WO2011005543A3 (en) 2011-03-31

Similar Documents

Publication Publication Date Title
ES2753498T3 (es) Ampliación automática de área de visualización con objetos seleccionables
US10521111B2 (en) Electronic apparatus and method for displaying a plurality of images in a plurality of areas of a display
JP5372157B2 (ja) 拡張現実のためのユーザインターフェース
EP3070586B1 (en) Mobile terminal and user interface of mobile terminal
KR101078929B1 (ko) 단말기 및 그 인터넷 이용 방법
US9508322B2 (en) Text box resizing
EP2282259B1 (en) User interface method used in web browsing, electronic device for performing the same and computer readable recording medium thereof
US20130285956A1 (en) Mobile device provided with display function, storage medium, and method for controlling mobile device provided with display function
JP7247417B2 (ja) アイコン表示方法及び端末機器
KR20110058117A (ko) 터치스크린을 포함한 이동 통신 단말기에서의 데이터 표시 제어 방법 및 이를 적용한 이동 통신 단말기
US10007375B2 (en) Portable apparatus and method for controlling cursor position on a display of a portable apparatus
KR20030097820A (ko) 두 개 이상의 디스플레이들을 구비한 장치들 상에디스플레이된 조화 이미지들
US9298364B2 (en) Mobile electronic device, screen control method, and storage medium strong screen control program
CN110417960B (zh) 一种可折叠触摸屏的折叠方法及电子设备
KR20110013606A (ko) 이동 통신 단말기에서의 메뉴 실행 방법 및 이를 적용한 이동 통신 단말기
EP3356920B1 (en) Electronic device for displaying multiple screens and control method therefor
ES2758130T3 (es) Dispositivo electrónico portátil y método de control del mismo
US9383815B2 (en) Mobile terminal and method of controlling the mobile terminal
JP6080401B2 (ja) 装置
KR101786513B1 (ko) 이동 단말기의 화면 조작 방법
KR20120010529A (ko) 다중 디스플레이 방법 및 이를 이용하는 이동 단말기
CN111158833A (zh) 操作控制方法及电子设备
KR20100085615A (ko) 이동단말기 및 그 제어 방법
KR20120008660A (ko) 이동 단말기에서 맵 화면 이동방법 및 그 방법을 이용한 이동 단말기
KR20140085900A (ko) 터치 입력 인터페이스 제공 장치 및 방법