ES2361784T3 - Procedimientos para determinar una posición de cursor a partir del contacto de un dedo con una pantalla táctil. - Google Patents

Procedimientos para determinar una posición de cursor a partir del contacto de un dedo con una pantalla táctil. Download PDF

Info

Publication number
ES2361784T3
ES2361784T3 ES07814691T ES07814691T ES2361784T3 ES 2361784 T3 ES2361784 T3 ES 2361784T3 ES 07814691 T ES07814691 T ES 07814691T ES 07814691 T ES07814691 T ES 07814691T ES 2361784 T3 ES2361784 T3 ES 2361784T3
Authority
ES
Spain
Prior art keywords
user interface
touch screen
module
interface object
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07814691T
Other languages
English (en)
Inventor
Bas Ording
Scott Forstall
Greg Christie
Stephen O. Lemay
Imran Chaudhri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Application granted granted Critical
Publication of ES2361784T3 publication Critical patent/ES2361784T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

Un procedimiento implementado por ordenador, que comprende: en un dispositivo electrónico portátil (100) con una pantalla táctil (112) con una pluralidad de objetos de interfaz de usuario (5602, 5604, 5606, 5608), detectar (501) un área de contacto (5610) de un dedo con la pantalla táctil (112); y determinar (503) una primera posición (P 1, P 2) asociada con el área de contacto (5610); caracterizado por determinar (505) una posición de cursor (P), al menos en parte, en función de: - la primera posición (P1, P2), - una o más distancias (di) entre la primera posición (P1, P2) y uno o más de los objetos de interfaz de usuario (5602, 5604, 5606, 5608), y - uno o más números de susceptibilidad de activación (W1, W2, W3, W4), cada uno asociado con un objeto de interfaz de usuario respectivo de la pluralidad de objetos de interfaz de usuario (5602, 5604, 5606, 5608).

Description

Campo técnico
Las formas de realización divulgadas se refieren en general a dispositivos electrónicos portátiles y, más en particular, a dispositivos portátiles que determinan de manera adaptativa una posición de cursor a partir del contacto de un dedo con una pantalla táctil y que después llevan a cabo operaciones según la posición del cursor.
Antecedentes
A medida que los dispositivos electrónicos portátiles se vuelven más compactos y el número de funciones llevadas a cabo por un dispositivo dado aumenta, diseñar una interfaz de usuario que permita a los usuarios interactuar fácilmente con un dispositivo multifunción se ha convertido en un desafío importante. Este desafío es particularmente importante para dispositivos portátiles manuales, los cuales presentan pantallas mucho más pequeñas que los ordenadores portátiles o de escritorio. Esta situación plantea algunos problemas ya que la interfaz de usuario es la pasarela a través de la cual los usuarios reciben no solamente contenido sino también respuestas a las acciones o comportamientos del usuario, incluyendo los intentos del usuario de acceder a características, herramientas y funciones del dispositivo. Algunos dispositivos de comunicación portátiles (por ejemplo, teléfonos móviles, denominados en ocasiones como móviles, teléfonos celulares, celulares, etc.) han recurrido a añadir más botones pulsadores, incrementando la densidad de botones pulsadores, a sobrecargar las funciones de los botones pulsadores, o a utilizar complejos sistemas de menú para permitir a un usuario acceder a, almacenar y manipular datos. Estas interfaces de usuario convencionales dan normalmente como resultado complejas secuencias de teclas y jerarquías de menú que el usuario debe memorizar.
Muchas interfaces de usuario convencionales, como las que incluyen botones pulsadores físicos, son además inflexibles. Esto puede impedir configurar y/o adaptar una interfaz de usuario ya sea por medio de una aplicación que se ejecute en el dispositivo portátil o por medio de los usuarios. Cuando se añade el lento requisito de memorizar múltiples secuencias de teclas y jerarquía de menús, y la dificultad de activar un botón pulsador deseado, tal inflexibilidad es frustrante para la mayoría de usuarios.
Para mejorar su manejo, algunos dispositivos portátiles utilizan una pantalla táctil para ofrecer botones pulsadores virtuales tales como teclados programables y teclado de marcación. A partir del contacto de un dedo del usuario con los botones pulsadores virtuales, un dispositivo portátil determina el (los) servicio(s) solicitados por el usuario y toma las acciones oportunas. Pero puesto que diferentes usuarios tienen normalmente huellas dactilares de diferentes formas, ha supuesto un desafío que estos dispositivos portátiles identifiquen de manera precisa y adaptativa un botón pulsador virtual deseado por el usuario según las diferentes formas de las huellas dactilares y los diferentes contextos asociados con los diferentes servicios soportados por un dispositivo portátil.
Un procedimiento para determinar una posición de cursor en una pantalla táctil de un dispositivo se describe en la solicitud de patente británica GB 2 351 639 A, la cual se refiere a la selección de un hiperenlace deseado de entre múltiples hiperenlaces mostrados en una pantalla táctil en forma de botones de navegación. Cuando una pluralidad de enlaces está presente, la priorización de los botones de navegación mostrados se contempla en función de aquéllos más próximos al área que se ha tocado y en un número máximo permitido de botones de navegación. Por consiguiente, la selección se lleva a cabo en función de la distancia entre los respectivos botones y la ubicación del toque.
Un procedimiento similar, utilizado con relación a una pantalla de ordenador convencional y un dispositivo de puntero tal como un ratón, se divulga en la patente estadounidense 6.049.326 concedida a Beyda et al. Si se determina que las distancias están dentro de un alcance predeterminado entre sí, los hiperenlaces no se activan. En cambio, el usuario sitúa el cursor de manera que esté relativamente más cerca de uno de los dos o más hiperenlaces relativamente equidistantes y vuelve a hacer clic.
Por consiguiente, existe la necesidad de dispositivos multifunción portátiles que estén configurados para determinar de manera adaptativa una posición de cursor a partir del contacto de un dedo con una pantalla táctil y que después lleven a cabo operaciones según la posición de cursor. Tal configuración mejora la efectividad, la eficiencia y la satisfacción del usuario con los dispositivos multifunción portátiles.
Resumen
Las deficiencias anteriores y otros problemas asociados con las interfaces de usuario para dispositivos portátiles se reducen o se eliminan mediante el dispositivo multifunción portátil divulgado. En algunas formas de realización, el dispositivo presenta una pantalla sensible al tacto (también conocida como “pantalla táctil”) con una interfaz gráfica de usuario (GUI), uno o más procesadores, una memoria y uno o más módulos, programas o conjuntos de instrucciones almacenados en la memoria para llevar a cabo múltiples funciones. En algunas formas de realización, el usuario interactúa con la GUI principalmente a través de contactos y gestos con los dedos sobre la pantalla sensible al tacto. En algunas formas de realización, las funciones pueden incluir telefonía, videoconferencia, correo electrónico, mensajería instantánea, mantenimiento de blogs, fotografía digital, grabación de vídeos digitales, navegación web, reproducción de música digital y/o reproducción de vídeo digital. Las instrucciones para llevar a cabo estas funciones pueden estar incluidas en un medio de almacenamiento legible por ordenador o en otro producto de programa informático configurado para ejecutarse por uno o más procesadores.
Un aspecto de la invención implica un procedimiento implementado por ordenador llevado a cabo por un dispositivo multifunción portátil con una pantalla táctil. El dispositivo portátil detecta un área de contacto de un dedo con la pantalla táctil y después determina una primera posición asociada con el área de contacto. La posición de cursor del contacto de dedo se determina, al menos en parte, en función de: la primera posición, una o más distancias entre la primera posición y uno o más de los objetos de interfaz de usuario, y uno o más números de susceptibilidad de activación, cada uno asociado con un objeto de interfaz de usuario respectivo de la pluralidad de objetos de interfaz de usuario.
Otro aspecto de la invención implica una interfaz gráfica de usuario en un dispositivo multifunción portátil con una pantalla táctil. La interfaz gráfica de usuario incluye un cursor y una pluralidad de objetos de interfaz de usuario. La posición del cursor se determina, al menos en parte, en función de: una primera posición asociada con un área de contacto de un dedo con la pantalla táctil, una o más distancias entre la primera posición y uno o más de los objetos de interfaz de usuario, y uno o más números de susceptibilidad de activación, cada uno asociado con un objeto de interfaz de usuario respectivo de la pluralidad de objetos de interfaz de usuario.
Otro aspecto de la invención implica un dispositivo electrónico portátil con una pantalla táctil con una pluralidad de objetos de interfaz de usuario. El dispositivo incluye uno o más procesadores, una memoria y un programa almacenado en la memoria y configurado para ejecutarse por medio del uno o más procesadores. El programa incluye: instrucciones para detectar un área de contacto de un dedo con la pantalla táctil, instrucciones para determinar una primera posición asociada con el área de contacto, e instrucciones para determinar una posición de cursor, al menos en parte, en función de: la primera posición, una o más distancias entre la primera posición y uno o más de los objetos de interfaz de usuario, y uno o más números de susceptibilidad de activación, cada uno asociado con un objeto de interfaz de usuario respectivo de la pluralidad de objetos de interfaz de usuario.
Otro aspecto de la invención implica un producto de programa informático que incluye un medio de almacenamiento legible por ordenador y un mecanismo de programa informático (por ejemplo, uno o más programas informáticos) incluido en el mismo. El mecanismo de programa informático incluye instrucciones que, cuando se ejecutan mediante un dispositivo electrónico portátil, hacen que el dispositivo: detecte un área de contacto de un dedo con la pantalla táctil; determine una primera posición asociada con el área de contacto; y determine una posición de cursor, al menos en parte, en función de: la primera posición, una o más distancias entre la primera posición y uno o más de los objetos de interfaz de usuario, y uno o más números de susceptibilidad de activación, cada uno asociado con un objeto de interfaz de usuario respectivo de la pluralidad de objetos de interfaz de usuario.
Otro aspecto de la invención implica un dispositivo electrónico portátil con una pantalla táctil. El dispositivo incluye: medios para detectar un área de contacto de un dedo con la pantalla táctil; medios para determinar una primera posición asociada con el área de contacto; y medios para determinar una posición de cursor, al menos en parte, en función de: la primera posición, una o más distancias entre la primera posición y uno o más de los objetos de interfaz de usuario, y uno o más números de susceptibilidad de activación, cada uno asociado con un objeto de interfaz de usuario respectivo de la pluralidad de objetos de interfaz de usuario.
Breve descripción de los dibujos
Para un mejor entendimiento de las formas de realización de la invención anteriormente mencionadas, así como de formas de realización adicionales de la misma, se hará referencia a la siguiente Descripción de Formas de Realización, junto con los dibujos siguientes en los que los mismos números de referencia se refieren a partes correspondientes a lo largo de todas las figuras.
Las Figuras 1A y 1B son diagramas de bloques que ilustran dispositivos multifunción portátiles con pantallas sensibles al tacto según algunas formas de realización.
La Figura 2 ilustra un dispositivo multifunción portátil que presenta una pantalla táctil según algunas formas de realización.
La Figura 3 ilustra una interfaz de usuario a modo de ejemplo para desbloquear un dispositivo electrónico portátil según algunas formas de realización.
Las Figuras 4A y 4B ilustran interfaces de usuario a modo de ejemplo para una menú de aplicaciones en un dispositivo multifunción portátil según algunas formas de realización.
La Figura 5 es un diagrama de flujo que ilustra un proceso para determinar una posición de cursor a partir del contacto de un dedo con una pantalla táctil según algunas formas de realización.
Las Figuras 6A a 6L ilustran procedimientos a modo de ejemplo para determinar una posición de cursor en una pantalla táctil según algunas formas de realización.
Las Figuras 6M a 6O ilustran un procedimiento a modo de ejemplo para ajustar de manera dinámica números de susceptibilidad asociados con teclas de teclado programables cuando una palabra se escribe con las teclas de teclado programables según algunas formas de realización.
Descripción de Formas de Realización
A continuación se hará referencia en detalle a las formas de realización, ejemplos de las cuales se ilustran en los dibujos adjuntos. En la siguiente descripción detallada se exponen numerosos detalles específicos con el fin de proporcionar un entendimiento minucioso de la presente invención. Sin embargo, para un experto en la materia resultará evidente que la presente invención puede llevarse a la práctica sin estos detalles específicos. En otros casos no se describirán en detalle métodos, procedimientos, componentes, circuitos y redes ampliamente conocidos para no oscurecer innecesariamente aspectos de las formas de realización.
También debe entenderse que aunque los términos primero, segundo, etc. pueden utilizarse en este documento para describir varios elementos, estos elementos no deben quedar limitados por estos términos. Estos términos solo se utilizan para distinguir un elemento de otro. Por ejemplo, un primer gesto puede designarse como un segundo gesto y, asimismo, un segundo gesto puede designarse como un primer gesto, sin apartarse del alcance de la presente invención.
La terminología utilizada en la descripción de la invención en este documento tiene como finalidad describir solamente formas de realización particulares y no pretende limitar la invención. Tal y como se utiliza en la descripción de la invención y en las reivindicaciones adjuntas, las formas en singular “un”, “una”, “el” y “la” pretenden incluir asimismo las formas en plural, a no ser que el contexto indique claramente lo contrario. También debe entenderse que el término "y/o" tal y como se utiliza en este documento se refiere a y abarca uno cualquiera y todas las posibles combinaciones de uno o más de los elementos enumerados asociados. También debe entenderse que los términos “comprende” y/o “que comprende”, cuando se utilizan en esta memoria descriptiva, especifican la presencia de características, enteros, etapas, operaciones, elementos y/o componentes especificados, pero no excluyen la presencia o adición de una o más características, enteros, etapas, operaciones, elementos, componentes adicionales y/o grupos de los mismos.
Se describen formas de realización de un dispositivo multifunción portátil, interfaces de usuario para tales dispositivos y procesos asociados para utilizar tales dispositivos. En algunas formas de realización, el dispositivo es un dispositivo de comunicaciones portátil tal como un teléfono móvil que contiene además otras funciones, tales como funciones de un PDA y/o de un reproductor de música.
La interfaz de usuario puede incluir una rueda de clic física además de una pantalla táctil o una rueda de clic virtual visualizada en la pantalla táctil. Una rueda de clic es un dispositivo de interfaz de usuario que puede proporcionar comandos de navegación en función de un desplazamiento angular de la rueda o un punto de contacto con la rueda por medio de un usuario del dispositivo. Una rueda de clic también puede utilizarse para proporcionar un comando de usuario correspondiente a la selección de uno o más elementos, por ejemplo, cuando el usuario del dispositivo pulsa sobre al menos una parte de la rueda o el centro de la rueda. Como alternativa, interrumpir el contacto con una imagen de rueda de clic en una superficie de pantalla táctil puede indicar un comando de usuario correspondiente a una selección. Por motivos de simplicidad, en la descripción siguiente, un dispositivo multifunción portátil que incluye una pantalla táctil se utiliza como una forma de realización a modo de ejemplo. Sin embargo, debe entenderse que algunas de las interfaces de usuario y procesos asociados pueden aplicarse a otros dispositivos, tales como ordenadores personales y ordenadores portátiles, que pueden incluir uno o más dispositivos físicos de interfaz de usuario distintos, tales como una rueda de clic física, un teclado físico, un ratón y/o una palanca de mando.
El dispositivo soporta una variedad de aplicaciones, tales como una o más de las siguientes: una aplicación telefónica, una aplicación de videoconferencia, una aplicación de correo electrónico, una aplicación de mensajería instantánea, una aplicación de mantenimiento de blogs, una aplicación de gestión de fotos, una aplicación de cámara digital, una aplicación de videocámara digital, una aplicación de navegación web, una aplicación de reproductor de música digital y/o una aplicación de reproductor de vídeo digital.
Las diversas aplicaciones que pueden ejecutarse en el dispositivo pueden utilizar al menos un dispositivo físico de interfaz de usuario común, tal como la pantalla táctil. Una o más funciones de la pantalla táctil así como información correspondiente visualizada en el dispositivo pueden ajustarse y/o variar de una aplicación a otra y/o en una misma aplicación respectiva. De esta manera, una arquitectura física común (tal como la pantalla táctil) del dispositivo puede soportar la variedad de aplicaciones con interfaces de usuario que son intuitivas y transparentes.
Las interfaces de usuario pueden incluir una o más formas de realización de teclado programable. Las formas de realización de teclado programable pueden incluir configuraciones de símbolos estándar (QWERTY) y/o configuraciones de símbolos no estándar en los iconos visualizados del teclado, tales como las descritas en las solicitudes de patente estadounidenses 11/459.606 "Keyboards For Portable Electronic Devices", presentada el 24 de julio de 2006, y 11/459.615, "Touch Screen Keyboards For Portable Electronic Devices", presentada el 24 de julio de 2006, cuyos contenidos se incorporan de este modo por referencia. Las formas de realización de teclado pueden incluir un número reducido de iconos (o teclas programables) con respecto al número de teclas de los teclados físicos existentes, tales como los de una máquina de escribir. Esto hace más fácil que los usuarios seleccionen uno o más iconos del teclado y, por lo tanto, uno o más símbolos correspondientes. Las formas de realización de teclado pueden ser adaptativas. Por ejemplo, los iconos mostrados pueden modificarse según las acciones del usuario, tales como seleccionar uno o más iconos y/o uno o más símbolos correspondientes. Una o más aplicaciones del dispositivo portátil pueden utilizar formas de realización de teclado comunes y/o diferentes. Por lo tanto, la forma de realización de teclado utilizada puede personalizarse para al menos algunas de las aplicaciones. En algunas formas de realización, una o más formas de realización de teclado pueden personalizarse para un usuario respectivo. Por ejemplo, una o más formas de realización de teclado pueden personalizarse para un usuario respectivo en función de un historial de utilización de palabras (lexicografía, jerga, uso individual) del usuario respectivo. Algunas de las formas de realización de teclado pueden ajustarse para reducir una probabilidad de un error de usuario cuando se seleccionan uno o más iconos, y por lo tanto uno o más símbolos, cuando se utilizan las formas de realización de teclado programable.
A continuación se dirige la atención a formas de realización del dispositivo. Las Figuras 1A y 1B son diagramas de bloques que ilustran dispositivos multifunción portátiles 100 con pantallas sensibles al tacto 112 según algunas formas de realización. La pantalla sensible al tacto 112 se denomina en ocasiones como una “pantalla táctil” por comodidad, y también puede conocerse o denominarse como un sistema de visualización sensible al tacto. El dispositivo 100 puede incluir una memoria 102 (que puede incluir uno o más medios de almacenamiento legibles por ordenador), un controlador de memoria 122, una o más unidades de procesamiento (CPU) 120, una interfaz de dispositivos periféricos 118, un sistema de circuitos de RF 108, un sistema de circuitos de audio 110, un altavoz 111, un micrófono 113, un subsistema de entrada/salida (E/S) 106, otros dispositivos de entrada o de control 116 y un puerto externo 124. El dispositivo 100 puede incluir uno o más sensores ópticos 164. Estos componentes pueden comunicarse a través de uno o más buses de comunicación o líneas de señales 103.
Debe apreciarse que el dispositivo 100 es solamente un ejemplo de un dispositivo multifunción portátil 100 y que el dispositivo 100 puede tener más o menos componentes que los mostrados, puede combinar dos o más componentes o puede presentar una configuración o disposición diferente de los componentes. Los diversos componentes mostrados en las Figuras 1A y 1B pueden implementarse en hardware, en software o en una combinación de hardware y software, incluyendo uno o más circuitos integrados de aplicación específica y/o de procesamiento de señales.
La memoria 102 puede incluir una memoria de acceso aleatorio de alta velocidad y también puede incluir una memoria no volátil, tales como uno o más dispositivos de almacenamiento de disco magnético, dispositivos de memoria flash u otros dispositivos de memoria de estado sólido no volátiles. El acceso a la memoria 102 por parte de otros componentes del dispositivo 100, tales como la CPU 120 y la interfaz de dispositivos periféricos 118, puede controlarse mediante el controlador de memoria 122.
La interfaz de dispositivos periféricos 118 acopla los dispositivos periféricos de entrada y salida del dispositivo a la CPU 120 y a la memoria 102. El uno o más procesadores 120 llevan a cabo o ejecutan varios programas de software y/o conjuntos de instrucciones almacenados en la memoria 102 para llevar a cabo varias funciones para el dispositivo 100 y procesar datos.
En algunas formas de realización, la interfaz de dispositivos periféricos 118, la CPU 120 y el controlador de memoria 122 pueden implementarse en un único chip, tal como un chip 104. En algunas otras formas de realización, pueden implementarse en chips diferentes.
El sistema de circuitos de RF (radiofrecuencia) 108 recibe y envía señales de RF, también denominadas como señales electromagnéticas. El sistema de circuitos de RF 108 convierte señales eléctricas en/a partir de señales electromagnéticas y se comunica con redes de comunicaciones y otros dispositivos de comunicaciones a través de las señales electromagnéticas. El sistema de circuitos de RF 108 puede incluir un sistema de circuitos ampliamente conocido para llevar a cabo estas funciones, incluyendo, pero sin limitarse a, un sistema de antena, un transceptor de RF, uno o más amplificadores, un sintonizador, uno o más osciladores, un procesador de señales digitales, un conjunto de chips CODEC, una tarjeta de módulo de identidad de abonado (SIM), una memoria, etc. El sistema de circuitos de RF 108 puede comunicarse con redes, tal como Internet, también denominada como World Wide Web (WWW), una intranet y/o una red inalámbrica, tal como una red de telefonía celular, una red de área local (LAN) inalámbrica y/o una red de área metropolitana (MAN), y con otros dispositivos por medio de una comunicación inalámbrica. La comunicación inalámbrica puede utilizar cualquiera de una pluralidad de normas, protocolos y tecnologías de comunicaciones, incluyendo, pero sin limitarse a, el Sistema Global de Comunicaciones Móviles (GSM), el Entorno GSM de Datos Mejorado (EDGE), el acceso por paquetes de enlace descendente de alta velocidad (HSDPA), el acceso múltiple por división de código de banda ancha (W-CDMA), el acceso múltiple por división de código (CDMA), el acceso múltiple por división de tiempo (TDMA), Bluetooth, Fidelidad Inalámbrica (Wi-Fi) (por ejemplo, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g y/o IEEE 802.11n), el protocolo de voz sobre Internet (VoIP), Wi-MAX, un protocolo para el correo electrónico (por ejemplo, el protocolo de acceso a mensajes de Internet (IMAP) y/o el protocolo de oficina de correos (POP)), mensajería instantánea (por ejemplo, el protocolo de presencia y de mensajería extensible (XMPP), el protocolo de inicio de sesión para extensiones de aprovechamiento de presencia y de mensajería instantánea (SIMPLE), y/o el servicio de presencia y de mensajería instantánea (IMPS)), y/o el servicio de mensajes cortos (SMS)), o cualquier otro protocolo de comunicaciones adecuado, incluyendo protocolos de comunicaciones no desarrollados todavía en la fecha de presentación de este documento.
El sistema de circuitos de audio 110, el altavoz 111 y el micrófono 113 proporcionan una interfaz de audio entre un usuario y el dispositivo 100. El sistema de circuitos de audio 110 recibe datos de audio desde la interfaz de dispositivos periféricos 118, convierte los datos de audio en una señal eléctrica y transmite la señal eléctrica al altavoz 111. El altavoz 111 convierte la señal eléctrica en ondas sonoras audibles por las personas. El sistema de circuitos de audio 110 también recibe señales eléctricas convertidas por el micrófono 113 a partir de ondas sonoras. El sistema de circuitos de audio 110 convierte la señal eléctrica en datos de audio y transmite los datos de audio a la interfaz de dispositivos periféricos 118 para su procesamiento. Los datos de audio pueden recuperarse de y/o transmitirse a la memoria 102 y/o al sistema de circuitos de RF 108 por medio de la interfaz de dispositivos periféricos 118. En algunas formas de realización, el sistema de circuitos de audio 110 también incluye un conector de auriculares (por ejemplo 212, Figura 2). El conector de auriculares proporciona una interfaz entre el sistema de circuitos de audio 110 y dispositivos periféricos extraíbles de entrada/salida de audio, tales como audífonos de solo salida o un auricular tanto de salida (por ejemplo, un audífono para uno o ambos oídos) como de entrada (por ejemplo, un micrófono).
El subsistema de E/S 106 acopla dispositivos periféricos de entrada/salida del dispositivo 100, tales como la pantalla táctil 112 y otros dispositivos de entrada/control 116, a la interfaz de dispositivos periféricos 118. El subsistema de E/S 106 puede incluir un controlador de pantalla 156 y uno o más controladores de entrada 160 para otros dispositivos de entrada o de control. El uno o más controladores de entrada 160 reciben/envían señales eléctricas desde/a otros dispositivos de entrada o de control 116. Los otros dispositivos de entrada/control 116 pueden incluir botones físicos (por ejemplo, botones pulsadores, botones basculantes, etc.), diales, interruptores deslizantes, palancas de mando, ruedas de clic, etc. En algunas formas de realización alternativas, el (los) controlador(es) de entrada 160 puede(n) acoplarse a cualquiera (o a ninguno) de los siguientes elementos: un teclado, un puerto de infrarrojos, un puerto USB y un dispositivo de puntero tal como un ratón. El uno o más botones (por ejemplo, 208, Figura 2) puede(n) incluir un botón de regulación de volumen del altavoz 111 y/o del micrófono 113. El uno o más botones puede(n) incluir un botón pulsador (por ejemplo, 206, Figura 2). Pulsando brevemente un botón pulsador puede desbloquearse la pantalla táctil 112 o iniciarse un proceso que utiliza gestos sobre la pantalla táctil para desbloquear el dispositivo, tal y como se describe en la solicitud de patente estadounidense 11/322.549 "Unlocking a Device by Performing Gestures on an Unlock Image", presentada el 23 de diciembre de 2005, la cual se incorpora de este modo por referencia. Pulsando durante más tiempo un botón pulsador (por ejemplo, 206) puede encenderse o apagarse el dispositivo 100. El usuario puede personalizar la funcionalidad de uno o más de los botones. La pantalla táctil 112 se utiliza para implementar botones virtuales o programables y uno o más teclados programables.
La pantalla táctil sensible al tacto 112 proporciona una interfaz de entrada y una interfaz de salida entre el dispositivo y un usuario. El controlador de pantalla 156 recibe y/o envía señales eléctricas desde/a la pantalla táctil 112. La pantalla táctil 112 muestra datos de salida visuales al usuario. Los datos de salida visuales pueden incluir gráficos, texto, iconos, vídeo y cualquier combinación de los mismos (denominadas colectivamente como "gráficos"). En algunas formas de realización, algunos o todos los datos de salida visuales pueden corresponderse con objetos de interfaz de usuario, cuyos detalles se describirán posteriormente.
Una pantalla táctil 112 presenta una superficie sensible al tacto, un sensor o conjunto de sensores que aceptan datos de entrada del usuario por medio de un contacto háptico y/o táctil. La pantalla táctil 112 y el controlador de pantalla 156 (junto con cualquier módulo asociado y/o conjuntos de instrucciones de la memoria 102) detectan el contacto (y cualquier movimiento o interrupción del contacto) sobre la pantalla táctil 112 y convierten el contacto detectado en interacción con objetos de interfaz de usuario (por ejemplo, una o más teclas programables, iconos, páginas web o imágenes) que se visualizan en la pantalla táctil. En una forma de realización a modo de ejemplo, un punto de contacto entre una pantalla táctil 112 y el usuario corresponde a un dedo del usuario.
La pantalla táctil 112 puede utilizar tecnología LCD (pantalla de cristal líquido) o tecnología LPD (pantalla de polímero de emisión de luz), aunque en otras formas de realización pueden utilizarse otras tecnologías de visualización. La pantalla táctil 112 y el controlador de pantalla 156 pueden detectar el contacto y cualquier movimiento o interrupción del mismo utilizando cualquiera de una pluralidad de tecnologías de detección de tacto actualmente conocidas o desarrolladas posteriormente, incluyendo pero sin limitarse a tecnologías capacitivas, resistivas, de infrarrojos y de ondas acústicas de superficie, así como otras disposiciones de sensores de proximidad u otros elementos para determinar uno o más puntos de contacto con una pantalla táctil 112.
En algunas formas de realización de la pantalla táctil 112, una pantalla sensible al tacto puede ser análoga a las tabletas sensibles a multitoque descritas en las siguientes patentes estadounidenses: 6.323.846 (Westerman et al.),
6.570.557 (Westerman et al.) y/o 6.677.932 (Westerman), y/o la solicitud de patente estadounidense 2002/0015024A1, cada una de las cuales se incorpora de este modo por referencia. Sin embargo, una pantalla táctil 112 muestra datos de salida visuales del dispositivo portátil 100, mientras que las tabletas sensibles al tacto no proporcionan datos de salida visuales.
En algunas formas de realización de la pantalla táctil 112, una pantalla sensible al tacto puede ser como las descritas en las siguientes solicitudes: (1) solicitud de patente estadounidense número 11/381.313, "Multipoint Touch Surface Controller", presentada el 2 de mayo de 2006; (2) solicitud de patente estadounidense número 10/840.862, "Multipoint Touchscreen", presentada el 6 de mayo de 2004; (3) solicitud de patente estadounidense número 10/903.964, "Gestures For Touch Sensitive Input Devices", presentada el 30 de julio de 2004; (4) solicitud de patente estadounidense número 11/048.264, "Gestures For Touch Sensitive Input Devices", presentada el 31 de enero de 2005; (5) solicitud de patente estadounidense número 11/038.590, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices", presentada el 18 de enero de 2005; (6) solicitud de patente estadounidense número 11/228.758, "Virtual Input Device Placement On A Touch Screen User Interface", presentada el 16 de septiembre de 2005; (7) solicitud de patente estadounidense número 11/228.700, "Operation Of A Computer With A Touch Screen Interface", presentada el 16 de septiembre de 2005; (8) solicitud de patente estadounidense número 11/228.737, "Activating Virtual Keys Of A Touch-Screen Virtual Keyboard", presentada el 16 de septiembre de 2005; y (9) solicitud de patente estadounidense número 11/367.749, "Multi-Functional Hand-Held Device", presentada el 3 de marzo de 2006. Todas estas solicitudes se incorporan en la presente por referencia.
La pantalla táctil 112 puede tener una resolución superior a 100 dpi. En una forma de realización a modo de ejemplo, la pantalla táctil tiene una resolución de 160 dpi aproximadamente. El usuario puede hacer contacto con la pantalla táctil 112 utilizando cualquier objeto o apéndice adecuado, tal como un lápiz, un dedo, etc. En algunas formas de realización, la interfaz de usuario está diseñada para funcionar principalmente con contactos y gestos producidos con los dedos, los cuales son mucho menos precisos que los datos de entrada generados con un lápiz debido a la mayor área de contacto de un dedo sobre la pantalla táctil. En algunas formas de realización, el dispositivo convierte los toscos datos de entrada generados con los dedos en una posición de puntero/cursor precisa o en un comando para llevar a cabo las acciones deseadas por el usuario.
En algunas formas de realización, además de la pantalla táctil, el dispositivo 100 puede incluir una almohadilla táctil (no mostrada) para activar o desactivar funciones particulares. En algunas formas de realización, la almohadilla táctil es un área del dispositivo sensible al tacto que, a diferencia de la pantalla táctil, no muestra datos de salida visuales. La almohadilla táctil puede ser una superficie sensible al tacto que esté separada de la pantalla táctil 112 o una extensión de la superficie sensible al tacto formada por la pantalla táctil.
En algunas formas de realización, el dispositivo 100 puede incluir una rueda de clic física o virtual como un dispositivo de control de entrada 116. Un usuario puede navegar entre e interactuar con uno o más objetos gráficos (en lo sucesivo denominados como iconos) visualizados en la pantalla táctil 112 haciendo girar la rueda de clic o moviendo un punto de contacto con la rueda de clic (por ejemplo, donde la cantidad de movimiento del punto de contacto se mide por su desplazamiento angular con respecto al punto central de la rueda de clic). La rueda de clic también puede utilizarse para seleccionar uno o más de los iconos visualizados. Por ejemplo, el usuario puede pulsar sobre al menos una parte de la rueda de clic o en un botón asociado. Los comandos de usuario y los comandos de navegación proporcionados por el usuario a través de la rueda de clic pueden procesarse mediante un controlador de entrada 160 así como por uno o más de los módulos y/o conjuntos de instrucciones de la memoria 102. Para una rueda de clic virtual, la rueda de clic y el controlador de rueda de clic pueden ser parte de la pantalla táctil 112 y del controlador de pantalla 156, respectivamente. Para una rueda de clic virtual, la rueda de clic puede ser un objeto opaco o semitransparente que aparezca y desaparezca de la pantalla táctil en respuesta a la interacción del usuario con el dispositivo. En algunas formas de realización, una rueda de clic virtual se visualiza en la pantalla táctil de un dispositivo multifunción portátil y se hace funcionar mediante el contacto del usuario con la pantalla táctil.
El dispositivo 100 incluye además un sistema de alimentación 162 para dar energía a los diversos componentes. El sistema de alimentación 162 puede incluir un sistema de gestión de energía, una o más fuentes de alimentación (por ejemplo, batería, corriente alterna (CA)), un sistema de recarga, un circuito de detección de fallos de energía, un convertidor o inversor de energía, un indicador de estado de energía (por ejemplo, un diodo emisor de luz (LED)) y cualquier otro componente asociado con la generación, gestión y distribución de energía en dispositivos portátiles.
El dispositivo 100 también puede incluir uno o más sensores ópticos 164. Las Figuras 1A y 1B muestran un sensor óptico acoplado a un controlador de sensores ópticos 158 del subsistema de E/S 106. El sensor óptico 164 puede incluir un dispositivo acoplado por carga (CCD) o fototransistores de semiconductor complementario de óxido metálico (CMOS). El sensor óptico 164 recibe luz del entorno, proyectada a través de una o más lentes, y convierte la luz en datos que representan una imagen. Junto con un módulo de generación de imágenes 143 (también denominado como un módulo de cámara), el sensor óptico 164 puede capturar imágenes fijas o vídeo. En algunas formas de realización, un sensor óptico está situado en la parte trasera del dispositivo 100, opuesto a la pantalla táctil 112 de la parte delantera del dispositivo, de manera que la pantalla táctil puede utilizarse como un visor para la adquisición de imágenes fijas y/o de video. En algunas formas de realización, un sensor óptico está situado en la parte delantera del dispositivo de manera que la imagen del usuario puede capturarse para videoconferencias mientras que el usuario ve a los otros participantes de la videoconferencia en la pantalla táctil. En algunas formas de realización, la posición del sensor óptico 164 puede modificarse por el usuario (por ejemplo, haciendo girar la lente y el sensor en el alojamiento del dispositivo) de manera que un único sensor óptico 164 puede utilizarse junto con la pantalla táctil para videoconferencias y para la adquisición de imágenes fijas y/o de vídeo.
El dispositivo 100 también puede incluir uno o más sensores de proximidad 166. Las Figuras 1A y 1B muestran un sensor de proximidad 166 acoplado a la interfaz de dispositivos periféricos 118. Como alternativa, el sensor de proximidad 166 puede estar acoplado a un controlador de entrada 160 del subsistema de E/S 106. El sensor de proximidad 166 puede funcionar como se describe en las solicitudes de patente estadounidenses número de serie 11/241.839, "Proximity Detector In Handheld Device", presentada el 30 de septiembre de 2005; número de serie 11/240.788, "Proximity Detector In Handheld Device", presentada el 30 de septiembre de 2005; número de serie pendiente de asignación, presentada el 7 de enero de 2007, "Using Ambient Light Sensor To Augment Proximity Sensor Output", número de expediente 04860.P4851US1; número de serie pendiente de asignación, presentada el 24 de octubre de 2006, "Automated Response To And Sensing Of User Activity In Portable Devices", número de expediente 04860.P4293; y número de serie pendiente de asignación, presentada el 12 de diciembre de 2006, "Methods And Systems For Automatic Configuration Of Peripherals", número de expediente 04860.P4634, las cuales se incorporan de este modo por referencia. En algunas formas de realización, el sensor de proximidad apaga e inhabilita la pantalla táctil 112 cuando el dispositivo multifunción está colocado cerca del oído del usuario (por ejemplo, cuando el usuario está haciendo una llamada telefónica). En algunas formas de realización, el sensor de proximidad mantiene la pantalla apagada cuando el dispositivo está en el bolsillo, bolso u otra zona oscura del usuario para impedir que la batería se gaste innecesariamente cuando el dispositivo está en un estado bloqueado.
El dispositivo 100 también puede incluir uno o más acelerómetros 168. Las Figuras 1A y 1B muestran un acelerómetro 168 acoplado a la interfaz de dispositivos periféricos 118. Como alternativa, el acelerómetro 168 puede estar acoplado a un controlador de entrada 160 del subsistema de E/S 106. El acelerómetro 168 puede funcionar como se describe en la solicitud de patente estadounidense número 20050190059, "Acceleration-based Theft Detection System for Portable Electronic Devices" y en la solicitud de patente estadounidense número 20060017692, "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer", las cuales se incorporan en la presente por referencia. En algunas formas de realización, la información se visualiza en la pantalla táctil en una vista vertical o en una vista horizontal en función de un análisis de los datos recibidos desde el uno o más acelerómetros.
En algunas formas de realización, los componentes de software almacenados en la memoria 102 pueden incluir un sistema operativo 126, un módulo (o conjunto de instrucciones) de comunicaciones 128, un módulo (o conjunto de instrucciones) de contacto/movimiento 130, un módulo (o conjunto de instrucciones) de gráficos 132, un módulo (o conjunto de instrucciones) de entrada de texto 134, un módulo (o conjunto de instrucciones) de Sistema de Posicionamiento Global (GPS) 135 y aplicaciones (o conjunto de instrucciones) 136.
El sistema operativo 126 (por ejemplo, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, o un sistema operativo embebido tal como VxWorks) incluye varios componentes software y/o controladores para controlar y gestionar las tareas generales del sistema (por ejemplo, la gestión de memoria, el control del dispositivo de almacenamiento, la gestión de energía, etc.) y facilita la comunicación entre varios componentes hardware y software.
El módulo de comunicaciones 128 facilita la comunicación con otros dispositivos a través de uno o más puertos externos 124 e incluye además varios componentes software para tratar los datos recibidos por el sistema de circuitos de RF 108 y/o el puerto externo 124. El puerto externo 124 (por ejemplo, bus serie universal (USB), FIREWARE, etc.) está adaptado para acoplarse directamente a otros dispositivos o indirectamente a través de una red (por ejemplo, Internet, una LAN inalámbrica, etc.). En algunas formas de realización, el puerto externo es un conector de múltiples patillas (por ejemplo de 30 patillas) que es el mismo que, o similar a y/o compatible con el conector de 30 patillas utilizado en los dispositivos iPod (marca comercial de Apple Computer, Inc.).
El módulo de contacto/movimiento 130 puede detectar el contacto con la pantalla táctil 112 (junto con el controlador de pantalla 156) y otros dispositivos sensibles al tacto (por ejemplo, una almohadilla táctil o una rueda de clic física). El módulo de contacto/movimiento 130 incluye varios componentes software para llevar a cabo varias operaciones relacionadas con la detección de contacto, tales como determinar si se ha producido un contacto, determinar si el contacto experimenta movimiento y llevar a cabo un seguimiento del movimiento a través de la pantalla táctil 112, y determinar si se ha interrumpido el contacto (es decir, si ya no hay contacto). Determinar el movimiento del punto de contacto puede incluir determinar la rapidez (magnitud), la velocidad (magnitud y dirección) y/o una aceleración (un cambio en la magnitud y/o dirección) del punto de contacto. Estas operaciones pueden aplicarse a contactos individuales (por ejemplo, contactos con un dedo) o a múltiples contactos simultáneos (por ejemplo, contactos "multitoque”/con múltiples dedos). En algunas formas de realización, el módulo de contacto/movimiento 130 y el controlador de pantalla 156 también detectan el contacto sobre una almohadilla táctil. En algunas formas de realización, el módulo de contacto/movimiento 130 y el controlador 160 detectan el contacto sobre una rueda de clic.
El módulo de gráficos 132 incluye varios componentes software conocidos para proporcionar y visualizar gráficos en la pantalla táctil 112, incluyendo componentes para modificar la intensidad de los gráficos que se visualizan. Tal y como se utiliza en este documento, el término "gráficos" incluye cualquier objeto que puede mostrarse a un usuario, incluyendo sin limitación texto, páginas web, iconos (tales como objetos de interfaz de usuario, incluyendo teclas programables), imágenes digitales, vídeos, animaciones y similares.
El módulo de entrada de texto 134, que puede ser un componente del módulo de gráficos 132, proporciona teclados programables para introducir texto en varias aplicaciones (por ejemplo, contactos 137, correo electrónico 140, IM 141, mantenimiento de blogs 142, navegador 147 y cualquier otra aplicación que necesite una entrada de texto).
El módulo GPS 135 determina la ubicación del dispositivo y proporciona esta información para su utilización en varias aplicaciones (por ejemplo, al teléfono 138 para utilizarse en marcaciones basadas en la ubicación, a la cámara 143 y/o al administrador de blogs 142 como metadatos de imágenes/vídeo, y a aplicaciones que proporcionan servicios basados en la ubicación tales como objetos gráficos de información meteorológica, objetos gráficos de páginas amarillas locales y objetos gráficos de mapas/navegación).
Las aplicaciones 136 pueden incluir los siguientes módulos (o conjuntos de instrucciones), o un subconjunto o superconjunto de los mismos:
 un módulo de contactos 137 (denominado en ocasiones como una agenda o lista de contactos);
 un módulo de teléfono 138;
 un módulo de videoconferencia 139;
 un módulo de cliente de correo electrónico 140;
 un módulo de mensajería instantánea (IM) 141;
 un módulo de mantenimiento de blogs 142;
 un módulo de cámara 143 para imágenes fijas y/o de vídeo;
 un módulo de gestión de imágenes 144;
 un módulo de reproductor de vídeo 145;
 un módulo de reproductor de música 146;
 un módulo de navegador 147;
 un módulo de calendario 148;
 módulos de objetos gráficos 149, que pueden incluir un objeto gráfico de información meteorológica 149-1, un objeto gráfico de acciones de bolsa 149-2, un objeto gráfico de calculadora 149-3, un objeto gráfico de despertador 149-4, un objeto gráfico de diccionario 149-5 y otros objetos gráficos obtenidos por el usuario, tales como objetos gráficos creados por el usuario 149-6;
 un módulo creador de objetos gráficos 150 para generar objetos gráficos creados por el usuario 149-6;
 un módulo de búsqueda 151;
 un módulo de reproductor de vídeo y música 152, que fusiona el módulo de reproductor de vídeo 145 y el módulo de reproductor de música 146;
 un módulo de notas 153; y/o
 un módulo de mapas 154.
Ejemplos de otras aplicaciones 136 que pueden almacenarse en la memoria 102 incluyen otras aplicaciones de procesamiento de palabras, aplicaciones basadas en JAVA, cifrado, gestión de derechos digitales, reconocimiento de voz y replicación de voz.
Junto con la pantalla táctil 112, el controlador de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132 y el módulo de entrada de texto 134, el módulo de contactos 137 puede utilizarse para gestionar una agenda o una lista de contactos, incluyendo: añadir un (varios) nombre(s) a la agenda; borrar un (varios) nombre(s) de la agenda; asociar un (varios) número(s) de teléfono, una (varias) dirección(es) de correo electrónico, una (varias) dirección(es) física(s) u otra información a un nombre; asociar una imagen a un nombre; clasificar y ordenar nombres; proporcionar números de teléfono o direcciones de correo electrónico para iniciar y/o facilitar las comunicaciones por medio del teléfono 138, videoconferencia 139, correo electrónico 140, IM 141, etc.
Junto con el sistema de circuitos de RF 108, el sistema de circuitos de audio 110, el altavoz 111, el micrófono 113, la pantalla táctil 112, el controlador de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132 y el módulo de entrada de texto 134, el módulo de teléfono 138 puede utilizarse para introducir una secuencia de caracteres correspondientes a un número de teléfono, acceder a uno o más números de teléfono de la agenda 137, modificar un número de teléfono que se haya introducido, marcar un número de teléfono respectivo, llevar a cabo una conversación y desconectar o colgar cuando la conversación se haya acabado. Tal y como se ha mencionado anteriormente, la comunicación inalámbrica puede utilizar cualquiera de una pluralidad de normas, protocolos y tecnologías de comunicaciones.
Junto con el sistema de circuitos de RF 108, el sistema de circuitos de audio 110, el altavoz 111, el micrófono 113, la pantalla táctil 112, el controlador de pantalla 156, el sensor óptico 164, el controlador de sensores ópticos 158, el módulo de contacto 130, el módulo de gráficos 132, el módulo de entrada de texto 134, la lista de contactos 137 y el módulo de teléfono 138, el módulo de videoconferencia 139 puede utilizarse para iniciar, llevar a cabo y finalizar una videoconferencia entre un usuario y uno o más participantes.
Junto con el sistema de circuitos de RF 108, la pantalla táctil 112, el controlador de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132 y el módulo de entrada de texto 134, el módulo de cliente de correo electrónico 140 puede utilizarse para crear, enviar, recibir y gestionar correos electrónicos. Junto con el módulo de gestión de imágenes 144, el módulo de correo electrónico 140 facilita la creación y el envío de correos electrónicos con imágenes fijas o de vídeo tomadas con el módulo de cámara 143.
Junto con el sistema de circuitos de RF 108, la pantalla táctil 112, el controlador de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132 y el módulo de entrada de texto 134, el módulo de mensajería instantánea 141 puede utilizarse para introducir una secuencia de caracteres correspondientes a un mensaje instantáneo, modificar caracteres introducidos anteriormente, transmitir un mensaje instantáneo respectivo (por ejemplo, utilizando el protocolo de servicio de mensajes cortos (SMS) o el protocolo de servicio de mensajes multimedia (MMS) para mensajes instantáneos basados en telefonía o utilizando XMPP, SIMPLE o IMPS para mensajes instantáneos basados en Internet), recibir mensajes instantáneos y visualizar mensajes instantáneos recibidos. En algunas formas de realización, los mensajes instantáneos transmitidos y/o recibidos pueden incluir gráficos, fotos, archivos de audio, archivos de vídeo y/u otros elementos adjuntos soportados en el MMS y/o en el servicio de mensajería mejorado (EMS). Tal y como se utiliza en este documento, “mensajería instantánea” se refiere tanto a mensajes basados en telefonía (por ejemplo, mensajes enviados utilizando SMS o MMS) como a mensajes basados en Internet (por ejemplo, mensajes enviados utilizando XMPP, SIMPLE o IMPS).
Junto con el sistema de circuitos de RF 108, la pantalla táctil 112, el controlador de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132, el módulo de entrada de texto 134, el módulo de gestión de imágenes 144 y el módulo de navegación 147, el módulo de mantenimiento de blogs 142 puede utilizarse para enviar texto, imágenes fijas, vídeo y/u otros gráficos a un blog (por ejemplo, el blog del usuario).
Junto con la pantalla táctil 112, el controlador de pantalla 156, el (los) sensor(es) óptico(s) 164, el controlador de sensores ópticos 158, el módulo de contacto 130, el módulo de gráficos 132 y el módulo de gestión de imágenes 144, el módulo de cámara 143 puede utilizarse para capturar imágenes fijas o vídeo (incluyendo un flujo de vídeo) y almacenarlos en la memoria 102, modificar las características de una imagen fija o de un vídeo, o borrar una imagen fija o un vídeo de la memoria 102.
Junto con la pantalla táctil 112, el controlador de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132, el módulo de entrada de texto 134 y el módulo de cámara 143, el módulo de gestión de imágenes 144 puede utilizarse para disponer, modificar o manipular, etiquetar, borrar, mostrar (por ejemplo, en un álbum o presentación de diapositivas digitales) y almacenar imágenes fijas y/o de vídeo.
Junto con la pantalla táctil 112, el controlador de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132, el sistema de circuitos de audio 110 y el altavoz 111, el módulo de reproductor de vídeo 145 puede utilizarse para visualizar, presentar o reproducir de otro modo vídeos (por ejemplo, en la pantalla táctil o en una pantalla externa conectada a través del puerto externo 124).
Junto con la pantalla táctil 112, el controlador de sistema de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132, el sistema de circuitos de audio 110, el altavoz 111, el sistema de circuitos de RF 108 y el módulo de navegador 147, el módulo de reproductor de música 146 permite al usuario descargar y reproducir música grabada y otros archivos de sonido almacenados en uno o más formatos de archivo, tales como archivos MP3 o AAC. En algunas formas de realización, el dispositivo 100 puede incluir la funcionalidad de un reproductor MP3, tal como un iPod (marca comercial de Apple Computer, Inc.).
Junto con el sistema de circuitos de RF 108, la pantalla táctil 112, el controlador de sistema de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132 y el módulo de entrada de texto 134, el módulo de navegador 147 puede utilizarse para navegar por Internet, incluyendo buscar, conectarse a, recibir y visualizar páginas web o partes de las mismas, así como elementos adjuntos y otros archivos asociados con las páginas web.
Junto con el sistema de circuitos de RF 108, la pantalla táctil 112, el controlador de sistema de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132, el módulo de entrada de texto 134, el módulo de correo electrónico 140 y el módulo de navegador 147, el módulo de calendario 148 puede utilizarse para crear, visualizar, modificar y almacenar calendarios y datos asociados con los calendarios (por ejemplo, entradas de calendario, listas de tareas pendientes, etc.).
Junto con el sistema de circuitos de RF 108, la pantalla táctil 112, el controlador de sistema de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132, el módulo de entrada de texto 134 y el módulo de navegador 147, los módulos de objetos gráficos 149 son miniaplicaciones que pueden descargarse y utilizarse por un usuario (por ejemplo, un objeto gráfico de información meteorológica 149-1, un objeto gráfico de acciones de bolsa 149-2, un objeto gráfico de calculadora 149-3, un objeto gráfico de despertador 149-4 y un objeto gráfico de diccionario 149-5)
o crearse por el usuario (por ejemplo, un objeto gráfico creado por el usuario 149-6). En algunas formas de realización, un objeto gráfico incluye un archivo HTML (lenguaje de marcas de hipertexto), un archivo CSS (hoja de estilo en cascada) y un archivo JavaScript. En algunas formas de realización, un objeto gráfico incluye un archivo XML (lenguaje de marcas extensible) y un archivo JavaScript (por ejemplo, objetos gráficos de Yahoo!).
Junto con el sistema de circuitos de RF 108, la pantalla táctil 112, el controlador de sistema de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132, el módulo de entrada de texto 134 y el módulo de navegador 147, el módulo creador de objetos gráficos 150 puede utilizarse por un usuario para crear objetos gráficos (por ejemplo, convirtiendo una parte especificada por el usuario de una página web en un objeto gráfico).
Junto con la pantalla táctil 112, el controlador de sistema de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132 y el módulo de entrada de texto 134, el módulo de búsqueda 151 puede utilizarse para buscar texto, música, sonido, imágenes, vídeo y otros archivos en la memoria 102 que se ajusten a uno o más criterios de búsqueda (por ejemplo, uno o más términos de búsqueda especificados por el usuario).
Junto con la pantalla táctil 112, el controlador de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132 y el módulo de entrada de texto 134, el módulo de notas 153 puede utilizarse para crear y gestionar notas, listas de tareas pendientes y similares.
Junto con el sistema de circuitos de RF 108, la pantalla táctil 112, el controlador de sistema de pantalla 156, el módulo de contacto 130, el módulo de gráficos 132, el módulo de entrada de texto 134, el módulo GPS 135 y el módulo de navegador 147, el módulo de mapas 154 puede utilizarse para recibir, visualizar, modificar y almacenar mapas y datos asociados con los mapas (por ejemplo, rutas de conducción; datos sobre tiendas y otros puntos de interés en o cerca de una ubicación particular; y otros datos basados en la ubicación).
Cada uno de los módulos y aplicaciones identificados anteriormente corresponden a un conjunto de instrucciones para llevar a cabo una o más de las funciones descritas anteriormente. Estos módulos (es decir, conjuntos de instrucciones) no necesitan implementarse como programas de software, procedimientos o módulos distintos y, por lo tanto, varios subconjuntos de estos módulos pueden combinarse o reorganizarse en varias formas de realización.
Por ejemplo, el módulo de reproductor de vídeo 145 puede combinarse con el módulo de reproductor de música 146 en un único módulo (por ejemplo, el módulo de reproductor de vídeo y música 152, Figura 1B). En algunas formas de realización, la memoria 102 puede almacenar un subconjunto de los módulos y estructuras de datos identificados anteriormente. Además, la memoria 102 puede almacenar módulos y estructuras de datos adicionales no descritos anteriormente.
En algunas formas de realización, el dispositivo 100 es un dispositivo donde el funcionamiento de un conjunto predefinido de funciones en el dispositivo se lleva a cabo exclusivamente a través de una pantalla táctil 112 y/o una almohadilla táctil. Utilizando una pantalla táctil y/o una almohadilla táctil como el dispositivo primario de entrada/control para el funcionamiento del dispositivo 100, el número de dispositivos físicos de entrada/control (tales como botones pulsadores, diales y similares) del dispositivo 100 puede reducirse.
El conjunto predefinido de funciones que puede llevarse a cabo exclusivamente a través de una pantalla táctil y/o una almohadilla táctil incluyen la navegación entre interfaces de usuario. En algunas formas de realización, la almohadilla táctil, cuando se toca por el usuario, hace que el dispositivo 100 se dirija a un menú principal, de inicio o raíz desde cualquier interfaz de usuario que pueda visualizarse en el dispositivo 100. En tales formas de realización, la almohadilla táctil puede denominarse como un "botón de menú". En algunas otras formas de realización, el botón de menú puede ser un botón pulsador físico u otro dispositivo físico de entrada/control en lugar de una almohadilla táctil.
La Figura 2 ilustra un dispositivo multifunción portátil 100 que presenta una pantalla táctil 112 según algunas formas de realización. La pantalla táctil puede visualizar uno o más gráficos en la interfaz de usuario (UI) 200. En esta forma de realización, como en otras descritas posteriormente, un usuario puede seleccionar uno o más de los gráficos haciendo contacto o tocando los gráficos, por ejemplo, con uno o más dedos 202 (no dibujados a escala en la figura). En algunas formas de realización, la selección de uno o más gráficos se produce cuando el usuario interrumpe el contacto con uno o más gráficos. En algunas formas de realización, el contacto puede incluir un gesto, tal como uno
o más toques suaves, uno o más deslizamientos (de izquierda a derecha, de derecha a izquierda, hacia arriba y/o hacia abajo) y/o el giro de un dedo (de derecha a izquierda, de izquierda a derecha, hacia arriba y/o hacia abajo) que haya hecho contacto con el dispositivo 100. En algunas formas de realización, un contacto no intencionado con un gráfico puede no seleccionar el gráfico. Por ejemplo, un deslizamiento generado sobre un icono de aplicación puede no seleccionar la aplicación correspondiente si el gesto correspondiente a la selección es un toque suave.
El dispositivo 100 también puede incluir uno o más botones físicos, tales como un botón de “inicio” o de menú 204. Tal y como se ha descrito anteriormente, el botón de menú 204 puede utilizarse para acceder a cualquier aplicación 136 de un conjunto de aplicaciones que pueden ejecutarse en el dispositivo 100. Como alternativa, en algunas formas de realización, el botón de menú está implementado como una tecla programable en una GUI de la pantalla táctil 112.
En una forma de realización, el dispositivo 100 incluye una pantalla táctil 112, un botón de menú 204, un botón pulsador 206 para encender/apagar el dispositivo y bloquear el dispositivo, un (varios) botón(es) de control de volumen 208, una ranura de tarjeta de módulo de identidad de abonado 210, un conector de auriculares 212 y un puerto externo de acoplamiento/carga 124. El botón pulsador 206 puede utilizarse para encender/apagar el dispositivo pulsando el botón y manteniendo el botón pulsado durante un intervalo de tiempo predefinido, para bloquear el dispositivo pulsando el botón y soltando el botón antes de que haya finalizado el intervalo de tiempo predefinido, y/o para desbloquear el dispositivo o iniciar un proceso de desbloqueo. En una forma de realización alternativa, el dispositivo 100 también puede aceptar una entrada de datos verbal para la activación o desactivación de algunas funciones a través del micrófono 113.
A continuación se hará referencia a formas de realización de interfaces de usuario (“UI”) y a procesos asociados que pueden implementarse en un dispositivo multifunción portátil 100.
La Figura 3 ilustra una interfaz de usuario a modo de ejemplo para desbloquear un dispositivo electrónico portátil según algunas formas de realización. En algunas formas de realización, la interfaz de usuario 300 incluye los siguientes elementos, o un subconjunto o superconjunto de los mismos:
 una imagen de desbloqueo 320 que se mueve con un gesto de dedo para desbloquear el dispositivo;
 una flecha 304 que proporciona una indicación visual del gesto de desbloqueo;
 un canal 306 que proporciona indicaciones adicionales del gesto de desbloqueo;
 la hora 308;
 el día 310;
 la fecha 312; y
 una imagen de fondo de pantalla 314.
En algunas formas de realización, el dispositivo detecta el contacto con la pantalla sensible al tacto (por ejemplo, el dedo de un usuario que hace contacto sobre o cerca de la imagen de desbloqueo 302) cuando el dispositivo está en un estado de bloqueo de interfaz de usuario. El dispositivo mueve la imagen de desbloqueo 302 según el contacto. El dispositivo pasa a un estado de desbloqueo de interfaz de usuario si el contacto detectado corresponde a un gesto predefinido, tal como mover la imagen de desbloqueo a través del canal 306. Por el contrario, el dispositivo mantiene el estado de bloqueo de interfaz de usuario si el contacto detectado no corresponde al gesto predefinido. Tal y como se ha indicado anteriormente, el proceso que utiliza gestos sobre la pantalla táctil para desbloquear el dispositivo se describe en las solicitudes de patente estadounidenses 11/322.549 “Unlocking A Device By Performing Gestures On An Unlock Image”, presentada el 23 de diciembre de 2005, y 11/322,550, "Indication Of Progress Towards Satisfaction Of A User Input Condition", presentada del 23 de diciembre de 2005, las cuales se incorporan de este modo por referencia.
Las Figuras 4A y 4B ilustran interfaces de usuario a modo de ejemplo para un menú de aplicaciones de un dispositivo multifunción portátil según algunas formas de realización. En algunas formas de realización, la interfaz de usuario 400A incluye los siguientes elementos, o un subconjunto o superconjunto de los mismos:
 un (varios) indicador(es) de intensidad de señal 402 para comunicaciones inalámbricas, tales como señales celulares y Wi-Fi;
 la hora 404;
 un indicador de estado de batería 406;
 una bandeja 408 con iconos para aplicaciones utilizadas frecuentemente, tales como una o más de las siguientes:
o un teléfono 138, que puede incluir un indicador 414 del número de llamadas perdidas o de mensajes de correo de voz;
o un cliente de correo electrónico 140, que puede incluir un indicador 410 del número de correos electrónicos no leídos;
o un navegador 147; y
o un reproductor de música 146; e  iconos para otras aplicaciones, tales como una o más de las siguientes:
o IM 141;
o gestión de imágenes 144;
o cámara 143;
o reproductor de vídeo 145;
o información meteorológica 149-1;
o información de acciones de bolsa 149-2;
o blog 142;
o calendario 148;
o calculadora 149-3;
o despertador 149-4;
o diccionario 149-5; y o objeto gráfico creado por el usuario 149-6.
En algunas formas de realización, la interfaz de usuario 400B incluye los siguientes elementos, o un subconjunto o superconjunto de los mismos:
 402, 404, 406, 141, 148, 144, 143, 149-3, 149-2, 149-1, 149-4, 410, 414, 138, 140 y 147, descritos anteriormente;
 mapas 154;
 notas 153;
 ajustes 412, que proporcionan acceso a ajustes para el dispositivo 100 y sus diversas aplicaciones 136; y
 un módulo de reproductor de vídeo y música 152, también denominado como módulo iPod (marca comercial de Apple Computer, Inc.) 152.
En algunas formas de realización, la UI 400A o 400B visualiza todas las aplicaciones disponibles 136 en una pantalla de manera que es necesario recorrer verticalmente una lista de aplicaciones (por ejemplo, a través de una barra de desplazamiento). En algunas formas de realización, a medida que aumenta el número de aplicaciones, los iconos correspondientes a las aplicaciones pueden reducir su tamaño de manera que todas las aplicaciones puedan visualizarse en una única pantalla sin necesidad de un desplazamiento vertical. En algunas formas de realización, el tener todas las aplicaciones en la pantalla y un botón de menú permite a un usuario acceder a cualquier aplicación deseada con un máximo de dos entradas de datos, tales como activar el botón de menú 204 y después activar la aplicación deseada (por ejemplo, mediante un toque suave u otro gesto de dedo sobre el icono correspondiente a la aplicación).
En algunas formas de realización, la UI 400A o 400B proporciona acceso integrado tanto a aplicaciones basadas en objetos gráficos como a aplicaciones no basadas en objetos gráficos. En algunas formas de realización, todos los objetos gráficos, ya sean creados por el usuario o no, se visualizan en la UI 400A o 400B. En otras formas de realización, la activación del icono para el objeto gráfico creado por el usuario 149-6 puede conducir a otra UI que contenga los objetos gráficos creados por el usuario o iconos correspondientes a los objetos gráficos creados por el usuario.
En algunas formas de realización, un usuario puede reorganizar los iconos de la UI 400A o 400B, por ejemplo, utilizando los procesos descritos en la solicitud de patente estadounidense número 11/459.602 “Portable Electronic Device With Interface Reconfiguration Mode”, presentada el 24 de julio de 2006, la cual se incorpora de este modo por referencia. Por ejemplo, un usuario puede mover los iconos de aplicaciones dentro y fuera de la bandeja 408 utilizando gestos de dedo.
En algunas formas de realización, la UI 400A o 400B incluye un indicador (no mostrado) que visualiza una métrica actualizada de utilización de cuenta para una cuenta asociada con la utilización del dispositivo (por ejemplo, una cuenta de teléfono celular), tal y como se describe en la solicitud de patente estadounidense 11/322.552, "Account Information Display For Portable Communication Device”, presentada el 23 de diciembre de 2005, la cual se incorpora de este modo por referencia.
Tal y como se indicó anteriormente en la sección de antecedentes, un desafío para un dispositivo portátil con una pantalla táctil es cómo convertir de manera precisa información acerca del área bidimensional de contacto de dedo sobre la pantalla táctil en una posición de cursor unidimensional única.
Un contacto de dedo con la pantalla táctil (por ejemplo, un toque suave con el dedo) es un proceso que implica múltiples acciones, incluyendo la aproximación del dedo a la pantalla, el contacto del dedo con la pantalla y el alejamiento del dedo de la pantalla. Durante este proceso, el área de contacto del dedo aumenta de cero a un área de contacto máxima, y después se reduce a cero. En algunas formas de realización, para un contacto de dedo estacionario con la pantalla, el área de contacto de dedo se define como el área de contacto máxima del dedo con la pantalla táctil durante un periodo de tiempo correspondiente al contacto estacionario.
Las Figuras 5 y 6A a 6L ilustran procedimientos a modo de ejemplo para determinar una posición de cursor a partir de un contacto de dedo con una pantalla táctil según algunas formas de realización.
Tal y como se muestra en la Figura 6A, la pantalla táctil muestra múltiples objetos de interfaz de usuario 5602 a 5608. Los objetos de interfaz de usuario a modo de ejemplo incluyen un icono de apertura, un icono de cierre, un icono de borrado, un icono de salida o iconos de tecla programable. Algunos de estos iconos pueden colocarse dentro de una pequeña región de la pantalla táctil de manera que un icono esté muy cerca de otro icono.
Cuando hay un contacto de dedo con la pantalla táctil, a diferencia del clic de ratón convencional, el dedo tiene una determinada área de contacto (por ejemplo, 5610 en la Figura 6A) sobre la pantalla táctil. En algunas formas de realización, es necesario determinar una posición de cursor correspondiente al área de contacto 5610 del dedo con la pantalla táctil antes de que cualquier objeto de interfaz de usuario pueda activarse para llevar a cabo una operación predefinida.
Después de determinar el área de contacto de dedo (501), el dispositivo portátil determina una primera posición asociada con el área de contacto 5610 (503). Tal y como se explicará a continuación, la primera posición puede ser,
o no, la posición de cursor correspondiente al contacto de dedo. Pero la primera posición se utilizará para determinar la posición de cursor. En algunas formas de realización, tal y como se muestra en la Figura 6B, la primera posición P1 es el centroide del área de contacto 5610.
En algunas otras formas de realización (Figura 6H), cuando un dedo establece un contacto físico con la pantalla táctil, el dedo tiene que presionar la pantalla, variando la presión de una posición a otra dentro del área de contacto. Algunas veces, la posición P2 en la que un usuario aplica la máxima presión puede no ser el centroide P1 del área de contacto, aunque la posición de presión máxima P2 puede estar más cerca del objeto que el usuario desea seleccionar.
Tal y como se muestra en la Figura 6H, el área de contacto 5610 se considera elíptica con un eje mayor y un eje menor perpendicular al eje mayor. Se asume que hay una distancia fija nd’ entre el centroide P1 del área de contacto 5610 y la posición de presión máxima P2 correspondiente. En este caso, la primera posición o la posición de presión máxima P2 pueden determinarse a partir de P1 y nd’.
La posición de cursor P del contacto de dedo se determina en función de uno o más parámetros (505), incluyendo la ubicación de la primera posición, es decir, P1 en la Figura 6B o P2 en la Figura 6H, una o más distancias entre la primera posición y uno o más objetos de interfaz de usuario próximos a la primera posición y, en algunas formas de realización, uno o más números de susceptibilidad de activación asociados con los objetos de interfaz de usuario (por ejemplo, W1-W4 en la Figura 6C o en la Figura 6I).
En algunas formas de realización, tal y como se muestra en las Figuras 6C y 6I, la distancia entre la primera posición (P1 en la Figura 6C o P2 en la Figura 6I) y un objeto de interfaz de usuario respectivo (5602, 5604, 5606 ó 5608) es la distancia entre la primera posición y el punto del objeto de interfaz de usuario que está más cerca de la primera posición.
En algunas otras formas de realización, tal y como se muestra en las Figuras 6D y 6J, la distancia entre la primera posición (P1 en la Figura 6D o P2 en la figura 6J) y un objeto de interfaz de usuario (5602, 5604, 5606 o 5608) es la distancia entre la primera posición y el centro del objeto de interfaz de usuario.
En algunas formas de realización, el desplazamiento entre la posición de cursor y la primera posición (por ejemplo, d en las Figuras 6E y 6F) viene dado por la siguiente fórmula:
imagen1
donde:
d es el desplazamiento entre la posición de cursor P y la primera posición P1,
di es una componente de desplazamiento asociada con un objeto de interfaz de usuario I a lo largo de la
dirección entre la primera posición y el objeto de interfaz de usuario i,  Wi es un número de susceptibilidad de activación asociado con el objeto de interfaz de usuario i,  di es la distancia entre la primera posición y el objeto de interfaz de usuario i,  n es un número real (por ejemplo, 1), y
 ui es un vector unitario a lo largo de la dirección de di .
Si la posición de cursor P determinada está sobre un objeto de interfaz de usuario particular (por ejemplo, 5602 en la Figura 6E), el objeto de interfaz de usuario se activa para llevar a cabo una operación predefinida tal como reproducir una canción, borrar un mensaje de correo electrónico o introducir un carácter en un campo de entrada.
En algunas formas de realización, los números de susceptibilidad de activación asignados a diferentes objetos de interfaz de usuario tienen valores y signos diferentes dependiendo de la operación asociada a cada objeto.
Por ejemplo, tal y como se muestra en la Figura 6E, si la operación asociada con el objeto de interfaz de usuario 5602 es reversible o no destructiva (por ejemplo, el objeto de interfaz de usuario 5602 es el icono de reproducción del módulo de reproductor de música y vídeo 146), un número de susceptibilidad de activación W1' que tiene un primer signo (por ejemplo, “+”) se asigna al objeto 5602 de manera que la posición de cursor P determinada está más cerca del objeto 5602 que la primera posición P1, haciendo que el objeto 5602 sea más fácil de activar. En este contexto, “no destructivo” se define con el sentido de una acción que no provocará una pérdida permanente de información.
Por el contrario, tal y como se muestra en la Figura 6F, si la operación asociada con el objeto de interfaz de usuario 5602 es irreversible o destructiva de información de usuario (por ejemplo, el objeto de interfaz de usuario 5602 es el icono de borrado del módulo de correo 140), un número de susceptibilidad de activación W1 que tiene un segundo signo (por ejemplo, “-“) opuesto al primer signo se asigna al objeto 5602 de manera que la posición de cursor P determinada puede estar más alejada del objeto 5602 que la primera posición P1, haciendo que el objeto 5602 sea más difícil de activar. Por lo tanto, cuando el número de susceptibilidad de activación asociado de un objeto tiene el segundo signo, el contacto debe situarse de manera relativamente precisa sobre el objeto con el fin de activarlo, donde los mayores valores del número de susceptibilidad de activación corresponden a los grados de precisión más altos.
En algunas formas de realización, la posición de cursor P se determina en función de la primera posición, el número de susceptibilidad de activación asociado con el objeto de interfaz de usuario que está más cerca de la primera posición, y la distancia entre la primera posición y el objeto de interfaz de usuario que está más cerca de la primera posición. En estas formas de realización, la posición de cursor P no se ve afectada por los parámetros asociados con otros objetos de interfaz de usuario vecinos. Por ejemplo, tal y como se muestra en la Figura 6K, la primera posición P1 es la más cercana al objeto de interfaz de usuario 5602, el cual tiene un número de susceptibilidad de activación asociado W1. La distancia entre la primera posición P1 y el objeto 5602 es d1. La posición de cursor P que va a determinarse solo se ve afectada por estos parámetros, no por otros objetos de interfaz de usuario vecinos 5604, 5606 ó 5608.
En algunas formas de realización, cuando uno o más objetos de interfaz de usuario están dentro de una distancia predefinida de la primera posición, la posición de cursor P se determina en función de la primera posición, los números de susceptibilidad de activación asociados con cada objeto de interfaz de usuario que está dentro de la distancia predefinida y la distancia entre la primera posición y cada uno de esos objetos de interfaz de usuario. Como alternativa, en algunas formas de realización, cuando uno o más objetos de interfaz de usuario están dentro del área de contacto del contacto de dedo del usuario con la pantalla táctil (o dentro de una distancia predefinida del área de contacto), la posición de cursor P se determina en función de la primera posición, los números de susceptibilidad de activación asociados con cada objeto de interfaz de usuario que está dentro del área de contacto (o con la distancia predefinida del área de contacto), y la distancia entre la primera posición y cada uno de esos objetos de interfaz de usuario.
En algunas formas de realización, tal y como se muestra en la Figura 6L, la posición de cursor es la misma que la primera posición, que puede ser P1 en la Figura 6B o P2 en la Figura 6H, si la primera posición está dentro de un objeto de interfaz de usuario particular (por ejemplo, 5604) de la pantalla. En este caso, no es necesario desplazar adicionalmente la posición de cursor con respecto a la primera posición.
En algunas formas de realización, tal y como se muestra en la Figura 6E, el contacto de dedo no tiene que producirse exactamente en un objeto para activar el objeto. En cambio, el objeto de interfaz de usuario se activa siempre que la posición de cursor determinada esté dentro del objeto de interfaz de usuario. En algunas formas de realización, un objeto de interfaz de usuario se activa si la posición de cursor determinada está dentro de la "región de impacto" del objeto de interfaz de usuario. La región de impacto de un objeto de interfaz de usuario puede ser del mismo tamaño, o ser más grande o más pequeña que el propio objeto de interfaz de usuario. Los objetos de interfaz de usuario que provocan cambios irreversibles o destructivos en los datos tendrán normalmente una región de impacto que tiene el mismo tamaño, o es más pequeña, que el propio objeto de interfaz de usuario. En algunas formas de realización, al menos algunos objetos de interfaz de usuario que no provocan cambios irreversibles o destructivos en los datos tienen una región de impacto que es más grande que esos objetos de interfaz de usuario. Para tales objetos, la parte de la región de impacto que es más grande que el objeto de interfaz de usuario correspondiente puede denominarse como una región de impacto oculta.
En algunas formas de realización, al menos algunos de los objetos de interfaz de usuario implicados en determinar la posición de cursor de la fórmula anterior son visibles en la pantalla táctil.
En algunas formas de realización, los números de susceptibilidad de activación asociados con los objetos de interfaz de usuario (por ejemplo, W1-W4) dependen del contexto en un módulo de aplicación específico y cambian de un contexto a otro en el modulo de aplicación específico. Por ejemplo, un objeto puede tener un primer número de susceptibilidad de activación que sea atractivo para una posición de cursor en un primer momento (en un primer contexto de un módulo de aplicación específico), pero un segundo número de susceptibilidad de activación que sea menos atractivo o incluso repulsivo (por ejemplo, si el segundo número de susceptibilidad de activación tiene un signo opuesto) para la posición de cursor en un segundo momento (en un segundo contexto del módulo de aplicación específico).
Las Figuras 6M-6O ilustran un procedimiento a modo de ejemplo para ajustar dinámicamente los números de susceptibilidad de activación con teclas de teclado programable cuando se escribe una palabra con las teclas de teclado programable según algunas formas de realización. La interfaz de usuario incluye un campo de entrada 5620 y un teclado programable 5640. Una selección de usuario de cualquier icono de tecla del teclado programable 5640 introduce un carácter correspondiente seleccionado por el usuario en el campo de entrada 5620. Para fines ilustrativos, tal y como se muestra en la Figura 6M, todos los iconos de tecla tienen inicialmente el mismo número de susceptibilidad de activación, 5.
La Figura 6N muestra los números de susceptibilidad de activación asociados a los diferentes iconos de tecla después que haber introducido dos caracteres “Go” en el campo de entrada 5620. Los números de susceptibilidad de activación asociados a los iconos de tecla se han ajustado según los caracteres introducidos anteriormente. Por ejemplo, el número de susceptibilidad de activación del icono de tecla “D” pasa de 5 a 10 porque “God” es una palabra inglesa común. Por lo tanto, el icono de tecla “D” puede activarse incluso si el siguiente contacto de dedo está más cerca del icono de tecla “F” que del propio icono de tecla “D”. Asimismo, los números de susceptibilidad de activación asociados a los iconos de tecla “A” y “O” también aumentan ya que cada una de las cadenas de caracteres “Goa” y “Goo” dan lugar a una o más palabras inglesas válidas tales como “Goal”, "Good" o "Goad". Por el contrario, el número de susceptibilidad de activación del icono de tecla "K" baja a 3 ya que la cadena de caracteres “Gok” no se encuentra al comienzo de ninguna palabra inglesa común.
La Figura 6O muestra los números de susceptibilidad de activación actualizados asociados con diferentes iconos de tecla después de que se haya introducido otro carácter “a” en el campo de entrada 5620. Dada la cadena de caracteres “Goa” que se ha introducido, el usuario puede estar escribiendo la palabra “Goal”. Por consiguiente, el número de susceptibilidad de activación asociado al icono de tecla “L” aumenta a 9 mientras que el número de susceptibilidad de activación asociado al icono de tecla “O” baja a 2 puesto que la cadena de caracteres "Goao" no se encentra al comienzo de ninguna palabra inglesa común.
En suma, una posición de cursor para el contacto de un dedo con la pantalla táctil se ajusta al menos en parte en función de los números de susceptibilidad de activación (o ponderaciones) asignados a los objetos de interfaz de usuario. Tal ajuste de la posición de cursor ayuda a reducir la posibilidad de seleccionar por error un objeto de interfaz de usuario.
La anterior descripción se ha descrito, para fines explicativos, con referencia a formas de realización específicas. Sin embargo, los anteriores análisis ilustrativos no pretenden ser exhaustivos ni limitar la invención a las formas precisas dadas a conocer. Muchas modificaciones y variaciones son posibles en vista de las enseñanzas anteriores. Las formas de realización se han elegido y descrito con el fin de explicar de la mejor manera posible los principios de la invención y sus aplicaciones prácticas, permitiendo de ese modo que otros expertos en la materia utilicen de la mejor manera posible la invención y varias formas de realización con diversas modificaciones adecuadas para el uso particular contemplado.

Claims (11)

  1. REIVINDICACIONES
    1. Un procedimiento implementado por ordenador, que comprende:
    en un dispositivo electrónico portátil (100) con una pantalla táctil (112) con una pluralidad de objetos de interfaz de usuario (5602, 5604, 5606, 5608),
    5 detectar (501) un área de contacto (5610) de un dedo con la pantalla táctil (112); y
    determinar (503) una primera posición (P1, P2) asociada con el área de contacto (5610);
    caracterizado por
    determinar (505) una posición de cursor (P), al menos en parte, en función de:
    - la primera posición (P1, P2),
    10 - una o más distancias (di) entre la primera posición (P1, P2) y uno o más de los objetos de interfaz de usuario (5602, 5604, 5606, 5608), y
    - uno o más números de susceptibilidad de activación (W1, W2, W3, W4), cada uno asociado con un objeto de interfaz de usuario respectivo de la pluralidad de objetos de interfaz de usuario (5602, 5604, 5606, 5608).
    15 2. El procedimiento según la reivindicación 1, en el que, para un contacto estacionario de un dedo con la pantalla (112), el área de contacto detectada (5610) corresponde al área de contacto máxima del dedo con la pantalla (112) durante un periodo de tiempo correspondiente al contacto estacionario.
  2. 3. El procedimiento según la reivindicación 1 ó 2, en el que la primera posición (P1) es el centroide del área de contacto (5610).
    20 4. El procedimiento según la reivindicación 1 ó 2, en el que el área de contacto (5610) es elíptica con un eje mayor y la primera posición (P2) está desplazada con respecto al centroide del área de contacto (5610) a lo largo del eje mayor.
  3. 5. El procedimiento según una cualquiera de las reivindicaciones anteriores, en el que un objeto de interfaz de usuario (5602) asociado con un número de susceptibilidad de activación (W1) es más fácil de activar si el
    25 número de susceptibilidad de activación (W1’) tiene un primer signo, y es más difícil de activar si el número de susceptibilidad de activación (W1") tiene un segundo signo opuesto al primer signo.
  4. 6. El procedimiento según una cualquiera de las reivindicaciones anteriores, en el que la distancia (di) entre la primera posición (P1, P2) y un objeto de interfaz de usuario (5602, 5604, 5606, 5608) es la distancia entre la primera posición (P1, P2) y el punto del objeto de interfaz de usuario (5602, 5604, 5606, 5608) que está más
    30 cerca de la primera posición (P1, P2).
  5. 7.
    El procedimiento según una cualquiera de las reivindicaciones 1 a 5, en el que la distancia (di) entre la primera posición (P1, P2) y un objeto de interfaz de usuario (5602, 5604, 5606, 5608) es la distancia entre la primera posición (P1, P2) y el centro del objeto de interfaz de usuario (5602, 5604, 5606, 5608).
  6. 8.
    El procedimiento según una cualquiera de las reivindicaciones anteriores, en el que determinar la posición de
    35 cursor (P) se basa en: la primera posición (P1, P2), el número de susceptibilidad de activación (W1, W2, W3, W4) asociado con el objeto de interfaz de usuario (5602, 5604, 5606, 5608) que está más cerca de la primera posición (P1, P2), y la distancia (di) entre la primera posición (P1, P2) y el objeto de interfaz de usuario (5602, 5604, 5606, 5608) que está más cerca de la primera posición.
  7. 9. El procedimiento según una cualquiera de las reivindicaciones anteriores, en el que la posición de cursor (P) 40 está desplazada con respecto a la primera posición (P1, P2) en una cantidad dada por la fórmula:
    imagen1
    donde:
    d es el desplazamiento,
    di es una componente de desplazamiento asociada con un objeto de interfaz de usuario i,
    en el que di es a lo largo de la dirección entre la primera posición (P1, P2) y el objeto de interfaz de usuario
    i,
    Wi es un número de susceptibilidad de activación asociado con el objeto de interfaz de usuario i,
    5 di es la distancia entre la primera posición y el objeto de interfaz de usuario i,
    n es un número real, y
    ui es un vector unitario a lo largo de la dirección de di .
  8. 10. El procedimiento según una cualquiera de las reivindicaciones anteriores, en el que la posición de cursor (P)
    es la primera posición (P1, P2), si la primera posición (P1, P2) está dentro de uno de la pluralidad de objetos de 10 interfaz de usuario (5602, 5604, 5606, 5608) de la pantalla (112).
  9. 11.
    El procedimiento según una cualquiera de las reivindicaciones anteriores, que comprende además activar un objeto de interfaz de usuario (5602, 5604, 5606, 5608) en la posición de cursor (P).
  10. 12.
    El procedimiento según una cualquiera de las reivindicaciones anteriores, en el que los números de susceptibilidad de activación (W1, W2, W3, W4) dependen del contexto en una aplicación.
    15 13. El procedimiento según una cualquiera de las reivindicaciones anteriores, en el que los números de susceptibilidad de activación (W1, W2, W3, W4) asociados con teclas de un teclado programable (5640) cambian a medida que se escribe una palabra con las teclas del teclado programable.
  11. 14. Un dispositivo electrónico portátil con una pantalla táctil (112), estando adaptado el dispositivo electrónico portátil (100) para implementar el procedimiento según una cualquiera de las reivindicaciones 1 a 13.
    20 15. Un producto de programa informático con instrucciones configuradas para su ejecución mediante uno o más procesadores (120) que, cuando se ejecutan por un dispositivo portátil (100) con una pantalla táctil (112), hacen que el dispositivo lleve a cabo el procedimiento según la reivindicación 1.
ES07814691T 2006-09-06 2007-09-05 Procedimientos para determinar una posición de cursor a partir del contacto de un dedo con una pantalla táctil. Active ES2361784T3 (es)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US850015 1986-04-10
US82476906P 2006-09-06 2006-09-06
US824769P 2006-09-06
US879253P 2007-01-07
US879469P 2007-01-08
US946716P 2007-06-27
US937993P 2007-06-29

Publications (1)

Publication Number Publication Date
ES2361784T3 true ES2361784T3 (es) 2011-06-22

Family

ID=40308482

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07814691T Active ES2361784T3 (es) 2006-09-06 2007-09-05 Procedimientos para determinar una posición de cursor a partir del contacto de un dedo con una pantalla táctil.

Country Status (3)

Country Link
CN (7) CN101356493A (es)
AU (2) AU2022201622B2 (es)
ES (1) ES2361784T3 (es)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
JP5370754B2 (ja) * 2009-06-30 2013-12-18 ソニー株式会社 入力装置および入力方法
TWI412963B (zh) 2009-07-01 2013-10-21 Htc Corp 資料顯示與移動方法及系統,及其電腦程式產品
CN101650633B (zh) * 2009-07-03 2011-10-05 苏州佳世达电通有限公司 电子装置操控方法
CN101996028B (zh) * 2009-08-21 2013-04-24 宏达国际电子股份有限公司 数据显示与移动方法及系统
JP5436975B2 (ja) * 2009-08-21 2014-03-05 オリンパスイメージング株式会社 カメラ、カメラの表示制御方法、表示装置、及び表示方法
JP5333068B2 (ja) * 2009-08-31 2013-11-06 ソニー株式会社 情報処理装置、表示方法及び表示プログラム
JP5695052B2 (ja) * 2009-09-04 2015-04-01 ナイキ イノベイト セー. フェー. 運動活動のモニタリングおよび追跡の方法
CN102023790B (zh) * 2009-09-22 2013-06-12 宏碁股份有限公司 动态操作互动对象的方法及系统
US8823743B2 (en) * 2009-10-02 2014-09-02 Sony Corporation Image processing device and method, and program
KR20110037298A (ko) * 2009-10-06 2011-04-13 삼성전자주식회사 리스트 편집 방법 및 이를 지원하는 휴대 단말기
KR20110037657A (ko) * 2009-10-07 2011-04-13 삼성전자주식회사 모션을 이용한 gui 제공방법 및 이를 적용한 디스플레이 장치
EP2320312A1 (en) * 2009-11-10 2011-05-11 Research In Motion Limited Portable electronic device and method of controlling same
CN101702111B (zh) * 2009-11-13 2013-07-03 宇龙计算机通信科技(深圳)有限公司 一种实现触摸屏内容缩放的方法及终端
US8381125B2 (en) * 2009-12-16 2013-02-19 Apple Inc. Device and method for resizing user interface content while maintaining an aspect ratio via snapping a perimeter to a gridline
US8736561B2 (en) * 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US9052894B2 (en) * 2010-01-15 2015-06-09 Apple Inc. API to replace a keyboard with custom controls
WO2011088611A1 (en) 2010-01-20 2011-07-28 Nokia Corporation User input
CN101763270B (zh) 2010-01-28 2011-06-15 华为终端有限公司 组件显示处理方法和用户设备
CN102835097A (zh) * 2010-02-04 2012-12-19 诺基亚公司 用户输入
US20110191719A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US20110209101A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen pinch-to-pocket gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
EP2367097B1 (en) * 2010-03-19 2017-11-22 BlackBerry Limited Portable electronic device and method of controlling same
US8756522B2 (en) 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
WO2011130919A1 (en) 2010-04-23 2011-10-27 Motorola Mobility, Inc. Electronic device and method using touch-detecting surface
KR101673925B1 (ko) 2010-05-26 2016-11-09 삼성전자주식회사 터치 락 상태를 가지는 단말기 및 이의 운용 방법
US8131898B2 (en) * 2010-05-27 2012-03-06 Adobe Systems Incorporated Event handling in an integrated execution environment
CN102270081B (zh) * 2010-06-03 2015-09-23 腾讯科技(深圳)有限公司 一种调整列表元素大小的方法及装置
US10216408B2 (en) * 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
JP2012008686A (ja) * 2010-06-23 2012-01-12 Sony Corp 情報処理装置および方法、並びにプログラム
EP2405338A1 (en) * 2010-07-06 2012-01-11 HTC Corporation Method for presenting man machine interface and handheld device and computer-readable medium using the method
JP5659586B2 (ja) * 2010-07-09 2015-01-28 ソニー株式会社 表示制御装置および表示制御方法、表示制御プログラム、記録媒体
CN102209141A (zh) * 2010-07-15 2011-10-05 优视科技有限公司 一种用于移动通讯设备终端的页面滚动条显示方法及装置
US9304591B2 (en) 2010-08-10 2016-04-05 Lenovo (Singapore) Pte. Ltd. Gesture control
CN102385475B (zh) * 2010-09-06 2017-04-19 联想(北京)有限公司 电子设备及其交互方法
JP2012058921A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5389757B2 (ja) * 2010-09-15 2014-01-15 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、コンテンツ作成装置、画像処理方法、およびコンテンツファイルのデータ構造
KR20140001957A (ko) * 2010-11-20 2014-01-07 뉘앙스 커뮤니케이션즈, 인코포레이티드 입력된 텍스트를 이용하여 상황 정보에 액세스하여 이를 처리하기 위한 시스템들 및 방법들
KR101749529B1 (ko) * 2010-11-25 2017-06-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
CN102169383A (zh) * 2010-11-26 2011-08-31 苏州瀚瑞微电子有限公司 一种触摸屏旋转手势的识别方法
US8866735B2 (en) 2010-12-16 2014-10-21 Motorla Mobility LLC Method and apparatus for activating a function of an electronic device
US9363579B2 (en) * 2010-12-22 2016-06-07 Google Inc. Video player with assisted seek
CN102053754A (zh) * 2010-12-31 2011-05-11 东莞宇龙通信科技有限公司 触摸屏按键区域处理方法及装置
US9671825B2 (en) * 2011-01-24 2017-06-06 Apple Inc. Device, method, and graphical user interface for navigating through an electronic document
CN102185828B (zh) * 2011-01-30 2013-10-09 广东佳和通信技术有限公司 一种pc软件与sip ua绑定及控制的方法
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
JP5254399B2 (ja) * 2011-05-13 2013-08-07 株式会社エヌ・ティ・ティ・ドコモ 表示装置、ユーザインタフェース方法及びプログラム
US8890823B2 (en) * 2012-01-09 2014-11-18 Motorola Mobility Llc System and method for reducing occurrences of unintended operations in an electronic device
GB2492789B (en) * 2011-07-12 2018-01-03 Denso Corp Displays
US9256361B2 (en) 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
US20130113943A1 (en) * 2011-08-05 2013-05-09 Research In Motion Limited System and Method for Searching for Text and Displaying Found Text in Augmented Reality
US10140011B2 (en) 2011-08-12 2018-11-27 Microsoft Technology Licensing, Llc Touch intelligent targeting
EP2757448A4 (en) * 2011-09-13 2015-06-17 Sony Computer Entertainment Inc INFORMATION PROCESSING DEVICE, DISPLAY CONTROL METHOD, PROGRAM, AND INFORMATION STORAGE MEDIUM
US9710048B2 (en) 2011-10-03 2017-07-18 Google Technology Holdings LLC Method for detecting false wake conditions of a portable electronic device
US10684768B2 (en) * 2011-10-14 2020-06-16 Autodesk, Inc. Enhanced target selection for a touch-based input enabled user interface
US20130125066A1 (en) * 2011-11-14 2013-05-16 Microsoft Corporation Adaptive Area Cursor
KR20130093720A (ko) * 2011-12-23 2013-08-23 삼성전자주식회사 디스플레이 장치 및 그 잠금 해제 방법
CN102591853B (zh) * 2011-12-29 2015-04-01 优视科技有限公司 网页重排方法、网页重排装置以及移动终端
CN103246457B (zh) * 2012-02-09 2016-05-04 宇龙计算机通信科技(深圳)有限公司 终端和应用程序的启动方法
US9106762B2 (en) * 2012-04-04 2015-08-11 Google Inc. Associating content with a graphical interface window using a fling gesture
EP2847657B1 (en) * 2012-05-09 2016-08-10 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
CN108241465B (zh) 2012-05-09 2021-03-09 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
JP5467123B2 (ja) 2012-05-30 2014-04-09 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US20130342468A1 (en) * 2012-06-20 2013-12-26 Chimei Innolux Corporation Method for determining touch location on a touch panel and touch panel module
KR101942308B1 (ko) 2012-08-08 2019-01-25 삼성전자주식회사 메시지 기능을 제공하기 위한 방법 및 그 전자 장치
CN104620206B (zh) * 2012-09-14 2018-03-20 夏普株式会社 显示装置、便携终端、监视器、电视机
KR102096581B1 (ko) 2012-09-14 2020-05-29 삼성전자주식회사 표시 정보를 편집하기 위한 방법 및 그 전자 장치
US10585553B2 (en) 2012-12-06 2020-03-10 Samsung Electronics Co., Ltd. Display device and method of controlling the same
KR102102438B1 (ko) * 2012-12-06 2020-04-20 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US9104371B2 (en) * 2012-12-07 2015-08-11 Apple Inc. Integrated visual notification system in an accessory device
CN103135903B (zh) * 2013-02-22 2016-04-27 小米科技有限责任公司 一种图库展示方法及装置
US9471200B2 (en) * 2013-03-15 2016-10-18 Apple Inc. Device, method, and graphical user interface for organizing and presenting a collection of media items
CN104113682B (zh) * 2013-04-22 2018-08-31 联想(北京)有限公司 一种图像获取方法及电子设备
US9807145B2 (en) * 2013-05-10 2017-10-31 Successfactors, Inc. Adaptive tile framework
US9477331B2 (en) * 2013-06-07 2016-10-25 Apple Inc. Touch detection at bezel edge
US10168882B2 (en) * 2013-06-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for switching between camera interfaces
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9419935B2 (en) * 2013-08-02 2016-08-16 Whatsapp Inc. Voice communications with real-time status notifications
JP5505550B1 (ja) * 2013-08-06 2014-05-28 富士ゼロックス株式会社 画像表示装置及びプログラム
WO2015034969A2 (en) * 2013-09-03 2015-03-12 Apple Inc. User interface for manipulating user interface objects with magnetic properties
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
CN103472975A (zh) * 2013-09-11 2013-12-25 江苏中科梦兰电子科技有限公司 一种智能终端即时通讯风格的人机交互方法
CN103699297B (zh) * 2013-12-13 2018-02-09 乐视网信息技术(北京)股份有限公司 一种智能终端及剧集播出时间提示方法
CN105916720B (zh) * 2014-01-20 2019-06-14 大众汽车有限公司 用户界面和用于借助触敏的显示单元控制音量的方法
CN111488111B (zh) * 2014-01-23 2023-10-20 苹果公司 虚拟计算机键盘
US11914419B2 (en) 2014-01-23 2024-02-27 Apple Inc. Systems and methods for prompting a log-in to an electronic device based on biometric information received from a user
KR20150091607A (ko) * 2014-02-03 2015-08-12 엘지전자 주식회사 이동단말기 및 그 제어방법
US20170192730A1 (en) 2014-05-30 2017-07-06 Apple Inc. Continuity
US20150350141A1 (en) 2014-05-31 2015-12-03 Apple Inc. Message user interfaces for capture and transmittal of media and location content
EP3584671B1 (en) 2014-06-27 2022-04-27 Apple Inc. Manipulation of calendar application in device with touch screen
CN104133624B (zh) * 2014-07-10 2015-10-28 腾讯科技(深圳)有限公司 网页动画显示方法、装置及终端
JP6399834B2 (ja) 2014-07-10 2018-10-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
WO2016022496A2 (en) 2014-08-06 2016-02-11 Apple Inc. Reduced-size user interfaces for battery management
KR101610880B1 (ko) * 2014-08-12 2016-04-08 네이버 주식회사 표시 제어 장치, 표시 제어 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램
US20160048319A1 (en) * 2014-08-18 2016-02-18 Microsoft Technology Licensing, Llc Gesture-based Access to a Mix View
WO2016032806A1 (en) * 2014-08-26 2016-03-03 Apple Inc. User interface for limiting notifications and alerts
CN104216617B (zh) * 2014-08-27 2017-05-24 小米科技有限责任公司 光标位置确定方法和装置
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
CN106662966B (zh) 2014-09-02 2020-08-18 苹果公司 多维对象重排
CN115665320A (zh) 2014-09-02 2023-01-31 苹果公司 电话用户界面
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
TWI582641B (zh) 2014-09-02 2017-05-11 蘋果公司 按鈕功能性
KR102143308B1 (ko) * 2014-09-02 2020-08-10 애플 인크. 경고를 관리하기 위한 축소된 크기의 인터페이스
US11567626B2 (en) * 2014-12-17 2023-01-31 Datalogic Usa, Inc. Gesture configurable floating soft trigger for touch displays on data-capture electronic devices
US10586398B2 (en) * 2014-12-18 2020-03-10 Koninklijke Philips N.V. Medical image editing
KR20160088603A (ko) * 2015-01-16 2016-07-26 삼성전자주식회사 화면 제어 장치 및 방법
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
WO2016160632A1 (en) * 2015-03-27 2016-10-06 Google Inc. Navigating event information
US9785487B1 (en) * 2015-05-12 2017-10-10 Google Inc. Managing device functions based on physical interaction with device modules
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9658704B2 (en) * 2015-06-10 2017-05-23 Apple Inc. Devices and methods for manipulating user interfaces with a stylus
JP6518141B2 (ja) * 2015-06-16 2019-05-22 株式会社ディスコ タッチパネル装置
CN104978146B (zh) * 2015-06-30 2017-11-24 广东欧珀移动通信有限公司 一种图片操作方法及移动终端
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
EP3337143B1 (en) * 2015-09-25 2023-04-26 Huawei Technologies Co., Ltd. Terminal device and incoming call processing method
KR102553886B1 (ko) * 2015-12-24 2023-07-11 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 제어 방법
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
KR20180058097A (ko) * 2016-11-23 2018-05-31 삼성전자주식회사 이미지를 표시하는 전자 장치 및 그 제어 방법
EP3764293B1 (en) 2017-01-03 2023-05-10 Samsung Electronics Co., Ltd. Food storage apparatus and control method thereof
CN107247694A (zh) * 2017-07-06 2017-10-13 福建中金在线信息科技有限公司 基于便携式电子设备的信息查询方法、装置及电子设备
CN109429091A (zh) * 2017-08-31 2019-03-05 武汉斗鱼网络科技有限公司 提升直播观看体验的方法、存储介质、电子设备及系统
CN108197560B (zh) * 2017-12-28 2022-06-07 努比亚技术有限公司 人脸图像识别方法、移动终端及计算机可读存储介质
CN114915827A (zh) * 2018-05-08 2022-08-16 日本聚逸株式会社 动态图像分发系统及其方法和记录介质
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
WO2020094214A1 (en) * 2018-11-06 2020-05-14 Volvo Truck Corporation A finger-position sensitive human machine interface for handling a user input of a user and a method for handling a user input of a user of a finger-position sensitive human machine interface
US11477609B2 (en) 2019-06-01 2022-10-18 Apple Inc. User interfaces for location-related communications
US11152100B2 (en) 2019-06-01 2021-10-19 Apple Inc. Health application user interfaces
US11481094B2 (en) 2019-06-01 2022-10-25 Apple Inc. User interfaces for location-related communications
CN110297002B (zh) 2019-06-27 2022-05-24 上海联影医疗科技股份有限公司 能量成像方法、装置、设备及存储介质
CN110968238A (zh) * 2019-11-20 2020-04-07 四川商通实业有限公司 基于ios系统的图片快速编辑方法及系统
CN112835575A (zh) * 2019-11-23 2021-05-25 西安诺瓦星云科技股份有限公司 多图层显示控制方法和装置
CN113518261B (zh) * 2020-12-25 2023-09-22 腾讯科技(深圳)有限公司 指引视频播放方法、装置、计算机设备及存储介质
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11928303B2 (en) 2021-05-15 2024-03-12 Apple Inc. Shared-content session user interfaces
CN113721818B (zh) * 2021-09-02 2022-08-09 北京城市网邻信息技术有限公司 图像处理方法、装置、设备和计算机可读存储介质
CN113703653A (zh) * 2021-09-02 2021-11-26 北京城市网邻信息技术有限公司 图像处理方法、装置、设备和计算机可读存储介质
CN114866641B (zh) * 2022-07-07 2022-11-11 荣耀终端有限公司 一种图标处理方法、终端设备及存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US6486895B1 (en) * 1995-09-08 2002-11-26 Xerox Corporation Display system for displaying lists of linked documents
US5847709A (en) * 1996-09-26 1998-12-08 Xerox Corporation 3-D document workspace with focus, immediate and tertiary spaces
US6069626A (en) * 1997-02-27 2000-05-30 International Business Machines Corporation Method and apparatus for improved scrolling functionality in a graphical user interface utilizing a transparent scroll bar icon
US6049326A (en) * 1997-05-12 2000-04-11 Siemens Information And Communication Networks, Inc. System and method for dual browser modes
US6169911B1 (en) * 1997-09-26 2001-01-02 Sun Microsystems, Inc. Graphical user interface for a portable telephone
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6181316B1 (en) * 1998-06-04 2001-01-30 International Business Machines Corporation Graphical user interface inline scroll control
US20020018051A1 (en) * 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
US6643824B1 (en) * 1999-01-15 2003-11-04 International Business Machines Corporation Touch screen region assist for hypertext links
AU4186000A (en) * 1999-03-30 2000-11-14 Tivo, Inc. Television viewer interface system
US6631186B1 (en) * 1999-04-09 2003-10-07 Sbc Technology Resources, Inc. System and method for implementing and accessing call forwarding services
US6538665B2 (en) * 1999-04-15 2003-03-25 Apple Computer, Inc. User interface for presenting media information
US7007239B1 (en) * 2000-09-21 2006-02-28 Palm, Inc. Method and apparatus for accessing a contacts database and telephone services
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
CN1392476A (zh) * 2001-06-19 2003-01-22 神基科技股份有限公司 配合多媒体程序执行类似飞梭功能的方法
US6690387B2 (en) * 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
TW591488B (en) * 2002-08-01 2004-06-11 Tatung Co Window scrolling method and device thereof
CN100483403C (zh) * 2002-12-17 2009-04-29 汤姆森许可公司 用于在数字音频播放器中标记和显示歌曲的方法
US6990637B2 (en) * 2003-10-23 2006-01-24 Microsoft Corporation Graphical user interface for 3-dimensional view of a data collection based on an attribute of the data
KR100664111B1 (ko) * 2004-02-06 2007-01-04 엘지전자 주식회사 휴대단말기의 커서 이동장치 및 구조 및 방법
CN100346274C (zh) * 2004-03-25 2007-10-31 升达科技股份有限公司 以起始位置及移动方向定义的输入方法、控制模块及产品
EP1774427A2 (en) * 2004-07-30 2007-04-18 Apple Computer, Inc. Mode-based graphical user interfaces for touch sensitive input devices
JP4763695B2 (ja) * 2004-07-30 2011-08-31 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
JP5158543B2 (ja) * 2004-11-16 2013-03-06 ウオーターズ・テクノロジーズ・コーポレイシヨン 分離を実行するための装置ならびにこの製造および使用方法
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US8341541B2 (en) * 2005-01-18 2012-12-25 Microsoft Corporation System and method for visually browsing of open windows
US8819569B2 (en) * 2005-02-18 2014-08-26 Zumobi, Inc Single-handed approach for navigation of application tiles using panning and zooming

Also Published As

Publication number Publication date
AU2022201622A1 (en) 2022-03-31
CN101529368A (zh) 2009-09-09
CN101535938A (zh) 2009-09-16
CN101535940A (zh) 2009-09-16
CN101529368B (zh) 2012-07-04
CN101356492A (zh) 2009-01-28
CN101529367A (zh) 2009-09-09
CN101529874A (zh) 2009-09-09
CN101529367B (zh) 2016-02-17
CN101356492B (zh) 2012-06-27
AU2023216869A1 (en) 2023-09-07
AU2022201622B2 (en) 2023-05-18
CN101535940B (zh) 2013-06-12
CN101535938B (zh) 2013-05-08
CN101356493A (zh) 2009-01-28

Similar Documents

Publication Publication Date Title
ES2361784T3 (es) Procedimientos para determinar una posición de cursor a partir del contacto de un dedo con una pantalla táctil.
ES2381521T3 (es) Procedimiento para editar en un dispositivo multifunción portátil
ES2377550T3 (es) Gestor de correo de voz para dispositivos multifunción portátiles
EP2336869B1 (en) Methods for determining a cursor position from a finger contact with a touch screen display
US10228824B2 (en) Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content
ES2376788T3 (es) Desplazamiento de listas por pantalla y traslación, escalado y rotación de documentos en una pantalla táctil
KR101085712B1 (ko) 터치 스크린 디스플레이 상에서의 손가락 제스처를 해석하는 휴대용 다기능 장치, 방법, 및 그래픽 사용자 인터페이스
US9575646B2 (en) Modal change based on orientation of a portable multifunction device
JP5658765B2 (ja) 別の装置の表示解像度を持つモードを含む複数のアプリケーション表示モードを有する装置および方法
US8464182B2 (en) Device, method, and graphical user interface for providing maps, directions, and location-based information
US8584031B2 (en) Portable touch screen device, method, and graphical user interface for using emoji characters
TWI503737B (zh) 用於組態一電子器件以解譯來自一鍵盤之按鍵輸入信號的方法、器件及電腦可讀儲存媒體
US8116807B2 (en) Airplane mode indicator on a portable multifunction device
US20080168405A1 (en) Portable Multifunction Device, Method, and Graphical User Interface for Translating Displayed Content
AU2012201240B2 (en) Methods for determining a cursor position from a finger contact with a touch screen display