ES2731627T3 - Gesto de retención y de paso de página de pantalla múltiple - Google Patents

Gesto de retención y de paso de página de pantalla múltiple Download PDF

Info

Publication number
ES2731627T3
ES2731627T3 ES11748029T ES11748029T ES2731627T3 ES 2731627 T3 ES2731627 T3 ES 2731627T3 ES 11748029 T ES11748029 T ES 11748029T ES 11748029 T ES11748029 T ES 11748029T ES 2731627 T3 ES2731627 T3 ES 2731627T3
Authority
ES
Spain
Prior art keywords
screen
page
publication
gesture
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11748029T
Other languages
English (en)
Inventor
Kenneth P Hinckley
Koji Yatani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Application granted granted Critical
Publication of ES2731627T3 publication Critical patent/ES2731627T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)

Abstract

Un método implementado por ordenador (1400), que comprende: reconocer (1402) una entrada de retención de toque (1314) en una primera pantalla (104, 1304) de un sistema de pantalla múltiple (102, 1302), siendo reconocida la entrada de retención de toque (1314) cuando se mantiene para seleccionar una página de la publicación (1310) que se muestra en la primera pantalla (104, 1304); reconocer (1404) una entrada de retención de movimiento (1316) en una segunda pantalla (106, 1306) del sistema de pantalla múltiple (102, 1302), siendo reconocida la entrada de retención de movimiento (1316) mientras que la entrada de retención de toque (1314) permanece en su lugar; y determinar (1406) un gesto de retención y de paso de página (130) a partir de las entradas de retención de toque y de movimiento (1314, 1316) reconocidas, el gesto de retención y de paso de página (130) efectivo para seleccionar la página de la publicación (1310) para su visualización en la primera pantalla (104, 1304) mientras que se pasan una o más páginas de la publicación adicionales (1312, 1322), en respuesta a la entrada de retención de toque, para su visualización en la segunda pantalla (106, 1306), en donde la página de la publicación (1310, 1312, 1322) es cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica.

Description

DESCRIPCIÓN
Gesto de retención y de paso de página de pantalla múltiple
Descripción
Antecedentes
Dispositivos informáticos, tales como ordenadores personales, ordenadores portátiles, ordenadores de sobremesa, dispositivos de entretenimiento y similares, ofrecen cada vez más funciones y características que pueden dificultar que un usuario navegue y seleccione comandos de aplicación que son relevantes para una función que el usuario desea iniciar en un dispositivo. Las técnicas tradicionales para interactuar con los dispositivos informáticos, como un ratón, teclado, y otros dispositivos de entrada, pueden ser menos eficientes a medida que las funciones y características de los dispositivos informáticos continúan aumentando. Un desafío que continúan afrontando los diseñadores de estos dispositivos es cómo incorporar técnicas de interacción que no sólo son intuitivas, sino que permiten al usuario interactuar de manera fácil y rápida con las muchas funciones y características de un dispositivo informático.
El documento EP 2148268 A2 describe métodos, sistemas, y productos de programas informáticos para procesar entradas multitáctiles. Proporciona un método para el reconocimiento continúo de gestos multitáctiles realizados por uno o más usuarios en al menos un dispositivo de entrada multitáctil. En un aspecto, permite a los usuarios comenzar a interactuar con un gesto múltiple y posteriormente realizar cualquier otro gesto multitáctil, si lo desean, sin necesidad de levantar todos los dedos del dispositivo de entrada multitáctil entre cada gesto multitáctil. Por ejemplo, el usuario coloca un dedo en un dispositivo multitáctil A (punto “1”) y un dedo en un dispositivo multitáctil B (punto “2”), preferiblemente utilizando ambas manos para interactuar. Entonces, el usuario los separa para estirar el objeto gráfico.
Resumen
Este resumen se proporciona para introducir conceptos simplificados de gestos de pantalla múltiple. Los conceptos simplificados se describen con detalle a continuación en la Descripción Detallada. Este resumen no pretende identificar las características esenciales del contenido reivindicado, ni pretende su uso en la determinación del alcance del contenido reivindicado.
Se describen realizaciones de un gesto de retención y de paso de página de pantalla múltiple. En varias realizaciones, una entrada de retención se reconoce en una primera pantalla de un sistema de pantalla múltiple, y la entrada de retención se reconoce cuando se mantiene para seleccionar una página de la publicación que se muestra en la primera pantalla. Una entrada de movimiento se reconoce en una segunda pantalla del sistema de pantalla múltiple, y la entrada de movimiento se reconoce mientras que la entrada de retención permanece en su lugar. Un gesto de retención y de paso de página puede entonces determinarse a partir de las entradas de retención y de movimiento reconocidas, y el gesto de retención y de paso de página es efectivo para mantener la visualización de la página de la publicación mientras que una o más páginas de la publicación adicionales se pasan para su visualización en la segunda pantalla. En otras realizaciones, el gesto de retención y de paso de página puede utilizarse para seleccionar la página de la publicación que se muestra en la primera pantalla y lanzar páginas de la publicación (opcionalmente en una dirección de la página de la publicación seleccionada) para mostrar dos páginas de la publicación adicionales, cada una mostrada en la primera y en la segunda pantalla; para mantener la visualización de la página de la publicación que se muestra en la primera pantalla y pasar páginas de la publicación para mostrar una página de la publicación diferente en la segunda pantalla; y/o para mantener la visualización de la página de la publicación que se muestra en la primera pantalla y pasar páginas de la publicación para mostrar una página de la publicación no consecutiva en la segunda pantalla junto con la primera página de la publicación.
Breve descripción de los dibujos
Las realizaciones de gestos de pantalla múltiple se describen con referencia a los siguientes dibujos. Se utilizan los mismos números en todos los dibujos para hacer referencia a características y componentes similares:
La Figura 1 ilustra un entorno de un sistema de pantalla múltiple que puede implementar varias realizaciones de gestos de pantalla múltiple.
La Figura 2 ilustra un sistema de ejemplo con múltiples dispositivos que puede implementar varias realizaciones de gestos de pantalla múltiple para una experiencia de usuario impecable en entornos ubicuos.
La Figura 3 ilustra un ejemplo de gestos de pellizco y de expansión de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 4 ilustra método(s) de ejemplo para gestos de pellizco y de expansión de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 5 ilustra un ejemplo de un gesto de pellizcar para reducir de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 6 ilustra método(s) de ejemplo para un gesto de pellizcar para reducir de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 7 ilustra un ejemplo de un gesto de doble toque de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 8 ilustra método(s) de ejemplo para un gesto de doble toque de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 9 ilustra un ejemplo de un gesto de retención y de toque de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 10 ilustra método(s) de ejemplo para un gesto de retención y de toque de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 11 ilustra un ejemplo de un gesto de retención y de arrastre de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 12 ilustra método(s) de ejemplo para un gesto de retención y de arrastre de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 13 ilustra un ejemplo de un gesto de retención y de paso de página de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 14 ilustra método(s) de ejemplo para un gesto de retención y de paso de página de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 15 ilustra un ejemplo de un gesto de retención de marcador de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 16 ilustra método(s) de ejemplo para un gesto de retención de marcador de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 17 ilustra un ejemplo de un gesto de retención del objeto y de cambio de página de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 18 ilustra método(s) de ejemplo para un gesto de retención del objeto y de cambio de página de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 19 ilustra un ejemplo de un gesto de deslizamiento síncrono de pantalla múltiple en un sistema de pantalla múltiple.
La Figura 20 ilustra método(s) de ejemplo para un gesto de deslizamiento síncrono de pantalla múltiple de acuerdo con una o más realizaciones.
La Figura 21 ilustra componentes de un dispositivo de ejemplo que puede implementar varias realizaciones de gestos de pantalla múltiple.
Descripción detallada
Las realizaciones de gestos de pantalla múltiple proporcionan que un usuario de uno o más dispositivos informáticos en un sistema de pantalla múltiple pueda proporcionar entradas en más de una pantalla del sistema para iniciar las funciones del dispositivo informático. En varias realizaciones de gestos de pantalla múltiple, un sistema de pantalla múltiple incluye dos o más pantallas que pueden implementarse como dispositivos independientes, o integradas en un único dispositivo de pantalla múltiple. Un usuario puede ingresar cualquier tipo de distintas entradas o combinaciones de entradas, como entradas de selección, de retención, de movimiento, de contacto, y/o de toque que son reconocidas en múltiples pantallas de un sistema de pantalla múltiple o dispositivo de pantalla múltiple. Un gesto de pantalla múltiple puede entonces reconocerse a partir de una combinación de las distintas entradas para iniciar una función del dispositivo informático. En consecuencia, los gestos de pantalla múltiple proporcionan que el usuario pueda proporcionar las distintas entradas a un sistema o dispositivo de pantalla múltiple de una manera intuitiva, en lugar de utilizar las técnicas convencionales para ingresar comandos a un dispositivo informático.
En distintas realizaciones, los gestos de pantalla múltiple pueden implementarse por un dispositivo informático que tiene múltiples pantallas. Alternativamente, los gestos de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple de dos o más pantallas que pueden no estar físicamente conectadas o integradas en un único dispositivo, sino que están vinculadas de manera comunicativa como a través de una conexión de datos o de red. Un sistema de pantalla múltiple puede incluir múltiples dispositivos de pizarra o de mano independientes que pueden descubrirse automáticamente entre sí, están emparejados explícitamente por un usuario, o están ubicados de otro modo en la proximidad física temporal.
En distintos ejemplos de gestos de pantalla múltiple, un gesto de pellizco de pantalla múltiple puede utilizarse para condensar un objeto visualizado en múltiples pantallas de un sistema o dispositivo de pantalla múltiple. Alternativamente, un gesto de expansión de pantalla múltiple puede utilizarse para expandir un objeto visualizado para su visualización en múltiples pantallas de un sistema o dispositivo de pantalla múltiple. Los gestos de pellizco y de expansión de pantalla múltiple pueden también hacer zoom, semánticamente, a través de diferentes niveles de una arquitectura de información asociada con una visualización, un objeto y/o una aplicación. Un gesto de pellizcar para reducir de pantalla múltiple puede utilizarse para reducir un objeto visualizado, como para guardar el objeto visualizado como una imagen en miniatura debajo de un bisel de un sistema o dispositivo de pantalla múltiple.
Un gesto de doble toque de pantalla múltiple puede utilizarse para expandir o reducir un objeto visualizado que se muestra en múltiples pantallas de un sistema o dispositivo de pantalla múltiple. Por ejemplo, un objeto visualizado puede expedirse para su visualización a pantalla completa en la primera y en la segunda pantalla cuando se determina un gesto de doble toque mientras que el objeto visualizado está reducido. Alternativamente, un objeto visualizado puede reducirse cuando se determina un gesto de doble toque mientras que el objeto visualizado se muestra a pantalla completa en la primera y en la segunda pantalla.
Un gesto de retención y de toque de pantalla múltiple puede utilizarse para mover y/o copiar un objeto visualizado desde una ubicación mostrada a otra, como mover o copiar un objeto a una página de la publicación, o incorporar el objeto a un cuaderno. Un gesto de retención y de arrastre de pantalla múltiple puede utilizarse para mantener una visualización de una primera parte de un objeto visualizado en una pantalla y arrastrar una segunda parte del objeto visualizado que se muestra en otra pantalla para reducir la segunda parte del objeto visualizado para una vista de pantalla dividida. Alternativamente, un gesto de retención y de arrastre puede utilizarse para mantener una visualización de una primera parte del objeto visualizado en una pantalla y arrastrar una segunda parte reducida del objeto visualizado para expandir la visualización en otra pantalla.
Un gesto de retención y de paso de página de pantalla múltiple puede utilizarse para seleccionar una página de la publicación que se muestra en una pantalla y pasar páginas de la publicación para mostrar dos adicionales o nuevas páginas de la publicación, al igual que pasar páginas en un libro. Las páginas de la publicación se pasan en una dirección de la página de la publicación seleccionada para mostrar las dos nuevas páginas de la publicación, al igual que pasar páginas hacia adelante o hacia atrás en un libro. Alternativamente, un gesto de retención y de paso de página puede utilizarse para mantener la visualización de una página de la publicación que se muestra en una pantalla y pasar páginas de la publicación para mostrar una página de la publicación diferente en otra pantalla. Pueden entonces mostrarse páginas de la publicación no consecutivas una al lado de la otra, lo que para un libro, implicaría arrancar una página del libro para colocarla en un orden de página no consecutivo para verla junto con la otra página.
Un gesto de retención de marcador de pantalla múltiple puede utilizarse para marcar una página de la publicación en una ubicación de una entrada de retención a la página de la publicación en una pantalla, y pueden pasarse páginas de la publicación adicionales para su visualización mientras se mantiene el marcador para la página de la publicación. Un gesto de retención de marcador imita la acción de un lector que sostiene un pulgar o un dedo entre las páginas para guardar un lugar en un libro mientras que hojea otras páginas del libro. Además, un marcador es un enlace seleccionable que regresa a la página de la publicación, y una entrada de selección del marcador retrocede para mostrar la página de la publicación en la pantalla. Un gesto de retención del objeto y de cambio de página de pantalla múltiple puede utilizarse para mover y/o copiar un objeto visualizado desde una ubicación mostrada a otra, como para incorporar un objeto visualizado para su visualización en una página de la publicación. Además, una posición de visualización relativa puede mantenerse cuando un objeto visualizado se mueve o copia desde una ubicación mostrada a otra.
Un gesto de deslizamiento síncrono de pantalla múltiple puede utilizarse para mover un objeto visualizado desde una pantalla para su visualización en otra pantalla, para reemplazar con diferentes objetos visualizados los objetos visualizados en las pantallas del dispositivo, para mover los objetos visualizados para revelar un espacio de trabajo en las pantallas del dispositivo, y/o para recorrer uno o más espacios de trabajo (p. ej., aplicaciones, interfaces, etc.) que se muestran en las pantallas del sistema o dispositivo. Un gesto de deslizamiento síncrono puede también utilizarse para navegar a vistas adicionales, o para resignar una vista actual a una pantalla diferente. Además, diferentes aplicaciones y espacios de trabajo pueden mantenerse en una pila y recorrerse, hacia adelante y hacia atrás, con gestos de deslizamiento síncronos.
Mientras que las características y conceptos de los sistemas y métodos descritos para gestos de pantalla múltiple pueden implementarse en cualquier número de diferentes entornos, sistemas y/o distintas configuraciones, se describen realizaciones de gestos de pantalla múltiple en el contexto de los siguientes sistemas y entornos de ejemplo.
La Figura 1 ilustra un entorno 100 en una implementación de ejemplo que se puede operar para emplear técnicas de gestos de pantalla múltiple. El entorno ilustrado 100 incluye un ejemplo de un dispositivo informático 102 que puede configurarse en una variedad de formas, como cualquier tipo de ordenador o dispositivo de pantalla múltiple. Por ejemplo, el dispositivo informático 102 puede configurarse como un ordenador (p. ej., una computadora portátil, un ordenador portátil, una tablet PC, un ordenador de sobremesa, etcétera), una estación móvil, un dispositivo de entretenimiento, un dispositivo de juego, y así sucesivamente como se describe con más detalle con referencia a la Figura 2. El dispositivo informático 102 puede también implementarse con software que hace que el dispositivo informático 102 realice una o más operaciones.
En este entorno de ejemplo 100, el dispositivo informático 102 es un dispositivo de pantalla múltiple que incluye un primera pantalla 104 y una segunda pantalla 106, que pueden cada una implementarse como cualquier tipo de dispositivo de visualización, sistema de visualización, y/o pantalla táctil. La primera y segunda pantallas pueden mostrar cualquier tipo de fondo o escritorio, así como interfaces de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotografías, imágenes, gráficas, textos, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). La primera y la segunda pantalla también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica.
El dispositivo informático 102 incluye un módulo de gestos 108 que es representativo de una funcionalidad para determinar gestos y hacer que se realicen las operaciones que corresponden a los gestos. El dispositivo informático también incluye un sistema de reconocimiento de entradas 110 implementado para reconocer distintas entradas o combinaciones de entradas, como una entrada de selección, una entrada de retención, una entrada de movimiento, una entrada de contacto, una entrada de toque, y similares. El sistema de reconocimiento de entradas 110 puede incluir cualquier tipo de características de detección de entradas para distinguir los distintos tipos de entradas, como sensores, píxeles de detección de luz, sensores táctiles, cámaras, y/o una interfaz natural de usuario que interpreta las interacciones, gestos, entradas y movimientos del usuario. En implementaciones, el sistema de reconocimiento de entradas 110 puede detectar entradas de movimiento en la primera o en la segunda pantalla a partir de variables discernibles, como a partir de una variable de dirección (p. ej., derecha a izquierda o viceversa); a partir de variables de posición de la región de inicio (p. ej., izquierda1, arriba1, derecha1, abajo1) y de variables de posición de la región de fin (p. ej., izquierda2, arriba2, derecha2, abajo2); y/o a partir de una variable de velocidad de movimiento (p. ej., un número particular de píxeles por segundo).
El sistema de reconocimiento de entradas 110 reconoce los distintos tipos de entradas, y el módulo de gestos 108 identifica o determina un gesto de pantalla múltiple a partir de las entradas reconocidas. Por ejemplo, el sistema de reconocimiento de entradas 110 puede reconocer una primera entrada en la primera pantalla 104, como una entrada de toque 112, y reconocer una segunda entrada en la segunda pantalla 106, como una entrada de selección 114. El módulo de gestos 108 puede entonces determinar un tipo de gesto de pantalla múltiple a partir de las entradas de toque y de selección reconocidas. Una entrada en la primera o en la segunda pantalla también puede reconocerse como atributos incluidos (p. ej., movimiento, un punto de selección, etc.) que diferencian un tipo de entrada de otra entrada como reconocida por el sistema de reconocimiento de entradas 110. Esta diferenciación puede entonces servir como una base para identificar o determinar una entrada de movimiento a partir de una entrada de toque, y por consiguiente una operación que se realizará basada en una determinación del gesto correspondiente. En implementaciones, el dispositivo informático 102 puede incluir una base de datos de gestos que incluye distintas representaciones determinables de gestos, entradas, y/o movimientos definibles a partir de los cuales el módulo de gestos 108 puede determinar o identificar un gesto de pantalla múltiple.
El dispositivo informático 102 también puede implementarse para reconocer y diferenciar entre las distintas entradas, como una entrada de toque y una entrada de lápiz óptico. La diferenciación puede realizarse en una variedad de formas, como reconociendo el tamaño de una entrada de dedo contra el tamaño de una entrada de lápiz óptico. La diferenciación también puede realizarse a través del uso de una cámara para distinguir una entrada de toque (p. ej., sosteniendo uno o más dedos), una entrada de lápiz óptico (p. ej., sosteniendo dos dedos juntos para indicar un punto), o una entrada a través de una interfaz natural de usuario (NUI). Se contemplan una variedad de otras técnicas para distinguir los distintos tipos de entradas.
Una variedad de diferentes tipos de entradas puede reconocerse por el sistema de reconocimiento de entradas 110, y una variedad de gestos diferentes puede determinarse por el módulo de gestos 108, como gestos que son reconocidos como un solo tipo de entrada así como gestos que involucran múltiples tipos de entradas. En consecuencia, el módulo de gestos 108 del dispositivo informático 102 puede incluir un módulo de entrada bimodal 116 que es representativo de la funcionalidad para reconocer entradas e identificar o determinar gestos que involucran entradas bimodales. El módulo de gestos 108 puede soportar una variedad de diferentes técnicas de gestos reconociendo y aprovechando diferentes tipos de entradas a través del uso del módulo de entrada bimodal 116. Por ejemplo, el módulo de entrada bimodal 116 puede configurarse para reconocer un lápiz óptico como una herramienta de escritura, mientras que el toque se emplea para manipular los objetos visualizados en la primera y en la segunda pantalla. Debe señalarse que diferenciando entre la variedad de tipos de entradas, el número de gestos que son posibles por cada una de estas entradas solas también se incrementa.
En consecuencia, el módulo de gestos 108 puede soportar una variedad de gestos de pantalla múltiple 118 diferentes, tanto bimodales como de otra manera. Ejemplos de gestos de pantalla múltiple 118 descritos en la presente memoria incluyen gestos de pellizco y expansión 120, un gesto de pellizcar para reducir 122, un gesto de doble toque 124, un gesto de retención y de toque 126, un gesto de retención y de arrastre 128, un gesto de retención y de paso de página 130, un gesto de retención de marcador 132, un gesto de retención del objeto y de cambio de página 134, y un gesto de desplazamiento síncrono 136. Cada uno de estos gestos de pantalla múltiple diferentes se describe en una sección correspondiente en el siguiente debate. Aunque cada gesto de pantalla múltiple se describe en una sección diferente, debe ser evidente que las características de estos gestos pueden combinarse y/o separarse para soportar gestos adicionales. Por lo tanto, la descripción no se limita a estos ejemplos. Además, aunque el siguiente debate puede describir ejemplos específicos de entradas de selección, de retención, de movimiento, de contacto, y de toque, los distintos tipos de entradas pueden cambiarse en diferentes casos (p. ej., una entrada de toque puede utilizarse como una entrada de selección, y viceversa) y/o ambas entradas pueden proporcionarse con la misma entrada sin salirse del alcance de la misma.
El entorno ilustrado 100 también incluye un ejemplo de un sistema de pantalla múltiple 138 que incluye dos (o más) dispositivos que tienen cada uno una pantalla, como un primer dispositivo 140 que tiene una pantalla 142, y un segundo dispositivo 144 que tiene una pantalla 146. Las pantallas no están físicamente conectadas o integradas en un solo dispositivo, sino que están vinculadas de manera comunicativa como a través de una conexión de datos o de red. Un sistema de pantalla múltiple puede incluir múltiples dispositivos de pizarra o de mano independientes que pueden descubrirse automáticamente entre sí, están emparejados explícitamente por un usuario, o están ubicados de otro modo en la proximidad física temporal. En una implementación, un sistema de pantalla múltiple también puede incluir un dispositivo de pantalla múltiple. El primer dispositivo 140 y el segundo dispositivo 144 del sistema de pantalla múltiple 138 puede cada uno configurarse como se describe con referencia al dispositivo informático 102 en cualquier forma de un ordenador (p. ej., una computadora portátil, un ordenador portátil, una tablet PC, un ordenador de sobremesa, etcétera), una estación móvil, un dispositivo de entretenimiento, una dispositivo de juego, y así sucesivamente.
La Figura 2 ilustra un sistema de ejemplo 200 que incluye el dispositivo informático 102 como se describe con referencia a la Figura 1. El sistema de ejemplo 200 permite entornos ubicuos para una experiencia de usuario impecable cuando se ejecutan aplicaciones en un ordenador personal (PC), un dispositivo de televisión, y/o un dispositivo móvil. Los servicios y las aplicaciones se ejecutan de manera sustancialmente similar en los tres entornos para una experiencia de usuario común cuando se realiza la transición de un dispositivo al siguiente mientras que se utiliza una aplicación, se juega a un videojuego, se ve un vídeo, etcétera.
En el sistema de ejemplo 200, se interconectan múltiples dispositivos a través de un dispositivo informático central. El dispositivo informático central puede ser local a los múltiples dispositivos o puede estar ubicado a distancia de los múltiples dispositivos. En una realización, el dispositivo informático central es una granja de servidores en la “nube”, que comprende uno o más equipos servidores que se conectan a los múltiples dispositivos a través de una red, Internet, u otro enlace de comunicación de datos. En una realización, esta arquitectura de interconexión permite que la funcionalidad se entregue a través de múltiples dispositivos para proporcionar una experiencia común e impecable a un usuario de los múltiples dispositivos. Cada uno de los múltiples dispositivos puede tener diferentes requisitos y capacidades físicas, y el dispositivo informático central utiliza una plataforma para permitir la entrega de una experiencia al usuario que tanto se adapta al dispositivo, como a la vez es común a todos los dispositivos. En una realización, se crea una clase de dispositivos objetivo y las experiencias se adaptan a la clase genérica de los dispositivos. Una clase de dispositivos puede definirse por características físicas, tipos de uso, u otras características comunes de los dispositivos.
En varias implementaciones, el dispositivo informático 102 puede asumir una variedad de configuraciones diferentes, como para uso informático 202, móvil 204, y de televisión 206. Cada una de estas configuraciones incluye dispositivos que pueden tener construcciones y capacidades generalmente diferentes, y así el dispositivo informático 102 puede configurarse según una o más de las diferentes clases de dispositivo. Por ejemplo, el dispositivo informático 102 puede implementarse como la clase de dispositivo informático 202 que incluye un ordenador personal, un ordenador de escritorio, un ordenador de sobremesa de pantalla múltiple, una computadora portátil, un ordenador portátil, etcétera. El dispositivo informático 102 también puede implementarse como la clase de dispositivo móvil 204 que incluye dispositivos móviles, como un teléfono móvil, un reproductor de música portátil, un dispositivo de juego portátil, una tablet, una tablet de pantalla múltiple, etcétera. El dispositivo informático 102 también puede implementarse como la clase de dispositivo de televisión 206 que incluye dispositivos que tienen o están conectados a pantallas generalmente más grandes en entornos de visualización ocasionales. Estos dispositivos incluyen televisiones, decodificadores, consolas de juegos, etcétera. Las técnicas descritas en la presente memoria pueden ser soportadas por estas distintas configuraciones del dispositivo informático 102 y no se limitan a los ejemplos específicos de gestos de pantalla múltiple descritos en las siguientes secciones.
La nube 208 incluye y/o es representativa de una plataforma 210 para servicios basados en el servidor 212. La plataforma 210 abstrae la funcionalidad subyacente del hardware (p. ej., servidores) y de los recursos software de la nube 208. Los servicios basados en el servidor 212 pueden incluir aplicaciones y/o datos que pueden utilizarse mientras que todo o la mayor parte del procesamiento informático se ejecuta en servidores que están alejados del dispositivo informático 102. Los servicios basados en el servidor pueden proporcionarse como un servicio sobre Internet y/o a través de una red de abonado, como una red móvil o WiFi.
La plataforma 210 puede abstraer recursos y funciones para conectar el dispositivo informático 102 con otros dispositivos informáticos. La plataforma 210 también puede servir para abstraer el escalamiento de recursos para proporcionar un nivel de escala correspondiente a la demanda encontrada para los servicios basados en el servidor 212 que se implementan a través de la plataforma 210. En consecuencia, en una realización de dispositivo interconectado, la implementación de la funcionalidad del módulo de gestos 108 puede distribuirse por todo el sistema 200. Por ejemplo, el módulo de gestos 108 puede implementarse en parte en el dispositivo informático 102 así como a través de la plataforma 210 que abstrae la funcionalidad de la nube 208.
Además, la funcionalidad puede estar soportada por el dispositivo informático 102 en una cualquiera o más de las configuraciones. Por ejemplo, las técnicas de gestos de pantalla múltiple soportadas por el módulo de gestos 108 y el sistema de reconocimiento de entradas 110 pueden reconocerse utilizando la funcionalidad de panel táctil en la configuración de ordenador 202, la funcionalidad de pantalla táctil en la configuración móvil 204, y/o reconocerse por una cámara como parte de una interfaz natural de usuario (NUI) que no implica contacto con un dispositivo de entrada específico en la configuración de televisión 206. Además, el rendimiento de las operaciones para detectar y reconocer las entradas para identificar o determinar un gesto de pantalla múltiple particular puede distribuirse por todo el sistema 200, como por el dispositivo informático 102 y/o los servicios basados en el servidor 212 soportados por la plataforma 210 de la nube 208.
Además de las secciones siguientes que describen los distintos gestos de pantalla múltiple, también se describen métodos de ejemplo con referencia a las figuras respectivas de acuerdo con distintas realizaciones de gestos de pantalla múltiple. En general, cualquiera de las funciones, métodos, procedimientos, componentes, y módulos descritos en la presente memoria puede implementarse utilizando software, firmware, hardware (p. ej., circuitos de lógica fija), procesamiento manual, o cualquier combinación de las mismas. Una implementación software representa código de programa que realiza tareas específicas cuando se ejecuta mediante un procesador informático. Los métodos de ejemplo pueden describirse en el contexto general de las instrucciones ejecutables por ordenador, que pueden incluir software, aplicaciones, rutinas, programas, objetos, componentes, estructuras de datos, procedimientos, módulos, funciones, y similares. El código de programa puede almacenarse en uno o más dispositivos de memoria legible por ordenador, tanto local como/o remoto a un procesador informático. Los métodos también pueden practicarse en un entorno informático distribuido por múltiples dispositivos informáticos. Además, las características descritas en la presente memoria son independientes de la plataforma y puede implementarse en una variedad de plataformas informáticas que tienen una variedad de procesadores.
Gestos de pellizco y de expansión de pantalla múltiple
La Figura 3 ilustra ejemplos 300 de gestos de pellizco y de expansión de pantalla múltiple en un sistema de pantalla múltiple 302, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 302 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs. 1 y 2. En este ejemplo, el sistema de pantalla múltiple 302 incluye una primera pantalla 304 y una segunda pantalla 306, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 302 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, las realizaciones de gestos de pellizco y de expansión de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de pellizco de pantalla múltiple puede utilizarse para condensar un objeto visualizado en múltiples pantallas de un sistema de pantalla múltiple. Alternativamente, un gesto de expansión de pantalla múltiple puede utilizarse para expandir un objeto visualizado para su visualización en múltiples pantallas del sistema de pantalla múltiple. En la primera vista 308 del sistema de pantalla múltiple 302, una primera página de la publicación 310 se muestra en la primera pantalla 304, y una segunda página de la publicación 312 se muestra en la segunda pantalla 306. El sistema de reconocimiento de entradas 110 se implementa para reconocer una primera entrada 314 en la primera pantalla 304, donde la primera entrada también incluye una primera entrada de movimiento 316. El sistema de reconocimiento de entradas 110 también puede reconocer una segunda entrada 318 en la segunda pantalla 306, donde la segunda entrada también incluye una segunda entrada de movimiento 320, y la segunda entrada se reconoce aproximadamente cuando se reconoce la primera entrada.
El módulo de gestos 108 se implementa para determinar el gesto de pellizco de pantalla múltiple a partir de las entradas de movimiento 316, 320 que están asociadas con las entradas primera y segunda 314, 318 reconocidas. El gesto de pellizco puede identificarse como una combinación de pantalla cruzada de las entradas de movimiento primera y segundas que son efectivas para condensar las páginas de la publicación 310, 312 mostradas. En una implementación, el sistema de reconocimiento de entradas 110 puede reconocer que una distancia entre las entradas primera y segunda cambia (p. ej., disminuye) con las entradas de movimiento. El cambio en la distancia también puede tener umbrales de distancia mínima. El módulo de gestos 108 puede entonces determinar el gesto de pellizco a partir de una disminución en la distancia entre las entradas primera y segunda.
En algunos ejemplos, un gesto de pellizco de pantalla múltiple se determina cuando las entradas de movimiento gestual se reconocen dentro de una zona o región definida cerca del borde compartido por las pantallas, como un bisel que separa la primera y la segunda pantalla en un dispositivo de pantalla múltiple. La zona o región cerca del bisel pude definirse como una distancia mínima desde el borde o rectángulo delimitador donde se reconoce un gesto de pellizco. En otros ejemplos los segmentos de un gesto de pellizco pueden reconocerse gradualmente, como cuando un gesto de pellizco se compone de: entradas síncronas aproximadas (p. ej., contactos táctiles) en bordes adyacentes; la primera entrada 314 se mantiene mientras que la segunda entrada de movimiento 320 se desliza hacia el bisel (p. ej., un dedo sosteniendo mientras que el otro dedo se desliza hacia el borde común); o levantamientos síncronos aproximados de ambos dedos que resultan en un gesto de pellizco compuesto. Además, un usuario puede ingresar gestos de expansión y de pellizco en direcciones opuestas de ida y vuelta entre los estados del gesto hasta que levante la primera y la segunda entradas. Similar a un gesto de doble toque en una interfaz de usuario, las aplicaciones pueden subscribirse a un gesto de pellizco y/o de expansión compuesto de alto nivel que incluye algunos o todos los segmentos del gesto.
La segunda vista 322 del sistema de pantalla múltiple 302 ilustra una transición de las páginas de la publicación 310, 312 siendo condensadas a partir de una posición original 324 en una dirección 326 en respuesta al gesto de pellizco. La tercera vista 328 del sistema de pantalla múltiple 302 ilustra las páginas de la publicación 310, 312 condensadas para su visualización. El gesto de pellizco da la apariencia de alejamiento cuando se condensa un objeto visualizado. En este ejemplo, el gesto de pellizco condensa las páginas de la publicación, alejándose en un escritorio virtual 330 en el sistema de pantalla múltiple 302. El escritorio virtual 330 puede utilizarse como un espacio para navegar a otras publicaciones o libros, arrastrar objetos visualizados entre las páginas de la publicación, o dejar recordatorios como notas publicadas y listas de tareas pendientes que son visibles para un rápido acceso fuera de cualquier cuaderno, libro electrónico, publicación, o documento individual en particular. Las vistas navegables alternativas pueden incluir: una vista organizativa de imágenes en miniatura de múltiples páginas de un cuaderno (p. ej., una “vista de mesa de luz”); una versión minimizada o reducida del cuaderno actual con múltiples páginas, pestañas de páginas, y/o marcadores que sobresalen del cuaderno, y un entorno similar al escritorio virtual 330 (p. ej., una “vista de mariposa”); una “vista de biblioteca” a través de múltiples libros y/o publicaciones; o una pantalla de inicio.
A partir de la tercera vista 328, un gesto de expansión de pantalla múltiple puede utilizarse para volver a la vista de pantalla completa de las páginas de la publicación, como se muestra en la primera vista 308. El módulo de gestos 108 se implementa también para determinar el gesto de expansión de pantalla múltiple que puede identificarse como una combinación de pantalla cruzada de entradas de movimiento que son efectivas para expandir las páginas de la publicación 310, 312 a partir de la visualización condensada mostrada en la tercera vista 328 del sistema de pantalla múltiple. En una implementación, el sistema de reconocimiento de entradas 110 puede reconocer que una distancia entre las entradas cambia (p. ej., aumenta) con las entradas de movimiento. El módulo de gestos 108 puede entonces determinar el gesto de expansión a partir de un incremento en la distancia entre las entradas. Una transición desde la tercera vista 328 de vuelta a la primera vista 308 del sistema de pantalla múltiple 302 ilustra que las páginas de la publicación 310, 312 se expanden para su visualización a pantalla completa en la primera y en la segunda pantalla. El gesto de expansión da la apariencia de acercamiento cuando se expande un objeto visualizado.
Debe señalarse que las representaciones de la primera y de la segunda entrada, así como las indicaciones de las direcciones de movimiento, son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan los ejemplos descritos. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple. Además, también se contempla un gesto de pellizco o de expansión de pantalla múltiple de tres-, cuatro-, o cinco- dedos que se extiende a dos o más pantallas, como son los gestos de estiramiento y de compresión a dos manos que pueden reconocerse y determinarse a partir de múltiples entradas de dedo y/o de contacto.
La Figura 4 ilustra método(s) de ejemplo 400 de gestos de pellizco y de expansión de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 402, se reconoce una primera entrada en una primera pantalla de un sistema de pantalla múltiple, incluyendo la primera entrada una primera entrada de movimiento. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la primera entrada 314 en la primera pantalla 304 del sistema de pantalla múltiple 302, incluyendo la primera entrada la primera entrada de movimiento 316. En el bloque 404, se reconoce una segunda entrada en una segunda pantalla del sistema de pantalla múltiple, incluyendo la segunda entrada una segunda entrada de movimiento. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la segunda entrada 318 en la segunda pantalla 306, incluyendo la segunda entrada la segunda entrada de movimiento 320, y siendo reconocida la segunda entrada aproximadamente cuando se reconoce la primera entrada. Alternativamente o además, la primera entrada 314 en la primera pantalla 304 puede iniciar un tiempo muerto (p. ej., 500 ms) con el sistema de reconocimiento de entradas 110 después de que se procese la primera entrada para otros gestos de pantalla simple si no se proporciona la segunda entrada.
En el bloque 406, se reconoce un cambio en la distancia entre la primera y la segunda entrada basado en las entradas de movimiento primera y segunda. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce que una distancia entre la primera y la segunda entrada 314, 318 cambia (p. ej., aumenta o disminuye) con las entradas de movimiento. En el bloque 408, se determina si el cambio de distancia entre la primera y la segunda entrada es una disminución en la distancia.
Si la distancia disminuye entre la primera y la segunda entrada (es decir, “sí” a partir del bloque 408), entonces en el bloque 410, se determina un gesto de pellizco, que da la apariencia de alejamiento cuando se condensa un objeto visualizado. Por ejemplo, el módulo de gestos 108 determina el gesto de pellizco basado en las entradas de movimiento primera y segunda que disminuyen la distancia entre la primera y la segunda entrada. El gesto de pellizco puede identificarse como una combinación de pantalla cruzada de las entradas de movimiento primera y segunda que son efectivas para condensar un objeto visualizado, como las páginas de la publicación 310, 312 mostradas. El gesto de pellizco da la apariencia de alejamiento cuando se condensa un objeto visualizado.
Si la distancia aumenta entre la primera y la segunda entrada (es decir, “no” a partir del bloque 408), entonces en el bloque 412, se determina un gesto de expansión, que da la apariencia de acercamiento cuando se expande un objeto visualizado. Por ejemplo, el módulo de gestos 108 determina el gesto de expansión basado en las entradas de movimiento primera y segunda que aumentan la distancia entre la primera y la segunda entrada. El gesto de expansión puede identificarse como una combinación de pantalla cruzada de las entradas de movimiento primera y segunda que son efectivas para expandir un objeto visualizado, como cuando las páginas de la publicación 310, 312 se expanden para su visualización a pantalla completa en la primera y en la segunda pantalla del sistema de pantalla múltiple 302.
Gesto de pellizcar para reducir de pantalla múltiple
La Figura 5 ilustra ejemplos 500 de un gesto de pellizcar para reducir de pantalla múltiple en un sistema de pantalla múltiple 502, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 502 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs. 1 y 2. En este ejemplo, el sistema de pantalla múltiple 502 incluye una primera pantalla 504 y una segunda pantalla 506, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 502 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, los ejemplos de un gesto de pellizcar para reducir de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de pellizcar para reducir de pantalla múltiple puede utilizarse para reducir un objeto visualizado, como para guardar el objeto visualizado como una imagen en miniatura bajo un bisel de un sistema de pantalla múltiple. En la primera vista 508 del sistema de pantalla múltiple 502, una primera página de la publicación 510 se muestra en la primera pantalla 504, y una segunda página de la publicación 512 se muestra en la segunda pantalla 506. El sistema de reconocimiento de entradas 110 se implementa para reconocer una primera entrada de movimiento 514 a una primera región de pantalla 516 en la primera pantalla 504, donde la primera entrada de movimiento se reconoce cuando se selecciona la primera página de la publicación 510. El sistema de reconocimiento de entradas 110 puede también reconocer una segunda entrada de movimiento 518 a una segunda región de pantalla 520 en la segunda pantalla 506, donde la segunda entrada de movimiento se reconoce cuando se selecciona la segunda página de la publicación 512. La primera región de pantalla 516 de la primera pantalla 504 y la segunda región de pantalla 520 de la segunda pantalla 504 se muestran en una segunda vista 522 del sistema de pantalla múltiple 502.
El módulo de gestos 108 se implementa para determinar el gesto de pellizcar para reducir a partir de las entradas de movimiento 514, 518 reconocidas. El gesto de pellizcar para reducir puede identificarse como una combinación de pantalla cruzada de las entradas de movimiento primera y segunda que son efectivas para condensar las páginas de la publicación 510, 512 mostradas dentro de las regiones de pantalla primera y segunda 516, 520 y reducir las páginas de la publicación cerca de un bisel 524 que separa la primera y la segunda pantalla. Opcionalmente, el módulo de gestos 108 también puede determinar el gesto de pellizcar para reducir a partir de las entradas de movimiento primera y segunda 514, 518 que disminuyen una distancia entre una primera entrada a la página de la publicación 510 en la primera pantalla 504 y una segunda entrada a la segunda página de la publicación 512 en la segunda pantalla 506.
La segunda vista 522 del sistema de pantalla múltiple 502 ilustra una transición de las páginas de la publicación 510, 512 siendo condensadas a partir de una posición original 526 en una dirección 528 en respuesta al gesto de pellizcar para reducir. La tercera vista 530 del sistema de pantalla múltiple 502 ilustra el objeto visualizado (p. ej., las páginas de la publicación) reducido cerca del bisel 524 y guardado como una imagen en miniatura 532 para su visualización. En este ejemplo, se muestra más del escritorio virtual 534, y cualquiera de los otros objetos visualizados en el escritorio son accesibles mientras las páginas de la publicación están reducidas como la imagen en miniatura 532. En otro ejemplo, el objeto visualizado 536 (p. ej., mostrado visualizado como un boceto del texto “celo” en el dispositivo informático 102 en la Figura 1) se reduce bajo el bisel 524 del sistema de pantalla múltiple 502.
Cuando los objetos visualizados están reducidos para mostrar el escritorio virtual 534 para acceder a los muchos otros objetos visualizados, un usuario puede intercalar múltiples tareas en múltiples publicaciones o vistas de aplicación, y luego regresar fácilmente a los artículos reducidos. Además, un artículo reducido puede colocarse en una libreta o página de la publicación de una libreta abierta para incorporar el artículo en el contexto de otro trabajo y anotaciones.
En varios ejemplos un gesto de pellizcar para reducir de pantalla múltiple puede utilizarse como un mecanismo general para realizar múltiples tareas entre diferentes conjuntos de trabajo de vistas de pantalla y/o aplicaciones. Por ejemplo, si un navegador Web se muestra en la primera pantalla 504 y una página de la publicación se muestra en la segunda pantalla 506, entonces un usuario puede pellizcar para reducir ese emparejamiento de vistas de pantalla. Un usuario puede también pellizcar para reducir múltiples vistas de pantalla, en ese caso el conjunto de vistas reducidas a lo largo del bisel 524 del dispositivo aparece como una barra de tareas a partir de la cual el usuario puede alternar entre diferentes aplicaciones y vistas.
En los ejemplos, la imagen en miniatura 532 de las páginas de la publicación se guarda en un portapapeles visual cuando se reduce. Además, la imagen en miniatura 532 puede mostrarse en la primera y/o en la segunda pantalla como un enlace seleccionable a las páginas de la publicación cuando el objeto visualizado está reducido. A partir de esta tercera vista 530, el sistema de reconocimientos de entradas 110 puede reconocer una entrada de selección que el módulo de gestos 108 determina como un gesto de toque en la imagen en miniatura 532 que es efectivo para expandir las páginas de la publicación 510, 512 para su visualización en la primera y en la segunda pantalla, como se muestra en la primera vista 508 del sistema de pantalla múltiple 502.
Debe señalarse que las representaciones de la primera y de la segunda entrada y las indicaciones de las direcciones de movimiento, así como las regiones de pantalla, son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan los ejemplos descritos. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple.
La Figura 6 ilustra método(s) de ejemplo 600 de un gesto de pellizcar para reducir de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 602, se reconoce una primera entrada de movimiento a una primera región de pantalla en una primera pantalla de un sistema de pantalla múltiple, siendo reconocida la primera entrada de movimiento para seleccionar un objeto visualizado. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la primera entrada de movimiento 514 a la primera región de pantalla 516 en la primera pantalla 504, y la primera entrada de movimiento se reconoce cuando se selecciona la primera página de la publicación 510. En el bloque 604, se reconoce una segunda entrada de movimiento a una segunda región de pantalla en una segunda pantalla del sistema de pantalla múltiple, siendo reconocida la segunda entrada de movimiento para seleccionar el objeto visualizado. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la segunda entrada de movimiento 518 a la segunda región de pantalla 520 en la segunda pantalla 506, y la segunda entrada de movimiento se reconoce cuando se selecciona la segunda página de la publicación 512.
En el bloque 606, se determina un gesto de pellizcar para reducir a partir de las entradas de movimiento primera y segunda reconocidas dentro de las respectivas regiones de pantalla primera y segunda. Por ejemplo, el módulo de gestos 108 determina el gesto de pellizcar para reducir a partir de las entradas de movimiento 514, 518 reconocidas. El gesto de pellizcar para reducir puede identificarse como una combinación de pantalla cruzada de las entradas de movimiento primera y segunda que son efectivas para condensar las páginas de la publicación 510, 512 mostradas dentro de las regiones de pantalla primera y segunda 516, 520 y reducir las páginas de la publicación cerca del bisel 524 que separa la primera y la segunda pantalla. Alternativamente o además, el gesto de pellizcar para reducir se determina a partir de las entradas de movimiento primera y segunda que disminuyen una distancia entre una primera entrada a la primera página de la publicación 510 en la primera pantalla y una segunda entrada a la segunda página de la publicación 512 en la segunda pantalla.
En el bloque 608, se reduce el objetivo visualizado cerca de un bisel del sistema de pantalla múltiple que separa la primera y la segunda pantalla. Por ejemplo, las páginas de la publicación 510, 512 (p. ej., el objeto visualizado) se reducen cerca del bisel 524 y se guardan como una imagen en miniatura 532 para su visualización. En un ejemplo la imagen en miniatura 532 es un vínculo seleccionable a las páginas de la publicación reducidas y/o el objeto visualizado se guarda en un portapapeles visual.
En el bloque 610, se reconoce una entrada de selección como un gesto de toque en el objeto visualizado que está reducido y, en el bloque 612, se expande el objeto visualizado para su visualización en la primera y en la segunda pantalla en respuesta al gesto de toque. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce una entrada de selección que el módulo de gestos 108 determina como un gesto de toque en la imagen en miniatura 532 que es efectivo para expandir las páginas de la publicación 510, 512 para su visualización en la primera y en la segunda pantalla del sistema de pantalla múltiple 502.
Gesto de doble toque de pantalla múltiple
La Figura 7 ilustra ejemplos 700 de un gesto de doble toque de pantalla múltiple en un sistema de pantalla múltiple 702, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 702 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs. 1 y 2. En este ejemplo, el sistema de pantalla múltiple 702 incluye una primera pantalla 704 y una segunda pantalla 706, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 702 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, los ejemplos de un gesto de doble toque de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de doble toque de pantalla múltiple puede utilizarse para expandir o reducir un objeto visualizado que se muestra en múltiples pantallas de un sistema de pantalla múltiple. Por ejemplo, un objeto visualizado puede expandirse para su visualización a pantalla completa en la primera y en la segunda pantalla cuando se determina un gesto de doble toque mientras que el objeto visualizado está reducido. Alternativamente, un objeto visualizado puede reducirse cuando se determina un gesto de doble toque mientras que el objeto visualizado se muestra a pantalla completa en la primera y en la segunda pantalla.
En la primera vista 708 del sistema de pantalla múltiple 702, una primera página de la publicación 710 se muestra en la primera pantalla 704, y una segunda página de la publicación 712 se muestra en la segunda pantalla 706. El sistema de reconocimiento de entradas 110 se implementa para reconocer una primera entrada de toque 714 a la primera página de la publicación 710 en la primera pantalla 704. El sistema de reconocimiento de entradas 110 también puede reconocer una segunda entrada de toque 716 a la segunda página de la publicación 712 en la segunda pantalla 706, donde la segunda entrada de toque se reconoce aproximadamente cuando se reconoce la primera entrada de toque.
Alternativamente, una sola entrada (p. ej., con un dedo, pulgar, palma, etc.) puede contactar tanto la primera como la segunda pantalla a aproximadamente el mismo tiempo para iniciar una entrada de gesto de doble toque. Por ejemplo, el dispositivo de pantalla múltiple puede tener poca o ninguna columna, carcasa o bisel entre las pantallas, en ese caso una sola entrada puede contactar ambas pantallas a la vez. Además, un sistema de pantalla múltiple con dos (o más) pantallas independientes puede colocarse de tal manera que un pulgar o dedo entre las pantallas (p. ej., como un dedo colocado entre las páginas en un libro) haga contacto con ambas pantallas.
El módulo de gestos 108 se implementa para determinar el gesto de doble toque de pantalla múltiple a partir de las entradas de contacto 714, 716 reconocidas. El gesto de doble toque puede identificarse como una combinación de pantalla cruzada de las entradas de toque primera y segunda. La segunda vista 718 del sistema de pantalla múltiple 702 ilustra que el gesto de doble toque es efectivo para reducir las páginas de la publicación como una imagen en miniatura 720 cerca de un bisel 722 del sistema de pantalla múltiple que separa la primera y la segunda pantalla. En este ejemplo, el escritorio virtual 724 se muestra, y cualquiera de los otros objetos visualizados en el escritorio es accesible mientras que las páginas de la publicación están reducidas como la imagen en miniatura 720.
La segunda vista 718 del sistema de pantalla múltiple 702 también ilustra que un gesto de doble toque es efectivo para expandir un objeto visualizado para su visualización en la primera y en la segunda pantalla del sistema de pantalla múltiple. Por ejemplo, el sistema de reconocimiento de entradas 110 se implementa para reconocer una primera entrada de toque 726 a la imagen en miniatura 720 en la primera pantalla 704, y para reconocer una segunda entrada de toque 728 a la imagen en miniatura 720 en la segunda pantalla 706, donde la segunda entrada de toque se reconoce aproximadamente cuando se reconoce la primera entrada de toque. El módulo de gestos 108 puede entonces determinar el gesto de doble toque de pantalla múltiple a partir de las entradas de toque 726, 728 reconocidas, y el gesto de doble toque es efectivo para expandir las páginas de la publicación 710, 712 para su visualización en la primera y en la segunda pantalla como se muestra en la primera vista 708 del sistema de pantalla múltiple 702.
La tercera vista 730 del sistema de pantalla múltiple 702 ilustra una vista de pantalla dividida que incluye una primera parte del objeto visualizado siendo mostrada a pantalla completa en la primera pantalla y una segunda parte del objeto visualizado siendo mostrada condensada en la segunda pantalla. Por ejemplo, la primera página de la publicación 710 se muestra a pantalla completa en la primera pantalla 704, y la segunda página de la publicación 712 está reducida para su visualización en la segunda pantalla 706. En una implementación, el sistema de reconocimiento de entradas 110 puede reconocer una sola entrada de selección a una de las páginas de la publicación 710, 712 en una de la primera o de la segunda pantalla, como una de las entradas de toque 726, 728 mostradas en la segunda vista 718 del sistema de pantalla múltiple 702. La entrada de un solo toque es efectiva para iniciar la vista de pantalla dividida de las páginas de la publicación, como se muestra en la tercera vista 730 del sistema de pantalla múltiple 702.
Debe señalarse que las representaciones de la primera y de la segunda entrada son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan los ejemplos descritos. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple.
La Figura 8 ilustra método(s) de ejemplo 800 de un gesto de doble toque de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 802, se reconoce una primera entrada de toque a un objeto visualizado en una primera pantalla de un sistema de pantalla múltiple. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la primera entrada de toque 714 a la primera página de la publicación 710 en la primera pantalla 704. En el bloque 804, se reconoce una segunda entrada de toque al objeto visualizado en una segunda pantalla del sistema de pantalla múltiple, siendo reconocida la segunda entrada de toque aproximadamente cuando se reconoce la primera entrada de toque. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la segunda entrada de toque 716 a la segunda página de la publicación 712 en la segunda pantalla 706, y la segunda entrada de toque se reconoce aproximadamente cuando se reconoce la primera entrada de toque.
En el bloque 806, se determina un gesto de doble toque a partir de las entradas de toque primera y segunda reconocidas. Por ejemplo, el módulo de gestos 108 determina el gesto de doble toque de pantalla múltiple a partir de las entradas de toque 714, 716 reconocidas. El gesto de doble toque puede identificarse como una combinación de pantalla cruzada de las entradas de toque primera y segunda, y el gesto de doble toque es efectivo para expandir o reducir un objeto visualizado que se muestra en la primera y en la segunda pantalla del sistema de pantalla múltiple 702. Alternativamente, una sola entrada (p. ej., con un dedo, pulgar, palma, etc.) que contacta tanto la primera como la segunda pantalla a aproximadamente el mismo tiempo puede reconocerse y determinarse como una entrada de gesto de doble toque. En los ejemplos un objeto visualizado puede expandirse para su visualización a pantalla completa en la primera y en la segunda pantalla cuando se determina un gesto de doble toque mientras que el objeto visualizado está reducido. Alternativamente, un objeto visualizado puede reducirse cuando se determina un gesto de doble toque mientras que el objeto visualizado se muestra a pantalla completa en la primera y en la segunda pantalla.
En el bloque 808, se reconoce una sola entrada de selección al objeto visualizado en una de la primera o de la segunda pantalla efectiva para iniciar una vista de pantalla dividida del objeto visualizado. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce una sola entrada de selección a una de las páginas de la publicación 710, 712 en una de la primera o de la segunda pantalla, como una de las entradas de toque 726, 728 mostradas en la segunda vista 718 del sistema de pantalla múltiple 702. La entrada de un solo toque es efectiva para iniciar la vista de pantalla dividida de las páginas de la publicación, como se muestra en la tercera vista 730 del sistema de pantalla múltiple 702.
Gesto de retención y de toque de pantalla múltiple
La Figura 9 ilustra ejemplos 900 de un gesto de retención y de toque de pantalla múltiple en un sistema de pantalla múltiple 902, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 902 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs. 1 y 2. En este ejemplo, el sistema de pantalla múltiple 902 incluye una primera pantalla 904 y una segunda pantalla 906, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 902 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, los ejemplos de un gesto de retención y de toque de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de retención y de toque de pantalla múltiple puede utilizarse para mover y/o copiar un objeto visualizado desde una ubicación mostrada a otra, como mover o copiar un objeto a una página de la publicación, o incorporar el objeto a un cuaderno. En distintos ejemplos la funcionalidad general puede incluir: una entrada de retención a un comando en una pantalla y una entrada de toque en la otra pantalla para aplicar el comando en la otra pantalla; una entrada de retención a un valor del parámetro (p. ej., un color, grosor del cepillo, efecto de imagen, filtro, y similares) y una entrada de toque en la otra pantalla para aplicar el valor del parámetro a un objeto mostrado en la otra pantalla; y/o una entrada de retención a una etiqueta, categoría, u otros metadatos, y una entrada de toque para aplicar la característica a un objeto visualizado en la otra pantalla. En un ejemplo, una publicación o cuaderno puede incluir pegatinas personalizadas que pueden ser vistas en una página de la publicación o cuaderno. Una pegatina puede mantenerse en una página (p. ej., como visualizada en una pantalla) y luego tocarse para aplicar la pegatina en la ubicación del toque en otra página (p. ej., en la otra pantalla). Las pegatinas pueden tener una semántica específica adjunta, como “Gastos”, “Tareas Pendientes”, “Personal”, “Receta”, o similares, y una pegatina puede utilizarse para etiquetar contenido para facilitar su posterior búsqueda y organización.
En la primera vista 908 del sistema de pantalla múltiple 902, se muestra una página de la publicación 910 en la primera pantalla 904, y distintos objetos, como el objeto visualizado 912, se muestran en el escritorio virtual 914 en la segunda pantalla 906. El sistema de reconocimiento de entradas 110 se implementa para reconocer una entrada de retención 916 en la segunda pantalla 906, donde se reconoce la entrada de retención cuando se mantiene para seleccionar el objeto visualizado 912 en la segunda pantalla 906. El sistema de reconocimiento de entradas 110 también puede reconocer una entrada de toque 918 en la primera pantalla 904, donde la entrada de toque se reconoce mientras que se selecciona el objeto visualizado 912 en la segunda pantalla 906.
El módulo de gestos 108 se implementa para determinar el gesto de retención y de toque de pantalla múltiple a partir de las entradas de retención y de toque 916, 918 reconocidas. El gesto de retención y de toque puede identificarse como una combinación de pantalla cruzada de las entradas de retención y de toque, y el gesto es efectivo para mover el objeto visualizado 912 desde una ubicación mostrada en la segunda pantalla 906 a una ubicación de la entrada de toque para su visualización en la primera pantalla 904, como se indica en 920. La segunda vista 922 del sistema de pantalla múltiple 902 ilustra que el gesto de doble toque es efectivo para mover el objeto visualizado 912 desde la ubicación mostrada 924 en la segunda pantalla 906 e incorporar el objeto visualizado 912 para su visualización en la página de la publicación 910 que se muestra en la ubicación de la entrada de toque 926 en la primera pantalla 904. La tercera vista 928 del sistema de pantalla múltiple 902 ilustra que el gesto de doble toque es efectivo para copiar el objeto visualizado 912 para generar una copia del objeto 930, e iniciar una visualización del objeto copiado 930 en una ubicación de la entrada de toque 932 en la primera pantalla 904.
En otros ejemplos de un gesto de retención y de toque de pantalla múltiple, el sistema de reconocimiento de entradas 110 puede reconocer la entrada de toque 918 a un objeto adicional visualizado (p. ej., la página de la publicación 910) en la primera pantalla 904, y el gesto de retención y de toque es entonces efectivo para correlacionar el objeto visualizado 912 con el objeto adicional visualizado (p. ej., correlacionar el objeto visualizado 912 con la página de la publicación 910). Además, un objeto visualizado puede representar una función, y el gesto de retención y de toque es efectivo para aplicar la función del objeto visualizado a un objeto adicional visualizado en una ubicación de la entrada de toque en la primera o en la segunda pantalla del sistema de pantalla múltiple 902.
Debe señalarse que las representaciones de las entradas de retención y de toque son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan los ejemplos descritos. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple.
La Figura 10 ilustra método(s) de ejemplo 1000 de un gesto de retención y de toque de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 1002, se reconoce una entrada de retención en una primera pantalla de un sistema de pantalla múltiple, siendo reconocida la entrada de retención cuando se mantiene para seleccionar un objeto visualizado en la primera pantalla. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la entrada de retención 916 en la pantalla 906, y la entrada de retención se reconoce cuando se mantiene para seleccionar objeto visualizado 912 en la pantalla 906. En el bloque 1004, se reconoce una entrada de toque en una segunda pantalla del sistema de pantalla múltiple, siendo reconocida la entrada de toque mientras que se selecciona el objeto visualizado. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la entrada de toque 918 en la pantalla 904, y la entrada de toque se reconoce mientras que se selecciona el objeto visualizado 912 en la pantalla 906. En un ejemplo la entrada de toque puede reconocerse como una entrada de toque a un objeto adicional visualizado en la segunda pantalla, y el gesto de retención y de toque es efectivo para correlacionar el objeto visualizado con el objeto adicional visualizado.
En el bloque 1006, se determina un gesto de retención y de toque a partir de las entradas de retención y de toque reconocidas. Por ejemplo, el módulo de gestos 108 determina el gesto de retención y de toque de pantalla múltiple a partir de las entradas de retención y de toque 916, 918 reconocidas, y el gesto de retención y de toque puede identificarse como una combinación de pantalla cruzada de las entradas de retención y de toque. En distintas realizaciones, el gesto de retención y de toque es efectivo para mover el objeto visualizado desde una ubicación mostrada en la primera pantalla a una ubicación de la entrada de toque para su visualización en la segunda pantalla (en el bloque 1008); para incorporar el objeto visualizado para su visualización en una página de la publicación que se muestra en una ubicación de la entrada de toque en la segunda pantalla ( en el bloque 1010); para copiar el objeto visualizado para generar una copia del objeto, y mostrar la copia del objeto en una ubicación de la entrada de toque en la segunda pantalla (en el bloque 1012); y/o para aplicar una función del objeto visualizado a un objeto adicional visualizado en una ubicación en la entrada de toque en la segunda pantalla (en el bloque 1014).
Gesto de retención y de arrastre de pantalla múltiple
La Figura 11 ilustra ejemplos 1100 de un gesto de retención y de arrastre de pantalla múltiple en un sistema de pantalla múltiple 1102, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 1102 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs. 1 y 2. En este ejemplo, el sistema de pantalla múltiple 1102 incluye una primera pantalla 1104 y una segunda pantalla 1106, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 1102 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, las realizaciones de un gesto de retención y de arrastre de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de retención y de arrastre de pantalla múltiple puede utilizarse para mantener una visualización de una primera parte de un objeto visualizado en una pantalla y arrastrar una segunda parte del objeto visualizado que se muestra en otra pantalla para reducir la segunda parte del objeto visualizado para una vista de pantalla dividida. Alternativamente, un gesto de retención y de arrastre puede utilizarse para mantener una visualización de una primera parte del objeto visualizado en una pantalla y arrastrar una segunda parte reducida del objeto visualizado para expandir la visualización en otra pantalla. La dirección de un gesto de arrastre puede también determinarse basada en diferentes semánticas (p. ej., movimiento hacia arriba, hacia abajo, hacia el bisel, lejos del bisel, etc.). Para el gesto de retención y de arrastre de pantalla múltiple, pueden definirse de cuatro a ocho direcciones cardinales para diferentes acciones.
En la primera vista 1108 del sistema de pantalla múltiple 1102, una primera página de la publicación 1110 se muestra en la primera pantalla 1104, y una segunda página de la publicación 1112 se muestra en la segunda pantalla 1106. El sistema de reconocimiento de entradas 110 se implementa para reconocer una entrada de retención 1114 en la primera pantalla 1104, donde la entrada de retención se reconoce cuando se mantiene en su lugar. El sistema de reconocimiento de entradas 110 también puede reconocer una entrada de movimiento 1116 en la segunda pantalla 1106, donde la entrada de movimiento se reconoce para seleccionar un objeto visualizado (p. ej., la página de la publicación 1112) mientras que la entrada de retención permanece en su lugar.
El módulo de gestos 108 se implementa para determinar el gesto de retención y de arrastre de pantalla múltiple a partir de las entradas de retención y de movimiento 1114, 1116 reconocidas. El gesto de retención y de arrastre puede identificarse como una combinación de pantalla cruzada de las entradas de retención y de movimiento, y el gesto es efectivo para mantener la visualización de la primera página de la publicación 1110 en la primera pantalla 1004 y arrastrar la segunda página de la publicación 1112 que se muestra en la segunda pantalla 1106 para reducir la segunda página de la publicación para una vista de pantalla dividida de las páginas de la publicación. La segunda vista 1118 del sistema de pantalla múltiple 1102 ilustra que la primera página de la publicación 1110 se mantiene para su visualización en la primera pantalla 1104, y la segunda página de la publicación 1112 está reducida cerca del bisel 1120 del sistema de pantalla múltiple en la segunda pantalla 1106 para una vista de pantalla dividida de las páginas de la publicación en respuesta al gesto de retención y de arrastre. En un ejemplo la segunda página de la publicación 1112 está reducida como una imagen en miniatura, que también puede ser un enlace seleccionable a la segunda página de la publicación 1112.
La tercera vista 1122 del sistema de pantalla múltiple 1102 ilustra un gesto de retención y de arrastre de pantalla múltiple que puede utilizarse para mantener una visualización de una primera parte de un objeto visualizado en una pantalla y arrastrar una segunda parte reducida del objeto visualizado para expandir la visualización en otra pantalla, o iniciar una visualización de pantalla múltiple del objeto visualizado. Por ejemplo, el sistema de reconocimiento de entradas 110 puede reconocer una entrada de retención 1124 en la primera pantalla 1104, donde la entrada de retención se reconoce cuando se mantiene en su lugar. El sistema de reconocimiento de entradas 110 también puede reconocer una entrada de movimiento 1126 en la segunda pantalla 1106, donde la entrada de movimiento se reconoce para seleccionar la segunda página de la publicación 1112 cuando la página de la publicación está reducida (p. ej., la página de la publicación 1112 como se muestra en la segunda vista 1118) mientras que la entrada de retención permanece en su lugar (p. ej., para mantener la primera página de la publicación 1110). El módulo de gestos 108 puede determinar un gesto de retención y de arrastre de pantalla múltiple a partir de las entradas de retención y de movimiento 1124, 1126 reconocidas, efectivo para expandir la segunda página de la publicación 1112 reducida en una dirección 1128 para su visualización en la segunda pantalla 1106.
Debe señalarse que las representaciones de las entradas de retención y de movimiento son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan las realizaciones descritas. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple.
La Figura 12 ilustra método(s) de ejemplo 1200 de un gesto de retención y de arrastre de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 1202, se reconoce una entrada de retención en una primera pantalla de un sistema de pantalla múltiple, siendo reconocida la entrada de retención cuando se mantiene en su lugar. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la entrada de retención 1114 en la primera pantalla 1104, donde la entrada de retención se reconoce cuando permanece en su lugar. En el bloque 1204, se reconoce una entrada de movimiento en una segunda pantalla del sistema de pantalla múltiple, siendo reconocida la entrada de movimiento para seleccionar un objeto visualizado mientras que la entrada de retención permanece en su lugar. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la entrada de movimiento 1116 en la segunda pantalla 1106, donde la entrada de movimiento se reconoce para seleccionar la segunda página de la publicación 1112 mientras que la entrada de retención permanece en su lugar.
En el bloque 1206, se determina un gesto de retención y de arrastre a partir de las entradas de retención y de movimiento reconocidas. Por ejemplo, el módulo de gestos 108 determina el gesto de retención y de arrastre de pantalla múltiple a partir de las entradas de retención y de movimiento 1114, 1116 reconocidas. El gesto de retención y de arrastre puede identificarse como una combinación de pantalla cruzada de las entradas de retención y de movimiento. En distintos ejemplos el gesto de retención y de arrastre es efectivo para mantener una visualización de una primera parte del objeto visualizado en la primera pantalla y arrastrar una segunda parte del objeto visualizado que se muestra en la segunda pantalla para reducir la segunda parte del objeto visualizado para una vista de pantalla dividida (en el bloque 1208); para mantener una visualización de una primera parte del objeto visualizado en la primera pantalla y arrastrar una segunda parte reducida del objeto visualizado para expandir la visualización en la segunda pantalla (en el bloque 1210); para mantener una visualización del objeto visualizado en la primera pantalla y expandir la visualización del objeto visualizado en la segunda pantalla (en el bloque 1212); y/o para iniciar una visualización de pantalla múltiple del objeto visualizado (en el bloque 1214).
Gesto de retención y de paso de página de pantalla múltiple
La Figura 13 ilustra ejemplos 1300 de un gesto de retención y de paso de página de pantalla múltiple en un sistema de pantalla múltiple 1302, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 1302 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs. 1 y 2. En este ejemplo, el sistema de pantalla múltiple 1302 incluye una primera pantalla 1304 y una segunda pantalla 1306, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 1302 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, las realizaciones de un gesto de retención y de paso de página de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de retención y de paso de página de pantalla múltiple puede utilizarse para seleccionar una página de la publicación que se muestra en una pantalla y pasar páginas de la publicación para mostrar dos nuevas o adicionales páginas de la publicación, al igual que pasar páginas en un libro. Las páginas de la publicación se pasan en una dirección de la página de la publicación seleccionada para mostrar las dos nuevas páginas de la publicación, al igual que pasar páginas hacia adelante o hacia atrás en un libro. Alternativamente, un gesto de retención y de paso de página puede utilizarse para mantener la visualización de una página de la publicación que se muestra en una pantalla y pasar páginas de la publicación para mostrar una página de la publicación diferente en otra pantalla. Pueden entonces mostrarse páginas de la publicación no consecutivas una al lado de la otra, lo que para un libro, implicaría arrancar una página del libro para colocarla en un orden de página no consecutivo para verla junto con la otra página. En una realización, un gesto de retención y de paso de página de pantalla múltiple se configura bien para pasar páginas de la publicación para mostrar dos nuevas páginas de la publicación, o para mantener la visualización de una primera página de la publicación y pasar las páginas de la publicación para mostrar una segunda página de la publicación diferente, no consecutiva, junto con la primera página de la publicación.
En la primera vista 1308 del sistema de pantalla múltiple 1302, una primera página de la publicación 1310 se muestra en la primera pantalla 1304, y una segunda página de la publicación 1312 se muestra en la segunda pantalla 1306. El sistema de reconocimiento de entradas 110 se implementa para reconocer la entrada de retención 1314 en la primera pantalla 1304, donde la entrada de retención se reconoce cuando se mantiene para seleccionar la página de la publicación 1310 que se muestra en la primera pantalla 1304. El sistema de reconocimiento de entradas 110 también puede reconocer una entrada de movimiento 1316 en la segunda pantalla 1306, donde la entrada de movimiento se reconoce mientras que la entrada de retención permanece en su lugar.
El módulo de gestos 108 se implementa para determinar el gesto de retención y de paso de página de pantalla múltiple a partir de las entradas de retención y de movimiento 1314, 1316 reconocidas. El gesto de retención y de paso de página puede identificarse como una combinación de pantalla cruzada de las entradas de retención y de movimiento, que en las distintas realizaciones pueden incluir: entradas de retención y de arrastre en pantallas opuestas con uno o más dispositivos de entrada (p. ej., un dedo, o dos dedos); y/o una entrada de retención y una entrada de arrastre a través del bisel en la pantalla opuesta. El gesto de retención y de paso de página es efectivo para seleccionar la página de la publicación 1310 en la primera pantalla 1304 mientras que se pasan una o más páginas de la publicación adicionales para su visualización. La segunda vista 1318 del sistema de pantalla múltiple 1302 ilustra que dos páginas de la publicación adicionales 1320, 1322 se han pasado para su visualización en las respectivas pantallas primera y segunda 1304, 1306. Alternativamente, la tercera vista 1324 del sistema de pantalla múltiple 1302 ilustra que la visualización de la página de la publicación 1310 se mantiene en la primera pantalla 1304 y una página de la publicación 1322 no consecutiva se ha pasado de página para su visualización una al lado de la otra en la segunda pantalla 1306.
Debe señalarse que las representaciones de las entradas de retención y de movimiento son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan las realizaciones descritas. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple.
La Figura 14 ilustra método(s) de ejemplo 1400 de un gesto de retención y de paso de página de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 1402, se reconoce una entrada de retención en una primera pantalla de un sistema de pantalla múltiple, siendo reconocida la entrada de retención cuando se mantiene para seleccionar una página de la publicación que se muestra en la primera pantalla. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la entrada de retención 1314 en la primera pantalla 1304, y la entrada de retención se reconoce cuando se mantiene para seleccionar la página de la publicación 1310 que se muestra en la primera pantalla 1304. En el bloque 1404, se reconoce una entrada de movimiento en una segunda pantalla del sistema de pantalla múltiple, siendo reconocida la entrada de movimiento mientras que la entrada de retención permanece en su lugar. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la entrada de movimiento 1316 en la segunda pantalla 1306, y la entrada de movimiento se reconoce mientras que la entrada de retención permanece en su lugar.
En el bloque 1406, se determina un gesto de retención y de paso de página a partir de las entradas de retención y de movimiento reconocidas, y es efectivo para seleccionar la página de la publicación mientras que se pasan páginas de la publicación adicionales para su visualización. Por ejemplo, el módulo de gestos 108 determina el gesto de retención y de paso de página de pantalla múltiple a partir de las entradas de retención y de movimiento 1314, 1316 reconocidas. El gesto de retención y de paso de página se identifica como una combinación de pantalla cruzada de las entradas de retención y de movimiento. En distintas realizaciones, el gesto de retención y de paso de página es efectivo para seleccionar la página de la publicación que se muestra en la primera pantalla y pasar páginas de la publicación (opcionalmente en una dirección de la página de la publicación seleccionada) para mostrar dos páginas de la publicación adicionales, cada una mostrada en la primera y en la segunda pantalla (en el bloque 1408); para mantener la visualización de la página de la publicación que se muestra en la primera pantalla y pasar páginas de la publicación para mostrar una página de la publicación diferente en la segunda pantalla (en el bloque 1410); y/o para mantener la visualización de la página de la publicación que se muestra en la primera pantalla y pasar páginas de la publicación para mostrar una página de la publicación no consecutiva en la segunda pantalla junto con la primera página de la publicación (en el bloque 1412).
En una realización, un gesto de retención y de paso de página se puede configurar para seleccionar la página de la publicación que se muestra en la primera pantalla y pasar páginas de la publicación para mostrar dos páginas de la publicación adicionales, cada una mostrada en la primera y en la segunda pantalla (como se describe con referencia al bloque 1408), o para mantener la visualización de la página de la publicación que se muestra en la primera pantalla y pasar las páginas de la publicación para mostrar una página de la publicación diferente en la segunda pantalla (como se describe con referencia a los bloques 1410 y 1412).
Gesto de retención de marcador de pantalla múltiple
La Figura 15 ilustra ejemplos 1500 de un gesto de retención de marcador de pantalla múltiple en un sistema de pantalla múltiple 1502, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 1502 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs. 1 y 2. En este ejemplo, el sistema de pantalla múltiple 1502 incluye una primera pantalla 1504 y una segunda pantalla 1506, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 1502 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, los ejemplos de un gesto de retención de marcador de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de retención de marcador de pantalla múltiple puede utilizarse para marcar una página de la publicación en una ubicación de una entrada de retención a la página de la publicación en una pantalla, y páginas de la publicación adicionales pueden pasarse para verlas mientras que se mantiene el marcador para la página de la publicación. Un gesto de retención de marcador imita la acción de un lector que sostiene un pulgar o un dedo entre las páginas para guardar un lugar en un libro mientras que hojea otras páginas del libro. Además, un marcador es un enlace seleccionable que regresa a la página de la publicación, y una entrada de selección del marcador retrocede para mostrar la página de la publicación en la pantalla.
En la primera vista 1508 del sistema de pantalla múltiple 1502, una primera página de la publicación 1510 se muestra en la primera pantalla 1504, y una segunda página de la publicación 1512 se muestra en la segunda pantalla 1506. La primera página de la publicación 1510 se muestra sobre una página de la publicación 1514 que está marcada. El sistema de reconocimiento de entradas 110 se implementa para reconocer una entrada de retención 1516 en la primera pantalla 1504, donde la entrada de retención se reconoce cuando se mantiene en su lugar cerca de un borde de la página de la publicación 1514 que está marcada en la primera pantalla 1504. El sistema de reconocimiento de entradas 110 también puede reconocer una entrada de movimiento 1518 en la segunda pantalla 1506, donde la entrada de movimiento se reconoce mientras que la entrada de retención permanece en su lugar. En un ejemplo, la entrada de movimiento 1518 se reconoce en la segunda ventana 1506 a lo largo de un borde exterior de la página de la publicación 1512, y la entrada de movimiento es efectiva para pasar las páginas de la publicación en 1520 mientras que se mantiene el marcador para la página de la publicación 1514 en la primera ventana 1504.
El módulo de gestos 108 se implementa para determinar el gesto de retención de marcador de pantalla múltiple a partir de las entradas de retención y de movimiento 1516, 1518 reconocidas. El gesto de retención de marcador puede identificarse como una combinación de pantalla cruzada de las entradas de retención y de movimiento, y el gesto es efectivo para marcar la página de la publicación 1514 en una ubicación de la entrada de retención 1516 en la primera pantalla 1504. En los ejemplos, un identificador de marcador 1522 se muestra para identificar la página de la publicación 1514 que está marcada y la ubicación del marcador en la primera pantalla. En este ejemplo, el identificador del marcador 1522 es una visualización parcial de la página de la publicación 1514 que está marcada. Un marcador y/o un identificador de marcador es una enlace seleccionable a la página de la publicación 1514 que está marcada en la primera pantalla 1504, y el sistema de reconocimiento de entradas 110 puede reconocer una entrada de selección del marcador efectiva para regresar y mostrarla página de la publicación 1514 en la primera pantalla.
La segunda vista 1524 del sistema de pantalla múltiple 1502 ilustra una entrada de retención alternativa 1526, como cuando un usuario puede mantener un dispositivo de dos pantallas con una mano mientras que también marca la página de la publicación 1510 en la primera pantalla 1504. El sistema de reconocimiento de entradas 110 se implementa para reconocer la entrada de retención 1526 en la primera pantalla 1504, y también para reconocer una entrada de movimiento 1528 en la segunda pantalla 1506, donde la entrada de movimiento se reconoce mientras que la entrada de retención permanece en su lugar. En un ejemplo, la entrada de movimiento 1528 se reconoce en la segunda pantalla 1506 y es efectiva para pasar las páginas de la publicación mientras que se mantiene el marcador. En una implementación, el sistema de reconocimiento de entradas 110 puede reconocer un gesto de retención de marcador en regiones definidas, como una región donde es probable que un usuario tanto mantenga el dispositivo como marque una página. Alternativamente o además, el sistema de pantalla múltiple 1502 puede implementarse para detectar la orientación de las pantallas, de manera que el marcador de página se adapta automáticamente a la forma en la que un usuario mantiene el dispositivo.
La tercera vista 1530 del sistema de pantalla múltiple 1502 ilustra que una entrada de retención a partir de la cual se determina un marcador puede incluir una entrada de movimiento deslizante 1532 cerca de una esquina de la página de la publicación 1514. La entrada de movimiento deslizante 1532 puede reconocerse como una progresión de movimiento para iniciar la entrada de retención, y la entrada de movimiento deslizante puede determinarse para marcar la página de la publicación 1514 en la esquina. El marcador se mantiene en la primera pantalla 1504 para la página de la publicación 1514 mientras que otras páginas de la publicación se pasan para su visualización en 1534. En los ejemplos, hay distintas técnicas que pueden implementarse para distinguir entre: mantener una página para guardar temporalmente una posición; “doblar la esquina” explícitamente de una página con un marcador; o regresar a una página denotada por una retención temporal o marcador. En un ejemplo, una entrada de retención puede reconocerse para implícitamente guardartemporalmente una posición de página. Entonces un usuario puede simplemente levantar la entrada para descartar el marcador temporal o alternativamente, proporcionar la entrada de movimiento deslizante para regresar a una posición de página guardada. En otro ejemplo, si la entrada de movimiento deslizante se inicia aproximadamente al mismo tiempo que la entrada de retención, entonces puede crearse el marcador de página de esquina doblada. En otra realización, un marcador de esquina doblada solo puede reconocerse en ubicaciones definidas alrededor del límite de una página de la publicación (p. ej., en las esquinas de la página), aunque la implícita retención de página temporal puede implementarse para un área o región más grande.
Debe señalarse que las representaciones de las entradas de retención y de movimiento son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan los ejemplos descritos. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple.
La Figura 16 ilustra método(s) de ejemplo 1600 de un gesto de retención de marcador de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 1602, se reconoce una entrada de retención en una primera pantalla de un sistema de pantalla múltiple, siendo reconocida la entrada de retención cuando se mantiene en su lugar cerca de un borde de una página de la publicación que se muestra en la primera pantalla. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la entrada de retención 1516 en la primera pantalla 1504, y la entrada de retención se reconoce cuando se mantiene en su lugar cerca de un borde de la página de la publicación 1514 que está marcada en la primera pantalla 1504. La entrada de retención puede incluir la entrada de movimiento deslizante 1532 cerca de una esquina de la página de la publicación 1514. El sistema de reconocimiento de entradas 110 reconoce la entrada de movimiento deslizante como una progresión de movimiento para iniciar la entrada de retención, y el módulo de gestos 108 determina el gesto de retención de marcador a partir de la entrada de movimiento deslizante para marcar la página de la publicación.
En el bloque 1604, se reconoce una entrada de movimiento en una segunda pantalla del sistema de pantalla múltiple, siendo reconocida la entrada de movimiento mientras que la entrada de retención permanece en su lugar. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la entrada de movimiento 1518 en la segunda pantalla 1506, y la entrada de movimiento se reconoce mientras que la entrada de retención permanece en su lugar. El sistema de reconocimiento de entradas 110 puede reconocer la entrada de movimiento a lo largo de un borde exterior de una página de la publicación opuesta que se muestra en la segunda pantalla 1506, y la entrada de movimiento es efectiva para pasar páginas de la publicación mientras que se mantiene el marcador para la página de la publicación 1514 en la primera pantalla 1504.
En el bloque 1606, se determina un gesto de retención de marcador a partir de las entradas de retención y de movimiento reconocidas, el gesto de retención de marcador efectivo para marcar la página de la publicación en una ubicación de la entrada de retención en la primera pantalla. Por ejemplo, el módulo de gestos 108 determina el gesto de retención de marcador de pantalla múltiple a partir de las entradas de retención y de movimiento 1516, 1518 reconocidas. El gesto de retención de marcador puede identificarse como una combinación de pantalla cruzada de las entradas de retención y de movimiento. Un marcador y/o un identificador de marcador es un enlace seleccionable a una página de la publicación que está marcada en la primera pantalla 1504, y el sistema de reconocimiento de entradas 110 reconoce una entrada de selección del marcador efectiva para regresar y visualizar la página de la publicación en la primera pantalla.
En el bloque 1608, se muestra un identificador de marcador para identificar la página de la publicación que está marcada y la ubicación del marcador en la primera pantalla. Por ejemplo, un identificador de marcador 1522 se muestra para identificar la página de la publicación 1514 que está marcada y la ubicación del marcador en la primera pantalla. En una implementación, el identificador del marcador 1522 puede ser una visualización parcial de la propia página de la publicación que está marcada.
Gesto de retención del objeto y de cambio de página de pantalla múltiple
La Figura 17 ilustra ejemplos 1700 de un gesto de retención del objeto y de cambio de página de pantalla múltiple en un sistema de pantalla múltiple 1702, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 1702 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs. 1 y 2. En este ejemplo, el sistema de pantalla múltiple 1702 incluye una primera pantalla 1704 y una segunda pantalla 1706, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 1702 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, las realizaciones de un gesto de retención del objeto y de cambio de página de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de retención del objeto y de cambio de página de pantalla múltiple puede utilizarse para mover y/o copiar un objeto (u objetos) visualizado desde una ubicación de visualización a otra, como incorporar un objeto visualizado para su visualización en una página de la publicación. Además, puede mantenerse una posición de visualización relativa cuando un objeto visualizado se mueve o copia desde una ubicación de visualización a otra. Esto puede también incluir una selección de múltiples objetos que se seleccionan con entradas de toque de selección a una serie de objetos en sucesión, y luego una entrada de retención mantiene la selección mientras que se reconoce una entrada de movimiento para cambiar páginas de la publicación. Este gesto puede entonces determinarse para mover y/o copiar todos los objetos mantenidos a una nueva página de la publicación que se muestra, mientras que mantienen su posición de visualización relativa y/o relación espacial relativa entre los objetos. Alternativamente o además, este gesto puede incluir selecciones de objetos que comienzan en una página, luego son mantenidos mientras que se pasan las páginas de la publicación, y se seleccionan objetos adicionales de otras páginas para añadirse a la selección de objetos y transportarse junto con el grupo.
En la primera vista 1708 del sistema de pantalla múltiple 1702, una primera página de la publicación 1710 se muestra en la primera pantalla 1704, y una segunda página de la publicación 1712 se muestra en la segunda pantalla 1706. El sistema de reconocimiento de entradas 110 se implementa para reconocer una entrada de retención 1714 en la primera pantalla 1704, donde la entrada de retención se reconoce cuando se mantiene para seleccionar un objeto visualizado 1716 en la primera pantalla 1704. El sistema de reconocimiento de entradas 110 también puede reconocer una entrada de movimiento 1718 en la segunda pantalla 1706, donde la entrada de movimiento se reconoce mientras que se selecciona el objeto visualizado 1716 y la entrada de movimiento efectiva para cambiar páginas de la publicación en 1720. Cuando las páginas de la publicación se cambian en 1720, una página de la publicación posterior 1722 se revela para su visualización. En una realización, la entrada de movimiento 1518 se reconoce en la segunda pantalla 1506 a lo largo de un borde exterior de la página de la publicación 1512, y la entrada de movimiento es efectiva para pasar las páginas de la publicación en 1520 mientras que se mantiene el marcador para la página de la publicación 1514 en la primera pantalla 1504.
El módulo de gestos 108 se implementa para determinar el gesto de retención del objeto y de cambio de página de pantalla múltiple a partir de las entradas de retención y de movimiento 1714, 1718 reconocidas. El gesto de retención del objeto y de cambio de página pude identificarse como una combinación de pantalla cruzada de las entradas de retención y de movimiento, y el gesto es efectivo para mover o copiar el objeto visualizado 1716 para su visualización en una página de la publicación mostrada actualmente. La segunda vista 1724 del sistema de pantalla múltiple 1702 ilustra que el objeto visualizado 1716 se mueve desde la página de la publicación 1710 (p. ej., o se copia de la página de la publicación 1710) para su visualización en una página de la publicación 1726 mostrada actualmente, que se muestra en la primera pantalla 1704. El objeto visualizado 1716 permanece seleccionado mientras que se cambian las páginas de la publicación. El sistema de reconocimiento de entradas 110 puede entonces reconocer que se libera el objeto visualizado 1716 de la entrada de retención, y el gesto de retención del objeto y de cambio de página es efectivo para mover o copiar el objeto visualizado para su visualización en una página de la publicación mostrada actualmente. Además, puede mantenerse una posición de visualización relativa cuando el objeto visualizado se mueve o copia desde una ubicación de visualización a otra.
Debe señalarse que las representaciones de las entradas de retención y de movimiento son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan las realizaciones descritas. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple.
La Figura 18 ilustra método(s) de ejemplo 1800 de un gesto de retención del objeto y de cambio de página de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 1802, se reconoce una entrada de retención en una primera pantalla de un sistema de pantalla múltiple, siendo reconocida la entrada de retención cuando se mantiene para seleccionar un objeto visualizado en la primera pantalla. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la entrada de retención 1714 en la primera pantalla 1704, y la entrada de retención se reconoce cuando se mantiene para seleccionar el objeto visualizado 1716 en la primera pantalla 1704. En el bloque 1804, se reconoce una entrada de movimiento en una segunda pantalla del sistema de pantalla múltiple, siendo reconocida la entrada de movimiento mientras que se selecciona el objeto visualizado y la entrada de movimiento efectiva para cambiar una o más páginas de la publicación. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la entrada de movimiento 1718 en la segunda pantalla 1706, siendo reconocida la entrada de movimiento mientras que se selecciona el objetivo visualizado 1716 y la entrada de movimiento efectiva para cambiar las páginas de la publicación en 1720.
En el bloque 1806, un gesto de retención del objeto y de cambio de página se determina a partir de las entradas de retención y de movimiento reconocidas. Por ejemplo, el módulo de gestos 108 determina el gesto de retención del objeto y de cambio de página de pantalla múltiple a partir de las entradas de retención y de movimiento 1714, 1718 reconocidas. El gesto de retención del objeto y de cambio de página puede identificarse como una combinación de pantalla cruzada de las entradas de retención y de movimiento. En una realización, el gesto de retención del objeto y de cambio de página es efectivo para iniciar una función de copiar y pegar para copiar el objeto visualizado 1716 para su visualización en una página de la publicación 1726 mostrada actualmente.
En el bloque 1808, se reconoce el objeto visualizado cuando se libera de la entrada de retención, y el gesto de retención del objeto y de cambio de página efectivo para mover y/o copiar el objeto visualizado para su visualización en una página de la publicación mostrada actualmente. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce cuando se libera el objeto visualizado 1716 de la entrada de retención, y el gesto de retención del objeto y de cambio de página es efectivo para mover o copiar el objeto visualizado para su visualización en una página de la publicación mostrada actualmente. La segunda vista 1724 del sistema de pantalla múltiple 1702 ilustra que el objeto visualizado 1716 se mueve desde la página de la publicación 1710 (p. ej., o se copia de la página de la publicación 1710) para su visualización en una página de la publicación 1726 mostrada actualmente, que se muestra en la primera pantalla 1704. Además, se mantiene una posición de visualización relativa del objeto visualizado cuando el objeto visualizado se mueve o copia desde una ubicación de visualización a otra. Un gesto de retención del objeto y de cambio de página también puede ser efectivo para seleccionar múltiples objetos visualizados que se mueven y/o copian desde una ubicación de visualización a otra.
Gesto de deslizamiento síncrono de pantalla múltiple
La Figura 19 ilustra ejemplos 1900 de un gesto de deslizamiento síncrono de pantalla múltiple en un sistema de pantalla múltiple 1902, que en estos ejemplos, se muestra como un dispositivo de dos pantallas. El sistema de pantalla múltiple 1902 puede implementarse como cualquiera de los distintos dispositivos descritos con referencia a las Figs.
1 y 2. En este ejemplo, el sistema de pantalla múltiple 1902 incluye una primera pantalla 1904 y una segunda pantalla 1906, cada una implementada para mostrar cualquier tipo de interfaz de usuario y distintos objetos que se pueden visualizar (p. ej., cualquier tipo de fotos, imágenes, gráficos, texto, notas, bocetos, dibujos, controles seleccionables, elementos de la interfaz de usuario, etc.). Las pantallas también pueden mostrar páginas de la publicación, como cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica. El sistema de pantalla múltiple 1902 puede incluir un módulo de gestos 108 y un sistema de reconocimientos de entradas 110, como se describe con referencia al dispositivo informático 102 mostrado en la Figura 1, y también puede implementarse con cualquier combinación de componentes como se describe con referencia al dispositivo de ejemplo mostrado en la Figura 21. Aunque los ejemplos se ilustran y describen con referencia al dispositivo de dos pantallas, los ejemplos de un gesto de deslizamiento síncrono de pantalla múltiple pueden implementarse por un sistema de pantalla múltiple con más de dos pantallas.
Un gesto de deslizamiento síncrono de pantalla múltiple puede utilizarse para mover un objeto visualizado desde una pantalla para su visualización en otra pantalla, para reemplazar con diferentes objetos visualizados los objetos visualizados en las pantallas del sistema, para mover los objetos visualizados para revelar un espacio de trabajo en las pantallas del sistema, y/o para recorrer uno o más espacios de trabajo (p. ej., aplicaciones, interfaces, etc.) que se muestran en las pantallas del sistema. Un gesto de deslizamiento síncrono también puede utilizarse para navegar a vistas adicionales, o resignar una vista actual a una pantalla diferente. Además, diferentes aplicaciones o espacios de trabajo pueden mantenerse en una pila y recorrerse, hacia adelante o hacia atrás, con gestos de deslizamiento síncronos.
En la primera vista 1908 del sistema de pantalla múltiple 1902, una página de la publicación 1910 se muestra como siendo movida desde la primera pantalla 1904 para su visualización en la segunda pantalla 1906. El sistema de reconocimiento de entradas 110 se implementa para reconocer una primera entrada de movimiento 1912 en la primera pantalla 1904 cuando la primera entrada de movimiento se mueve en una dirección particular a través de la primera pantalla. El sistema de reconocimiento de entradas 110 también puede reconocer una segunda entrada de movimiento 1914 en la segunda pantalla 1906 cuando la segunda entrada de movimiento se mueve en la dirección particular a través de la segunda pantalla y aproximadamente cuando se reconoce la primera entrada de movimiento.
El módulo de gestos 108 se implementa para determinar el gesto de deslizamiento síncrono de pantalla múltiple a partir de las entradas de movimiento 1912, 1914 reconocidas. El gesto de deslizamiento síncrono puede identificarse como una combinación de pantalla cruzada de las entradas de movimiento, y el gesto es efectivo para mover la página de la publicación 1910 desde su visualización en la primera pantalla 1904 para su visualización en la segunda pantalla 1906.
En la segunda vista 1916 del sistema de pantalla múltiple 1902, la primera página de la publicación 1910 que se muestra en la primera pantalla 1904 y la segunda página de la publicación 1918 que se muestra en la segunda pantalla 1906 se ilustran como siendo reemplazadas con diferentes páginas de la publicación. El sistema de reconocimiento de entradas 110 puede reconocer una primera entrada de movimiento 1920 en la primera pantalla 1904 cuando la primera entrada de movimiento se mueve en una dirección particular a través de la primera pantalla. El sistema de reconocimiento de entradas 110 también puede reconocer una segunda entrada de movimiento 1922 en la segunda pantalla 1906 cuando la segunda entrada de movimiento se mueve en la dirección particular a través de la segunda pantalla y aproximadamente cuando se reconoce la primera entrada de movimiento. El módulo de gestos 108 puede determinar el gesto de deslizamiento síncrono de pantalla múltiple a partir de las entradas de movimiento 1920, 1922 reconocidas. Como se muestra en la tercera vista 1924 del sistema de pantalla múltiple 1902, el gesto de deslizamiento síncrono es efectivo para mover y/o reemplazar las páginas de la publicación 1910, 1918 con diferentes páginas de la publicación 1926, 1928 para su visualización en las pantallas del sistema.
Debe señalarse que las distintas representaciones de las entradas de movimiento son meramente ilustrativas para fines de debate y pueden o no aparecer en las pantallas del sistema de pantalla múltiple cuando se implementan los ejemplos descritos. Además, cualquier descripción en la presente memoria de una entrada o movimiento en una pantalla que puede correlacionarse con otra entrada o movimiento en otra pantalla es aplicable a cualquiera de las pantallas primera o segunda del sistema de pantalla múltiple.
La Figura 20 ilustra método(s) de ejemplo 2000 de un gesto de deslizamiento síncrono de pantalla múltiple. El orden en que se describe el método no pretende ser construido como una limitación, y cualquier número de los bloques del método descritos puede combinarse en cualquier orden para implementar el método, o un método alternativo.
En el bloque 2002, se reconoce una primera entrada de movimiento en una primera pantalla de un sistema de pantalla múltiple cuando se mueve en una dirección particular a través de la primera pantalla. Por ejemplo, el sistema de reconocimiento de entradas 110 reconoce la primera entrada de movimiento 1912 en la primera pantalla 1904 cuando la primera entrada de movimiento se mueve en una dirección particular a través de la primera pantalla. En el bloque 2004, se reconoce una segunda entrada de movimiento en una segunda pantalla del sistema de pantalla múltiple cuando se mueve en la dirección particular a través de la segunda pantalla y aproximadamente cuando se reconoce la primera entrada de movimiento. Por ejemplo, el sistema de reconocimiento de entradas 110 también reconoce la segunda entrada de movimiento 1914 en la segunda pantalla 1906 cuando la segunda entrada de movimiento se mueve en la dirección particular a través de la segunda pantalla y aproximadamente cuando se reconoce la primera entrada de movimiento.
En el bloque 2006, se determina un gesto de deslizamiento síncrono a partir de las entradas de movimiento primera y segunda reconocidas. Por ejemplo, el módulo de gestos 108 determina el gesto de deslizamiento síncrono de pantalla múltiple a partir de las entradas de movimiento 1912, 1914 reconocidas. El gesto de deslizamiento síncrono se identifica como una combinación de pantalla cruzada de las entradas de movimiento primera y segunda. En distintos ejemplos, el gesto de deslizamiento síncrono es efectivo para mover un objeto visualizado desde su visualización en la primera pantalla para mostrarlo en la segunda pantalla (en el bloque 2008), para reemplazar con objetos visualizados diferentes uno o más objetos visualizados en la primera y en la segunda pantalla (en el bloque 2010); para mover uno o más objetos visualizados y revelar un espacio de trabajo en la primera y en la segunda pantalla (en el bloque 2012); para recorrer uno o más espacios de trabajo que se muestran en la primera y en la segunda pantalla (en el bloque 2014); y/o para reemplazar con aplicaciones diferentes una o más aplicaciones en la primera y en la segunda pantalla (en el bloque 2016).
La Figura 21 ilustra distintos componentes de un dispositivo de ejemplo 2100 que puede implementarse como cualquier tipo de dispositivo portátil y/o informático como se describe con referencia a las Figs. 1 y 2 para implementar ejemplos de gestos de pantalla múltiple. En los ejemplos, el dispositivo 2100 puede implementarse como cualquiera o una combinación de un dispositivo cableado y/o inalámbrico, un dispositivo de pantalla múltiple, como cualquier forma de dispositivo de cliente de televisión (p. ej., decodificador de televisión, grabador de video digital (DVR), etc.), dispositivo de consumo, dispositivo informático, dispositivo servidor, dispositivo informático portátil, dispositivo de usuario, dispositivo de comunicación, dispositivo de procesamiento y/o representación de video, dispositivo electrodoméstico, dispositivo de juego, dispositivo electrónico, y/o cualquier otro tipo de dispositivo. El dispositivo 2100 también puede asociarse con un usuario (es decir, una persona) y/o una entidad que maneja el dispositivo de manera que un dispositivo describe dispositivos lógicos que incluyen usuarios, software, firmware, y/o una combinación de dispositivos.
El dispositivo 2100 incluye dispositivos de comunicación 2102 que permiten una comunicación cableada y/o inalámbrica de datos del dispositivo 2104 (p. ej., datos recibidos, datos que están siendo recibidos, datos programados para su transmisión, paquetes de datos de los datos, etc.). Los datos del dispositivo 2104 u otro contenido del dispositivo pueden incluir ajustes de configuración del dispositivo, contenido multimedia almacenado en el dispositivo, y/o información asociada con un usuario del dispositivo. El contenido multimedia almacenado en el dispositivo 2100 puede incluir cualquier tipo de audio, video, y/o datos de imagen. El dispositivo 2100 incluye una o más entradas de datos 2106 a través de las cuales pueden recibirse cualquier tipo de dato, contenido multimedia, y/o entradas, como entradas de usuario seleccionables, mensajes, música, contenido multimedia de televisión, contenido de video grabado, y cualquier otro tipo de audio, video, y/o datos de imagen recibido de cualquier contenido y/o fuente de datos.
El dispositivo 2100 también incluye interfaces de comunicación 2108 que pueden implementarse como cualquiera o más de una interfaz serie y/o paralelo, una interfaz inalámbrica, cualquier tipo de interfaz de red, un módem, y como cualquier otro tipo de interfaz de comunicación. Las interfaces de comunicación 2108 proporcionan una conexión y/o enlaces de comunicación entre el dispositivo 2100 y una red de comunicación por la cual otros dispositivos electrónicos, informáticos, y de comunicación comunican datos con el dispositivo 2100.
El dispositivo 2100 incluye uno o más procesadores 2110 (p. ej., cualquiera de micro-procesadores, controladores, y similares) que procesan distintas instrucciones ejecutables por ordenador para controlar el funcionamiento del dispositivo 2100 y para implementar realizaciones de gestos de pantalla múltiple. Alternativamente o además, el dispositivo 2100 puede implementarse con cualquier combinación de hardware, firmware, o circuitos de lógica fija que se implementa en relación con los circuitos de procesamiento y de control que son identificados de manera general en 2112. Aunque no se muestra, el dispositivo 2100 puede incluir un bus del sistema o sistema de transferencia de datos que acopla los distintos componentes dentro del dispositivo. Un bus del sistema puede incluir cualquiera o una combinación de diferentes estructuras de bus, como un bus de memoria o controlador de memoria, un bus de periféricos, un bus serie universal, y/o un procesador o bus local que utilizar cualquiera de una variedad de arquitecturas de bus.
El dispositivo 2100 también incluye medios legibles por ordenador 2114, como uno o más componentes de memoria, ejemplos de los cuales incluyen memoria de acceso aleatorio (RAM), memoria no volátil (p. ej., cualquiera o más de una memoria de solo lectura (ROM), memoria flash, EPROM, EEPROM, etc.), y un dispositivo de almacenamiento en disco. Un dispositivo de almacenamiento en disco puede implementarse como cualquier tipo de dispositivo de almacenamiento magnético u óptico, como una unidad de disco duro, un disco compacto (CD) grabable y/o regrabable, cualquier tipo de un disco versátil digital (DVD), y similares. El dispositivo 2100 también puede incluir un dispositivo de almacenamiento masivo 2116.
Los medios legibles por ordenador 2114 proporcionan mecanismos de almacenamiento de datos para almacenar los datos del dispositivo 2104, así como distintas aplicaciones del dispositivo 2118 y cualesquiera otros tipos de información y/o datos relacionados con aspectos operativos del dispositivo 2100. Por ejemplo, un sistema operativo 2120 puede mantenerse como una aplicación informática con el medio legible por ordenador 2114 y ejecutarse en los procesadores 2110. Las aplicaciones del dispositivo 2118 pueden incluir un administrador del dispositivo (p. ej., una aplicación de control, una aplicación software, un módulo de procesamiento y control de señal, código que es nativo a un dispositivo particular, una capa de abstracción hardware para un dispositivo particular, etc.).
Las aplicaciones del dispositivo 2118 también incluyen cualesquiera componentes o módulos del sistema para implementar realizaciones de gestos de pantalla múltiple. En este ejemplo, las aplicaciones del dispositivo 2118 pueden incluir aplicaciones de la interfaz 2122 y un módulo de gestos 2124, como cuando el dispositivo 2100 se implementa como un dispositivo de pantalla múltiple. Las aplicaciones de la interfaz 2122 y el módulo de gestos 2124 se muestran como módulos software y/o aplicaciones informáticas. Alternativamente o además, las aplicaciones de la interfaz 2122 y/o el módulo de gestos 2124 pueden implementarse como hardware, software, firmware, o cualquier combinación de los mismos.
El dispositivo 2100 incluye un sistema de reconocimiento de entradas 2126 implementado para reconocer distintas entradas o combinaciones de entradas, como una entrada de selección, una entrada de retención, una entrada de movimiento, una entrada de contacto, una entrada de toque, y similares. El sistema de reconocimiento de entradas 2126 puede incluir cualquier tipo de características de detección de entradas para distinguir los distintos tipos de entradas, como sensores, píxeles de detección de luz, sensores táctiles, cámaras, y/o una interfaz natural de usuario que interpreta las interacciones, gestos, entradas y movimientos del usuario.
El dispositivo 2100 también incluye un sistema de representación de audio y/o video 2128 que genera y proporciona datos de audio a un sistema de audio 2130 y/o genera y proporciona datos de visualización a un sistema de visualización 2132. El sistema de audio 2130 y/o el sistema de visualización 2132 pueden incluir cualesquiera dispositivos que procesen, muestren, y/o de otro modo represente datos de audio, de visualización y de imagen. Los datos de visualización y las señales de audio pueden comunicarse desde el dispositivo 2100 a un dispositivo de audio y/o a un dispositivo de visualización a través de un enlace de RF (radio frecuencia), un enlace de S-video, un enlace de video compuesto, un enlace de video de componente, una DVI (interfaz de video digital), una conexión de audio analógica, u otro enlace de comunicación similar. En una realización, el sistema de audio 2130 y/o el sistema de visualización 2132 se implementan como componentes externos al dispositivo 2100. Alternativamente, el sistema de audio 2130 y/o el sistema de visualización 2132 se implementan como componentes integrados del dispositivo de ejemplo 2100.
Aunque las realizaciones de gestos de pantalla múltiple se han descrito en un lenguaje específico para características y/o métodos, debe entenderse que el objeto de las reivindicaciones adjuntas no se limita necesariamente a las características específicas o métodos descritos. Más bien, las características específicas y los métodos se describen como implementaciones de ejemplo de los gestos de pantalla múltiple.

Claims (7)

REIVINDICACIONES
1. Un método implementado por ordenador (1400), que comprende:
reconocer (1402) una entrada de retención de toque (1314) en una primera pantalla (104, 1304) de un sistema de pantalla múltiple (102, 1302), siendo reconocida la entrada de retención de toque (1314) cuando se mantiene para seleccionar una página de la publicación (1310) que se muestra en la primera pantalla (104, 1304);
reconocer (1404) una entrada de retención de movimiento (1316) en una segunda pantalla (106, 1306) del sistema de pantalla múltiple (102, 1302), siendo reconocida la entrada de retención de movimiento (1316) mientras que la entrada de retención de toque (1314) permanece en su lugar; y
determinar (1406) un gesto de retención y de paso de página (130) a partir de las entradas de retención de toque y de movimiento (1314, 1316) reconocidas, el gesto de retención y de paso de página (130) efectivo para seleccionar la página de la publicación (1310) para su visualización en la primera pantalla (104, 1304) mientras que se pasan una o más páginas de la publicación adicionales (1312, 1322), en respuesta a la entrada de retención de toque, para su visualización en la segunda pantalla (106, 1306), en donde la página de la publicación (1310, 1312, 1322) es cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica.
2. Un método (1400) como el mencionado en la reivindicación 1, en donde el gesto de retención y de paso de página (130) se identifica como una combinación de pantalla cruzada de las entradas de retención de toque y de movimiento (1314, 1316).
3. Un método (1400) como el mencionado en cualquiera de las reivindicaciones precedentes, en donde el gesto de retención y de paso de página (130) es efectivo para mantener la visualización de la página de la publicación (1310) que se muestra en la primera pantalla (104, 1304) y pasar páginas de la publicación (1312) para mostrar una página de la publicación no consecutiva (1322) en la segunda pantalla (106, 1306) junto con la primera página de la publicación (1310).
4. Un medio legible por ordenador (2114) que comprende instrucciones ejecutables por ordenador almacenadas en el mismo que, cuando son ejecutadas por un procesador (2110), hacen que el procesador (2110) realice el método (1400) de cualquiera de las reivindicaciones precedentes.
5. Un sistema de pantalla múltiple (102, 1302, 2100) que comprende:
al menos una memoria (2114, 2116) y un procesador (2110) para implementar un módulo de gestos (108, 2124) configurado para determinar un gesto de retención y de paso de página (130) a partir de las entradas de retención de toque y de movimiento (1314, 1316) reconocidas, el gesto de retención y de paso de página (130) efectivo para seleccionar una página de la publicación (1310) en la primera pantalla (104, 1304) mientras que se pasan una o más páginas de la publicación adicionales (1312, 1322), en respuesta a la entrada de movimiento de toque, para su visualización en la segunda pantalla (106, 1306);
un sistema de reconocimiento de entradas (110, 2126) configurado para:
reconocer (1402) la entrada de retención de toque (1314) en la primera pantalla (104, 1304), siendo reconocida la entrada de retención de toque (1314) cuando se mantiene para seleccionar la página de la publicación (1310) que se muestra en la primera pantalla (104, 1304); y
reconocer (1404) la entrada de movimiento de toque (1316) en la segunda pantalla (106, 1306), siendo reconocida la entrada de movimiento de toque (1316) mientras que la entrada de retención de toque (1314) permanece en su lugar, en donde la página de la publicación (1310, 1312, 1322) es cualquier tipo de cuaderno, periódico, libro, papel, una sola página, y similares en forma electrónica.
6. Un sistema de pantalla múltiple (102, 1302, 2100) como el mencionado en la reivindicación 5, en donde el módulo de gestos (108) se configura además para identificar el gesto de retención de paso de página (130) como una combinación de pantalla cruzada de las entradas de retención de toque y de movimiento (1314, 1316).
7. Un sistema de pantalla múltiple (102, 1302, 2100) como el mencionado en cualquiera de las reivindicaciones 5 a 6, en donde el gesto de retención y de paso de página (130) es efectivo para mantener la visualización de la página de la publicación (1310) que se muestra en la primera pantalla (104, 1304) y pasar páginas de la publicación (1312) para mostrar una página de la publicación no consecutiva (1322) en la segunda ventana (106, 1306) junto con la primera página de la publicación (1310).
ES11748029T 2010-02-25 2011-02-24 Gesto de retención y de paso de página de pantalla múltiple Active ES2731627T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/713,110 US8707174B2 (en) 2010-02-25 2010-02-25 Multi-screen hold and page-flip gesture
PCT/US2011/025974 WO2011106468A2 (en) 2010-02-25 2011-02-24 Multi-screen hold and page-flip gesture

Publications (1)

Publication Number Publication Date
ES2731627T3 true ES2731627T3 (es) 2019-11-18

Family

ID=44477507

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11748029T Active ES2731627T3 (es) 2010-02-25 2011-02-24 Gesto de retención y de paso de página de pantalla múltiple

Country Status (7)

Country Link
US (1) US8707174B2 (es)
EP (1) EP2539803B1 (es)
JP (1) JP5784047B2 (es)
CN (1) CN102770834B (es)
CA (1) CA2788200C (es)
ES (1) ES2731627T3 (es)
WO (1) WO2011106468A2 (es)

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8698751B2 (en) * 2010-10-01 2014-04-15 Z124 Gravity drop rules and keyboard display on a multiple screen device
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8210331B2 (en) * 2006-03-06 2012-07-03 Hossein Estahbanati Keshtkar One-way pawl clutch with backlash reduction means and without biasing means
US8127254B2 (en) 2007-06-29 2012-02-28 Nokia Corporation Unlocking a touch screen device
US8803474B2 (en) * 2009-03-25 2014-08-12 Qualcomm Incorporated Optimization of wireless power devices
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
JP5351006B2 (ja) * 2009-12-24 2013-11-27 京セラ株式会社 携帯端末及び表示制御プログラム
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110191704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US8707174B2 (en) * 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US20110209089A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen object-hold and page-change gesture
US20110209058A1 (en) * 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9223476B2 (en) * 2010-07-02 2015-12-29 Ebay Inc. User-widget-based transaction system
US8854318B2 (en) 2010-09-01 2014-10-07 Nokia Corporation Mode switching
KR101743632B1 (ko) 2010-10-01 2017-06-07 삼성전자주식회사 휴대용 단말기에서 전자책 페이지 넘김 장치 및 방법
EP2437151B1 (en) * 2010-10-01 2020-07-08 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
US9678572B2 (en) 2010-10-01 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
US8823640B1 (en) 2010-10-22 2014-09-02 Scott C. Harris Display reconfiguration and expansion across multiple devices
EP2641155B1 (en) * 2010-11-18 2019-07-31 Google LLC Orthogonal dragging on scroll bars
JPWO2012081699A1 (ja) * 2010-12-17 2014-05-22 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、表示制御方法およびプログラム
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
KR20120091975A (ko) * 2011-02-10 2012-08-20 삼성전자주식회사 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법
TWI483172B (zh) * 2011-04-07 2015-05-01 Chi Mei Comm Systems Inc 編排行動裝置用戶介面的方法和系統
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US8878794B2 (en) 2011-09-27 2014-11-04 Z124 State of screen info: easel
US9026934B1 (en) * 2011-09-29 2015-05-05 Amazon Technologies, Inc. Dynamic character biographies
US9582236B2 (en) 2011-09-30 2017-02-28 Nokia Technologies Oy User interface
US9454186B2 (en) * 2011-09-30 2016-09-27 Nokia Technologies Oy User interface
US9251144B2 (en) 2011-10-19 2016-02-02 Microsoft Technology Licensing, Llc Translating language characters in media content
KR20130061510A (ko) * 2011-12-01 2013-06-11 삼성전자주식회사 디지털 영상 처리장치 및 이를 포함하는 디지털 촬영장치
JP5984366B2 (ja) * 2011-12-01 2016-09-06 キヤノン株式会社 表示装置及びその制御方法、並びにプログラム
US9645733B2 (en) * 2011-12-06 2017-05-09 Google Inc. Mechanism for switching between document viewing windows
US9830049B2 (en) * 2011-12-12 2017-11-28 Nokia Technologies Oy Apparatus and method for providing a visual transition between screens
US9395901B2 (en) 2012-02-08 2016-07-19 Blackberry Limited Portable electronic device and method of controlling same
JP5910864B2 (ja) * 2012-02-27 2016-04-27 カシオ計算機株式会社 画像表示装置、画像表示方法及び画像表示プログラム
KR101382928B1 (ko) * 2012-04-09 2014-04-08 삼성전자주식회사 전자 서적의 책갈피 설정 방법 및 장치와 그 방법에 대한 프로그램 소스를 저장한 기록 매체
JP5905323B2 (ja) * 2012-04-25 2016-04-20 京セラ株式会社 携帯端末及び処理方法
US20150116369A1 (en) * 2012-05-14 2015-04-30 Nec Casio Mobile Communications, Ltd. Display device, display control method, and non-transitory computer readable medium storing display control program
KR101984154B1 (ko) * 2012-07-16 2019-05-30 삼성전자 주식회사 터치 및 제스처 입력을 이용한 단말의 제어 방법 및 그 단말
US9696879B2 (en) 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
KR102099646B1 (ko) * 2012-09-25 2020-04-13 삼성전자 주식회사 휴대단말의 분할화면 전환 장치 및 방법
CN103699544B (zh) * 2012-09-27 2017-05-31 金蝶软件(中国)有限公司 跨页选择数据的方法和系统
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) * 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US9785291B2 (en) 2012-10-11 2017-10-10 Google Inc. Bezel sensitive touch screen system
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US9495470B2 (en) 2012-11-21 2016-11-15 Microsoft Technology Licensing, Llc Bookmarking for electronic books
US9672292B2 (en) 2012-11-21 2017-06-06 Microsoft Technology Licensing, Llc Affinity-based page navigation
US9081487B2 (en) * 2012-11-22 2015-07-14 Agfa Healthcare Inc. System and method for manipulating an image
KR102015347B1 (ko) * 2013-01-07 2019-08-28 삼성전자 주식회사 터치 디바이스를 이용한 마우스 기능 제공 방법 및 장치
US9535503B2 (en) * 2013-01-29 2017-01-03 Blackberry Limited Methods and devices for simultaneous multi-touch input
JP2014182652A (ja) * 2013-03-19 2014-09-29 Canon Inc 情報処理装置およびその制御方法、ならびにプログラム
JP6171643B2 (ja) * 2013-07-11 2017-08-02 株式会社デンソー ジェスチャ入力装置
US9081876B2 (en) 2013-07-23 2015-07-14 Agfa Healthcare Inc. Methods and systems for navigating image series
US9329692B2 (en) 2013-09-27 2016-05-03 Microsoft Technology Licensing, Llc Actionable content displayed on a touch screen
US10282056B2 (en) 2013-12-24 2019-05-07 Dropbox, Inc. Sharing content items from a collection
US9811245B2 (en) 2013-12-24 2017-11-07 Dropbox, Inc. Systems and methods for displaying an image capturing mode and a content viewing mode
CN104748737B (zh) 2013-12-30 2017-09-29 华为技术有限公司 一种多终端定位方法、相关设备及系统
CN104750238B (zh) 2013-12-30 2018-10-02 华为技术有限公司 一种基于多终端协同的手势识别方法、设备及系统
CN103793157B (zh) * 2014-01-22 2017-01-18 深圳市欧珀通信软件有限公司 一种移动终端翻转触控方法及装置
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
CN104267889B (zh) * 2014-09-15 2019-03-29 联想(北京)有限公司 一种控制方法和电子设备
WO2016043070A1 (ja) * 2014-09-16 2016-03-24 日本電気株式会社 ウィンドウ制御方法、情報処理装置およびその制御方法と制御プログラム
US9823764B2 (en) * 2014-12-03 2017-11-21 Microsoft Technology Licensing, Llc Pointer projection for natural user input
US20180173373A1 (en) * 2015-06-12 2018-06-21 Nureva Inc. Method and apparatus for using gestures across multiple devices
CN105094548A (zh) * 2015-07-20 2015-11-25 联想(北京)有限公司 一种信息处理的方法及电子设备
US10386933B2 (en) 2016-08-30 2019-08-20 International Business Machines Corporation Controlling navigation of a visual aid during a presentation
US10372398B2 (en) 2017-04-04 2019-08-06 Microsoft Technology Licensing, Llc Foldable display device with interactable user interface surface on the external shell
US20180329597A1 (en) 2017-05-15 2018-11-15 Microsoft Technology Licensing, Llc Ink Anchoring
US20180329876A1 (en) * 2017-05-15 2018-11-15 Microsoft Technology Licensing, Llc Smart Templates
US10318109B2 (en) 2017-06-09 2019-06-11 Microsoft Technology Licensing, Llc Emoji suggester and adapted user interface
US10936281B2 (en) 2018-12-19 2021-03-02 International Business Machines Corporation Automatic slide page progression based on verbal and visual cues
US11347331B2 (en) 2019-04-08 2022-05-31 Dell Products L.P. Portable information handling system stylus garage and charge interface
US10788865B1 (en) 2019-04-26 2020-09-29 Dell Products L.P. Information handling system dual pivot hinge signal path
US11017742B2 (en) 2019-05-02 2021-05-25 Dell Products L.P. Information handling system multiple display viewing angle brightness adjustment
US11009936B2 (en) 2019-05-02 2021-05-18 Dell Products L.P. Information handling system power control sensor
US11341925B2 (en) 2019-05-02 2022-05-24 Dell Products L.P. Information handling system adapting multiple display visual image presentations

Family Cites Families (208)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4686332A (en) 1986-06-26 1987-08-11 International Business Machines Corporation Combined finger touch and stylus detection system for use on the viewing surface of a visual display device
US4843538A (en) * 1985-04-30 1989-06-27 Prometrix Corporation Multi-level dynamic menu which suppresses display of items previously designated as non-selectable
US6167439A (en) 1988-05-27 2000-12-26 Kodak Limited Data retrieval, manipulation and transmission with facsimile images
US5231578A (en) * 1988-11-01 1993-07-27 Wang Laboratories, Inc. Apparatus for document annotation and manipulation using images from a window source
US5237647A (en) 1989-09-15 1993-08-17 Massachusetts Institute Of Technology Computer aided drawing in three dimensions
US5898434A (en) * 1991-05-15 1999-04-27 Apple Computer, Inc. User interface system having programmable user interface elements
US5349658A (en) * 1991-11-01 1994-09-20 Rourke Thomas C O Graphical user interface
US5351995A (en) * 1992-01-29 1994-10-04 Apple Computer, Inc. Double-sided, reversible electronic paper
US5661773A (en) 1992-03-19 1997-08-26 Wisconsin Alumni Research Foundation Interface for radiation therapy machine
US5821930A (en) 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
US6097392A (en) 1992-09-10 2000-08-01 Microsoft Corporation Method and system of altering an attribute of a graphic object in a pen environment
US5463725A (en) 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
DE69430967T2 (de) * 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
EP0626635B1 (en) * 1993-05-24 2003-03-05 Sun Microsystems, Inc. Improved graphical user interface with method for interfacing to remote devices
US5583984A (en) * 1993-06-11 1996-12-10 Apple Computer, Inc. Computer system with graphical user interface including automated enclosures
JPH0778144A (ja) * 1993-06-25 1995-03-20 Casio Comput Co Ltd 表示制御装置
US5497776A (en) * 1993-08-05 1996-03-12 Olympus Optical Co., Ltd. Ultrasonic image diagnosing apparatus for displaying three-dimensional image
US5596697A (en) * 1993-09-30 1997-01-21 Apple Computer, Inc. Method for routing items within a computer system
US5491783A (en) * 1993-12-30 1996-02-13 International Business Machines Corporation Method and apparatus for facilitating integrated icon-based operations in a data processing system
JPH086707A (ja) * 1993-12-30 1996-01-12 Xerox Corp スクリーン指向ディスプレー処理システム
US5555369A (en) 1994-02-14 1996-09-10 Apple Computer, Inc. Method of creating packages for a pointer-based computer system
US5664128A (en) 1995-02-23 1997-09-02 Apple Computer, Inc. Object storage apparatus for use with data sets in computer applications
JPH0926769A (ja) * 1995-07-10 1997-01-28 Hitachi Ltd 画像表示装置
US5694150A (en) 1995-09-21 1997-12-02 Elo Touchsystems, Inc. Multiuser/multi pointing device graphical user interface system
US5761485A (en) * 1995-12-01 1998-06-02 Munyan; Daniel E. Personal electronic book system
JPH10192A (ja) 1996-04-15 1998-01-06 Olympus Optical Co Ltd 超音波画像診断装置
US5969720A (en) 1997-03-07 1999-10-19 International Business Machines Corporation Data processing system and method for implementing an informative container for a file system
JP5019494B2 (ja) 1997-04-01 2012-09-05 コリクサ コーポレーション モノホスホリルリピドaの水性免疫アジュバント組成物
US6920619B1 (en) * 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US6037937A (en) * 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
WO1999028811A1 (en) * 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US20010047263A1 (en) 1997-12-18 2001-11-29 Colin Donald Smith Multimodal user interface
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
EP2256605B1 (en) 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6639577B2 (en) 1998-03-04 2003-10-28 Gemstar-Tv Guide International, Inc. Portable information display device with ergonomic bezel
US6239798B1 (en) * 1998-05-28 2001-05-29 Sun Microsystems, Inc. Methods and apparatus for a window access panel
US6337698B1 (en) 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
US6507352B1 (en) * 1998-12-23 2003-01-14 Ncr Corporation Apparatus and method for displaying a menu with an interactive retail terminal
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US6992687B1 (en) 1999-12-07 2006-01-31 Microsoft Corporation Bookmarking and placemarking a displayed document in a computer system
JP4803883B2 (ja) 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
US6859909B1 (en) * 2000-03-07 2005-02-22 Microsoft Corporation System and method for annotating web-based documents
JP2001265523A (ja) 2000-03-21 2001-09-28 Sony Corp 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体
US7290285B2 (en) * 2000-06-30 2007-10-30 Zinio Systems, Inc. Systems and methods for distributing and viewing electronic documents
WO2002059868A1 (en) * 2001-01-24 2002-08-01 Interlink Electronics, Inc. Game and home entertainment device remote control
US20020101457A1 (en) * 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
US20020116421A1 (en) * 2001-02-17 2002-08-22 Fox Harold L. Method and system for page-like display, formating and processing of computer generated information on networked computers
GB0117543D0 (en) * 2001-07-18 2001-09-12 Hewlett Packard Co Document viewing device
US7085274B1 (en) * 2001-09-19 2006-08-01 Juniper Networks, Inc. Context-switched multi-stream pipelined reorder engine
US6762752B2 (en) * 2001-11-29 2004-07-13 N-Trig Ltd. Dual function input device and method
US20030179541A1 (en) 2002-03-21 2003-09-25 Peter Sullivan Double screen portable computer
US7158675B2 (en) * 2002-05-14 2007-01-02 Microsoft Corporation Interfacing with ink
US7330184B2 (en) 2002-06-12 2008-02-12 Smart Technologies Ulc System and method for recognizing connector gestures
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US9756349B2 (en) * 2002-12-10 2017-09-05 Sony Interactive Entertainment America Llc User interface, system and method for controlling a video stream
US7289404B2 (en) * 2003-03-13 2007-10-30 Lg Electronics Inc. Write-once recording medium and defective area management method and apparatus for write-once recording medium
US7159189B2 (en) 2003-06-13 2007-01-02 Alphabase Systems, Inc. Method and system for controlling cascaded windows on a GUI desktop on a computer
WO2005008444A2 (en) * 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
US20050101864A1 (en) * 2003-10-23 2005-05-12 Chuan Zheng Ultrasound diagnostic imaging system and method for 3D qualitative display of 2D border tracings
US7532196B2 (en) * 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
TWI275041B (en) * 2003-12-10 2007-03-01 Univ Nat Chiao Tung System and method for constructing large-scaled drawings of similar objects
EP1723632A4 (en) 2004-02-25 2007-07-25 Xplore Technologies Corp DEVICE FOR PROVIDING DIGITAL INPUTS WITH SEVERAL OPERATING TYPES
US7383500B2 (en) * 2004-04-30 2008-06-03 Microsoft Corporation Methods and systems for building packages that contain pre-paginated documents
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
EP1787281A2 (en) * 2004-07-15 2007-05-23 N-Trig Ltd. Automatic switching for a dual mode digitizer
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US8169410B2 (en) * 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
US7454717B2 (en) 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US20060092177A1 (en) * 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
HK1122460A2 (en) 2005-03-04 2009-05-15 Apple Inc Multi-functional hand-held device
US20060262188A1 (en) 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
WO2006137078A1 (en) * 2005-06-20 2006-12-28 Hewlett-Packard Development Company, L.P. Method, article, apparatus and computer system for inputting a graphical object
US20070061755A1 (en) * 2005-09-09 2007-03-15 Microsoft Corporation Reading mode for electronic documents
US7728818B2 (en) 2005-09-30 2010-06-01 Nokia Corporation Method, device computer program and graphical user interface for user input of an electronic device
US7574628B2 (en) * 2005-11-14 2009-08-11 Hadi Qassoudi Clickless tool
US7636071B2 (en) * 2005-11-30 2009-12-22 Hewlett-Packard Development Company, L.P. Providing information in a multi-screen device
US7603633B2 (en) 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
US20070097096A1 (en) * 2006-03-25 2007-05-03 Outland Research, Llc Bimodal user interface paradigm for touch screen devices
US20070236468A1 (en) 2006-03-30 2007-10-11 Apaar Tuli Gesture based device activation
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US8587526B2 (en) 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US7880728B2 (en) 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
JP5186373B2 (ja) 2006-07-31 2013-04-17 株式会社Access 電子機器、表示システム、表示方法およびプログラム
US7813774B2 (en) * 2006-08-18 2010-10-12 Microsoft Corporation Contact, motion and position sensing circuitry providing data entry associated with keypad and touchpad
US8106856B2 (en) * 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7831727B2 (en) * 2006-09-11 2010-11-09 Apple Computer, Inc. Multi-content presentation of unassociated content types
US20080084400A1 (en) 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US8970503B2 (en) 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8963842B2 (en) 2007-01-05 2015-02-24 Visteon Global Technologies, Inc. Integrated hardware and software user interface
US8607167B2 (en) 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US7978182B2 (en) * 2007-01-07 2011-07-12 Apple Inc. Screen rotation gestures on a portable multifunction device
US8347206B2 (en) 2007-03-15 2013-01-01 Microsoft Corporation Interactive image tagging
US20080249682A1 (en) 2007-04-06 2008-10-09 Visteon Global Technologies, Inc. Touch control bezel for display devices
US20080278455A1 (en) 2007-05-11 2008-11-13 Rpo Pty Limited User-Defined Enablement Protocol
JP2008305087A (ja) 2007-06-06 2008-12-18 Toshiba Matsushita Display Technology Co Ltd 表示装置
JP2008305036A (ja) 2007-06-06 2008-12-18 Hitachi Displays Ltd タッチパネル付表示装置
US20090019188A1 (en) * 2007-07-11 2009-01-15 Igt Processing input for computing systems based on the state of execution
US7821780B2 (en) 2007-07-19 2010-10-26 Heng Kah Choy Dual screen presentation notebook computer
US20090033632A1 (en) * 2007-07-30 2009-02-05 Szolyga Thomas H Integrated touch pad and pen-based tablet input system
US8181122B2 (en) 2007-07-30 2012-05-15 Perceptive Pixel Inc. Graphical user interface for large-scale, multi-user, multi-touch systems
KR20090013927A (ko) 2007-08-03 2009-02-06 에스케이 텔레콤주식회사 전자책 뷰어화면 상에서의 메모 실행 방법 및 이에적용되는 장치
US20090054107A1 (en) * 2007-08-20 2009-02-26 Synaptics Incorporated Handheld communication device and method for conference call initiation
JP4618517B2 (ja) * 2007-08-22 2011-01-26 ソニー株式会社 電子ブック、進行状況体感的通知方法、進行状況体感的通知プログラム及び進行状況体感的通知プログラム格納媒体
US7778118B2 (en) * 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
US8122384B2 (en) * 2007-09-18 2012-02-21 Palo Alto Research Center Incorporated Method and apparatus for selecting an object within a user interface by performing a gesture
US20090079699A1 (en) * 2007-09-24 2009-03-26 Motorola, Inc. Method and device for associating objects
DE202008018283U1 (de) * 2007-10-04 2012-07-17 Lg Electronics Inc. Menüanzeige für ein mobiles Kommunikationsendgerät
KR100869557B1 (ko) 2007-10-18 2008-11-27 김종대 무체인 자전거용 동력전달장치
KR100930563B1 (ko) * 2007-11-06 2009-12-09 엘지전자 주식회사 휴대 단말기 및 그 휴대 단말기의 방송채널 또는 방송채널 리스트 전환 방법
US8294669B2 (en) * 2007-11-19 2012-10-23 Palo Alto Research Center Incorporated Link target accuracy in touch-screen mobile devices by layout adjustment
US8154523B2 (en) * 2007-12-13 2012-04-10 Eastman Kodak Company Electronic device, display and touch-sensitive user interface
US8395584B2 (en) * 2007-12-31 2013-03-12 Sony Corporation Mobile terminals including multiple user interfaces on different faces thereof configured to be used in tandem and related methods of operation
TW200943140A (en) 2008-04-02 2009-10-16 Asustek Comp Inc Electronic apparatus and control method thereof
KR20090106755A (ko) 2008-04-07 2009-10-12 주식회사 케이티테크 메모 입력 기능을 제공하는 방법, 단말 및 그 방법을실행하는 프로그램이 기록된 기록매체
US20090276701A1 (en) 2008-04-30 2009-11-05 Nokia Corporation Apparatus, method and computer program product for facilitating drag-and-drop of an object
US20090282332A1 (en) 2008-05-12 2009-11-12 Nokia Corporation Apparatus, method and computer program product for selecting multiple items using multi-touch
US20090284478A1 (en) 2008-05-15 2009-11-19 Microsoft Corporation Multi-Contact and Single-Contact Input
JP5164675B2 (ja) 2008-06-04 2013-03-21 キヤノン株式会社 ユーザインターフェースの制御方法及び情報処理装置及びプログラム
WO2009152316A1 (en) 2008-06-11 2009-12-17 Teliris, Inc. Surface computing collaboration system, method and apparatus
US20090327975A1 (en) 2008-06-27 2009-12-31 Stedman Roy W Multi-Touch Sorting Gesture
JP2010015238A (ja) 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
WO2010005423A1 (en) 2008-07-07 2010-01-14 Hewlett-Packard Development Company, L.P. Tablet computers having an internal antenna
JP5606669B2 (ja) * 2008-07-16 2014-10-15 任天堂株式会社 3次元パズルゲーム装置、ゲームプログラム、3次元パズルゲームシステムおよびゲーム制御方法
EP2306286A4 (en) * 2008-07-17 2016-05-11 Nec Corp INFORMATION PROCESSING APPARATUS, STORAGE MEDIUM ON WHICH A PROGRAM HAS BEEN RECORDED, AND METHOD FOR MODIFYING OBJECT
US8159455B2 (en) * 2008-07-18 2012-04-17 Apple Inc. Methods and apparatus for processing combinations of kinematical inputs
US8390577B2 (en) 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
KR101529916B1 (ko) * 2008-09-02 2015-06-18 엘지전자 주식회사 휴대 단말기
US8686953B2 (en) * 2008-09-12 2014-04-01 Qualcomm Incorporated Orienting a displayed element relative to a user
US8600446B2 (en) * 2008-09-26 2013-12-03 Htc Corporation Mobile device interface with dual windows
US8547347B2 (en) * 2008-09-26 2013-10-01 Htc Corporation Method for generating multiple windows frames, electronic device thereof, and computer program product using the method
US9250797B2 (en) * 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
JP4683110B2 (ja) * 2008-10-17 2011-05-11 ソニー株式会社 表示装置、表示方法及びプログラム
US20100107067A1 (en) 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
CN201298220Y (zh) * 2008-11-26 2009-08-26 陈伟山 基于lcd液晶显示屏的红外反射多点触摸装置
KR101544475B1 (ko) * 2008-11-28 2015-08-13 엘지전자 주식회사 터치를 통한 입출력 제어
JP5268595B2 (ja) * 2008-11-28 2013-08-21 ソニー株式会社 画像処理装置、画像表示方法及び画像表示プログラム
US20100185949A1 (en) 2008-12-09 2010-07-22 Denny Jaeger Method for using gesture objects for computer control
US9864513B2 (en) 2008-12-26 2018-01-09 Hewlett-Packard Development Company, L.P. Rendering a virtual input device upon detection of a finger movement across a touch-sensitive display
US20100164878A1 (en) 2008-12-31 2010-07-01 Nokia Corporation Touch-click keypad
US8279184B2 (en) 2009-01-27 2012-10-02 Research In Motion Limited Electronic device including a touchscreen and method
US8219937B2 (en) 2009-02-09 2012-07-10 Microsoft Corporation Manipulation of graphical elements on graphical user interface via multi-touch gestures
TWI370473B (en) 2009-02-20 2012-08-11 Wistron Corp Switch structure mounted on the sidewall of circuit boards for electronic devices and manufacturing methods of the circuit boards thereof
WO2010096761A1 (en) 2009-02-23 2010-08-26 Provo Craft And Novelty, Inc. Controller device
US9250788B2 (en) 2009-03-18 2016-02-02 IdentifyMine, Inc. Gesture handlers of a gesture engine
US8134539B2 (en) 2009-03-30 2012-03-13 Eastman Kodak Company Digital picture frame having near-touch and true-touch
US8370762B2 (en) 2009-04-10 2013-02-05 Cellco Partnership Mobile functional icon use in operational area in touch panel devices
JP5229083B2 (ja) 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8212788B2 (en) 2009-05-07 2012-07-03 Microsoft Corporation Touch input to modulate changeable parameter
TW201040823A (en) 2009-05-11 2010-11-16 Au Optronics Corp Multi-touch method for resistive touch panel
US8441777B2 (en) 2009-05-29 2013-05-14 Avx Corporation Solid electrolytic capacitor with facedown terminations
US9405456B2 (en) 2009-06-08 2016-08-02 Xerox Corporation Manipulation of displayed objects by virtual magnetism
US9152317B2 (en) * 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
US20110055753A1 (en) * 2009-08-31 2011-03-03 Horodezky Samuel J User interface methods providing searching functionality
US9262063B2 (en) * 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
US9274699B2 (en) * 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US20110117526A1 (en) * 2009-11-16 2011-05-19 Microsoft Corporation Teaching gesture initiation with registration posture guides
US20110126094A1 (en) * 2009-11-24 2011-05-26 Horodezky Samuel J Method of modifying commands on a touch screen user interface
US20110143769A1 (en) * 2009-12-16 2011-06-16 Microsoft Corporation Dual display mobile communication device
US20110167336A1 (en) 2010-01-04 2011-07-07 Hit Development Llc Gesture-based web site design
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US20110185299A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110185320A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US20110191719A1 (en) 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US20110191704A1 (en) 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US20110199386A1 (en) 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US20110231796A1 (en) 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
US20110209098A1 (en) 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US8707174B2 (en) * 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US20110209058A1 (en) 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US20110209101A1 (en) 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen pinch-to-pocket gesture
US8473870B2 (en) * 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US20110209089A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen object-hold and page-change gesture
US8539384B2 (en) 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US20110291964A1 (en) 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
USD631043S1 (en) * 2010-09-12 2011-01-18 Steven Kell Electronic dual screen personal tablet computer with integrated stylus
EP2437153A3 (en) * 2010-10-01 2016-10-05 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
US8495522B2 (en) * 2010-10-18 2013-07-23 Nokia Corporation Navigation in a display

Also Published As

Publication number Publication date
CN102770834A (zh) 2012-11-07
EP2539803A4 (en) 2013-01-02
US20110209057A1 (en) 2011-08-25
CA2788200C (en) 2017-02-28
WO2011106468A2 (en) 2011-09-01
JP5784047B2 (ja) 2015-09-24
CA2788200A1 (en) 2011-09-01
JP2013521547A (ja) 2013-06-10
WO2011106468A3 (en) 2011-12-29
EP2539803A2 (en) 2013-01-02
CN102770834B (zh) 2015-08-19
US8707174B2 (en) 2014-04-22
EP2539803B1 (en) 2019-03-27

Similar Documents

Publication Publication Date Title
ES2731627T3 (es) Gesto de retención y de paso de página de pantalla múltiple
ES2684683T3 (es) Gestos de presión y expansión de una pantalla múltiple
US11880626B2 (en) Multi-device pairing and combined display
US9075522B2 (en) Multi-screen bookmark hold gesture
EP2539802B1 (en) Multi-screen hold and tap gesture
US8473870B2 (en) Multi-screen hold and drag gesture
US8751970B2 (en) Multi-screen synchronous slide gesture
JP5883400B2 (ja) オンスクリーン入力を作るためのオフスクリーン・ジェスチャー
JP5684291B2 (ja) オンおよびオフスクリーン・ジェスチャーの組み合わせ
US20110209101A1 (en) Multi-screen pinch-to-pocket gesture
US20110209089A1 (en) Multi-screen object-hold and page-change gesture
US9665258B2 (en) Interactive input system displaying an e-book graphic object and method of manipulating a e-book graphic object
US9329774B2 (en) Switching back to a previously-interacted-with application
US20110209093A1 (en) Radial menus with bezel gestures