MXPA04010572A - Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto. - Google Patents
Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto.Info
- Publication number
- MXPA04010572A MXPA04010572A MXPA04010572A MXPA04010572A MXPA04010572A MX PA04010572 A MXPA04010572 A MX PA04010572A MX PA04010572 A MXPA04010572 A MX PA04010572A MX PA04010572 A MXPA04010572 A MX PA04010572A MX PA04010572 A MXPA04010572 A MX PA04010572A
- Authority
- MX
- Mexico
- Prior art keywords
- navigation
- image
- touch
- control area
- navigation control
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
- H04N21/41265—The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42208—Display device provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Details Of Television Systems (AREA)
- Selective Calling Equipment (AREA)
Abstract
Un metodo y un aparato para hacer navegar una imagen vista sobre una pantalla de un dispositivo de representacion visual (320). La imagen es controlada por un procesador (215) que recibe ordenes de navegacion seleccionada sobre una pantalla sensible al tacto (205) de un dispositivo de representacion visual auxiliar (200). La pantalla sensible al tacto (205) esta colocada en una pluralidad de areas de control de navegacion (210, 220, 230, 240, 250, 260, 270, 280). Cada area de control de navegacion esta asociada con una orden de navegacion diferente. Cuando una de las areas de control de navegacion de la pantalla sensible al tacto (205) es seleccionada, la orden de navegacion asociada con el area de control de navegacion seleccionada es transmitida al procesador (215). El procesador (215) recibe y ejecuta la orden de navegacion transmitida para hacer navegar la imagen. Los limites de las areas de control normalmente estan ocultos a la vista, pero pueden ser revelados sobre la pantalla sensible al tacto (205) en respuesta a la entrada de un usuario.
Description
METODO Y APARATO PARA HACER NAVEGAR UNA IMAGEN USANDO UNA PANTALLA SENSIBLE AL TACTO
CAMPO DE LA INVENCION La presente invención se relaciona de manera general con la navegación de una imagen vista sobre una pantalla de visualización usando una pantalla sensible al tacto .
INFORMACION ANTECEDENTE Está emergiendo una nueva era en la experiencia de ver TV en la cual están disponibles servicios de datos complementarios de video al televidente que use una segunda pantalla de visualización en un dispositivo de representación visual auxiliar. Un ejemplo de un-dispositivo de representación visual auxiliar es un atenuador de red, el cual es un dispositivo inalámbrico remoto relativamente pequeño. La FIGURA 1 muestra un sistema de TV de cable digital de dos pantallas convencional 100. El sistema 100 incluye un dispositivo de representación visual auxiliar 105 el cual se comunica con un descodificador digital (STB) 110 (también referido como un "dispositivo local") usando una conexión inalámbrica. La conexión inalámbrica utiliza un puerto externo 115 sobre el STB 110, como un canal serie Universal (USB) , Ethernet o IEEE 1394 equipado con un punto de acceso 120 que se comunica con el dispositivo de representación visual auxiliar 105 sobre un enlace de frecuencia de radio (RF) inalámbrico 125. El punto de acceso 120 en este escenario es un dispositivo diseñado para una interconexión específica (por ejemplo USB) y es usado para soportar conectividad inalámbrica. El dispositivo de representación visual auxiliar 105 también puede ser conectado directamente a un módem de cable de alta velocidad, módem de abonado digital (DSL) o cualquier otro dispositivo de conexión a la Internet de alta velocidad para tener acceso a la Internet 135. La programación de video por TV 140 es accesible vía el STB 110. El protocolo de conexión inalámbrico típico que puede ser usado por un sistema de TV 100 incluye, pero no se limita al HomeRF® y el IEEE 802.11. Una conexión alámbrica más tradicional simplemente incluye un cable o alambre entre el STB 110 y el dispositivo de representación visual auxiliar 105, nuevamente usando un puerto USB, Ethernet o IEEE 1394. EL STB 110 también es conectado a una televisión 130. El sistema de TV de cable digital de dos pantallas 100 permite muchas capacidades mejoradas sobre el sistema de una pantalla. Por ejemplo, un usuario puede ver datos de Internet sobre la pantalla del dispositivo 3
de representación visual auxiliar 105 mientras observa un video ininterrumpidamente en la televisión 130. En otro ejemplo, las aplicaciones de STB que normalmente son vistas en la pantalla de televisión, son vistas en la pantalla de dispositivo de representación visual auxiliar 105, dejando la televisión 130 disponible para ver programas de video. En un sistema CATV, una guia de programación electrónica (EPG) es un ejemplo especifico de una aplicación con la que se puede interactuar a través de una aplicación que sea ejecutada en un segundo dispositivo de pantalla, como un dispositivo de representación visual auxiliar 105. Una EPG es usada por un observador para determinar que programas están disponibles para verse en una televisión, a que horas serán transmitidos los programas y en que canales. La información suplementaria de representación visual de EPG más sofisticada usada por el observador para determinar si el programa es adecuado para un niño pequeño, que actores están en el programa, cuanto dura el programa, y de qué trata el programa. Normalmente, en una EPG, se asigna una porción enmarcada en una ventana individual a cada programa presentado. Los observadores de programas de CATV usan una GUI para navegar en una EPG y seleccionar las ventanas de programa en la EPG que sean de interés particular. La Patente Estadounidense No. 6,130,726 (Darbee et al.) describe una unidad de representación visual de control remoto que selecciona la programación mostrada en imágenes de televisión y representación visual en un dispositivo de representación visual. La unidad de representación visual de control remoto descrita en la Patente Estadounidense No. 6,130,726 incluye una tecla EZ NAV usada para navegar una PEG moviéndose hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha. La Patente Estadounidense NO. 6,130,726 no describe el uso de áreas de control de navegación sobre una pantalla sensible al tacto para hacer navegar una imagen. Además, muchos sistemas de operación usan barras de avance desplegadas sobre los márgenes de los ejes X y/o Y de una pantalla de visualización para permitir que una imagen sobre la pantalla navegue. Las barras de avance ocupan una porción significativa del dispositivo de representación visual que podría ser usada para presentar vistas más o menos distractoras de la imagen. De este modo, es deseable hacer navegar una imagen, (por ejemplo, EPG, juego) desplazándolas sobre un dispositivo de representación visual de un dispositivo de representación visual auxiliar sin usar barras de avance que consuman espacio o dispositivos de control físico como una palanca de juego, ratón, teclas o similares .
SUMARIO DE LA INVENCION La presente invención es un método y un aparato para hacer navegar una imagen vista sobre una pantalla de un dispositivo de representación visual. La imagen es controlada por un procesador que recibe órdenes de navegación seleccionada sobre una pantalla sensible al tacto de un dispositivo de representación visual auxiliar. La pantalla sensible al tacto está repartida en una pluralidad de áreas de control de navegación. Cada área de control de navegación está asociada con una orden de navegación diferente. Una de las áreas de control de navegación es seleccionada. La orden de navegación asociada con el área de control de navegación seleccionada es transmitida al procesador. El procesador recibe y ejecuta la orden de navegación transmitida para hacer navegar la imagen. La imagen puede tener una pluralidad de porciones de imagen seleccionables . Al menos una de las porciones de imagen seleccionables puede ser resaltada actualmente para su posible selección. Una porción circular central de la pantalla sensible al tacto puede ser definida y dividida en cuatro áreas de control de navegación centrales y al menos un área de control de entrada. Pueden ser definidas cuatro áreas de control de navegación en las esquinas de la pantalla sensible al tacto. Cada área de control de navegación estimada puede estar adyacente a la porción circular central y localizarse en una esquina respectiva de la pantalla sensible al tacto. Cada una de las órdenes de navegación asociadas con las cuatro áreas de control de navegación esquinadas pueden ser usadas para cambiar las coordenadas de posición en el eje x y el eje y de al menos una de las porciones de la imagen seleccionables . Cada una de las órdenes de navegación asociadas con las cuatro áreas de control de navegación centrales pueden ser usadas para cambiar una de las coordenadas de posición del eje x y el eje y de al menos una de las porciones de imagen seleccionables. Cada área de control de navegación puede estar asociada con una orden de navegación diferente que cambia la porción de la imagen que sea resaltada de la porción de la imagen actualmente resaltada a una porción de la imagen adyacente a la porción de la imagen actualmente resaltada cuando sea ejecutada la orden de navegación diferente por el procesador. Las divisiones de la pantalla sensible al tacto pueden incluir además al menos un área de control de 7
entrada. El área de control de entrada puede ser seleccionada para activar una función asociada con la porción de la imagen selecciónatele resaltada actualmente. Los limites de las áreas de control pueden ser ocultados de la vista y pueden ser revelados sobre la pantalla sensible al tacto en respuesta a una entrada del usuario. Puede ser presionado un estilete o dedo de un usuario contra la pantalla sensible al tacto para seleccionar el área de control de navegación. La imagen puede incluir una rejilla de programa de televisión de una guia de programación electrónica (EPG) , incluyendo una pluralidad de ventanas de programa adyacentes. La selección de un área de control de navegación puede hacer que una ventana de programa especifica adyacente a la ventana de programa previamente resaltada sea resaltada por su posible selección de acuerdo con la orden de navegación ejecutada. La imagen puede hacerse navegar para jugar un juego. El aparato incluye la pantalla sensible al tacto dividida y un transmisor para transmitir la orden de navegación asociada con el área de control de navegación seleccionada al procesador. El aparato puede ser un dispositivo electrónico consumible infrarrojo (IR). El procesador puede localizarse en un descodi ficador (STB) y la pantalla del dispositivo de representación visual puede ser una televisión en comunicación con el STB.
BREVE DESCRIPCION DE LOS DIBUJOS La siguiente descripción detallada de una modalidad preferida de la presente invención será comprendida mejor cuando se lea en conjunto con los dibujos anexos. Para el propósito de ilustrar la presente invención, en los dibujos se muestran las modalidades preferidas hasta ahora. Sin embargo, la presente invención no se limita a los arreglos e instrumentalidades precisas mostradas. En los dibujos; La FIGURA 1 muestra un sistema de TV de cable digital de dos pantallas convencional; La FIGURA 2 muestra una interconexión gráfica de usuario sobre el lado de visualización del dispositivo de representación visual auxiliar de acuerdo con la presente invención ; La FIGURA 3 muestra un sistema para seleccionar y procesar las órdenes usadas para hacer navegar una imagen vista sobre una pantalla de un dispositivo de representación visual de acuerdo con la presente invención; Las FIGURAS 4-6, tomadas juntas, muestran un ejemplo de cómo una imagen vista sobre una pantalla de un dispositivo de representación visual se hace navegar de acuerdo con la presente invención; y La FIGURA 7 muestra un diagrama de flujo funcional de alto nivel que incluye los pasos implementados por el aparato mostrado en las FIGURAS 2 y 3.
DESCRIPCION DETALLADA DE LA INVENCION La FIGURA 2 muestra un dispositivo de representación visual 200 que opera de acuerdo con una modalidad preferida de la presente invención. El dispositivo de representación visual auxiliar 200 incluye una pantalla sensible al tacto (pantalla de tacto) 205, un procesador 215, y un programa de aplicación 225 que se ejecuta en el procesador 215, y un transmisor 245. El dispositivo de representación visual auxiliar 200 es usado para hacer navegar una imagen vista sobre una pantalla o un dispositivo de representación visual. Una pantalla sensible al tacto básica tiene tres componentes, un detector, un controlador y un excitador. Un detector de pantalla sensible al tacto es un panel claro que se coloca sobre el área de representación visual auxiliar. Un excitador de programas y sistemas de programación permite que la pantalla sensible al tacto se interconecte con un sistema operativo para traducir los eventos táctiles detectados por el detector de la 10
pantalla sensible al tacto en órdenes de navegación. Un control de pantalla sensible al tacto procesa las señales recibidas del detector de la pantalla sensible al tacto. Actualmente son usados varios tipos de tecnologías de pantallas sensibles al tacto: 1. Resistiva; 2. Onda acústica superficial; y 3. Capacitiva. Una pantalla sensible al tacto resistiva consiste del panel de vidrio o acrílico que está recubierto con capas eléctricamente conductoras y resistivas. Las capas delgadas son separadas por puntos separadores invisibles. Cuando opera, una corriente eléctrica se mueve a través de la pantalla sensible al tacto. Cuando es aplicada presión a la pantalla por un dedo o estilete, las capas son prensadas juntas, produciendo un cambio en la corriente eléctrica y que fue registrado un evento táctil. La tecnología de onda acústica superficial se basa en enviar ondas acústicas a través de un panel de vidrio claro con una serie de transductores y reflectores. Cuando un dedo o estilete toca la pantalla, las ondas son absorbidas, haciendo que sea registrado un evento táctil. Una pantalla sensible al tacto capacitiva consiste de un panel de vidrio con un material capacitivo (que almacena carga) que recubre su superficie. El circuito localizado en las esquinas de la pantalla mide la capacitancia de una persona que toque la pantalla. Son medidos los cambios de frecuencia para determinar las coordenadas en X y Y del evento táctil. El programa de aplicación 225 divide o reparte la pantalla sensible al tacto 205 en una pluralidad de áreas de control de navegación 210, 220, 230, 240, 250, 260, 270, 280 y al menos un área de control de entrada 290. Cada área de navegación está asociada con una orden de navegación diferente. El área de control de navegación 210 está asociada con una orden de navegación "hacia arriba". El área de control de navegación 220 está asociada con una orden de navegación "hacia abajo". El área de control de navegación 230 está asociada con una orden de navegación hacia la "izquierda". El área de control de navegación 240 está asociada con una orden de navegación a la "derecha". El área de control de navegación 250 está asociada con una orden de navegación "hacia arriba y hacia la izquierda". El área de control de navegación 260 está asociada con una orden de navegación "hacia abajo y hacia la izquierda". El área de control de navegación 270 está asociada con una orden de navegación de hacia arriba y a la derecha. El área de control de navegación 280 está asociada con una orden de navegación hacia abajo y hacia la derecha. Un estilete o un dedo del usuario se presiona contra la pantalla sensible al tacto 205 para seleccionar diferentes áreas de control de navegación, aunque una aplicación no relacionada con la imagen a navegar esté actualmente desplegada sobre la pantalla sensible al tacto 205. La pantalla sensible al tacto 205 no despliega la imagen que se esté haciendo navegar. La FIGURA 3 muestra un ejemplo de un sistema 300 que implementa la presente invención. El sistema 300 incluye el dispositivo de representación visual auxiliar 200, un dispositivo de control de visualización (por ejemplo, el descodificador (STB) ) 305 y una pantalla de visualización de imágenes 320 (por ejemplo, una televisión) . El dispositivo de control de visualización 305 incluye un receptor 310 y un procesador 315. El procesador 315 recibe órdenes de navegación del dispositivo de representación visual auxiliar 200 y controla la imagen vista sobre la pantalla del dispositivo de representación visual 320. Cuando un usuario selecciona un área de control de navegación sobre la pantalla sensible al tacto 205, se genera una orden de navegación asociada con el control de navegación seleccionado o se ejecutará en una memoria (no mostrada) por el procesador 215 y es enviada al transmisor 245 para transmitirse sobre un medio alámbrico o inalámbrico. El receptor 310 en el dispositivo de control de visualización 305 recibe la orden de navegación transmitida y envía la orden al procesador 315 en el STB. Un procesador recibe y ejecuta la orden de navegación transmitida 100 y hace navegar la imagen en consecuencia. En una modalidad, como se muestra en las FIGURAS 4-6, la imagen tiene una pluralidad de porciones de imagen seleccionables . Al menos una de las porciones de imagen seleccionables está actualmente resaltada por su posible selección por el usuario del dispositivo de representación visual auxiliar 200. El usuario puede activar una función asociada con la porción de la imagen seleccionable actualmente resaltada seleccionando al menos un área de control de entrada 290 (véase la FIGURA 2). La orden de navegación particular asociada con el área de control seleccionada es ejecutada para cambiar la porción seleccionada de una porción seleccionada actualmente presentada en un primer lugar sobre la pantalla del dispositivo de representación visual 320 a una porción seleccionada diferente desplegada en un segundo lugar del dispositivo de representación visual 320 de acuerdo a la orden ejecutada. En una modalidad preferida, una orden de 14
navegación es traducida en una señal inalámbrica y es transmitida via el transmisor 245 al dispositivo de control de visualización 305 para controlar cual porción de la imagen vista sobre el dispositivo de representación visual de imágenes 320 es seleccionado. Cuando un usuario selecciona una de las áreas de control definidas 210, 220, 230, 240, 250, 260, 270, 280 sobre la pantalla sensible al tacto 205 del dispositivo de representación visual auxiliar 200 por un tacto inicial por un estilete o dedo en esa área, son transmitidas una o más señales de órdenes de navegación al dispositivo de control de visualización del descodificador . Las señales pueden tomar la forma de señales infrarrojas (IR) o de frecuencia de radio inalámbricas (RF) . De manera alternativa, las señales de órdenes de navegación pueden ser transmitidas sobre una interconexión alámbrica usando típicamente protocolos alámbricos, como la Ethernet, USB, 1394 o similares. La imagen vista sobre la pantalla del dispositivo de representación visual 320 puede incluir una rejilla de programa de televisión de una guía de programación electrónica (EPG) incluyendo una pluralidad de ventanas de programas adyacentes A-X, las cuales corresponden a un canal y/o intervalo de tiempo particular durante la cual va comenzar la programación.
La selección del área de control de navegación sobre la pantalla sensible 205 hace que una ventana de programa particular adyacente a una ventana previamente seleccionada sea seleccionada de acuerdo con la orden ej ecutada . La FIGURA 4 muestra un ejemplo de navegación de una rejilla de programas vista sobre una pantalla de representación visual de imágenes 320 usando la presente invención, la ventana de programas P está actualmente resaltada para su posible selección futura. Si es seleccionada el área de control de navegación 230 (izquierda), la ventana del programa O se resalta en lugar de la ventana del programa P, como se muestra en la FIGURA 5. Entonces, como se muestra en la Figura 6, si es seleccionada el área de control de navegación 250 (Arriba y a la Izquierda), la ventana del programa H es resaltado en lugar de la ventana del programa O. Si es seleccionada el área de control de entrada 290 mientras la ventana H está resaltada, es activada una función asociada con la ventana H, como un hiperenlace o una segunda ventana, cuando el procesador 315 en el dispositivo de control de visualización 305 recibe y ejecuta una orden de entrada correspondiente del dispositivo de representación visual auxiliar 200. Una rejilla de programas presentados actualmente pueden mostrar únicamente una porción de la rejilla de programación total, como únicamente una ventana del tiempo de tres horas o únicamente una porción de los canales disponibles. Si es asi, entonces porciones adicionales de la rejilla de programación pueden ser reveladas si el usuario alcanza un borde de la rejilla de programación actualmente desplegada y selecciona un área de control de navegación que pasaría a lo largo del borde. Esa selección es ignorada si la rejilla de programación presentada actualmente muestra la rejilla de programación total. Cuando el usuario desea implementar una combinación móvil seleccionando una de las áreas de control de navegación 250, 260, 270, 280, la aplicación 225 que se eyecta en el procesador 215 en el dispositivo de representación visual 200 hace que sean transmitidas dos órdenes secuenciales del dispositivo de representación visual auxiliar 200 al dispositivo de control de visualización 305, justo como si un usuario seleccionara individualmente dos de las áreas de control de navegación 210, 220, 230, 240 en secuencia. De manera alternativa, puede ser transmitida una sola orden de "combinación" . La imagen vista sobre la pantalla del dispositivo de representación visual 320 también puede 17
hacerse navegar para jugar un juego (por ejemplo, Pac-ManMR, Space InvadersMR, o similares) moviendo las piezas del juego u otras imágenes en la misma forma que se describió anteriormente. En otras modalidades preferidas de la presente invención, las áreas de control de navegación pueden ser usadas para hacer que ocurra una acción o función con respecto a cual aplicación está ejecutándose actualmente en el STB 305 y está siendo mostrada sobre la pantalla del dispositivo de representación visual 320. Cada aplicación puede tener un conjunto diferente de acciones o funciones que ocurren con respecto a órdenes de navegación particulares. En algunas aplicaciones, como la aplicación PEG descrita anteriormente, la selección de un área de control de navegación hace que ocurra una función de navegación (por ejemplo, la selección del área de control de navegación de izquierda 230 produce un movimiento hacia la izquierda, la selección del área de control de navegación hacia abajo 220 produce un movimiento hacia abajo) . Sin embargo, en otra aplicación, la selección de un área de control de navegación puede no necesariamente hacer que ocurra una función de navegación. Por ejemplo, la serie de control de navegación pueden hacer que ocurran diferentes acciones o funciones, como cambios de modo o selecciones de 18
elementos. Un cambio de modo o selección de elemento puede no necesariamente producir el movimiento de alguna cosa en una pantalla de un dispositivo de representación visual. El alcance de la presente invención incluye esas modalidades alternativas. La FIGURA 7 muestra un diagrama de flujo que incluye pasos para hacer navegar una imagen mostrada en la pantalla de un dispositivo de representación visual 320 usando un dispositivo de representación visual auxiliar 200. Una aplicación 225 es ejecutada en un procesador 215 dentro del dispositivo de representación visual auxiliar 200 que reparte la pantalla sensible al tacto 205 en una pluralidad de área de control de navegación 210, 220, 230, 240, 250, 260, 270 y 280 y al menos un área de control de entrada 290 (paso 505) . Cada área de control de navegación 210, 220, 230, 240, 250, 260, 270 y 280 está asociada con una orden de navegación particular que cambia la selección de una porción de una imagen vista sobre la pantalla del dispositivo de representación visual 320. Una de las áreas de control de navegación es seleccionada (paso 510). La orden de navegación particular asociada con el área de control seleccionada es transmitida desde el dispositivo de representación visual auxiliar 200 hacia el procesador 315 en el STB 310 (paso 515) . En el paso 520, el procesador 310 en un dispositivo de control de visualización 305 hace navegar una imagen vista sobre la pantalla del dispositivo de representación visual 320 sobre la base de la orden de navegación transmitida. Cada vez que es seleccionada otra de las áreas de control de navegación (paso 525), se repiten los pasos 510, 515 y 520. La presente invención puede ser implementada con cualquier combinación de componentes físicos y programas y sistemas de programación. Si se implementa, un aparato implementado por computadora, la presente invención es implementada usando medios para efectuar todos los pasos y funciones descritas anteriormente. La presente invención puede ser incluida en un artículo de manufactura (por ejemplo, uno o más productos de programas de computadora) que tengan, por ejemplo, medios útiles en computadora. Los medios incorporados aquí, por ejemplo, medios de códigos de programas legibles en computadora para proporcionar o facilitar los mecanismos de la presente invención. El artículo de manufactura puede ser incluido como parte de un sistema de computadora o vendido por separado. Será apreciado por aquellos expertos en la técnica que podrían hacerse cambios a las modalidades descritas anteriormente sin apartarse del amplio concepto 20
inventivo de la misma. Debe comprenderse, por lo tanto que esta invención no se limita a las modalidades particulares descritas, sino que pretende cubrir modificaciones dentro del espíritu y alcance de la presente invención de acuerdo a lo definido por las reivindicaciones anexas.
Claims (32)
- NOVEDAD DE LA INVENCION Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes: REIVINDICACIONES 1. Un método para hacer navegar una imagen vista sobre una pantalla en un dispositivo de representación visual, siendo la imagen controlada por un procesador que recibe órdenes de navegación seleccionada sobre una pantalla sensible al tacto de un dispositivo de representación visual auxiliar, el método se caracteriza porque comprende: (a) repartir la pantalla sensible al tacto en una pluralidad de áreas de control de navegación, estando cada área de control de navegación asociada con una orden de navegación diferente ; (b) seleccionar una de las áreas de control de navegación; (c) transmitir la orden de navegación asociada con el área de control de navegación seleccionada al procesador; y (d) recibir y ejecutar mediante el procesador la orden de navegación transmitida para hacer navegar la imagen .
- 2. El método de conformidad con la reivindicación 1, caracterizado porque la imagen tiene una pluralidad de porciones de imagen selecciónateles, estando al menos una de esas porciones de imagen selecciónateles actualmente resaltada por su posible selección .
- 3. El método de conformidad con la reivindicación 2, caracterizado porque el paso (a) comprende : (i) definir una porción circular central de la pantalla sensible al tacto; y (ii) repartir la porción circular central en cuatro áreas de control de navegación centrales y al menos un área de control de entrada.
- 4. El método de conformidad con la reivindicación 3, caracterizado porque el paso (a) comprende además : (iii) definir cuatro áreas de control de navegación en las esquinas de la pantalla sensible al tacto, estando cada área de control de navegación de las esquinas adyacente a la porción circular central y localizada en una esquina respectiva de la pantalla sensible al tacto.
- 5. El método de conformidad con la reivindicación 4, caracterizado porque cada una de las órdenes de navegación asociadas con las cuatro áreas de control de navegación de las esquinas son usadas para cambiar las coordenadas del eje x y el eje y de la posición de al menos una de las porciones de imagen seleccionables .
- 6. El método de conformidad con la reivindicación 3, caracterizado porque cada una de las órdenes de navegación asociada con las cuatro órdenes de control de navegación centrales es usada para cambiar una de las coordenadas del eje y y el eje x de la posición de al menos de las porciones de imagen seleccionables.
- 7. El método de conformidad con la reivindicación 2, caracterizado porque cada área de control de navegación está asociada con una orden de navegación diferente que cambia la porción de la imagen que está resaltada de la porción de la imagen actualmente resaltada a una porción de imagen adyacente a la porción de la imagen actualmente resaltada cuando son ejecutadas diferentes órdenes de navegación por el procesador.
- 8. El método de conformidad con la reivindicación 2, en donde las particiones de la pantalla sensible al tacto incluyen además al menos un área de control de entrada, el método se caracteriza porque comprende además: (e) seleccionar el área de control de entrada para activar una función asociada con la porción de la imagen seleccionable actualmente resaltada.
- 9. El método de conformidad con la reivindicación 1, caracterizado porque las particiones de la pantalla sensible al tacto incluyen además al menos un área de control de entrada y los limites de las áreas de control están ocultos de la vista.
- 10. El método de conformidad con la reivindicación 9, caracterizado porque los limites de las áreas de control son revelados sobre la pantalla sensible al tacto en respuesta a una entrada del usuario.
- 11. El método de conformidad con la reivindicación 1, caracterizado porque el paso (a) comprende : (i) definir una porción circular central de la pantalla sensible al tacto; (ii) repartir la porción circular central en cuatro áreas de control de navegación centrales y al menos el área de control de entrada; y (iii) definir cuatro áreas de control de navegación en las esquinas, estando cada área de control de navegación de las esquinas adyacente a la porción circular central y localizada en una esquina respectiva de la pantalla sensible al tacto.
- 12. El método de conformidad con la reivindicación 1, caracterizado porque el paso (b) es efectuado presionando un estilete contra la pantalla sensible al tacto.
- 13. El método de conformidad con la reivindicación 1, caracterizado porque el paso (b) es efectuado presionando un dedo de un usuario del dispositivo de representación visual auxiliar contra la pantalla sensible al tacto.
- 14. El método de conformidad con la reivindicación 1, caracterizado porque la imagen incluye una rejilla de programa de televisión de una guía de programación electrónica (EPG) que incluye una pluralidad de ventanas de programa adyacentes, y la selección de un área de control de navegación hace que una ventana de programa específica adyacente a una ventana de programa previamente resaltada sea resaltada por su selección potencial de acuerdo con una orden de navegación ejecutada .
- 15. El método de conformidad con la reivindicación 1, caracterizado porque la imagen se hace navegar para jugar un juego.
- 16. Un aparato para hacer navegar una imagen vista sobre una pantalla de representación visual, siendo la imagen controlada por un procesador que recibe órdenes de navegación del aparato, el aparato se caracteriza porque comprende: (a) una pantalla sensible al tacto repartida en 26 una pluralidad de áreas de control de navegación, estando asociada con cada área de control de navegación con una orden de navegación diferente, siendo la pantalla sensible al tacto usada para seleccionar una de las áreas de control de navegación; y (b) un transmisor para transmitir la orden de navegación asociada con el área de control de navegación seleccionada al procesador, donde el procesador recibe y ejecuta la orden de navegación transmitida para hacer navegar la imagen.
- 17. El aparato de conformidad con la reivindicación 16, caracterizado porque la imagen tiene una pluralidad de porciones de imagen seleccionables, estando al menos una de las porciones de la imagen seleccionada actualmente resaltada por su posible selección .
- 18. El aparato de conformidad con la reivindicación 17, caracterizado porque una porción circular central de la pantalla sensible al tacto es definida y dividida en cuatro áreas de control de navegación centrales y al menos un área de control de entrada .
- 19. El aparato de conformidad con la reivindicación 18, caracterizado porque están definidas cuatro áreas de control de navegación de las esquinas de 27 la pantalla sensible al tacto, estando cada área de control de navegación de las esquinas adyacente a la porción circular central y localizada en una esquina respectiva de la pantalla sensible al tacto.
- 20. El aparato de conformidad con la reivindicación 19, caracterizado porque cada una de las órdenes de navegación asociadas con las cuatro áreas de control de navegación de las esquinas es usada para cambiar las coordenadas del eje x y del eje y de la posición de al menos una de las porciones de la imagen seleccionables .
- 21. El aparato de conformidad con la reivindicación 18, caracterizado porque cada una de las órdenes de navegación asociada con las cuatro áreas de control de navegación centrales es usada para cambiar una de las coordenadas del eje y y el eje x de la posición de al menos de las porciones de imagen seleccionables.
- 22. El aparato de conformidad con la reivindicación 17, caracterizado porque cada área de control de navegación está asociada con una orden de navegación diferente que cambia la porción de la imagen que está resaltada de la porción de la imagen actualmente resaltada a una porción de imagen adyacente a la porción de la imagen actualmente resaltada cuando son ejecutadas diferentes órdenes de navegación por el procesador. 28
- 23. El aparato de conformidad con la reivindicación 17, caracterizado porque las particiones de la pantalla sensible al tacto incluyen además al menos un área de control de entrada la cual es seleccionada para activar una función asociada con la porción de la imagen seleccionable actualmente resaltada.
- 24. El aparato de conformidad con la reivindicación 16, caracterizado porque las particiones de la pantalla sensible al tacto incluyen además al menos un área de control de entrada, y los límites de las áreas de control están ocultos de la vista.
- 25. El aparato de conformidad con la reivindicación 24, caracterizado porque los límites del área de control son revelados sobre la pantalla sensible al tacto en respuesta a la entrada del usuario.
- 26. El aparato de conformidad con la reivindicación 16, caracterizado porque una porción circular central de la pantalla sensible al tacto está definida o dividida en cuatro áreas de control de navegación centrales y al menos un área de control de entrada, y están definidas cuatro áreas de control de navegación en las esquinas de la pantalla sensible al tacto, estando cada área de control de navegación de las esquinas adyacente a la porción circular central y localizada en una esquina respectiva de la pantalla sensible al tacto.
- 27. El aparato de conformidad con la reivindicación 16, caracterizado porque el área de control de navegación es seleccionada presionando el estilete contra la pantalla sensible al tacto.
- 28. El aparato de conformidad con la reivindicación 16, caracterizado porque el área de control de navegación es seleccionada presionando el dedo de un usuario del dispositivo de representación visual auxiliar contra la pantalla sensible al tacto.
- 29. El aparato de conformidad con la reivindicación 16, caracterizado porque la imagen incluye una rejilla de programa de televisión de una guía de programación electrónica (EPG) que incluye una pluralidad de ventanas de programa adyacentes, y la selección de un área de control de navegación hace que una ventana de programa específica adyacente a una ventana de programa previamente resaltada sea resaltada por su selección potencial de acuerdo con una orden de navegación ejecutada .
- 30. El aparato de conformidad con la reivindicación 16, caracterizado porque la imagen se hace navegar para jugar un juego.
- 31. El aparato de conformidad con la reivindicación 16, caracterizado porque el aparato es un 30 dispositivo electrónico de consumo infrarrojo (IR).
- 32. El aparato de conformidad con la reivindicación 16, caracterizado porque el procesador se localiza en un descodificador (STB) y la pantalla de representación visual es una televisión en comunicación con el STB.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/134,158 US6995751B2 (en) | 2002-04-26 | 2002-04-26 | Method and apparatus for navigating an image using a touchscreen |
PCT/US2003/012916 WO2003092262A2 (en) | 2002-04-26 | 2003-04-25 | Method and apparatus for navigating an image using a touchscreen |
Publications (1)
Publication Number | Publication Date |
---|---|
MXPA04010572A true MXPA04010572A (es) | 2005-02-17 |
Family
ID=29249149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MXPA04010572A MXPA04010572A (es) | 2002-04-26 | 2003-04-25 | Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto. |
Country Status (9)
Country | Link |
---|---|
US (1) | US6995751B2 (es) |
EP (1) | EP1502177A2 (es) |
JP (1) | JP2005524289A (es) |
KR (1) | KR100699913B1 (es) |
CN (1) | CN100380295C (es) |
AU (1) | AU2003223739A1 (es) |
CA (1) | CA2483268C (es) |
MX (1) | MXPA04010572A (es) |
WO (1) | WO2003092262A2 (es) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
KR100483451B1 (ko) * | 2002-05-27 | 2005-04-15 | 주식회사 아이큐브 | 컨텐츠 파일과 네비게이션 정보의 편집처리방법 및 그 방법에 의하여 정보가 기록된 기록매체 |
US20030234763A1 (en) * | 2002-06-24 | 2003-12-25 | Xerox Corporation | System and method for audible feedback for touch screen displays |
US7176898B2 (en) * | 2002-09-13 | 2007-02-13 | Xerox Corporation | Removable control panel for multi-function equipment |
US7544129B2 (en) * | 2003-09-08 | 2009-06-09 | Igt | Gaming device having multiple selection groups with related picks |
JP4572615B2 (ja) * | 2004-07-27 | 2010-11-04 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2006092321A (ja) * | 2004-09-24 | 2006-04-06 | Toshiba Corp | 電子機器およびタッチパッド装置 |
CN104965621B (zh) | 2006-06-09 | 2018-06-12 | 苹果公司 | 触摸屏液晶显示器及其操作方法 |
CN102981678B (zh) | 2006-06-09 | 2015-07-22 | 苹果公司 | 触摸屏液晶显示器 |
US8552989B2 (en) | 2006-06-09 | 2013-10-08 | Apple Inc. | Integrated display and touch screen |
US8291346B2 (en) | 2006-11-07 | 2012-10-16 | Apple Inc. | 3D remote control system employing absolute and relative position detection |
DE102006053261B4 (de) * | 2006-11-11 | 2015-04-16 | Visus Technology Transfer Gmbh | System zur Wiedergabe medizinischer Bilder |
US8493330B2 (en) | 2007-01-03 | 2013-07-23 | Apple Inc. | Individual channel phase delay scheme |
US7889139B2 (en) * | 2007-06-21 | 2011-02-15 | Apple Inc. | Handheld electronic device with cable grounding |
US9710095B2 (en) | 2007-01-05 | 2017-07-18 | Apple Inc. | Touch screen stack-ups |
US20080235627A1 (en) * | 2007-03-21 | 2008-09-25 | Microsoft Corporation | Natural interaction by flower-like navigation |
US9838059B2 (en) | 2007-06-21 | 2017-12-05 | Apple Inc. | Handheld electronic touch screen communication device |
US8651947B2 (en) | 2007-11-09 | 2014-02-18 | Igt | Gaming system and method providing a multiple-player bonus redemption game |
US8881049B2 (en) * | 2007-12-14 | 2014-11-04 | Apple Inc. | Scrolling displayed objects using a 3D remote controller in a media system |
US8341544B2 (en) * | 2007-12-14 | 2012-12-25 | Apple Inc. | Scroll bar with video region in a media system |
US20090153475A1 (en) * | 2007-12-14 | 2009-06-18 | Apple Inc. | Use of a remote controller Z-direction input mechanism in a media system |
US8194037B2 (en) * | 2007-12-14 | 2012-06-05 | Apple Inc. | Centering a 3D remote controller in a media system |
WO2009100018A2 (en) * | 2008-02-01 | 2009-08-13 | Spy Rock, Llc | Ergonomic user interface for hand held devices |
US20100231524A1 (en) * | 2008-03-10 | 2010-09-16 | Stephen Chen | Icon/text interface remote controller |
US8118666B2 (en) | 2008-07-15 | 2012-02-21 | Igt | Gaming system, gaming devices, and method for providing an enhanced multiple-player bonus redemption game |
US8079903B2 (en) | 2008-08-22 | 2011-12-20 | Igt | Gaming system, gaming device and method of providing selection game with interdependent award distribution |
DE102008041625B4 (de) * | 2008-08-27 | 2013-07-18 | Faurecia Innenraum Systeme Gmbh | Bedienelement für eine Anzeigevorrichtung in einem Transportmittel sowie Mittelkonsole eines Kraftfahrzeugs und Verfahren zum Betrieb eines Bedienelements für eine Anzeigevorrichtung sowie Computerprogrammprodukt |
US8393968B2 (en) | 2008-09-03 | 2013-03-12 | Igt | Gaming system, gaming device and method for providing a strategy game having a plurality of awards |
US8210935B2 (en) * | 2008-11-12 | 2012-07-03 | Igt | Gaming system, gaming device and method of providing collectors and tokens associated with collectors |
US8287364B2 (en) | 2008-11-13 | 2012-10-16 | Igt | Gaming system, gaming device, and method for providing a game in which a player collects emblems by positioning accumulators in a field |
US20110107276A1 (en) * | 2009-11-04 | 2011-05-05 | Tonny Chen | Icon/text interface remote controller |
US9495826B2 (en) | 2009-11-11 | 2016-11-15 | Igt | Gaming system, gaming device, and method for providing a game in which players position selectors within a field of selections based on values masked by the selections |
CN102479043A (zh) * | 2010-11-29 | 2012-05-30 | 联想(北京)有限公司 | 一种在触摸屏上实现鼠标事件的方法、触摸屏和电子设备 |
US8804056B2 (en) | 2010-12-22 | 2014-08-12 | Apple Inc. | Integrated touch screens |
US8475265B2 (en) | 2011-09-28 | 2013-07-02 | Igt | Gaming system, gaming device, and method for providing a multiple player persistent game |
US8905831B2 (en) | 2011-09-28 | 2014-12-09 | Igt | Gaming system, gaming device, and method for providing a multiple player persistent game |
US8662980B2 (en) | 2011-09-28 | 2014-03-04 | Igt | Gaming system, gaming device, and method for providing a multiple player persistent game |
US9082257B2 (en) | 2011-09-30 | 2015-07-14 | Igt | Gaming system and method providing a community selection game providing bonus game selection |
US8795063B2 (en) | 2012-03-27 | 2014-08-05 | Igt | Gaming system, gaming device, and method for providing a multiple player game |
JP2013210802A (ja) * | 2012-03-30 | 2013-10-10 | Sumitomo Electric Ind Ltd | 端末装置及びコンピュータプログラム |
US8708804B2 (en) | 2012-06-22 | 2014-04-29 | Igt | Gaming system and method providing a collection game including at least one customizable award collector |
US9177447B2 (en) | 2012-09-25 | 2015-11-03 | Igt | Gaming system and method for providing a symbol matrix with a moveable symbol display window |
US8784174B2 (en) | 2012-09-25 | 2014-07-22 | Igt | Gaming system and method for providing an offer and acceptance game |
US8840456B2 (en) | 2012-09-25 | 2014-09-23 | Igt | Gaming system and method for providing an offer and acceptance game |
US8662982B1 (en) | 2012-09-28 | 2014-03-04 | Igt | Method and apparatus for attractive bonusing |
US20150058792A1 (en) * | 2013-03-19 | 2015-02-26 | Bernard KOBOS | Methods, systems and apparatuses for providing user interface navigation, display interactivity and multi-browser arrays |
US10169957B2 (en) | 2014-02-13 | 2019-01-01 | Igt | Multiple player gaming station interaction systems and methods |
US9886185B2 (en) * | 2014-06-09 | 2018-02-06 | Cornelius, Inc. | Systems and methods of multi-touch concurrent dispensing |
KR101681987B1 (ko) | 2015-04-30 | 2016-12-12 | 현대자동차주식회사 | 터치 입력장치 및 이를 포함하는 차량 |
US10905948B1 (en) | 2017-06-09 | 2021-02-02 | James F. Nevarez | Game controller for hand-held electronic devices having a touch screen display |
US10272325B1 (en) | 2017-06-09 | 2019-04-30 | James F. Nevarez | Game controller for hand-held electronic devices having a touch screen display |
CN107315524A (zh) * | 2017-07-13 | 2017-11-03 | 北京爱川信息技术有限公司 | 一种人机交互方法及其系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4959810A (en) * | 1987-10-14 | 1990-09-25 | Universal Electronics, Inc. | Universal remote control device |
US5282028A (en) * | 1990-11-27 | 1994-01-25 | Scientific-Atlanta, Inc. | Remote control for digital music terminal with synchronized communications |
US5239540A (en) * | 1990-11-27 | 1993-08-24 | Scientific-Atlanta, Inc. | Method and apparatus for transmitting, receiving and communicating digital data signals with corresponding program data signals which describe the digital data signals |
US5410326A (en) * | 1992-12-04 | 1995-04-25 | Goldstein; Steven W. | Programmable remote control device for interacting with a plurality of remotely controlled devices |
US5621456A (en) * | 1993-06-22 | 1997-04-15 | Apple Computer, Inc. | Methods and apparatus for audio-visual interface for the display of multiple program categories |
US5613137A (en) | 1994-03-18 | 1997-03-18 | International Business Machines Corporation | Computer system with touchpad support in operating system |
US6025837A (en) * | 1996-03-29 | 2000-02-15 | Micrsoft Corporation | Electronic program guide with hyperlinks to target resources |
US6002450A (en) * | 1997-03-24 | 1999-12-14 | Evolve Products, Inc. | Two-way remote control with advertising display |
US6154204A (en) * | 1998-01-21 | 2000-11-28 | Evolve Products, Inc. | Tap antenna unit |
US6130726A (en) * | 1997-03-24 | 2000-10-10 | Evolve Products, Inc. | Program guide on a remote control display |
US6437836B1 (en) * | 1998-09-21 | 2002-08-20 | Navispace, Inc. | Extended functionally remote control system and method therefore |
US6765557B1 (en) | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
US20020059610A1 (en) | 2000-05-23 | 2002-05-16 | Ellis Michael D. | Interactive television application with watch lists |
AU2001263476A1 (en) | 2000-10-06 | 2002-04-22 | Digeo, Inc. | Interactive, off-screen entertainment guide |
-
2002
- 2002-04-26 US US10/134,158 patent/US6995751B2/en not_active Expired - Lifetime
-
2003
- 2003-04-25 AU AU2003223739A patent/AU2003223739A1/en not_active Abandoned
- 2003-04-25 WO PCT/US2003/012916 patent/WO2003092262A2/en not_active Application Discontinuation
- 2003-04-25 CA CA002483268A patent/CA2483268C/en not_active Expired - Fee Related
- 2003-04-25 EP EP03719941A patent/EP1502177A2/en not_active Withdrawn
- 2003-04-25 MX MXPA04010572A patent/MXPA04010572A/es active IP Right Grant
- 2003-04-25 KR KR1020047017246A patent/KR100699913B1/ko not_active IP Right Cessation
- 2003-04-25 JP JP2004500487A patent/JP2005524289A/ja active Pending
- 2003-04-25 CN CNB038120623A patent/CN100380295C/zh not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP1502177A2 (en) | 2005-02-02 |
WO2003092262A2 (en) | 2003-11-06 |
CN100380295C (zh) | 2008-04-09 |
AU2003223739A8 (en) | 2003-11-10 |
KR20050003393A (ko) | 2005-01-10 |
US6995751B2 (en) | 2006-02-07 |
KR100699913B1 (ko) | 2007-03-28 |
CN1656439A (zh) | 2005-08-17 |
US20030201984A1 (en) | 2003-10-30 |
WO2003092262A3 (en) | 2004-10-07 |
CA2483268A1 (en) | 2003-11-06 |
CA2483268C (en) | 2008-01-22 |
AU2003223739A1 (en) | 2003-11-10 |
JP2005524289A (ja) | 2005-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MXPA04010572A (es) | Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto. | |
JP5398728B2 (ja) | 情報処理装置、情報処理方法、記録媒体、及び集積回路 | |
JP2020188479A (ja) | 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法 | |
JP4315239B2 (ja) | 変化可能な透明度の表示 | |
CN105323623B (zh) | 显示设备、包括显示设备的多显示器系统及其控制方法 | |
US20130326583A1 (en) | Mobile computing device | |
KR100980741B1 (ko) | 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법 | |
RU2689412C2 (ru) | Устройство отображения и способ отображения | |
US8072415B2 (en) | Control signal input system and control signal input method | |
CN103019431A (zh) | 显示设备以及触摸感测设备和方法 | |
KR101712909B1 (ko) | 터치 스크린 디스플레이를 포함하는 전자 장치, 이를 이용한 인터페이스 방법 및 컴퓨터 판독 가능한 저장매체 | |
WO2006125133A2 (en) | Global navigation objects in user interfaces | |
CN101751125A (zh) | 信息处理装置和信息处理方法 | |
EP1393294A1 (en) | Remote control having a touch pad for highlighting preselected p arts of a displayed slide | |
CN105763920B (zh) | 显示装置和显示方法 | |
KR20150051769A (ko) | 영상표시장치 및 영상표시장치 동작방법 | |
WO2008130183A1 (en) | Method and apparatus for digital broadcasting set-top box controller and digital broadcasting system | |
KR20110134810A (ko) | 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법 | |
US6275174B1 (en) | Input device and method for remote control of audio and video recording and reproducing systems, and presentation device utilizing same | |
EP3057313A1 (en) | Display apparatus and display method | |
EP3209024A1 (en) | Remote controller for providing a force input in a media system and method for operating the same | |
KR102314109B1 (ko) | 디스플레이 장치 및 디스플레이 방법 | |
US10873718B2 (en) | Systems and methods for touch screens associated with a display | |
KR101222709B1 (ko) | 터치방식을 활용한 브라우저 운용 방법 | |
KR20160095525A (ko) | 디스플레이 장치, 원격 제어 장치, 원격 제어 시스템 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration | ||
GB | Transfer or rights |