MXPA04010572A - Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto. - Google Patents

Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto.

Info

Publication number
MXPA04010572A
MXPA04010572A MXPA04010572A MXPA04010572A MXPA04010572A MX PA04010572 A MXPA04010572 A MX PA04010572A MX PA04010572 A MXPA04010572 A MX PA04010572A MX PA04010572 A MXPA04010572 A MX PA04010572A MX PA04010572 A MXPA04010572 A MX PA04010572A
Authority
MX
Mexico
Prior art keywords
navigation
image
touch
control area
navigation control
Prior art date
Application number
MXPA04010572A
Other languages
English (en)
Inventor
P Falvo Barry
Original Assignee
Gen Instrument Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gen Instrument Corp filed Critical Gen Instrument Corp
Publication of MXPA04010572A publication Critical patent/MXPA04010572A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42208Display device provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Details Of Television Systems (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Un metodo y un aparato para hacer navegar una imagen vista sobre una pantalla de un dispositivo de representacion visual (320). La imagen es controlada por un procesador (215) que recibe ordenes de navegacion seleccionada sobre una pantalla sensible al tacto (205) de un dispositivo de representacion visual auxiliar (200). La pantalla sensible al tacto (205) esta colocada en una pluralidad de areas de control de navegacion (210, 220, 230, 240, 250, 260, 270, 280). Cada area de control de navegacion esta asociada con una orden de navegacion diferente. Cuando una de las areas de control de navegacion de la pantalla sensible al tacto (205) es seleccionada, la orden de navegacion asociada con el area de control de navegacion seleccionada es transmitida al procesador (215). El procesador (215) recibe y ejecuta la orden de navegacion transmitida para hacer navegar la imagen. Los limites de las areas de control normalmente estan ocultos a la vista, pero pueden ser revelados sobre la pantalla sensible al tacto (205) en respuesta a la entrada de un usuario.

Description

METODO Y APARATO PARA HACER NAVEGAR UNA IMAGEN USANDO UNA PANTALLA SENSIBLE AL TACTO CAMPO DE LA INVENCION La presente invención se relaciona de manera general con la navegación de una imagen vista sobre una pantalla de visualización usando una pantalla sensible al tacto .
INFORMACION ANTECEDENTE Está emergiendo una nueva era en la experiencia de ver TV en la cual están disponibles servicios de datos complementarios de video al televidente que use una segunda pantalla de visualización en un dispositivo de representación visual auxiliar. Un ejemplo de un-dispositivo de representación visual auxiliar es un atenuador de red, el cual es un dispositivo inalámbrico remoto relativamente pequeño. La FIGURA 1 muestra un sistema de TV de cable digital de dos pantallas convencional 100. El sistema 100 incluye un dispositivo de representación visual auxiliar 105 el cual se comunica con un descodificador digital (STB) 110 (también referido como un "dispositivo local") usando una conexión inalámbrica. La conexión inalámbrica utiliza un puerto externo 115 sobre el STB 110, como un canal serie Universal (USB) , Ethernet o IEEE 1394 equipado con un punto de acceso 120 que se comunica con el dispositivo de representación visual auxiliar 105 sobre un enlace de frecuencia de radio (RF) inalámbrico 125. El punto de acceso 120 en este escenario es un dispositivo diseñado para una interconexión específica (por ejemplo USB) y es usado para soportar conectividad inalámbrica. El dispositivo de representación visual auxiliar 105 también puede ser conectado directamente a un módem de cable de alta velocidad, módem de abonado digital (DSL) o cualquier otro dispositivo de conexión a la Internet de alta velocidad para tener acceso a la Internet 135. La programación de video por TV 140 es accesible vía el STB 110. El protocolo de conexión inalámbrico típico que puede ser usado por un sistema de TV 100 incluye, pero no se limita al HomeRF® y el IEEE 802.11. Una conexión alámbrica más tradicional simplemente incluye un cable o alambre entre el STB 110 y el dispositivo de representación visual auxiliar 105, nuevamente usando un puerto USB, Ethernet o IEEE 1394. EL STB 110 también es conectado a una televisión 130. El sistema de TV de cable digital de dos pantallas 100 permite muchas capacidades mejoradas sobre el sistema de una pantalla. Por ejemplo, un usuario puede ver datos de Internet sobre la pantalla del dispositivo 3 de representación visual auxiliar 105 mientras observa un video ininterrumpidamente en la televisión 130. En otro ejemplo, las aplicaciones de STB que normalmente son vistas en la pantalla de televisión, son vistas en la pantalla de dispositivo de representación visual auxiliar 105, dejando la televisión 130 disponible para ver programas de video. En un sistema CATV, una guia de programación electrónica (EPG) es un ejemplo especifico de una aplicación con la que se puede interactuar a través de una aplicación que sea ejecutada en un segundo dispositivo de pantalla, como un dispositivo de representación visual auxiliar 105. Una EPG es usada por un observador para determinar que programas están disponibles para verse en una televisión, a que horas serán transmitidos los programas y en que canales. La información suplementaria de representación visual de EPG más sofisticada usada por el observador para determinar si el programa es adecuado para un niño pequeño, que actores están en el programa, cuanto dura el programa, y de qué trata el programa. Normalmente, en una EPG, se asigna una porción enmarcada en una ventana individual a cada programa presentado. Los observadores de programas de CATV usan una GUI para navegar en una EPG y seleccionar las ventanas de programa en la EPG que sean de interés particular. La Patente Estadounidense No. 6,130,726 (Darbee et al.) describe una unidad de representación visual de control remoto que selecciona la programación mostrada en imágenes de televisión y representación visual en un dispositivo de representación visual. La unidad de representación visual de control remoto descrita en la Patente Estadounidense No. 6,130,726 incluye una tecla EZ NAV usada para navegar una PEG moviéndose hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha. La Patente Estadounidense NO. 6,130,726 no describe el uso de áreas de control de navegación sobre una pantalla sensible al tacto para hacer navegar una imagen. Además, muchos sistemas de operación usan barras de avance desplegadas sobre los márgenes de los ejes X y/o Y de una pantalla de visualización para permitir que una imagen sobre la pantalla navegue. Las barras de avance ocupan una porción significativa del dispositivo de representación visual que podría ser usada para presentar vistas más o menos distractoras de la imagen. De este modo, es deseable hacer navegar una imagen, (por ejemplo, EPG, juego) desplazándolas sobre un dispositivo de representación visual de un dispositivo de representación visual auxiliar sin usar barras de avance que consuman espacio o dispositivos de control físico como una palanca de juego, ratón, teclas o similares .
SUMARIO DE LA INVENCION La presente invención es un método y un aparato para hacer navegar una imagen vista sobre una pantalla de un dispositivo de representación visual. La imagen es controlada por un procesador que recibe órdenes de navegación seleccionada sobre una pantalla sensible al tacto de un dispositivo de representación visual auxiliar. La pantalla sensible al tacto está repartida en una pluralidad de áreas de control de navegación. Cada área de control de navegación está asociada con una orden de navegación diferente. Una de las áreas de control de navegación es seleccionada. La orden de navegación asociada con el área de control de navegación seleccionada es transmitida al procesador. El procesador recibe y ejecuta la orden de navegación transmitida para hacer navegar la imagen. La imagen puede tener una pluralidad de porciones de imagen seleccionables . Al menos una de las porciones de imagen seleccionables puede ser resaltada actualmente para su posible selección. Una porción circular central de la pantalla sensible al tacto puede ser definida y dividida en cuatro áreas de control de navegación centrales y al menos un área de control de entrada. Pueden ser definidas cuatro áreas de control de navegación en las esquinas de la pantalla sensible al tacto. Cada área de control de navegación estimada puede estar adyacente a la porción circular central y localizarse en una esquina respectiva de la pantalla sensible al tacto. Cada una de las órdenes de navegación asociadas con las cuatro áreas de control de navegación esquinadas pueden ser usadas para cambiar las coordenadas de posición en el eje x y el eje y de al menos una de las porciones de la imagen seleccionables . Cada una de las órdenes de navegación asociadas con las cuatro áreas de control de navegación centrales pueden ser usadas para cambiar una de las coordenadas de posición del eje x y el eje y de al menos una de las porciones de imagen seleccionables. Cada área de control de navegación puede estar asociada con una orden de navegación diferente que cambia la porción de la imagen que sea resaltada de la porción de la imagen actualmente resaltada a una porción de la imagen adyacente a la porción de la imagen actualmente resaltada cuando sea ejecutada la orden de navegación diferente por el procesador. Las divisiones de la pantalla sensible al tacto pueden incluir además al menos un área de control de 7 entrada. El área de control de entrada puede ser seleccionada para activar una función asociada con la porción de la imagen selecciónatele resaltada actualmente. Los limites de las áreas de control pueden ser ocultados de la vista y pueden ser revelados sobre la pantalla sensible al tacto en respuesta a una entrada del usuario. Puede ser presionado un estilete o dedo de un usuario contra la pantalla sensible al tacto para seleccionar el área de control de navegación. La imagen puede incluir una rejilla de programa de televisión de una guia de programación electrónica (EPG) , incluyendo una pluralidad de ventanas de programa adyacentes. La selección de un área de control de navegación puede hacer que una ventana de programa especifica adyacente a la ventana de programa previamente resaltada sea resaltada por su posible selección de acuerdo con la orden de navegación ejecutada. La imagen puede hacerse navegar para jugar un juego. El aparato incluye la pantalla sensible al tacto dividida y un transmisor para transmitir la orden de navegación asociada con el área de control de navegación seleccionada al procesador. El aparato puede ser un dispositivo electrónico consumible infrarrojo (IR). El procesador puede localizarse en un descodi ficador (STB) y la pantalla del dispositivo de representación visual puede ser una televisión en comunicación con el STB.
BREVE DESCRIPCION DE LOS DIBUJOS La siguiente descripción detallada de una modalidad preferida de la presente invención será comprendida mejor cuando se lea en conjunto con los dibujos anexos. Para el propósito de ilustrar la presente invención, en los dibujos se muestran las modalidades preferidas hasta ahora. Sin embargo, la presente invención no se limita a los arreglos e instrumentalidades precisas mostradas. En los dibujos; La FIGURA 1 muestra un sistema de TV de cable digital de dos pantallas convencional; La FIGURA 2 muestra una interconexión gráfica de usuario sobre el lado de visualización del dispositivo de representación visual auxiliar de acuerdo con la presente invención ; La FIGURA 3 muestra un sistema para seleccionar y procesar las órdenes usadas para hacer navegar una imagen vista sobre una pantalla de un dispositivo de representación visual de acuerdo con la presente invención; Las FIGURAS 4-6, tomadas juntas, muestran un ejemplo de cómo una imagen vista sobre una pantalla de un dispositivo de representación visual se hace navegar de acuerdo con la presente invención; y La FIGURA 7 muestra un diagrama de flujo funcional de alto nivel que incluye los pasos implementados por el aparato mostrado en las FIGURAS 2 y 3.
DESCRIPCION DETALLADA DE LA INVENCION La FIGURA 2 muestra un dispositivo de representación visual 200 que opera de acuerdo con una modalidad preferida de la presente invención. El dispositivo de representación visual auxiliar 200 incluye una pantalla sensible al tacto (pantalla de tacto) 205, un procesador 215, y un programa de aplicación 225 que se ejecuta en el procesador 215, y un transmisor 245. El dispositivo de representación visual auxiliar 200 es usado para hacer navegar una imagen vista sobre una pantalla o un dispositivo de representación visual. Una pantalla sensible al tacto básica tiene tres componentes, un detector, un controlador y un excitador. Un detector de pantalla sensible al tacto es un panel claro que se coloca sobre el área de representación visual auxiliar. Un excitador de programas y sistemas de programación permite que la pantalla sensible al tacto se interconecte con un sistema operativo para traducir los eventos táctiles detectados por el detector de la 10 pantalla sensible al tacto en órdenes de navegación. Un control de pantalla sensible al tacto procesa las señales recibidas del detector de la pantalla sensible al tacto. Actualmente son usados varios tipos de tecnologías de pantallas sensibles al tacto: 1. Resistiva; 2. Onda acústica superficial; y 3. Capacitiva. Una pantalla sensible al tacto resistiva consiste del panel de vidrio o acrílico que está recubierto con capas eléctricamente conductoras y resistivas. Las capas delgadas son separadas por puntos separadores invisibles. Cuando opera, una corriente eléctrica se mueve a través de la pantalla sensible al tacto. Cuando es aplicada presión a la pantalla por un dedo o estilete, las capas son prensadas juntas, produciendo un cambio en la corriente eléctrica y que fue registrado un evento táctil. La tecnología de onda acústica superficial se basa en enviar ondas acústicas a través de un panel de vidrio claro con una serie de transductores y reflectores. Cuando un dedo o estilete toca la pantalla, las ondas son absorbidas, haciendo que sea registrado un evento táctil. Una pantalla sensible al tacto capacitiva consiste de un panel de vidrio con un material capacitivo (que almacena carga) que recubre su superficie. El circuito localizado en las esquinas de la pantalla mide la capacitancia de una persona que toque la pantalla. Son medidos los cambios de frecuencia para determinar las coordenadas en X y Y del evento táctil. El programa de aplicación 225 divide o reparte la pantalla sensible al tacto 205 en una pluralidad de áreas de control de navegación 210, 220, 230, 240, 250, 260, 270, 280 y al menos un área de control de entrada 290. Cada área de navegación está asociada con una orden de navegación diferente. El área de control de navegación 210 está asociada con una orden de navegación "hacia arriba". El área de control de navegación 220 está asociada con una orden de navegación "hacia abajo". El área de control de navegación 230 está asociada con una orden de navegación hacia la "izquierda". El área de control de navegación 240 está asociada con una orden de navegación a la "derecha". El área de control de navegación 250 está asociada con una orden de navegación "hacia arriba y hacia la izquierda". El área de control de navegación 260 está asociada con una orden de navegación "hacia abajo y hacia la izquierda". El área de control de navegación 270 está asociada con una orden de navegación de hacia arriba y a la derecha. El área de control de navegación 280 está asociada con una orden de navegación hacia abajo y hacia la derecha. Un estilete o un dedo del usuario se presiona contra la pantalla sensible al tacto 205 para seleccionar diferentes áreas de control de navegación, aunque una aplicación no relacionada con la imagen a navegar esté actualmente desplegada sobre la pantalla sensible al tacto 205. La pantalla sensible al tacto 205 no despliega la imagen que se esté haciendo navegar. La FIGURA 3 muestra un ejemplo de un sistema 300 que implementa la presente invención. El sistema 300 incluye el dispositivo de representación visual auxiliar 200, un dispositivo de control de visualización (por ejemplo, el descodificador (STB) ) 305 y una pantalla de visualización de imágenes 320 (por ejemplo, una televisión) . El dispositivo de control de visualización 305 incluye un receptor 310 y un procesador 315. El procesador 315 recibe órdenes de navegación del dispositivo de representación visual auxiliar 200 y controla la imagen vista sobre la pantalla del dispositivo de representación visual 320. Cuando un usuario selecciona un área de control de navegación sobre la pantalla sensible al tacto 205, se genera una orden de navegación asociada con el control de navegación seleccionado o se ejecutará en una memoria (no mostrada) por el procesador 215 y es enviada al transmisor 245 para transmitirse sobre un medio alámbrico o inalámbrico. El receptor 310 en el dispositivo de control de visualización 305 recibe la orden de navegación transmitida y envía la orden al procesador 315 en el STB. Un procesador recibe y ejecuta la orden de navegación transmitida 100 y hace navegar la imagen en consecuencia. En una modalidad, como se muestra en las FIGURAS 4-6, la imagen tiene una pluralidad de porciones de imagen seleccionables . Al menos una de las porciones de imagen seleccionables está actualmente resaltada por su posible selección por el usuario del dispositivo de representación visual auxiliar 200. El usuario puede activar una función asociada con la porción de la imagen seleccionable actualmente resaltada seleccionando al menos un área de control de entrada 290 (véase la FIGURA 2). La orden de navegación particular asociada con el área de control seleccionada es ejecutada para cambiar la porción seleccionada de una porción seleccionada actualmente presentada en un primer lugar sobre la pantalla del dispositivo de representación visual 320 a una porción seleccionada diferente desplegada en un segundo lugar del dispositivo de representación visual 320 de acuerdo a la orden ejecutada. En una modalidad preferida, una orden de 14 navegación es traducida en una señal inalámbrica y es transmitida via el transmisor 245 al dispositivo de control de visualización 305 para controlar cual porción de la imagen vista sobre el dispositivo de representación visual de imágenes 320 es seleccionado. Cuando un usuario selecciona una de las áreas de control definidas 210, 220, 230, 240, 250, 260, 270, 280 sobre la pantalla sensible al tacto 205 del dispositivo de representación visual auxiliar 200 por un tacto inicial por un estilete o dedo en esa área, son transmitidas una o más señales de órdenes de navegación al dispositivo de control de visualización del descodificador . Las señales pueden tomar la forma de señales infrarrojas (IR) o de frecuencia de radio inalámbricas (RF) . De manera alternativa, las señales de órdenes de navegación pueden ser transmitidas sobre una interconexión alámbrica usando típicamente protocolos alámbricos, como la Ethernet, USB, 1394 o similares. La imagen vista sobre la pantalla del dispositivo de representación visual 320 puede incluir una rejilla de programa de televisión de una guía de programación electrónica (EPG) incluyendo una pluralidad de ventanas de programas adyacentes A-X, las cuales corresponden a un canal y/o intervalo de tiempo particular durante la cual va comenzar la programación.
La selección del área de control de navegación sobre la pantalla sensible 205 hace que una ventana de programa particular adyacente a una ventana previamente seleccionada sea seleccionada de acuerdo con la orden ej ecutada . La FIGURA 4 muestra un ejemplo de navegación de una rejilla de programas vista sobre una pantalla de representación visual de imágenes 320 usando la presente invención, la ventana de programas P está actualmente resaltada para su posible selección futura. Si es seleccionada el área de control de navegación 230 (izquierda), la ventana del programa O se resalta en lugar de la ventana del programa P, como se muestra en la FIGURA 5. Entonces, como se muestra en la Figura 6, si es seleccionada el área de control de navegación 250 (Arriba y a la Izquierda), la ventana del programa H es resaltado en lugar de la ventana del programa O. Si es seleccionada el área de control de entrada 290 mientras la ventana H está resaltada, es activada una función asociada con la ventana H, como un hiperenlace o una segunda ventana, cuando el procesador 315 en el dispositivo de control de visualización 305 recibe y ejecuta una orden de entrada correspondiente del dispositivo de representación visual auxiliar 200. Una rejilla de programas presentados actualmente pueden mostrar únicamente una porción de la rejilla de programación total, como únicamente una ventana del tiempo de tres horas o únicamente una porción de los canales disponibles. Si es asi, entonces porciones adicionales de la rejilla de programación pueden ser reveladas si el usuario alcanza un borde de la rejilla de programación actualmente desplegada y selecciona un área de control de navegación que pasaría a lo largo del borde. Esa selección es ignorada si la rejilla de programación presentada actualmente muestra la rejilla de programación total. Cuando el usuario desea implementar una combinación móvil seleccionando una de las áreas de control de navegación 250, 260, 270, 280, la aplicación 225 que se eyecta en el procesador 215 en el dispositivo de representación visual 200 hace que sean transmitidas dos órdenes secuenciales del dispositivo de representación visual auxiliar 200 al dispositivo de control de visualización 305, justo como si un usuario seleccionara individualmente dos de las áreas de control de navegación 210, 220, 230, 240 en secuencia. De manera alternativa, puede ser transmitida una sola orden de "combinación" . La imagen vista sobre la pantalla del dispositivo de representación visual 320 también puede 17 hacerse navegar para jugar un juego (por ejemplo, Pac-ManMR, Space InvadersMR, o similares) moviendo las piezas del juego u otras imágenes en la misma forma que se describió anteriormente. En otras modalidades preferidas de la presente invención, las áreas de control de navegación pueden ser usadas para hacer que ocurra una acción o función con respecto a cual aplicación está ejecutándose actualmente en el STB 305 y está siendo mostrada sobre la pantalla del dispositivo de representación visual 320. Cada aplicación puede tener un conjunto diferente de acciones o funciones que ocurren con respecto a órdenes de navegación particulares. En algunas aplicaciones, como la aplicación PEG descrita anteriormente, la selección de un área de control de navegación hace que ocurra una función de navegación (por ejemplo, la selección del área de control de navegación de izquierda 230 produce un movimiento hacia la izquierda, la selección del área de control de navegación hacia abajo 220 produce un movimiento hacia abajo) . Sin embargo, en otra aplicación, la selección de un área de control de navegación puede no necesariamente hacer que ocurra una función de navegación. Por ejemplo, la serie de control de navegación pueden hacer que ocurran diferentes acciones o funciones, como cambios de modo o selecciones de 18 elementos. Un cambio de modo o selección de elemento puede no necesariamente producir el movimiento de alguna cosa en una pantalla de un dispositivo de representación visual. El alcance de la presente invención incluye esas modalidades alternativas. La FIGURA 7 muestra un diagrama de flujo que incluye pasos para hacer navegar una imagen mostrada en la pantalla de un dispositivo de representación visual 320 usando un dispositivo de representación visual auxiliar 200. Una aplicación 225 es ejecutada en un procesador 215 dentro del dispositivo de representación visual auxiliar 200 que reparte la pantalla sensible al tacto 205 en una pluralidad de área de control de navegación 210, 220, 230, 240, 250, 260, 270 y 280 y al menos un área de control de entrada 290 (paso 505) . Cada área de control de navegación 210, 220, 230, 240, 250, 260, 270 y 280 está asociada con una orden de navegación particular que cambia la selección de una porción de una imagen vista sobre la pantalla del dispositivo de representación visual 320. Una de las áreas de control de navegación es seleccionada (paso 510). La orden de navegación particular asociada con el área de control seleccionada es transmitida desde el dispositivo de representación visual auxiliar 200 hacia el procesador 315 en el STB 310 (paso 515) . En el paso 520, el procesador 310 en un dispositivo de control de visualización 305 hace navegar una imagen vista sobre la pantalla del dispositivo de representación visual 320 sobre la base de la orden de navegación transmitida. Cada vez que es seleccionada otra de las áreas de control de navegación (paso 525), se repiten los pasos 510, 515 y 520. La presente invención puede ser implementada con cualquier combinación de componentes físicos y programas y sistemas de programación. Si se implementa, un aparato implementado por computadora, la presente invención es implementada usando medios para efectuar todos los pasos y funciones descritas anteriormente. La presente invención puede ser incluida en un artículo de manufactura (por ejemplo, uno o más productos de programas de computadora) que tengan, por ejemplo, medios útiles en computadora. Los medios incorporados aquí, por ejemplo, medios de códigos de programas legibles en computadora para proporcionar o facilitar los mecanismos de la presente invención. El artículo de manufactura puede ser incluido como parte de un sistema de computadora o vendido por separado. Será apreciado por aquellos expertos en la técnica que podrían hacerse cambios a las modalidades descritas anteriormente sin apartarse del amplio concepto 20 inventivo de la misma. Debe comprenderse, por lo tanto que esta invención no se limita a las modalidades particulares descritas, sino que pretende cubrir modificaciones dentro del espíritu y alcance de la presente invención de acuerdo a lo definido por las reivindicaciones anexas.

Claims (32)

  1. NOVEDAD DE LA INVENCION Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes: REIVINDICACIONES 1. Un método para hacer navegar una imagen vista sobre una pantalla en un dispositivo de representación visual, siendo la imagen controlada por un procesador que recibe órdenes de navegación seleccionada sobre una pantalla sensible al tacto de un dispositivo de representación visual auxiliar, el método se caracteriza porque comprende: (a) repartir la pantalla sensible al tacto en una pluralidad de áreas de control de navegación, estando cada área de control de navegación asociada con una orden de navegación diferente ; (b) seleccionar una de las áreas de control de navegación; (c) transmitir la orden de navegación asociada con el área de control de navegación seleccionada al procesador; y (d) recibir y ejecutar mediante el procesador la orden de navegación transmitida para hacer navegar la imagen .
  2. 2. El método de conformidad con la reivindicación 1, caracterizado porque la imagen tiene una pluralidad de porciones de imagen selecciónateles, estando al menos una de esas porciones de imagen selecciónateles actualmente resaltada por su posible selección .
  3. 3. El método de conformidad con la reivindicación 2, caracterizado porque el paso (a) comprende : (i) definir una porción circular central de la pantalla sensible al tacto; y (ii) repartir la porción circular central en cuatro áreas de control de navegación centrales y al menos un área de control de entrada.
  4. 4. El método de conformidad con la reivindicación 3, caracterizado porque el paso (a) comprende además : (iii) definir cuatro áreas de control de navegación en las esquinas de la pantalla sensible al tacto, estando cada área de control de navegación de las esquinas adyacente a la porción circular central y localizada en una esquina respectiva de la pantalla sensible al tacto.
  5. 5. El método de conformidad con la reivindicación 4, caracterizado porque cada una de las órdenes de navegación asociadas con las cuatro áreas de control de navegación de las esquinas son usadas para cambiar las coordenadas del eje x y el eje y de la posición de al menos una de las porciones de imagen seleccionables .
  6. 6. El método de conformidad con la reivindicación 3, caracterizado porque cada una de las órdenes de navegación asociada con las cuatro órdenes de control de navegación centrales es usada para cambiar una de las coordenadas del eje y y el eje x de la posición de al menos de las porciones de imagen seleccionables.
  7. 7. El método de conformidad con la reivindicación 2, caracterizado porque cada área de control de navegación está asociada con una orden de navegación diferente que cambia la porción de la imagen que está resaltada de la porción de la imagen actualmente resaltada a una porción de imagen adyacente a la porción de la imagen actualmente resaltada cuando son ejecutadas diferentes órdenes de navegación por el procesador.
  8. 8. El método de conformidad con la reivindicación 2, en donde las particiones de la pantalla sensible al tacto incluyen además al menos un área de control de entrada, el método se caracteriza porque comprende además: (e) seleccionar el área de control de entrada para activar una función asociada con la porción de la imagen seleccionable actualmente resaltada.
  9. 9. El método de conformidad con la reivindicación 1, caracterizado porque las particiones de la pantalla sensible al tacto incluyen además al menos un área de control de entrada y los limites de las áreas de control están ocultos de la vista.
  10. 10. El método de conformidad con la reivindicación 9, caracterizado porque los limites de las áreas de control son revelados sobre la pantalla sensible al tacto en respuesta a una entrada del usuario.
  11. 11. El método de conformidad con la reivindicación 1, caracterizado porque el paso (a) comprende : (i) definir una porción circular central de la pantalla sensible al tacto; (ii) repartir la porción circular central en cuatro áreas de control de navegación centrales y al menos el área de control de entrada; y (iii) definir cuatro áreas de control de navegación en las esquinas, estando cada área de control de navegación de las esquinas adyacente a la porción circular central y localizada en una esquina respectiva de la pantalla sensible al tacto.
  12. 12. El método de conformidad con la reivindicación 1, caracterizado porque el paso (b) es efectuado presionando un estilete contra la pantalla sensible al tacto.
  13. 13. El método de conformidad con la reivindicación 1, caracterizado porque el paso (b) es efectuado presionando un dedo de un usuario del dispositivo de representación visual auxiliar contra la pantalla sensible al tacto.
  14. 14. El método de conformidad con la reivindicación 1, caracterizado porque la imagen incluye una rejilla de programa de televisión de una guía de programación electrónica (EPG) que incluye una pluralidad de ventanas de programa adyacentes, y la selección de un área de control de navegación hace que una ventana de programa específica adyacente a una ventana de programa previamente resaltada sea resaltada por su selección potencial de acuerdo con una orden de navegación ejecutada .
  15. 15. El método de conformidad con la reivindicación 1, caracterizado porque la imagen se hace navegar para jugar un juego.
  16. 16. Un aparato para hacer navegar una imagen vista sobre una pantalla de representación visual, siendo la imagen controlada por un procesador que recibe órdenes de navegación del aparato, el aparato se caracteriza porque comprende: (a) una pantalla sensible al tacto repartida en 26 una pluralidad de áreas de control de navegación, estando asociada con cada área de control de navegación con una orden de navegación diferente, siendo la pantalla sensible al tacto usada para seleccionar una de las áreas de control de navegación; y (b) un transmisor para transmitir la orden de navegación asociada con el área de control de navegación seleccionada al procesador, donde el procesador recibe y ejecuta la orden de navegación transmitida para hacer navegar la imagen.
  17. 17. El aparato de conformidad con la reivindicación 16, caracterizado porque la imagen tiene una pluralidad de porciones de imagen seleccionables, estando al menos una de las porciones de la imagen seleccionada actualmente resaltada por su posible selección .
  18. 18. El aparato de conformidad con la reivindicación 17, caracterizado porque una porción circular central de la pantalla sensible al tacto es definida y dividida en cuatro áreas de control de navegación centrales y al menos un área de control de entrada .
  19. 19. El aparato de conformidad con la reivindicación 18, caracterizado porque están definidas cuatro áreas de control de navegación de las esquinas de 27 la pantalla sensible al tacto, estando cada área de control de navegación de las esquinas adyacente a la porción circular central y localizada en una esquina respectiva de la pantalla sensible al tacto.
  20. 20. El aparato de conformidad con la reivindicación 19, caracterizado porque cada una de las órdenes de navegación asociadas con las cuatro áreas de control de navegación de las esquinas es usada para cambiar las coordenadas del eje x y del eje y de la posición de al menos una de las porciones de la imagen seleccionables .
  21. 21. El aparato de conformidad con la reivindicación 18, caracterizado porque cada una de las órdenes de navegación asociada con las cuatro áreas de control de navegación centrales es usada para cambiar una de las coordenadas del eje y y el eje x de la posición de al menos de las porciones de imagen seleccionables.
  22. 22. El aparato de conformidad con la reivindicación 17, caracterizado porque cada área de control de navegación está asociada con una orden de navegación diferente que cambia la porción de la imagen que está resaltada de la porción de la imagen actualmente resaltada a una porción de imagen adyacente a la porción de la imagen actualmente resaltada cuando son ejecutadas diferentes órdenes de navegación por el procesador. 28
  23. 23. El aparato de conformidad con la reivindicación 17, caracterizado porque las particiones de la pantalla sensible al tacto incluyen además al menos un área de control de entrada la cual es seleccionada para activar una función asociada con la porción de la imagen seleccionable actualmente resaltada.
  24. 24. El aparato de conformidad con la reivindicación 16, caracterizado porque las particiones de la pantalla sensible al tacto incluyen además al menos un área de control de entrada, y los límites de las áreas de control están ocultos de la vista.
  25. 25. El aparato de conformidad con la reivindicación 24, caracterizado porque los límites del área de control son revelados sobre la pantalla sensible al tacto en respuesta a la entrada del usuario.
  26. 26. El aparato de conformidad con la reivindicación 16, caracterizado porque una porción circular central de la pantalla sensible al tacto está definida o dividida en cuatro áreas de control de navegación centrales y al menos un área de control de entrada, y están definidas cuatro áreas de control de navegación en las esquinas de la pantalla sensible al tacto, estando cada área de control de navegación de las esquinas adyacente a la porción circular central y localizada en una esquina respectiva de la pantalla sensible al tacto.
  27. 27. El aparato de conformidad con la reivindicación 16, caracterizado porque el área de control de navegación es seleccionada presionando el estilete contra la pantalla sensible al tacto.
  28. 28. El aparato de conformidad con la reivindicación 16, caracterizado porque el área de control de navegación es seleccionada presionando el dedo de un usuario del dispositivo de representación visual auxiliar contra la pantalla sensible al tacto.
  29. 29. El aparato de conformidad con la reivindicación 16, caracterizado porque la imagen incluye una rejilla de programa de televisión de una guía de programación electrónica (EPG) que incluye una pluralidad de ventanas de programa adyacentes, y la selección de un área de control de navegación hace que una ventana de programa específica adyacente a una ventana de programa previamente resaltada sea resaltada por su selección potencial de acuerdo con una orden de navegación ejecutada .
  30. 30. El aparato de conformidad con la reivindicación 16, caracterizado porque la imagen se hace navegar para jugar un juego.
  31. 31. El aparato de conformidad con la reivindicación 16, caracterizado porque el aparato es un 30 dispositivo electrónico de consumo infrarrojo (IR).
  32. 32. El aparato de conformidad con la reivindicación 16, caracterizado porque el procesador se localiza en un descodificador (STB) y la pantalla de representación visual es una televisión en comunicación con el STB.
MXPA04010572A 2002-04-26 2003-04-25 Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto. MXPA04010572A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/134,158 US6995751B2 (en) 2002-04-26 2002-04-26 Method and apparatus for navigating an image using a touchscreen
PCT/US2003/012916 WO2003092262A2 (en) 2002-04-26 2003-04-25 Method and apparatus for navigating an image using a touchscreen

Publications (1)

Publication Number Publication Date
MXPA04010572A true MXPA04010572A (es) 2005-02-17

Family

ID=29249149

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA04010572A MXPA04010572A (es) 2002-04-26 2003-04-25 Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto.

Country Status (9)

Country Link
US (1) US6995751B2 (es)
EP (1) EP1502177A2 (es)
JP (1) JP2005524289A (es)
KR (1) KR100699913B1 (es)
CN (1) CN100380295C (es)
AU (1) AU2003223739A1 (es)
CA (1) CA2483268C (es)
MX (1) MXPA04010572A (es)
WO (1) WO2003092262A2 (es)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
KR100483451B1 (ko) * 2002-05-27 2005-04-15 주식회사 아이큐브 컨텐츠 파일과 네비게이션 정보의 편집처리방법 및 그 방법에 의하여 정보가 기록된 기록매체
US20030234763A1 (en) * 2002-06-24 2003-12-25 Xerox Corporation System and method for audible feedback for touch screen displays
US7176898B2 (en) * 2002-09-13 2007-02-13 Xerox Corporation Removable control panel for multi-function equipment
US7544129B2 (en) * 2003-09-08 2009-06-09 Igt Gaming device having multiple selection groups with related picks
JP4572615B2 (ja) * 2004-07-27 2010-11-04 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP2006092321A (ja) * 2004-09-24 2006-04-06 Toshiba Corp 電子機器およびタッチパッド装置
CN104965621B (zh) 2006-06-09 2018-06-12 苹果公司 触摸屏液晶显示器及其操作方法
CN102981678B (zh) 2006-06-09 2015-07-22 苹果公司 触摸屏液晶显示器
US8552989B2 (en) 2006-06-09 2013-10-08 Apple Inc. Integrated display and touch screen
US8291346B2 (en) 2006-11-07 2012-10-16 Apple Inc. 3D remote control system employing absolute and relative position detection
DE102006053261B4 (de) * 2006-11-11 2015-04-16 Visus Technology Transfer Gmbh System zur Wiedergabe medizinischer Bilder
US8493330B2 (en) 2007-01-03 2013-07-23 Apple Inc. Individual channel phase delay scheme
US7889139B2 (en) * 2007-06-21 2011-02-15 Apple Inc. Handheld electronic device with cable grounding
US9710095B2 (en) 2007-01-05 2017-07-18 Apple Inc. Touch screen stack-ups
US20080235627A1 (en) * 2007-03-21 2008-09-25 Microsoft Corporation Natural interaction by flower-like navigation
US9838059B2 (en) 2007-06-21 2017-12-05 Apple Inc. Handheld electronic touch screen communication device
US8651947B2 (en) 2007-11-09 2014-02-18 Igt Gaming system and method providing a multiple-player bonus redemption game
US8881049B2 (en) * 2007-12-14 2014-11-04 Apple Inc. Scrolling displayed objects using a 3D remote controller in a media system
US8341544B2 (en) * 2007-12-14 2012-12-25 Apple Inc. Scroll bar with video region in a media system
US20090153475A1 (en) * 2007-12-14 2009-06-18 Apple Inc. Use of a remote controller Z-direction input mechanism in a media system
US8194037B2 (en) * 2007-12-14 2012-06-05 Apple Inc. Centering a 3D remote controller in a media system
WO2009100018A2 (en) * 2008-02-01 2009-08-13 Spy Rock, Llc Ergonomic user interface for hand held devices
US20100231524A1 (en) * 2008-03-10 2010-09-16 Stephen Chen Icon/text interface remote controller
US8118666B2 (en) 2008-07-15 2012-02-21 Igt Gaming system, gaming devices, and method for providing an enhanced multiple-player bonus redemption game
US8079903B2 (en) 2008-08-22 2011-12-20 Igt Gaming system, gaming device and method of providing selection game with interdependent award distribution
DE102008041625B4 (de) * 2008-08-27 2013-07-18 Faurecia Innenraum Systeme Gmbh Bedienelement für eine Anzeigevorrichtung in einem Transportmittel sowie Mittelkonsole eines Kraftfahrzeugs und Verfahren zum Betrieb eines Bedienelements für eine Anzeigevorrichtung sowie Computerprogrammprodukt
US8393968B2 (en) 2008-09-03 2013-03-12 Igt Gaming system, gaming device and method for providing a strategy game having a plurality of awards
US8210935B2 (en) * 2008-11-12 2012-07-03 Igt Gaming system, gaming device and method of providing collectors and tokens associated with collectors
US8287364B2 (en) 2008-11-13 2012-10-16 Igt Gaming system, gaming device, and method for providing a game in which a player collects emblems by positioning accumulators in a field
US20110107276A1 (en) * 2009-11-04 2011-05-05 Tonny Chen Icon/text interface remote controller
US9495826B2 (en) 2009-11-11 2016-11-15 Igt Gaming system, gaming device, and method for providing a game in which players position selectors within a field of selections based on values masked by the selections
CN102479043A (zh) * 2010-11-29 2012-05-30 联想(北京)有限公司 一种在触摸屏上实现鼠标事件的方法、触摸屏和电子设备
US8804056B2 (en) 2010-12-22 2014-08-12 Apple Inc. Integrated touch screens
US8475265B2 (en) 2011-09-28 2013-07-02 Igt Gaming system, gaming device, and method for providing a multiple player persistent game
US8905831B2 (en) 2011-09-28 2014-12-09 Igt Gaming system, gaming device, and method for providing a multiple player persistent game
US8662980B2 (en) 2011-09-28 2014-03-04 Igt Gaming system, gaming device, and method for providing a multiple player persistent game
US9082257B2 (en) 2011-09-30 2015-07-14 Igt Gaming system and method providing a community selection game providing bonus game selection
US8795063B2 (en) 2012-03-27 2014-08-05 Igt Gaming system, gaming device, and method for providing a multiple player game
JP2013210802A (ja) * 2012-03-30 2013-10-10 Sumitomo Electric Ind Ltd 端末装置及びコンピュータプログラム
US8708804B2 (en) 2012-06-22 2014-04-29 Igt Gaming system and method providing a collection game including at least one customizable award collector
US9177447B2 (en) 2012-09-25 2015-11-03 Igt Gaming system and method for providing a symbol matrix with a moveable symbol display window
US8784174B2 (en) 2012-09-25 2014-07-22 Igt Gaming system and method for providing an offer and acceptance game
US8840456B2 (en) 2012-09-25 2014-09-23 Igt Gaming system and method for providing an offer and acceptance game
US8662982B1 (en) 2012-09-28 2014-03-04 Igt Method and apparatus for attractive bonusing
US20150058792A1 (en) * 2013-03-19 2015-02-26 Bernard KOBOS Methods, systems and apparatuses for providing user interface navigation, display interactivity and multi-browser arrays
US10169957B2 (en) 2014-02-13 2019-01-01 Igt Multiple player gaming station interaction systems and methods
US9886185B2 (en) * 2014-06-09 2018-02-06 Cornelius, Inc. Systems and methods of multi-touch concurrent dispensing
KR101681987B1 (ko) 2015-04-30 2016-12-12 현대자동차주식회사 터치 입력장치 및 이를 포함하는 차량
US10905948B1 (en) 2017-06-09 2021-02-02 James F. Nevarez Game controller for hand-held electronic devices having a touch screen display
US10272325B1 (en) 2017-06-09 2019-04-30 James F. Nevarez Game controller for hand-held electronic devices having a touch screen display
CN107315524A (zh) * 2017-07-13 2017-11-03 北京爱川信息技术有限公司 一种人机交互方法及其系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4959810A (en) * 1987-10-14 1990-09-25 Universal Electronics, Inc. Universal remote control device
US5282028A (en) * 1990-11-27 1994-01-25 Scientific-Atlanta, Inc. Remote control for digital music terminal with synchronized communications
US5239540A (en) * 1990-11-27 1993-08-24 Scientific-Atlanta, Inc. Method and apparatus for transmitting, receiving and communicating digital data signals with corresponding program data signals which describe the digital data signals
US5410326A (en) * 1992-12-04 1995-04-25 Goldstein; Steven W. Programmable remote control device for interacting with a plurality of remotely controlled devices
US5621456A (en) * 1993-06-22 1997-04-15 Apple Computer, Inc. Methods and apparatus for audio-visual interface for the display of multiple program categories
US5613137A (en) 1994-03-18 1997-03-18 International Business Machines Corporation Computer system with touchpad support in operating system
US6025837A (en) * 1996-03-29 2000-02-15 Micrsoft Corporation Electronic program guide with hyperlinks to target resources
US6002450A (en) * 1997-03-24 1999-12-14 Evolve Products, Inc. Two-way remote control with advertising display
US6154204A (en) * 1998-01-21 2000-11-28 Evolve Products, Inc. Tap antenna unit
US6130726A (en) * 1997-03-24 2000-10-10 Evolve Products, Inc. Program guide on a remote control display
US6437836B1 (en) * 1998-09-21 2002-08-20 Navispace, Inc. Extended functionally remote control system and method therefore
US6765557B1 (en) 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US20020059610A1 (en) 2000-05-23 2002-05-16 Ellis Michael D. Interactive television application with watch lists
AU2001263476A1 (en) 2000-10-06 2002-04-22 Digeo, Inc. Interactive, off-screen entertainment guide

Also Published As

Publication number Publication date
EP1502177A2 (en) 2005-02-02
WO2003092262A2 (en) 2003-11-06
CN100380295C (zh) 2008-04-09
AU2003223739A8 (en) 2003-11-10
KR20050003393A (ko) 2005-01-10
US6995751B2 (en) 2006-02-07
KR100699913B1 (ko) 2007-03-28
CN1656439A (zh) 2005-08-17
US20030201984A1 (en) 2003-10-30
WO2003092262A3 (en) 2004-10-07
CA2483268A1 (en) 2003-11-06
CA2483268C (en) 2008-01-22
AU2003223739A1 (en) 2003-11-10
JP2005524289A (ja) 2005-08-11

Similar Documents

Publication Publication Date Title
MXPA04010572A (es) Metodo y aparato para hacer navegar una imagen usando una pantalla sensible al tacto.
JP5398728B2 (ja) 情報処理装置、情報処理方法、記録媒体、及び集積回路
JP2020188479A (ja) 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
JP4315239B2 (ja) 変化可能な透明度の表示
CN105323623B (zh) 显示设备、包括显示设备的多显示器系统及其控制方法
US20130326583A1 (en) Mobile computing device
KR100980741B1 (ko) 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
RU2689412C2 (ru) Устройство отображения и способ отображения
US8072415B2 (en) Control signal input system and control signal input method
CN103019431A (zh) 显示设备以及触摸感测设备和方法
KR101712909B1 (ko) 터치 스크린 디스플레이를 포함하는 전자 장치, 이를 이용한 인터페이스 방법 및 컴퓨터 판독 가능한 저장매체
WO2006125133A2 (en) Global navigation objects in user interfaces
CN101751125A (zh) 信息处理装置和信息处理方法
EP1393294A1 (en) Remote control having a touch pad for highlighting preselected p arts of a displayed slide
CN105763920B (zh) 显示装置和显示方法
KR20150051769A (ko) 영상표시장치 및 영상표시장치 동작방법
WO2008130183A1 (en) Method and apparatus for digital broadcasting set-top box controller and digital broadcasting system
KR20110134810A (ko) 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
US6275174B1 (en) Input device and method for remote control of audio and video recording and reproducing systems, and presentation device utilizing same
EP3057313A1 (en) Display apparatus and display method
EP3209024A1 (en) Remote controller for providing a force input in a media system and method for operating the same
KR102314109B1 (ko) 디스플레이 장치 및 디스플레이 방법
US10873718B2 (en) Systems and methods for touch screens associated with a display
KR101222709B1 (ko) 터치방식을 활용한 브라우저 운용 방법
KR20160095525A (ko) 디스플레이 장치, 원격 제어 장치, 원격 제어 시스템 및 그 제어 방법

Legal Events

Date Code Title Description
FG Grant or registration
GB Transfer or rights