ES2744492T3 - Sistema y método para controlar procedimientos técnicos - Google Patents

Sistema y método para controlar procedimientos técnicos Download PDF

Info

Publication number
ES2744492T3
ES2744492T3 ES13736623T ES13736623T ES2744492T3 ES 2744492 T3 ES2744492 T3 ES 2744492T3 ES 13736623 T ES13736623 T ES 13736623T ES 13736623 T ES13736623 T ES 13736623T ES 2744492 T3 ES2744492 T3 ES 2744492T3
Authority
ES
Spain
Prior art keywords
user interface
graphical user
game
path
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13736623T
Other languages
English (en)
Inventor
Timur Haussila
Touko Tahkokallio
Mikko Hokkanen
John Nicholas Derome
Lassi Leppinen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Supercell Oy
Original Assignee
Supercell Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/445,783 external-priority patent/US8954890B2/en
Priority claimed from US13/479,637 external-priority patent/US8814674B2/en
Application filed by Supercell Oy filed Critical Supercell Oy
Application granted granted Critical
Publication of ES2744492T3 publication Critical patent/ES2744492T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/493Resuming a game, e.g. after pausing, malfunction or power failure
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F3/00Board games; Raffle games
    • A63F2003/00996Board games available as video games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2401Detail of input, input devices
    • A63F2009/2402Input by manual operation
    • A63F2009/241Touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Dispositivo (10) electrónico que comprende: (i) una pantalla de visualización; y (ii) un hardware informático configurado para ejecutar un producto de software, en el que ejecutar el producto de software genera y reproduce una interfaz gráfica de usuario en la pantalla de visualización, estando la interfaz gráfica de usuario configurada para facilitar la interacción de usuario, (iii) una interfaz de entrada de usuario reproducida sobre la interfaz gráfica de usuario, estando la interfaz de entrada de usuario configurada para detectar una entrada que corresponde a mover un objeto de puntero, hacer clic o pinchar en el objeto de puntero o deslizar un objeto sensible al tacto sobre la interfaz gráfica de usuario; en el que el hardware informático, la interfaz gráfica de usuario y el producto de software se implementan en un sistema de juego, el hardware de ordenador que: (a) presenta uno o más objetos gráficos seleccionables en la interfaz gráfica de usuario; (b) permite la selección de uno o más de los objetos gráficos seleccionables; (c) genera una lista de menú en la interfaz gráfica de usuario tras la selección de uno de los objetos gráficos seleccionables, comprendiendo la lista de menú una o más opciones seleccionables; (d) detecta la selección de una de las opciones seleccionables de la lista de menú; (e) detecta la selección sustancialmente continua de zonas a lo largo de un trayecto en la interfaz gráfica de usuario, en el que la selección sustancialmente continua comprende detectar un movimiento de deslizamiento sobre la interfaz gráfica de usuario; y (f) ejecuta una acción que corresponde a la opción seleccionada en cada zona a lo largo del trayecto en la interfaz gráfica de usuario, en el que el sistema de juego comprende un juego de cultivo, los objetos gráficos seleccionables de la interfaz gráfica de usuario comprenden diferentes regiones espaciales de un entorno de cultivo en el que se cultivan una o más cosechas, y en el que las opciones seleccionables en la lista de menú son diferentes herramientas de cultivo, en el que el hardware informático aplica de manera continua la opción seleccionada a una porción de un objeto gráfico en cada zona a lo largo del trayecto en respuesta a la detección de una acción de deslizamiento de un objeto sensible al tacto sobre la porción del objeto gráfico; en el que el hardware informático detecta la velocidad de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto y ejecuta la acción que corresponde a la opción seleccionada con una rapidez que depende al menos parcialmente de la velocidad detectada de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto; y en el que el hardware informático deshabilita la ejecución de la acción que corresponde a la opción seleccionada, en respuesta a la detección de la finalización de la selección sustancialmente continua de una o más zonas a lo largo de un trayecto en la interfaz gráfica de usuario.

Description

DESCRIPCIÓN
Sistema y método para controlar procedimientos técnicos
Campo de la invención
La presente invención se refiere a sistemas para controlar procedimientos técnicos, por ejemplo, a sistemas para controlar procedimientos técnicos relacionados con al menos una de simulación de procedimiento técnico y control de procedimiento técnico. Además, la presente invención se refiere a métodos de controlar procedimientos técnicos, por ejemplo, a métodos de controlar procedimientos técnicos relacionados con al menos una de simulación de procedimiento técnico y control de procedimiento técnico. Además, la presente invención se refiere a productos de software grabados en medios de almacenamiento de datos legibles por máquina, en la que los productos de software pueden ejecutarse en el hardware informático para implementar los métodos mencionados anteriormente.
Antecedentes de la invención
Se conocen las interfaces gráficas de usuario (GUI) para controlar procedimientos complejos, por ejemplo, en salas de control asociadas con centrales nucleares, en sistemas de defensa militar y en gestión aeronáutica. Tales interfaces gráficas de usuario pueden emplearse tanto para controlar prestaciones técnicas reales como para simulaciones de tales prestaciones. Las simulaciones proporcionan una oportunidad para investigar un funcionamiento potencial de las prestaciones, antes de aplicar órdenes y señales de control reales a las prestaciones, proporcionando de ese modo mejor control de las prestaciones y anticipando el funcionamiento de las prestaciones.
Los dispositivos informáticos incluyen ordenadores de tableta, tales como iPads, y teléfonos inteligentes que incluyen iPhone® de Apple, teléfono Android® de Google y teléfonos Symbian®. Estos dispositivos informáticos tienen interfaces gráficas extremadamente fáciles de usar para permitir la interacción fácil y rápida a usuarios de los mismos. La mayoría de estos dispositivos incorporan pantallas sensibles al tacto que obtienen entradas de usuario y facilitan una interacción de usuario fluida. El software de simulación, por ejemplo implementado convenientemente en forma de software de juego, se emplea en muchos de estos dispositivos con fines de ocio así como con fines de control técnico tal como se mencionó anteriormente. Un aspecto importante de un sistema de juego o simulación es la facilidad con la que un usuario dado puede introducir entradas deseadas e interactuar con la interfaz de usuario del dispositivo en el que él/ella juega a un juego y/o ejecuta una simulación. Para dispositivos que no tienen incorporada en los mismos una pantalla táctil, las únicas maneras de interacción del usuario dado mientras que juega a un juego o ejecuta una simulación en tales dispositivos, se tratan de haciendo clic en un ratón asociado, usando las funciones de teclado/tecla asociadas para la actuación o usando palancas de mando asociadas. Algunas experiencias con el “apuntar y hacer clic” o “palanca de mando” incorporado en muchos dispositivos electrónicos de menor calidad es incompatible y a menudo consume mucho tiempo, mientras que se juega a un juego o ejecuta una simulación técnica. Específicamente, hay simulaciones técnicas o juegos específicos en los que un usuario/jugador dado debe usar operaciones de hacer clic, apuntar, pinchar y arrastrar muchas veces, y a menudo en diferentes ubicaciones de la pantalla de dispositivo, cuya actuación a través de un ratón actual o una palanca de mando actual supone una dificultad. En un entorno de juego habitual en el que un usuario dado debe realizar operaciones similares haciendo clic en o tocando múltiples puntos en la interfaz, esto se vuelve complicado. Incluso las pantallas sensibles al tacto, proporcionadas en muchos dispositivos electrónicos convencionales, son capaces de detectar la operación de toque sólo en un punto cada vez. Las pantallas multitáctiles aún no son populares, y pueden ser de gran beneficio en un entorno de juego o un entorno de simulación. Algunas de las aplicaciones de consola de juego convencionales pueden controlarse a través de operaciones sensibles multitáctiles, sin embargo, en entornos de juegos de estrategia, aún tienen algunos inconvenientes para realizar determinadas operaciones deseadas.
Por tanto, considerando los problemas mencionados anteriormente, existe la necesidad de una interfaz gráfica de usuario (GUI) mejor y altamente congenial para un sistema de simulación y control técnico o de juego, mientras que se juega a un juego o ejecuta una simulación en un dispositivo informático.
En la solicitud de patente estadounidense publicada US2011/244937 (Yamashita) (“Game execution method, storage medium and electronic instrument") se describe un método de ejecución de juego que comprende:
presentar visualmente una serie de preguntas generada disponiendo adyacentemente una pluralidad de cuadrados, un carácter de asignación que es al menos un carácter, número, signo o una combinación de los mismos que está asignado a cada uno de la pluralidad de cuadrados, y una secuencia de caracteres correcta que tiene un significado que se obtiene trazando cuadrados entre la pluralidad de cuadrados a lo largo de una ruta correcta de modo que cada uno de la pluralidad de cuadrados se pasa sólo una vez;
introducir una ruta de respuesta que traza cuadrados entre la pluralidad de cuadrados incluidos en la serie de preguntas basándose en una entrada de operación realizada por un jugador; y
comparar una secuencia de caracteres de respuesta obtenida disponiendo los caracteres de asignación a lo largo de la ruta de respuesta con la secuencia de caracteres correcta para determinar si es acertada o no la secuencia de caracteres de respuesta.
En la solicitud de patente estadounidense publicada US2011/319169 (Lam et al.) ("Mobile device interface for Online Games") se describe un sistema, que comprende:
un almacén de datos de información de estado de juego que corresponde a una o más instancias de un juego implementado en ordenador, en el que el juego implementado en ordenador comprende una pluralidad de acciones mecánicas de cosecha en juego iniciadas por el usuario; y
uno o más servidores operativos para implementar una primera interfaz y una segunda interfaz de usuario para el juego implementado en ordenador en un sistema de cliente sobre una red de ordenadores;
en el que la primera interfaz de usuario permite el acceso a un primer conjunto de acciones mecánicas de cosecha en juego; y
en el que la segunda interfaz de usuario permite el acceso a un subconjunto del primer conjunto de acciones mecánicas de cosecha en juego.
En la solicitud de patente estadounidense publicada US2011/225524 (Cifra) (“Multi-touch editing in a Graphical Programming Language”) se describe un medio de memoria accesible por ordenador que almacena instrucciones de programa ejecutables mediante un procesador para implementar:
presentar visualmente un programa gráfico en un dispositivo de visualización, en el que el programa gráfico comprende una pluralidad de nodos interconectados que indican visualmente la funcionalidad del programa gráfico; recibir una entrada multitáctil a una interfaz multitáctil, en el que la entrada multitáctil especifica una operación de edición en el programa gráfico;
realizar la operación de edición en el programa gráfico en respuesta a la entrada multitáctil; y
presentar visualmente el programa gráfico editado en el dispositivo de visualización.
En la solicitud de patente estadounidense publicada US2005/164794A1 (Tahara) (“Game System using Touch Panel Input") se describe una pantalla de visualización; en la pantalla de visualización se presenta visualmente una imagen de juego que contiene una o más imágenes de personaje de juego que muestran un personaje de juego e imágenes de ítem cada una mostrando un ítem. Se determina un tipo de ítem haciendo que un jugador seleccione al menos una imagen de ítem presentada visualmente en la pantalla de visualización. Si la entrada de usuario se proporciona al panel táctil, se detecta un valor de coordenada, que indica una posición en el panel táctil en la que se proporciona la entrada del usuario, en intervalos de tiempo predeterminados. Además, se identifica una forma gráfica de una trayectoria de entrada representada por un grupo de valores de coordenada detectados. Se cambia un detalle de procesamiento para cambiar un parámetro de característica del personaje de juego según una combinación del tipo de ítem y la forma gráfica de la trayectoria de entrada.
Sumario de la invención
La presente invención busca proporcionar una interfaz gráfica de usuario mejorada que sea más conveniente de usar cuando se efectúan actividades de juego y/o ejecutan simulaciones de sistemas técnicos reales antes de proceder a controlar la operación de tales sistemas técnicos.
La presente invención busca también proporcionar un método mejorado de emplear una interfaz gráfica de usuario que sea más conveniente cuando se efectúan actividades de juego y/o ejecutan simulaciones de sistemas técnicos reales antes de proceder a controlar la operación de tales sistemas.
Según un primer aspecto de la presente invención, se proporciona un dispositivo electrónico según la reivindicación 1: se proporciona un dispositivo electrónico que comprende:
(i) una pantalla de visualización; y
(ii) un hardware informático configurado para ejecutar un producto de software, en el que ejecutar el producto de software genera y reproduce una interfaz gráfica de usuario en la pantalla de visualización, estando la interfaz gráfica de usuario configurada para facilitar la interacción de usuario,
(iii) una interfaz de entrada de usuario reproducida sobre la interfaz gráfica de usuario, estando la interfaz de entrada de usuario configurada para detectar una entrada que corresponde a mover un objeto de puntero, hacer clic o pinchar en el objeto de puntero o deslizar un objeto sensible al tacto sobre la interfaz gráfica de usuario; en el que el hardware informático, la interfaz gráfica de usuario y el producto de software se implementan en un sistema de juego, el hardware de ordenador que:
(a) presenta uno o más objetos gráficos seleccionables en la interfaz gráfica de usuario;
(b) permite la selección de uno o más de los objetos gráficos seleccionables;
(c) genera una lista de menú en la interfaz gráfica de usuario tras la selección de uno de los objetos gráficos seleccionables, comprendiendo la lista de menú una o más opciones seleccionables;
(d) detecta la selección de una de las opciones seleccionables a partir de la lista de menú;
(e) detecta la selección sustancialmente continua de zonas a lo largo de un trayecto en la interfaz gráfica de usuario, en el que la selección sustancialmente continua comprende detectar un movimiento de deslizamiento sobre la interfaz gráfica de usuario; y
(f) ejecuta una acción que corresponde a la opción seleccionada en cada zona a lo largo del trayecto en la interfaz gráfica de usuario,
caracterizado porque
el sistema de juego comprende un juego de cultivo, los objetos gráficos seleccionables de la interfaz gráfica de usuario comprenden diferentes regiones espaciales de un entorno de cultivo en el que se cultivan una o más cosechas, y en el que las opciones seleccionables en la lista de menú son diferentes herramientas de cultivo, en el que el hardware informático aplica de manera continua la opción seleccionada a una porción de un objeto gráfico en cada zona a lo largo del trayecto en respuesta a la detección de una acción de deslizamiento de un objeto sensible al tacto sobre la porción del objeto gráfico;
en el que el hardware informático detecta la velocidad de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto y ejecuta la acción que corresponde a la opción seleccionada con una rapidez que depende al menos parcialmente de la velocidad detectada de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto; y
en el que el hardware informático deshabilita la ejecución de la acción que corresponde a la opción seleccionada, en respuesta a la detección de la finalización de la selección sustancialmente continua de una o más zonas a lo largo de un trayecto en la interfaz gráfica de usuario.
La invención es ventajosa porque la interfaz gráfica de usuario es más conveniente de usar, por ejemplo, cuando se envían instrucciones complejas que requieren actividades de despliegue simultáneas.
Opcionalmente, en el dispositivo electrónico, el producto de software está configurado para ejecutar acciones a través de uno o más recursos, en uno o más objetos gráficos, basándose en la recepción de una entrada de ejecución de usuario, después de reproducir el uno o más recursos en múltiples ubicaciones.
Opcionalmente, en el dispositivo electrónico, el producto de software está configurado para reproducir el uno o más recursos en múltiples ubicaciones, basándose en una operación de toque de múltiples puntos de la pantalla de visualización realizada por un usuario, o una operación de deslizamiento por el dispositivo electrónico realizada por un usuario, el software está configurado para reproducir el uno o más recursos en múltiples ubicaciones cuando la operación de toque de múltiples puntos realizada por el usuario se realiza durante un tiempo predeterminado. Aún más opcionalmente, en el dispositivo electrónico, el tiempo predeterminado es ajustable por el usuario. Más opcionalmente, en el dispositivo electrónico, la rapidez de reproducción del uno o más recursos en múltiples ubicaciones se basa al menos en la velocidad de la operación de toque de o la operación de deslizamiento en la pantalla de visualización realizada por el usuario.
Más opcionalmente, en el dispositivo electrónico, el número de recursos reproducidos en múltiples ubicaciones depende al menos de la presión aplicada por el usuario sobre la pantalla de visualización, durante la realización de la operación de toque o deslizamiento. La presión aplicada por un usuario dado a una pantalla táctil se determina de manera beneficiosa mediante uno o más transductores sensibles a la presión integrados dentro de la pantalla táctil. Sin embargo, determinadas pantallas táctiles actuales funcionan sólo en un modo binario, concretamente o bien hay contacto o bien no hay contacto con una zona dada de la pantalla táctil. En tales pantallas táctiles, la presión aplicada por el usuario dado puede determinarse mediante una zona de puntos de detección espacialmente contiguos colindantes en la pantalla que experimentan sustancialmente de manera simultánea el contacto que realiza el usuario dado. Por tanto, existen cada vez más puntos de detección espacialmente contiguos de manera simultánea sustancialmente en estado de contacto a medida que se aplica cada vez más presión debido a la deformación elástica del tejido biológico de las yemas de los dedos del usuario dado. Puede conseguirse una funcionalidad de detección de presión similar cuando el usuario dado emplea un dispositivo de apuntar que tiene un extremo elásticamente deformable para hacer contacto en la pantalla táctil para controlar un juego o una simulación, o para introducir instrucciones para controlar una prestación técnica real. Opcionalmente, el juego o simulación incluye una rutina de calibración para que un usuario dado realice una calibración de la sensibilidad a la presión de la pantalla táctil.
Opcionalmente, en el dispositivo electrónico, el producto de software y la interfaz gráfica de usuario corresponden a un entorno de juego.
Opcionalmente, en el dispositivo electrónico, se incluye una base de datos para grabar y actualizar de manera continua el cambio en estado del uno o más objetos gráficos, estando el producto de software acoplado a la base de datos y configurado para reanudar el estado del uno o más objetos gráficos a su último estado actualizado en la base de datos, en caso de interrupciones en el estado operable de la interfaz gráfica de usuario.
Opcionalmente, una pluralidad de dispositivos electrónicos están conectados a un servidor a través de una red, estando la interfaz gráfica de usuario generada temporalmente de manera simultánea en cada uno de los dispositivos electrónicos, para facilitar una pluralidad de interacciones de usuario con la interfaz gráfica de usuario, en la que las interfaces gráficas de usuario generadas en la pluralidad de dispositivos electrónicos se coordinan y sincronizan a través del servidor, y se actualizan simultáneamente en la pluralidad de dispositivos electrónicos con tiempo.
Opcionalmente, el dispositivo electrónico se implementa como un ordenador de escritorio, un ordenador portátil, un iPad, o un teléfono inteligente, que incluye un iPhone®, un teléfono Android® o un teléfono Symbian®; “®” representa marcas registradas.
Según un segundo aspecto de la invención, se proporciona un método para facilitar las interacciones de usuario con una interfaz gráfica de usuario,
(i) estando la interfaz gráfica generada y reproducida en la pantalla de un dispositivo (10) electrónico, ejecutando un producto de software en un hardware informático del dispositivo (10) electrónico, estando el hardware informático, la interfaz gráfica de usuario y el producto de software implementados en un sistema de juego, comprendiendo el método:
(ii) comprendiendo además el dispositivo electrónico una interfaz de entrada de usuario reproducida sobre la interfaz gráfica de usuario, estando la interfaz de entrada de usuario configurada para detectar una entrada que corresponde a mover un objeto de puntero, hacer clic o pinchar en el objeto de puntero o deslizar un objeto sensible al tacto sobre la interfaz gráfica de usuario;
en el que el método incluye:
(a) reproducir uno o más objetos gráficos dentro de la interfaz gráfica de usuario;
(b) detectar la selección de uno o más del uno o más objetos gráficos;
(c) reproducir una lista de menú que contiene un conjunto de opciones seleccionables, correspondiendo cada opción seleccionable a un efecto que se va a aplicar a una porción de un objeto gráfico específico, o a uno o más del uno o más objetos gráficos;
(e) detectar la selección de una de las opciones seleccionables;
(f) detectar una selección sustancialmente continua de zonas de la interfaz gráfica de usuario a lo largo de un trayecto detectando un movimiento de deslizamiento sobre la interfaz gráfica de usuario; y
(g) aplicar el efecto que corresponde a la opción seleccionada a una porción de un objeto gráfico específico, o a uno o más objetos gráficos que corresponden al trayecto,
caracterizado porque el sistema de juego comprende un juego de cultivo, los objetos gráficos seleccionables de la interfaz gráfica de usuario comprenden diferentes regiones espaciales de un entorno de cultivo en el que se cultivan una o más cosechas, y en el que las opciones seleccionables en la lista de menú son diferentes herramientas de cultivo;
en el que, en el método, el hardware informático aplica de manera continua la opción seleccionada a una porción de un objeto gráfico en cada zona a lo largo del trayecto en respuesta a la detección de una acción de deslizamiento de un objeto sensible al tacto sobre la porción del objeto gráfico;
en el que el hardware informático detecta la velocidad de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto y ejecuta la acción que corresponde a la opción seleccionada con una rapidez que depende al menos parcialmente de la velocidad detectada de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto; y
en el que el hardware informático deshabilita la ejecución de la acción que corresponde a la opción seleccionada, en respuesta a la detección de la finalización de la selección sustancialmente continua de una o más zonas a lo largo de un trayecto en la interfaz gráfica de usuario.
Opcionalmente, el método comprende además:
(d) desplegar el uno o más recursos en múltiples ubicaciones basándose al menos en detectar que la operación de toque de múltiples puntos en la pantalla de visualización se realiza durante un tiempo predeterminado.
Opcionalmente, en el método, la rapidez de despliegue del uno o más recursos en múltiples ubicaciones depende de la velocidad de la operación de deslizamiento o la operación de toque.
Opcionalmente, en el método, el número de recursos desplegados en las diferentes ubicaciones en la interfaz depende de la presión aplicada en la pantalla de visualización durante la realización de la operación de toque o la operación de deslizamiento.
Opcionalmente, en el método, el producto de software y la interfaz gráfica de usuario corresponden a un sistema de juego.
Opcionalmente, el método comprende además grabar y actualizar de manera continua el cambio en estado del uno o más objetos gráficos, acoplar el producto de software a la base de datos y reanudar el estado de uno o más objetos gráficos a su último estado actualizado en la base de datos, en caso de interrupciones en las operaciones de la interfaz gráfica de usuario.
Opcionalmente, el método comprende además:
(e) conectar una pluralidad de los dispositivos electrónicos a un servidor a través de una red;
(f) generar la interfaz gráfica de usuario temporalmente de manera simultánea en las pantallas de los diferentes dispositivos electrónicos; y
(g) coordinar la pluralidad de interfaces gráficas de usuario a través del servidor, y actualizarlas simultáneamente con tiempo, para facilitar múltiples interacciones de usuario y coordinación con las interfaces gráficas de usuario. Más opcionalmente, en el método, las interfaces gráficas de usuario corresponden a un sistema de juego, y el método está configurado para facilitar un sistema de juego multijugador en línea.
Según un tercer aspecto de la presente invención, se proporciona un producto de software grabado en un medio de almacenamiento de datos legible por máquina, en el que se puede ejecutar el producto de software en el hardware informático de un dispositivo informático para implementar un método según el segundo aspecto de la invención. Se apreciará que las características de la invención son susceptibles a ser combinadas en diversas combinaciones sin apartarse del alcance de la invención tal como se define por las reivindicaciones adjuntas.
Descripción de los diagramas
Se describirán ahora realizaciones de la presente invención, sólo a modo de ejemplo, con referencia a los siguientes diagramas en los que:
la figura 1 es una ilustración esquemática general de un sistema de acuerdo con la presente invención, que proporciona una interfaz gráfica de usuario (GUI) para interconectar uno o más usuarios a una prestación, en la que la prestación incluye elementos de juego, simulación y/o control de sistema técnico real;
la figura 2 es una ilustración de una realización de la interfaz gráfica de usuario de la figura 1;
la figura 3 es una ilustración de un entorno a modo de ejemplo que puede controlarse usando la interfaz gráfica de usuario de la figura 2;
la figura 4 y la figura 5 son ilustraciones de interacciones de usuario con el entorno de la figura 3;
la figura 6 es una ilustración de una red de servidores y dispositivos requeridos para implementar el sistema de la figura 1;
la figura 7 es un diagrama de flujo de etapas implementadas en el sistema de la figura 1;
la figura 8, la figura 9 y la figura 10 son ilustraciones de un entorno en el que puede hacerse funcionar el sistema de la figura 1 para simular o proporcionar un entorno de juego;
la figura 11 es una ilustración de una interfaz gráfica de usuario (GUI) implementada de acuerdo con la presente invención;
la figura 12 a la figura 15 son ilustraciones de entornos de cultivo que se generan mediante el sistema de la figura 1; y
la figura 16 es una red alternativa de servidores de datos y dispositivos para implementar el sistema tal como se ilustra en la figura 1.
En los diagramas adjuntos, se emplea un número subrayado para representar un ítem sobre el que se coloca el número subrayado o un ítem al que el número subrayado es adyacente. Un número no subrayado se refiere a un ítem identificado por una línea que relaciona el número no subrayado con el ítem. Cuando un número no está subrayado y acompañado de una flecha asociada, el número no subrayado se usa para identificar un ítem general al que apunta la flecha.
Descripción de realizaciones de la invención
En general, la presente invención se refiere a un aparato para controlar procedimientos técnicos, en el que los procedimientos técnicos incluyen elementos de simulación y control de prestaciones. En la figura 1, se muestra un aparato 10 para proporcionar una interfaz gráfica de usuario (GUI) entre un usuario 20 dado, por ejemplo uno o más personas, y una prestación 30 técnica, en el que el aparato 10 se implementa convenientemente usando un dispositivo que incluye hardware informático que puede hacerse funcionar para ejecutar uno o más productos de software grabados en medios de almacenamiento de datos legibles por máquina. Además, el aparato 10 se implementa convenientemente usando plataformas informáticas actuales, por ejemplo, plataformas informáticas que se habilitan inalámbricamente para soportar la comunicación mediante redes de comunicación inalámbricas. La prestación 30 técnica opcionalmente incluye elementos de simulación, juego y control de sistema real.
Una realización de la presente invención se refiere a una interfaz gráfica de usuario para un sistema de juego y/o simulación, para facilitar la interacción fácil y rápida de un usuario dado mientras que juega a un juego o controla una simulación, y para evitar problemas actuales experimentados mientras que se realizan operaciones de toque o deslizamiento en las pantallas sensibles al tacto de dispositivos electrónicos en los que se juega a juegos y/o se ejecutan simulaciones.
Los sistemas de juego se incorporan con fines de ocio en muchos dispositivos electrónicos informáticos, que incluyen ordenadores, iPads, teléfonos móviles, ordenadores de tableta y teléfonos inteligentes. Muchos de estos dispositivos electrónicos convencionales incorporan pantallas sensibles al tacto para obtener entradas de usuario y para brindar una experiencia de usuario congenial con la interfaz. Para jugar a juegos en los dispositivos electrónicos o controlar simulaciones técnicas, sin una pantalla sensible al tacto, incluyendo muchos ordenadores de escritorio y portátiles, en general el usuario interactúa con y proporciona entradas a una interfaz de sistema de juego o simulación a través de dispositivos de entrada acoplados, tales como ratones, determinadas teclas en los teclados y palancas de mando. Usar múltiples operaciones de haciendo clic a través de un ratón consume mucho tiempo y es desfavorable, por ejemplo, en casos en los que debe realizarse una misma operación en múltiples puntos en la interfaz de juego o simulación. Incluso cuando los dispositivos tienen pantallas sensibles al tacto, cuando se necesita que operaciones similares que corresponden al juego que se está jugando, o la simulación que se está ejecutando, se realicen simultáneamente a través de múltiples regiones de la interfaz, esto se vuelve difícil de conseguir ya que las pantallas sensibles al tacto convencionales son capaces de detectar operaciones de toque de una en una, en un punto específico. Aunque las pantallas sensibles multitáctiles están disponibles actualmente, y están incorporadas en dispositivos electrónicos, las operaciones que corresponden a determinados juegos, cuando se juegan, que corresponden del mismo modo a determinadas simulaciones técnicas, requieren la detección simultánea de operaciones de toque o deslizamiento realizadas por múltiples regiones de la pantalla.
Por tanto, la presente divulgación proporciona una interfaz gráfica de usuario mejorada para un sistema de juego y/o simulación, que mejora la experiencia de un usuario dado mientras que juega a un juego o ejecuta una simulación técnica en un dispositivo electrónico. El sistema y método facilitan la realización de operaciones de toque y deslizamiento por una pantalla sensible multitáctil del dispositivo electrónico, y permite que el usuario dado realice operaciones similares relacionadas con el juego o la simulación, simultáneamente, por diferentes regiones de la interfaz.
En la figura 2, se muestra una interfaz gráfica de usuario que corresponde a un juego que se está jugando, o una simulación que se está ejecutando, en un dispositivo electrónico, ilustrando una manera en la que un usuario que juega a un juego de estrategia o que ejecuta una simulación realiza operaciones de toque o deslizamiento por múltiples puntos de la interfaz, simultáneamente, para ejecutar operaciones similares por múltiples ubicaciones en la interfaz. Tal como se muestra, una interfaz 100 gráfica de usuario, que corresponde al juego que se está jugando o una simulación que se está ejecutando, se reproduce en una pantalla de visualización en el dispositivo electrónico. Específicamente, la interfaz 100 se reproduce y presenta en la pantalla de visualización cuando un producto de software que corresponde al juego o simulación se ejecuta en el hardware informático del dispositivo electrónico. La pantalla de visualización es una pantalla sensible multitáctil que puede detectar operaciones de toque o deslizamiento realizadas en múltiples puntos en la pantalla simultáneamente. Un usuario 108 usa dos de sus dedos y realiza operaciones de toque en dos ubicaciones 102 y 104 diferentes en la interfaz 100. La interfaz 100 detecta esta operación, y el producto de software que corresponde al juego o simulación ejecuta acciones relacionadas con la operación de toque realizada en diferentes objetos gráficos de la interfaz 100. Esto se explica con más detalle a continuación en el presente documento con respecto a un ejemplo de un entorno de juego o entorno de simulación específico, conjuntamente con los dibujos a continuación.
En la figura 3, se muestra una instantánea de la pantalla de visualización de un dispositivo electrónico, cuando un usuario juega a un juego, o ejecuta una simulación, en el dispositivo, y usa el método de la presente divulgación para controlar la interfaz de juego o simulación.
Tal como se muestra, un dispositivo 200 electrónico incluye una pantalla 202 de visualización, en el que diferentes recursos para realizar acciones que corresponden al juego o la simulación se reproducen en un elemento 206 gráfico de la pantalla 202 de visualización. Con el fin de explicar esta divulgación, el entorno de juego o simulación representado corresponde a un juego o simulación basados en la guerra, y el entorno de juego reproducido en la pantalla 200 de visualización corresponde a un campo 204 de batalla. El dispositivo 200 puede ser cualquier dispositivo electrónico adecuado que incorpore una pantalla sensible multitáctil, incluyendo un iPad®, un teléfono inteligente, por ejemplo, un iPhone® de Apple, un teléfono Android®, o un teléfono Symbian®, un ordenador de tableta, un ordenador de escritorio o un ordenador portátil, etc. El campo 204 de batalla tiene diferentes objetos gráficos, por ejemplo, un objetivo 208, que puede representar un castillo o un campamento. La finalidad del juego o simulación puede ser conquistar el castillo, atacándolo a través de diferentes recursos A, B y C, etc., mostrados dentro del el elemento 206 gráfico. Los recursos A, B y C dentro del elemento 206 pueden representar armas, que incluyen pistolas, cañones, flechas, arcos, etc. (concretamente hardware técnico), o representan diferentes tropas, soldados armados, soldados a pie o soldados montados a caballo, etc. Aunque se han mostrado sólo tres de tales recursos, puede haber otros múltiples recursos para jugar al juego o ejecutar la simulación. En el juego o simulación de estrategia, el usuario selecciona uno o más de estos recursos y despliega los recursos seleccionados en múltiples ubicaciones dentro del campo 204 de batalla. Los recursos seleccionados se usan entonces para realizar operaciones para conquistar el objetivo 208. Por ejemplo, los recursos desplegados pueden operarse para atacar al objetivo 208 a través de las diferentes armas que poseen. El usuario puede usar múltiples operaciones de toque simultáneamente en diferentes puntos en la pantalla 202 para desplegar los recursos A, B, C, etc. en múltiples ubicaciones dentro del campo 204 de batalla. Además, el usuario puede realizar también la operación de deslizamiento para desplegar un recurso específico todo a través de un conjunto de puntos a lo largo de un trayecto específico, deslizando los dedos a través de ese trayecto. El movimiento del recurso desplegado diferente, o bien alejándose de o bien hacia el objetivo 208, puede controlarse apuntando hacia un recurso desplegado específico, y deslizando el dedo en la dirección deseada. Cuando el usuario toca la pantalla 202 de visualización para desplegar un recurso seleccionado, la pantalla 202 detecta la presión aplicada por el usuario en diferentes puntos. El número de recursos desplegados en diferentes ubicaciones depende opcionalmente de la cantidad de presión aplicada. Específicamente, una presión más alta aplicada en un punto específico da como resultado números aumentados de despliegue de recursos en ese punto, y viceversa. Además, la rapidez de despliegue de los recursos en diferentes ubicaciones en el campo 204 de batalla depende de la velocidad con la que el usuario realiza la operación de toque o deslizamiento por diferentes puntos. Por ejemplo, si el usuario desea desplegar un recurso seleccionado a lo largo de diferentes puntos en un trayecto específico, y realiza una operación de deslizamiento a través del trayecto, los recursos se despliegan tan rápido como se realice la operación de deslizamiento a través del trayecto. Una operación de deslizamiento rápida da como resultado un despliegue más rápido de recursos, comparado con una operación de deslizamiento lenta.
Además, en la figura 3, se muestra la pantalla de visualización del dispositivo, cuando el usuario ha seleccionado una de las opciones seleccionables A, B y C, para desplegar recursos dentro del campo de batalla del juego o la simulación basados en la guerra. Mostrado como un ejemplo, el usuario ha seleccionado la opción B que corresponde a una categoría o tipo específico de recursos que se van a desplegar en el campo de batalla, para operar sobre el objetivo 208 después de eso. Tal como se mencionó anteriormente, los recursos seleccionados pueden ser tropas, soldados armados que poseen tipos específicos de armas, soldados montados a caballo, etc. Además, aunque se ha mostrado que se seleccione sólo una opción, el usuario puede seleccionar también múltiples opciones para desplegar diferentes tipos de recursos en el campo de batalla. Eventualmente, después de seleccionar la opción B, el usuario usa dos de sus dedos para controlar la interfaz y desplegar las tropas en dos puntos 302 y 304 deseados, tal como se muestra. Específicamente, el usuario realiza una operación de toque en los puntos 302 y 304, o bien simultáneamente, o bien en secuencia temporal, concretamente uno a uno. Alternativamente, puede realizarse también una operación de deslizamiento que se inicia desde cualquiera de los puntos 302 y 304 seleccionados, a través de un trayecto deseado específico, para desplegar los recursos todos a través del trayecto deseado. En una realización, los recursos se despliegan en los puntos seleccionados, en un momento predeterminado específico después de que se realice la operación de toque. Por ejemplo, en una realización, los recursos pueden desplegarse en un punto específico sólo si el usuario mantiene su dedo tocando el punto durante un tiempo predeterminado, que puede ser aproximadamente de 0,5 a 10 1 segundos. Esta característica es ajustable, y el tiempo mínimo que el usuario debe mantener sus dedos en contacto con la pantalla para desplegar los recursos puede personalizarse basándose en el deseo del usuario, antes de jugar al juego o ejecutar la simulación. Además, esto evita los casos en los que los recursos pueden desplegarse inintencionadamente o indeseablemente.
Un recurso desplegado específico se libera para la acción, por ejemplo, para atacar el objetivo 208, basándose en la detección de determinadas condiciones. Esto puede incluir, por ejemplo, el usuario manteniendo aún su dedo en un punto deseado, durante aproximadamente 1 a 2 segundos después de que el recurso ya se haya desplegado en ese punto. En otro caso, puede reproducirse independientemente una opción de ejecución en la pantalla de visualización, y el usuario tiene que proporcionar una instrucción de ejecución a través de la opción, tras se despliegan los recursos. Además, las operaciones multitáctil realizadas a través de los diferentes dedos actúan independientemente, y la pantalla de visualización está configurada para detectar e interpretar las operaciones de deslizamiento o toque realizadas a través de esos dedos independientemente.
Específicamente, como un ejemplo, cuando un dedo toca o se desliza por puntos específicos en la pantalla, puede desplegarse un conjunto de recursos sobre un conjunto de ubicaciones que corresponden a esos puntos, y posteriormente, cuando otro dedo toca o se desliza por un conjunto de puntos diferentes, un segundo conjunto de recursos también puede desplegarse posteriormente sobre esos puntos. Los dos conjuntos de recursos pueden ser iguales o diferentes dependiendo de los ajustes del juego que el usuario puede ajustar y pueden personalizarse antes de jugar al juego o ejecutar la simulación. Además, tal como se mencionó anteriormente, la pantalla de visualización es capaz también de detectar operaciones de toque o deslizamiento realizadas en diferentes puntos simultáneamente, y desplegar los recursos en diferentes puntos juntos. En una realización, el número de recursos desplegados en diferentes puntos puede ser uno, cada uno correspondiente a la detección de una operación de toque realizada en ese punto. Alternativamente, puede desplegarse un número constante de recursos por unidad de tiempo en un punto específico, o sobre un conjunto de puntos, siempre que una operación de toque o deslizamiento se realice sobre esos puntos. En otra realización, tal como se mencionó anteriormente, el número de recursos desplegados es una función de la presión aplicada por el usuario mientras que se realiza la operación de toque o deslizamiento. Específicamente, una presión más alta aplicada en un punto específico opcionalmente da como resultado el despliegue de mayor número de recursos en ese punto, y viceversa.
Haciendo referencia a continuación a la figura 4, se ilustra la pantalla de visualización del dispositivo electrónico, en la que los recursos que corresponden a la opción seleccionada B se muestran desplegados en múltiples ubicaciones en la pantalla de visualización. Tal como se muestra, un conjunto de recursos 410 se despliegan en un conjunto de ubicaciones en la pantalla 202, y estos corresponden a múltiples operaciones de toque realizadas antes alrededor de un punto 302, mostrado en la figura 4.
Para desplegar los recursos 410, el usuario realiza opcionalmente una operación de deslizamiento a través de un trayecto que cubre esos puntos. Además, se muestra desplegado otro conjunto de recursos 420 en el otro lado del objetivo 208. Estos recursos se reproducen cuando las operaciones de toque que se inician con un punto 304, véase la figura 4, se realizan por el usuario, a través de otro dedo. De manera similar, se realiza opcionalmente una operación de toque o deslizamiento en muchos otros puntos en la pantalla 202 de visualización para desplegar los recursos en otros puntos deseables.
En la figura 6, se muestra una ilustración de un entorno a modo de ejemplo para implementar el método y el aparato según la presente divulgación. Se muestra una pluralidad de dispositivos 502, 504, 506 y 508 electrónicos, a través de los cuales un usuario puede conectarse a uno de los diferentes servidores 510 y 540 de datos, por ejemplo, servidores de juegos y/o servidores de simulaciones, a través de una de múltiples redes representadas mediante 550, 560 y 570. Los dispositivos 502, 504, 506 ó 508 electrónicos, pueden ser cualquier dispositivo electrónico adecuado que tenga un hardware informático capaz de soportar y ejecutar un producto de software que corresponde a un sistema de juego y/o una simulación. Los ejemplos habituales de los dispositivos electrónicos ilustrados pueden incluir un ordenador de escritorio, un ordenador portátil, un ordenador de tableta, un teléfono inteligente que incluye los conocidos popularmente iPhones®, un teléfono Android®, un iPad®, etc. Además, todos esos dispositivos electrónicos tienen una o más pantallas sensibles multitáctil para detectar y obtener una entrada de usuario a través de operaciones de toque o deslizamiento realizadas en múltiples puntos de la una o más pantallas de visualización. Además, los diferentes dispositivos 502, 504, 506 y 508 electrónicos, se conectan mutuamente entre sí a través de cualquiera de los servidores 510 y 540, a través de redes de comunicación adecuadas. Las redes 550, 560 y 570, etc., pueden ser redes inalámbricas, tales como una red de área local inalámbrica (WLAN), redes de área local (LAN), redes celulares, por ejemplo, red 2G, red 3G, etc. Además, cualquiera de los dispositivos 504, 506 y 508 electrónicos puede usar también su propia red de Bluetooth y puede ser capaz de conectarse a un servidor de Bluetooth, para sincronizarse con los otros dispositivos electrónicos; “Bluetooth” es una marca registrada. El entorno a modo de ejemplo mostrado soporta también el juego en modo multijugador, facilitando que múltiples usuarios estén en línea a través de diferentes dispositivos, conectándose a través de una red adecuada, y sincronizándose entre sí. Además, se acoplan múltiples bases de datos, tal como se muestra mediante los módulos 520, 530, etc. a diferentes servidores, y la información relacionada con el entorno de juego se almacena de manera continua en esas bases de datos, cuando los diferentes usuarios están en línea para jugar en modo multijugador.
Para facilitar el juego de un único jugador o la simulación de un único usuario, un usuario inicia sesión a través de cualquiera de los dispositivos 502, 504, 506 ó 508 electrónicos, y se conecta a uno de los servidores 510 ó 540 de juego o simulación, a través de una red adecuada, por ejemplo, mediante Internet y/o una red de comunicación inalámbrica. A la vez que el usuario inicia sesión, y ejecuta el software de juego o simulación en el hardware informático del dispositivo específico que utiliza, por ejemplo, el dispositivo 502, se genera una interfaz gráfica de usuario que corresponde al juego, y se reproduce en la pantalla de visualización del dispositivo 502. La interfaz gráfica de usuario presenta diferentes objetos gráficos relacionados con el juego o la simulación, en la pantalla de visualización del dispositivo 502. Los objetos gráficos pueden representarse mediante diferentes bloques/segmentos de la interfaz gráfica de usuario, en los que pueden realizarse diferentes operaciones que corresponden al juego que se está jugando o la simulación que se está ejecutando. Por ejemplo, en el caso en que el juego es un juego basado en la guerra o la simulación se refiere un hardware militar técnico tal como pistolas, bombas y similares, tales bloques/segmentos pueden representar uno o más objetivos que han de ser conquistados, tal como el objetivo 208 mostrado anteriormente en la figura 3. Además, uno o más elementos gráficos, que representan un conjunto de opciones seleccionables por el usuario para realizar acciones en los objetos gráficos, también se reproducen en la interfaz del dispositivo 502. Tales elementos se han explicado con detalle anteriormente, en conjunción con los dibujos previos de la divulgación, que se relacionan con un juego o simulación basados en la guerra. Además, un objeto de puntero (cursor) que puede moverse sobre los diferentes objetos gráficos aparece en la interfaz gráfica de usuario, para controlar las operaciones del juego o la simulación. El objeto de puntero puede controlarse realizando operaciones de tocar, deslizar o pinchar la pantalla de visualización del dispositivo 502. Además, otros dispositivos de entrada, que incluyen un ratón, una palanca de mando o un conjunto de botones de teclado, pueden acoplarse al dispositivo 502 (aunque no se muestra), para facilitar la provisión de entradas de usuario. La operación de tocar la pantalla de visualización puede realizarse a través del uso de un objeto sensible al tacto adecuado, que incluye los dedos, un bolígrafo, un lápiz, un órgano puntero, etc.
Otra base 580 de datos, acoplada al servidor 520 de juego o simulación, sirve como una base de datos back-end para el servidor 520 de juego o simulación. A la vez que el usuario del dispositivo 502 comienza a jugar al juego, o ejecutar una simulación, se graban acciones y gestos habituales realizados por el usuario, en el servidor 580 backend. Específicamente, tales acciones se interpretan a través del servidor 520 de juego o simulación, y se envían como mensajes al servidor 580 back-end, que eventualmente mantiene un registro de y una copia de seguridad para el juego jugado o simulación ejecutada. Tales mensajes pueden ser en forma de paquetes de datos enviados por una conexión de Internet a través de la cual el dispositivo 502 se conecta al servidor 510, o enviados por cualquier otra red inalámbrica o por cable que conecte el dispositivo 502 al servidor 510, tal como se mencionó anteriormente. Los elementos habituales de tales mensajes para mantener una copia de seguridad para el juego o la simulación pueden incluir un encabezado, una carga útil y una suma de comprobación. La suma de comprobación puede ser una función de la carga útil, o puede ser un identificador de usuario único, tal como un nombre de usuario o similares. Una ventaja que surge a partir de incluir la suma de comprobación en los mensajes de mantenimiento de back-end, es la posibilidad de evitar fraudes potenciales mientras se juega al juego, o evitar la corrupción por terceros de una simulación que pueda influir adversamente en los resultados generados por la simulación. Aquellos expertos en la técnica entenderán que puede aplicarse una función de suma de comprobación apropiada o un algoritmo de suma de comprobación a los datos digitales recogidos, mientras que se está jugando al juego, o se está ejecutando una simulación, para obtener la suma de comprobación. Además, la suma de comprobación que corresponde a datos específicos puede recomputarse en cualquier momento de tiempo, y compararse con la suma de comprobación almacenada, para evitar posibles fraudes. Los mensajes back-end recibidos por el servidor 510 también se envían a otras bases 520 y 530 de datos del servidor 510. En estas bases 520, 530 de datos, estos mensajes back-end se usan para mantener una lógica continua que representa el estado del juego o la simulación, por ejemplo, la puntuación exacta del jugador actualizada con el tiempo, y una fase del juego que el jugador ya ha alcanzado, o resultados de la simulación tal como rendimiento, integridad de una estructura y similares. Con una recepción continua de los mensajes back-end mediante las bases 520 y 530 de datos, se acomete una actualización regular del estado del juego dentro de esas bases 520 y 530 de datos de servidor, eventualmente, con el tiempo. Esto garantiza la facilidad para reanudar el juego o la simulación a su último estado, en casos en los que el dispositivo 510 se apaga inesperadamente, se dificulta inesperadamente la comunicación del dispositivo 510 o el usuario cambia la terminal de juego o simulación, o él/ella intencionadamente deja de jugar o ejecutar la simulación durante un periodo determinado, e inicia sesión en algún otro momento, tal posibilidad de reanudación ayuda a potenciar la satisfacción del usuario con la interfaz gráfica de usuario.
Aunque sólo se han mostrado dos servidores 510 y 540, puede haber múltiples servidores de juego o simulación que se coordinan y conectan entre sí, para implementar el entorno de juego y/o simulación según la presente divulgación. Además, el entorno tal como se muestra en la figura 6 es capaz de implementar un juego o simulación de cliente ligero, concretamente escrito en un programa de ordenador que es parcialmente independiente en sus funciones computacionales, en el que una parte de la lógica del juego o simulación puede almacenarse en cualquiera de los servidores 510 y 540, y una parte puede almacenarse en la terminal de juego o simulación. El entorno representado soporta también un juego o simulación de cliente pesado, concretamente escrito en un solo ordenador independiente, en el que toda la lógica de juego o simulación puede almacenarse en la terminal de juego. Además, el juego o simulación también se completan opcionalmente basándose en la web, en el que la mayoría de la lógica de juego o simulación puede almacenarse en cualquiera de los servidores 510 ó 540. El software de juego o simulación que corresponde al juego o simulación que se está jugando o ejecutando respectivamente, pueden escribirse opcionalmente en cualquier lenguaje de programación.
Aunque se ha descrito el sistema de juego o simulación que puede implementarse a través del entorno ilustrado de juego o de simulación para el caso en el que un único usuario inicia sesión en cualquiera de los dispositivos 502, 504, 506 ó 508 electrónicos, el mismo entorno de juego o de simulación es capaz de soportar el juego o la simulación con múltiples participantes, en el que diferentes usuarios pueden iniciar sesión a través de diferentes dispositivos electrónicos y sincronizarse entre sí conectándose simultáneamente a través de cualquiera de los servidores 510 y 540 de juego o simulación comunes, a través de redes adecuadas tal como se mencionó anteriormente, y compartir una interfaz gráfica de usuario común que represente el juego o la simulación en curso. En tales realizaciones, la interfaz gráfica de usuario reproducida en las pantallas de visualización de los diferentes dispositivos electrónicos, se actualiza regularmente, simultáneamente, a través de los datos lógicos almacenados en las bases 520 y 530 de datos de los servidores de juego o simulación, en el back-end.
En la figura 7, se muestra un método de facilitar interacciones de usuario con una interfaz gráfica de usuario (GUI), mientras que se juega a un juego o ejecuta una simulación. El método se explica en conjunción con un ejemplo habitual de un juego o simulación basado en la guerra, descrito anteriormente a través de las figuras previas de la divulgación. Sin embargo, el método puede generalizarse e implementarse también en otros entornos de juego o de simulación, y no se pretende que se limite el alcance de la presente divulgación. En la etapa 604, el método incluye una etapa de ejecutar un producto de software en hardware informático de un dispositivo electrónico. El dispositivo electrónico puede ser cualquier dispositivo apropiado que incorpore una pantalla sensible multitáctil, ejemplos de los cuales se han explicado anteriormente. El producto de software corresponde a un sistema de juego o simulación, para facilitar jugar a un juego o ejecutar una simulación técnica en el dispositivo electrónico. En la etapa 608, a la vez que se ejecuta el producto de software, el método incluye generar y reproducir en una interfaz gráfica de usuario una representación del entorno de juego o de simulación en la pantalla de visualización del dispositivo electrónico. En la etapa 612, el método incluye presentar mediante la interfaz gráfica de usuario diferentes objetos gráficos, un conjunto de opciones seleccionables por el usuario para controlar el entorno de juego o de simulación, y un puntero para realizar operaciones de toque o deslizamiento por diferentes puntos en la interfaz. Por ejemplo, tal como se mencionó anteriormente, en un juego o simulación basado en la guerra, los objetos gráficos pueden corresponder a un castillo que se va a conquistar, un campamento que se va a destruir, etc., y el entorno de juego o de simulación puede representar un campo de batalla. Las opciones seleccionables por el usuario pueden corresponder a diferentes recursos que pueden desplegarse sobre diferentes porciones de la interfaz, para realizar operaciones en los objetos gráficos, por ejemplo, para anotar puntos o de otra manera determinar sus características técnicas.
Específicamente, los recursos pueden ser diferentes tipos de tropas, soldados montados a caballo, soldados armados que poseen versatilidad de armas, que incluyen pistolas, bombas, cañones, arcos, flechas, etc. En la etapa 616, el método incluye que el usuario selecciona una o más opciones seleccionables que corresponden a los diferentes tipos de recursos que quiere desplegar dentro del entorno de juego o de simulación. Avanzando adicionalmente, después de seleccionar y habilitar una de las opciones seleccionables, en la etapa 620, el método incluye desplegar los recursos correspondientes, el usuario realiza operaciones de toque o deslizamiento en múltiples puntos de la interfaz, dependiendo de las ubicaciones en las que desea desplegarlos. En la etapa 624, los recursos se despliegan y aparecen en la interfaz de juego o simulación. En una realización, la naturaleza del despliegue de los diferentes recursos puede depender de diferentes parámetros. Por ejemplo, el número de recursos desplegados en un punto específico depende de la presión aplicada por el usuario en la pantalla de visualización, mientras realiza la operación de toque en ese punto. Además, si el usuario desea desplegar recursos a lo largo de múltiples puntos que constituyen un trayecto específico, y realiza una operación de deslizamiento a lo largo de ese trayecto, la rapidez con la que se despliegan los recursos depende de la velocidad con la que el usuario realiza la operación de deslizamiento a lo largo del trayecto. En otra realización, puede desplegarse un número constante de recursos por unidad de tiempo en cada punto en el que se está realizando una operación de toque. La naturaleza del despliegue de recursos puede ajustarse por el usuario y personalizarse basándose en la prioridad del usuario antes de jugar al juego.
En la etapa 628, el método incluye comprobar si se desea o no que otros recursos se desplieguen, antes de ejecutar acciones a través de los recursos. Si “sí”, el método incluye volver a la etapa 616, seleccionar las opciones seleccionables que corresponden al recurso, y realizar de nuevo las operaciones de toque o deslizamiento por los puntos deseados. Alternativamente, yendo más allá, en la etapa 632, el método incluye liberar los recursos desplegados para la acción, dentro del entorno de juego o de simulación. Por ejemplo, en un juego o simulación basado en la guerra, se liberan las tropas/soldados armados desplegados para actuar sobre un objetivo específico, para atacarlo desde diferentes puntos en los que se despliegan. En una realización, la liberación de los recursos desplegados es automática, y se produce cuando el usuario mantiene sus dedos en un recurso específico durante un tiempo predeterminado después de desplegarlo. Por ejemplo, este tiempo puede ser aproximadamente de 1 a 2 segundos de operación de toque después de que el recurso ya se haya desplegado. La pantalla de visualización está configurada para detectar este tiempo predeterminado, y el producto de software ejecuta la acción relacionada con el recurso desplegado, cuando esto se produce. En otra realización, la liberación de los diferentes recursos puede requerir una entrada de usuario manual. Específicamente, por ejemplo, una opción de desencadenante (como una opción de “ir” o “disparar”) puede reproducirse después de desplegar los recursos, y los recursos pueden no liberarse hasta que el usuario inicia la opción manualmente. En la etapa 636, después de que las acciones se han realizado mediante los recursos desplegados, se actualiza la interfaz gráfica de usuario y se reproduce en la pantalla de visualización una interfaz reformada que representa el último estado del entorno de juego - o simulación.
El método y sistema de la presente divulgación, para mejorar la interacción de un usuario con una interfaz gráfica de usuario que corresponde a un juego y/o una simulación, proporciona beneficios sustanciales ya que el usuario realiza diferentes operaciones en un entorno de juego o de simulación. Pueden ejecutarse fácilmente operaciones similares, cuando un usuario desea realizarlas, a través de diferentes ubicaciones en la interfaz de juego o simulación, tocando o deslizando a través de múltiples puntos de la pantalla de visualización simultáneamente. Por tanto, la experiencia del usuario con la interfaz de juego o simulación es mucho más cómoda.
Aunque se ha descrito la presente divulgación exhaustivamente, a través de una realización a modo de ejemplo en la que puede aplicarse en un entorno de juego y/o de simulación, y específicamente a través del ejemplo de un juego o simulación basado en la guerra, la divulgación encuentra también su aplicación en otros juegos, entornos de control y simulación, y, generalmente, puede aplicarse a otras interfaces gráficas de usuario, no relacionadas también con un sistema de juego o simulación. En determinadas aplicaciones, la interfaz de usuario de la realización dada a conocer puede usarse para un control virtual de cualquier tipo de juego, simulación o sistema técnico. Determinados aspectos de las realizaciones dadas a conocer pueden aplicarse también para realizar otras operaciones, que incluyen construir salones recreativos y resolver juegos de puzle. Además, la interfaz de usuario congenial puede implementarse también dentro de otro tipos de juegos, por ejemplo, de aventuras, de rol y juegos de disparar, construcción y juegos de simulación de gestión, etc. Por ejemplo, la interfaz de usuario congenial puede usarse en terminales de ordenador empleadas en intercambios financieros, por ejemplo en Wall Street en Nueva York y la bolsa de valores en Londres, en donde los intermediarios tienen que controlar múltiples transacciones simultáneamente cuando se ejecuta una transacción financiera, por ejemplo, una permuta de incumplimiento crediticio sintética o un intercambio en productos financieros derivados.
Ahora se describirán a continuación realizaciones adicionales de la presente invención. La presente divulgación está relacionada con una interfaz gráfica de usuario (GUI) para un sistema de juego o de simulación, tal como se mencionó anteriormente, para facilitar la interacción fácil y rápida de un usuario mientras que juega al juego o ejecuta la simulación, y para evitar las operaciones difíciles de manejar normalmente experimentadas mientras se usa un ratón o una palanca de mando cuando se juega o ejecuta un juego o una simulación respectivamente en un dispositivo electrónico.
Los sistemas de juego y simulación se incorporan para ocio en muchos dispositivos electrónicos, que incluyen ordenadores, iPads®, teléfonos móviles, ordenadores de tableta y teléfonos inteligentes. Mientras se juega a un juego o ejecuta una simulación en los dispositivos informáticos sin una prestación de pantalla táctil, que incluyen muchos ordenadores de escritorio y portátiles disponibles convencionalmente, el mayor modo de interacción de un usuario con la interfaz de sistema de juego o simulación es a través de dispositivos como un ratón, determinadas teclas en el teclado, y las palancas de mando acopladas al dispositivo informático. En muchos juegos o simulaciones técnicas, el usuario a menudo desea obtener una aplicación rápida de determinadas operaciones, para lo que tiene que usar la operación de hacer clic o pinchar múltiples veces, y en diferentes puntos de la interfaz, que a menudo toma tiempo. La mayoría de los teléfonos inteligentes y ordenadores de tableta tienen ahora incorporadas pantallas táctiles, y jugar a juegos en estos dispositivos es comparativamente más fácil. Sin embargo, mientras se interactúa con la pantalla sensible al tacto que actúa como una superficie táctil para la interfaz gráfica de usuario que corresponde a un juego, múltiples operaciones de hacer clic en o pinchar una única o diferentes ubicaciones pueden deteriorar la pantalla. Además, la pantalla a menudo se deteriora a largo plazo, produciéndose arañazos y puntos de suciedad en ella, ya que un dispositivo se usa demasiado a menudo para jugar a juegos, lo que a menudo no es deseable. Además, determinadas operaciones requieren hacer clic en y pinchar consistentemente diferentes ubicaciones en la interfaz gráfica de usuario, lo que toma tiempo para permitir las operaciones.
En la figura 8, se representa la interfaz gráfica de usuario que corresponde a un juego de cultivo o simulación de cultivo, que ilustra cómo se realizan convencionalmente las diferentes operaciones relevantes, y los problemas afrontados por un usuario/jugador, mientras se realizan esas operaciones. La simulación se emplea de manera beneficiosa en lo que se refiere a África como una asistencia técnica para granjeros que lidian con la agricultura en condiciones medioambientales duras, por ejemplo, exacerbadas por el cambio climático producido atropogénicamente que se cree que es causado por emisiones de dióxido de carbono antropogénico en la atmósfera de la Tierra, provocando un aumento de la concentración de dióxido de carbono atmosférico de alrededor de 3 p.p.m./año, en lo que se refiere a una concentración de dióxido de carbono actual en la atmósfera de alrededor de 400 p.p.m. Las concentraciones de dióxido de carbono se cree que están causando acidificación de los océanos mundiales, concretamente influenciando negativamente las mayores fuentes de comida acuática, ya estresadas por las fugas radiactivas de Fukushima, Japón, concretamente el peor accidente industrial en la historia de la humanidad.
En la figura 8, hay un campo 1100 de cultivo, y múltiples personajes 1106 que controlan las operaciones en el campo 1100. Los personajes 1106 los controla el usuario/jugador, y se mueven y se permite que realicen diferentes operaciones dentro del campo 1100. Se muestra una tarjeta de puntuación en la esquina superior izquierda de la interfaz gráfica, y se muestran diferentes casas 1102, en las que los personajes 1106 pueden ocultarse. El juego o simulación trata sobre cultivar diferentes cosechas/frutos en diferentes partes adecuadas del campo 1100, por ejemplo en función de predicciones de tiempo futuras que están relacionadas con África, por ejemplo, tal como se determina a partir de los datos de análisis a partir de satélites meteorológicos. Una situación a modo de ejemplo se va a describir ahora: el personaje 1106 desea cultivar algo en una región específica del campo 1100. Haciendo referencia a continuación a la figura 9, el usuario selecciona un objeto 1200 gráfico que corresponde a la ubicación en la que desea cultivar una cosecha específica. La selección se hace pinchando el objeto 1200 a través del ratón, o tocando la interfaz, si la interfaz es sensible al tacto. A la vez que el usuario toca el objeto 1200, aparece una lista de menú, que contiene diferentes opciones seleccionables que corresponden a diferentes cosechas que pueden cultivarse en esa zona, por ejemplo, frambuesas 1206, arándanos 1204, fresas 1208, etc., tal como se muestra. Supóngase que el usuario ha decidido cultivar arándanos 1204 en una porción, y frambuesas 1206 en otra región del campo. Para ello el usuario selecciona las opciones relevantes y selecciona las regiones correspondientes en las que desea cultivarlos.
Continuando adicionalmente, el campo 1100 actualizado de la figura 8 se muestra ahora en la figura 10, en la que se muestra que se han cultivado arándanos en una región 1300, y se muestra que se han cultivado las frambuesas a lo largo de la región 1302. En este caso, surge un mayor problema cuando el campo de cultivo es sustancialmente grande, y se requiere que diferentes cosechas se cultiven en diferentes regiones del campo de cultivo. Además, una cosecha específica puede desearse que se cultive en diferentes regiones del campo, yaciendo proximales entre sí, o en colindancia. Para permitir esto, el usuario tiene que seleccionar cada una de esas regiones individualmente, a través de múltiples operaciones de hacer clic/pinchar a través del ratón, o apuntando con el dedo o un objeto sensible al tacto como los dedos, en diferentes regiones, en caso en el que la pantalla es una pantalla sensible al tacto. En ambos casos, la operación consume mucho tiempo, y específicamente, cuando se realiza la operación en una pantalla táctil a través de los dedos, puede deteriorar la pantalla eventualmente.
La presente divulgación proporciona una interfaz gráfica de usuario (GUI) eficiente y fácil de usar para un sistema de juego o simulación como el mostrado en la figura 8 a la figura 10, una interfaz que facilita las operaciones fáciles y rápidas arrastrando un objeto de puntero o realizando una acción de deslizamiento sobre diferente objetos gráficos de la interfaz.
Específicamente, la presente divulgación se refiere a realizar una operación de deslizamiento en la interfaz gráfica de usuario de un sistema de juego - y/o simulación-, mientras que se controlan o facilitan las operaciones en la interfaz. En la figura 11, se ilustra la operación de deslizamiento que puede realizarse en la interfaz gráfica de usuario de un sistema de juego o de simulación, para controlar las operaciones mientras se juega a un juego o ejecuta una simulación. Tal como se muestra, para realizar la operación de deslizamiento de la presente divulgación, se coloca un dedo 1408 del usuario inicialmente en un punto 1402 deseado, y se mueve a lo largo de un trayecto 1406 deseado, hasta que se alcanza un punto 1404 de destino deseado, de modo normal tal como se hace para operar menús y manejar otras aplicaciones en dispositivos electrónicos que incorporan pantallas 1400 sensibles al tacto.
Además, en vez de usar los dedos, la operación de deslizamiento puede realizarse también a través de un ratón, apuntando y pinchando el ratón inicialmente en el punto 1402, arrastrando el puntero en la pantalla a lo largo del trayecto 1406 deseado, a través del ratón, y finalmente liberando el ratón en la posición 1404 final. Además, puede usarse en la pantalla cualquier otro dispositivo u órgano de pantalla sensible, por ejemplo, un bolígrafo o un dispositivo en punta, para realizar la operación de deslizamiento. Conectar esta operación y sus ventajas aplicables en el entorno de cultivo habitual representado en la figura 8 a la figura 10, supóngase que un usuario quiere cultivar frambuesas a lo largo de una región amplia representada por el trayecto 1406 en la figura 11, en diferentes bloques en el campo de cultivo. Entonces, el usuario sólo tiene que seleccionar la opción de frambuesa que aparece, apuntando en cualquier punto a lo largo del trayecto 1406, y deslizar sus dedos a lo largo del trayecto 1406. Esta operación llevará a un cultivo fácil y más rápido de las frambuesas a lo largo de todo el trayecto 1406.
En la figura 12 a la figura 15, se muestra la vista del campo de cultivo mostrado anteriormente en la figura 8, y las figuras ilustran las ventajas de la característica de deslizamiento soportada por la interfaz gráfica de usuario de la presente divulgación. Tal como se muestra en la figura 12, se ilustra una vista de un campo 1500 de cultivo, y el objetivo del juego o simulación es ganar puntos o adquirir créditos produciendo diferentes productos a lo largo de diferentes regiones del campo 1500. Cultivar diferentes cosechas/productos, o realizar diferentes operaciones como cosechar o regar las diferentes secciones del campo 1500, conllevan diferentes puntos o créditos que va a ganar el usuario. El campo 1500 tiene diferentes segmentos/bloques que pueden ser modificados por el usuario para ganar puntos o créditos. Estos segmentos/bloques se representan mediante los diferentes objetos gráficos de una interfaz gráfica de usuario que presenta el entorno de juego o el campo 1500 de cultivo en la pantalla de visualización de un dispositivo electrónico en el que se está jugando al juego o se está ejecutando la simulación. Haciendo referencia a continuación a la figura 13, para cultivar un producto/cosecha específicos, el usuario tiene que hacer clic en o pinchar a través del ratón, o tocar con su dedo, o a través de un objeto de pantalla sensible (en el caso en el que la pantalla del dispositivo electrónico sea sensible al tacto), en una posición deseada específica, por ejemplo, la representada por el bloque 1602, tal como se muestra. A la vez que el usuario toca el bloque 1602, un menú específico de ítem (ISM) que corresponde al bloque 1602 aparece en la interfaz gráfica de usuario. Diferentes bloques pueden tener diferentes menús específicos de ítem, que corresponden a las cosechas/productos posibles que pueden cultivarse sobre ellos. Tal como se muestra, el menú de ISM que corresponde al bloque 1602 muestra diferentes opciones seleccionables por el usuario como A, B, C, D y E, que corresponden a diferentes cosechas que pueden cultivarse en el campo. Cada opción seleccionable corresponde a una herramienta de cultivo para cultivar un tipo diferente de cosecha/producto, por ejemplo, maíz, choclo, zanahorias, trigo y arroz. La realización mostrada en las figuras y descrita en el presente documento es un mero ejemplo, y otras realizaciones que incorporan variaciones obvias pueden ser posibles también, por tanto, sin limitar el alcance de la presente divulgación. Por ejemplo, puede haber otros tipos diferentes de herramientas presentes en el menú de ISM, dependiendo del bloque/segmento del campo que se ha pinchado o seleccionado o en el que se ha hecho clic. Específicamente, si el bloque 1602 seleccionado ya se ha cultivado, entonces algunas de las opciones seleccionables que aparecen en el menú de ISM pueden corresponder a rociar con pesticida, cosechar, verter agua, etc. Haciendo referencia a continuación a la figura 14, si el usuario decide cultivar arroz, por ejemplo, entonces selecciona una opción correspondiente adecuada a partir del menú de ISM, y desliza su dedo sobre los diferentes bloques/segmentos del campo, donde sea que decida cultivar el arroz. Eventualmente, tal como se muestra, el arroz cultivado aparece por toda la región 1700 del campo de cultivo en el que el usuario has deslizado sus dedos o arrastrado el ratón. Como un ejemplo adicional para ilustrar la aplicación del movimiento de deslizamiento a otras operaciones, si el usuario desea ahora cosechar el arroz cultivado en determinadas zonas de la región 1700, entonces pincha, hace clic en o toca la región 1700, y una de las herramientas aparece en otro menú de ISM que aparece, para la operación con la hoz, tal como se muestra mediante la herramienta 1702. Continuando además en conjunción con la figura 15, el usuario apunta su dedo sobre la herramienta de hoz, y desliza el dedo sobre regiones del campo en las que quiere cosechar el arroz cultivado. Eventualmente, tal como se muestra, el usuario consigue cosechar y recoger el arroz de las zonas 1802, y ha dejado intencionadamente las otras zonas sin cosechar.
Enfatizando las ventajas de la aplicación de la característica de deslizamiento en la interfaz gráfica de usuario de un sistema de juego, comparadas con las soluciones tal como se ilustra antes desde la figura 8 hasta la figura 10, todas las operaciones de este tipo como cosechar o cultivar en un campo de cultivo, por ejemplo, se hacen fácilmente a través de la acción de deslizamiento operable extremadamente rápida y fácil, que sólo toma una fracción de segundo y evita que se pinche en o haga clic múltiples veces en diferentes puntos en la interfaz, tal como se hizo en sistema de juego o simulación de la técnica anterior. Esto elimina cualquier efecto como la deterioración de la pantalla de visualización si la pantalla es sensible al tacto, o evita cualquier complejidad para realizar diferentes operaciones, independientemente de cómo de grande pueda ser el campo de cultivo.
En la figura 16, se muestra un entorno a modo de ejemplo para implementar el método y sistema según un aspecto de la presente divulgación. Tal como se muestra, se representan diferentes dispositivos 1902, 1904, 1906 y 1908 electrónicos, a través de los cuales puede conectarse un usuario a uno de los diferentes servidores 1910 y 1940 de juego o simulación, a través de uno de las múltiples redes representadas mediante 1950, 1960 y 1970. Los dispositivos 1902, 1904, 1906 ó 1908 electrónicos, pueden ser cualquier dispositivo electrónico adecuado que tenga un hardware informático capaz de soportar y ejecutar un producto de software que corresponde a un sistema de juego y/o simulación. Los ejemplos habituales de los dispositivos electrónicos ilustrados pueden incluir un ordenador de escritorio, un ordenador portátil, un ordenador de tableta, un teléfono inteligente que incluye el conocido predominantemente iPhone®, el teléfono Android®, etc., un iPad®, etc. Además, cualquiera de los dispositivos electrónicos puede tener la pantalla sensible al tacto para obtener entradas de usuario a través de una operación de toque, y algunos de ellos pueden acoplarse y operarse a través de dispositivos convencionales como un ratón, una palanca de mando, un teclado, etc. Además, los diferentes dispositivos 1902, 1904, 1906 y 1908 electrónicos, se conectan normalmente entre sí a través de los servidores 1910 y 1940, a través de redes adecuadas. Las redes 1950, 1960 y 1970, etc., pueden ser redes inalámbricas, por ejemplo, una red de área local inalámbrica (WLAN), redes de área local, redes celulares, por ejemplo, red 2G, red 3G, etc. Además, cualquiera de los dispositivos electrónicos puede usar también su propia red de Bluetooth y servidor de Bluetooth, para conectarse y sincronizarse con los otros dispositivos electrónicos; “Bluetooth" es una marca registrada. El entorno a modo de ejemplo facilita que múltiples usuarios estén en línea al mismo tiempo y se sincronicen entre ellos, para permitir el juego multijugador.
Adicionalmente, múltiples bases 1920, 1930 de datos, que corresponden a los diferentes servidores, tal como se ilustra, que permiten que los diferentes servidores almacenen información relevante al entorno de juego o de simulación, cuando los diferentes usuarios están en línea para jugar a un juego y/o simulación multijugador.
Para un jugador usuario que juega o ejecuta simulaciones, el usuario inicia sesión a través de cualquiera de los dispositivos 1902, 1904, 1906 ó 1908 electrónicos, y se conecta a uno de los servidores 1910 ó 1940 de juego o simulación, a través de una red adecuada. A la vez que el usuario inicia sesión, y ejecuta el software de juego o simulación en el hardware informático de un dispositivo específico, por ejemplo, el dispositivo 1902, se genera y reproduce en la pantalla de visualización del dispositivo 1902 una interfaz gráfica de usuario que corresponde al juego o simulación. La interfaz gráfica de usuario presenta diferentes objetos gráficos en la pantalla de visualización del dispositivo 1902. Los objetos gráficos pueden ser los diferentes bloques/segmentos de la interfaz gráfica de usuario, en los que puede realizarse diferentes operaciones que corresponden al juego que se está jugando, o la simulación que se está ejecutando. Además, un objeto de puntero (cursor) que puede moverse sobre los diferentes objetos gráficos aparece en la interfaz gráfica de usuario, para controlar las operaciones de juego o simulación. Si el dispositivo 1902 no tiene una pantalla sensible al tacto, el objeto de puntero puede controlarse a través de un ratón, una palanca de mando o un conjunto de botones de teclado, acoplados al dispositivo 1902. Además, si el dispositivo 1902 tiene una prestación de pantalla táctil incorporada en el mismo, pueden realizarse también las mismas operaciones de control deslizando o pinchando en/haciendo clic a través de los dedos o cualquier ítem de pantalla sensible, como cualquier otro órgano/bolígrafo/lápiz.
Otra base 1980 de datos sirve como una base de datos back-end para el servidor 1910 de juego o simulación. A la vez que el usuario del dispositivo 1902 comienza a jugar al juego, o ejecutar la simulación, se graban acciones y gestos habituales realizados por el usuario en el servidor 1980 back-end. Específicamente, tales acciones se interpretan a través del servidor 1910 de juego o simulación, y se envían como mensajes al servidor 1980 back-end, que eventualmente mantiene una copia de seguridad para el juego jugado o simulación ejecutada. Tales mensajes pueden ser en forma de paquetes de datos enviados por una conexión de Internet a través de la cual el dispositivo 1902 se conecta al servidor 1910, o cualquier otra conexión inalámbrica o por cable que conecta el dispositivo 1902 al servidor 1910. Los elementos habituales de tales mensajes para mantener una copia de seguridad para el juego o la simulación pueden incluir un encabezado, una carga útil y una suma de comprobación. La suma de comprobación puede ser una función de la carga útil, o puede ser un identificador de usuario único, tal como un nombre de usuario, etc. Una ventaja que surge a partir de incluir la suma de comprobación en los mensajes de mantenimiento de backend, es la posibilidad de evitar fraudes posibles mientras se juega al juego, o evitar la corrupción de una simulación que pueda influir negativamente en los resultados generados por la simulación. Los mensajes back-end recibidos por el servidor 1910 se envían también a las otras bases 1920 y 1930 de datos del servidor 1910. En esas bases de datos, esos mensajes back-end se usan para mantener una lógica continua que representa el estado del juego o simulación, por ejemplo, la puntuación exacta del jugador con el tiempo, y la fase del juego que el jugador ha alcanzado ya. Con una recepción continua de los mensajes back-end por las bases 1920 y 1930 de datos, se implementa una actualización regular del estado de juego o simulación dentro de las bases 1910 y 1920 de datos de servidor, eventualmente, con el tiempo. Esto garantiza la facilidad para reanudar el juego o la simulación a su último estado, en casos en los que el dispositivo 1910 se apaga inesperadamente, el usuario cambia la terminal de juego o simulación, o intencionadamente deja de jugar o ejecutar la simulación durante un periodo determinado, e inicia sesión en algún otro momento.
Aunque se han mostrado sólo dos servidores 1910 y 1940, puede haber múltiples servidores de juego o simulación que se coordinan y conectan entre sí, para implementar el entorno de juego y/o simulación según la presente divulgación. Además, el entorno tal como se muestra en la figura 16, es capaz de implementarse como un juego o simulación de cliente ligero, en el que una parte de la lógica de juego, o la lógica de simulación, puede almacenarse en cualquiera de los servidores 1910 y 1940, y una parte puede almacenarse en la terminal de juego o simulación. El entorno representado soporta también un juego o simulación de cliente pesado, en el que toda la lógica de juego, o lógica de simulación, puede almacenarse en la terminal de juego o simulación. Además, el juego también puede basarse completamente en la web, en donde la mayoría de la lógica de juego o la lógica de simulación puede almacenarse en cualquiera de los servidores 1910 ó 1940.
La presente invención se implementa opcionalmente mediante una infraestructura de informática en la nube.
Aunque, se ha explicado el sistema de juego o simulación que puede implementarse a través del entorno de juego o simulación ilustrado en el caso en el que un único usuario inicia sesión en cualquiera de los dispositivos 1902, 1904, 1906 ó 1908 electrónicos, el mismo entorno es capaz de soportar el juego o la simulación multijugador, en el que diferentes usuarios pueden iniciar sesión a través de diferentes dispositivos electrónicos, y sincronizarse entre sí conectándose al los servidores 1910 y 1940 comunes a través de redes adecuadas, y compartir una interfaz gráfica de usuario común que representa el juego o simulación en curso, por ejemplo, un programa de asistencia a la hambruna de las Naciones Unidas. En tales realizaciones, la interfaz gráfica de usuario reproducida en las pantallas de visualización de los diferentes dispositivos electrónicos, se actualiza regularmente, simultáneamente, a través de los datos lógicos almacenados en las bases 1920 y 1930 de datos de los servidores de juego o simulación, en el back-end.
En lo anterior, la presión aplicada por un usuario dado a una pantalla táctil se determina de manera beneficiosa mediante uno o más transductores sensibles a la presión integrados en la pantalla táctil. Sin embargo, determinadas pantallas táctiles actuales funcionan sólo en un modo binario, concretamente o bien hay contacto o bien no hay contacto con una zona dada de la pantalla táctil. En tales pantallas táctiles, la presión aplicada por el usuario dado puede determinarse mediante una zona de puntos de detección espacialmente contiguos colindantes en la pantalla que experimenta sustancialmente de manera simultánea el contacto que realiza el usuario dado. Por tanto, existen cada vez más puntos de detección espacialmente contiguos de manera simultánea sustancialmente en estado de contacto a medida que se aplica cada vez más presión debido a la deformación elástica del tejido biológico de las yemas de los dedos del usuario dado.
Puede conseguirse una funcionalidad de detección de presión similar cuando el usuario dado emplea un dispositivo de apuntar que tiene un extremo elásticamente deformable para hacer contacto con la pantalla táctil para controlar un juego o una simulación, o para introducir instrucciones para controlar una prestación técnica real.
De manera beneficiosa, cuando se implementa un juego o una simulación tal como se describió en lo anterior y el usuario dado sale del juego o simulación, por ejemplo para reanudar más tarde, los parámetros que describen un estado del juego o simulación en el instante de salir del juego se almacenan de manera beneficiosa en la memoria de datos, de modo que el estado del juego o la simulación puede recuperarse de nuevo en la reanudación del juego o la simulación.

Claims (6)

  1. REIVINDICACIONES
    i. Dispositivo (10) electrónico que comprende:
    (i) una pantalla de visualización; y
    (ii) un hardware informático configurado para ejecutar un producto de software, en el que ejecutar el producto de software genera y reproduce una interfaz gráfica de usuario en la pantalla de visualización, estando la interfaz gráfica de usuario configurada para facilitar la interacción de usuario,
    (iii) una interfaz de entrada de usuario reproducida sobre la interfaz gráfica de usuario, estando la interfaz de entrada de usuario configurada para detectar una entrada que corresponde a mover un objeto de puntero, hacer clic o pinchar en el objeto de puntero o deslizar un objeto sensible al tacto sobre la interfaz gráfica de usuario;
    en el que el hardware informático, la interfaz gráfica de usuario y el producto de software se implementan en un sistema de juego, el hardware de ordenador que:
    (a) presenta uno o más objetos gráficos seleccionables en la interfaz gráfica de usuario;
    (b) permite la selección de uno o más de los objetos gráficos seleccionables;
    (c) genera una lista de menú en la interfaz gráfica de usuario tras la selección de uno de los objetos gráficos seleccionables, comprendiendo la lista de menú una o más opciones seleccionables;
    (d) detecta la selección de una de las opciones seleccionables de la lista de menú;
    (e) detecta la selección sustancialmente continua de zonas a lo largo de un trayecto en la interfaz gráfica de usuario, en el que la selección sustancialmente continua comprende detectar un movimiento de deslizamiento sobre la interfaz gráfica de usuario; y
    (f) ejecuta una acción que corresponde a la opción seleccionada en cada zona a lo largo del trayecto en la interfaz gráfica de usuario,
    en el que el sistema de juego comprende un juego de cultivo, los objetos gráficos seleccionables de la interfaz gráfica de usuario comprenden diferentes regiones espaciales de un entorno de cultivo en el que se cultivan una o más cosechas, y en el que las opciones seleccionables en la lista de menú son diferentes herramientas de cultivo,
    en el que el hardware informático aplica de manera continua la opción seleccionada a una porción de un objeto gráfico en cada zona a lo largo del trayecto en respuesta a la detección de una acción de deslizamiento de un objeto sensible al tacto sobre la porción del objeto gráfico;
    en el que el hardware informático detecta la velocidad de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto y ejecuta la acción que corresponde a la opción seleccionada con una rapidez que depende al menos parcialmente de la velocidad detectada de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto; y
    en el que el hardware informático deshabilita la ejecución de la acción que corresponde a la opción seleccionada, en respuesta a la detección de la finalización de la selección sustancialmente continua de una o más zonas a lo largo de un trayecto en la interfaz gráfica de usuario.
  2. 2. Dispositivo (10) electrónico según la reivindicación 1, en el que detectar la selección sustancialmente continua comprende detectar el recorrido de un cursor sobre la interfaz gráfica de usuario.
  3. 3. Dispositivo (10) electrónico según la reivindicación 1, en el que el hardware informático está configurado para detectar el final de la selección sustancialmente continua, finalizar la acción y eliminar un indicador visual de la opción seleccionada de la interfaz gráfica de usuario.
  4. 4. Dispositivo (10) electrónico según la reivindicación 1, en el que:
    (i) la interfaz gráfica de usuario proporciona una pantalla sensible al tacto, en el que (ii) la interfaz de entrada de usuario se implementa como una superficie táctil de la pantalla sensible al tacto.
  5. 5. Dispositivo (10) electrónico según la reivindicación 1, en el que el dispositivo electrónico comprende un ordenador de escritorio, un ordenador portátil, un iPad, o un teléfono inteligente, que incluye un iPhone®, un teléfono Android® o un teléfono Symbian®.
  6. 6. Método para facilitar interacciones de usuario con una interfaz gráfica de usuario,
    (i) estando la interfaz gráfica generada y reproducida en la pantalla de un dispositivo (10) electrónico, ejecutando un producto de software en un hardware informático del dispositivo (10) electrónico, estando el hardware informático, la interfaz gráfica de usuario y el producto de software implementados en un sistema de juego, comprendiendo el método:
    (ii) comprendiendo además el dispositivo electrónico una interfaz de entrada de usuario reproducida sobre la interfaz gráfica de usuario, estando la interfaz de entrada de usuario configurada para detectar una entrada que corresponde a mover un objeto de puntero, hacer clic o pinchar en el objeto de puntero o deslizar un objeto sensible al tacto sobre la interfaz gráfica de usuario;
    en el que el método incluye:
    (a) reproducir uno o más objetos gráficos dentro de la interfaz gráfica de usuario;
    (b) detectar la selección de uno o más del uno o más objetos gráficos;
    (c) reproducir una lista de menú que contiene un conjunto de opciones seleccionables, correspondiendo cada opción seleccionable a un efecto que se va a aplicar a una porción de un objeto gráfico específico, o a uno o más del uno o más objetos gráficos;
    (e) detectar la selección de una de las opciones seleccionables;
    (f) detectar una selección sustancialmente continua de zonas de la interfaz gráfica de usuario a lo largo de un trayecto detectando un movimiento de deslizamiento sobre la interfaz gráfica de usuario; y
    (g) aplicar el efecto que corresponde a la opción seleccionada a una porción de un objeto gráfico específico, o a uno o más objetos gráficos que corresponden al trayecto,
    en el que el sistema de juego comprende un juego de cultivo, los objetos gráficos seleccionables de la interfaz gráfica de usuario comprenden diferentes regiones espaciales de un entorno de cultivo en el que se cultivan una o más cosechas, y en el que las opciones seleccionables en la lista de menú son diferentes herramientas de cultivo;
    en el que, en el método, el hardware informático aplica de manera continua la opción seleccionada a una porción de un objeto gráfico en cada zona a lo largo del trayecto en respuesta a la detección de una acción de deslizamiento de un objeto sensible al tacto sobre la porción del objeto gráfico;
    en el que el hardware informático detecta la velocidad de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto y ejecuta la acción que corresponde a la opción seleccionada con una rapidez que depende al menos parcialmente de la velocidad detectada de la selección sustancialmente continua de la una o más zonas a lo largo del trayecto; y
    en el que el hardware informático deshabilita la ejecución de la acción que corresponde a la opción seleccionada, en respuesta a la detección de la finalización de la selección sustancialmente continua de una o más zonas a lo largo de un trayecto en la interfaz gráfica de usuario.
    Método según la reivindicación 6, que comprende configurar la interfaz gráfica de usuario para continuar aplicando el efecto que corresponde a la opción seleccionada durante un tiempo de detección de la selección sustancialmente continua de zonas de la interfaz gráfica de usuario a lo largo del trayecto para eliminar la opción seleccionada cuando se finaliza la selección sustancialmente continua.
    Producto de software grabado en un medio de almacenamiento de datos legible por máquina, siendo el producto de software ejecutable en el hardware informático de un dispositivo informático, para implementar un método según la reivindicación 6.
ES13736623T 2012-04-12 2013-04-09 Sistema y método para controlar procedimientos técnicos Active ES2744492T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US13/445,783 US8954890B2 (en) 2012-04-12 2012-04-12 System, method and graphical user interface for controlling a game
US13/479,637 US8814674B2 (en) 2012-05-24 2012-05-24 Graphical user interface for a gaming system
GB1222096.8A GB2501145A (en) 2012-04-12 2012-12-07 Rendering and modifying objects on a graphical user interface
PCT/IB2013/001126 WO2013153455A2 (en) 2012-04-12 2013-04-09 System and method for controlling technical processes

Publications (1)

Publication Number Publication Date
ES2744492T3 true ES2744492T3 (es) 2020-02-25

Family

ID=49209193

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13736623T Active ES2744492T3 (es) 2012-04-12 2013-04-09 Sistema y método para controlar procedimientos técnicos

Country Status (10)

Country Link
US (5) US10198157B2 (es)
EP (2) EP2836278B1 (es)
JP (6) JP5941554B2 (es)
KR (7) KR101641627B1 (es)
CN (2) CN107728891B (es)
AU (3) AU2013246615B2 (es)
CA (1) CA2861101C (es)
ES (1) ES2744492T3 (es)
GB (2) GB2501145A (es)
WO (1) WO2013153455A2 (es)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5377709B2 (ja) * 2012-05-23 2013-12-25 株式会社スクウェア・エニックス 情報処理装置,情報処理方法,及びゲーム装置
WO2014055470A2 (en) * 2012-10-01 2014-04-10 Yandex Europe Ag Method and system for navigating to a sub-resource of an internet resource
US9634964B2 (en) 2012-11-12 2017-04-25 Tencent Technology (Shenzhen) Company Limited Contact matching method, instant messaging client, server and system
USD733732S1 (en) * 2013-05-14 2015-07-07 Microsoft Corporation Display screen with graphical user interface
US20150065241A1 (en) * 2013-08-27 2015-03-05 Zynga Inc. Gaming systems and methods for facilitating item grouping and group actions
US9891799B2 (en) * 2014-10-28 2018-02-13 Gree, Inc. Game program, computer control method, and information processing apparatus
JP5735696B1 (ja) * 2014-11-05 2015-06-17 株式会社 ディー・エヌ・エー ゲームプログラム、及び、情報処理装置
US9836195B2 (en) 2014-11-17 2017-12-05 Supercell Oy Electronic device for facilitating user interactions with graphical objects presented on a display
CN105260100B (zh) * 2015-09-29 2017-05-17 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105094346B (zh) * 2015-09-29 2018-09-25 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105094345B (zh) * 2015-09-29 2018-07-27 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105214309B (zh) * 2015-10-10 2017-07-11 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105446525B (zh) * 2015-11-10 2018-06-29 网易(杭州)网络有限公司 一种游戏角色行为的控制方法
EP3244353A1 (de) * 2016-05-10 2017-11-15 Siemens Aktiengesellschaft Produktionsmodul zur durchführung einer produktions-funktion an einem produkt
JP6162877B1 (ja) * 2016-12-01 2017-07-12 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
CN107019909B (zh) * 2017-04-13 2020-05-22 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及计算机可读存储介质
JP6941976B2 (ja) * 2017-06-06 2021-09-29 株式会社コーエーテクモゲームス ユーザインターフェース処理プログラム、記録媒体、ユーザインターフェース処理方法
JP6418299B1 (ja) * 2017-09-15 2018-11-07 株式会社セガゲームス 情報処理装置及びプログラム
CN109062494A (zh) * 2018-07-27 2018-12-21 西安蜂语信息科技有限公司 终端控制方法及装置
CN110995875B (zh) * 2018-09-06 2023-10-31 上海伴我科技有限公司 一种通讯录的操作方法、电子设备及介质
US10786734B2 (en) * 2019-02-20 2020-09-29 Supercell Oy Method for facilitating user interactions in gaming environment
CN110215688A (zh) * 2019-07-04 2019-09-10 网易(杭州)网络有限公司 游戏对象的选择控制方法及装置
JP2021029291A (ja) * 2019-08-16 2021-03-01 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
US11366645B2 (en) 2019-11-11 2022-06-21 Klarna Bank Ab Dynamic identification of user interface elements through unsupervised exploration
US11379092B2 (en) * 2019-11-11 2022-07-05 Klarna Bank Ab Dynamic location and extraction of a user interface element state in a user interface that is dependent on an event occurrence in a different user interface
US11726752B2 (en) 2019-11-11 2023-08-15 Klarna Bank Ab Unsupervised location and extraction of option elements in a user interface
US11442749B2 (en) 2019-11-11 2022-09-13 Klarna Bank Ab Location and extraction of item elements in a user interface
US11386356B2 (en) 2020-01-15 2022-07-12 Klama Bank AB Method of training a learning system to classify interfaces
US11409546B2 (en) 2020-01-15 2022-08-09 Klarna Bank Ab Interface classification system
US10846106B1 (en) 2020-03-09 2020-11-24 Klarna Bank Ab Real-time interface classification in an application
CN112169314B (zh) * 2020-10-20 2024-10-29 网易(杭州)网络有限公司 游戏中选取目标对象的方法及装置
CN114377383A (zh) * 2021-12-02 2022-04-22 网易(杭州)网络有限公司 信息处理方法、装置、设备及存储介质

Family Cites Families (535)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3807662A (en) * 1972-11-13 1974-04-30 Lockheed Aircraft Corp Anti-torque, propulsion, and directional control system
DE2325192B2 (de) * 1973-05-18 1975-10-30 Robert Bosch Gmbh, 7000 Stuttgart System zur Zuordnung von Signalen zwischen einer Vielzahl von zentral angeordneten Signalquellen und einem oder mehreren Fernsehstudios mittels einer kreuzschienenartigen Schalteinrichtung
US4044971A (en) * 1973-10-26 1977-08-30 Ruth Walcott High speed, long range turbo-jet aircraft
US4266912A (en) * 1978-10-06 1981-05-12 Stephan Roman Rotor blade support setup for rotary wing aircraft
US4245801A (en) * 1979-02-15 1981-01-20 United Technologies Corporation Tail rotor control cable-pylon fold accommodation
US4435776A (en) * 1981-01-27 1984-03-06 Syntrex Incorporated Word processing system
US4502840A (en) * 1982-03-19 1985-03-05 Stephan Roman Blade pitch control in rotatable bladed devices for vehicles
US4453378A (en) * 1982-04-19 1984-06-12 Chandler Evans, Inc. Torsional mode suppressor
US4531361A (en) * 1982-04-19 1985-07-30 Chandler Evans, Inc. Torsional mode suppressor
US4626998A (en) * 1983-05-02 1986-12-02 United Technologies Corporation Heading reference trim system
US4698625A (en) 1985-05-30 1987-10-06 International Business Machines Corp. Graphic highlight adjacent a pointing cursor
US4819896A (en) * 1986-01-29 1989-04-11 Narad James L Hand-operated aircraft control system
US4789115A (en) * 1986-08-29 1988-12-06 Theodore Koutsoupidis VTOL aircraft
WO1988000898A1 (en) * 1986-06-13 1988-02-11 Arthur George Yarrington Heli-hover amphibious aircraft
US4804155A (en) * 1987-03-02 1989-02-14 Strumbos William P VTOL aircraft
US5208665A (en) * 1987-08-20 1993-05-04 Telaction Corporation Presentation player for an interactive digital communication system
DE69133404T2 (de) * 1990-09-10 2005-08-04 Starsight Telecast, Inc., Fremont Fernsehprogrammsystem
US5307295A (en) * 1991-01-14 1994-04-26 Vari-Lite, Inc. Creating and controlling lighting designs
EP0498082B1 (en) 1991-02-01 1998-05-06 Koninklijke Philips Electronics N.V. Apparatus for the interactive handling of objects
US5649171A (en) * 1991-04-12 1997-07-15 Accom, Inc. On-line video editing system
FR2679199B1 (fr) * 1991-07-16 1997-01-31 Aerospatiale Systeme anticouple pour helicoptere.
US5240204A (en) * 1991-07-19 1993-08-31 Kunz Bernard P Lift generating method and apparatus for aircraft
DE69228246T2 (de) * 1991-08-02 1999-08-19 The Boeing Co. Mantelgebläse und blattverstellsteuerung eines drehflügelflugzeugheckrotors
US5284164A (en) * 1991-11-07 1994-02-08 Brown & Williamson Tobacco Corporation Method for improving the quality of products produced in the cigarette manufacturing process
US5340057A (en) * 1991-11-20 1994-08-23 Freewing Aerial Robotics Corporation Thrust vectoring free wing aircraft
US5610653A (en) * 1992-02-07 1997-03-11 Abecassis; Max Method and system for automatically tracking a zoomed video image
US5821523A (en) 1992-03-12 1998-10-13 Bunte; Alan G. Combined code reader and digital camera using a common photodetector
JP2552071B2 (ja) * 1992-03-31 1996-11-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 異なるグラフィック・ユーザ・インタフェースでサポートされる複数のウィンドウを同時に提示するための方法及びシステム
US5310349A (en) * 1992-04-30 1994-05-10 Jostens Learning Corporation Instructional management system
US5523775A (en) 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
US5701424A (en) 1992-07-06 1997-12-23 Microsoft Corporation Palladian menus and methods relating thereto
US5317402A (en) * 1992-09-03 1994-05-31 Picker International, Inc. Daisy chain video switches
US5404442A (en) 1992-11-30 1995-04-04 Apple Computer, Inc. Visible clipboard for graphical computer environments
US7168084B1 (en) * 1992-12-09 2007-01-23 Sedna Patent Services, Llc Method and apparatus for targeting virtual objects
US7207053B1 (en) * 1992-12-09 2007-04-17 Sedna Patent Services, Llc Method and apparatus for locally targeting virtual objects within a terminal
US5719786A (en) * 1993-02-03 1998-02-17 Novell, Inc. Digital media data stream network management system
US5464946A (en) * 1993-02-11 1995-11-07 Multimedia Systems Corporation System and apparatus for interactive multimedia entertainment
US5598524A (en) 1993-03-03 1997-01-28 Apple Computer, Inc. Method and apparatus for improved manipulation of data between an application program and the files system on a computer-controlled display system
JP3546437B2 (ja) * 1993-03-31 2004-07-28 ソニー株式会社 適応形ビデオ信号演算処理装置
US5471318A (en) * 1993-04-22 1995-11-28 At&T Corp. Multimedia communications network
US5689553A (en) * 1993-04-22 1997-11-18 At&T Corp. Multimedia telecommunications network and service
US5454530A (en) * 1993-05-28 1995-10-03 Mcdonnell Douglas Helicopter Company Canard rotor/wing
US5959610A (en) * 1993-06-21 1999-09-28 Euphonix Computer-mirrored panel input device
US5592608A (en) 1993-10-15 1997-01-07 Xerox Corporation Interactively producing indices into image and gesture-based data using unrecognized graphical objects
US5574934A (en) * 1993-11-24 1996-11-12 Intel Corporation Preemptive priority-based transmission of signals using virtual channels
US5602992A (en) * 1993-11-29 1997-02-11 Intel Corporation System for synchronizing data stream transferred from server to client by initializing clock when first packet is received and comparing packet time information with clock
JP3546337B2 (ja) 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
US5500935A (en) 1993-12-30 1996-03-19 Xerox Corporation Apparatus and method for translating graphic objects and commands with direct touch input in a touch based input system
US5471578A (en) 1993-12-30 1995-11-28 Xerox Corporation Apparatus and method for altering enclosure selections in a gesture based input system
US5596699A (en) 1994-02-02 1997-01-21 Driskell; Stanley W. Linear-viewing/radial-selection graphic for menu display
US5608850A (en) 1994-04-14 1997-03-04 Xerox Corporation Transporting a display object coupled to a viewpoint within or between navigable workspaces
US5446666A (en) * 1994-05-17 1995-08-29 The Boeing Company Ground state-fly state transition control for unique-trim aircraft flight control system
US5796426A (en) * 1994-05-27 1998-08-18 Warp, Ltd. Wide-angle image dewarping method and apparatus
US5666293A (en) * 1994-05-27 1997-09-09 Bell Atlantic Network Services, Inc. Downloading operating system software through a broadcast channel
US5748866A (en) * 1994-06-30 1998-05-05 International Business Machines Corporation Virtual display adapters using a digital signal processing to reformat different virtual displays into a common format and display
JPH10504692A (ja) * 1994-08-19 1998-05-06 ライカ アクチエンゲゼルシャフト 立体ビデオ画像を表示装置上に表示する方法及び装置
US5668948A (en) * 1994-09-08 1997-09-16 International Business Machines Corporation Media streamer with control node enabling same isochronous streams to appear simultaneously at output ports or different streams to appear simultaneously at output ports
US5761417A (en) * 1994-09-08 1998-06-02 International Business Machines Corporation Video data streamer having scheduler for scheduling read request for individual data buffers associated with output ports of communication node to one storage node
US5586264A (en) * 1994-09-08 1996-12-17 Ibm Corporation Video optimized media streamer with cache management
US5767897A (en) * 1994-10-31 1998-06-16 Picturetel Corporation Video conferencing system
US5760773A (en) 1995-01-06 1998-06-02 Microsoft Corporation Methods and apparatus for interacting with data objects using action handles
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
ATE194448T1 (de) * 1995-03-31 2000-07-15 Sony Europa Bv System für information auf anfrage
US5703997A (en) * 1995-04-14 1997-12-30 Kabushiki Kaisha Toshiba Data recording medium having reproduction timing information, and system for reproducing record data by using the reproduction timing information
US6016147A (en) * 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
US5689667A (en) 1995-06-06 1997-11-18 Silicon Graphics, Inc. Methods and system of controlling menus with radial and linear portions
US5745717A (en) 1995-06-07 1998-04-28 Vayda; Mark Graphical menu providing simultaneous multiple command selection
US5798760A (en) 1995-06-07 1998-08-25 Vayda; Mark Radial graphical menuing system with concentric region menuing
US5790124A (en) * 1995-11-20 1998-08-04 Silicon Graphics, Inc. System and method for allowing a performer to control and interact with an on-stage display device
WO1997020734A2 (en) * 1995-12-06 1997-06-12 Mc Donnell Douglas Corporation Flight control system for jet powered tri-mode aircraft
US6014503A (en) * 1995-12-22 2000-01-11 Matsushita Electric Industrial Co., Ltd. Computer aided building renovation supporting systems
US5966056A (en) * 1996-01-26 1999-10-12 Int Labs, Inc. Method and apparatus for enabling the transmission of multiple wide bandwidth electrical signals
US6052648A (en) * 1996-04-12 2000-04-18 Earthwatch Communications, Inc. Method and system for display of weather-related information
US5880733A (en) 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US5757383A (en) 1996-05-10 1998-05-26 Apple Computer, Inc. Method and system for highlighting typography along a geometric path
US6493006B1 (en) 1996-05-10 2002-12-10 Apple Computer, Inc. Graphical user interface having contextual menus
TW411451B (en) * 1996-05-14 2000-11-11 Toshiba Corp Recording medium storing video data which can forcibly reproduce sub-video in accordance with reproducing state and its reproducing system
US5859623A (en) * 1996-05-14 1999-01-12 Proxima Corporation Intelligent display system presentation projection arrangement and method of using same
US5861886A (en) 1996-06-26 1999-01-19 Xerox Corporation Method and apparatus for grouping graphic objects on a computer based system having a graphical user interface
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US6577738B2 (en) * 1996-07-17 2003-06-10 American Technology Corporation Parametric virtual speaker and surround-sound system
US20030215103A1 (en) * 1996-07-17 2003-11-20 Norris Elwood G. Parametric virtual speaker and surround-sound system
US5749540A (en) * 1996-07-26 1998-05-12 Arlton; Paul E. System for controlling and automatically stabilizing the rotational motion of a rotary wing aircraft
US6040841A (en) * 1996-08-02 2000-03-21 Microsoft Corporation Method and system for virtual cinematography
US5871172A (en) * 1996-09-26 1999-02-16 Creative Aeronautical Accessories, Inc. Accessory mounting assembly
US5999698A (en) * 1996-09-30 1999-12-07 Kabushiki Kaisha Toshiba Multiangle block reproduction system
US5867494A (en) * 1996-11-18 1999-02-02 Mci Communication Corporation System, method and article of manufacture with integrated video conferencing billing in a communication system architecture
US5835094A (en) 1996-12-31 1998-11-10 Compaq Computer Corporation Three-dimensional computer environment
US6077041A (en) * 1997-01-09 2000-06-20 Cartercopters, Llc Reduction drive and torque-limiting clutch for autogyro aircraft
CA2195581A1 (en) * 1997-01-21 1998-07-21 Stanley Ronald Meek Gyro stabilized triple mode aircraft
US6144378A (en) 1997-02-11 2000-11-07 Microsoft Corporation Symbol entry system and methods
US5845009A (en) * 1997-03-21 1998-12-01 Autodesk, Inc. Object tracking system using statistical modeling and geometric relationship
US6191812B1 (en) * 1997-04-01 2001-02-20 Rt-Set Ltd. Method of providing background patterns for camera tracking
US6428411B1 (en) * 1997-05-02 2002-08-06 Konami Co., Ltd. Volleyball video game system
US6545700B1 (en) * 1997-06-25 2003-04-08 David A. Monroe Virtual video teleconferencing system
US7764026B2 (en) * 1997-12-17 2010-07-27 Philips Solid-State Lighting Solutions, Inc. Systems and methods for digital entertainment
US6920619B1 (en) 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
USRE43318E1 (en) 1997-08-28 2012-04-17 Flatworld Interactives, Llc User interface for removing an object from a display
CN1137487C (zh) * 1997-09-17 2004-02-04 松下电器产业株式会社 将视频数据记录在光盘的设备和方法
US6037937A (en) 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
JPH11177628A (ja) * 1997-12-15 1999-07-02 Mitsubishi Electric Corp 広域環境用3次元仮想空間共有システム
US6249740B1 (en) 1998-01-21 2001-06-19 Kabushikikaisha Equos Research Communications navigation system, and navigation base apparatus and vehicle navigation apparatus both used in the navigation system
IL137478A (en) 1998-01-26 2005-11-20 Westerman Wayne Method and apparatus for integrating manual input
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
CA2323444C (en) * 1998-03-11 2016-10-11 Digideal Corporation Automated system for playing live casino table games having tabletop changeable playing card displays and play monitoring security features
US6165069A (en) * 1998-03-11 2000-12-26 Digideal Corporation Automated system for playing live casino table games having tabletop changeable playing card displays and monitoring security features
US6625299B1 (en) * 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
US6036188A (en) * 1998-05-19 2000-03-14 Williams Electronic Games, Inc. Amusement game with pinball type playfield and virtual video images
US7065553B1 (en) * 1998-06-01 2006-06-20 Microsoft Corporation Presentation system with distributed object oriented multi-user domain and separate view and model objects
US6778755B1 (en) * 1998-06-24 2004-08-17 Samsung Electronics Co., Ltd. Recording medium for storing virtually deleted still picture information, recording and/or reproducing method and apparatus therefor
TW544666B (en) * 1998-06-24 2003-08-01 Samsung Electronics Co Ltd Recording medium for storing virtually deleted static image information, method for recording and/or copying, and the device thereof
JP3356691B2 (ja) * 1998-07-07 2002-12-16 株式会社東芝 情報記録媒体とその記録方法及び再生方法
US5999208A (en) * 1998-07-15 1999-12-07 Lucent Technologies Inc. System for implementing multiple simultaneous meetings in a virtual reality mixed media meeting room
US6002349A (en) * 1998-08-14 1999-12-14 Safe Flight Instrument Corporation Helicopter anti-torque limit warning device
US6456307B1 (en) 1998-09-09 2002-09-24 International Business Machines Corporation Automatic icon generation
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
US6414679B1 (en) * 1998-10-08 2002-07-02 Cyberworld International Corporation Architecture and methods for generating and displaying three dimensional representations
EP0994627B1 (en) * 1998-10-13 2006-03-08 Matsushita Electric Industrial Co., Ltd. Regulation of the computational and memory requirements of a compressed bitstream in a video decoder
US6392694B1 (en) * 1998-11-03 2002-05-21 Telcordia Technologies, Inc. Method and apparatus for an automatic camera selection system
US6816491B1 (en) * 1998-11-04 2004-11-09 Hitachi, Ltd. Multiplexed audio data decoding apparatus and receiver apparatus
US6337698B1 (en) 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
WO2000031969A1 (en) * 1998-11-23 2000-06-02 Nestor, Inc. Traffic light violation prediction and recording system
US6628302B2 (en) * 1998-11-30 2003-09-30 Microsoft Corporation Interactive video programming methods
US6804825B1 (en) * 1998-11-30 2004-10-12 Microsoft Corporation Video on demand methods and systems
US6204852B1 (en) * 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US20010017671A1 (en) * 1998-12-18 2001-08-30 Pierre Pleven "Midlink" virtual insertion system and methods
US6525780B1 (en) * 1998-12-18 2003-02-25 Symah Vision, Sa “Midlink” virtual insertion system
US6356971B1 (en) * 1999-03-04 2002-03-12 Sony Corporation System for managing multimedia discs, tracks and files on a standalone computer
US6408436B1 (en) * 1999-03-18 2002-06-18 Next Level Communications Method and apparatus for cross-connection of video signals
US6938029B1 (en) * 1999-03-31 2005-08-30 Allan Y. Tien System and method for indexing recordings of observed and assessed phenomena using pre-defined measurement items
US6381362B1 (en) * 1999-04-08 2002-04-30 Tata America International Corporation Method and apparatus for including virtual ads in video presentations
US20030023686A1 (en) * 1999-05-05 2003-01-30 Beams Brian R. Virtual consultant
JP3376314B2 (ja) * 1999-05-12 2003-02-10 株式会社東芝 デジタル映像情報媒体、デジタル映像情報記録再生装置およびデジタル映像情報処理方法
US6464459B2 (en) * 1999-05-21 2002-10-15 Avionic Instruments, Inc. Lifting platform with energy recovery
US6257982B1 (en) * 1999-06-01 2001-07-10 Mark Rider Motion picture theater interactive gaming system
US8065155B1 (en) 1999-06-10 2011-11-22 Gazdzinski Robert F Adaptive advertising apparatus and methods
US6263278B1 (en) 1999-06-25 2001-07-17 Microsoft Corporation System and method for graphically altering a pre-calculated route
US6467726B1 (en) * 1999-06-29 2002-10-22 Rokuro Hosoda Aircraft and torque transmission
US6409599B1 (en) * 1999-07-19 2002-06-25 Ham On Rye Technologies, Inc. Interactive virtual reality performance theater entertainment system
US6386985B1 (en) * 1999-07-26 2002-05-14 Guy Jonathan James Rackham Virtual Staging apparatus and method
US6775835B1 (en) * 1999-07-30 2004-08-10 Electric Planet Web based video enhancement apparatus method and article of manufacture
US20030031993A1 (en) * 1999-08-30 2003-02-13 Carla Pugh Medical examination teaching and measurement system
US6351736B1 (en) * 1999-09-03 2002-02-26 Tomer Weisberg System and method for displaying advertisements with played data
US7194687B2 (en) * 1999-09-16 2007-03-20 Sharp Laboratories Of America, Inc. Audiovisual information management system with user identification
KR100311479B1 (ko) * 1999-10-06 2001-10-18 구자홍 디지털 티브이의 채널제어 장치 및 방법
US6654031B1 (en) * 1999-10-15 2003-11-25 Hitachi Kokusai Electric Inc. Method of editing a video program with variable view point of picked-up image and computer program product for displaying video program
US7369130B2 (en) * 1999-10-29 2008-05-06 Hitachi Kokusai Electric Inc. Method and apparatus for editing image data, and computer program product of editing image data
US6335765B1 (en) * 1999-11-08 2002-01-01 Weather Central, Inc. Virtual presentation system and method
US7027713B1 (en) * 1999-11-30 2006-04-11 Sharp Laboratories Of America, Inc. Method for efficient MPEG-2 transport stream frame re-sequencing
US6382556B1 (en) * 1999-12-20 2002-05-07 Roger N. C. Pham VTOL airplane with only one tiltable prop-rotor
US6727925B1 (en) * 1999-12-20 2004-04-27 Michelle Lyn Bourdelais Browser-based room designer
US6826540B1 (en) * 1999-12-29 2004-11-30 Virtual Personalities, Inc. Virtual human interface for conducting surveys
US6754904B1 (en) * 1999-12-30 2004-06-22 America Online, Inc. Informing network users of television programming viewed by other network users
US20010049625A1 (en) * 2000-01-07 2001-12-06 Craig Mowry Method and system for eliciting consumer data by programming content within various media venues to function cooperatively
US6421067B1 (en) * 2000-01-16 2002-07-16 Isurftv Electronic programming guide
US20010029523A1 (en) * 2000-01-21 2001-10-11 Mcternan Brennan J. System and method for accounting for variations in client capabilities in the distribution of a media presentation
JP2001209470A (ja) 2000-01-26 2001-08-03 Fujitsu Ltd 表示インターフェイス方法及び装置並びにプログラム記憶媒体
AU2001234601A1 (en) * 2000-01-26 2001-08-07 New York University Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data
KR100505281B1 (ko) * 2000-02-18 2005-08-04 (주)아이콤 소프트 비디오게임 론칭 서버와 이를 이용한 네트워크를 통한비디오게임 시스템 및 방법
JP2001251616A (ja) * 2000-03-02 2001-09-14 Media Glue Corp 多重化音響・動画圧縮符号化信号変換方法、装置および変換プログラムを記録した媒体
US6870574B2 (en) * 2000-03-08 2005-03-22 Mitchell Kriegman Method and apparatus for enhanced puppetry or similar types of performances utilizing a virtual set
US6948131B1 (en) * 2000-03-08 2005-09-20 Vidiator Enterprises Inc. Communication system and method including rich media tools
US20020016967A1 (en) * 2000-03-09 2002-02-07 Carlile John R. In-waiting room health-care information service
US6381343B1 (en) * 2000-04-07 2002-04-30 Lotsadots, Inc. Remote print press proofing system
US7124164B1 (en) * 2001-04-17 2006-10-17 Chemtob Helen J Method and apparatus for providing group interaction via communications networks
US6954728B1 (en) * 2000-05-15 2005-10-11 Avatizing, Llc System and method for consumer-selected advertising and branding in interactive media
US20020007488A1 (en) * 2000-06-19 2002-01-17 Dan Kikinis Transparent object management for removable media recorders
WO2002001754A1 (en) * 2000-06-23 2002-01-03 Sportvision, Inc. Gps based tracking system
US7058707B1 (en) * 2000-08-01 2006-06-06 Qwest Communications International, Inc. Performance modeling in a VDSL network
US6864886B1 (en) * 2000-08-10 2005-03-08 Sportvision, Inc. Enhancing video using a virtual surface
US20030037109A1 (en) * 2000-08-11 2003-02-20 Newman Harvey B. Virtual room videoconferencing system
US7209473B1 (en) * 2000-08-18 2007-04-24 Juniper Networks, Inc. Method and apparatus for monitoring and processing voice over internet protocol packets
US7523411B2 (en) * 2000-08-22 2009-04-21 Bruce Carlin Network-linked interactive three-dimensional composition and display of saleable objects in situ in viewer-selected scenes for purposes of object promotion and procurement, and generation of object advertisements
US7062722B1 (en) * 2000-08-22 2006-06-13 Bruce Carlin Network-linked interactive three-dimensional composition and display of saleable objects in situ in viewer-selected scenes for purposes of promotion and procurement
US6791574B2 (en) * 2000-08-29 2004-09-14 Sony Electronics Inc. Method and apparatus for optimized distortion correction for add-on graphics for real time video
US7246044B2 (en) * 2000-09-13 2007-07-17 Matsushita Electric Works, Ltd. Method for aiding space design using network, system therefor, and server computer of the system
US6683619B1 (en) * 2000-10-18 2004-01-27 Sony Corporation System and method for increasing performance when compositing images
US6863608B1 (en) * 2000-10-11 2005-03-08 Igt Frame buffer capture of actual game play
US6947966B1 (en) * 2000-10-13 2005-09-20 Road Runner Holdco Llc System and method for influencing dynamic community shared elements of audio, video, and text programming via a polling system
WO2002033677A1 (en) * 2000-10-19 2002-04-25 Bernhard Dohrmann Apparatus and method for delivery of instructional information
US6912429B1 (en) * 2000-10-19 2005-06-28 Destiny Networks, Inc. Home automation system and method
JP2002133444A (ja) * 2000-10-20 2002-05-10 Matsushita Electric Ind Co Ltd 映像情報作成装置
US7162433B1 (en) * 2000-10-24 2007-01-09 Opusone Corp. System and method for interactive contests
US6954498B1 (en) * 2000-10-24 2005-10-11 Objectvideo, Inc. Interactive video manipulation
US7895530B2 (en) 2000-11-09 2011-02-22 Change Tools, Inc. User definable interface system, method, support tools, and computer program product
US7827488B2 (en) * 2000-11-27 2010-11-02 Sitrick David H Image tracking and substitution system and methodology for audio-visual presentations
US20040015309A1 (en) 2000-12-04 2004-01-22 Swisher Douglas S. Systems and methods for OTDR tracing and mapping
US6894714B2 (en) * 2000-12-05 2005-05-17 Koninklijke Philips Electronics N.V. Method and apparatus for predicting events in video conferencing and other applications
US6954581B2 (en) * 2000-12-06 2005-10-11 Microsoft Corporation Methods and systems for managing multiple inputs and methods and systems for processing media content
US7221794B1 (en) * 2000-12-18 2007-05-22 Sportsvision, Inc. Foreground detection
EP1364362A1 (en) 2001-01-24 2003-11-26 Interlink Electronics, Inc. Game and home entertainment device remote control
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US20020112002A1 (en) * 2001-02-15 2002-08-15 Abato Michael R. System and process for creating a virtual stage and presenting enhanced content via the virtual stage
US7091928B2 (en) * 2001-03-02 2006-08-15 Rajasingham Arjuna Indraeswara Intelligent eye
US20020147991A1 (en) * 2001-04-10 2002-10-10 Furlan John L. W. Transmission of panoramic video via existing video infrastructure
US20020190991A1 (en) * 2001-05-16 2002-12-19 Daniel Efran 3-D instant replay system and method
US6805354B2 (en) * 2001-05-21 2004-10-19 Arachnid, Inc. Electronic dart golf game
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
US7064742B2 (en) * 2001-05-31 2006-06-20 Siemens Corporate Research Inc Input devices using infrared trackers
US7349005B2 (en) * 2001-06-14 2008-03-25 Microsoft Corporation Automated video production system and method using expert video production rules for online publishing of lectures
US6937266B2 (en) * 2001-06-14 2005-08-30 Microsoft Corporation Automated online broadcasting system and method using an omni-directional camera system for viewing meetings over a computer network
EP1401546A4 (en) * 2001-06-15 2006-11-02 Walker Digital Llc METHOD AND APPARATUS FOR PLANNING AND CUSTOMIZING A GAMING EXPERIENCE
US6826500B2 (en) * 2001-06-29 2004-11-30 General Electric Company Method and system for automated maintenance and training instruction generation and validation
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US6632140B2 (en) * 2001-07-16 2003-10-14 King Show Games, Llc System and method for providing repeated elimination bonus in gaming activities
US6887157B2 (en) * 2001-08-09 2005-05-03 Igt Virtual cameras and 3-D gaming environments in a gaming machine
US6801912B2 (en) * 2001-08-21 2004-10-05 International Business Machines Corporation Method, system, and product for self-directed distance learning
US7356763B2 (en) * 2001-09-13 2008-04-08 Hewlett-Packard Development Company, L.P. Real-time slide presentation multimedia data object and system and method of recording and browsing a multimedia data object
US6970173B2 (en) * 2001-09-14 2005-11-29 Ati Technologies, Inc. System for providing multiple display support and method thereof
US6927757B2 (en) * 2001-09-18 2005-08-09 Intel Corporation Camera driven virtual workspace management
US9454872B2 (en) * 2001-09-28 2016-09-27 Igt Adventure sequence activities
US6755737B2 (en) * 2001-09-28 2004-06-29 Sigma Game, Inc. Gaming machine having bonus game
US6639612B2 (en) 2001-10-11 2003-10-28 International Business Machines Corporation Ad hoc check box selection
US7206559B2 (en) * 2001-10-16 2007-04-17 Hewlett-Packard Development Company, L.P. System and method for a mobile computing device to control appliances
US20030115211A1 (en) * 2001-12-14 2003-06-19 Metaedge Corporation Spatial intelligence system and method
US7373597B2 (en) * 2001-10-31 2008-05-13 University Of Medicine & Dentistry Of New Jersey Conversion of text data into a hypertext markup language
CN100486068C (zh) * 2001-11-13 2009-05-06 普尔文公司 利用插件来扩展测验驱动器功能的基于计算机的测验方法和系统
US20030105763A1 (en) * 2001-11-30 2003-06-05 Gemini Networks, Inc. System, method, and computer program product for providing a wholesale provisioning service
US7203310B2 (en) * 2001-12-04 2007-04-10 Microsoft Corporation Methods and systems for cryptographically protecting secure content
US7170897B2 (en) * 2001-12-06 2007-01-30 Alcatel Canada Inc. Method and apparatus for implementing point-to-multipoint communications over a connection- based data communication network
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
US20030227542A1 (en) * 2001-12-20 2003-12-11 Xiang Zhang Single-computer real-time stereo augmented reality system
AU2003217926B2 (en) 2002-03-01 2008-07-17 Networks In Motion, Inc. Method and apparatus for sending, retrieving, and planning location relevant information
US20030177019A1 (en) * 2002-03-18 2003-09-18 Santos Richard A. System and method for visual representation of an electroni community
US7093202B2 (en) 2002-03-22 2006-08-15 Xerox Corporation Method and system for interpreting imprecise object selection paths
US8025569B2 (en) * 2002-03-29 2011-09-27 Igt Simulating real gaming environments with interactive host and players
US20030184525A1 (en) 2002-03-29 2003-10-02 Mitac International Corp. Method and apparatus for image processing
US6771303B2 (en) * 2002-04-23 2004-08-03 Microsoft Corporation Video-teleconferencing system with eye-gaze correction
GB2388241A (en) * 2002-04-30 2003-11-05 Zoo Digital Group Plc Authoring of complex DVD-video products
US20040032410A1 (en) * 2002-05-09 2004-02-19 John Ryan System and method for generating a structured two-dimensional virtual presentation from less than all of a three-dimensional virtual reality model
US20030212735A1 (en) * 2002-05-13 2003-11-13 Nvidia Corporation Method and apparatus for providing an integrated network of processors
US7027101B1 (en) * 2002-05-13 2006-04-11 Microsoft Corporation Selectively overlaying a user interface atop a video signal
US20050177463A1 (en) * 2004-02-10 2005-08-11 Crutchfield William G.Jr. Virtual showroom for interactive electronic shopping
JP2003338119A (ja) * 2002-05-20 2003-11-28 Alpine Electronics Inc Dvdビデオ再生装置およびdvdビデオ再生装置におけるオートディスクチェンジ制御方法
US20030234346A1 (en) * 2002-06-21 2003-12-25 Chi-Lei Kao Touch panel apparatus with optical detection for location
US6853398B2 (en) * 2002-06-21 2005-02-08 Hewlett-Packard Development Company, L.P. Method and system for real-time video communication within a virtual environment
US6817979B2 (en) 2002-06-28 2004-11-16 Nokia Corporation System and method for interacting with a user's virtual physiological model via a mobile terminal
US6830214B2 (en) * 2002-07-12 2004-12-14 Franklin D. Carson Rotary-wing aircraft
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7376592B2 (en) * 2002-07-26 2008-05-20 Sony Corporation System and method for using a unique identifier to integrate an offline experience with an online experience
US7137077B2 (en) 2002-07-30 2006-11-14 Microsoft Corporation Freeform encounter selection tool
US20040023198A1 (en) * 2002-07-30 2004-02-05 Darrell Youngman System, method, and computer program for providing multi-media education and disclosure presentation
AU2003263989A1 (en) * 2002-08-05 2004-02-23 Metaedge Corporation Spatial intelligence system and method
DE10244566B3 (de) 2002-09-25 2004-06-24 Danfoss Compressors Gmbh Zylinderkopfanordnung für einen Kolbenverdichter
CA2406131A1 (en) 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
US8591236B2 (en) * 2002-10-07 2013-11-26 Xitact S.A. Interactive medical training system and method
US20080042354A1 (en) * 2002-10-15 2008-02-21 Yoseloff Mark L Interactive simulated blackjack game with side bet apparatus and in method
US7255351B2 (en) * 2002-10-15 2007-08-14 Shuffle Master, Inc. Interactive simulated blackjack game with side bet apparatus and in method
US8458028B2 (en) * 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
US7242387B2 (en) 2002-10-18 2007-07-10 Autodesk, Inc. Pen-mouse system
US20040086269A1 (en) * 2002-11-06 2004-05-06 Mediostream, Inc Method and system for writing video presentation and navigation information direct to optical disc
US7203667B2 (en) * 2002-11-11 2007-04-10 Zxibix, Inc. System and method of facilitating and evaluating user thinking about an arbitrary problem using an archetype process
US7706544B2 (en) * 2002-11-21 2010-04-27 Fraunhofer-Geselleschaft Zur Forderung Der Angewandten Forschung E.V. Audio reproduction system and method for reproducing an audio signal
US7298930B1 (en) * 2002-11-29 2007-11-20 Ricoh Company, Ltd. Multimodal access of meeting recordings
US7349008B2 (en) * 2002-11-30 2008-03-25 Microsoft Corporation Automated camera management system and method for capturing presentations using videography rules
US7309065B2 (en) * 2002-12-04 2007-12-18 Shuffle Master, Inc. Interactive simulated baccarat side bet apparatus and method
US8095409B2 (en) * 2002-12-06 2012-01-10 Insors Integrated Communications Methods and program products for organizing virtual meetings
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
US7082572B2 (en) * 2002-12-30 2006-07-25 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive map-based analysis of digital video content
US7474960B1 (en) 2002-12-30 2009-01-06 Mapquest, Inc. Presenting a travel route
US6834829B2 (en) * 2003-01-02 2004-12-28 Percy E. Dunagin, Jr. Vertical lift aircraft having an enclosed rotary wing
US7059093B2 (en) * 2003-01-06 2006-06-13 Feature Presentation, Inc. Methods, systems, kits, and fabrications of acoustic-panel-based build-in wall structures providing for variable linear spans
DE10301455A1 (de) * 2003-01-10 2004-07-29 Vcs Video Communication Systems Ag Verfahren zur Aufzeichnung von Video-/Audiodaten
US7363591B2 (en) * 2003-01-21 2008-04-22 Microsoft Corporation Electronic programming guide system and method
WO2004075547A1 (ja) * 2003-02-19 2004-09-02 Matsushita Electric Industrial Co., Ltd. 記録媒体、再生装置、記録方法、プログラム、再生方法
US7676376B2 (en) 2003-03-10 2010-03-09 U-Haul International, Inc. Rate and distribution system
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
JP3944460B2 (ja) * 2003-03-12 2007-07-11 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
US7873706B2 (en) * 2003-03-19 2011-01-18 Cgi Communications, Inc. System and method for seamlessly providing video content to client systems over a network
GB0306603D0 (en) * 2003-03-21 2003-04-30 First Person Invest Ltd Method and apparatus for broadcasting communications
GB2400289A (en) 2003-04-04 2004-10-06 Autodesk Canada Inc Selecting functions in a Context-Sensitive Menu
US7034776B1 (en) * 2003-04-08 2006-04-25 Microsoft Corporation Video division detection methods and systems
US20070040889A1 (en) * 2003-04-11 2007-02-22 Nozomu Sahashi At-home medical examination system and at-home medical examination method
US20040205816A1 (en) * 2003-04-11 2004-10-14 Barrett Peter T. Virtual channel preview guide
US20040207723A1 (en) * 2003-04-15 2004-10-21 Davis Jeffrey Alan UI remoting with synchronized out-of-band media
FI20030583A (fi) * 2003-04-16 2004-10-17 Upstream Engineering Oy Dataprojektori
US20050050103A1 (en) * 2003-07-15 2005-03-03 Kaleidescape Displaying and presenting multiple media streams from multiple DVD sets
US6906643B2 (en) 2003-04-30 2005-06-14 Hewlett-Packard Development Company, L.P. Systems and methods of viewing, modifying, and interacting with “path-enhanced” multimedia
US6842670B2 (en) * 2003-05-02 2005-01-11 Chung Shan Institute Of Science And Technology Eye-tracking driving system
US20040223497A1 (en) * 2003-05-08 2004-11-11 Onvoy Inc. Communications network with converged services
US20040235469A1 (en) * 2003-05-21 2004-11-25 Krug William P. High bandwidth open wired network
US7613137B2 (en) * 2003-05-22 2009-11-03 Insors Integrated Communications Data stream communication
US7428000B2 (en) * 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
US7210107B2 (en) 2003-06-27 2007-04-24 Microsoft Corporation Menus whose geometry is bounded by two radii and an arc
US7904815B2 (en) * 2003-06-30 2011-03-08 Microsoft Corporation Content-based dynamic photo-to-video methods and apparatuses
US8627457B2 (en) * 2003-06-30 2014-01-07 Verizon Business Global Llc Integrated security system
US20050151001A1 (en) * 2003-07-02 2005-07-14 Loper Arthur W. Compound helicopter
US20050038692A1 (en) * 2003-08-14 2005-02-17 Kane John Michael System and method for facilitating centralized candidate selection and monitoring subject participation in clinical trial studies
US7321565B2 (en) * 2003-08-29 2008-01-22 Ineoquest Technologies System and method for analyzing the performance of multiple transportation streams of streaming media in packet-based networks
US7827495B2 (en) 2003-09-02 2010-11-02 Research In Motion Limited Method and data structure for user interface customization
JP2005084332A (ja) 2003-09-08 2005-03-31 Denso Corp 地図表示装置、地図表示方法
US7604198B2 (en) * 2003-09-25 2009-10-20 Petersen Bruce L Rotorcraft having coaxial counter-rotating rotors which produce both vertical and horizontal thrust and method of controlled flight in all six degrees of freedom
JP2007509644A (ja) 2003-10-07 2007-04-19 ノモス・コーポレーシヨン 等角放射線治療のための計画システム、方法及び装置
US7433327B2 (en) * 2003-10-09 2008-10-07 Hewlett-Packard Development Company, L.P. Method and system for coordinating communication devices to create an enhanced representation of an ongoing event
US7277572B2 (en) * 2003-10-10 2007-10-02 Macpearl Design Llc Three-dimensional interior design system
CN1902930B (zh) * 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
GB2408869B (en) * 2003-11-04 2006-07-26 Zoo Digital Group Plc Data processing system and method
GB2408870B (en) * 2003-11-05 2006-07-26 Zoo Digital Group Plc Data processing system and method
JP3779298B2 (ja) 2003-11-28 2006-05-24 任天堂株式会社 ゲーム装置およびゲームプログラム
DE10360664A1 (de) * 2003-12-23 2005-07-28 Daimlerchrysler Ag Bediensystem für ein Kraftfahrzeug
US7534157B2 (en) * 2003-12-31 2009-05-19 Ganz System and method for toy adoption and marketing
US8016670B2 (en) * 2004-01-12 2011-09-13 Igt Virtual glass for a gaming machine
JP4213052B2 (ja) 2004-01-28 2009-01-21 任天堂株式会社 タッチパネル入力を用いたゲームシステム
US7366995B2 (en) 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
US20060004476A1 (en) * 2004-07-02 2006-01-05 Bran Ferren System for making custom prototypes
WO2005104039A2 (en) 2004-03-23 2005-11-03 Google, Inc. A digital mapping system
US20050212910A1 (en) * 2004-03-25 2005-09-29 Singhal Manoj K Method and system for multidimensional virtual reality audio and visual projection
US20050267900A1 (en) * 2004-03-30 2005-12-01 Osman Ahmed Method and system for organizing data relating to a home
DE102004018016A1 (de) * 2004-04-14 2005-11-10 Sick Ag Verfahren zur Überwachung eines Überwachungsbereichs
US7373244B2 (en) 2004-04-20 2008-05-13 Keith Kreft Information mapping approaches
US20060075429A1 (en) * 2004-04-30 2006-04-06 Vulcan Inc. Voice control of television-related information
US7634533B2 (en) * 2004-04-30 2009-12-15 Microsoft Corporation Systems and methods for real-time audio-visual communication and data collaboration in a network conference environment
JP2005321775A (ja) * 2004-05-01 2005-11-17 Samsung Electronics Co Ltd ディスプレー装置
US20050248577A1 (en) * 2004-05-07 2005-11-10 Valve Corporation Method for separately blending low frequency and high frequency information for animation of a character in a virtual environment
US7164076B2 (en) * 2004-05-14 2007-01-16 Konami Digital Entertainment System and method for synchronizing a live musical performance with a reference performance
US20060009979A1 (en) * 2004-05-14 2006-01-12 Mchale Mike Vocal training system and method with flexible performance evaluation criteria
US7295220B2 (en) * 2004-05-28 2007-11-13 National University Of Singapore Interactive system and method
US7474318B2 (en) * 2004-05-28 2009-01-06 National University Of Singapore Interactive system and method
US20050288078A1 (en) * 2004-05-28 2005-12-29 Cheok Adrian D Game
WO2006096192A1 (en) * 2004-06-09 2006-09-14 Honeywell International, Inc. Communications system based on real-time neurophysiological characterization
FR2871434B1 (fr) * 2004-06-15 2006-08-18 Eurocopter France Procede optimise de commande de lacet d'un aeronef a voilure tournante et systeme pour sa mise en oeuvre
KR101146750B1 (ko) 2004-06-17 2012-05-17 아드레아 엘엘씨 터치 스크린 상에서 2개-손가락에 의한 입력을 탐지하는 시스템 및 방법과, 터치 스크린 상에서 적어도 2개의 손가락을 통한 3-차원 터치를 센싱하는 시스템 및 방법
US7512883B2 (en) * 2004-06-30 2009-03-31 Microsoft Corporation Portable solution for automatic camera management
US9077766B2 (en) * 2004-07-09 2015-07-07 Qualcomm Incorporated System and method for combining memory resources for use on a personal network
US8069239B2 (en) * 2004-07-20 2011-11-29 Beckman Coulter, Inc. Centralized monitor and control system for laboratory instruments
US20060028476A1 (en) * 2004-08-03 2006-02-09 Irwin Sobel Method and system for providing extensive coverage of an object using virtual cameras
US20060034535A1 (en) * 2004-08-10 2006-02-16 Koch Roger D Method and apparatus for enhancing visibility to a machine operator
US20060034369A1 (en) * 2004-08-10 2006-02-16 Nader Mohsenian Method and system for parametric video quality equalization in selective re-encoding
US20060034522A1 (en) * 2004-08-10 2006-02-16 Nader Mohsenian Method and system for equalizing video quality using selective re-encoding
US20060044307A1 (en) * 2004-08-24 2006-03-02 Kyuman Song System and method for visually representing project metrics on 3-dimensional building models
EP1820112A4 (en) * 2004-09-09 2009-01-28 Amx Corp METHOD, SYSTEM AND COMPUTER PROGRAM USING CLASSIC INTERFACES FOR CONTROL UNITS OF INDEPENDENT DEVICES
US8056008B2 (en) 2004-09-14 2011-11-08 Adobe Systems Incorporated Interactive object property region for graphical user interface
GB2418405B (en) * 2004-09-23 2010-03-10 Paul Vincenzi Rotorcraft
US7454717B2 (en) 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US20060097105A1 (en) * 2004-11-11 2006-05-11 Stone C R Propulsion and attitude control systems for aircraft
DE102004060405A1 (de) 2004-12-14 2006-07-06 Voith Paper Patent Gmbh Verfahren und Vorrichtung zum Beladen von in einer Suspension enthaltenen Fasern oder enthaltenem Zellstoff mit einem Füllstoff
US20060136833A1 (en) 2004-12-15 2006-06-22 International Business Machines Corporation Apparatus and method for chaining objects in a pointer drag path
US7619616B2 (en) 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
WO2006068645A1 (en) * 2004-12-21 2006-06-29 Kunz Linda H Multicultural and multimedia data collection and documentation computer system, apparatus and method
US20060150530A1 (en) * 2004-12-23 2006-07-13 Mark Davey Modular theatre system
US7699260B2 (en) * 2005-01-14 2010-04-20 Hughey Electricopter Corporation Vertical takeoff and landing aircraft using a redundant array of independent rotors
TW200704183A (en) * 2005-01-27 2007-01-16 Matrix Tv Dynamic mosaic extended electronic programming guide for television program selection and display
US20060192852A1 (en) * 2005-02-09 2006-08-31 Sally Rosenthal System, method, software arrangement and computer-accessible medium for providing audio and/or visual information
US7441202B2 (en) 2005-02-14 2008-10-21 Mitsubishi Electric Research Laboratories, Inc. Spatial multiplexing to mediate direct-touch input on large displays
US7646939B2 (en) * 2005-02-28 2010-01-12 Fujifilm Corporation Electronic album editing system, electronic album editing method and electronics album editing program
US7412389B2 (en) * 2005-03-02 2008-08-12 Yang George L Document animation system
US20060218042A1 (en) * 2005-03-11 2006-09-28 Cruz Raynaldo T Method for operating a restaurant having an electronically changeable, geographically oriented visual environment
ES2790885T3 (es) * 2005-03-29 2020-10-29 Sportvu Ltd Seguimiento de objetos en tiempo real y captura de movimiento en eventos deportivos
KR100703772B1 (ko) * 2005-04-13 2007-04-06 삼성전자주식회사 인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치
US7764289B2 (en) * 2005-04-22 2010-07-27 Apple Inc. Methods and systems for processing objects in memory
JP4603931B2 (ja) * 2005-05-16 2010-12-22 任天堂株式会社 オブジェクト移動制御装置およびオブジェクト移動制御プログラム
US7296767B2 (en) * 2005-05-31 2007-11-20 Sikorsky Aircraft Corporation Variable speed transmission for a rotary wing aircraft
US20060288036A1 (en) * 2005-06-17 2006-12-21 Microsoft Corporation Device specific content indexing for optimized device operation
CN100454526C (zh) 2005-06-30 2009-01-21 鸿富锦精密工业(深圳)有限公司 热界面材料制造方法
MX2008002317A (es) * 2005-08-16 2008-03-24 Nielsen Media Res Inc Metodos y aparatos de deteccion de encendido/apagado del dispositivo de visualizacion.
US20070040810A1 (en) 2005-08-18 2007-02-22 Eastman Kodak Company Touch controlled display device
WO2007073420A1 (en) * 2005-08-24 2007-06-28 Peter Renzi Streaming video network system
CA2621713C (en) * 2005-09-07 2016-01-26 Amx Llc Method and computer program for device configuration
US20070070069A1 (en) * 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
KR20070034767A (ko) 2005-09-26 2007-03-29 엘지전자 주식회사 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
US8229983B2 (en) * 2005-09-27 2012-07-24 Qualcomm Incorporated Channel switch frame
US7361091B2 (en) * 2005-10-07 2008-04-22 Howard Letovsky Player skill equalizer for video games
CN101322162B (zh) 2005-10-17 2010-12-01 Mars公司 设计和生产甜品排列的系统和方法
US20100258671A1 (en) * 2005-10-27 2010-10-14 Douglas Challis Aircraft having helicopter rotor and front mounted propeller
US7429983B2 (en) * 2005-11-01 2008-09-30 Cheetah Omni, Llc Packet-based digital display system
US7945546B2 (en) 2005-11-07 2011-05-17 Google Inc. Local search and mapping for mobile devices
US8094928B2 (en) * 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
US8771057B2 (en) * 2005-11-17 2014-07-08 Konami Gaming, Inc. System and method for providing a list of monetary instruments associated with a system
US8777752B2 (en) 2005-11-30 2014-07-15 At&T Intellectual Property I, L.P. Geogame for mobile device
US8702506B2 (en) 2005-11-30 2014-04-22 At&T Intellectual Property I, L.P. Geogame for mobile device
WO2007108776A2 (en) * 2005-12-31 2007-09-27 Bracco Imaging S.P.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ('dextronet')
US7644372B2 (en) 2006-01-27 2010-01-05 Microsoft Corporation Area frequency radial menus
BRPI0706887A2 (pt) * 2006-01-30 2012-08-21 Clearplay Inc "método para suprimir algum conteúdo de multimìdia de uma apresentação de conteúdo de multimìdia fornecida por um servidor remoto a um aparelho reprodutor de conteúdo de multimìdia do cliente e método para aplicar e sincronizar dados de filtro de conteúdo de mutimìdia com uma apresentação de conteúdo de multimìdia."
US20070192641A1 (en) * 2006-02-10 2007-08-16 Intel Corporation Method and apparatus to manage power consumption in a computer
WO2008139251A2 (en) * 2006-04-14 2008-11-20 Patrick Levy Rosenthal Virtual video camera device with three-dimensional tracking and virtual object insertion
US20070244769A1 (en) * 2006-04-14 2007-10-18 Swaptree, Inc. User interaction for trading system and method
US8734254B2 (en) * 2006-04-25 2014-05-27 International Business Machines Corporation Virtual world event notifications from within a persistent world game
JP5079792B2 (ja) 2006-05-08 2012-11-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザにメニューオプションを選択することを可能にする方法及び電子装置
US8346930B2 (en) * 2006-05-12 2013-01-01 General Instrument Corporation Multimedia processing method and device for resource management using virtual resources
US7831270B2 (en) * 2006-05-18 2010-11-09 Cisco Technology, Inc. Providing virtual talk group communication sessions in accordance with endpoint resources
US8628414B2 (en) * 2006-07-14 2014-01-14 Valve Corporation Enhanced commentary system for 3D computer entertainment
JP2008501490A (ja) 2006-08-02 2008-01-24 健治 吉田 情報出力装置、媒体および情報入出力装置
WO2008022041A1 (en) * 2006-08-10 2008-02-21 Gaos Maria System and methods for content conversion and distribution
US7438259B1 (en) * 2006-08-16 2008-10-21 Piasecki Aircraft Corporation Compound aircraft control system and method
US7788600B2 (en) * 2006-08-22 2010-08-31 Harman International Industries, Incorporated User interface for multifunction device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US20080076556A1 (en) * 2006-09-22 2008-03-27 Big Fish Games, Inc. Simulated 3D View of 2D Background Images and Game Objects
US7546545B2 (en) 2006-09-27 2009-06-09 International Business Machines Corporation Emphasizing drop destinations for a selected entity based upon prior drop destinations
US20080090659A1 (en) * 2006-10-12 2008-04-17 Maximino Aguilar Virtual world event notification from a persistent world game server in a logically partitioned game console
US20080095228A1 (en) * 2006-10-20 2008-04-24 Nokia Corporation System and method for providing picture output indications in video coding
US20080147430A1 (en) * 2006-12-18 2008-06-19 Hawthorne John D Virtual Event Attendance Systems
CN100470563C (zh) * 2006-12-19 2009-03-18 北京金山软件有限公司 菜单数据编辑方法、装置及网络游戏系统
US7973786B2 (en) * 2007-01-16 2011-07-05 Motorola Solutions, Inc. System and method for managing interaction in a virtual environment
US8909702B2 (en) * 2007-01-29 2014-12-09 Fuji Xerox Co., Ltd. System and method for coordination of devices in a presentation environment
US7920963B2 (en) 2007-02-22 2011-04-05 Iac Search & Media, Inc. Map interface with a movable marker
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US9104962B2 (en) 2007-03-06 2015-08-11 Trion Worlds, Inc. Distributed network architecture for introducing dynamic content into a synthetic environment
US8352881B2 (en) 2007-03-08 2013-01-08 International Business Machines Corporation Method, apparatus and program storage device for providing customizable, immediate and radiating menus for accessing applications and actions
US8161407B2 (en) 2007-03-15 2012-04-17 International Business Machines Corporation Multiple sorting of columns in a displayed table in a user interactive computer display interface through sequential radial menus
US8234059B2 (en) 2007-03-26 2012-07-31 Toyota Jidosha Kabushiki Kaisha Navigation device
US7792674B2 (en) * 2007-03-30 2010-09-07 Smith Micro Software, Inc. System and method for providing virtual spatial sound with an audio visual player
US20080263432A1 (en) * 2007-04-20 2008-10-23 Entriq Inc. Context dependent page rendering apparatus, systems, and methods
US8799952B2 (en) * 2007-04-24 2014-08-05 Google Inc. Virtual channels
US8681104B2 (en) 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US20090216392A1 (en) * 2007-07-11 2009-08-27 Piasecki Aircraft Corporation Vectored thruster augmented aircraft
US7823827B2 (en) * 2007-07-11 2010-11-02 Piasecki Frederick W Vectored thruster augmented aircraft
US20090037813A1 (en) 2007-07-31 2009-02-05 Palo Alto Research Center Incorporated Space-constrained marking menus for mobile devices
US20110007035A1 (en) * 2007-08-19 2011-01-13 Saar Shai Finger-worn devices and related methods of use
US20110210931A1 (en) 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
US8600391B2 (en) 2008-11-24 2013-12-03 Ringcentral, Inc. Call management for location-aware mobile devices
US8920236B2 (en) 2007-11-02 2014-12-30 Bally Gaming, Inc. Game related systems, methods, and articles that combine virtual and physical elements
US20090122018A1 (en) * 2007-11-12 2009-05-14 Leonid Vymenets User Interface for Touchscreen Device
JP2009125266A (ja) 2007-11-22 2009-06-11 Nhn Corp 同期制御方法及びゲームシステム
US20090149259A1 (en) * 2007-12-06 2009-06-11 Leviathan Entertainment Real Time Trivia Match with Questions with Proof
JP2009140368A (ja) 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
US20090171517A1 (en) * 2007-12-28 2009-07-02 Mehrdad Alavi Shooshoo
US7890257B2 (en) 2008-01-14 2011-02-15 Research In Motion Limited Using a shape-changing display as an adaptive lens for selectively magnifying information displayed onscreen
US20090187842A1 (en) * 2008-01-22 2009-07-23 3Dlabs Inc., Ltd. Drag and Drop User Interface for Portable Electronic Devices with Touch Sensitive Screens
JP2009279050A (ja) 2008-05-20 2009-12-03 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
KR101477743B1 (ko) 2008-06-16 2014-12-31 삼성전자 주식회사 단말 및 그의 기능 수행 방법
US8241912B2 (en) 2008-06-26 2012-08-14 Wms Gaming Inc. Gaming machine having multi-touch sensing device
US8826181B2 (en) 2008-06-28 2014-09-02 Apple Inc. Moving radial menus
US8245156B2 (en) 2008-06-28 2012-08-14 Apple Inc. Radial menu selection
US20090327955A1 (en) 2008-06-28 2009-12-31 Mouilleseaux Jean-Pierre M Selecting Menu Items
JP5410697B2 (ja) * 2008-07-03 2014-02-05 株式会社カプコン ゲームプログラムおよびゲームシステム
US8333655B2 (en) 2008-07-11 2012-12-18 Wms Gaming Inc. Methods of receiving electronic wagers in a wagering game via a handheld electronic wager input device
JP5500855B2 (ja) 2008-07-11 2014-05-21 キヤノン株式会社 情報処理装置及びその制御方法
KR100991730B1 (ko) 2008-08-13 2010-11-03 김선중 온라인을 통한 실제 농장 경영 시스템
RU2011116066A (ru) 2008-09-24 2012-10-27 Айоупенер Медиа Гмбх (De) Система и способ для моделирования событий в реальном окружении
KR101526995B1 (ko) 2008-10-15 2015-06-11 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US20100100849A1 (en) 2008-10-22 2010-04-22 Dr Systems, Inc. User interface systems and methods
US20120010995A1 (en) * 2008-10-23 2012-01-12 Savnor Technologies Web content capturing, packaging, distribution
KR20100048090A (ko) 2008-10-30 2010-05-11 삼성전자주식회사 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법
US9498711B2 (en) * 2008-11-04 2016-11-22 Quado Media Inc. Multi-player, multi-screens, electronic gaming platform and system
JP4848000B2 (ja) 2008-12-16 2011-12-28 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
US20100185985A1 (en) 2009-01-19 2010-07-22 International Business Machines Corporation Managing radial menus in a computer system
US20100192101A1 (en) 2009-01-29 2010-07-29 International Business Machines Corporation Displaying radial menus in a graphics container
US7870496B1 (en) 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
US9383897B2 (en) 2009-01-29 2016-07-05 International Business Machines Corporation Spiraling radial menus in computer systems
US20100192102A1 (en) 2009-01-29 2010-07-29 International Business Machines Corporation Displaying radial menus near edges of a display area
JP5517026B2 (ja) 2009-02-18 2014-06-11 株式会社セガ ゲーム装置、ゲーム装置の制御方法、及びゲーム装置の制御プログラム
US20100235784A1 (en) 2009-03-16 2010-09-16 Bas Ording Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display
US8627233B2 (en) 2009-03-27 2014-01-07 International Business Machines Corporation Radial menu with overshoot, fade away, and undo capabilities
US8468466B2 (en) 2009-03-27 2013-06-18 International Business Machines Corporation Radial menu selection with gestures
KR101553629B1 (ko) 2009-05-06 2015-09-17 삼성전자주식회사 인터페이스 제공 방법
US8739055B2 (en) * 2009-05-07 2014-05-27 Microsoft Corporation Correction of typographical errors on touch displays
US20100285881A1 (en) 2009-05-07 2010-11-11 Microsoft Corporation Touch gesturing on multi-player game space
KR101611511B1 (ko) 2009-05-12 2016-04-12 삼성전자주식회사 터치스크린을 구비한 휴대 단말기를 이용한 음악 생성 방법
US9436380B2 (en) 2009-05-19 2016-09-06 International Business Machines Corporation Radial menus with variable selectable item areas
US8219309B2 (en) 2009-05-29 2012-07-10 Nokia Corporation Method and apparatus for a navigational graphical user interface
US8549432B2 (en) 2009-05-29 2013-10-01 Apple Inc. Radial menus
KR20100130671A (ko) 2009-06-04 2010-12-14 삼성전자주식회사 터치 인터페이스에서 선택 영역의 제공 장치 및 그 방법
US8217787B2 (en) 2009-07-14 2012-07-10 Sony Computer Entertainment America Llc Method and apparatus for multitouch text input
US20110014983A1 (en) 2009-07-14 2011-01-20 Sony Computer Entertainment America Inc. Method and apparatus for multi-touch game commands
JP2011036346A (ja) 2009-08-07 2011-02-24 Sega Corp ゲームシステム、ゲーム装置、ペン、ゲーム装置の制御方法、及びゲーム装置の制御プログラム
US8578295B2 (en) 2009-09-16 2013-11-05 International Business Machines Corporation Placement of items in cascading radial menus
US9632662B2 (en) 2009-09-16 2017-04-25 International Business Machines Corporation Placement of items in radial menus
US8261212B2 (en) 2009-10-20 2012-09-04 Microsoft Corporation Displaying GUI elements on natural user interfaces
US8452784B2 (en) 2009-10-22 2013-05-28 Nokia Corporation Method and apparatus for searching geo-tagged information
KR20110047349A (ko) 2009-10-30 2011-05-09 주식회사 팬택 휴대용 단말기에서 터치와 가압을 이용하는 사용자 인터페이스 장치 및 방법
US8346405B1 (en) 2009-11-03 2013-01-01 Radar Engineers Map interface for electrical system discharge trace playback
BR112012015497B1 (pt) 2009-12-22 2020-11-17 Google Technology Holdings LLC método para executar uma função em um dispositivo eletrônico e dispositivo eletrônico
EP2341420A1 (en) 2010-01-04 2011-07-06 Research In Motion Limited Portable electronic device and method of controlling same
KR20110081040A (ko) 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
WO2011085248A1 (en) 2010-01-07 2011-07-14 Swakker, Llc Methods and apparatus for modifying a multimedia object within an instant messaging session at a mobile communication device
KR101651926B1 (ko) 2010-01-07 2016-08-29 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20110209058A1 (en) 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US20110225524A1 (en) * 2010-03-10 2011-09-15 Cifra Christopher G Multi-Touch Editing in a Graphical Programming Language
US9069416B2 (en) 2010-03-25 2015-06-30 Google Inc. Method and system for selecting content using a touchscreen
JP5166472B2 (ja) * 2010-03-30 2013-03-21 株式会社バンダイナムコゲームス プログラム及びゲーム装置
KR20110112980A (ko) 2010-04-08 2011-10-14 삼성전자주식회사 터치 감지 장치 및 방법
IES20100214A2 (en) 2010-04-14 2011-11-09 Smartwatch Ltd Programmable controllers and schedule timers
KR101997034B1 (ko) 2010-04-19 2019-10-18 삼성전자주식회사 인터페이스 방법 및 장치
US20110271182A1 (en) * 2010-04-29 2011-11-03 Acer Incorporated Eletronic apparatus and control method thereof
US20110270922A1 (en) * 2010-04-30 2011-11-03 American Teleconferencing Services Ltd. Managing participants in a conference via a conference user interface
US8996978B2 (en) 2010-05-14 2015-03-31 Sap Se Methods and systems for performing analytical procedures by interactions with visual representations of datasets
US8990732B2 (en) 2010-05-14 2015-03-24 Sap Se Value interval selection on multi-touch devices
US8382591B2 (en) 2010-06-03 2013-02-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
KR101685145B1 (ko) 2010-06-09 2016-12-09 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9636584B2 (en) * 2010-06-24 2017-05-02 Zynga Inc. Mobile device interface for online games
TWI408568B (zh) 2010-06-24 2013-09-11 Hon Hai Prec Ind Co Ltd 手持裝置及利用其控制無人飛行載具的方法
US20120005577A1 (en) * 2010-06-30 2012-01-05 International Business Machines Corporation Building Mashups on Touch Screen Mobile Devices
WO2012001637A1 (en) 2010-06-30 2012-01-05 Koninklijke Philips Electronics N.V. Zooming-in a displayed image
US20120030567A1 (en) 2010-07-28 2012-02-02 Victor B Michael System with contextual dashboard and dropboard features
US20120030566A1 (en) 2010-07-28 2012-02-02 Victor B Michael System with touch-based selection of data items
JP5226045B2 (ja) 2010-08-10 2013-07-03 株式会社スマイルラボ ビデオゲーム制御装置、およびビデオゲーム制御プログラム
US9013430B2 (en) 2010-08-20 2015-04-21 University Of Massachusetts Hand and finger registration for control applications
US8767019B2 (en) 2010-08-31 2014-07-01 Sovanta Ag Computer-implemented method for specifying a processing operation
JP2012058857A (ja) 2010-09-06 2012-03-22 Sony Corp 情報処理装置、操作方法及び情報処理プログラム
KR101705872B1 (ko) 2010-09-08 2017-02-10 삼성전자주식회사 모바일 디바이스의 화면상의 영역 선택 방법 및 장치
US20120083330A1 (en) * 2010-10-05 2012-04-05 Zynga Game Network, Inc. System and Method for Generating Achievement Objects Encapsulating Captured Event Playback
US8287341B1 (en) * 2010-10-14 2012-10-16 Zynga Inc. Asynchronous interactive game play
JP2012081163A (ja) 2010-10-14 2012-04-26 Sega Corp ゲーム装置
CN102455851A (zh) 2010-10-28 2012-05-16 上海聚力传媒技术有限公司 用于在不同用户设备中显示用户界面的方法和装置
US9378621B2 (en) 2010-11-05 2016-06-28 Everi Games, Inc. Wagering game, gaming machine, gaming system and method with a touch-activated residual graphic effect feature
US20120122561A1 (en) 2010-11-12 2012-05-17 Bally Gaming, Inc. System and method for tournament gaming using social network based team formation
US8272956B2 (en) * 2010-11-16 2012-09-25 Zynga Inc. Social supply harvest mechanic for interactive social games
US9017169B2 (en) * 2010-11-16 2015-04-28 Zynga Inc. Franchise mechanic for interactive social games
US8614665B2 (en) 2010-11-19 2013-12-24 Qualcomm Innovation Center, Inc. Touch screen
US20120157210A1 (en) 2010-12-15 2012-06-21 At&T Intellectual Property I Lp Geogame for mobile device
US20130334300A1 (en) * 2011-01-03 2013-12-19 Curt Evans Text-synchronized media utilization and manipulation based on an embedded barcode
US9501217B2 (en) 2011-01-14 2016-11-22 Apple Inc. Target region for removing icons from dock
US20120326993A1 (en) 2011-01-26 2012-12-27 Weisman Jordan K Method and apparatus for providing context sensitive interactive overlays for video
EP3734405B1 (en) * 2011-02-10 2024-08-14 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
US9186575B1 (en) * 2011-03-16 2015-11-17 Zynga Inc. Online game with animal-breeding mechanic
US9182882B2 (en) 2011-04-12 2015-11-10 Autodesk, Inc. Dynamic creation and modeling of solid models
US8485897B1 (en) 2011-04-13 2013-07-16 Zynga Inc. System and method for providing branded virtual objects in a virtual environment
EP2530569A1 (en) * 2011-05-30 2012-12-05 ExB Asset Management GmbH Convenient extraction of an entity out of a spatial arrangement
CN103608760A (zh) 2011-06-03 2014-02-26 谷歌公司 用于选择文本的手势
WO2013009413A1 (en) * 2011-06-06 2013-01-17 Intellitact Llc Relative touch user interface enhancements
US8292743B1 (en) 2011-06-30 2012-10-23 Zynga Inc. Changing virtual items based on location-based actions
US8556719B1 (en) * 2011-06-30 2013-10-15 Zynga Inc. Linking virtual items to real-world items
US8860675B2 (en) 2011-07-12 2014-10-14 Autodesk, Inc. Drawing aid system for multi-touch devices
US8368723B1 (en) 2011-07-14 2013-02-05 Google Inc. User input combination of touch and user position
US8549069B1 (en) * 2011-08-16 2013-10-01 Zynga Inc. Validation of device activity via logic sharing
US20130067332A1 (en) 2011-09-12 2013-03-14 Microsoft Corporation Media seek bar
US8133116B1 (en) 2011-09-26 2012-03-13 Zynga Inc. Social supply harvest mechanic for interactive social games
US10795448B2 (en) * 2011-09-29 2020-10-06 Magic Leap, Inc. Tactile glove for human-computer interaction
US9462210B2 (en) * 2011-11-04 2016-10-04 Remote TelePointer, LLC Method and system for user interface for interactive devices using a mobile device
KR101978687B1 (ko) 2011-11-15 2019-05-16 삼성전자주식회사 터치스크린 단말기에서 문자 입력 방법 및 장치
JP2013117885A (ja) * 2011-12-02 2013-06-13 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US8535163B2 (en) * 2012-01-10 2013-09-17 Zynga Inc. Low-friction synchronous interaction in multiplayer online game
KR101710547B1 (ko) 2012-01-10 2017-02-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US8795080B1 (en) * 2012-03-30 2014-08-05 Zynga Inc. Gaming platform providing a game action sweep mechanic
US8814674B2 (en) 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
US8954890B2 (en) 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
KR101934822B1 (ko) 2012-09-03 2019-01-04 삼성전자주식회사 이동 단말에서의 잠금 해제 방법 및 이를 위한 이동 단말
US20160184699A1 (en) * 2012-12-03 2016-06-30 Zynga Inc. Display and navigation of virtual built environments in computer-implemented games
KR20140123693A (ko) 2013-04-15 2014-10-23 삼성에스디아이 주식회사 배터리 팩
WO2016060501A1 (en) * 2014-10-15 2016-04-21 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
KR20160147441A (ko) * 2015-06-15 2016-12-23 엘지전자 주식회사 이동 단말기 및 그의 동작 방법

Also Published As

Publication number Publication date
KR20190131144A (ko) 2019-11-25
US20230083741A1 (en) 2023-03-16
EP3586934A1 (en) 2020-01-01
KR102552421B1 (ko) 2023-07-06
AU2018202032A1 (en) 2018-04-19
US10198157B2 (en) 2019-02-05
JP6147894B2 (ja) 2017-06-14
JP7377328B2 (ja) 2023-11-09
KR20190007537A (ko) 2019-01-22
KR20140115332A (ko) 2014-09-30
KR20220153097A (ko) 2022-11-17
KR20210132738A (ko) 2021-11-04
EP2836278B1 (en) 2019-07-31
KR101940701B1 (ko) 2019-01-21
CN107728891B (zh) 2021-04-20
JP2019193801A (ja) 2019-11-07
AU2013246615A1 (en) 2014-11-13
KR101641627B1 (ko) 2016-07-29
US20210162303A1 (en) 2021-06-03
JP2022188161A (ja) 2022-12-20
CN104093463A (zh) 2014-10-08
JP5941554B2 (ja) 2016-06-29
WO2013153455A3 (en) 2014-03-06
JP2017192735A (ja) 2017-10-26
CN107728891A (zh) 2018-02-23
AU2018202032B2 (en) 2019-08-29
US20200004407A1 (en) 2020-01-02
EP3586934B1 (en) 2022-06-29
GB201409299D0 (en) 2014-07-09
KR20160087919A (ko) 2016-07-22
US20150113477A1 (en) 2015-04-23
JP2016187560A (ja) 2016-11-04
US10864442B2 (en) 2020-12-15
CA2861101C (en) 2020-07-14
JP2021191419A (ja) 2021-12-16
GB2511668A (en) 2014-09-10
GB2501145A (en) 2013-10-16
KR20200124768A (ko) 2020-11-03
CA2861101A1 (en) 2013-10-17
CN104093463B (zh) 2017-10-10
JP2015511829A (ja) 2015-04-23
US11400372B2 (en) 2022-08-02
EP2836278A2 (en) 2015-02-18
AU2016202994B2 (en) 2018-03-15
WO2013153455A2 (en) 2013-10-17
AU2013246615B2 (en) 2016-02-11
US11771988B2 (en) 2023-10-03
AU2016202994A1 (en) 2016-05-26
US20230415041A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
ES2744492T3 (es) Sistema y método para controlar procedimientos técnicos
JP6967057B2 (ja) ゲーム制御システム,方法およびグラフィカルユーザインタフェース
ES2778863T3 (es) Interfaz gráfica de usuario para un sistema de juego