ES2891317T3 - Aparato y método para controlar una interfaz de usuario de un aparato informático - Google Patents

Aparato y método para controlar una interfaz de usuario de un aparato informático Download PDF

Info

Publication number
ES2891317T3
ES2891317T3 ES18730022T ES18730022T ES2891317T3 ES 2891317 T3 ES2891317 T3 ES 2891317T3 ES 18730022 T ES18730022 T ES 18730022T ES 18730022 T ES18730022 T ES 18730022T ES 2891317 T3 ES2891317 T3 ES 2891317T3
Authority
ES
Spain
Prior art keywords
user interface
user
movement
contact
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18730022T
Other languages
English (en)
Inventor
Touko Tahkokallio
Jonne Loikkanen
Jon Franzas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Supercell Oy
Original Assignee
Supercell Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Supercell Oy filed Critical Supercell Oy
Application granted granted Critical
Publication of ES2891317T3 publication Critical patent/ES2891317T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Un aparato (100) que comprende: - una interfaz (102, 200, 300, 400, 500, 600, 700) de usuario sensible al tacto; y - un procesador (104) que puede funcionar para presentar en la interfaz de usuario sensible al tacto un icono asociado a una aplicación instalada en el aparato, y para recibir una o más entradas proporcionadas por un usuario del aparato mediante el uso de la interfaz de usuario sensible al tacto y para proporcionar una respuesta correspondiente; en donde el procesador está configurado para: - iniciar la aplicación en respuesta a un contacto de toque por parte del usuario sobre el icono asociado a la aplicación; - provocar una visualización de un objeto (204) controlado por el usuario en una posición inicial y de uno o más otros objetos en la interfaz de usuario sensible al tacto; - detectar, mientras se inicia la aplicación, un contacto (216, 404) en una primera posición en la interfaz de usuario; - detectar una rotura de dicho contacto de la interfaz de usuario; - determinar un movimiento de dicho contacto desde la primera posición; - comparar el movimiento con un umbral de movimiento predeterminado; y - si el movimiento es menor que el umbral de movimiento predeterminado, cuando se detecte la rotura de dicho contacto, mover el objeto (204) controlado por el usuario en la interfaz de usuario desde la posición inicial en la interfaz de usuario hasta una zona en o cerca de la primera posición; o - si el movimiento es mayor que el umbral de movimiento predeterminado: - identificar una segunda posición correspondiente a una zona cerca de un punto final del movimiento; y - cuando se detecte la rotura de dicho contacto, ejecutar una acción en la segunda posición con respecto al objeto controlado por el usuario, en donde un rango del umbral de movimiento predeterminado está entre 3 % y 12 % de una distancia entre lados opuestos de la interfaz de usuario.

Description

DESCRIPCIÓN
Aparato y método para controlar una interfaz de usuario de un aparato informático
Campo técnico
La presente descripción se refiere a un aparato y un método para controlar una interfaz de usuario de un aparato informático.
Antecedentes
Por lo general, el uso de dispositivos de comunicación portátiles tales como teléfonos inteligentes y ordenadores de tableta ha aumentado enormemente en los últimos años. Además, aparte de su uso para la comunicación, la navegación, el aumento de la productividad, etc., tales dispositivos también se emplean para proporcionar entretenimiento a un usuario de los mismos. Por ejemplo, los dispositivos normalmente cuentan con aplicaciones que permiten a los usuarios ver vídeos, leer libros, capturar imágenes y participar en redes sociales. Adicionalmente, los dispositivos también pueden contar con aplicaciones que permitan a los usuarios jugar a juegos.
Normalmente, los juegos pueden tener un objeto (tal como un personaje) que se controla para alcanzar diversos objetivos del juego, tales como recolectar recompensas o eliminar otros objetos de la partida. Convencionalmente, tales objetos se controlan pulsando una o más teclas en un teclado asociado a un dispositivo. Sin embargo, con la llegada de los teléfonos inteligentes que tienen una pantalla táctil (y que carecen del teclado asociado a los teléfonos móviles convencionales), el control de tales objetos tiene varios problemas asociados.
Por ejemplo, en general, parte de una zona de interfaz gráfica de usuario de un juego se reserva para proporcionar controles tales como un teclado virtual o uno o más botones para activar habilidades que posee el objeto, etc. Sin embargo, tal reserva de la zona de la interfaz gráfica de usuario reduce una zona disponible para mostrar elementos y/o información asociada al juego. Adicionalmente, en un caso en el que el juego tenga una mecánica de juego compleja, la interfaz gráfica de usuario puede quedar sustancialmente oculta a la vista del usuario debido a la colocación de múltiples dedos sobre la pantalla táctil. Se apreciará que tales problemas dan como resultado una experiencia de juego incómoda para el usuario.
En el documento US2015/094127 se describen métodos, sistemas y programas informáticos para manejar una entrada táctil a un juego ejecutado en un dispositivo. El método incluye la operación de representar el juego en el dispositivo. El dispositivo incluye una pantalla táctil para recibir una entrada táctil de un usuario. El juego representa un objeto de juego que puede moverse en una o más direcciones dentro de una escena del juego. Cuando se selecciona el objeto de juego para moverse, se detecta una entrada táctil desde la pantalla táctil. La entrada táctil se analiza para determinar si la entrada táctil es un gesto de movimiento que tiene un perfil de deslizamiento y una dirección. Cuando la entrada táctil es un gesto de movimiento, se hace que el objeto de juego se mueva a lo largo de la dirección definida por la entrada táctil. En el documento US-2017/017314 se presenta un dispositivo de pantalla táctil configurado para proporcionar salidas sensibles a las entradas proporcionadas por un usuario que interactúa con la pantalla táctil. Las salidas son procesadas por un sistema de circuitos de procesamiento para determinar las ubicaciones táctiles de toques consecutivos. Si el último toque está dentro de una zona umbral del toque anterior, se repite la acción realizada en respuesta al toque anterior. Si el último toque no está dentro de una zona umbral del toque posterior, la acción realizada en respuesta al toque anterior es distinta de la acción realizada en respuesta al toque posterior. En el documento “A Guide to iOS Twin Stick Shooter Usability” de Graham McAllister (Gamasutra-Features, 2011-04-05) se presentan juegos de tiros “twin stick shooter” , que son un tipo de juego en el se que utilizan dos controles, que generalmente se manejan con los pulgares. Un control ordena el movimiento del personaje y, el otro, la dirección de disparo. En el documento US-2015/157932 se presenta un método de procesamiento de gestos de usuario en un juego en línea. Un método para procesar gestos de usuario en un juego en línea realizado a través de un terminal móvil capaz de recibir una entrada de arrastre táctil según una realización de la presente invención puede minimizar el número de toques requeridos para realizar operaciones rápidas y eficientes, mejorar la comodidad operativa y proporcionar una vista agradable.
Además, para superar los problemas, un juego puede emplear mecánicas de juego simplificadas, tales como controles reducidos, capacidades reducidas poseídas por los objetos, automovimiento, autoobjetivo, autodisparo, velocidad de juego lenta, etc. Tal simplificación de la mecánica de juego hace que la experiencia de juego del usuario sea menos estimulante y, en consecuencia, menos divertida.
Por lo tanto, en vista de la explicación anterior, existe la necesidad de superar los anteriormente mencionados inconvenientes asociados a la experiencia de juego.
Resumen
La presente descripción busca proporcionar un aparato. La presente descripción también busca proporcionar un método para controlar una interfaz de usuario de un aparato informático. La presente descripción busca proporcionar una solución a los problemas existentes asociados con el juego en dispositivos que tengan una interfaz de usuario sensible al tacto. Un objeto de la presente descripción es proporcionar una solución que resuelva al menos parcialmente los problemas encontrados en la técnica anterior y proporcione un control sencillo y eficaz de la interfaz de usuario sensible al tacto, posibilitando así una experiencia de juego divertida.
En un aspecto, una realización de la presente descripción proporciona un aparato según la reivindicación 1.
En otro aspecto, una realización de la presente descripción proporciona un método para controlar una interfaz de usuario de un aparato informático según la reivindicación 11.
Realizaciones de la presente descripción eliminan sustancialmente, o al menos abordan parcialmente, los anteriormente mencionados problemas de la técnica anterior y posibilitan un sencillo y cómodo control de la interfaz de usuario sensible al tacto.
Se deducirán otros aspectos, ventajas, características y objetos de la presente descripción a partir de los dibujos y la descripción detallada de las realizaciones ilustrativas interpretadas junto con las reivindicaciones anexas que siguen. Se apreciará que las características de la presente descripción son susceptibles de unirse en varias combinaciones sin abandonar el ámbito de la presente descripción definido por las reivindicaciones anexas.
Breve descripción de las figuras
El sumario anterior, así como la siguiente descripción detallada de realizaciones ilustrativas, se comprende mejor al leerlo junto con los dibujos anexos. Para ilustrar la presente descripción, se muestran estructuras ilustrativas de la descripción en los dibujos. Sin embargo, la presente descripción no se limita a métodos e instrumentales específicos descritos en la presente memoria. Además, los expertos en la técnica entenderán que los dibujos no están a escala. En la medida de lo posible, los elementos similares se han indicado con números idénticos.
A continuación se describirán realizaciones de la presente descripción, a modo de ejemplo únicamente, con referencia a los siguientes diagramas, en donde:
La Fig. 1 es un diagrama de bloques de un aparato según una realización de la presente descripción;
las Figs. 2A, 2B, 2C a 7 son interfaces de usuario del aparato de la Fig. 1 según varias realizaciones de la presente descripción; y
la Fig. 8 ilustra pasos de un método para controlar una interfaz de usuario de un aparato informático.
En los dibujos adjuntos, se emplea un número subrayado para representar un elemento sobre el que se coloca el número subrayado o un elemento al que está adyacente el número subrayado. Un número no subrayado se refiere a un elemento identificado por una línea que vincula el número no subrayado al elemento. Cuando un número no está subrayado y está acompañado por una flecha asociada, el número no subrayado se utiliza para identificar un elemento general al que la flecha apunta.
Descripción detallada de las realizaciones
La siguiente descripción detallada ilustra realizaciones de la presente descripción y formas en las que pueden implementarse. Aunque se han descrito algunos modos de realización de la presente descripción, los expertos en la técnica reconocerán que también son posibles otras realizaciones para llevar a cabo o poner en práctica la presente descripción.
En un aspecto, una realización de la presente descripción proporciona un aparato según la reivindicación 1.
En otro aspecto, una realización de la presente descripción proporciona un método para controlar una interfaz de usuario de un aparato informático según la reivindicación 11.
El aparato comprende una interfaz de usuario sensible al tacto. En una realización, el aparato es un dispositivo de comunicación portátil. Por ejemplo, el aparato es un teléfono inteligente, un ordenador de tableta, un ordenador portátil, etc. En tal caso, la interfaz de usuario sensible al tacto del aparato es un visualizador de pantalla táctil del dispositivo de comunicación portátil. Se apreciará que la interfaz de usuario sensible al tacto permite al usuario del aparato interactuar con el aparato. Por ejemplo, el usuario del aparato puede proporcionar una entrada al aparato en una interfaz gráfica de usuario que se represente en la interfaz de usuario sensible al tacto.
El aparato comprende además un procesador. El procesador del aparato puede funcionar para recibir una o más entradas proporcionadas por el usuario del aparato mediante el uso de la interfaz de usuario sensible al tacto y proporcionar una respuesta correspondiente. Por ejemplo, la entrada comprende una orden para iniciar una aplicación (o “ app” ) instalada en el dispositivo de comunicación portátil. En tal caso, la orden de entrada es proporcionada por el usuario mediante un contacto de toque (o “gesto” ) sobre un icono asociado a la aplicación que se presenta en la interfaz de usuario sensible al tacto del aparato.
En una realización, una entrada proporcionada por el usuario comprende una orden para iniciar una aplicación de juego. En tal caso, el procesador está configurado para iniciar la aplicación de juego (o juego) después de recibir la entrada proporcionada por el usuario. Además, el procesador está configurado para representar una interfaz gráfica de usuario (o interfaz de usuario) asociada al juego en la interfaz de usuario sensible al tacto. En un ejemplo, el juego puede ser uno de un juego de acción, un role-playing game (juego de rol - RPG), un juego de estrategia, un juego de tiros, un juego de rompecabezas, etc. Se apreciará que el juego puede comprender un campo de juego que se representa en la interfaz de usuario. Además, el campo de juego puede comprender uno o más objetos, tales como personajes, que son controlados por el usuario (o jugador) del aparato. Adicionalmente, el campo de juego también puede comprender uno o más obstáculos, tales como paredes, para restringir el movimiento de los uno o más objetos hasta zonas específicas dentro del campo de juego. Opcionalmente, el campo de juego comprende uno o más elementos, tales como estrellas, símbolos de aumento de salud o símbolos de munición, para prestar ayuda al jugador y/o aumentar una puntuación vinculada al rendimiento del jugador. Además, la interfaz de usuario también puede presentar uno o más indicadores para proporcionarle información al jugador, tal como información asociada a una puntuación del juego o a la salud de los objetos.
En un ejemplo, el juego comprende un objeto controlado por el jugador y uno o más objetos diferentes (tales como personajes enemigos). En una realización, otros jugadores del juego controlan los uno o más distintos objetos. Alternativamente, los uno o más distintos objetos se controlan por ordenador, tal como utilizando un algoritmo de artificial intelligence (inteligencia artificial - IA).
En un ejemplo, los objetos poseen diversas habilidades o capacidades que son utilizadas por el jugador del juego para lograr un objetivo. Por ejemplo, los objetos poseen una o más armas que pueden usarse para eliminar otros objetos de la partida. El jugador del juego puede activar tales habilidades o capacidades mediante el uso de uno de una pluralidad de contactos predeterminados con la interfaz de usuario sensible al tacto del aparato. El procesador está configurado para determinar los contactos predeterminados de una manera que se explica más adelante en la presente memoria.
El procesador está configurado para detectar un primer contacto con la interfaz de usuario en una primera posición en la interfaz de usuario. El procesador registra la primera posición del primer contacto. Por ejemplo, en una realización, la primera posición del primer contacto puede referirse a coordenadas de ubicación en la interfaz de usuario, tales como unas coordenadas X e Y. La posición (0,0) podría referirse a la esquina superior izquierda de la interfaz de usuario (es decir, una pantalla táctil/un visualizador de un dispositivo) y (MaxX, 0) a la esquina superior derecha, (0, MaxY) a la esquina inferior izquierda y (MaxX, MaxY) a la esquina inferior derecha, en donde MaxX es un número de píxeles en la dirección horizontal de la interfaz de usuario y MaxY es un número de píxeles en la dirección vertical de la interfaz de usuario. El sistema de coordenadas usado puede consistir en unidades arbitrarias. Por ejemplo, el sistema de cocoordenadas puede definirse para que sea de tal manera que, en la dirección horizontal (dirección X), las coordenadas empiecen en el 0 y vayan una cantidad definida de unidades, tal como 1000, y en una dirección horizontal y en la dirección vertical (dirección Y), las coordenadas empiecen en el 0 y vayan la otra cantidad definida de unidades, tal como 500. Por lo tanto, en un sistema de coordenadas de este tipo, la posición del contacto puede definirse independiente del tamaño de pantalla y de la resolución de la interfaz de usuario. El primer contacto puede referirse a tocar la interfaz de usuario con un dedo u otro puntero. En realizaciones alternativas, se puede usar un método adecuado para registrar la primera posición.
El procesador está configurado para detectar un movimiento del primer contacto dentro de la interfaz de usuario desde la primera posición hasta una segunda posición. Por ejemplo, esto podría ser un movimiento del dedo desde una primera posición (X1 = 100, Y1 = 120) hasta una segunda posición (X2 = 70, Y2 = 140). El procesador está configurado además para determinar una distancia entre la primera posición y la segunda posición. Por ejemplo, y con referencia a los valores anteriores de X1, Y1, X2 e Y2, la distancia podría ser 30 unidades en la dirección X y 20 unidades en la dirección Y. Además, la distancia podría ser desde el punto (X1, Y1) hasta el punto (X2, Y2), calculada como V(30A2 20A2) = 36 unidades.
Además, el procesador está configurado para detectar una rotura del primer contacto con la interfaz de usuario. El procesador está configurado para ejecutar un movimiento de un primer objeto en la interfaz de usuario o una acción sobre el segundo objeto cuando se detecta la rotura.
El procesador está configurado para comparar la distancia determinada del movimiento entre la primera posición y la segunda posición con un umbral de movimiento o un umbral de distancia predeterminado. Además, el procesador está configurado para determinar un tipo del primer contacto y una acción que se ejecutará en la interfaz de usuario con respecto a un primer objeto representado en la interfaz de usuario sobre la base de la comparación. Un rango del umbral de movimiento predeterminado está entre aproximadamente 3 % a y aproximadamente 12 %, inclusive, de una distancia entre lados opuestos de la interfaz de usuario. Un rango de un movimiento que sea menor que el umbral de movimiento predeterminado es menor que aproximadamente 12 % de una distancia entre lados opuestos de la interfaz de usuario. Preferiblemente, el rango del umbral de movimiento predeterminado está entre 4-8 % de la distancia entre lados opuestos de la interfaz de usuario. Más preferiblemente, 6 % de la distancia entre lados opuestos de la interfaz de usuario.
Por ejemplo, y utilizando de los anteriores valores X1, Y1, X2, Y2, si el umbral de movimiento o de distancia predeterminado es de 40 unidades, la distancia determinada (36) es menor que el umbral de distancia predeterminado. Si el umbral de distancia predeterminado es 32 unidades, entonces la distancia determinada (36) es mayor que el umbral de distancia predeterminado.
Cuando la distancia determinada es menor que el umbral de distancia predeterminado, se determina que el tipo de primer contacto es una orden de movimiento, y el primer objeto está configurado para moverse desde una posición actual en la interfaz de usuario hasta una zona de la segunda posición. La acción de movimiento se ejecuta cuando se detecta una rotura del primer contacto con la interfaz de usuario. La zona de la segunda posición puede referirse a una zona cuyo punto central sea la segunda posición donde el dedo se levanta de la interfaz de usuario. La zona podría ser por ejemplo un área de 5 x 5 unidades. En un ejemplo, el umbral de distancia predeterminado es de 5 % del ancho (en la dirección X cuando la interfaz de usuario está en orientación de paisaje) de la interfaz de usuario. Si el ancho fuese de por ejemplo 1000 unidades, el umbral de distancia predeterminado sería de 50 unidades. En tal caso, al determinarse que la distancia determinada es menor que 50 unidades segundo (tal como 10 unidades), el procesador está configurado para determinar que el tipo de primer contacto sea la orden de movimiento. Se apreciará que el primer objeto (tal como un personaje controlado por el jugador) puede representarse en una ubicación predeterminada en la interfaz de usuario al iniciarse el juego. En un ejemplo, el primer objeto está ubicado en una zona central del campo de juego al inicio del juego. Además, al jugador del juego puede requerírsele que mueva el primer objeto a otras ubicaciones del campo de juego, tal como para recolectar una recompensa o esquivar un ataque de otro objeto. En tal caso, el jugador realiza un contacto de “ movimiento” (es decir, el dedo no se mueve en absoluto o el movimiento no excede el umbral de distancia predeterminado) en una zona deseada de la interfaz de usuario para mover el objeto desde su ubicación actual, tal como la zona central, a la zona del primer contacto (es decir, una zona correspondiente al lugar donde el dedo se levantó de la interfaz de usuario) o a la zona deseada. Se apreciará que el movimiento del primer objeto mediante el uso de tal contacto realizado por el jugador permite eliminar la necesidad de tener que presentar controles (tales como teclados virtuales) en la interfaz de usuario. Además, tal eliminación de los controles hace que haya más zona para mostrar elementos y/o información asociada al juego. Además, tal movimiento del primer objeto por el contacto realizado por el primer jugador posibilita una respuesta más rápida, lo que permite proporcionar juegos más rápidos, emocionantes y divertidos a los jugadores.
Cuando la distancia determinada es mayor que el umbral de movimiento o de distancia predeterminado, se determina que el tipo del primer contacto es una orden de acción, y el primer objeto está configurado para ejecutar una acción en la interfaz de usuario distinta de incluir un movimiento. En un caso en el que el umbral de distancia predeterminado sea 50 unidades (tal como 5 % de la distancia en la dirección X) segundas y la distancia entre la primera posición y la segunda posición sea mayor que 50 unidades, se determina que el tipo del primer contacto es una orden de acción.
En un ejemplo, el tipo de primer contacto es un contacto dactilar de tocar y mover (o “contacto de acción” ) por parte del jugador en la interfaz de usuario sensible al tacto. En otro ejemplo, el primer objeto está configurado para ejecutar la acción para eliminar uno o más de otros objetos de la partida. Según una realización, la acción comprende disparar por parte del primer objeto a otro objeto presentado en la interfaz de usuario. Por ejemplo, el primer objeto descarga uno o más proyectiles (tales como balas) de un arma poseída por el mismo hacia otro objeto (tal como un personaje controlado por otro jugador) en la interfaz de usuario. La acción se ejecuta cuando se detecta una rotura del primer contacto con la interfaz de usuario.
Según una realización, cuando se determina que la primera acción es la orden de acción, el procesador está configurado además para generar un indicador, tal como un sector en la interfaz de usuario, definiendo el sector un camino para la acción ejecutada por el primer objeto y teniendo el sector una dirección desde una posición actual del primer contacto hacia una dirección asociada a la segunda posición, o posición del segundo contacto. En una realización, la posición actual del primer contacto es un punto final aproximado, o segunda posición, del movimiento del primer contacto. El sector puede generarse desde la posición del primer objeto en una dirección hacia la segunda posición del primer contacto. La zona del sector se superpone en esta realización a los puntos coordenados de la segunda posición. Alternativamente, la dirección del sector desde el primer objeto podría relacionarse con una dirección desde la primera posición hasta la segunda posición.
A modo de ejemplo, si el primer objeto está en las coordenadas (200,50) y una primera posición está en las coordenadas (10,20) y una segunda posición está en las coordenadas (10, 100), el sector apuntaría a la dirección de la dirección Y en la interfaz de usuario desde la posición actual del primer objeto. Se apreciará que los uno o más objetos en el campo de juego pueden tener diferentes orientaciones los unos con respecto a los otros en varios momentos de la partida. Por ejemplo, el primer objeto puede tener una orientación que está oscurecida de una visual de otro objeto que el jugador tiene que eliminar para ganar la partida. En tal caso, el jugador tiene que mover el primer objeto para cambiar la orientación del mismo para que esté en la visual del otro objeto. Posteriormente, el primer objeto tiene que disparar al otro objeto para eliminar el otro objeto de la partida. En tal caso, el jugador ejecuta un contacto de tipo acción desde la posición actual del primer objeto en la primera dirección (tal como una dirección del otro objeto) para generar un sector en la interfaz de usuario. Alternativamente, el jugador ejecuta el contacto de tipo acción desde una posición con respecto a la ubicación actual del primer objeto. En un ejemplo, el usuario ejecuta el contacto de tipo acción desde uno a la izquierda, a la derecha, debajo o encima del primer objeto para generar el sector en la interfaz de usuario. Según una realización, el sector podría representarse en la interfaz de usuario tan pronto como la distancia determinada desde el primer contacto exceda el umbral predeterminado. La acción relacionada con el sector (tal como disparar a la dirección del sector) se ejecuta cuando se detecta la rotura del primer contacto con la interfaz de usuario.
Según una realización, en una realización, ya sea por sí misma o en combinación con las demás realizaciones descritas en la presente memoria, el procesador está configurado además para representar una línea de trayectoria en la interfaz de usuario desde la zona del primer contacto y en la dirección de la segunda posición. Alternativamente, la línea de trayectoria podría representarse desde el primer objeto hasta una dirección que puede derivarse de posiciones relativas de la primera posición y la segunda posición entre sí. En un ejemplo, la línea de trayectoria define el camino de desplazamiento de proyectiles disparados por el primer objeto hacia el otro objeto. El procesador está configurado para ejecutar la acción cuando el procesador detecta la rotura del primer contacto con la interfaz de usuario. Por ejemplo, al romper el jugador el contacto con la interfaz de usuario, los proyectiles se disparan a lo largo del camino definido por la línea de trayectoria hacia el otro objeto. Se apreciará que tal determinación de la orden de acción basada en el tipo de contacto permite una respuesta más rápida, tal como permitir que el primer objeto dispare rápidamente al otro objeto. Además, dicha determinación de la orden de acción permite reducir el uso de mecánicas de juego tales como el autoobjetivo, el autodisparo, etc., posibilitando así una experiencia de juego más emocionante y divertida.
En una realización, el procesador está configurado además para detectar un contacto de movimiento de rotación en la interfaz de usuario después de la acción y para hacer rotar el sector en un sentido en la interfaz de usuario correspondiente al movimiento de rotación. Por ejemplo, puede que el otro objeto haya cambiado su orientación con respecto al primer objeto durante el movimiento del primer objeto. Por consiguiente, el jugador tiene que ajustar el camino de desplazamiento de los proyectiles disparados por el primer objeto en respuesta al cambio de orientación del otro objeto. En tal caso, al ejecutar la acción para generar el sector, el jugador ejecuta un contacto de movimiento de rotación para hacer rotar el sector en un sentido deseado. En un ejemplo, el contacto de movimiento de rotación se ejecuta sin rotura de contacto. En una realización, el contacto de movimiento de rotación es ejecutado mediante el contacto de uno o más dedos del jugador dentro de una zona definida por el sector. Alternativamente, el contacto de movimiento de rotación es ejecutado mediante el contacto de uno o más dedos del jugador en una posición con respecto a la zona definida por el sector. Por ejemplo, uno o más dedos del jugador entran en contacto con la interfaz de usuario sensible al tacto a la izquierda, derecha, encima o debajo de la zona definida por el sector para ejecutar el contacto de movimiento de rotación. Además, tal contacto de movimiento de rotación permite al jugador hacer rotar el sector en sentido dextrógiro y/o en sentido levógiro.
Según una realización, el procesador está configurado para representar un objeto de control en la interfaz de usuario, estando el objeto de control configurado para hacerse rotar en uno o más de un sentido dextrógiro-sentido levógiro para hacer rotar el sector en uno o más de los sentidos dextrógiro-levógiro. En un ejemplo, el objeto de control es un botón de control que puede moverse dentro de una zona circular. En tal caso, la posición del botón de control con respecto a una posición por defecto del mismo (tal como un centro de la zona circular) dentro de la zona circular determina la rotación del sector en uno o más de un sentido dextrógiro-sentido levógiro. En otro ejemplo, el desplazamiento del botón de control desde el centro de la zona circular puede determinar uno o más atributos (tales como una velocidad o un resultado de daño) de proyectiles disparados por el primer objeto. En tal caso, un mayor desplazamiento del botón de control desde la posición por defecto en la zona circular puede hacer que se disparen proyectiles a mayor velocidad en comparación con un menor desplazamiento del botón de control desde la posición por defecto. En un ejemplo, el objeto de control es una palanca de control virtual que se representa en la interfaz de usuario. Puede que el jugador tenga que girar la palanca de control virtual en el sentido dextrógiro y/o en el sentido levógiro para hacer rotar el sector.
En una realización, el procesador está configurado para detectar un patrón dibujado en una primera dirección desde la posición actual del primer objeto a lo largo de la interfaz de usuario después del primer contacto para definir un camino para una acción que ejecutará el primer objeto. En un ejemplo, el primer objeto tiene una o más armas adicionales (tales como granadas) que pueden ser disparadas por el mismo hacia otro objeto. Sin embargo, puede que la trayectoria de una o más armas adicionales no constituya un camino lineal. En tal caso, el jugador dibuja un patrón en la interfaz de usuario para definir el camino para disparar las una o más armas adicionales. En una realización, el procesador está configurado además para determinar una distancia en la interfaz de usuario desde la zona del primer contacto hasta una zona de la rotura, en donde la distancia determina un alcance de la acción. En otra realización, el procesador está configurado además para representar un arco de trayectoria en la interfaz de usuario desde la zona del primer contacto y a lo largo del patrón dibujado sobre la interfaz de usuario. En un ejemplo, el jugador ejecuta una acción de capirotazo sobre la interfaz de usuario, de manera que la acción de capirotazo constituya un arco circular corto. En tal caso, la distancia en la interfaz de usuario desde la zona del primer contacto hasta la zona de la rotura puede definir el alcance de uno o más proyectiles disparados por el primer objeto en respuesta a la acción de capirotazo.
Según una realización, el procesador está configurado para representar uno o más botones en la interfaz de usuario. Por ejemplo, los uno o más botones están asociados a acciones o habilidades especiales que el jugador puede activar realizando un contacto de toque sobre los mismos. En un ejemplo, las acciones especiales son obtenidas por el primer objeto mediante la recolección de recompensas (tales como estrellas) que están ubicadas en diversas zonas de la interfaz de usuario y/o mediante la eliminación de otros jugadores.
En una realización, el procesador está configurado para detectar más de un contacto con la interfaz de usuario. En un ejemplo, el más de un contacto con la interfaz de usuario se asocia al jugador mediante el uso de múltiples dedos para jugar la partida. En un ejemplo, el jugador realiza contactos de toque en múltiples zonas de la interfaz de usuario usando más de un dedo para definir un camino para el movimiento del primer objeto.
La presente descripción también se refiere a un método para controlar una interfaz de usuario de un aparato informático, comprendiendo el aparato informático un procesador configurado para ejecutar instrucciones legibles por máquina, en donde la ejecución de las instrucciones legibles por máquina por el procesador hace que el procesador detecte un primer contacto con la interfaz de usuario. El procesador registra una primera posición del primer contacto. Además, el procesador detecta un movimiento del primer contacto desde la primera posición hasta una segunda posición y determina una distancia del movimiento, o la distancia entre la primera posición y la segunda posición. Además, el procesador compara la distancia determinada con un umbral de movimiento o de distancia predeterminado y determina un tipo del primer contacto. Si el movimiento es menor que un umbral de movimiento predeterminado, cuando se detecta una rotura del primer contacto, un primer objeto en la interfaz de usuario se mueve desde una posición inicial en la interfaz de usuario hasta una zona en o cerca de la primera posición. Si el movimiento es mayor que el umbral de movimiento predeterminado, se identifica una segunda posición correspondiente a una zona cerca de un punto final del movimiento, y cuando se detecta la rotura del primer contacto, se ejecuta una acción en la segunda posición con respecto al primer objeto. La zona cerca de un punto extremo del movimiento puede corresponder a una zona circular con radio X u otra zona geométrica tal como un cuadrado con ancho Y alrededor del punto donde se detecta la rotura del primer contacto. El radio X (o el ancho Y del cuadrado) puede ser de por ejemplo 1-20 %, 3-10 % o 3-5 % del ancho total de la interfaz de usuario. El radio X puede ser por ejemplo desde 1, 2, 3, 5, 7, 9, 10, 12, 14 o 16 % hasta 2, 3, 5, 7, 9, 10, 12, 14, 16, 19 o 20 %.
En una realización, la acción ejecutada por el procesador comprende hacer que el primer objeto dispare a otro objeto presentado en la interfaz de usuario.
Según otra realización, la ejecución de las instrucciones legibles por máquina hace que el procesador presente un indicador en la interfaz de usuario que se extiende desde el primer objeto hacia el punto final cuando el movimiento determinado es mayor que el umbral de movimiento predeterminado. En una realización, el indicador tiene un origen correspondiente a una ubicación actual del primer objeto y un final que se mueve con el movimiento del primer contacto.
Por ejemplo, puede hacerse que el procesador genere un sector en la interfaz de usuario, definiendo el sector un camino para la acción ejecutada por el primer objeto. El sector puede tener una dirección desde una posición actual hacia una dirección asociada a la segunda posición. La asociación podría referirse a ser desde la posición actual hasta la segunda posición. Alternativamente, la asociación podría referirse a comparar una posición relativa de la segunda posición con la primera posición (generando un vector de dirección desde la primera posición hasta la segunda posición y usándolo como una dirección del sector desde la posición actual).
En una realización, la ejecución de las instrucciones legibles por máquina hace que el procesador represente una línea de trayectoria en la interfaz de usuario desde la zona del primer contacto y en la dirección asociada a la segunda posición, teniendo la línea de trayectoria una dirección desde una posición actual hacia una dirección asociada a la segunda posición. La asociación podría referirse a ser desde la posición actual hasta la segunda posición. Alternativamente, la asociación podría referirse a comparar una posición relativa de la segunda posición con la primera posición (generando un vector de dirección desde la primera posición hasta la segunda posición y usándolo como una dirección de la línea de trayectoria desde la posición actual).
En una realización, la ejecución de las instrucciones legibles por máquina por el procesador hace que el procesador detecte un contacto de movimiento de rotación en la interfaz de usuario para hacer rotar el sector en la interfaz de usuario en un sentido que corresponde con el movimiento de rotación.
Según una realización, la ejecución de las instrucciones legibles por máquina hace que el procesador represente un objeto de control en la interfaz de usuario para detectar una rotación del objeto de control en uno o más de un sentido dextrógiro-sentido levógiro y para hacer rotar el sector en uno o más del sentido dextrógiro o levógiro correspondiente a la rotación detectada.
La ejecución de las instrucciones legibles por máquina hace que el procesador ejecute la acción cuando el procesador detecte la rotura del primer contacto de la interfaz de usuario.
Según una realización, la ejecución de las instrucciones legibles por máquina hace que el procesador determine una distancia en la interfaz de usuario desde la zona del primer contacto hasta una zona de la rotura, en donde la distancia determina un alcance de la acción.
El aparato y el método permiten la determinación del tipo de contacto con la interfaz de usuario mediante la comparación de la distancia de movimiento entre la primera posición y la segunda posición con un umbral de distancia predeterminado. Tal determinación permite una fácil identificación de varios tipos de contacto que el usuario puede hacer (tal como movimiento o acción) con la interfaz de usuario. Además, el umbral de distancia predeterminado puede variarse, lo que permite una mayor adaptabilidad en la determinación de tipos de contacto. Adicionalmente, la acción a ejecutarse en la interfaz de usuario con respecto al primer objeto representado en la interfaz de usuario se determina sobre la base de la comparación. Tal comparación permite una determinación más rápida de la acción que realizará el primer objeto, posibilitándose así una experiencia de juego más emocionante y divertida. Además, tal determinación de los tipos de contacto elimina una necesidad de tener controles en pantalla, lo cual permite dejar más sitio en la interfaz de usuario y permite proporcionar más espacio para la presentación de elementos importantes y/o de información asociada a un juego.
Descripción detallada de los dibujos
La Fig. 1 es un diagrama de bloques de un aparato 100 según una realización de la presente descripción. Tal y como se muestra, el aparato 100 comprende una interfaz 102 de usuario sensible al tacto, un procesador 104 y una unidad 106 de determinación de distancia.
Las Figs. 2A, 2B y 2C son de una interfaz 200 de usuario del aparato 100 de la Fig. 1, según una realización de la presente descripción. Tal y como se muestra, la interfaz 200 de usuario comprende un campo 202 de juego y un primer objeto 204 (personaje controlado por el jugador). El campo 202 de juego comprende además otros objetos 206 (personaje controlador por otro jugador) y 208 (personaje controlado por ordenador). El campo 202 de juego también comprende varios obstáculos, tales como una pared 210. Tal y como se muestra, la interfaz 200 de usuario comprende además indicadores 212 y un botón 214. Con referencia a la Fig. 2A, un primer contacto 216 se detecta con la interfaz 200 de usuario en una primera posición (X1, Y1). Se detecta un movimiento del primer contacto 216 y se determina la distancia del movimiento con respecto a la primera posición del primer contacto 216. Si el movimiento permanece dentro de un círculo C 217 que tiene un punto medio (X1, Y1) y un radio d del umbral de distancia predeterminado, se determina que un tipo del primer contacto 216 es una orden de movimiento. En este ejemplo, el radio d mostrado en la Fig. 2A define el umbral de movimiento predeterminado o distancia.
En este ejemplo, la orden de movimiento está configurada para hacer que el primer objeto 204 se mueva desde una zona de su posición actual 224 en la interfaz 200 de usuario hasta una zona del primer contacto 216 cuando se detecte una rotura del primer contacto 216 de la interfaz de usuario. La zona del primer contacto puede referirse a la zona en o cerca del punto donde se detecta la rotura del primer contacto 216 de la interfaz de usuario. La zona puede ser sustancialmente igual al círculo C 217.
Con referencia también a la Fig. 2B, si se determina que el movimiento detectado del primer contacto 216 desde la primera posición (X1, Y1) se prolonga o sale del círculo C 217 que tiene el punto medio (X1, Y1), es decir, el círculo C 217 que representa el radio d del umbral de distancia predeterminado, se determina que un tipo del primer contacto 216 es un contacto de acción.
En este ejemplo, tal como se muestra en la Fig. 2B, en la interfaz 200 de usuario se representa un sector 226. En el ejemplo de la Fig. 2B, el sector 226, que se ha ilustrado en general con forma de cono, se extiende en una dirección que tiene un origen en o cerca de la posición 224 del primer objeto 204. El otro extremo del sector 226, que en este ejemplo es más ancho que el origen, se extiende en general a una zona en o cerca de la segunda posición (X2, Y2).
En una realización, el sector 226 puede generarse cuando se detecta un cese del movimiento de la interfaz 200 de usuario. En una realización alternativa, el sector 226 puede generarse tan pronto se determina que el movimiento se prolonga más allá del radio d. Por ejemplo, esto incluye cuando se determina que la distancia entre (X1, Y1) y (X2, Y2) o desde (X1, Y1) a (X2, Y2) es mayor que d. Aunque la ilustración del sector 226 se muestra de manera general en la presente memoria como un indicador de forma cónica, los aspectos de las realizaciones descritas no se limitan a esto. En realizaciones alternativas, el sector 226 puede presentarse en la interfaz 200 de usuario en cualquier forma adecuada que ilustre generalmente una región o zona en la que puede tener lugar la acción, tal y como se describe con mayor detalle en la presente memoria.
Cuando se detecta una suelta de la interfaz de usuario, se ejecuta una acción, tal como un disparo. El choque tiene lugar en la dirección del sector 226. Alternativamente (tal y como se ilustra en la Fig. 2C), el aparato puede estar configurado para representar el sector 226 en una dirección de un vector de dirección v con respecto al primer objeto 204. El vector de dirección v es un vector definido por coordenadas (X1, Y1) y (X2, Y2).
En el ejemplo de la Fig. 2A, para que el tipo del primer contacto 216 sea una orden de movimiento, el “ movimiento” del primer contacto 216 puede ser cualquier movimiento que no se prolongue más allá del radio r del círculo C 217. Este “ movimiento” puede incluir cualquier movimiento dentro del círculo C 217 o ningún movimiento en absoluto.
Por ejemplo, el primer contacto 216 puede moverse cualquier distancia determinada durante cualquier periodo de tiempo dentro del círculo C 217. Esto puede incluir un movimiento de rotación, tal como un movimiento circular del primer contacto 216, durante cualquier número de rotaciones. Siempre que el movimiento del primer contacto 216 no se prolongue más allá del radio d del círculo C 217, antes de una rotura del primer contacto 216 se determinará que el tipo del primer contacto 216 es una orden de movimiento.
A modo de otro ejemplo, el movimiento del primer contacto 216 podría ser un movimiento de vaivén. De nuevo, siempre y cuando el movimiento no rebase el límite del círculo C 217 definido por el radio d, antes de la rotura del primer contacto 216, se determinará que el tipo del primer contacto 216 es una orden de movimiento.
El movimiento podría ser también ningún movimiento en absoluto. Por ejemplo, el primer contacto 216 podría ser un contacto sustancialmente estacionario en un punto o posición dentro del círculo C 217. En este ejemplo, también se determinará que el tipo de movimiento es una orden de movimiento.
Si en cualquier momento antes de la rotura del primer contacto 216 se detecta que el movimiento va más allá del radio d del círculo C 217, se determinará que el tipo de movimiento es una orden de acción. Por ejemplo, se determina que el movimiento del primer contacto 216 cruza el límite del círculo C 217, tal y como queda definido por el radio d, que representa el umbral de movimiento predeterminado. En este momento, se determinará que el movimiento del primer contacto 216 es un movimiento de acción, tal y como se define generalmente en la presente memoria.
En una realización, aunque el movimiento del primer contacto 216 vuelva dentro del límite del círculo C 217 definido por el radio d después de que se determine que el movimiento se prolonga más allá del límite, se determinará que el tipo de movimiento es una orden de acción. Por lo tanto, con referencia al ejemplo de la Fig. 2B, si el movimiento del primer contacto 216 se prolonga hasta aproximadamente el punto (X2, Y2) más allá del radio d y, después, de vuelta a aproximadamente el punto (X1, Y1) dentro del radio d, antes de una detección de la rotura del primer contacto 216 de la interfaz 200 de usuario, se determinará que el tipo de movimiento es una orden de acción.
En otras palabras, si el movimiento del primer contacto 216 se prolonga más allá del radio d en cualquier momento antes de que se detecte una rotura del primer contacto 216, aunque sea ligeramente y solo momentáneamente, se determinará que el tipo de movimiento es una orden de acción. Si el movimiento del primer contacto 216 permanece dentro de los confines del límite del círculo C 217 definido por el radio d, independientemente de cuánto movimiento haya, se determinará que el tipo de movimiento es una orden de movimiento.
El umbral de movimiento predeterminado definido por el radio d en la Fig. 2A puede ser un umbral definido por el usuario. El valor debe establecerse para que el valor d sea el valor mínimo de movimiento. Por lo tanto, si el movimiento se sale o va más allá del radio d, el movimiento es una orden de tipo acción. Si el movimiento permanece dentro del límite marcado por el radio d, el movimiento es un tipo de orden de movimiento. Además, el umbral de movimiento predeterminado puede ser un listón de cualquier forma arbitraria, es decir, no se limita a un círculo con un radio. La forma puede ser ovalada, rectangular, triangular, etc. En el caso de visualizadores tridimensionales (3D), la forma puede incluir cualquier objeto 3D geométrico tal como una esfera o un cubo, en donde el umbral de movimiento predeterminado sería una superficie exterior de tal forma geométrica.
La Fig. 3 muestra una interfaz 300 de usuario del aparato 100 de la Fig. 1 según otra realización de la presente descripción. Tal y como se muestra, se ha representado un sector 306 en una primera dirección desde la posición actual 304 del primer objeto 204 a través de la interfaz 300 de usuario. El sector 306 define un trayecto para la acción 308 ejecutada por el primer objeto 204. Además, la acción 308 comprende disparar por parte del primer objeto 204 a otro objeto 208 en la interfaz 300 de usuario. Adicionalmente, en la interfaz 300 de usuario se representa una línea 310 de trayectoria desde la zona de la posición actual 304 y en la dirección de una segunda posición 302.
La Fig. 4 muestra una interfaz 400 de usuario del aparato 100 de la Fig. 1 según aún otra realización de la presente descripción. Tal y como se muestra, en la interfaz 400 de usuario se ha detectado un movimiento 402 de rotación de un primer contacto 404. Además, el sector 302 se ha hecho rotar en una dirección en la interfaz 400 de usuario correspondiente al movimiento 402 de rotación.
La Fig. 5 muestra una interfaz 500 de usuario del aparato 100 de la Fig. 1 según una realización de la presente descripción. Tal y como se muestra, en la interfaz 500 de usuario se ha detectado un contacto 502 de movimiento de rotación, en donde el contacto 502 de movimiento de rotación se ha realizado encima de una zona definida por el sector 306. Además, el sector 306 se ha hecho rotar en una dirección en la interfaz 500 de usuario correspondiente al movimiento 502 de rotación.
La Fig. 6 muestra una interfaz 600 de usuario del aparato 100 de la Fig. 1 según otra realización de la presente descripción. Tal y como se muestra, en la interfaz 600 de usuario se ha representado un objeto 602 de control, configurado el objeto 602 de control para hacerse rotar en uno o más de un sentido dextrógiro y un sentido levógiro para hacer rotar el sector 306 en uno o más del sentido dextrógiro o levógiro.
La Fig. 7 muestra una interfaz 700 de usuario del aparato 100 de la Fig. 1 según aún otra realización más de la presente descripción. Tal y como se muestra, en la interfaz 700 de usuario se ha detectado un patrón 702 dibujado, definiendo el patrón 702 un trayecto para una acción 704 ejecutada por el primer objeto 204. Además, la acción 704 comprende descargar un proyectil a lo largo del trayecto definido por el patrón dibujado 702.
La Fig. 8 ilustra pasos de un método 800 para controlar una interfaz de usuario de un aparato informático. El aparato informático comprende un procesador configurado para ejecutar instrucciones legibles por máquina. En un paso 802, se detecta un primer contacto con la interfaz de usuario. En un paso 804, se registra una primera posición del primer contacto. En un paso 806, se detecta un movimiento del primer contacto (punto) dentro de la interfaz de usuario desde la primera posición hasta una segunda posición. En un paso 808, se determina una distancia entre la primera posición y la segunda posición. En un paso 810, la distancia determinada se compara con un umbral de distancia predeterminado. En un paso 812, sobre la base de la comparación se determinan un tipo del primer contacto y una acción que se ejecutará en la interfaz de usuario con respecto a un primer objeto representado en la interfaz de usuario.
Los pasos 802 a 812 son meramente ilustrativos, y pueden proporcionarse otras alternativas en las cuales se incorporen uno o más pasos, se eliminen uno o más pasos o se proporcionen uno o más pasos en una secuencia diferente sin salirse del alcance de las reivindicaciones de la presente memoria tal y como se han ilustrado anteriormente.
Es posible realizar modificaciones a las realizaciones de la presente descripción descritas anteriormente sin salirse del ámbito de la presente descripción definido por las reivindicaciones adjuntas. Se pretende que expresiones tales como “que incluye” , “que comprende” , “que incorpora” , “tiene” o “es” , utilizadas para describir y reivindicar la presente descripción, se interpreten de un modo no exclusivo, a saber, permitiendo que también estén presentes artículos, componentes o elementos no descritos explícitamente. También debe interpretarse que el singular se refiere al plural.

Claims (18)

REIVINDICACIONES
1. Un aparato (100) que comprende:
- una interfaz (102, 200, 300, 400, 500, 600, 700) de usuario sensible al tacto; y - un procesador (104) que puede funcionar para presentar en la interfaz de usuario sensible al tacto un icono asociado a una aplicación instalada en el aparato, y para recibir una o más entradas proporcionadas por un usuario del aparato mediante el uso de la interfaz de usuario sensible al tacto y para proporcionar una respuesta correspondiente;
en donde el procesador está configurado para:
- iniciar la aplicación en respuesta a un contacto de toque por parte del usuario sobre el icono asociado a la aplicación;
- provocar una visualización de un objeto (204) controlado por el usuario en una posición inicial y de uno o más otros objetos en la interfaz de usuario sensible al tacto;
- detectar, mientras se inicia la aplicación, un contacto (216, 404) en una primera posición en la interfaz de usuario;
- detectar una rotura de dicho contacto de la interfaz de usuario;
- determinar un movimiento de dicho contacto desde la primera posición;
- comparar el movimiento con un umbral de movimiento predeterminado; y
- si el movimiento es menor que el umbral de movimiento predeterminado, cuando se detecte la rotura de dicho contacto, mover el objeto (204) controlado por el usuario en la interfaz de usuario desde la posición inicial en la interfaz de usuario hasta una zona en o cerca de la primera posición; o
- si el movimiento es mayor que el umbral de movimiento predeterminado:
- identificar una segunda posición correspondiente a una zona cerca de un punto final del movimiento; y
- cuando se detecte la rotura de dicho contacto, ejecutar una acción en la segunda posición con respecto al objeto controlado por el usuario, en donde un rango del umbral de movimiento predeterminado está entre 3 % y 12 % de una distancia entre lados opuestos de la interfaz de usuario.
2. El aparato según la reivindicación 1, en donde cuando el movimiento determinado es mayor que el umbral de movimiento predeterminado, se presenta un indicador en la interfaz de usuario que se extiende desde el objeto (204) controlado por el usuario hacia el punto final.
3. El aparato según la reivindicación 2, en donde el indicador tiene un origen correspondiente a una ubicación actual del objeto (204) controlado por el usuario y un final que se mueve con el movimiento del contacto (216, 404).
4. El aparato según la reivindicación 3, en donde el indicador adopta una forma de cono sectorial.
5. El aparato según la reivindicación 4, en donde el procesador está configurado para hacer rotar el cono sectorial en relación con el origen en el objeto (204) controlado por el usuario correspondiente al movimiento del primer contacto (216, 404).
6. El aparato según la reivindicación 5, en donde el procesador está configurado además para detectar un contacto (502) de movimiento de rotación en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario y hacer rotar el cono sectorial en un sentido en la interfaz de usuario correspondiente al movimiento (402, 502) de rotación.
7. El aparato según una cualquiera de las reivindicaciones anteriores, en donde la acción comprende un disparo por parte del objeto (204) controlado por el usuario a otro objeto presentado en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario en o cerca de la segunda posición.
8. El aparato según una cualquiera de las reivindicaciones anteriores, en donde el procesador está configurado para representar un objeto (602) de control en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario, estando el objeto de control configurado para hacerse rotar en uno o más de un sentido dextrógiro y un sentido levógiro para hacer rotar el indicador en uno o más del sentido dextrógiro o levógiro.
9. El aparato según una cualquiera de las reivindicaciones anteriores, en donde el procesador está configurado además para representar una línea de trayectoria en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario entre la segunda posición y la posición del objeto (204) controlado por el usuario cuando el movimiento determinado es mayor que el umbral de movimiento predeterminado.
10. El aparato según una cualquiera de las reivindicaciones anteriores, en donde el procesador está configurado además para determinar una segunda distancia en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario entre la segunda posición y la posición inicial del objeto (204) controlado por el usuario cuando el movimiento determinado es mayor que el umbral predeterminado, en donde el procesador utiliza la segunda distancia para determinar un alcance de la acción.
11. Un método para controlar una interfaz (102, 200, 300, 400, 500, 600, 700) de usuario de un aparato informático (100), comprendiendo el aparato informático una interfaz (102, 200, 300, 400, 500, 600, 700) de usuario sensible al tacto y un procesador (104) que puede funcionar para presentar en la interfaz de usuario sensible al tacto un icono asociado a una aplicación instalada en el aparato, y recibir una o más entradas proporcionadas por un usuario del aparato mediante el uso de la interfaz de usuario sensible al tacto y proporcionar una respuesta correspondiente, y configurado además para ejecutar instrucciones legibles por máquina, en donde la ejecución de las instrucciones legibles por máquina por el procesador hace que el procesador:
- inicie la aplicación en respuesta a un contacto de toque por parte del usuario sobre el icono asociado a la aplicación;
- provoque una visualización de un objeto (204) controlado por el usuario en una posición inicial y de uno o más otros objetos en la interfaz de usuario sensible al tacto;
- detecte un contacto (216, 404) en una primera posición en la interfaz de usuario;
- detecte una rotura de dicho contacto del usuario;
- determine un movimiento del contacto desde la primera posición;
- compare el movimiento con un umbral de movimiento predeterminado; y
- si el movimiento es menor que el umbral de movimiento predeterminado, cuando se detecte la rotura de dicho contacto, mueva el objeto (204) controlado por el usuario en la interfaz de usuario desde la posición inicial en la interfaz de usuario hasta una zona en o cerca de la segunda posición; o
- si el movimiento es mayor que el umbral de movimiento predeterminado:
- identifique una segunda posición correspondiente a una zona cerca de un punto final del movimiento; y
- cuando se detecte la rotura de dicho contacto, ejecutar una acción en la segunda posición con respecto al objeto controlado por el usuario,
en donde un rango del umbral de movimiento predeterminado está entre 3 % y 12 % de una distancia entre lados opuestos de la interfaz de usuario.
12. El método según la reivindicación 11, en donde el método comprende además que el procesador (104), al ejecutar las instrucciones legibles por máquina, provoque una presentación de un indicador en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario que se extienda desde el objeto (204) controlado por el usuario hacia el punto final cuando el movimiento determinado sea mayor que el umbral de movimiento predeterminado.
13. El método según la reivindicación 12, en donde el método incluye que el procesador (104) haga que el indicador rote en relación con el origen en el objeto (204) controlado por el usuario correspondiente al movimiento del primer contacto (216, 404).
14. El método según la reivindicación 13, en donde el método incluye que el procesador (104) detecte un contacto (502) de movimiento de rotación en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario y haga rotar el indicador en un sentido en la interfaz de usuario que corresponda al movimiento (402, 502) de rotación.
15. El método según una cualquiera de las reivindicaciones 11-14, en donde la acción comprende un disparo por parte del objeto (204) controlado por el usuario a otro objeto presentado en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario en o cerca de la segunda posición.
16. El método según una cualquiera de las reivindicaciones 11-15, en donde el método incluye que el procesador (104) provoque una representación de un objeto (602) de control en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario, estando el objeto de control configurado para hacerse rotar en uno o más de un sentido dextrógiro-sentido levógiro para hacer rotar el indicador en uno o más de los sentidos dextrógiro o levógiro.
17. El método según una cualquiera de las reivindicaciones 11-16, en donde el método incluye que el procesador (104) provoque una representación de una línea de trayectoria en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario entre la segunda posición y la posición del objeto (204) controlado por el usuario cuando el movimiento determinado sea mayor que el umbral de movimiento predeterminado.
18. El método según una cualquiera de las reivindicaciones 11-17, en donde el método comprende que el procesador (104) determine una segunda distancia en la interfaz (102, 200, 300, 400, 500, 600, 700) de usuario entre la segunda posición y la posición inicial del objeto (204) controlado por el usuario cuando el movimiento determinado sea mayor que el umbral predeterminado, en donde el procesador utiliza la segunda distancia para determinar un alcance de la acción.
ES18730022T 2017-06-09 2018-05-28 Aparato y método para controlar una interfaz de usuario de un aparato informático Active ES2891317T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/618,179 US10413814B2 (en) 2017-06-09 2017-06-09 Apparatus and method for controlling user interface of computing apparatus
PCT/FI2018/050401 WO2018224728A1 (en) 2017-06-09 2018-05-28 Apparatus and method for controlling user interface of computing apparatus

Publications (1)

Publication Number Publication Date
ES2891317T3 true ES2891317T3 (es) 2022-01-27

Family

ID=62563178

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18730022T Active ES2891317T3 (es) 2017-06-09 2018-05-28 Aparato y método para controlar una interfaz de usuario de un aparato informático

Country Status (7)

Country Link
US (4) US10413814B2 (es)
EP (1) EP3635526B1 (es)
JP (1) JP7229942B2 (es)
KR (1) KR102495380B1 (es)
CN (1) CN110678835A (es)
ES (1) ES2891317T3 (es)
WO (1) WO2018224728A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10413814B2 (en) * 2017-06-09 2019-09-17 Supercell Oy Apparatus and method for controlling user interface of computing apparatus
US10786734B2 (en) 2019-02-20 2020-09-29 Supercell Oy Method for facilitating user interactions in gaming environment
CN109966738B (zh) * 2019-02-22 2020-07-31 网易(杭州)网络有限公司 信息处理方法、处理装置、电子设备和存储介质
US20230368335A1 (en) * 2022-05-11 2023-11-16 Supercell Oy Method for rendering user interface and computing device therefor

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001149643A (ja) * 1999-09-16 2001-06-05 Sony Computer Entertainment Inc 3次元ゲームにおけるオブジェクト表示方法、情報記録媒体およびエンタテインメント装置
JP5466435B2 (ja) 2009-06-16 2014-04-09 任天堂株式会社 情報処理プログラムおよび情報処理装置
CN101963863B (zh) * 2010-09-30 2015-07-08 华为终端有限公司 用户触摸操作模式自适应的方法和装置
JP5894380B2 (ja) * 2011-06-15 2016-03-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP5285789B2 (ja) * 2012-02-16 2013-09-11 株式会社コナミデジタルエンタテインメント ゲーム装置及びこれに用いるコンピュータプログラム
KR101398086B1 (ko) 2012-07-06 2014-05-30 (주)위메이드엔터테인먼트 온라인 게임에서의 유저 제스처 입력 처리 방법
JP5563633B2 (ja) * 2012-08-31 2014-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
EP2772867A1 (en) * 2013-02-28 2014-09-03 Assistance Publique, Hopitaux De Paris Method for assessing activity of an Autoinflammatory Disease
KR20140135275A (ko) * 2013-05-06 2014-11-26 (주)위메이드엔터테인먼트 모바일 게임에서의 유저 캐릭터 조작 방법
US10549180B2 (en) * 2013-09-30 2020-02-04 Zynga Inc. Swipe-direction gesture control for video games using glass input devices
KR102319286B1 (ko) * 2014-08-13 2021-10-29 삼성전자 주식회사 드래그 앤 드롭 처리 방법 및 장치
CN104436657B (zh) * 2014-12-22 2018-11-13 青岛烈焰畅游网络技术有限公司 游戏控制方法、装置以及电子设备
US10095396B2 (en) * 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9875020B2 (en) * 2015-07-14 2018-01-23 King.Com Ltd. Method for capturing user input from a touch screen and device having a touch screen
CN105183214B (zh) * 2015-08-04 2017-12-19 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN105214306B (zh) * 2015-09-02 2017-03-08 网易(杭州)网络有限公司 一种游戏角色控制方法及一种虚拟控制部件的控制方法
CN105194871B (zh) * 2015-09-14 2017-03-22 网易(杭州)网络有限公司 一种控制游戏角色的方法
US9870080B2 (en) * 2015-09-18 2018-01-16 Synaptics Incorporated Method, system, and device for controlling a cursor or user interface action as a function of touch and force input
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
JP6043448B1 (ja) * 2016-02-25 2016-12-14 株式会社コロプラ ゲームプログラム
US10413814B2 (en) * 2017-06-09 2019-09-17 Supercell Oy Apparatus and method for controlling user interface of computing apparatus

Also Published As

Publication number Publication date
US20200016483A1 (en) 2020-01-16
EP3635526A1 (en) 2020-04-15
US20180353849A1 (en) 2018-12-13
JP2020522298A (ja) 2020-07-30
KR102495380B1 (ko) 2023-02-02
US20230277923A1 (en) 2023-09-07
JP7229942B2 (ja) 2023-02-28
US11590414B2 (en) 2023-02-28
WO2018224728A1 (en) 2018-12-13
EP3635526B1 (en) 2021-07-28
KR20200015587A (ko) 2020-02-12
US11045720B2 (en) 2021-06-29
CN110678835A (zh) 2020-01-10
US20210322866A1 (en) 2021-10-21
US10413814B2 (en) 2019-09-17

Similar Documents

Publication Publication Date Title
ES2891317T3 (es) Aparato y método para controlar una interfaz de usuario de un aparato informático
JP2010017395A (ja) プログラム、情報記憶媒体及びゲーム装置
US20140357356A1 (en) Character battle system controlled by user's flick motion
JP6193586B2 (ja) プログラム、システム、および、方法
JP6217000B2 (ja) ゲーム装置及びプログラム
JP6450875B1 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP2020018690A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP7477804B2 (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
JP2023082039A (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
JP6672401B2 (ja) ゲームプログラム、方法、および情報処理装置
JP2020000735A (ja) プログラム、方法、および情報処理装置
JP2020110453A (ja) ゲームプログラム、方法、および情報処理装置
JP7345093B2 (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
KR101570681B1 (ko) 부대 발사를 이용한 전투 게임 시스템 및 방법
JP6668425B2 (ja) ゲームプログラム、方法、および情報処理装置
JP7252915B2 (ja) ゲームプログラム、方法、および情報処理装置
JP6661595B2 (ja) ゲームプログラム、方法および情報処理装置
KR20170004658A (ko) 부대 발사를 이용한 전투 게임 시스템 및 방법
JP6307651B1 (ja) ゲームプログラム、方法、および、情報処理装置
JP2023122713A (ja) 方法、記録媒体および情報処理装置
JP2020089494A (ja) ゲームプログラム、ゲーム表示方法及びゲーム端末
JP2020080878A (ja) ゲームプログラム、方法、および情報処理装置
JP2020058665A (ja) ゲームプログラム、方法、および情報処理装置
JP2020116179A (ja) ゲームプログラム、方法、および情報処理装置