ES2308395T3 - Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa. - Google Patents

Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa. Download PDF

Info

Publication number
ES2308395T3
ES2308395T3 ES05251275T ES05251275T ES2308395T3 ES 2308395 T3 ES2308395 T3 ES 2308395T3 ES 05251275 T ES05251275 T ES 05251275T ES 05251275 T ES05251275 T ES 05251275T ES 2308395 T3 ES2308395 T3 ES 2308395T3
Authority
ES
Spain
Prior art keywords
point
image
virtual space
virtual
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05251275T
Other languages
English (en)
Inventor
Masayuki c/o Sega Corporation Sumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Application granted granted Critical
Publication of ES2308395T3 publication Critical patent/ES2308395T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/646Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car for calculating the trajectory of an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un dispositivo generador de imagen, que comprende: medios de procesamiento de imagen (34) para colocar un objeto como blanco (CR) y un punto de vista en un espacio virtual, y generar una imagen de dicho objetivo como blanco visto desde dicho punto de vista; una unidad de exposición (28) para exponer la imagen generada con dichos medios de procesamiento de imagen; medios operacionales (10) a ser operados por un jugador para apuntarle a un objetivo expuesto en dicha unidad de exposición; medios de detección (20, 22) para detectar al menos o la posición espacial o la dirección de dichos medios operacionales en relación con dicha unidad de exposición; y medios de control (32) para ejecutar un programa que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego (M) establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional; en el que dicho medio de control, al recibir la señal de operación de dicho medio operacional, determina una posición del punto de partida (N) desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación (Q) a la que arriba el cuerpo de descarga disparado desde dicha posición de fuego basada en la señal de detección recibida de dicho medio de detección, hace que dicho medios de procesamiento de imagen generen una imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y expone dicha imagen de la trayectoria en dicha unidad de exposición.

Description

Dispositivo de generación de imágenes, método de exposición y producto de programa.
1. Campo de la invención
La presente invención se refiere a la tecnología de procesamiento de imágenes apropiada para dispositivos de juegos y para diversos simuladores (dispositivos de realidad virtual) que llevan a cabo la exposición tridimensional de la imagen.
2. Descripción de la técnica relacionada
Se conoce de manera convencional un dispositivo de juego para dispararle a un personaje como blanco (e. g. un enemigo tal como una persona) que aparece en la pantalla utilizando un controlador en forma de pistola que tiene una configuración que imita a una pistola. Con este tipo de juego de disparos o similar, en adición al juego que se juega al manipular a un personaje como jugador que se expone en la pantalla, hay un juego que lleva a cabo un denominado punto de vista en primera persona al exponer el status en el espacio virtual (espacio de juego) visto en la pantalla desde el punto de vista del operador. Como un resultado del punto de vista en primera persona que se expone como una imagen, el operador será capaz de disfrutar de una sensación de apuntar a un objeto como blanco (un personaje enemigo, por ejemplo) en el espacio virtual desde la boca del cañón del controlador en forma de pistola operado por tal operador en el espacio real. La tecnología de exposición de imágenes del punto de vista de tal primera persona se describe, por ejemplo, en la Publicación Abierta de la Patente Japonesa No. H8 69 274.
En un juego de disparos, es preferible adoptar el método de exposición exponiendo la trayectoria del proyectil disparado desde la pistola del personaje del juego ya que la expresividad de la imagen del juego se enriquecerá. No obstante, al adoptar la expresión de la imagen del punto de vista de primera persona antes descrito, era difícil expresar efectivamente la trayectoria del proyectil. Específicamente, al adoptar la expresión de la imagen del punto de vista de primera persona, de manera general, se establece como el punto de vista virtual, una posición que se corresponde a grandes rasgos con el punto de vista del operador o una posición de la boca del cañón cercana a tal posición y se genera una imagen bidimensional (imagen de juego) realizando la transformación proyectiva al interior de la imagen del juego y proyectando ésta en un plano de proyección prescrito en correspondencia con este punto de vista virtual. No obstante, cuando la posición de este punto de vista virtual se establece en el punto de vista del operador o en una posición en su vecindad, como la trayectoria del proyectil se dirigirá también a la posición a la que se apunta desde el punto de vista virtual o a una posición en su vecindad, la trayectoria en la imagen bidimensional obtenida conforme a la transformación proyectiva será expuesta en un patrón aproximado del tipo de puntos, y la trayectoria del proyectil no podrá expresarse suficientemente.
Sumario
Por tanto, un objeto de la presente invención radica en proveer una tecnología que permita la expresión efectiva de la trayectoria de un proyectil o similar que se dirige desde el lado del operador hacia el espacio virtual en un dispositivo de exposición de imagen adoptando por tanto el punto de vista de primera persona.
En el primer aspecto de la presente invención, se provee un dispositivo de generación de imagen, que comprende: el medio de procesamiento de imagen para colocar un objeto como blanco y un punto de vista en un espacio virtual, y generando una imagen de dicho objeto como blanco visto desde dicho punto de vista; una unidad de exposición para exponer la imagen generada con dicho medio de procesamiento de imagen; medios operacionales para ser operados por un jugador para apuntar a un objeto como blanco expuesto en dicha unidad de exposición; medios de detección para detectar al menos o la posición espacial o la dirección de dicho medio operacional en relación con dicha unidad de exposición; y medios de control para ejecutar un programa que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional; en el que dicho medio de control, al recibir la señal de operación de dicho medio operacional, determina una posición del punto de partida desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación al cual arriba el cuerpo de descarga disparado desde dicha posición del punto de partida basado en la señal de detección recibida de dicho medio de detección, hace que dicho medio de procesamiento de imagen genere una imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y expone dicha imagen de la trayectoria en dicho unidad de exposición.
Aquí el término "medio operacional" puede ser un controlador que puede sostener o portar el operador para dar entrada a diversas instrucciones operacionales, y, aunque no hay límite a su configuración, es preferible que tal controlador esté conformado en una configuración asociada con la imagen generada con el medio de generación de imagen. Como tipo de este medio operacional, por ejemplo, hay un controlador en forma de pistola que tiene una configuración que imita diversos tipos de pistolas (pistola, rifle, escopeta láser, etc.). Aquí, el término "objeto" se refiere a los diversos objetos que se colocan en el espacio virtualmente establecido (espacio virtual), y, aunque no hay límite a su contenido, pueden utilizarse diversos elementos tales como personajes humanos o animales, objetos tales como obstáculos o edificios, o elementos que constituyan el telón de fondo. Es más, "un objeto como blanco" es un "objeto" antes descrito que se convierte en blanco de la acción tal como un juego de disparos (e. g. un objeto a convertirse en el personaje enemigo). Más aún, un "cuerpo de descarga" por ejemplo, se corresponde con un proyectil o similar en un juego de disparos.
En correspondencia con la constitución precedente, como la imagen de la trayectoria se expone en una zona que comienza desde una posición que es diferente a la de la posición de fuego del cuerpo de descarga, la trayectoria en la imagen bidimensional después de la transformación proyectiva no será un patrón de puntos que exprese la trayectoria de un proyectil en un juego de disparos o que exprese de otra manera las imágenes similares a ésta. Por tanto, por ejemplo, será posible expresar efectivamente la trayectoria de un proyectil o similar dirigiéndose desde el lado del jugador hacia el espacio virtual en un dispositivo de exposición de imagen de juegos y al hacerlo adoptar el punto de vista de primera persona. En correspondencia con la presente invención, en adición a la trayectoria de un proyectil, por ejemplo, se posibilita la expresión efectiva de las imágenes en varios casos como cuando se expresa una imagen apuntando a una posición deseada en el espacio virtual con un puntero láser como medio operacional.
Preferiblemente, el medio de control coloca un objeto de la trayectoria en el espacio virtual que cubre una parte o la totalidad de una línea virtual dirigiéndose desde la posición del punto de partida a la posición del punto de terminación, hace que el medio de procesamiento de imagen genere la imagen de la trayectoria proyectando el objeto de la trayectoria en el plano de proyección del punto de vista de un sistema de coordenadas del punto de vista y expone la imagen de la trayectoria en la unidad de exposición.
Por tanto, puede generarse con facilidad una imagen de la trayectoria.
Preferiblemente, cuando el objeto como blanco que intersecta la línea virtual existe en el espacio virtual, el medio de control establece la posición del punto de terminación en el punto de intersección del objeto como blanco y la línea virtual.
Por tanto, una imagen de la trayectoria será expuesta en la zona desde una posición prescrita en la parte frontal (lado del operador) hacia el punto de intersección con el objeto como blanco. Por tanto, esto es preferible ya que puede llevarse a cabo más acertadamente la expresión de la trayectoria sobre un proyectil que golpea al objeto tal como un personaje enemigo en un juego de disparos o similar, o la expresión de indicar una posición prescrita de un objeto con un puntero de láser.
Preferiblemente, cuando el objeto como blanco que intersecta la línea virtual no existe en el espacio virtual, el medio de control establece una distancia infinita aproximada en la línea virtual como posición del punto de terminación.
Por tanto, esto es preferible ya que la expresión de la trayectoria sobre un proyectil que no golpeó el objeto tal como un personaje enemigo en un juego de disparos o similar que vuela a una distancia puede llevarse a cabo más acertadamente.
En el segundo aspecto de la presente invención, se provee un método de exposición de imagen de un dispositivo de generación de imagen, que comprende: el medio de procesamiento de imagen para colocar un objeto como blanco y un punto de vista en un espacio virtual, y generando una imagen de dicho objeto como blanco visto desde dicho punto de vista; una unidad de exposición para exponer la imagen generada con dicho medio de procesamiento de imagen; medios operacionales para ser operados por un jugador para apuntar a un objeto como blanco expuesto en dicha unidad de exposición; medios de detección para detectar al menos o la posición espacial o la dirección de dicho medio operacional en relación con dicho monitor; y medios de control para ejecutar un programa que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional; en el que dicho medio de control lleva a cabo: un paso de determinar, al recibir la señal operacional de dicho medio operacional, una posición del punto de partida desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación al cual arriba el cuerpo de descarga disparado desde dicha posición del punto de partida basada en la señal de detección recibida de dicho medio de detección; y un paso de hacer que dicho medio de procesamiento de imagen genere la imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y exponiendo dicha imagen de la trayectoria en dicha unidad de exposición.
Por tanto, la expresión efectiva de la trayectoria de un proyectil o similar que se dirige del lado del jugador hacia el espacio virtual se propicia en un dispositivo de exposición de imagen de juegos y al hacerlo adopta el punto de vista de primera persona.
Preferiblemente, el medio de control lleva a cabo: un paso de colocar un objeto de la trayectoria en el espacio virtual que cubre una parte o la totalidad de una línea virtual dirigida desde la posición del punto de partida a la posición del punto de terminación; y un paso de hacer que el medio de procesamiento de imagen genere la imagen de la trayectoria al proyectar el objeto de la trayectoria sobre el plano de proyección del punto de vista de un sistema de coordenadas del punto de vista, y exponiendo la imagen de la trayectoria en la unidad de exposición.
Preferiblemente, el medio de control lleva a cabo: un paso de determinación de si el objeto como blanco que intersecta la línea virtual existe en el espacio virtual; y un paso de establecimiento de la posición del punto de terminación en el punto de intersección del objeto como blanco y la línea virtual cuando el objeto existe.
Preferiblemente, el medio de control lleva a cabo: un paso de determinación de si el objeto como blanco que intersecta la línea virtual existe en el espacio virtual; y un paso de establecimiento de una distancia infinita aproximada en la línea virtual como la posición del punto de terminación cuando el objeto como blanco no existe.
En el tercer aspecto de la presente invención, se provee un producto de programa para ser ejecutado con un sistema de procesamiento de imagen que incluye: medios de procesamiento de imagen para colocar un objeto como blanco y un punto de vista en un espacio virtual, y generando una imagen de dicho objeto como blanco visto desde dicho punto de vista; una unidad de exposición para exponer la imagen generada con dicho medio de procesamiento de imagen; medios operacionales para ser operados por un jugador para apuntar a un objeto como blanco expuesto en dicha unidad de exposición; medios de detección para detectar al menos o la posición espacial o la dirección de dicho medio operacional en relación con dicha unidad de exposición; y medios de control para ejecutar un programa que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional; en el que dicho producto de programa se adapta para hacer que dicho medio de control lleve a cabo: un paso de determinar, al recibir la señal operacional de dicho medio operacional, una posición del punto de partida desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación al cual arriba el cuerpo de descarga disparado desde dicha posición del punto de partida basada en la señal de detección recibida de dicho medio de detección; y un paso de hacer que dicho medio de procesamiento de imagen genere la imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y exponiendo dicha imagen de la trayectoria en dicha unidad de exposición.
Preferiblemente, el producto de programa está constituido además para ser capaz de hacer que los medios de control lleven a cabo: un paso de colocar un objeto de la trayectoria en el espacio virtual cubriendo una parte o la totalidad de una línea virtual dirigida desde la posición del punto de partida a la posición del punto de terminación; y un paso de hacer que el medio de procesamiento de imagen genere la imagen de la trayectoria al proyectar el objeto de la trayectoria en el plano de proyección del punto de vista de un sistema de coordenadas del punto de vista y exponiendo la imagen de la trayectoria en la unidad de exposición.
Preferiblemente, el producto de programa está constituido además para ser capaz de hacer que los medios de control lleven a cabo: un paso de determinación de si el objeto como blanco que intersecta la línea virtual existe en el espacio virtual; y un paso de establecimiento de la posición del punto de terminación en el punto de intersección del objeto como blanco y la línea virtual cuando existe el objeto como blanco.
Preferiblemente, el producto de programa está constituido además para ser capaz de hacer que los medios de control lleven a cabo: un paso de determinación de si el objeto como blanco que intersecta la línea virtual existe en el espacio virtual; y un paso de establecimiento de una distancia infinita aproximada en la línea virtual como posición del punto de terminación cuando el objeto como blanco no existe.
Descripción de los dibujos
La Figura 1 es un diagrama que explica la constitución del dispositivo de juego en correspondencia con una realización que emplea la presente invención;
La Figura 2 es un diagrama que explica un ejemplo específico de la constitución del hardware que lleva a cabo la unidad de control de juego;
La Figura 3(A) y la Figura 3(B) son diagramas que explican el método de cálculo de la posición y la dirección del controlador en forma de pistola;
La Figura 4 es un diagrama que explica otro ejemplo del método de cálculo de la posición y la dirección del controlador en forma de pistola;
La Figura 5 es un diagrama que explica la relación entre la posición de fuego del proyectil en el espacio virtual y el objeto tal como un personaje enemigo colocado en el espacio virtual;
La Figura 6 es un diagrama que explica la relación entre la posición de fuego del proyectil en el espacio virtual y el objeto tal como un personaje enemigo colocado en el espacio virtual;
La Figura 7 es un diagrama de flujo que explica los procedimientos del proceso de generación de imagen; y
La Figura 8 es un diagrama que muestra un ejemplo de exposición de la imagen de juego.
Descripción detallada
Las realizaciones de la presente invención se explican ahora con referencia a los dibujos.
La Figura 1 es un diagrama que explica la constitución del dispositivo de juego en correspondencia con una realización que emplea la presente invención. El dispositivo de juego 100 mostrado en la Figura 1 es para que un jugador (operador) juegue un juego de disparos mientras mira la imagen de juego expuesta de manera tridimensional en un monitor (unidad de exposición) 28, y está constituida incluyendo un controlador 10 en forma de pistola y un cuerpo del dispositivo de juego 12.
El controlador 10 en forma de pistola es un medio operacional que tiene una configuración que imita la apariencia de varios tipos de pistola (e. g., ametralladora, pistola, rifle, escopeta láser, etc.). El controlador 10 en forma de pistola está en estado inalámbrico en el cual no se provee un cable de conexión con el cuerpo del dispositivo de juego 12, y el jugador es capaz de operar libremente tal controlador sin estar sujeto a restricciones de ningún tipo respecto al área operacional. La transferencia de señales y similares entre el cuerpo del dispositivo de juego 12 y el controlador 10 en forma de pistola se lleva a cabo vía comunicación inalámbrica. Por tanto, el controlador 10 en forma de pistola tiene una unidad de emisión de luz en la parte delantera de la cubierta (cerca de la boca del cañón) y emite una señal infrarroja desde tal unidad de emisión de luz. La señal infrarroja corresponde a la onda detectable sujeta a detección mediante los sensores respectivos 20a a 20d. Incidentalmente, en adición a la luz infrarroja, pueden utilizarse ondas electromagnéticas de diversas longitudes de onda tales como luz visible, u ondas sonoras, para trasmitir la onda detectable. Adicionalmente, el control en forma de pistola 10 de la presente realización lleva a cabo el control para cambiar el estado de la salida de la onda detectable desde la unidad de emisión de luz en correspondencia con el contenido de las instrucciones operacionales (e. g. si se ha apretado el disparador). Por ejemplo, se lleva a cabo el control para hacer que la onda detectable destelle como un pulso, y el contenido de la instrucción operacional se solapa con la onda detectable al variar este estado de destello y expresar una señal digital (señal
seriada).
El cuerpo del dispositivo de juego 12 está constituido incluyendo una pluralidad de sensores 20a a 20d, una unidad de control de sensores 22, una unidad de control de juego 24, una bocina 26 y un monitor 28.
Cada uno de los sensores respectivos 20a a 20d está colocado en la vecindad de las cuatro esquinas de la pantalla 28a del monitor 28, detectando la intensidad de la onda detectable (señal infrarroja) transmitida desde el controlador 10 en forma de pistola, y le da salida al resultado de la detección hacia la unidad de control de sensores 22. Los sensores respectivos 20a a 20d en la realización presente tienen planos sensores (planos detectores) colocados hacia tres direcciones mutuamente diferentes. Los detalles respecto a la disposición de los sensores 20a a 20d se describirán más adelante.
La unidad de control de sensores 22 calcula la posición y dirección del controlador 10 en forma de pistola en el espacio real basada en la relación de la intensidad de la onda detectable detectada respectivamente con la pluralidad de sensores 20a a 20d. Los detalles respecto al método de cálculo de la posición y dirección en relación con la unidad de control de sensores 22 se describirán más adelante.
La unidad de control de juegos 24 establece el progreso del juego y genera una imagen de juego en correspondencia con el contenido de la entrada de la instrucción operacional con el controlador 10 en forma de pistola, y la posición y/o dirección de tal controlador 10 en forma de pistola, y contiene los bloques funcionales respectivos de la unidad de cómputo del juego 32, la unidad de generación de imagen 32 y la unidad de generación de sonido 34. Esta unidad de control de juego 24 está constituida por un computador equipado con medios similares a un CPU (microprocesador), ROM (memoria), RAM (memoria de trabajo) y similares y un programa prescrito contenido en éstas. Los ejemplos específicos se describirán posteriormente.
La unidad de cómputo de juego 30 se utiliza para llevar a cabo los diversos cómputos requeridos en el progreso del juego, y lleva a cabo el procesamiento para establecer el comportamiento de los diversos objetos (e. g. personaje enemigo y similares) en el espacio virtual al reflejar la entrada de la instrucción operacional con el controlador 10 en forma de pistola y la posición y/o dirección del controlador 10 en forma de pistola calculado con la unidad de control de sensores 22. Aunque los detalles se describirán más adelante, esta unidad de cómputo de juego 30 corresponde a los "medios de sustitución de la posición/dirección", "medios de establecimiento del punto de partida/terminación" o "medios de control".
La unidad de generación de imagen (medios de procesamiento de imagen) 34 genera una imagen bidimensional (imagen de juego) vista desde un punto de vista virtual en el espacio de juego en correspondencia con el resultado del cómputo de la unidad de cómputo de juego 30. La imagen de juego generada con esta unidad de generación de imagen 32 se expone en el monitor 28.
La unidad de generación de sonido 34 genera diversos sonidos del juego (e. g. sonidos de explosión y música de fondo) requeridos para el progreso del juego en correspondencia con el resultado del cómputo de la unidad de cómputo del juego. El sonido del juego generado con esta unidad de generación de sonido 34 sale de la bocina 26.
La Figura 2 es un diagrama que explica un ejemplo específico de la constitución del hardware que lleva a cabo la unidad de control de juego 24. La unidad de control de juego 24 mostrada en la Figura 2 está constituida al incluir una interfase de entrada 100, un CPU (procesador) 101, una (memoria) ROM 102, una (memoria de trabajo) RAM 103, un procesador de vídeo 104, una memoria de vídeo 105, un convertidor digital/analógico (D/A) 106, un procesador de sonido 107 y una memoria de sonido 108.
\newpage
La interfase de entrada 100 recibe información respecto a la posición y dirección de, y el disparo de proyectiles desde, el controlador 10 en forma de pistola desde la unidad de control de sensores 22, y escribe tal información (datos) en una dirección prescrita de la memoria de trabajo RAM 103.
El procesador CPU 101 ejecuta el programa de juego leído desde la memoria ROM 102 y escrito en la memoria de trabajo RAM 103, y lleva a cabo el cómputo de juego para establecer el progreso del juego en lo sucesivo. Es más, el procesador 101 determina el valor coordenado (valor coordenado en el sistema mundial de coordenadas) de un objeto tal como los diversos caracteres o estructuras en el espacio de juego en correspondencia con el progreso del juego establecido, y lleva a cabo el procesamiento (transformación proyectiva) para proyectar este valor coordenado en el valor coordenado en un sistema coordenado del campo visual con una matriz de conversión prescrita.
La memoria ROM 102 almacena el programa del juego precedente y diversos datos (e. g. datos del polígono, datos de textura, etc.) utilizados en el cómputo del juego. La memoria de trabajo RAM 103 es una memoria de acceso aleatorio que funciona como un área de trabajo para almacenar temporalmente diversos datos en el procesador 101 que lleva a cabo el cómputo del juego.
El procesador de vídeo 104 le lamina la textura a los diversos objetos convertidos en un sistema coordenado del campo visual y genera la extracción de datos correspondientes a la imagen de juego a ser expuesta en la secuencia subsiguiente, y escribe esto en la memoria de vídeo 105. Adicionalmente, el procesador de vídeo 104 lee de la memoria de vídeo 105 la extracción de datos correspondientes a la imagen de juego a ser expuesta en la pantalla actual y le da salida a ésta al convertidor D/A 106. Como resultado de esta extracción de datos convertida en una señal analógica de vídeo con el convertidor D/A 106 y salida al monitor 28, se expone una imagen del juego en la pantalla del monitor 28.
El procesador de sonido 107 genera datos de sonido para proveer efectos de sonidos en correspondencia con el progreso del juego y escribe éstos en la memoria de sonido 108, y además lee los datos de sonido de la memoria de sonido 108 tal como se requiere y convierte tales datos de sonido en una señal analógica de sonido y le da salida a ésta a la bocina 26. El sonido del juego sale de la bocina 26 basado en la señal de sonido precedente.
A continuación, el método de cálculo de la posición y dirección del controlador en forma de pistola 10 se explica en detalle.
La Figura 3(A) y la Figura 3(B) son diagramas que explican el método de cálculo de la posición y dirección del controlador en forma de pistola. Específicamente, la Figura 3(A) muestra la relación de la posición espacial del controlador en forma de pistola y de los sensores respectivos, y la Figura 3(B) muestra la definición de los vectores que indican la dirección del controlador en forma de pistola.
Como se muestra en la Figura 3(A), cada uno de los sensores 20a a 20d está colocado en la vecindad de las cuatro esquinas de la pantalla 28a del monitor 28. En detalle, el sensor 20a está colocado en la parte superior izquierda de la pantalla 28a, el sensor 20b está colocado en la parte superior derecha de la pantalla 28a, el sensor 20c está colocado en la parte inferior de la pantalla 28a, y el sensor 20d está colocado en la parte inferior derecha de la pantalla 28a. En este ejemplo, básicamente el área rodeada por estos sensores 20a a 20d será el área de detección. Esta área de detección es el área a la que se apunta con el controlador 10 en forma de pistola. Aunque esto también dependerá de la sensibilidad de cada sensor, el área en la cual los sensores respectivos son capaces de detectar la onda detectable trasmitida desde el controlador 10 en forma de pistola será un área que es más ancha que el área de detección precedente.
Los sensores respectivos 20a a 20d tienen tres planos sensorios colocados hacia direcciones mutuamente diferentes, y estos tres planos sensorios están mirando respectivamente a la dirección X (dirección horizontal) a la dirección Y (dirección vertical) y a la dirección Z (dirección de profundidad). Cada uno de estos sensores 20a a 20d detecta, con los tres planos sensorios, la intensidad (cantidad de luz infrarroja entrante en este ejemplo) de la señal detectable en las direcciones X, Y, Z trasmitida desde el controlador 10 en forma de pistola.
La unidad de control de sensores 22 busca el vector tridimensional de dirección que representa la posición del controlador 10 en forma de pistola, con la posición establecida de cada sensor 20a a 20d como el punto básico, basado en la relación entre la cantidad de luz entrante en las direcciones X, Y ,Z de los sensores respectivos 20a a 20d. Como se muestra en el diagrama, el vector de dirección va correspondiente al sensor 20a, el vector de dirección vb correspondiente al vector 20b, el vector de dirección vc correspondiente al sensor 20c, y el vector de dirección vd correspondiente al sensor 20d se buscan respectivamente. Como un resultado de la síntesis de estos vectores de dirección va, vb, vc y vd, la posición del controlador puede obtenerse como un valor tridimensional delas coordenadas (x, y, z). Adicionalmente, la dirección del controlador se obtiene como dos ángulos: a saber, el ángulo \theta formado con el plano XZ, y \phi formado con el plano XY.
Aquí, mientras se conozca el vector de dirección con los sensores en al menos dos localizaciones como punto básico, puede conocerse la posición del controlador 10 en forma de pistola. Es más, cuando el controlador 10 en forma de pistola emite luz en una posición arbitraria hacia una dirección arbitraria, la relación de la cantidad de luz que entra en cada sensor 20a a 20d se determinará de manera única. Por tanto, la unidad de control de sensores 22 calcula la dirección hacia la cual mira el controlador 10 en forma de pistola basada en la relación de la cantidad de luz entrante respecto a los sensores respectivos 20a a 20d. Incidentalmente, aunque la dirección del controlador 10 en forma de pistola pueda definirse apropiadamente, por ejemplo, sería preferible hacerla corresponder con la dirección del cañón de la pistola.
Por ejemplo, asumiendo que la resolución de la pantalla 28a es de 640 x 480 puntos (equivalente VGA). Cuando las posiciones respectivas en la pantalla se representan con coordenadas (x, y) basadas en el eje X-Y con la parte superior izquierda de la pantalla 28a como el punto de origen, como se muestra en el diagrama, puede representarse respectivamente el centro de la pantalla A (320, 240), el borde derecho del centro de la pantalla B (640, 240), el borde izquierdo del centro de la pantalla C (240, 0), el borde inferior del centro de la pantalla D (320, 480), y el borde superior del centro de la pantalla E (320, 0). Adicionalmente, se establece el área capaz de detectar el ángulo del controlador en forma de pistola. Por ejemplo, en este caso, el ángulo vertical del controlador en forma de pistola se fija en -30° a +30° y el ángulo lateral se fija a -45° a +45°. Bajo estas condiciones, se determina la correspondencia del ángulo del controlador en forma de pistola y el punto de fuego.
Cuando el ángulo vertical del controlador en forma de pistola es de 0° y el ángulo lateral es de -45°, el punto C (0, 240) se fija como el "punto de fuego".
Cuando el ángulo vertical del controlador en forma de pistola es de -30° y el ángulo lateral es de 0°, el punto D (320, 480) se fija como el "punto de fuego".
Cuando el ángulo vertical del controlador en forma de pistola es de +30° y el ángulo lateral es de 0°, el punto E (640, 240) se fija como el "punto de fuego".
Aunque los valores anteriores representan las coordenadas del punto de fuego en la pantalla, correspondientes a los valores máximos del ángulo vertical o del ángulo lateral, con respecto a las posiciones intermedias, las coordenadas que están en cambio continuo se calculan en correspondencia con el ángulo vertical o el ángulo lateral. Los ángulos vertical y lateral del controlador en forma de pistola correspondientes al punto de fuego arbitrario P (x, y) en la pantalla serán (\theta, \phi).
En cada uno de los métodos precedentes antes descritos, cuando la posición y dirección del controlador 10 en forma de pistola se calculan como se describe anteriormente, será posible determinar desde que sitio y desde que ángulo el jugador que utiliza el controlador 10 en forma de pistola está apuntando a la pantalla 28 y determinar también la distancia del jugador (cerca o lejos) con respecto a la pantalla. Por tanto, la posición espacial y la dirección (posición relativa en el espacio real) del controlador 10 en forma de pistola en relación con el monitor 28 puede sustituirse con una posición en el espacio virtual para determinar la relación de posición relativa (distancia, dirección) del objeto que existe en tal espacio virtual y del controlador 10 en forma de pistola, pudiendo hacerse varias presentaciones de juego utilizando tal razonamiento.
A continuación se explica el procesamiento para generar una imagen de juego (imagen bidimensional) incluyendo la trayectoria de un proyectil a ser disparado virtualmente desde el controlador 10 en forma de pistola.
La Figura 5 es un diagrama que explica la relación de la posición respecto a la posición de fuego del proyectil en el espacio virtual y el objeto tal como un personaje enemigo colocado en el espacio virtual. La Figura es una vista en planta del espacio virtual mostrado como un formato de secuencia en la Figura 5.
Primero, la posición de fuego M del proyectil en el espacio virtual se determina basándose en los métodos respectivos antes descritos. El punto de fuego detectado basado en el monitor 28 es m, y este punto de fuego m se comprende como un punto en la superficie del plano de proyección S al generar la imagen bidimensional. Al simular la línea virtual L1 que se extiende desde esta posición de fuego M o del punto de fuego m a lo largo de la dirección en el espacio virtual designado con el controlador 10 en forma de pistola, el punto de impacto (punto de terminación) Q se establece en una posición prescrita sobre tal línea virtual L1. Como se muestra en la Figura 5, cuando un objeto como blanco CR (e. g. personaje enemigo) que intersecta a la línea virtual L1 se coloca en el espacio virtual, el punto de intersección del objeto como blanco CR y la línea virtual L1 se establecerán como el punto de impacto Q. Es más, cuando un objeto como blanco que intersecta la línea virtual L1 no existe en el espacio virtual, se establece una posición apropiada, por ejemplo un posición en la extensión de la línea virtual L1 a una distancia extremadamente lejana (una distancia aproximadamente infinita). Esto es, en la realización presente, el razonamiento de impacto se hace al considerar la posición y dirección del controlador 10 en forma de pistola.
A continuación, se establece un punto de partida N en una posición en la que la posición de fuego del controlador en el espacio virtual se desplaza una cantidad predeterminada en la dirección horizontal (dirección lateral). Incidentalmente, la dirección de desplazamiento de la posición N del punto de partida no se limita a la dirección horizontal, y la dirección vertical puede incluirse también. Aquí, el punto de vista virtual (punto de vista de la cámara) para generar la imagen bidimensional se establece para que se corresponda aproximadamente con el cañón del controlador 10 en forma de pistola; esto es, la posición y dirección del controlador en forma de pistola en el espacio virtual. En otras palabras, la posición del punto M en la Figura 5 y en la Figura 6 se convertirá en el punto de vista virtual. Por tanto, la imagen bidimensional generada de acuerdo con la transformación proyectiva del espacio virtual se convertirá en un denominado punto de vista de primera persona. A partir de ahí, se establece en el espacio virtual un objeto de trayectoria que cubre una parte o la totalidad de la zona K conectando el punto de impacto Q y la posición del punto de partida. Como resultado el objeto de la trayectoria está sujeto a la transformación proyectiva para obtener una imagen lineal, y ésta quedará contenida en la imagen bidimensional.
Incidentalmente, el punto de vista virtual puede establecerse en una posición desplazando la posición del punto M hacia arriba una distancia prescrita para que el punto de vista virtual esté más cerca que el punto de vista del operador.
Adicionalmente, como muestra la Figura 6, es preferible asociar el comportamiento del objeto como blanco (objeto enemigo) después del impacto en la dirección a lo largo de la linea virtual L2. Por ejemplo, cuando la dirección del objeto como blanco despedido impactado por el proyectil se establece en una dirección a lo largo de la línea virtual L2, esto es preferible debido a que tal dirección se corresponderá con la dirección de la trayectoria del proyectil.
En el dispositivo de juego 100, el jugador es capaz de llevar a cabo dos operaciones principales para jugar un juego de disparos al apuntar a enemigos con el controlador 10 en forma de pistola. Una de estas operaciones consiste en determinar a que posición en la pantalla 28a debe apuntarse (rol 1) y la otra operación consiste en determinar la posición y dirección visual del punto de vista virtual (rol 2). Esto se explica en detalle a continuación.
Cuando el jugador mueve el controlador 10 en forma de pistola la unidad 30 de cómputo de juego adquiere al menos un tipo de información de la posición o del ángulo del controlador 10 en forma de pistola en correspondencia con éste, y determina la posición y dirección visual del punto de vista virtual en el espacio virtual de la información de la posición y/o de la información del ángulo.
El proceso precedente se lleva a cabo en un intervalo prescrito (e. g. para cada secuencia o en cada 1/60 segundos), y, cuando el jugador mueve el controlador 10 en forma de pistola, la posición y dirección visual del punto de vista virtual cambiará en correspondencia con éste. Por tanto, una imagen tridimensional simulada (imagen bidimensional proyectada) del espacio virtual visto desde el punto de vista virtual se genera en tiempo real, exponiéndose en el monitor una imagen siempre cambiante.
Cuando existe un objeto como blanco en el área del espacio virtual visto desde el punto de vista virtual del sistema de coordenadas del punto de vista determinado como se describió anteriormente (c. f. Figura 5), se expondrá en el monitor una imagen tridimensional simulada (imagen bidimensional proyectada) en la cual el objeto como blanco se proyecta en el plano de proyección S.
A continuación, el jugador colocará el controlador 10 en forma de pistola dirigido hacia la pantalla 28a para apuntar al objeto como blanco expuesto en la pantalla 28a. Aquí, la unidad de cómputo de juego 30 adquiere al menos un tipo de información de la posición o del ángulo del controlador 10 en forma de pistola de la unidad de control de sensores 22, y calcula la posición a la que el jugador apunta en la pantalla 28a.
Aquí, al llevar a cabo el proceso anterior, cuando el controlador 10 en forma de pistola se utiliza para disparar, pueden llevarse a cabo varias rutinas de procesamiento tales como (1) el método de conmutar el "modo de cambio del punto de vista (rol 1)" y el "modo de disparo (rol 2)" de acuerdo con las condiciones prescritas; (2) el método de conmutar el "modo de cambio del punto de vista (rol 1)" y el "modo de disparo (rol 2)" en correspondencia con la operación del jugador; y (3) el método de no conmutar los modos.
(1) Método de Conmutación de los Modos de Acuerdo a Condiciones Prescritas
Las condiciones bajo las cuales se conmuta al modo de juego se establecen (programan) por adelantado, y cuando tales condiciones se satisfacen, la operación del punto de vista virtual del jugador que mueve el controlador 10 en forma de pistola se invalida. En otras palabras, el sistema de coordenadas del punto de vista se determina en el punto en que se satisfacen las condiciones. Como resultado, debido a que el punto de vista no se cambiará en correspondencia con el movimiento del controlador 10, el jugador será capaz de mover el controlador 10 mientras mira una imagen de un punto de vista estable, y apuntar a una posición prescrita en la pantalla 28a. Las condiciones para la conmutación de modos, por ejemplo, pueden suceder cuando existe un objeto como blanco en un área prescrita en el espacio virtual visto desde el punto de vista virtual. Aquí, la unidad de cómputo del juego 30 puede llevar a cabo el procesamiento de razonamiento de si existe el objeto como blanco en un área prescrita de las coordenadas de tal objeto como blanco en el espacio virtual, y conmutar al modo de disparo cuando exista tal objeto como blanco.
(2) Método de Conmutación de los Modos de Acuerdo a la Operación del Jugador
La conmutación al modo de disparo también puede determinarse con la unidad 30 de cómputo de juego basada en la señal de operación del jugador. Específicamente, se provee un conmutador (medio de conmutación) en el controlador 10 en forma de pistola. Cuando el jugador presiona el conmutador y la unidad de cómputo de juego 30 recibe una señal de conmutación enviada desde el controlador 10, la unidad de cómputo del juego 30 cambia al modo de disparo. Después de conmutar al modo de disparo, la operación del punto de vista virtual basada en el controlador 10 en movimiento se invalidará. En otras palabras, aún al adquirir la información de la posición y/o ángulo del controlador 10, la unidad de cómputo de juego 30 no llevará a cabo el proceso de cambio de la posición y dirección visual del punto de vista virtual del espacio virtual en correspondencia con tal información, generando una imagen de transformación perspectiva vista desde el punto de vista virtual cambiado. Aquí el sistema de coordenadas del punto de vista se determina cuando el jugador presiona el conmutador y se recibe la señal de la operación. Por tanto como el punto de vista virtual será cambiado mediante el movimiento siguiente del controlador 10 en forma de pistola, el jugador será capaz de operar dicho controlador 10 mientras mira una imagen de un punto de vista estable para apuntarle a una posición prescrita en la pantalla 28a.
(3) Método de No Conmutación de los Modos
Cada vez que el jugador coloca el controlador 10 en forma de pistola contra la pantalla 28a y apunta la boca del cañón hacia la pantalla 28a en un ángulo prescrito para apuntar al objeto como blanco expuesto en la pantalla 28a, la unidad de cómputo de juego 30 adquiere al menos una información de la posición o del ángulo del controlador 10 de la unidad de control de sensores 22, y determina la posición en la pantalla adonde el jugador apunta con el controlador 10 y la posición y dirección visual del punto de vista virtual en el espacio virtual. Por tanto, cuando el jugador mueva el controlador 10, la posición y dirección visual del punto de vista virtual seguirá a tal movimiento y cambiará, al igual que la imagen tridimensional simulada (imagen bidimensional), después que el sistema de coordenadas del punto de vista cambiado sujeto a la transformación perspectiva, se exponga en la pantalla 28a. Simultáneamente, ya que las coordenadas de posición en la pantalla 28a a las cuales el jugador apunta el controlador 10 también cambiarán, el procesamiento de razonamiento del impacto con el objeto como blanco se llevará a cabo basado en tales coordenadas de posición cambiadas. Aquí, al jugador se le exigirán habilidades operacionales más sofisticadas, por tanto la dificultad del juego aumentará y se brindará un juego que puede parecer atractivo a los jugadores de gran habilidad operacional (jugadores experimentados).
A continuación, se explica la exposición de la trayectoria del proyectil en el "modo de disparo" anterior. En el anterior modo de disparo, debido a que el punto de vista virtual en el espacio virtual no cambiará aún cuando el jugador mueva el controlador 10, el jugador será capaz de jugar el juego de disparos operando el controlador 10 mientras mira a la pantalla con un punto de vista estable y apunta a una posición prescrita en la pantalla 28a. La unidad de cómputo de juego 30 adquiere al menos la información de la posición o la información del ángulo del controlador 10 de la unidad de control de sensores 22, y determina la posición y dirección visual del punto de vista virtual M en el espacio virtual. La Figura 5 muestra un estado en el que existe un objeto como blanco en el área visible en el espacio virtual visto desde el punto de vista determinado M del sistema de las coordenadas del punto de vista.
El punto de vista virtual M se establece en una posición a nivel de la línea de los ojos del objeto del personaje del jugador cuando se asume que existe un objeto del personaje del jugador en el espacio virtual. Por tanto, la imagen del personaje del jugador operado por el jugador no se expondrá en la pantalla 28a del monitor 28 y se expondrá como una imagen del denominado punto de vista de primera persona.
Aquí, una posición virtual de la boca del cañón (posición de disparo del proyectil) se establece en una posición que es aproximadamente la misma que el punto de vista virtual M del espacio virtual y, cuando la unidad de cómputo de juego 30 recibe una señal de entrada del disparador de acuerdo a la operación del jugador a partir del controlador 10 en forma de pistola, asume que ha sido disparado un cuerpo de descarga (por ejemplo un proyectil) desde la posición de fuego del espacio virtual, y lleva a cabo un razonamiento de colisión con el objeto como blanco CR.
La unidad de cómputo de juego 30 adquiere al menos la información de la posición o la información del ángulo de la unidad de control de sensores 22, y determina la posición en la pantalla 28a a la que el jugador está apuntando con el controlador 10. A continuación, se calcula la posición m en el plano perspectivo de proyección S del punto de vista virtual M del sistema de coordenadas del punto de vista en el espacio virtual correspondiente a la posición apuntada en la pantalla 28 antes determinada. Se simula una línea virtual L1 que se extiende a lo largo de la dirección que se dirige desde el punto de vista virtual M hacia la coordenada m en el plano de proyección S y se lleva a cabo el razonamiento de colisión con el objeto como blanco CR basado en esta línea virtual L1. Como se muestra en el diagrama, cuando un objeto como blanco CR (e. g. cuerpo como blanco tal como un personaje enemigo) que intersecta la línea virtual L1 se coloca en el espacio virtual, el punto de intersección del objeto como blanco CR y la línea virtual L1 se establecerán como el punto de impacto Q. Además, cuando no exista en el espacio virtual un objeto como blanco que intersecte con la línea virtual L1, se establece como punto de impacto Q una posición apropiada, por ejemplo, una posición en la extensión de la línea virtual L1 a una distancia extremadamente lejana (una distancia aproximadamente infinita). Esto es, en la realización presente, el razonamiento de impacto se lleva a cabo mientras se considera la posición y dirección del controlador 10. Incidentalmente, el procesamiento del razonamiento de impacto puede llevarse a cabo basado en la comparación de la posición m en el plano perspectivo de la proyección S del punto de vista virtual M del sistema de coordenadas del punto de vista, y del área de razonamiento de impacto establecida en el objeto como blanco CR proyectado en tal plano perspectivo de proyección S.
A continuación, se explica la exposición de la trayectoria. Cuando la unidad de cómputo de juego 30 recibe una señal de entrada del disparador basada en la operación del jugador desde el controlador 10, ésta lleva a cabo el procesamiento de razonamiento del impacto antes mencionado y adicionalmente lleva a cabo el procesamiento de generación de la imagen para exponer la trayectoria del proyectil en el monitor 28. Específicamente, cuando la unidad de cómputo de juego 30 recibe una señal de entrada del disparador basada en la operación del jugador, ésta determina el punto de impacto Q (posición del punto de terminación) en el espacio virtual adquiriendo al menos la información de la posición o del ángulo de la unidad de control de sensores 22. A continuación, se determina una posición desplazada (posición del punto de partida) de la posición de fuego (o punto de vista virtual M) del espacio virtual. La posición del punto de partida se busca calculando la distancia a ser desplazada en correspondencia con la información del ángulo adquirida. La dirección a desplazar también se calcula en correspondencia con la información del ángulo adquirida. Y, se lleva a cabo el procesamiento de tal información para exponer en la pantalla 28a del monitor 28 la imagen de la trayectoria de un proyectil dirigiéndose desde la posición de partida N, después de haberse desplazado una cantidad prescrita, hacia el anterior punto de impacto Q (posición del punto de terminación). Por ejemplo, un objeto de trayectoria que cubra una parte de la línea virtual L2 que conecta el punto de impacto Q y el punto de partida N; esto es, una parte o la totalidad de la zona K, está colocada en el espacio virtual. Por tanto, el objeto de la trayectoria está sujeto a la transformación perspectiva en el plano de proyección S del punto de vista virtual M del sistema de coordenadas del punto de vista y se genera y expone una imagen bidimensional que contiene la imagen de la trayectoria.
Aquí, se explica en detalle el método de cálculo de "la posición del punto de partida N después de haberse desplazado una cantidad preestablecida". Los datos de la imagen generada por un objeto en el espacio virtual proyectada en el plano de proyección S del sistema virtual de coordenadas del punto de vista con la unidad de generación de imagen 32 se almacenan en el búfer de la secuencia (memoria de vídeo 105) en la unidad de generación de imagen 32. Y, los datos de la imagen escritos en el búfer de la frecuencia enviados desde la unidad de generación de imagen 32 al monitor 28, y expuestos como una imagen en la pantalla 28a se leen dentro de un espacio de tiempo preescrito. Por ejemplo, asumamos que la resolución de la pantalla 28a es de 640 x 480 puntos (equivalente VGA). Cuando las posiciones respectivas en la pantalla se representan con las coordenadas (x, y) basadas en el eje X-Y con la parte superior izquierda de la pantalla 28a como el punto de origen, como se muestra en el diagrama, pueden representarse respectivamente, el centro de la pantalla A (320, 480), el borde derecho superior del centro de la pantalla B (640, 240), el borde izquierdo del centro de la pantalla C (240,0), el borde izquierdo inferior del centro de la pantalla D (320, 480) y el borde superior del centro de la pantalla E(320, 0). El búfer de la secuencia es capaz de almacenar los datos de la imagen en un tamaño correspondiente a lo anteriormente expresado, y la información de la imagen de cada punto se almacene en cada conjunto de direcciones en correspondencia con las coordenadas respectivas en la pantalla.
Se establece un área capaz de detectar un ángulo del controlador en forma de pistola. Por ejemplo, en este ejemplo, el ángulo vertical del controlador en forma de pistola se establece en -30° a +30° y el ángulo lateral se establece en -45° a +45°. Cuando el controlador 10 en forma de pistola está perpendicular a la pantalla 28a; esto es, cuando el ángulo vertical y el ángulo lateral del controlador en forma de pistola son ambos 0°, la posición de partida N (Figura 5) se establece de manera que la cantidad a desplazar de la posición de fuego M (o posición del punto de vista M) se convierta en 0. En otras palabras, la relación de posición de la posición del punto de partida y la posición de referencia M se mantendrán sin cambio desde el estado de la ubicación inicial. Bajo estas condiciones, se determina la correlación del ángulo del controlador en forma de pistola y la posición del punto de partida N en el espacio virtual.
El punto de fuego en la pantalla; esto es, el punto donde comienza la exposición de la trayectoria (punto de partida de la exposición) se establece como P. Los ángulos vertical y el lateral del controlador en forma de pistola que corresponden al punto de fuego arbitrario P (x, y) en la pantalla pueden ser (\theta, \phi). Adicionalmente, el punto A muestra la posición del centro (320, 240) en la pantalla. Cuando el ángulo vertical y el lateral del controlador 10 en forma de pistola están ambos en 0°, debido a que el controlador 10 está en una posición perpendicular a la pantalla 28a, la posición del punto de partida N (c. f. Figura 5) establecido en el espacio virtual se fija a la posición del punto de vista M. Incidentalmente cuando el ángulo vertical y el horizontal del controlador 10 en forma de pistola son ambos 0°, y el controlador 10 existe en una posición enfrentando a la posición del centro de la pantalla 28a, el punto (320, 240) se establece como el punto de partida a exponer, y la trayectoria del proyectil en la imagen bidimensional sujeta a la transformación perspectiva del punto de vista virtual M del sistema de coordenadas del punto de vista se expone en una patrón de "puntos". En otras palabras, cuando el ángulo vertical y el horizontal del controlador 10 en forma de pistola son ambos 0°, se expone una imagen (trayectoria del proyectil) en la posición de la pantalla 28a que enfrenta al controlador 10 en forma de pistola.
Cuando el ángulo vertical del controlador 10 en forma de pistola es 0° y el ángulo lateral de éste es +45°, la cantidad a desplazar se calcula tal que el punto B (640, 240) se convierta en el punto de partida a exponer, y la posición del punto de partida N (Figura 5) se establece en una posición desplazada del punto M en la dirección horizontal.
Cuando el ángulo vertical del controlador 10 en forma de pistola es 0° y el ángulo lateral de éste es de -45°, la cantidad a desplazar se calcula tal que el punto C (0, 240) se convierta en el punto de partida a exponer de acuerdo con un algoritmo preescrito, y la posición del punto de partida N (Figura 5) se establece en una posición desplazada del punto M en la dirección horizontal.
Cuando el ángulo vertical del controlador 10 en forma de pistola es -30° y el ángulo lateral de éste es 0°, se calcula una cantidad preescrita tal que el punto D (320, 480) se convierta en el punto de partida a exponer, y la posición de del punto del partida N (Figura 5), se establece en una posición desplazada del punto M en la dirección vertical.
Cuando el ángulo vertical del controlador 10 en forma de pistola es +30°, y el ángulo lateral de éste es 0°, la cantidad a desplazar se calcula tal que el punto E (640, 240) se convierta en el punto de partida a exponer, y la posición del punto de partida N (Figura 5) se establece en una posición desplazada del punto M en la dirección vertical.
Aunque los valores precedentes representan las coordenadas del punto de partida a exponer en la pantalla en correspondencia con los valores máximos del ángulo vertical o del ángulo lateral, con respecto a posiciones intermedias, la cantidad preescrita a desplazar o la dirección en correspondencia con el ángulo vertical y/o el ángulo lateral en cambio continuo se calculan con la unidad de cómputo de juego 30. En otras palabras, la unidad de cómputo del juego 30 calcula la cantidad a desplazar del punto M en el espacio virtual en la dirección horizontal y/o lateral de acuerdo con una algoritmo preescrito tal que el punto arbitrario P (x, y) en la pantalla 28a se convierta en el punto de partida a exponer, y por tanto es determinada la posición del punto de partida N (c. f. Figura 5) después de haber sido desplazado una cantidad preescrita de tal punto de referencia M. Por tanto, cuando el ángulo vertical es 0° y el ángulo lateral es 22,5°, el jugador verá el punto de partida a exponer expuesto en un punto intermedio entre el punto A y el punto B en la pantalla del monitor.
Incidentalmente, aunque la posición del punto de partida N de la trayectoria desplazado una cantidad preescrita de las coordenadas de la posición de fuego M (o punto de vista virtual M) establecida en el espacio virtual se determinó en base a la información del ángulo del controlador 10 en forma de pistola, la cantidad a desplazar puede calcularse también basándose en la información de la posición, o ambas la información del ángulo y la información de la posición.
Adicionalmente, para buscar la posición del punto de partida N desplazado una cantidad preescrita N de las coordenadas de la posición de fuego M (o punto de vista virtual M) establecida en el espacio virtual, la unidad de cómputo de juego 30 puede calcular esto en tiempo real adquiriendo la información de al menos la posición o la dirección del controlador 10 en forma de pistola, o puede prealmacenarse en una memoria una tabla que prescriba la cantidad a desplazar para cada área de posición o ángulo, y ésta puede seleccionarse de la tabla en correspondencia con la posición o el ángulo actual del controlador 10 en forma de pistola.
Adicionalmente, la invención presente puede utilizarse también en casos en que la posición del punto de vista en el espacio virtual y la posición de fuego del proyectil no se correspondan. Por ejemplo, cuando el ángulo vertical y el ángulo lateral del controlador 10 en forma de pistola son ambos 0°, la posición de fuego del proyectil en el espacio virtual se establece como la posición inicial de la posición del punto de partida, y las posiciones de la posición del punto de vista y la posición del punto de partida (punto de fuego) en el espacio virtual se establecen de tal manera que mantengan una distancia prescrita. Y, en correspondencia con el ángulo vertical y/o el ángulo lateral, la cantidad a desplazar y la dirección se determinan con la unidad de cómputo de juego 30, y la posición del punto de partida se desplaza en relación con la posición de fuego (o posición del punto de vista) para exponer la imagen precedente de la trayectoria.
Con el método precedente será posible determinar adonde y desde qué ángulo el jugador utilizando el controlador 10 en forma de pistola está apuntando en la pantalla 28a. Adicionalmente, la distancia (lejana o cercana) del jugador a la pantalla también puede evaluarse. Por tanto, es posible la presentación de diversos juegos utilizando el resultado del razonamiento.
Como se muestra en la Figura 6, es preferible asociar el comportamiento del objeto tal como un objeto enemigo después del impacto en la dirección a lo largo de la línea virtual L2. El método de búsqueda de la línea virtual L2 es el mismo que el método de búsqueda de la exposición de la trayectoria antes descrita, y la posición del punto de partida se establece calculando la cantidad a desplazar desde la posición de referencia en base al menos a la información de la posición o del ángulo del controlador 10 en forma de pistola. Por ejemplo, cuando se razona que ocurrió una colisión en el procesamiento del razonamiento de impacto del personaje enemigo y del proyectil en el espacio virtual, el objeto como personaje enemigo se controla para que se mueva en la dirección a lo largo de la línea virtual L2, y una imagen tridimensional simulada sujeta a la transformación perspectiva en el plano de proyección S del punto de vista virtual M del sistema de coordenadas del punto de vista. Como resultado, esto es preferible visualmente ya que el jugador verá al personaje enemigo que es despedido en una dirección coincidente con la trayectoria del proyectil.
A continuación, se explican los procedimientos del procesamiento de la generación de imagen en el dispositivo de juego de la presente realización. La Figura 7 es un diagrama de flujo que explica los procedimientos del procesamiento de la generación de la imagen. La serie de pasos del procesamiento ilustrados en la Figura 7 se repiten para cada intervalo prescrito (e. g., 1/60 segundos durante el progreso del juego. Incidentalmente, el orden de cada uno de los pasos del procesamiento mostrado más adelante puede ser intercambiado apropiadamente, o pueden llevarse a cabo una pluralidad de pasos en paralelo mientras no haya discrepancia en el contenido del procesamiento.
Cuando se trasmite una onda detectable desde el controlador 10 en forma de pistola y su intensidad se detecta por parte de los sensores respectivos 20a a 20d, la unidad de control de sensores 22 detecta al menos o la posición relativa o la dirección (orientación) en el espacio real del controlador 10 en forma de pistola basándose en la intensidad de la onda detectable detectada con los sensores respectivos 20a a 20d, y detecta los contenidos de las instrucciones operacionales basándose en el estado de la onda detectable (Paso S100).
La unidad de cómputo de juego 30 adquiere el resultado de la detección de al menos la posición del controlador 10 en forma de pistola o la dirección designada con tal medio operacional en forma de pistola desde la unidad de control de sensores 22 (Paso S101). Específicamente, una señalización (de datos) que muestra los resultados del cálculo de la unidad de control de sensores 22 se escriba en la memoria de trabajo RAM 103 (c. f. Figura 2) como se requiera, y la información respecto a la posición o similar del controlador 10 en forma de pistola puede adquirirse refiriéndose a dicha señalización.
A continuación, la unidad de cómputo de juego 30 determina la posición y dirección visual del punto de vista virtual en el espacio virtual basándose en al menos la posición o la dirección del controlador 10 en forma de pistola en el espacio real. Específicamente, la posición y dirección visual del punto de vista virtual en el espacio virtual se determinan basándose en la posición del controlador 10 en forma de pistola en el espacio real, el ángulo de la dirección horizontal \theta y el ángulo de la dirección vertical \phi. Y, cuando se determina el sistema de coordenadas del punto de vista, la unidad de control determina a que posición está disparando el jugador en la pantalla basándose en al menos un tipo de información de la posición o de la dirección del controlador 10 en forma de pistola en el espacio real (Paso S102).
Adicionalmente, la unidad de cómputo de juego 30 determina si el operador apretó o no el disparador basándose en el contenido de las instrucciones operacionales adquiridas en el Paso S101 (Paso S103). Cuando el disparador no ha sido apretado, se hace un razonamiento negativo (NO), y la rutina procede al Paso S109 descrito más adelante.
Cuando el disparador ha sido apretado, se hace un razonamiento positivo (SI) como Paso S103, y la unidad de cómputo de juego 30 determina si se apunta al objeto como blanco tal como un personaje enemigo (Paso S104). Específicamente, la unidad de cómputo de juego 30 hace el razonamiento en el Paso S104 chequeando si existe un objeto como blanco en la línea virtual que se extiende en la dirección del vector desde la posición de la boca del cañón (posición de fuego) en el espacio virtual.
Cuando se apunta al objeto como blanco, se hace un juicio positivo(SI) en el Paso 104, y la unidad de cómputo de juego 30 establece el punto de impacto (punto de terminación) en el punto de intersección de la dirección del vector desde la posición de la boca del cañón (posición de fuego) y el objeto como blanco en el espacio virtual (Paso S105). Cuando se lleva a cabo este tipo de cómputo de juego, y la rutina de procesamiento de este ejemplo termina, será impactado el objeto como blanco tal como un personaje enemigo, y se generará y expondrá una imagen que representa una reacción correspondiente (e. g. daño, explosión, etc.).
Adicionalmente, cuando no se apunta al objeto como blanco, se hace un juicio negativo en el Paso S104, y la unidad de cómputo de juego 30 establece el punto de impacto (punto de terminación) a una distancia apropiada (e. g. distancia aproximadamente infinita) en la línea virtual que se extiende desde la posición de la boca del cañón (posición de fuego) hacia la dirección del vector (dirección a la que se apunta) en el espacio virtual (Paso S106). Cuando se lleva a cabo este tipo de cómputo de juego, después que se termina la ruta de procesamiento de este ejemplo, se genera y expone una imagen que representa un estado del objeto como blanco tal como un personaje enemigo que no ha sido impactado.
Adicionalmente, la unidad de cómputo de juego 30 calcula la cantidad a desplazar desde la posición de fuego (o punto de vista virtual) en el espacio virtual basándose en al menos la información de la posición o la información del ángulo del controlador 10 en forma de pistola en el espacio real, y establece la posición del punto de partida trazando la imagen de la trayectoria que corresponde a la trayectoria del proyectil (Paso S107). En la realización presente antes descrita, aunque la posición del punto de partida se establece desplazándolo (compensándolo) de la posición de fuego en la dirección horizontal, la posición del punto de partida puede desplazarse en la dirección vertical, o puede emplearse una combinación de desplazamiento tanto en la dirección vertical como horizontal.
A continuación, la unidad de generación de imagen 32 coloca polígonos que cubren una parte o la totalidad de la zona que conecta el punto de partida y el punto de terminación establecido en cada uno de los pasos precedentes (Paso S108). Entonces, la unidad de generación de imagen 32 lleva a cabo la transformación proyectiva con el punto de vista virtual del sistema de coordenadas del punto de vista determinado con los métodos precedentes para generar una imagen bidimensional (Paso S109). Aquí, como resultado de los polígonos colocados en la zona que conecta el punto de partida y el punto de terminación sujetos a la transformación proyectiva, puede obtenerse una imagen bidimensional que contiene la imagen de la trayectoria que expresa la trayectoria del proyectil. La imagen bidimensional (imagen de juego) generada con esta unidad de generación de imagen 34 se envía al monitor 28, y la imagen de juego se expone en la pantalla 28a del monitor 28. La Figura 8 es un diagrama que muestra un ejemplo expuesto de la imagen de juego. Como se muestra en la Figura 8, por ejemplo, una imagen de la trayectoria W se expone hacia el personaje enemigo CR en el espacio virtual y se representa un cuadro de la trayectoria del proyectil.
Como se describió anteriormente, con el dispositivo de juego de la presente realización, como la imagen de la trayectoria se expone en una parte o en la totalidad de la zona que comienza desde una posición que es diferente a la del punto de vista virtual, la trayectoria no se expondrá en un patrón de tipo puntos en una imagen bidimensional sujeta a transformación proyectiva al expresar la trayectoria del proyectil. Por tanto, en un juego de disparos que adopta el punto de vista de primera persona, la trayectoria del proyectil dirigiéndose desde el lado del jugador hacia el espacio virtual puede expresarse más efectivamente.
Incidentalmente, la presente invención no se limita al contenido de las realizaciones antes descritas, y puede modificarse de diversas formas dentro del alcance de la presente invención.
Por ejemplo, en las realizaciones precedentes, aunque la posición relativa del medio operacional y la dirección relativa designada con tal medio operacional se detectaron en base a la pantalla 28a del monitor 28, estas pueden basarse en otras partes.
Adicionalmente, como método de búsqueda de la información del ángulo del controlador 10 en forma de pistola, también puede utilizarse un controlador en forma de pistola que tiene un sensor oscilante o giroscopio. Como resultado, la posición del punto de partida para generar la trayectoria puede buscarse a partir de tal giroscopio o sensor oscilante. Aquí, como un sustituto de los sensores respectivos basados de manera óptica antes descritos, la línea de escaneo al exponerse una imagen en el monitor 28 puede leerse para calcular la posición en la pantalla 28a del monitor 28, adonde el jugador apunta el controlador en forma de pistola. O, puede proveerse una llave tipo flecha al controlador en forma de pistola y, mediante la unidad de cómputo del juego 30 que recibe la señal de operación de éste, será posible calcular la posición en la pantalla 28a adonde el jugador apunta el controlador en forma de pistola. Como resultado, será posible también calcular la posición del punto de terminación.
Adicionalmente, el ámbito aplicable de la presente invención no se limita a un dispositivo de juego, y esta invención puede emplearse también en diversos dispositivos que exponen imágenes mediante la aplicación de la transformación proyectiva a la situación en el espacio virtual generando una imagen bidimensional de éstas. Por ejemplo, en adición a la trayectoria de un proyectil, será posible una exposición efectiva de imágenes en diversos casos tales como apuntar a una posición prescrita en el espacio virtual con un puntero láser como medio operacional. Es más, la presente invención puede también aplicarse preferiblemente a un dispositivo de realidad virtual (simulador) capacitando al operador para que experimente la realidad virtual de varias situaciones. Por ejemplo, la presente invención puede emplearse para capacitar al operador a experimentar la realidad virtual de disparar o la realidad virtual de bomberos experimentando la lucha contra incendios. En el caso de un simulador de lucha contra incendios, un controlador en forma de manguera puede utilizarse para expresar la imagen de la trayectoria del chorro de agua. En adición, un controlador en forma de espada puede utilizarse para expresar la imagen de la trayectoria del corte hecho por la espada.
En correspondencia con la presente invención, se posibilita la expresión efectiva de la trayectoria de un proyectil o similar dirigiéndose desde el lado del operador hacia el espacio virtual en un dispositivo de exposición de imágenes de juegos adoptando el punto de vista de primera persona.
\vskip1.000000\baselineskip
Referencias citadas en la descripción
Este listado de referencias citadas por el solicitante es únicamente para conveniencia del lector. Este no forma parte del documento de la patente europea. Aunque se ha tomado especial cuidado en la compilación de las referencias, no pueden excluirse errores u omisiones y la OEP no reconoce reclamaciones o responsabilidad en este sentido.
Documentos de patentes citados en la descripción
\bullet JP H869 274 B.

Claims (13)

1. Un dispositivo generador de imagen, que comprende:
medios de procesamiento de imagen (34) para colocar un objeto como blanco (CR) y un punto de vista en un espacio virtual, y generar una imagen de dicho objetivo como blanco visto desde dicho punto de vista;
una unidad de exposición (28) para exponer la imagen generada con dichos medios de procesamiento de imagen;
medios operacionales (10) a ser operados por un jugador para apuntarle a un objetivo expuesto en dicha unidad de exposición;
medios de detección (20, 22) para detectar al menos o la posición espacial o la dirección de dichos medios operacionales en relación con dicha unidad de exposición;
y
medios de control (32) para ejecutar un programa que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego (M) establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional;
en el que dicho medio de control, al recibir la señal de operación de dicho medio operacional, determina una posición del punto de partida (N) desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación (Q) a la que arriba el cuerpo de descarga disparado desde dicha posición de fuego basada en la señal de detección recibida de dicho medio de detección, hace que dicho medios de procesamiento de imagen generen una imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y expone dicha imagen de la trayectoria en dicha unidad de exposición.
2. Un dispositivo generador de imagen en correspondencia con la reivindicación 1, en el que dicho medio de control coloca un objeto de trayectoria en el espacio virtual que cubre una parte (K) o la totalidad de una línea virtual (L2) dirigiéndose desde dicha posición del punto de partida (N) a dicha posición del punto de terminación (Q), hace que dicho medio de procesamiento de imagen genere dicha imagen de la trayectoria al proyectar dicho objeto de la trayectoria en el plano de proyección de un sistema de coordenadas del punto de vista de dicho punto de vista, y expone dicha imagen de la trayectoria en dicha unidad de exposición.
3. Un dispositivo de generación de imagen en correspondencia con la reivindicación 2, en el que, cuando dicho objeto como blanco que intersecta dicha línea virtual (L2) existe en dicho espacio virtual, dicho medio de control establece dicha posición del punto de terminación en el punto de intersección de dicho objeto como blanco y dicha línea virtual.
4. Un dispositivo de generación de imagen en correspondencia con la reivindicación 2, en el que, cuando dicho objeto como blanco que intersecta dicha línea virtual no existe en dicho espacio virtual, dicho medio de control establece una distancia aproximadamente infinita en dicha línea virtual como dicha posición del punto de terminación.
5. Un dispositivo de generación de imagen en correspondencia con la reivindicación 1, en el que dicho medio operacional es operable mediante un jugador para darle entrada a operaciones para disparar el cuerpo de descarga hacia el objeto como blanco en el espacio virtual.
6. Un método de exposición de imagen de un dispositivo de generación de imagen que comprende:
medios de procesamiento de imagen (34) para colocar un objeto como blanco (CR) y un punto de vista en un espacio virtual, y generando una imagen de dicho objeto como blanco visto desde dicho punto de vista;
una unidad de exposición (28) para exponer la imagen generada con dicho medio de procesamiento de imagen (20, 22) para detectar al menos o la posición espacial o la dirección de dicho medio operacional en relación con dicha unidad de exposición;
medios de detección (20, 22) para detectar al menos o la posición espacial o la dirección de dichos medios operacionales en relación con dicha unidad de exposición;
y
medios de control (32) para ejecutar un programa de juego que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego (M) establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional;
en el que dicho medio de control lleva a cabo:
un paso (S107) de determinación, al recibir la señal de operación desde dicho medio operacional, de una posición del punto de partida (N) desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación (Q) al cual dicho cuerpo de descarga disparado desde dicha posición de fuego arriba basada en la señal de detección recibida desde dicho medio de detección;
y un paso (S108, S109) de hacer que dicho medio de procesamiento de imagen genere la imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y exponiendo dicha imagen de la trayectoria en dicha unidad de exposición.
7. Un método de exposición de imagen en correspondencia con la reivindicación 6, en el que dicho medio de control lleva a cabo:
un paso de colocación de un objeto de trayectoria en el espacio virtual que cubre una parte (K) o la totalidad de una línea virtual (L2) dirigiéndose desde dicha posición del punto de partida (N) a dicha posición del punto de terminación(Q); y un paso de hacer que dicho medio de procesamiento de imagen genere dicha imagen de la trayectoria al proyectar dicho objeto de trayectoria en el plano de proyección de un sistema de coordenadas del punto de vista de dicho punto de vista y exponer dicha imagen de la trayectoria en dicha unidad de exposición.
8. Un método de exposición de imagen en correspondencia con la reivindicación 7, en el que dicho medio de control lleva a cabo:
un paso (S104) de determinación de si dicho objeto como blanco que intersecta dicha línea virtual existe en dicho espacio virtual; y
un paso (S105) de establecimiento de dicha posición del punto de terminación en el punto de intersección de dicho objeto como blanco y dicha línea virtual cuando dicho objeto como blanco existe.
9. Un método de exposición de imagen en correspondencia con la reivindicación 7, en el que dicho medio de control lleva a cabo:
un paso (S104) de determinación de si dicho objeto como blanco que intersecta dicha línea virtual existe en dicho espacio virtual; y
un paso (S106) de establecimiento de una distancia aproximadamente infinita en dicha línea virtual como dicha posición del punto de terminación cuando el objeto como blanco no existe.
10. Un producto de programa para ser ejecutado con un sistema de procesamiento de imagen que incluye:
medios de procesamiento de imagen (34) para colocar un objeto como blanco (CR) y un punto de vista en un espacio virtual, y generar una imagen de dicho objeto como blanco visto desde dicho punto de vis- ta;
una unidad de exposición (28) para exponer la imagen generada con dicho medio de procesamiento de imagen;
medios operacionales (10) a ser operados por un jugador para apuntar a un blanco expuesto en dicha unidad de exposición;
medios de detección (20, 22) para detectar al menos o la posición espacial o la dirección de dicho medio operacional en relación con dicha unidad de exposición;
y
medios de control (32) para ejecutar un programa incluyendo el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego (M) establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación desde dicho medio de operación;
en el que dicho producto de programa se adapta para hacer que dicho medio de control lleve a cabo:
un paso (S109) de determinación, al recibir la señal de operación de dicho medio operacional, de una posición del punto de partida (N) desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación (Q) a la cual el cuerpo de descarga disparado desde dicha posición de fuego arriba basada en la señal de detección recibida desde dicho medio de detección;
\newpage
y un paso (S108, S109) de hacer que dicho medio de procesamiento de imagen genere la imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y exponiendo dicha imagen de la trayectoria en dicha unidad de exposición.
11. Un producto de programa en correspondencia con la reivindicación 10 adaptado para hacer que dicho medio de control lleve a cabo:
un paso de colocar dicho objeto de trayectoria en el espacio virtual que cubre una parte (K) o la totalidad de una línea virtual (L2) dirigiéndose desde dicha posición del punto de partida (N) a dicha posición del punto de terminación (Q); y
un paso de hacer que dicho medio de procesamiento de imagen genere dicha imagen de la trayectoria proyectando dicho objeto de la trayectoria en el plano de proyección de un sistema de coordenadas del punto de vista de dicho punto de vista, y exponiendo dicha imagen de la trayectoria en dicha unidad de exposición.
12. Un producto de programa en correspondencia con la reivindicación 11 adaptado para hacer que el medio de control lleve a cabo:
un paso (S104) de determinación de si dicho objeto como blanco que intersecta dicha línea virtual existe en dicho espacio virtual y;
un paso (S105) de establecimiento de dicha posición del punto de terminación en el punto de intersección de dicho objeto como blanco y dicha línea virtual cuando dicho objeto como blanco existe.
13. Un producto de programa en correspondencia con la reivindicación 11 adaptado para hacer que dicho medio de control lleve a cabo:
un paso (S104) de determinación de si dicho objeto como blanco que intersecta dicha línea virtual existe en dicho espacio virtual; y
un paso (S105) de establecimiento de una distancia aproximadamente infinita en dicha línea virtual como dicha posición del punto de terminación cuando dicho objeto como blanco no existe.
ES05251275T 2004-03-31 2005-03-03 Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa. Active ES2308395T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-107621 2004-03-31
JP2004107621A JP4673570B2 (ja) 2004-03-31 2004-03-31 画像生成装置、画像表示方法及びプログラム

Publications (1)

Publication Number Publication Date
ES2308395T3 true ES2308395T3 (es) 2008-12-01

Family

ID=34909457

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05251275T Active ES2308395T3 (es) 2004-03-31 2005-03-03 Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa.

Country Status (7)

Country Link
US (1) US7722465B2 (es)
EP (1) EP1585063B1 (es)
JP (1) JP4673570B2 (es)
CN (1) CN100542645C (es)
DE (1) DE602005007095D1 (es)
ES (1) ES2308395T3 (es)
HK (1) HK1081307A1 (es)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2425356B (en) * 2005-04-20 2010-01-06 Richard Bruce Welch Sports game apparatus and method
TWI281623B (en) * 2005-05-10 2007-05-21 Pixart Imaging Inc Orientation point orientating method of orientation device and device thereof
JP4563266B2 (ja) * 2005-06-29 2010-10-13 株式会社コナミデジタルエンタテインメント ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及びプログラム
JP3869452B1 (ja) * 2005-07-28 2007-01-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP5063930B2 (ja) * 2006-05-09 2012-10-31 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム制御方法
JP5154775B2 (ja) * 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP4199817B1 (ja) * 2007-08-21 2008-12-24 株式会社コナミデジタルエンタテインメント 画像生成装置、画像生成方法、および、プログラム
WO2009031646A1 (ja) * 2007-09-07 2009-03-12 Konami Digital Entertainment Co., Ltd. 画像処理装置、ゲーム装置およびコンピュータプログラム
US8357043B2 (en) 2007-09-07 2013-01-22 Konami Digital Entertainment Co., Ltd. Motion determination apparatus, game apparatus therefor, and computer program therefor
JP2010026905A (ja) * 2008-07-23 2010-02-04 Sammy Corp 画像生成装置、遊技機、及びプログラム
JP2010026903A (ja) * 2008-07-23 2010-02-04 Sammy Corp 画像生成装置、遊技機、及び画像生成プログラム
JP5399030B2 (ja) * 2008-09-17 2014-01-29 株式会社タイトー ゲームプログラム、プログラム記憶媒体及びゲーム装置
US9244525B2 (en) * 2009-02-19 2016-01-26 Disney Enterprises, Inc. System and method for providing user interaction with projected three-dimensional environments
US8721444B2 (en) * 2009-07-21 2014-05-13 Sony Corporation Game device for performing operation object control and non-operation object control
JP2011024787A (ja) * 2009-07-27 2011-02-10 Konami Digital Entertainment Co Ltd 表示装置、表示方法、ならびに、プログラム
JP5388763B2 (ja) * 2009-08-31 2014-01-15 株式会社バンダイナムコゲームス プログラム
US8497902B2 (en) * 2009-12-18 2013-07-30 Sony Computer Entertainment Inc. System for locating a display device using a camera on a portable device and a sensor on a gaming console and method thereof
JP5839220B2 (ja) * 2011-07-28 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN103999551B (zh) 2011-12-14 2018-08-07 飞利浦灯具控股公司 用于控制照明的方法和装置
CN102521520B (zh) * 2011-12-22 2014-12-03 北京像素软件科技股份有限公司 应用于3d网络游戏中的相机控制方法
WO2013111119A1 (en) * 2012-01-27 2013-08-01 Saar Wilf Simulating interaction with a three-dimensional environment
JP6448196B2 (ja) * 2014-02-13 2019-01-09 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP6404196B2 (ja) 2015-09-16 2018-10-10 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
CN105426833A (zh) * 2015-11-13 2016-03-23 小米科技有限责任公司 用于游戏的图像识别方法及装置
US10518172B2 (en) * 2016-03-07 2019-12-31 Htc Corporation Accessory management of virtual reality system
CN109069927A (zh) * 2016-06-10 2018-12-21 Colopl株式会社 用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的系统
JP6677788B1 (ja) * 2018-11-29 2020-04-08 株式会社Cygames 情報処理プログラム、情報処理方法およびゲーム装置
JP6816175B2 (ja) * 2019-01-10 2021-01-20 本田技研工業株式会社 製品測定結果表示システム
CN109939438B (zh) * 2019-02-19 2022-09-13 腾讯数码(天津)有限公司 轨迹显示方法和装置、存储介质及电子装置
CN109976701B (zh) * 2019-03-14 2022-08-16 广州小鹏汽车科技有限公司 一种声场定位调节方法及车辆音响系统
CN111450532B (zh) * 2020-03-31 2021-05-14 腾讯科技(深圳)有限公司 追踪道具控制方法、装置、终端及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4068393A (en) * 1972-06-27 1978-01-17 Vsevolod Tararine Projectile firing training method and device
JPH0869274A (ja) 1994-08-30 1996-03-12 Sega Enterp Ltd 画像処理装置およびその方法
TW346611B (en) * 1996-03-28 1998-12-01 Sega Enterprises Kk An image processor, a game machine using the image processor, a method of image processing and a medium
JP3103322B2 (ja) * 1997-05-23 2000-10-30 コナミ株式会社 シューティングゲーム装置、シューティングゲームの画像表示方法及び可読記録媒体
JP3269797B2 (ja) * 1997-12-12 2002-04-02 株式会社ナムコ 画像生成装置及び情報記憶媒体
WO1999058214A1 (en) * 1998-05-13 1999-11-18 Sega Enterprises, Ltd. Gun-shaped controller and game machine
JP3662435B2 (ja) * 1998-12-17 2005-06-22 コナミ株式会社 射的ビデオゲーム装置
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
JP4172108B2 (ja) * 1999-08-09 2008-10-29 株式会社セガ ゲーム装置及びその制御方法
US6352479B1 (en) * 1999-08-31 2002-03-05 Nvidia U.S. Investment Company Interactive gaming server and online community forum
JP4475763B2 (ja) * 2000-07-28 2010-06-09 株式会社バンダイナムコゲームス ゲームシステム及び情報記憶媒体
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US7084888B2 (en) * 2001-08-09 2006-08-01 Konami Corporation Orientation detection marker, orientation detection device and video game device
EP1716896A3 (en) * 2001-11-22 2007-08-01 Konami Corporation Billiard game input device, billiard game system, game input device, and computer program
JP2003208263A (ja) * 2002-01-12 2003-07-25 Sega Corp コントロール装置及びその取付け体を有する画像処理装置

Also Published As

Publication number Publication date
CN1676184A (zh) 2005-10-05
DE602005007095D1 (de) 2008-07-10
CN100542645C (zh) 2009-09-23
HK1081307A1 (en) 2006-05-12
JP2005287801A (ja) 2005-10-20
US20050272506A1 (en) 2005-12-08
JP4673570B2 (ja) 2011-04-20
EP1585063B1 (en) 2008-05-28
EP1585063A1 (en) 2005-10-12
US7722465B2 (en) 2010-05-25

Similar Documents

Publication Publication Date Title
ES2308395T3 (es) Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa.
US9132342B2 (en) Dynamic environment and location based augmented reality (AR) systems
ES2257751T3 (es) Dispositivo de entrada para procedimiento de formacion de una imagen y aparato correspondiente.
JP6754678B2 (ja) シミュレーションシステム及びプログラム
ES2297896T3 (es) Dispositivo de generacion de imagenes.
US5704837A (en) Video game steering system causing translation, rotation and curvilinear motion on the object
ES2295498T3 (es) Dispositivo de procesamiento de imagenes para determinar la trayectoria de vuelo de un objeto.
US7637817B2 (en) Information processing device, game device, image generation method, and game image generation method
US8556716B2 (en) Image generation system, image generation method, and information storage medium
JP5390115B2 (ja) プログラム、ゲームシステム
US6972734B1 (en) Mixed reality apparatus and mixed reality presentation method
KR100537977B1 (ko) 비디오 게임 장치, 화상 처리 방법 및 프로그램 기록 매체
US10510189B2 (en) Information processing apparatus, information processing system, and information processing method
JP5614956B2 (ja) プログラム、画像生成システム
ES2308801T3 (es) Maquina de juego y medio de registro.
US6774900B1 (en) Image displaying device, image processing device, image displaying system
US20150097719A1 (en) System and method for active reference positioning in an augmented reality environment
JP2015198275A (ja) 画像生成システム及びプログラム
US20190143223A1 (en) Simulation system and game system
WO2015048890A1 (en) System and method for augmented reality and virtual reality applications
JP7071823B2 (ja) シミュレーションシステム及びプログラム
JP4282112B2 (ja) 仮想物体制御方法および仮想物体制御装置および記録媒体
US20130109475A1 (en) Game system, control method therefor, and a storage medium storing a computer program
JP2018064836A (ja) バーチャルゲーム装置
WO2013111119A1 (en) Simulating interaction with a three-dimensional environment