ES2308395T3 - Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa. - Google Patents
Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa. Download PDFInfo
- Publication number
- ES2308395T3 ES2308395T3 ES05251275T ES05251275T ES2308395T3 ES 2308395 T3 ES2308395 T3 ES 2308395T3 ES 05251275 T ES05251275 T ES 05251275T ES 05251275 T ES05251275 T ES 05251275T ES 2308395 T3 ES2308395 T3 ES 2308395T3
- Authority
- ES
- Spain
- Prior art keywords
- point
- image
- virtual space
- virtual
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 34
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012545 processing Methods 0.000 claims abstract description 56
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 230000004044 response Effects 0.000 claims abstract description 7
- 238000010586 diagram Methods 0.000 description 17
- 230000009466 transformation Effects 0.000 description 15
- 230000015654 memory Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 4
- 230000003936 working memory Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/573—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/219—Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/577—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
- A63F2300/643—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
- A63F2300/646—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car for calculating the trajectory of an object
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8076—Shooting
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Un dispositivo generador de imagen, que comprende: medios de procesamiento de imagen (34) para colocar un objeto como blanco (CR) y un punto de vista en un espacio virtual, y generar una imagen de dicho objetivo como blanco visto desde dicho punto de vista; una unidad de exposición (28) para exponer la imagen generada con dichos medios de procesamiento de imagen; medios operacionales (10) a ser operados por un jugador para apuntarle a un objetivo expuesto en dicha unidad de exposición; medios de detección (20, 22) para detectar al menos o la posición espacial o la dirección de dichos medios operacionales en relación con dicha unidad de exposición; y medios de control (32) para ejecutar un programa que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego (M) establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional; en el que dicho medio de control, al recibir la señal de operación de dicho medio operacional, determina una posición del punto de partida (N) desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación (Q) a la que arriba el cuerpo de descarga disparado desde dicha posición de fuego basada en la señal de detección recibida de dicho medio de detección, hace que dicho medios de procesamiento de imagen generen una imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y expone dicha imagen de la trayectoria en dicha unidad de exposición.
Description
Dispositivo de generación de imágenes, método de
exposición y producto de programa.
La presente invención se refiere a la tecnología
de procesamiento de imágenes apropiada para dispositivos de juegos y
para diversos simuladores (dispositivos de realidad virtual) que
llevan a cabo la exposición tridimensional de la imagen.
Se conoce de manera convencional un dispositivo
de juego para dispararle a un personaje como blanco (e. g. un
enemigo tal como una persona) que aparece en la pantalla utilizando
un controlador en forma de pistola que tiene una configuración que
imita a una pistola. Con este tipo de juego de disparos o similar,
en adición al juego que se juega al manipular a un personaje como
jugador que se expone en la pantalla, hay un juego que lleva a cabo
un denominado punto de vista en primera persona al exponer el status
en el espacio virtual (espacio de juego) visto en la pantalla desde
el punto de vista del operador. Como un resultado del punto de vista
en primera persona que se expone como una imagen, el operador será
capaz de disfrutar de una sensación de apuntar a un objeto como
blanco (un personaje enemigo, por ejemplo) en el espacio virtual
desde la boca del cañón del controlador en forma de pistola operado
por tal operador en el espacio real. La tecnología de exposición de
imágenes del punto de vista de tal primera persona se describe, por
ejemplo, en la Publicación Abierta de la Patente Japonesa No. H8 69
274.
En un juego de disparos, es preferible adoptar
el método de exposición exponiendo la trayectoria del proyectil
disparado desde la pistola del personaje del juego ya que la
expresividad de la imagen del juego se enriquecerá. No obstante, al
adoptar la expresión de la imagen del punto de vista de primera
persona antes descrito, era difícil expresar efectivamente la
trayectoria del proyectil. Específicamente, al adoptar la expresión
de la imagen del punto de vista de primera persona, de manera
general, se establece como el punto de vista virtual, una posición
que se corresponde a grandes rasgos con el punto de vista del
operador o una posición de la boca del cañón cercana a tal posición
y se genera una imagen bidimensional (imagen de juego) realizando la
transformación proyectiva al interior de la imagen del juego y
proyectando ésta en un plano de proyección prescrito en
correspondencia con este punto de vista virtual. No obstante, cuando
la posición de este punto de vista virtual se establece en el punto
de vista del operador o en una posición en su vecindad, como la
trayectoria del proyectil se dirigirá también a la posición a la que
se apunta desde el punto de vista virtual o a una posición en su
vecindad, la trayectoria en la imagen bidimensional obtenida
conforme a la transformación proyectiva será expuesta en un patrón
aproximado del tipo de puntos, y la trayectoria del proyectil no
podrá expresarse suficientemente.
Por tanto, un objeto de la presente invención
radica en proveer una tecnología que permita la expresión efectiva
de la trayectoria de un proyectil o similar que se dirige desde el
lado del operador hacia el espacio virtual en un dispositivo de
exposición de imagen adoptando por tanto el punto de vista de
primera persona.
En el primer aspecto de la presente invención,
se provee un dispositivo de generación de imagen, que comprende: el
medio de procesamiento de imagen para colocar un objeto como blanco
y un punto de vista en un espacio virtual, y generando una imagen de
dicho objeto como blanco visto desde dicho punto de vista; una
unidad de exposición para exponer la imagen generada con dicho medio
de procesamiento de imagen; medios operacionales para ser operados
por un jugador para apuntar a un objeto como blanco expuesto en
dicha unidad de exposición; medios de detección para detectar al
menos o la posición espacial o la dirección de dicho medio
operacional en relación con dicha unidad de exposición; y medios de
control para ejecutar un programa que incluye el procesamiento para
determinar la colisión de un cuerpo de descarga disparado desde una
posición de fuego establecida en dicho espacio virtual y dicho
objeto como blanco en respuesta a la señal de operación de dicho
medio operacional; en el que dicho medio de control, al recibir la
señal de operación de dicho medio operacional, determina una
posición del punto de partida desplazada de dicha posición de fuego
en dicho espacio virtual y una posición del punto de terminación al
cual arriba el cuerpo de descarga disparado desde dicha posición del
punto de partida basado en la señal de detección recibida de dicho
medio de detección, hace que dicho medio de procesamiento de imagen
genere una imagen de la trayectoria del cuerpo de descarga
dirigiéndose desde dicha posición del punto de partida hacia dicha
posición del punto de terminación, y expone dicha imagen de la
trayectoria en dicho unidad de exposición.
Aquí el término "medio operacional" puede
ser un controlador que puede sostener o portar el operador para dar
entrada a diversas instrucciones operacionales, y, aunque no hay
límite a su configuración, es preferible que tal controlador esté
conformado en una configuración asociada con la imagen generada con
el medio de generación de imagen. Como tipo de este medio
operacional, por ejemplo, hay un controlador en forma de pistola que
tiene una configuración que imita diversos tipos de pistolas
(pistola, rifle, escopeta láser, etc.). Aquí, el término
"objeto" se refiere a los diversos objetos que se colocan en el
espacio virtualmente establecido (espacio virtual), y, aunque no hay
límite a su contenido, pueden utilizarse diversos elementos tales
como personajes humanos o animales, objetos tales como obstáculos o
edificios, o elementos que constituyan el telón de fondo. Es más,
"un objeto como blanco" es un "objeto" antes descrito que
se convierte en blanco de la acción tal como un juego de disparos
(e. g. un objeto a convertirse en el personaje enemigo). Más aún, un
"cuerpo de descarga" por ejemplo, se corresponde con un
proyectil o similar en un juego de disparos.
En correspondencia con la constitución
precedente, como la imagen de la trayectoria se expone en una zona
que comienza desde una posición que es diferente a la de la posición
de fuego del cuerpo de descarga, la trayectoria en la imagen
bidimensional después de la transformación proyectiva no será un
patrón de puntos que exprese la trayectoria de un proyectil en un
juego de disparos o que exprese de otra manera las imágenes
similares a ésta. Por tanto, por ejemplo, será posible expresar
efectivamente la trayectoria de un proyectil o similar dirigiéndose
desde el lado del jugador hacia el espacio virtual en un dispositivo
de exposición de imagen de juegos y al hacerlo adoptar el punto de
vista de primera persona. En correspondencia con la presente
invención, en adición a la trayectoria de un proyectil, por
ejemplo, se posibilita la expresión efectiva de las imágenes en
varios casos como cuando se expresa una imagen apuntando a una
posición deseada en el espacio virtual con un puntero láser como
medio operacional.
Preferiblemente, el medio de control coloca un
objeto de la trayectoria en el espacio virtual que cubre una parte o
la totalidad de una línea virtual dirigiéndose desde la posición del
punto de partida a la posición del punto de terminación, hace que el
medio de procesamiento de imagen genere la imagen de la trayectoria
proyectando el objeto de la trayectoria en el plano de proyección
del punto de vista de un sistema de coordenadas del punto de vista y
expone la imagen de la trayectoria en la unidad de exposición.
Por tanto, puede generarse con facilidad una
imagen de la trayectoria.
Preferiblemente, cuando el objeto como blanco
que intersecta la línea virtual existe en el espacio virtual, el
medio de control establece la posición del punto de terminación en
el punto de intersección del objeto como blanco y la línea
virtual.
Por tanto, una imagen de la trayectoria será
expuesta en la zona desde una posición prescrita en la parte frontal
(lado del operador) hacia el punto de intersección con el objeto
como blanco. Por tanto, esto es preferible ya que puede llevarse a
cabo más acertadamente la expresión de la trayectoria sobre un
proyectil que golpea al objeto tal como un personaje enemigo en un
juego de disparos o similar, o la expresión de indicar una posición
prescrita de un objeto con un puntero de láser.
Preferiblemente, cuando el objeto como blanco
que intersecta la línea virtual no existe en el espacio virtual, el
medio de control establece una distancia infinita aproximada en la
línea virtual como posición del punto de terminación.
Por tanto, esto es preferible ya que la
expresión de la trayectoria sobre un proyectil que no golpeó el
objeto tal como un personaje enemigo en un juego de disparos o
similar que vuela a una distancia puede llevarse a cabo más
acertadamente.
En el segundo aspecto de la presente invención,
se provee un método de exposición de imagen de un dispositivo de
generación de imagen, que comprende: el medio de procesamiento de
imagen para colocar un objeto como blanco y un punto de vista en un
espacio virtual, y generando una imagen de dicho objeto como blanco
visto desde dicho punto de vista; una unidad de exposición para
exponer la imagen generada con dicho medio de procesamiento de
imagen; medios operacionales para ser operados por un jugador para
apuntar a un objeto como blanco expuesto en dicha unidad de
exposición; medios de detección para detectar al menos o la posición
espacial o la dirección de dicho medio operacional en relación con
dicho monitor; y medios de control para ejecutar un programa que
incluye el procesamiento para determinar la colisión de un cuerpo de
descarga disparado desde una posición de fuego establecida en dicho
espacio virtual y dicho objeto como blanco en respuesta a la señal
de operación de dicho medio operacional; en el que dicho medio de
control lleva a cabo: un paso de determinar, al recibir la señal
operacional de dicho medio operacional, una posición del punto de
partida desplazada de dicha posición de fuego en dicho espacio
virtual y una posición del punto de terminación al cual arriba el
cuerpo de descarga disparado desde dicha posición del punto de
partida basada en la señal de detección recibida de dicho medio de
detección; y un paso de hacer que dicho medio de procesamiento de
imagen genere la imagen de la trayectoria del cuerpo de descarga
dirigiéndose desde dicha posición del punto de partida hacia dicha
posición del punto de terminación, y exponiendo dicha imagen de la
trayectoria en dicha unidad de exposición.
Por tanto, la expresión efectiva de la
trayectoria de un proyectil o similar que se dirige del lado del
jugador hacia el espacio virtual se propicia en un dispositivo de
exposición de imagen de juegos y al hacerlo adopta el punto de vista
de primera persona.
Preferiblemente, el medio de control lleva a
cabo: un paso de colocar un objeto de la trayectoria en el espacio
virtual que cubre una parte o la totalidad de una línea virtual
dirigida desde la posición del punto de partida a la posición del
punto de terminación; y un paso de hacer que el medio de
procesamiento de imagen genere la imagen de la trayectoria al
proyectar el objeto de la trayectoria sobre el plano de proyección
del punto de vista de un sistema de coordenadas del punto de vista,
y exponiendo la imagen de la trayectoria en la unidad de
exposición.
Preferiblemente, el medio de control lleva a
cabo: un paso de determinación de si el objeto como blanco que
intersecta la línea virtual existe en el espacio virtual; y un paso
de establecimiento de la posición del punto de terminación en el
punto de intersección del objeto como blanco y la línea virtual
cuando el objeto existe.
Preferiblemente, el medio de control lleva a
cabo: un paso de determinación de si el objeto como blanco que
intersecta la línea virtual existe en el espacio virtual; y un paso
de establecimiento de una distancia infinita aproximada en la línea
virtual como la posición del punto de terminación cuando el objeto
como blanco no existe.
En el tercer aspecto de la presente invención,
se provee un producto de programa para ser ejecutado con un sistema
de procesamiento de imagen que incluye: medios de procesamiento de
imagen para colocar un objeto como blanco y un punto de vista en un
espacio virtual, y generando una imagen de dicho objeto como blanco
visto desde dicho punto de vista; una unidad de exposición para
exponer la imagen generada con dicho medio de procesamiento de
imagen; medios operacionales para ser operados por un jugador para
apuntar a un objeto como blanco expuesto en dicha unidad de
exposición; medios de detección para detectar al menos o la posición
espacial o la dirección de dicho medio operacional en relación con
dicha unidad de exposición; y medios de control para ejecutar un
programa que incluye el procesamiento para determinar la colisión de
un cuerpo de descarga disparado desde una posición de fuego
establecida en dicho espacio virtual y dicho objeto como blanco en
respuesta a la señal de operación de dicho medio operacional; en el
que dicho producto de programa se adapta para hacer que dicho medio
de control lleve a cabo: un paso de determinar, al recibir la señal
operacional de dicho medio operacional, una posición del punto de
partida desplazada de dicha posición de fuego en dicho espacio
virtual y una posición del punto de terminación al cual arriba el
cuerpo de descarga disparado desde dicha posición del punto de
partida basada en la señal de detección recibida de dicho medio de
detección; y un paso de hacer que dicho medio de procesamiento de
imagen genere la imagen de la trayectoria del cuerpo de descarga
dirigiéndose desde dicha posición del punto de partida hacia dicha
posición del punto de terminación, y exponiendo dicha imagen de la
trayectoria en dicha unidad de exposición.
Preferiblemente, el producto de programa está
constituido además para ser capaz de hacer que los medios de control
lleven a cabo: un paso de colocar un objeto de la trayectoria en el
espacio virtual cubriendo una parte o la totalidad de una línea
virtual dirigida desde la posición del punto de partida a la
posición del punto de terminación; y un paso de hacer que el medio
de procesamiento de imagen genere la imagen de la trayectoria al
proyectar el objeto de la trayectoria en el plano de proyección del
punto de vista de un sistema de coordenadas del punto de vista y
exponiendo la imagen de la trayectoria en la unidad de
exposición.
Preferiblemente, el producto de programa está
constituido además para ser capaz de hacer que los medios de control
lleven a cabo: un paso de determinación de si el objeto como blanco
que intersecta la línea virtual existe en el espacio virtual; y un
paso de establecimiento de la posición del punto de terminación en
el punto de intersección del objeto como blanco y la línea virtual
cuando existe el objeto como blanco.
Preferiblemente, el producto de programa está
constituido además para ser capaz de hacer que los medios de control
lleven a cabo: un paso de determinación de si el objeto como blanco
que intersecta la línea virtual existe en el espacio virtual; y un
paso de establecimiento de una distancia infinita aproximada en la
línea virtual como posición del punto de terminación cuando el
objeto como blanco no existe.
La Figura 1 es un diagrama que explica la
constitución del dispositivo de juego en correspondencia con una
realización que emplea la presente invención;
La Figura 2 es un diagrama que explica un
ejemplo específico de la constitución del hardware que lleva a cabo
la unidad de control de juego;
La Figura 3(A) y la Figura 3(B)
son diagramas que explican el método de cálculo de la posición y la
dirección del controlador en forma de pistola;
La Figura 4 es un diagrama que explica otro
ejemplo del método de cálculo de la posición y la dirección del
controlador en forma de pistola;
La Figura 5 es un diagrama que explica la
relación entre la posición de fuego del proyectil en el espacio
virtual y el objeto tal como un personaje enemigo colocado en el
espacio virtual;
La Figura 6 es un diagrama que explica la
relación entre la posición de fuego del proyectil en el espacio
virtual y el objeto tal como un personaje enemigo colocado en el
espacio virtual;
La Figura 7 es un diagrama de flujo que explica
los procedimientos del proceso de generación de imagen; y
La Figura 8 es un diagrama que muestra un
ejemplo de exposición de la imagen de juego.
Las realizaciones de la presente invención se
explican ahora con referencia a los dibujos.
La Figura 1 es un diagrama que explica la
constitución del dispositivo de juego en correspondencia con una
realización que emplea la presente invención. El dispositivo de
juego 100 mostrado en la Figura 1 es para que un jugador (operador)
juegue un juego de disparos mientras mira la imagen de juego
expuesta de manera tridimensional en un monitor (unidad de
exposición) 28, y está constituida incluyendo un controlador 10 en
forma de pistola y un cuerpo del dispositivo de juego 12.
El controlador 10 en forma de pistola es un
medio operacional que tiene una configuración que imita la
apariencia de varios tipos de pistola (e. g., ametralladora,
pistola, rifle, escopeta láser, etc.). El controlador 10 en forma de
pistola está en estado inalámbrico en el cual no se provee un cable
de conexión con el cuerpo del dispositivo de juego 12, y el jugador
es capaz de operar libremente tal controlador sin estar sujeto a
restricciones de ningún tipo respecto al área operacional. La
transferencia de señales y similares entre el cuerpo del dispositivo
de juego 12 y el controlador 10 en forma de pistola se lleva a cabo
vía comunicación inalámbrica. Por tanto, el controlador 10 en forma
de pistola tiene una unidad de emisión de luz en la parte delantera
de la cubierta (cerca de la boca del cañón) y emite una señal
infrarroja desde tal unidad de emisión de luz. La señal infrarroja
corresponde a la onda detectable sujeta a detección mediante los
sensores respectivos 20a a 20d. Incidentalmente, en adición a la luz
infrarroja, pueden utilizarse ondas electromagnéticas de diversas
longitudes de onda tales como luz visible, u ondas sonoras, para
trasmitir la onda detectable. Adicionalmente, el control en forma de
pistola 10 de la presente realización lleva a cabo el control para
cambiar el estado de la salida de la onda detectable desde la unidad
de emisión de luz en correspondencia con el contenido de las
instrucciones operacionales (e. g. si se ha apretado el disparador).
Por ejemplo, se lleva a cabo el control para hacer que la onda
detectable destelle como un pulso, y el contenido de la instrucción
operacional se solapa con la onda detectable al variar este estado
de destello y expresar una señal digital (señal
seriada).
seriada).
El cuerpo del dispositivo de juego 12 está
constituido incluyendo una pluralidad de sensores 20a a 20d, una
unidad de control de sensores 22, una unidad de control de juego 24,
una bocina 26 y un monitor 28.
Cada uno de los sensores respectivos 20a a 20d
está colocado en la vecindad de las cuatro esquinas de la pantalla
28a del monitor 28, detectando la intensidad de la onda detectable
(señal infrarroja) transmitida desde el controlador 10 en forma de
pistola, y le da salida al resultado de la detección hacia la unidad
de control de sensores 22. Los sensores respectivos 20a a 20d en la
realización presente tienen planos sensores (planos detectores)
colocados hacia tres direcciones mutuamente diferentes. Los detalles
respecto a la disposición de los sensores 20a a 20d se describirán
más adelante.
La unidad de control de sensores 22 calcula la
posición y dirección del controlador 10 en forma de pistola en el
espacio real basada en la relación de la intensidad de la onda
detectable detectada respectivamente con la pluralidad de sensores
20a a 20d. Los detalles respecto al método de cálculo de la posición
y dirección en relación con la unidad de control de sensores 22 se
describirán más adelante.
La unidad de control de juegos 24 establece el
progreso del juego y genera una imagen de juego en correspondencia
con el contenido de la entrada de la instrucción operacional con el
controlador 10 en forma de pistola, y la posición y/o dirección de
tal controlador 10 en forma de pistola, y contiene los bloques
funcionales respectivos de la unidad de cómputo del juego 32, la
unidad de generación de imagen 32 y la unidad de generación de
sonido 34. Esta unidad de control de juego 24 está constituida por
un computador equipado con medios similares a un CPU
(microprocesador), ROM (memoria), RAM (memoria de trabajo) y
similares y un programa prescrito contenido en éstas. Los ejemplos
específicos se describirán posteriormente.
La unidad de cómputo de juego 30 se utiliza para
llevar a cabo los diversos cómputos requeridos en el progreso del
juego, y lleva a cabo el procesamiento para establecer el
comportamiento de los diversos objetos (e. g. personaje enemigo y
similares) en el espacio virtual al reflejar la entrada de la
instrucción operacional con el controlador 10 en forma de pistola y
la posición y/o dirección del controlador 10 en forma de pistola
calculado con la unidad de control de sensores 22. Aunque los
detalles se describirán más adelante, esta unidad de cómputo de
juego 30 corresponde a los "medios de sustitución de la
posición/dirección", "medios de establecimiento del punto de
partida/terminación" o "medios de control".
La unidad de generación de imagen (medios de
procesamiento de imagen) 34 genera una imagen bidimensional (imagen
de juego) vista desde un punto de vista virtual en el espacio de
juego en correspondencia con el resultado del cómputo de la unidad
de cómputo de juego 30. La imagen de juego generada con esta unidad
de generación de imagen 32 se expone en el monitor 28.
La unidad de generación de sonido 34 genera
diversos sonidos del juego (e. g. sonidos de explosión y música de
fondo) requeridos para el progreso del juego en correspondencia con
el resultado del cómputo de la unidad de cómputo del juego. El
sonido del juego generado con esta unidad de generación de sonido 34
sale de la bocina 26.
La Figura 2 es un diagrama que explica un
ejemplo específico de la constitución del hardware que lleva a cabo
la unidad de control de juego 24. La unidad de control de juego 24
mostrada en la Figura 2 está constituida al incluir una interfase de
entrada 100, un CPU (procesador) 101, una (memoria) ROM 102, una
(memoria de trabajo) RAM 103, un procesador de vídeo 104, una
memoria de vídeo 105, un convertidor digital/analógico (D/A) 106, un
procesador de sonido 107 y una memoria de sonido 108.
\newpage
La interfase de entrada 100 recibe información
respecto a la posición y dirección de, y el disparo de proyectiles
desde, el controlador 10 en forma de pistola desde la unidad de
control de sensores 22, y escribe tal información (datos) en una
dirección prescrita de la memoria de trabajo RAM 103.
El procesador CPU 101 ejecuta el programa de
juego leído desde la memoria ROM 102 y escrito en la memoria de
trabajo RAM 103, y lleva a cabo el cómputo de juego para establecer
el progreso del juego en lo sucesivo. Es más, el procesador 101
determina el valor coordenado (valor coordenado en el sistema
mundial de coordenadas) de un objeto tal como los diversos
caracteres o estructuras en el espacio de juego en correspondencia
con el progreso del juego establecido, y lleva a cabo el
procesamiento (transformación proyectiva) para proyectar este valor
coordenado en el valor coordenado en un sistema coordenado del campo
visual con una matriz de conversión prescrita.
La memoria ROM 102 almacena el programa del
juego precedente y diversos datos (e. g. datos del polígono, datos
de textura, etc.) utilizados en el cómputo del juego. La memoria de
trabajo RAM 103 es una memoria de acceso aleatorio que funciona como
un área de trabajo para almacenar temporalmente diversos datos en el
procesador 101 que lleva a cabo el cómputo del juego.
El procesador de vídeo 104 le lamina la textura
a los diversos objetos convertidos en un sistema coordenado del
campo visual y genera la extracción de datos correspondientes a la
imagen de juego a ser expuesta en la secuencia subsiguiente, y
escribe esto en la memoria de vídeo 105. Adicionalmente, el
procesador de vídeo 104 lee de la memoria de vídeo 105 la extracción
de datos correspondientes a la imagen de juego a ser expuesta en la
pantalla actual y le da salida a ésta al convertidor D/A 106. Como
resultado de esta extracción de datos convertida en una señal
analógica de vídeo con el convertidor D/A 106 y salida al monitor
28, se expone una imagen del juego en la pantalla del monitor
28.
El procesador de sonido 107 genera datos de
sonido para proveer efectos de sonidos en correspondencia con el
progreso del juego y escribe éstos en la memoria de sonido 108, y
además lee los datos de sonido de la memoria de sonido 108 tal como
se requiere y convierte tales datos de sonido en una señal analógica
de sonido y le da salida a ésta a la bocina 26. El sonido del juego
sale de la bocina 26 basado en la señal de sonido precedente.
A continuación, el método de cálculo de la
posición y dirección del controlador en forma de pistola 10 se
explica en detalle.
La Figura 3(A) y la Figura 3(B)
son diagramas que explican el método de cálculo de la posición y
dirección del controlador en forma de pistola. Específicamente, la
Figura 3(A) muestra la relación de la posición espacial del
controlador en forma de pistola y de los sensores respectivos, y la
Figura 3(B) muestra la definición de los vectores que indican
la dirección del controlador en forma de pistola.
Como se muestra en la Figura 3(A), cada
uno de los sensores 20a a 20d está colocado en la vecindad de las
cuatro esquinas de la pantalla 28a del monitor 28. En detalle, el
sensor 20a está colocado en la parte superior izquierda de la
pantalla 28a, el sensor 20b está colocado en la parte superior
derecha de la pantalla 28a, el sensor 20c está colocado en la parte
inferior de la pantalla 28a, y el sensor 20d está colocado en la
parte inferior derecha de la pantalla 28a. En este ejemplo,
básicamente el área rodeada por estos sensores 20a a 20d será el
área de detección. Esta área de detección es el área a la que se
apunta con el controlador 10 en forma de pistola. Aunque esto
también dependerá de la sensibilidad de cada sensor, el área en la
cual los sensores respectivos son capaces de detectar la onda
detectable trasmitida desde el controlador 10 en forma de pistola
será un área que es más ancha que el área de detección
precedente.
Los sensores respectivos 20a a 20d tienen tres
planos sensorios colocados hacia direcciones mutuamente diferentes,
y estos tres planos sensorios están mirando respectivamente a la
dirección X (dirección horizontal) a la dirección Y (dirección
vertical) y a la dirección Z (dirección de profundidad). Cada uno de
estos sensores 20a a 20d detecta, con los tres planos sensorios, la
intensidad (cantidad de luz infrarroja entrante en este ejemplo) de
la señal detectable en las direcciones X, Y, Z trasmitida desde el
controlador 10 en forma de pistola.
La unidad de control de sensores 22 busca el
vector tridimensional de dirección que representa la posición del
controlador 10 en forma de pistola, con la posición establecida de
cada sensor 20a a 20d como el punto básico, basado en la relación
entre la cantidad de luz entrante en las direcciones X, Y ,Z de los
sensores respectivos 20a a 20d. Como se muestra en el diagrama, el
vector de dirección va correspondiente al sensor 20a, el vector de
dirección vb correspondiente al vector 20b, el vector de dirección
vc correspondiente al sensor 20c, y el vector de dirección vd
correspondiente al sensor 20d se buscan respectivamente. Como un
resultado de la síntesis de estos vectores de dirección va, vb, vc y
vd, la posición del controlador puede obtenerse como un valor
tridimensional delas coordenadas (x, y, z). Adicionalmente, la
dirección del controlador se obtiene como dos ángulos: a saber, el
ángulo \theta formado con el plano XZ, y \phi formado con el
plano XY.
Aquí, mientras se conozca el vector de dirección
con los sensores en al menos dos localizaciones como punto básico,
puede conocerse la posición del controlador 10 en forma de pistola.
Es más, cuando el controlador 10 en forma de pistola emite luz en
una posición arbitraria hacia una dirección arbitraria, la relación
de la cantidad de luz que entra en cada sensor 20a a 20d se
determinará de manera única. Por tanto, la unidad de control de
sensores 22 calcula la dirección hacia la cual mira el controlador
10 en forma de pistola basada en la relación de la cantidad de luz
entrante respecto a los sensores respectivos 20a a 20d.
Incidentalmente, aunque la dirección del controlador 10 en forma de
pistola pueda definirse apropiadamente, por ejemplo, sería
preferible hacerla corresponder con la dirección del cañón de la
pistola.
Por ejemplo, asumiendo que la resolución de la
pantalla 28a es de 640 x 480 puntos (equivalente VGA). Cuando las
posiciones respectivas en la pantalla se representan con coordenadas
(x, y) basadas en el eje X-Y con la parte superior
izquierda de la pantalla 28a como el punto de origen, como se
muestra en el diagrama, puede representarse respectivamente el
centro de la pantalla A (320, 240), el borde derecho del centro de
la pantalla B (640, 240), el borde izquierdo del centro de la
pantalla C (240, 0), el borde inferior del centro de la pantalla D
(320, 480), y el borde superior del centro de la pantalla E (320,
0). Adicionalmente, se establece el área capaz de detectar el ángulo
del controlador en forma de pistola. Por ejemplo, en este caso, el
ángulo vertical del controlador en forma de pistola se fija en -30°
a +30° y el ángulo lateral se fija a -45° a +45°. Bajo estas
condiciones, se determina la correspondencia del ángulo del
controlador en forma de pistola y el punto de fuego.
Cuando el ángulo vertical del controlador en
forma de pistola es de 0° y el ángulo lateral es de -45°, el punto C
(0, 240) se fija como el "punto de fuego".
Cuando el ángulo vertical del controlador en
forma de pistola es de -30° y el ángulo lateral es de 0°, el punto D
(320, 480) se fija como el "punto de fuego".
Cuando el ángulo vertical del controlador en
forma de pistola es de +30° y el ángulo lateral es de 0°, el punto E
(640, 240) se fija como el "punto de fuego".
Aunque los valores anteriores representan las
coordenadas del punto de fuego en la pantalla, correspondientes a
los valores máximos del ángulo vertical o del ángulo lateral, con
respecto a las posiciones intermedias, las coordenadas que están en
cambio continuo se calculan en correspondencia con el ángulo
vertical o el ángulo lateral. Los ángulos vertical y lateral del
controlador en forma de pistola correspondientes al punto de fuego
arbitrario P (x, y) en la pantalla serán (\theta, \phi).
En cada uno de los métodos precedentes antes
descritos, cuando la posición y dirección del controlador 10 en
forma de pistola se calculan como se describe anteriormente, será
posible determinar desde que sitio y desde que ángulo el jugador que
utiliza el controlador 10 en forma de pistola está apuntando a la
pantalla 28 y determinar también la distancia del jugador (cerca o
lejos) con respecto a la pantalla. Por tanto, la posición espacial y
la dirección (posición relativa en el espacio real) del controlador
10 en forma de pistola en relación con el monitor 28 puede
sustituirse con una posición en el espacio virtual para determinar
la relación de posición relativa (distancia, dirección) del objeto
que existe en tal espacio virtual y del controlador 10 en forma de
pistola, pudiendo hacerse varias presentaciones de juego utilizando
tal razonamiento.
A continuación se explica el procesamiento para
generar una imagen de juego (imagen bidimensional) incluyendo la
trayectoria de un proyectil a ser disparado virtualmente desde el
controlador 10 en forma de pistola.
La Figura 5 es un diagrama que explica la
relación de la posición respecto a la posición de fuego del
proyectil en el espacio virtual y el objeto tal como un personaje
enemigo colocado en el espacio virtual. La Figura es una vista en
planta del espacio virtual mostrado como un formato de secuencia en
la Figura 5.
Primero, la posición de fuego M del proyectil en
el espacio virtual se determina basándose en los métodos respectivos
antes descritos. El punto de fuego detectado basado en el monitor 28
es m, y este punto de fuego m se comprende como un punto en la
superficie del plano de proyección S al generar la imagen
bidimensional. Al simular la línea virtual L1 que se extiende desde
esta posición de fuego M o del punto de fuego m a lo largo de la
dirección en el espacio virtual designado con el controlador 10 en
forma de pistola, el punto de impacto (punto de terminación) Q se
establece en una posición prescrita sobre tal línea virtual L1. Como
se muestra en la Figura 5, cuando un objeto como blanco CR (e. g.
personaje enemigo) que intersecta a la línea virtual L1 se coloca en
el espacio virtual, el punto de intersección del objeto como blanco
CR y la línea virtual L1 se establecerán como el punto de impacto Q.
Es más, cuando un objeto como blanco que intersecta la línea virtual
L1 no existe en el espacio virtual, se establece una posición
apropiada, por ejemplo un posición en la extensión de la línea
virtual L1 a una distancia extremadamente lejana (una distancia
aproximadamente infinita). Esto es, en la realización presente, el
razonamiento de impacto se hace al considerar la posición y
dirección del controlador 10 en forma de pistola.
A continuación, se establece un punto de partida
N en una posición en la que la posición de fuego del controlador en
el espacio virtual se desplaza una cantidad predeterminada en la
dirección horizontal (dirección lateral). Incidentalmente, la
dirección de desplazamiento de la posición N del punto de partida no
se limita a la dirección horizontal, y la dirección vertical puede
incluirse también. Aquí, el punto de vista virtual (punto de vista
de la cámara) para generar la imagen bidimensional se establece para
que se corresponda aproximadamente con el cañón del controlador 10
en forma de pistola; esto es, la posición y dirección del
controlador en forma de pistola en el espacio virtual. En otras
palabras, la posición del punto M en la Figura 5 y en la Figura 6 se
convertirá en el punto de vista virtual. Por tanto, la imagen
bidimensional generada de acuerdo con la transformación proyectiva
del espacio virtual se convertirá en un denominado punto de vista de
primera persona. A partir de ahí, se establece en el espacio virtual
un objeto de trayectoria que cubre una parte o la totalidad de la
zona K conectando el punto de impacto Q y la posición del punto de
partida. Como resultado el objeto de la trayectoria está sujeto a la
transformación proyectiva para obtener una imagen lineal, y ésta
quedará contenida en la imagen bidimensional.
Incidentalmente, el punto de vista virtual puede
establecerse en una posición desplazando la posición del punto M
hacia arriba una distancia prescrita para que el punto de vista
virtual esté más cerca que el punto de vista del operador.
Adicionalmente, como muestra la Figura 6, es
preferible asociar el comportamiento del objeto como blanco (objeto
enemigo) después del impacto en la dirección a lo largo de la linea
virtual L2. Por ejemplo, cuando la dirección del objeto como blanco
despedido impactado por el proyectil se establece en una dirección a
lo largo de la línea virtual L2, esto es preferible debido a que tal
dirección se corresponderá con la dirección de la trayectoria del
proyectil.
En el dispositivo de juego 100, el jugador es
capaz de llevar a cabo dos operaciones principales para jugar un
juego de disparos al apuntar a enemigos con el controlador 10 en
forma de pistola. Una de estas operaciones consiste en determinar a
que posición en la pantalla 28a debe apuntarse (rol 1) y la otra
operación consiste en determinar la posición y dirección visual del
punto de vista virtual (rol 2). Esto se explica en detalle a
continuación.
Cuando el jugador mueve el controlador 10 en
forma de pistola la unidad 30 de cómputo de juego adquiere al menos
un tipo de información de la posición o del ángulo del controlador
10 en forma de pistola en correspondencia con éste, y determina la
posición y dirección visual del punto de vista virtual en el espacio
virtual de la información de la posición y/o de la información del
ángulo.
El proceso precedente se lleva a cabo en un
intervalo prescrito (e. g. para cada secuencia o en cada 1/60
segundos), y, cuando el jugador mueve el controlador 10 en forma de
pistola, la posición y dirección visual del punto de vista virtual
cambiará en correspondencia con éste. Por tanto, una imagen
tridimensional simulada (imagen bidimensional proyectada) del
espacio virtual visto desde el punto de vista virtual se genera en
tiempo real, exponiéndose en el monitor una imagen siempre
cambiante.
Cuando existe un objeto como blanco en el área
del espacio virtual visto desde el punto de vista virtual del
sistema de coordenadas del punto de vista determinado como se
describió anteriormente (c. f. Figura 5), se expondrá en el monitor
una imagen tridimensional simulada (imagen bidimensional proyectada)
en la cual el objeto como blanco se proyecta en el plano de
proyección S.
A continuación, el jugador colocará el
controlador 10 en forma de pistola dirigido hacia la pantalla 28a
para apuntar al objeto como blanco expuesto en la pantalla 28a.
Aquí, la unidad de cómputo de juego 30 adquiere al menos un tipo de
información de la posición o del ángulo del controlador 10 en forma
de pistola de la unidad de control de sensores 22, y calcula la
posición a la que el jugador apunta en la pantalla 28a.
Aquí, al llevar a cabo el proceso anterior,
cuando el controlador 10 en forma de pistola se utiliza para
disparar, pueden llevarse a cabo varias rutinas de procesamiento
tales como (1) el método de conmutar el "modo de cambio del punto
de vista (rol 1)" y el "modo de disparo (rol 2)" de acuerdo
con las condiciones prescritas; (2) el método de conmutar el "modo
de cambio del punto de vista (rol 1)" y el "modo de disparo
(rol 2)" en correspondencia con la operación del jugador; y (3)
el método de no conmutar los modos.
Las condiciones bajo las cuales se conmuta al
modo de juego se establecen (programan) por adelantado, y cuando
tales condiciones se satisfacen, la operación del punto de vista
virtual del jugador que mueve el controlador 10 en forma de pistola
se invalida. En otras palabras, el sistema de coordenadas del punto
de vista se determina en el punto en que se satisfacen las
condiciones. Como resultado, debido a que el punto de vista no se
cambiará en correspondencia con el movimiento del controlador 10, el
jugador será capaz de mover el controlador 10 mientras mira una
imagen de un punto de vista estable, y apuntar a una posición
prescrita en la pantalla 28a. Las condiciones para la conmutación de
modos, por ejemplo, pueden suceder cuando existe un objeto como
blanco en un área prescrita en el espacio virtual visto desde el
punto de vista virtual. Aquí, la unidad de cómputo del juego 30
puede llevar a cabo el procesamiento de razonamiento de si existe el
objeto como blanco en un área prescrita de las coordenadas de tal
objeto como blanco en el espacio virtual, y conmutar al modo de
disparo cuando exista tal objeto como blanco.
La conmutación al modo de disparo también puede
determinarse con la unidad 30 de cómputo de juego basada en la
señal de operación del jugador. Específicamente, se provee un
conmutador (medio de conmutación) en el controlador 10 en forma de
pistola. Cuando el jugador presiona el conmutador y la unidad de
cómputo de juego 30 recibe una señal de conmutación enviada desde el
controlador 10, la unidad de cómputo del juego 30 cambia al modo de
disparo. Después de conmutar al modo de disparo, la operación del
punto de vista virtual basada en el controlador 10 en movimiento se
invalidará. En otras palabras, aún al adquirir la información de la
posición y/o ángulo del controlador 10, la unidad de cómputo de
juego 30 no llevará a cabo el proceso de cambio de la posición y
dirección visual del punto de vista virtual del espacio virtual en
correspondencia con tal información, generando una imagen de
transformación perspectiva vista desde el punto de vista virtual
cambiado. Aquí el sistema de coordenadas del punto de vista se
determina cuando el jugador presiona el conmutador y se recibe la
señal de la operación. Por tanto como el punto de vista virtual será
cambiado mediante el movimiento siguiente del controlador 10 en
forma de pistola, el jugador será capaz de operar dicho controlador
10 mientras mira una imagen de un punto de vista estable para
apuntarle a una posición prescrita en la pantalla 28a.
Cada vez que el jugador coloca el controlador 10
en forma de pistola contra la pantalla 28a y apunta la boca del
cañón hacia la pantalla 28a en un ángulo prescrito para apuntar al
objeto como blanco expuesto en la pantalla 28a, la unidad de cómputo
de juego 30 adquiere al menos una información de la posición o del
ángulo del controlador 10 de la unidad de control de sensores 22, y
determina la posición en la pantalla adonde el jugador apunta con el
controlador 10 y la posición y dirección visual del punto de vista
virtual en el espacio virtual. Por tanto, cuando el jugador mueva el
controlador 10, la posición y dirección visual del punto de vista
virtual seguirá a tal movimiento y cambiará, al igual que la imagen
tridimensional simulada (imagen bidimensional), después que el
sistema de coordenadas del punto de vista cambiado sujeto a la
transformación perspectiva, se exponga en la pantalla 28a.
Simultáneamente, ya que las coordenadas de posición en la pantalla
28a a las cuales el jugador apunta el controlador 10 también
cambiarán, el procesamiento de razonamiento del impacto con el
objeto como blanco se llevará a cabo basado en tales coordenadas de
posición cambiadas. Aquí, al jugador se le exigirán habilidades
operacionales más sofisticadas, por tanto la dificultad del juego
aumentará y se brindará un juego que puede parecer atractivo a los
jugadores de gran habilidad operacional (jugadores
experimentados).
A continuación, se explica la exposición de la
trayectoria del proyectil en el "modo de disparo" anterior. En
el anterior modo de disparo, debido a que el punto de vista virtual
en el espacio virtual no cambiará aún cuando el jugador mueva el
controlador 10, el jugador será capaz de jugar el juego de disparos
operando el controlador 10 mientras mira a la pantalla con un punto
de vista estable y apunta a una posición prescrita en la pantalla
28a. La unidad de cómputo de juego 30 adquiere al menos la
información de la posición o la información del ángulo del
controlador 10 de la unidad de control de sensores 22, y determina
la posición y dirección visual del punto de vista virtual M en el
espacio virtual. La Figura 5 muestra un estado en el que existe un
objeto como blanco en el área visible en el espacio virtual visto
desde el punto de vista determinado M del sistema de las coordenadas
del punto de vista.
El punto de vista virtual M se establece en una
posición a nivel de la línea de los ojos del objeto del personaje
del jugador cuando se asume que existe un objeto del personaje del
jugador en el espacio virtual. Por tanto, la imagen del personaje
del jugador operado por el jugador no se expondrá en la pantalla 28a
del monitor 28 y se expondrá como una imagen del denominado punto de
vista de primera persona.
Aquí, una posición virtual de la boca del cañón
(posición de disparo del proyectil) se establece en una posición que
es aproximadamente la misma que el punto de vista virtual M del
espacio virtual y, cuando la unidad de cómputo de juego 30 recibe
una señal de entrada del disparador de acuerdo a la operación del
jugador a partir del controlador 10 en forma de pistola, asume que
ha sido disparado un cuerpo de descarga (por ejemplo un proyectil)
desde la posición de fuego del espacio virtual, y lleva a cabo un
razonamiento de colisión con el objeto como blanco CR.
La unidad de cómputo de juego 30 adquiere al
menos la información de la posición o la información del ángulo de
la unidad de control de sensores 22, y determina la posición en la
pantalla 28a a la que el jugador está apuntando con el controlador
10. A continuación, se calcula la posición m en el plano perspectivo
de proyección S del punto de vista virtual M del sistema de
coordenadas del punto de vista en el espacio virtual correspondiente
a la posición apuntada en la pantalla 28 antes determinada. Se
simula una línea virtual L1 que se extiende a lo largo de la
dirección que se dirige desde el punto de vista virtual M hacia la
coordenada m en el plano de proyección S y se lleva a cabo el
razonamiento de colisión con el objeto como blanco CR basado en esta
línea virtual L1. Como se muestra en el diagrama, cuando un objeto
como blanco CR (e. g. cuerpo como blanco tal como un personaje
enemigo) que intersecta la línea virtual L1 se coloca en el espacio
virtual, el punto de intersección del objeto como blanco CR y la
línea virtual L1 se establecerán como el punto de impacto Q. Además,
cuando no exista en el espacio virtual un objeto como blanco que
intersecte con la línea virtual L1, se establece como punto de
impacto Q una posición apropiada, por ejemplo, una posición en la
extensión de la línea virtual L1 a una distancia extremadamente
lejana (una distancia aproximadamente infinita). Esto es, en la
realización presente, el razonamiento de impacto se lleva a cabo
mientras se considera la posición y dirección del controlador 10.
Incidentalmente, el procesamiento del razonamiento de impacto puede
llevarse a cabo basado en la comparación de la posición m en el
plano perspectivo de la proyección S del punto de vista virtual M
del sistema de coordenadas del punto de vista, y del área de
razonamiento de impacto establecida en el objeto como blanco CR
proyectado en tal plano perspectivo de proyección S.
A continuación, se explica la exposición de la
trayectoria. Cuando la unidad de cómputo de juego 30 recibe una
señal de entrada del disparador basada en la operación del jugador
desde el controlador 10, ésta lleva a cabo el procesamiento de
razonamiento del impacto antes mencionado y adicionalmente lleva a
cabo el procesamiento de generación de la imagen para exponer la
trayectoria del proyectil en el monitor 28. Específicamente, cuando
la unidad de cómputo de juego 30 recibe una señal de entrada del
disparador basada en la operación del jugador, ésta determina el
punto de impacto Q (posición del punto de terminación) en el espacio
virtual adquiriendo al menos la información de la posición o del
ángulo de la unidad de control de sensores 22. A continuación, se
determina una posición desplazada (posición del punto de partida) de
la posición de fuego (o punto de vista virtual M) del espacio
virtual. La posición del punto de partida se busca calculando la
distancia a ser desplazada en correspondencia con la información del
ángulo adquirida. La dirección a desplazar también se calcula en
correspondencia con la información del ángulo adquirida. Y, se lleva
a cabo el procesamiento de tal información para exponer en la
pantalla 28a del monitor 28 la imagen de la trayectoria de un
proyectil dirigiéndose desde la posición de partida N, después de
haberse desplazado una cantidad prescrita, hacia el anterior punto
de impacto Q (posición del punto de terminación). Por ejemplo, un
objeto de trayectoria que cubra una parte de la línea virtual L2 que
conecta el punto de impacto Q y el punto de partida N; esto es, una
parte o la totalidad de la zona K, está colocada en el espacio
virtual. Por tanto, el objeto de la trayectoria está sujeto a la
transformación perspectiva en el plano de proyección S del punto de
vista virtual M del sistema de coordenadas del punto de vista y se
genera y expone una imagen bidimensional que contiene la imagen de
la trayectoria.
Aquí, se explica en detalle el método de cálculo
de "la posición del punto de partida N después de haberse
desplazado una cantidad preestablecida". Los datos de la imagen
generada por un objeto en el espacio virtual proyectada en el plano
de proyección S del sistema virtual de coordenadas del punto de
vista con la unidad de generación de imagen 32 se almacenan en el
búfer de la secuencia (memoria de vídeo 105) en la unidad de
generación de imagen 32. Y, los datos de la imagen escritos en el
búfer de la frecuencia enviados desde la unidad de generación de
imagen 32 al monitor 28, y expuestos como una imagen en la pantalla
28a se leen dentro de un espacio de tiempo preescrito. Por ejemplo,
asumamos que la resolución de la pantalla 28a es de 640 x 480 puntos
(equivalente VGA). Cuando las posiciones respectivas en la pantalla
se representan con las coordenadas (x, y) basadas en el eje
X-Y con la parte superior izquierda de la pantalla
28a como el punto de origen, como se muestra en el diagrama, pueden
representarse respectivamente, el centro de la pantalla A (320,
480), el borde derecho superior del centro de la pantalla B (640,
240), el borde izquierdo del centro de la pantalla C (240,0), el
borde izquierdo inferior del centro de la pantalla D (320, 480) y el
borde superior del centro de la pantalla E(320, 0). El búfer
de la secuencia es capaz de almacenar los datos de la imagen en un
tamaño correspondiente a lo anteriormente expresado, y la
información de la imagen de cada punto se almacene en cada conjunto
de direcciones en correspondencia con las coordenadas respectivas en
la pantalla.
Se establece un área capaz de detectar un ángulo
del controlador en forma de pistola. Por ejemplo, en este ejemplo,
el ángulo vertical del controlador en forma de pistola se establece
en -30° a +30° y el ángulo lateral se establece en -45° a +45°.
Cuando el controlador 10 en forma de pistola está perpendicular a la
pantalla 28a; esto es, cuando el ángulo vertical y el ángulo lateral
del controlador en forma de pistola son ambos 0°, la posición de
partida N (Figura 5) se establece de manera que la cantidad a
desplazar de la posición de fuego M (o posición del punto de vista
M) se convierta en 0. En otras palabras, la relación de posición de
la posición del punto de partida y la posición de referencia M se
mantendrán sin cambio desde el estado de la ubicación inicial. Bajo
estas condiciones, se determina la correlación del ángulo del
controlador en forma de pistola y la posición del punto de partida N
en el espacio virtual.
El punto de fuego en la pantalla; esto es, el
punto donde comienza la exposición de la trayectoria (punto de
partida de la exposición) se establece como P. Los ángulos vertical
y el lateral del controlador en forma de pistola que corresponden al
punto de fuego arbitrario P (x, y) en la pantalla pueden ser
(\theta, \phi). Adicionalmente, el punto A muestra la posición
del centro (320, 240) en la pantalla. Cuando el ángulo vertical y el
lateral del controlador 10 en forma de pistola están ambos en 0°,
debido a que el controlador 10 está en una posición perpendicular a
la pantalla 28a, la posición del punto de partida N (c. f. Figura 5)
establecido en el espacio virtual se fija a la posición del punto de
vista M. Incidentalmente cuando el ángulo vertical y el horizontal
del controlador 10 en forma de pistola son ambos 0°, y el
controlador 10 existe en una posición enfrentando a la posición del
centro de la pantalla 28a, el punto (320, 240) se establece como el
punto de partida a exponer, y la trayectoria del proyectil en la
imagen bidimensional sujeta a la transformación perspectiva del
punto de vista virtual M del sistema de coordenadas del punto de
vista se expone en una patrón de "puntos". En otras palabras,
cuando el ángulo vertical y el horizontal del controlador 10 en
forma de pistola son ambos 0°, se expone una imagen (trayectoria del
proyectil) en la posición de la pantalla 28a que enfrenta al
controlador 10 en forma de pistola.
Cuando el ángulo vertical del controlador 10 en
forma de pistola es 0° y el ángulo lateral de éste es +45°, la
cantidad a desplazar se calcula tal que el punto B (640, 240) se
convierta en el punto de partida a exponer, y la posición del punto
de partida N (Figura 5) se establece en una posición desplazada del
punto M en la dirección horizontal.
Cuando el ángulo vertical del controlador 10 en
forma de pistola es 0° y el ángulo lateral de éste es de -45°, la
cantidad a desplazar se calcula tal que el punto C (0, 240) se
convierta en el punto de partida a exponer de acuerdo con un
algoritmo preescrito, y la posición del punto de partida N (Figura
5) se establece en una posición desplazada del punto M en la
dirección horizontal.
Cuando el ángulo vertical del controlador 10 en
forma de pistola es -30° y el ángulo lateral de éste es 0°, se
calcula una cantidad preescrita tal que el punto D (320, 480) se
convierta en el punto de partida a exponer, y la posición de del
punto del partida N (Figura 5), se establece en una posición
desplazada del punto M en la dirección vertical.
Cuando el ángulo vertical del controlador 10 en
forma de pistola es +30°, y el ángulo lateral de éste es 0°, la
cantidad a desplazar se calcula tal que el punto E (640, 240) se
convierta en el punto de partida a exponer, y la posición del punto
de partida N (Figura 5) se establece en una posición desplazada del
punto M en la dirección vertical.
Aunque los valores precedentes representan las
coordenadas del punto de partida a exponer en la pantalla en
correspondencia con los valores máximos del ángulo vertical o del
ángulo lateral, con respecto a posiciones intermedias, la cantidad
preescrita a desplazar o la dirección en correspondencia con el
ángulo vertical y/o el ángulo lateral en cambio continuo se calculan
con la unidad de cómputo de juego 30. En otras palabras, la unidad
de cómputo del juego 30 calcula la cantidad a desplazar del punto M
en el espacio virtual en la dirección horizontal y/o lateral de
acuerdo con una algoritmo preescrito tal que el punto arbitrario P
(x, y) en la pantalla 28a se convierta en el punto de partida a
exponer, y por tanto es determinada la posición del punto de partida
N (c. f. Figura 5) después de haber sido desplazado una cantidad
preescrita de tal punto de referencia M. Por tanto, cuando el ángulo
vertical es 0° y el ángulo lateral es 22,5°, el jugador verá el
punto de partida a exponer expuesto en un punto intermedio entre el
punto A y el punto B en la pantalla del monitor.
Incidentalmente, aunque la posición del punto de
partida N de la trayectoria desplazado una cantidad preescrita de
las coordenadas de la posición de fuego M (o punto de vista virtual
M) establecida en el espacio virtual se determinó en base a la
información del ángulo del controlador 10 en forma de pistola, la
cantidad a desplazar puede calcularse también basándose en la
información de la posición, o ambas la información del ángulo y la
información de la posición.
Adicionalmente, para buscar la posición del
punto de partida N desplazado una cantidad preescrita N de las
coordenadas de la posición de fuego M (o punto de vista virtual M)
establecida en el espacio virtual, la unidad de cómputo de juego 30
puede calcular esto en tiempo real adquiriendo la información de al
menos la posición o la dirección del controlador 10 en forma de
pistola, o puede prealmacenarse en una memoria una tabla que
prescriba la cantidad a desplazar para cada área de posición o
ángulo, y ésta puede seleccionarse de la tabla en correspondencia
con la posición o el ángulo actual del controlador 10 en forma de
pistola.
Adicionalmente, la invención presente puede
utilizarse también en casos en que la posición del punto de vista en
el espacio virtual y la posición de fuego del proyectil no se
correspondan. Por ejemplo, cuando el ángulo vertical y el ángulo
lateral del controlador 10 en forma de pistola son ambos 0°, la
posición de fuego del proyectil en el espacio virtual se establece
como la posición inicial de la posición del punto de partida, y las
posiciones de la posición del punto de vista y la posición del punto
de partida (punto de fuego) en el espacio virtual se establecen de
tal manera que mantengan una distancia prescrita. Y, en
correspondencia con el ángulo vertical y/o el ángulo lateral, la
cantidad a desplazar y la dirección se determinan con la unidad de
cómputo de juego 30, y la posición del punto de partida se desplaza
en relación con la posición de fuego (o posición del punto de vista)
para exponer la imagen precedente de la trayectoria.
Con el método precedente será posible determinar
adonde y desde qué ángulo el jugador utilizando el controlador 10
en forma de pistola está apuntando en la pantalla 28a.
Adicionalmente, la distancia (lejana o cercana) del jugador a la
pantalla también puede evaluarse. Por tanto, es posible la
presentación de diversos juegos utilizando el resultado del
razonamiento.
Como se muestra en la Figura 6, es preferible
asociar el comportamiento del objeto tal como un objeto enemigo
después del impacto en la dirección a lo largo de la línea virtual
L2. El método de búsqueda de la línea virtual L2 es el mismo que el
método de búsqueda de la exposición de la trayectoria antes
descrita, y la posición del punto de partida se establece calculando
la cantidad a desplazar desde la posición de referencia en base al
menos a la información de la posición o del ángulo del controlador
10 en forma de pistola. Por ejemplo, cuando se razona que ocurrió
una colisión en el procesamiento del razonamiento de impacto del
personaje enemigo y del proyectil en el espacio virtual, el objeto
como personaje enemigo se controla para que se mueva en la dirección
a lo largo de la línea virtual L2, y una imagen tridimensional
simulada sujeta a la transformación perspectiva en el plano de
proyección S del punto de vista virtual M del sistema de coordenadas
del punto de vista. Como resultado, esto es preferible visualmente
ya que el jugador verá al personaje enemigo que es despedido en una
dirección coincidente con la trayectoria del proyectil.
A continuación, se explican los procedimientos
del procesamiento de la generación de imagen en el dispositivo de
juego de la presente realización. La Figura 7 es un diagrama de
flujo que explica los procedimientos del procesamiento de la
generación de la imagen. La serie de pasos del procesamiento
ilustrados en la Figura 7 se repiten para cada intervalo prescrito
(e. g., 1/60 segundos durante el progreso del juego.
Incidentalmente, el orden de cada uno de los pasos del procesamiento
mostrado más adelante puede ser intercambiado apropiadamente, o
pueden llevarse a cabo una pluralidad de pasos en paralelo mientras
no haya discrepancia en el contenido del procesamiento.
Cuando se trasmite una onda detectable desde el
controlador 10 en forma de pistola y su intensidad se detecta por
parte de los sensores respectivos 20a a 20d, la unidad de control de
sensores 22 detecta al menos o la posición relativa o la dirección
(orientación) en el espacio real del controlador 10 en forma de
pistola basándose en la intensidad de la onda detectable detectada
con los sensores respectivos 20a a 20d, y detecta los contenidos de
las instrucciones operacionales basándose en el estado de la onda
detectable (Paso S100).
La unidad de cómputo de juego 30 adquiere el
resultado de la detección de al menos la posición del controlador
10 en forma de pistola o la dirección designada con tal medio
operacional en forma de pistola desde la unidad de control de
sensores 22 (Paso S101). Específicamente, una señalización (de
datos) que muestra los resultados del cálculo de la unidad de
control de sensores 22 se escriba en la memoria de trabajo RAM 103
(c. f. Figura 2) como se requiera, y la información respecto a la
posición o similar del controlador 10 en forma de pistola puede
adquirirse refiriéndose a dicha señalización.
A continuación, la unidad de cómputo de juego 30
determina la posición y dirección visual del punto de vista virtual
en el espacio virtual basándose en al menos la posición o la
dirección del controlador 10 en forma de pistola en el espacio real.
Específicamente, la posición y dirección visual del punto de vista
virtual en el espacio virtual se determinan basándose en la posición
del controlador 10 en forma de pistola en el espacio real, el ángulo
de la dirección horizontal \theta y el ángulo de la dirección
vertical \phi. Y, cuando se determina el sistema de coordenadas
del punto de vista, la unidad de control determina a que posición
está disparando el jugador en la pantalla basándose en al menos un
tipo de información de la posición o de la dirección del controlador
10 en forma de pistola en el espacio real (Paso S102).
Adicionalmente, la unidad de cómputo de juego 30
determina si el operador apretó o no el disparador basándose en el
contenido de las instrucciones operacionales adquiridas en el Paso
S101 (Paso S103). Cuando el disparador no ha sido apretado, se hace
un razonamiento negativo (NO), y la rutina procede al Paso S109
descrito más adelante.
Cuando el disparador ha sido apretado, se hace
un razonamiento positivo (SI) como Paso S103, y la unidad de cómputo
de juego 30 determina si se apunta al objeto como blanco tal como un
personaje enemigo (Paso S104). Específicamente, la unidad de cómputo
de juego 30 hace el razonamiento en el Paso S104 chequeando si
existe un objeto como blanco en la línea virtual que se extiende en
la dirección del vector desde la posición de la boca del cañón
(posición de fuego) en el espacio virtual.
Cuando se apunta al objeto como blanco, se hace
un juicio positivo(SI) en el Paso 104, y la unidad de
cómputo de juego 30 establece el punto de impacto (punto de
terminación) en el punto de intersección de la dirección del vector
desde la posición de la boca del cañón (posición de fuego) y el
objeto como blanco en el espacio virtual (Paso S105). Cuando se
lleva a cabo este tipo de cómputo de juego, y la rutina de
procesamiento de este ejemplo termina, será impactado el objeto como
blanco tal como un personaje enemigo, y se generará y expondrá una
imagen que representa una reacción correspondiente (e. g. daño,
explosión, etc.).
Adicionalmente, cuando no se apunta al objeto
como blanco, se hace un juicio negativo en el Paso S104, y la unidad
de cómputo de juego 30 establece el punto de impacto (punto de
terminación) a una distancia apropiada (e. g. distancia
aproximadamente infinita) en la línea virtual que se extiende desde
la posición de la boca del cañón (posición de fuego) hacia la
dirección del vector (dirección a la que se apunta) en el espacio
virtual (Paso S106). Cuando se lleva a cabo este tipo de cómputo de
juego, después que se termina la ruta de procesamiento de este
ejemplo, se genera y expone una imagen que representa un estado del
objeto como blanco tal como un personaje enemigo que no ha sido
impactado.
Adicionalmente, la unidad de cómputo de juego 30
calcula la cantidad a desplazar desde la posición de fuego (o punto
de vista virtual) en el espacio virtual basándose en al menos la
información de la posición o la información del ángulo del
controlador 10 en forma de pistola en el espacio real, y establece
la posición del punto de partida trazando la imagen de la
trayectoria que corresponde a la trayectoria del proyectil (Paso
S107). En la realización presente antes descrita, aunque la posición
del punto de partida se establece desplazándolo (compensándolo) de
la posición de fuego en la dirección horizontal, la posición del
punto de partida puede desplazarse en la dirección vertical, o
puede emplearse una combinación de desplazamiento tanto en la
dirección vertical como horizontal.
A continuación, la unidad de generación de
imagen 32 coloca polígonos que cubren una parte o la totalidad de la
zona que conecta el punto de partida y el punto de terminación
establecido en cada uno de los pasos precedentes (Paso S108).
Entonces, la unidad de generación de imagen 32 lleva a cabo la
transformación proyectiva con el punto de vista virtual del sistema
de coordenadas del punto de vista determinado con los métodos
precedentes para generar una imagen bidimensional (Paso S109). Aquí,
como resultado de los polígonos colocados en la zona que conecta el
punto de partida y el punto de terminación sujetos a la
transformación proyectiva, puede obtenerse una imagen bidimensional
que contiene la imagen de la trayectoria que expresa la trayectoria
del proyectil. La imagen bidimensional (imagen de juego) generada
con esta unidad de generación de imagen 34 se envía al monitor 28,
y la imagen de juego se expone en la pantalla 28a del monitor 28. La
Figura 8 es un diagrama que muestra un ejemplo expuesto de la imagen
de juego. Como se muestra en la Figura 8, por ejemplo, una imagen de
la trayectoria W se expone hacia el personaje enemigo CR en el
espacio virtual y se representa un cuadro de la trayectoria del
proyectil.
Como se describió anteriormente, con el
dispositivo de juego de la presente realización, como la imagen de
la trayectoria se expone en una parte o en la totalidad de la zona
que comienza desde una posición que es diferente a la del punto de
vista virtual, la trayectoria no se expondrá en un patrón de tipo
puntos en una imagen bidimensional sujeta a transformación
proyectiva al expresar la trayectoria del proyectil. Por tanto, en
un juego de disparos que adopta el punto de vista de primera
persona, la trayectoria del proyectil dirigiéndose desde el lado del
jugador hacia el espacio virtual puede expresarse más
efectivamente.
Incidentalmente, la presente invención no se
limita al contenido de las realizaciones antes descritas, y puede
modificarse de diversas formas dentro del alcance de la presente
invención.
Por ejemplo, en las realizaciones precedentes,
aunque la posición relativa del medio operacional y la dirección
relativa designada con tal medio operacional se detectaron en base a
la pantalla 28a del monitor 28, estas pueden basarse en otras
partes.
Adicionalmente, como método de búsqueda de la
información del ángulo del controlador 10 en forma de pistola,
también puede utilizarse un controlador en forma de pistola que
tiene un sensor oscilante o giroscopio. Como resultado, la posición
del punto de partida para generar la trayectoria puede buscarse a
partir de tal giroscopio o sensor oscilante. Aquí, como un sustituto
de los sensores respectivos basados de manera óptica antes
descritos, la línea de escaneo al exponerse una imagen en el monitor
28 puede leerse para calcular la posición en la pantalla 28a del
monitor 28, adonde el jugador apunta el controlador en forma de
pistola. O, puede proveerse una llave tipo flecha al controlador en
forma de pistola y, mediante la unidad de cómputo del juego 30 que
recibe la señal de operación de éste, será posible calcular la
posición en la pantalla 28a adonde el jugador apunta el controlador
en forma de pistola. Como resultado, será posible también calcular
la posición del punto de terminación.
Adicionalmente, el ámbito aplicable de la
presente invención no se limita a un dispositivo de juego, y esta
invención puede emplearse también en diversos dispositivos que
exponen imágenes mediante la aplicación de la transformación
proyectiva a la situación en el espacio virtual generando una imagen
bidimensional de éstas. Por ejemplo, en adición a la trayectoria de
un proyectil, será posible una exposición efectiva de imágenes en
diversos casos tales como apuntar a una posición prescrita en el
espacio virtual con un puntero láser como medio operacional. Es más,
la presente invención puede también aplicarse preferiblemente a un
dispositivo de realidad virtual (simulador) capacitando al operador
para que experimente la realidad virtual de varias situaciones. Por
ejemplo, la presente invención puede emplearse para capacitar al
operador a experimentar la realidad virtual de disparar o la
realidad virtual de bomberos experimentando la lucha contra
incendios. En el caso de un simulador de lucha contra incendios, un
controlador en forma de manguera puede utilizarse para expresar la
imagen de la trayectoria del chorro de agua. En adición, un
controlador en forma de espada puede utilizarse para expresar la
imagen de la trayectoria del corte hecho por la espada.
En correspondencia con la presente invención, se
posibilita la expresión efectiva de la trayectoria de un proyectil o
similar dirigiéndose desde el lado del operador hacia el espacio
virtual en un dispositivo de exposición de imágenes de juegos
adoptando el punto de vista de primera persona.
\vskip1.000000\baselineskip
Este listado de referencias citadas por el
solicitante es únicamente para conveniencia del lector. Este no
forma parte del documento de la patente europea. Aunque se ha tomado
especial cuidado en la compilación de las referencias, no pueden
excluirse errores u omisiones y la OEP no reconoce reclamaciones o
responsabilidad en este sentido.
\bullet JP H869 274 B.
Claims (13)
1. Un dispositivo generador de imagen, que
comprende:
- medios de procesamiento de imagen (34) para colocar un objeto como blanco (CR) y un punto de vista en un espacio virtual, y generar una imagen de dicho objetivo como blanco visto desde dicho punto de vista;
- una unidad de exposición (28) para exponer la imagen generada con dichos medios de procesamiento de imagen;
- medios operacionales (10) a ser operados por un jugador para apuntarle a un objetivo expuesto en dicha unidad de exposición;
- medios de detección (20, 22) para detectar al menos o la posición espacial o la dirección de dichos medios operacionales en relación con dicha unidad de exposición;
- y
- medios de control (32) para ejecutar un programa que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego (M) establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional;
- en el que dicho medio de control, al recibir la señal de operación de dicho medio operacional, determina una posición del punto de partida (N) desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación (Q) a la que arriba el cuerpo de descarga disparado desde dicha posición de fuego basada en la señal de detección recibida de dicho medio de detección, hace que dicho medios de procesamiento de imagen generen una imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y expone dicha imagen de la trayectoria en dicha unidad de exposición.
2. Un dispositivo generador de imagen en
correspondencia con la reivindicación 1, en el que dicho medio de
control coloca un objeto de trayectoria en el espacio virtual que
cubre una parte (K) o la totalidad de una línea virtual (L2)
dirigiéndose desde dicha posición del punto de partida (N) a dicha
posición del punto de terminación (Q), hace que dicho medio de
procesamiento de imagen genere dicha imagen de la trayectoria al
proyectar dicho objeto de la trayectoria en el plano de proyección
de un sistema de coordenadas del punto de vista de dicho punto de
vista, y expone dicha imagen de la trayectoria en dicha unidad de
exposición.
3. Un dispositivo de generación de imagen en
correspondencia con la reivindicación 2, en el que, cuando dicho
objeto como blanco que intersecta dicha línea virtual (L2) existe en
dicho espacio virtual, dicho medio de control establece dicha
posición del punto de terminación en el punto de intersección de
dicho objeto como blanco y dicha línea virtual.
4. Un dispositivo de generación de imagen en
correspondencia con la reivindicación 2, en el que, cuando dicho
objeto como blanco que intersecta dicha línea virtual no existe en
dicho espacio virtual, dicho medio de control establece una
distancia aproximadamente infinita en dicha línea virtual como dicha
posición del punto de terminación.
5. Un dispositivo de generación de imagen en
correspondencia con la reivindicación 1, en el que dicho medio
operacional es operable mediante un jugador para darle entrada a
operaciones para disparar el cuerpo de descarga hacia el objeto como
blanco en el espacio virtual.
6. Un método de exposición de imagen de un
dispositivo de generación de imagen que comprende:
- medios de procesamiento de imagen (34) para colocar un objeto como blanco (CR) y un punto de vista en un espacio virtual, y generando una imagen de dicho objeto como blanco visto desde dicho punto de vista;
- una unidad de exposición (28) para exponer la imagen generada con dicho medio de procesamiento de imagen (20, 22) para detectar al menos o la posición espacial o la dirección de dicho medio operacional en relación con dicha unidad de exposición;
- medios de detección (20, 22) para detectar al menos o la posición espacial o la dirección de dichos medios operacionales en relación con dicha unidad de exposición;
- y
- medios de control (32) para ejecutar un programa de juego que incluye el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego (M) establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación de dicho medio operacional;
en el que dicho medio de control
lleva a
cabo:
- un paso (S107) de determinación, al recibir la señal de operación desde dicho medio operacional, de una posición del punto de partida (N) desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación (Q) al cual dicho cuerpo de descarga disparado desde dicha posición de fuego arriba basada en la señal de detección recibida desde dicho medio de detección;
- y un paso (S108, S109) de hacer que dicho medio de procesamiento de imagen genere la imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y exponiendo dicha imagen de la trayectoria en dicha unidad de exposición.
7. Un método de exposición de imagen en
correspondencia con la reivindicación 6, en el que dicho medio de
control lleva a cabo:
- un paso de colocación de un objeto de trayectoria en el espacio virtual que cubre una parte (K) o la totalidad de una línea virtual (L2) dirigiéndose desde dicha posición del punto de partida (N) a dicha posición del punto de terminación(Q); y un paso de hacer que dicho medio de procesamiento de imagen genere dicha imagen de la trayectoria al proyectar dicho objeto de trayectoria en el plano de proyección de un sistema de coordenadas del punto de vista de dicho punto de vista y exponer dicha imagen de la trayectoria en dicha unidad de exposición.
8. Un método de exposición de imagen en
correspondencia con la reivindicación 7, en el que dicho medio de
control lleva a cabo:
- un paso (S104) de determinación de si dicho objeto como blanco que intersecta dicha línea virtual existe en dicho espacio virtual; y
- un paso (S105) de establecimiento de dicha posición del punto de terminación en el punto de intersección de dicho objeto como blanco y dicha línea virtual cuando dicho objeto como blanco existe.
9. Un método de exposición de imagen en
correspondencia con la reivindicación 7, en el que dicho medio de
control lleva a cabo:
- un paso (S104) de determinación de si dicho objeto como blanco que intersecta dicha línea virtual existe en dicho espacio virtual; y
- un paso (S106) de establecimiento de una distancia aproximadamente infinita en dicha línea virtual como dicha posición del punto de terminación cuando el objeto como blanco no existe.
10. Un producto de programa para ser ejecutado
con un sistema de procesamiento de imagen que incluye:
- medios de procesamiento de imagen (34) para colocar un objeto como blanco (CR) y un punto de vista en un espacio virtual, y generar una imagen de dicho objeto como blanco visto desde dicho punto de vis- ta;
- una unidad de exposición (28) para exponer la imagen generada con dicho medio de procesamiento de imagen;
- medios operacionales (10) a ser operados por un jugador para apuntar a un blanco expuesto en dicha unidad de exposición;
- medios de detección (20, 22) para detectar al menos o la posición espacial o la dirección de dicho medio operacional en relación con dicha unidad de exposición;
- y
- medios de control (32) para ejecutar un programa incluyendo el procesamiento para determinar la colisión de un cuerpo de descarga disparado desde una posición de fuego (M) establecida en dicho espacio virtual y dicho objeto como blanco en respuesta a la señal de operación desde dicho medio de operación;
en el que dicho producto de
programa se adapta para hacer que dicho medio de control lleve a
cabo:
- un paso (S109) de determinación, al recibir la señal de operación de dicho medio operacional, de una posición del punto de partida (N) desplazada de dicha posición de fuego en dicho espacio virtual y una posición del punto de terminación (Q) a la cual el cuerpo de descarga disparado desde dicha posición de fuego arriba basada en la señal de detección recibida desde dicho medio de detección;
\newpage
- y un paso (S108, S109) de hacer que dicho medio de procesamiento de imagen genere la imagen de la trayectoria del cuerpo de descarga dirigiéndose desde dicha posición del punto de partida hacia dicha posición del punto de terminación, y exponiendo dicha imagen de la trayectoria en dicha unidad de exposición.
11. Un producto de programa en correspondencia
con la reivindicación 10 adaptado para hacer que dicho medio de
control lleve a cabo:
- un paso de colocar dicho objeto de trayectoria en el espacio virtual que cubre una parte (K) o la totalidad de una línea virtual (L2) dirigiéndose desde dicha posición del punto de partida (N) a dicha posición del punto de terminación (Q); y
- un paso de hacer que dicho medio de procesamiento de imagen genere dicha imagen de la trayectoria proyectando dicho objeto de la trayectoria en el plano de proyección de un sistema de coordenadas del punto de vista de dicho punto de vista, y exponiendo dicha imagen de la trayectoria en dicha unidad de exposición.
12. Un producto de programa en correspondencia
con la reivindicación 11 adaptado para hacer que el medio de control
lleve a cabo:
- un paso (S104) de determinación de si dicho objeto como blanco que intersecta dicha línea virtual existe en dicho espacio virtual y;
- un paso (S105) de establecimiento de dicha posición del punto de terminación en el punto de intersección de dicho objeto como blanco y dicha línea virtual cuando dicho objeto como blanco existe.
13. Un producto de programa en correspondencia
con la reivindicación 11 adaptado para hacer que dicho medio de
control lleve a cabo:
- un paso (S104) de determinación de si dicho objeto como blanco que intersecta dicha línea virtual existe en dicho espacio virtual; y
- un paso (S105) de establecimiento de una distancia aproximadamente infinita en dicha línea virtual como dicha posición del punto de terminación cuando dicho objeto como blanco no existe.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004-107621 | 2004-03-31 | ||
JP2004107621A JP4673570B2 (ja) | 2004-03-31 | 2004-03-31 | 画像生成装置、画像表示方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2308395T3 true ES2308395T3 (es) | 2008-12-01 |
Family
ID=34909457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES05251275T Active ES2308395T3 (es) | 2004-03-31 | 2005-03-03 | Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa. |
Country Status (7)
Country | Link |
---|---|
US (1) | US7722465B2 (es) |
EP (1) | EP1585063B1 (es) |
JP (1) | JP4673570B2 (es) |
CN (1) | CN100542645C (es) |
DE (1) | DE602005007095D1 (es) |
ES (1) | ES2308395T3 (es) |
HK (1) | HK1081307A1 (es) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2425356B (en) * | 2005-04-20 | 2010-01-06 | Richard Bruce Welch | Sports game apparatus and method |
TWI281623B (en) * | 2005-05-10 | 2007-05-21 | Pixart Imaging Inc | Orientation point orientating method of orientation device and device thereof |
JP4563266B2 (ja) * | 2005-06-29 | 2010-10-13 | 株式会社コナミデジタルエンタテインメント | ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及びプログラム |
JP3869452B1 (ja) * | 2005-07-28 | 2007-01-17 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム |
JP5063930B2 (ja) * | 2006-05-09 | 2012-10-31 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム制御方法 |
JP5154775B2 (ja) * | 2006-08-18 | 2013-02-27 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
JP4199817B1 (ja) * | 2007-08-21 | 2008-12-24 | 株式会社コナミデジタルエンタテインメント | 画像生成装置、画像生成方法、および、プログラム |
WO2009031646A1 (ja) * | 2007-09-07 | 2009-03-12 | Konami Digital Entertainment Co., Ltd. | 画像処理装置、ゲーム装置およびコンピュータプログラム |
US8357043B2 (en) | 2007-09-07 | 2013-01-22 | Konami Digital Entertainment Co., Ltd. | Motion determination apparatus, game apparatus therefor, and computer program therefor |
JP2010026905A (ja) * | 2008-07-23 | 2010-02-04 | Sammy Corp | 画像生成装置、遊技機、及びプログラム |
JP2010026903A (ja) * | 2008-07-23 | 2010-02-04 | Sammy Corp | 画像生成装置、遊技機、及び画像生成プログラム |
JP5399030B2 (ja) * | 2008-09-17 | 2014-01-29 | 株式会社タイトー | ゲームプログラム、プログラム記憶媒体及びゲーム装置 |
US9244525B2 (en) * | 2009-02-19 | 2016-01-26 | Disney Enterprises, Inc. | System and method for providing user interaction with projected three-dimensional environments |
US8721444B2 (en) * | 2009-07-21 | 2014-05-13 | Sony Corporation | Game device for performing operation object control and non-operation object control |
JP2011024787A (ja) * | 2009-07-27 | 2011-02-10 | Konami Digital Entertainment Co Ltd | 表示装置、表示方法、ならびに、プログラム |
JP5388763B2 (ja) * | 2009-08-31 | 2014-01-15 | 株式会社バンダイナムコゲームス | プログラム |
US8497902B2 (en) * | 2009-12-18 | 2013-07-30 | Sony Computer Entertainment Inc. | System for locating a display device using a camera on a portable device and a sensor on a gaming console and method thereof |
JP5839220B2 (ja) * | 2011-07-28 | 2016-01-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN103999551B (zh) | 2011-12-14 | 2018-08-07 | 飞利浦灯具控股公司 | 用于控制照明的方法和装置 |
CN102521520B (zh) * | 2011-12-22 | 2014-12-03 | 北京像素软件科技股份有限公司 | 应用于3d网络游戏中的相机控制方法 |
WO2013111119A1 (en) * | 2012-01-27 | 2013-08-01 | Saar Wilf | Simulating interaction with a three-dimensional environment |
JP6448196B2 (ja) * | 2014-02-13 | 2019-01-09 | 株式会社バンダイナムコエンターテインメント | 画像生成システム及びプログラム |
JP6404196B2 (ja) | 2015-09-16 | 2018-10-10 | グリー株式会社 | 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法 |
CN105426833A (zh) * | 2015-11-13 | 2016-03-23 | 小米科技有限责任公司 | 用于游戏的图像识别方法及装置 |
US10518172B2 (en) * | 2016-03-07 | 2019-12-31 | Htc Corporation | Accessory management of virtual reality system |
CN109069927A (zh) * | 2016-06-10 | 2018-12-21 | Colopl株式会社 | 用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的系统 |
JP6677788B1 (ja) * | 2018-11-29 | 2020-04-08 | 株式会社Cygames | 情報処理プログラム、情報処理方法およびゲーム装置 |
JP6816175B2 (ja) * | 2019-01-10 | 2021-01-20 | 本田技研工業株式会社 | 製品測定結果表示システム |
CN109939438B (zh) * | 2019-02-19 | 2022-09-13 | 腾讯数码(天津)有限公司 | 轨迹显示方法和装置、存储介质及电子装置 |
CN109976701B (zh) * | 2019-03-14 | 2022-08-16 | 广州小鹏汽车科技有限公司 | 一种声场定位调节方法及车辆音响系统 |
CN111450532B (zh) * | 2020-03-31 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 追踪道具控制方法、装置、终端及存储介质 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4068393A (en) * | 1972-06-27 | 1978-01-17 | Vsevolod Tararine | Projectile firing training method and device |
JPH0869274A (ja) | 1994-08-30 | 1996-03-12 | Sega Enterp Ltd | 画像処理装置およびその方法 |
TW346611B (en) * | 1996-03-28 | 1998-12-01 | Sega Enterprises Kk | An image processor, a game machine using the image processor, a method of image processing and a medium |
JP3103322B2 (ja) * | 1997-05-23 | 2000-10-30 | コナミ株式会社 | シューティングゲーム装置、シューティングゲームの画像表示方法及び可読記録媒体 |
JP3269797B2 (ja) * | 1997-12-12 | 2002-04-02 | 株式会社ナムコ | 画像生成装置及び情報記憶媒体 |
WO1999058214A1 (en) * | 1998-05-13 | 1999-11-18 | Sega Enterprises, Ltd. | Gun-shaped controller and game machine |
JP3662435B2 (ja) * | 1998-12-17 | 2005-06-22 | コナミ株式会社 | 射的ビデオゲーム装置 |
JP2000350865A (ja) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体 |
US6972734B1 (en) * | 1999-06-11 | 2005-12-06 | Canon Kabushiki Kaisha | Mixed reality apparatus and mixed reality presentation method |
JP4172108B2 (ja) * | 1999-08-09 | 2008-10-29 | 株式会社セガ | ゲーム装置及びその制御方法 |
US6352479B1 (en) * | 1999-08-31 | 2002-03-05 | Nvidia U.S. Investment Company | Interactive gaming server and online community forum |
JP4475763B2 (ja) * | 2000-07-28 | 2010-06-09 | 株式会社バンダイナムコゲームス | ゲームシステム及び情報記憶媒体 |
US7085409B2 (en) * | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
US7084888B2 (en) * | 2001-08-09 | 2006-08-01 | Konami Corporation | Orientation detection marker, orientation detection device and video game device |
EP1716896A3 (en) * | 2001-11-22 | 2007-08-01 | Konami Corporation | Billiard game input device, billiard game system, game input device, and computer program |
JP2003208263A (ja) * | 2002-01-12 | 2003-07-25 | Sega Corp | コントロール装置及びその取付け体を有する画像処理装置 |
-
2004
- 2004-03-31 JP JP2004107621A patent/JP4673570B2/ja not_active Expired - Fee Related
-
2005
- 2005-03-03 DE DE602005007095T patent/DE602005007095D1/de active Active
- 2005-03-03 EP EP05251275A patent/EP1585063B1/en not_active Expired - Fee Related
- 2005-03-03 ES ES05251275T patent/ES2308395T3/es active Active
- 2005-03-30 US US11/092,608 patent/US7722465B2/en not_active Expired - Fee Related
- 2005-03-31 CN CNB2005100562175A patent/CN100542645C/zh not_active Expired - Fee Related
-
2006
- 2006-03-24 HK HK06103748A patent/HK1081307A1/xx not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
CN1676184A (zh) | 2005-10-05 |
DE602005007095D1 (de) | 2008-07-10 |
CN100542645C (zh) | 2009-09-23 |
HK1081307A1 (en) | 2006-05-12 |
JP2005287801A (ja) | 2005-10-20 |
US20050272506A1 (en) | 2005-12-08 |
JP4673570B2 (ja) | 2011-04-20 |
EP1585063B1 (en) | 2008-05-28 |
EP1585063A1 (en) | 2005-10-12 |
US7722465B2 (en) | 2010-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2308395T3 (es) | Dispositivo de generacion de imagenes, metodo de exposicion y producto de programa. | |
US9132342B2 (en) | Dynamic environment and location based augmented reality (AR) systems | |
ES2257751T3 (es) | Dispositivo de entrada para procedimiento de formacion de una imagen y aparato correspondiente. | |
JP6754678B2 (ja) | シミュレーションシステム及びプログラム | |
ES2297896T3 (es) | Dispositivo de generacion de imagenes. | |
US5704837A (en) | Video game steering system causing translation, rotation and curvilinear motion on the object | |
ES2295498T3 (es) | Dispositivo de procesamiento de imagenes para determinar la trayectoria de vuelo de un objeto. | |
US7637817B2 (en) | Information processing device, game device, image generation method, and game image generation method | |
US8556716B2 (en) | Image generation system, image generation method, and information storage medium | |
JP5390115B2 (ja) | プログラム、ゲームシステム | |
US6972734B1 (en) | Mixed reality apparatus and mixed reality presentation method | |
KR100537977B1 (ko) | 비디오 게임 장치, 화상 처리 방법 및 프로그램 기록 매체 | |
US10510189B2 (en) | Information processing apparatus, information processing system, and information processing method | |
JP5614956B2 (ja) | プログラム、画像生成システム | |
ES2308801T3 (es) | Maquina de juego y medio de registro. | |
US6774900B1 (en) | Image displaying device, image processing device, image displaying system | |
US20150097719A1 (en) | System and method for active reference positioning in an augmented reality environment | |
JP2015198275A (ja) | 画像生成システム及びプログラム | |
US20190143223A1 (en) | Simulation system and game system | |
WO2015048890A1 (en) | System and method for augmented reality and virtual reality applications | |
JP7071823B2 (ja) | シミュレーションシステム及びプログラム | |
JP4282112B2 (ja) | 仮想物体制御方法および仮想物体制御装置および記録媒体 | |
US20130109475A1 (en) | Game system, control method therefor, and a storage medium storing a computer program | |
JP2018064836A (ja) | バーチャルゲーム装置 | |
WO2013111119A1 (en) | Simulating interaction with a three-dimensional environment |