ES2281962T3 - Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion. - Google Patents
Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion. Download PDFInfo
- Publication number
- ES2281962T3 ES2281962T3 ES99919542T ES99919542T ES2281962T3 ES 2281962 T3 ES2281962 T3 ES 2281962T3 ES 99919542 T ES99919542 T ES 99919542T ES 99919542 T ES99919542 T ES 99919542T ES 2281962 T3 ES2281962 T3 ES 2281962T3
- Authority
- ES
- Spain
- Prior art keywords
- deployment
- processing unit
- elements
- display
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- A63F13/10—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6646—Methods for processing data by generating or executing the game program for rendering three dimensional images for the computation and display of the shadow of an object or character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6653—Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Una unidad de procesamiento de imagen configurada para facilitar el despliegue de uno o más objetos definiendo áreas autónomas desplegadas en el espacio virtual y un carácter establecido para ser capaz de moverse relativo a dicho objeto u objetos; caracterizado en esa dicha unidad de procesamiento de imagen que comprende: Una unidad de procesamiento que, cuando dicho carácter entra o deja el interior de un área autónoma, gradualmente altera la densidad del despliegue de por lo menos algunos elementos del despliegue específicos de los elementos del despliegue configurando el objeto desplegado en un área relacionada al movimiento de dicho carácter tal que los elementos del despliegue específicos para los cuales la densidad del despliegue se altera son los elementos del despliegue que se localizan hacia el frente del espacio virtual con respecto a la perspectiva establecida en el espacio virtual para generar el despliegue de la imagen, en donde dicha unidad de procesamiento gradualmente disminuye la densidad del despliegue de dichos elementos del despliegue específicos cuando dicho carácter está entrando en el área autónoma, e intensifica los mismo cuando está saliendo del área autónoma.
Description
Procesador de imagen, máquina de juego, método
de procesamiento de imagen, y medio de grabación.
La invención presente se refiere a una
tecnología de procesamiento de imagen conveniente para máquinas de
juego que presentan imágenes en el espacio virtual tridimensional.
Más particularmente, la invención presente proporciona un
procesamiento de imagen que puede sumergir profundamente a un
jugador en un juego roll mostrando de forma realista las imágenes
desplegadas en ese lugar e impartiendo cambios de imagen
naturales.
En máquinas de juego con televisor, los juegos
roll que emplean tecnología de procesamiento de imagen
tridimensional son muy populares debido a la belleza de la
imaginería y la profundidad de la historia proporcionada. La mayoría
de los juegos roll emplean la tecnología de gráficos por
computadoras en configuraciones en donde es posible mostrar muchas
entidades desplegadas (a partir de ahora denominadas "objetos")
en el espacio virtual tridimensional. Estos objetos incluyen,
además de aquellos que simulan tales formas del mundo real como el
terreno, las plantas, los animales, y los edificios, aquellos (a
partir de ahora denominados" caracteres") que modelan el héroe
del juego roll y otras personas que aparecen en el juego. En esta
máquina de juego, el carácter que corresponde al héroe se configura
para que se pueda mover en el espacio virtual respondiendo a las
manipulaciones de un dispositivo de entrada hechas por un jugador.
Esta máquina de juego, además, desarrolla la historia del juego
mientras mueve concomitantemente la perspectiva para desplegar las
imágenes en el espacio virtual para así seguir el movimiento del
carácter del héroe, moviendo el espacio virtual junto con los
caracteres y los objetos con texturas uno después de otro mientras
aparecen.
En un juego roll convencional (vea el ejemplo
JP-09-299613), debido a la necesidad
de presentar claramente la manera en que el espacio virtual se le
presenta al jugador, se han implementado medidas innovadoras en los
métodos de despliegue de objeto. En casos en donde los caracteres
entran y dejan un objeto que simula un edificio, por ejemplo, lo
mismo el edificio se hace parcialmente transparente que el objeto se
despliega sin un tejado, para facilitar ver los movimientos de los
caracteres que han entrado en el edificio.
Si el objeto simula un árbol, la textura del
árbol entero se representa en polígonos llanos, las composiciones
son hechas en donde los polígonos mapeados con la textura para
representar las hojas se insertan en un cruciforme en el medio del
tronco, o el árbol se representa por objetos en forma de pelota,
mapeando los datos de la textura para hacer que el objeto se
parezca a un árbol sobre los polígonos.
En algunos casos el realismo se mejora
desplegando sombras que siguen el movimiento de los caracteres.
Es deseable, sin embargo, diseñar un juego roll
para que el jugador se sumerja totalmente en el mundo imaginario
presentado por la máquina de juego y se identifique emocionalmente
con el héroe en el progreso del juego. Cuando los juegos roll
convencionales son evaluados desde esta perspectiva, varias
dificultades se vuelven evidente.
Por ejemplo, en máquinas de juego donde una
porción de un edificio se elimina cuando un carácter entra en este,
el jugador comprometido en el juego tiende a concebir un sentido de
discordia debido a la innaturalidad que sucede cuando de repente
una porción del edificio desaparece o la pantalla cambia a una
imagen de un interior de la casa o lo parecido. Si el edificio se
muestra desde el principio sin el tejado, por otro lado, esto
presenta cualquier cosa menos una imagen realista, así el sentido
del realismo no puede mejorarse.
En un juego roll, además, a donde un carácter se
dirige es determinado por las manipulaciones del jugador, por lo
que hay casos en donde un acercamiento extremo se hace a un objeto.
Si el objeto acercado por el carácter es uno que simula un árbol
con un método convencional, sin embargo, las formas de los objetos
microscópicos están muy alejadas de la forma de un árbol real,
produciendo una imagen que es totalmente antinatural.
Habiendo dicho que, sin embargo, intentar
representar cada hoja individual con un polígono por consiguiente
es algo que apenas puede manejarse por una máquina de juego que está
severamente restringida en términos de rendimiento de la máquina y
el tiempo de procesamiento.
Con el método convencional para mostrar las
sombras, además, un objeto negro en forma de disco se muestra a los
pies del carácter y ambos objetos se mueven juntos para mostrar la
sombra. En casos donde el terreno es desigual, sin embargo, un
método que involucra una gran computación ha sido empleado en donde
el objeto sombra flota junto con el terreno para impedir al objeto
sombra hundirse en la tierra. La única manera de aligerar esa
computación ha sido ignorar el hecho de cuando una sombra se hunde
en la tierra. Por tanto ha sido muy difícil mostrar sombras
naturales.
La EP 0893149 con una prioridad anterior
descubre un arreglo en donde cuando un carácter del jugador se mueve
cercano a un carácter oponente, la perspectiva de una cámara
hipotética que está capturando la imagen de los caracteres también
se mueve cerca de los caracteres, y un extractor de distancia
determina la distancia de la perspectiva de la cámara hipotética a
un modelo del objeto como un obstáculo detrás del carácter que está
encubierto. Entonces, un extractor de transparencia obtiene un nivel
de transparencia que corresponde a la distancia determinada de una
tabla de información de transparencia. Usando el nivel de la
transparencia obtenido, un procesador de datos de imagen genera
datos de imagen en píxeles del modelo del objeto, y combina los
datos de imagen generados con los datos de imagen en píxeles del
carácter.
La 5415549 de EE.UU. describe un simulador de
vuelo de helicóptero teniendo mejoras en las señales y en la
modelación visuales. Las señales visuales únicas incluyen el terreno
siguiendo las sombras y la neblina, la última aproximando un
conjunto de condiciones atmosféricas. Los rasgos modelados únicos
incluyen un acercamiento (zoom) seleccionable por el usuario, la
evasión de tierra horizontal y vertical, y un modelo de auto
rotación.
En vista de las dificultades descritas
anteriormente, es deseable proporcionar un despliegue de la imagen
que haga natural las transiciones posibles cuando un carácter entra
o deja un cuarto o un edificio, sin perder el sentido de
realismo.
También es deseable proporcionar un despliegue
de la imagen con el cual, cuando se muestren objetos como los
árboles, las formas de los árboles y lo parecido puedan mostrarse
con un sentido natural de textura incluso cuando esos objetos se
muestren grandes.
Es deseable además proporcionar un despliegue de
la imagen que pueda mostrar sombras naturales que no dañen el
sentido de realismo, sin aumentar la computación.
Es deseable proporcionar una máquina de juego
con la cual el procesamiento de la imagen de la invención presente
sea posible.
También es deseable proporcionar un medio de
grabación capaz de proporcionar un programa con el cual el
procesamiento de la imagen de la invención presente sea
posible.
Según la invención presente se proporciona una
unidad de procesamiento de imagen configurada para facilitar el
despliegue de uno o más objetos definiendo las áreas autónomas
mostradas en el espacio virtual y un carácter establecido para
poder moverse con respecto a dicho objeto u objetos; caracterizada
en que dicha unidad de procesamiento de imagen comprende: una
unidad de procesamiento que, cuando dicho carácter entra o deja el
interior de un área autónoma, gradualmente altera la densidad del
despliegue de por lo menos algunos elementos del despliegue
específicos de los elementos del despliegue configurando el objeto
desplegado en un área relacionada al movimiento de dicho carácter
tal que los elementos del despliegue específicos para los que la
densidad del despliegue se altera son los elementos del despliegue
que se localizan hacia el frente del espacio virtual con respecto a
la perspectiva establecida en el espacio virtual para generar el
despliegue de la imagen, en donde dicha unidad de procesamiento
gradualmente disminuye la densidad del despliegue de dichos
elementos del despliegue específicos cuando dicho carácter está
entrando en el área autónoma, e intensifica la misma cuando sale del
área autónoma.
Por "objeto" se entiende una entidad
desplegada, que aquí se refiere a la relación entre un objeto que
representa un carácter, por ejemplo, y un objeto que representa un
edificio que el carácter entra o deja. Sin embargo, esto puede
aplicarse a todos los casos en donde un objeto entra en otro objeto.
La "cierta condición" es, por ejemplo, que el carácter
mencionado anteriormente entra o deja el interior del objeto
mencionado anteriormente. Esto puede determinarse cuando la
distancia entre dos objetos alcanza cierto valor, o indirectamente
por una condición establecida por el progreso del juego tal como
"una puerta se abrió " o "una ventana se abrió". Por
"área relacionada" se entiende algo como un área que debe
establecerse para que un objeto que ha entrado en un interior sea
hecho visible alterando la densidad del despliegue, o un área en
donde es necesario desplegar un interior durante el progreso del
juego. En el caso de un edificio, por ejemplo, esto correspondería a
un área autónoma como el primer piso o el segundo piso, etc., El
"al menos algunos elementos del despliegue específicos" puede
ubicarse discrecionalmente. Por ejemplo, éstos podrían ser elementos
del despliegue, de los elementos del despliegue que configuran el
objeto mencionado anteriormente, posicionados a un lado de la
perspectiva establecida en el espacio virtual con el propósito de
generar las imágenes del despliegue. Debido a que esto es "por lo
menos algunos", la transparencia del edificio entero puede
ajustarse o la transparencia de una porción específica puede por
tanto ajustarse. Acerca del método específico de alteración, la
densidad del despliegue para los elementos del despliegue
específicos mencionados anteriormente disminuiría gradualmente
cuando el carácter mencionado anteriormente entra en el objeto
mencionado anteriormente, y aumentaría cuando el carácter se va.
Es deseable aquí que un espesor se establezca de
antemano para los miembros particionados que configuran el objeto.
Por tanto, los datos de la textura prescritos se mapean a la sección
transversal de los miembros particionados desplegados por los
elementos del despliegue aparte de los elementos del despliegue
específicos mencionados anteriormente.
Preferentemente, la unidad de procesamiento de
imagen es operable para mostrar una imagen simulando una figura en
forma de árbol desplegando elementos del despliegue llanos, a donde
los datos de textura prescritos se han mapeado, radialmente sobre
un eje del centro prescrito para subtender un cierto ángulo o
ángulos con dicho eje del centro para configurar un objeto, y
desplegar uno o más tales objetos en el espacio virtual, apilándolos
en la dimensión vertical.
El "eje del centro" aquí se refiere a esa
porción que corresponde al "tronco". En términos del despliegue
global, un cono o forma de paraguas se efectúan. También no hay
ninguna necesidad de que los elementos mostrados se inclinen
exteriormente de la misma manera. Ellos pueden abrirse hacia arriba
en las coordenadas del espacio virtual, y los ángulos de la
apertura pueden hacerse aleatorios. El término "figura en forma de
árbol" se refiere, además de los árboles, a figuras que tienen
formas indistintas que ocurren en el mundo real tal como las
llamas, el humo, y las nubes, por ejemplo, y puede aplicarse a todos
los tipos de cosas.
Aquí, de la pluralidad de objetos mencionada
anteriormente, esos objetos que cubren el extremo más alto se
configuran aproximadamente en forma de paraguas. Acerca de los
objetos en los niveles más bajos, sin embargo, las porciones cerca
del eje del centro no pueden verse, por lo que no es completamente
necesario que los datos de la textura se mapeen en la proximidad
cercana al eje del centro.
La configuración también es hecha para que los
ajustes sean hechos para que los elementos de despliegue a los
cuales se le mapean los mismos datos de la textura no se apilen
encima de otro entre una pluralidad de los objetos que son
adyacentes mencionada anteriormente. Para prevenir que los elementos
del despliegue se apilen sobre ellos mismos, la orientación de cada
objeto (el ángulo del objeto sobre el eje del centro) puede
cambiarse o el orden de los elementos del despliegue que constituyen
un objeto puede cambiarse, objeto por objeto. Alternativamente,
pueden hacerse configuraciones para que el plano de cada elemento
del despliegue se destaque fuera de la circunferencia exterior. O
pueden desplegarse los planos de los elementos del despliegue que
configuran los objetos mencionados anteriormente a diferentes
niveles para que ellos no entren en contacto. O pueden colocarse
los planos de elemento de despliegue para que ellos formen un modelo
de zigzag en forma delta.
Preferentemente, la unidad de procesamiento es
operable para desplegar los elementos del despliegue llanos, en
donde los datos de la textura prescritos han sido mapeados, en una
pluralidad, dentro de un área espacial prescrita para configurar un
objeto, y para controlar direccionalmente las direcciones en cuyas
caras de dicha pluralidad de elementos del despliegue se orientan
para corresponder con la perspectiva de donde se observa el espacio
virtual.
El "objeto" referido anteriormente puede
ser adecuadamente un árbol u otra entidad en el mundo real que tiene
una forma compleja. Cuando el "objeto" es un árbol, los
"elementos del despliegue" pueden ser adecuadamente un racimo
de hojas que configuran el árbol. La idea principal es dividir un
árbol en bloques que comprenden una pluralidad de elementos del
despliegue, y controlar el efecto para que los elementos del
despliegue más o menos afronten la dirección de la perspectiva.
Un método concebible de control direccional es
establecer un vector del punto representativo para uno de los
objetos notados anteriormente en correspondencia con la perspectiva
mencionada anteriormente, y entonces direccionalmente controlar los
elementos del despliegue notados anteriormente para que una
pluralidad de esos elementos del despliegue afronten la dirección
de ese vector de punto representativo.
Otro método concebible de control direccional es
controlar direccionalmente los elementos del despliegue notados
anteriormente para que cada una de las líneas normales en la
pluralidad de los elementos del despliegue notadas anteriormente se
oriente en la dirección de la perspectiva notada anteriormente.
Por ejemplo, la configuración puede hacerse tal
que los coeficientes pesados se pongan en los ápices de los
elementos del despliegue, y la densidad de la textura mapeada a esos
elementos del despliegue pueda interpolarse linealmente por esos
coeficientes pesados entre los ápices, y la configuración se pueda
hacer tal que, modificando los coeficientes pesados para que ellos
se hagan corresponder con el despliegue del objeto en el espacio
virtual, la densidad de la textura de los elementos del despliegue
que configuran ese objeto pueda controlarse.
Preferentemente la unidad de procesamiento es
operable para generar, entre dichos objeto y perspectiva para
desplegar las imágenes, un objeto para desplegar dicha sombra.
La configuración es hecha aquí para que las
posiciones relativas del objeto y el objeto sombra por consiguiente
como se ve desde la perspectiva puedan alterarse según la altura del
objeto sobre un plano de referencia desplegado en el espacio
virtual. La configuración es hecha, por ejemplo, para que la sombra
pueda moverse hacia arriba y hacia abajo en la pantalla en
correspondencia con esa altura.
Preferentemente, la unidad o el método de
procesamiento de imagen son configurados para que un objeto
desplegado en el espacio virtual y una sombra puedan mostrarse,
configurándose para que una fuente de iluminación para alumbrar una
luz de iluminación con el propósito de desplegar la sombra pueda
establecerse en un área de un plano de referencia establecida en el
espacio virtual en donde la sombra del objeto será desplegada. Por
ejemplo, una luz negra podría desplegarse a una posición que
corresponde al sol en el espacio virtual. La posición brillante
está debajo de las piernas del objeto, pero la posición brillante
puede cambiarse según el ángulo del sol y la altura del objeto
sobre el plano de referencia.
Preferentemente una máquina de juego comprende
una unidad de procesamiento de imagen de la invención presente.
\newpage
También se prefiere un medio de grabación que es
legible por la máquina y en donde se graban los datos del programa
para ejecutar un método de procesamiento de imagen de la invención
presente en una computadora.
Por medio de grabación se refiere a algo donde
la información (principalmente datos digitales, programas) se graba
por algunos medios físicos, que es capaz de causar que una
computadora, un procesador especializado, u otro aparato de
procesamiento realicen funciones prescritas. En otras palabras este
medio de grabación puede ser cualquier cosa que bajará un programa
a una computadora de alguna forma y causará que las funciones
prescritas sean ejecutadas. Tales medios de grabación incluyen
discos flexibles, discos duros, casetes de grabación, discos
magnéticos ópticos, CDs, CD-ROMs, CDRs,
DVD-RAMs, DVD-ROMs,
DVD-Rs, PDs, MDs, DCCs, cartuchos ROM, cartuchos de
memoria RAM que tienen batería de respaldo, cartuchos de memoria
flash, y cartuchos RAM fijos, etc.
También están incluidos los casos donde el
traslado de datos se recibe de una computadora servidora a través
de un cable o línea de comunicaciones inalámbrica (la línea pública,
la línea de datos especializados, la conexión de satélite, etc.).
La tan nombrada Internet también es incluida en los medios de
comunicación de grabación referidos aquí.
Para que la invención presente se entienda más
fácilmente, realizaciones específicas se describirán con referencia
a las figuras acompañantes.
La fig. 1 es un diagrama de bloque de esta
máquina de juego;
La fig. 2A es un diagrama de flujo para
describir el proceso de alteración de densidad en un primer aspecto
de la realización, comprendiendo un proceso de decisión de condición
cumplida;
La fig. 2B es un diagrama de flujo para
describir el proceso de alteración de densidad en la primera
realización, comprendiendo los detalles de un proceso de generación
de imagen;
La fig. 3 es una imagen de ejemplo mostrando el
proceso de alteración de densidad (fase 1);
La fig. 4 es una imagen de ejemplo mostrando el
proceso de alteración de densidad (fase 2);
La fig. 5 es una imagen de ejemplo mostrando el
proceso de alteración de densidad (fase 3);
La fig. 6 es una imagen de ejemplo mostrando el
proceso de alteración de densidad (fase 4);
La fig. 7 es una imagen de ejemplo mostrando el
proceso de alteración de densidad (fase 5);
La fig. 8A es una vista diagonal de un objeto
del ejemplo que representa un árbol en una representación en forma
de cable;
La fig. 8B es una vista plana del objeto del
ejemplo que representa un árbol en una representación en forma de
cable;
La fig. 9 es un diagrama de configuración de un
objeto árbol en un segundo aspecto de la realización;
La fig. 10 es un diagrama para describir un
procedimiento para generar un objeto árbol;
La fig. 11 es una deformación del ejemplo (la
primera) en un objeto en forma de paraguas;
La fig. 12 es una deformación del ejemplo (la
segunda) en un objeto en forma de paraguas;
La fig. 13 es una deformación del ejemplo (la
tercera) en un objeto en forma de paraguas;
La fig. 14 es un diagrama de configuración de un
objeto árbol en un tercer aspecto de la realización;
La fig. 15 es un diagrama para describir el
control direccional de elementos del despliegue (los polígonos) en
el tercer aspecto de la realización;
La fig. 16 es un diagrama para describir el
control de un elemento del despliegue (el polígono);
La fig. 17A es un diagrama de despliegue de
textura para un caso donde el mismo coeficiente pesado se fija a los
ápices de un elemento del despliegue;
La fig. 17B es un diagrama de despliegue de
textura para un caso donde el mismo coeficiente pesado se fija a los
ápices de un elemento del despliegue;
\newpage
La fig. 18 es un diagrama de flujo para
describir el control direccional de un objeto árbol en el tercer
aspecto de la realización;
La fig. 19 es un diagrama de configuración en
forma de cable (vista lateral) de un objeto árbol direccionalmente
controlado;
La fig. 20 es una muestra del ejemplo (vista
lateral) en donde la textura se ha mapeado a un objeto árbol
direccionalmente controlado;
La fig. 21 es un diagrama configuración en forma
de cable (plano) de un objeto árbol direccionalmente controlado;
La fig. 22 es una muestra del ejemplo (plano) en
donde la textura se ha mapeado a un objeto árbol direccionalmente
controlado;
La fig. 23 es una muestra del ejemplo de un
objeto árbol en un caso donde los coeficientes pesados del elemento
desplegado no se controlan;
La fig. 24 es una muestra del ejemplo de un
objeto árbol en un caso donde los coeficientes pesados del elemento
desplegado se alteran;
La fig. 25 es un diagrama para describir el
control direccional de elementos del despliegue por otro método en
el tercer aspecto de la realización;
La fig. 26 es un diagrama de flujo para
describir un proceso de generación de sombra en un cuarto aspecto
de la realización;
La fig. 27 es un diagrama para describir el
despliegue cuando un carácter está en contacto con la tierra;
La fig. 28 es un diagrama para describir el
despliegue cuando un carácter está saltando;
La fig. 29 es un diagrama ejemplar de muestra de
la imagen en el despliegue esquematizado en La fig. 27;
La fig. 30 es un diagrama ejemplar de muestra de
la imagen en el despliegue esquematizado en La fig. 28;
La fig. 31 es un ejemplo de muestra de la imagen
(con la perspectiva diagonalmente encima) en el cuarto aspecto de la
realización;
La fig. 32 es un ejemplo de muestra de la imagen
(con la perspectiva al nivel de piso) en el cuarto aspecto de la
realización;
La fig. 33 es un diagrama para describir el
despliegue en un quinto aspecto de la realización; y
La fig. 34 es un ejemplo de muestra de la imagen
en el quinto aspecto de la realización.
Aspectos preferibles de la realización para la
invención presente son descritos ahora con referencia a las
figuras.
Un primer aspecto de la realización se refiere a
un dispositivo de despliegue de imagen, un método para eso, una
máquina de juego, y un medio de grabación con lo cual el despliegue
de la imagen tridimensional es posible y con lo cual es posible
representar las imágenes naturales cuando un objeto entra o deja un
edificio o algo parecido.
En La fig. 1 se da un diagrama de bloque para
una máquina de juego en la invención presente. La máquina de juego
1 de la invención presente comprende un bloque del CPU 10, un bloque
de video 11, y un bloque de sonido 12, como se esquematiza en La
fig. 1.
El bloque del CPU 10 se refiere a una unidad de
procesamiento en la invención presente y comprende un árbitro de
BUS 100, el CPU 101, la memoria principal 102, la ROM 103, y la
unidad de CD-ROM 104.
El árbitro del BUS 100 se configura para que
pueda controlar la transmisión y recepción de datos asignando el
tiempo del BUS especializado a los dispositivos que se conectan
mutuamente sobre el BUS.
El CPU 101 se configura para que pueda acceder a
la unidad de CD-ROM 103, a la ROM 103, al bloque de
video 11, al bloque de sonido 12, y (a través de un dispositivo de
entrada 107) a la memoria de respaldo 108. Cuando la energía se ha
encendido, el CPU 101 ejecuta un programa de inicialización guardado
en la ROM 103, inicializa el sistema global, y, al descubrir que
hay un CD-ROM en la unidad de CD-ROM
108, transfiere los datos del programa del sistema operativo
guardados en el CD-ROM a la memoria principal 102.
Después de eso, el CPU 101 se diseña para que opere de acuerdo con
el sistema operativo. El CPU 101 luego transfiere los datos del
programa de la aplicación guardados en el CD-ROM a
la memoria principal 102 y ejecuta ese programa. El CPU 101 también
transfiere los datos de imagen a una memoria de gráfico 111 y es
capaz de transferir los datos de audio a una memoria de sonido 121.
El procesamiento de los datos del programa ejecutado por el CPU 101
consiste principalmente en interpretar la entrada de señales de
control del dispositivo de entrada 107 y los datos de
comunicaciones de un dispositivo de comunicaciones 130, el
procesamiento de imagen hecho para ser realizado por el bloque de
video 11, y el procesamiento de audio hecho para ser realizado por
el bloque de sonido 12.
La memoria principal 102 principalmente almacena
los datos del programa del sistema operativo y los datos de
programa de la aplicación notados anteriormente, pero también es
capaz de proporcionar un área de trabajo para almacenar variables
estáticas y variables dinámicas y lo parecido. La ROM 103 es un área
para almacenar el programa inicializando.
En el CD-ROM se guardan los
datos del programa para causar que el método de procesamiento de
imagen de la invención presente sea ejecutado por esta máquina de
juego, los datos de imagen para desplegar las imágenes, y los datos
de audio para el sonido de salida. La unidad de
CD-ROM 104 permite cargar y descargar los CDs.
Cuando un CD está cargado, la unidad de CD-ROM 104
retorna datos indicando ese hecho al CPU 101, y es capaz de
transferir los datos bajo el control del CPU 101. El medio de
grabación no está limitado a un CD, sin embargo, y pueden
configurarse otros tipos de medios de grabación para que sean
capaces de leer. La configuración también puede hacerse para que
los grupos de datos almacenados en el CD se transfieran a las
memorias a través del dispositivo de comunicaciones 130, descrito
posteriormente. Si las cosas son fijadas de esta manera, es posible
transferir los datos de los discos duros en los servidores en los
sitios remotos.
El dispositivo de entrada 107 se diseña para que
se conecte desmontable a esta máquina de juego, y para que las
señales de control sean retornadas al BUS del bloque del CPU 10
según la manera en que los botones de control son operados por el
jugador. El dispositivo de entrada 107 puede ser una palanca de
juego (joystick) o el teclado, o, alternativamente, un
dispositivo como un mouse o un controlador. Cualquier dispositivo de
entrada único 107 puede conectarse, o dos o más pueden conectarse
en una configuración que permita una pluralidad de jugadores para
jugar el juego simultáneamente.
La memoria de respaldo 108 se diseña para que
pueda conectarse desmontable al dispositivo de entrada 107, y se
configura para que el acceso sea posible del CPU 101. Esta memoria
también es un área del almacenamiento para los estados de progreso
del juego y los resultados del juego generados durante el juego y
para fijar datos que contienen tales configuraciones como métodos
del control, los cuales se envían del CPU 101. Estos datos de
configuración funcionan como los datos de respaldo para que si la
energía se interrumpe el juego se reinicie en el estado que existe
inmediatamente anterior al corte de energía, e intercambiando la
memoria de respaldo, los datos pueden usarse para reflejar en esta
máquina de juego el estado del control de otra máquina de juego sin
cambiarlo.
El bloque de video 11 comprende un VDP
(procesador de la pantalla de video) 110, una memoria de gráficos
111, y un codificador de video 112. En la memoria de gráficos 111
se almacenan los datos de imagen leídos del CD como se describe
anteriormente. El VDP 110 se diseña para que sea capaz de leer los
datos de imagen necesarios para el despliegue de la imagen de los
datos de imagen almacenados en la memoria de gráficos 111, y
realizando la conversión coordenada (computación geométrica), las
rutinas de mapeado de texturas, el procesamiento de prioridad del
despliegue, y el procesamiento del obscurecimiento, etc., según los
datos necesarios para el despliegue de la imagen proporcionados por
el CPU 101, eso es, según los datos del comando, los datos de la
posición de la perspectiva, los datos de la posición de la fuente de
iluminación, los datos de la designación del objeto, los datos de
la posición del objeto, los datos de designación de textura, los
datos de la densidad de la textura, y el campo de datos de la
matriz de vista, etc. La configuración también puede hacerse para
que tal proceso como la conversión de la coordenada, mencionado
anteriormente, se realice por el CPU 101. Es decir, el
procesamiento puede asignarse a diferentes dispositivos según las
capacidades de computación de cada dispositivo. El codificador de
video 112 se configura para que sea capaz de convertir los datos de
imagen generados por el VDP 110 a las señales de la televisión
prescritas como en el esquema de NTSC y retornando [esas señales] a
una unidad de monitoreo 4 conectada externamente.
El bloque de sonido 12 comprende un procesador
de sonido 120, una memoria de sonido 121, y un conversor D/A 122.
En la memoria de sonido 121 se almacenan datos de audio leídos del
CD como se describe anteriormente. El procesador de sonido 120 se
diseña para que, basado en los datos del comando proporcionados del
CPU 101, lea los datos de audio tal como datos en forma de onda
almacenados en la memoria de sonido 121, realice varios procesos de
efecto basado en las funciones del DSP (procesador de señal
digital), y realice el procesamiento de conversión digital/análoga,
etc., El conversor D/A 122 se configura para que sea capaz de
convertir los datos de audio generados por el procesador de sonido
120 a las señales analógicas y retorne aquellos a los altavoces 5
conectados externamente.
El dispositivo de comunicaciones 130 es un módem
o un adaptador terminal, por ejemplo, configurado para que pueda
conectarse a esta máquina de juego, y capaz de funcionar como un
adaptador para conectar la máquina de juego 1 a una línea externa.
El dispositivo de comunicaciones 130, además, está hecho para que
sea capaz de recibir datos enviados de un servidor de suministro
del juego conectado a una red de comunicaciones pública 131 y
proporcionar esos datos al BUS del bloque del CPU 10. No hay ninguna
restricción en la red de comunicaciones pública 131 acerca de si
comprende líneas subscritas o líneas especializadas, sobre las
líneas de tierra o las conexiones inalámbricas.
El funcionamiento de esta máquina de juego se
describe a continuación.
El juego roll proporcionado por el
funcionamiento de esta máquina de juego es establecido con una
historia en donde un carácter que corresponde a un héroe que puede
manipularse por el control del jugador viaja a través de un mundo
virtual. Los objetos desplegados en el espacio virtual (es decir,
las entidades desplegadas predeterminadas por los datos del
programa y los datos de imagen) incluyen la tierra y otros terrenos,
edificios, árboles, llamas, nubes, y también los caracteres que son
el héroe y otras personas que aparecen en el juego. Un objetivo
particular con esta máquina de juego es desplegar los objetos en
formas similares a aquellos del mundo real. Con ese propósito, las
configuraciones están hechas para que los objetos y las
deformaciones que se hacen necesarios mientras el juego roll se
desarrolla sean simulados tan naturalmente como sea posible, para no
dificultar la concentración del jugador. El aspecto del
procesamiento de la imagen se describe ahora.
Las imágenes proporcionadas por esta máquina de
juego son imágenes que se proyectan hacia un plano bidimensional
prescrito para que el espacio virtual establecido
tridimensionalmente parezca ser observado de una perspectiva
prescrita. Las configuraciones están hechas para que el espacio
virtual pueda ser movido mientras se mantiene una relación de
posición más o menos constante entre la posición de esa perspectiva
y el carácter que corresponde al héroe. Consecuentemente, al
jugador, las imágenes se proveen tal que se parecen a aquellas que
secuencialmente le aparecen al ojo del héroe que viaja a través del
mundo virtual.
Durante la secuencia del juego, cuando el
carácter que corresponde al héroe entra en un edificio, si el
despliegue del edificio se mantiene inalterado, entonces la
situación dentro del edificio no se presenta al jugador porque está
bloqueado por paredes que están dividiendo a los miembros.
Convencionalmente, o esa pared del edificio que está a un lado de
la perspectiva se extingue momentáneamente y se despliega, o el
propio edificio es hecho un edificio que no tiene ningún tejado
desde el principio. Con tal despliegue como este, sin embargo, el
despliegue cambia de repente o la innaturalidad se imparte.
También, debido a que las paredes que configuran el edificio tienen
los datos de la textura mapeados a un polígono, su sección
transversal se despliega como un simple panel, que es enteramente
antinatural.
De esa manera, en esta máquina de juego, las
dificultades notadas previamente son eliminadas desplegando la
pared del edificio a un lado de la perspectiva para que gradualmente
se vuelva más tenue cuando un carácter entra en el edificio.
También, las paredes del edificio se determinan gruesas para que las
secciones transversales de ahí no parezcan antinaturales.
En La fig. 2A se muestra un diagrama de flujo
que describe este procesamiento de la imagen y en La fig. 2B se
representa una subrutina para ese proceso de generación de la
imagen. Estos procesos se realizan con un cronometraje de
actualización de la imagen como, por ejemplo, una vez cada período
del marco. En La fig. 3 a la 7 se dan ejemplos de despliegue de la
imagen que muestran este procesamiento de la imagen desde el inicio
hasta el final.
La rutina de la secuencia del juego (paso S11):
Primero, el CPU 101, basado en las señales de control proporcionadas
por el dispositivo de entrada 107, computa una nueva posición para
un carácter en el espacio virtual para el próximo tiempo de
despliegue de la imagen. Cuando hay otros objetos al lado del
carácter para los cuales el movimiento se fija, nuevas posiciones
para aquellos también se computan.
Estimación de la condición (S12): A
continuación, el CPU 101 decide si el carácter está intentando o no
entrar en un edificio. Esta condición puede concebirse de varias
maneras. Por ejemplo, es posible juzgar que el carácter "entró en
el edificio" en el momento en que la distancia de la posición del
centro de edificio a la posición del centro de carácter queda
debajo de cierto valor. O una estimación de la colisión conocida
puede realizarse para el objeto del edificio y el caracter, y una
estimación dice que el carácter ha entrado en el edificio cuando se
estima que una colisión ha ocurrido. Alternativamente, la condición
puede ser el estado de una acción tomada por el carácter relativa a
un objeto dentro o fuera del edificio, como subir los escalones, o
abrir una puerta, o abrir una ventana, y así sucesivamente.
Un ejemplo de un despliegue de la imagen cuando
esta condición se cumple (SÍ en S12) se da en La fig. 3. En La fig.
3, un objeto edificio B y un carácter C se despliegan
tridimensionalmente. El carácter C se ha acercado a la puerta del
edificio B. Cuando esta condición no se cumple (NO en S12), no habrá
ningún procesamiento de alteración de densidad, y el CPU 101
realiza el procesamiento de la generación de la imagen original
(S16).
Especificando los objetos para la alteración de
densidad (S13): Después de que la condición notada anteriormente se
ha cumplido, el CPU 101 especifica un objeto que tendrá su densidad
alterada. Es decir, el CPU 101 determina los elementos del
despliegue específicos (grupos de polígonos) para el edificio para
los cuales la densidad se hará más tenue desde las posiciones
relativas del carácter y el edificio. Por ejemplo, una vez que es
determinado que el carácter está entrando en el primer piso del
edificio, un número del objeto que designa el "primer piso del
edificio" como un objeto para el cual la densidad se alterará se
pone en una variable de modo de alteración de densidad prescrita
(almacenada en los 4 bits superiores, por ejemplo) (S14).
Alternativamente, el número del objeto puede especificarse del
flujo de la secuencia de juego. Por ejemplo, si el edificio es una
estructura de dos pisos y el carácter está entrando del exterior,
puede juzgarse que el carácter está entrando en el primer piso del
edificio.
Especificando la bandera de alteración de
densidad (S15): El CPU 101 entonces fija una bandera en la variable
de modo de alteración de densidad de acuerdo a cuándo la densidad se
alterará para volverse más tenue o más densa (fijando el valor de
los 4 bits más bajos a 1 para "hacerla más tenue", a 2 para
"hacerla más densa", y a 0 para "ninguna alteración (el cero
de la bandera)", por ejemplo). Cuando el carácter entra en el
edificio, es necesario desplegar la parte delantera del edificio
más tenue para hacer fácil ver el interior del edificio.
Recíprocamente, cuando el carácter deja el edificio, es necesario
hacer la textura de la parte delantera del edificio más densa para
restaurar el despliegue del edificio a como estaba originalmente. El
CPU 101, referenciando varias banderas que indican los estados de
secuencias del juego, estima qué acciones el carácter está tomando
o la dirección del movimiento, y determina el modo de alteración de
densidad. Entonces almacena un código preestablecido que indica ese
modo de alteración de densidad junto con el número del objeto en la
variable de modo de densidad de alteración. Cuando un código es
fijado en esta variable (cuando, por ejemplo, un valor distinto de
0 se almacena), el CPU 101 asume que la bandera de alteración de
densidad se ha activado. El método por el que se asignan los
códigos de alteración de densidad a las variables puede diseñarse o
puede modificarse de varias maneras.
El procesamiento de la generación de la imagen
(S16): Cuando la fijación del modo de alteración de densidad
descrita anteriormente se ha completado, el CPU 101 procede al
procesamiento de la generación de la imagen. Ninguna descripción se
da aquí del procesamiento ordinario de la generación de la imagen.
La descripción empieza desde la fase donde, para un edificio, el
procesamiento es realizado para mapear la textura y efectuar el
obscurecimiento. Primero, el CPU 101 referencia la variable de modo
de alteración de la densidad. Si la bandera está desactivada (NO en
S101), es decir, si no hay ninguna alteración en la densidad, el CPU
101 deja la densidad de textura del edificio como está y
retorna.
Si la bandera está activada (SÍ en S101), es
decir, si la densidad va a ser alterada, el CPU 101 de nuevo
referencia el código de la variable y lee del número del objeto la
densidad que será alterada y el modo de alteración de la densidad.
Cuando un modo para hacer la densidad más densa ha sido fijado
(hacer más densa en S102), el procesamiento de obscurecimiento se
realiza (S103) para levantar la densidad una escala en los datos de
la textura mapeados al grupo del polígono (elementos del despliegue
específicos) configurando la parte del edificio, a un lado de la
perspectiva que está asociada con ese número del objeto. Las
gradaciones que determinan esta densidad pueden alterarse
diversamente según la velocidad con la cual la densidad será
alterada. Cuando las gradaciones son pocas, la alteración será
repentina, mientras que cuando las gradaciones son muchas, la
alteración será lenta. Por ejemplo, si 60 gradaciones son fijadas,
las fijaciones pueden hacerse para completar la alteración de
densidad con 60 rutinas de ciclos (aproximadamente 1 segundo con el
esquema NTSC). Estas gradaciones son fijadas con un comando
proporcionado al bloque de video 11.
Si la alteración de densidad ha procedido a la
gradación más densa (es decir, el despliegue opaco ordinario) (SÍ
en S104), la bandera de alteración de densidad se desactiva, es
decir, la variable de modo de alteración de densidad se resetea con
cero, etc. (S105).
Durante el curso de alterar la densidad (NO en
S104), la bandera de alteración de la densidad no se desactivará.
Este curso se indica, por ejemplo, en la secuencia representada en
La fig. 4 a la 7. Una vez que el carácter C ha entrado en el
edificio B, la densidad de la textura del grupo del polígono que
constituye los elementos del despliegue específicos en los
polígonos que configuran el edificio B se vuelve menor. Finalmente,
los elementos del despliegue específicos se volverán completamente
invisibles, como se indica en La fig. 7, y los objetos del 01 al 04
desplegados en el interior del edificio y el carácter C que
atraviesa el cuarto se muestran. Como puede entenderse de la fig.
7, los objetos que despliegan el mobiliario y las decoraciones del
interior no están sujetos a la alteración de densidad, y es
preferible que ellos se desplieguen a lo largo de la pared, vistos
desde la perspectiva tan lejos como sea posible, para que la
situación interior sea fácil de observar.
Las paredes del edificio en esta máquina de
juego se dan gruesas. Convencionalmente, las paredes no tenían
ningún grueso, haciendo las cosas parecer antinatural cuando una
parte del edificio fuera eliminada. En la invención presente, se
establecen polígonos para configurar las paredes exteriores del
edificio y se establecen polígonos para configurar las paredes
interiores, respectivamente, y una cierta distancia es fijada entre
esos dos [grupos de] polígonos. Por esa razón, cuando la densidad de
los elementos del despliegue específicos se hace más tenue, como se
describe anteriormente, los elementos del despliegue determinados
para no estar sujetos a la alteración de densidad pueden verse a
través de estos, y las secciones transversales entre las paredes
exteriores y paredes del interior del edificio se hacen visibles. La
vista será antinatural si ninguna textura se mapea a estas
secciones transversales, por lo cual, en esta máquina de juego, los
datos de textura de sección transversal se mapean entre las dos
paredes. En La fig. 7, las secciones transversales SS1 a SS5 son
visibles. Los datos de textura de la sección transversal de la pared
derecha se mapean en SS1 a SS3, mientras que los datos de la
sección transversal de piso se mapean en SS4 y SS5. Debido a que la
textura se aplica a estas secciones transversales, ninguna
innaturalidad aparecerá cuando los elementos del despliegue
específicos se vuelvan transparentes, y el jugador puede tener la
ilusión de que él o ella están mirando secciones transversales
reales del edificio.
Ahora, cuando el modo de espesamiento de la
densidad se fija en el paso 102 (se hace más tenue en S102), el
procesamiento se hace al reverso de lo descrito anteriormente. Es
decir, el procesamiento de obscurecimiento se realiza (S106) para
bajar la densidad una escala en los datos de la textura mapeados al
grupo del polígono (los elementos del despliegue específicos)
configurando la parte del edificio, a un lado de la perspectiva,
que está asociada con ese número del objeto. Entonces, si la
alteración de densidad ha procedido a la escala más tenue (es
decir, el despliegue transparente) (SÍ en S107), la bandera de
alteración de densidad se activa, es decir, la variable de modo de
alteración de densidad se resetea a cero, etc. (S105). Durante el
curso de alterar la densidad (NO en S107), la bandera de alteración
de densidad no se desactivará.
El procesamiento descrito previamente no se
limita a los casos de entrada o de salida de un edificio, además, y
puede aplicarse a varios tipos de alteraciones. Por ejemplo, en un
caso donde hay un número plural de cuartos en el edificio, pueden
ponerse números del objeto para cada cuarto, y el control afectado
para aumentar o disminuir la densidad cuarto por cuarto. En otras
palabras, en un caso donde un carácter se mueve de un cuarto a
otro, alcanzando el umbral de un cuarto puede efectuarse la
condición descrita anteriormente, el cuarto a través del cual ha
pasado puede hacerse más denso gradualmente y retornar a lo que era
originalmente, y la densidad del cuarto sobre el cual se entró
puede hacerse gradualmente más tenue.
Si el edificio es una estructura de dos pisos
como se indica en La fig. 3 a la 7, la condición puede ser que el
carácter esté subiendo los escalones (02 en La fig. 7), la densidad
del juego de elementos de despliegue específicos para el primer
piso vuelve a lo que era originalmente, y la densidad de los
elementos del despliegue específicos fijados separadamente para el
segundo piso disminuye. Cuando se desciende las escaleras, se hace
lo reverso. Basado en el procesamiento de esta manera, las paredes
pueden eliminarse naturalmente y pueden restaurarse de acuerdo con
el progreso del caracter, por lo que no hay ningún peligro de
interferir con la concentración del jugador.
Basándose en este aspecto de la realización,
cuando un carácter entra o deja un objeto como un edificio, es
posible efectuar las transiciones del despliegue naturales sin
reducir el sentido de realismo de un jugador que está completamente
sumergido en el mundo del juego.
Este aspecto de la realización se refiere a un
método que hace posible representar objetos tal como los árboles
con un notable realismo, sin desplegar las imágenes antinaturales,
en máquinas de juego sujetas a ciertas limitaciones de capacidad de
procesamiento.
El hardware usado en este segundo aspecto de la
realización es el mismo que aquel indicado en el primer aspecto de
la realización, y por tanto no se describe aquí. Se asume, sin
embargo, que los datos del polígono y los datos de la textura,
etc., para facilitar el despliegue de árboles en la invención
presente se leen en esta máquina de juego del
CD-ROM. El funcionamiento se describe ahora.
En un mundo virtual, si un carácter que
corresponde a un héroe se acerca a un objeto (como un árbol), ese
objeto se despliega más grande como cuando se aproxima a un árbol
real.
Con los métodos convencionales para desplegar un
árbol, la textura del árbol completo se representa en un polígono
llano, o un compuesto es hecho en donde polígonos a los que la
textura se ha mapeado para representar las hojas se insertan en
forma cruzada en el centro del tronco, o los árboles son
representados por objetos en forma de pelota, mapeando los datos de
la textura hacia los polígonos para lograr una vista en forma de
árbol. Por tanto, cuando la perspectiva se acerca al árbol, las
hojas se despliegan como paneles, produciendo una representación en
forma de árbol.
En contraste a eso, en esta máquina de juego,
los objetos (en forma de paraguas, por ejemplo) se configuran en
donde los elementos del despliegue llanos a los que se han mapeado
los datos de la textura se despliegan radialmente sobre un eje del
centro para subtender un cierto ángulo con ese eje del centro.
Entonces uno o más de estos objetos en forma de paraguas se
posicionan en el espacio virtual para que se apilen, haciendo
posible presentar una imagen en forma de árbol incluso cuando se
aproximan.
En La fig. 8, un objeto en forma de paraguas de
los objetos árbol presentados en esta máquina de juego se muestra
en una representación en forma de cable. La fig. 8A es una vista
diagonal mientras La fig. 8B es una vista plana. En La fig. 8, el
objeto en forma de paraguas se configura como un octágono que usa
ocho polígonos triangulares, pero el número y la forma de los
polígonos no están limitados a eso. Es posible hacer las
representaciones de la forma de árbol mapeando datos de la textura
que consisten en puntos que tienen densidades diferentes o colores
sutilmente diferentes a estos polígonos, respectivamente. Si todos
los polígonos se hacen para encarar descendentemente, eso es, para
formar una forma de paraguas, la semejanza a un cedro u otro árbol
de hoja perenne pueden efectuarse, y si los polígonos se despliegan
al azar con algún paramento ascendente y alguno descendente, la
semejanza a un árbol de hoja ancha puede efectuarse.
La fig. 9 es un diagrama para describir un
objeto árbol que usa cinco de los objetos en forma de paraguas
descritos anteriormente (C1 a C5). Este objeto árbol se configura
desplegando los objetos en forma de paraguas C1 a C5 sobre el
objeto del tronco T que rodea el eje del centro A. Los ángulos
subtendidos por los polígonos que configuran los objetos en forma
de paraguas C1 a C5 y el eje del centro A pueden ser todos los
mismos o pueden ser diferentes. Lo mismo se cumple con el radio r1
al r5 de los objetos en forma de paraguas y con los grados de
inclinación p12, p23, p34, y p45 entre los objetos en forma de
paraguas. Es posible desplegar imágenes muy realistas haciendo el
número de objetos en forma de paraguas mayor y el grado de
inclinación p menor, pero eso también produce un mayor volumen de
datos y procesamiento de tiempo. Como consecuencia, éstos son
determinados según la capacidad de memoria y el poder de
procesamiento.
En términos específicos, los procedimientos de
generación de imagen son esquematizados en La fig. 10. En el
proceso de generación de imagen descrito anteriormente (Fig. 2A,
paso S16), el CPU 101, en paralelo con otra generación de imagen
de objeto, primero especifica los polígonos y determina un grupo de
datos del polígono para desplegar los objetos (S1). Así se
especifican los polígonos a ser usados. Luego, el CPU 101 envía
datos de designación de objeto que indican datos de la matriz que
determinan los polígonos especificados y su tamaño al bloque de
video 11. Así las formas de cada uno de los objetos usadas son
determinadas (S2). El CPU 101 también envía los datos de posición
de objeto que determinan el posicionamiento espacial de los objetos
en forma de paraguas y el objeto del tronco al bloque de video. Así
las formas de árbol son determinadas aparte de la textura (S3).
Finalmente, se envían los datos de designación de textura para
designar la textura a ser mapeada a los polígonos que configuran
los objetos en forma de paraguas y el objeto del tronco. En el
bloque de video 11, esos datos de la textura se mapean y el objeto
árbol está acabado. Este objeto es convertido de campo a vista y
desplegado (S4).
Los objetos en forma de paraguas descritos
anteriormente pueden alterarse de varias maneras. Por ejemplo, como
se esquematiza en La fig. 11, cuando el arreglo de las texturas T1 a
T8 desplegado en el objeto en forma de paraguas normalmente se fija
a todos los objetos en forma de paraguas, es posible cambiar el
posicionamiento con lo cual la textura se mapea en el orden C1, C2,
C3, y así sucesivamente. Cuando esto se hace, la textura idéntica
no se apilará verticalmente ni al mapear la misma textura a los
objetos en forma de paraguas, haciendo posible presentar la
semejanza a un árbol natural.
Como se esquematiza en La fig. 12, además,
cambiando los polígonos en los lados circunferenciales exteriores
en los objetos en forma de paraguas C2 a C5, es decir, en todos
exceptuando el objeto en forma de paraguas más alto C1, es fácil
hacer el diámetro del paraguas más grande. No necesitando alterar el
tamaño de los polígonos es posible reducir tiempo de
computación.
También es posible, como se esquematiza en La
fig., 13, desplegar los polígonos que configuran el objeto en forma
de paraguas cambiándolos de arriba a abajo para que no se toquen.
Cuando esto se hace, las hojas del árbol se superponen en múltiples
capas, haciendo posible presentar una semejanza más natural al
árbol. Alternativamente, el despliegue puede hacerse para que el
objeto sea en forma de abanico con las secciones transversales
pasmadas.
Esta descripción de este aspecto de la
realización pertenece a la representación de un árbol, pero los
objetos a los que esta descripción puede aplicarse no se limitan a
los árboles. Es posible aplicar esta descripción a todos los tipos
de objetos que tienen formas complejas que por consiguiente exigen
un número enorme de rutinas reproducirse fielmente y que, si se
representan con la textura simple, terminan como los despliegues
antinaturales cuando se acercan.
Basado en este segundo aspecto de la
realización, un beneficio se gana en esos objetos y es que los
árboles pueden desplegarse con una semejanza natural incluso cuando
un carácter se aproxima a ellos, para que el sentido de realismo del
jugador no se comprometa.
Este aspecto de la realización se refiere a otro
método que hace posible representar árboles muy realistas como en
el segundo aspecto de la realización.
El hardware usado en este tercer aspecto de la
realización es el mismo que el indicado en el primer aspecto de la
realización, y por tanto no se describe aquí. Se asume, sin embargo,
que un programa, los datos del polígono, y los datos de la textura,
etc., para facilitar el despliegue de árboles en la invención
presente son leídos en esta máquina de juego desde el
CD-ROM. El funcionamiento se describe ahora.
Considerando que en el segundo aspecto de la
realización descrito sobre las formas de elementos del despliegue
para representar racimos de hojas para representar un objeto árbol
es arrastrado como formas especiales, en este tercer aspecto de la
realización, se despliegan elementos del despliegue llanos a los que
la textura se ha mapeado para representar los racimos de hojas en
una pluralidad dentro de un área espacial específica sobre el
tronco para configurar un objeto.
En La fig. 14 se da una muestra de vista
diagonal de un objeto árbol en este aspecto de la realización
representado en forma de cable. Como es esquematizado en La fig.
14, el objeto árbol se configura como un elemento de despliegue T
que representa el tronco y una pluralidad de elementos de despliegue
P que representan racimos de hojas.
El elemento de despliegue T que representa el
tronco se configura con una pluralidad de polígonos en la forma
espacial de un árbol. Cada uno de los elementos de despliegue P que
representan un racimo de hojas consiste en un solo polígono
compuesto de un número de ápices respectivamente prescrito (4, por
ejemplo). Los elementos de despliegue P se despliegan adecuadamente
en el área espacial alrededor del elemento de despliegue T que
representa el tronco. El despliegue del elemento de despliegue P es
determinado de antemano para que las superposiciones del elemento
de despliegue P se vuelva menor visto desde las posiciones en el
espacio virtual donde la perspectiva existe principalmente. Tales
datos de imagen de objetos árbol se almacenan de antemano en el
CD-ROM, etc.
En La fig. 15 se da un diagrama para describir
el método del control direccional en este aspecto de la
realización.
El control direccional se efectúa en este
aspecto de la realización, como es esquematiza en La fig., 15,
estableciendo un vector del punto representativo V1 para cada
objeto árbol en asociación con la perspectiva VP, y controlando la
dirección de cada elemento de despliegue P para que la pluralidad de
elementos de despliegue P configure esas caras del objeto en la
dirección del vector del punto representativo V1. En otras palabras,
las direcciones en las cuales los planos de cada una de la
pluralidad de caras de elementos de despliegue son alteradas
dinámicamente y uniformemente en correspondencia con la dirección
V0 de la perspectiva VP, y controladas para que ellos siempre
afronten la misma dirección.
El vector del punto representativo V1 se
establece a cualquier único punto en el objeto árbol. Cualquier
único punto no se establece en un elemento de despliegue P o T,
pero aquí se establece en el elemento del despliegue específico P0.
En cualquier dirección que el elemento del despliegue específico P0
afronta, los demás elementos de despliegue P también afrontarán esa
misma dirección, por lo cual es preferible que un elemento de
despliegue P cerca del centro del objeto árbol se haga el elemento
del despliegue específico P0.
También es preferible que el vector del punto
representativo V1 se establezca en la misma dirección que la línea
de vector de vista V0, es decir, en la dimensión del eje Z del campo
de conversión de vista. La razón para esto es que, si se hace, el
elemento de despliegue específico P siempre afrontará la dirección
de la perspectiva P, y los otros elementos de despliegue P también
enfrentarán más o menos la dirección de la perspectiva VP.
En La fig. 16 se da una vista agrandada de un
elemento de despliegue P que representa un racimo de hojas. El
elemento de despliegue P tiene una forma cuadrada, por ejemplo, que
se define por las coordenadas para los ápices VX1 a VX4. No hay
ninguna limitación en el número de ápices, pero es suficiente
proporcionar 3 o 4. Cada elemento de despliegue P puede rotarse de
cualquier manera sobre los tres ejes rotatorios X, Y, y Z que
cortan al punto del centro (el centro de gravedad). Más
específicamente, en el caso de desplegar un elemento de despliegue
P que se define en un sistema de coordenadas de un cuerpo en un
sistema de coordenada mundial, se posiciona rotándolo un ángulo
rotatorio determinado sobre cada uno de los ejes X, Y, y Z. Así
cada elemento de despliegue P se configura para que sea posible
orientar la dirección normal en cualquier dirección, y los
elementos de despliegue P siempre pueden controlarse
direccionalmente según la posición de la perspectiva.
Los mismos datos de la textura PT se mapean
dentro de cada elemento del despliegue P. Si hay memoria excedente
disponible pueden proporcionarse varios tipos disponibles de datos
de la textura. Sin embargo, debido a que es posible representar una
semejanza adecuada por la interpolación lineal de valores del brillo
(densidad), un tipo es suficiente. Incluso cuando los mismos datos
de la textura se usan, sin embargo, es preferible que la dirección
de mapeo se altere al azar para cada elemento del despliegue P. Si
tal técnica se adopta, los racimos de hojas se desplegarán en
formas diferentes, haciendo posible por consiguiente representar los
árboles extremamente naturales aunque se usen idénticos datos de
textura conformados.
A cada ápice que configura un elemento de
despliegue P se fija un coeficiente pesado para definir la
interpolación lineal del brillo. Este valor puede fijarse como se
desee. Si se restringe al rango de 0 a 1, por ejemplo, se asume que
el brillo es el cero (es decir, negro en el despliegue) cuando ese
valor es 0, y 100% (es decir, blanco en el despliegue) cuando ese
valor es 1. La unidad de procesamiento se configura para que, al
mapear la textura a un elemento de despliegue P, el brillo de la
textura mapeado a ese elemento de despliegue P pueda interpolarse
linealmente por los coeficientes pesados para cada ápice. Por
ejemplo, si un coeficiente pesado de 1 se pone a un ápice en el
elemento del despliegue y un coeficiente pesado de 0 se le pone a
otro ápice, entre estos dos ápices, la textura se desplegará con
una graduación tal que el brillo cambia gradualmente de brilloso a
oscuro de un ápice al otro.
En La fig. 17A se muestra un ejemplo de mapeo de
textura cuando los coeficientes pesados de todos los ápices están
fijados en 1, y en La fig. 17B se muestra un ejemplo de mapeo de
textura cuando se cambian los coeficientes pesados de ápices en los
lados opuestos. Cuando el mismo coeficiente pesado se fija a todos
los ápices, como se muestra en la fig. 17A, el despliegue es llano
sin diferencias en el brillo. Recíprocamente, cuando se cambian los
coeficientes pesados de ápices, una diferencia en el brillo aparece
como si la luz del sol estuviera brillando de una dirección,
produciendo una vista tridimensional.
El funcionamiento de este aspecto de la
realización se describe ahora con referencia al diagrama de flujo
proveído en la fig. 18.
Cuando es necesario desplegar un objeto árbol en
el espacio virtual, el CPU 101 para generar un elemento de
despliegue T para representar la lectura del tronco del
CD-ROM, genera un elemento de despliegue del tronco
con un grupo del polígono asociado él. El CPU 101 también establece
la posición del centro (el centro de gravedad) de los elementos de
despliegue P sobre el elemento de despliegue del tronco T (S21).
Después de leer los polígonos para el elemento de despliegue P, el
CPU 101 despliega los polígonos para el elemento de despliegue P
en la posición del centro del elemento de despliegue P establecida
anteriormente (S22).
Después de adquirir el vector de la perspectiva
V0 de la perspectiva VP (S23), el CPU 101 computa el vector del
punto representativo V1 (S24). El vector de la perspectiva V0
orientado hacia el elemento del despliegue específico P0 en el
objeto árbol puede usarse como está para el vector del punto
representativo V1.
Para fijar la densidad de mapeo de la textura,
el CPU 101 lee un vector ligero de ambiente (S25), y reconoce la
dirección de iluminación primaria relativa al objeto árbol. El CPU
101 determina los coeficientes pesados para ser fijados a los
ápices de cada aparato de despliegue P en correspondencia con el
vector ligero de ambiente reconocido (S26). Estas configuraciones
son hechas para que los coeficientes pesados más cercanos en
dirección hacia la iluminación ambiental sean superiores y aquellos
más lejanos sean inferiores. Las configuraciones de la densidad (el
brillo) no son exactas, por lo cual es posible hacer asignaciones
simples, tal como hacer los coeficientes pesados de ápices más
cercanos a la iluminación ambiental 1, los coeficientes pesados más
lejanos de allí 0, y los coeficientes pesados intermedios 0.5. Es
permisible, sin embargo, determinar los coeficientes pesados por
computaciones lineales de la intensidad de la iluminación ambiental
y la relación de posición entre la iluminación ambiental y los
ápices. Diferentes coeficientes pesados pueden fijarse para cada
elemento de despliegue P, pero desde que la iluminación ambiental
afecta el objeto árbol entero uniformemente, será suficiente si el
mismo conjunto de coeficientes pesados para un elemento de
despliegue P es fijado para todos los otros elementos del
despliegue P.
Para cada uno de los elementos de despliegue P
desplegados en el objeto árbol, el CPU 1 orienta los polígonos
para que ellos afronten la dirección del vector del punto
representativo V1 determinada anteriormente (S27). El CPU 101
también mapea los datos de textura PT a los elementos de despliegue
direccionalmente controlados P (S28). Cuando eso se hace, el brillo
de la textura se interpola linealmente según los coeficientes
pesados del ápice determinados como se describe anteriormente, y se
crean los datos de mapa de bit para que la variación de la densidad
(la variación del brillo) se produzca.
El CPU 101 realiza el control de la dirección
(S27) y el mapeo de textura (S28) mientras los polígonos que son
elementos de despliegue P existan (NO en S29). Cuando el control de
la dirección y el mapeo de textura se han completado para todos los
polígonos (SÍ en S29), el CPU 101 se mueve a la próxima rutina del
proceso.
\vskip1.000000\baselineskip
Por este aspecto de la realización se representa
una realización en un caso donde los objetos árbol son actualmente
dibujados. En La fig. 19 se muestra una representación en forma de
cable en un caso donde el despliegue de un objeto árbol es
determinado, desde el lado. Los elementos de despliegue P que
representan los racimos de hojas se despliegan para ser esparcidos
sobre un elemento de despliegue T que representa el tronco. En esta
realización, 44 elementos de despliegue P se despliegan.
En La fig. 20 se muestra un ejemplo del
despliegue en donde la textura se ha mapeado al objeto árbol
determinado en la fig. 19. En este ejemplo, los coeficientes
pesados para los elementos de despliegue P son fijados con la
presunción de que la luz de ambiente se dirige desde arriba sobre el
dibujo (fig. 17B). Una imagen de fondo BG se despliega para que
pueda verse a través de ella en aquellas porciones de los datos de
la textura mapeados a los elementos de despliegue P que no tiene
ningún dato. Un objeto de sombra S se despliega debajo del objeto
árbol. Esta sombra es como la que se despliega en un aspecto de la
realización que se describirá como consecuencia.
La fig. 21 es una representación en forma de
cable cuando la posición de la perspectiva se mueve sobre el objeto
árbol. La fig. 22 es lo mismo con datos de la textura mapeados.
Según este aspecto de la realización, a pesar
del hecho de que los datos de la textura mapeados a los elementos
de despliegue P son idénticos, puede confirmarse que la semejanza a
un árbol natural puede representarse adecuadamente por sombras
basadas en los coeficientes pesados y el despliegue aleatorio.
En La fig. 23 se representa, para la
comparación, un caso donde los coeficientes pesados son fijados
uniformemente, es decir, un caso equivalente a un caso donde no hay
ninguna interpolación lineal. Cuando la interpolación lineal no se
hace, se eliminan la variación de densidad y la variación de la luz,
produciendo una representación de la imagen llana.
En La fig. 24 se da un ejemplo de despliegue de
la imagen en un caso donde el pesado se hace asumiendo que la
dirección de la luz de ambiente es desde abajo (de la tierra). Puede
confirmarse que los despliegues de la imagen pueden hacerse
teniendo un sentido de realidad incluso en los casos donde las
imágenes sobrenaturales- -como aquellas donde la tierra está
brillando- -se representan.
En el aspecto de la realización descrito
anteriormente, un vector del punto representativo V1 se establece y
todos los elementos de despliegue P se orientan para afrontar esa
dirección. Cuando los recursos de procesamiento de computación
excedente están disponibles, sin embargo, todos los elementos de
despliegue P pueden controlarse direccionalmente para afrontar la
dirección de la perspectiva VP. Es decir, como se esquematiza en la
fig. 25, una pluralidad de elementos de despliegue P se controla
direccionalmente para que cada una de las líneas normales V3 en la
cual aquellos elementos de despliegue P se oriente en la dirección
del punto de vista VP. El control direccional se efectúa para todos
los elementos de despliegue P para que las líneas normales en sus
centros de gravedad PC sean paralelas a la línea del vector de vista
V0, sin determinar un elemento del despliegue específico P.
Si se procesa de esta manera, es posible
representar la semejanza de las hojas naturalmente en cualquier
lugar en un árbol, incluso en casos donde la perspectiva se acerca
extremamente cerca del objeto árbol (como la perspectiva de un
bicho que se arrastra en el tronco).
La descripción de este aspecto de la realización
se refiere a la representación de un árbol, pero no se limitan a
los árboles los objetos a los que la invención presente puede
aplicarse. Puede aplicarse a todos los tipos de objetos que, debido
a que tienen formas complejas, exigen un número enorme de rutinas
del proceso para reproducirse fielmente, y lo que puede producir un
despliegue antinatural, cuando se acerca, si se representa con una
textura simple.
Basado en el tercer aspecto de la realización
descrito en previamente, los beneficios se comprenden en que es
posible desplegar los árboles con una semejanza natural, incluso
cuando la perspectiva se acerca extremamente cerca del árbol (u
otro objeto), y para evitar dañar el sentido de realismo del
jugador.
Este aspecto de la realización se refiere a un
método que hace posible representar sombras naturales que no dañan
el sentido de realismo en máquinas de juego sujetas a ciertas
limitaciones de poder de procesamiento.
El hardware usado en este cuarto aspecto de la
realización es el mismo que el indicado en el primer aspecto de la
realización, por lo se describe aquí. Se asume, sin embargo, que un
programa y datos de imagen, etc., necesitados para facilitar la
representación de sombras en la invención presente, se leen del
CD-ROM. El funcionamiento se describe ahora.
Cuando se dan a los caracteres las sombras en
máquinas de juego convencionales, se despliegan objetos negros que
indican las sombras bajo los caracteres. Esto produce dificultades,
sin embargo, cuando la tierra se hace irregular para hacer
parecerse al terreno natural. Es decir, cuando un carácter se mueve
por la tierra irregular, la sombra es tragada por las porciones
salientes de la tierra por lo que no se muestra.
Este aspecto de la realización provee un método
para impartir sombras que son simples y eficaces. Este método es un
método de procesamiento de imagen para generar los objetos para
desplegar las sombras entre la perspectiva y un caracter.
El método de procesamiento de imagen en este
aspecto de la realización se describe con referencia al diagrama de
flujo mostrado en la fig. 26. Este diagrama de flujo representa un
método de procesamiento para las imágenes generadoras de un
objeto.
Primero, el CPU 101 realiza el procesamiento de
secuencia de juego ordinario, determinando la posición del objeto
en un nuevo período de tiempo de actualización de imagen (S31). Por
ejemplo, como se esquematiza en la fig. 27, la tierra G que es el
plano de referencia y el carácter C se configuran por los polígonos,
y el despliegue del carácter C y de la tierra G son determinados.
Luego, una determinación es hecha acerca de si el objeto desplegado
en el espacio virtual es o no un carácter (S32) para generar el
objeto sombra. Si no es un carácter (NO en S32), es decir, si es un
objeto que simula una forma estacionaria que no requiere ninguna
sombra, el procesamiento se mueve adelante a una rutina de
generación de imagen que no involucra ninguna sombra (S35).
Si el objeto es un carácter (SÍ en S32), la
elevación del carácter se computa (S33). La elevación del caracter,
como se esquematiza en la fig., 27, se juzga por la posición del
centro CC del carácter establecido bajo las piernas del carácter X.
En la fig. 27, el carácter C está caminando encima de la tierra G,
por lo cual la elevación es cero. En la fig. 28, el carácter C ha
saltado a una posición superior, produciendo una elevación H.
Luego, la posición de la sombra es determinada
según la elevación del caracter. Cuando la elevación es cero, como
en la fig. 27 por ejemplo, el CPU 101 hace configuraciones para que
el centro SC del objeto sombra S se posicione en una línea que une
la perspectiva VP y el centro del carácter CC. Este centro de la
sombra SC se hace para estar posicionado en la esfera SP de cierto
radio Rs del centro del carácter CC, por ejemplo. Como
consecuencia, cuando la perspectiva VP se mueve, la posición del
centro de la sombra SC también se moverá, siguiendo la superficie
de la esfera PV. Un diagrama ejemplar del despliegue de la imagen
que es el resultado de este despliegue se muestra en la fig. 29 y
un despliegue de la imagen de ejemplo se muestra en la fig. 31.
Debido a que la sombra S está delante del carácter C, el despliegue
muestra la sombra S cayendo debajo de las piernas del carácter C,
pero no hay ninguna innaturalidad porque la sombra S sólo cae
parcialmente en las piernas. Cuando la perspectiva VP se mueve a la
misma posición en la tierra G, el plano de la sombra S se vuelve
paralelo a la línea de vista, así la sombra S desaparece.
Si la elevación del carácter C no debería ser
cero, la sombra se mueve descendentemente el espacio virtual en
correspondencia con esa elevación. Más específicamente, [la sombra
S] se mueve a lo largo de la línea de intersección entre la esfera
SP y un plano perpendicular a la tierra G que contiene la línea que
une la perspectiva VP y el centro del carácter CC. La distancia de
este movimiento se hace para ser proporcional al rango, por
ejemplo. En la fig. 28, por ejemplo, la elevación es H, así la
sombra entre SC se moverá en la dirección indicada por la flecha
blanca. Un diagrama ejemplar para el despliegue de la imagen que es
el resultado de este despliegue se muestra en la fig. 30. Una
imagen natural se despliega mostrando el carácter C que salta de la
tierra y la sombra S separándose.
Tan pronto como la relación de posición entre el
carácter y su sombra ha sido determinada como se describe
anteriormente, el CPU 101 realiza el procesamiento de generación de
imagen ordinario, mapeando los datos de la textura al carácter y la
sombra (S35). Se mapean los datos al objeto sombra S para que sea
negro con una circunferencia difusa, así mostrado en la fig. 31,
por ejemplo.
Basado en este aspecto de la realización, los
beneficios se comprenden en que esas sombras naturales pueden
desplegarse sin aumentar la carga de computación, y sin dañar el
sentido de realismo del jugador.
Este aspecto de la realización se refiere a otro
método para hacer posible representar las sombras naturales en el
cuarto aspecto de la realización descrito anteriormente.
El hardware usado en este quinto aspecto de la
realización es el mismo que el indicado en el primer aspecto de la
realización, por lo que ninguna descripción adicional se da. Se
asume, sin embargo, que un programa y los datos de imagen, etc.,
necesitados para facilitar la representación de sombras en la
invención presente, se leen del CD-ROM. El
funcionamiento se describe ahora.
Este aspecto de la realización provee otro
método para impartir las sombras eficaces de manera simple. Este
método es uno con el cual la luz de iluminación, particularmente una
fuente de iluminación para iluminar una luz negra, se establece
para desplegar una sombra en un área para desplegar una sombra del
caracter.
Para llevar a cabo este método de procesamiento
de imagen, el CPU 101 establece una fuente de iluminación (luz
negra) para la luz de iluminación negra brillante que se extiende
hacia abajo en la posición superior de un carácter asociado para
que una sombra se imparta. Como se esquematiza en la fig. 33 por
ejemplo, una fuente de la luz negra LP se establece sobre un
carácter C. El centro del carácter CC y la fuente de iluminación LP
se alinean en una línea perpendicular la tierra G, por ejemplo. Para
representar el tiempo del día cuando el sol está brillando
diagonalmente, sin embargo, la posición de la fuente de iluminación
LP puede moverse a una posición correspondiente a la orientación
del sol en ese momento. Con las cosas configuradas así, el CPU 101
ejecuta el procesamiento de rendereo (procesamiento de
obscurecimiento) basado en la fuente de iluminación LP. El CPU 101
realiza el procesamiento de rendereo en este momento para que la
fuente de iluminación LP sólo se refleje en los polígonos que
configuran la tierra G.
Como consecuencia, como se esquematiza en la
fig. 33, sólo esa área en la tierra G iluminada por la luz negra de
la fuente de iluminación LP se despliega oscura, y esto se despliega
como una sombra S. El centro de la sombra SC se posicionará en una
línea que une la fuente de iluminación LP con el centro del carácter
CC. Un ejemplo de un despliegue de la imagen real es mostrado en la
fig. 34. No se pondrá oscuro a los pies del carácter C porque la
sombra S se despliega sólo para ser reflejada en la tierra G
moviendo la posición de la fuente de iluminación en correspondencia
con la elevación del caracter, es más, la posición de la sombra
puede cambiarse para corresponder a la elevación de la misma manera
como con el método del cuarto aspecto de la realización descrito
anteriormente.
Basado en este quinto aspecto de la realización,
los beneficios se comprenden en que esas sombras naturales pueden
desplegarse sin aumentar la carga de computación, y sin dañar el
sentido de realismo del jugador.
La invención presente puede modificarse de
varias maneras independientemente de los modos descritos
anteriormente. Por ejemplo, considerando que todos los elementos
del despliegue y los objetos son configurados por polígonos en los
aspectos de la realización descritos previamente, los objetos pueden
ser desplegados por otros métodos que no usan los polígonos.
En el primer aspecto de la realización, además,
la densidad se altera secuencialmente cuando un carácter entra o
deja un edificio, pero la invención presente puede aplicarse cuando
hay una relación entre dos objetos tal que uno entra o sale el
otro, y no se limita a la relación entre un carácter y un edificio.
La invención presente también puede aplicarse cuando parte de un
objeto es hecha para que pueda verse a través de ella en los casos
no relacionados a entrar o salir de un caracter.
En el segundo y tercer aspectos de la
realización descritos previamente, además, la invención presente se
aplica a los objetos como los árboles, pero la invención presente
puede proporcionarse en casos donde un objeto se despliega que
simula una forma que existe en el mundo natural que tiene una
percepción irregular como un árbol. Es eficaz en casos donde algo
que tiene una forma indistinta como el pelo o las llamas será
representado con un notable realismo.
Además, en el primer, cuarto, y quinto aspectos
de la realización descritos previamente, el carácter es una
persona, pero el modelo no se limita a las personas, y la aplicación
es posible a los animales, los robots, y lo parecido, e incluso a
otras cosas en movimiento como automóviles o aviones.
Basado en la invención presente, el despliegue
de la imagen puede proporcionarse para que facilite las transiciones
de despliegue naturales sin dañar el sentido de realismo cuando un
carácter entra o sale de un objeto.
Basado en la invención presente, el despliegue
de la imagen puede proporcionarse para que facilite el despliegue
de árboles con semejanza natural, incluso cuando se despliegan los
árboles u otros objetos de gran extensión.
Basado en la invención presente, el despliegue
de la imagen puede proporcionarse para que facilite el despliegue
de sombras naturales que no dañen el sentido de realismo, sin
aumentar la carga de computación.
Basado en la invención presente, una máquina de
juego puede proporcionarse con la cual el procesamiento de imagen
descrito anteriormente es posible.
Basado en la invención presente, un medio de
grabación se proporciona que hace posible proporcionar programas
con los cuales el procesamiento de imagen descrito anteriormente es
posible.
Claims (20)
-
\global\parskip0.900000\baselineskip
1. Una unidad de procesamiento de imagen configurada para facilitar el despliegue de uno o más objetos definiendo áreas autónomas desplegadas en el espacio virtual y un carácter establecido para ser capaz de moverse relativo a dicho objeto u objetos; caracterizado en esa dicha unidad de procesamiento de imagen que comprende:- Una unidad de procesamiento que, cuando dicho carácter entra o deja el interior de un área autónoma, gradualmente altera la densidad del despliegue de por lo menos algunos elementos del despliegue específicos de los elementos del despliegue configurando el objeto desplegado en un área relacionada al movimiento de dicho carácter tal que los elementos del despliegue específicos para los cuales la densidad del despliegue se altera son los elementos del despliegue que se localizan hacia el frente del espacio virtual con respecto a la perspectiva establecida en el espacio virtual para generar el despliegue de la imagen, en donde dicha unidad de procesamiento gradualmente disminuye la densidad del despliegue de dichos elementos del despliegue específicos cuando dicho carácter está entrando en el área autónoma, e intensifica los mismo cuando está saliendo del área autónoma.
- 2. Una unidad de procesamiento de imagen según la reivindicación 1, en donde un espesor se establece de antemano en miembros particionados configurando dicho objeto, y en esa dicha unidad de procesamiento se mapean y despliegan datos de la textura prescritos a secciones transversales de dichos miembros particionados desplegados por los elementos del despliegue aparte de dichos elementos del despliegue específicos.
- 3. Una unidad de procesamiento de imagen según la reivindicación 1, en donde la unidad de procesamiento es operable para desplegar una imagen que simula una figura en forma de árbol desplegando elementos del despliegue llanos, a donde los datos de la textura prescritos han sido mapeados, radialmente sobre un eje del centro prescrito para subtender un cierto ángulo o ángulos con dicho eje del centro para configurar un objeto, y para desplegar uno o los más tales objetos en el espacio virtual, apilados en dimensión vertical.
- 4. Una unidad de procesamiento de imagen según la reivindicación 3, en donde dicha unidad de procesamiento, de la pluralidad de dichos objetos apilados, configura al menos ese objeto cubriendo el extremo más alto en una forma de paraguas.
- 5. Una unidad de procesamiento de imagen según la reivindicación 3, en donde dicha unidad de procesamiento ajusta y configura los elementos del despliegue para que los elementos del despliegue a los que se les han mapeado idénticos datos de la textura no se apilen entre una pluralidad de dichos objetos que son adyacentes.
- 6. Una unidad de procesamiento de imagen según la reivindicación 3, en donde dicha unidad de procesamiento despliega elementos del despliegue configurando dichos objetos apilados a diferentes niveles para que los planos de ahí no hagan contacto entre sí.
- 7. Una unidad de procesamiento de imagen según la reivindicación 1, en donde la unidad de procesamiento es operable para desplegar elementos del despliegue llanos, adonde los datos de la textura prescritos han sido mapeados, en una pluralidad, dentro de un área espacial prescrita para configurar un objeto, y para direccionalmente controlar direcciones en las cuales las caras de dicha pluralidad de elementos del despliegue se orientan para corresponder con la perspectiva desde donde el espacio virtual se observa.
- 8. Una unidad de procesamiento de imagen según la reivindicación 7, tal que esa configuración de ahí es tal que un vector del punto representativo se establece para un dicho objeto, correspondiendo a dicha perspectiva, y dichos elementos del despliegue pueden ser controlados direccionalmente para que la pluralidad de dichos elementos del despliegue que configuran dicho objeto se oriente en la dirección de dicho vector del punto representativo.
- 9. Una unidad de procesamiento de imagen según la reivindicación 7, tal que esa configuración es de ahí tal que dichos elementos del despliegue pueden ser controlados direccionalmente para que cada línea normal en dicha pluralidad de elementos del despliegue se oriente en la dirección de dicha perspectiva.
- 10. Una unidad de procesamiento de imagen según la reivindicación 7, tal que esa configuración es de ahí tal que los coeficientes pesados se fijan a los ápices de dichos elementos del despliegue, y la densidad de la textura mapeada a dichos elementos del despliegue puede estar interpolada linealmente por dichos coeficientes pesados entre dichos ápices, y tal que, alterando dichos coeficientes pesados para corresponder con la posición de dicho objeto en el espacio virtual, la variación de densidad de la textura en dichos elementos del despliegue que configuran dicho objeto puede controlarse.
- 11. Una unidad de procesamiento de imagen según la reivindicación 1, en donde la unidad de procesamiento puede generar, entre dicho objeto y perspectiva para desplegar imágenes, un objeto para desplegar dicha sombra.
- 12. Una unidad de procesamiento de imagen según la reivindicación 11, caracterizada en esa dicha unidad de procesamiento se configura para que, según la elevación de dicho objeto sobre un plano de referencia desplegado en el espacio virtual, posiciones relativas a dicho objeto y dicho objeto sombra por esto, visto desde dicha perspectiva, pueden alterarse.
\global\parskip1.000000\baselineskip
- 13. Una unidad de procesamiento de imagen según la reivindicación 1, configurada para facilitar el despliegue de un objeto y de sombra de ahí, desplegados en el espacio virtual, en donde la unidad de procesamiento que puede establecer una fuente de iluminación para la luz de iluminación brillante que está para desplegar dicha sombra hacia un área dentro de dicho plano de referencia establecido en el espacio virtual para desplegar dicha sombra de dicho objeto.
- 14. Una máquina de juego caracterizada por comprender una unidad de procesamiento de imagen citada en las reivindicaciones 1 a la 13.
- 15. Un método de procesamiento de imagen para desplegar uno o más objetos desplegados en el espacio virtual y un carácter establecido para ser movido relativo a dicho objeto u objetos en donde dichos objetos pueden ser áreas autónomas, caracterizado por comprender pasos para:
- Juzgar cuando dicho carácter ha cumplido o no cierta condición relativo a un área autónoma, existiendo dicha condición si el carácter ha entrado o ha salido del área autónoma; y
- Alterar gradualmente la densidad del despliegue de por lo menos algunos elementos del despliegue específicos entre elementos del despliegue que configuran dicho objeto desplegado en un área relacionada al movimiento de dicho carácter cuando dicha cierta condición se ha cumplido, en donde la unidad de procesamiento disminuye gradualmente la densidad del despliegue de los elementos del despliegue específicos cuando el carácter entra en el área autónoma, e intensifica los elementos del despliegue específicos cuando el carácter sale del área autónoma.
- 16. Un método de procesamiento de imagen según la reivindicación 15, comprendiendo además un paso para desplegar una imagen que simula una figura en forma de árbol desplegando, en el espacio virtual, en una pila, uno o más objetos configurados desplegando los elementos del despliegue llanos cuyos datos de la textura prescritos se han mapeado, en una forma radial sobre un eje del centro prescrito para subtender un cierto ángulo con dicho eje del centro.
- 17. Un método de procesamiento de imagen según la reivindicación 15, comprendiendo además:
- Desplegar dentro de cierta área espacial una pluralidad de elementos del despliegue llanos cuyos datos de la textura prescritos se han mapeado, para configurar un objeto; y
- Hacer posible controlar direccionalmente las direcciones a donde las caras de dicha pluralidad de elementos del despliegue están orientadas para corresponder con la perspectiva desde donde se observa el espacio virtual.
- 18. Un método de procesamiento de imagen según la reivindicación 15, para desplegar un objeto y una sombra de dicho objeto desplegados en el espacio virtual, incluso un paso para generar, entre dicho objeto y la perspectiva para desplegar las imágenes, un objeto para desplegar dicha sombra.
- 19. Un método de procesamiento de imagen según la reivindicación 15, para desplegar un objeto y una sombra desplegados en el espacio virtual, caracterizados por comprender un paso para establecer una fuente de iluminación para la luz de iluminación brillante que está para desplegar dicha sombra hacia un área dentro de dicho plano de referencia establecido en el espacio virtual para desplegar dicha sombra de dicho objeto.
- 20. Un medio de grabación legible por la máquina en donde los datos del programa se graban para ejecutar, en una computadora, cualquier método de procesamiento de imagen citado en las reivindicaciones 15 a la 19.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13813498 | 1998-05-20 | ||
JP10-138134 | 1998-05-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2281962T3 true ES2281962T3 (es) | 2007-10-01 |
Family
ID=15214792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES99919542T Expired - Lifetime ES2281962T3 (es) | 1998-05-20 | 1999-05-12 | Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion. |
Country Status (6)
Country | Link |
---|---|
US (2) | US6831659B1 (es) |
EP (2) | EP1669930A3 (es) |
JP (1) | JP4258824B2 (es) |
DE (1) | DE69934289T2 (es) |
ES (1) | ES2281962T3 (es) |
WO (1) | WO1999060526A1 (es) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4006105B2 (ja) * | 1998-08-25 | 2007-11-14 | キヤノン株式会社 | 画像処理装置およびその方法 |
US6971071B1 (en) * | 1999-06-10 | 2005-11-29 | Microsoft Corporation | System and method for implementing an image ancillary to a cursor |
JP4753147B2 (ja) * | 2000-04-14 | 2011-08-24 | 株式会社セガ | 画像処理装置及びプログラム |
JP2002042152A (ja) * | 2000-07-25 | 2002-02-08 | Namco Ltd | 画像処理装置、画像処理方法、および画像処理用プログラムを記録した記録媒体 |
JP3715568B2 (ja) * | 2000-12-14 | 2005-11-09 | 株式会社ソニー・コンピュータエンタテインメント | 画像描画装置、記録媒体及びプログラム |
JP4612969B2 (ja) * | 2001-07-05 | 2011-01-12 | 富士フイルム株式会社 | 画像比較装置、画像比較方法、画像比較用プログラム、撮影装置、及び撮影方法。 |
JP4220182B2 (ja) * | 2002-05-31 | 2009-02-04 | 株式会社東芝 | 高次元テクスチャ描画装置、高次元テクスチャ圧縮装置、高次元テクスチャ描画システム、高次元テクスチャ描画方法並びにプログラム |
JP4091403B2 (ja) * | 2002-11-19 | 2008-05-28 | 富士通株式会社 | 画像シミュレーションプログラム、画像シミュレーション方法および画像シミュレーション装置 |
JP3989396B2 (ja) * | 2003-03-31 | 2007-10-10 | 株式会社バンダイナムコゲームス | 画像生成システム、プログラム及び情報記憶媒体 |
US7502024B2 (en) * | 2003-09-25 | 2009-03-10 | Honeywell International Inc. | Texture based circular arc generation |
JP4372528B2 (ja) * | 2003-12-15 | 2009-11-25 | 大日本印刷株式会社 | 実世界仮想化システム、実世界仮想化方法、サーバ、プログラム及び記録媒体 |
JP4225926B2 (ja) * | 2004-01-20 | 2009-02-18 | 任天堂株式会社 | 2画面表示ゲーム装置及び2画面表示ゲームプログラム |
US8115765B2 (en) * | 2004-05-26 | 2012-02-14 | Sony Online Entertainment Llc | Rule-based procedural terrain generation |
US8368686B2 (en) * | 2004-05-26 | 2013-02-05 | Sony Online Entertainment Llc | Resource management for rule-based procedural terrain generation |
US8207966B2 (en) * | 2004-05-26 | 2012-06-26 | Sony Online Entertainment Llc | Terrain editor tool for rule-based procedural terrain generation |
US7701455B2 (en) * | 2004-07-21 | 2010-04-20 | Che-Chih Tsao | Data rendering method for volumetric 3D displays |
JP4692956B2 (ja) * | 2004-11-22 | 2011-06-01 | 株式会社ソニー・コンピュータエンタテインメント | 描画処理装置および描画処理方法 |
JP2008009523A (ja) * | 2006-06-27 | 2008-01-17 | Fujitsu Ltd | 設計支援装置,設計支援方法,及び設計支援プログラム |
JP5154775B2 (ja) * | 2006-08-18 | 2013-02-27 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
JP4946370B2 (ja) * | 2006-11-09 | 2012-06-06 | 富士ゼロックス株式会社 | 画像処理装置、画像形成装置及びプログラム |
EP2131298A4 (en) * | 2007-03-27 | 2010-08-11 | Shima Seiki Mfg | SIMULATION DEVICE AND METHOD FOR SIMULATION OF KNIT PRODUCT |
JP4794597B2 (ja) * | 2008-05-07 | 2011-10-19 | 株式会社バンダイナムコゲームス | 画像生成システム、プログラム及び情報記憶媒体 |
JP4698701B2 (ja) * | 2008-05-07 | 2011-06-08 | 株式会社バンダイナムコゲームス | 画像生成システム、プログラム及び情報記憶媒体 |
US8203561B2 (en) * | 2008-09-10 | 2012-06-19 | International Business Machines Corporation | Determining valued excursion corridors in virtual worlds |
US8345046B2 (en) * | 2009-04-17 | 2013-01-01 | Trapcode Ab | Method for adding shadows to objects in computer graphics |
US7640589B1 (en) * | 2009-06-19 | 2009-12-29 | Kaspersky Lab, Zao | Detection and minimization of false positives in anti-malware processing |
US8896622B2 (en) * | 2009-09-04 | 2014-11-25 | Adobe Systems Incorporated | Methods and apparatus for marker-based stylistic rendering |
US9211472B2 (en) * | 2010-06-11 | 2015-12-15 | Sony Corporation | Game device, game control method, and game control program configured to control a game in which a character is moved along a shadow |
JP5732799B2 (ja) * | 2010-09-29 | 2015-06-10 | 株式会社ニコン | 画像処理装置、撮像装置、画像処理プログラム |
EP2757532A4 (en) | 2011-09-15 | 2015-06-17 | Fujitsu Ltd | Presentation device, method of representation and presentation program |
US10413823B1 (en) * | 2012-03-28 | 2019-09-17 | Electronic Arts Inc. | System and method for providing an intuitive interface for upgrading a virtual item in a virtual space |
JP5411385B1 (ja) * | 2013-08-12 | 2014-02-12 | 株式会社 ディー・エヌ・エー | ゲームを提供するサーバ及び方法 |
JP6473215B1 (ja) * | 2017-11-24 | 2019-02-20 | 株式会社Live2D | プログラム、記録媒体及び描画方法 |
CN108579091B (zh) * | 2018-04-27 | 2022-08-05 | 网易(杭州)网络有限公司 | 虚拟场景生成方法、装置、存储介质及电子设备 |
JP7411368B2 (ja) | 2019-09-30 | 2024-01-11 | 株式会社バンダイナムコエンターテインメント | コンピュータシステム、サーバシステム及びプログラム |
JP7200184B2 (ja) * | 2020-08-28 | 2023-01-06 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
US11297260B1 (en) * | 2020-11-20 | 2022-04-05 | Donald Siu | Techniques for capturing video in landscape mode by a handheld device |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4719585A (en) * | 1985-08-28 | 1988-01-12 | General Electric Company | Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body |
US5415549A (en) * | 1991-03-21 | 1995-05-16 | Atari Games Corporation | Method for coloring a polygon on a video display |
JPH07508449A (ja) * | 1993-04-20 | 1995-09-21 | ゼネラル・エレクトリック・カンパニイ | 外科手術の際に身体構造をよく見える様にするコンピュータ・グラフィック及びライブ・ビデオ・システム |
US5423554A (en) * | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5971852A (en) | 1994-06-20 | 1999-10-26 | Kabushiki Kaisha Sega Enterprises | Image processing method and apparatus |
GB2301514B (en) * | 1994-12-01 | 1999-06-09 | Namco Ltd | Apparatus and method for image synthesization |
JP3442181B2 (ja) * | 1995-02-17 | 2003-09-02 | 株式会社ナムコ | 3次元ゲーム装置及び画像合成方法 |
JPH08320949A (ja) * | 1995-05-24 | 1996-12-03 | Sega Enterp Ltd | 画像処理装置及びそれを用いたゲーム装置 |
JP3141737B2 (ja) * | 1995-08-10 | 2001-03-05 | 株式会社セガ | 仮想画像生成装置及びその方法 |
US6267673B1 (en) * | 1996-09-20 | 2001-07-31 | Nintendo Co., Ltd. | Video game system with state of next world dependent upon manner of entry from previous world via a portal |
US6278418B1 (en) * | 1995-12-29 | 2001-08-21 | Kabushiki Kaisha Sega Enterprises | Three-dimensional imaging system, game device, method for same and recording medium |
US5920492A (en) * | 1996-04-26 | 1999-07-06 | Southwest Research Institute | Display list generator for fire simulation system |
US5769718A (en) * | 1996-05-15 | 1998-06-23 | Rieder; William R. | Video game apparatus and medium readable by a computer stored with video game program |
JP2902352B2 (ja) | 1996-05-15 | 1999-06-07 | コナミ株式会社 | ビデオゲーム装置 |
WO2004089486A1 (ja) * | 1996-06-21 | 2004-10-21 | Kyota Tanaka | 3次元ゲーム装置及び情報記憶媒体 |
US6259431B1 (en) * | 1996-07-04 | 2001-07-10 | Kabushiki Kaisha Sega Enterprises | Image processor, game machine, image display method, and recording medium |
US6018350A (en) * | 1996-10-29 | 2000-01-25 | Real 3D, Inc. | Illumination and shadow simulation in a computer graphics/imaging system |
JPH10188028A (ja) * | 1996-10-31 | 1998-07-21 | Konami Co Ltd | スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体 |
JP3745475B2 (ja) * | 1996-12-06 | 2006-02-15 | 株式会社セガ | ゲーム装置及び画像処理装置 |
US6115048A (en) * | 1997-01-21 | 2000-09-05 | General Electric Company | Fast method of creating 3D surfaces by `stretching cubes` |
JP3091960B2 (ja) * | 1997-02-18 | 2000-09-25 | コナミ株式会社 | 疑似3次元画像表示装置、疑似3次元画像表示方法及びコンピュータプログラムが記録された機械読み取り可能な記録媒体 |
US5870098A (en) * | 1997-02-26 | 1999-02-09 | Evans & Sutherland Computer Corporation | Method for rendering shadows on a graphical display |
JP2941230B2 (ja) * | 1997-05-06 | 1999-08-25 | コナミ株式会社 | 画像表示処理装置,画像表示処理方法,及びコンピュータプログラムを記録した機械読取り可能な記録媒体 |
US6072504A (en) * | 1997-06-20 | 2000-06-06 | Lucent Technologies Inc. | Method and apparatus for tracking, storing, and synthesizing an animated version of object motion |
JP3372832B2 (ja) * | 1997-07-25 | 2003-02-04 | コナミ株式会社 | ゲーム装置、ゲーム画像処理方法およびゲーム画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP4105788B2 (ja) * | 1997-11-14 | 2008-06-25 | 任天堂株式会社 | ビデオゲーム装置およびその記憶媒体 |
US6362817B1 (en) * | 1998-05-18 | 2002-03-26 | In3D Corporation | System for creating and viewing 3D environments using symbolic descriptors |
JP2001327750A (ja) * | 2000-05-19 | 2001-11-27 | Square Co Ltd | 球技系ゲームのカーソル表示を処理するためのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲームのカーソル表示処理装置およびその方法 |
-
1999
- 1999-05-12 ES ES99919542T patent/ES2281962T3/es not_active Expired - Lifetime
- 1999-05-12 WO PCT/JP1999/002452 patent/WO1999060526A1/ja active IP Right Grant
- 1999-05-12 DE DE69934289T patent/DE69934289T2/de not_active Expired - Lifetime
- 1999-05-12 EP EP06075264A patent/EP1669930A3/en not_active Withdrawn
- 1999-05-12 EP EP99919542A patent/EP0999523B1/en not_active Expired - Lifetime
- 1999-05-12 JP JP2000550067A patent/JP4258824B2/ja not_active Expired - Fee Related
- 1999-05-12 US US09/463,139 patent/US6831659B1/en not_active Expired - Fee Related
-
2004
- 2004-05-13 US US10/844,488 patent/US20050035979A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP1669930A2 (en) | 2006-06-14 |
EP1669930A3 (en) | 2006-09-06 |
DE69934289T2 (de) | 2007-06-28 |
US6831659B1 (en) | 2004-12-14 |
EP0999523A1 (en) | 2000-05-10 |
US20050035979A1 (en) | 2005-02-17 |
JP4258824B2 (ja) | 2009-04-30 |
EP0999523B1 (en) | 2006-12-06 |
EP0999523A4 (en) | 2004-03-24 |
WO1999060526A1 (fr) | 1999-11-25 |
DE69934289D1 (de) | 2007-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2281962T3 (es) | Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion. | |
ES2284279T3 (es) | Dispositivo generador de imagen y metodo generador de imagen. | |
ES2260830T3 (es) | Dispositivo y metodo para el procesamiento de imagenes. | |
ES2280096T3 (es) | Sistema de procesamiento de imagen y metodo de procesamiento de imagen. | |
US11514673B2 (en) | Systems and methods for augmented reality | |
CN100456328C (zh) | 三维视频游戏系统 | |
JP2019071111A (ja) | 用紙 | |
US6570569B1 (en) | Image processing device and image processing method | |
US20030057884A1 (en) | Systems and methods for digital entertainment | |
WO2002040921A2 (en) | Systems and methods for digital entertainement | |
JP5123353B2 (ja) | リアルタイムシーンを照明し,発見するバーチャルフラッシュライト | |
Lebiedź et al. | Virtual sightseeing in immersive 3D visualization lab | |
JP4267646B2 (ja) | 画像生成装置、画像生成方法、ならびに、プログラム | |
Thorn | Learn unity for 2d game development | |
CN114470775A (zh) | 虚拟场景中的对象处理方法、装置、设备及存储介质 | |
CN112396683B (zh) | 虚拟场景的阴影渲染方法、装置、设备及存储介质 | |
JP4117497B2 (ja) | 画像処理装置、画像処理方法及び記録媒体 | |
Gaitatzes et al. | Virtual reality systems and applications: the ancient olympic games | |
Oravakangas | Game Environment Creation: Efficient and Optimized Working Methods | |
Hart et al. | Hypernom: Mapping VR Headset Orientation to S^ 3 | |
Silverman | The Rule of 27s: A Comparative Analysis of 2D Screenspace and Virtual Reality Environment Design | |
Lu et al. | Design and implementation of three-dimensional game engine | |
Immonen | Updating a Game’s Graphics from 2D Sprites to 3D Models | |
Ruiz Marco | Ion-Physics Puzzles and Exploration 3D Videogame | |
Glaeser et al. | More applications |