ES2284279T3 - Dispositivo generador de imagen y metodo generador de imagen. - Google Patents
Dispositivo generador de imagen y metodo generador de imagen. Download PDFInfo
- Publication number
- ES2284279T3 ES2284279T3 ES99959923T ES99959923T ES2284279T3 ES 2284279 T3 ES2284279 T3 ES 2284279T3 ES 99959923 T ES99959923 T ES 99959923T ES 99959923 T ES99959923 T ES 99959923T ES 2284279 T3 ES2284279 T3 ES 2284279T3
- Authority
- ES
- Spain
- Prior art keywords
- point
- model
- view
- value
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 25
- 238000003860 storage Methods 0.000 claims abstract description 10
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 239000007787 solid Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 77
- 238000010586 diagram Methods 0.000 description 15
- 230000004438 eyesight Effects 0.000 description 11
- 238000002360 preparation method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000004308 accommodation Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000010099 solid forming Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6009—Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6027—Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/663—Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Un dispositivo generador de imagen para formar un objeto de fondo (OTa, OTb, OTc) preparado con datos del polígono como una parte del fondo de un espacio tridimensional virtual y generar imágenes de movimientos de un objeto de personaje (OTch) preparado con datos del polígono en dicho espacio tridimensional virtual visto desde un punto de vista móvil, dicho dispositivo comprendiendo medios de control para incorporar como el objeto de proyección dicho objeto de personaje dentro de un campo visual visto desde dicho punto de vista sólo cuando dicho objeto de personaje está posicionado en el espacio más cercano a dicho punto de vista que dicho objeto de fondo visto desde dicho punto de vista, donde dichos medios de control comprenden: medios de operación del campo visual para operar el campo visual visto desde dicho punto de vista; especificar medios para especificar dicho objeto de fondo situado dentro de dicho campo visual y observable desde dicho punto de vista; juzgar medios para juzgar unacondición específica de dicho objeto de personaje dentro de dicho campo visual, dicha condición específica indicando que dicho objeto de personaje está situado en el espacio más cercano a dicho punto de vista que dicho objeto de fondo especificado por dichos medios especificativos; y desplegar medios determinantes para incorporar dicho objeto de personaje como el objeto de proyección sólo cuando dicha condición específica es juzgada por dichos medios juzgadores, dichos medios especificativos comprenden: medios modeladores para modelar dicho objeto de fondo como un objeto de fondo de una cierta figura; medios de operación del valor Z para operar el valor Z entre dicho modelo del objeto de fondo y dicho punto de vista; medios establecedores para establecer una pluralidad de áreas divididas (RG) de una pantalla de proyección; medios de búsqueda para buscar dicho modelo del objeto de fondo desde dicho punto de vista vía ciertas áreas entre dicha pluralidad de áreas, dichas ciertas áreas formanal menos una línea de áreas (LM); y medios de almacenamiento del valor Z para almacenar dicho valor Z de dicho modelo del objeto de fondo inicialmente buscado por dichos medios de búsqueda; y dichos medios juzgadores comprenden: un medio de modelado separado para modelar dicho objeto de personaje como un modelo (MTch) de una cierta figura; un medio de operación separado del valor Z para operar el valor Z entre dicho modelo del objeto de personaje y dicho punto de vista; y medios de cálculo para calcular dicha condición específica al comparar el valor Z de dicho modelo del objeto de personaje y dicho valor Z almacenado en dicho búfer.
Description
Dispositivo generador de imagen y método
generador de imagen.
La presente invención guarda relación con un
dispositivo generador de imagen y un método generador de imagen, y
particularmente un dispositivo generador de imagen y un método
generador de imagen adecuados para juegos de roles (RPG) jugados
interactivamente con jugadores consecuentemente con el progreso de
una historia en un espacio tridimensional virtual.
En consecuencia con el desarrollo reciente en la
tecnología de la computación gráfica, los dispositivos de
simulación y los dispositivos de juego se han hecho ampliamente
populares tanto para el uso comercial como el doméstico. Como un
género de este dispositivo de juego está el juego de roles (a partir
de ahora llamado RPG) en donde se le da curso a una historia en un
espacio virtual tridimensional (también llamado el espacio de
juego), un personaje simulando al jugador juega un juego prescrito
en varios puntos importantes en la historia y, de acuerdo con los
resultados del juego, progresa el juego mientras cambia el
desarrollo del juego para cada una de tales ocasiones. Los RPGs han
ganado popularidad por presentar efectos diferentes a otros meros
juegos de competición o juegos de batalla.
Los dispositivos de juego que conducen tales
RPGs realizan los diversos procesamientos de imágenes descritos más
abajo con vistas a asegurar el entretenimiento del juego y conducir
vastas cargas de operaciones de juego.
Como primer procesamiento, hay un método para
cambiar el color y la apariencia del cielo de acuerdo con el
período de tiempo en que el jugador está al jugar el juego. Este
procesamiento, por ejemplo, es conducido por la CPU dentro del
dispositivo de juego leyendo datos de imagen o parámetros
representando el cielo de fondo en lo referente a una tabla basada
en el valor del reloj del reloj interno, y proyectando estos datos
de imagen leídos, o, proyectando los datos de imagen
correspondientes al parámetro leído. Por consiguiente, lo que se
pretende es la creación de un espacio de juego tan real como sea
posible para evocar el interés de los jugadores.
Como segundo procesamiento, en el caso de un
dispositivo de juego para conducir RPGs, un jugador recibe
información operacional en puntos importantes (posiciones
estratégicas) durante el desarrollo del juego y, por ejemplo,
implementa interactivamente un juego de acción (modo manual) por un
lado, y la historia para conectar tales puntos importantes es
obligatoriamente adelantada (modo automático) por la CPU puesto que
es necesario adelantar la historia en vista de las características
de los RPGs. Por consiguiente, es posible asegurar el curso de la
historia en consideración del juego siendo un RPG.
Como tercer procesamiento, con respecto a la
proyección de imagen del dispositivo de juego, generalmente, los
objetos son formados por polígonos y proyectados. Así, mientras más
polígonos, mayor es la carga operacional para operar la situación
proyectada, y el procesamiento de CPU se volverá pesado. Aquí,
generalmente, los objetos fuera del rango de proyección del
monitor; esto es, objetos posicionados fuera del campo visual vistos
desde un punto de vista de cámara virtual en el espacio de juego,
no son proyectados. Además, en una proyección tridimensional de
polígonos, para los objetos posicionados más lejos que una distancia
predeterminada en la pantalla, el procesamiento de recorte (proceso
de recorte de lejanía) para la no operación de tales datos de
proyección es realizado. Además, el procesamiento usando el método
de ordenamiento del valor z para no proyectar un polígono detrás de
un cierto polígono cuando es visto desde un punto de vista; por
ejemplo, procesamiento de sombra, es implementado en unidades de
polígono que forman el objeto.
Como cuarto procesamiento, hay un proceso de
colocación de cuartos (espacio subdividido) dentro de un edificio
(casa, almacén, restos de un edificio, etc.), el cual es
frecuentemente requerido para proporcionar el ambiente de juego de
los RPGs. Con respecto a este esquema, qué objeto es posicionado en
qué posición en el cuarto es determinado, todos los cuartos son
previamente colocados, y tales datos del esquema se guardan en la
memoria. Por otro lado, al crear polígonos de mapas (cafés,
túneles) para el personaje a mover en juegos tales como un RPG, las
figuras fueron previamente puestas en las respectivas unidades de
polígono, y almacenadas en la memoria como datos de polígono.
Aunque un cierto grado de efecto puede ser
obtenido en respuesta a las necesidades de querer suministrar
imágenes llenas de realidad y ambiente, y asegurar un cierto
entretenimiento de juego como consecuencia de los diversos
procesamientos de imagen descritos arriba, de ningún modo puede
decirse que esto sea suficiente.
Por ejemplo, con dicho primer procesamiento de
imagen que cambia el color y apariencia del cielo de acuerdo al
período de tiempo, es posible proporcionar al jugador un sentido de
tiempo, tales como el día o la noche, hasta cierto punto. No
obstante, el ambiente natural del exterior no está determinado sólo
con el control del modo de proyección del cielo, y se requiere una
proyección de un ambiente natural más realista.
En el caso del segundo procesamiento de imagen,
la proporción del curso de la historia (modo automático) como un
RPG y la acción (modo manual) para jugar un juego de acción es
determinada por adelantado. Así, carece de versatilidad en términos
del jugador no ser capaz de cambiar entre los modos de acuerdo a sus
sentimientos en tal tiempo, y es también inadaptable en términos
del proveedor del dispositivo de juego no ser capaz de, después de
la manufactura de eso, conducir el juego al cambiar la proporción de
acuerdo a las características del mercado. El largo del juego
procesado en tiempo real entre el jugador; es decir, el modo manual,
es un factor que se refleja en la dificultad del juego. Por
consiguiente, también quiere decir que habrá menos selectividad
para fijar la dificultad del juego.
Sólo con el proceso de recorte y sombreado de
polígonos de acuerdo al procesamiento de la tercera imagen, la
carga operacional de acuerdo al juicio de la proyección/
no-proyección es aún pesada y hay muchas demandas
para la mejora del procesamiento de alta velocidad aligerando la
carga operacional.
Por ejemplo, en un juego de roles, supóngase una
escena donde Godzilla deambula en un área que tiene un número de
edificios de gran altura y lucha con el jugador. Los respectivos
edificios son objetos creados con datos de polígonos y tratados
como parte del fondo, y Godzilla es también tratado como un objeto
de personaje creado con datos de polígonos. En esta escena, si
Godzilla está posicionado delante de los edificios, el
funcionamiento que da el procesamiento para proyectar a Godzilla
con los edificios como fondo es natural, pero no es necesario
proyectar a Godzilla cuando está completamente oculto detrás de un
edificio. No obstante, con un dispositivo convencional de
sombreado, el valor Z debe ser obtenido en unidades de polígono con
el método de ordenamiento de Z considerando al oculto Godzilla y
los edificios, y comparados después. Esta comparación del valor Z en
unidades de polígono entre objetos aumenta considerablemente la
carga operacional. Cuando la carga es pesada como consecuencia del
procesamiento de sombreado como está descrito anteriormente, a menos
que la velocidad de procesamiento de la CPU sea aumentada, la
capacidad operacional que puede ser cedida para otro procesamiento
de juego será reducida. Además, incluso si el rendimiento del
procesamiento puede ser aliviado con el método de ordenamiento de
Z, el procesamiento de la geometría en la etapa previa no será
aliviado, y no puede esperarse suficiente proyección de imagen con
únicamente lo antedicho.
En el caso del cuarto procesamiento de imagen,
el esquema de los cuartos requiere una vasta carga operacional. Por
tanto, fueron adoptados métodos tales que no permiten la entrada en
un cuarto donde ningún acontecimiento ocurre o que buscan la
simplificación de la operación haciendo el esquema de los
respectivos cuartos igual. Esto, sin embargo, causa un sentimiento
sumamente antinatural para el jugador. Aunque sería posible usar
patrones similares para el proceso del esquema hasta cierto grado,
si el ambiente de los cuartos es similar, serán creados cuartos
parecidos unos a otros. Esta será una causa para que un jugador
pierda interés en el juego. Al preparar un mapa, el mapa más grande,
la carga operacional necesaria para tal preparación será vasta por
lo común, y por otro lado es necesario asegurar una memoria con un
tamaño de almacenamiento grande. Si la memoria o el camino de
transmisión es un disco mediano un circuito telefónico con una
velocidad de lectura comparativamente lenta, o si la capacidad de
almacenamiento de la memoria para almacenar los datos leídos es
pequeña, el tiempo de lectura y la frecuencia de lectura aumentarán,
y este incremento en el procesamiento da insatisfacción para los
jugadores.
La presente invención fue ideada en vistas de
dichas circunstancias encontradas por el estado del arte anterior,
y el primer objetivo de esta es proporcionar un juego capaz de
reducir la carga operacional al juzgar la proyección o no del
objeto.
US 5.596.686 revela un aparato y un método para
un rastreo paralelo de la memoria de coordenadas Z. Las
comparaciones de magnitudes aritméticas son realizadas entre
valores coordenados de un objeto gráfico seleccionado y esos otros
objetos en una escena de imagen que puede o no ocultar el objeto
gráfico seleccionado.
De acuerdo a un aspecto, la presente invención
proporciona un dispositivo generador de imagen para formar un
objeto de fondo (OTa, OTb, OTc) preparado con datos de polígono como
una parte del fondo de un el espacio tridimensional virtual y
generar imágenes de movimientos de un objeto de personaje (OTch)
preparado con datos de polígono en dicho espacio tridimensional
virtual visto desde un punto de vista móvil, dicho dispositivo
comprendiendo medios de control para incorporar como el objeto de
proyección dicho objeto de personaje dentro de un campo visual
visto desde dicho punto de vista sólo cuando dicho objeto de
personaje está posicionado en el espacio más cercano a dicho punto
de vista que dicho objeto de fondo visto desde dicho punto de
vista,
donde dichos medios de control comprenden:
medios de operación del campo visual para operar el campo visual
visto desde dicho punto de vista; medios de especificación para
especificar dicho objeto de fondo posicionado dentro de dicho campo
visual y observable desde dicho punto de vista; medios de juicio
para juzgar una condición específica de dicho objeto de personaje
dentro de dicho campo visual, dicha condición específica indicando
que dicho objeto de personaje está posicionado espacialmente más
cercano a dicho punto de vista que dicho objeto de fondo
especificado por dichos medios especificativos; y medios que
determinan la proyección para incorporar dicho objeto de personaje
como el objeto de proyección sólo cuando dicha condición específica
es juzgada por dichos medios juzgadores,
dichos medios especificativos comprenden:
medios modeladores para modelar dicho objeto de fondo como un modelo
del objeto de fondo de una cierta figura; medios de operación del
valor Z para operar el valor Z entre dicho modelo del objeto de
fondo y dicho punto de vista; medio establecedores para establecer
una pluralidad de áreas divididas (RG) de una pantalla de
proyección; medios buscadores para buscar dicho modelo del objeto
de fondo desde dicho punto de vista vía ciertas áreas entre dicha
pluralidad de áreas, dicho ciertas áreas formando al menos una
línea de áreas (LM); y medios de almacenamiento del valor Z para
almacenar dicho valor Z de dicho modelo del objeto de fondo
inicialmente buscado por dichos medios de búsqueda; y
dichos medios juzgadores comprenden: un medio
modelador separado para modelar dicho objeto de personaje como un
modelo (MTch) de una cierta figura; un medio de operación de valor Z
separado para operar el valor Z entre dicho modelo del objeto de
personaje y dicho punto de vista; y medios calculadores para
calcular dicha condición específica al comparar el valor Z de dicho
modelo del objeto de personaje y dicho valor Z almacenado en
dicho
búfer.
búfer.
En una realización, el medio modelador es medio
para modelar un modelo esférico, el cual está definido por un punto
representativo de un cuerpo sólido formando el modelo de fondo y un
radio correspondiente a la distancia desde el punto representativo
hasta el borde del modelo, como el modelo de una cierta figura; y el
medio modelador separado es medio para modelar un modelo esférico,
el cual está definido por un punto representativo de un cuerpo
sólido formando el modelo de personaje y un radio correspondiente a
la distancia desde el punto representativo hasta el borde del
modelo, como el modelo de una cierta figura.
Por otra parte, es preferido que las áreas
divididas sean áreas que dividan la pantalla de proyección en una
figura de tablero, y al menos una línea con valor de área está
figurada con una fila con valor de área cruzando el área del
tablero en una dirección horizontal. La anteriormente mencionada al
menos una fila con valor de área, por ejemplo, es una línea con
valor de área aproximadamente correspondiente al nivel del punto de
vista. Más preferentemente, el medio de almacenamiento del valor Z
es medio para almacenar como el valor Z el valor predeterminado
correspondiente a una distancia remota puesta por delante del área
para la cual el modelo del objeto rezagado no podría ser encontrado
por los medios de búsqueda.
Por ejemplo, el objeto de fondo puede ser uno de
una pluralidad de objetos de fondo organizados en el espacio
tridimensional virtual, y el objeto de fondo puede ser una
estructura artificial, por ejemplo hecha por el hombre, en un
espacio real.
En otro aspecto, la presente invención
proporciona un método generador de imagen para figurar un objeto de
fondo (OTa, OTb, OTc) preparado con datos del polígono como una
parte del fondo de un espacio tridimensional virtual y generar
imágenes de movimientos de un objeto de personaje (OTch) preparado
con datos del polígono en dicho espacio tridimensional virtual
visto desde un punto de vista móvil, dicho método comprendiendo los
pasos de:
operar el campo visual visto desde dicho punto
de vista; especificar dicho objeto de fondo posicionado dentro de
dicho campo visual y observable desde dicho punto de vista; juzgar
una condición específica de dicho objeto de personaje dentro de
dicho campo visual, dicha condición específica indicando que dicho
objeto de personaje está posicionado en el espacio más cercano del
lado del punto de vista que dicho objeto de fondo especificado con
dichos medios especificativos; e incorporar dicho objeto de
personaje como el objeto de proyección sólo cuando dicha condición
específica es juzgada por dichos medios juzgadores, donde:
dicho paso especificativo comprende dicho objeto
de fondo como un modelo del objeto de fondo de una cierta figura;
operar el valor Z entre dicho modelo del objeto de fondo y dicho
punto de vista; establecer una pluralidad de áreas divididas (RG)
de una pantalla de proyección; buscar dicho modelo del objeto de
fondo desde dicho punto de vista vía ciertas áreas entre dicha
pluralidad de áreas, dichas ciertas áreas formando al menos una
línea de áreas (LM); y almacenar dicho valor Z del modelo del objeto
de fondo inicialmente buscado;
y dicho paso juzgador comprende: modelar dicho
objeto de personaje como un modelo (MTch) de una cierta figura;
operar el valor Z entre dicho modelo del objeto de personaje y dicho
punto de vista; y calcular dicha condición específica al comparar
el valor Z de dicho modelo del objeto de personaje y dicho valor Z
almacenado en dicho búfer.
\vskip1.000000\baselineskip
La Fig. 1 es un diagrama de bloques de
electricidad del tablero de procesamiento de juego del dispositivo
de juego como el dispositivo de procesamiento de imágenes de acuerdo
a una realización de la presente invención. La Fig. 2 es un
diagrama de flujo esquemático mostrando la rutina del esquema de
cuarto. La Fig 3 es un diagrama explicando el esquema de cuarto. La
Fig. 4 es un diagrama de flujo esquemático mostrando la rutina de
selección del modo proporción. La Fig. 5 es un diagrama típico
explicando la tabla del modo comparación. La Fig 6 es un diagrama
de flujo esquemático mostrando la rutina del RPG. La Fig. 7 es un
diagrama de flujo esquemático mostrando la subrutina del
procesamiento del clima. La Fig. 8 es un diagrama típico explicando
la tabla del clima. La Fig. 9 es un diagrama ilustrando el formato
de los datos del clima. La Fig. 10 es un diagrama de flujo
mostrando parte de la subrutina del procesamiento de recorte por
ocultamiento. La Fig. 11 es un diagrama de flujo mostrando una
parte de la subrutina del procesamiento de recorte por ocultamiento.
La Fig. 12 es un diagrama explicando la relación de la posición
entre el punto de vista, el campo visual, el objeto, y el modelo de
objeto sobre el plano XZ del sistema de coordenadas mundial (espacio
de juego). La Fig. 13 es un diagrama explicando el modelado de un
objeto en un modelo esférico. La Fig. 14 es un diagrama explicando
un ejemplo de una pantalla de proyección. La Fig. 15 es un diagrama
explicando la relación de la posición de la pantalla de proyección,
el área dividida de acuerdo con eso, y el modelo del objeto. La Fig.
16 es el segundo diagrama de bloques del hardware empleado en la
presente invención.
Un dispositivo de juego de acuerdo a una
realización de la presente invención es ahora descrito con
referencia a las ilustraciones. Aunque la explicación de este
dispositivo de juego está hecha en el modo de jugar un RPG (juego
de roles), los contenidos de juego a ser ejecutados por el
dispositivo de juego de acuerdo a la presente invención no están
necesariamente limitados a los RPG, y en consecuencia con la esencia
de las descripciones en las reivindicaciones, pudiera ser aplicado
a juegos adecuados tales como juegos de combate, juegos con pelota,
etcétera.
La Fig. 1 muestra un diagrama de bloques del
dispositivo de juego de acuerdo a la realización presente. Este
dispositivo de juego comprende un tablero de procesamiento de juego
10, dispositivo de entrada 11, dispositivo de salida 12, y monitor
de TV 13. El dispositivo de entrada 11 es usado por el jugador para
introducir información de la selección del modo de proporción
descrito más tarde para la preparación de comienzo de juego e
introducir información de operación en el modo manual de un juego
de roles, y comprende una palanca de operación, botón de operación,
interruptor de cambio de vista, etcétera. El dispositivo de salida
12 comprende un indicador para hacer indicaciones referentes al
juego, y varias lámparas.
Como se muestra en la Fig. 1, el tablero de
procesamiento de juego 10 comprende un reloj no mostrado, así como
también un contador 100, CPU (Unidad Central De Procesamiento) 101,
ROM 102, RAM 103, memoria de recorte por ocultamiento 103A,
dispositivo de sonido 104, interfaz de entrada/salida 106,
dispositivo de operación de desplazamiento de datos 107,
coprocesador (dispositivo de procesamiento operacional auxiliar)
108, ROM de datos de figura 109, geometrizador 110, ROM de datos de
figura 111, dispositivo de dibujo 112, ROM de datos de textura 113,
RAM de la textura 114, memoria del marco 115, dispositivo que
sintetiza imagen 116, y el convertidor D/A 117.
Entre lo antedicho, la CPU 101 es conectada, por
una línea de bus, a la ROM 102 almacenando programas prescritos y
programas de procesamiento de imágenes, RAM 103 almacenando datos de
operación, el dispositivo de sonido 104, interfaz de entrada/salida
106, dispositivo de operación de desplazamiento de datos 107,
coprocesador 108, y geometrizador 110. La RAM 103 debe funcionar
para el búfer, y es usada para escribir varios comandos para el
geometrizador (proyección de objetos, etc.) y escribir datos
necesarios en operaciones diversas.
La interfaz de entrada/salida está conectada al
dispositivo de entrada 11 y al dispositivo de salida 12, y las
señales de operación del dispositivo de entrada 11 están
incorporados en la CPU 101 como valores digitales. El dispositivo
de sonido104 está conectado al parlante 14 a través del amplificador
de potencia 105. Por consiguiente, las señales de sonido generadas
en el dispositivo de sonido104 son fuertemente amplificadas, y salen
del parlante 14 como sonido.
La CPU 101, basada en los programas internos de
la ROM 102, lee las señales de operación del dispositivo de entrada
11 y los datos de terreno desde los datos de terreno de la ROM 109,
o datos figura desde los datos figura de la ROM 111 (datos
tridimensionales como "personajes" y "fondos como terrenos,
cielo, diversas estructuras"), y realiza operaciones incluyendo
cálculos de comportamiento (simulaciones) de personajes y cálculos
de efectos especiales.
El cálculo del comportamiento es para simular el
movimiento del personaje en un espacio tridimensional virtual. Con
vistas a implementar este cálculo, después que los valores de las
coordenadas de los polígonos del personaje en el valor
tridimensional virtual están determinados, una matriz de conversión
y datos de figura (datos de polígono) para convertir los valores de
las coordenadas en un sistema de coordenadas bidimensional es son
designados para el geometrizador 110. El ROM de datos de terreno 109
está conectado al coprocesador 108, y los datos predeterminados del
terreno son entregados al coprocesador 108 y la CPU 101. El
coprocesador 108 es principalmente responsable de las operaciones
de punto flotante. De esta manera, como varias estimaciones son
ejecutadas con el coprocesador 108 y los resultados de estas
estimaciones les son proporcionadas a la CPU 101, la carga
operacional de la CPU es
aliviada.
aliviada.
El geometrizador 110 está conectado al ROM de
datos de figura 111 y dispositivo de dibujo 112. Como ya fue
mencionado anteriormente, los datos de figura (datos
tridimensionales de personajes, terrenos, y los fondos formados de
los respectivos apogeos), formados de una pluralidad de polígonos
están previamente almacenados en la ROM de datos de figura 111.
Estos datos de figura se le entregan al geometrizador 110. El
geometrizador 110 conduce la conversión de perspectiva de los datos
de figura designados con la matriz de conversión enviada desde la
CPU 101, y obtiene datos convertidos desde el sistema de coordenadas
del espacio tridimensional al sistema de coordenadas del campo
visual.
El dispositivo de dibujo 112 fija la textura
para los datos de figura del sistema de coordenadas convertido del
campo visual y les da salida hacia el búfer de marco 115. Para fijar
tal textura, el dispositivo de dibujo 112 está conectado al ROM de
datos de textura 113 y a la RAM del mapa de textura 114, y también
al búfer de marco 115.
Aquí, datos de polígono querrá decir un grupo de
datos de coordenadas relativas o absolutas de los respectivos
apogeos de polígonos (poligonal: principalmente triángulos y
cuadriláteros) formados de un agregado de una pluralidad de
apogeos. La ROM de datos de terreno 109 almacena datos de polígono
que son considerados comparativamente groseros y suficientes al
ejecutar las estimaciones prescriptas (estimaciones de colisión,
etc.). Entretanto, la ROM de datos de figura 111 almacena datos de
polígono que son considerados más precisos en relación a pantallas
que estructuran figuras tales como enemigos y fondos.
El dispositivo de operación de desplazamiento de
datos 107 calcula datos de pantallas de desplazamiento (almacenados
en la ROM 102) de letras y cosas por el estilo. Este dispositivo de
operación 107 y el búfer de marco 115 llegan al monitor de TV 13
mediante el dispositivo de procesamiento de imágenes 116 y el
convertidor D/A 117. Por consiguiente, las pantallas de polígono
(resultados de simulación) de personajes y terrenos (fondos)
temporalmente almacenados en el búfer de marco 115 y las pantallas
de desplazamiento tales como información de letras son sintetizadas
de acuerdo con una prioridad designada, y los datos de imagen del
marco final son generados para cada oportunidad fijada. Estos datos
de imagen del marco son convertidos en señales analógicas con el
convertidor D/A 117 y enviados al monitor TV 13, y proyectado como
una pantalla de juego.
Este dispositivo de juego conduce un juego de
roles (RPG) en consecuencia con el procesamiento de operación
descrito posteriormente ejecutado principalmente con la CPU 101.
En este dispositivo de juego, una rutina de
preparación del cuarto es activada como una herramienta en la
preparación de la aplicación, y hace un esquema de cuartos virtuales
necesarios en un juego de roles. Además, el procesamiento de
preparación del cuarto puede ser convenientemente activado durante
la ejecución de la aplicación.
En consecuencia con esta rutina, son creadas
reglas para organizar el mobiliario basadas en el proceso humano de
pensamiento, el mobiliario y los artículos cotidianos están
organizados utilizando números aleatorios, y son generados cuartos
rellenos con aire de medios de vida en el espacio virtual de
juego.
Específicamente, como se muestra en la Fig. 2,
la CPU 101 controla las series de flujos para ejecutar lo antedicho.
En primer lugar, son preparadas partes tales como paredes y
mobiliario (paso S1). La efectividad es aumentada con más partes.
Además, las condiciones del residente del cuarto se determinan (paso
S2). Como condiciones para el residente, por ejemplo, pueden ser
listadas el género, la edad, el estado civil, ascendencia familiar,
condición de salud, capacidad financiera, etc. Después, el
mobiliario es listado (paso S3). En otras palabras, una lista de
muebles es compilada de acuerdo con las condiciones listadas en el
paso S2.
Más tarde, los cuartos son divididos en áreas
para cada característica de estos (el paso S4). Este ejemplo
divisional es mostrado en la Fig. 3 (a). En el ejemplo divisional de
este diagrama, las principales posiciones donde el mobiliario es
colocado son las áreas 1, 3, 4, 6, 7 y 9. Con relación al área 8,
esta dependerá de la forma de la ventana. Por ejemplo, aunque un
objeto no puede ser colocado allí si esta ventana es una entrada
para la terraza, puede haber casos donde es colocado el mobiliario
teniendo una altura similar al borde inferior de la ventana. El
área 5 es el área central para la vida diaria y una mesa es colocada
allí como mobiliario. Por otro lado, como el residente no podrá
acceder a la puerta, normalmente, el mobiliario no es colocado en
el área 2. De acuerdo a esta división de área, como se muestra en la
Fig. 3 (b), es decidida la dirección del mobiliario de las
respectivas áreas. Las áreas 1, 3, 7 y 9 pueden ser seleccionadas
desde dos direcciones, y las áreas 4, 6 y 8 sólo lo serán desde una
dirección, y el área 5 lo será desde todas las direcciones
(360°).
Después, el punto céntrico de la sala de estar
es colocado (el paso S5). La TV y el audio (particularmente los
parlantes) están hechos para encargarse de tal punto céntrico de
vida. En esta realización, el punto céntrico de la sala de estar es
decidido con las siguientes prioridades: centro de la mesa como
primera prioridad, centro del sofá como segunda prioridad (cuando
no hay mesa), y centro del cuarto como tercera prioridad (cuando
hay ni mesa ni sofá). Como una excepción, si un atributo es
proporcionado en donde el residente del cuarto vive bajo
tratamiento médico, la posición de la almohada será considerada como
el punto céntrico de vida.
El mobiliario es entonces organizado (paso S6).
Como datos (parámetros) de acomodamiento del mobiliario están, por
ejemplo:
Tipo de mobiliario: cama, gabinete, escritorio,
mesa, TV, sofá, etc.
Tamaño: largo, ancho, altura del mobiliario.
Espacio de almacenamiento: (largo, ancho,
altura) x margen.
Área acomodable: área divisional 1, 3, etc.
Grado, rango de edad: condiciones apropiadas
Por otro lado, las reglas de acomodamiento se
establecen como sigue:
Cambiando la semilla del número aleatorio,
muchos cuartos diferentes pueden se preparados. 2) El mobiliario es
acomodado en orden comenzando por los más grandes, y esos que no
caben debido a la falta de espacio son desechados. 3) El mobiliario
que no cabe en un área será acomodado al realizar el procesamiento
de expansión de área cuando hay un espacio abierto en las áreas
periféricas. Las áreas periféricas del área expandida se acortarán.
4) Cuando hay espacio extra en el área como resultado de acomodar el
mobiliario, las áreas periféricas de estas son expandidas.
Finalmente, los artículos cotidianos y los
objetos de pared son acomodados (paso S7). Particularmente, los
ingredientes, la comida, la vajilla, las figurillas, la ropa, etc.
están respectivamente acomodados en las áreas acomodables para cada
uno de los tipos de estos. Además, los relojes de pared, pinturas,
pósteres, calendarios, etc. quizás respectivamente acomodados en
las áreas acomodables para cada uno de los tipos de estos
En consecuencia con la antedicha rutina de
preparación de cuartos, el mobiliario no será acomodado en parte
frontal de ventanas y puertas, y es posible establecer previamente
las áreas (por ejemplo, la esquina del cuarto, por la pared, el
centro, el cielo raso, etc.) donde el mobiliario debería ser
básicamente acomodado en consecuencia con el tipo de este. Es
también posible establecer previamente parámetros representando las
características (ordenado, desordenado, desierto, abarrotado, etc.)
de los cuartos respectivos y esquematizar los cuartos al designar
tales parámetro. Es también posible ajustar la tabla de números
aleatorios para tener estas clases de características. Como
consecuencia, aunque grandes cantidades de tiempo y trabajo fueron
convencionalmente requeridas al preparar numerosos cuartos ya que
el cuarto entero fue tratado como un objeto, en esta realización,
muchos cuartos pueden ser diseñados fácilmente y en un corto período
de tiempo. Además, es también posible reflejar acertadamente el
sentimiento análogo de los humanos para esquemas individuales. Por
ejemplo, es menos probable para mesas y sillas ser acomodadas a lo
largo de la pared o en una esquina del cuarto, y, contrariamente,
el mobiliario grande como camas y estantes serán acomodados a lo
largo de la pared o en la esquina del cuarto. Por otro lado, como
la regla de acomodamiento de esta realización no es seleccionada
entre patrones, la posibilidad de que un cuarto idéntico sea
preparado está próxima a cero, y varios cuartos pueden prepararse en
un período de tiempo sumamente corto. Esto también puede ser
adoptado para la preparación del mapa de datos.
A continuación, es explicada la rutina principal
ejecutada por la CPU 101 del dispositivo de juego de acuerdo a la
presente realización. Esta rutina principal incluye la rutina de
selección del modo de proporción procesada interactivamente entre
el jugador antes del comienzo del juego, y la rutina de
procesamiento del juego de roles (RPG) ejecutada después.
La rutina de selección del modo de proporción es
en primer lugar explicada con referencia a las Figs. 4 y 5. Esta
proporción de modo puede ser previamente establecida por el
productor del software en consecuencia con la tendencia del mercado
(por ejemplo, el uso doméstico, el uso comercial, o en consecuencia
con el país de exportación) para el cual el software está siendo
enviado.
Primeramente, la CPU 101 sentencia si la
información de selección del modo de proporción fue proporcionada
desde el dispositivo de entrada 11 (paso S11). Cuando esta
información es proporcionada, la CPU 101 consulta a la "tabla de
proporción de modo" en consecuencia con los contenidos de esta, y
selecciona el modo de proporción (paso S12). En la tabla de
proporción de modo, como se muestra en la Fig. 5, los modos de
proporción A~C son puestos en correspondencia con los niveles de
difícil, intermedio y fácil con relación a la dificultad del RPG.
En el modo de proporción difícil A, el tiempo T2 del modo manual, el
cual es el modo de progresión de tiempo real del RPG, es más largo
que el marco de tiempo T1 del modo automático, el cual es el modo de
progresión automática. En el modo proporción intermedio B, el
tiempo TO del modo manual y el marco de tiempo TO del modo
automático son iguales. En el modo proporción fácil C, el tiempo T1
del modo manual es más corto que marco de tiempo T1 del modo
automático. De esta manera, es posible ajustar la dificultad del RPG
con la proporción de la longitud de tiempo del modo manual.
Mientras tanto, en el paso S11, si ninguna
información considerando la selección del modo de proporción es
introducida por el jugador, la CPU 101 obligatoriamente asigna el
modo de proporción B, el cual es de una dificultad intermedia (paso
S13).
Consecuentemente, como la dificultad del RPG
puede ser fácilmente establecida de acuerdo con la preferencia del
jugador, es posible realzar el interés del jugador en el juego. Es
posible además proporcionar fácilmente un dispositivo de juego
teniendo un nivel de juego para todos los grupos de edades o en
consideración de la tendencia del mercado. De esta manera, se logra
mejorar la versatilidad y la funcionalidad general con un solo
dispositivo.
A continuación, la rutina de procesamiento de
RPG es explicada con referencia a las Figs. 6 hasta la 15. Esta
rutina de procesamiento, por ejemplo, es repetidamente ejecutada por
la CPU para cada campo ((\Deltat = 1/60 s.) en sincronización con
una interrupción de proyección.
Además, la CPU 101 sentencia si el modo actual
de progresión de juego del RPG es un modo automático (paso S21).
Aquí, si está en el modo automático, entonces la CPU 101 ordena el
procesamiento de proyección para progresar automáticamente la
historia, la cual se avanza en consecuencia con este modo, y está a
servicio para el siguiente procesamiento (paso S22). Los contenidos
de proyección del procesamiento de proyección en este modo
automático pueden ser establecidos para ser libremente
reescribibles, y el modo de proyección no está limitado para una
imagen completamente tridimensional, y puede ser una película.
Mientras tanto, si NO se está en el paso S21;
esto es, cuando es considerado como estándose en el modo manual, la
CPU 101 lee la información operacional del jugador proporcionada por
el dispositivo de entrada 12, y opera la posición del punto de
vista y el ángulo del campo visual de la cámara virtual en el
espacio de juego desde tal información como se muestra en la Fig.
12 (pasos S23, S24). Después, la colisión estimada del objeto
personaje y el fondo (incluyendo el objeto de atrás descrito más
tarde) es conducida (paso S25).
Por otro lado, dependiendo del juego, hay tipos
donde el elemento de RPG y el elemento de juegos de acción
coexisten en un mismo juego. Esto es con el objetivo de dar
versatilidad de juego a fin de que muchos jugadores puedan
disfrutar el juego. Aquí, como el método de operación cambiará en
consecuencia con los elementos respectivos de juego, pueden haber
casos donde un jugador se ve forzado a jugar un elemento de juego en
el que él / ella es débil. En consideración de tal caso, es
preferible seleccionar por adelantado el elemento de juego preferido
por el jugador, o el elemento de juego desaprobado por el jugador.
Por consiguiente, el juego será cambiado para el modo manual cuando
se esté en una escena de un elemento de juego en el cual el jugador
es hábil, y cambiado para el modo automático cuando se esté en una
escena de un elemento de juego en el cual el jugador no es tan
hábil. O, si el productor del juego desea mostrar una escena
específica durante el juego el mismo puede ser cambiado para el
modo automático incluso si es un elemento de juego en el cual el
jugador es hábil. Además, el tiempo y la frecuencia de cambio
pueden ser ajustadas de modo que el jugador juegue al menos algún
elemento de juego en el cual él / ella no es tan hábil.
Aquí, un objeto de personaje significará un
objeto a ser movido en el espacio de juego, y preparado con datos
de polígono. Por otro lado, un objeto de atrás significará un objeto
de fondo el cual forma una parte del fondo pero que no se mueve, y
también preparado con datos de polígono. Como un ejemplo, imaginemos
una escena en el modo manual dónde Godzilla está caminando a lo
largo de la ciudad entre edificios. Sería preferible estructurar a
Godzilla como un objeto de personaje y los edificios (objetos
estructurales) como objetos de atrás.
Además, los contenidos de juego incluyen una
sección de acción así como la sección de RPG, y el método de
operación también cambia. Es posible establecer ya sea el modo
automático o el modo manual en consecuencia con el modo de
juego.
A continuación, la CPU 101 ejecuta la subrutina
de procesamiento del clima (paso S26). Un ejemplo de este
procesamiento es explicado en detalle con referencia a las Figs. 7
hasta la 9.
La CPU 101 determina si un tiempo prescrito
(i.e. una hora) ha transcurrido del procesamiento anterior de la
interrupción del contador de tiempo y, si NO (una hora no ha
transcurrido todavía), retorna el procesamiento a la Fig. 6 (paso
S26-1). Sin embargo, si una hora transcurre mientras
la CPU 101 está repitiendo el procesamiento y el resultado es SI,
la CPU 101 decide la actual posición del punto de vista de la
cámara, de la información operacional y luego decide el tiempo
actual del valor del reloj, del reloj interno (paso
S26-2). Entonces, la CPU 101 busca la información
del tiempo (información meteorológica) correspondiente a esta
información decidida refiriéndose a la tabla del tiempo fijada
anteriormente (paso S26-3, 4). La información del
tiempo obtenida es entregada al geometrizador 110 y al dispositivo
de operación de datos corridos.
Dado que la tabla del tiempo se fija para cada
área prescrita (posición) del espacio del juego, como se muestra
con los contenidos de configuración en la Fig. 8, fijados en
detalles están la fecha, y el cielo (fondo), el tiempo, y el grado
del tiempo para cada hora. Sobre lo anterior, las condiciones de la
lluvia, el aguanieve y la nieve son exhibidas, por ejemplo, usando
una pluralidad de objetos estructurados con polígonos. Por otra
parte, el soleado y el nublado son exhibidos ajustando el brillo de
la pantalla completa, y este brillo se cambia de acuerdo con el
tiempo. Además, es posible agregar viento (incluyendo la dirección
de ahí) y la velocidad. La Fig. 9 demuestra un ejemplo estructural
del formato de datos de la información del tiempo fijado para cada
posición y para los respectivos tiempos durante el día.
En esta información del tiempo, la unidad del
área (posición) se puede fijar dentro de un rango donde el carácter
del jugador puede moverse continuamente sin tener que cambiar la
escena, o se puede cambiar a una posición arbitraria. Aquí, la
operación de la interpolación puede ser conducida tal que las
condiciones atmosféricas en el límite de la conmutación no cambien
de una manera repentina.
Por lo tanto, con respecto a las
representaciones convencionales de las condiciones atmosféricas que
cambian solamente el cielo (fondo) después de que transcurra un
tiempo prescrito, es posible exhibir condiciones atmosféricas
detalladas realistas. De tal modo, el ambiente será suficiente, y el
interés en el juego para las respectivas escenas del RPG puede
aumentar.
Después de eso, la CPU 101 ejecuta el
procesamiento de truncamiento de atrás (Fig. 6, el paso S27). El
contenido del subprograma de este procesamiento de truncamiento de
atrás se explica detalladamente en las figs 10 y 11.
Los pasos del procesamiento mostrados en estas
figuras constituyen una serie de pasos como se describe más
abajo:
1) Los procesamientos de modelado A, B del
objeto de atrás y del objeto del carácter ejecutados una vez a la
hora de la interrupción inicial del contador de tiempo (Fig.
10);
2) El procesamiento de comprobación C para
comprobar el interior del campo de visión de la cámara de los
respectivos modelos del objeto de atrás (Fig.10);
\global\parskip0.900000\baselineskip
3) El procesamiento de operación D para operar
el valor Z desde el punto de vista de la cámara de los respectivos
modelos del objeto de atrás (Fig. 10);
4) El procesamiento de arreglo E para arreglar
el valor Z de la parte delantera del modelo del objeto de atrás al
buffer de truncamiento de atrás (Fig. 10);
5) El procesamiento de comprobación F para
comprobar el interior del campo de visión de la cámara para los
respectivos modelos de objeto del carácter (Fig. 11);
6) El procesamiento de operación G para operar
el valor Z desde el punto de vista de la cámara de los respectivos
modelos de objeto del carácter (Fig. 11); y
7) El procesamiento de orden de mostrado y no
mostrado H del objeto del carácter sobre la comparación de los
valores Z (Fig. 11).
Específicamente, en el procesamiento de
modelado, según las indicaciones de las figs 12 a 15, el punto
representativo (i.e. el punto del centro de la figura) de una
pluralidad de conjuntos de objetos de atrás OTa, OTb, OTc (i.e.
construcción) y de uno o una pluralidad de objetos del carácter OTch
se opera desde los datos del vértice. Además, la distancia de tal
punto representativo al extremo más lejano se calcula, y
simultáneamente los modelos esféricos del objeto de atrás MTa, MTb,
MTc están preparados y el modelo del objeto del carácter MTch en el
cual el punto representativo es el centro de esto y tal distancia es
el radio de esto. Por otra parte, el final del punto representativo
no tiene que ser necesariamente la porción más lejana, y puede ser
determinado convenientemente. Es decir puede ser determinado
convenientemente de acuerdo con la forma del objeto.
En el procesamiento de chequeo C, se comprueba
uno tras otro cuándo los modelos del objeto de atrás MTa, MTb y MTc
en el espacio del juego se colocan respectivamente dentro del campo
de visión actual, y los números de identificación del modelo de
objeto de atrás posicionado dentro del campo de visión son
almacenados. De tal modo, el modelo dentro del campo de visión se
decide, y los modelos fuera del campo de visión se acortan.
Después, en el procesamiento de operación D, los
modelos de objeto de atrás MTa, MTb y MTc determinados estando
posicionados dentro del campo de visión se consideran sujetos de
muestra, y el valor Z es operado (distancia) del punto de vista de
la cámara a, por ejemplo, la superficie esférica o el punto
representativo de los respectivos modelos.
Entonces, en el procesamiento de arreglo E,
según las indicaciones de la Fig. 15, la pantalla de visualización
se divide simultáneamente en una pluralidad de áreas (o de células)
RG en un diseño cuadriculado, y cada área RG se hace para
corresponder individualmente con una dirección del buffer de
truncamiento de atrás 103A. Ordinariamente, un punto de vista de la
cámara se coloca para estar en una altura prescrita detrás del
carácter del jugador para seguir tal carácter mientras se mueve en
la dirección horizontal aproximadamente. Así, puesto que no hay
apenas ningún movimiento vertical, aquí, sólo una línea de la línea
del área LN en la dirección oblicua que correspondía a la altura
que concurría aproximadamente con el nivel del ojo de la cámara
dentro del área cuadriculada necesita ser seleccionada. Cada área
RG que forma esta línea del área LN se hace para corresponder
individualmente a una dirección del buffer de truncamiento de atrás
103A. La razón por la que se restringe a una línea oblicua en
consideración con el comportamiento del punto de vista de la cámara
y el nivel del ojo de la cámara es para aligerar la carga de la
operación para buscar el valor Z y comparar el valor Z tanto cuanto
sea posible. Además, el tamaño de una área RG se fija para estar en
un tamaño prescrito lo suficientemente más grande que un píxel y,
por lo tanto, es posible aligerar la carga operacional buscando y
comparando a grandes rasgos el valor Z.
Cuando la selección del área RG para un valor de
línea LN en la dirección oblicua se completa, la búsqueda del valor
Z en los modelos del objeto de atrás MTa, MTb y MTc se implementa a
través de cada área RG del punto de vista. Después de eso, el valor
Z del modelo del objeto de atrás encontrado inicialmente se almacena
en la dirección que corresponde al buffer de truncamiento de atrás
103A. En esta búsqueda, cuando el modelo del objeto de atrás no
puede ser encontrado, un valor prefijado cerca del punto infinito
fijado por adelantado se almacena. Por otra parte, cuando una
pluralidad de modelos del objeto de atrás se encuentra buscando la
misma área RG, el valor Z del modelo frontal tiene prioridad.
Consecuentemente, con respecto al valor Z de las
ocho áreas RGs para un valor de línea en la dirección oblicua
demostrado típicamente en la Fig. 15, buscando del lado izquierdo,
el valor prefijado, valor Z del modelo MTb, el valor Z del modelo
MTa,… (Del tercer bloque al octavo bloque en el lado derecho tiene
el valor Z del modelo MTa) se encuentra, y se almacena en el buffer
de truncamiento de atrás 103A.
Además, la búsqueda y el almacenaje de este
valor Z se pueden ejecutar para el área entera de la distribución
del conjunto de dos dimensiones, o, si el nivel del ojo de la cámara
cambia en la dirección vertical en el espacio del juego, tal
búsqueda y almacenaje se pueden ejecutar para las áreas de la
dirección vertical también.
Por otra parte, en el procesamiento de chequeo F
mostrado en la Fig. 11, el modelo del objeto del carácter también
se chequea en una manera similar como con el modelo del objeto de
atrás ya mencionado en relación con si está dentro del campo de
visión, y si está fuera del campo de visión, se acorta. Este
truncamiento se ejecuta para los respectivos objetos cuando hay una
pluralidad de objetos del carácter.
\global\parskip1.000000\baselineskip
En el procesamiento de la operación G después de
eso, el valor Z se opera hasta el punto representativo del modelo
del objeto del carácter MTch, por ejemplo. Esta operación también se
ejecuta para todos los objetos del carácter.
Entonces, después de proceder al procesamiento
del orden de la muestra y no muestra H según las indicaciones de la
Fig. 11, un modelo del objeto del carácter colocado primero en el
campo de visión se señala. Después, el valor Z Zobj de este modelo
señalado se lee de la RAM. Después, una dirección del buffer de
truncamiento de atrás 103A se señala, y el valor Z Zbuf del modelo
del objeto de atrás frontal cuando se ve de una área RG almacenada
en tal dirección se lee. Cuando se termina esto, la estimación de si
Zobj < Zbuf se dirige, y cuando es SÍ (es decir, cuando se
confirma que Zobj < Zbuf), la información sobre esta confirmación
se almacena en la RAM. Después de eso, la rutina procede a la
dirección siguiente del buffer 103A y un procesamiento similar se
repite hasta que se termina para todas las direcciones. Después de
que el procesamiento para todas las direcciones se haya terminado,
el procesamiento de comparación ya mencionado se repite para todas
las direcciones del carácter.
Cuando las series de comparaciones están
completas, el resultado de la comparación; es decir, la información
sobre la confirmación de Zobj < Zbuf almacenado temporalmente se
afirma, y cuándo hacer el objeto del carácter CTch un sujeto de
muestra de tal información, y cuándo exhibir que objeto de atrás
está afirmado. En la estimación ya mencionada de la comparación, si
Zobj < Zbuf se confirma incluso una vez, puede ser reconocido que
el objeto del carácter OTch, según lo ilustrado en la Fig. 12, está
situado delante de todos los objetos de atrás Ota, OTb en el primer
plano dentro del campo de visión actual; es decir está localizado en
el espacio del juego más cercano a la cámara. Aquí, la muestra del
objeto de atrás y del objeto del carácter en el primer plano se
notifica al geometrizador como cuestión de curso.
Por otra parte, el procesamiento de
caras-sombras ordinario se puede conducir entre el
objeto del carácter y el primero plano del objeto de atrás, y entre
el objeto del carácter y el objeto de atrás OTc detrás de la sombra
del objeto de atrás OTa en el extremo próximo. Además, el resultado
ya mencionado de la búsqueda del valor Z se puede utilizar en lugar
del procesamiento de caras-sombras.
Contrariamente, cuando Zobj < Zbuf no puede
confirmarse, el objeto del carácter será ocultado totalmente detrás
del objeto de atrás, y puede ser reconocido fácilmente que no está
en una posición visible dentro del campo de visión (cf. Fig. 14).
Aquí, la no-muestra del objeto del carácter se
notifica al geometrizador.
Cuando se acaba el procesamiento de truncamiento
de atrás, el procesamiento del juego se ordena al geometrizador 110
y al dispositivo de dibujo 112 en el paso S28 mostrado en la Fig. 6.
De tal modo, las imágenes del sistema coordinado perspectivamente
convertido del campo de visión se muestran en el monitor de la TV,
en donde se proporcionan las imágenes del RPG.
Sobre esta exhibición, suponga una escena donde
Godzilla (objeto del carácter) vaga en un número de edificios
elevados (objeto de atrás), por ejemplo, y lucha con el jugador. En
esta escena, cuando Godzilla se coloca delante de los edificios, el
valor Z Zobj del modelo esférico de Godzilla será más pequeño que el
valor Z Zbuf del modelo esférico de la pluralidad de edificios
colocados en primer plano vistos del punto de vista; es decir,
como
Zobj < Zbuf se confirma, Godzilla se muestra con el frente de los edificios como el fondo. Sin embargo, cuando Godzilla se mueve y se oculta totalmente detrás de los edificios según las indicaciones de la Fig. 14, Godzilla no se muestra. Esta estimación de cuando mostrar a Godzilla no se conduce con el método convencional de comparar en unidades del polígono los datos del polígono que forman el edificio y el valor Z de los datos del polígono que forman a
Godzilla.
Zobj < Zbuf se confirma, Godzilla se muestra con el frente de los edificios como el fondo. Sin embargo, cuando Godzilla se mueve y se oculta totalmente detrás de los edificios según las indicaciones de la Fig. 14, Godzilla no se muestra. Esta estimación de cuando mostrar a Godzilla no se conduce con el método convencional de comparar en unidades del polígono los datos del polígono que forman el edificio y el valor Z de los datos del polígono que forman a
Godzilla.
Es decir, según este procesamiento de
truncamiento de atrás, los edificios que tienen formas complejas y
Godzilla se convierte en una forma esférica, y sería suficiente
comparar el valor Z del edificio que forma la fila delantera y el
valor Z de Godzilla según lo visto del punto de vista obtenido a
través de la pluralidad de áreas en un tamaño conveniente. Así, la
diferencia en los valores Z; es decir la relación de la posición se
puede obtener muy fácilmente con respecto al método convencional.
Por otra parte, en esta realización, como el procesamiento se
limita al área de una línea en la dirección oblicua que corresponde
al nivel del ojo, la estimación de si mostrar a Godzilla puede ser
conducida con una carga incluso menos operacional. Por lo tanto, la
carga operacional referente a la exhibición por la CPUse aligera
considerablemente, y es de tal modo posible acelerar la velocidad
de proceso o distribuir la operación a otros pasos de procesamiento
del juego.
La Fig. 16 muestra un ejemplo del segundo
diagrama del hardware empleado en la presente invención. Este
diagrama de bloque es compatible con los dispositivos del juego
para los consumidores. Este dispositivo de juego comprende una CPU
para controlar el sistema entero, un procesador de geometría para
conducir la operación de geometría, una memoria de sistema tal como
una RAM de trabajo, un CD-ROM como medio de
almacenaje que almacena el programa del juego de la presente
invención, un ROM RAÍZ que almacena el programa de la activación del
juego, un árbitro de bus para controlar el bus, un procesador de
rendereo para ejecutar la representación, una memoria gráfica, un
vídeo DAC para conducir la conversión de datos gráficos D/A, un
procesador de audio, una memoria de audio, un audio DAC para
conducir la conversión de datos de audio D/A, y un módem bajo el
control del árbitro del bus. Este dispositivo de juego es capaz de
intercambiar datos conectándose a otras máquinas de juego de TV,
PC, servidores de la red, computadoras centrales, aplicaciones de
Internet y así sucesivamente a través de un módem o un circuito de
comunicación.
La forma del modelo sobre el modelado el objeto
no se limita necesariamente a una esfera, y puede ser ovalado,
cilíndrico, un cilindro, o una forma arbitraria fija. Un objeto del
carácter no se limita a un objeto móvil, y puede ser un objeto
inmóvil. Es decir, puede ser colocado fijamente a los edificios
también. Por ejemplo, puede ser un objeto inmóvil tal como un poste
o una tienda de teléfono detrás del edificio. La presente invención
muestra objetos en el extremo próximo del punto de vista cuando hay
una pluralidad de objetos, modela simplemente los objetos con el
procesamiento de la borradura de la sombra para no mostrar los
objetos en la parte posterior, y las estimaciones de que el modelo
está en el extremo próximo cuando es visto del punto de vista. Para
esos objetos detrás de otro objeto, es posible quitar tal objeto
ocultado de un sujeto de muestra sin tener que conducir la
operación (coordinada) geométrica. Según lo mencionado
anteriormente, el modelo simplificado no se limita a una forma
esférica. Pero si se utiliza una forma esférica, sería posible fijar
convenientemente el diámetro de esto. Por ejemplo, hay esferas que
caben dentro del objeto, y hay las que rodean al objeto. Además,
una pluralidad de esferas (modelo tridimensional simplificado) se
puede modelar para un solo objeto.
Como se describe anteriormente, según la
presente invención, primero, es posible reducir agudamente la carga
operacional consecuente sobre la muestra/no muestra de un objeto con
el procesamiento simple en consideración con la relación de la
posición del punto de vista del objeto y del fondo.
En segundo lugar, disposiciones y preparaciones
están habilitadas de eso que utilizan la sensibilidad análoga de
seres humanos así como reducciones substanciales simultáneas de la
carga operacional en los juegos que requieren la preparación de
disposiciones de cuartos y de mapas. De tal modo, el disco no tendrá
que ser leído cada vez que se entre en un cuarto.
En tercer lugar, se provee un juego que mejora
la realidad y el ambiente expresando precisamente los cambios del
tiempo del ambiente natural del exterior.
En cuarto lugar, cambios son permitidos en la
dificultad de RPGs de acuerdo con la preferencia del jugador o la
situación del mercado a la hora de la remisión.
Consecuentemente, se provee un dispositivo
generador de imagen conveniente para los juegos y que, con respecto
a los dispositivos convencionales, por consiguiente tiene abundante
realismo y ambiente, mejora agudamente la sensación del juego e
interés en el juego, y mejora la capacidad operacional conforme al
aligeramiento de la carga operacional.
Claims (8)
1. Un dispositivo generador de imagen para
formar un objeto de fondo (OTa, OTb, OTc) preparado con datos del
polígono como una parte del fondo de un espacio tridimensional
virtual y generar imágenes de movimientos de un objeto de personaje
(OTch) preparado con datos del polígono en dicho espacio
tridimensional virtual visto desde un punto de vista móvil, dicho
dispositivo comprendiendo medios de control para incorporar como el
objeto de proyección dicho objeto de personaje dentro de un campo
visual visto desde dicho punto de vista sólo cuando dicho objeto de
personaje está posicionado en el espacio más cercano a dicho punto
de vista que dicho objeto de fondo visto desde dicho punto de
vista,
donde dichos medios de control comprenden:
medios de operación del campo visual para operar el campo visual
visto desde dicho punto de vista; especificar medios para
especificar dicho objeto de fondo situado dentro de dicho campo
visual y observable desde dicho punto de vista; juzgar medios para
juzgar una condición específica de dicho objeto de personaje dentro
de dicho campo visual, dicha condición específica indicando que
dicho objeto de personaje está situado en el espacio más cercano a
dicho punto de vista que dicho objeto de fondo especificado por
dichos medios especificativos; y desplegar medios determinantes para
incorporar dicho objeto de personaje como el objeto de proyección
sólo cuando dicha condición específica es juzgada por dichos medios
juzgadores,
dichos medios especificativos comprenden: medios
modeladores para modelar dicho objeto de fondo como un objeto de
fondo de una cierta figura; medios de operación del valor Z para
operar el valor Z entre dicho modelo del objeto de fondo y dicho
punto de vista; medios establecedores para establecer una pluralidad
de áreas divididas (RG) de una pantalla de proyección; medios de
búsqueda para buscar dicho modelo del objeto de fondo desde dicho
punto de vista vía ciertas áreas entre dicha pluralidad de áreas,
dichas ciertas áreas forman al menos una línea de áreas (LM); y
medios de almacenamiento del valor Z para almacenar dicho valor Z de
dicho modelo del objeto de fondo inicialmente buscado por dichos
medios de búsqueda; y
dichos medios juzgadores comprenden: un medio de
modelado separado para modelar dicho objeto de personaje como un
modelo (MTch) de una cierta figura; un medio de operación separado
del valor Z para operar el valor Z entre dicho modelo del objeto de
personaje y dicho punto de vista; y medios de cálculo para calcular
dicha condición específica al comparar el valor Z de dicho modelo
del objeto de personaje y dicho valor Z almacenado en dicho
búfer.
2. Un dispositivo generador de imagen de acuerdo
a la reivindicación 1, donde dicho medio de modelado es medio para
modelar un modelo esférico (MTa, MTb, MTc), el cual está definido
por un punto representativo de un cuerpo sólido formando dicho
modelo de fondo y un radio correspondiente a la distancia desde
dicho punto representativo hasta el borde de dicho modelo, como
dicho modelo de una cierta figura; y
dicho medio de modelado separado es medio para
modelar un modelo esférico, el cual está definido por un punto
representativo de un cuerpo sólido formando dicho modelo de
personaje y un radio correspondiente a la distancia desde dicho
punto representativo hasta el borde de dicho modelo, como dicho
modelo de una cierta figura.
3. Un dispositivo generador de imagen de acuerdo
a la reivindicación 1, donde dichas áreas divididas son áreas
dividiendo dicha pantalla de proyección en un tablero de control, y
dicha al menos una línea de áreas está formada con una fila de
áreas cruzando dicha área del tablero de control en la dirección
horizontal.
4. Un dispositivo generador de imagen de acuerdo
a la reivindicación 3, donde dicha al menos una fila de áreas es
una fila de áreas correspondiendo aproximadamente al nivel de dicho
punto de vista.
5. Un dispositivo generador de imagen de acuerdo
a la reivindicación 3, donde dicho medio de almacenamiento del
valor Z es medio para almacenar como dicho valor Z el valor
predeterminado correspondiente a una distancia remota puesta por
delante de dicha área para la cual dicho modelo del objeto de fondo
no podría ser encontrado por dicho medio de búsqueda.
6. Un dispositivo generador de imagen de acuerdo
a una cualquiera de las reivindicaciones de la 1 a la 5, donde
dicho objeto de fondo es uno de una pluralidad de objetos de fondo
ordenados en dicho espacio tridimensional virtual.
7. Un dispositivo generador de imagen de acuerdo
a la reivindicación 6, donde dicho objeto de fondo es una
estructura hecha por el hombre en un espacio real.
8. Un método generador de imagen para formar un
objeto de fondo (OTa, OTb, OTc) preparado con datos del polígono
como una parte del fondo de un espacio tridimensional virtual y
generar imágenes de movimientos de un objeto de personaje (OTch)
preparado con datos del polígono en este espacio tridimensional
virtual visto desde un punto de vista móvil, dicho dispositivo
comprendiendo los pasos de:
operar el campo visual visto desde dicho punto
de vista; especificar dicho objeto de fondo posicionado dentro de
dicho campo visual y observable desde dicho punto de vista; juzgar
una condición específica de dicho objeto de personaje dentro de
dicho campo visual, dicha condición específica indicando que dicho
objeto de personaje está posicionado en el espacio más cercano al
lado de dicho punto de vista que dicho objeto de fondo especificado
con dicho medio específico; e incorporar dicho objeto de personaje
como el objeto de proyección sólo cuando dicha condición específica
es juzgado por dicho medio juzgador, donde:
dicho paso especificativo comprende modelar
dicho objeto de fondo como un modelo del objeto de fondo de una
cierta figura; operar el valor Z entre dicho modelo del objeto de
fondo y dicho punto de vista; establecer una pluralidad de áreas
divididas (RG) de una pantalla de proyección; buscar dicho modelo
del objeto de fondo desde dicho punto de vista vía ciertas áreas
entre dicha pluralidad de áreas, dichas ciertas áreas forman al
menos una línea de áreas (LM); y almacenar dicho valor Z del modelo
del objeto de fondo buscado inicialmente; y
dicho paso juzgador comprende: modelar dicho
objeto de personaje como un modelo (MTch) de una cierta figura;
operar el valor Z entre dicho modelo del objeto de personaje y dicho
punto de vista; y calcular dicha condición específica al comparar
el valor Z de dicho modelo del objeto de personaje y dicho valor Z
almacenado en dicho búfer.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10-375926 | 1998-12-19 | ||
JP37592698A JP4240343B2 (ja) | 1998-12-19 | 1998-12-19 | 画像生成装置および画像生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2284279T3 true ES2284279T3 (es) | 2007-11-01 |
Family
ID=18506286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES99959923T Expired - Lifetime ES2284279T3 (es) | 1998-12-19 | 1999-12-20 | Dispositivo generador de imagen y metodo generador de imagen. |
Country Status (8)
Country | Link |
---|---|
US (2) | US7479958B1 (es) |
EP (2) | EP1587034A3 (es) |
JP (1) | JP4240343B2 (es) |
KR (2) | KR100641671B1 (es) |
CN (2) | CN1230789C (es) |
DE (1) | DE69934972T2 (es) |
ES (1) | ES2284279T3 (es) |
WO (1) | WO2000038116A1 (es) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6452600B1 (en) | 1999-10-28 | 2002-09-17 | Nintendo Co., Ltd. | Graphics system interface |
US6618048B1 (en) | 1999-10-28 | 2003-09-09 | Nintendo Co., Ltd. | 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components |
US6411301B1 (en) | 1999-10-28 | 2002-06-25 | Nintendo Co., Ltd. | Graphics system interface |
US6857061B1 (en) | 2000-04-07 | 2005-02-15 | Nintendo Co., Ltd. | Method and apparatus for obtaining a scalar value directly from a vector register |
US6859862B1 (en) | 2000-04-07 | 2005-02-22 | Nintendo Co., Ltd. | Method and apparatus for software management of on-chip cache |
US7119813B1 (en) | 2000-06-02 | 2006-10-10 | Nintendo Co., Ltd. | Variable bit field encoding |
US6707458B1 (en) | 2000-08-23 | 2004-03-16 | Nintendo Co., Ltd. | Method and apparatus for texture tiling in a graphics system |
US6606689B1 (en) | 2000-08-23 | 2003-08-12 | Nintendo Co., Ltd. | Method and apparatus for pre-caching data in audio memory |
US6937245B1 (en) | 2000-08-23 | 2005-08-30 | Nintendo Co., Ltd. | Graphics system with embedded frame buffer having reconfigurable pixel formats |
US6636214B1 (en) | 2000-08-23 | 2003-10-21 | Nintendo Co., Ltd. | Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode |
US6825851B1 (en) | 2000-08-23 | 2004-11-30 | Nintendo Co., Ltd. | Method and apparatus for environment-mapped bump-mapping in a graphics system |
US7134960B1 (en) | 2000-08-23 | 2006-11-14 | Nintendo Co., Ltd. | External interfaces for a 3D graphics system |
US6580430B1 (en) | 2000-08-23 | 2003-06-17 | Nintendo Co., Ltd. | Method and apparatus for providing improved fog effects in a graphics system |
US7538772B1 (en) | 2000-08-23 | 2009-05-26 | Nintendo Co., Ltd. | Graphics processing system with enhanced memory controller |
US6664962B1 (en) | 2000-08-23 | 2003-12-16 | Nintendo Co., Ltd. | Shadow mapping in a low cost graphics system |
US6664958B1 (en) | 2000-08-23 | 2003-12-16 | Nintendo Co., Ltd. | Z-texturing |
US6639595B1 (en) | 2000-08-23 | 2003-10-28 | Nintendo Co., Ltd. | Achromatic lighting in a graphics system and method |
US6700586B1 (en) | 2000-08-23 | 2004-03-02 | Nintendo Co., Ltd. | Low cost graphics with stitching processing hardware support for skeletal animation |
US6980218B1 (en) | 2000-08-23 | 2005-12-27 | Nintendo Co., Ltd. | Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system |
US7196710B1 (en) | 2000-08-23 | 2007-03-27 | Nintendo Co., Ltd. | Method and apparatus for buffering graphics data in a graphics system |
US6609977B1 (en) | 2000-08-23 | 2003-08-26 | Nintendo Co., Ltd. | External interfaces for a 3D graphics system |
JP2002153656A (ja) * | 2000-11-22 | 2002-05-28 | Heiwa Corp | 遊技機 |
US6697074B2 (en) | 2000-11-28 | 2004-02-24 | Nintendo Co., Ltd. | Graphics system interface |
JP3794681B2 (ja) | 2001-11-29 | 2006-07-05 | 株式会社スクウェア・エニックス | ビデオゲーム処理方法及びビデオゲーム処理装置及びビデオゲームのプログラム及びビデオゲームのプログラムを記録した記録媒体 |
JP3843242B2 (ja) | 2002-02-28 | 2006-11-08 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体、およびゲーム装置 |
KR100813296B1 (ko) * | 2006-01-31 | 2008-03-13 | (주)넥스트플레이 | 3차원 실시간 그래픽을 위한 2차원 아바타를 제작하고표시하는 방법 |
JP3944521B2 (ja) * | 2006-04-17 | 2007-07-11 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
JP4346625B2 (ja) * | 2006-04-28 | 2009-10-21 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、およびビデオゲーム処理プログラム |
KR100925512B1 (ko) | 2007-12-26 | 2009-11-06 | 에스케이커뮤니케이션즈 주식회사 | 가상현실 서비스를 위한 이동 공간 관리 방법 |
JP2009301228A (ja) * | 2008-06-11 | 2009-12-24 | Sega Corp | 遮蔽データ生成方法、モデル描画方法、遮蔽データ生成装置、モデル描画装置、遮蔽データ生成プログラムおよびモデル描画プログラム |
KR20090012278A (ko) * | 2009-01-12 | 2009-02-02 | (주)딜리젼 | 모바일 게임의 게임 화면 구성 방법 및 이 방법이 실행 가능한 프로그램으로 기록된 기록 매체 |
JP5469379B2 (ja) * | 2009-05-28 | 2014-04-16 | 任天堂株式会社 | ゲームプログラム、および、ゲーム装置 |
JP5340900B2 (ja) * | 2009-12-03 | 2013-11-13 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト管理装置及びオブジェクト管理方法 |
JP5578719B2 (ja) * | 2010-09-17 | 2014-08-27 | 株式会社 ミックウェア | 情報システム、端末装置、広告出力方法、およびプログラム |
JP5677050B2 (ja) * | 2010-11-26 | 2015-02-25 | 株式会社カプコン | ゲームプログラム及びゲーム装置 |
JP5762637B2 (ja) * | 2012-07-30 | 2015-08-12 | 三菱電機株式会社 | 地図表示装置 |
US9508195B2 (en) * | 2014-09-03 | 2016-11-29 | Microsoft Technology Licensing, Llc | Management of content in a 3D holographic environment |
CN108510590A (zh) * | 2017-02-24 | 2018-09-07 | 北京图森未来科技有限公司 | 一种生成三维边界框的方法及装置 |
US11442591B2 (en) * | 2018-04-09 | 2022-09-13 | Lockheed Martin Corporation | System, method, computer readable medium, and viewer-interface for prioritized selection of mutually occluding objects in a virtual environment |
CN109364478B (zh) | 2018-09-07 | 2022-08-23 | 深圳市腾讯信息技术有限公司 | 信息同步方法、装置及存储介质 |
US11494742B2 (en) * | 2019-09-05 | 2022-11-08 | International Business Machines Corporation | Dynamic workplace set-up using participant preferences |
CN111752434A (zh) * | 2020-06-23 | 2020-10-09 | 万鹤龄 | 一种游戏视野变换方法 |
JP2024034640A (ja) * | 2022-09-01 | 2024-03-13 | 株式会社コロプラ | プログラム及びシステム |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5255207C1 (en) * | 1988-06-16 | 2001-01-09 | Larry Cornwell | Method for designing and detailing cabinets |
US5249264A (en) * | 1988-11-14 | 1993-09-28 | International Business Machines Corporation | Image display method and apparatus |
FR2641881A1 (fr) * | 1989-01-17 | 1990-07-20 | Mevel Denis | Appareil de preparation, avec presentation visuelle synthetique d'un amenagement |
GB2270243B (en) * | 1992-08-26 | 1996-02-28 | Namco Ltd | Image synthesizing system |
US6411266B1 (en) * | 1993-08-23 | 2002-06-25 | Francis J. Maguire, Jr. | Apparatus and method for providing images of real and virtual objects in a head mounted display |
US5559937A (en) * | 1993-08-28 | 1996-09-24 | Namco Ltd. | Clipping processing device, three-dimensional simulator device, and clipping processing method |
US5712964A (en) * | 1993-09-29 | 1998-01-27 | Fujitsu Limited | Computer graphics data display device and method based on a high-speed generation of a changed image |
JP3214776B2 (ja) * | 1994-04-13 | 2001-10-02 | 株式会社東芝 | 仮想環境表示装置および方法 |
US5596686A (en) * | 1994-04-21 | 1997-01-21 | Silicon Engines, Inc. | Method and apparatus for simultaneous parallel query graphics rendering Z-coordinate buffer |
JP3166514B2 (ja) | 1994-04-22 | 2001-05-14 | 凸版印刷株式会社 | 間取り図立体表示システムおよび住宅模型作成システム |
JPH07296030A (ja) | 1994-04-25 | 1995-11-10 | Tokyo Gas Co Ltd | 作業面形成装置 |
AUPM701394A0 (en) * | 1994-07-22 | 1994-08-18 | Monash University | A graphical display system |
US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US5764232A (en) * | 1994-09-16 | 1998-06-09 | Namco Ltd. | Three-dimensional simulator apparatus and image synthesis method |
JP2763499B2 (ja) * | 1994-11-30 | 1998-06-11 | 株式会社ナムコ | 画像合成装置及び画像合成方法 |
JP3559335B2 (ja) * | 1995-02-03 | 2004-09-02 | 富士通株式会社 | 三次元画像処理装置 |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5601431A (en) * | 1995-05-03 | 1997-02-11 | Howard; Cheryl | Interior design system and method |
US6016147A (en) * | 1995-05-08 | 2000-01-18 | Autodesk, Inc. | Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device |
CA2180899A1 (en) * | 1995-07-12 | 1997-01-13 | Yasuaki Honda | Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore |
US6064393A (en) * | 1995-08-04 | 2000-05-16 | Microsoft Corporation | Method for measuring the fidelity of warped image layer approximations in a real-time graphics rendering pipeline |
US5867166A (en) * | 1995-08-04 | 1999-02-02 | Microsoft Corporation | Method and system for generating images using Gsprites |
JPH09153146A (ja) * | 1995-09-28 | 1997-06-10 | Toshiba Corp | 仮想空間表示方法 |
US5764241A (en) * | 1995-11-30 | 1998-06-09 | Microsoft Corporation | Method and system for modeling and presenting integrated media with a declarative modeling language for representing reactive behavior |
DE69629917D1 (de) * | 1995-12-07 | 2003-10-16 | Sega Enterprises Kk | Bilderzeugungsapparat, bilderzeugungsverfahren, spielmaschine für das verfahren und medium |
JPH09317206A (ja) | 1996-05-30 | 1997-12-09 | Matsushita Electric Ind Co Ltd | 建物リフォーム支援装置 |
US5796395A (en) * | 1996-04-02 | 1998-08-18 | Wegener Internet Projects Bv | System for publishing and searching interests of individuals |
US5937081A (en) * | 1996-04-10 | 1999-08-10 | O'brill; Michael R. | Image composition system and method of using same |
US5751291A (en) * | 1996-07-26 | 1998-05-12 | Hewlett-Packard Company | System and method for accelerated occlusion culling |
US5923330A (en) * | 1996-08-12 | 1999-07-13 | Ncr Corporation | System and method for navigation and interaction in structured information spaces |
US5986674A (en) * | 1996-10-31 | 1999-11-16 | Namco. Ltd. | Three-dimensional game apparatus and information storage medium |
US5977978A (en) * | 1996-11-13 | 1999-11-02 | Platinum Technology Ip, Inc. | Interactive authoring of 3D scenes and movies |
JPH10198816A (ja) * | 1997-01-13 | 1998-07-31 | Mitsubishi Electric Corp | 情報処理システム及びネットワーク型情報処理システム |
JPH10255069A (ja) * | 1997-03-10 | 1998-09-25 | Canon Inc | 画像処理システム |
US6084590A (en) * | 1997-04-07 | 2000-07-04 | Synapix, Inc. | Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage |
US6058397A (en) * | 1997-04-08 | 2000-05-02 | Mitsubishi Electric Information Technology Center America, Inc. | 3D virtual environment creation management and delivery system |
US6215505B1 (en) * | 1997-06-20 | 2001-04-10 | Nippon Telegraph And Telephone Corporation | Scheme for interactive video manipulation and display of moving object on background image |
US6018348A (en) * | 1997-12-31 | 2000-01-25 | Intel Corporation | Method for visibility culling |
US6067096A (en) * | 1998-03-04 | 2000-05-23 | Nagle; John | Method and system for generating realistic collisions in graphical simulations |
US6738059B1 (en) * | 1998-12-18 | 2004-05-18 | Kabushiki Kaisha Sega Enterprises | Apparatus and methods for image processing using mixed display objects |
-
1998
- 1998-12-19 JP JP37592698A patent/JP4240343B2/ja not_active Expired - Fee Related
-
1999
- 1999-12-20 EP EP05075942A patent/EP1587034A3/en not_active Withdrawn
- 1999-12-20 KR KR1020047020704A patent/KR100641671B1/ko not_active IP Right Cessation
- 1999-12-20 WO PCT/JP1999/007154 patent/WO2000038116A1/ja not_active Application Discontinuation
- 1999-12-20 DE DE69934972T patent/DE69934972T2/de not_active Expired - Lifetime
- 1999-12-20 US US09/622,536 patent/US7479958B1/en not_active Expired - Fee Related
- 1999-12-20 EP EP99959923A patent/EP1063615B1/en not_active Expired - Lifetime
- 1999-12-20 CN CNB998031070A patent/CN1230789C/zh not_active Expired - Fee Related
- 1999-12-20 KR KR1020007009113A patent/KR100740072B1/ko not_active IP Right Cessation
- 1999-12-20 ES ES99959923T patent/ES2284279T3/es not_active Expired - Lifetime
- 1999-12-20 CN CNA2004100386569A patent/CN1595415A/zh active Pending
-
2007
- 2007-07-16 US US11/826,421 patent/US20070262986A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
KR100641671B1 (ko) | 2006-11-03 |
US20070262986A1 (en) | 2007-11-15 |
JP4240343B2 (ja) | 2009-03-18 |
KR20010041074A (ko) | 2001-05-15 |
EP1063615A4 (en) | 2003-06-04 |
EP1063615A1 (en) | 2000-12-27 |
CN1291318A (zh) | 2001-04-11 |
CN1230789C (zh) | 2005-12-07 |
EP1063615B1 (en) | 2007-01-24 |
EP1587034A2 (en) | 2005-10-19 |
DE69934972T2 (de) | 2007-10-25 |
US7479958B1 (en) | 2009-01-20 |
CN1595415A (zh) | 2005-03-16 |
EP1587034A3 (en) | 2011-04-13 |
WO2000038116A1 (en) | 2000-06-29 |
KR100740072B1 (ko) | 2007-07-18 |
JP2000182077A (ja) | 2000-06-30 |
KR20050007430A (ko) | 2005-01-17 |
DE69934972D1 (de) | 2007-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2284279T3 (es) | Dispositivo generador de imagen y metodo generador de imagen. | |
ES2260830T3 (es) | Dispositivo y metodo para el procesamiento de imagenes. | |
ES2332271T3 (es) | Dispositivo de procesamiento de graficos, metodo de procesamiento de graficos, maquina de juegos y medio de almacenamiento. | |
US6831659B1 (en) | Image processor unit, game machine, image processing method, and recording medium | |
US5947823A (en) | Three-dimensional game apparatus and image synthesizing method | |
EP0840256B1 (en) | Apparatus and method for generating skeleton-based dynamic picture images as well as medium storing therein program for generation of such picture images | |
US6319129B1 (en) | Method and a video game system of generating a field map | |
US20070126734A1 (en) | Image generation program product and image processing device | |
Greuter et al. | Undiscovered worlds–towards a framework for real-time procedural world generation | |
Gaitatzes et al. | Virtual reality systems and applications: the ancient olympic games | |
JP3586460B2 (ja) | 3次元ゲーム装置及び画像合成方法 | |
JP4688405B2 (ja) | プログラム、情報記憶媒体及びゲーム装置 | |
Rizopoulos et al. | Journeys, Maps, Dungeons: Navigating Narrative and Cinematic Space in Open World Digital Games | |
JP3511597B2 (ja) | プログラム、情報記憶媒体およびゲーム装置 | |
JP3990543B2 (ja) | プログラム、情報記憶媒体、および、ゲーム装置 | |
Andreoli et al. | Some Real Experiences in Developing Virtual Environments | |
JP3547430B2 (ja) | 3次元ゲーム装置及び画像合成方法 | |
CN118662908A (zh) | 一种基于象棋游戏的居住环境构造系统 | |
Eberle | Reading the Melbourne Museum | |
JP2006195902A (ja) | プログラム、情報記憶媒体及び画像生成システム |