ES2284279T3 - Dispositivo generador de imagen y metodo generador de imagen. - Google Patents

Dispositivo generador de imagen y metodo generador de imagen. Download PDF

Info

Publication number
ES2284279T3
ES2284279T3 ES99959923T ES99959923T ES2284279T3 ES 2284279 T3 ES2284279 T3 ES 2284279T3 ES 99959923 T ES99959923 T ES 99959923T ES 99959923 T ES99959923 T ES 99959923T ES 2284279 T3 ES2284279 T3 ES 2284279T3
Authority
ES
Spain
Prior art keywords
point
model
view
value
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES99959923T
Other languages
English (en)
Inventor
Yu Sega Enterprises Ltd. SUZUKI
Takeshi Sega Enterprises Ltd. HIRAI
Tomoo Gargoyle Mechanics Inc. KONDOU
Kazunori Masuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Application granted granted Critical
Publication of ES2284279T3 publication Critical patent/ES2284279T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6027Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Abstract

Un dispositivo generador de imagen para formar un objeto de fondo (OTa, OTb, OTc) preparado con datos del polígono como una parte del fondo de un espacio tridimensional virtual y generar imágenes de movimientos de un objeto de personaje (OTch) preparado con datos del polígono en dicho espacio tridimensional virtual visto desde un punto de vista móvil, dicho dispositivo comprendiendo medios de control para incorporar como el objeto de proyección dicho objeto de personaje dentro de un campo visual visto desde dicho punto de vista sólo cuando dicho objeto de personaje está posicionado en el espacio más cercano a dicho punto de vista que dicho objeto de fondo visto desde dicho punto de vista, donde dichos medios de control comprenden: medios de operación del campo visual para operar el campo visual visto desde dicho punto de vista; especificar medios para especificar dicho objeto de fondo situado dentro de dicho campo visual y observable desde dicho punto de vista; juzgar medios para juzgar unacondición específica de dicho objeto de personaje dentro de dicho campo visual, dicha condición específica indicando que dicho objeto de personaje está situado en el espacio más cercano a dicho punto de vista que dicho objeto de fondo especificado por dichos medios especificativos; y desplegar medios determinantes para incorporar dicho objeto de personaje como el objeto de proyección sólo cuando dicha condición específica es juzgada por dichos medios juzgadores, dichos medios especificativos comprenden: medios modeladores para modelar dicho objeto de fondo como un objeto de fondo de una cierta figura; medios de operación del valor Z para operar el valor Z entre dicho modelo del objeto de fondo y dicho punto de vista; medios establecedores para establecer una pluralidad de áreas divididas (RG) de una pantalla de proyección; medios de búsqueda para buscar dicho modelo del objeto de fondo desde dicho punto de vista vía ciertas áreas entre dicha pluralidad de áreas, dichas ciertas áreas formanal menos una línea de áreas (LM); y medios de almacenamiento del valor Z para almacenar dicho valor Z de dicho modelo del objeto de fondo inicialmente buscado por dichos medios de búsqueda; y dichos medios juzgadores comprenden: un medio de modelado separado para modelar dicho objeto de personaje como un modelo (MTch) de una cierta figura; un medio de operación separado del valor Z para operar el valor Z entre dicho modelo del objeto de personaje y dicho punto de vista; y medios de cálculo para calcular dicha condición específica al comparar el valor Z de dicho modelo del objeto de personaje y dicho valor Z almacenado en dicho búfer.

Description

Dispositivo generador de imagen y método generador de imagen.
Campo técnico
La presente invención guarda relación con un dispositivo generador de imagen y un método generador de imagen, y particularmente un dispositivo generador de imagen y un método generador de imagen adecuados para juegos de roles (RPG) jugados interactivamente con jugadores consecuentemente con el progreso de una historia en un espacio tridimensional virtual.
Antecedentes de la técnica
En consecuencia con el desarrollo reciente en la tecnología de la computación gráfica, los dispositivos de simulación y los dispositivos de juego se han hecho ampliamente populares tanto para el uso comercial como el doméstico. Como un género de este dispositivo de juego está el juego de roles (a partir de ahora llamado RPG) en donde se le da curso a una historia en un espacio virtual tridimensional (también llamado el espacio de juego), un personaje simulando al jugador juega un juego prescrito en varios puntos importantes en la historia y, de acuerdo con los resultados del juego, progresa el juego mientras cambia el desarrollo del juego para cada una de tales ocasiones. Los RPGs han ganado popularidad por presentar efectos diferentes a otros meros juegos de competición o juegos de batalla.
Los dispositivos de juego que conducen tales RPGs realizan los diversos procesamientos de imágenes descritos más abajo con vistas a asegurar el entretenimiento del juego y conducir vastas cargas de operaciones de juego.
Como primer procesamiento, hay un método para cambiar el color y la apariencia del cielo de acuerdo con el período de tiempo en que el jugador está al jugar el juego. Este procesamiento, por ejemplo, es conducido por la CPU dentro del dispositivo de juego leyendo datos de imagen o parámetros representando el cielo de fondo en lo referente a una tabla basada en el valor del reloj del reloj interno, y proyectando estos datos de imagen leídos, o, proyectando los datos de imagen correspondientes al parámetro leído. Por consiguiente, lo que se pretende es la creación de un espacio de juego tan real como sea posible para evocar el interés de los jugadores.
Como segundo procesamiento, en el caso de un dispositivo de juego para conducir RPGs, un jugador recibe información operacional en puntos importantes (posiciones estratégicas) durante el desarrollo del juego y, por ejemplo, implementa interactivamente un juego de acción (modo manual) por un lado, y la historia para conectar tales puntos importantes es obligatoriamente adelantada (modo automático) por la CPU puesto que es necesario adelantar la historia en vista de las características de los RPGs. Por consiguiente, es posible asegurar el curso de la historia en consideración del juego siendo un RPG.
Como tercer procesamiento, con respecto a la proyección de imagen del dispositivo de juego, generalmente, los objetos son formados por polígonos y proyectados. Así, mientras más polígonos, mayor es la carga operacional para operar la situación proyectada, y el procesamiento de CPU se volverá pesado. Aquí, generalmente, los objetos fuera del rango de proyección del monitor; esto es, objetos posicionados fuera del campo visual vistos desde un punto de vista de cámara virtual en el espacio de juego, no son proyectados. Además, en una proyección tridimensional de polígonos, para los objetos posicionados más lejos que una distancia predeterminada en la pantalla, el procesamiento de recorte (proceso de recorte de lejanía) para la no operación de tales datos de proyección es realizado. Además, el procesamiento usando el método de ordenamiento del valor z para no proyectar un polígono detrás de un cierto polígono cuando es visto desde un punto de vista; por ejemplo, procesamiento de sombra, es implementado en unidades de polígono que forman el objeto.
Como cuarto procesamiento, hay un proceso de colocación de cuartos (espacio subdividido) dentro de un edificio (casa, almacén, restos de un edificio, etc.), el cual es frecuentemente requerido para proporcionar el ambiente de juego de los RPGs. Con respecto a este esquema, qué objeto es posicionado en qué posición en el cuarto es determinado, todos los cuartos son previamente colocados, y tales datos del esquema se guardan en la memoria. Por otro lado, al crear polígonos de mapas (cafés, túneles) para el personaje a mover en juegos tales como un RPG, las figuras fueron previamente puestas en las respectivas unidades de polígono, y almacenadas en la memoria como datos de polígono.
Aunque un cierto grado de efecto puede ser obtenido en respuesta a las necesidades de querer suministrar imágenes llenas de realidad y ambiente, y asegurar un cierto entretenimiento de juego como consecuencia de los diversos procesamientos de imagen descritos arriba, de ningún modo puede decirse que esto sea suficiente.
Por ejemplo, con dicho primer procesamiento de imagen que cambia el color y apariencia del cielo de acuerdo al período de tiempo, es posible proporcionar al jugador un sentido de tiempo, tales como el día o la noche, hasta cierto punto. No obstante, el ambiente natural del exterior no está determinado sólo con el control del modo de proyección del cielo, y se requiere una proyección de un ambiente natural más realista.
En el caso del segundo procesamiento de imagen, la proporción del curso de la historia (modo automático) como un RPG y la acción (modo manual) para jugar un juego de acción es determinada por adelantado. Así, carece de versatilidad en términos del jugador no ser capaz de cambiar entre los modos de acuerdo a sus sentimientos en tal tiempo, y es también inadaptable en términos del proveedor del dispositivo de juego no ser capaz de, después de la manufactura de eso, conducir el juego al cambiar la proporción de acuerdo a las características del mercado. El largo del juego procesado en tiempo real entre el jugador; es decir, el modo manual, es un factor que se refleja en la dificultad del juego. Por consiguiente, también quiere decir que habrá menos selectividad para fijar la dificultad del juego.
Sólo con el proceso de recorte y sombreado de polígonos de acuerdo al procesamiento de la tercera imagen, la carga operacional de acuerdo al juicio de la proyección/ no-proyección es aún pesada y hay muchas demandas para la mejora del procesamiento de alta velocidad aligerando la carga operacional.
Por ejemplo, en un juego de roles, supóngase una escena donde Godzilla deambula en un área que tiene un número de edificios de gran altura y lucha con el jugador. Los respectivos edificios son objetos creados con datos de polígonos y tratados como parte del fondo, y Godzilla es también tratado como un objeto de personaje creado con datos de polígonos. En esta escena, si Godzilla está posicionado delante de los edificios, el funcionamiento que da el procesamiento para proyectar a Godzilla con los edificios como fondo es natural, pero no es necesario proyectar a Godzilla cuando está completamente oculto detrás de un edificio. No obstante, con un dispositivo convencional de sombreado, el valor Z debe ser obtenido en unidades de polígono con el método de ordenamiento de Z considerando al oculto Godzilla y los edificios, y comparados después. Esta comparación del valor Z en unidades de polígono entre objetos aumenta considerablemente la carga operacional. Cuando la carga es pesada como consecuencia del procesamiento de sombreado como está descrito anteriormente, a menos que la velocidad de procesamiento de la CPU sea aumentada, la capacidad operacional que puede ser cedida para otro procesamiento de juego será reducida. Además, incluso si el rendimiento del procesamiento puede ser aliviado con el método de ordenamiento de Z, el procesamiento de la geometría en la etapa previa no será aliviado, y no puede esperarse suficiente proyección de imagen con únicamente lo antedicho.
En el caso del cuarto procesamiento de imagen, el esquema de los cuartos requiere una vasta carga operacional. Por tanto, fueron adoptados métodos tales que no permiten la entrada en un cuarto donde ningún acontecimiento ocurre o que buscan la simplificación de la operación haciendo el esquema de los respectivos cuartos igual. Esto, sin embargo, causa un sentimiento sumamente antinatural para el jugador. Aunque sería posible usar patrones similares para el proceso del esquema hasta cierto grado, si el ambiente de los cuartos es similar, serán creados cuartos parecidos unos a otros. Esta será una causa para que un jugador pierda interés en el juego. Al preparar un mapa, el mapa más grande, la carga operacional necesaria para tal preparación será vasta por lo común, y por otro lado es necesario asegurar una memoria con un tamaño de almacenamiento grande. Si la memoria o el camino de transmisión es un disco mediano un circuito telefónico con una velocidad de lectura comparativamente lenta, o si la capacidad de almacenamiento de la memoria para almacenar los datos leídos es pequeña, el tiempo de lectura y la frecuencia de lectura aumentarán, y este incremento en el procesamiento da insatisfacción para los jugadores.
La presente invención fue ideada en vistas de dichas circunstancias encontradas por el estado del arte anterior, y el primer objetivo de esta es proporcionar un juego capaz de reducir la carga operacional al juzgar la proyección o no del objeto.
US 5.596.686 revela un aparato y un método para un rastreo paralelo de la memoria de coordenadas Z. Las comparaciones de magnitudes aritméticas son realizadas entre valores coordenados de un objeto gráfico seleccionado y esos otros objetos en una escena de imagen que puede o no ocultar el objeto gráfico seleccionado.
Divulgación de la invención
De acuerdo a un aspecto, la presente invención proporciona un dispositivo generador de imagen para formar un objeto de fondo (OTa, OTb, OTc) preparado con datos de polígono como una parte del fondo de un el espacio tridimensional virtual y generar imágenes de movimientos de un objeto de personaje (OTch) preparado con datos de polígono en dicho espacio tridimensional virtual visto desde un punto de vista móvil, dicho dispositivo comprendiendo medios de control para incorporar como el objeto de proyección dicho objeto de personaje dentro de un campo visual visto desde dicho punto de vista sólo cuando dicho objeto de personaje está posicionado en el espacio más cercano a dicho punto de vista que dicho objeto de fondo visto desde dicho punto de vista,
donde dichos medios de control comprenden: medios de operación del campo visual para operar el campo visual visto desde dicho punto de vista; medios de especificación para especificar dicho objeto de fondo posicionado dentro de dicho campo visual y observable desde dicho punto de vista; medios de juicio para juzgar una condición específica de dicho objeto de personaje dentro de dicho campo visual, dicha condición específica indicando que dicho objeto de personaje está posicionado espacialmente más cercano a dicho punto de vista que dicho objeto de fondo especificado por dichos medios especificativos; y medios que determinan la proyección para incorporar dicho objeto de personaje como el objeto de proyección sólo cuando dicha condición específica es juzgada por dichos medios juzgadores,
dichos medios especificativos comprenden: medios modeladores para modelar dicho objeto de fondo como un modelo del objeto de fondo de una cierta figura; medios de operación del valor Z para operar el valor Z entre dicho modelo del objeto de fondo y dicho punto de vista; medio establecedores para establecer una pluralidad de áreas divididas (RG) de una pantalla de proyección; medios buscadores para buscar dicho modelo del objeto de fondo desde dicho punto de vista vía ciertas áreas entre dicha pluralidad de áreas, dicho ciertas áreas formando al menos una línea de áreas (LM); y medios de almacenamiento del valor Z para almacenar dicho valor Z de dicho modelo del objeto de fondo inicialmente buscado por dichos medios de búsqueda; y
dichos medios juzgadores comprenden: un medio modelador separado para modelar dicho objeto de personaje como un modelo (MTch) de una cierta figura; un medio de operación de valor Z separado para operar el valor Z entre dicho modelo del objeto de personaje y dicho punto de vista; y medios calculadores para calcular dicha condición específica al comparar el valor Z de dicho modelo del objeto de personaje y dicho valor Z almacenado en dicho
búfer.
En una realización, el medio modelador es medio para modelar un modelo esférico, el cual está definido por un punto representativo de un cuerpo sólido formando el modelo de fondo y un radio correspondiente a la distancia desde el punto representativo hasta el borde del modelo, como el modelo de una cierta figura; y el medio modelador separado es medio para modelar un modelo esférico, el cual está definido por un punto representativo de un cuerpo sólido formando el modelo de personaje y un radio correspondiente a la distancia desde el punto representativo hasta el borde del modelo, como el modelo de una cierta figura.
Por otra parte, es preferido que las áreas divididas sean áreas que dividan la pantalla de proyección en una figura de tablero, y al menos una línea con valor de área está figurada con una fila con valor de área cruzando el área del tablero en una dirección horizontal. La anteriormente mencionada al menos una fila con valor de área, por ejemplo, es una línea con valor de área aproximadamente correspondiente al nivel del punto de vista. Más preferentemente, el medio de almacenamiento del valor Z es medio para almacenar como el valor Z el valor predeterminado correspondiente a una distancia remota puesta por delante del área para la cual el modelo del objeto rezagado no podría ser encontrado por los medios de búsqueda.
Por ejemplo, el objeto de fondo puede ser uno de una pluralidad de objetos de fondo organizados en el espacio tridimensional virtual, y el objeto de fondo puede ser una estructura artificial, por ejemplo hecha por el hombre, en un espacio real.
En otro aspecto, la presente invención proporciona un método generador de imagen para figurar un objeto de fondo (OTa, OTb, OTc) preparado con datos del polígono como una parte del fondo de un espacio tridimensional virtual y generar imágenes de movimientos de un objeto de personaje (OTch) preparado con datos del polígono en dicho espacio tridimensional virtual visto desde un punto de vista móvil, dicho método comprendiendo los pasos de:
operar el campo visual visto desde dicho punto de vista; especificar dicho objeto de fondo posicionado dentro de dicho campo visual y observable desde dicho punto de vista; juzgar una condición específica de dicho objeto de personaje dentro de dicho campo visual, dicha condición específica indicando que dicho objeto de personaje está posicionado en el espacio más cercano del lado del punto de vista que dicho objeto de fondo especificado con dichos medios especificativos; e incorporar dicho objeto de personaje como el objeto de proyección sólo cuando dicha condición específica es juzgada por dichos medios juzgadores, donde:
dicho paso especificativo comprende dicho objeto de fondo como un modelo del objeto de fondo de una cierta figura; operar el valor Z entre dicho modelo del objeto de fondo y dicho punto de vista; establecer una pluralidad de áreas divididas (RG) de una pantalla de proyección; buscar dicho modelo del objeto de fondo desde dicho punto de vista vía ciertas áreas entre dicha pluralidad de áreas, dichas ciertas áreas formando al menos una línea de áreas (LM); y almacenar dicho valor Z del modelo del objeto de fondo inicialmente buscado;
y dicho paso juzgador comprende: modelar dicho objeto de personaje como un modelo (MTch) de una cierta figura; operar el valor Z entre dicho modelo del objeto de personaje y dicho punto de vista; y calcular dicha condición específica al comparar el valor Z de dicho modelo del objeto de personaje y dicho valor Z almacenado en dicho búfer.
\vskip1.000000\baselineskip
Breve descripción de los dibujos
La Fig. 1 es un diagrama de bloques de electricidad del tablero de procesamiento de juego del dispositivo de juego como el dispositivo de procesamiento de imágenes de acuerdo a una realización de la presente invención. La Fig. 2 es un diagrama de flujo esquemático mostrando la rutina del esquema de cuarto. La Fig 3 es un diagrama explicando el esquema de cuarto. La Fig. 4 es un diagrama de flujo esquemático mostrando la rutina de selección del modo proporción. La Fig. 5 es un diagrama típico explicando la tabla del modo comparación. La Fig 6 es un diagrama de flujo esquemático mostrando la rutina del RPG. La Fig. 7 es un diagrama de flujo esquemático mostrando la subrutina del procesamiento del clima. La Fig. 8 es un diagrama típico explicando la tabla del clima. La Fig. 9 es un diagrama ilustrando el formato de los datos del clima. La Fig. 10 es un diagrama de flujo mostrando parte de la subrutina del procesamiento de recorte por ocultamiento. La Fig. 11 es un diagrama de flujo mostrando una parte de la subrutina del procesamiento de recorte por ocultamiento. La Fig. 12 es un diagrama explicando la relación de la posición entre el punto de vista, el campo visual, el objeto, y el modelo de objeto sobre el plano XZ del sistema de coordenadas mundial (espacio de juego). La Fig. 13 es un diagrama explicando el modelado de un objeto en un modelo esférico. La Fig. 14 es un diagrama explicando un ejemplo de una pantalla de proyección. La Fig. 15 es un diagrama explicando la relación de la posición de la pantalla de proyección, el área dividida de acuerdo con eso, y el modelo del objeto. La Fig. 16 es el segundo diagrama de bloques del hardware empleado en la presente invención.
Mejor manera para llevar a cabo la invención
Un dispositivo de juego de acuerdo a una realización de la presente invención es ahora descrito con referencia a las ilustraciones. Aunque la explicación de este dispositivo de juego está hecha en el modo de jugar un RPG (juego de roles), los contenidos de juego a ser ejecutados por el dispositivo de juego de acuerdo a la presente invención no están necesariamente limitados a los RPG, y en consecuencia con la esencia de las descripciones en las reivindicaciones, pudiera ser aplicado a juegos adecuados tales como juegos de combate, juegos con pelota, etcétera.
La Fig. 1 muestra un diagrama de bloques del dispositivo de juego de acuerdo a la realización presente. Este dispositivo de juego comprende un tablero de procesamiento de juego 10, dispositivo de entrada 11, dispositivo de salida 12, y monitor de TV 13. El dispositivo de entrada 11 es usado por el jugador para introducir información de la selección del modo de proporción descrito más tarde para la preparación de comienzo de juego e introducir información de operación en el modo manual de un juego de roles, y comprende una palanca de operación, botón de operación, interruptor de cambio de vista, etcétera. El dispositivo de salida 12 comprende un indicador para hacer indicaciones referentes al juego, y varias lámparas.
Como se muestra en la Fig. 1, el tablero de procesamiento de juego 10 comprende un reloj no mostrado, así como también un contador 100, CPU (Unidad Central De Procesamiento) 101, ROM 102, RAM 103, memoria de recorte por ocultamiento 103A, dispositivo de sonido 104, interfaz de entrada/salida 106, dispositivo de operación de desplazamiento de datos 107, coprocesador (dispositivo de procesamiento operacional auxiliar) 108, ROM de datos de figura 109, geometrizador 110, ROM de datos de figura 111, dispositivo de dibujo 112, ROM de datos de textura 113, RAM de la textura 114, memoria del marco 115, dispositivo que sintetiza imagen 116, y el convertidor D/A 117.
Entre lo antedicho, la CPU 101 es conectada, por una línea de bus, a la ROM 102 almacenando programas prescritos y programas de procesamiento de imágenes, RAM 103 almacenando datos de operación, el dispositivo de sonido 104, interfaz de entrada/salida 106, dispositivo de operación de desplazamiento de datos 107, coprocesador 108, y geometrizador 110. La RAM 103 debe funcionar para el búfer, y es usada para escribir varios comandos para el geometrizador (proyección de objetos, etc.) y escribir datos necesarios en operaciones diversas.
La interfaz de entrada/salida está conectada al dispositivo de entrada 11 y al dispositivo de salida 12, y las señales de operación del dispositivo de entrada 11 están incorporados en la CPU 101 como valores digitales. El dispositivo de sonido104 está conectado al parlante 14 a través del amplificador de potencia 105. Por consiguiente, las señales de sonido generadas en el dispositivo de sonido104 son fuertemente amplificadas, y salen del parlante 14 como sonido.
La CPU 101, basada en los programas internos de la ROM 102, lee las señales de operación del dispositivo de entrada 11 y los datos de terreno desde los datos de terreno de la ROM 109, o datos figura desde los datos figura de la ROM 111 (datos tridimensionales como "personajes" y "fondos como terrenos, cielo, diversas estructuras"), y realiza operaciones incluyendo cálculos de comportamiento (simulaciones) de personajes y cálculos de efectos especiales.
El cálculo del comportamiento es para simular el movimiento del personaje en un espacio tridimensional virtual. Con vistas a implementar este cálculo, después que los valores de las coordenadas de los polígonos del personaje en el valor tridimensional virtual están determinados, una matriz de conversión y datos de figura (datos de polígono) para convertir los valores de las coordenadas en un sistema de coordenadas bidimensional es son designados para el geometrizador 110. El ROM de datos de terreno 109 está conectado al coprocesador 108, y los datos predeterminados del terreno son entregados al coprocesador 108 y la CPU 101. El coprocesador 108 es principalmente responsable de las operaciones de punto flotante. De esta manera, como varias estimaciones son ejecutadas con el coprocesador 108 y los resultados de estas estimaciones les son proporcionadas a la CPU 101, la carga operacional de la CPU es
aliviada.
El geometrizador 110 está conectado al ROM de datos de figura 111 y dispositivo de dibujo 112. Como ya fue mencionado anteriormente, los datos de figura (datos tridimensionales de personajes, terrenos, y los fondos formados de los respectivos apogeos), formados de una pluralidad de polígonos están previamente almacenados en la ROM de datos de figura 111. Estos datos de figura se le entregan al geometrizador 110. El geometrizador 110 conduce la conversión de perspectiva de los datos de figura designados con la matriz de conversión enviada desde la CPU 101, y obtiene datos convertidos desde el sistema de coordenadas del espacio tridimensional al sistema de coordenadas del campo visual.
El dispositivo de dibujo 112 fija la textura para los datos de figura del sistema de coordenadas convertido del campo visual y les da salida hacia el búfer de marco 115. Para fijar tal textura, el dispositivo de dibujo 112 está conectado al ROM de datos de textura 113 y a la RAM del mapa de textura 114, y también al búfer de marco 115.
Aquí, datos de polígono querrá decir un grupo de datos de coordenadas relativas o absolutas de los respectivos apogeos de polígonos (poligonal: principalmente triángulos y cuadriláteros) formados de un agregado de una pluralidad de apogeos. La ROM de datos de terreno 109 almacena datos de polígono que son considerados comparativamente groseros y suficientes al ejecutar las estimaciones prescriptas (estimaciones de colisión, etc.). Entretanto, la ROM de datos de figura 111 almacena datos de polígono que son considerados más precisos en relación a pantallas que estructuran figuras tales como enemigos y fondos.
El dispositivo de operación de desplazamiento de datos 107 calcula datos de pantallas de desplazamiento (almacenados en la ROM 102) de letras y cosas por el estilo. Este dispositivo de operación 107 y el búfer de marco 115 llegan al monitor de TV 13 mediante el dispositivo de procesamiento de imágenes 116 y el convertidor D/A 117. Por consiguiente, las pantallas de polígono (resultados de simulación) de personajes y terrenos (fondos) temporalmente almacenados en el búfer de marco 115 y las pantallas de desplazamiento tales como información de letras son sintetizadas de acuerdo con una prioridad designada, y los datos de imagen del marco final son generados para cada oportunidad fijada. Estos datos de imagen del marco son convertidos en señales analógicas con el convertidor D/A 117 y enviados al monitor TV 13, y proyectado como una pantalla de juego.
Este dispositivo de juego conduce un juego de roles (RPG) en consecuencia con el procesamiento de operación descrito posteriormente ejecutado principalmente con la CPU 101.
Rutina De Preparación Del Cuarto
En este dispositivo de juego, una rutina de preparación del cuarto es activada como una herramienta en la preparación de la aplicación, y hace un esquema de cuartos virtuales necesarios en un juego de roles. Además, el procesamiento de preparación del cuarto puede ser convenientemente activado durante la ejecución de la aplicación.
En consecuencia con esta rutina, son creadas reglas para organizar el mobiliario basadas en el proceso humano de pensamiento, el mobiliario y los artículos cotidianos están organizados utilizando números aleatorios, y son generados cuartos rellenos con aire de medios de vida en el espacio virtual de juego.
Específicamente, como se muestra en la Fig. 2, la CPU 101 controla las series de flujos para ejecutar lo antedicho. En primer lugar, son preparadas partes tales como paredes y mobiliario (paso S1). La efectividad es aumentada con más partes. Además, las condiciones del residente del cuarto se determinan (paso S2). Como condiciones para el residente, por ejemplo, pueden ser listadas el género, la edad, el estado civil, ascendencia familiar, condición de salud, capacidad financiera, etc. Después, el mobiliario es listado (paso S3). En otras palabras, una lista de muebles es compilada de acuerdo con las condiciones listadas en el paso S2.
Más tarde, los cuartos son divididos en áreas para cada característica de estos (el paso S4). Este ejemplo divisional es mostrado en la Fig. 3 (a). En el ejemplo divisional de este diagrama, las principales posiciones donde el mobiliario es colocado son las áreas 1, 3, 4, 6, 7 y 9. Con relación al área 8, esta dependerá de la forma de la ventana. Por ejemplo, aunque un objeto no puede ser colocado allí si esta ventana es una entrada para la terraza, puede haber casos donde es colocado el mobiliario teniendo una altura similar al borde inferior de la ventana. El área 5 es el área central para la vida diaria y una mesa es colocada allí como mobiliario. Por otro lado, como el residente no podrá acceder a la puerta, normalmente, el mobiliario no es colocado en el área 2. De acuerdo a esta división de área, como se muestra en la Fig. 3 (b), es decidida la dirección del mobiliario de las respectivas áreas. Las áreas 1, 3, 7 y 9 pueden ser seleccionadas desde dos direcciones, y las áreas 4, 6 y 8 sólo lo serán desde una dirección, y el área 5 lo será desde todas las direcciones (360°).
Después, el punto céntrico de la sala de estar es colocado (el paso S5). La TV y el audio (particularmente los parlantes) están hechos para encargarse de tal punto céntrico de vida. En esta realización, el punto céntrico de la sala de estar es decidido con las siguientes prioridades: centro de la mesa como primera prioridad, centro del sofá como segunda prioridad (cuando no hay mesa), y centro del cuarto como tercera prioridad (cuando hay ni mesa ni sofá). Como una excepción, si un atributo es proporcionado en donde el residente del cuarto vive bajo tratamiento médico, la posición de la almohada será considerada como el punto céntrico de vida.
El mobiliario es entonces organizado (paso S6). Como datos (parámetros) de acomodamiento del mobiliario están, por ejemplo:
Tipo de mobiliario: cama, gabinete, escritorio, mesa, TV, sofá, etc.
Tamaño: largo, ancho, altura del mobiliario.
Espacio de almacenamiento: (largo, ancho, altura) x margen.
Área acomodable: área divisional 1, 3, etc.
Grado, rango de edad: condiciones apropiadas
Por otro lado, las reglas de acomodamiento se establecen como sigue:
1) El local (área) de acomodamiento es decidido con una tabla de números aleatorios
Cambiando la semilla del número aleatorio, muchos cuartos diferentes pueden se preparados. 2) El mobiliario es acomodado en orden comenzando por los más grandes, y esos que no caben debido a la falta de espacio son desechados. 3) El mobiliario que no cabe en un área será acomodado al realizar el procesamiento de expansión de área cuando hay un espacio abierto en las áreas periféricas. Las áreas periféricas del área expandida se acortarán. 4) Cuando hay espacio extra en el área como resultado de acomodar el mobiliario, las áreas periféricas de estas son expandidas.
Finalmente, los artículos cotidianos y los objetos de pared son acomodados (paso S7). Particularmente, los ingredientes, la comida, la vajilla, las figurillas, la ropa, etc. están respectivamente acomodados en las áreas acomodables para cada uno de los tipos de estos. Además, los relojes de pared, pinturas, pósteres, calendarios, etc. quizás respectivamente acomodados en las áreas acomodables para cada uno de los tipos de estos
En consecuencia con la antedicha rutina de preparación de cuartos, el mobiliario no será acomodado en parte frontal de ventanas y puertas, y es posible establecer previamente las áreas (por ejemplo, la esquina del cuarto, por la pared, el centro, el cielo raso, etc.) donde el mobiliario debería ser básicamente acomodado en consecuencia con el tipo de este. Es también posible establecer previamente parámetros representando las características (ordenado, desordenado, desierto, abarrotado, etc.) de los cuartos respectivos y esquematizar los cuartos al designar tales parámetro. Es también posible ajustar la tabla de números aleatorios para tener estas clases de características. Como consecuencia, aunque grandes cantidades de tiempo y trabajo fueron convencionalmente requeridas al preparar numerosos cuartos ya que el cuarto entero fue tratado como un objeto, en esta realización, muchos cuartos pueden ser diseñados fácilmente y en un corto período de tiempo. Además, es también posible reflejar acertadamente el sentimiento análogo de los humanos para esquemas individuales. Por ejemplo, es menos probable para mesas y sillas ser acomodadas a lo largo de la pared o en una esquina del cuarto, y, contrariamente, el mobiliario grande como camas y estantes serán acomodados a lo largo de la pared o en la esquina del cuarto. Por otro lado, como la regla de acomodamiento de esta realización no es seleccionada entre patrones, la posibilidad de que un cuarto idéntico sea preparado está próxima a cero, y varios cuartos pueden prepararse en un período de tiempo sumamente corto. Esto también puede ser adoptado para la preparación del mapa de datos.
Procesamiento de la Rutina Principal
A continuación, es explicada la rutina principal ejecutada por la CPU 101 del dispositivo de juego de acuerdo a la presente realización. Esta rutina principal incluye la rutina de selección del modo de proporción procesada interactivamente entre el jugador antes del comienzo del juego, y la rutina de procesamiento del juego de roles (RPG) ejecutada después.
La rutina de selección del modo de proporción es en primer lugar explicada con referencia a las Figs. 4 y 5. Esta proporción de modo puede ser previamente establecida por el productor del software en consecuencia con la tendencia del mercado (por ejemplo, el uso doméstico, el uso comercial, o en consecuencia con el país de exportación) para el cual el software está siendo enviado.
Primeramente, la CPU 101 sentencia si la información de selección del modo de proporción fue proporcionada desde el dispositivo de entrada 11 (paso S11). Cuando esta información es proporcionada, la CPU 101 consulta a la "tabla de proporción de modo" en consecuencia con los contenidos de esta, y selecciona el modo de proporción (paso S12). En la tabla de proporción de modo, como se muestra en la Fig. 5, los modos de proporción A~C son puestos en correspondencia con los niveles de difícil, intermedio y fácil con relación a la dificultad del RPG. En el modo de proporción difícil A, el tiempo T2 del modo manual, el cual es el modo de progresión de tiempo real del RPG, es más largo que el marco de tiempo T1 del modo automático, el cual es el modo de progresión automática. En el modo proporción intermedio B, el tiempo TO del modo manual y el marco de tiempo TO del modo automático son iguales. En el modo proporción fácil C, el tiempo T1 del modo manual es más corto que marco de tiempo T1 del modo automático. De esta manera, es posible ajustar la dificultad del RPG con la proporción de la longitud de tiempo del modo manual.
Mientras tanto, en el paso S11, si ninguna información considerando la selección del modo de proporción es introducida por el jugador, la CPU 101 obligatoriamente asigna el modo de proporción B, el cual es de una dificultad intermedia (paso S13).
Consecuentemente, como la dificultad del RPG puede ser fácilmente establecida de acuerdo con la preferencia del jugador, es posible realzar el interés del jugador en el juego. Es posible además proporcionar fácilmente un dispositivo de juego teniendo un nivel de juego para todos los grupos de edades o en consideración de la tendencia del mercado. De esta manera, se logra mejorar la versatilidad y la funcionalidad general con un solo dispositivo.
A continuación, la rutina de procesamiento de RPG es explicada con referencia a las Figs. 6 hasta la 15. Esta rutina de procesamiento, por ejemplo, es repetidamente ejecutada por la CPU para cada campo ((\Deltat = 1/60 s.) en sincronización con una interrupción de proyección.
Además, la CPU 101 sentencia si el modo actual de progresión de juego del RPG es un modo automático (paso S21). Aquí, si está en el modo automático, entonces la CPU 101 ordena el procesamiento de proyección para progresar automáticamente la historia, la cual se avanza en consecuencia con este modo, y está a servicio para el siguiente procesamiento (paso S22). Los contenidos de proyección del procesamiento de proyección en este modo automático pueden ser establecidos para ser libremente reescribibles, y el modo de proyección no está limitado para una imagen completamente tridimensional, y puede ser una película.
Mientras tanto, si NO se está en el paso S21; esto es, cuando es considerado como estándose en el modo manual, la CPU 101 lee la información operacional del jugador proporcionada por el dispositivo de entrada 12, y opera la posición del punto de vista y el ángulo del campo visual de la cámara virtual en el espacio de juego desde tal información como se muestra en la Fig. 12 (pasos S23, S24). Después, la colisión estimada del objeto personaje y el fondo (incluyendo el objeto de atrás descrito más tarde) es conducida (paso S25).
Por otro lado, dependiendo del juego, hay tipos donde el elemento de RPG y el elemento de juegos de acción coexisten en un mismo juego. Esto es con el objetivo de dar versatilidad de juego a fin de que muchos jugadores puedan disfrutar el juego. Aquí, como el método de operación cambiará en consecuencia con los elementos respectivos de juego, pueden haber casos donde un jugador se ve forzado a jugar un elemento de juego en el que él / ella es débil. En consideración de tal caso, es preferible seleccionar por adelantado el elemento de juego preferido por el jugador, o el elemento de juego desaprobado por el jugador. Por consiguiente, el juego será cambiado para el modo manual cuando se esté en una escena de un elemento de juego en el cual el jugador es hábil, y cambiado para el modo automático cuando se esté en una escena de un elemento de juego en el cual el jugador no es tan hábil. O, si el productor del juego desea mostrar una escena específica durante el juego el mismo puede ser cambiado para el modo automático incluso si es un elemento de juego en el cual el jugador es hábil. Además, el tiempo y la frecuencia de cambio pueden ser ajustadas de modo que el jugador juegue al menos algún elemento de juego en el cual él / ella no es tan hábil.
Aquí, un objeto de personaje significará un objeto a ser movido en el espacio de juego, y preparado con datos de polígono. Por otro lado, un objeto de atrás significará un objeto de fondo el cual forma una parte del fondo pero que no se mueve, y también preparado con datos de polígono. Como un ejemplo, imaginemos una escena en el modo manual dónde Godzilla está caminando a lo largo de la ciudad entre edificios. Sería preferible estructurar a Godzilla como un objeto de personaje y los edificios (objetos estructurales) como objetos de atrás.
Además, los contenidos de juego incluyen una sección de acción así como la sección de RPG, y el método de operación también cambia. Es posible establecer ya sea el modo automático o el modo manual en consecuencia con el modo de juego.
A continuación, la CPU 101 ejecuta la subrutina de procesamiento del clima (paso S26). Un ejemplo de este procesamiento es explicado en detalle con referencia a las Figs. 7 hasta la 9.
La CPU 101 determina si un tiempo prescrito (i.e. una hora) ha transcurrido del procesamiento anterior de la interrupción del contador de tiempo y, si NO (una hora no ha transcurrido todavía), retorna el procesamiento a la Fig. 6 (paso S26-1). Sin embargo, si una hora transcurre mientras la CPU 101 está repitiendo el procesamiento y el resultado es SI, la CPU 101 decide la actual posición del punto de vista de la cámara, de la información operacional y luego decide el tiempo actual del valor del reloj, del reloj interno (paso S26-2). Entonces, la CPU 101 busca la información del tiempo (información meteorológica) correspondiente a esta información decidida refiriéndose a la tabla del tiempo fijada anteriormente (paso S26-3, 4). La información del tiempo obtenida es entregada al geometrizador 110 y al dispositivo de operación de datos corridos.
Dado que la tabla del tiempo se fija para cada área prescrita (posición) del espacio del juego, como se muestra con los contenidos de configuración en la Fig. 8, fijados en detalles están la fecha, y el cielo (fondo), el tiempo, y el grado del tiempo para cada hora. Sobre lo anterior, las condiciones de la lluvia, el aguanieve y la nieve son exhibidas, por ejemplo, usando una pluralidad de objetos estructurados con polígonos. Por otra parte, el soleado y el nublado son exhibidos ajustando el brillo de la pantalla completa, y este brillo se cambia de acuerdo con el tiempo. Además, es posible agregar viento (incluyendo la dirección de ahí) y la velocidad. La Fig. 9 demuestra un ejemplo estructural del formato de datos de la información del tiempo fijado para cada posición y para los respectivos tiempos durante el día.
En esta información del tiempo, la unidad del área (posición) se puede fijar dentro de un rango donde el carácter del jugador puede moverse continuamente sin tener que cambiar la escena, o se puede cambiar a una posición arbitraria. Aquí, la operación de la interpolación puede ser conducida tal que las condiciones atmosféricas en el límite de la conmutación no cambien de una manera repentina.
Por lo tanto, con respecto a las representaciones convencionales de las condiciones atmosféricas que cambian solamente el cielo (fondo) después de que transcurra un tiempo prescrito, es posible exhibir condiciones atmosféricas detalladas realistas. De tal modo, el ambiente será suficiente, y el interés en el juego para las respectivas escenas del RPG puede aumentar.
Después de eso, la CPU 101 ejecuta el procesamiento de truncamiento de atrás (Fig. 6, el paso S27). El contenido del subprograma de este procesamiento de truncamiento de atrás se explica detalladamente en las figs 10 y 11.
Los pasos del procesamiento mostrados en estas figuras constituyen una serie de pasos como se describe más abajo:
1) Los procesamientos de modelado A, B del objeto de atrás y del objeto del carácter ejecutados una vez a la hora de la interrupción inicial del contador de tiempo (Fig. 10);
2) El procesamiento de comprobación C para comprobar el interior del campo de visión de la cámara de los respectivos modelos del objeto de atrás (Fig.10);
\global\parskip0.900000\baselineskip
3) El procesamiento de operación D para operar el valor Z desde el punto de vista de la cámara de los respectivos modelos del objeto de atrás (Fig. 10);
4) El procesamiento de arreglo E para arreglar el valor Z de la parte delantera del modelo del objeto de atrás al buffer de truncamiento de atrás (Fig. 10);
5) El procesamiento de comprobación F para comprobar el interior del campo de visión de la cámara para los respectivos modelos de objeto del carácter (Fig. 11);
6) El procesamiento de operación G para operar el valor Z desde el punto de vista de la cámara de los respectivos modelos de objeto del carácter (Fig. 11); y
7) El procesamiento de orden de mostrado y no mostrado H del objeto del carácter sobre la comparación de los valores Z (Fig. 11).
Específicamente, en el procesamiento de modelado, según las indicaciones de las figs 12 a 15, el punto representativo (i.e. el punto del centro de la figura) de una pluralidad de conjuntos de objetos de atrás OTa, OTb, OTc (i.e. construcción) y de uno o una pluralidad de objetos del carácter OTch se opera desde los datos del vértice. Además, la distancia de tal punto representativo al extremo más lejano se calcula, y simultáneamente los modelos esféricos del objeto de atrás MTa, MTb, MTc están preparados y el modelo del objeto del carácter MTch en el cual el punto representativo es el centro de esto y tal distancia es el radio de esto. Por otra parte, el final del punto representativo no tiene que ser necesariamente la porción más lejana, y puede ser determinado convenientemente. Es decir puede ser determinado convenientemente de acuerdo con la forma del objeto.
En el procesamiento de chequeo C, se comprueba uno tras otro cuándo los modelos del objeto de atrás MTa, MTb y MTc en el espacio del juego se colocan respectivamente dentro del campo de visión actual, y los números de identificación del modelo de objeto de atrás posicionado dentro del campo de visión son almacenados. De tal modo, el modelo dentro del campo de visión se decide, y los modelos fuera del campo de visión se acortan.
Después, en el procesamiento de operación D, los modelos de objeto de atrás MTa, MTb y MTc determinados estando posicionados dentro del campo de visión se consideran sujetos de muestra, y el valor Z es operado (distancia) del punto de vista de la cámara a, por ejemplo, la superficie esférica o el punto representativo de los respectivos modelos.
Entonces, en el procesamiento de arreglo E, según las indicaciones de la Fig. 15, la pantalla de visualización se divide simultáneamente en una pluralidad de áreas (o de células) RG en un diseño cuadriculado, y cada área RG se hace para corresponder individualmente con una dirección del buffer de truncamiento de atrás 103A. Ordinariamente, un punto de vista de la cámara se coloca para estar en una altura prescrita detrás del carácter del jugador para seguir tal carácter mientras se mueve en la dirección horizontal aproximadamente. Así, puesto que no hay apenas ningún movimiento vertical, aquí, sólo una línea de la línea del área LN en la dirección oblicua que correspondía a la altura que concurría aproximadamente con el nivel del ojo de la cámara dentro del área cuadriculada necesita ser seleccionada. Cada área RG que forma esta línea del área LN se hace para corresponder individualmente a una dirección del buffer de truncamiento de atrás 103A. La razón por la que se restringe a una línea oblicua en consideración con el comportamiento del punto de vista de la cámara y el nivel del ojo de la cámara es para aligerar la carga de la operación para buscar el valor Z y comparar el valor Z tanto cuanto sea posible. Además, el tamaño de una área RG se fija para estar en un tamaño prescrito lo suficientemente más grande que un píxel y, por lo tanto, es posible aligerar la carga operacional buscando y comparando a grandes rasgos el valor Z.
Cuando la selección del área RG para un valor de línea LN en la dirección oblicua se completa, la búsqueda del valor Z en los modelos del objeto de atrás MTa, MTb y MTc se implementa a través de cada área RG del punto de vista. Después de eso, el valor Z del modelo del objeto de atrás encontrado inicialmente se almacena en la dirección que corresponde al buffer de truncamiento de atrás 103A. En esta búsqueda, cuando el modelo del objeto de atrás no puede ser encontrado, un valor prefijado cerca del punto infinito fijado por adelantado se almacena. Por otra parte, cuando una pluralidad de modelos del objeto de atrás se encuentra buscando la misma área RG, el valor Z del modelo frontal tiene prioridad.
Consecuentemente, con respecto al valor Z de las ocho áreas RGs para un valor de línea en la dirección oblicua demostrado típicamente en la Fig. 15, buscando del lado izquierdo, el valor prefijado, valor Z del modelo MTb, el valor Z del modelo MTa,… (Del tercer bloque al octavo bloque en el lado derecho tiene el valor Z del modelo MTa) se encuentra, y se almacena en el buffer de truncamiento de atrás 103A.
Además, la búsqueda y el almacenaje de este valor Z se pueden ejecutar para el área entera de la distribución del conjunto de dos dimensiones, o, si el nivel del ojo de la cámara cambia en la dirección vertical en el espacio del juego, tal búsqueda y almacenaje se pueden ejecutar para las áreas de la dirección vertical también.
Por otra parte, en el procesamiento de chequeo F mostrado en la Fig. 11, el modelo del objeto del carácter también se chequea en una manera similar como con el modelo del objeto de atrás ya mencionado en relación con si está dentro del campo de visión, y si está fuera del campo de visión, se acorta. Este truncamiento se ejecuta para los respectivos objetos cuando hay una pluralidad de objetos del carácter.
\global\parskip1.000000\baselineskip
En el procesamiento de la operación G después de eso, el valor Z se opera hasta el punto representativo del modelo del objeto del carácter MTch, por ejemplo. Esta operación también se ejecuta para todos los objetos del carácter.
Entonces, después de proceder al procesamiento del orden de la muestra y no muestra H según las indicaciones de la Fig. 11, un modelo del objeto del carácter colocado primero en el campo de visión se señala. Después, el valor Z Zobj de este modelo señalado se lee de la RAM. Después, una dirección del buffer de truncamiento de atrás 103A se señala, y el valor Z Zbuf del modelo del objeto de atrás frontal cuando se ve de una área RG almacenada en tal dirección se lee. Cuando se termina esto, la estimación de si Zobj < Zbuf se dirige, y cuando es SÍ (es decir, cuando se confirma que Zobj < Zbuf), la información sobre esta confirmación se almacena en la RAM. Después de eso, la rutina procede a la dirección siguiente del buffer 103A y un procesamiento similar se repite hasta que se termina para todas las direcciones. Después de que el procesamiento para todas las direcciones se haya terminado, el procesamiento de comparación ya mencionado se repite para todas las direcciones del carácter.
Cuando las series de comparaciones están completas, el resultado de la comparación; es decir, la información sobre la confirmación de Zobj < Zbuf almacenado temporalmente se afirma, y cuándo hacer el objeto del carácter CTch un sujeto de muestra de tal información, y cuándo exhibir que objeto de atrás está afirmado. En la estimación ya mencionada de la comparación, si Zobj < Zbuf se confirma incluso una vez, puede ser reconocido que el objeto del carácter OTch, según lo ilustrado en la Fig. 12, está situado delante de todos los objetos de atrás Ota, OTb en el primer plano dentro del campo de visión actual; es decir está localizado en el espacio del juego más cercano a la cámara. Aquí, la muestra del objeto de atrás y del objeto del carácter en el primer plano se notifica al geometrizador como cuestión de curso.
Por otra parte, el procesamiento de caras-sombras ordinario se puede conducir entre el objeto del carácter y el primero plano del objeto de atrás, y entre el objeto del carácter y el objeto de atrás OTc detrás de la sombra del objeto de atrás OTa en el extremo próximo. Además, el resultado ya mencionado de la búsqueda del valor Z se puede utilizar en lugar del procesamiento de caras-sombras.
Contrariamente, cuando Zobj < Zbuf no puede confirmarse, el objeto del carácter será ocultado totalmente detrás del objeto de atrás, y puede ser reconocido fácilmente que no está en una posición visible dentro del campo de visión (cf. Fig. 14). Aquí, la no-muestra del objeto del carácter se notifica al geometrizador.
Cuando se acaba el procesamiento de truncamiento de atrás, el procesamiento del juego se ordena al geometrizador 110 y al dispositivo de dibujo 112 en el paso S28 mostrado en la Fig. 6. De tal modo, las imágenes del sistema coordinado perspectivamente convertido del campo de visión se muestran en el monitor de la TV, en donde se proporcionan las imágenes del RPG.
Sobre esta exhibición, suponga una escena donde Godzilla (objeto del carácter) vaga en un número de edificios elevados (objeto de atrás), por ejemplo, y lucha con el jugador. En esta escena, cuando Godzilla se coloca delante de los edificios, el valor Z Zobj del modelo esférico de Godzilla será más pequeño que el valor Z Zbuf del modelo esférico de la pluralidad de edificios colocados en primer plano vistos del punto de vista; es decir, como
Zobj < Zbuf se confirma, Godzilla se muestra con el frente de los edificios como el fondo. Sin embargo, cuando Godzilla se mueve y se oculta totalmente detrás de los edificios según las indicaciones de la Fig. 14, Godzilla no se muestra. Esta estimación de cuando mostrar a Godzilla no se conduce con el método convencional de comparar en unidades del polígono los datos del polígono que forman el edificio y el valor Z de los datos del polígono que forman a
Godzilla.
Es decir, según este procesamiento de truncamiento de atrás, los edificios que tienen formas complejas y Godzilla se convierte en una forma esférica, y sería suficiente comparar el valor Z del edificio que forma la fila delantera y el valor Z de Godzilla según lo visto del punto de vista obtenido a través de la pluralidad de áreas en un tamaño conveniente. Así, la diferencia en los valores Z; es decir la relación de la posición se puede obtener muy fácilmente con respecto al método convencional. Por otra parte, en esta realización, como el procesamiento se limita al área de una línea en la dirección oblicua que corresponde al nivel del ojo, la estimación de si mostrar a Godzilla puede ser conducida con una carga incluso menos operacional. Por lo tanto, la carga operacional referente a la exhibición por la CPUse aligera considerablemente, y es de tal modo posible acelerar la velocidad de proceso o distribuir la operación a otros pasos de procesamiento del juego.
La Fig. 16 muestra un ejemplo del segundo diagrama del hardware empleado en la presente invención. Este diagrama de bloque es compatible con los dispositivos del juego para los consumidores. Este dispositivo de juego comprende una CPU para controlar el sistema entero, un procesador de geometría para conducir la operación de geometría, una memoria de sistema tal como una RAM de trabajo, un CD-ROM como medio de almacenaje que almacena el programa del juego de la presente invención, un ROM RAÍZ que almacena el programa de la activación del juego, un árbitro de bus para controlar el bus, un procesador de rendereo para ejecutar la representación, una memoria gráfica, un vídeo DAC para conducir la conversión de datos gráficos D/A, un procesador de audio, una memoria de audio, un audio DAC para conducir la conversión de datos de audio D/A, y un módem bajo el control del árbitro del bus. Este dispositivo de juego es capaz de intercambiar datos conectándose a otras máquinas de juego de TV, PC, servidores de la red, computadoras centrales, aplicaciones de Internet y así sucesivamente a través de un módem o un circuito de comunicación.
La forma del modelo sobre el modelado el objeto no se limita necesariamente a una esfera, y puede ser ovalado, cilíndrico, un cilindro, o una forma arbitraria fija. Un objeto del carácter no se limita a un objeto móvil, y puede ser un objeto inmóvil. Es decir, puede ser colocado fijamente a los edificios también. Por ejemplo, puede ser un objeto inmóvil tal como un poste o una tienda de teléfono detrás del edificio. La presente invención muestra objetos en el extremo próximo del punto de vista cuando hay una pluralidad de objetos, modela simplemente los objetos con el procesamiento de la borradura de la sombra para no mostrar los objetos en la parte posterior, y las estimaciones de que el modelo está en el extremo próximo cuando es visto del punto de vista. Para esos objetos detrás de otro objeto, es posible quitar tal objeto ocultado de un sujeto de muestra sin tener que conducir la operación (coordinada) geométrica. Según lo mencionado anteriormente, el modelo simplificado no se limita a una forma esférica. Pero si se utiliza una forma esférica, sería posible fijar convenientemente el diámetro de esto. Por ejemplo, hay esferas que caben dentro del objeto, y hay las que rodean al objeto. Además, una pluralidad de esferas (modelo tridimensional simplificado) se puede modelar para un solo objeto.
Aplicabilidad industrial
Como se describe anteriormente, según la presente invención, primero, es posible reducir agudamente la carga operacional consecuente sobre la muestra/no muestra de un objeto con el procesamiento simple en consideración con la relación de la posición del punto de vista del objeto y del fondo.
En segundo lugar, disposiciones y preparaciones están habilitadas de eso que utilizan la sensibilidad análoga de seres humanos así como reducciones substanciales simultáneas de la carga operacional en los juegos que requieren la preparación de disposiciones de cuartos y de mapas. De tal modo, el disco no tendrá que ser leído cada vez que se entre en un cuarto.
En tercer lugar, se provee un juego que mejora la realidad y el ambiente expresando precisamente los cambios del tiempo del ambiente natural del exterior.
En cuarto lugar, cambios son permitidos en la dificultad de RPGs de acuerdo con la preferencia del jugador o la situación del mercado a la hora de la remisión.
Consecuentemente, se provee un dispositivo generador de imagen conveniente para los juegos y que, con respecto a los dispositivos convencionales, por consiguiente tiene abundante realismo y ambiente, mejora agudamente la sensación del juego e interés en el juego, y mejora la capacidad operacional conforme al aligeramiento de la carga operacional.

Claims (8)

1. Un dispositivo generador de imagen para formar un objeto de fondo (OTa, OTb, OTc) preparado con datos del polígono como una parte del fondo de un espacio tridimensional virtual y generar imágenes de movimientos de un objeto de personaje (OTch) preparado con datos del polígono en dicho espacio tridimensional virtual visto desde un punto de vista móvil, dicho dispositivo comprendiendo medios de control para incorporar como el objeto de proyección dicho objeto de personaje dentro de un campo visual visto desde dicho punto de vista sólo cuando dicho objeto de personaje está posicionado en el espacio más cercano a dicho punto de vista que dicho objeto de fondo visto desde dicho punto de vista,
donde dichos medios de control comprenden: medios de operación del campo visual para operar el campo visual visto desde dicho punto de vista; especificar medios para especificar dicho objeto de fondo situado dentro de dicho campo visual y observable desde dicho punto de vista; juzgar medios para juzgar una condición específica de dicho objeto de personaje dentro de dicho campo visual, dicha condición específica indicando que dicho objeto de personaje está situado en el espacio más cercano a dicho punto de vista que dicho objeto de fondo especificado por dichos medios especificativos; y desplegar medios determinantes para incorporar dicho objeto de personaje como el objeto de proyección sólo cuando dicha condición específica es juzgada por dichos medios juzgadores,
dichos medios especificativos comprenden: medios modeladores para modelar dicho objeto de fondo como un objeto de fondo de una cierta figura; medios de operación del valor Z para operar el valor Z entre dicho modelo del objeto de fondo y dicho punto de vista; medios establecedores para establecer una pluralidad de áreas divididas (RG) de una pantalla de proyección; medios de búsqueda para buscar dicho modelo del objeto de fondo desde dicho punto de vista vía ciertas áreas entre dicha pluralidad de áreas, dichas ciertas áreas forman al menos una línea de áreas (LM); y medios de almacenamiento del valor Z para almacenar dicho valor Z de dicho modelo del objeto de fondo inicialmente buscado por dichos medios de búsqueda; y
dichos medios juzgadores comprenden: un medio de modelado separado para modelar dicho objeto de personaje como un modelo (MTch) de una cierta figura; un medio de operación separado del valor Z para operar el valor Z entre dicho modelo del objeto de personaje y dicho punto de vista; y medios de cálculo para calcular dicha condición específica al comparar el valor Z de dicho modelo del objeto de personaje y dicho valor Z almacenado en dicho búfer.
2. Un dispositivo generador de imagen de acuerdo a la reivindicación 1, donde dicho medio de modelado es medio para modelar un modelo esférico (MTa, MTb, MTc), el cual está definido por un punto representativo de un cuerpo sólido formando dicho modelo de fondo y un radio correspondiente a la distancia desde dicho punto representativo hasta el borde de dicho modelo, como dicho modelo de una cierta figura; y
dicho medio de modelado separado es medio para modelar un modelo esférico, el cual está definido por un punto representativo de un cuerpo sólido formando dicho modelo de personaje y un radio correspondiente a la distancia desde dicho punto representativo hasta el borde de dicho modelo, como dicho modelo de una cierta figura.
3. Un dispositivo generador de imagen de acuerdo a la reivindicación 1, donde dichas áreas divididas son áreas dividiendo dicha pantalla de proyección en un tablero de control, y dicha al menos una línea de áreas está formada con una fila de áreas cruzando dicha área del tablero de control en la dirección horizontal.
4. Un dispositivo generador de imagen de acuerdo a la reivindicación 3, donde dicha al menos una fila de áreas es una fila de áreas correspondiendo aproximadamente al nivel de dicho punto de vista.
5. Un dispositivo generador de imagen de acuerdo a la reivindicación 3, donde dicho medio de almacenamiento del valor Z es medio para almacenar como dicho valor Z el valor predeterminado correspondiente a una distancia remota puesta por delante de dicha área para la cual dicho modelo del objeto de fondo no podría ser encontrado por dicho medio de búsqueda.
6. Un dispositivo generador de imagen de acuerdo a una cualquiera de las reivindicaciones de la 1 a la 5, donde dicho objeto de fondo es uno de una pluralidad de objetos de fondo ordenados en dicho espacio tridimensional virtual.
7. Un dispositivo generador de imagen de acuerdo a la reivindicación 6, donde dicho objeto de fondo es una estructura hecha por el hombre en un espacio real.
8. Un método generador de imagen para formar un objeto de fondo (OTa, OTb, OTc) preparado con datos del polígono como una parte del fondo de un espacio tridimensional virtual y generar imágenes de movimientos de un objeto de personaje (OTch) preparado con datos del polígono en este espacio tridimensional virtual visto desde un punto de vista móvil, dicho dispositivo comprendiendo los pasos de:
operar el campo visual visto desde dicho punto de vista; especificar dicho objeto de fondo posicionado dentro de dicho campo visual y observable desde dicho punto de vista; juzgar una condición específica de dicho objeto de personaje dentro de dicho campo visual, dicha condición específica indicando que dicho objeto de personaje está posicionado en el espacio más cercano al lado de dicho punto de vista que dicho objeto de fondo especificado con dicho medio específico; e incorporar dicho objeto de personaje como el objeto de proyección sólo cuando dicha condición específica es juzgado por dicho medio juzgador, donde:
dicho paso especificativo comprende modelar dicho objeto de fondo como un modelo del objeto de fondo de una cierta figura; operar el valor Z entre dicho modelo del objeto de fondo y dicho punto de vista; establecer una pluralidad de áreas divididas (RG) de una pantalla de proyección; buscar dicho modelo del objeto de fondo desde dicho punto de vista vía ciertas áreas entre dicha pluralidad de áreas, dichas ciertas áreas forman al menos una línea de áreas (LM); y almacenar dicho valor Z del modelo del objeto de fondo buscado inicialmente; y
dicho paso juzgador comprende: modelar dicho objeto de personaje como un modelo (MTch) de una cierta figura; operar el valor Z entre dicho modelo del objeto de personaje y dicho punto de vista; y calcular dicha condición específica al comparar el valor Z de dicho modelo del objeto de personaje y dicho valor Z almacenado en dicho búfer.
ES99959923T 1998-12-19 1999-12-20 Dispositivo generador de imagen y metodo generador de imagen. Expired - Lifetime ES2284279T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP37592698A JP4240343B2 (ja) 1998-12-19 1998-12-19 画像生成装置および画像生成方法
JP10-375926 1998-12-19

Publications (1)

Publication Number Publication Date
ES2284279T3 true ES2284279T3 (es) 2007-11-01

Family

ID=18506286

Family Applications (1)

Application Number Title Priority Date Filing Date
ES99959923T Expired - Lifetime ES2284279T3 (es) 1998-12-19 1999-12-20 Dispositivo generador de imagen y metodo generador de imagen.

Country Status (8)

Country Link
US (2) US7479958B1 (es)
EP (2) EP1587034A3 (es)
JP (1) JP4240343B2 (es)
KR (2) KR100641671B1 (es)
CN (2) CN1595415A (es)
DE (1) DE69934972T2 (es)
ES (1) ES2284279T3 (es)
WO (1) WO2000038116A1 (es)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411301B1 (en) 1999-10-28 2002-06-25 Nintendo Co., Ltd. Graphics system interface
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US6452600B1 (en) 1999-10-28 2002-09-17 Nintendo Co., Ltd. Graphics system interface
US6859862B1 (en) 2000-04-07 2005-02-22 Nintendo Co., Ltd. Method and apparatus for software management of on-chip cache
US6857061B1 (en) 2000-04-07 2005-02-15 Nintendo Co., Ltd. Method and apparatus for obtaining a scalar value directly from a vector register
US7119813B1 (en) 2000-06-02 2006-10-10 Nintendo Co., Ltd. Variable bit field encoding
US7134960B1 (en) 2000-08-23 2006-11-14 Nintendo Co., Ltd. External interfaces for a 3D graphics system
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US6937245B1 (en) 2000-08-23 2005-08-30 Nintendo Co., Ltd. Graphics system with embedded frame buffer having reconfigurable pixel formats
US6606689B1 (en) 2000-08-23 2003-08-12 Nintendo Co., Ltd. Method and apparatus for pre-caching data in audio memory
US6580430B1 (en) 2000-08-23 2003-06-17 Nintendo Co., Ltd. Method and apparatus for providing improved fog effects in a graphics system
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US7196710B1 (en) 2000-08-23 2007-03-27 Nintendo Co., Ltd. Method and apparatus for buffering graphics data in a graphics system
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US6639595B1 (en) 2000-08-23 2003-10-28 Nintendo Co., Ltd. Achromatic lighting in a graphics system and method
US6609977B1 (en) 2000-08-23 2003-08-26 Nintendo Co., Ltd. External interfaces for a 3D graphics system
US6664958B1 (en) 2000-08-23 2003-12-16 Nintendo Co., Ltd. Z-texturing
US7538772B1 (en) 2000-08-23 2009-05-26 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller
US6980218B1 (en) 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US6664962B1 (en) 2000-08-23 2003-12-16 Nintendo Co., Ltd. Shadow mapping in a low cost graphics system
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
JP2002153656A (ja) * 2000-11-22 2002-05-28 Heiwa Corp 遊技機
US6697074B2 (en) 2000-11-28 2004-02-24 Nintendo Co., Ltd. Graphics system interface
JP3794681B2 (ja) 2001-11-29 2006-07-05 株式会社スクウェア・エニックス ビデオゲーム処理方法及びビデオゲーム処理装置及びビデオゲームのプログラム及びビデオゲームのプログラムを記録した記録媒体
JP3843242B2 (ja) 2002-02-28 2006-11-08 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、およびゲーム装置
KR100813296B1 (ko) * 2006-01-31 2008-03-13 (주)넥스트플레이 3차원 실시간 그래픽을 위한 2차원 아바타를 제작하고표시하는 방법
JP3944521B2 (ja) * 2006-04-17 2007-07-11 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP4346625B2 (ja) * 2006-04-28 2009-10-21 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
KR100925512B1 (ko) 2007-12-26 2009-11-06 에스케이커뮤니케이션즈 주식회사 가상현실 서비스를 위한 이동 공간 관리 방법
JP2009301228A (ja) * 2008-06-11 2009-12-24 Sega Corp 遮蔽データ生成方法、モデル描画方法、遮蔽データ生成装置、モデル描画装置、遮蔽データ生成プログラムおよびモデル描画プログラム
KR20090012278A (ko) * 2009-01-12 2009-02-02 (주)딜리젼 모바일 게임의 게임 화면 구성 방법 및 이 방법이 실행 가능한 프로그램으로 기록된 기록 매체
JP5469379B2 (ja) * 2009-05-28 2014-04-16 任天堂株式会社 ゲームプログラム、および、ゲーム装置
JP5340900B2 (ja) * 2009-12-03 2013-11-13 株式会社エヌ・ティ・ティ・ドコモ オブジェクト管理装置及びオブジェクト管理方法
JP5578719B2 (ja) * 2010-09-17 2014-08-27 株式会社 ミックウェア 情報システム、端末装置、広告出力方法、およびプログラム
JP5677050B2 (ja) * 2010-11-26 2015-02-25 株式会社カプコン ゲームプログラム及びゲーム装置
WO2014020663A1 (ja) * 2012-07-30 2014-02-06 三菱電機株式会社 地図表示装置
US9508195B2 (en) * 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment
CN108510590A (zh) * 2017-02-24 2018-09-07 北京图森未来科技有限公司 一种生成三维边界框的方法及装置
US11442591B2 (en) * 2018-04-09 2022-09-13 Lockheed Martin Corporation System, method, computer readable medium, and viewer-interface for prioritized selection of mutually occluding objects in a virtual environment
CN109364478B (zh) * 2018-09-07 2022-08-23 深圳市腾讯信息技术有限公司 信息同步方法、装置及存储介质
US11494742B2 (en) * 2019-09-05 2022-11-08 International Business Machines Corporation Dynamic workplace set-up using participant preferences
CN111752434A (zh) * 2020-06-23 2020-10-09 万鹤龄 一种游戏视野变换方法
JP2024034640A (ja) * 2022-09-01 2024-03-13 株式会社コロプラ プログラム及びシステム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5255207C1 (en) * 1988-06-16 2001-01-09 Larry Cornwell Method for designing and detailing cabinets
US5249264A (en) * 1988-11-14 1993-09-28 International Business Machines Corporation Image display method and apparatus
FR2641881A1 (fr) * 1989-01-17 1990-07-20 Mevel Denis Appareil de preparation, avec presentation visuelle synthetique d'un amenagement
GB2270243B (en) * 1992-08-26 1996-02-28 Namco Ltd Image synthesizing system
US6411266B1 (en) * 1993-08-23 2002-06-25 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
WO1995009405A1 (fr) * 1993-09-28 1995-04-06 Namco Ltd. Processeur de detourage, simulateur tridimensionnel et procede de traitement de detourage
US5712964A (en) * 1993-09-29 1998-01-27 Fujitsu Limited Computer graphics data display device and method based on a high-speed generation of a changed image
JP3214776B2 (ja) * 1994-04-13 2001-10-02 株式会社東芝 仮想環境表示装置および方法
US5596686A (en) * 1994-04-21 1997-01-21 Silicon Engines, Inc. Method and apparatus for simultaneous parallel query graphics rendering Z-coordinate buffer
JP3166514B2 (ja) 1994-04-22 2001-05-14 凸版印刷株式会社 間取り図立体表示システムおよび住宅模型作成システム
JPH07296030A (ja) 1994-04-25 1995-11-10 Tokyo Gas Co Ltd 作業面形成装置
AUPM701394A0 (en) * 1994-07-22 1994-08-18 Monash University A graphical display system
US5563988A (en) * 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
WO1996008298A1 (fr) * 1994-09-16 1996-03-21 Namco Ltd. Simulateur tridimensionnel et synthese de l'image
JP2763499B2 (ja) 1994-11-30 1998-06-11 株式会社ナムコ 画像合成装置及び画像合成方法
JP3559335B2 (ja) * 1995-02-03 2004-09-02 富士通株式会社 三次元画像処理装置
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5601431A (en) * 1995-05-03 1997-02-11 Howard; Cheryl Interior design system and method
US6016147A (en) * 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
CA2180899A1 (en) * 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
US5867166A (en) * 1995-08-04 1999-02-02 Microsoft Corporation Method and system for generating images using Gsprites
US6064393A (en) * 1995-08-04 2000-05-16 Microsoft Corporation Method for measuring the fidelity of warped image layer approximations in a real-time graphics rendering pipeline
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
US5764241A (en) * 1995-11-30 1998-06-09 Microsoft Corporation Method and system for modeling and presenting integrated media with a declarative modeling language for representing reactive behavior
JP3871224B2 (ja) * 1995-12-07 2007-01-24 株式会社セガ 画像生成装置、画像生成方法及びこれを用いたゲーム機並びに媒体
JPH09317206A (ja) * 1996-05-30 1997-12-09 Matsushita Electric Ind Co Ltd 建物リフォーム支援装置
US5796395A (en) * 1996-04-02 1998-08-18 Wegener Internet Projects Bv System for publishing and searching interests of individuals
US5937081A (en) * 1996-04-10 1999-08-10 O'brill; Michael R. Image composition system and method of using same
US5751291A (en) * 1996-07-26 1998-05-12 Hewlett-Packard Company System and method for accelerated occlusion culling
US5923330A (en) * 1996-08-12 1999-07-13 Ncr Corporation System and method for navigation and interaction in structured information spaces
US5986674A (en) * 1996-10-31 1999-11-16 Namco. Ltd. Three-dimensional game apparatus and information storage medium
US5977978A (en) * 1996-11-13 1999-11-02 Platinum Technology Ip, Inc. Interactive authoring of 3D scenes and movies
JPH10198816A (ja) * 1997-01-13 1998-07-31 Mitsubishi Electric Corp 情報処理システム及びネットワーク型情報処理システム
JPH10255069A (ja) * 1997-03-10 1998-09-25 Canon Inc 画像処理システム
US6084590A (en) * 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
US6058397A (en) * 1997-04-08 2000-05-02 Mitsubishi Electric Information Technology Center America, Inc. 3D virtual environment creation management and delivery system
US6215505B1 (en) * 1997-06-20 2001-04-10 Nippon Telegraph And Telephone Corporation Scheme for interactive video manipulation and display of moving object on background image
US6018348A (en) * 1997-12-31 2000-01-25 Intel Corporation Method for visibility culling
US6067096A (en) * 1998-03-04 2000-05-23 Nagle; John Method and system for generating realistic collisions in graphical simulations
US6738059B1 (en) * 1998-12-18 2004-05-18 Kabushiki Kaisha Sega Enterprises Apparatus and methods for image processing using mixed display objects

Also Published As

Publication number Publication date
DE69934972T2 (de) 2007-10-25
WO2000038116A1 (en) 2000-06-29
JP4240343B2 (ja) 2009-03-18
CN1230789C (zh) 2005-12-07
EP1587034A2 (en) 2005-10-19
JP2000182077A (ja) 2000-06-30
DE69934972D1 (de) 2007-03-15
KR100641671B1 (ko) 2006-11-03
CN1291318A (zh) 2001-04-11
US20070262986A1 (en) 2007-11-15
US7479958B1 (en) 2009-01-20
CN1595415A (zh) 2005-03-16
KR100740072B1 (ko) 2007-07-18
KR20010041074A (ko) 2001-05-15
EP1063615A1 (en) 2000-12-27
EP1063615A4 (en) 2003-06-04
EP1063615B1 (en) 2007-01-24
KR20050007430A (ko) 2005-01-17
EP1587034A3 (en) 2011-04-13

Similar Documents

Publication Publication Date Title
ES2284279T3 (es) Dispositivo generador de imagen y metodo generador de imagen.
ES2260830T3 (es) Dispositivo y metodo para el procesamiento de imagenes.
ES2332271T3 (es) Dispositivo de procesamiento de graficos, metodo de procesamiento de graficos, maquina de juegos y medio de almacenamiento.
US6831659B1 (en) Image processor unit, game machine, image processing method, and recording medium
US5947823A (en) Three-dimensional game apparatus and image synthesizing method
EP0840256B1 (en) Apparatus and method for generating skeleton-based dynamic picture images as well as medium storing therein program for generation of such picture images
US6319129B1 (en) Method and a video game system of generating a field map
US7609260B2 (en) Image generation program product and image processing device
Greuter et al. Undiscovered worlds–towards a framework for real-time procedural world generation
US20100315421A1 (en) Generating fog effects in a simulated environment
Yang et al. A human-computer interaction system for agricultural tools museum based on virtual reality technology
JP3586460B2 (ja) 3次元ゲーム装置及び画像合成方法
Gaitatzes et al. Virtual reality systems and applications: the ancient olympic games
JP4688405B2 (ja) プログラム、情報記憶媒体及びゲーム装置
Ruiz Marco Ion-Physics Puzzles and Exploration 3D Videogame
JP2002298157A (ja) ゲーム情報、情報記憶媒体およびゲーム装置
JP3990543B2 (ja) プログラム、情報記憶媒体、および、ゲーム装置
Andreoli et al. Some Real Experiences in Developing Virtual Environments
JP3547430B2 (ja) 3次元ゲーム装置及び画像合成方法
Cain et al. The Ancient Olympic Games: Being Part of the Experience
JP2006195902A (ja) プログラム、情報記憶媒体及び画像生成システム