ES2281962T3 - Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion. - Google Patents

Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion. Download PDF

Info

Publication number
ES2281962T3
ES2281962T3 ES99919542T ES99919542T ES2281962T3 ES 2281962 T3 ES2281962 T3 ES 2281962T3 ES 99919542 T ES99919542 T ES 99919542T ES 99919542 T ES99919542 T ES 99919542T ES 2281962 T3 ES2281962 T3 ES 2281962T3
Authority
ES
Spain
Prior art keywords
deployment
processing unit
elements
display
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES99919542T
Other languages
English (en)
Inventor
Toshiyuki Sega Enterprises Ltd. MUKOYAMA
Masako Sega Enterprises Ltd. OKUDA
Tomohiro Sega Enterprises Ltd. NIMURA
Tetsuichiro Sega Enterprises Ltd. HIROSE
Masaki Sega Enterprises Ltd. MIYASHITA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Application granted granted Critical
Publication of ES2281962T3 publication Critical patent/ES2281962T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6646Methods for processing data by generating or executing the game program for rendering three dimensional images for the computation and display of the shadow of an object or character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

Una unidad de procesamiento de imagen configurada para facilitar el despliegue de uno o más objetos definiendo áreas autónomas desplegadas en el espacio virtual y un carácter establecido para ser capaz de moverse relativo a dicho objeto u objetos; caracterizado en esa dicha unidad de procesamiento de imagen que comprende: Una unidad de procesamiento que, cuando dicho carácter entra o deja el interior de un área autónoma, gradualmente altera la densidad del despliegue de por lo menos algunos elementos del despliegue específicos de los elementos del despliegue configurando el objeto desplegado en un área relacionada al movimiento de dicho carácter tal que los elementos del despliegue específicos para los cuales la densidad del despliegue se altera son los elementos del despliegue que se localizan hacia el frente del espacio virtual con respecto a la perspectiva establecida en el espacio virtual para generar el despliegue de la imagen, en donde dicha unidad de procesamiento gradualmente disminuye la densidad del despliegue de dichos elementos del despliegue específicos cuando dicho carácter está entrando en el área autónoma, e intensifica los mismo cuando está saliendo del área autónoma.

Description

Procesador de imagen, máquina de juego, método de procesamiento de imagen, y medio de grabación.
Campo técnico
La invención presente se refiere a una tecnología de procesamiento de imagen conveniente para máquinas de juego que presentan imágenes en el espacio virtual tridimensional. Más particularmente, la invención presente proporciona un procesamiento de imagen que puede sumergir profundamente a un jugador en un juego roll mostrando de forma realista las imágenes desplegadas en ese lugar e impartiendo cambios de imagen naturales.
Técnica general
En máquinas de juego con televisor, los juegos roll que emplean tecnología de procesamiento de imagen tridimensional son muy populares debido a la belleza de la imaginería y la profundidad de la historia proporcionada. La mayoría de los juegos roll emplean la tecnología de gráficos por computadoras en configuraciones en donde es posible mostrar muchas entidades desplegadas (a partir de ahora denominadas "objetos") en el espacio virtual tridimensional. Estos objetos incluyen, además de aquellos que simulan tales formas del mundo real como el terreno, las plantas, los animales, y los edificios, aquellos (a partir de ahora denominados" caracteres") que modelan el héroe del juego roll y otras personas que aparecen en el juego. En esta máquina de juego, el carácter que corresponde al héroe se configura para que se pueda mover en el espacio virtual respondiendo a las manipulaciones de un dispositivo de entrada hechas por un jugador. Esta máquina de juego, además, desarrolla la historia del juego mientras mueve concomitantemente la perspectiva para desplegar las imágenes en el espacio virtual para así seguir el movimiento del carácter del héroe, moviendo el espacio virtual junto con los caracteres y los objetos con texturas uno después de otro mientras aparecen.
En un juego roll convencional (vea el ejemplo JP-09-299613), debido a la necesidad de presentar claramente la manera en que el espacio virtual se le presenta al jugador, se han implementado medidas innovadoras en los métodos de despliegue de objeto. En casos en donde los caracteres entran y dejan un objeto que simula un edificio, por ejemplo, lo mismo el edificio se hace parcialmente transparente que el objeto se despliega sin un tejado, para facilitar ver los movimientos de los caracteres que han entrado en el edificio.
Si el objeto simula un árbol, la textura del árbol entero se representa en polígonos llanos, las composiciones son hechas en donde los polígonos mapeados con la textura para representar las hojas se insertan en un cruciforme en el medio del tronco, o el árbol se representa por objetos en forma de pelota, mapeando los datos de la textura para hacer que el objeto se parezca a un árbol sobre los polígonos.
En algunos casos el realismo se mejora desplegando sombras que siguen el movimiento de los caracteres.
Es deseable, sin embargo, diseñar un juego roll para que el jugador se sumerja totalmente en el mundo imaginario presentado por la máquina de juego y se identifique emocionalmente con el héroe en el progreso del juego. Cuando los juegos roll convencionales son evaluados desde esta perspectiva, varias dificultades se vuelven evidente.
Por ejemplo, en máquinas de juego donde una porción de un edificio se elimina cuando un carácter entra en este, el jugador comprometido en el juego tiende a concebir un sentido de discordia debido a la innaturalidad que sucede cuando de repente una porción del edificio desaparece o la pantalla cambia a una imagen de un interior de la casa o lo parecido. Si el edificio se muestra desde el principio sin el tejado, por otro lado, esto presenta cualquier cosa menos una imagen realista, así el sentido del realismo no puede mejorarse.
En un juego roll, además, a donde un carácter se dirige es determinado por las manipulaciones del jugador, por lo que hay casos en donde un acercamiento extremo se hace a un objeto. Si el objeto acercado por el carácter es uno que simula un árbol con un método convencional, sin embargo, las formas de los objetos microscópicos están muy alejadas de la forma de un árbol real, produciendo una imagen que es totalmente antinatural.
Habiendo dicho que, sin embargo, intentar representar cada hoja individual con un polígono por consiguiente es algo que apenas puede manejarse por una máquina de juego que está severamente restringida en términos de rendimiento de la máquina y el tiempo de procesamiento.
Con el método convencional para mostrar las sombras, además, un objeto negro en forma de disco se muestra a los pies del carácter y ambos objetos se mueven juntos para mostrar la sombra. En casos donde el terreno es desigual, sin embargo, un método que involucra una gran computación ha sido empleado en donde el objeto sombra flota junto con el terreno para impedir al objeto sombra hundirse en la tierra. La única manera de aligerar esa computación ha sido ignorar el hecho de cuando una sombra se hunde en la tierra. Por tanto ha sido muy difícil mostrar sombras naturales.
La EP 0893149 con una prioridad anterior descubre un arreglo en donde cuando un carácter del jugador se mueve cercano a un carácter oponente, la perspectiva de una cámara hipotética que está capturando la imagen de los caracteres también se mueve cerca de los caracteres, y un extractor de distancia determina la distancia de la perspectiva de la cámara hipotética a un modelo del objeto como un obstáculo detrás del carácter que está encubierto. Entonces, un extractor de transparencia obtiene un nivel de transparencia que corresponde a la distancia determinada de una tabla de información de transparencia. Usando el nivel de la transparencia obtenido, un procesador de datos de imagen genera datos de imagen en píxeles del modelo del objeto, y combina los datos de imagen generados con los datos de imagen en píxeles del carácter.
La 5415549 de EE.UU. describe un simulador de vuelo de helicóptero teniendo mejoras en las señales y en la modelación visuales. Las señales visuales únicas incluyen el terreno siguiendo las sombras y la neblina, la última aproximando un conjunto de condiciones atmosféricas. Los rasgos modelados únicos incluyen un acercamiento (zoom) seleccionable por el usuario, la evasión de tierra horizontal y vertical, y un modelo de auto rotación.
Descubrimiento de la invención
En vista de las dificultades descritas anteriormente, es deseable proporcionar un despliegue de la imagen que haga natural las transiciones posibles cuando un carácter entra o deja un cuarto o un edificio, sin perder el sentido de realismo.
También es deseable proporcionar un despliegue de la imagen con el cual, cuando se muestren objetos como los árboles, las formas de los árboles y lo parecido puedan mostrarse con un sentido natural de textura incluso cuando esos objetos se muestren grandes.
Es deseable además proporcionar un despliegue de la imagen que pueda mostrar sombras naturales que no dañen el sentido de realismo, sin aumentar la computación.
Es deseable proporcionar una máquina de juego con la cual el procesamiento de la imagen de la invención presente sea posible.
También es deseable proporcionar un medio de grabación capaz de proporcionar un programa con el cual el procesamiento de la imagen de la invención presente sea posible.
Según la invención presente se proporciona una unidad de procesamiento de imagen configurada para facilitar el despliegue de uno o más objetos definiendo las áreas autónomas mostradas en el espacio virtual y un carácter establecido para poder moverse con respecto a dicho objeto u objetos; caracterizada en que dicha unidad de procesamiento de imagen comprende: una unidad de procesamiento que, cuando dicho carácter entra o deja el interior de un área autónoma, gradualmente altera la densidad del despliegue de por lo menos algunos elementos del despliegue específicos de los elementos del despliegue configurando el objeto desplegado en un área relacionada al movimiento de dicho carácter tal que los elementos del despliegue específicos para los que la densidad del despliegue se altera son los elementos del despliegue que se localizan hacia el frente del espacio virtual con respecto a la perspectiva establecida en el espacio virtual para generar el despliegue de la imagen, en donde dicha unidad de procesamiento gradualmente disminuye la densidad del despliegue de dichos elementos del despliegue específicos cuando dicho carácter está entrando en el área autónoma, e intensifica la misma cuando sale del área autónoma.
Por "objeto" se entiende una entidad desplegada, que aquí se refiere a la relación entre un objeto que representa un carácter, por ejemplo, y un objeto que representa un edificio que el carácter entra o deja. Sin embargo, esto puede aplicarse a todos los casos en donde un objeto entra en otro objeto. La "cierta condición" es, por ejemplo, que el carácter mencionado anteriormente entra o deja el interior del objeto mencionado anteriormente. Esto puede determinarse cuando la distancia entre dos objetos alcanza cierto valor, o indirectamente por una condición establecida por el progreso del juego tal como "una puerta se abrió " o "una ventana se abrió". Por "área relacionada" se entiende algo como un área que debe establecerse para que un objeto que ha entrado en un interior sea hecho visible alterando la densidad del despliegue, o un área en donde es necesario desplegar un interior durante el progreso del juego. En el caso de un edificio, por ejemplo, esto correspondería a un área autónoma como el primer piso o el segundo piso, etc., El "al menos algunos elementos del despliegue específicos" puede ubicarse discrecionalmente. Por ejemplo, éstos podrían ser elementos del despliegue, de los elementos del despliegue que configuran el objeto mencionado anteriormente, posicionados a un lado de la perspectiva establecida en el espacio virtual con el propósito de generar las imágenes del despliegue. Debido a que esto es "por lo menos algunos", la transparencia del edificio entero puede ajustarse o la transparencia de una porción específica puede por tanto ajustarse. Acerca del método específico de alteración, la densidad del despliegue para los elementos del despliegue específicos mencionados anteriormente disminuiría gradualmente cuando el carácter mencionado anteriormente entra en el objeto mencionado anteriormente, y aumentaría cuando el carácter se va.
Es deseable aquí que un espesor se establezca de antemano para los miembros particionados que configuran el objeto. Por tanto, los datos de la textura prescritos se mapean a la sección transversal de los miembros particionados desplegados por los elementos del despliegue aparte de los elementos del despliegue específicos mencionados anteriormente.
Preferentemente, la unidad de procesamiento de imagen es operable para mostrar una imagen simulando una figura en forma de árbol desplegando elementos del despliegue llanos, a donde los datos de textura prescritos se han mapeado, radialmente sobre un eje del centro prescrito para subtender un cierto ángulo o ángulos con dicho eje del centro para configurar un objeto, y desplegar uno o más tales objetos en el espacio virtual, apilándolos en la dimensión vertical.
El "eje del centro" aquí se refiere a esa porción que corresponde al "tronco". En términos del despliegue global, un cono o forma de paraguas se efectúan. También no hay ninguna necesidad de que los elementos mostrados se inclinen exteriormente de la misma manera. Ellos pueden abrirse hacia arriba en las coordenadas del espacio virtual, y los ángulos de la apertura pueden hacerse aleatorios. El término "figura en forma de árbol" se refiere, además de los árboles, a figuras que tienen formas indistintas que ocurren en el mundo real tal como las llamas, el humo, y las nubes, por ejemplo, y puede aplicarse a todos los tipos de cosas.
Aquí, de la pluralidad de objetos mencionada anteriormente, esos objetos que cubren el extremo más alto se configuran aproximadamente en forma de paraguas. Acerca de los objetos en los niveles más bajos, sin embargo, las porciones cerca del eje del centro no pueden verse, por lo que no es completamente necesario que los datos de la textura se mapeen en la proximidad cercana al eje del centro.
La configuración también es hecha para que los ajustes sean hechos para que los elementos de despliegue a los cuales se le mapean los mismos datos de la textura no se apilen encima de otro entre una pluralidad de los objetos que son adyacentes mencionada anteriormente. Para prevenir que los elementos del despliegue se apilen sobre ellos mismos, la orientación de cada objeto (el ángulo del objeto sobre el eje del centro) puede cambiarse o el orden de los elementos del despliegue que constituyen un objeto puede cambiarse, objeto por objeto. Alternativamente, pueden hacerse configuraciones para que el plano de cada elemento del despliegue se destaque fuera de la circunferencia exterior. O pueden desplegarse los planos de los elementos del despliegue que configuran los objetos mencionados anteriormente a diferentes niveles para que ellos no entren en contacto. O pueden colocarse los planos de elemento de despliegue para que ellos formen un modelo de zigzag en forma delta.
Preferentemente, la unidad de procesamiento es operable para desplegar los elementos del despliegue llanos, en donde los datos de la textura prescritos han sido mapeados, en una pluralidad, dentro de un área espacial prescrita para configurar un objeto, y para controlar direccionalmente las direcciones en cuyas caras de dicha pluralidad de elementos del despliegue se orientan para corresponder con la perspectiva de donde se observa el espacio virtual.
El "objeto" referido anteriormente puede ser adecuadamente un árbol u otra entidad en el mundo real que tiene una forma compleja. Cuando el "objeto" es un árbol, los "elementos del despliegue" pueden ser adecuadamente un racimo de hojas que configuran el árbol. La idea principal es dividir un árbol en bloques que comprenden una pluralidad de elementos del despliegue, y controlar el efecto para que los elementos del despliegue más o menos afronten la dirección de la perspectiva.
Un método concebible de control direccional es establecer un vector del punto representativo para uno de los objetos notados anteriormente en correspondencia con la perspectiva mencionada anteriormente, y entonces direccionalmente controlar los elementos del despliegue notados anteriormente para que una pluralidad de esos elementos del despliegue afronten la dirección de ese vector de punto representativo.
Otro método concebible de control direccional es controlar direccionalmente los elementos del despliegue notados anteriormente para que cada una de las líneas normales en la pluralidad de los elementos del despliegue notadas anteriormente se oriente en la dirección de la perspectiva notada anteriormente.
Por ejemplo, la configuración puede hacerse tal que los coeficientes pesados se pongan en los ápices de los elementos del despliegue, y la densidad de la textura mapeada a esos elementos del despliegue pueda interpolarse linealmente por esos coeficientes pesados entre los ápices, y la configuración se pueda hacer tal que, modificando los coeficientes pesados para que ellos se hagan corresponder con el despliegue del objeto en el espacio virtual, la densidad de la textura de los elementos del despliegue que configuran ese objeto pueda controlarse.
Preferentemente la unidad de procesamiento es operable para generar, entre dichos objeto y perspectiva para desplegar las imágenes, un objeto para desplegar dicha sombra.
La configuración es hecha aquí para que las posiciones relativas del objeto y el objeto sombra por consiguiente como se ve desde la perspectiva puedan alterarse según la altura del objeto sobre un plano de referencia desplegado en el espacio virtual. La configuración es hecha, por ejemplo, para que la sombra pueda moverse hacia arriba y hacia abajo en la pantalla en correspondencia con esa altura.
Preferentemente, la unidad o el método de procesamiento de imagen son configurados para que un objeto desplegado en el espacio virtual y una sombra puedan mostrarse, configurándose para que una fuente de iluminación para alumbrar una luz de iluminación con el propósito de desplegar la sombra pueda establecerse en un área de un plano de referencia establecida en el espacio virtual en donde la sombra del objeto será desplegada. Por ejemplo, una luz negra podría desplegarse a una posición que corresponde al sol en el espacio virtual. La posición brillante está debajo de las piernas del objeto, pero la posición brillante puede cambiarse según el ángulo del sol y la altura del objeto sobre el plano de referencia.
Preferentemente una máquina de juego comprende una unidad de procesamiento de imagen de la invención presente.
\newpage
También se prefiere un medio de grabación que es legible por la máquina y en donde se graban los datos del programa para ejecutar un método de procesamiento de imagen de la invención presente en una computadora.
Por medio de grabación se refiere a algo donde la información (principalmente datos digitales, programas) se graba por algunos medios físicos, que es capaz de causar que una computadora, un procesador especializado, u otro aparato de procesamiento realicen funciones prescritas. En otras palabras este medio de grabación puede ser cualquier cosa que bajará un programa a una computadora de alguna forma y causará que las funciones prescritas sean ejecutadas. Tales medios de grabación incluyen discos flexibles, discos duros, casetes de grabación, discos magnéticos ópticos, CDs, CD-ROMs, CDRs, DVD-RAMs, DVD-ROMs, DVD-Rs, PDs, MDs, DCCs, cartuchos ROM, cartuchos de memoria RAM que tienen batería de respaldo, cartuchos de memoria flash, y cartuchos RAM fijos, etc.
También están incluidos los casos donde el traslado de datos se recibe de una computadora servidora a través de un cable o línea de comunicaciones inalámbrica (la línea pública, la línea de datos especializados, la conexión de satélite, etc.). La tan nombrada Internet también es incluida en los medios de comunicación de grabación referidos aquí.
Para que la invención presente se entienda más fácilmente, realizaciones específicas se describirán con referencia a las figuras acompañantes.
Breve descripción de las figuras
La fig. 1 es un diagrama de bloque de esta máquina de juego;
La fig. 2A es un diagrama de flujo para describir el proceso de alteración de densidad en un primer aspecto de la realización, comprendiendo un proceso de decisión de condición cumplida;
La fig. 2B es un diagrama de flujo para describir el proceso de alteración de densidad en la primera realización, comprendiendo los detalles de un proceso de generación de imagen;
La fig. 3 es una imagen de ejemplo mostrando el proceso de alteración de densidad (fase 1);
La fig. 4 es una imagen de ejemplo mostrando el proceso de alteración de densidad (fase 2);
La fig. 5 es una imagen de ejemplo mostrando el proceso de alteración de densidad (fase 3);
La fig. 6 es una imagen de ejemplo mostrando el proceso de alteración de densidad (fase 4);
La fig. 7 es una imagen de ejemplo mostrando el proceso de alteración de densidad (fase 5);
La fig. 8A es una vista diagonal de un objeto del ejemplo que representa un árbol en una representación en forma de cable;
La fig. 8B es una vista plana del objeto del ejemplo que representa un árbol en una representación en forma de cable;
La fig. 9 es un diagrama de configuración de un objeto árbol en un segundo aspecto de la realización;
La fig. 10 es un diagrama para describir un procedimiento para generar un objeto árbol;
La fig. 11 es una deformación del ejemplo (la primera) en un objeto en forma de paraguas;
La fig. 12 es una deformación del ejemplo (la segunda) en un objeto en forma de paraguas;
La fig. 13 es una deformación del ejemplo (la tercera) en un objeto en forma de paraguas;
La fig. 14 es un diagrama de configuración de un objeto árbol en un tercer aspecto de la realización;
La fig. 15 es un diagrama para describir el control direccional de elementos del despliegue (los polígonos) en el tercer aspecto de la realización;
La fig. 16 es un diagrama para describir el control de un elemento del despliegue (el polígono);
La fig. 17A es un diagrama de despliegue de textura para un caso donde el mismo coeficiente pesado se fija a los ápices de un elemento del despliegue;
La fig. 17B es un diagrama de despliegue de textura para un caso donde el mismo coeficiente pesado se fija a los ápices de un elemento del despliegue;
\newpage
La fig. 18 es un diagrama de flujo para describir el control direccional de un objeto árbol en el tercer aspecto de la realización;
La fig. 19 es un diagrama de configuración en forma de cable (vista lateral) de un objeto árbol direccionalmente controlado;
La fig. 20 es una muestra del ejemplo (vista lateral) en donde la textura se ha mapeado a un objeto árbol direccionalmente controlado;
La fig. 21 es un diagrama configuración en forma de cable (plano) de un objeto árbol direccionalmente controlado;
La fig. 22 es una muestra del ejemplo (plano) en donde la textura se ha mapeado a un objeto árbol direccionalmente controlado;
La fig. 23 es una muestra del ejemplo de un objeto árbol en un caso donde los coeficientes pesados del elemento desplegado no se controlan;
La fig. 24 es una muestra del ejemplo de un objeto árbol en un caso donde los coeficientes pesados del elemento desplegado se alteran;
La fig. 25 es un diagrama para describir el control direccional de elementos del despliegue por otro método en el tercer aspecto de la realización;
La fig. 26 es un diagrama de flujo para describir un proceso de generación de sombra en un cuarto aspecto de la realización;
La fig. 27 es un diagrama para describir el despliegue cuando un carácter está en contacto con la tierra;
La fig. 28 es un diagrama para describir el despliegue cuando un carácter está saltando;
La fig. 29 es un diagrama ejemplar de muestra de la imagen en el despliegue esquematizado en La fig. 27;
La fig. 30 es un diagrama ejemplar de muestra de la imagen en el despliegue esquematizado en La fig. 28;
La fig. 31 es un ejemplo de muestra de la imagen (con la perspectiva diagonalmente encima) en el cuarto aspecto de la realización;
La fig. 32 es un ejemplo de muestra de la imagen (con la perspectiva al nivel de piso) en el cuarto aspecto de la realización;
La fig. 33 es un diagrama para describir el despliegue en un quinto aspecto de la realización; y
La fig. 34 es un ejemplo de muestra de la imagen en el quinto aspecto de la realización.
Mejor modo para llevar a cabo la invención
Aspectos preferibles de la realización para la invención presente son descritos ahora con referencia a las figuras.
Aspecto de la realización 1: la realización principal
Un primer aspecto de la realización se refiere a un dispositivo de despliegue de imagen, un método para eso, una máquina de juego, y un medio de grabación con lo cual el despliegue de la imagen tridimensional es posible y con lo cual es posible representar las imágenes naturales cuando un objeto entra o deja un edificio o algo parecido.
Descripción de la Configuración
En La fig. 1 se da un diagrama de bloque para una máquina de juego en la invención presente. La máquina de juego 1 de la invención presente comprende un bloque del CPU 10, un bloque de video 11, y un bloque de sonido 12, como se esquematiza en La fig. 1.
El bloque del CPU 10 se refiere a una unidad de procesamiento en la invención presente y comprende un árbitro de BUS 100, el CPU 101, la memoria principal 102, la ROM 103, y la unidad de CD-ROM 104.
El árbitro del BUS 100 se configura para que pueda controlar la transmisión y recepción de datos asignando el tiempo del BUS especializado a los dispositivos que se conectan mutuamente sobre el BUS.
El CPU 101 se configura para que pueda acceder a la unidad de CD-ROM 103, a la ROM 103, al bloque de video 11, al bloque de sonido 12, y (a través de un dispositivo de entrada 107) a la memoria de respaldo 108. Cuando la energía se ha encendido, el CPU 101 ejecuta un programa de inicialización guardado en la ROM 103, inicializa el sistema global, y, al descubrir que hay un CD-ROM en la unidad de CD-ROM 108, transfiere los datos del programa del sistema operativo guardados en el CD-ROM a la memoria principal 102. Después de eso, el CPU 101 se diseña para que opere de acuerdo con el sistema operativo. El CPU 101 luego transfiere los datos del programa de la aplicación guardados en el CD-ROM a la memoria principal 102 y ejecuta ese programa. El CPU 101 también transfiere los datos de imagen a una memoria de gráfico 111 y es capaz de transferir los datos de audio a una memoria de sonido 121. El procesamiento de los datos del programa ejecutado por el CPU 101 consiste principalmente en interpretar la entrada de señales de control del dispositivo de entrada 107 y los datos de comunicaciones de un dispositivo de comunicaciones 130, el procesamiento de imagen hecho para ser realizado por el bloque de video 11, y el procesamiento de audio hecho para ser realizado por el bloque de sonido 12.
La memoria principal 102 principalmente almacena los datos del programa del sistema operativo y los datos de programa de la aplicación notados anteriormente, pero también es capaz de proporcionar un área de trabajo para almacenar variables estáticas y variables dinámicas y lo parecido. La ROM 103 es un área para almacenar el programa inicializando.
En el CD-ROM se guardan los datos del programa para causar que el método de procesamiento de imagen de la invención presente sea ejecutado por esta máquina de juego, los datos de imagen para desplegar las imágenes, y los datos de audio para el sonido de salida. La unidad de CD-ROM 104 permite cargar y descargar los CDs. Cuando un CD está cargado, la unidad de CD-ROM 104 retorna datos indicando ese hecho al CPU 101, y es capaz de transferir los datos bajo el control del CPU 101. El medio de grabación no está limitado a un CD, sin embargo, y pueden configurarse otros tipos de medios de grabación para que sean capaces de leer. La configuración también puede hacerse para que los grupos de datos almacenados en el CD se transfieran a las memorias a través del dispositivo de comunicaciones 130, descrito posteriormente. Si las cosas son fijadas de esta manera, es posible transferir los datos de los discos duros en los servidores en los sitios remotos.
El dispositivo de entrada 107 se diseña para que se conecte desmontable a esta máquina de juego, y para que las señales de control sean retornadas al BUS del bloque del CPU 10 según la manera en que los botones de control son operados por el jugador. El dispositivo de entrada 107 puede ser una palanca de juego (joystick) o el teclado, o, alternativamente, un dispositivo como un mouse o un controlador. Cualquier dispositivo de entrada único 107 puede conectarse, o dos o más pueden conectarse en una configuración que permita una pluralidad de jugadores para jugar el juego simultáneamente.
La memoria de respaldo 108 se diseña para que pueda conectarse desmontable al dispositivo de entrada 107, y se configura para que el acceso sea posible del CPU 101. Esta memoria también es un área del almacenamiento para los estados de progreso del juego y los resultados del juego generados durante el juego y para fijar datos que contienen tales configuraciones como métodos del control, los cuales se envían del CPU 101. Estos datos de configuración funcionan como los datos de respaldo para que si la energía se interrumpe el juego se reinicie en el estado que existe inmediatamente anterior al corte de energía, e intercambiando la memoria de respaldo, los datos pueden usarse para reflejar en esta máquina de juego el estado del control de otra máquina de juego sin cambiarlo.
El bloque de video 11 comprende un VDP (procesador de la pantalla de video) 110, una memoria de gráficos 111, y un codificador de video 112. En la memoria de gráficos 111 se almacenan los datos de imagen leídos del CD como se describe anteriormente. El VDP 110 se diseña para que sea capaz de leer los datos de imagen necesarios para el despliegue de la imagen de los datos de imagen almacenados en la memoria de gráficos 111, y realizando la conversión coordenada (computación geométrica), las rutinas de mapeado de texturas, el procesamiento de prioridad del despliegue, y el procesamiento del obscurecimiento, etc., según los datos necesarios para el despliegue de la imagen proporcionados por el CPU 101, eso es, según los datos del comando, los datos de la posición de la perspectiva, los datos de la posición de la fuente de iluminación, los datos de la designación del objeto, los datos de la posición del objeto, los datos de designación de textura, los datos de la densidad de la textura, y el campo de datos de la matriz de vista, etc. La configuración también puede hacerse para que tal proceso como la conversión de la coordenada, mencionado anteriormente, se realice por el CPU 101. Es decir, el procesamiento puede asignarse a diferentes dispositivos según las capacidades de computación de cada dispositivo. El codificador de video 112 se configura para que sea capaz de convertir los datos de imagen generados por el VDP 110 a las señales de la televisión prescritas como en el esquema de NTSC y retornando [esas señales] a una unidad de monitoreo 4 conectada externamente.
El bloque de sonido 12 comprende un procesador de sonido 120, una memoria de sonido 121, y un conversor D/A 122. En la memoria de sonido 121 se almacenan datos de audio leídos del CD como se describe anteriormente. El procesador de sonido 120 se diseña para que, basado en los datos del comando proporcionados del CPU 101, lea los datos de audio tal como datos en forma de onda almacenados en la memoria de sonido 121, realice varios procesos de efecto basado en las funciones del DSP (procesador de señal digital), y realice el procesamiento de conversión digital/análoga, etc., El conversor D/A 122 se configura para que sea capaz de convertir los datos de audio generados por el procesador de sonido 120 a las señales analógicas y retorne aquellos a los altavoces 5 conectados externamente.
El dispositivo de comunicaciones 130 es un módem o un adaptador terminal, por ejemplo, configurado para que pueda conectarse a esta máquina de juego, y capaz de funcionar como un adaptador para conectar la máquina de juego 1 a una línea externa. El dispositivo de comunicaciones 130, además, está hecho para que sea capaz de recibir datos enviados de un servidor de suministro del juego conectado a una red de comunicaciones pública 131 y proporcionar esos datos al BUS del bloque del CPU 10. No hay ninguna restricción en la red de comunicaciones pública 131 acerca de si comprende líneas subscritas o líneas especializadas, sobre las líneas de tierra o las conexiones inalámbricas.
Descripción del Funcionamiento
El funcionamiento de esta máquina de juego se describe a continuación.
El juego roll proporcionado por el funcionamiento de esta máquina de juego es establecido con una historia en donde un carácter que corresponde a un héroe que puede manipularse por el control del jugador viaja a través de un mundo virtual. Los objetos desplegados en el espacio virtual (es decir, las entidades desplegadas predeterminadas por los datos del programa y los datos de imagen) incluyen la tierra y otros terrenos, edificios, árboles, llamas, nubes, y también los caracteres que son el héroe y otras personas que aparecen en el juego. Un objetivo particular con esta máquina de juego es desplegar los objetos en formas similares a aquellos del mundo real. Con ese propósito, las configuraciones están hechas para que los objetos y las deformaciones que se hacen necesarios mientras el juego roll se desarrolla sean simulados tan naturalmente como sea posible, para no dificultar la concentración del jugador. El aspecto del procesamiento de la imagen se describe ahora.
Las imágenes proporcionadas por esta máquina de juego son imágenes que se proyectan hacia un plano bidimensional prescrito para que el espacio virtual establecido tridimensionalmente parezca ser observado de una perspectiva prescrita. Las configuraciones están hechas para que el espacio virtual pueda ser movido mientras se mantiene una relación de posición más o menos constante entre la posición de esa perspectiva y el carácter que corresponde al héroe. Consecuentemente, al jugador, las imágenes se proveen tal que se parecen a aquellas que secuencialmente le aparecen al ojo del héroe que viaja a través del mundo virtual.
Durante la secuencia del juego, cuando el carácter que corresponde al héroe entra en un edificio, si el despliegue del edificio se mantiene inalterado, entonces la situación dentro del edificio no se presenta al jugador porque está bloqueado por paredes que están dividiendo a los miembros. Convencionalmente, o esa pared del edificio que está a un lado de la perspectiva se extingue momentáneamente y se despliega, o el propio edificio es hecho un edificio que no tiene ningún tejado desde el principio. Con tal despliegue como este, sin embargo, el despliegue cambia de repente o la innaturalidad se imparte. También, debido a que las paredes que configuran el edificio tienen los datos de la textura mapeados a un polígono, su sección transversal se despliega como un simple panel, que es enteramente antinatural.
De esa manera, en esta máquina de juego, las dificultades notadas previamente son eliminadas desplegando la pared del edificio a un lado de la perspectiva para que gradualmente se vuelva más tenue cuando un carácter entra en el edificio. También, las paredes del edificio se determinan gruesas para que las secciones transversales de ahí no parezcan antinaturales.
En La fig. 2A se muestra un diagrama de flujo que describe este procesamiento de la imagen y en La fig. 2B se representa una subrutina para ese proceso de generación de la imagen. Estos procesos se realizan con un cronometraje de actualización de la imagen como, por ejemplo, una vez cada período del marco. En La fig. 3 a la 7 se dan ejemplos de despliegue de la imagen que muestran este procesamiento de la imagen desde el inicio hasta el final.
La rutina de la secuencia del juego (paso S11): Primero, el CPU 101, basado en las señales de control proporcionadas por el dispositivo de entrada 107, computa una nueva posición para un carácter en el espacio virtual para el próximo tiempo de despliegue de la imagen. Cuando hay otros objetos al lado del carácter para los cuales el movimiento se fija, nuevas posiciones para aquellos también se computan.
Estimación de la condición (S12): A continuación, el CPU 101 decide si el carácter está intentando o no entrar en un edificio. Esta condición puede concebirse de varias maneras. Por ejemplo, es posible juzgar que el carácter "entró en el edificio" en el momento en que la distancia de la posición del centro de edificio a la posición del centro de carácter queda debajo de cierto valor. O una estimación de la colisión conocida puede realizarse para el objeto del edificio y el caracter, y una estimación dice que el carácter ha entrado en el edificio cuando se estima que una colisión ha ocurrido. Alternativamente, la condición puede ser el estado de una acción tomada por el carácter relativa a un objeto dentro o fuera del edificio, como subir los escalones, o abrir una puerta, o abrir una ventana, y así sucesivamente.
Un ejemplo de un despliegue de la imagen cuando esta condición se cumple (SÍ en S12) se da en La fig. 3. En La fig. 3, un objeto edificio B y un carácter C se despliegan tridimensionalmente. El carácter C se ha acercado a la puerta del edificio B. Cuando esta condición no se cumple (NO en S12), no habrá ningún procesamiento de alteración de densidad, y el CPU 101 realiza el procesamiento de la generación de la imagen original (S16).
Especificando los objetos para la alteración de densidad (S13): Después de que la condición notada anteriormente se ha cumplido, el CPU 101 especifica un objeto que tendrá su densidad alterada. Es decir, el CPU 101 determina los elementos del despliegue específicos (grupos de polígonos) para el edificio para los cuales la densidad se hará más tenue desde las posiciones relativas del carácter y el edificio. Por ejemplo, una vez que es determinado que el carácter está entrando en el primer piso del edificio, un número del objeto que designa el "primer piso del edificio" como un objeto para el cual la densidad se alterará se pone en una variable de modo de alteración de densidad prescrita (almacenada en los 4 bits superiores, por ejemplo) (S14). Alternativamente, el número del objeto puede especificarse del flujo de la secuencia de juego. Por ejemplo, si el edificio es una estructura de dos pisos y el carácter está entrando del exterior, puede juzgarse que el carácter está entrando en el primer piso del edificio.
Especificando la bandera de alteración de densidad (S15): El CPU 101 entonces fija una bandera en la variable de modo de alteración de densidad de acuerdo a cuándo la densidad se alterará para volverse más tenue o más densa (fijando el valor de los 4 bits más bajos a 1 para "hacerla más tenue", a 2 para "hacerla más densa", y a 0 para "ninguna alteración (el cero de la bandera)", por ejemplo). Cuando el carácter entra en el edificio, es necesario desplegar la parte delantera del edificio más tenue para hacer fácil ver el interior del edificio. Recíprocamente, cuando el carácter deja el edificio, es necesario hacer la textura de la parte delantera del edificio más densa para restaurar el despliegue del edificio a como estaba originalmente. El CPU 101, referenciando varias banderas que indican los estados de secuencias del juego, estima qué acciones el carácter está tomando o la dirección del movimiento, y determina el modo de alteración de densidad. Entonces almacena un código preestablecido que indica ese modo de alteración de densidad junto con el número del objeto en la variable de modo de densidad de alteración. Cuando un código es fijado en esta variable (cuando, por ejemplo, un valor distinto de 0 se almacena), el CPU 101 asume que la bandera de alteración de densidad se ha activado. El método por el que se asignan los códigos de alteración de densidad a las variables puede diseñarse o puede modificarse de varias maneras.
El procesamiento de la generación de la imagen (S16): Cuando la fijación del modo de alteración de densidad descrita anteriormente se ha completado, el CPU 101 procede al procesamiento de la generación de la imagen. Ninguna descripción se da aquí del procesamiento ordinario de la generación de la imagen. La descripción empieza desde la fase donde, para un edificio, el procesamiento es realizado para mapear la textura y efectuar el obscurecimiento. Primero, el CPU 101 referencia la variable de modo de alteración de la densidad. Si la bandera está desactivada (NO en S101), es decir, si no hay ninguna alteración en la densidad, el CPU 101 deja la densidad de textura del edificio como está y retorna.
Si la bandera está activada (SÍ en S101), es decir, si la densidad va a ser alterada, el CPU 101 de nuevo referencia el código de la variable y lee del número del objeto la densidad que será alterada y el modo de alteración de la densidad. Cuando un modo para hacer la densidad más densa ha sido fijado (hacer más densa en S102), el procesamiento de obscurecimiento se realiza (S103) para levantar la densidad una escala en los datos de la textura mapeados al grupo del polígono (elementos del despliegue específicos) configurando la parte del edificio, a un lado de la perspectiva que está asociada con ese número del objeto. Las gradaciones que determinan esta densidad pueden alterarse diversamente según la velocidad con la cual la densidad será alterada. Cuando las gradaciones son pocas, la alteración será repentina, mientras que cuando las gradaciones son muchas, la alteración será lenta. Por ejemplo, si 60 gradaciones son fijadas, las fijaciones pueden hacerse para completar la alteración de densidad con 60 rutinas de ciclos (aproximadamente 1 segundo con el esquema NTSC). Estas gradaciones son fijadas con un comando proporcionado al bloque de video 11.
Si la alteración de densidad ha procedido a la gradación más densa (es decir, el despliegue opaco ordinario) (SÍ en S104), la bandera de alteración de densidad se desactiva, es decir, la variable de modo de alteración de densidad se resetea con cero, etc. (S105).
Durante el curso de alterar la densidad (NO en S104), la bandera de alteración de la densidad no se desactivará. Este curso se indica, por ejemplo, en la secuencia representada en La fig. 4 a la 7. Una vez que el carácter C ha entrado en el edificio B, la densidad de la textura del grupo del polígono que constituye los elementos del despliegue específicos en los polígonos que configuran el edificio B se vuelve menor. Finalmente, los elementos del despliegue específicos se volverán completamente invisibles, como se indica en La fig. 7, y los objetos del 01 al 04 desplegados en el interior del edificio y el carácter C que atraviesa el cuarto se muestran. Como puede entenderse de la fig. 7, los objetos que despliegan el mobiliario y las decoraciones del interior no están sujetos a la alteración de densidad, y es preferible que ellos se desplieguen a lo largo de la pared, vistos desde la perspectiva tan lejos como sea posible, para que la situación interior sea fácil de observar.
Las paredes del edificio en esta máquina de juego se dan gruesas. Convencionalmente, las paredes no tenían ningún grueso, haciendo las cosas parecer antinatural cuando una parte del edificio fuera eliminada. En la invención presente, se establecen polígonos para configurar las paredes exteriores del edificio y se establecen polígonos para configurar las paredes interiores, respectivamente, y una cierta distancia es fijada entre esos dos [grupos de] polígonos. Por esa razón, cuando la densidad de los elementos del despliegue específicos se hace más tenue, como se describe anteriormente, los elementos del despliegue determinados para no estar sujetos a la alteración de densidad pueden verse a través de estos, y las secciones transversales entre las paredes exteriores y paredes del interior del edificio se hacen visibles. La vista será antinatural si ninguna textura se mapea a estas secciones transversales, por lo cual, en esta máquina de juego, los datos de textura de sección transversal se mapean entre las dos paredes. En La fig. 7, las secciones transversales SS1 a SS5 son visibles. Los datos de textura de la sección transversal de la pared derecha se mapean en SS1 a SS3, mientras que los datos de la sección transversal de piso se mapean en SS4 y SS5. Debido a que la textura se aplica a estas secciones transversales, ninguna innaturalidad aparecerá cuando los elementos del despliegue específicos se vuelvan transparentes, y el jugador puede tener la ilusión de que él o ella están mirando secciones transversales reales del edificio.
Ahora, cuando el modo de espesamiento de la densidad se fija en el paso 102 (se hace más tenue en S102), el procesamiento se hace al reverso de lo descrito anteriormente. Es decir, el procesamiento de obscurecimiento se realiza (S106) para bajar la densidad una escala en los datos de la textura mapeados al grupo del polígono (los elementos del despliegue específicos) configurando la parte del edificio, a un lado de la perspectiva, que está asociada con ese número del objeto. Entonces, si la alteración de densidad ha procedido a la escala más tenue (es decir, el despliegue transparente) (SÍ en S107), la bandera de alteración de densidad se activa, es decir, la variable de modo de alteración de densidad se resetea a cero, etc. (S105). Durante el curso de alterar la densidad (NO en S107), la bandera de alteración de densidad no se desactivará.
El procesamiento descrito previamente no se limita a los casos de entrada o de salida de un edificio, además, y puede aplicarse a varios tipos de alteraciones. Por ejemplo, en un caso donde hay un número plural de cuartos en el edificio, pueden ponerse números del objeto para cada cuarto, y el control afectado para aumentar o disminuir la densidad cuarto por cuarto. En otras palabras, en un caso donde un carácter se mueve de un cuarto a otro, alcanzando el umbral de un cuarto puede efectuarse la condición descrita anteriormente, el cuarto a través del cual ha pasado puede hacerse más denso gradualmente y retornar a lo que era originalmente, y la densidad del cuarto sobre el cual se entró puede hacerse gradualmente más tenue.
Si el edificio es una estructura de dos pisos como se indica en La fig. 3 a la 7, la condición puede ser que el carácter esté subiendo los escalones (02 en La fig. 7), la densidad del juego de elementos de despliegue específicos para el primer piso vuelve a lo que era originalmente, y la densidad de los elementos del despliegue específicos fijados separadamente para el segundo piso disminuye. Cuando se desciende las escaleras, se hace lo reverso. Basado en el procesamiento de esta manera, las paredes pueden eliminarse naturalmente y pueden restaurarse de acuerdo con el progreso del caracter, por lo que no hay ningún peligro de interferir con la concentración del jugador.
Basándose en este aspecto de la realización, cuando un carácter entra o deja un objeto como un edificio, es posible efectuar las transiciones del despliegue naturales sin reducir el sentido de realismo de un jugador que está completamente sumergido en el mundo del juego.
Segundo Aspecto de la Realización
Este aspecto de la realización se refiere a un método que hace posible representar objetos tal como los árboles con un notable realismo, sin desplegar las imágenes antinaturales, en máquinas de juego sujetas a ciertas limitaciones de capacidad de procesamiento.
El hardware usado en este segundo aspecto de la realización es el mismo que aquel indicado en el primer aspecto de la realización, y por tanto no se describe aquí. Se asume, sin embargo, que los datos del polígono y los datos de la textura, etc., para facilitar el despliegue de árboles en la invención presente se leen en esta máquina de juego del CD-ROM. El funcionamiento se describe ahora.
En un mundo virtual, si un carácter que corresponde a un héroe se acerca a un objeto (como un árbol), ese objeto se despliega más grande como cuando se aproxima a un árbol real.
Con los métodos convencionales para desplegar un árbol, la textura del árbol completo se representa en un polígono llano, o un compuesto es hecho en donde polígonos a los que la textura se ha mapeado para representar las hojas se insertan en forma cruzada en el centro del tronco, o los árboles son representados por objetos en forma de pelota, mapeando los datos de la textura hacia los polígonos para lograr una vista en forma de árbol. Por tanto, cuando la perspectiva se acerca al árbol, las hojas se despliegan como paneles, produciendo una representación en forma de árbol.
En contraste a eso, en esta máquina de juego, los objetos (en forma de paraguas, por ejemplo) se configuran en donde los elementos del despliegue llanos a los que se han mapeado los datos de la textura se despliegan radialmente sobre un eje del centro para subtender un cierto ángulo con ese eje del centro. Entonces uno o más de estos objetos en forma de paraguas se posicionan en el espacio virtual para que se apilen, haciendo posible presentar una imagen en forma de árbol incluso cuando se aproximan.
En La fig. 8, un objeto en forma de paraguas de los objetos árbol presentados en esta máquina de juego se muestra en una representación en forma de cable. La fig. 8A es una vista diagonal mientras La fig. 8B es una vista plana. En La fig. 8, el objeto en forma de paraguas se configura como un octágono que usa ocho polígonos triangulares, pero el número y la forma de los polígonos no están limitados a eso. Es posible hacer las representaciones de la forma de árbol mapeando datos de la textura que consisten en puntos que tienen densidades diferentes o colores sutilmente diferentes a estos polígonos, respectivamente. Si todos los polígonos se hacen para encarar descendentemente, eso es, para formar una forma de paraguas, la semejanza a un cedro u otro árbol de hoja perenne pueden efectuarse, y si los polígonos se despliegan al azar con algún paramento ascendente y alguno descendente, la semejanza a un árbol de hoja ancha puede efectuarse.
La fig. 9 es un diagrama para describir un objeto árbol que usa cinco de los objetos en forma de paraguas descritos anteriormente (C1 a C5). Este objeto árbol se configura desplegando los objetos en forma de paraguas C1 a C5 sobre el objeto del tronco T que rodea el eje del centro A. Los ángulos subtendidos por los polígonos que configuran los objetos en forma de paraguas C1 a C5 y el eje del centro A pueden ser todos los mismos o pueden ser diferentes. Lo mismo se cumple con el radio r1 al r5 de los objetos en forma de paraguas y con los grados de inclinación p12, p23, p34, y p45 entre los objetos en forma de paraguas. Es posible desplegar imágenes muy realistas haciendo el número de objetos en forma de paraguas mayor y el grado de inclinación p menor, pero eso también produce un mayor volumen de datos y procesamiento de tiempo. Como consecuencia, éstos son determinados según la capacidad de memoria y el poder de procesamiento.
En términos específicos, los procedimientos de generación de imagen son esquematizados en La fig. 10. En el proceso de generación de imagen descrito anteriormente (Fig. 2A, paso S16), el CPU 101, en paralelo con otra generación de imagen de objeto, primero especifica los polígonos y determina un grupo de datos del polígono para desplegar los objetos (S1). Así se especifican los polígonos a ser usados. Luego, el CPU 101 envía datos de designación de objeto que indican datos de la matriz que determinan los polígonos especificados y su tamaño al bloque de video 11. Así las formas de cada uno de los objetos usadas son determinadas (S2). El CPU 101 también envía los datos de posición de objeto que determinan el posicionamiento espacial de los objetos en forma de paraguas y el objeto del tronco al bloque de video. Así las formas de árbol son determinadas aparte de la textura (S3). Finalmente, se envían los datos de designación de textura para designar la textura a ser mapeada a los polígonos que configuran los objetos en forma de paraguas y el objeto del tronco. En el bloque de video 11, esos datos de la textura se mapean y el objeto árbol está acabado. Este objeto es convertido de campo a vista y desplegado (S4).
Los objetos en forma de paraguas descritos anteriormente pueden alterarse de varias maneras. Por ejemplo, como se esquematiza en La fig. 11, cuando el arreglo de las texturas T1 a T8 desplegado en el objeto en forma de paraguas normalmente se fija a todos los objetos en forma de paraguas, es posible cambiar el posicionamiento con lo cual la textura se mapea en el orden C1, C2, C3, y así sucesivamente. Cuando esto se hace, la textura idéntica no se apilará verticalmente ni al mapear la misma textura a los objetos en forma de paraguas, haciendo posible presentar la semejanza a un árbol natural.
Como se esquematiza en La fig. 12, además, cambiando los polígonos en los lados circunferenciales exteriores en los objetos en forma de paraguas C2 a C5, es decir, en todos exceptuando el objeto en forma de paraguas más alto C1, es fácil hacer el diámetro del paraguas más grande. No necesitando alterar el tamaño de los polígonos es posible reducir tiempo de computación.
También es posible, como se esquematiza en La fig., 13, desplegar los polígonos que configuran el objeto en forma de paraguas cambiándolos de arriba a abajo para que no se toquen. Cuando esto se hace, las hojas del árbol se superponen en múltiples capas, haciendo posible presentar una semejanza más natural al árbol. Alternativamente, el despliegue puede hacerse para que el objeto sea en forma de abanico con las secciones transversales pasmadas.
Esta descripción de este aspecto de la realización pertenece a la representación de un árbol, pero los objetos a los que esta descripción puede aplicarse no se limitan a los árboles. Es posible aplicar esta descripción a todos los tipos de objetos que tienen formas complejas que por consiguiente exigen un número enorme de rutinas reproducirse fielmente y que, si se representan con la textura simple, terminan como los despliegues antinaturales cuando se acercan.
Basado en este segundo aspecto de la realización, un beneficio se gana en esos objetos y es que los árboles pueden desplegarse con una semejanza natural incluso cuando un carácter se aproxima a ellos, para que el sentido de realismo del jugador no se comprometa.
Tercer Aspecto de la Realización
Este aspecto de la realización se refiere a otro método que hace posible representar árboles muy realistas como en el segundo aspecto de la realización.
El hardware usado en este tercer aspecto de la realización es el mismo que el indicado en el primer aspecto de la realización, y por tanto no se describe aquí. Se asume, sin embargo, que un programa, los datos del polígono, y los datos de la textura, etc., para facilitar el despliegue de árboles en la invención presente son leídos en esta máquina de juego desde el CD-ROM. El funcionamiento se describe ahora.
Considerando que en el segundo aspecto de la realización descrito sobre las formas de elementos del despliegue para representar racimos de hojas para representar un objeto árbol es arrastrado como formas especiales, en este tercer aspecto de la realización, se despliegan elementos del despliegue llanos a los que la textura se ha mapeado para representar los racimos de hojas en una pluralidad dentro de un área espacial específica sobre el tronco para configurar un objeto.
En La fig. 14 se da una muestra de vista diagonal de un objeto árbol en este aspecto de la realización representado en forma de cable. Como es esquematizado en La fig. 14, el objeto árbol se configura como un elemento de despliegue T que representa el tronco y una pluralidad de elementos de despliegue P que representan racimos de hojas.
El elemento de despliegue T que representa el tronco se configura con una pluralidad de polígonos en la forma espacial de un árbol. Cada uno de los elementos de despliegue P que representan un racimo de hojas consiste en un solo polígono compuesto de un número de ápices respectivamente prescrito (4, por ejemplo). Los elementos de despliegue P se despliegan adecuadamente en el área espacial alrededor del elemento de despliegue T que representa el tronco. El despliegue del elemento de despliegue P es determinado de antemano para que las superposiciones del elemento de despliegue P se vuelva menor visto desde las posiciones en el espacio virtual donde la perspectiva existe principalmente. Tales datos de imagen de objetos árbol se almacenan de antemano en el CD-ROM, etc.
En La fig. 15 se da un diagrama para describir el método del control direccional en este aspecto de la realización.
El control direccional se efectúa en este aspecto de la realización, como es esquematiza en La fig., 15, estableciendo un vector del punto representativo V1 para cada objeto árbol en asociación con la perspectiva VP, y controlando la dirección de cada elemento de despliegue P para que la pluralidad de elementos de despliegue P configure esas caras del objeto en la dirección del vector del punto representativo V1. En otras palabras, las direcciones en las cuales los planos de cada una de la pluralidad de caras de elementos de despliegue son alteradas dinámicamente y uniformemente en correspondencia con la dirección V0 de la perspectiva VP, y controladas para que ellos siempre afronten la misma dirección.
El vector del punto representativo V1 se establece a cualquier único punto en el objeto árbol. Cualquier único punto no se establece en un elemento de despliegue P o T, pero aquí se establece en el elemento del despliegue específico P0. En cualquier dirección que el elemento del despliegue específico P0 afronta, los demás elementos de despliegue P también afrontarán esa misma dirección, por lo cual es preferible que un elemento de despliegue P cerca del centro del objeto árbol se haga el elemento del despliegue específico P0.
También es preferible que el vector del punto representativo V1 se establezca en la misma dirección que la línea de vector de vista V0, es decir, en la dimensión del eje Z del campo de conversión de vista. La razón para esto es que, si se hace, el elemento de despliegue específico P siempre afrontará la dirección de la perspectiva P, y los otros elementos de despliegue P también enfrentarán más o menos la dirección de la perspectiva VP.
En La fig. 16 se da una vista agrandada de un elemento de despliegue P que representa un racimo de hojas. El elemento de despliegue P tiene una forma cuadrada, por ejemplo, que se define por las coordenadas para los ápices VX1 a VX4. No hay ninguna limitación en el número de ápices, pero es suficiente proporcionar 3 o 4. Cada elemento de despliegue P puede rotarse de cualquier manera sobre los tres ejes rotatorios X, Y, y Z que cortan al punto del centro (el centro de gravedad). Más específicamente, en el caso de desplegar un elemento de despliegue P que se define en un sistema de coordenadas de un cuerpo en un sistema de coordenada mundial, se posiciona rotándolo un ángulo rotatorio determinado sobre cada uno de los ejes X, Y, y Z. Así cada elemento de despliegue P se configura para que sea posible orientar la dirección normal en cualquier dirección, y los elementos de despliegue P siempre pueden controlarse direccionalmente según la posición de la perspectiva.
Los mismos datos de la textura PT se mapean dentro de cada elemento del despliegue P. Si hay memoria excedente disponible pueden proporcionarse varios tipos disponibles de datos de la textura. Sin embargo, debido a que es posible representar una semejanza adecuada por la interpolación lineal de valores del brillo (densidad), un tipo es suficiente. Incluso cuando los mismos datos de la textura se usan, sin embargo, es preferible que la dirección de mapeo se altere al azar para cada elemento del despliegue P. Si tal técnica se adopta, los racimos de hojas se desplegarán en formas diferentes, haciendo posible por consiguiente representar los árboles extremamente naturales aunque se usen idénticos datos de textura conformados.
A cada ápice que configura un elemento de despliegue P se fija un coeficiente pesado para definir la interpolación lineal del brillo. Este valor puede fijarse como se desee. Si se restringe al rango de 0 a 1, por ejemplo, se asume que el brillo es el cero (es decir, negro en el despliegue) cuando ese valor es 0, y 100% (es decir, blanco en el despliegue) cuando ese valor es 1. La unidad de procesamiento se configura para que, al mapear la textura a un elemento de despliegue P, el brillo de la textura mapeado a ese elemento de despliegue P pueda interpolarse linealmente por los coeficientes pesados para cada ápice. Por ejemplo, si un coeficiente pesado de 1 se pone a un ápice en el elemento del despliegue y un coeficiente pesado de 0 se le pone a otro ápice, entre estos dos ápices, la textura se desplegará con una graduación tal que el brillo cambia gradualmente de brilloso a oscuro de un ápice al otro.
En La fig. 17A se muestra un ejemplo de mapeo de textura cuando los coeficientes pesados de todos los ápices están fijados en 1, y en La fig. 17B se muestra un ejemplo de mapeo de textura cuando se cambian los coeficientes pesados de ápices en los lados opuestos. Cuando el mismo coeficiente pesado se fija a todos los ápices, como se muestra en la fig. 17A, el despliegue es llano sin diferencias en el brillo. Recíprocamente, cuando se cambian los coeficientes pesados de ápices, una diferencia en el brillo aparece como si la luz del sol estuviera brillando de una dirección, produciendo una vista tridimensional.
El funcionamiento de este aspecto de la realización se describe ahora con referencia al diagrama de flujo proveído en la fig. 18.
Cuando es necesario desplegar un objeto árbol en el espacio virtual, el CPU 101 para generar un elemento de despliegue T para representar la lectura del tronco del CD-ROM, genera un elemento de despliegue del tronco con un grupo del polígono asociado él. El CPU 101 también establece la posición del centro (el centro de gravedad) de los elementos de despliegue P sobre el elemento de despliegue del tronco T (S21). Después de leer los polígonos para el elemento de despliegue P, el CPU 101 despliega los polígonos para el elemento de despliegue P en la posición del centro del elemento de despliegue P establecida anteriormente (S22).
Después de adquirir el vector de la perspectiva V0 de la perspectiva VP (S23), el CPU 101 computa el vector del punto representativo V1 (S24). El vector de la perspectiva V0 orientado hacia el elemento del despliegue específico P0 en el objeto árbol puede usarse como está para el vector del punto representativo V1.
Para fijar la densidad de mapeo de la textura, el CPU 101 lee un vector ligero de ambiente (S25), y reconoce la dirección de iluminación primaria relativa al objeto árbol. El CPU 101 determina los coeficientes pesados para ser fijados a los ápices de cada aparato de despliegue P en correspondencia con el vector ligero de ambiente reconocido (S26). Estas configuraciones son hechas para que los coeficientes pesados más cercanos en dirección hacia la iluminación ambiental sean superiores y aquellos más lejanos sean inferiores. Las configuraciones de la densidad (el brillo) no son exactas, por lo cual es posible hacer asignaciones simples, tal como hacer los coeficientes pesados de ápices más cercanos a la iluminación ambiental 1, los coeficientes pesados más lejanos de allí 0, y los coeficientes pesados intermedios 0.5. Es permisible, sin embargo, determinar los coeficientes pesados por computaciones lineales de la intensidad de la iluminación ambiental y la relación de posición entre la iluminación ambiental y los ápices. Diferentes coeficientes pesados pueden fijarse para cada elemento de despliegue P, pero desde que la iluminación ambiental afecta el objeto árbol entero uniformemente, será suficiente si el mismo conjunto de coeficientes pesados para un elemento de despliegue P es fijado para todos los otros elementos del despliegue P.
Para cada uno de los elementos de despliegue P desplegados en el objeto árbol, el CPU 1 orienta los polígonos para que ellos afronten la dirección del vector del punto representativo V1 determinada anteriormente (S27). El CPU 101 también mapea los datos de textura PT a los elementos de despliegue direccionalmente controlados P (S28). Cuando eso se hace, el brillo de la textura se interpola linealmente según los coeficientes pesados del ápice determinados como se describe anteriormente, y se crean los datos de mapa de bit para que la variación de la densidad (la variación del brillo) se produzca.
El CPU 101 realiza el control de la dirección (S27) y el mapeo de textura (S28) mientras los polígonos que son elementos de despliegue P existan (NO en S29). Cuando el control de la dirección y el mapeo de textura se han completado para todos los polígonos (SÍ en S29), el CPU 101 se mueve a la próxima rutina del proceso.
\vskip1.000000\baselineskip
Aspectos de la realización
Por este aspecto de la realización se representa una realización en un caso donde los objetos árbol son actualmente dibujados. En La fig. 19 se muestra una representación en forma de cable en un caso donde el despliegue de un objeto árbol es determinado, desde el lado. Los elementos de despliegue P que representan los racimos de hojas se despliegan para ser esparcidos sobre un elemento de despliegue T que representa el tronco. En esta realización, 44 elementos de despliegue P se despliegan.
En La fig. 20 se muestra un ejemplo del despliegue en donde la textura se ha mapeado al objeto árbol determinado en la fig. 19. En este ejemplo, los coeficientes pesados para los elementos de despliegue P son fijados con la presunción de que la luz de ambiente se dirige desde arriba sobre el dibujo (fig. 17B). Una imagen de fondo BG se despliega para que pueda verse a través de ella en aquellas porciones de los datos de la textura mapeados a los elementos de despliegue P que no tiene ningún dato. Un objeto de sombra S se despliega debajo del objeto árbol. Esta sombra es como la que se despliega en un aspecto de la realización que se describirá como consecuencia.
La fig. 21 es una representación en forma de cable cuando la posición de la perspectiva se mueve sobre el objeto árbol. La fig. 22 es lo mismo con datos de la textura mapeados.
Según este aspecto de la realización, a pesar del hecho de que los datos de la textura mapeados a los elementos de despliegue P son idénticos, puede confirmarse que la semejanza a un árbol natural puede representarse adecuadamente por sombras basadas en los coeficientes pesados y el despliegue aleatorio.
En La fig. 23 se representa, para la comparación, un caso donde los coeficientes pesados son fijados uniformemente, es decir, un caso equivalente a un caso donde no hay ninguna interpolación lineal. Cuando la interpolación lineal no se hace, se eliminan la variación de densidad y la variación de la luz, produciendo una representación de la imagen llana.
En La fig. 24 se da un ejemplo de despliegue de la imagen en un caso donde el pesado se hace asumiendo que la dirección de la luz de ambiente es desde abajo (de la tierra). Puede confirmarse que los despliegues de la imagen pueden hacerse teniendo un sentido de realidad incluso en los casos donde las imágenes sobrenaturales- -como aquellas donde la tierra está brillando- -se representan.
Ejemplo de la modificación
En el aspecto de la realización descrito anteriormente, un vector del punto representativo V1 se establece y todos los elementos de despliegue P se orientan para afrontar esa dirección. Cuando los recursos de procesamiento de computación excedente están disponibles, sin embargo, todos los elementos de despliegue P pueden controlarse direccionalmente para afrontar la dirección de la perspectiva VP. Es decir, como se esquematiza en la fig. 25, una pluralidad de elementos de despliegue P se controla direccionalmente para que cada una de las líneas normales V3 en la cual aquellos elementos de despliegue P se oriente en la dirección del punto de vista VP. El control direccional se efectúa para todos los elementos de despliegue P para que las líneas normales en sus centros de gravedad PC sean paralelas a la línea del vector de vista V0, sin determinar un elemento del despliegue específico P.
Si se procesa de esta manera, es posible representar la semejanza de las hojas naturalmente en cualquier lugar en un árbol, incluso en casos donde la perspectiva se acerca extremamente cerca del objeto árbol (como la perspectiva de un bicho que se arrastra en el tronco).
La descripción de este aspecto de la realización se refiere a la representación de un árbol, pero no se limitan a los árboles los objetos a los que la invención presente puede aplicarse. Puede aplicarse a todos los tipos de objetos que, debido a que tienen formas complejas, exigen un número enorme de rutinas del proceso para reproducirse fielmente, y lo que puede producir un despliegue antinatural, cuando se acerca, si se representa con una textura simple.
Basado en el tercer aspecto de la realización descrito en previamente, los beneficios se comprenden en que es posible desplegar los árboles con una semejanza natural, incluso cuando la perspectiva se acerca extremamente cerca del árbol (u otro objeto), y para evitar dañar el sentido de realismo del jugador.
Cuarto Aspecto de la Realización
Este aspecto de la realización se refiere a un método que hace posible representar sombras naturales que no dañan el sentido de realismo en máquinas de juego sujetas a ciertas limitaciones de poder de procesamiento.
El hardware usado en este cuarto aspecto de la realización es el mismo que el indicado en el primer aspecto de la realización, por lo se describe aquí. Se asume, sin embargo, que un programa y datos de imagen, etc., necesitados para facilitar la representación de sombras en la invención presente, se leen del CD-ROM. El funcionamiento se describe ahora.
Cuando se dan a los caracteres las sombras en máquinas de juego convencionales, se despliegan objetos negros que indican las sombras bajo los caracteres. Esto produce dificultades, sin embargo, cuando la tierra se hace irregular para hacer parecerse al terreno natural. Es decir, cuando un carácter se mueve por la tierra irregular, la sombra es tragada por las porciones salientes de la tierra por lo que no se muestra.
Este aspecto de la realización provee un método para impartir sombras que son simples y eficaces. Este método es un método de procesamiento de imagen para generar los objetos para desplegar las sombras entre la perspectiva y un caracter.
El método de procesamiento de imagen en este aspecto de la realización se describe con referencia al diagrama de flujo mostrado en la fig. 26. Este diagrama de flujo representa un método de procesamiento para las imágenes generadoras de un objeto.
Primero, el CPU 101 realiza el procesamiento de secuencia de juego ordinario, determinando la posición del objeto en un nuevo período de tiempo de actualización de imagen (S31). Por ejemplo, como se esquematiza en la fig. 27, la tierra G que es el plano de referencia y el carácter C se configuran por los polígonos, y el despliegue del carácter C y de la tierra G son determinados. Luego, una determinación es hecha acerca de si el objeto desplegado en el espacio virtual es o no un carácter (S32) para generar el objeto sombra. Si no es un carácter (NO en S32), es decir, si es un objeto que simula una forma estacionaria que no requiere ninguna sombra, el procesamiento se mueve adelante a una rutina de generación de imagen que no involucra ninguna sombra (S35).
Si el objeto es un carácter (SÍ en S32), la elevación del carácter se computa (S33). La elevación del caracter, como se esquematiza en la fig., 27, se juzga por la posición del centro CC del carácter establecido bajo las piernas del carácter X. En la fig. 27, el carácter C está caminando encima de la tierra G, por lo cual la elevación es cero. En la fig. 28, el carácter C ha saltado a una posición superior, produciendo una elevación H.
Luego, la posición de la sombra es determinada según la elevación del caracter. Cuando la elevación es cero, como en la fig. 27 por ejemplo, el CPU 101 hace configuraciones para que el centro SC del objeto sombra S se posicione en una línea que une la perspectiva VP y el centro del carácter CC. Este centro de la sombra SC se hace para estar posicionado en la esfera SP de cierto radio Rs del centro del carácter CC, por ejemplo. Como consecuencia, cuando la perspectiva VP se mueve, la posición del centro de la sombra SC también se moverá, siguiendo la superficie de la esfera PV. Un diagrama ejemplar del despliegue de la imagen que es el resultado de este despliegue se muestra en la fig. 29 y un despliegue de la imagen de ejemplo se muestra en la fig. 31. Debido a que la sombra S está delante del carácter C, el despliegue muestra la sombra S cayendo debajo de las piernas del carácter C, pero no hay ninguna innaturalidad porque la sombra S sólo cae parcialmente en las piernas. Cuando la perspectiva VP se mueve a la misma posición en la tierra G, el plano de la sombra S se vuelve paralelo a la línea de vista, así la sombra S desaparece.
Si la elevación del carácter C no debería ser cero, la sombra se mueve descendentemente el espacio virtual en correspondencia con esa elevación. Más específicamente, [la sombra S] se mueve a lo largo de la línea de intersección entre la esfera SP y un plano perpendicular a la tierra G que contiene la línea que une la perspectiva VP y el centro del carácter CC. La distancia de este movimiento se hace para ser proporcional al rango, por ejemplo. En la fig. 28, por ejemplo, la elevación es H, así la sombra entre SC se moverá en la dirección indicada por la flecha blanca. Un diagrama ejemplar para el despliegue de la imagen que es el resultado de este despliegue se muestra en la fig. 30. Una imagen natural se despliega mostrando el carácter C que salta de la tierra y la sombra S separándose.
Tan pronto como la relación de posición entre el carácter y su sombra ha sido determinada como se describe anteriormente, el CPU 101 realiza el procesamiento de generación de imagen ordinario, mapeando los datos de la textura al carácter y la sombra (S35). Se mapean los datos al objeto sombra S para que sea negro con una circunferencia difusa, así mostrado en la fig. 31, por ejemplo.
Basado en este aspecto de la realización, los beneficios se comprenden en que esas sombras naturales pueden desplegarse sin aumentar la carga de computación, y sin dañar el sentido de realismo del jugador.
Quinto Aspecto de la Realización
Este aspecto de la realización se refiere a otro método para hacer posible representar las sombras naturales en el cuarto aspecto de la realización descrito anteriormente.
El hardware usado en este quinto aspecto de la realización es el mismo que el indicado en el primer aspecto de la realización, por lo que ninguna descripción adicional se da. Se asume, sin embargo, que un programa y los datos de imagen, etc., necesitados para facilitar la representación de sombras en la invención presente, se leen del CD-ROM. El funcionamiento se describe ahora.
Este aspecto de la realización provee otro método para impartir las sombras eficaces de manera simple. Este método es uno con el cual la luz de iluminación, particularmente una fuente de iluminación para iluminar una luz negra, se establece para desplegar una sombra en un área para desplegar una sombra del caracter.
Para llevar a cabo este método de procesamiento de imagen, el CPU 101 establece una fuente de iluminación (luz negra) para la luz de iluminación negra brillante que se extiende hacia abajo en la posición superior de un carácter asociado para que una sombra se imparta. Como se esquematiza en la fig. 33 por ejemplo, una fuente de la luz negra LP se establece sobre un carácter C. El centro del carácter CC y la fuente de iluminación LP se alinean en una línea perpendicular la tierra G, por ejemplo. Para representar el tiempo del día cuando el sol está brillando diagonalmente, sin embargo, la posición de la fuente de iluminación LP puede moverse a una posición correspondiente a la orientación del sol en ese momento. Con las cosas configuradas así, el CPU 101 ejecuta el procesamiento de rendereo (procesamiento de obscurecimiento) basado en la fuente de iluminación LP. El CPU 101 realiza el procesamiento de rendereo en este momento para que la fuente de iluminación LP sólo se refleje en los polígonos que configuran la tierra G.
Como consecuencia, como se esquematiza en la fig. 33, sólo esa área en la tierra G iluminada por la luz negra de la fuente de iluminación LP se despliega oscura, y esto se despliega como una sombra S. El centro de la sombra SC se posicionará en una línea que une la fuente de iluminación LP con el centro del carácter CC. Un ejemplo de un despliegue de la imagen real es mostrado en la fig. 34. No se pondrá oscuro a los pies del carácter C porque la sombra S se despliega sólo para ser reflejada en la tierra G moviendo la posición de la fuente de iluminación en correspondencia con la elevación del caracter, es más, la posición de la sombra puede cambiarse para corresponder a la elevación de la misma manera como con el método del cuarto aspecto de la realización descrito anteriormente.
Basado en este quinto aspecto de la realización, los beneficios se comprenden en que esas sombras naturales pueden desplegarse sin aumentar la carga de computación, y sin dañar el sentido de realismo del jugador.
Otras Modificaciones
La invención presente puede modificarse de varias maneras independientemente de los modos descritos anteriormente. Por ejemplo, considerando que todos los elementos del despliegue y los objetos son configurados por polígonos en los aspectos de la realización descritos previamente, los objetos pueden ser desplegados por otros métodos que no usan los polígonos.
En el primer aspecto de la realización, además, la densidad se altera secuencialmente cuando un carácter entra o deja un edificio, pero la invención presente puede aplicarse cuando hay una relación entre dos objetos tal que uno entra o sale el otro, y no se limita a la relación entre un carácter y un edificio. La invención presente también puede aplicarse cuando parte de un objeto es hecha para que pueda verse a través de ella en los casos no relacionados a entrar o salir de un caracter.
En el segundo y tercer aspectos de la realización descritos previamente, además, la invención presente se aplica a los objetos como los árboles, pero la invención presente puede proporcionarse en casos donde un objeto se despliega que simula una forma que existe en el mundo natural que tiene una percepción irregular como un árbol. Es eficaz en casos donde algo que tiene una forma indistinta como el pelo o las llamas será representado con un notable realismo.
Además, en el primer, cuarto, y quinto aspectos de la realización descritos previamente, el carácter es una persona, pero el modelo no se limita a las personas, y la aplicación es posible a los animales, los robots, y lo parecido, e incluso a otras cosas en movimiento como automóviles o aviones.
Aplicabilidad industrial
Basado en la invención presente, el despliegue de la imagen puede proporcionarse para que facilite las transiciones de despliegue naturales sin dañar el sentido de realismo cuando un carácter entra o sale de un objeto.
Basado en la invención presente, el despliegue de la imagen puede proporcionarse para que facilite el despliegue de árboles con semejanza natural, incluso cuando se despliegan los árboles u otros objetos de gran extensión.
Basado en la invención presente, el despliegue de la imagen puede proporcionarse para que facilite el despliegue de sombras naturales que no dañen el sentido de realismo, sin aumentar la carga de computación.
Basado en la invención presente, una máquina de juego puede proporcionarse con la cual el procesamiento de imagen descrito anteriormente es posible.
Basado en la invención presente, un medio de grabación se proporciona que hace posible proporcionar programas con los cuales el procesamiento de imagen descrito anteriormente es posible.

Claims (20)

  1. \global\parskip0.900000\baselineskip
    1. Una unidad de procesamiento de imagen configurada para facilitar el despliegue de uno o más objetos definiendo áreas autónomas desplegadas en el espacio virtual y un carácter establecido para ser capaz de moverse relativo a dicho objeto u objetos; caracterizado en esa dicha unidad de procesamiento de imagen que comprende:
    Una unidad de procesamiento que, cuando dicho carácter entra o deja el interior de un área autónoma, gradualmente altera la densidad del despliegue de por lo menos algunos elementos del despliegue específicos de los elementos del despliegue configurando el objeto desplegado en un área relacionada al movimiento de dicho carácter tal que los elementos del despliegue específicos para los cuales la densidad del despliegue se altera son los elementos del despliegue que se localizan hacia el frente del espacio virtual con respecto a la perspectiva establecida en el espacio virtual para generar el despliegue de la imagen, en donde dicha unidad de procesamiento gradualmente disminuye la densidad del despliegue de dichos elementos del despliegue específicos cuando dicho carácter está entrando en el área autónoma, e intensifica los mismo cuando está saliendo del área autónoma.
  2. 2. Una unidad de procesamiento de imagen según la reivindicación 1, en donde un espesor se establece de antemano en miembros particionados configurando dicho objeto, y en esa dicha unidad de procesamiento se mapean y despliegan datos de la textura prescritos a secciones transversales de dichos miembros particionados desplegados por los elementos del despliegue aparte de dichos elementos del despliegue específicos.
  3. 3. Una unidad de procesamiento de imagen según la reivindicación 1, en donde la unidad de procesamiento es operable para desplegar una imagen que simula una figura en forma de árbol desplegando elementos del despliegue llanos, a donde los datos de la textura prescritos han sido mapeados, radialmente sobre un eje del centro prescrito para subtender un cierto ángulo o ángulos con dicho eje del centro para configurar un objeto, y para desplegar uno o los más tales objetos en el espacio virtual, apilados en dimensión vertical.
  4. 4. Una unidad de procesamiento de imagen según la reivindicación 3, en donde dicha unidad de procesamiento, de la pluralidad de dichos objetos apilados, configura al menos ese objeto cubriendo el extremo más alto en una forma de paraguas.
  5. 5. Una unidad de procesamiento de imagen según la reivindicación 3, en donde dicha unidad de procesamiento ajusta y configura los elementos del despliegue para que los elementos del despliegue a los que se les han mapeado idénticos datos de la textura no se apilen entre una pluralidad de dichos objetos que son adyacentes.
  6. 6. Una unidad de procesamiento de imagen según la reivindicación 3, en donde dicha unidad de procesamiento despliega elementos del despliegue configurando dichos objetos apilados a diferentes niveles para que los planos de ahí no hagan contacto entre sí.
  7. 7. Una unidad de procesamiento de imagen según la reivindicación 1, en donde la unidad de procesamiento es operable para desplegar elementos del despliegue llanos, adonde los datos de la textura prescritos han sido mapeados, en una pluralidad, dentro de un área espacial prescrita para configurar un objeto, y para direccionalmente controlar direcciones en las cuales las caras de dicha pluralidad de elementos del despliegue se orientan para corresponder con la perspectiva desde donde el espacio virtual se observa.
  8. 8. Una unidad de procesamiento de imagen según la reivindicación 7, tal que esa configuración de ahí es tal que un vector del punto representativo se establece para un dicho objeto, correspondiendo a dicha perspectiva, y dichos elementos del despliegue pueden ser controlados direccionalmente para que la pluralidad de dichos elementos del despliegue que configuran dicho objeto se oriente en la dirección de dicho vector del punto representativo.
  9. 9. Una unidad de procesamiento de imagen según la reivindicación 7, tal que esa configuración es de ahí tal que dichos elementos del despliegue pueden ser controlados direccionalmente para que cada línea normal en dicha pluralidad de elementos del despliegue se oriente en la dirección de dicha perspectiva.
  10. 10. Una unidad de procesamiento de imagen según la reivindicación 7, tal que esa configuración es de ahí tal que los coeficientes pesados se fijan a los ápices de dichos elementos del despliegue, y la densidad de la textura mapeada a dichos elementos del despliegue puede estar interpolada linealmente por dichos coeficientes pesados entre dichos ápices, y tal que, alterando dichos coeficientes pesados para corresponder con la posición de dicho objeto en el espacio virtual, la variación de densidad de la textura en dichos elementos del despliegue que configuran dicho objeto puede controlarse.
  11. 11. Una unidad de procesamiento de imagen según la reivindicación 1, en donde la unidad de procesamiento puede generar, entre dicho objeto y perspectiva para desplegar imágenes, un objeto para desplegar dicha sombra.
  12. 12. Una unidad de procesamiento de imagen según la reivindicación 11, caracterizada en esa dicha unidad de procesamiento se configura para que, según la elevación de dicho objeto sobre un plano de referencia desplegado en el espacio virtual, posiciones relativas a dicho objeto y dicho objeto sombra por esto, visto desde dicha perspectiva, pueden alterarse.
    \global\parskip1.000000\baselineskip
  13. 13. Una unidad de procesamiento de imagen según la reivindicación 1, configurada para facilitar el despliegue de un objeto y de sombra de ahí, desplegados en el espacio virtual, en donde la unidad de procesamiento que puede establecer una fuente de iluminación para la luz de iluminación brillante que está para desplegar dicha sombra hacia un área dentro de dicho plano de referencia establecido en el espacio virtual para desplegar dicha sombra de dicho objeto.
  14. 14. Una máquina de juego caracterizada por comprender una unidad de procesamiento de imagen citada en las reivindicaciones 1 a la 13.
  15. 15. Un método de procesamiento de imagen para desplegar uno o más objetos desplegados en el espacio virtual y un carácter establecido para ser movido relativo a dicho objeto u objetos en donde dichos objetos pueden ser áreas autónomas, caracterizado por comprender pasos para:
    Juzgar cuando dicho carácter ha cumplido o no cierta condición relativo a un área autónoma, existiendo dicha condición si el carácter ha entrado o ha salido del área autónoma; y
    Alterar gradualmente la densidad del despliegue de por lo menos algunos elementos del despliegue específicos entre elementos del despliegue que configuran dicho objeto desplegado en un área relacionada al movimiento de dicho carácter cuando dicha cierta condición se ha cumplido, en donde la unidad de procesamiento disminuye gradualmente la densidad del despliegue de los elementos del despliegue específicos cuando el carácter entra en el área autónoma, e intensifica los elementos del despliegue específicos cuando el carácter sale del área autónoma.
  16. 16. Un método de procesamiento de imagen según la reivindicación 15, comprendiendo además un paso para desplegar una imagen que simula una figura en forma de árbol desplegando, en el espacio virtual, en una pila, uno o más objetos configurados desplegando los elementos del despliegue llanos cuyos datos de la textura prescritos se han mapeado, en una forma radial sobre un eje del centro prescrito para subtender un cierto ángulo con dicho eje del centro.
  17. 17. Un método de procesamiento de imagen según la reivindicación 15, comprendiendo además:
    Desplegar dentro de cierta área espacial una pluralidad de elementos del despliegue llanos cuyos datos de la textura prescritos se han mapeado, para configurar un objeto; y
    Hacer posible controlar direccionalmente las direcciones a donde las caras de dicha pluralidad de elementos del despliegue están orientadas para corresponder con la perspectiva desde donde se observa el espacio virtual.
  18. 18. Un método de procesamiento de imagen según la reivindicación 15, para desplegar un objeto y una sombra de dicho objeto desplegados en el espacio virtual, incluso un paso para generar, entre dicho objeto y la perspectiva para desplegar las imágenes, un objeto para desplegar dicha sombra.
  19. 19. Un método de procesamiento de imagen según la reivindicación 15, para desplegar un objeto y una sombra desplegados en el espacio virtual, caracterizados por comprender un paso para establecer una fuente de iluminación para la luz de iluminación brillante que está para desplegar dicha sombra hacia un área dentro de dicho plano de referencia establecido en el espacio virtual para desplegar dicha sombra de dicho objeto.
  20. 20. Un medio de grabación legible por la máquina en donde los datos del programa se graban para ejecutar, en una computadora, cualquier método de procesamiento de imagen citado en las reivindicaciones 15 a la 19.
ES99919542T 1998-05-20 1999-05-12 Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion. Expired - Lifetime ES2281962T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP13813498 1998-05-20
JP10-138134 1998-05-20

Publications (1)

Publication Number Publication Date
ES2281962T3 true ES2281962T3 (es) 2007-10-01

Family

ID=15214792

Family Applications (1)

Application Number Title Priority Date Filing Date
ES99919542T Expired - Lifetime ES2281962T3 (es) 1998-05-20 1999-05-12 Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion.

Country Status (6)

Country Link
US (2) US6831659B1 (es)
EP (2) EP1669930A3 (es)
JP (1) JP4258824B2 (es)
DE (1) DE69934289T2 (es)
ES (1) ES2281962T3 (es)
WO (1) WO1999060526A1 (es)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4006105B2 (ja) * 1998-08-25 2007-11-14 キヤノン株式会社 画像処理装置およびその方法
US6971071B1 (en) * 1999-06-10 2005-11-29 Microsoft Corporation System and method for implementing an image ancillary to a cursor
JP4753147B2 (ja) * 2000-04-14 2011-08-24 株式会社セガ 画像処理装置及びプログラム
JP2002042152A (ja) * 2000-07-25 2002-02-08 Namco Ltd 画像処理装置、画像処理方法、および画像処理用プログラムを記録した記録媒体
JP3715568B2 (ja) * 2000-12-14 2005-11-09 株式会社ソニー・コンピュータエンタテインメント 画像描画装置、記録媒体及びプログラム
JP4612969B2 (ja) * 2001-07-05 2011-01-12 富士フイルム株式会社 画像比較装置、画像比較方法、画像比較用プログラム、撮影装置、及び撮影方法。
JP4220182B2 (ja) * 2002-05-31 2009-02-04 株式会社東芝 高次元テクスチャ描画装置、高次元テクスチャ圧縮装置、高次元テクスチャ描画システム、高次元テクスチャ描画方法並びにプログラム
JP4091403B2 (ja) * 2002-11-19 2008-05-28 富士通株式会社 画像シミュレーションプログラム、画像シミュレーション方法および画像シミュレーション装置
JP3989396B2 (ja) * 2003-03-31 2007-10-10 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
US7502024B2 (en) * 2003-09-25 2009-03-10 Honeywell International Inc. Texture based circular arc generation
JP4372528B2 (ja) * 2003-12-15 2009-11-25 大日本印刷株式会社 実世界仮想化システム、実世界仮想化方法、サーバ、プログラム及び記録媒体
JP4225926B2 (ja) * 2004-01-20 2009-02-18 任天堂株式会社 2画面表示ゲーム装置及び2画面表示ゲームプログラム
US8115765B2 (en) * 2004-05-26 2012-02-14 Sony Online Entertainment Llc Rule-based procedural terrain generation
US8368686B2 (en) * 2004-05-26 2013-02-05 Sony Online Entertainment Llc Resource management for rule-based procedural terrain generation
US8207966B2 (en) * 2004-05-26 2012-06-26 Sony Online Entertainment Llc Terrain editor tool for rule-based procedural terrain generation
US7701455B2 (en) * 2004-07-21 2010-04-20 Che-Chih Tsao Data rendering method for volumetric 3D displays
JP4692956B2 (ja) * 2004-11-22 2011-06-01 株式会社ソニー・コンピュータエンタテインメント 描画処理装置および描画処理方法
JP2008009523A (ja) * 2006-06-27 2008-01-17 Fujitsu Ltd 設計支援装置,設計支援方法,及び設計支援プログラム
JP5154775B2 (ja) * 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP4946370B2 (ja) * 2006-11-09 2012-06-06 富士ゼロックス株式会社 画像処理装置、画像形成装置及びプログラム
EP2131298A4 (en) * 2007-03-27 2010-08-11 Shima Seiki Mfg SIMULATION DEVICE AND METHOD FOR SIMULATION OF KNIT PRODUCT
JP4794597B2 (ja) * 2008-05-07 2011-10-19 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP4698701B2 (ja) * 2008-05-07 2011-06-08 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
US8203561B2 (en) * 2008-09-10 2012-06-19 International Business Machines Corporation Determining valued excursion corridors in virtual worlds
US8345046B2 (en) * 2009-04-17 2013-01-01 Trapcode Ab Method for adding shadows to objects in computer graphics
US7640589B1 (en) * 2009-06-19 2009-12-29 Kaspersky Lab, Zao Detection and minimization of false positives in anti-malware processing
US8896622B2 (en) * 2009-09-04 2014-11-25 Adobe Systems Incorporated Methods and apparatus for marker-based stylistic rendering
US9211472B2 (en) * 2010-06-11 2015-12-15 Sony Corporation Game device, game control method, and game control program configured to control a game in which a character is moved along a shadow
JP5732799B2 (ja) * 2010-09-29 2015-06-10 株式会社ニコン 画像処理装置、撮像装置、画像処理プログラム
EP2757532A4 (en) 2011-09-15 2015-06-17 Fujitsu Ltd Presentation device, method of representation and presentation program
US10413823B1 (en) * 2012-03-28 2019-09-17 Electronic Arts Inc. System and method for providing an intuitive interface for upgrading a virtual item in a virtual space
JP5411385B1 (ja) * 2013-08-12 2014-02-12 株式会社 ディー・エヌ・エー ゲームを提供するサーバ及び方法
JP6473215B1 (ja) * 2017-11-24 2019-02-20 株式会社Live2D プログラム、記録媒体及び描画方法
CN108579091B (zh) * 2018-04-27 2022-08-05 网易(杭州)网络有限公司 虚拟场景生成方法、装置、存储介质及电子设备
JP7411368B2 (ja) 2019-09-30 2024-01-11 株式会社バンダイナムコエンターテインメント コンピュータシステム、サーバシステム及びプログラム
JP7200184B2 (ja) * 2020-08-28 2023-01-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US11297260B1 (en) * 2020-11-20 2022-04-05 Donald Siu Techniques for capturing video in landscape mode by a handheld device

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4719585A (en) * 1985-08-28 1988-01-12 General Electric Company Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body
US5415549A (en) * 1991-03-21 1995-05-16 Atari Games Corporation Method for coloring a polygon on a video display
JPH07508449A (ja) * 1993-04-20 1995-09-21 ゼネラル・エレクトリック・カンパニイ 外科手術の際に身体構造をよく見える様にするコンピュータ・グラフィック及びライブ・ビデオ・システム
US5423554A (en) * 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5971852A (en) 1994-06-20 1999-10-26 Kabushiki Kaisha Sega Enterprises Image processing method and apparatus
GB2301514B (en) * 1994-12-01 1999-06-09 Namco Ltd Apparatus and method for image synthesization
JP3442181B2 (ja) * 1995-02-17 2003-09-02 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
JPH08320949A (ja) * 1995-05-24 1996-12-03 Sega Enterp Ltd 画像処理装置及びそれを用いたゲーム装置
JP3141737B2 (ja) * 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
US6267673B1 (en) * 1996-09-20 2001-07-31 Nintendo Co., Ltd. Video game system with state of next world dependent upon manner of entry from previous world via a portal
US6278418B1 (en) * 1995-12-29 2001-08-21 Kabushiki Kaisha Sega Enterprises Three-dimensional imaging system, game device, method for same and recording medium
US5920492A (en) * 1996-04-26 1999-07-06 Southwest Research Institute Display list generator for fire simulation system
US5769718A (en) * 1996-05-15 1998-06-23 Rieder; William R. Video game apparatus and medium readable by a computer stored with video game program
JP2902352B2 (ja) 1996-05-15 1999-06-07 コナミ株式会社 ビデオゲーム装置
WO2004089486A1 (ja) * 1996-06-21 2004-10-21 Kyota Tanaka 3次元ゲーム装置及び情報記憶媒体
US6259431B1 (en) * 1996-07-04 2001-07-10 Kabushiki Kaisha Sega Enterprises Image processor, game machine, image display method, and recording medium
US6018350A (en) * 1996-10-29 2000-01-25 Real 3D, Inc. Illumination and shadow simulation in a computer graphics/imaging system
JPH10188028A (ja) * 1996-10-31 1998-07-21 Konami Co Ltd スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体
JP3745475B2 (ja) * 1996-12-06 2006-02-15 株式会社セガ ゲーム装置及び画像処理装置
US6115048A (en) * 1997-01-21 2000-09-05 General Electric Company Fast method of creating 3D surfaces by `stretching cubes`
JP3091960B2 (ja) * 1997-02-18 2000-09-25 コナミ株式会社 疑似3次元画像表示装置、疑似3次元画像表示方法及びコンピュータプログラムが記録された機械読み取り可能な記録媒体
US5870098A (en) * 1997-02-26 1999-02-09 Evans & Sutherland Computer Corporation Method for rendering shadows on a graphical display
JP2941230B2 (ja) * 1997-05-06 1999-08-25 コナミ株式会社 画像表示処理装置,画像表示処理方法,及びコンピュータプログラムを記録した機械読取り可能な記録媒体
US6072504A (en) * 1997-06-20 2000-06-06 Lucent Technologies Inc. Method and apparatus for tracking, storing, and synthesizing an animated version of object motion
JP3372832B2 (ja) * 1997-07-25 2003-02-04 コナミ株式会社 ゲーム装置、ゲーム画像処理方法およびゲーム画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4105788B2 (ja) * 1997-11-14 2008-06-25 任天堂株式会社 ビデオゲーム装置およびその記憶媒体
US6362817B1 (en) * 1998-05-18 2002-03-26 In3D Corporation System for creating and viewing 3D environments using symbolic descriptors
JP2001327750A (ja) * 2000-05-19 2001-11-27 Square Co Ltd 球技系ゲームのカーソル表示を処理するためのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲームのカーソル表示処理装置およびその方法

Also Published As

Publication number Publication date
EP1669930A2 (en) 2006-06-14
EP1669930A3 (en) 2006-09-06
DE69934289T2 (de) 2007-06-28
US6831659B1 (en) 2004-12-14
EP0999523A1 (en) 2000-05-10
US20050035979A1 (en) 2005-02-17
JP4258824B2 (ja) 2009-04-30
EP0999523B1 (en) 2006-12-06
EP0999523A4 (en) 2004-03-24
WO1999060526A1 (fr) 1999-11-25
DE69934289D1 (de) 2007-01-18

Similar Documents

Publication Publication Date Title
ES2281962T3 (es) Procesador de imagen, maquina de juego, metodo de procesamiento de imagen, y medio de grabacion.
ES2284279T3 (es) Dispositivo generador de imagen y metodo generador de imagen.
ES2260830T3 (es) Dispositivo y metodo para el procesamiento de imagenes.
ES2280096T3 (es) Sistema de procesamiento de imagen y metodo de procesamiento de imagen.
US11514673B2 (en) Systems and methods for augmented reality
CN100456328C (zh) 三维视频游戏系统
JP2019071111A (ja) 用紙
US6570569B1 (en) Image processing device and image processing method
US20030057884A1 (en) Systems and methods for digital entertainment
WO2002040921A2 (en) Systems and methods for digital entertainement
JP5123353B2 (ja) リアルタイムシーンを照明し,発見するバーチャルフラッシュライト
Lebiedź et al. Virtual sightseeing in immersive 3D visualization lab
JP4267646B2 (ja) 画像生成装置、画像生成方法、ならびに、プログラム
Thorn Learn unity for 2d game development
CN114470775A (zh) 虚拟场景中的对象处理方法、装置、设备及存储介质
CN112396683B (zh) 虚拟场景的阴影渲染方法、装置、设备及存储介质
JP4117497B2 (ja) 画像処理装置、画像処理方法及び記録媒体
Gaitatzes et al. Virtual reality systems and applications: the ancient olympic games
Oravakangas Game Environment Creation: Efficient and Optimized Working Methods
Hart et al. Hypernom: Mapping VR Headset Orientation to S^ 3
Silverman The Rule of 27s: A Comparative Analysis of 2D Screenspace and Virtual Reality Environment Design
Lu et al. Design and implementation of three-dimensional game engine
Immonen Updating a Game’s Graphics from 2D Sprites to 3D Models
Ruiz Marco Ion-Physics Puzzles and Exploration 3D Videogame
Glaeser et al. More applications