DE69836805T2 - Gerät und verfahren zur bilderzeugung - Google Patents

Gerät und verfahren zur bilderzeugung Download PDF

Info

Publication number
DE69836805T2
DE69836805T2 DE69836805T DE69836805T DE69836805T2 DE 69836805 T2 DE69836805 T2 DE 69836805T2 DE 69836805 T DE69836805 T DE 69836805T DE 69836805 T DE69836805 T DE 69836805T DE 69836805 T2 DE69836805 T2 DE 69836805T2
Authority
DE
Germany
Prior art keywords
data
collision
polygons
processing
image forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69836805T
Other languages
English (en)
Other versions
DE69836805D1 (de
Inventor
Masahito Kurosawa
Hajime Hiratsuka-shi SUGIYAMA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Application granted granted Critical
Publication of DE69836805D1 publication Critical patent/DE69836805D1/de
Publication of DE69836805T2 publication Critical patent/DE69836805T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

  • ALLGEMEINER STAND DER TECHNIK
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Bilderzeugungsgerät und ein Bilderzeugungsverfahren und insbesondere ein solches Bilderzeugungsgerät und ein solches Bilderzeugungsverfahren, womit die Beziehung zwischen beweglichen Objekten, die sich in einem virtuellen dreidimensionalen Raum bewegen, und der Umgebung, wie etwa der zurückzulegenden Strecke oder dergleichen, in einer Spielvorrichtung bzw. -konsole oder dergleichen, genauer und wirklichkeitsnäher dargestellt werden kann.
  • 2. Beschreibung des Standes der Technik
  • Mit dem Fortschritt der graphischen Datenverarbeitungsverfahren in den letzten Jahren haben Simulations- und Spielvorrichtungen eine weite Verbreitung sowohl zur gewerblichen als auch zur häuslichen Verwendung gefunden. Ein Genre von Spielmaschinen sind Vorrichtungen, die ein Autorennspiel zeigen, wobei ein Spieler im Wettbewerb steht, indem er ein Fahrzeug bewegt, welches das Objekt in dem virtuellen Spielraum bildet. Solche Spiele sind sehr beliebt. Gewöhnlich umfassen Spielvorrichtungen dieser Art eine Haupteinheit mit einer eingebauten Computereinrichtung zum Abarbeiten von im Voraus festgelegten Spielprogrammen, eine Bedienungsebene zum Liefern von Steuersignalen, welche die Bewegung eines Objekts angeben, das in dem Spiel dargestellt wird, an die Haupteinheit der Vorrichtung, einen Monitor zum Anzeigen von Bildern, welche den Ablauf des Spiels entsprechend dem Spielprogramm, das von der Haupteinheit abgearbeitet wird, begleiten, und eine Sound-Einrichtung zum Erzeugen von Sound, der den Ablauf des Spiels begleitet.
  • Da ein Autorennspiel gewöhnlich mit einem Spielformat verbunden ist, bei dem ein Fahrzeug eines Spielers mit konkurrierenden Fahrzeugen im Wettbewerb steht, ist es selbstver ständlich erforderlich, wenn ein Spiel so gestaltet sein soll, dass es wirklichkeitsnäher wahrgenommen wird, eine wirklichkeitsnähere Simulation der Bewegung der Fahrzeuge zu erzielen, und einen großen Einfluss haben dabei die Präzision und der Realismus seiner Bildverarbeitung bei der Darstellung von Elementen wie etwa der Beziehung zwischen dem Fahrzeug und der Fahrbahn oder dem Gelände (Umgebung), das einen Teil des Hintergrunds bildet, und außerdem der Beziehung zwischen dem Fahrzeug und der Umgebung.
  • Jedoch sind im Falle von herkömmlichen Spielmaschinen zum Spielen von Autorennspielen ungelöste Probleme der folgenden Arten entstanden, wenn versucht wurde, in Form von Bildern Faktoren darzustellen, die mit einer gegenseitigen Beeinflussung von Fahrzeug und Umgebung im Zusammenhang stehen, wie sie auftritt, wenn sich das Fahrzeug auf seiner Bahn bewegt.
    • (1) Um den Fahrzustand des Fahrzeugs als ein Bild darzustellen, ist es erforderlich, Zusammenstöße zwischen dem Gelände und den Reifen (Rädern) des Fahrzeugs in gleichmäßigen Zeitabständen zu bestimmen. In den letzten Jahren ist Gelände durch eine angemessene Anzahl von Polygondaten dargestellt worden, wobei das Gelände sehr fein aufgeteilt wurde. Jedes Polygondatenelement enthält die Position angebende Koordinaten für eine Vielzahl von Scheitelpunkten und Daten für einen einzigen Normalenvektor in Bezug auf die gesamte Fläche des Polygons. Da eine herkömmliche Zusammenstoß-Beurteilungsverarbeitung bezüglich der tatsächlichen Fläche der Polygone (Polygonflächenkoordinaten) durchgeführt wird, kann sich dann in den Fällen, in denen zwei Polygone unter einem verhältnismäßig großen Winkel aneinandergrenzen, die Richtung bei der Zusammenstoßbeurteilung plötzlich ändern, wenn das Fahrzeug die Verbindungsstelle zwischen den Polygonen passiert, was zur Folge hat, dass das Fahrzeug mit einem unnatürlichen Verhalten angezeigt wird. Zum Beispiel wird selbst dann, wenn sich das Fahrzeug entlang eines Abschnitts der Straße bewegt, der verhältnismäßig eben zu sein scheint, sich die Richtung des Fahrzeugs plötzlich von einer Rollrichtung in eine Nick- bzw. Schrägstellungsrichtung, in eine Gierrichtung verändern, da es einen großen Winkel zwischen den Polygonflächen gibt, weswegen bei dem Spieler ein fremdartiges Gefühl aufkommt. Selbstverständlich wird dann, wenn die Größe einer einzigen Polygonfläche, bezogen auf die Fahrbahn oder das Gelände, das die Umgebung darstellt, extrem klein im Vergleich zur Größe der Reifen ist, die Glattheit des Geländes als Ganzes entsprechend verbessert sein, und folglich werden die vorerwähnten plötzlichen Änderungen der Richtung bei der Zusammenstoßbeurteilung nicht zwangsläufig auftreten. Jedoch zieht ein auf diese Weise durchgeführtes Festsetzen der Polygonflächen auf eine geringe Größe eine entsprechende Zunahme der Menge der Daten im Zusammenhang mit dem Gelände nach sich, und folglich wird die Speicherkapazität, die in dem Speicher erforderlich ist, sehr groß, und die Rechenlast der CPU der Computereinrichtung nimmt deutlich zu. Auch unter der Annahme, dass ein Speicher mit solch einer großen Speicherkapazität installiert werden könnte, gäbe es noch immer eine Abnahme der Verarbeitungsgeschwindigkeit in der Vorrichtung als Ganzes. Jede Abnahme der Verarbeitungsgeschwindigkeit wäre bei den derzeitigen Spielvorrichtungen außerordentlich nachteilig und würde die Absatzfähigkeit beeinflussen. Folglich gibt es eine natürliche Grenze für die Größe, auf welche die Polygonflächen festgesetzt werden können.
  • Außerdem ist neben den Änderungen im Verhalten zwischen zwei Polygonflächen auch das Verhalten des Fahrzeugs, das feine Unebenheiten in jeder Polygonfläche wiedergibt, für den Realismus des Rennspiels außerordentlich wichtig. Herkömmlich werden, wenn versucht wird, diesen Effekt bildlich darzustellen, vorher für jedes Polygon Höheninformationen für diese Unebenheiten (Textur) gespeichert, und es ist erforderlich, Zusammenstöße hinsichtlich dieser Höheninfor mationen der Unebenheiten zu beurteilen, wodurch eine enorme Datenmenge und Rechenlast entstehen, was sich in der Praxis als unmöglich zu verwirklichen erweist.
  • Außerdem ist einer der Faktoren, bei denen sich das Verhalten des Fahrzeugs auf die Umgebung auswirkt, die Erzeugung von Staubwolken von der Fahrbahn und dem Gelände, die die Bewegung des Fahrzeugs begleiten. Diese Staubwolken sind ein außerordentlich wichtiger Faktor bei der Schaffung einer wirklichkeitsnahen bildlichen Darstellung des Fahrbahnzustandes und des Fahrzustandes, nämlich der Geschwindigkeit und Beschleunigung des Fahrzeugs.
  • Trotzdem ist herkömmlich eine Bildverarbeitung im Zusammenhang mit Staubwolken sehr schwer zu erreichen gewesen, und in vielen Fällen sind Staubwolken wegen der schlechten Qualität derartiger bildlicher Darstellungen nicht gezeigt worden. Wo ein Versuch unternommen wurde, Staubwolken darzustellen, hat dies einfach ein Überlagern eines oder einer Vielzahl von den Polygonen, welche die Außenfläche einer Eintrübung (Wolke) aus Staub darstellen, dreidimensional vor dem Hintergrund oder dergleichen mit sich gebracht. Folglich wird ein Objekt, das eine Wolke aus Staub darstellt, mit einer sehr klar definierten Abgrenzung gezeigt, wobei es hinter dem Fahrzeug herfliegt.
  • In Wirklichkeit sind Staubwolken jedoch selten auf einen Blick sichtbar, und daher haben solche Darstellungen ein sehr künstliches Erscheinungsbild. Deshalb ist in vielen Fällen, um einen Eindruck von den Partikeln, aus denen die Staubwolke besteht, zu erzeugen, dieser Eindruck von Staubpartikeln mittels einer Bildverarbeitung eingebracht worden, die das Vorhandensein der Wolke auf ein Polygon reduziert; aber gerade in diesen Fällen mangelt es den resultierenden Staubwolken an Realismus. Außerdem kann in manchen Fällen, beispielsweise wenn ein konkurrierendes Fahrzeug an jenem des Spielers vorbeizieht, die Position der Ansichtspunkt-Kamera in die Staubwolkenatmosphäre gelangen. Obwohl sich in solchen Fällen die Ansichtspunkt-Kamera in der Mitte einer Wolke aus Staub befindet, ist es herkömmlich nur möglich gewesen, ein Bild eines unnatürlichen Zustandes zu erzeugen, bei dem nur die Außenfläche der Wolke aus Staub sichtbar ist, als ob die Kamera in einem Tunnel wäre, wovon nur die Wände gezeigt werden.
  • Ein weiterer Faktor, wodurch das sich bewegende Fahrzeug störend auf die Umgebung einwirkt, steht mit den Scheinwerfern und Schlussleuchten, die an dem Fahrzeug beleuchtet sind, im Zusammenhang; und außerdem gibt es auch Licht, das durch gedachtes Sonnenlicht erzeugt ist, das durch Teile des Fahrzeugs im Spielraum reflektiert wird.
  • Bei einer herkömmlichen Spielvorrichtung wird, wenn solche Objekte dargestellt werden, die eine große Helligkeit aufweisen, ein Verfahren eingesetzt, wodurch entweder die Objekte an sich farblich hell dargestellt werden oder sie unter Verwendung eines Schleiereffekts (Fogging) dargestellt werden, der durch eine installierte Hardwareeinheit erzeugt wird, oder sie dargestellt werden, indem eine einzelne Schicht, die sich ausgehend von der Kante des hellen Objekts in Richtung auf seine Mitte von durchsichtig zu undurchsichtig verändert, am Ort der Lichtausstrahlung angeordnet wird und sich in Richtung des Fahrzeugs des Spielers erstreckt.
  • Diese Verfahren zeigen jedoch nur Licht, das von dem Objekt strahlt, wobei keines imstande ist, die Orientierung des sich von dem sich bewegenden Objekt ausbreitenden Lichts darzustellen, die ein wesentliches Merkmal des sich bewegenden Objekts ist, und folglich fehlt der Sinneseindruck von Licht, das dynamisch von dem sich bewegenden Fahrzeug ausgestrahlt wird. Wird das Beispiel von Scheinwerferlicht in dem Fall des oben beschriebenen dritten Verfahrens betrachtet, so wird beispielsweise ein unnatürlicher Eindruck erzeugt, wobei es auch dann eine Ausbreitung von Licht gibt, wenn das betreffende Fahrzeug von hinten gesehen wird.
  • Die vorliegende Erfindung wurde gemacht, um die vorerwähnten ungelösten Probleme in Verbindung mit Spielvorrichtungen zu meistern, wobei es eine allgemeine Aufgabe der Erfindung ist, ein Bilderzeugungsgerät und ein Bilderzeugungsverfahren zu schaffen, womit Faktoren, die mit einer gegenseitigen Beeinflussung eines Fahrzeugs, das einen sich bewegenden Körper bildet, und seiner Umgebung im Zusammenhang stehen, wirklichkeitsnäher dargestellt werden können; demzufolge nimmt das Realismusgefühl bei Spielen, die auf dem Hauptthema eines sich bewegenden Fahrzeugs basieren, zu, und außerdem steigt das Interesse, das dadurch hervorgerufen wird, ohne die Rechenlast oder das beteiligte Datenvolumen merklich zu vergrößern.
  • Insbesondere zielt die vorliegende Erfindung darauf ab, ein Bilderzeugungsgerät und ein Bilderzeugungsverfahren mit einem im Vergleich zum Stand der Technik deutlich verbesserten Realismus und Authentizität bei der Darstellung des Fahrzeugverhaltens zu schaffen, indem eine natürlichere Zusammenstoßbeurteilungsverarbeitung implementiert wird, die wenige fremdartige Effekte erzeugt, da plötzliche Änderungen bei der Beurteilungsrichtung im Falle einer Zusammenstoßbeurteilungsverarbeitung vermieden werden, wenn ein Fahrzeug die Verbindungsstelle zwischen zwei Polygonen überquert, und indem eine Zusammenstoßbeurteilungsverarbeitung implementiert wird, die Unebenheiten in der Fahrbahn berücksichtigt, ohne die Rechenlast oder das daran beteiligte Datenvolumen merklich zu vergrößern.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Angesichts dieser Aufgabe umfasst das Bilderzeugungsgerät in Bezug auf einen ersten Aspekt der Erfindung: Zusammen stoßfeststellungsmittel zum Feststellen des Zustandes des Zusammenstoßes zwischen einem Objekt und einer zurückzulegenden Strecke, welche durch Polygone in einem virtuellen dreidimensionalen Raum spezifiziert ist; und Erzeugungsmittel zum Erzeugen von Bilddaten, die einen Zustand repräsentieren, in dem sich das Objekt die zurückzulegende Strecke entlang bewegt, während der vorerwähnte Zusammenstoßzustand beibehalten wird; wobei die Zusammenstoßfeststellungsmittel umfassen: Interpolationsmittel zum Bestimmen von Zusammenstoßfeststellungsdaten einer Zusammenstoßstelle des Objekts durch Interpolieren von Scheitelpunktdaten, die den Scheitelpunkten der Polygone der zurückzulegenden Strecke zugeordnet sind; und Zusammenstoßspezifizierungsmittel zur Spezifizierung des Zusammenstoßes zwischen dem Objekt und der zurückzulegenden Strecke gemäß den durch die Interpolationsmittel interpolierten Zusammenstoßfeststellungsdaten.
  • Beispielsweise umfassen die Scheitelpunktdaten die Höhe und den Normalenvektor jedes Scheitelpunkts, und die Zusammenstoßfeststellungsdaten umfassen die Höhe und den Normalenvektor der Zusammenstoßstelle. Außerdem umfassen die Interpolationsmittel beispielsweise: Mittel, um zwei Kanten des Polygons zu spezifizieren, die sich unter einem rechten Winkel schneiden und von der Zusammenstoßstelle parallel zu den Koordinatenachsen verlaufen; Mittel, um eine erste und eine zweite Kammlinie auf der Grundlage der Scheitelpunktdaten für jedes Ende der Kanten festzusetzen; Mittel, um jeweils Daten für die Schnittpunkte der Kammlinien mit den beiden Kanten zu bestimmen; Mittel, um eine dritte Kammlinie eines Segments zu spezifizieren, das an den Schnittpunkten mit den beiden Kanten endet; und Mittel, um die Zusammenstoßfeststellungsdaten an der ermessenen Zusammenstoßstelle aus den entsprechenden Daten für die Schnittpunkte mit dieser dritten Kammlinie zu ermitteln. Es ist wünschenswert, dass die erste, zweite und dritte Kammlinie als Gleichungen dritten Grades gegeben sind. Außerdem um fasst das Bilderzeugungsgerät in Bezug auf einen zweiten Aspekt der Erfindung: Zusammenstoßfeststellungsmittel zum Feststellen des Zustandes des Zusammenstoßes zwischen einem Objekt und einer zurückzulegenden Strecke, welche durch Polygone in einem virtuellen dreidimensionalen Raum spezifiziert ist; und Bilddatenerzeugungsmittel zum Erzeugen von Bilddaten, die einen Zustand repräsentieren, in dem sich das Objekt die zurückzulegende Strecke entlang bewegt, während der vorerwähnte Zusammenstoßzustand beibehalten wird; wobei die Zusammenstoßfeststellungsmittel umfassen: Korrekturmittel, um die Zusammenstoßfeststellungsdaten der Zusammenstoßstelle des Objekts entsprechend den Attributen der zurückzulegenden Strecke, welche durch die Polygone repräsentiert ist, zu korrigieren; und Zusammenstoßspezifizierungsmittel, um den Zusammenstoß zwischen dem Objekt und der zurückzulegenden Strecke in Übereinstimmung mit den durch die Korrekturmittel korrigierten Zusammenstoßfeststellungsdaten zu spezifizieren.
  • Beispielsweise sind die Zusammenstoßfeststellungsdaten die Höhe und der Normalenvektor der Zusammenstoßstelle. Ferner sind die Attribute der zurückzulegenden Strecke beispielsweise Unebenheiten in der zurückzulegenden Strecke, und Licht- und Schattendaten, als den Polygonen zugeteilte Textur geliefert, werden als Informationen über die Unebenheiten verwendet.
  • Das Bilderzeugungsgerät in Bezug auf einen dritten Aspekt der Erfindung umfasst: Zusammenstoßfeststellungsmittel zum Feststellen des Zustandes des Zusammenstoßes zwischen einem Objekt und einer zurückzulegenden Strecke, welche durch Polygone in einem virtuellen dreidimensionalen Raum spezifiziert ist; und Bilddatenerzeugungsmittel zum Erzeugen von Bilddaten, die einen Zustand repräsentieren, in dem sich das Objekt die zurückzulegende Strecke entlang bewegt, während der vorerwähnte Zusammenstoßzustand beibehalten wird; wobei die Zusammenstoßfeststellungsmittel umfassen: Inter polationsmittel zum Bestimmen von Zusammenstoßfeststellungsdaten einer Zusammenstoßstelle des Objekts durch Interpolieren von Scheitelpunktdaten, die den Scheitelpunkten der Polygone der zurückzulegenden Strecke zugeordnet sind; Korrekturmittel, um die Zusammenstoßfeststellungsdaten zu korrigieren, die durch die Interpolationsmittel in Übereinstimmung mit den Attributen der zurückzulegenden Strecke, die durch die Polygone repräsentiert ist, interpoliert worden sind; und Spezifizierungsmittel, um den Zusammenstoß zwischen dem Objekt und der zurückzulegenden Strecke in Übereinstimmung mit den durch die Korrekturmittel korrigierten Zusammenstoßfeststellungsdaten zu spezifizieren. Beispielsweise sind die Zusammenstoßfeststellungsdaten die Höhe und der Normalenvektor der Zusammenstoßstelle.
  • Bei jedem der vorangehenden Aspekte kann das Objekt ein Fahrzeug in einem Autorennspiel sein, wobei sich das Fahrzeug in dem virtuellen dreidimensionalen Raum bewegt.
  • Das Bilderzeugungsverfahren in Bezug auf einen vierten Aspekt der Erfindung ist ein Bilderzeugungsverfahren zum Erzeugen von Bilddaten, die den Zustand eines durch Polygone in einem virtuellen dreidimensionalen Raum spezifizierten Objekts repräsentieren, das sich entlang einer zurückzulegenden Strecke fortbewegt, während der Zustand des Zusammenstoßes zwischen dem Objekt und der zurückzulegenden Strecke festgestellt wird; wobei die Zusammenstoßfeststellungsdaten an der Zusammenstoßstelle des Objekts durch Interpolieren der Scheitelpunktdaten bestimmt werden, die den Scheitelpunkten der Polygone der zurückzulegenden Strecke zugeordnet sind, und der Zusammenstoß zwischen dem Objekt und der zurückzulegenden Strecke in Übereinstimmung mit diesen interpolierten Zusammenstoßfeststellungsdaten spezifiziert wird.
  • Außerdem ist das Bilderzeugungsverfahren in Bezug auf einen fünften Aspekt der Erfindung ein Bilderzeugungsverfahren zum Erzeugen von Bilddaten, die den Zustand eines durch Polygone in einem virtuellen dreidimensionalen Raum spezifizierten Objekts repräsentieren, das sich entlang einer zurückzulegenden Strecke fortbewegt, während der Zustand des Zusammenstoßes zwischen dem Objekt und der zurückzulegenden Strecke festgestellt wird, wobei die Zusammenstoßfeststellungsdaten an der Zusammenstoßstelle des Objekts in Übereinstimmung mit Attributen der zurückzulegenden Strecke, die durch Polygone repräsentiert ist, korrigiert werden und der Zusammenstoß zwischen dem Objekt und der zurückzulegenden Strecke in Übereinstimmung mit diesen korrigierten Zusammenstoßfeststellungsdaten spezifiziert wird.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • 1 ist ein Blockdiagramm, das den Aufbau einer Spielvorrichtung bzw. -konsole gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist ein Plan, der eine Hauptprozedur mit Verarbeitungsschritten zeigt, die hauptsächlich durch die CPU ausgeführt werden;
  • 3 ist ein Plan von einer untergeordneten Prozedur, einen Entwurf der Zusammenstoßbeurteilungsverarbeitung zeigend;
  • 4 ist eine schematische Darstellung, welche die Anordnung einer Vielzahl von Polygonen zeigt, die eine Fahrbahn bilden;
  • 5 ist eine schematische Darstellung zur Veranschaulichung einer Prozedur zur Interpolationsverarbeitung innerhalb eines Polygons bei der Zusammenstoßbeurteilungsverarbeitung;
  • 6 ist eine schematische Darstellung zur Veranschaulichung einer Prozedur zur Interpolationsverarbeitung innerhalb eines Polygons bei der Zusammenstoßbeurteilungsverarbeitung;
  • 7 ist eine schematische Darstellung zur Veranschaulichung einer Prozedur zur Interpolationsverarbeitung innerhalb eines Polygons bei der Zusammenstoßbeurteilungsverarbeitung;
  • 8 ist eine schematische Darstellung zur Veranschaulichung einer Prozedur zur Unebenheit-Korrekturverarbeitung bei der Zusammenstoßbeurteilungsverarbeitung;
  • 9 ist eine schematische Darstellung zur Veranschaulichung einer Prozedur zur Unebenheit-Korrekturverarbeitung bei der Zusammenstoßbeurteilungsverarbeitung;
  • 10 ist eine schematische Darstellung zur Veranschaulichung einer Prozedur zur Unebenheit-Korrekturverarbeitung bei der Zusammenstoßbeurteilungsverarbeitung;
  • 11 ist eine schematische Darstellung zur Veranschaulichung einer Prozedur zur Unebenheit-Korrekturverarbeitung bei der Zusammenstoßbeurteilungsverarbeitung;
  • 12 ist ein Plan zur Veranschaulichung einer kurz gefassten Prozedur für eine Verarbeitung zur Erzeugung einer Staubwolke;
  • 13 ist eine schematische Darstellung zur Veranschaulichung einer Verarbeitung zur Erzeugung einer Staubwolke;
  • 14 ist eine schematische Darstellung zur Veranschaulichung einer Verarbeitung zur Erzeugung einer Staubwolke;
  • 15 ist eine schematische Darstellung zur Veranschau lichung einer Verarbeitung zur Erzeugung einer Staubwolke;
  • 16 ist eine schematische Darstellung zur Veranschaulichung einer Verarbeitung zur Erzeugung einer Staubwolke;
  • 17 ist ein Plan zur Veranschaulichung einer kurz gefassten Prozedur für eine Verarbeitung zur Darstellung von sich ausbreitendem Licht;
  • 18 ist eine schematische Darstellung zur Veranschaulichung der Verarbeitung zur Darstellung von sich ausbreitendem Licht;
  • 19 ist eine schematische Darstellung zur Veranschaulichung der Verarbeitung zur Darstellung von sich ausbreitendem Licht;
  • 20 ist eine schematische Darstellung zur Veranschaulichung der Verarbeitung zur Darstellung von sich ausbreitendem Licht; und
  • 21 ist eine schematische Darstellung zur Veranschaulichung der Verarbeitung zur Darstellung von sich ausbreitendem Licht.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nachstehend wird eine Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Zeichnung beschrieben.
  • Die in 1 gezeigte Spielvorrichtung bzw. -konsole ist eine Ausführungsform eines Bilderzeugungsgerätes und eines Bilderzeugungsverfahrens gemäß der vorliegenden Erfindung. Diese Vorrichtung umfasst als Grundelemente eine Spielverarbeitungskarte 10, eine Eingabevorrichtung 11, eine Ausgabevorrichtung 12, einen Videomonitor 13 und einen Lautsprecher 14. Die Eingabevorrichtung 11 umfasst ein Lenkrad, ein Fahrpedal, ein Bremspedal, einen Schalthebel, einen Sichtänderungsschalter und dergleichen. Die Ausgabevorrichtung umfasst einen Lenkrad-Rückmeldemechanismus und verschiedene Anzeigeleuchten usw. Der Videomonitor 13 zeigt Bilder eines Autorennspiels an, wobei anstelle des Videomonitors ein Projektor verwendet werden könnte. Der Sichtänderungsschalter ist ein Schalter zur Änderung der Position eines gedachten Kamerastandpunkts. Der Spieler ist imstande, durch Betätigen dieses Schalters beispielsweise eine Sicht nach vorn, gesehen vom Fahrersitz, eine Sicht auf das Fahrzeug schräg von hinten oder dergleichen auszuwählen.
  • Die Spielverarbeitungskarte 10 umfasst einen Zähler 100, eine CPU (Zentraleinheit) 101, ein ROM 102, das als ein Speichermedium zum Aufzeichnen von Betriebsprogrammen und Daten für die Spielvorrichtung bzw. -konsole wirksam wird, ein RAM 103, eine Sound-Einrichtung 104, eine Eingabe/Ausgabe-Schnittstelle 106, eine Bildlaufdaten berechnende Einrichtung 107, einen Coprozessor (Hilfsprozessor) 108, ein Geländedaten-ROM 109, einen Geometrieprozessor 110, ein Gestaltdaten-ROM 111, eine Zeichnungseinheit 112, ein Texturdaten-ROM 113, ein Texturprojektionskarten-RAM 114, einen Rahmenpuffer 115, einen Bild-Synthesizer 116 und einen D/A-Umsetzer 117.
  • Davon ist die CPU 101 über eine Busleitung mit dem Zähler 100, der von einem Anfangswert rückwärts zählt, dem ROM 102, das vorgeschriebene Programme und Bildverarbeitungsprogramme usw. speichert, dem RAM 103, das Rechendaten speichert, der Sound-Einrichtung 104, der Eingabe/Ausgabe-Schnittstelle 106, der Bildlaufdaten berechnenden Einrichtung 107, dem Coprozessor 108 und dem Geometrieprozessor 110 verbunden. Das RAM 103 arbeitet als ein Puffer und wird verwendet, um verschiedene Befehle (um Objekte anzuzeigen usw.) in den Geometrieprozessor zu schreiben und um Daten zu schreiben, die benötigt werden, wenn verschiedene Berechnungen durchgeführt werden, inbegriffen die Berechnung von Umrechnungsmatrizen.
  • Die Eingabe/Ausgabe-Schnittstelle 106 ist mit der Eingabevorrichtung 11 und der Ausgabevorrichtung 12 verbunden, und verschiedene Steuersignale und Erfassungssignale von der Eingabevorrichtung 11 werden als digitale Größen in die CPU 101 eingegeben. Signale, die von der CPU 101 und dergleichen erzeugt sind, können an die Ausgabevorrichtung 12 geliefert werden. Die Sound-Einrichtung 104 ist über einen Leistungsverstärker 105 an einen Lautsprecher 14 angeschlossen. Dadurch wird ein von der Sound-Einrichtung 104 erzeugtes akustisches Signal leistungsverstärkt und dann vom Lautsprecher 14 als Sound ausgegeben.
  • Auf der Grundlage der im ROM 102 enthaltenen Programme liest die CPU 101 Steuersignale von der Eingabevorrichtung 11 und Geländedaten aus dem Geländedaten-ROM 109 oder Gestaltdaten aus dem Gestaltdaten-ROM 111 (dreidimensionale Daten für „Objekte, wie etwa das Fahrzeug des Spielers, konkurrierende Fahrzeuge usw." und „Hintergrund, wie beispielsweise die Fahrbahn, Gelände, Himmel, Zuschauer, Strukturobjekte usw.") aus, woraufhin Berechnungen durchgeführt werden, um den Zusammenstoß zwischen dem Gelände und dem Fahrzeug zu beurteilen, um Zusammenstöße zwischen Fahrzeugen zu beurteilen, für das Verhalten der Aufhängung der vier Räder, und außerdem eine Verhaltenssimulation zur Bestimmung des Verhaltens des Fahrzeugs ebenso wie eine Verarbeitung für Spezialeffekte, einschließlich einer Verarbeitung zum Erzeugen von Staubwolken und einer Verarbeitung zum Erzeugen und Steuern von sich ausbreitendem Licht, durchgeführt werden.
  • Die Fahrzeugverhaltenssimulation simuliert die Bewegungen des Fahrzeugs im virtuellen dreidimensionalen Raum (Spielraum) unter Verwendung der Steuersignale, vermittelt durch den Spieler über die Eingabevorrichtung 11. Um diesen Schritt auszuführen, werden, nachdem die Koordinatenwerte für die Polygone, die das Fahrzeug bilden, in dem virtuellen dreidimensionalen Raum bestimmt worden sind, diese Koordinatenwerte dann zusammen mit Gestaltdaten (Polygondaten) und einer Umrechnungsmatrix zum Umrechnen der Koordinaten in ein zweidimensionales Sichtfeld-Koordinatensystem dem Geometrieprozessor 110 zugeführt. Der Coprozessor 108 ist mit dem Geländedaten-ROM 109 verbunden, und zuvor festgelegte Geländedaten werden an den Coprozessor 108 und an die CPU 101 übermittelt. Der Coprozessor 108 führt hauptsächlich Gleitkommarechnungen während der Schritte zum Beurteilen eines Zusammenstoßes zwischen dem Gelände und dem Fahrzeug und zum Bestimmen des Verhaltens des Fahrzeugs durch. Folglich kann die Rechenlast der CPU vermindert sein. Der Geometrieprozessor 110 ist mit dem Gestaltdaten-ROM 111 und der Zeichnungseinheit 112 verbunden. Wie zuvor angegeben sind die Gestaltdaten, die eine Vielzahl von Polygonen (dreidimensionale Daten für Fahrzeuge, Gelände, Hintergrund usw., mit drei oder mehr Scheitelpunkten) umfassen, vorher in das Gestaltdaten-ROM 111 gespeichert worden. Diese Gestaltdaten werden zum Geometrieprozessor 110 übertragen, der eine Perspektivumrechnung der angegebenen Gestaltdaten unter Verwendung einer von der CPU 101 bestimmten Umrechungsmatrix durchführt, wodurch sich Gestaltdaten ergeben, die aus einem Koordinatensystem in einem dreidimensionalen virtuellen Raum in ein Sichtfeld-Koordinatensystem umgerechnet worden sind.
  • Die Zeichnungseinheit 112 fügt zu diesen umgerechneten Gestaltdaten im Sichtfeld-Koordinatensystem Textur hinzu und gibt die Daten an den Rahmenpuffer 115 aus. Für das Hinzufügen von Textur zu den Daten ist die Zeichnungseinrichtung 112 an das Texturdaten-ROM 113, an das Texturprojektionskarten-RAM 114 und auch an den Rahmenpuffer 115 angeschlossen.
  • Die Polygondaten beziehen sich auf eine Koordinaten-Daten gruppe von relativen oder absoluten Koordinaten für jeden Scheitelpunkt von Polygonen (hauptsächliche Formen mit drei oder vier Seiten), gebildet aus einer Gruppe von drei oder mehr Scheitelpunkten. Das zuvor erwähnte Geländedaten-ROM 109 speichert Polygondaten, die verhältnismäßig grob, jedoch ausreichend, um die vorgeschriebenen Beurteilungsverarbeitungen (Zusammenstoßbeurteilung und dergleichen) durchzuführen, festgesetzt sind. Andererseits speichert das Gestaltdaten-ROM 111 Polygondaten, die präziser festgesetzt sind, die Gestalten betreffend, welche die Bilder des Fahrzeugs, Hintergrund und dergleichen bilden.
  • Die Bildlaufdaten berechnende Einrichtung 107 berechnet Daten für Laufbilder wie etwa Text oder dergleichen (im ROM 102 gespeichert). Diese Berechnungseinrichtung 107 und der Rahmenpuffer 115 führen über einen Bild-Synthesizer 116 und einen D/A-Umsetzer 117 zu dem Videomonitor. Dadurch werden Polygonbilder (Simulationsergebnisse) für das Fahrzeug, Gelände (Hintergrund) und dergleichen, die vorübergehend im Rahmenpuffer 115 gespeichert werden, mit Laufbildern mit Textinformationen wie etwa Geschwindigkeit, Rundenzeit usw. entsprechend einer gewünschten Priorität synthetisiert, und die Daten des endgültigen Bildes werden für jeden Rahmen bei gleichmäßiger Taktung erzeugt. Diese Bilddaten werden durch den D/A-Umsetzer 117 in ein Analogsignal umgesetzt und dann an den Videomonitor 13 geliefert, wo sie in Echtzeit auf dem Spielbildschirm angezeigt werden.
  • (Funktionsweise)
  • (Verarbeitung des Hauptprogramms)
  • Als Nächstes wird die ein Autorennen betreffende Bilderzeugungsverarbeitung in der Spielvorrichtung bzw. -konsole gemäß der vorliegenden Ausführungsform beschrieben. 2 zeigt ein Hauptprogramm für die Bilderzeugungsverarbeitung. Beispielsweise wird dieses Hauptprogramm von der CPU 101 für jedes Halbbild (1/60 s) synchron mit einer Anzeigeunterbrechung wiederholt. Auf dem Bildschirm werden mindestens ein Fahrzeug und eine Fahrbahn, welche den Weg bildet, auf dem sich das Fahrzeug bewegt, aus einer Vielzahl von Polygonen (beispielsweise dreieckigen Polygonen) gebildet. Insbesondere werden für jeden Scheitelpunkt jedes Polygons, das die Fahrbahn repräsentiert, Informationen über die Höhe in Bezug auf eine Referenzposition im virtuellen Raum (mit anderen Worten: Scheitelpunktpositionsinformationen) und ein Normalenvektor an der Scheitelpunktposition geliefert, wobei diese Informationen zuvor in einem Speicher abgelegt worden sind.
  • Zunächst liest die CPU 101 Betriebsinformationen von dem Spieler, die über die Eingabevorrichtung 11 erfasst wurden, und Recheninformationen, die während der vorhergehenden Unterbrechung berechnet wurden, ein (Schritt 201). Dabei schließen die Betriebsinformationen beispielsweise den Winkel des Lenkrads und den Winkel des Fahrpedals, das vom Spieler betätigt wird, ein. Zudem schließen die Recheninformationen die Positionen des Fahrzeugs des Spielers und der konkurrierenden Fahrzeuge, die Fahrzeugverhaltensinformationen und eine Spezialeffektverarbeitung in Bezug auf Staubwolken, sich ausbreitendes Licht und dergleichen, die durch die CPU 101 berechnet werden, ein. Das Fahrzeug des Spielers wird durch die CPU 101 auf der Grundlage der Betriebsinformationen gesteuert, und die konkurrierenden Fahrzeuge werden davon unabhängig durch die CPU 101 auf der Grundlage eines im Voraus festgelegten Programms gesteuert.
  • Daraufhin werden Zusammenstoßbeurteilungsstellen für jedes Fahrzeug (Bodenberührungsstelle von Fahrzeugreifen) während der vorhergehenden Unterbrechung auf der Grundlage der zuvor erwähnten Betriebsinformationen und der Recheninformationen während der vorhergehenden Unterbrechung (Positionen und Bewegungsrichtungen des Fahrzeugs des Spielers und der konkurrierenden Fahrzeuge usw.) berechnet (Schritt 202).
  • Die CPU 101 führt dann eine Zusammenstoßbeurteilungsverarbeitung für jede der Zusammenstoßbeurteilungsstellen jedes Fahrzeugs durch (Schritt 203). Daraufhin werden als Spezialeffekte im Zusammenhang mit dem Fahrzeugverhalten der Reihe nach eine Verarbeitung zur Staubwolkenerzeugung und eine Verarbeitung zur bildlichen Darstellung von sich ausbreitendem Licht durchgeführt (Schritte 204, 205). Die Verarbeitung, die zu den Schritten 203 bis 205 gehört, wird später beschrieben.
  • Die CPU 101 berechnet dann das Fahrzeugverhalten, wobei sie die Betriebsinformationen und die Ergebnisse der Zusammenstoßbeurteilung berücksichtigt (Schritt 206), erstellt und bezeichnet eine Perspektivumrechungsmatrix (Schritt 207) und spezifiziert die Polygondaten und dergleichen, die für das Zeichnen des Bildes erforderlich sind (Schritt 208). Auf diese Weise werden die Bilddaten bei jeder Unterbrechung aktualisiert, und Bilder, die mit dem Ablauf des Autorennspiels einhergehen, werden zusammen mit weiteren Textinformationen auf dem Videomonitor 13 angezeigt. Auf diese Weise ist der Spieler imstande, ein Spiel zu spielen, indem er gewünschte Bedieneingaben über die Eingabevorrichtung 11 zuführt, während er den Anzeigeschirm beobachtet.
  • (Verarbeitung zur Zusammenstoßbeurteilung)
  • Hier wird die Zusammenstoßbeurteilungsverarbeitung, die im Schritt 203 durchgeführt wird, zusammen mit den Prinzipien der Verarbeitung ausführlich beschrieben, wobei auf 3 bis 10 Bezug genommen wird.
  • 3 zeigt ein Unterprogramm der Verarbeitung, die im Schritt 203 durchgeführt wird. Mittels dieses Unterprogramms ist es möglich, aus einer Vielzahl von Polygonen PG, die eine Fahrbahn bilden, die wie in 4 veranschaulicht festgelegt ist, die Polygone herauszufinden, die der Zusammenstoßbeurteilungsverarbeitung zu unterziehen sind, die die für jedes Fahrzeug berechneten Zusammenstoßbeurteilungsstellen in der xz-Ebene im virtuellen dreidimensionalen Raum enthalten (Schritt 203a).
  • Daraufhin werden die Höhe der Zusammenstoßbeurteilungsstelle und der Normalenvektor für das betroffene Polygon durch Interpolation neu berechnet (Schritt 203b). Dieses Rechenverfahren ist nachstehend beschrieben.
  • Wie in 5 veranschaulicht ist, wird das betroffene Polygon als Polygon ABC angenommen, und der Beurteilungspunkt, der sich in diesem Polygon befindet, wird als P (Px, Pz) angenommen. Wenn der Beurteilungspunkt P parallel zur x-Achse geführt wird, dann wird er entweder auf die Kante AB oder auf die Kante BC des Polygons ABC stoßen. Die entsprechenden Schnittpunkte sind mit PAB bzw. PBC bezeichnet. Es sei nun ein zweidimensionales System betrachtet, das beispielsweise die Kante AB und die y-Achse enthält. Wie in 5 und 6 veranschaulicht ist, kann eine Kurve angenommen werden, die einen Segmentscheitel mit der Höhe yA im Punkt A und einen Segmentscheitel mit der Höhe yB im Punkt B verbindet. Diese Kurve wird Kammlinie genannt.
  • Durch Einführen eines Positionsparameters t, wobei t = 0 im Punkt A und t = 1 im Punkt B gilt, kann eine Formel fAB(t), welche die zuvor erwähnte Kammlinie wiedergibt, wie folgt aufgestellt werden: fAB(t) = y = at3 + bt2 + ct + d (1)(siehe 6). Aus Randbedingungen kann bestimmt werden, dass:
    f(0) = d = yA = Höhe am Punkt A
    f(1) = a + b + c + d = yB = Höhe am Punkt B
    f'(0) = c = nA = Steigung der Normalen im Punkt A
    f'(1) = 3a + 2b + c = nB = Steigung der Normalen im Punkt B,
    und daraus können die Koeffizienten wie folgt berechnet werden:
    a = 2yA – 2yB + nA + nB
    b = –3yA + 3yB – 2nA – nB
    c = nA
    d = yA
  • Da die Höhen yA, yB an den Punkten A, B und die Steigungen der Normalen nA, nB vorher bereitgestellt worden sind, können folglich die Koeffizienten a, b, c, d berechnet werden. Deshalb können die Koeffizienten a, b, c, d, die die Kammlinie in Bezug auf die Punkte A, B spezifizieren, wie benötigt in Echtzeit berechnet werden, oder sie können im Vorfeld berechnet, in einen Speicher in Form von Koeffiziententabellendaten gespeichert und wie benötigt ausgelesen werden. Die letztere Möglichkeit ist vom Standpunkt der Verarbeitungsgeschwindigkeit aus betrachtet vorteilhaft.
  • Durch Einsetzen der berechneten oder ausgelesenen Koeffizientenwerte a, b, c, d in die Funktion fAB nach Gleichung (1) wird der Funktionswert fAB(PAB) am Schnittpunkt PAB bestimmt. Folglich sind die Koordinaten des Punkts PAB (Px', fAB(P'), Pz). Hier ist Px' die Koordinatenposition des Schnittpunkts von P und AB, wenn P in x-Achsenrichtung bewegt wird. Der Funktionswert ist in diesem Fall P'.
  • Außerdem wird der Normalenvektor Np' im Schnittpunkt PAB durch lineare Interpolation der Normalenvektoren NA, NB im Punkt A und im Punkt B mittels der folgenden Gleichung berechnet: Vektor Np' = [(1 – tp) NA + tpNB]/|(NA + NB)| (2)
  • Die Koordinaten des Schnittpunkts PBC und der Normalenvektor an die andere Kante BC werden auf eine ähnliche Weise wie oben auf der Grundlage einer Kammlinie berechnet, die durch diese andere Kante BC gebildet ist.
  • Außerdem kann für das Segment PABPBC zwischen den zwei vorerwähnten Schnittpunkten PAB und PBC eine Kammlinie, basierend auf einer Gleichung dritten Grades wie in 7 veranschaulicht, auf eine ähnliche Weise wie zuvor angenommen werden, und die y-Koordinate (Höhe), und der Normalenvektor (Größe, Richtung) am Beurteilungspunkt P können auf der Grundlage dieser Kammlinie berechnet werden. Auf diese Weise können Informationen, welche die y-Koordinate (Höhe) und den Normalenvektor am Beurteilungspunkt P betreffen, einfach aus den Höheninformationen und den Normalenvektorinformationen für die Polygonscheitelpunkte abgeleitet werden.
  • Außerdem ist es auch möglich, statt die Kanten des betroffenen Polygons, das bei dieser Berechnung verwendet wird, nur auf die Kante AB und die Kante BC zu beschränken, die Kante AC und die Kante BC zu verwenden, wobei der Zusammenstoßbeurteilungspunkt P parallel zur z-Achse geführt wird. Kurz gesagt, es sollten zwei beliebige Kanten verwendet werden.
  • Daraufhin, in 3, führt die CPU 101 eine Verarbeitung zur Anwendung von Feinkorrekturen auf die Höhe und den Normalenvektor am Zusammenstoßbeurteilungspunkt P auf der Grundlage der Unebenheiten in der Fahrbahn durch (Schritte 203c, 203d, 203e). Diese Korrekturverarbeitung wird mit Bezug auf Licht und Schatten der Textur durchgeführt, die als Unebenheiten der Fahrbahn repräsentierende Höheninformationen bei der Erzeugung von Unebenheiten verwendet werden – und diese Verarbeitung wird Unebenheiten-Verarbeitung genannt. Ein Merkmal dieser Verarbeitung ist, dass die Attribute der Textur, die auf das Polygon aufgebracht wird, für die Unebenheiten-Korrektur (mit anderen Worten, letztendlich für die Zusammenstoßbeurteilung) benutzt werden, und es ist auch möglich, neben dem Licht und dem Schatten der Textur, wie oben beschrieben, Elemente wie Rasen, Steine usw., die als Textur geliefert werden, als Informationen über Unebenheiten bei der Durchführung der Unebenheiten-Korrektur zu verwenden.
  • Im Schritt 203c wird unter Verwendung eines Merkers oder dergleichen bestimmt, ob innerhalb des derzeit in Verarbeitung befindlichen Polygons Unebenheiten-Textur aufgebracht worden ist oder nicht. Wenn keine Unebenheiten-Textur aufgebracht worden ist (nein), dann wird der Schritt 203d übersprungen. Wenn eine Unebenheiten-Textur aufgebracht worden ist (ja), dann werden im Schritt 203d die Höhe und der Normalenvektor an einer Zusammenstoßbeurteilungsstelle basierend auf der Unebenheiten-Textur berechnet. Diese Rechenprozedur ist nachstehend ausführlich beschrieben.
  • Im Allgemeinen werden, wie in 8 veranschaulicht ist, Dreipunkt-Abbildungen im uv-Koordinatensystem für die Textur und im xz-Koordinatensystem für das Polygon durch die folgenden Matrizen M, M^ ausgedrückt. Mit anderen Worten: Eine Umrechung aus dem uv-Koordinatensystem in das xz-Koordinatensystem kann erhalten werden, indem
    Figure 00220001
    verwendet wird, und eine Umrechung aus dem xz-Koordinatensystem in das uv-Koordinatensystem kann erhalten werden, indem
    Figure 00220002
    verwendet wird.
  • Wenn vier Pixel ausgewählt sind, die den Punkt (u0, v0) umgeben, der der Zusammenstoßbeurteilungsstelle im uv-Koordinatensystem entspricht, wie in 9 veranschaulicht ist, dann werden diese vier Pixel die Höhendaten T00 T10. T11 bzw. T01 haben.
  • Die Höhen Tu0, Tu1 an der Position v0 werden berechnet durch lineare Interpolation bezüglich der Höhendaten T00 bis T10 die den zwei Pixeln an einer Kante parallel zur v-Achse entsprechen, bzw. der Höhendaten T01 bis T11, die den zwei Pixeln an der anderen derartigen Kante entsprechen.
  • Auf die gleiche Weise werden die Höhen T0v, T1v an der Position u0 berechnet durch lineare Interpolation bezüglich der Höhendaten T00 bis T10, die den zwei Pixeln an einer Kante parallel zur u-Achse entsprechen, bzw. der Höhendaten T10 bis T11, die den zwei Pixeln an der anderen Kante entsprechen.
  • Daraufhin wird aus diesen interpolierten Höhendaten die Steigung der Höhendaten Tu0 – Tu1 für ein Segment, das parallel zur u-Achse gezeichnet wird, abgeleitet, und zwar wird der Wert des Differentials in Richtung der u-Achse (= Steigung) im Punkt (u0, v0) genommen. Außerdem wird auch die Steigung der Höhendaten T0v – T1v für ein Segment, das parallel zur v-Achse gezeichnet wird, abgeleitet, und zwar wird der Wert des Differentials in Richtung der v-Achse im Punkt (u0, v0) genommen.
  • Diese zwei Steigungen werden in Tangentenvektoren du, dv in Richtung der u- bzw. v-Achse umgerechnet, und diese Vektoren werden mittels der oben beschriebenen Matrix M aus dem Textur-uv-Koordinatensystem in das Polygon-xz-Koordinatensystem umgerechnet.
  • Ferner wird die Gerade, welche die zwei umgerechneten Tangentenvektoren du, dv unter einem rechten Winkel schneidet, der bezüglich Unebenheiten korrigierte Normalenvektor am Zusammenstoßbeurteilungspunkt P (Px, Pz) (siehe 10). Die bezüglich Unebenheiten korrigierte Höhe am Zusammenstoßbeurteilungspunkt P (Px, Pz) wird durch bilineare Interpolation der Höhendaten für die vier Pixel abgeleitet.
  • Daraufhin geht die CPU 101 zum Schritt 203e in 3, wo die endgültige Höhe und der endgültige Normalenvektor für die Zusammenstoßbeurteilungsstelle aus den interpolierten Daten (Höhe, Normalenvektor) basierend auf dem Polygon, das im Schritt 203b zuvor berechnet wurde, und den bezüglich Unebenheiten interpolierten Daten (Höhe, Normalenvektor), die im Schritt 203d berechnet wurden, synthetisiert werden. Für die Höhe werden die zwei Werte addiert oder subtrahiert.
  • Die Normalenvektoren hingegen werden folgendermaßen umgerechnet: Der durch Interpolation basierend auf dem Polygon erhaltene Normalenvektor wird als Vektor n genommen und der durch Unebenheiten-Interpolation erhaltene Normalenvektor wird als Vektor m genommen. Da der Vektor m eine Normalenrichtung annimmt, wenn der Vektor n in vertikale Richtung zeigt (0,1,0), wird dann dementsprechend eine Umrechnungsmatrix abgeleitet, um (0,1,0) in den Vektor n umzurechnen (siehe 11). Der Vektor m wird dann unter Verwendung dieser Umrechungsmatrix umgerechnet. Der umgerechnete Vektor m bildet den endgültigen synthetisierten Normalenvektor.
  • Auf diese Weise werden die Höhen- und Normalenvektordaten, die innerhalb des Polygons interpoliert wurden, durch eine Unebenheiten-Korrektur auf feinere Art korrigiert. Die endgültigen Höhendaten und Normalenvektordaten für die Zusammenstoßbeurteilungsstelle, die als ein Ergebnis dieser Verarbeitung erhalten wurden, werden benutzt, um den Zusammenstoß zwischen den Reifen des Fahrzeugs und dem betroffenen Polygon zu bestimmen (3; Schritt 203f).
  • Für jeden Reifen, sowohl des Fahrzeugs des Spielers als auch der konkurrierenden Fahrzeuge, wird eine ständige Zusammenstoßbeurteilung durchgeführt, indem die Abfolge der Zusammenstoßverarbeitungsschritte, wie oben beschrieben, in gleich bleibenden, kurzen Zeitabständen wiederholt ausgeführt wird.
  • Gemäß der vorliegenden Ausführungsform werden zunächst die Höhe und der Normalenvektor an der Zusammenstoßbeurteilungsstelle aus den Polygondaten interpoliert. Da sich die Richtung des Normalenvektors, der geliefert wird, während sich die Zusammenstoßbeurteilungsrichtung deutlich ändert, auch dann, verglichen mit herkömmlichen Verfahren, sanft ändert, wenn die Zusammenstoßbeurteilungsstelle von einem Polygon zum anderen übergeht, wobei es eine Winkeldifferenz zwischen den Polygonflächen gibt, kann folglich die Richtung der Zusammenstoßbeurteilung sanft geändert werden, und deshalb ist die Genauigkeit der Zusammenstoßbeurteilung im Vergleich zu herkömmlichen Verfahren verbessert, und es ist möglich, die Erzeugung von fremdartigen Effekten zu vermeiden.
  • Folglich wird in der vorliegenden Ausführungsform ein zweistufiges Korrekturverfahren angewendet, bei dem die Höhe und der Normalenvektor, interpoliert anhand des Polygons wie oben beschrieben, des Weiteren einer Unebenheiten-Korrektur mittels der Licht- und Schattendaten, die Texturattribute bilden, unterzogen werden. Folglich wird nach einem problemlosen Bewirken deutlicher Veränderungen der Höhe der Fahrbahn eine Zusammenstoßbeurteilung ausgeführt, bei der Höhen- und Normalenvektordaten, welche die feinen Unebenheiten in der Fahrbahn auf präzise Weise widerspiegeln, verwendet werden, und deshalb ist die Genauigkeit der Zusammenstoßbeurteilung außerordentlich hoch, und das Fahrzeugverhalten kann auf eine Weise simuliert werden, die Eigenschaften der Fahrbahn genauer übermittelt.
  • Ein weiterer Vorteil wird insofern erzielt, als es nicht immer erforderlich ist, sowohl eine Interpolationsverarbeitung basierend auf den Polygondaten als auch eine Interpolationsverarbeitung basierend auf Textur, wie oben beschrieben, anzuwenden, und auch in den Fällen, in denen nur eine dieser Verarbeitungen auf unabhängige Weise durchgeführt wird, die Genauigkeit der Beurteilungsverarbeitung im Vergleich zur herkömmlichen Zusammenstoßbeurteilung außerordentlich hoch ist.
  • (Verarbeitung zur Staubwolkenerzeugung)
  • Im Folgenden wird die Verarbeitung zur Staubwolkenerzeugung gemäß dem Schritt 204 in 2 beschrieben. Wenn die Zusammenstoßbeurteilungsverarbeitung wie oben beschrieben abgeschlossen ist, führt die CPU 101 als ein Typ einer Spezialeffektverarbeitung für das Autorennspiel eine Verarbeitung zur Staubwolkenerzeugung aus, um ein Realismusgefühl über den Anzeigeschirm zu vermitteln. Diese Verarbeitung wird unter Bezugnahme auf 12 bis 16 beschrieben. Ein Entwurf der Abarbeitungsreihenfolge, die damit einhergeht, ist in 12 gezeigt.
  • Erstens wird eine Gruppe von Polygonen in Liniennetzform vorher im Speicher als Polygondaten für eine Darstellung einer Staubwolke abgelegt. 13 gibt eine schematische Darstellung eines Beispiels für eine solche Gruppe von Polygonen an, die eine zweidimensionale Abbildung schaffen, bei der die vertikale Richtung R die Auflösungsdimension des Staubs darstellt und die horizontale Richtung T die Zeitachsendimension darstellt. Um ein spezielles Beispiel zu geben sei die Anzahl der Polygone in der vertikalen Richtung Rmax = 5 und jene der Polygone in der horizontalen Richtung Tmax = 20. Diese Polygonanzahlen können wie jeweils anwendbar in Übereinstimmung mit der Präzision der Anzeige und der Rechenlast bestimmt werden.
  • Während der Staubwolkenberechnung werden den Scheitelpunkten jedes Polygons jeweils die aktuelle räumliche Position, die Geschwindigkeit und weitere Parameter zugeordnet. Je größer die Anzahl dieser Parameter und die Anzahl der Polygone ist, welche die Auflösung in der vertikalen Richtung und die Zeit in der horizontalen Richtung repräsentieren, desto genauer wird die Simulation einer Staubwolke. Da eine Verarbeitung durchgeführt wird, bei der die Gruppe von Polygonen in der Staubwolke während der Anzeige in Reaktion auf verschiedene Faktoren die Form ändert, werden Verbindungsinformationen zum Verbinden der Scheitelpunkte jedes Polygons in dem Liniennetz als Bilddaten verwendet. Diese sind derart festgelegt, dass sich die Gestalt der Staubwolke als Ganzes ändert.
  • Es sei nun ein Fall angenommen, in dem vom Vorderrad eines Fahrzeugs eine Staubwolke aufgewirbelt wird. Zunächst werden jedem Polygon der Polygongruppe, die zu der Spalte gehört, die in Richtung der Auflösung R an der Position T = 0 auf der Zeitachse liegt, die Position der den Boden berührenden Oberfläche des Vorderrads und eine Anfangsgeschwindigkeit, abgeleitet aus der Drehzahl des freien Drehens der Reifen auf der Fahrbahn, und eine Zufallszahl zugewiesen (12, Schritt 2031). Daraufhin wird die Position auf der Zeitachse zu T = 1 verschoben, und für jedes Polygon in der Spalte, die in Richtung der Auflösung R bei T = 1 liegt, werden eine Position und eine Geschwindigkeit festgesetzt. Im Besonderen wird jedes der Polygone an der Position T = 1 bestimmt, indem verschiedene Staubwolkenparameter hinzugefügt werden, die für die aktuelle Halbbildanzeige entsprechend der Position und der Geschwindigkeit jedes Polygons an der Position T = 0, verarbeitet für die vorhergehende Halbbildanzeige, erhalten werden (Schritt 2032). Hierbei werden Faktoren wie die Windrichtung und -stärke, die Erdbeschleunigung, der Luftwiderstand und dergleichen als die vorerwähnten Parameter benutzt. Diese Pa rameter können bei Bedarf aus den Betriebsinformationen, aus der momentanen Fahrzeuggeschwindigkeit usw. abgeleitet werden. Dadurch können die Polygone in der zweiten Spalte T = 1 mit einer Bewegung geliefert werden, welche die Bewegung der Polygone in der vorhergehenden Spalte während des vorhergehenden Verarbeitungsschritts widerspiegelt.
  • Die oben beschriebenen Berechnungen werden auf die gleiche Weise ab der 3. Spalte bei T = 2 bis zur n + 1-ten Spalte bei T = n wiederholt (wobei beispielsweise n = 10 ist). Mit anderen Worten: Jedem Polygon bei T = 2 werden eine Position und eine Geschwindigkeit zugeordnet, die erhalten werden, indem Staubwolkenparameter zu der Position und Geschwindigkeit der Polygone bei T = 1 im vorhergehenden Verarbeitungsschritt hinzugefügt werden. Außerdem werden jedem Polygon bei T = 3 eine Position und eine Geschwindigkeit zugeordnet, die erhalten werden, indem Staubwolkenparameter zu der Position und Geschwindigkeit der Polygone bei T = 2 im vorhergehenden Verarbeitungsschritt hinzugefügt werden. Die Berechnung wird auf diese Weise wiederholt, bis schließlich jedem Polygon bei T = n eine Position und eine Geschwindigkeit zugeordnet sind, die erhalten werden, indem Staubwolkenparameter zu der Position und Geschwindigkeit der Polygone bei T = n – 1 im vorhergehenden Verarbeitungsschritt hinzugefügt werden.
  • Die Positionen der Scheitelpunkte jedes Polygons, die mittels dieser Aufeinanderfolge von Berechnungen festgesetzt wurden, werden mittels Verbindungsdaten, die Scheitelpunkte miteinander verbinden, rekonstituiert, um ein Objekt zu bilden, das eine Staubwolke darstellt (Schritt 2033). Dadurch kommt das Objekt auf eine einzige Gestalt zurück, deren Scheitelpunkte sich wie bei einer Staubwolke umherbewegen, wenn es angezeigt wird.
  • Außerdem wird die auf die vorerwähnte Weise umgewandelte Polygongruppe des Weiteren mancherlei Verarbeitung unter zogen, um das äußere Erscheinungsbild der Staubwolke anzupassen (Schritt 2034). Diese Verarbeitung umfasst: (1) eine Verarbeitung zum Erhöhen der Transparenz, während sich die Polygone entlang der Zeitachse T bewegen; (2) eine Verarbeitung zum Erhöhen der Transparenz in Aufwärtsrichtung auf eine solche Weise, dass sich die Grenze zwischen den höchsten Polygonen und dem Hintergrund nicht abzeichnet, wenn die Staubwolke als Ganzes aus seitlicher Richtung betrachtet wird; (3) eine Verarbeitung zur Anwendung eines Schleiers (Fogging), der die gleiche Farbe wie der Staub hat, um zu bewirken, dass in den Fällen, in denen der Kamera-Ansichtspunkt in die Staubwolkenatmosphäre eingedrungen ist, die Dichte dieses Schleiers zum Zentrum der Staubwolke hin zunimmt, um in solchen Fällen fremdartige Effekte zu vermeiden; und dergleichen.
  • Folglich wird in der vorliegenden Ausführungsform eine Staubwolke durch eine Gruppe von Polygonen darstellt, und es wird eine Staubwolke angezeigt, indem die Scheitelpunkte jedes Polygons durch physikalische Berechnung festgesetzt werden, wobei bewirkt wird, dass die Gruppe von Polygonen einen Schweif hinter sich lässt. Insbesondere wird bei der physikalischen Berechnung die Bewegung der vorhergehenden Spalte von Polygonen während des vorhergehenden Verarbeitungszyklus bei der nachfolgenden Spalte von Polygonen widergespiegelt, und außerdem werden auch Staubwolken-Parameterwerte, hauptsächlich Umweltfaktoren wie etwa die Windrichtung und -stärke, die Erdbeschleunigung, der Luftwiderstand und dergleichen verwendet. Folglich wird, wie in 14 und 15 veranschaulicht ist, eine Staubwolke SS angezeigt, die einen Schweif hinter dem Fahrzeug zurücklässt und sich verbreitert, während sie sich zum Betrachter hin bewegt, und ihre Gestalt ändert sich frei, entsprechend den verschiedenen Staubwolkenparameterwerten. Da die Bewegung der Scheitelpunkte durch physikalische Berechnung bestimmt wird, erscheint das Verhalten (Abheben, Ausweiten) der Staubwolke als Ganzes viel natürlicher als bei einer her kömmlichen Vorrichtung, und folglich ist es möglich, den fremdartigen Effekt, der durch eine künstliche Darstellung einer Staubwolke hervorgerufen wird, praktisch zu beseitigen.
  • Die Staubwolke als Ganzes nimmt außerdem in Aufwärtsrichtung und in Rückwärtsrichtung an Transparenz zu. Mit anderen Worten: Die Partikeldichte der Staubwolke wird so angezeigt, dass sie in jeder dieser Richtungen abnimmt, und folglich wird der Umriss der Staubwolke unscharf angezeigt. Auf diese Weise ist es möglich, den unnatürlichen Eindruck zu vermeiden, der durch herkömmliche Vorrichtungen hervorgerufen wird, bei denen die Grenze zwischen einer Staubwolke und der Umgebung zu deutlich ist. Auf diese Weise kann auch der Realismus, der bei der Darstellung einer Staubwolke erreicht wird, deutlich verbessert werden.
  • Außerdem kann in den Fällen, in denen das Fahrzeug des Spielers von einem beschleunigenden konkurrierenden Fahrzeug EC überholt wird, wie in 16 veranschaulicht ist, der Kamera-Ansichtspunkt, der sich an der Position des Spielers in dessen Fahrzeug befindet, vollständig in die Atmosphäre der Staubwolke, die von dem konkurrierenden Fahrzeug aufgewirbelt worden ist, eindringen. In Situationen wie dieser war es gemäß herkömmlichen Verfahren nur möglich, einen Schirm anzuzeigen, der eine optische Sinnestäuschung erzeugt, als ob der Spieler in einen Tunnel aus Staub eingedrungen wäre, der im Inneren leer ist. In der vorliegenden Ausführungsform wird jedoch ein Schleier verwendet, der die gleiche Farbe wie eine Staubwolke hat, wobei Bildschirme angezeigt werden, bei denen die Dichte des Schleiers zum Zentrum der Staubwolke hin zunimmt; und deshalb ist es möglich, einen realen Zustand darzustellen, wobei der mittlere Teil der Staubwolke ausgefüllt ist. Der fremdartige Effekt, der durch herkömmliche Verfahren hervorgerufen wird, kann vermieden werden, es können außerordentlich wirklichkeitsnahe Staubwolken bildlich darge stellt werden, und folglich kann der Realismus des Spiels verbessert werden. Außerdem ist es durch diese Verarbeitung zur Schleierbildung (Fogging) möglich, von einem Bildschirm-Clipping (Verarbeitung, durch die ein Objekt nicht angezeigt wird, wenn es sich über eine bestimmte Entfernung zur Vorderseite des Bildschirms hinaus bewegt hat) Gebrauch zu machen, und unnatürliche Effekte bei der Anzeige können vermieden werden, während der Umfang der rechnerischen Verarbeitung verringert werden kann.
  • Außerdem wird im Falle eines Fahrzeugs mit Allradantrieb von allen vier Rädern eine Staubwolke erzeugt, aber wenn sich das Fahrzeug vorwärts bewegt, werden die Polygone der Staubwolken, die von den Hinterrädern erzeugt werden, mit jenen, die durch die Vorderräder erzeugt werden, vermischt, und folglich kann die Erzeugung dieser Staubwolken-Polygone unterlassen werden. Wenn das Fahrzeug rückwärts fährt, ist es hingegen möglich, die Staubwolken-Polygone wegzulassen, die durch die Vorderräder erzeugt werden.
  • Im Folgenden wird die Verarbeitung zum Anzeigen von sich ausbreitendem Licht gemäß dem Schritt 205 in 2 beschrieben. Im Anschluss an die Verarbeitung zur Staubwolkenerzeugung vermittelt die CPU 101 ein Realismusgefühl über den Anzeigeschirm, indem sie eine Verarbeitung zur Darstellung sich ausbreitenden Lichts als ein Typ einer Spezialeffektverarbeitung für ein Autorennspiel durchführt. Diese Verarbeitung wird nun anhand von 17 bis 21 beschrieben. 17 zeigt eine Übersicht über die Abarbeitungsreihenfolge, die damit einhergeht.
  • 18 zeigt die Lagebeziehung zwischen dem Fahrzeug und dem Kamera-Ansichtspunkt in einem dreidimensionalen virtuellen Raum. Eine Matrix, welche die räumliche Anordnung des Fahrzeugs angibt, wird als Mc angenommen, und eine Matrix, welche die räumliche Anordnung des Kamera-Ansichtspunkts angibt, wird als Me angenommen. Diese Matrizen lassen sich wie folgt darstellen:
    Figure 00320001
  • Zunächst werden, wie durch die Beispiele in 19(a) und (b) veranschaulicht ist, entsprechende Richtungsvektoren Vc, Ve für das Fahrzeug (Orientierung der Lichtquelle) und den Kamera-Ansichtspunkt bestimmt (17, Schritt 2041). Diese Richtungsvektoren sind Größen, die angeben, welche Richtung des Fahrzeugs (anzuzeigende Orientierung der Lichtquelle) und des Kamera-Ansichtpunkts in dem Spielraum nach innen zeigt, und sie können abgeleitet werden, indem die Richtungskomponenten in den entsprechenden Matrizen Mc, Me mit (0,0,1) multipliziert werden, und zwar
    Figure 00320002
  • Daraufhin wird der Winkel zwischen diesen beiden Richtungsvektoren bestimmt (Schritt 2042). Im Besonderen kann dieser Winkel durch Berechnen des Skalarprodukts der zwei Vektoren und Bestimmen des Richtungscosinus berechnet werden.
  • Mit anderen Worten: Der Richtungscosinus wird wie folgt abgeleitet: cosθ = (Vc·Ve) ÷ (|Vc| × |Ve|) = (mc00me00 + mc10me10 + mc20me20) ÷ [(mc002 + mc102 + mc202)1/2 × (mc002 + mc102 + mc202)1/2]
  • Aus diesen Ergebnissen wird der Sinus des Winkels als sinθ = (1 – cos2θ)1/2 abgeleitet (Schritt 2043).
  • Daraufhin wird der Kehrwert davon, 1/sinθ, bestimmt (Schritt 2044). Diese Funktion 1/sinθ stellt eine Kurve dar, die nach Unendlich geht, wenn die zwei Richtungsvektoren Vc, Ve parallel zueinander sind (siehe 20). Die Funktion dient als ein Erweiterungskoeffizient im Zusammenhang mit einem Anzeigeobjekt sich ausbreitenden Lichts, wie im Folgenden beschrieben.
  • Daraufhin wird ein einziges Lichtquellenpolygon PGL (es ist wünschenswert, ein Polygon pro Lichtquelle zu verwenden) an der Lichtquellenposition festgelegt, wie zum Beispiel ein Scheinwerferlicht des Fahrzeugs oder dergleichen, und es wird eine Verarbeitung durchgeführt, durch die dieses Lichtquellenpolygon mittels der Funktion 1/sinθ in Richtung der Ebene, welche die Sichtlinie unter einem rechten Winkel schneidet, erweitert wird (Schritt 2045). Da das Lichtquellenpolygon nicht immer senkrecht in Bezug auf die Linie des Sichtvektors ist, wird der Winkel zwischen dem Lichtpolygon und dem Lichtquellenpolygon (Richtungsvektor des Fahrzeugs) bei der vorerwähnten Erweiterungsverarbeitung berechnet, und das Lichtpolygon wird erweitert und veranlasst, die Form entsprechend diesem Winkel in eine elliptische Form zu ändern (in einem dreidimensionalen virtuellen Raum wird die x-Achsenrichtung oder die y- Achsenrichtung in eine elliptische Form verändert). Wenn das Lichtquellenpolygon senkrecht in Bezug auf die Linie des Sichtvektors ist (mit anderen Worten, wenn das Lichtquellenpolygon der Linie des Sichtvektors direkt gegenüberliegt), dann wird eine Verarbeitung zur Erweiterung des Lichtquellenpolygons in eine Kreisform ausgeführt. Das Lichtquellenpolygon wird so abgebildet, dass es sich von transparent an seinen Kanten zu einer gut deckenden Lichtquellenfarbe zum Zentrum hin verändert.
  • Dadurch ändert sich, während der Winkel zwischen dem Kamera-Ansichtspunkt und dem Fahrzeug (Orientierung der Lichtquelle) sich der Parallelität nähert, der Zustand der Lichtstrahlung, die sich von der Lichtquelle ausbreitet, mit einer zunehmenden Geschwindigkeit von einer elliptischen Form in eine unendlich große Kreisform, wie in 21(b) und (c) gezeigt ist. Da die Quelle der Lichtstrahlung, die sich im Zentrum des sich ausbreitenden Lichts befindet, undurchsichtig ist, kann sie außerdem als der hellste Punkt dargestellt werden. 21(a) zeigt einen Anfangszustand bei einer rechnerischen Verarbeitung im Zusammenhang mit einer Lichtquelle wie oben beschrieben, und in diesem Zustand ist die Form der Lichtquelle ein Kreis oder eine Ellipse mit einem kleinen Durchmesser.
  • Folglich ist es möglich, auf zuverlässige Weise einem Spieler, der den Schirm beobachtet (Beobachterposition am gedachten Kamera-Ansichtspunkt), einen Eindruck von der Richtungsbündelung des sich ausbreitenden Lichts zu vermitteln, und da dieser Eindruck jenem sehr ähnlich ist, der gewöhnlich bei realen Fahrzeugen empfunden wird, trägt er auf zuverlässige Weise dazu bei, das Realismusempfinden, das durch das Fahrzeugverhalten vermittelt wird, zu verbessern. Die Veränderung der Form der Lichtquelle ist nicht auf jene, die hier beschrieben ist, beschränkt, und es ist auch möglich, dass sie verschiedenste Formen annimmt, wie beispielsweise Sternformen oder dergleichen.
  • Da insbesondere das sich ausbreitende Licht als weiter werdend als der Anzeigeschirm dargestellt wird, wenn der Zustand der Lichtstrahlung derart ist, dass der Kamera-Ansichtspunkt mit der Richtung des Fahrzeugs zur Deckung gelangt, ist dies sehr eindrucksvoll für den Spieler, wodurch sich sein Interesse an dem Spiel erhöht, und es wird ein Bild geliefert, das sich instinktiv begreifen lässt.
  • Außerdem markiert diese Verarbeitung zur Darstellung von sich ausbreitendem Licht eine Abkehr von herkömmlichen Verfahren, und obwohl es eine sehr aussagekräftige visuelle Wirkung hervorbringt, basiert das Rechenverfahren der Verarbeitung auf einer Verarbeitung zur Erweiterung eines einzigen Polygons und ist deshalb sehr einfach. Folglich zeichnet sich dieses Verfahren dadurch aus, dass die Rechenlast, die damit einhergeht, nur klein ist und die Verarbeitungsgeschwindigkeit hoch ist.
  • Die Verarbeitung zur Darstellung von sich ausbreitendem Licht ist nicht auf die Scheinwerfer des Fahrzeugs beschränkt, und in der Tat kann sie auf die Schlussleuchten oder auf beide, Scheinwerfer und Schlussleuchten des Fahrzeugs, angewendet werden. Außerdem kann diese Verarbeitung zur Darstellung von sich ausbreitendem Licht auf zufriedenstellende Weise in den Fällen angewendet werden, in denen beispielsweise der Ausbreitungszustand von Sonnenlicht gezeigt wird, das bei einem Kampfflugzeugspiel von der Glasoberfläche eines Kampfflugzeug-Cockpits reflektiert wird.
  • Die vorliegende Erfindung ist nicht auf eine Umsetzung in einer Spielvorrichtung, die ein Bilderzeugungsgerät bildet, das ein Autorennspiel durchführt, beschränkt. Sie kann auf zufriedenstellende Weise in einer Spielvorrichtung umgesetzt werden, die bewirkt, dass sich ein Objekt, das einen sich bewegenden Körper darstellt, entlang einer zurückzulegende Strecke bewegt, die in einem virtuellen dreidimen sionalen Raum festgelegt ist, beispielsweise bei einer Regatta auf dem Wasser, einem Skateboard-Spiel oder dergleichen.
  • Außerdem kann die Erfindung auch auf Wasserschleier, zusätzlich zu Staubwolken, angewendet werden. Sie kann auch auf Rauch angewendet werden. Kurz, sie kann auf die Anzeige irgendeines Elements angewendet werden, das von einem sich bewegenden Objekt entstammt und die Ergebnisse dieser Bewegung sichtbar macht.
  • Was das Speichermedium bei der vorliegenden Erfindung betrifft, so ist es auch möglich, andere Speichermittel einzusetzen, beispielsweise gemeinhin bekannte Speichermittel wie eine Festplatte, ein ROM vom Kartentyp, CD-ROM oder dergleichen oder ein Kommunikationsmedium (das Internet, Personalcomputer-Kommunikationsnetze, oder Informationen, die sich auf Servern in diesen Netzen befinden usw.).
  • GEWERBLICHE ANWENDBARKEIT
  • Wie oben beschrieben wurde, ist es gemäß der vorliegenden Erfindung möglich, ein Bilderzeugungsgerät und ein Bilderzeugungsverfahren zu schaffen, womit Faktoren, die mit einer gegenseitigen Beeinflussung eines Fahrzeugs, das einen sich bewegenden Körper bildet, und seiner Umgebung im Zusammenhang stehen, realistischer dargestellt werden können; demzufolge nimmt das Realismusgefühl bei Spielen, die auf dem Hauptthema eines sich bewegenden Fahrzeugs basieren, zu und es erhöht sich außerdem das Interesse, das dadurch hervorgerufen wird, ohne die Rechenlast oder das Datenvolumen, das damit einhergeht, merklich zu vergrößern.
  • Insbesondere ist es möglich, einen im Vergleich zum Stand der Technik merklich verbesserten Realismus und Authentizität bei der Darstellung des Fahrzeugverhaltens zu erzielen, indem eine natürlichere Zusammenstoßbeurteilungsverar beitung implementiert wird, die wenige fremdartige Effekte erzeugt, da plötzliche Änderungen der Beurteilungsrichtung im Falle einer Zusammenstoßbeurteilungsverarbeitung vermieden werden, wenn ein Fahrzeug die Verbindungsstelle zwischen zwei Polygonen überquert, und indem eine Zusammenstoßbeurteilungsverarbeitung implementiert wird, die Unebenheiten in der Fahrbahn berücksichtigt.
  • Zudem ist es auch möglich, den fremdartigen Effekt zu vermeiden, der durch herkömmliche glatt oder künstlich aussehende Staubwolken hervorgerufen wird, indem der Sinneseindruck von Partikeln vermittelt wird, die eine Staubwolke bilden, und überdies können Staubwolken dargestellt werden, ohne fremdartige Effekte im Zustand der Wolke, wie vom Kamera-Ansichtspunkt aus gesehen, zu erzeugen, und zwar auch in den Fällen, in denen sich der Kamera-Ansichtspunkt räumlich innerhalb einer Staubwolke befindet.
  • Außerdem können Abbildungen von sich ausbreitendem Licht, das eine Orientierung aufweist, wie etwa Scheinwerferlicht, Licht von Schlussleuchten oder reflektiertes Licht, das von einem sich bewegenden Fahrzeug ausgesendet wird, auf eine dynamische Weise erzeugt werden, und folglich kann sich ausbreitendes Licht auf eine wirklichkeitsnähere Art dargestellt werden.

Claims (9)

  1. Bilderzeugungsgerät, das Folgendes umfasst: Zusammenstoßfeststellungsmittel (203) zum Feststellen des Zustandes des Zusammenstoßes zwischen einem Objekt und einer zurückzulegenden Strecke, welche durch Polygone (PG) in einem virtuellen dreidimensionalen Raum spezifiziert ist; und Erzeugungsmittel (203f) zum Erzeugen von Bilddaten, die einen Zustand repräsentieren, in dem sich das Objekt die zurückzulegende Strecke entlang bewegt, während der vorerwähnte Zusammenstoßzustand beibehalten wird; wobei die Zusammenstoßfeststellungsmittel umfassen: Interpolationsmittel (203b) zum Bestimmen von Zusammenstoßfeststellungsdaten einer Zusammenstoßstelle (P) des Objekts durch Interpolieren von Scheitelpunktdaten, die den Scheitelpunkten der Polygone der zurückzulegenden Strecke zugeordnet sind; und Zusammenstoßspezifizierungsmittel (203c bis f) zur Spezifizierung des Zusammenstoßes zwischen dem Objekt und der zurückzulegenden Strecke gemäß den durch die Interpolationsmittel interpolierten Zusammenstoßfeststellungsdaten.
  2. Bilderzeugungsgerät nach Anspruch 1, wobei die Scheitelpunktdaten die Höhe und den Normalenvektor jedes Scheitelpunkts umfassen und die Zusammenstoßfeststellungsdaten die Höhe und den Normalenvektor der Zusammenstoßstelle umfassen.
  3. Bilderzeugungsgerät nach Anspruch 1 oder Anspruch 2, wobei die Interpolationsmittel Folgendes umfassen: Mittel, um zwei Kanten des Polygons zu spezifizieren, die sich unter einem rechten Winkel schneiden und jeweils von der Zusammenstoßstelle parallel zu den Koordinatenachsen verlaufen; Mittel, um eine erste und eine zweite Kammlinie auf der Grundlage der Scheitelpunktdaten für jedes Ende der Kanten festzusetzen; Mittel, um jeweils Daten für die Schnittpunkte der Kammlinien mit den beiden Kanten zu bestimmen; Mittel, um eine dritte Kammlinie eines Segments zu spezifizieren, das an den Schnittpunkten mit den beiden Kanten endet; und Mittel, um die Zusammenstoßfeststellungsdaten an der ermessenen Zusammenstoßstelle aus den entsprechenden Daten für die Schnittpunkte mit dieser dritten Kammlinie zu ermitteln.
  4. Bilderzeugungsgerät nach Anspruch 3, wobei die erste, zweite und dritte Kammlinie als Gleichungen dritten Grades gegeben sind.
  5. Bilderzeugungsgerät nach Anspruch 1, wobei die Zusammenstoßfeststellungsmittel ferner umfassen: Korrekturmittel, um die Zusammenstoßfeststellungsdaten zu korrigieren, die durch die Interpolationsmittel in Übereinstimmung mit den Attributen der zurückzulegenden Strecke, die durch die Polygone repräsentiert ist, interpoliert worden sind; und Spezifizierungsmittel, um den Zusammenstoß zwischen dem Objekt und der zurückzulegenden Strecke in Übereinstimmung mit den durch die Korrekturmittel korrigierten Zusammenstoßfeststellungsdaten zu spezifizieren.
  6. Bilderzeugungsgerät nach Anspruch 5, wobei die Zusammenstoßfeststellungsdaten die Höhe und der Normalenvektor der Zusammenstoßstelle sind.
  7. Bilderzeugungsgerät nach Anspruch 5, wobei die Attribute der zurückzulegenden Strecke Unebenheiten in der zurückzulegenden Strecke sind und Licht- und Schattendaten, die als den Polygonen zugeteilte Textur gelie fert werden, als Informationen über die Unebenheiten verwendet werden.
  8. Bilderzeugungsgerät nach einem der Ansprüche 1 bis 7, wobei das Objekt ein Wagen in einem Rennspiel ist, der sich in dem virtuellen dreidimensionalen Raum bewegt.
  9. Bilderzeugungsverfahren zum Erzeugen von Bilddaten, die den Zustand eines durch Polygone in einem virtuellen dreidimensionalen Raum spezifizierten Objekts repräsentieren, das sich entlang einer zurückzulegenden Strecke fortbewegt, während der Zustand des Zusammenstoßes zwischen dem Objekt und der zurückzulegenden Strecke festgestellt wird, wobei die Zusammenstoßfeststellungsdaten an der Zusammenstoßstelle des Objekts durch Interpolieren (203b) der Scheitelpunktdaten bestimmt werden, die den Scheitelpunkten der Polygone der zurückzulegenden Strecke zugeordnet sind, und der Zusammenstoß zwischen dem Objekt und der zurückzulegenden Strecke in Übereinstimmung mit diesen interpolierten Zusammenstoßfeststellungsdaten spezifiziert wird (203c bis f).
DE69836805T 1997-11-07 1998-11-06 Gerät und verfahren zur bilderzeugung Expired - Lifetime DE69836805T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP30622697 1997-11-07
JP30622697 1997-11-07
PCT/JP1998/005015 WO1999024937A1 (en) 1997-11-07 1998-11-06 Image generating device and image generating method

Publications (2)

Publication Number Publication Date
DE69836805D1 DE69836805D1 (de) 2007-02-15
DE69836805T2 true DE69836805T2 (de) 2007-11-29

Family

ID=17954523

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69836805T Expired - Lifetime DE69836805T2 (de) 1997-11-07 1998-11-06 Gerät und verfahren zur bilderzeugung

Country Status (9)

Country Link
US (1) US6657630B1 (de)
EP (2) EP0973132B1 (de)
JP (1) JP4226663B2 (de)
KR (1) KR100816622B1 (de)
CN (1) CN1183493C (de)
DE (1) DE69836805T2 (de)
ES (1) ES2283076T3 (de)
HK (1) HK1024767A1 (de)
WO (1) WO1999024937A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3363137B2 (ja) 2000-11-29 2003-01-08 コナミ株式会社 当たり判定方法、その装置、当たり判定処理プログラムを記録したコンピュータ読み取り可能な記録媒体及びビデオゲーム装置
JP2002216151A (ja) * 2001-01-12 2002-08-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP4610748B2 (ja) * 2001-01-16 2011-01-12 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP4846919B2 (ja) * 2001-04-23 2011-12-28 本田技研工業株式会社 模擬運転装置
KR100420859B1 (ko) * 2001-08-11 2004-03-02 학교법인연세대학교 범프 매핑 처리 장치 및 방법
JP4148868B2 (ja) * 2003-10-08 2008-09-10 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7077749B1 (en) * 2003-11-20 2006-07-18 Microsoft Corporation Dynamic weather simulation
CN101941012B (zh) * 2009-07-03 2012-04-25 泰怡凯电器(苏州)有限公司 清洁机器人及其脏物识别装置和该机器人的清洁方法
US20170185057A1 (en) * 2011-04-14 2017-06-29 Suntracker Technologies Ltd. System and method for the optimization of radiance modelling and controls in predictive daylight harvesting
US9690762B1 (en) * 2013-01-14 2017-06-27 Google Inc. Manipulating image content items through determination and application of multiple transparency values to visually merge with other content as part of a web page
US9643735B2 (en) * 2015-05-27 2017-05-09 Honeywell International Inc. Integration of braking action information with flight deck runway functions
WO2017025801A1 (en) * 2015-08-13 2017-02-16 Cgg Services Sa System and method for gravity and/or gravity gradient terrain corrections
CN106056655B (zh) * 2016-09-06 2019-09-10 珠海金山网络游戏科技有限公司 一种可编辑的虚拟摄像机系统和方法
JP7020926B2 (ja) 2018-01-09 2022-02-16 株式会社コーエーテクモゲームス プログラム、画像処理方法、及び画像処理装置
US11136025B2 (en) * 2019-08-21 2021-10-05 Waymo Llc Polyline contour representations for autonomous vehicles

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4148485A (en) * 1977-09-19 1979-04-10 Atari, Inc. Driving games method for automatically controlled cars
US4645459A (en) * 1982-07-30 1987-02-24 Honeywell Inc. Computer generated synthesized imagery
US4895376A (en) * 1988-06-17 1990-01-23 Tigers Electronics, Inc. Interactive video game
JPH04242281A (ja) * 1991-01-16 1992-08-28 Nissan Motor Co Ltd ドライビングシミュレータ
JP2883523B2 (ja) * 1992-08-26 1999-04-19 株式会社ナムコ 画像合成装置及び画像合成方法
JP3335445B2 (ja) * 1993-10-21 2002-10-15 株式会社ナムコ 3次元シミュレータ装置
US5755620A (en) * 1995-04-03 1998-05-26 Kabushiki Kaisha Sega Enterprises Game system and data processing method thereof
JPH08276070A (ja) * 1995-04-06 1996-10-22 Sega Enterp Ltd ゲーム装置
US6064393A (en) * 1995-08-04 2000-05-16 Microsoft Corporation Method for measuring the fidelity of warped image layer approximations in a real-time graphics rendering pipeline
JP3138424B2 (ja) * 1996-03-26 2001-02-26 株式会社ナムコ シミュレーション装置及び衝突判定方法
JP3753338B2 (ja) * 1996-06-06 2006-03-08 株式会社ナムコ 3次元シミュレータ装置及び画像合成方法
JP3046578B2 (ja) * 1998-06-11 2000-05-29 株式会社ナムコ 画像生成装置及び情報記憶媒体
US6339429B1 (en) * 1999-06-04 2002-01-15 Mzmz Technology Innovations Llc Dynamic art form display apparatus

Also Published As

Publication number Publication date
EP0973132A1 (de) 2000-01-19
ES2283076T3 (es) 2007-10-16
CN1251674A (zh) 2000-04-26
WO1999024937A1 (en) 1999-05-20
KR20000069955A (ko) 2000-11-25
EP0973132A4 (de) 2003-01-02
JP4226663B2 (ja) 2009-02-18
CN1183493C (zh) 2005-01-05
EP0973132B1 (de) 2007-01-03
DE69836805D1 (de) 2007-02-15
KR100816622B1 (ko) 2008-03-24
WO1999024937A9 (fr) 1999-11-04
EP1720132A3 (de) 2010-05-26
US6657630B1 (en) 2003-12-02
EP1720132A2 (de) 2006-11-08
HK1024767A1 (en) 2000-10-20

Similar Documents

Publication Publication Date Title
DE102009041431B4 (de) Fahrsimulationsvorrichtung, Weitwinkelkamera-Videosimulationsvorrichtung und Bilddeformierungs-/-zusammensetzungsvorrichtung
DE69836805T2 (de) Gerät und verfahren zur bilderzeugung
DE69836383T2 (de) Bildverarbeitungssystem und -verfahren
DE69729621T2 (de) Spielvorrichtung und verarbeitungsmethode dafür sowie aufnahmemedium
US5577960A (en) Image synthesizing system and game playing apparatus using the same
DE60028430T2 (de) Spielvorrichtung
DE69833482T2 (de) Verfahren und vorrichtung zur bildverarbeitung
KR0121794B1 (ko) 지형응답을 갖는 컴퓨터 영상 생성 장치 및 방법
GB2295757A (en) Three-dimensional simulator and image generating method
EP1054354A1 (de) Verfahren zum Gewinnen einer dreidimensionalen Kartendarstellung und Navigationssystem
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE102019106048A1 (de) Fahrzeuganzeige mit erweiterter realität
EP0845130B1 (de) Simulation von atmosphärischen effekten
DE112017001556T5 (de) Navigationssystem und Navigationsprogramm
DE60020000T2 (de) Spielvorrichtung
DE112019006103B4 (de) Informationsanzeigesteuervorrichtung, Verfahren, Programm und Aufzeichnungsmedium
GB2284526A (en) Image synthesizer and apparatus for playing game using the image synthesizer
WO2006111470A1 (de) Verfahren zur dreidimensionalen darstellung einer digitalen strassenkarte
DE102016002010B4 (de) Verfahren zum Betreiben einer Projektionsvorrichtung eines Kraftfahrzeugs, Projektionssystem sowie Kraftfahrzeug
DE102022104134B4 (de) Verfahren und Prozessorschaltung und Computerprogramm zum Steuern einer Datenbrille zur routenadaptiven Wiedergabe einer Abfolge von vorgegebenen Ereignissen in einer virtuellen Umgebung während einer Fahrt eines Kraftfahrzeugs sowie zugehörige Datenbrille
Caird et al. Perceived spatial layout of a simulated scene as a function of experience
DE102015120927A1 (de) Verfahren zur Darstellung einer Simulationsumgebung
DE10246122B4 (de) Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands
AT503743B1 (de) Verfahren zur rechnergestützten darstellung von objekten
DE102022126322A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Kraftfahrzeug, Fahrerassistenzsystem für ein Kraftfahrzeug sowie Kraftfahrzeug mit einem Fahrerassistenzsystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition