DE69838734T2 - Bilderzeugungsgerät - Google Patents

Bilderzeugungsgerät Download PDF

Info

Publication number
DE69838734T2
DE69838734T2 DE69838734T DE69838734T DE69838734T2 DE 69838734 T2 DE69838734 T2 DE 69838734T2 DE 69838734 T DE69838734 T DE 69838734T DE 69838734 T DE69838734 T DE 69838734T DE 69838734 T2 DE69838734 T2 DE 69838734T2
Authority
DE
Germany
Prior art keywords
image forming
forming apparatus
movement
point
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69838734T
Other languages
English (en)
Other versions
DE69838734D1 (de
Inventor
Makoto Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Application granted granted Critical
Publication of DE69838734D1 publication Critical patent/DE69838734D1/de
Publication of DE69838734T2 publication Critical patent/DE69838734T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6684Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dynamically adapting its position to keep a game object in its viewing frustrum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Description

  • ^TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Bilderzeugungsvorrichtung. Insbesondere betrifft die Erfindung eine Bilderzeugungsvorrichtung, die für Schusswaffenspiele usw. geeignet ist, wobei die Bewegungssteuerung eines beweglichen Gegenstands ausschlaggebend ist, der in einem virtuellen, dreidimensionalen Raum bewegt werden soll, und die Bewegungssteuerung eines Kamerablickpunktes (d. h. eines Bildschirmbildes) innerhalb dieses Raumes, damit das Bild diesem beweglichen Gegenstand folgen kann.
  • ALLGEMEINER STAND DER TECHNIK
  • Im Zuge der Entwicklung von Computergrafiktechniken der letzten Jahre sind Simulationsvorrichtungen und Spielvorrichtungen zur geschäftlichen wie auch privaten Nutzung äußerst populär geworden. Ein Spielvorrichtungstyp ist ein Schusswaffenfeuerspiel (Schusswaffenspiel) zum Abschießen von Zielen (Feinden), die sich in einem virtuellen Raum bewegen, welches sich dauerhafter Beliebtheit erfreut.
  • Diese Spielvorrichtung ist normalerweise mit einer Schusswaffeneinheit, einer CPU zur Grafikverarbeitung, einem Bildschirm usw. ausgestattet. Wenn ein Spieler den Abzug des Schusswaffenmoduls betätigt, während er auf einen Feind zielt, der auf dem Bildschirm erscheint, detektiert die CPU die Position des Lichtsignals, das von der Schusswaffeneinheit abgefeuert wurde, auf dem Bildschirm, und führt auf Grundlage dieser Positionsdaten eine Bildverarbeitung einschließlich einer Verarbeitung zum Besiegen des Feindes durch.
  • Als repräsentatives Schusswaffenspiel lässt sich „Virtua Cop (Markenzeichen)" nennen, hergestellt von SEGA ENTERPRISES; LTD. Dabei handelt es sich um ein Schusswaffenspiel, bei dem Spieler um Punkte wetteifern, indem sie unter Verwendung einer Schusswaffeneinheit die Feinde abschießen, die in dem virtuellen dreidimensionalen Raum (Spielraum) auf dem Bildschirm erscheinen. Bei diesem Spiel erscheinen die Feinde zu vorbestimmten Zeitpunkten an vorbestimmten Position auf dem Bildschirm. Wenn der Spieler die Schusswaffeneinheit auf den Feind richtet, nähert sich der Blickpunkt auf dem Bildschirm dem Feind, so dass der Feind auf dem Bildschirm vergrößert angezeigt wird. Bewegungen des Feindes werden vorgegebenen Programmen gemäß von der CPU der Vorrichtung gesteuert, und werden bei Bedarf dazu eingestellt, einen Angriff auf den Spieler zu starten, der den Bildschirm betrachtet.
  • Verschiedene Studien, die die Erfinder in Bezug auf übliche Schusswaffenspiele durchgeführt haben, haben jedoch gezeigt, dass die in jüngster Zeit bestehende Nachfrage nach äußerst realen und atmosphärisch dichten Spielen, die auch das Spielinteresse steigern, bislang nicht in zufriedenstellender Weise erfüllt worden ist.
    • (1) Bei üblichen Schusswaffenspielen liegt beispielsweise dann ein Problem vor, wenn der Feind einen Angriff auf den Spieler startet. Wenn der Feind entsprechend der CPU-Steuerung eine Kugel abfeuert, befindet sich der Spieler im Spiel in einer „Gefahrensituation" (in einer Situation, in der er vom Feind gejagt wird). Trotzdem ist es für den Spieler üblicherweise allein anhand des Bildes des Feindes schwierig, zu erkennen, dass er sich in einer "Gefahrensituation" befindet, da die Fläche des Feindes am geringsten ist, wenn der Feind den Spieler jagt. Daher erhält der Spieler das Gefühl, überraschend vom Feind besiegt worden zu sein, und erlebt dies im Vergleich zur realen Welt als einen unnatürlichen Aspekt des Spiels. Um dies zu vermeiden, existieren übliche Vorrichtungen, die Verfahren zum Anzeigen einer Markierung auf dem Bildschirm verwenden, um den Spieler erkennen zu lassen, dass er sich in einer „Gefahrensituation" befindet. Dies ist jedoch zu künstlich und kann kein natürliches Spielgefühl verschaffen.
    • (2) Zweitens war es nicht möglich, den Kamerablickpunkt (d. h. den Blickpunkt des Bildschirms, der vom Spieler betrachtet wird) passend zu verschieben, um dem Feind zu folgen, ohne ihn aus den Augen zu verlieren. Wenn beispielsweise die Bewegungsgeschwindigkeit des Feindes zu hoch war, oder wenn mehrere Feinde anwesend waren und die Rotation der üblichen Kamerablickpunkte zu abrupt war, lag das Problem vor, dass der Spieler den Feind auf dem Bildschirm aus den Augen verlor.
    • (3) Bei üblichen Schusswaffenspielen war zudem ein Regelwerk notwendig, das alle Situationen abdeckt, um das Verhalten der Menschen zu steuern. Damit sich also eine z. B. nicht unnatürlich verhielt, indem sie „ruhig einen Gegenangriff ausführte, obwohl sie sich kurz zuvor noch gefürchtet hatte", war es nötig, Regeln zu erstellen, die eine Verbindung zwischen einem solchen Verhalten (Resultat) und dessen Ursache herstellen, und diese als eine Datenbank zu speichern. Die Entwicklung einer solchen Datenbank war zeit- und arbeitsaufwändig, und verursachte das Problem steigernder Entwicklungskosten. Ferner bestand aufgrund der Speicherung als Datenbank das Problem, dass Fehler in der gespeicherten Information schwer aufzufinden waren. Außerdem musste die Speicherkapazität für die Datenbank erhöht werden.
    • (4) Zudem wurden in üblichen Schusswaffenspielen andere Strukturen als der bewegliche Gegenstand, wie z. B. Wände und Hindernisse, nicht bewegt. Eine Kollisions-(Kontakt)-beurteilung zwischen einem Geschoss und diesen Strukturen erfolgte unter der Voraussetzung, dass die Struktur sich stets an einer festen Position im Spielraum befand. Zwar stellte dies ein genaues Bild bereit, war aber unter dem Aspekt einer erhöhten Unterhaltsamkeit des Spiels hinsichtlich der Erzeugung eines kraftvollen Eindrucks bei einer Kollision oder dynamischer Spielentwicklungen unzureichend.
    • (5) Ferner lagen bei den üblichen Schusswaffenspielen verschiedene Probleme dahingehend vor, dass die Bewegung von Teilen, die die Figur ausmachen, oder die Bewegungsabläufe der Figuren nicht realistisch genug waren. Beispielsweise brach eine Figur beim Auftreffen eines Geschosses schlicht zusammen. Wünschenswert ist beim Auftreffen eines Geschosses jedoch die Darstellung von Reaktionen, oder von Ausrufen wie "Ich bin zwar getroffen, aber noch nicht tot!" Außerdem bestand Unzufriedenheit hinsichtlich der Reduzierung der Belastung durch Operationen für Bewegungsabläufe zwischen einer Bewegung und der nächsten Bewegung einer Figur, sowie der reibungslosen Gestaltung solcher Bewegungsabläufe. Als Beispiel für den Stand der Technik ist WO 97/21194 zu nennen, wobei der Blickpunkt um eine spezielle Fläche herum bewegt wird.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Die vorliegende Erfindung wurde im Hinblick auf die genannten Probleme getätigt, die im Stand der Technik auftraten, und ihre Hauptaufgabe ist es, eine Bilderzeugungsvorrichtung bereitzustellen, die für Schusswaffenspiele usw. geeignet ist, im Vergleich zu üblichen Vorrichtungen hoch realistisch auch in Bezug auf die Atmosphäre des Spiels ist, und die gegenüber üblichen Vorrichtungen keine Probleme bezüglich der Operationsverarbeitung aufweist. Die Erfindung ist in Anspruch 1 definiert, während weitere Aspekte der Erfindung in den abhängigen Ansprüchen definiert sind.
  • Um die genannten Aufgaben zu erfüllen, ist die Bilderzeugungsvorrichtung der vorliegenden Erfindung wie folgt aufgebaut.
  • Die erste Struktur ist eine Bilderzeugungsvorrichtung zum Erzeugen von Bildern, die einen beweglichen Gegenstand, der sich in einem virtuellen, dreidimensionalen Raum bewegt, von einem beweglichen Blickpunkt in dem virtuellen, dreidimensionalen Raum aus erfasst, wobei die Bilderzeugungsvorrichtung umfasst: ein Bewegungsmittel zum Steuern der Bewegung des Kamerablickpunkts durch Benutzen des Positionsverhältnisses zwischen dem beobachtbaren Punkt, der relativ zu dem beweglichen Körper festgelegt ist, und der Blickrichtung des gegenwärtigen Kamerablickpunkts.
  • Vorzugsweise ist der virtuelle, dreidimensionale Raum ein Spielraum, und der bewegliche Körper ist ein Feind in einem Schusswaffenspiel, das in dem Spielraum abläuft. Insbesondere umfasst die Bilderzeugungsvorrichtung Folgendes: ein Anzeigemittel zum Anzeigen des Spielraums auf einem Bildschirm; eine Schusswaffeneinheit, die dazu in der Lage ist, Signale in Richtung des Bildschirms zu erzeugen, indem der Spieler den Abzug betätigt; einen Sensor zum Detektieren der Eintreffposition der Signale auf dem Bildschirm des Anzeigemittels; und ein Spielimplementierungsmittel zum Implementieren eines Schusswaffenspiels zwischen dem Feind und dem Spieler auf Grundlage der Eintreffposition.
  • Beispielsweise ist die Position des beobachtbaren Punktes eine andere Position als die des beweglichen Körpers, wobei die Bilderzeugungsvorrichtung ferner umfasst: ein Bewegungsmittel für den beobachtbaren Punkt, um diesen beobachtbaren Punkt für jede Anzeige eines Vollbilds des Bildes zu dem beweglichen Körper hin zu bewegen. Das Bewegungsmittel für den beobachtbaren Punkt ist ein Bewe gungsmittel, das dazu dient, den beobachtbaren Punkt für jede Anzeige eines Vollbilds des Bildes und entlang der geraden Strecke, die den beobachtbaren Punkt und die Position des beweglichen Gegenstands verbindet, mit vorgeschriebenen Abständen seines direkten Abstands zur Seite des beweglichen Gegenstands hin zu bewegen. Das Bewegungsmittel für den beobachtbaren Punkt umfasst: ein Mittel zum Steuern des offenen Winkels zwischen der gegenwärtigen Blickrichtungslinie, die sich von dem Kamerablickpunkt aus erstreckt, und der Linie, die sich von dem Kamerablickpunkt aus durch den beobachtbaren Punkt erstreckt; ein Mittel zum Steuern eines vorgeschriebenen Drehwinkels von einem solchen offenen Winkel; und ein Mittel zum Drehen des Kamerablickpunkts in dem Drehwinkel hin zur Seite des beobachtbaren Punkts für jede Anzeige eines Vollbilds des Bildes.
  • Das Bewegungsmittel umfasst vorzugsweise: ein Beurteilungsmittel zum Beurteilen des Auftretens spezifischer Bedingungen für das relative Positionsverhältnis zwischen dem Kamerablickpunkt, der sich entsprechend der Bedienung durch den Spieler verändert, und dem beobachtbaren Punkt; und ein Blickpunktbewegungssteuermittel zum Steuern der Position des Kamerablickpunkts derart, dass die Position des beobachtbaren Punkts stets erfasst wird, wenn sie von dem Beurteilungsmittel als eine spezifische Bedingung beurteilt wird. Beispielsweise ist das Blickpunktbewegungssteuermittel ein Mittel zum Durchführen einer Positionssteuerung nach einer Bewegung zum Bewegen des Kamerablickpunkts, und nach einer Drehbewegung gemäß dem Winkel, der von der Position des Kamerablickpunkts nach der Bewegung und der Blickrichtung des Kamerablickpunkts vor der Bewegung durch die Richtung hin zu dem beobachtbaren Punkt gebildet wird. Beispielsweise weist das Blickpunktbewegungssteuermittel ein Blickpunktdrehmittel auf, um den Kamerablickpunkt entsprechend dem Winkel zur Seite des beobachtbaren Punktes hin zu drehen. Dabei ist das Blickpunktdrehmittel beispielsweise ein Mittel zum Drehen des Kamerablickpunkts auf Grundlage eines Winkels hin zur Seite des beobachtbaren Punktes, wobei der Winkel um einen vorgeschriebenen Wert vergrößert/verkleinert wird. Auf diese Weise kann der beobachtbare Punkt auf dem Bildschirm geringfügig verschoben werden, so dass es möglich ist, dem Spieler aktiv ein Gefühl der Bewegung und des Umkreisens zu vermitteln. Ferner ist ein Ausweichbedienungsmittel für einen Spieler vorgesehen, um die Figur zu bedienen, die eine Simulation dieses Spielers in einer Bildschirmansicht ist, um einem Geschoss auszuweichen, das von dem Feind abgefeuert wird; wobei das Beurteilungsmittel ein Mittel zum Beurteilen ist, ob das Ausweichbedienungsmittel sich in einem Bedienungszustand befindet oder nicht.
  • Die zweite Struktur der vorliegenden Erfindung ist eine Bilderzeugungsvorrichtung zum Anzeigen von Bildern auf einer Anzeige, damit ein Spieler mit einer Feindfigur, die in einem virtuellen Spielraum existiert, ein Schusswaffenspiel spielen kann, wobei die Bilderzeugungsvorrichtung Folgendes umfasst: ein Bildverarbeitungsmittel zum Durchführen einer Bildanzeige, die dem Spieler im Voraus einen Angriff anzeigt, den die Feindfigur auf den Spieler ausübt. Vorzugsweise ist die Bildanzeige eine Anzeige eines Geschosses ist, das von der Feindfigur abgefeuert wurde und im Raum selbst auf den Spieler zufliegt. Die Anzeige des Geschosses ist beispielsweise eine Anzeige des in einem Bogen fliegenden Geschosses.
  • Die dritte Struktur der vorliegenden Erfindung ist eine Bilderzeugungsvorrichtung zum Anzeigen von Bildern auf einer Anzeige, damit ein Spieler mit einer Feindfigur, die in einem virtuellen Spielraum existiert, ein Schusswaffenspiel spielen kann, wobei die Bilderzeugungsvorrichtung Folgendes umfasst: KI-Verarbeitungsmittel zum Ausführen einer KI-Verarbeitung, die Emotionen der Figur darstellt, welche von Bedingungen, Bewertung/Bestimmung und Ver haltensfaktoren im Spiel beeinflusst wird. Beispielsweise werden die Faktoren der Emotionen durch emotionale Elemente von Furcht und Wut im Zusammenhang mit dem Spiel dargestellt. Vorzugsweise umfassen die KI-Verarbeitungsmittel Mittel zur Verarbeitungsdurchführung, um die Ergebnisse des Verhaltens basierend auf den Verhaltensfaktoren auf die Emotionsfaktoren zu reflektieren.
  • Die vierte Struktur der vorliegenden Erfindung ist eine Bilderzeugungsvorrichtung zum Erzeugen von Bildern, indem ein beweglicher Gegenstand dargestellt wird, der eine Person simuliert und sich in einem virtuellen, dreidimensionalen Raum als mehrere Teile bewegt, die über Verbindungspunkte miteinander verbunden sind, wobei die Bilderzeugungsvorrichtung Folgendes umfasst: ein erstes Spezifizierungsmittel zum Spezifizieren eines untergeordneten Teils auf der Endgerätseite und eines Hauptteils auf der zentralen Seite in Bezug auf zwei benachbarte Teile der Vielzahl von Teilen; ein erstes Steuerungsmittel zum Steuern des Impulses der Bewegung des untergeordneten Teils, die auf den Hauptteil übertragen wird, unter der Annahme, dass der Verbindungspunkt des untergeordneten Teils am Hauptteil ein Festpunkt ist; ein erstes Wiederholungsmittel zum Wiederholen der Bewegungen des ersten Spezifizierungsmittels und des ersten Steuerungsmittels von der Endgerätseite des beweglichen Körpers zu seiner zentralen Seite; ein zweites Spezifizierungsmittel zum Spezifizieren eines Hauptteils auf der zentralen Seite und eines untergeordneten Teils der Vielzahl von Teilen; ein zweites Steuerungsmittel zum Steuern des Impulses der Bewegung des Hauptteils, die auf den untergeordneten Teil übertragen wird, und ein zweites Wiederholungsmittel zum Wiederholen der Bewegungen des zweiten Spezifizierungsmittels und des zweiten Steuerungsmittels von der zentralen Seite des beweglichen Körpers hin zu seiner Endgerätseite.
  • Bei dieser vierten Struktur ist wenigstens das erste oder zweite Steuerungsmittel ein Mittel zum Ausführen einer Operationsverarbeitung zur interessanteren Spielgestaltung beim Simulieren der Person. Beispielsweise weist die Operationsverarbeitung zur interessanteren Spielgestaltung wenigstens eine oder mehrere der folgenden Operationen auf: eine Operation zum Anwenden eines Umkehrmoments auf die Teile, das durch Bewegungseinschränkungen der Gelenke der Person verursacht wird; eine Operation zum Reflektieren der äußeren Kraft, die an den Teilen auf die Person ausgeübt wird; eine Operation zum Korrigieren der Unnatürlichkeit der Position der Teile, die durch Berechnungsdifferenzen verursacht wird; eine Operation zum Anwenden des internen Kraftmoments, das von den physikalischen Eigenschaften der Person an den Teilen bewirkt wird; und eine Steuerungsoperation der Dreh- oder Bewegungsgeschwindigkeit der Teile, um Ausdrucksweisen zu reflektieren, die an den Teilen durch die Mentalität der Person bewirkt werden.
  • Die fünfte Struktur der vorliegenden Erfindung ist eine Bilderzeugungsvorrichtung zum Erzeugen von Bilddaten, die die Bewegung zwischen zwei Bewegungstypen des beweglichen Körpers interpoliert, der sich in einem virtuellen, dreidimensionalen Raum bewegt; wobei die Vorrichtung ferner umfasst: ein Steuerungsmittel zum separaten Steuern der Funktionskurve der Bewegung zwischen den zwei Bewegungstypen entsprechend dem gegenwärtigen Drehwinkel, dem Zieldrehwinkel und der Anzahl der Vollbilder, die erforderlich sind, um den Zieldrehwinkel zu erreichen, und ein Interpolationsmittel zum Durchführen einer Bewegungsinterpolation auf Grundlage der Steuerungsergebnisse des Steuerungsmittels.
  • Die sechste Struktur der vorliegenden Erfindung ist eine Bilderzeugungsvorrichtung zum Erzeugen von Bildern, die die Kollisionsbeurteilung zwischen einem beweglichen Gegenstand, der sich in einem virtuellen, dreidimensionalen Raum bewegt, und einem Strukturgegenstand benötigen, der in dem Raum angeordnet ist, wobei die Vorrichtung ein Kollisionsbeurteilungsmittel umfasst, um über die Kollision mit dem beweglichen Gegenstand zu urteilen, während der Strukturgegenstand bewegt wird. Vorzugsweise ist das Kollisionsbeurteilungsmittel ein Mittel zum Beurteilen der Kollision während der Bewegung des Strukturgegenstands entweder in paralleler Bewegung oder in Drehbewegung.
  • Die vorliegende Erfindung ist auch ein Speichermedium, das ein Programm zum Ausführen der einzelnen Mittel der Bilderzeugungsvorrichtung speichert. Ein Speichermedium ist jedes beliebige Medium, auf dem durch ein physikalisches Mittel Informationen (hauptsächlich Digitaldaten und Programme) gespeichert wurden, und das dazu in der Lage ist, Verarbeitungsvorrichtungen wie z. B. Computer und dedizierte Prozessoren dazu zu veranlassen, vorgegebene Funktionen auszuführen. Mit anderen Worten, jedes beliebige Mittel, das dazu in der Lage ist, ein Programm auf einen Computer zu laden und vorgegebene Funktionen auszuführen, ist ausreichend.
  • Beispielsweise beinhaltet dies Disketten, Festplatten, Magnetbänder, Magnetplatten, CDs, CD-ROM, DVD-RAM, DVD-ROM, DVD-R, PD, MD, DCC, ROM-Steckmodule, RAM-Speicherkarten mit Batteriesicherung, Flash-Speicher-Steckmodule, nichtflüchtige RAM-Steckmodule usw.
  • Miteinbezogen sind auch Fälle, in denen über Draht- oder Funkkommunikationsschaltungen (öffentliche Schaltungen, datendedizierte Schaltungen, Satellitenschaltungen usw.) von einem Hauptcomputer eine Datenübertragung empfangen wird. Das so genannte Internet ist auch durch den beschriebenen Begriff des Speichermediums erfasst.
  • KURZE BESCHREIBUNG DER FIGUREN
  • 1 ist eine perspektivische Gesamtansicht der Spielvorrichtung als Bilderzeugungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung. 2 ist ein elektrisches Blockdiagramm der Spielverarbeitungsbaugruppe. 3 ist eine Konzeptdarstellung, die ein Beispiel des Spielraums zeigt. 4 ist eine Darstellung, die ein typisches Beispiel einer Spielansicht zeigt, die auf der Anzeige angezeigt wird. 5 ist ein schematisches Ablaufdiagramm der Hauptprogrammverarbeitung, die von der CPU ausgeführt wird. 6 ist ein schematisches Ablaufdiagramm des Unterprogramms, das die Steuerungsverarbeitung für die Kamerablickpunktbewegung zeigt. 7 ist eine Darstellung, die die Steuerung für die Kamerablickpunktbewegung zeigt. 8 ist eine Darstellung, die die Steuerung für die Kamerablickpunktbewegung zeigt. 9 ist eine Darstellung, die die Steuerung für die Kamerablickpunktbewegung zeigt. 10 ist eine Darstellung, die die Steuerung für die Kamerablickpunktbewegung zeigt. 11 ist ein schematisches Ablaufdiagramm des Unterprogramms, das die Verarbeitung für den Angriffshinweis zeigt. 12 ist eine Darstellung, die ein Beispiel einer Spielansicht gemäß der Angriffshinweisverarbeitung zeigt. 13 ist ein schematisches Ablaufdiagramm eines Unterprogramms, das die KI-Emotions-/Bewegungsverarbeitung zeigt. 14 ist ein Diagramm, das eine zweidimensionale Darstellung des Emotionsfaktors erläutert. 15 ist ein schematisches Ablaufdiagramm eines Unterprogramms, das die KI-Verarbeitung zu Zwecken einer vergleichenden Erläuterung zeigt. 16 ist ein schematisches Ablaufdiagramm eines Unterprogramms, das die Verarbeitung zur Berechnung von Echtzeitdynamikbewegungen zeigt. 17 ist eine Darstellung, die eine Person zeigt, die aus mehreren Teilen aufgebaut ist. 18 ist ein schematisches Ablaufdiagramm eines Unterprogramms, das die Interpolationsverarbeitung für nichtlineare separate Bewegungen zeigt. 19 ist eine Darstellung, die ein Beispiel einer Funktionskurve der linearen Interpolation zeigt, wobei es sich um eine übliche Bewegungsinterpolation handelt. 20 ist eine Darstellung, die ein Beispiel einer Funktionskurve der dreidimensionalen Interpolation zeigt, wobei es sich um eine andere übliche Bewegungsinterpolation handelt. 21 ist ein Graph, der die Schritte der Interpolationsverarbeitung für nichtlineare separate Bewegungen zeigt. 22 ist ein schematisches Ablaufdiagramm eines Unterprogramms, das die Steuerungsverarbeitung für Kollisionsbewegungen zeigt. 23 ist eine Darstellung, die die Kollisionsbeurteilung einer festen Kollisionsebene erläutert. 24 ist eine Darstellung, die die Kollisionsbeurteilung einer Parallelbewegungskollisionsebene erläutert. 25 ist eine Darstellung, die einen Schritt der Kollisionsbeurteilung einer Drehbewegungskollisionsebene erläutert. 26 ist eine Darstellung, die einen Schritt der Kollisionsbeurteilung der Drehbewegungskollisionsebene erläutert. 27 ist eine Darstellung, die einen Schritt der Kollisionsbeurteilung der Drehbewegungskollisionsebene erläutert.
  • BESTE ART DER AUSFÜHRUNG DER ERFINDUNG
  • Es soll nun unter Bezugnahme auf die Figuren eine Ausführungsform der Erfindung erläutert werden.
  • 1 zeigt ein Beispiel zur Gestaltung der Spielvorrichtung als Bilderzeugungsvorrichtung der vorliegenden Erfindung. Diese Spielvorrichtung führt ein Schusswaffenspiel zum Abschießen von Zielen (Feinden) aus, die sich in einem virtuellen Spielraum bewegen.
  • Wie in 1 gezeigt, umfasst die Spielvorrichtung einen Vorrichtungsgrundkörper 1. Der Vorrichtungsgrundkörper 1 weist eine insgesamt kastenartige Form auf und umfasst an seiner Stirnfläche eine Anzeige 1a. Ein Lautsprecher 14, der später beschrieben werden soll, ist an der Seite der Anzeige 1a montiert.
  • An der Stirnfläche des Vorrichtungsgrundkörpers 1 ist eine Bedienungstafel 2 vorgesehen, die unterhalb der Anzeige 1a angeordnet ist. Eine Schusswaffeneinheit 11, die einen Abzug umfasst, der von einem Spieler bedient werden kann, ist an der Bedienungstafel 2 vorgesehen. Wenn der Spieler den Abzug der Schusswaffeneinheit 11 betätigt (bedient), gibt die Schusswaffeneinheit 11 Lichtsignale zur Anzeige 1a ab. Ferner ist am unteren Teil des Vorrichtungsgrundkörpers 1 ein Pedalsensor 4 vorgesehen, der als Ausweichbedienungsmittel zur Bedienung durch den Spieler dient. Dieser Pedalsensor 4 wird dazu benutzt, die Figur auf der Anzeigeansicht, die den Spieler selbst simuliert, zu bewegen, um einem Geschoss auszuweichen usw. Die detektierte Information dieses Pedalsensors 4 wird an die Spielverarbeitungsbaugruppe übermittelt, die an späterer Stelle erläutert werden soll. Anstelle des Pedalsensors kann auch ein Handschalter oder Handhebel benutzt werden.
  • Auf der Anzeigeansicht der Anzeige 1a ist ein Positionssensor 5 zum Detektieren der Eintrittsposition des Lichtsignals von der Schusswaffeneinheit 11 vorgesehen. Der Positionssensor 5 bildet einen Teil der Schusswaffeneinheit 11. Die von diesem Positionssensor 5 detektierte Information wird an die Spielverarbeitungsbaugruppe übermittelt, die an späterer Stelle erläutert werden soll.
  • Im Inneren des Vorrichtungsgrundkörpers 1 ist eine Spielverarbeitungsbaugruppe vorgesehen. Vorrichtungen wie die Anzeige 1a, der Pedalsensor 4, der Positionssensor 5, Ausgabevorrichtungen 12 wie Indikatoren, Lautsprecher 14 usw. sind elektrisch mit dieser Spielverarbeitungsbaugruppe verbunden. Der Spieler spielt ein Schusswaffenspiel, indem er die Schusswaffeneinheit 11 bedient, während er die Spielansicht betrachtet, die auf der Anzeige 1a angezeigt wird.
  • 2 zeigt ein Blockdiagramm der Spielvorrichtung der vorliegenden Ausführungsform. Wie in 2 gezeigt, umfasst die Spielverarbeitungsbaugruppe 10 einen Zähler 100, eine CPU (Zentraleinheit) 101, ROM 102, RAM 103, eine Tonvorrichtung 104, eine I/O-Schnittstelle 106, eine Datenbildlaufoperationsvorrichtung 107, einen Koprozessor (eine Hilfsbedienungsverarbeitungsvorrichtung) 108, einen Diagrammdaten-ROM 109, einen Geometrisierer 110, einen Formdaten-ROM 111, eine Zeichenvorrichtung 112, einen Strukturdaten-ROM 113, einen Strukturkarten-ROM 114, einen Vollbildpuffer 115, eine Bildherstellungsvorrichtung 116 und einen D/A-Wandler 117.
  • Dabei ist die CPU 101 über eine Busleitung mit dem ROM 102 verbunden, der vorgegebene Programme oder Bildverarbeitungsprogramme speichert, mit dem RAM 103, der Bedienungsdaten speichert, mit der Tonvorrichtung 104, der I/O-Schnittstelle 106, mit der Datenbildlaufoperationsvorrichtung 107, mit dem Koprozessor 108 und mit dem Geometrisierer 110. Der RAM 103 dient als ein Puffer und wird dazu benutzt, verschiedene Befehle (Anzeige von Gegenständen usw.) an den Geometrisierer zu schreiben, und bei verschiedenen Operationen notwendige Daten zu schreiben.
  • Die I/O-Schnittstelle 106 ist mit dem Pedalsensor 4 und dem Positionssensor 5 verbunden, wobei Detektionssignale beider Sensoren als Digitalwerte in die CPU 101 geschrieben werden. Die Tonvorrichtung 104 ist über einen Leistungsverstärker 105 mit dem Lautsprecher 14 verbunden. Auf diese Weise werden Tonsignale, die von der Tonvorrichtung 104 erzeugt werden, leistungsverstärkt, und als Geräusche vom Lautsprecher 14 ausgegeben.
  • Auf Grundlage des Programms, das in dem ROM 102 erstellt wurde, liest die CPU 101 Bedienungssignale von der Schusswaffeneinheit 11, Terrainformdaten aus dem Terrainform-ROM 109, und Formdaten (dreidimensionale Daten, z. B. „Figuren wie z. B. Feinde" und „Hintergrund wie z. B. Terrain, Himmel, sowie diverse Gebäudestrukturen") aus dem Formdaten-ROM 111 ab, und führt Operationen durch, einschließlich der Verhaltensberechnung (Simulation) von Figuren und der Berechnung von Spezialeffekten.
  • Die Verhaltensberechnung dient dazu, die Bewegung von Feinden im virtuellen, dreidimensionalen Raum (Spielraum) zu simulieren. Nach dem Bestimmen der Feind-Vieleckkoordinatenwerte im virtuellen, dreidimensionalen Raum wandelt eine Umwandlungsmatrix zum Implementieren der Verhaltensberechnung diese Koordinatenwerte in ein zweidimensionales Blickfeldkoordinatensystem um, und vom Geometrisierer 110 werden Formdaten (Vieleckdaten) zugewiesen. Der Terrainformdaten-ROM 109 ist mit dem Koprozessor 108 verbunden, wobei vorbestimmte Terrainformdaten an den Koprozessor 108 und die CPU bereitgestellt werden. Der Koprozessor 108 übernimmt hauptsächlich die Operation der Gleitkommastellen. Indem also mit Hilfe des Koprozessors 108 verschiedene Beurteilungen ausgeführt werden, und die Beurteilungsergebnisse an die CPU 101 bereitgestellt werden, kann die Operationslast der CPU gesenkt werden.
  • Der Geometrisierer 110 ist mit dem Formdaten-ROM 111 und der Zeichenvorrichtung 112 verbunden. Wie erwähnt sind im Formdaten-ROM 111 Formdaten vorgespeichert, die aus mehreren Vielecken gebildet sind (dreidimensionale Daten wie Figuren, Terrainformen, Hintergründe usw., die aus den jeweiligen Scheitelpunkten gebildet werden). Diese Formdaten werden an den Geometrisierer 110 bereitgestellt. Der Geometrisierer 110 führt anhand der Umwandlungsmatrix, die von der CPU 101 übermittelt wird, eine Perspektivenumwandlung in die zugewiesenen Formdaten durch, und erhält Daten, die von dem Koordinatensystem in dem dreidimensionalen Raum in ein Blickfeldkoordinatensystem umgewandelt wurden.
  • Die Zeichenvorrichtung 112 versieht die Formdaten des umgewandelten Blickfeldkoordinatensystems mit Strukturen, und gibt dies an den Vollbildpuffer 115 aus. Um diese Strukturen anzuwenden, ist die Zeichenvorrichtung 112 neben dem Vollbildpuffer 115 auch mit dem Strukturdaten-ROM 113 und dem Strukturkarten-ROM 114 verbunden.
  • Vieleckdaten im hier verwendeten Sinne bezeichnen Koordinatendatengruppen im Verhältnis zu den jeweiligen Scheitelpunkten oder absolute Koordinaten von Vielecken (Vielecke: hauptsächlich Dreiecke und Vierecke), die aus mehreren Scheitelpunkten zusammengesetzt sind. Im Terrainformdaten-ROM 109 sind Vieleckdaten gespeichert, die relativ grob eingestellt sind, aber zum Implementieren der vorgegebenen Beurteilungen (Kollisionsbeurteilungen usw.) ausreichen. Im Formdaten-ROM 111 dagegen sind Vieleckdaten gespeichert, die bezüglich der Formstrukturierungsansichten, z. B. Feinde und Hintergründe, genauer sind.
  • Die Datenbildlaufoperationsvorrichtung 107 berechnet Daten (die im ROM 102 gespeichert sind) von Bildlaufansichten wie z. B. Figuren. Diese Operationsvorrichtung 107 und der Vollbildpuffer 115 gelangen über die Bildherstellungsvorrichtung 116 und den D/A-Wandler 117 zur Anzeige 1a. Auf diese Weise werden Vieleckansichten (Simulationsergebnisse) von Feinden und Terrainformen (Hintergründen), die vorübergehend im Vollbildpuffer 115 gespeichert sind, und Bildlaufansichten wie Figureninformationen usw. gemäß der ihnen zugewiesenen Priorität hergestellt, und für jede festgelegte Takturig werden finale Vollbilddaten erzeugt. Diese Vollbilddaten werden am D/A-Wandler 117 in Analog signale umgewandelt und an die Anzeige 1a gesendet, und in Echtzeit als Spielansicht angezeigt.
  • Diese Spielvorrichtung führt hauptsächlich mit der CPU 101 durch die Operationsverarbeitung, die später beschrieben werden soll, ein Schusswaffenspiel durch. 3 zeigt eine Konzeptdarstellung eines Spielraums, der von dieser Spielvorrichtung bereitgestellt wird. 4 zeigt ein typisches Beispiel einer Spielansicht der Anzeige 1a.
  • In 3 ist der Spielraum aus einem virtuellen, dreidimensionalen Raum gebildet, und beinhaltet einen Feind (beweglichen Körper) 3a, ein Hindernis (Strukturgegenstand) 3b, einen Kamerablickpunkt 3c, ein Geschoss (beweglichen Körper) 3d usw. Der Feind 3a ist ein Ziel, das der Spieler jagt und das sich, entsprechend der CPU-Steuerung auf Seiten der Vorrichtung, autonom bewegt, während es dem Geschoss ausweicht, das durch den Spieler, der an der Position des Kamerablickpunkts simuliert ist, von der Schusswaffeneinheit 11 abgefeuert wird, und einen Angriff (Abfeuern von Geschossen) auf den Spieler startet, der an der Position des Kamerablickpunkts simuliert ist. Der Kamerablickpunkt 3a ist der Blickpunkt des Spielers, und ist beispielsweise an einem fliegenden Gegenstand wie z. B. einem Hubschrauber vorgesehen. Dieser Blickpunkt bewegt sich im Spielraum, indem er der Bewegung des Feindes folgt. Ferner sind mehrere Feinde 3a im Spielraum anwesend. Bei dem Hindernis 3b kann es sich um Strukturen wie Behälter, Gebäude oder Wände handeln, die das Spiel abwechslungsreich gestalten sollen. Der Feind 3a und der Kamerablickpunkt 3c bewegen sich im Spielraum, wobei sie einer Kollision mit einem solchen Hindernis 3b ausweichen.
  • In 4 entspricht die Spielansicht der Komposition, die vom Kamerablickpunkt 3c aus 3 betrachtet wird. In der Spielansicht ist eine Blickrichtung 3e angezeigt. Diese Blickrichtung 3e bewegt sich, indem der Spieler die Aus richtung der Schusswaffeneinheit 11 verändert. Wenn die Blickrichtung 3e den Feind 3a überlagert und der Spieler den Abzug der Schusswaffeneinheit 11 betätigt, wird ein Geschoss 3d auf den Feind 3a abgeschossen.
  • (Arbeitsweise)
  • [Hauptprogrammverarbeitung]
  • Als nächstes soll die Bilderzeugungsverarbeitung des Schusswaffenspiels der Spielvorrichtung der vorliegenden Ausführungsform erläutert werden. 5 zeigt das Hauptprogramm der Bilderzeugungsverarbeitung. Dieses Hauptprogramm wird beispielsweise von der CPU 101 für jedes Feld (1/60 Sekunden) in Synchronisation zur Anzeigeunterbrechung wiederholt ausgeführt.
  • Zunächst liest die CPU 101 die Information des Pedalsensors 4, und des Abzugs der Schusswaffeneinheit 11, oder mit anderen Worten, des Positionssensors 5 aus (Schritt S1).
  • Als nächstes beurteilt die CPU 101, ob der Zielfeind bestimmt wurde oder nicht (Schritt S2). Ist dies der Fall, wird die nächste Feindbestimmungsverarbeitung (Schritt S3) übersprungen, und ein Feind aus der Vielzahl von Feinden, der als Blickpunktziel dienen soll, wird vom System als im Voraus festgelegter Feind bestimmt, da in der Anfangsphase des Spiels kein Zielfeind bestimmt ist (Schritt S3). Auf diese Weise wird in der Anfangsphase des Spiels ein Spielraum mit dem im Voraus festgelegten Feind in der Mitte der Anzeige 1a angezeigt. Der Zielfeind ändert sich allerdings im Verlaufe des Spiels.
  • Als nächstes führt die CPU 101 nacheinander die Verarbeitung der Schritte S4 bis S12 aus. Diese Verarbeitungsschritte sind kennzeichnend für die vorliegende Erfindung.
  • Zunächst wird dabei die Verarbeitung zum Bewegen des Kamerablickpunkts zu dem bestimmten oder im Voraus festgelegten Zielfeind durchgeführt (Schritte S4, S5). Auf diese Weise folgt der Kamerablickpunkt diesem Feind, wenn der Zielfeind sich vom Kamerablickpunkt fortbewegt. Der Kamerablickpunkt wird so bewegt, dass die Darstellung des Feindes auf der Anzeige sich in einer optimalen Position befindet. Die Verarbeitung zur Bewegung des Kamerablickpunkts soll an späterer Stelle erläutert werden.
  • Außerdem wird eine Verarbeitung durchgeführt, die den Spieler darauf hinweist, dass der Feind einen Angriff ausübt (Schritt S6, S7). Da der Feind, der vom System gesteuert wird, den Spieler jagt, soll dies den Spieler im Voraus erkennen lassen, dass er sich in einer "Gefahrensituation" befindet. Diese Angriffshinweisverarbeitung soll ebenfalls an späterer Stelle erläutert werden.
  • Außerdem wird eine Verarbeitung durchgeführt, die als „Emotions-/Bewegungs-KI-(künstliche Intelligenz)-Verarbeitung" bezeichnet wird (Schritt S8, S9). Diese Emotions-/Bewegungs-KI-Verarbeitung ist eine Verarbeitung, die die Emotionen von Menschen auf realistischere Weise simulieren soll, indem der KI der Faktor „Emotion" hinzugefügt wird, der das Verhalten von Feinden, Kameraden und anderen Menschen im Spiel steuert. Diese Emotions-/Bewegungs-KI-Verarbeitung soll ebenfalls an späterer Stelle erläutert werden.
  • Außerdem wird eine Verarbeitung zum Steuern des Verhaltens und der Bewegung von Feinden ausgeführt (Schritte S10, S11). Diese Verarbeitung beinhaltet eine „Verarbeitung für Echtzeitdynamikbewegungen" und eine „Interpolationsverarbeitung für nichtlineare separate Bewegungen" für Feinde. Durch diese beiden Verarbeitungsschritte wird die Anzeige des Verhaltens und der Bewegung der Feinde auf realis tischere Weise dargestellt. Diese Verarbeitung soll ebenfalls an späterer Stelle erläutert werden.
  • Ferner wird eine Kollisionsbeurteilungsverarbeitung (Kollisionsverarbeitung) zwischen dem Geschoss und Feind, Hindernis ausgeführt (Schritt S12). Diese Kollisionsbeurteilungsverarbeitung beinhaltet eine Verarbeitung namens „Bewegungskollisionsverarbeitung", die durch Bewegen der Kollisionsfläche einen dynamischen Eindruck schafft. Diese Verarbeitung soll ebenfalls an späterer Stelle erläutert werden.
  • Nach Abschluss dieser verschiedenen kennzeichnenden Verarbeitungsschritte führt die CPU 101 die Spielverarbeitungsschritte aus (Schritt S13). Mit anderen Worten, es wird eine Umwandlungsmatrix zum perspektivischen Umwandeln des dreidimensionalen Spielraums, der vom Kamerablickpunkt aus gesehen wird, welcher in Schritt S5 bestätigt wurde, in die zweidimensionale perspektivische Ansicht erzeugt, wobei diese Matrix dem Geometrisierer 110 zugewiesen wird, und wobei dem Geometrisierer 110 außerdem Teile (ausgebildet aus mehreren Vielecken) zugewiesen werden, die Figuren und Hindernisse wie z. B. Feinde darstellen. Die Umwandlungsmatrix und die Vieleckdaten, die auf diese Weise zugewiesen wurden, spiegeln sich in den verschiedenen Faktoren der Verhaltensberechnungen wider, die in den genannten Schritten S5, S7, S9, S11 und S12 durchgeführt werden.
  • Wenn diese Spielverarbeitung abgeschlossen ist, kehrt die Verarbeitung wieder zu Schritt S1 zurück, und die genannte Serie von Verarbeitungsschritten wird für jeden feststehenden Zeitrahmen wiederholt. Auf diese Weise werden Bilddaten der einzelnen Vollbilder, die für jeden feststehenden Zeitrahmen simuliert werden, nacheinander in Echtzeit auf der Anzeige 1a als die Spielansicht angezeigt, wobei sich das Spielbild im Laufe der Zeit entwickelt.
  • Als nächstes sollen Details der verschiedenen kennzeichnenden Unterprogramme der vorliegenden Erfindung beschrieben werden, die während des genannten Hauptprogramms ausgeführt werden.
  • [Kamerablickpunktbewegungsverarbeitung]
  • Unter Bezugnahme auf 6 bis 8 soll nun die Kamerablickpunktbewegungsverarbeitung beschrieben werden.
  • 6 zeigt ein detailliertes Beispiel der Kamerablickpunktbewegungsverarbeitung, die in Schritt S5 des Hauptprogramms von der CPU 101 auszuführen ist. Wie in 7 gezeigt, wird hier der beobachtbare Punkt P zu dem beobachtbaren Feind E hin bewegt, und die Blickrichtung der Kamera C (Mittellinie des Blickfeldes, wenn der Blickpunkt sich an der Kamera befindet) folgt der Ausrichtung dieses beobachtbaren Punktes P. Das heißt, der beobachtbare Punkt P ist der Zielpunkt der Blickrichtung von Kamera C, und der beobachtbare Feind E ist der bewegliche Zielpunkt des beobachtbaren Punktes. Die Bewegung der Kamerablickrichtung wird verarbeitet, indem sie unterteilt wird in Fälle des Auftretens von „Ausweichmanövern", in denen der Spieler versucht, einem Geschoss auszuweichen, und in einen Normalzustand, in dem kein solches Ausweichmanöver auftritt.
  • Zunächst werden die aktuellen Positionen des beobachtbaren Feindes E und des beobachtbaren Punktes P berechnet (Schritt S21). Als nächstes werden die Richtung und die Strecke zwischen dem beobachtbaren Feind E und dem beobachtbaren Punkt P berechnet (Schritt S22). Dann wird eine Operation durchgeführt, um den beobachtbaren Punkt P um eine vorgegebene Strecke hin zur Seite des beobachtbaren Feindes E zu bewegen. 8 zeigt ein typisches Beispiel einer solchen Bewegung. Der beobachtbare Punkt P wird für jedes Vollbild (1/60 Sekunde) über 1/8 bis 1/12 der Strecke zwischen dem beobachtbaren Punkt P und dem beobachtbaren Feind E auf den beobachtbaren Feind zu bewegt. Diese Strecke kann in geeigneter Weise ausgewählt werden.
  • Auf Grundlage der Eingangssignale des Pedals in Schritt S1 der Hauptverarbeitung wird beurteilt, ob die „Ausweich"-Bewegung ausgeführt wird, in der der Spieler versucht, dem Geschoss auszuweichen (Schritt S24). Wenn das Urteil in diesem Schritt S24 NEIN lautet, ist alles normal, woraufhin nacheinander die Schritte S25 und S26 ausgeführt werden. Zunächst wird der offene Winkel θ berechnet, der von der aktuellen Kamerablickrichtung und der Linie gebildet wird, die die Kameraposition und den beobachtbaren Punkt P verbindet (Schritt S25: siehe auch 9). Die Operation wird derart durchgeführt, dass die aktuelle Kamerablickrichtung für den präzisen Winkel de, bestimmt durch dθ = θ b/a pro Vollbild in Bezug auf den offenen Winkel θ, zu dem beobachtbaren Punkt P hin gedreht wird (Schritt S25). Dabei sind a und b Koeffizienten. Koeffizient a ist ein Wert zum Bestimmen der Geschwindigkeit beim Drehen der Kamera um θ Grad, und je größer der Wert des Koeffizienten a ist, desto geringer ist die Geschwindigkeit. Als Koeffizient a kann ein geeigneter Wert festgelegt werden. Der Koeffizient b stellt die Geschwindigkeitsveränderung während der Kameradrehung dar, und je kleiner der Wert von Koeffizient b ist, desto gleichmäßiger ist die Geschwindigkeit. Als Koeffizient b wird ein Wert von 1 oder 2 (vorzugsweise etwa 1,5) festgelegt, so dass es möglich ist, ein Verfolgungsgefühl zu erzeugen, das einer menschlichen Bewegung ähnelt.
  • Wenn aber in Schritt S24 das Urteil JA lautet, wird in den Schritten S27 bis S31 bei einem Ausweichmanöver die Steuerungsverarbeitung der Kameraposition und -ausrichtung (Blickrichtung) ausgeführt. Diese Verarbeitungsschritte steuern nicht nur die Ausrichtung (Blickrichtung) der Kamera, sondern sind auch dadurch gekennzeichnet, dass sie die Bewegung der Kameraposition betreffen.
  • Zunächst wird die aktuelle Ausrichtung der Kamera C zum beobachtbaren Punkt P bestimmt (Schritt S27). Sodann wird, wie in 10 gezeigt, die Kamera C um eine vorgegebene Strecke bewegt (Schritt S28), und die Kameraposition wird nach der Bewegung hin zum beobachtbaren Punkt P bestimmt (Schritt S29). Ferner wird der Winkel α berechnet, der von der Ausrichtung der Kamera zum beobachtbaren Punkt vor der Bewegung und nach der Bewegung gebildet wird (Schritt S30). Dann wird die Operation zum Drehen der Ausrichtung der Kamera (Blickrichtung) um 0,8 α bis 1,2 α ausgeführt. Anschließend kehrt die Verarbeitung zur Hauptverarbeitung zurück.
  • Wenn die Ausrichtung der Kamera C um α Grad gedreht wird, wie oben beschrieben, verändert sich das äußere Erscheinungsbild des beobachtbaren Punktes auf der Bildschirmansicht nicht, und der beobachtbare Punkt wird nicht aus den Augen verloren. Wenn ein Spieler während des Spiels das Pedal bedient und ein Ausweichmanöver stattfindet (einschließlich Fällen, in denen das System eine Gefahr erkennt und ein Ausweichmanöver durchführt), kann der Spieler bei der erwähnten gewöhnlichen Steuerung der Kamerablickrichtung den Feind in der Bildschirmansicht aus den Augen verlieren, da die Bewegung zu plötzlich ist. Mit der vorliegenden Steuerung der Kameraposition und -ausrichtung im Fall eines Ausweichmanövers können solche Situationen mit Sicherheit vermieden werden.
  • Die tatsächliche Drehungsgröße von 0,8 α bis 1,2 α zum Drehen der Kameraausrichtung ist flexibel gestaltet. Wenn also die Drehungsgröße etwas kleiner eingestellt ist als der offene Winkel α (beispielsweise 0,8 α) (siehe virtueller Pfeil (i) aus 10), entsteht für den Spieler ein Gefühl der Bewegung, da der beobachtbare Punkt P sich geringfügig in die Kamerabewegungsrichtung bewegt. Dies erhöht auch die Schwierigkeit des Spiels. Wenn dagegen die Drehungsgröße etwas größer eingestellt ist als der offene Winkel α (beispielsweise 1,2 α (siehe virtueller Pfeil (ii) aus 10), entsteht für den Spieler ein Gefühl des Umkreisens, da der beobachtbare Punkt P sich geringfügig entgegen der Kamerabewegungsrichtung bewegt. Dies erhöht auch die Schwierigkeit des Spiels.
  • [Angriffshinweisverarbeitung]
  • 11 zeigt ein Beispiel der Angriffshinweisverarbeitung, die in Schritt S7 der Hauptverarbeitung ausgeführt wird. Diese Verarbeitung wird ebenfalls mit der CPU 101 ausgeführt.
  • Zunächst wird beurteilt, ob ein Angriff des Feindes beginnen wird, oder bereits begonnen hat (Schritt S41). Wenn das Urteil NEIN lautet, das heißt, wenn der Feind die Figur, die den Spieler simuliert, nicht angreift (auf sie schießt), werden Bitschalter F1 und F2, die die Angriffshinweisverarbeitung zeigen, auf null gesetzt, und die Verarbeitung kehrt zum Hauptprogramm zurück (Schritt S42).
  • Wenn das Urteil in Schritt S41 JA lautet, wird beurteilt, ob die Geschosse, die der Feind in einer Salve abgefeuert hat, eine Anzahl von m Geschossen erreicht haben (Schritt S43). Der Platzhalter m, der die Anzahl der in einer Salve abgefeuerten Geschosse darstellt, ist beispielsweise auf m = 4 eingestellt. Wenn das Urteil NEIN lautet, mit anderen Worten, wenn die Anzahl von m Geschossen, die in einer Salve abgefeuert wurden, noch nicht erreicht wurde, wird weiterhin beurteilt, ob Bitschalter F1 = 1 ist (Schritt S44). Wenn das Urteil hier NEIN lautet, wird ein Geschossweg berechnet, der um eine vorgegebene Strecke von der Position der Figur, die den aktuellen Spieler simuliert, im Spielraum (im virtuellen, dreidimensionalen Spielraum) abweicht (Schritt S45). Um den Spieler auf die Gefahrensituation der Jagd durch einen Feind hinzuweisen, wird dieser Weg, wie in 12 gezeigt, als ein Bogen berechnet.
  • Zum Abschluss dieser Wegberechnung wird als nächstes der Bitschalter F1 auf F1 = 1 gesetzt (Schritt S46). Wenn das Urteil in Schritt S44 JA lautet, werden die Verarbeitungsschritte S45 und S46 übersprungen.
  • Dann wird auf Grundlage des berechneten bogenförmigen Geschosswegs die Geschossposition für jedes angezeigte Vollbild berechnet (Schritt S47). Ferner wird eine Verarbeitung durchgeführt, die ein Nachbild der berechneten Position am Weg des Geschosses zurücklässt (Schritt S48). Die Nachbildverarbeitung dieses Schritts S48 kann je nach Situation entfallen. Anschließend kehrt die Verarbeitung zur Hauptverarbeitung zurück.
  • Wenn aber das Urteil in Schritt S43 JA lautet, wird durch die Verarbeitung des Systems veranlasst, dass m Geschosse derart in einem Bogen auf die Figur, die den Spieler simuliert, zugeflogen kommen, dass sie diese streifen. Diese m Geschosse sind so eingestellt, dass sie die Figur nicht treffen, so dass der Spieler ein wenig Zeit erhält, um zu erkennen, dass der Feind einen Angriff gestartet hat. Auf diese Weise wird das Spiel interessanter gestaltet, indem ein Spieler nicht gleich zu Beginn der Feindesattacke überraschend besiegt wird. Während die m Geschosse auf den Spieler zugeflogen kommen, kann der Spieler tatsächlich spüren, dass er angegriffen (gejagt) wird.
  • Wenn das Urteil in Schritt S43 also JA lautet, wird bestätigt, ob der andere Bitschalter F2 = 1 ist (Schritt S49). Wenn Bitschalter F2 = 0 ist, wird der Geschossweg zum Treffen der Figur im Verhältnis zu der Position der Figur im Spielraum, die den aktuellen Spieler simuliert, berechnet und gespeichert (Schritt S50). Zum Abschluss dieser Wegberechnung wird als nächstes der Bitschalter F2 auf 1 gesetzt (Schritt S51). Wenn das Urteil in Schritt S49 JA lautet, werden die Verarbeitungsschritte S50 und S51 übersprungen.
  • Dann wird auf Grundlage des berechneten Geschossweges die Position des Geschosses pro Vollbild berechnet (Schritt S52). Anschließend kehrt die Verarbeitung zur Hauptprogrammverarbeitung zurück.
  • Da die Angriffshinweisverarbeitung wie beschrieben stattfindet, kann der Spieler anhand mehrerer Geschosse, die in einem Bogen auf ihn zugeflogen kommen und die Figur des Spielers streifen, den Gefahrenzustand erkennen. Der Spieler kann daher Maßnahmen wie das Bedienen des Pedals ergreifen, um ein Ausweichmanöver (Wechseln der Position) durchzuführen, so dass der Spieler nicht überraschend durch den Angriff des Feindes besiegt wird. Es ist daher möglich, das Spiel unterhaltsamer und damit interessanter zu gestalten. Durch passendes Einstellen der Anzahl der Geschosse kann ein natürlicher Spielfluss sichergestellt werden, so dass Verfahren, die den Spieler den Gefahrenzustand erkennen lassen, indem unnatürliche Markierungen angezeigt werden, unnötig werden.
  • Außerdem kann anstelle der Nachbildverarbeitung in Schritt S48 der Spieler in seinem Erkennen unterstützt werden, indem eine Lichtanzeigeverarbeitung durchgeführt wird, derart, dass die Schusswaffe Licht reflektiert und leuchtet.
  • Zwar wurde oben die Verarbeitung zum Hinweisen auf einen Angriff durch eine Feindfigur unter der Annahme erläutert, dass eine Figur, die den Spieler simuliert, auf der Anzeigeansicht angezeigt ist, doch kann diese Verarbeitung auch auf Schusswaffenspiele angewandt werden, die die Spielerfigur nicht in der Anzeigeansicht oder in ähnlichen Spielszenerien anzeigen. In einem solchen Fall kann die Bildverarbeitung ähnlich wie oben durchgeführt werden, so dass die Geschosse, die den Angriff der Feindfigur darstellen, beispielsweise auf einem Weg "in der Nähe eines zuvor festgelegten Bereichs auf den Spieler zugeflogen kommen, wobei der Spieler innerhalb des Bereichs getroffen wird, der in der Anzeigeansicht angezeigt ist". Auf diese Weise erhält der Spieler im echten Raum, der die Anzeigeansicht betrachtet, das Gefühl, dass er selbst in dem virtuellen Raum anwesend ist und vom Feind angegriffen wird. So kann eine ähnliche Arbeitsweise erzielt werden wie oben beschrieben.
  • Hinsichtlich der Anzahl von m Warnschüssen, die in Schritt S43 der genannten 11 beschrieben werden, lässt sich folgendes Abwandlungsbeispiel hinzufügen. Dabei wird während des Prozesses, in dem die Warnschüsse die Anzahl von m Geschossen erreichen, die Strecke zwischen dem Landepunkt und dem Eintreffpunkt der Warnschüsse (Kameraposition des Spielerblickpunkts oder Position der Figur, die den Spieler simuliert) allmählich entsprechend der Zunahme der Anzahl der Warnschüsse verkürzt. Dies erzeugt das Gefühl, dass der Feind zunehmend genauer zielt, so dass im Spiel spürbarer auf den "Gefahrenzustand" hingewiesen wird.
  • [Emotions-/Bewegungs-KI-Verarbeitung]
  • 13 zeigt ein Beispiel der Emotions-/Bewegungs-KI-Verarbeitung, die in Schritt S9 der Hauptverarbeitung ausgeführt wird. Diese Emotions-/Bewegungs-KI-Verarbeitung dient dazu, eine menschlichere Bewegung zu realisieren, indem die Figur im Spiel anhand von KI mit einem Emotionsfaktor auftritt.
  • Wie in 13 gezeigt, bilden der Situationsfaktor (Schritt S51), der Emotionsfaktor (Schritt S52), der Bewertungs- und Bestimmungsfaktor (Schritt S53) und der Verhaltensfaktor (Schritt S54) in der genannten Beeinflussungsabfolge Eingaben für die Emotions-/Bewegungs-KI-Verarbeitung. Der Emotionsfaktor, wie in 14 für die vorliegende Ausführungsform gezeigt, ist zweidimensional als Wut oder Furcht dargestellt. Die Emotion muss nicht unbedingt zweidimensional sein, und kann in angemessenem Umfang übernommen werden. Auch spiegelt sich der Verhaltensfaktor wiederholt im Emotionsfaktor wider. Der Emotionsfaktor kann den Verhaltensfaktor direkt beeinflussen. Diese Emotions-/Bewegungs-KI-Verarbeitung ist durch das Einbringen des Emotionsfaktors gekennzeichnet, wobei dieser Emotionsfaktor und der Bewertungs-, Bestimmungs- und Verhaltensfaktor einander gegenseitig beeinflussen, wodurch über die finale Handlung der Person entschieden wird. 15 zeigt die KI-Verarbeitung im Vergleich zur Verarbeitung aus 13.
  • Ein spezifisches Beispiel der Emotions-/Bewegungs-KI-Verarbeitung aus 13 ist im Folgenden gezeigt.
    • a. Es folgen Beispiele, in denen die "Situation" die "Emotion" beeinflusst: a – 1: Im Falle eines Feindes * Wenn das Geschoss des Spielers nah am Feind vorbeifliegt, steigt dessen „Furcht". * Wenn der Spieler den Kameraden des Feindes besiegt, steigt dessen "Wut". * Wenn der Feind durch einen Treffer nicht getötet, sondern verletzt wird, steigt seine „Wut". * Wenn die Figur des Spielers verletzt wird, sinken sowohl „Wut" als auch „Furcht". * Wenn der Spieler beschossen wird, dieser jedoch den Geschossen ausweicht und diese nicht treffen, steigt die „Wut", während die "Furcht" sinkt. * Im Laufe der Zeit sinken sowohl „Wut" als auch „Furcht". a – 2: Im Falle eines Zivilisten: * Wenn ein Geschoss nah am Zivilisten vorbeifliegt, steigt seine „Furcht". * Wenn eine andere Person stirbt, steigt seine „Furcht". * Im Laufe der Zeit sinken sowohl „Wut" als auch „Furcht".
    • b. Es folgen Beispiele, in denen das "Verhalten" die "Emotion" beeinflusst: * Wenn durch das Abfeuern eines Geschosses Erleichterung verschafft wird, sinkt die "Wut". * Wenn durch das kontinuierliche Abfeuern von Geschossen ein Gefühl der Taubheit eintritt, sinkt die "Wut".
    • c. Es folgen Beispiele, in denen die "Emotion" die "Bewertung/Bestimmung" beeinflusst: * Wenn die „Furcht" stark ist, schießt man nicht, sondern versteckt sich. * Wenn die „Wut" stark ist, weicht man Gefahren nicht aus und schießt kontinuierlich. * Wenn die „Furcht" zu stark ist, erstarrt man.
    • d. Es folgen Beispiele, in denen die "Emotion" das "Verhalten" beeinflusst: * Wenn die „Furcht" gering ist, ist die Trefferrate hoch. * Wenn die „Furcht" stark ist, ist die Trefferrate niedrig. * Wenn die „Wut" stark ist, werden die Angriffsbewegungen schneller.
  • Indem die Emotions-/Bewegungs-KI wie oben angegeben eingestellt wird, ist es möglich, Darstellungen unnatürlicher Handlungen als Person zu mildern oder auszuschließen (z. B. eine plötzliche Beruhigung der Person, obwohl sie unmittelbar zuvor noch verängstigt gewesen war), so dass das Spiel in realistischerer Weise dargestellt wird. Bei dem Spiel dieser Ausführungsform z. B. trifft der erste Schuss des Feindes den Spieler nicht, wobei ein Weg derart eingestellt ist, dass erst das letzte Geschoss einer Salve von Schüssen den Spieler trifft. Wenn sich also entsprechend der erwähnten Emotions-KI beispielsweise die „Trefferrate der Geschosse" erhöht, erfolgt die Einstellung des vierten Geschosses, das den Spieler trifft, derart, dass das dritte Geschoss den Spieler trifft. Wenn dagegen „sowohl Furcht als auch Wut hoch sind", ist es möglich, die Panik in Anlehnung an die menschliche Mentalität darzustellen, derart, dass es für den Spieler schwierig ist, das Ziel zu treffen, obwohl er wild und unablässig feuert.
  • Wenn mehrere Personen im Spiel anwesend sind, kann sich jede Person unabhängig entsprechend ihrer Emotions-/Bewegungs-KI bewegen. Es ist also möglich, das Gruppenbild realistischer darzustellen, ohne die Gruppe als solche steuern zu müssen.
  • Außerdem ist es nicht nötig, eine Regeldatenbank zum Bestimmen aller Handlungen zu führen, wie es bei einer üblichen Verarbeitung der Fall ist, wodurch sich auch der Vorteil ergibt, dass die Datenlast und die Operationslast gesenkt und eingeschränkt werden.
  • [Verarbeitung für Echtzeitdynamikbewegungen]
  • 16 zeigt ein Beispiel der Verarbeitung für Echtzeitdynamikbewegungen, die von der CPU 101 in Schritt S11 der Hauptverarbeitung ausgeführt wird.
  • Diese Bewegungsverarbeitung berücksichtigt die Merkmale der Teile (wobei die einzelnen Teile aus mehreren Vielecken ausgebildet sind), die die Figur einer Person ausmachen. Da unter allen Teilen, die den Körper ausmachen, die Hauptteile mehr Masse aufweisen als die untergeordneten Teile, liegt das kennzeichnende Merkmal vor, dass die Verbindungspunkte zu den Hauptteilen als die Festpunkte der untergeordneten Teile gelten.
  • Die Unterteilung in Hauptteile und untergeordnete Teile dieser Ausführungsform erfolgt der Zweckmäßigkeit halber, wobei von den zwei benachbarten Teilen derjenige Teil, der sich an der Endseite des Körpers (vom Körper entfernt) befindet, als der untergeordnete Teil bezeichnet wird, während der Teil an der Körpermitte (nahe dem Körper) als der Hauptteil bezeichnet wird.
  • 17 zeigt ein Beispiel, wobei eine Person mit Hilfe von 16 Teilen dargestellt wird. Die schwarzen Kreise aus 17 zeigen die Verbindungspunkte zwischen den Teilen.
  • Wie in 16 gezeigt, wählt dabei die CPU 101 zunächst die untergeordneten Teile am äußersten Ende des Körpers aus (Schritt S61), und ermittelt dann deren Hauptteile (Schritt S62). Die Bewegung der untergeordneten Teile wird berechnet, wobei die Verbindungspunkte zwischen den untergeordneten Teilen und den Hauptteilen als Festpunkte gelten (Schritt S63), und woraufhin der Impuls (Kraft × Zeit) berechnet wird, der auf die Hauptteile einwirkt (Schritt S64). Die Bewegung der untergeordneten Teile und der Impuls, der auf die Hauptteile einwirkt, werden unter der Annahme berechnet, dass die einzelnen Teile Starrkörper sind.
  • Die Serie von Verarbeitungsschritten wird für die einzelnen Teile, die den Körper ausmachen, wiederholt, angefangen von den Endteilen bis zu deren Hauptteilen, und bis hin zu den Hauptteilen, die mit diesen untergeordneten Teilen verbunden sind, wobei diese Hauptteile dabei untergeordnete Teile bilden (Schritt S65). Diese Wiederholung setzt sich fort, bis der untergeordnete Teil der am nächsten zur Mitte liegende Teil ist (ein Teil, für den kein anderer Hauptteil vorliegt; die Berechnung könnte vereinfacht werden, wenn Hüftteile als ein solcher Mittelteil verwendet werden, die eine Schwerpunktposition verlangen).
  • Wird der Mittelteil erreicht, werden wiederum die Hauptteile ermittelt (Schritt S66). Der erste Hauptteil ist der Mittelteil. Als nächstes werden die untergeordneten Teile ermittelt (Schritt S67), und der Impuls, der auf diese untergeordneten Teile einwirken soll, wird auf Grundlage der Bewegung des Hauptteils berechnet (Schritt S68). Diese Umkehrberechnung wird in dieser Abfolge wiederholt, wobei jeweils der untergeordnete Teil den Hauptteil bildet, bis das Ende erreicht ist (Schritt S69).
  • Durch Steuern der Bewegung der Figuren wie oben beschrieben bewegt sich der Körper eines Menschen vom Ende oder von der Endseite aus, wobei diese Bewegung zur Mittelteilseite des Körpers weitergeleitet wird, während die Bewegung oder die Bewegungseinschränkung von der Mittelteilseite jeweils auf die Endseite einwirkt, so dass sich ein natürlicherer und reibungsloser Bewegungsablauf ergibt.
  • Ferner können dieser Bewegungsberechnung verschiedene Verarbeitungen hinzugefügt werden, die das Spiel interessanter gestalten. Da beispielsweise die Bewegung von Gelenken mit Bewegungseinschränkungen einhergeht, können Umkehrmomente für die Teile vorgesehen sein, die versuchen, diesen Einschränkungen entgegenzuwirken (Schritt S71 bis S72). Auf diese Weise lassen sich präzise und menschliche Bewegungen darstellen. Wenn beim Kontakt mit äußeren Gegenständen wie Wänden, Böden oder Geschossen eine Kraft auf die Teile einwirkt, oder wenn eine äußere Kraft wie z. B. Schwerkraft existiert, wird diese Kraft hinzugerechnet (Schritte S73, S74). Es kommt z. B. vor, dass die Teile aufgrund von Berechnungsdifferenzen in den Boden einsinken, weshalb es wünschenswert ist, passende Korrekturen durchzuführen, so dass eine Verarbeitung stattfindet, die diese Phänomene unauffälliger macht. Da zudem ein Mensch bei Schmerzempfindungen aufgrund von Muskelkontraktionen eine interne Kraft erzeugt, kann auch eine Verarbeitung zum Hinzufügen einer internen Kraft oder eines internen Moments durchgeführt werden, sobald eine Person von einem Geschoss getroffen wird (Schritt S75, S76). Auf diese Weise ist es möglich, realistische Bewegungen darzustellen. Ferner haben Menschen die Angewohnheit, ihre Position automatisch zu verändern, um nicht zu fallen. Um die Situation „Ich bin getroffen, aber noch nicht tot" auszudrücken, wird bevorzugt, eine Verarbeitung zum Verlangsamen der Drehgeschwindigkeit der Teile durchzuführen (Schritte S77, S78). Auf diese Weise kann „Ausdauer" dargestellt werden, was den Bewegungsrealismus weiter erhöht. Die Verarbeitung der Schritte S70 bis S78 kann in geeigneter Weise für ausgewählte Zusatzobjekte kombiniert und ausgeführt werden, indem diese während der Serie von Verarbeitungsschritten S61 bis S69 in geeigneter Weise angeordnet werden.
  • Bei der genannten Verarbeitung für Echtzeitdynamikbewegungen kann die Abfolge der Bewegungsberechnungen für die Teile, die den Körper ausmachen, von der Endseite ausgehen, oder vom Mittelteil des Körpers, wobei hinsichtlich der Abfolge selbst keine Einschränkungen bestehen. Wird ein Teil getroffen, kann die Berechnung von diesem getroffenen Teil ausgehend erfolgen.
  • [Interpolationsverarbeitung für nichtlineare separate Bewegungen]
  • 18 zeigt ein Beispiel der Interpolationsverarbeitung für nichtlineare separate Bewegungen, die von der CPU 101 in Schritt S11 der Hauptverarbeitung ausgeführt wird.
  • Im hier verwendeten Sinne bezeichnet eine Interpolationsverarbeitung Bewegungen die Interpolationsverarbeitung zum Erzeugen von Bewegungsabläufen, die zwei Bewegungen miteinander verbinden, beispielsweise ein „Umkehren" nach dem „Fortrennen". Als übliche Verfahren für diese Art der Interpolationsverarbeitung sind die lineare Interpolationsverarbeitung aus 19 und die dreidimensionale krummlinige Interpolationsverarbeitung aus 20 bekannt. Eine Bewegungsinterpolation durch lineare Interpolationsverarbeitung stellt die Bewegungsabläufe dar, die die Bewegungen mit Hilfe linearer Funktionen verbinden, doch obwohl insofern ein Vorteil vorliegt, als die Rechenlast niedrig ist, fehlt hier die Reibungslosigkeit in der Verbindung der Bewegungen. Dagegen stellt die Bewegungsinterpolation durch dreidimensionale krummlinige Interpolationsverarbeitung die Bewegungsabläufe, die die Bewegungen verbinden, mit Hilfe von dreidimensionalen krummlinigen Funktionen dar, doch obwohl die Verbindung der Bewegungen hier reibungslos erfolgt, kann die Funktionskurve nicht berechnet werden, solange nicht sowohl die aktuelle Bewegung als auch die darauffolgende Bewegung zugewiesen sind. Ein weiterer Nachteil besteht darin, dass die Rechenlast aufgrund der Berechnung der Spline-Kurve zunimmt.
  • Um diese Probleme zu überwinden, wird eine Interpolationsverarbeitung für nichtlineare separate Bewegungen bereitgestellt. Diese Interpolationsverarbeitung für Bewegungen ist ein Verfahren, bei dem die Funktionskurve der Bewegung direkt als separater Datenwert berechnet wird, und nicht als aufeinanderfolgende Funktionen.
  • Insbesondere wird, wie in 18 gezeigt, anhand des aktuellen Winkels 80, des Zielwinkels θa und der Anzahl der Vollbilder f bis zum Erreichen des Zielwinkels die Winkelgeschwindigkeit dθa, die zum Erreichen des Ziels benötigt wird, anhand der folgenden Formel berechnet (Schritt S81): dθa = (θa – θa)/f
  • Das bedeutet, dass der Zustand aus 21(a) durch die Anzahl der Vollbilder differenziert wird, d. h. die Zeit t, und in den Zustand von 21(b) umgewandelt wird.
  • Als nächstes wird aus dem Speicher die vorherige Winkelgeschwindigkeit dθo ausgelesen (Schritt S82), und es wird angenommen, dass der Punkt zwischen der berechneten Winkelgeschwindigkeit dθa und der ausgelesenen vorherigen Winkelgeschwindigkeit dθo die aktuelle Winkelgeschwindigkeit ist, woraufhin die Winkelgeschwindigkeit anhand der folgenden Formel berechnet wird (Schritt S83): dθ = (A·dθo + B·dθa)/(A + B)
  • A nach B ist die Strecke zum Bestimmen der Winkelgeschwindigkeit durch Teilen der Segmente, die die Winkelgeschwindigkeiten dθa und dθo im oberen Teil von 21(b) verbinden. Gemäß dieser Formel kann der Zustand aus 21(b) in den Zustand von 21(c) umgewandelt werden. Gilt dabei A = B, wird die Position der aktuellen Winkelgeschwindigkeit de als Mittelpunkt festgelegt. Je größer die Strecke A in Bezug auf die Strecke B festgelegt ist, desto größer ist die darstellbare Trägheit.
  • Die aktuell berechnete Winkelgeschwindigkeit de wird im Speicher als die vorherige Winkelgeschwindigkeit dθo für die nachfolgende Unterbrechung gespeichert (Schritt S84).
  • Die zeitintegrierte Funktionskurve der Winkelgeschwindigkeit de, die durch Unterbrechung wie oben angegeben berechnet wird, ist in 21(d) gezeigt.
  • Wie anhand von 21(d) deutlich wird, wird der Bewegung beim Übergang von der aktuellen Bewegung zur nachfolgenden Bewegung Trägheit verliehen, so dass ihr ein Gefühl der Schwere verliehen wird, ohne dass sie tatsächlich am Zielwinkel innehält. Durch geeignetes Anpassen dieser Trägheit kann diese in positiver Weise genutzt werden, so dass im Vergleich zur dreidimensionalen krummlinigen Interpolation eine realistische Bewegung mit reibungslosen Übergängen und einem Schweregefühl dargestellt wird. Auch wenn während der Bewegung ein abrupter Wechsel stattfindet, ist es aufgrund der Trägheit möglich, reibungslos zur nächsten Bewegung überzugehen. Da die Verarbeitung mit einem diskreten Wert und nicht mit einer kontinuierlichen Funktion durchgeführt wird, ist die Verarbeitungslast auch im Vergleich zur linearen Interpolation nicht allzu groß. Der Vorteil liegt in der reibungslosen Bewegungsinterpolation mit verringerter Operationslast.
  • [Bewegungskollisionsverarbeitung]
  • 22 zeigt ein Beispiel der Bewegungskollisionsverarbeitung, die von der CPU 101 in Schritt S12 der Hauptprogrammverarbeitung ausgeführt wird.
  • Bei üblichen Spielen wurden Kollisionen in Stufen nicht bewegt. Die vorliegende Erfindung ermöglicht eine solche Bewegung, und bemüht sich darum, einen dynamischen Spielverlauf bereitzustellen. Diese Bewegungskollisionsverarbeitung berechnet die Bewegung der Kollisionsfläche durch Löschen der Fläche nach außen hin, indem das Koordinatensystem der Kollisionsfläche fest angeordnet wird.
  • Zunächst soll die existierende Verarbeitung einer bewegungslosen, fest angeordneten Kollision erläutert werden. Wenn die Kollisionsebene (z. B. Boden, Wände usw.) nicht bewegt werden, lässt sich, wie in 23 gezeigt, der Kollisionspunkt p leicht anhand dieser Kollisionsebene ermitteln, und das gewöhnliche Kollisionssegment (z. B. der Geschossweg) lässt sich leicht durch Berechnen des Schnittpunkts der geraden Linie und der Ebene ermitteln.
  • Die vorliegende Erfindung bewegt die Kollision in dynamischer Weise, und wie in 22 gezeigt, beurteilt die CPU 101 durch Unterbrechung, ob die Kollision zu bewegen ist, oder ob sie sich bewegt (Schritt S91). Wenn das Urteil NEIN lautet (nicht bewegen), fährt das Programm mit Schritt S92 fort, und bestimmt die genannte fest angeordnete Kollision. Wenn die Kollision jedoch bewegt werden soll, fährt das Programm mit Schritt S93 fort, wobei ferner beurteilt wird, ob die Bewegung parallel oder drehend erfolgt.
  • Wenn das Urteil parallel lautet, fährt das Programm mit Schritt S94 fort, und die parallele Bewegungskollision wird bestimmt. Genauer ausgedrückt, und wie in 24(a) und 24(b) gezeigt, ist im Fall einer parallelen Bewegung der Kollisionsebene das Koordinatensystem fest an der Kollisionsebene angeordnet, und der Endpunkt p des Kollisionssegments wird in die Entfernung des Umkehrvektors des Parallelbewegungsvektors der Kollision bewegt. Daraufhin wird der Schnittpunkt p' der Ebene und des Segments als Kollisionspunkt verwendet, woraufhin eine Umwandlung zum Wiederherstellen des Koordinatensystems von p' durchgeführt wird, um den Schnittpunkt p zu erhalten.
  • Wenn dagegen in Schritt S23 eine Drehbewegung bestimmt wird, erfolgt in Schritt S95 eine Bestimmung der Drehbewegungskollision. Insbesondere wird, wie in 25 bis 27 gezeigt, bei einer drehenden Bewegung der Kollisionsebene, ähnlich wie bei der Parallelbewegung, der Endpunkt p1 des Kollisionssegments in eine Entfernung des Umkehrvektors des Parallelbewegungsvektors der Kollisionsebene bewegt, und zu p1' gemacht (siehe 25 und 26). Auf diese Weise kann der Einfluss der Parallelbewegung nach außen hin aufgehoben werden.
  • Als nächstes wird der Endpunkt p1' des Kollisionssegments – θ gedreht, wobei der Ursprung der Kollisionsebene die Achse bildet, und zu p1'' gemacht (siehe 27). Bei der vorstehenden Operation ist das Koordinatensystem der Kollisionsebene fest angeordnet, und der Einfluss der Kollisionsbewegung und der Drehung kann nach außen hin aufgehoben werden. Dadurch wird der Schnittpunkt p'' des Segments p0 – p1'' und der Kollisionsebene als der Kollisionspunkt bestimmt, und mit Hilfe einer Umkehroperation an diesem Punkt wird der Schnittpunkt p erzielt.
  • Dementsprechend wird durch Bewegen von Kollisionsflächen wie z. B. Wänden und Boden während der Durchführung einer Bestimmung einer Kollision mit dem Kollisionssegment, z. B. einem Geschoss, eine dynamische Spielansicht erzeugt, wie sie bislang nicht möglich war.
  • Indem ferner die Kollisionsebene drehend bewegt wird, muss ihr Drehungsursprung nicht notwendigerweise in der Kollisionsebene liegen, sondern kann auch außerhalb der Kollisionsebene liegen. Bei der eigentlichen Berechnung wird das Kollisionssegment durch die Vektorformel „p = p0 + (p1 – p0)t'' dargestellt. Wenn während der Berechnung von p' oder p'' auch t berechnet wird, ist es unmittelbar danach durch Substituieren dieser Formel möglich, ein unnötiges erneutes Umwandeln der Koordinaten nach Berechnung der Koordinaten von p' und p'' zu vermeiden. Obwohl die Kollisionsfläche in der vorstehenden Ausführungsform als Ebene beschrieben wurde, kann dasselbe Verfahren auch dazu benutzt werden, eine gekrümmte Kollisionsfläche zu berechnen. Es wird zudem bevorzugt, dass der Drehwinkel θ der Kollisionsfläche ausreichend klein ist. Wenn der Drehwinkel θ zu groß ist, können die Differenzen der berechneten Koordinaten zunehmen. Die Berechnung sollte dabei erfolgen, indem die Drehung einige Male geteilt wird.
  • Der Feind im hier verwendeten Sinne bezeichnet ein Ziel, einen Feind oder ein angegriffenes Objekt, der oder das von dem Rechner des Grundkörpers der Spielvorrichtung bedient wird.
  • GEWERBLICHE ANWENDBARKEIT
  • Wie oben beschrieben, stellt die vorliegende Erfindung eine Bilderzeugungsvorrichtung bereit, die für Schusswaffenspiele usw. geeignet ist, im Vergleich zu üblichen Vorrichtungen auch in Bezug auf die Atmosphäre des Spiels hoch realistisch ist, die das Spielgefühl und die Unterhaltsamkeit des Spieles wesentlich erhöht, und gegenüber üblichen Vorrichtungen keine Probleme bezüglich der Operationsverarbeitung aufweist.
  • Insbesondere ist es möglich, die Atmosphäre zu verbessern und das Spielinteresse sowie die Unterhaltsamkeit des Spieles wesentlich zu steigern, indem dem Spieler die „Gefahrensituation" genau vermittelt wird. Überdies ist eine Spielvorrichtung bereitgestellt, die für Schusswaffenspiele usw. geeignet ist, und die das das Spielinteresse sowie die Unterhaltsamkeit des Spieles wesentlich erhöht, indem der Kamerablickpunkt passend zu der Bewegung des Feindes bewegt wird, ohne dass der Feind aus den Augen verloren wird.
  • Ferner ist eine Spielvorrichtung bereitgestellt, die für Schusswaffenspiele usw. geeignet ist, und bei der für die KI, die die Figur steuert, das Element der „Action", das sich aus „Emotionen" ergibt, vorgesehen ist, wobei der Aufwand und die Zeit, die für eine entsprechende Entwicklung notwendig sind, verringert werden, und die ein hohes Maß an Realismus und Atmosphäre bietet, ohne die Operationslast über das übliche Maß hinaus zu steigern. Ferner ist eine Spielvorrichtung bereitgestellt, die dazu in der Lage ist, Kollisionen mit anderen Strukturen als dem beweglichen Gegenstand, z. B. mit Wänden und Hindernissen, eindrucksvoll zu gestalten, wodurch dynamische Spielentwicklungen erzielt werden, die Atmosphäre verstärkt wird, und das Spielgefühl und das Spielinteresse wesentlich gesteigert werden.
  • Ferner ist eine Spielvorrichtung bereitgestellt, die für Schusswaffenspiele usw. geeignet ist, und die dazu in der Lage ist, den Realismus der Bewegung von Teilen zu erhöhen, die die Figur ausmachen, oder der Bewegungsabläufe zwischen den Bewegungen der Figur, und die den Realismus und die Atmosphäre verstärkt, und bezüglich der Operationsverarbeitung nicht die Probleme üblicher Vorrichtungen aufweist.

Claims (25)

  1. Bilderzeugungsvorrichtung zum Erzeugen von Bildern, die einen beweglichen Körper, der sich in einem virtuellen, dreidimensionalen Raum bewegt, von einem beweglichen Blickpunkt in dem virtuellen, dreidimensionalen Raum aus erfassen, umfassend: ein Bewegungsmittel zum Steuern der Bewegung des Kamerablickpunkts durch Benutzen des Positionsverhältnisses zwischen einem beobachtbaren Punkt, wobei die Position des beobachtbaren Punktes unabhängig vom beweglichen Körper bewegt werden kann und die Position des beobachtbaren Punktes im Verhältnis zu dem beweglichen Körper festgelegt ist, und der Blickrichtung des gegenwärtigen Kamerablickpunkts.
  2. Bilderzeugungsvorrichtung nach Anspruch 1, wobei der virtuelle, dreidimensionale Raum ein Spielraum ist, und der bewegliche Körper ein Feind in einem Schusswaffenspiel ist, das in dem Spielraum abläuft.
  3. Bilderzeugungsvorrichtung nach Anspruch 2, ferner umfassend: ein Anzeigemittel zum Anzeigen des Spielraumes auf einem Bildschirm; eine Schusswaffeneinheit, die dazu in der Lage ist, Signale in Richtung des Bildschirms zu erzeugen, indem der Spieler den Abzug betätigt; einen Sensor zum Detektieren der Eintreffposition der Signale auf dem Bildschirm des Anzeigemittels; und ein Spielimplementierungsmittel zum Implementieren eines Schusswaffenspiels zwischen dem Feind und dem Spieler auf Grundlage der Eintreffposition.
  4. Bilderzeugungsvorrichtung nach Anspruch 3, wobei die Position des beobachtbaren Punktes eine andere Position ist als die des beweglichen Körpers, ferner umfassend: ein Bewegungsmittel für den beobachtbaren Punkt, um diesen beobachtbaren Punkt für jede Anzeige eines Vollbilds des Bildes zu dem beweglichen Körper hin zu bewegen.
  5. Bilderzeugungsvorrichtung nach Anspruch 4, wobei das Bewegungsmittel für den beobachtbaren Punkt ein Bewegungsmittel ist, um den beobachtbaren Punkt für jede Anzeige eines Vollbilds des Bildes und entlang der geraden Strecke, die den beobachtbaren Punkt und die Position des beweglichen Gegenstands verbindet, mit vorgeschriebenen Abständen seines direkten Abstands zur Seite des beweglichen Gegenstands hin zu bewegen.
  6. Bilderzeugungsvorrichtung nach Anspruch 4, wobei das Bewegungsmittel für den beobachtbaren Punkt umfasst: ein Mittel zum Steuern des offenen Winkels zwischen der gegenwärtigen Blickrichtungslinie, die sich von dem Kamerablickpunkt aus erstreckt, und der Linie, die sich von dem Kamerablickpunkt aus durch den beobachtbaren Punkt erstreckt; ein Mittel zum Steuern eines vorgeschriebenen Drehwinkels von einem solchen offenen Winkel; und ein Mittel zum Drehen des Kamerablickpunkts in dem Drehwinkel hin zur Seite des beobachtbaren Punkts für jede Anzeige eines Vollbilds des Bildes.
  7. Bilderzeugungsvorrichtung nach Anspruch 3, wobei das Bewegungsmittel umfasst: ein Beurteilungsmittel zum Beurteilen des Auftretens spezifischer Bedingungen für das relative Positionsverhältnis zwischen dem Kamerablickpunkt, der sich entsprechend der Bedienung durch den Spieler verändert, und dem beobachtbaren Punkt; und ein Blickpunktbewegungssteuermittel zum Steuern der Position des Kamerablickpunkts derart, dass die Position des beobachtbaren Punkts stets erfasst wird.
  8. Bilderzeugungsvorrichtung nach Anspruch 7, wobei das Blickpunktbewegungssteuermittel ein Mittel zum Durchführen einer Positionssteuerung nach einer Bewegung zum Bewegen des Kamerablickpunkts, und nach einer Drehbewegung gemäß dem Winkel ist, der von der Position des Kamerablickpunkts nach der Bewegung und der Blickrichtung des Kamerablickpunkts vor der Bewegung durch die Richtung hin zu dem beobachtbaren Punkt gebildet wird.
  9. Bilderzeugungsvorrichtung nach Anspruch 8, wobei das Blickpunktbewegungssteuermittel ein Blickpunktdrehmittel umfasst, um den Kamerablickpunkt entsprechend dem Winkel zur Seite des beobachtbaren Punktes hin zu drehen.
  10. Bilderzeugungsvorrichtung nach Anspruch 9, wobei das Blickpunktdrehmittel ein Mittel zum Drehen des Kamerablickpunkts auf Grundlage eines Winkels hin zur Seite des beobachtbaren Punktes ist, wobei der Winkel um einen vorgeschriebenen Wert vergrößert/verkleinert wird.
  11. Bilderzeugungsvorrichtung nach Anspruch 9, umfassend ein Ausweichbedienungsmittel für einen Spieler, um die Figur zu bedienen, die eine Simulation dieses Spielers auf einem Bildschirm ist, um einem Geschoss auszuweichen, das von dem Feind abgefeuert wird; wobei das Beurteilungsmittel ein Mittel zum Beurteilen ist, ob das Ausweichbedienungsmittel sich in einem Bedienungszustand befindet oder nicht.
  12. Bilderzeugungsvorrichtung nach einem der Ansprüche 2 bis 11, wobei die Bilderzeugungsvorrichtung ferner umfasst: ein Bildverarbeitungsmittel zum Durchführen einer Bildanzeige, die dem Spieler im Voraus einen An griff anzeigt, den die Feindfigur auf den Spieler ausübt.
  13. Bilderzeugungsvorrichtung nach Anspruch 12, wobei die Bildanzeige eine Anzeige eines Geschosses ist, das von der Feindfigur abgefeuert wurde und im Raum selbst auf den Spieler zufliegt.
  14. Bilderzeugungsvorrichtung nach Anspruch 13, wobei die Anzeige des Geschosses eine Anzeige des in einem Bogen fliegenden Geschosses ist.
  15. Bilderzeugungsvorrichtung nach einem der Ansprüche 2 bis 14, wobei die Bilderzeugungsvorrichtung ferner umfasst: KI-Verarbeitungsmittel zum Ausführen einer KI-Verarbeitung, die Emotionen der Figur darstellt, welche von Bedingungen, Einschätzung/Bestimmung und Verhaltensfaktoren im Spiel beeinflusst wird.
  16. Bilderzeugungsvorrichtung nach Anspruch 15, wobei die Emotionsfaktoren durch emotionale Elemente von Angst und Wut in Bezug auf das Spiel dargestellt sind.
  17. Bilderzeugungsvorrichtung nach Anspruch 16, wobei das KI-Verarbeitungsmittel ein Mittel zum Durchführen einer Verarbeitung zum Reflektieren der Ergebnisse von Verhalten aufweist, das auf den Faktoren des Verhaltens in Bezug auf die Emotionsfaktoren beruht.
  18. Bilderzeugungsvorrichtung nach einem der vorangehenden Ansprüche, wobei der bewegliche Körper eine Person simuliert, und sich in einem virtuellen, dreidimensionalen Raum als eine Vielzahl von Teilen bewegt, die über Verbindungspunkte miteinander verbunden sind, wobei die Bilderzeugungsvorrichtung umfasst: ein erstes Spezifizierungsmittel zum Spezifizieren eines untergeordneten Teils auf der Endgerätseite und eines Haupt teils auf der zentralen Seite in Bezug auf zwei benachbarte Teile der Vielzahl von Teilen; ein erstes Steuerungsmittel zum Steuern des Impulses der Bewegung des untergeordneten Teils, die auf den Hauptteil übertragen wird, unter der Annahme, dass der Verbindungspunkt des untergeordneten Teils am Hauptteil ein Festpunkt ist; ein erstes Wiederholungsmittel zum Wiederholen der Bewegungen des ersten Spezifizierungsmittels und des ersten Steuerungsmittels von der Endgerätseite des beweglichen Körpers zu seiner zentralen Seite; ein zweites Spezifizierungsmittel zum Spezifizieren eines Hauptteils auf der zentralen Seite und eines untergeordneten Teils der Vielzahl von Teilen; ein zweites Steuerungsmittel zum Steuern des Impulses der Bewegung des Hauptteils, die auf den untergeordneten Teil übertragen wird, und ein zweites Wiederholungsmittel zum Wiederholen der Bewegungen des zweiten Spezifizierungsmittels und des zweiten Steuerungsmittels von der zentralen Seite des beweglichen Körpers hin zu seiner Endgerätseite.
  19. Bilderzeugungsvorrichtung nach Anspruch 18, wobei wenigstens das erste oder zweite Steuerungsmittel ein Mittel zum Ausführen einer Operationsverarbeitung zur interessanteren Gestaltung beim Simulieren der Person.
  20. Bilderzeugungsvorrichtung nach Anspruch 19, wobei die Operationsverarbeitung zur interessanteren Gestaltung wenigstens eine oder mehrere der folgenden Operationen aufweist: Operation zum Anwenden eines Umkehrmoments auf die Teile, das durch Bewegungseinschränkungen der Gelenke der Person verursacht wird; eine Operation zum Reflektieren der äußeren Kraft, die an den Teilen auf die Person ausgeübt wird; eine Operation zum Korrigieren der Unnatürlichkeit der Position der Teile, die durch Berechnungsdifferenzen verursacht wird; eine Operation zum Anwenden des internen Kraftmoments, das von den physikalischen Eigenschaften der Person an den Teilen bewirkt wird; und eine Steuerungsoperation der Dreh- oder Bewegungsgeschwindigkeit der Teile, um Ausdrucksweisen zu reflektieren, die an den Teilen durch die Mentalität der Person bewirkt werden.
  21. Bilderzeugungsvorrichtung nach einem der vorangehenden Ansprüche, wobei Bilddaten, die von der Vorrichtung erzeugt werden, die Bewegung zwischen zwei Bewegungstypen des beweglichen Körpers interpolieren, der sich in einem virtuellen, dreidimensionalen Raum bewegt; wobei die Vorrichtung ferner umfasst: ein Steuerungsmittel zum separaten Steuern der Funktionskurve der Bewegung zwischen den zwei Bewegungstypen entsprechend dem gegenwärtigen Drehwinkel, dem Zieldrehwinkel und der Anzahl der Vollbilder, die erforderlich sind, um den Zieldrehwinkel zu erreichen, und ein Interpolationsmittel zum Durchführen einer Bewegungsinterpolation auf Grundlage der Steuerungsergebnisse des Steuerungsmittels.
  22. Bilderzeugungsvorrichtung nach einem der vorangehenden Ansprüche, um Bilder zu erzeugen, die die Kollisionsbeurteilung zwischen einem beweglichen Gegenstand, der sich in einem virtuellen, dreidimensionalen Raum bewegt, und einem Strukturgegenstand benötigen, der in dem Raum angeordnet ist, wobei die Vorrichtung ein Kollisionsbeurteilungsmittel umfasst, um die Kollision mit dem beweglichen Gegenstand zu beurteilen, während der Strukturgegenstand bewegt wird.
  23. Bilderzeugungsvorrichtung nach Anspruch 22, wobei das Kollisionsbeurteilungsmittel ein Mittel zum Beurteilen der Kollision während der Bewegung des Strukturgegenstands entweder in paralleler Bewegung oder in Drehbewegung ist.
  24. Computerprogramm zum Ausführen der Operationen der jeweiligen Mittel einer Bilderzeugungsvorrichtung nach einem der vorangehenden Ansprüche, wenn das Programm auf einer Computereinrichtung ausgeführt wird.
  25. Computerprogramm nach Anspruch 24, das auf einem computerlesbaren Speichermedium verkörpert ist.
DE69838734T 1997-11-25 1998-11-25 Bilderzeugungsgerät Expired - Lifetime DE69838734T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP32328097 1997-11-25
JP32328097 1997-11-25
PCT/JP1998/005304 WO1999027498A1 (fr) 1997-11-25 1998-11-25 Generateur d'image

Publications (2)

Publication Number Publication Date
DE69838734D1 DE69838734D1 (de) 2007-12-27
DE69838734T2 true DE69838734T2 (de) 2008-10-30

Family

ID=18153032

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69838734T Expired - Lifetime DE69838734T2 (de) 1997-11-25 1998-11-25 Bilderzeugungsgerät

Country Status (9)

Country Link
US (1) US6972756B1 (de)
EP (2) EP1047022B1 (de)
JP (1) JP2009064448A (de)
KR (1) KR100566366B1 (de)
CN (2) CN1183494C (de)
DE (1) DE69838734T2 (de)
ES (1) ES2297896T3 (de)
HK (1) HK1077769A1 (de)
WO (1) WO1999027498A1 (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126454A (ja) * 1998-10-23 2000-05-09 Sega Enterp Ltd 遊戯装置及び画像処理装置
JP3561463B2 (ja) 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
JP4641602B2 (ja) * 2000-09-19 2011-03-02 株式会社バンダイナムコゲームス ゲームシステム及び情報記憶媒体
JP2003334382A (ja) * 2002-05-21 2003-11-25 Sega Corp ゲーム装置、画像処理装置及び画像処理方法
JP3887819B2 (ja) * 2002-10-11 2007-02-28 株式会社セガ コンピュータプログラム
JP2005218463A (ja) * 2004-02-03 2005-08-18 Nintendo Co Ltd シューティングゲーム装置およびゲームプログラム
JP2006018476A (ja) * 2004-06-30 2006-01-19 Sega Corp 画像の表示制御方法
JP4244040B2 (ja) * 2005-03-10 2009-03-25 任天堂株式会社 入力処理プログラムおよび入力処理装置
JP2006305176A (ja) * 2005-04-28 2006-11-09 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
FR2886800A1 (fr) * 2005-06-03 2006-12-08 France Telecom Procede et dispositif de commande d'un deplacement d'une ligne de visee, systeme de visioconference, terminal et programme pour la mise en oeuvre du procede
US20080026827A1 (en) * 2006-04-21 2008-01-31 Pokermatic, Inc. Amusement gaming system
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
JP4642118B2 (ja) * 2009-02-09 2011-03-02 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体
JP4669054B2 (ja) * 2009-03-23 2011-04-13 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体
JP5161256B2 (ja) * 2010-03-31 2013-03-13 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、及び、画像生成装置
JP5816435B2 (ja) * 2011-01-06 2015-11-18 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、表示制御方法
JP6085411B2 (ja) 2011-06-02 2017-02-22 任天堂株式会社 画像処理装置、画像処理方法、および画像処理装置の制御プログラム
JP5969766B2 (ja) * 2012-01-11 2016-08-17 株式会社タイトー ゲーム機
JP2015192753A (ja) * 2014-03-31 2015-11-05 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP6692596B2 (ja) * 2014-05-21 2020-05-13 グリー株式会社 ゲーム制御方法、コンピュータ及び制御プログラム
JP6985204B2 (ja) * 2014-05-21 2021-12-22 グリー株式会社 ゲーム制御方法、コンピュータ及び制御プログラム
CN104915564B (zh) 2015-06-16 2017-03-22 深圳市腾讯计算机系统有限公司 实现虚拟角色转弯的方法和装置
JP6543313B2 (ja) * 2017-10-02 2019-07-10 株式会社エイチアイ 移動体用画像生成記録表示装置及びプログラム
CN108536295B (zh) * 2018-03-30 2021-08-10 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及计算机设备
US10545096B1 (en) 2018-10-11 2020-01-28 Nanotronics Imaging, Inc. Marco inspection systems, apparatus and methods
CN109754819B (zh) * 2018-12-29 2021-08-10 努比亚技术有限公司 一种数据处理方法、装置及存储介质
CN109925720B (zh) * 2019-04-12 2022-11-22 网易(杭州)网络有限公司 信息处理方法和装置
US10915992B1 (en) 2019-08-07 2021-02-09 Nanotronics Imaging, Inc. System, method and apparatus for macroscopic inspection of reflective specimens
US11593919B2 (en) 2019-08-07 2023-02-28 Nanotronics Imaging, Inc. System, method and apparatus for macroscopic inspection of reflective specimens
CN110947182B (zh) * 2019-11-26 2024-02-02 上海米哈游网络科技股份有限公司 事件应对方法、装置、游戏终端及介质
JP7233399B2 (ja) * 2020-06-23 2023-03-06 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU652209B2 (en) * 1990-11-14 1994-08-18 Robert Macandrew Best Talking video games
JPH04340669A (ja) 1991-05-17 1992-11-27 Hitachi Ltd 多関節構造体の動画像生成方法
JP3470822B2 (ja) * 1994-03-03 2003-11-25 株式会社セガ 画像表示方法及びその装置
TW266277B (en) * 1994-12-31 1995-12-21 Sega Of America Inc Videogame system and methods for enhanced processing and display of graphical character elements
JP3490169B2 (ja) 1995-02-20 2004-01-26 株式会社日立情報システムズ 三次元アニメーション処理システム及び処理方法
JP3181808B2 (ja) 1995-04-17 2001-07-03 株式会社スクウェア ビデオ・ゲーム装置,その制御方法および制御ディバイス
US5830066A (en) * 1995-05-19 1998-11-03 Kabushiki Kaisha Sega Enterprises Image processing device, image processing method, and game device and storage medium using the same
JP2850851B2 (ja) 1995-05-31 1999-01-27 日本電気株式会社 映像表示方法および映像表示装置
JP3141737B2 (ja) * 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
US5853324A (en) * 1995-09-07 1998-12-29 Namco Ltd. Shooting game machine and method of computing the same
US6155926A (en) * 1995-11-22 2000-12-05 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control
US6139433A (en) * 1995-11-22 2000-10-31 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control due to environmental conditions
JPH09161095A (ja) * 1995-12-07 1997-06-20 Sega Enterp Ltd 画像処理装置
JP3871224B2 (ja) * 1995-12-07 2007-01-24 株式会社セガ 画像生成装置、画像生成方法及びこれを用いたゲーム機並びに媒体
JP3745475B2 (ja) * 1996-12-06 2006-02-15 株式会社セガ ゲーム装置及び画像処理装置

Also Published As

Publication number Publication date
EP1047022A4 (de) 2001-05-16
ES2297896T3 (es) 2008-05-01
EP1829590A2 (de) 2007-09-05
EP1047022A1 (de) 2000-10-25
JP2009064448A (ja) 2009-03-26
US6972756B1 (en) 2005-12-06
CN1279798A (zh) 2001-01-10
CN1611286A (zh) 2005-05-04
CN100374175C (zh) 2008-03-12
CN1183494C (zh) 2005-01-05
EP1829590A3 (de) 2008-12-17
HK1077769A1 (en) 2006-02-24
EP1047022B1 (de) 2007-11-14
WO1999027498A1 (fr) 1999-06-03
KR100566366B1 (ko) 2006-03-31
KR20010032483A (ko) 2001-04-25
DE69838734D1 (de) 2007-12-27

Similar Documents

Publication Publication Date Title
DE69838734T2 (de) Bilderzeugungsgerät
DE69937414T2 (de) Bildverarbeitungsgerät zur Bestimmung der Flugbewegung eines Objekts
DE69721630T2 (de) Videospielsystem bei dem Objekte geworfen werden
DE60310817T2 (de) Videospielvorrichtung, Bildverarbeitungsverfahren und -programm
DE69628993T2 (de) Bildprozessor und spielgerät zur verwendung desselben
DE19818437B4 (de) Videospielvorrichtung
DE19818492B4 (de) Videospielsystem und Videospiel-Speichermedium
DE69732211T2 (de) Bildverarbeitungseinheit für spiele
DE69737878T2 (de) Vorrichtung und Verfahren für die Anzeige einer Führung in einem Videospielsystem
DE69629649T2 (de) Bildprozessor, bildverarbeitungsverfahren, diese verwendendes spielgerät und speichermedium
DE69833482T2 (de) Verfahren und vorrichtung zur bildverarbeitung
DE69935419T2 (de) Zielorientierte benutzeroberfläche
DE69836945T2 (de) Videospielsystem mit Radarbild
US6217446B1 (en) Game device and picture processing device
DE69919944T2 (de) Videospielgerät, Videospielverfahren, und entsprechendes computerlesbares Aufzeichnungsmedium
DE69635710T2 (de) Eingabegerät für bilderzeugungsverfahren und -gerät
DE602004003979T2 (de) Verfahren zur Steuerung einer virtuellen Kamera in einem dreidimensionalen Videospiel
DE69722358T2 (de) Videoschiessspielgerät und Schiessergebnissanzeigeverfahren
CN107913521B (zh) 虚拟环境画面的显示方法和装置
US20040063501A1 (en) Game device, image processing device and image processing method
JP3325075B2 (ja) マルチプレーヤ用ゲーム装置
DE60030545T2 (de) Videoschiessspielgerät und verfahren zum anzeigen des ergebnisses des videoschiessspiels
JP2888831B2 (ja) 3次元ゲーム装置及び画像合成方法
JP3219735B2 (ja) 3次元ゲーム装置及び画像合成方法
EP4299149A1 (de) Vorrichtung und verfahren zur unterstützung der visuellen wahrnehmung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition