DE69935419T2 - Zielorientierte benutzeroberfläche - Google Patents

Zielorientierte benutzeroberfläche Download PDF

Info

Publication number
DE69935419T2
DE69935419T2 DE69935419T DE69935419T DE69935419T2 DE 69935419 T2 DE69935419 T2 DE 69935419T2 DE 69935419 T DE69935419 T DE 69935419T DE 69935419 T DE69935419 T DE 69935419T DE 69935419 T2 DE69935419 T2 DE 69935419T2
Authority
DE
Germany
Prior art keywords
location
switch
switches
target
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69935419T
Other languages
English (en)
Other versions
DE69935419D1 (de
Inventor
Keith E. Mathias
James D. Shaffer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE69935419D1 publication Critical patent/DE69935419D1/de
Application granted granted Critical
Publication of DE69935419T2 publication Critical patent/DE69935419T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • A63F2300/6054Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands by generating automatically game commands to assist the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

  • BEREICH DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf den Bereich von Computern, und insbesondere auf den Bereich von Computerspielen, Simulationen und Robotersteuerung.
  • BESCHREIBUNG DES STANDES DER TECHNIK
  • Benutzer sind interaktiv mit Computerspielen und Simulationen und steuern dieselben über eine Vielzahl von Benutzerschnittstellen. Eine übliche Benutzerschnittstelle ist über einen Joystick mit einer oder mehreren Tasten oder Stellgliedern. Der Benutzer steuert die simulierte Bewegung einer Spielfigur, wie eine Animationsfigur an einem Computerschirm, durch Kippung des Joysticks in der Richtung, in der der Benutzer wünscht, dass die Figur sich verlagert. Auf gleiche Weise steuert ein Benutzer den simulierten Flug eines Flugzeugs durch Kippung des Joysticks entsprechend der Bewegung von Steuerelementen in einem echten Flugzeug. Der Joystick wird auch allgemein benutzt als Eingabevorrichtung für eine ferngesteuerte Anlage, wie Modellflugzeuge, Fabrikfahrstühle und dergleichen. Da der Bereich von Robotern sich immer weiter ausdehnt, werden immer mehr Anordnungen und Anlagen ferngesteuert werden, vorwiegend über eine Computerschnittstelle zwischen dem Benutzer und der zu steuernden Anordnung.
  • Eine andere übliche Computerschnittstelle ist eine Maus. Obschon eine Maus zur Interaktion mit Computerapplikationen, wie Textverarbeitern und Kalkulationsbögen, bequem ist, ist ihre Verwendung als Schnittstellenanordnung für Spiele, Simulationen und Fernsteuerungen etwas begrenzt. Auf herkömmliche Art und Weise wird die Maus zum selektieren aus einem Menü von Möglichkeiten zur Steuerung der Anordnung verwendet. So kann beispielsweise der Benutzer auf eine Animation einer an einem Schirm wiedergegebenen Steuerung zeigen und an verschiedenen Stellen auf der Steuerung klicken um verschiedene Bewegungen zu effektuieren. In einem Spiel oder einer Simulation kann der Benutzer auf eine animierte Figur klicken und die Figur an eine neue Stelle schleifen, aber eine derartige sofortige Verlagerung kann mit einer Wahrnehmung einer lebensechten Bewegung, die von den meisten Spielen und Simulationen angestrebt wird, unvereinbar sein. Berührungsfelder und Richtungspfeile in einem Tastenfeld werden auch oft verwendet, mit ähnlichen Schnittstellencharakteristiken wie eine Maus.
  • Die Europäische Patentanmeldung EP-A-0 467 720 beschreibt ein System zur Steuerung eines Mauscursors. Wenn eine Taste der Maus geklickt wird, während die Maus sich in einer bestimmten Richtung verlagert, wird der Cursor sofort in eine Position gebracht, assoziiert mit der betreffenden Richtung. Die Europäische Patentanmeldung EP-A-0 809 214 beschreibt ein Bilderzeugungssystem für ein Schießspiel. Das System selektiert automatisch ein Ziel aus einer Anzahl sich verlagernder Objekte. Ein Gesichtspunkt wird ständig angepasst, und zwar entsprechend dem selektierten Ziel und in Abhängigkeit von dem Abstand zwischen Gesichtspunkt und Ziel. Der Artikel: "Animating multiple figure using a language interpreter" von A. Cavusoglu und A.L. Thomas beschreibt ein Verfahren zum Animieren von Bewegungen vieler Objekte. In dem genannten Artikel beschreibt der Animator eine Start- und Ziellage für sich verlagernde Figuren und die erforderlichen Bewegungen werden von dem System erzeugt.
  • Die Benutzerschnittstelle mit einem Computerspiel oder einer Simulation ist insbesondere problematisch in Bezug auf die Steuerung von Figuren und Objekten, die unabhängig voneinander bewegt werden können. Traditionell wird mit der Benutzerschnittstellensteuerung ein einziger Bewegungsvektor assoziiert. Der Benutzer steuert beispielsweise einen simulierten Tischtennisschläger und die Bewegung des simulierten Tischtennisballs wird unmittelbar durch die Bewegung oder Position des Tischtennisschlägers gesteuert. Auf gleiche Weise steuert ein Benutzer die Bewegung eines simulierten Flugzeugs und steuert die Strecke eines simulierten Projektils von dem Flugzeug durch eine geeignete Orientierung des simulierten Flugzeugs, wonach die Entladung dieses Projektils in dieser Orientierung ausgelöst wird. Einige heutige Spiele oder Ereignisse aber stimmen nicht mit diesem simulierten Paradigma überein. Ein Fußballspieler schießt den Fußball nicht unbedingt in derselben Richtung, in der er läuft. Ein Pilot kann ein Fernlenkgeschoß in einer Richtung abfeuern, die anders ist als die Richtung, in der das Flugzeug fliegt. Computerspiele und Simulationen müssen die unabhängige Bewegungssteuerung von Figuren und Objekten unterstützen, wenn sie eine Darstellung übermitteln sollen, die lebensecht ist. In einem herkömmlichen Computerspiel oder in einer derartigen Simulation wird eine unabhängige Bewegungssteuerung über einen Kontextschalter effektuiert. So sind beispielsweise Doppelsteuerungen vorgesehen, entweder als zwei einzelne Joysticks, oder als zwei einzelne Steuerglieder, dargestellt am Computerschirm. Einer der Joysticks oder der Steuerglieder wird zur Steuerung beispielsweise der Bewegung des Fußballspielers verwendet, während der andere zur Steuerung der Weiterreichung des Balles verwendet wird. Wenn nur ein einziger Joystick oder ein einziges Steuerglied verfügbar ist, effektuiert der Benutzer die unabhängige Steuerung über einen anderen Schalter, der die Interpretation der empfangenen Eingabe über den einzigen Joystick oder das einzige Steuerglied steuert. Dieser explizite Kontextschalter oder der Schalter in einem zweiten Gebiet am Schirm kann eine unangenehme Ablenkung sein, welche die beabsichtigte Simulation oder das lebensechte Verhalten stört.
  • Kurze Zusammenfassung der Erfindung
  • Es ist daher u. a. eine Aufgabe der vorliegenden Erfindung, eine Benutzerschnittstelle zu schaffen, die sich auf einfache Weise verwenden lässt und eine lebensechte Bewegung animierter Figuren und Objekte ermöglicht. Es weiterhin eine Aufgabe der vorliegenden Erfindung eine Benutzerschnittstelle zu schaffen, die eine unabhängige Steuerung der Bewegung mehrerer Figuren und Objekte ermöglicht, ohne dass dazu ein bestimmter Kontextschalter erforderlich ist.
  • Diese Aufgaben und andere werden dadurch erfüllt, dass man beachtet, dass in vielen Situationen die Identifikation eines wirklichen Ziels ebenso signifikant ist wie die direkte Steuerung der Bewegung eines Objektes zu diesem Ziel. Das heißt, dass beispielsweise in einigen Spielen die Herausforderung in der Steuerung einer Waffe zum Treffen eines Ziels liegt, während bei anderen Spielen die Herausforderung in der effektiven Wahl von Zielen liegt. In einem Fußballszenario kann ein Spiel die Fähigkeit des Spielers herausfordern, einen Lauf durch ein Gewirr von Blockierern zu manövrieren, während ein anderes Spiel die Fähigkeit des Benutzers herausfordern kann, zu wählen, wann weiter zu leiten, und wen mit dem Zuspiel zu erreichen. In vielen lebensechten Szenarien wählt der Spieler bewusst ein Ziel, und Instinkte und Training effektuieren ein Mittel zum Erreichen des Ziels. Das heißt, das vordere Ende einer Fußballmannschaft weiß, wo er sein soll auf dem Höhepunkt jedes Spiels. Die meiste Bewegung des vorderen Endes in Richtung des bestimmten Ziels ist der Effekt einer relativ unbewussten Denkweise, wenn er plötzlich um die Gegner herumgeht. Bewusste Denkweisen kommen ins Spiel, falls und wenn eine Situation auftritt, die verursacht, dass der Spieler das Ziel ändert.
  • Nach der vorliegenden Erfindung steuert der Benutzer das Spiel oder die Simulation durch Identifizierung des Ziels der Bewegung eines Objektes, statt einer direk ten Steuerung dieser Verlagerung. Das gesteuerte Objekt arbeitet virtuell autonom in der Bewegung in Richtung des bestreffenden Ziels. Um Realismus zu gewähren stimmt das gesteuerte Objekt mit den Regeln der Bewegung überein, wie Trägheitseffekte, sowie Bindung mit anderen Objekten, wie Abwendung, Zusammenstoß und dergleichen. Je nachdem sich das simulierte Spiel entwickelt, kann der Benutzer das Ziel einstellen, wobei die Entscheidungsprozesse emuliert werden, die während des wirklichen Spiels auftreten. Durch Identifikation des Ziels statt der wirklichen Bewegung des gesteuerten Objekts ist die Benutzerschnittstelle inhärent mehr geeignet für Interaktion über eine Maus oder ein Berührungsfeld. So benutzt beispielsweise bei einer Wiedergabe eines Fußballplatzes der Benutzer eine Maus um auf die Zielstelle eines gesteuerten vorderen Endes zu zeigen. Nach dem Anklicken dieser Stelle geht das simulierte vordere Ende in Richtung dieser Stelle, und zwar auf eine im Wesentlichen autonome Art und Weise.
  • Nach einem anderen Aspekt der vorliegenden Erfindung steuert der Benutzer die Bewegung unabhängiger Objekte durch Identifikation des Ziels jedes Objektes, und zwar auf unabhängige Art und Weise. In dem Fußballszenario steuert der Benutzer die Bewegung des Fußballs dadurch, dass er auf eine Zielstelle des Fußballs zeigt. Wenn der Benutzer einen Schalter aktiviert, wie eine Maustaste oder ein Auslöser, an der Zielstelle, wird der simulierte Fußballspieler, der den Fußball trägt, den Ball in Richtung der Zielstelle werfen. Der simulierte Fußball geht in Richtung der Zielstelle, den Regeln der Bewegung, der Aerodynamik, der Bindung du dergleichen ausgesetzt. Es sei bemerkt, dass die Selektion der Zielstelle für den Fußball unabhängig ist von der Selektion einer Zielstelle für den Fußballträger. Jede Taste oder jeder Schalter auf der Eingabeanordnung ist mit einem gesteuerten Objekt assoziiert. Das Anklicken beispielsweise der linken Taste auf einer Maus identifiziert die Zielstelle des Trägers, und das Anklicken der rechten Taste der Maus identifiziert die Zielstelle des Fußballs.
  • In einer alternativen Ausführungsform der vorliegenden Erfindung wird die zielgerichtete Benutzerschnittstelle verwendet zur Steuerung physikalischer Objekte, wie semiautonomer Roboter in einer Fabrikumgebung. In einer anderen Ausführungsform ist der Benutzer mit der physikalischen Umgebung interaktiv, statt mit einem Computerschirm, um die Ziele für derartige physikalische Objekte zu identifizieren.
  • Kurze Beschreibung der Zeichnung
  • Ausführungsbeispiele der vorliegenden Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 ein Beispiel einer Benutzerschnittstelle zur Steuerung der Bewegung eines Objektes nach der vorliegenden Erfindung,
  • 2 ein Beispiel einer Bewegungsverarbeitung eines ballistischen Objektes nach der vorliegenden Erfindung,
  • 3 ein Beispiel von Bewegungsverarbeitung eines selbstfahrenden Objektes nach der vorliegenden Erfindung,
  • 4 die unabhängige Steuerung zweier bewegender Objekte, über die Identifikation zweier Zielstellen, nach der vorliegenden Erfindung,
  • 5 ein Beispiel eines Blockschaltbildes eines Controllers zum Effektuieren der Bewegung von Objekten nach der vorliegenden Erfindung,
  • 6 ein Beispiel eines Flussdiagramms zum Effektuieren der Bewegung von Objekten nach der vorliegenden Erfindung.
  • Detaillierte Beschreibung der Erfindung
  • 1 zeigt ein Beispiel einer Benutzerschnittstelle nach der vorliegenden Erfindung. Die Schnittstelle umfasst eine Eingabeanordnung 190, die mit einem Bild 110 an einem Schirm 100 über einen Controller 180 gekoppelt ist. Das Bild 110 stellt ein Gebiet innerhalb eines Koordinatenraums dar. In 1 dargestellt sind zwei Objekte in dem Koordinatenraum, Objekt1 131 stellt einen Fußball dar und Objekt2 132 stellt einen Träger des Fußballs dar. Wie im Bereich der Computersimulation üblich, wird das Bild 110 entsprechend relativ konstanter Zeiterhöhungen aktualisiert. Bei jeder Zeiterhöhung wird die Stelle jedes Objektes 131 und 132 zunehmend eingestellt, und zwar entsprechend dem Abstand, den ein physikalisches Element, wie ein wirklicher Fußballspieler, der durch 132 dargestellt wird, in dieser Zeiterhöhung zurücklegen würde.
  • Nach der vorliegenden Erfindung benutzt ein (nicht dargestellter) Fußballspieler zum Werfen des Fußballs 131 (es handelt sich hier um "American football") die Eingabeanordnung 190 um eine Zielstelle 120 innerhalb des Koordinatenraums zu identifizieren, zu der der Fußball 131 geworfen werden soll. Auf Basis der Stelle des Fußballs 131 und der Zielstelle 120 bestimmt der Controller 180 eine Zielrichtung 125 für eine nachfol gende Bewegung des Fußballs 131. Bei jeder nachfolgenden Erhöhung der Zeit wird der Fußball 131 in der Zielrichtung 125 verlagert. Wenn der Fußballträger 132 eine Anfangsbewegungsrichtung 150 hatte, fährt der Controller 180 damit fort, zunehmend den Fußballträger 132 in dieser Anfangsrichtung 150 zu bewegen. Der Fußball 131 wird die Bewegung in Richtung der Zielstelle 120 fortsetzen, und zwar ohne weitere direkte Steuerung durch den Benutzer.
  • In einer bevorzugten Ausführungsform wird der Controller Bewegungsregeln beachten für den Fußball 131, wie dieser den Weg zu der Zielstelle 120 zurücklegt, und zwar auf Basis eines Modells oder einer Serie von Modellen, wie ein echter Fußball "fliegen" würde. So wird beispielsweise die Elevation des Fußballs einer parabelförmigen Strecke folgen, die Fluggeschwindigkeit wird ständig abnehmen, je nachdem der Fußball durch die Luft fliegt, und die Geschwindigkeit und der Weg des Fußballs wird sich abrupt ändern, wenn der Fußball auf ein Hindernis trifft, wie auf einen Gegenspieler, oder auf den Boden, wenn die Elevation auf Null abnimmt. Die Regeln der Bewegung können auch von Kennzeichen des Trägers 132 abhängig sein. Der Träger 132 kann auf einem Modell eines wirklichen Fußballspielers basiert sein, so dass die Anfangsgeschwindigkeit des Fußballs und die Flugbahn auf Mustern der der vorhergehenden Leistungen des wirklichen Fußballspielers basiert sind. Auf gleiche Weise können die Geschwindigkeit und die Genauigkeit der Flugbahn eine Funktion des Zustandes des Trägers 132 zu dem Zeitpunkt sein, wo der Fußball 131 geworfen wird. So lässt sich erwarten, dass beispielsweise die Geschwindigkeit und die Genauigkeit größer sein wird, wenn der Träger 132 still steht, wenn der Fußball 131 geworfen wird. Auf gleiche Weise lässt es sich erwarten, dass die Genauigkeit kleiner ist, wenn der Träger 132 von anstürmenden Gegnern umgeben ist. In einer bevorzugten Ausführungsform ist der Controller 180 derart programmiert, dass er diese und andere Regeln effektuiert, sowie beliebige Faktoren, um eine realistische Simulation und Darstellung des Spiels am Schirm zu ermöglichen.
  • In einer bevorzugten Ausführungsform werden die Regeln der Bewegung von dem bewegten Objekt abhängig sein. 2 zeigt die Bewegungsverarbeitung eines ballistischen Objektes, wie eines Fußballs 131, und 3 zeigt die Bewegungsverarbeitung eines "selbstfahrenden" Objektes, wie eines Fußballträgers 132. In 2 ist die Zielstelle 121 die beabsichtigte Zielstelle für den Fußball 131: in 3 ist die Zielstelle 122 die beabsichtigte Zielstelle für den Fußballträger 132. Das heißt, 2 stellt ein Passspiel "pas sing play" dar und 3 stellt ein Laufspiel "running play" dar. In 2 und 3 ist ein Hindernis 160 dargestellt, das sich in der Zielrichtung 125 von der Stelle des Objekts 131, 132 und der Zielstelle 121, 122 befindet. Bei jeder Erhöhung in der Zeit verlagert der Controller 180 das Objekt 131, 132 in der Zielrichtung 125, wobei der Abstand zwischen dem Objekt 131, 132 und dem Hindernis 160 abnimmt. Während dieser Zeiterhöhungen können das Hindernis 160 und andere Hindernisse und Spieler auch vom Controller 180 verlagert werden.
  • In 2 wird zu einem bestimmten Zeitpunkt das Fußballobjekt 131 auf das Hindernis 160 auftreffen und die Geschwindigkeit und der Weg wird sich abrupt ändern. In 2 ist eine Ablenkung des Fußballs 131' in einer anderen Objektrichtung 141 dargestellt, verursacht durch den Zusammenstoß des Fußballs 131 mit dem Hindernis 160. Auf alternative Weise könnte der Controller 180 ein Abfangen des Fußballs 131 durch das Hindernis 160 effektuieren, so dass die nachfolgende Bewegung des Fußballs 131 mit der nachfolgenden Bewegung des Hindernisses 160 zusammenfallen würde.
  • In 3 wird zu demselben Zeitpunkt das Fußballträgerobjekt 132 dem Hindernis 160 nähern. Dann wird unter Ansteuerung der Regeln der Bewegung, die mit dem Fußballträgerobjekt 132 assoziiert sind, das Fußballträgerobjekt 132 versuchen, das Hindernis 160 zu vermeiden. Wie beispielsweise in 3 dargestellt, kann der Controller 180 derart programmiert sein, dass er eine Scheinbewegung effektuiert, wobei der Träger 132 leicht in einer Richtung 325 bewegt um das Hindernis 160 in dieser Richtung zu ziehen, um danach in einer entgegen gesetzten Richtung 326 fortzufahren, bis es klar ist, wieder zu der Zielrichtung zu gehen, in einer neuen Zielrichtung 142. Es sei bemerkt, dass dadurch, dass dadurch, dass Regeln der Bewegung gegeben werden, die Aktionen umfassen, die für Objekte eines besonderen Typs üblich sind, wie die intuitiven Aktionen eines Fußballträgers, der Controller 180 eine realistische Darstellung eines Spiels effektuieren kann, ohne die Unterbrechungen, die typischerweise zugezogen werden, dass der Benutzer vorgesetzt derartige intuitive Aktionen oder autonome Reaktionen effektuiert. In einer bevorzugten Ausführungsform wird dem Benutzer auch die Möglichkeit geboten, gewünschtenfalls die automatische Bewegung selbst bewegender Objekte zu aufzuheben.
  • Wie es dem Fachmann einleuchten dürfte, kann der Controller 19=80 oder ein anderer Controller ein Spiel für mehrere Spieler effektuieren, indem gestatt wird, dass verschiedene Benutzer verschiedene Objekte steuern. So kann beispielsweise das Hindernis 160 ein Spieler sein, der von einem Gegenbenutzer gesteuert wird. Um eine Eins-zu-Eins-Abwehr zu simulieren könnte der Controller 180 dem Gegenbenutzer gestatten eine dynamische Zielstelle zu spezifizieren, wie die dynamische Stelle des Fußballträgers 132. Die Zielstelle ist mit einem bewegbaren Zielobjekt assoziiert, so dass die Zielstelle jeweils aktualisiert wird, wenn die Stelle des Zielobjektes sich ändert. In diesem Beispiel würde das Hindernis 160, das ein Zielobjekt des Fußballträgers 132 hat, ständig in einer Richtung zu dem Fußballträger 132 hin verlagert, sogar wenn der Träger 132 sich verlagert, wobei die Aktionen, beispielsweise eines Gegenangriffs in einem wirklichen Fußballspiel, simuliert werden.
  • 4 zeigt die unabhängige Steuerung zweier bewegender Objekte 131, 132 über die Identifikation zweier Zielstellen 121, 122. Zunächst befindet sich das Objekt 132, das einen Fußballträger darstellt, an der Stelle 132a. Der Benutzer selektiert über die Eingabeanordnung 190 eine Stelle 122 innerhalb des Koordinatensystems des Bildes 110 und assoziiert diese Zielstelle 122 mit dem Objekt 132. Die Identifikation der Zielstelle 122 erfolgt über einen Zeiger 401, der mittels der Eingabeanordnung 190, wie einer Maus, eines Berührungsfeldes, eines Joysticks usw. gesteuert wird, und die Assoziation der Zielstelle mit einem bestimmten Objekt erfolgt über Schalter S1, S2 an der Eingabeanordnung 190. Es sei bemerkt, dass das Bild 110 am Schirm 100 vorwiegend als Bezugsfläche vorgesehen ist zum Identifizieren von Stellen in einem Koordinatenraum. Es dürfte dem Fachmann einleuchten, dass andere Mittel zum identifizieren einer Stelle in einem Koordinatenraum allgemein verfügbar sind. So kann beispielsweise der Koordinatenraum an einer "digitalen weißen Tafel" präsentiert werden und der Benutzer kann Zielstellen über einen mit der Tafel gekoppelten Laserzeiger identifizieren. Der Benutzer kann sich in einer virtuellen Wirklichkeitsumgebung befinden, mit einer Ausrüstung, welche die Bewegungen und Gebärdendes Benutzers fühlt. In dieser Umgebung braucht der Benutzer nur auf eine Zielstelle zu zeigen um die Identifikation zu effektuieren. Kombinationen derartiger Eingabeszenarien sind im Rahmen der vorliegenden Erfindung durchaus möglich. So kann beispielsweise der Benutzer sich in einer echten Umgebung befinden und er kann einen Zeiger benutzen, der mit dem Controller gekoppelt ist um auf echte Stellen in der echten Umgebung zu zeigen um Zielstellen zu identifizieren. Auf gleiche Weise können die Schalter an der Eingabeanordnung verwendet werden zum Steuern von Items anders als den zu bewegenden Objekten, wie simulierten Umgebungsbedingungen, oder wirklichen Umständen, wie Beleuch tung. In allgemeinen Termen: zusätzliche Schalter können zur Steuerung des Zustandes des Controllers 180 verwendet erden.
  • In der Darstellung nach 4 assoziiert der Benutzer die Zielstelle 122 mit dem betreffenden Objekt 132, indem ein bestimmter Schalter S2 192 an der Eingabeanordnung 190 geschlossen wird, wenn der Zeiger 401 sich an der gewünschten Zielstelle 122 befindet. Der Controller 180 bewegt danach das Objekt 132 in Richtung der Zielstelle 122, wie oben beschrieben. Weil das Objekt 131, der Fußball, dem Objekt 132, dem Fußballträger, zugeordnet ist, und zwar bis der Ball geworfen wird, wird das Fußballobjekt 131 zusammen mit dem Fußballträgerobjekt 132 bewegt.
  • Zu einem späteren Zeitpunkt, wenn die Objekte 132, 131 sich an der Stelle 132b, 131a befinden, selektiert der Benutzer eine Zielstelle 121 für das Fußballobjekt 131, wobei ein Wurf des Fußballs 131 durch den träger 132 simuliert wird. Die Zielstelle 121 ist durch Schließung des Schalters S1 191 durch den Benutzer mit dem Fußballobjekt 131 assoziiert, wenn der Zeiger 401' sich an der Zielstelle 121 befindet. Danach setzt das Objekt 132 seine "Reise" in der Anfangszielrichtung 332 zu der Zielstelle 122 fort, wie durch die Stelle 132c dargestellt, während das Objekt 131 in einer Zielrichtung 331 zu der Zielstelle 121 "reist", wie durch die Stelle 131b dargestellt. Es dürfte dem Fachmann einleuchten, dass zusätzliche Objekte mit Hilfe zusätzlicher Schalter oder durch Assoziation von Kombinationen von Schalterschließungen mit bestimmten Objekten gesteuert werden können.
  • 5 zeigt ein Beispiel eines Blockschaltbildes des Controllers 180. Der Eingangsprozessor 510 empfängt Eingangsparameter von der Eingabeanordnung 190. Üblicherweise korreliert der Eingangsprozessor 510 Bewegungen der Eingabeanordnung mit Bewegungen eines Zeigers am Schirm um die Koordinaten des Zeigers gegenüber dem Bildkoordinatenraum zu schaffen. Der Eingangsprozessor 510 identifiziert auch Eingabeereignisse, die Schalterschließungen umfassen können, und assoziiert die Koordinaten des Zeigers mit der Zeit des Eingangsereignisses. Die Eingangsereignisse 511 werden dem Zielkoordinatenbestimmungselement 520 zugeführt. Dieses Zielkoordinatenbestimmungselement 520 reagiert auf Schalterschließungsereignisse. Wenn eine Schalterschließung auftritt, ordnet das Zielkoordinatenbestimmungselement 520 dem Objekt, das mit dem Schalter assoziiert ist, der geschlossen wurde, eine neue Zielstelle zu, entsprechend der Zeigerstelle zu dem Zeitpunkt, wo der Schalter geschlossen wurde. Das Zielkoordinatenbestimmungselement 520 identifiziert ständig Modifikationen in anderen Objektzielstellen, beispielswei se für alle Objekte, die unmittelbar von dem Controller 180 gesteuert werden, wie Gegner gegenüber dem Computerspiel, oder Zielstellen, die mit bewegenden Zielobjekten assoziiert sind. Der Objektidentifizierer und die Zielstelle 521 werden dem Hindernisdetektor und dem Richtungsbestimmungselement 530 mitgeteilt. Mit dem Hindernisdetektor und dem Richtungsbestimmungselement 530 ist auch ein Zeiterhöhungsgenerator 560 verbunden, der Zeitereignisse 561 erzeugt.
  • Bei jeder Zeiterhöhung ermittelt der Hindernisdetektor und das Richtungsbestimmungselement 530 die beabsichtigte Richtung jedes Objektes, und zwar auf Basis der mit jedem Objekt und jeder aktuellen Stelle des Objektes assoziierten Zielstelle, und bestimmt, ob es überhaupt Hindernisse in der Nähe der Strecke zwischen jedem Objekt und der entsprechenden Zielstelle gibt. Je nach dem Typ des Objektes werden der Hindernisdetektor und das Richtungsbestimmungselement die nachfolgende Richtung ermitteln, in der das Objekt verlagert werden soll. Wenn beispielsweise das Objekt ballistisch ist, ist Vermeidung unmöglich; das Objekt fliegt in der aktuellen Richtung bis es mit dem Hindernis zusammentrifft. Beim Zusammenstoß ermitteln der Hindernisdetektor und das Richtungsbestimmungselement 530 eine resultierende neue Richtung auf Basis der oben genannten Regeln der Bewegung und des mit den zusammenstoßenden Objekte assoziierten Zusammenstoßes. Wenn das Objekt selbst fahrend ist, wendet der Hindernisdetektor und das Richtungsbestimmungselement 530 die Regeln der Bewegung und des mit dem Objekt assoziierten Zusammenstoßes an um die betreffenden Änderungen, wenn überhaupt, der Bewegungsrichtung des Objektes zu ermitteln. Zur Konsistenz wendet der Hindernisdetektor und das Richtungsbestimmungselement 530 andere Regeln an, die eine Richtung des Objektes beeinflussen können, wie die Einführung von beliebigen Faktoren, aerodynamischen Effekten und dergleichen. Wenn beispielsweise das Objekt ein Geschoß ist, das von einem bewegenden Fahrzeug abgeschossen wird, wird der Hindernisdetektor und das Richtungsbestimmungsmittel 530 eine Vektorsumme des Vorstoßes und der Anfangsgeschwindigkeit des Geschoßes berechnen um eine mehr realistische Strecke für das Geschoß in Richtung der Zielstelle zu ermitteln. Auf Basis des Auftritts von Hindernissen und der geeigneten Bewegungsregeln übermittelt der Hindernisdetektor und das Richtungsbestimmungselement 530 eine Geschwindigkeit 531, die mit jedem Objekt assoziiert ist, zu dem Objektbeweger 540. Die Geschwindigkeit 531 umfasst eine Größe und eine Richtung der Bewegung für das assoziierte Objekt.
  • Der Objektbeweger 540 modifiziert die Stelle 541 jedes Objektes in Abhängigkeit von der Geschwindigkeit 531, die zur Zeit mit jedem Objekt assoziiert ist. Jede Objektstelle 541 wird dem Wiedergabegenerator 550 mitgeteilt, der das Bild 110 zur Wiedergabe am Schirm 100 abbildet. Bei der nächsten Zeiterhöhung triggert der Zeiterhöhungsgenerator 560 ein Zeitereignis 561, das dafür sorgt, dass der Hindernisdetektor und das Richtungsbestimmungselement 530 die Geschwindigkeit jedes Objektes aktualisiert. Auf Basis der neuen Geschwindigkeiten 531 stellt der Objektbeweger 540 die Objektstellen ein und mit Hilfe des Wiedergabegenerators 550 wird ein neues Bild 110 erzeugt.
  • Es können eine Anzahl Optimierungen in der oben genannten Verarbeitung durchgeführt werden. So kann beispielsweise der Objektbeweger 540 nur Stellen 541 von Objekten mitteilen, die seit des jüngsten Zeitereignisses sich verlagert haben, und der Wiedergabegenerator braucht nur das Bild in der Nähe jedes verlagerten Objektes zu aktualisieren. Auf gleiche Weise braucht das Zielkoordinatenbestimmungselement 520 nur diejenigen Zielstellen 521 mitzuteilen, die sich geändert haben. Es kann eine Abhängigkeitsstruktur definiert werden, die bestimmte Ereignisse mit bestimmten Objekten assoziiert, wie dass nur diejenigen Objekte, die von dem bestimmten Ereignis abhängig sind, verarbeitet werden. So kann beispielsweise die Geschwindigkeit eines Objektes als konstant definiert werden, bis das Objekt auf das Hindernis trifft. Der Hindernisdetektor und das Richtungsbestimmungselement 530 wird die Geschwindigkeit des Objektes 531 nicht abermals berechnen, bis ein derartiges Zusammenstoßereignis auftritt. Diese und andere Simulationsoptimierungstechniken sind dem Fachmann geläufig.
  • 6 zeigt ein Beispiel eines Flussdiagramms zum Effektuieren der Bewegung von Objekten nach der vorliegenden Erfindung. Bei jeder Zeiterhöhung wird ein erneuertes Bild wiedergegeben, bei 610, und es wird ein neues Bild entsprechend der Bewegung von Objekten innerhalb des Bildkoordinatenraums erzeugt, über die Schleife 620650. Der Deutlichkeit halber ist jedes bewegliche Objekt in dem Bild dargestellt als druch die Schleife 620650 verarbeitet, obschon die oben genannten Optimierungstechniken eine Umleitung eines oder mehrerer Blöcke effektuieren kann, wenn das Ausgangssignal des Blocks als nicht beeinflusst bekannt ist.
  • Bei 620 werden alle Änderungen der Zielstelle des Objektes ermittelt. Wie oben erwähnt, kann die Zielstelle eines Objektes durch die Wahl des Benutzers, oder durch einen internen Prozess geändert werden. In dem Fall des Beispiels der oben genannten Eins-zu-Eins-Verteidigung kann die Zielstelle eines Objektes zu jeder Zeit, wo die Stelle eines anderen Objektes sich ändert, geändert werden. Bei 630 wird die Richtung von der Stelle des Objektes zu der Zielstelle ermittelt. Dies ist die gewünschte Bewegungsrichtung für das Objekt, aber es kann nicht eine erzielbare oder realistische Richtung sein, und zwar wegen Hindernisse, Bewegungsregeln und dergleichen. Bei 640 wird die wirkliche Bewegungsrichtung für das Objekt ermittelt. Wie oben beschrieben und beispielsweise durch die Blöcke 642, 644, 646, 648 dargestellt, wird die Größe und die Bewegungsrichtung für das Objekt von einer Anzahl Faktoren abhängig sein, wobei jeder der Faktoren ermittelt wird zum Effektuieren eines Gefühls für Wirklichkeit für die Bewegung des Objektes. Bei 650 wird das Objekt zunehmend bewegt, und zwar auf Basis der Geschwindigkeitsermittlung bei 640. Der Betrag der Bewegung wird durch Berechnung des Abstandes, der mit der bestimmten Geschwindigkeit während der Zeiterhöhung zwischen wiedergegebenen Bildern zurückgelegt wurde, ermittelt. Nachdem alle Objekte über die Schleife 620650 bewegt worden sind, wird das neue Bild bei der nächsten Zeiterhöhung, bei 610, wiedergegeben und der Prozess 610650 wird wiederholt.
  • Obenstehendes illustriert vorwiegend die Grundlagen der vorliegenden Erfindung. Es dürfte folglich einleuchten, dass der Fachmann imstande sein wird, mehrere Anordnungen zu entwickeln, die, obschon an dieser Stelle nicht explizit beschrieben oder dargestellt, die Grundlagen der vorliegenden Erfindung verkörpern. So ist beispielsweise die vorliegende Erfindung innerhalb des Kontextes eines Computerspiels präsentiert. Es dürfte aber dem Fachmann einleuchten, dass diese zielgerichtete Benutzerschnittstelle auf jede beliebige Anzahl Applikationen in Bezug auf die Bewegung von Objekten, simuliert und wirklich, angewandt werden kann. Die Steuerung von Robotern in einer Fabrik oder in einem Bürokomplex könnte dadurch effektuiert werden, dass auf das beabsichtigte Ziel jedes Roboters gezeigt wird, stattdessen, dass die spezifischen Bewegungen jedes Roboters gesteuert werden. Der Controller in diesem Beispiel würde Bewegungsregeln und Hindernisvermeidung anwenden um die wirkliche Steuerung jedes Roboters zu effektuieren um die Zielstelle zu erreichen. Auch ist die vorliegende Erfindung im Kontext von primär geradlinigen Strecken zwischen dem Objekt und der Zielstelle präsentiert. Es dürfte dem Fachmann einleuchten, dass Streckenerzeugungsalgorithmen, wie Gewirrlaufalgorithmen, zum Ermitteln der zunehmenden Geschwindigkeiten und Bewegungen von Objekten in einer mehr komplizierten Umgebung, benutzt werden können.

Claims (13)

  1. Computerschnitstelle, die Folgendes umfasst: – Eine Eingangsanordnung (190) zum Selektieren einer Zielstelle (120) innerhalb eines Koordinatenraumes, wobei die Eingangsanordnung (190) eine Anzahl Schalter (S1, S2) aufweist, wobei ein erster Schalter (S1) der Anzahl Schalter (S1, S2) oder eine erste Kombination von Schaltern der Anzahl Schalter (S1, S2) mit einem ersten Objekt (131) assoziiert ist, wobei ein zweiter Schalter (S2) der Anzahl Schalter (S1, S2) oder eine zweite Kombination von Schaltern der Anzahl Schalter (S1, S2) mit einem zweiten Objekt (132) assoziiert ist, und – einen Controller (180), der mit der Eingangsanordnung (190) wirksam gekoppelt ist, und der beim Schließen des ersten Schalters oder der ersten Kombination von Schaltern dem ersten Objekt eine erste Zielstelle zuordnet, in Übereinstimmung mit der Zeigerstelle zu dem Zeitpunkt, wo der genannte erste Schalter oder die genannte erste Kombination von Schaltern geschlossen wurde, und eine Verlagerung des ersten Objektes (131) in einer ersten Zielrichtung 125) zu der ersten Zielstelle (120) hin effektuiert, und der beim Schließen des zweiten Schalters (S2) oder der zweiten Kombination von Schaltern dem zweiten Objekt eine zweite Zielstelle zuordnet, in Übereinstimmung mit der Zeigerstelle zu dem Zeitpunkt, zu dem der genannte zweite Schalter oder die genannte zweite Kombination von Schaltern geschlossen wurde, und der eine Verlagerung des zweiten Objektes (132) in einer zweiten Zielrichtung zu der zweiten Zielstelle hin effektuiert.
  2. Computerschnittstelle nach Anspruch 1, wobei das erste Objekt (131) eine Anfangsverlagerung in einer Anfangsrichtung (150) hat, die wesentlich anders ist als die erste Zielrichtung (125).
  3. Computerschnittstelle nach Anspruch 1, wobei der Controller (180) Folgendes umfasst: – einen Hindernisdetektor (530), der Hindernisse (160) zwischen einer Stelle des ersten Objektes (131) und der ersten Zielstelle (121) detektiert, – ein Richtungsbestimmungselement (530), das eine Objektrichtung (141) ermittelt, und zwar in Abhängigkeit von der ersten Zielrichtung (125) und in Abhängigkeit von den Hindernissen (160) zwischen der Stelle des ersten Objekts (131) und der ersten Zielstelle (121) und – ein Objektverlagerungselement (540), das zunehmend die Stelle des ersten Objektes (131') in Abhängigkeit von der Objektrichtung (141) einstellt.
  4. Computerschnittstelle nach Anspruch 1, die weiterhin Folgendes umfasst: – einen Schirm (100), der ein Bild (110) entsprechend dem Koordinatenraum wiedergibt, wobei der Controller (180) die Verlagerung des ersten Objektes (131) effektuiert, und zwar entsprechend Verlagerungsregeln, die mit dem ersten Objekt (131) assoziiert sind und eine realistische Wiedergabe des Bildes (110) am Schirm (100) ermöglichen.
  5. Computerschnittstelle nach Anspruch 4, wobei – der Controller (180) die Verlagerung des zweiten Objekts (132) effektuiert, und zwar entsprechend Verlagerungsregeln, die mit dem zweiten Objekt (132) assoziiert sind und eine realistische Wiedergabe des Bildes (110) am Schirm 100 ermöglichen.
  6. Computerschnittstelle nach Anspruch 1, wobei – die Eingangsanordnung (190) weiterhin wenigstens einen weiteren Schalter aufweist, wobei der weitere Schalter mit einem Zustand des Controllers (180) assoziiert ist.
  7. Computerschnittstelle nach Anspruch 1, wobei – die Zielstelle (121) mit einem weiteren Objekt assoziiert ist, die eine änderbare Stelle hat, und – der Controller (180) die erste Zielstelle (121) ändert, und zwar in Abhängigkeit von der änderbaren Stelle des weiteren Objektes.
  8. Computerprogramm (180), das auf einem vom Computer auslesbaren Medium gespeichert ist, zur Steuerung der Verlagerung einer Anzahl Objekte (131, 132), wobei jedes Objekt der Anzahl Objekte eine betreffende Objektstelle innerhalb eines Koordinatenraums hat, wobei das Computerprogramm (180) Folgendes umfasst: – Mittel (510) zum Identifizieren von Koordinaten eines Zeigers (401, 401') innerhalb des Koordinatensystems, wobei der genannte Zeiger von einer Eingangsanordnung (190) gesteuert wird, – Mittel (510) zum Detektieren des Schließens eines Schalters einer Anzahl Eingangsschalter (S1, S2), vorgesehen in der Eingangsanordnung, wobei jeder Schalter der Anzahl Eingangsschalter mit einem betreffenden Objekt der Anzahl Objekte assoziiert ist, – ein Zielkoordinatenbestimmungselement (520, 620), das eine Zielstelle (121, 122) für ein Objekt der Anzahl Objekte bestimmt, und zwar in Abhängigkeit von den Koordinaten des Zeigers (401, 401'), wenn das Schließen des Schalters, der mit dem Objekt assoziiert ist, detektiert wird, – ein Objektverlagerungselement (540, 560), das die Objektstelle des Objektes einstellt, das mit dem geschlossenen Schalter assoziiert ist, in einer Zielrichtung zu der Zielstelle (121, 122) hin einstellt.
  9. Computerprogramm (180) nach Anspruch 8, das weiterhin Folgendes umfasst: – einen Hindernisdetektor (642), der Hindernisse (160) identifiziert, die mit dem Objekt assoziiert sind, die sich zwischen der der betreffenden Objektstelle und der Zielstelle (121, 122) befinden, und – ein Richtungsbestimmungselement (640), das die Zielrichtung in Abhängigkeit von den mit jedem Objekt assoziierten Hindernissen ändert.
  10. Verfahren zur Steuerung einer Verlagerung einer Anzahl Objekte, das die nachfolgenden Verfahrensschritte umfasst: – das Definieren eines Koordinatenraums, wobei jedes Objekt der Anzahl Objekte eine betreffende Objektstelle innerhalb des Koordinatenraums hat, – das Detektieren des Schließens eines Schalters einer Anzahl Eingangsschalter (S1, S2), vorgesehen in einer Eingangsanordnung, wobei jeder Schalter der Anzahl Schalter mit einem betreffenden Objekt der Anzahl Objekte assoziiert ist, – das Identifizieren einer Zielstelle (620) innerhalb des Koordinatenraums für das Objekt, das mit dem geschlossenen Schalter assoziiert ist, und zwar mit Hilfe eines von der Eingangsanordnung gesteuerten Zeigers, – das Bestimmen einer Zielrichtung (630) zwischen der Objektstelle des Objektes, das mit dem geschlossenen Schalter assoziiert ist, und der Zielstelle, und – das Modifizieren (640650) der Objektstelle des Objektes, das mit dem geschlossenen Schalter assoziiert ist, im Wesentlichen in der Zielrichtung.
  11. Verfahren nach Anspruch 10, das weiterhin den nachfolgenden Verfahrensschritt umfasst: – das Ermitteln von Hindernissen (642), die mit dem Objekt assoziiert sind un zwischen der betreffenden Objektstelle und der Zielstelle liegen, und wobei der Schritt der Änderung der Objektstelle (640650) weiterhin von den mit dem Objekt assoziierten Hindernissen abhängig ist.
  12. Computerprogramm nach Anspruch 8, wobei das Objektverlagerungselement (650) die Objektstelle im Wesentlichen entsprechend Regeln einstellt, die mit jedem Objekt (131, 132) assoziiert sind, und die eine Verlagerung eines physikalischen Elementes entsprechend jedem Objekt simulieren.
  13. Verfahren nach Anspruch 10, das weiterhin den nachfolgenden Verfahrensschritt umfasst: – das Ermitteln einer Geschwindigkeit (648), die mit dem Objekt assoziiert ist, und wobei der Schritt der Änderung der Objektstelle (640650) weiterhin von der mit dem Objekt assoziierten Geschwindigkeit abhängig ist.
DE69935419T 1998-11-20 1999-10-27 Zielorientierte benutzeroberfläche Expired - Lifetime DE69935419T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US196573 1980-10-14
US09/196,573 US6196917B1 (en) 1998-11-20 1998-11-20 Goal directed user interface
PCT/EP1999/008236 WO2000031616A1 (en) 1998-11-20 1999-10-27 Goal directed user interface

Publications (2)

Publication Number Publication Date
DE69935419D1 DE69935419D1 (de) 2007-04-19
DE69935419T2 true DE69935419T2 (de) 2007-11-08

Family

ID=22725933

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69935419T Expired - Lifetime DE69935419T2 (de) 1998-11-20 1999-10-27 Zielorientierte benutzeroberfläche

Country Status (7)

Country Link
US (1) US6196917B1 (de)
EP (1) EP1051675B1 (de)
JP (1) JP4294225B2 (de)
KR (1) KR100758138B1 (de)
CN (1) CN100380288C (de)
DE (1) DE69935419T2 (de)
WO (1) WO2000031616A1 (de)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7252588B2 (en) * 1999-12-01 2007-08-07 Namco Bandai Games Inc. Sport video game machine and play control method of sport video game
US6461237B1 (en) * 2000-01-28 2002-10-08 Square Co., Ltd. Computer readable program product storing program for ball-playing type game, said program, and ball-playing type game processing apparatus and method
JP2001321566A (ja) * 2000-05-12 2001-11-20 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP2001327758A (ja) * 2000-05-19 2001-11-27 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
DE60126296T2 (de) * 2000-08-23 2007-05-03 Nintendo Co., Ltd. Informationsprozessor, informationsspeichermedium, programm und betriebsgerät für eine spielmaschine
US20030171146A1 (en) * 2001-05-15 2003-09-11 Umrao Mayer Quick passing feature for sports video games
WO2003027827A1 (en) * 2001-09-14 2003-04-03 Le Gué Beheer B.V. Method of providing a graphical user interface for a processing device, and programmable processing device comprising such an interface
JP3990252B2 (ja) * 2002-10-15 2007-10-10 株式会社バンダイナムコゲームス ゲームシステム、プログラム及び情報記憶媒体
US20040228266A1 (en) * 2003-05-14 2004-11-18 Knight Kenneth Kingston Digital animation disk
JP4172645B2 (ja) * 2004-03-31 2008-10-29 任天堂株式会社 入力位置との関係でゲームオブジェクトの動作を変化させるゲームプログラム
JP3734819B1 (ja) 2004-07-26 2006-01-11 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
JP4471761B2 (ja) * 2004-07-26 2010-06-02 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
JP4658544B2 (ja) * 2004-09-03 2011-03-23 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
JP3734820B1 (ja) 2004-09-03 2006-01-11 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
JP3822217B2 (ja) * 2004-09-21 2006-09-13 株式会社コナミデジタルエンタテインメント ゲームプログラム、ゲーム装置及びゲーム制御方法
JP3791690B2 (ja) * 2004-09-21 2006-06-28 コナミ株式会社 ゲームプログラム、ゲーム装置及びゲーム制御方法
US8187094B2 (en) * 2004-09-22 2012-05-29 Sega Corporation Game program
JP4388878B2 (ja) * 2004-10-19 2009-12-24 任天堂株式会社 入力処理プログラムおよび入力処理装置
JP4961112B2 (ja) * 2005-03-14 2012-06-27 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP4262217B2 (ja) * 2005-04-26 2009-05-13 任天堂株式会社 ゲームプログラム及びゲーム装置
JP2006305176A (ja) * 2005-04-28 2006-11-09 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP4260770B2 (ja) * 2005-05-09 2009-04-30 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7864168B2 (en) * 2005-05-25 2011-01-04 Impulse Technology Ltd. Virtual reality movement system
JP4358181B2 (ja) * 2005-11-11 2009-11-04 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP5230901B2 (ja) * 2005-11-14 2013-07-10 株式会社ハル研究所 ゲームプログラム、ゲーム装置、ゲーム制御方法およびゲームシステム
US20070134639A1 (en) * 2005-12-13 2007-06-14 Jason Sada Simulation process with user-defined factors for interactive user training
JP4116039B2 (ja) * 2006-01-27 2008-07-09 株式会社スクウェア・エニックス ゲーム装置、ゲームの進行方法、並びにプログラム及び記録媒体
JP5305561B2 (ja) * 2006-02-22 2013-10-02 任天堂株式会社 ゲームプログラムおよびゲーム装置
GB2451996B (en) * 2006-05-09 2011-11-30 Disney Entpr Inc Interactive animation
US20080039166A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for multi-character online gaming
US20080039169A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for character development in online gaming
US20080039165A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for a scouting report in online gaming
EP2175948A1 (de) 2007-07-27 2010-04-21 Empire Of Sports Developments Ltd. Verfahren und vorrichtung zur steuerung einer bewegungsabfolge im verlauf eines simulierten spiels oder einer simulierten sportveranstaltung
US7988555B2 (en) * 2007-07-27 2011-08-02 Empire Of Sports Developments Ltd. Method and device for controlling a motion-sequence within a simulated game or sports event
JP5252879B2 (ja) * 2007-10-25 2013-07-31 株式会社カプコン 操作制御装置、及び、この操作制御装置を実現するためのプログラム
US7993190B2 (en) * 2007-12-07 2011-08-09 Disney Enterprises, Inc. System and method for touch driven combat system
EP2387850A4 (de) * 2009-01-14 2012-07-18 Innovid Inc Videoassoziierte objekte
US20110039624A1 (en) * 2009-08-15 2011-02-17 Miodrag Potkonjak Cyber-physical game
US9415301B2 (en) 2013-02-26 2016-08-16 Steelseries Aps Method and apparatus for processing control signals of an accessory
US9616332B2 (en) * 2013-06-07 2017-04-11 Konami Digital Entertainment Co., Ltd. Game control device, system, and method of causing a user character to perform a desired motion among a plurality of kinds of motion
US11544778B2 (en) 2013-09-09 2023-01-03 Mx Technologies, Inc. Creating an intuitive visual plan for achieving financial goals
US9421461B2 (en) * 2013-12-26 2016-08-23 Microsoft Technology Licensing, Llc Player avatar movement assistance in a virtual environment
JP6390277B2 (ja) * 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
USD752083S1 (en) 2014-09-09 2016-03-22 Mx Technologies, Inc. Display screen or portion thereof with a graphical user interface
CN108351653B (zh) * 2015-12-09 2022-08-09 深圳市大疆创新科技有限公司 用于uav飞行控制的系统和方法
DE102015121854A1 (de) * 2015-12-15 2017-06-22 Frank Pelzer Verfahren und System zum Livebestimmen eines Sportgeräts
CN106362397A (zh) * 2016-10-14 2017-02-01 网易(杭州)网络有限公司 载具的处理方法及装置
US10383786B2 (en) * 2017-12-18 2019-08-20 International Business Machines Corporation Utilizing a human compound eye using an internet of things (“HCEI”) for obstacle protection of a user
US20230310995A1 (en) * 2022-03-31 2023-10-05 Advanced Micro Devices, Inc. Detecting personal-space violations in artificial intelligence based non-player characters

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2530050B2 (ja) * 1990-07-20 1996-09-04 富士通株式会社 カ―ソル移動制御装置
US5624117A (en) * 1994-07-28 1997-04-29 Sugiyama Electron Co., Ltd. Game machine controller
US5890906A (en) * 1995-01-20 1999-04-06 Vincent J. Macri Method and apparatus for tutorial, self and assisted instruction directed to simulated preparation, training and competitive play and entertainment
US6458366B1 (en) * 1995-09-01 2002-10-01 Corixa Corporation Compounds and methods for diagnosis of tuberculosis
AU734018B2 (en) * 1995-10-09 2001-05-31 Nintendo Co., Ltd. Three-dimension image processing system
WO1997021194A1 (fr) * 1995-12-07 1997-06-12 Sega Enterprises, Ltd. Equipement et procede de production d'images, console de jeu utilisant ce procede et support
US5929844A (en) * 1996-05-03 1999-07-27 First Person Gaming, Inc. First person perspective control system
US6068554A (en) * 1997-11-25 2000-05-30 Tyler; Kelly D. Hand manipulated dual controller assembly

Also Published As

Publication number Publication date
DE69935419D1 (de) 2007-04-19
EP1051675A1 (de) 2000-11-15
WO2000031616A1 (en) 2000-06-02
CN1300388A (zh) 2001-06-20
CN100380288C (zh) 2008-04-09
KR100758138B1 (ko) 2007-09-13
US6196917B1 (en) 2001-03-06
JP4294225B2 (ja) 2009-07-08
EP1051675B1 (de) 2007-03-07
KR20010034235A (ko) 2001-04-25
JP2002530773A (ja) 2002-09-17

Similar Documents

Publication Publication Date Title
DE69935419T2 (de) Zielorientierte benutzeroberfläche
DE69636703T2 (de) Verfahren und vorrichtung zur steuerung von kraftrückkoppelungsschnittstellen unter verwendung eines hauptrechners
DE69635710T2 (de) Eingabegerät für bilderzeugungsverfahren und -gerät
DE60310817T2 (de) Videospielvorrichtung, Bildverarbeitungsverfahren und -programm
Ebner et al. Towards a video game description language
DE602004005565T2 (de) Spielvorrichtung und Speichermedium mit darauf aufgezeichnetem Spielprogramm
CN100368042C (zh) 分析计算机游戏的游戏情形的方法
CN112090070B (zh) 虚拟道具的交互方法、装置及电子设备
US11779845B2 (en) Information display method and apparatus in virtual scene, device, and computer-readable storage medium
CN112121414B (zh) 虚拟场景中的追踪方法、装置、电子设备及存储介质
DE112013004190T5 (de) Integration eines Robotiksystems in eine oder mehrere mobile Computereinrichtungen
CN109224438A (zh) 游戏中虚拟角色的控制方法及装置
Wintermute et al. SORTS: A human-level approach to real-time strategy AI
KR20210103907A (ko) 색맹 진단 시스템
Mehm et al. Bat cave: A testing and evaluation platform for digital educational games
DE102005035903A1 (de) Generische KI-Architektur für ein Multiagenten-System
DE102016104186A1 (de) Simulator zum Training eines Teams einer Hubschrauberbesatzung
CN113633964A (zh) 虚拟技能的控制方法、装置、设备及计算机可读存储介质
JP2021524076A (ja) 仮想カメラ配置システム
CN113018862A (zh) 虚拟对象的控制方法、装置、电子设备及存储介质
DE10320678A1 (de) Spielmaschine und Spielprogramm
CN114247144B (zh) 多智能体对抗仿真方法、装置、电子设备及存储介质
DE102005041712A1 (de) Verfahren und Vorrichtung zur Simulation mit nahtlosem Übergang zwischen realen und virtuellen Objekten
Stiso et al. A foray into the use of serious games in controlled research on crisis management.
CN118012081A (zh) 虚拟飞行器的控制方法和装置、存储介质及电子设备

Legal Events

Date Code Title Description
8364 No opposition during term of opposition