DE69903939T2 - Lichtempfindliche peripherieeingabeeinheit für ein persönliches computergesteuertes videospielgerät - Google Patents

Lichtempfindliche peripherieeingabeeinheit für ein persönliches computergesteuertes videospielgerät

Info

Publication number
DE69903939T2
DE69903939T2 DE69903939T DE69903939T DE69903939T2 DE 69903939 T2 DE69903939 T2 DE 69903939T2 DE 69903939 T DE69903939 T DE 69903939T DE 69903939 T DE69903939 T DE 69903939T DE 69903939 T2 DE69903939 T2 DE 69903939T2
Authority
DE
Germany
Prior art keywords
resources
synchronization signal
video game
peripheral
horizontal synchronization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69903939T
Other languages
English (en)
Other versions
DE69903939D1 (de
Inventor
Kevin Dietrich
Minjie Shi
Bouchan Thanasack
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ACT Labs Ltd
Original Assignee
ACT Labs Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ACT Labs Ltd filed Critical ACT Labs Ltd
Application granted granted Critical
Publication of DE69903939D1 publication Critical patent/DE69903939D1/de
Publication of DE69903939T2 publication Critical patent/DE69903939T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1018Calibration; Key and button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • A63F2300/1031Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection using a wireless connection, e.g. Bluetooth, infrared connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

    HINTERGRUND DER ERFINDUNG
  • Diese Erfindung bezieht sich auf ein lichtempfindliches Peripheriegerät mit einem lichtempfindlichen Element zum Erfassen der relativen Position des Sichtfelds des Geräts in Bezug auf einen Videobildschirm, und besonders auf ein Gerät, das mit einer auf Personalcomputer basierenden Spielplattform kompatibel ist. Videospiele werden speziell im Hauptteil dieser Unterlagen zur Beschreibung dieser Erfindung verwendet. Es ist beabsichtigt, den Begriff "Videospiel" für jedes Anwendungsprogramm interpretieren, das ein lichtempfindliches Gerät zur Interaktion des Anwenders mit der Videoanzeige verwendet, damit positionelles Feedback an das Computersystem zur Verfügung steht.
  • Videospiele sind äusserst populär, was auf viele Gründe zurückzuführen ist: Das Spiel als solches, sowie die Vielzahl verschiedener Eingabegeräte, die zum Steuern und Spielen zur Verfügung stehen. Eingabegeräte beinhalten zum Beispiel Steuerknüppel. Lenkräder, Gas- und Bremspedale, sowie lichtempflindliche Empfangsgeräte, wie zum Beispiel Lichtgriffel und Lichtwaffen. Lichtwaffen sind besonders populär in Verbindung mit Spielen, bei denen Ziele auf dem Bildschirm aufgezeigt sind und der Spieler diese Ziele mit der Waffe durch die Abzugsbetätigung abschiesst.
  • Auf dem Heimvideospielmarkt stehen zwei Grundplattformen zur Verfügung: Die zweckgebundene Konsolenplattform und die Personalcomputerplattform. Bei der zweckgebundenen Konsolenplattform handelt es sich um in sich geschlossene Einheiten auf Mikroprozessorbasis, die Spielmodule, wie z. B. ROM-Kassetten oder CD-ROMs erhalten, die Anweisungen auf dem Spielmodul ausführen und die Bilder und Geräusche an den Spieler via eines herkömmlichen Fernsehers (oder optionsweise eines eigenständigen Bildschirms) übertragen. Eingabegeräte, wie z. B. die Lichtwaffen sind an die Konsole angeschlossen, damit der Spieler den Spielvorgang in Verbindung mit den Bildern und Geräuschen über den Fernseher steuern kann.
  • Videospiele auf PC-Basis nutzen bestehende Computer, die bereits von Millionen von Anwendern benutzt werden, indem ein Spieler durch einfaches Laden und Ausfuhren eines Videospielprogramms ein Spiel spielen kann. Normalerweise wird hierzu ein Steuerknüppel an den Spielanschluss innerhalb des Computers angeschlossen, wodurch der Spieler die Durchführung des Spiels steuern kann, da der Spielanschluss mit der Zentraleinheit über verschiedene Bosse verbunden ist. Wenn ein Steuerknüppel oder ein Spielanschluss nicht vorhanden ist, kann der Spieler das Spiel mit der Tastatur oder der Maus steuern; jedoch lässt die Ergonomie dieser Geräte ein effizientes Spielen und den Spass daran nicht in dem Masse zu.
  • Obwohl viele Spiele auf der PC-Plattform ohne den Steuerknüppel gespielt werden können, ist es einfach nicht der Sinn der Sache, ein Schiesspiel ohne eine Lichtwaffe zu spielen. Das heisst, dass der Sinn eines Schiesspieles darin liegt, dass ein Spieler auf den Bildschirm zielt und den Abzug zum gewünschten Zeitpunkt betätigt, in der Hoffnung das Ziel zu "treffen". Es gibt einfach keinen praktischen Weg, diese Erfahrung mittels Tastatur oder Maus nachzuahmen, da diese nicht visuell mit den Bildschirmzielen ausgerichtet werden können und auch nicht die Positionsfeedbackdaten des Bildschirms (wie nachstehend beschrieben) der Zentraleinheit zur Verfügung stellen, die uzr Steuerung des Spiels notwendig sind.
  • Anwendersoftware, wie z. B. Textverarbeitung, Tabellenkalkulationsprogramme und Internetbrowser verwenden meistens die Tastatur und Maus zur Eingabe, Textauswahl oder Schaltflächenaktivierung. Die Anzeigeelemente werden indirekt durch die relative Bewegung der Maus in einer entfernten Speicherzelle in Bezug auf die Anzeige ausgelöst.
  • Lichtwaffen werden schon seit einigen Jahren auf Fernsehbildschirmen, die mit zweckgebundene Konsolen verbunden sind, verwendet. Die Lichtwaffe stutzt sich auf die physikalischen Einrichtungen des Fernsehbildschirms, um die bestimmte Speicherzelle festzustellen, auf die die Lichtwaffe zu einem bestimmten Zeitpunkt zielt. Wie im Stand der Technik bestens bekannt, verwendet der Fernsehbildschirm einen elektronischen Abtaststrahl (oder Strahlen), der in einem Rastermuster horizontal und vertikal den Ablauf verfolgt, um das Bild zu formen, das das Auge des Anwenders erkennt. Zur Erstellung der Rastermuster werden horizontale und vertikale Synchronisationssignale durch die Steuerelektronik erzeugt, die Videosignale erstellen und dann durch die Elektronik, die mit dem Fernseher assoziiert sind, erfasst und verwendet werden, um das Bild über den Bildschirm genau zu reproduzieren.
  • Obwohl das Erfassen des Strahls über den Bildschirm im allgemeinen nicht vom menschlichen Auge erfasst werden kann, ist es einem lichtempfindlichen Gerät trotzdem möglich, das Vorhandensein eines Strahls an einem bestimmten Punkt des Bildschirms zu erkennen. Heutzutage arbeiten Lichtwaffen mit zweckgebundenen Videospielkonsolen auf eben dieser Basis. Die Lichtwaffe enthält ein lichtempfindliches Gerät an der Spitze der simulierten Waffe, sowie einen elektronischen Schalter, der durch die simulierte Abzugsbetätigung aktiviert wird. Wenn das lichtempfindliche Gerät auf das Ziel am Bildschirm gerichtet wird, wird es den elektronische Strahl erfassen, wenn dieser über den Bildschirm gescannt wird; diese Informationen (wahlweise in Verbindung mit dem Betätigen des Abzugs) werden daraufhin an einen Eingabeanschluss auf der zweckgebundenen Spielkonsole gesendet. Da die Zentraleinheit der Spielkonsole die Bilder auf dem Bildschirm erzeugt hat, und insbesondere da sie die horizontalen und vertikalen Synchronisationssignale erzeugt, kann sie die relative Position auf dem Bildschirm, auf die die Waffe gerichtet wurde, bestimmen, indem sie die Phasendifferenz zwischen dem Start des Rastermusters und dem Zeitpunkt, zu dem der Elektronenstrahl durch das lichtempfindliche Gerät aufgespürt wurde, berechnet.
  • Trotz ihrer Popularität können Lichtwaffen bisher noch nicht mit Videospielen auf PCs verwendet werden, da bestimmte Unterschiede zwischen der zweckgebundenen Spielkonsole und dem Personalcomputer bestehen, die die Verwendung einer konventionellen Lichtwaffe unmöglich machen. Bei einem Personalcomputer stellt die Zentraleinheit digitale Bilddaten in Form von Rahmen oder Bitmaps einer Videoadapterkarte zur Verfügung (z. B. VGA- oder SVGA-Karte). Die Videoadapterkarte erzeugt daraufhin bestimmte rote, grüne und blaue Analgosignale, die der Ausgabe an den Monitor dienen (sogenannte RGB-Signale). Dabei ist zu beachten, dass die Videokarte auch die Synchronisationszeitsignale (vertikale und horizontale Synchronisation) erzeugt, die ebenfalls an den Monitor zur Steuerung des Abtastraster gesendet werden. Da die Zentraleinheit die Synchronisationssignale nicht erzeugt hat, kann sie die relative Position auf dem Bildschirm, auf die die Lichtwaffe gezielt hat, nicht berechnen. Das heisst, die Zentraleinheit kann die Phasendifferenz zwischen dem Start des Rastermusters und dem Zeitpunkt, zu dem der Elektronenstrahl durch das lichtempfindliche Gerät aufgespürt wurde nicht berechnen, da sie nicht weiss, wann die Synchronisationssignale erzeugt wurden. Deshalb ist eine PC-Plattform im Gegensatz zu einer zweckgebundene Spielkonsole unvorteilhaft, da eine konventionelle Lichtwaffe beim Spiel nicht verwendet werden kann.
  • Ein Vorläufer (von A-FOUR TECH CO., LTD.) versuchte diesen Nachteil durch eine Zusatzkarte zu überkommen, die in einen leeren ISA-Steckplatz auf der Hauptplatine eingelegt werden musste. Ein Flachbandkabel wurde dann von der Zusatzkarte an einem VGA Feature Connector auf der VGA-Karte angeschlossen und die Lichtwaffe in die Zusatzkarte eingesteckt. Dadurch musste der Anwender den Computer öffnen, um die Zusatzkarte und das Kabel installieren. Das ist alleine deshalb schon nicht praktisch, da es evtl. keine freien Kartensteckplätze auf der Hauptplatine mehr gibt, oder der Anwender diese technischen Bedienungen nicht ausführen kann. Ausserdem kann der Anwender die Lichtwaffe nicht so einfach auf einen anderen Computer transferieren, ohne nicht vorher seinen Computer auseinandergebaut, die Zusatzkarte entfernt und auf einem anderen Computer installiert zu haben. Dieses System ist deshalb für die meisten Anwender unvorteilhaft.
  • WO 98/17361 enthält hiermit eine Spielsteuereinheit, die Koordinate einer bestimmten Position durch ein synchronisierendes Signal zur Verfügung stellt. Ein Videosignal das von einem Terminal ausgegeben wurde, wird in synchronisierende Signale, wie z. B. horizontale und vertikale Synchronisationssignale, getrennt. Die Koordinate einer bestimmten Position, wie z. B. ein Ziel auf dem Bildschirm, werden von den synchronisierenden Signalen und einer Ausgabe aus einem optischen Detektor erhalten. Ziel dieser Erfindung ist es, ein lichtempfindliches peripheres System zur Verfügung zu stellen, das mit einer herkömmlichen PC Videospiel- und Anwenderplattform verwendet werden kann.
  • Weiterhin stellt die jetzige Erfindung ein solches lichtempfindliches Peripheriegerätesystem zur Verfügung, das einfach installiert werden kann, ohne den PC auseinandernehmen und zusätzliche Schaltungsanordnungen einbauen zu müssen.
  • Im Rahmen dieser und anderer Ziele, wird hiermit ein Videospielsystem, das aus einem PC, einem Videomonitor zur Anzeige der Bilder auf dem Bildschirm, einem lichtempfindlichen Videospiel-Peripheriegerät, wie z. B. einen Griffel oder ein spielbezogenes Gerät, und einem peripheren Adapter, der zwischen dem Computer, dem Monitor und dem Peripheriegerät gekoppelt ist, besteht.
  • Insbesondere umfasst das Videospielsystem die folgenden Merkmale:
  • a) Computerressourcen einschliesslich
  • (i) Computerverarbeitungsressourcen (12) zur Ausführung von Videospielprogrammen; besagte Computerverarbeitungsressourcen, die eine Vielzahl von Anzeigerahmen bezüglich der Bilder, die auf dem Bildschirm angezeigt werden (16) ausführen;
  • (ii) Videoadapterressourcen (34), die an besagte Computerverarbeitungsressourcen gekoppelt sind, um besagte Anzeigerahmen zu verarbeiten und analoge Anzeigesignale zu erzeugen, die hierzu proportional sind, sowie Synchronisationssignale, die mit besagten analogen Anzeigesignalen korrelieren, und besagte analoge Anzeigesignale und besagte Synchronisationssignale die mit einem assoziierten Videoport (3) die Ausgabe darstellen;
  • b) Einem Peripherieadapter (18), der an besagten Videoport (3) gekoppelt ist; besagter Peripherieadapter, der besagte analoge Anzeigesignale und Synchronisationssignale an den Bildschirm (16) ausgibt; besagter Peripherieadapter, der weiter konfiguriert ist, um besagte Synchronisationssignale an ein Videospiel-Peripheriegerät (14) auszugeben;
  • c) Einem Bildschirm (16), der an besagten Peripherieadapter (18) zum Verarbeiten besagter analoger Anzeigesignale gekoppelt ist, sowie besagte Synchronisationssignale zum Anzeigen der Bildern auf dem hiermit assoziierten Bildschirm;
  • d) Einem Videospiel-Peripheriegerät (14) mit den folgenden Merkmalen:
  • (i) Ein lichtempfindlicher Umformer (24) mit einem Sichtfeld; besagter lichtempfindlicher Umformer, der ein elektrisches Signal proportional zu dem Licht im Sichtfeld ausgibt;
  • (ii) Ressourcen (41) zum Empfang besagter Synchronisationssignale von dem besagten Peripherieadapter;
  • (iii) Peripherieverarbeitungsressourcen (40) zur Verarbeitung besagter elektrischer Signale des besagten lichtempfindlichen Peripheriegeräts und besagter Synchronisationssignale sowie zur Erzeugung eines peripheren Positionssignals, das bezeichnend ist für die relative Position des Sichtfelds besagter lichtempfindlicher Umformer auf dem besagten Bildschirm; sowie
  • (iv) Ressourcen (41) zur Übertragung besagter Peripheriepositionssignale an den besagten Computer zur weiteren Verarbeitung;
  • Das besagte Videospiel-Peripheriegerät (14) umfasst ferner einen manuellen Schalter (26); besagter Schalter ist so konfiguriert, um ein Abzugssignal an besagte Peripherieverarbeitungsressourcen (18) zur Verfügung zu stellen; ferner wild besagtes Peripheriepositionssignal an besagten Computer (12) in Erwiderung auf Betätigung des besagten Schalters weitergeleitet;
  • Besagte Synchronisationssignale umfassen ein horizontales und ein vertikales Synchronisationssignal;
  • Besagte Peripherieverarbeitungsressourcen umfassen folgende Merkmale:
  • Initialisierungsressourcen (80, 82, 84, 24) zum Messen einer Reihe von Initialisierungsparametern, die mit der x-Dimension des Rastermusters auf besagten Bildschirm und der y-Dimension auf besagtem Rastermuster korrelieren;
  • Ressourcen (80) zum Erfassen des Abzugsauslösersignals; sowie Ressourcen (40) zur Bestimmung der relativen x- und y-Position des Sichtfelds der Lichtwaffe (14), die auf den Bildschirm (16) gerichtet sind, wenn der Abzug (26) betätigt wird.
  • Der Peripherieadapter ist an den Videoanschluss gekoppelt und ist zur Ausgabe der analogen Anzeigesignale und Synchronisationssignale auf dem Bildschirm konfiguriert. Der Peripherieadapter ist ferner konfiguriert, um die Synchronisationssignale an das Videospiel-Peripheriegerät auszugeben. Der Bildschirm ist an den Peripherieadapter gekoppelt und verarbeitet analoge Anzeige- und Synchronisationssignale, um Bilder auf dem Bildschirm anzuzeigen.
  • Das Videospiel-Peripheriegerät umfasst einen lichtempfindlichen Umformer zur Ausgabe elektrischer Signale, die proportional zum erfassten Licht stehen, Ressourcen zum Empfang der Synchronisationssignale des Peripherieadapters, Peripherieverarbeitungsressourcen zur Verarbeitung der elektrischen Signale des lichtempfindlichen Geräts und des Synchronisationssignals des Peripherieadapters, sowie zur Erzeugung eines peripheren Positionssignals, das die relative Position des Sichtfelds des lichtempfindlichen Umformers relativ zum Bildschirm anzeigt. Das Videospiel- Peripheriegerät umfasst ferner Ressourcen zur Übertragung der peripheren Positionssignale an den Computer zur weiteren Verarbeitung.
  • Das Videospiel-Peripheriegerät kann ebenfalls aus einem manuellen Schalter bestehen, dessen Konfiguration ein Abzugsignal an die peripheren Verarbeitungsressourcen zur Verfügung stellt, wobei das periphere Positionssignal an den Computer bei Auslösung des Schalters übertragen wird.
  • Vorzugsweise sieht das Videospiel-Peripheriegerät wie eine Waffe mit einem Lauf aus, und das lichtempfindliche Gerät sollte sich in der Nähe der Spitze des Laufe befinden. Eine weitere Ausführung des Geräts kann wie ein Stift aussehen, wobei sich das lichtempfindliche Gerät in der Nähe der Spitze befinden sollte.
  • Die Synchronisationssignale umfassen bezeichnenderweise ein horizontales sowie ein vertikales Synchronisationssignal; das periphere Positionssignal umfasst sowohl eine relative x- als auch eine y-Koordinate.
  • Die peripheren Verarbeitungsressourcen umfassen Initialisierungsressourcen zum Messen einer Reihe von Initialisierungsparameter, die mit einer x-Dimension des Rastermusters korrelieren, welche auf dem Bildschirm aufgezeichnet werden, sowie eine y-Dimension des Rastermusters; ferner Ressourcen zur Erfassung des Auslösers des Abzugssignals und Ressourcen zur Bestimmung der relativen x- und y-Position des Sichtfelds des lichtemfindlichen Geräts, das auf den Bildschirm gerichtet ist, wenn der Abzug betätigt wird.
  • Initialisierungsressourcen umfassen eiste Ressourcen zum Erfassen der aktiven Polarität des horizontalen Synchronisationssignals, sowie zweie Ressourcen zum Erfassen der aktiven Polarität des vertikalen Synchronisationssignals. Die Initialisierungsressourcen umfassen ferner erste Ressourcen zur Bestimmung der y-Resolution Ys des Rastermusters, sowie zweite Ressourcen zur Bestimmung der x-Resolution Xs des Rastermusters.
  • Die Ressourcen zur Bestimmung der relativen x- und y-Position des Sichtfelds des lichtemfindlichen Geräts, das auf den Bildschirm bei Betätigung des Abzugs gerichtet ist, umfasst Ressourcen zum Erfassen eines Impulses des elektrischen Signals von dem lichtempfindlichen Gerät, Ressourcen zum Zählen der Anzahl der horizontalen Synchronisationsspuren vom Zeitpunkt, zu dem das vertikale Synchronisationssignal in den aktiven Status übergegangen ist, bis zu dem Zeitpunkt, an dem der Impuls erfasst wird, die Anzahl der Aufzeichnungen als Yc definiert ist und die Ressourcen zum Messen der Dauer des Synchronisationssignals vom Zeitpunkt, zu dem das Synchronisationssignal in den aktiven Status übergegangen ist, bis zu dem Zeitpunkt, zu dem der Impuls erfasst wird; die Zeitressourcen werden zurückgesetzt, wenn besagtes horizontales Synchronisationssignal in seinen inaktiven Status bevor der Impuls erfasst wird, übergeht, wobei die Zeitspanne als Xt definiert wird.
  • Das periphere Positionssignal umfasst das Verhältnis Xt/Xs und Yc/Ys und wird an den Computer gesendet, wobei die Computerverarbeitungsressourcen die X-Pixel Koordinate anhand der Formel Xr·Xt/Xs bestimmen; Xr stellt die X-Achse der Pixelresolution auf dem Bildschirm dar; die Computerverarbeitungsressourcen bestimmen die Y-Pixel Koordinate anhand der Formel Yr·Yc/Ys, wobei Yr die Y-Achse der Pixelresolution auf dem Bildschirm darstellt.
  • In der zweiten Ausführung umfassen die Initialisierungsressourcen erste Ressourcen zur Erfassung der aktiven Polarität des horizontalen Synchronisationssignals und zweite Ressourcen zur Erfassung der aktiven Polarität des vertikalen Synchronisationssignals. Die Initialisierungsressourcen umfassen ferner erste Ressourcen zur Bestimmung der y- Resolution (Ys) des Rastermusters und zweite Ressourcen zur Bestimmung der x- Resolution Xs des Rastermusters. Die Zeit wird von einer vertikalen Aktualisierung bis zur nächsten vertikalen Aktualisierung Tv gemessen. Ferner wird die Zeit zur Vervollständigung einer horizontalen Aufzeichnung und Aktualisierung (Th) und die Zeit zur Vervollständigung einer horizontalen Aktualisierung (Thl) gemessen.
  • In der zweiten Ausführung umfassen die Einrichtungen zur Bestimmung der relativen x- und y-Position des Sichtfelds Ressourcen zur Erfassung eines Impulses im elektrischen Signal von dem lichtempfindlichen Gerät, Ressourcen zum Messen der Zeit vom vertikalen Synchronisationssignal beim Übergang in seinen aktiven Zustand bis der Impuls (Yte) erfasst ist, der Wert Yt, der als Funktion von Tv, Th und Yte bestimmt wird, sowie Ressourcen zum Messen der Dauer des horizontalen Synchronisationssignals von dem Zeitpunkt zu dem der Impuls erfasst wurde bis zu dem Zeitpunkt, zu dem das horizontale Synchronisationssignal in seinen inaktiven Zustand (Xte) übergegangen ist. Die relative Position wird als Funktion von Xte, Th und Thl bestimmt und als Xt definiert.
  • Das periphere Positionssignal umfasst das Verhältnis Xt/Xs und Yt/Ys und wird an den Computer gesendet, wobei die Computerverarbeitungsressourcen die X-Pixel Koordinate anhand der Formel Xr·Xt/Xs bestimmen; Xr stellt die X-Achse der Pixelresolution auf dem Bildschirm dar; die Computerverarbeitungsressourcen bestimmen die Y-Pixel Koordinate anhand der Formel Yr·Yc/Ys, wobei Yr die Y-Achse der Pixelresolution auf dem Bildschirm darstellt.
  • In einer alternativen Ausführung sind sowohl die peripheren Verarbeitungsressourcen zur Erzeugung eines peripheren Positionssignals und die Ressourcen zur Übertragung des peripheren Positionssignals an den Computer innerhalb des peripheren Adapters untergebracht.
  • Ein Kalibrieralgorithmus wird zur Bestimmung und Kompensierung für Abweichungen in PC-Systemen verwendet, die eventuell Auswirkungen auf die Genauigkeit der Bestimmung der Erfassungsspeicherzelle des Videospiel-Peripheriegeräts haben kann. In einer Ausführung wird der Kalibrieralgorithmus auf dem Prozessor des PC ausgeführt. In einer anderen Ausführung wird der Kalibrieralgorithmus auf der Firmware der Mikrosteuereinheit im peripheren Adapter dieser Erfindung ausgeführt.
  • KURZE BESCHREIBUNG DER ABBILDUNGEN
  • Abb. 1: Hauptkomponente der bevorzugten Ausführung der vorliegenden Erfindung.
  • Abb. 2: Eingehende Abbildung des Peripherieadapters.
  • Abb. 3: Grafische Darstellung der elektrischen Komponente von Abb. 1.
  • Abb. 4: Grafische Darstellung eines typischen Vorläufers des Videoadapters.
  • Abb. 5: Grafische Darstellung der Synchronisationssignale und RGB-Signale, die von dem Videoadapter erzeugt werden.
  • Abb. 6(a): Raster-Scanmuster.
  • Abb. 6(b): Schwingungsverläufe, die mit dem Raster-Scanmuster verwendet werden.
  • Abb. 7: Vorläufer eines Bildschirms und der Steuerelektronik.
  • Abb. 8(a): Eingehendes Schema der peripheren Verarbeitungsschaltung;
  • Abb. 8(b): Schema eines Senders und der Netzschaltung in der Lichtwaffe;
  • Abb. 8(c): Schema einer Lichtsonde in der Lichtwaffe;
  • Abb. 9(a), 9(b) und 9(c): Flussdiagramme, die den Ablauf der Erfindung abbilden;
  • Abb. 10: Alternative Ausführung der Erfindung;
  • Abb. 11(a) und 11(b): Alternative Ausführung der Erfindung, bei der sich die Verarbeitungselektronik in dem Adaptergerät anstelle in der Lichtwaffe befindet;
  • Abb. 12(a), 12(b) und 12(c): Flussdiagramme, die den Ablauf der zweiten Erfindung abbilden; und
  • Abb. 13: Ansicht der Anzeigeposition bei Erkennung eines Ereignisses;
  • Abb. 14: Datenflussdiagramm der Kalibrierungsprozesse der jetzigen Erfindung;
  • Abb. 15: Datenflussdiagramm der zweiten Ausführung des Kalibrierprozesses.
  • EINGEHENDE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNG
  • Der Begriff "Videospielsystem" kann im weitesten Sinne als eine Anwendung betrachtet werden, bei der ein peripheres Lichtsondengerät zur Eingabe der Bestimmung der Bildschirmposition verwendet wird. Der Begriff "Lichtwaffe" im Sinne dieser Erfindung kann ebenso andere Geräte beinhalten, wie z. B. einen Lichtgriffel. Der Lichtgriffel funktioniert in der Nahe der Videoanzeige, um diskrete Speichelzellen auf der Videoanzeige auszuwählen oder anzuzeigen und funktioniert auf ähnliche Weise wie die Anwendung einer Maus. Eine Lichtwaffe wird typischerweise von weiterer Entfernung aus verwendet.
  • Die bevorzugte Ausführung der vorliegenden Erfindung wird jetzt in Bezug auf Abb. 1 beschrieben. Das Videospielsystem (1) umfasst einen Personalcomputer (12), eine Lichtwaffen-Peripheriegerät (14), eitlen Videomonitor (16), und einen peripheren Adapter (18). Bei dem Computer (12) handelt es sich um ein Standardmodell, das Videospielprogramme ausführen kann und in der Lage ist, die Positionsdateneingabe der Lichtwaffe (14) auf einer seriellen Schnittstelle zu verwenden. Der Computer (12) kann zum Beispiel einen 450 MHz Pentium II Prozessor mit 64 M RAM verwenden, sowie eine Videoadapterkarte, die geeignet ist. Bilder, die während des Betriebs des Videospiels erzeugt werden, anzuzeigen, wie z. B. eine VGA-Karte und dergleichen. Es wird keine interne spezielle Hardware für den Computer (12) für die Implementierung der jetzigen Erfindung benötigt, wie z. B. Zusatzkartell oder dergleichen, wie sie in den Vorläufern nötig waren. Ebenfalls braucht es sich bei dem Monitor (16) nur um einen Standardvideomonitor zu handeln, der die Eingabesignale der Industrienorm RGB (rot- grün-blau) verwendet. Der Videomonitor benötigt ferner keine spezielle Umstellung für die Betreibung mit der vorliegenden Erfindung.
  • Bei dem peripheren Adapter (18) in Abb. 2 handelt es sich im Wesentlichen um eine Steckereinheit mit einem Stecker (2) gemäss Industrienorm VGA (Videografikadapter) an einem Ende der mit einer Buchse (3) gemäss Industrienorm VGA, wie man ihn an typischen VGA-Adapterkarten findet, gekoppelt werden kann. Der periphere Adapter (18) umfasst ausserdem eine standardmässige Buchse (4) zum Koppeln an den assoziierten VGA Stecker (5), der an den Monitor (16) angeschlossen ist, Der Adapter (18) ist daher zwischen dem Monitor (16) und dem VGA-Kabel (3) eingesetzt und leitet die entsprechenden Signale von der VGA-Adapterkarte zum Monitor (16) zur Verarbeitung auf gewöhnliche Weise weiter. Der Peripherieadapter (18) verfügt ebenfalls über Leitungen vom Kabel (22), die mit bestimmten Steuersignalen (horizontale und vertikale Synchronisationssignale) verbunden sind, wodurch diese Signale an die Lichtwaffe (14) zur weiteren Verarbeitung (wie unten beschrieben) weitergeleitet werden.
  • Das Kabel (22) stellt ebenfalls Leitungen von der Lichtwaffe (14) an die serielle Schnittstellenverbindung (6) auf dem Computer (12), wie bekannt, zur Verfügung. Positionsdatensignale werden durch das Kabel 22 an die serielle Schnittstellenverbindung (20) zur Eingabe an die Verarbeitungsschaltungsanordnung innerhalb des Computer (12), wie unten beschrieben, eingegeben.
  • Die Lichtwaffe (14) umfasst eine Lichtsonde (24) und einen Abzug (26), wie in Abb. 1 dargestellt. Der Abzug (26) ist mit einem internen Schalter gekoppelt, und sorgt für ein Auslösesignal an die internen Komponente der Schaltungsanordnung, welches angibt, dass der Spieler den Abzug betätigt hat, was widerum das Schiessen emuliert. Die Lichtsonde ist ebenfalls an interne Komponente der Schaltungsanordnung angeschlossen und sorgt für ein elektrisches Signal, das proportional zum Licht steht.
  • Das elektrische Signal hat einen erhöhten Wert bei zunehmender Helligkeit und wird ein Höchstmass erreichen, wenn der elektronische Abtaststrahl, der einem Rastermuster auf dem Bildschirm (16) folgt, sein Sichtfeld (17) kreuzt.
  • In Abb. 3 ist ein Diagramm des Sytems (10) dargestellt. Der Computer (12) enthält standardmässige interne Komponente, wie man sie typischerweise heutzutage in PCs vorfindet, insbesondere eine Zentraleinheit (30), einen Speicher (36), eine VGA Adapterkarte (34) und eine serielle Schnittstelle (38). Diese Komponente werden dargestellt, wie sie miteinander via einem Bus (32) kommunizieren, welcher aus Datenbus-, Adressbus- und Steuerbussignalen besteht. Der Speicher (36) wird zum Speichern von Programminstruktionen bei der Ausführung des Videospiels verwendet; hierbei kann es sich um eine CD-ROM, ein Festplattenlaufwerk, etc. handeln. Die Zentraleinheit (30) fuhrt standardmässige Verarbeitungs- und Steuerfunktionen aus. Der VGA-Adapter (34) ist ebenfalls im Stand der Technik bestens bekannt und dient zur Konvertierung von digitalen Datenrahmen, die von der Zentraleinheit (30) ausgegeben werden, in entsprechende analoge RGB-Signale, sowie Synchronisationssignale die an den Bildschirm (16) auf herkömmliche Weise gesendet werden.
  • Der VGA-Adapter (34) erzeugt standardmässige rote, grüne und blaue analoge Signale (R-G-B), die vom Videomonitor (16) zur Wiederherstellung des gewünschtes Bildes auf dem Bildschirm verwendet werden. Die R-G-B-Signale (wie unten weiter beschrieben) werden vom VGA-Adapter (34) durch den peripheren Adapter (18) an den Monitor (16) gesendet. Die horizontalen und vertikalen Synchronisationssignale werden ebenfalls durch den VGA-Adapter (34) erzeugt und über den peripheren Adapter (18) an den Monitor (16) gesendet, um das Abtastraster, wie im Stand der Technik bekannt, zu steuern. Die vorliegende Erfindung verwendet jedoch diese durch den VGA-Adapter (34) erzeugten Synchronisationsinformationen, die der Zentraleinheit (30) nicht zur Verfügung stehen, zur Erzeugung von Positionsdaten, die an die Zentraleinheit (30) über die serielle Schnittstelle (38) zurückgeführt werden. Somit leitet der periphere Adapter (18) die horizontalen und vertikalen Synchronisationssignale an die Lichtwaffe (14) und insbesondere an die verarbeitende Schaltungsanordnung (40) weiter, die sich in der Lichtwaffe befindet.
  • Die Lichtwaffe (14) vertagt über eine Lichtsonde (24), die strategisch in der Nähe der Spitze angebracht ist, um eine echte Waffe 2 · 1 emulieren. Der Spieler richtet die Waffe auf den Monitor und betätigt den Abzug (26), wenn er auf ein Bild auf dem Bildschirm schiesen möchte. Wenn der Abzug betätigt wird, werden Positionsdaten erzeugt, die sich auf die x- und y-Koordinate des Sichtfelds (17) beziehen, auf die die Lichtsonde (24) zielt. Die Methodologie zur Bestimmung der bestimmten Position des Sichtfelds (17) durch Verwendung der horizontalen und vertikalen Synchronisationssignale sowie die Ausgabe der Lichtsonde (24), stellt einen weiteren Aspekt der vorliegenden Erfindung dar, der weiter unten eingehend beschrieben ist.
  • Abb. 4 stellt fein detailliertes Diagramm der VGA-Adapterkarte dar, die bei der vorliegenden Erfindung verwendet wird. Die Zentraleinheit (30) und der VGA-Adapter (34) sind beide an den Bus (32) gekoppelt, wodurch die Zentraleinheit Rahmen der digitalen Daten (z. B. Bitmaps) an den VGA-Adapter zur Konvertierung dieser Rahmen sowie entsprechende Signale an den Monitor senden kann. Die Hauptkomponente des VGA-Adapter (34) bestehen am der KRS-Steuereinheit (50), dem Video-RAM (VRAM) (52), dem Multiplexer (54) und drei separaten aber funktionell gleichen digital/analog (D/A) Konvertern: Rot D/A 56, Grün D/A 58, und Blau D/A 60. Der VRAM (52) hat zwei Stecker, damit die Zentraleinheit (30) (zum Datenschreiben) oder die KSR- Steuereinheit (50) (zum Datenlesen) darauf zugreifen kann.
  • Die KSR-Steuereinheit (50) erzeugt entsprechende horizontale und vertikale Synchronisationssignale (hsynch und vsynch), die an den Stecker (3) und dann letztendlich an den Monitor, sowie zur Verarbeitungsschaltanordnungen der Lichtwaffe über den peripheren Adapter (18) geleitet werden. Die KSR-Steuereinheit (50) liest ferner den VRAM (52) zur entsprechenden Zeit, uni die loten, grünen und blauen analogen Ausgabesignale, die an den Monitor (16) über den Stecker (3) geleitet werden, zu erzeugen. Abb. 5 zeigt diese Signale als Beispiel für eine VGA-Anwendung. Das vsynch-Signal wird von der Schaltanordnung des Monitors verwendet, um den Start des Rastermusters auszulösen (Abb. 6a). Der niedere logische Pendelimpuls zu Beginn von vsynch wird als Austastintervall für die Zeit verwendet, wenn der Abtaststrahl im Bildschirm vom unteren rechten Abschnitt des Bildschirms (60) zurück zur oberen linken Hälfte des Bildschirms (62) zum nächsten Scanzykuls läuft. Das horizontale Synchronisationssignal, das auch in Abb. 5 gezeigt ist, wiederholt eine Vielzahl der Zeiten für jeden vertikalen Synchronisationszyklus und wird zur Steuerung der horizontalen Ablaufverfolgung des elektronischen Abtaststrahls verwendet. Ebenso wird der logische niedere Pegel von hsynch zum Austasten des elektronischen Strahls nach Beendigung des horizontalen Austastens verwendet und wenn der Strahl zurück zum linken Abschnitt des Bildschirms läuft.
  • Bei den röten, grünen und blauen Signalen handelt es sich um analoge Spannungspegel mit Amplituden, die proportionell zur Menge der bestimmten Farbe stehen, die auf einer bestimmten Stelle des Bildschirms beleuchtet werden, wobei die relativen Spannungspegel entsprechend der gewünschten Farbe abgeleitet werden.
  • In Abb. 7 sind die Hauptfunktionen eines typischen Computermonitors abgebildet. Die roten, grünen und blauen analogen Spannungspegel werden auf ein Steuerraster (70) appliziert, so dass die Intensität des elektronischen Strahls (72) durch das Steuerraster grosser ist, wenn die Amplitude des analogen Eingabesignals grosser ist. Das horizontale Synchronisationssignal wird von den horizontalen Ablenkspulen (74) ununterbrochen zur Ablaufverfolgung des Strahls über den Bildschirm verwendet, während die vertikalen Synchsignale von den vertikalen Ablenkspulen (76) zur Ablaufverfolgung des Strahls am Bildschirm nach unten bei einer niedrigeren Frequenz als beim horizontalen Ablauf verwendet werden. Die Hochfrequenz-Sägezahnschwingung in Abb. 6(b) wird durch das horizontale Synchronisationssignal erzeugt; die niedrigere Sägezahnschwingung wird von dem vertikalen Synchronisationssignal erzeugt. Während der Wiederaufzeichnungsphase (wenn die Sägezahnschwingungen geringe Spannung haben), wird der Strahl zurück an die entsprechende Startposition geleitet. Während dieser Rücklaufzeit, wird das Synchronisationssignal dazu verwendet, den Bildschirm auszuschalten, indem die Intensität des Strahls über den Steuerraster, wie im Stand der Technik bekannt, verringert wird. Das Ergebnis dieser Technik ist, dass der elektronische Strahl in das Rastermuster, wie in Abb. 6(a) aufgeführt, abgelenkt wird. Weitere Informationen zur Verwendung der VGA-Adapter und der Abtastraster-Videomonitoren können in dem Ratergeber The Personal Computer From The Inside Out, Sargent et al., nachgelesen werden, der als Referenzhinweis in dieser Beschreibung mit aufgeführt ist.
  • Zur Bestimmung der Speicherzelle des Sichtfelds (17) der Lichtsonde (24), auf die der Spieler zielt, muss die Lichtwaffe (14) und die verwendete Verarbeitungslogik (40) mit den Informationen, die mit der zeitlichen Steuerung des Rastermusters korrelieren, zur Verfügung gestellt werden. In vorhergehenden Ausführungen konnte dies nicht einfach in der Zentraleinheit des Computers vorgenommen werden, da die Zentraleinheit keinen Zugriff auf diese Informationen ohne eine besondere zusätzliche Schaltanordnung hatte. Bei der vorliegenden Erfindung wird jedoch ein Teil der Berechnung der Sichtfeldspeicherzellen, ausserhalb der Computer-Zentraleinheit durchgeführt, indem die Schaltanordnung und Logik (40) in der Lichtwaffe (14) verarbeitet wird und die Synchronisationssignale von dem peripheren Adapter (18) der vorliegenden Erfindung direkt an die Lichtwaffe (14), wie hierin beschrieben, geleitet wird. Die Positionsdaten werden daraufhin an den Computer (12) übertragen, wo sie von der Zentraleinheit (30) zusammen mit den vorbestimmten VGA-Resolutionsdaten (z. B. 640 · 480) zur Bestimmung der Pixelkoordinate X und Y verwendet wird.
  • Bei Abb. 8(a) handelt es sich um ein schematisches Diagramm des Verarbeitungsblocks (40) in der Lichtwaffe. Der Verarbeitungsblock besteht aus einem programmierbaren Interruptcontroller (PIC) (80), einer Zählerschaltung (82) und einem Oszillator (84). Der Oszillator 984) arbeitet mit dem Zählerschalter (82) zur Bereitstellung von benötigten Zählerfunktionen. Der analoge elektrische Signalsensor der durch die Lichtsonde (24) (Abb. 8 (c)) erzeugt wird, stellt die Eingabe an den PIC (80) dar, um die Initialisierungs - und Zeitgeberprogramme auszulösen, wenn der Abzug (26) vom Spieler betätigt wird. Der PIC (80) und der Zählerschalter (82) zählen die gesamten horizontalen Aufzeichnungen von Anfang der aktuellen vertikalen Aufzeichnung an durch den Raster. Diese Zahl wird für jede neue vertikale Aufzeichnung neu eingestellt. In einer Ausführung misst die Verarbeitungsschaltanordnung zusätzlich zu den horizontalen Aufzeichnungen die Dauer vom Beginn der aktuellen (unvollständigen) horizontalen Aufzeichnung bis zu dem Zeitpunkt, an dem die Lichtsonde den elektronischen Strahl in seinem Sichtfeld aufspürt, die von der Speicherzelle des Bildschirms auf die der Spieler zielt, abhängig ist. Daher kann die Logik die Phasenunterschiede zwischen Beginn des Abtastrasters und dem Zeitpunkt, zu dem der Strahl aufgespürt wird, kalkulieren; diese Informationen werden daraufhin an den Computer (12) gesendet, wann immer der Abzug durch den Spieler betätigt wird.
  • Die Positionsdaten PCDATA werden als serieller Bitstrom durch die Senderschaltung der Lichtwaffe (41) (Abb. 8 (c)) zum Kabel (22) gesendet. Der serielle Datenstrom wird vom Computer über den seriellen Stecker (20) empfangen und von der Zentraleinheit (30) verarbeitet. Die Zentraleinheit kalkuliert die X und Y-Pixelkoordinate und kann daraufhin entsprechend den Erfordernissen des Spiels bandeln. Die Zentraleinheit kann zum Beispiel bestimmen, ob ein Spieler ein bestimmtes Ziel getroffen oder verfehlt hat und daraufhin den Spielstand entsprechend ändern.
  • Die eingehende Arbeitsweise der peripheren Verarbeitungsschaltanordnung (40) wird jetzt mit Bezug auf die Flussdiagramme der Abb. 9 (a) bis 9 (c) beschrieben. Die Verarbeitungslogik wartet bis der Spieler den Abzug (26) betätigt, was durch das Signal Bt_fire, das nach unten schaltet, angezeigt wird. Wenn BT_fire nach unten schaltet, wird ein Steuerbyte von der Lichtwaffe (14) an den Computer (16) gesendet und zeigt dadurch an, dass der Abzug betätigt wurde. Die Zentraleinheit (30) wird daraufhin mehrere (z. B. 3 oder 4) vollständige Bildschirme mit weissem Licht erzeugen. Da das Sichtfeld der Lichtsonde (24) eventuell auf eine dunkle Stelle des Monitors zielt, und deshalb in solchen Fällen keine elektrischen Impulse senden kann, wenn der Strahl durch das Sichtfeld verfolgt wird (da die dunklen Stellen durch den Abtaststrahl mit wenig oder ohne Spannung erzeugt werden), kann es sein, dass kein Impuls bei Betätigung des Abzugs festgestellt wird. Wenn der Bildschirm mehrmals bei Betätigung des Abzugs belichtet wird, kann ein Impuls leicht festgestellt weden (weisses Licht wird durch einen Abtaststrahl durch Höchstspannung verursacht), und es spielt keine Rolle, wo das Sichtfeld auf den Bildschirm gerichtet wird. Ausserdem wird das Spiel davon nicht nachteilig beeinflusst, da der Spieler den aufblitzenden Bildschirm nicht erkennen kann.
  • Nachdem der Bildschirm mehrere Male aufgrund der Steuerbytes, die an die Zentraleinheit gesendet wurden, aufleuchtet, wird ein Parameterinitialisierungsprozess eingeleitet (unten beschrieben). Dadurch wird die Polarität der HSYNCH- und VSYNCH-Signale bestimmt, die von Hersteller zu Hersteller variieren können. Die Initialisierungsreihenfolge bestimmt ebenfalls die Resolution der Raster für die Berechnung der darauffolgenden X- und Y-Koordinate.
  • Nachdem die Parameter initialisiert sind, wird die Position des Sichtfelds (17) der Lichtsonde (24) durch das Zählen der Impulse und Dauer der Zeitgebertechniken nach Erfassung des Eingabeimpulses durch die Lichtsonde (24) (unten beschrieben) bestimmt. Die relativen X- und Y-Positionsdaten werden daraufhin berechnet und im seriellen Format an den Computer (12) übertragen. Die Zentraleinheit verwendet die relativen X- und Y-Positionsdaten zusammen mit ihrer Kenntnis der VGA-Bildschirmresolution (z. B. 640 · 480), um die X- und Y-Pixelkoordinate zu berechnen und die Ausführung des Videospielsprogramms fortzusetzen.
  • In Abb. 9(b) ist die Reihenfolge der Parameterinitialisierung dargestellt. Nach Erfassung der Auslösung des Abzugs (Bt_fire schaltet nach unten), wird zuerst die Polarität von VSYNCH bestimmt. Der PIC (80) zählt die Anzahl der Impulse von HYSNCH, während VSYNCH nach unten geschaltet ist, während VSYNCH oben ist (HSYNCHHIGH). Wenn HYSYNCHLOW grosser als HYSNCHHIGH ist, muss VSYNCH aktiv nach unten geschaltet sein, und wenn HYSNCHHIGH grosser als HSYNCHLOW ist, dann muss VSYNCH aktiv hoch sein.
  • Als nächstes wird in einer Ausführung die Y-Resolution Ys durch die Anzahl der HYSNCH Impulse bestimmt, die während des gerade bestimmten aktiven Zustands von VSYNCH gezählt werden. Das heisst, wenn VYSNCH aktiv hoch ist, dann ist Ys gleich HSYCHHIGH. Wenn jedoch VSYNCH aktiv niedrig ist, dann ist Ys gleich HSYCHLOW.
  • Die Polarität von HSYNCH wird daraufhin durch den Start der Zeitgeberfunktion im PIC (80) bestimmt. Durch die Niedrigschaltung von INITIALPASS wird das Taktsignal durch AND Gate 100 angesteuert. Die Zeitgeberfunktion zahlt daraufhin die Anzahl der CLOCK-Impulse während der Niedrigschaltperiode von HSYNCH (HSYNCHTIMELOW), und die Zeitgeberfunktion zählt ebenfalls die Anzahl der CLOCK-Impulse während der Hochschaltperiode von HSYNCH (HSYCHTIMEHIGH). Wenn HYSYRICHTIMELOW grosser als HSYNCHTIMEHIGH ist, muss HSYNCH aktiv niedrig sein, und wenn HYSYNCHTIMEHIGH grosser als HSYNCHTIMELOW ist, muss HSYNCH aktiv hoch sein.
  • Als nächstes wird die X-Resolution von Xs durch die gemessene Zeit die während des aktiven Status von HSYNCH, die gerade bestimmt wurde, festgelegt. Das heisst, wenn HYSNCH aktiv hoch ist, dann ist Xs gleich HSYNCHTIMEHIGH. Wenn jedoch HSYNCH aktiv niedrig ist, ist Xs gleich HSYNCHTIMELOW.
  • Schliesslich stellt PIC (80) entweder HIGHPASS auf eins, oder LOWPASS auf Logik eins, was von dem vorher bestimmten aktiven Status von HSYNCH abhängt. Das heisst, wenn HSYNCH aktiv niedrig ist, dann wird LOWPASS auf eins gestellt; wenn jedoch HSYNCH aktiv hoch ist, wird HIGHPASS auf eins gestellt. Dadurch kann der PIC HSYNCH, während es sich in der richtigen Polarität befindet, verwenden.
  • Nachdem dieser Initialisierungsprozess beendet ist, wird das Sichtfeld der Lichtsonde, wie in Abb. 9(c) dargestellt, bestimmt. Zuerst stellt PIC (80) INITIALPASS hoch, wodurch das Signal SENSOR durch AND Gate 100 angesteuert wird. Die Anzahl der HSYNCH-Impulse seit der letzten Aktivierung von VSYNCH wird vom PIC (80) gezählt. Zur gleichen Zeit startet PIC (80) eine Zeitgeberfunktion von der aktiven Flanke von HSYNCH und hält den Zeitgeber an der Wiederaufzeichnungsflanke von HSYNCH (dem Ende der Aufzeichnung) an. Solange das Signal SENSOR hoch ist (inaktiv - noch kein Impuls erfasst), läuft der HSYNCH Impulszähler und die Zeitgeberfunktion weiter. Wenn das Signal SENSOR in den niederen Bereich übergeht, was anzeigt, dass die Lichtsonde (24) einen elektronischen Abtaststrahl im Sichtfeld des Monitors entdeckt hat, wird die Impulszählung von HSYNCH in einem Verzeichnis im PIC (80) als Yc und das derzeitige HSYNCH Zeitgeberergebnis als Xt gespeichert.
  • In Bezug auf Abb. 9(a), werden die X- und Y-Positionsdaten an die Zentraleinheit zur weiteren Verarbeitung zurückgesendet. Das heisst, das Verhältnis von Xt/Xs und Yc/Ys werden zur Zentraleinheit zurückgesendet. Jedes Verhältnis stellt die Position auf dem Bildschirm des Sichtfelds in Bezug auf den relativen Prozentsatz dar. Die Zentraleinheit verwendet diese Daten zusammen mit der vorbestimmten VGA- Bildschirmresolution, um die X- und Y-Pixelkoordinate zu berechnen, an denen das Sichtfeld positioniert ist. Die X-Pixel Koordinate wird durch die Gleichung X = Xr·Xt/Xs, wobei Xt das gemessene Zeitgeberergebnis von HSYNCH darstellt, Xs die gemessene X-Resolution und Xr die physikalische Resolutionskoordinate, die im Computer (12) gespeichert ist (z. B. Xr = 640 für eine 640 · 480 VGA Resolution). Die Y-Pixel Koordinate wird ebenso durch die Gleichung Y = Yr·Yc/Ys definiert, wobei Yc das gemessene Zeitgeberergebnis von HSYNCH darstellt, Ys die gemessene Y- Resolution und Yr die physikalische Resolutionskoordinate, die im Computer (12) gespeichert ist (z. B. Yr = 480 für eine 640 · 480 VGA Resolution).
  • In einer zweiten Ausführung wird eine andere Zeitgebermethode zur Erzeugung der x- und y-Positionen des lichtempfindlichen peripheren Geräts verwendet. Bei dieser Methode wird eine Initialisierungsroutine verwendet, die auf die Zeitdauer eines freilaufenden Oszillator basiert, um die y-Resolution Ys und die X-Resolution Xs zu identifizieren.
  • In dieser Ausführung wird die Y-Resolution durch Messen der aktiven Zeitdauer (Tv) von VSYNCH bestimmt und wann HSYNCH aktiv und inaktiv ist. Mit Hilfe von HSYNCHTIMEHIGH und HSYNCHTIMELOW kann die Resolution Ys bestimmt werden, indem die Gesamtvertikalzeit durch die Zeit geteilt wird, die es braucht, um jede Abtastzeile wiederaufzubauen; Ys (Tv/Th - Thl), wobei Th die Zeit vom Beginn einer Abtastzeile zum Beginn der nächsten Abtastzeile darstellt, und Thl die horizontale Wiederaufbauzeit (siehe Abb. 13).
  • Nachdem der Initialisierungsprozess beendet ist, wird die Position des Sichtfelds der Lichtsonde bestimmt, wie in Abb. 12 (c) dargestellt. Zuerst schaltet der PIC (80) INITIALPASS hoch, wodurch das Signal SENSOR AND Gate 100 ansteuern kann. PIC (80) beginnt eine Zeitgeberfunktion von der aktiven VSYNCH Verbindung (Yto) (siehe Abb. 13) und hält den Zeitgeber am Erkennungspunkt des Impulses (Yte) an. Solange SENSOR hoch geschaltet ist (inaktiv - noch kein Impuls erfasst), fährt die Zeitgeberfunktion fort. Wenn SENSOR in den niedrigen Bereich übergeht, wodurch angezeigt wird, dass die Lichtsonde (24) einen elektronischen Lichtstrahl im Sichtfeld des Monitors entdeckt hat, wird der Zeitgeber angehalten und im Verzeichnis von PIC (80) als Yte gespeichert. Derselbe Zeitgeber wird verwendet, um die horizontale Position des lichtempfindlichen Geräts zu berechnen. Der X-Wert wird durch Messen der Zeit ab Erfassung bis zum Ende der horizontalen Zeile, an dem der Lichtstrahl erfasst wurde, bestimmt. Der Zeitgeber wird rückgesetzt (Xto) and läuft weiter bis er bei HSYNCH Strahlrücklauf angehalten wird. Das HSYNCH Zeitgeberergebnis wird in einem Verzeichnung in PIC (80) als Xte gespeichert. Eine Berechnung ergibt den Wert von Yt und Xt als Funktion der Zeiten Yte und Xte und speichert diese Werte in den entsprechenden PIC (80) Verzeichnissen. Xt = = ((Th - Thl) - Xte)/(th - Thl) und Yt = (Mod (Yte/Th)/(Mod(Tv/Th)), wobei Tv die gesamte vertikale Abtastzeit darstellt, Th die gesamte horizontale Abtastzeit und Thl die horizontale Strahlrücklaufzeit. In Bezug auf Abb. 12(1), werden die X- und Y-Positionsdaten an die Zentraleinheit zur weiteren Verarbeitung gesendet. Das heisst, die Verhältnisse Xt/Xs und Yt/Ys werden zur Zentraleinheit gesendet. Jedes Verhältnis stellt die Position auf dem Bildschirm des Sichtfelds bezüglich des relativen Prozentsatzes dar. Die Zentraleinheit verwendet diese Daten zusammen mit der vorbestimmten VGA-Bildschirmresolution, um die X- und Y-Pixelkoordinate zu berechnen, an denen das Sichtfeld positioniert ist. Die X-Pixelkoordinate wird durch die Gleichung X = Xr·Xt/Xs definiert, wobei Xt das berechnete Zeitgeberergebnis darstellt, Xs die gemessene X-Resolution und Xr die physikalische Resolutionskoordinate, die im Computer (12) gespeichert wird (z. B. Xr = 640 für eine 640 · 480 VGA-Resolution). Gleichfalls wird die Y-Pixelkoordinate durch die Gleichung Y = Yr·Yt/Ys definiert, wobei Yt den berechneten Zeitgeberwert darstellt, Ys den berechneten Resolutionswert und Yr die physikalische Resolutionskoordinate, die im Computer (12) gespeichert wird (z. B. Yr = 480 für eine 640 · 480 VGA-Resolution).
  • Andere Ausführung können in Verbindung mit dieser Erfindung verwendet werden. Zum Beispiel kann die zeitliche Steuerung der Phasenverzögerung zwischen der Rasterstartzeit und der Erfassung des elektronischen Lichtstrahls auf andere Weise durchgeführt werden, um die Speicherzelle des Sichtfelds der Lichtsonde zu bestimmen.
  • Ausserdem können andere Ressourcen für die Bereitstellung der Positionsdaten verwendet werden, um die X- und Y-Positiondaten an den Computer (12) über die serielle Schnittstelle zu übertragen. Zum Beispiel kann der relativ neue Universal Serial Bus (USB), eine parallele Eingabeschnittstelle, eine SCSI Eingabeschnittstelle, eine drahtlose infrarote Verbindung oder eine RF-Verbindung un dergleichen in Verbindung mit der vorliegenden verwendet werden.
  • Es ist ferner vorgesehen, die Verarbeitungselektronik in der Lichtsonde (14) (d. h. die periphere Verarbeitungsschaltungsanordnung (40) und die Senderschaltung (41)) in dem peripheren Adapter (18) unterzubringen, wie in Abb. 11(a) und 11(b) dargestellt. In diesem Fall, wurde die Lichtwaffe (14) nur Signale vom. Abzug (und anderen Schaltflächen) und der Lichtsonde vorsehen, die an die verarbeitende Schaltungsanordnung (40) des peripheren Adapters (18) geleitet werden (oder, falls erwünscht, drahtlos gesendet werden). Die X- und Y-Positionsdaten würden daraufhin direkt vom peripheren Adapter (18) an die serielle Schnittstelle (20) übertragen und schliesslich an die Zentraleinheit (30) zur weiteren Verarbeitung gesendet werden.
  • Eine weitere Variation dieser Ausführung wäre eine Schaltungsanordnung, die entsprechende Sensor- und Abzugsdaten an die Spielkonsolenplattform sowie an die hierin beschriebene PC-Plattform bereitstellt. Wie in Abb. 10 dargestellt, würde der Adapter (18) so konfiguriert, dass er an die zweckgebundene Konsolenplattform (12a) über die Stecker 20a und 6a angeschlossen werden kann. Die entsprechende verarbeitende Schaltungsanordnung würde dann an den Adapter (18) hinzugefügt, wodurch ebenfalls lichtempfindliche und Abzugssignale direkt an die Spielkonsole (12a) bereit gestellt werden, wie es im Stand der Technik bestens bekannt ist. In diesem Fall mussten die HSYNCH- und VSYNCH-Signale nicht in den Adapter (18) eingegeben werden, da sie der Controller-Schaltungsanordnung innerhalb der Spielkonsole (12a) bekannt sind und die X-, Y-Positions- und bzw. Pixeldaten innerhalb der Spielkonsole (12a) berechnet werden können, indem nur die Sensor- und Abzugsdatensignale bereit gestellt werden. Dadurch braucht der Anwender nur eine Lichtwaffe und ein Adaptersystem zu kaufen und kann es entweder auf dem PC oder der Spielkonsole verwenden, indem er sie einfach in die gewünschte Plattform einsteckt.
  • In einer weiteren Ausführung kann die VGA-Adapterkarte speziell so konzipiert sein, um die Verarbeitungslogik durch die verarbeitende Schaltungsanordnung (40) ausführen zu lassen, wodurch die verarbeitende Schaltungsanordnung (40) kerne externe Komponente des Computers (12) darstellen muss. In diesem Fall sind die VSYNCH und HSYNCH Signale natürlich auf dem VGA-Adapter (34) erhältlich und die Sensorsignale und Abzugsbetätigungssignale würden direkt von der Lichtwaffe (14) an den Computer (12) durch die serielle Schnittstelle eingegeben. Die Berechnung der X- und Y-Positionsdaten würde dann vom VGA-Adapter (34) durchgeführt und zurück an den Zentraleinheit (30) über die Systembusse (32) geleitet. Obwohl für diese Ausführung ein speziell konzipierter VGA-Adapter (34) notwendig wäre (der wahrscheinlich vom Computerhersteller auf Wunsch des Käufers geliefert werden kann), müsste der Anwender jedoch keine zusätzliche Karte in einen leeren Steckplatz der Hauptplatine wie in den vorangegangen Geräten, einfügen.
  • Gemäss der vorstehend beschriebenen Ausführung, sollte ein Kalibrieralgorithmus verwendet werden, um die Korrekturfaktoren zu bestimmen, die die Genauigkeit des lichtelektrischen Empfangsgeräts anpasst.
  • Die Kalibrierressourcen beziehen sich auf die Speicher- und Verarbeitungsoperationen, die für den Kalibrier- und Wiederkalibrierprozess verwendet werden. Damit dieses Gerät auf jedem PC verwendet werden kann, muss es die Bildschirmposition des empfangenden Lichts durch den lichtempfindlichen Umformer des lichtempfindlichen peripheren Geräts genau bestimmen. Die zeitliche Steuerung wird durch Faktoren, wie z. B. Prozessorgeschwindigkeit, Controllerart der Videografik, Monitorleistung und Variabilität der Leistung des lichtempfindlichen peripheren Geräts dieser Erfindung beeinflusst. Der Kalibrieralgorithmus kann durch den Prozessor des PC entweder mit einem Treiber oder in der Firmware des peripheren Adapters ausgeführt werden oder indem eine Hardwareschaltung ohne Firmware auf dem peripheren Adapter verwendet wird. Der Kalibrierprozess kann vor dem Spiel oder während des computersimulierten Spiels ausgeführt werden. Ein Kalibrierprozess kann wahlweise vom Anwender ausgeführt werden. In einem Operationsmodus kann der Kalibrierprozess während der Testphase des Spiels durchgeführt werden, wobei die tatsächlichen Masse der Systemleistung aufgezeichnet werden, während der Prozessor unter Anwenderspielbedingungen den Prozess ausführt. Während des Kalibriervorgangs werden maximale (TcMax) und minimale (TcMin) Werte für die horizontale zeitliche Steuerung (Th) aufgezeichnet sowie maximale (TeMax) und minimale (TeMin) Werte für die vertikale zeitliche Steuerung bis zur Erfassung eines Ereignisses (Te). Der Kalibrierprozess erzeugt daraufhin eine Reihe von Offset-Werten, die von den gemessenen Systemparametern herleiten. Diese Offset-Werte werden zur Erzeugung der Kalibrierwerte verwendet, die die vorgenannten zeitlichen Steuerungswerte durch den Intialisierungsprozess ersetzen. In einer weiteren Ausführung werden die maximalen (TcMax) und minimalen (TcMin) Werte proportional zur horizontalen zeitlichen Steuerung (Th, Thl) berechnet und die maximalen (TeMax) und minimalen (TeMin) Werte proportional zu der vertikalen zeitlichen Steuerung (Tv). Diese Werte werden zur Erzeugung der kalibrierten Werte verwendet, die die vorgenannten zeitlichen Steuerungswerte durch den Initialisierungsprozess ersetzen (die Offset-Werte, wie oben erwähnt, stellen eine Schlussfolgerung dar). Die Initialisierungs- und Kalibriervariablen werden nachfolgend beschrieben.
  • Beschreibung der Initialisierungsvariablen (kopiert aus der obigen Beschreibung zur Einfachheit für den Leser):
  • a. Th: Horizontaler Aufzeichnungszeitraum (links nach rechts)
  • b. Thl: Horizontaler Aufzeichnungszeitraum (links nach rechts) plus Rücksetzzeitraum (rechts nach links)
  • c. Tc: Horizontaler Aufzeichnungszeitraum vom Anfang des Rucksetzzeitraums bis zum Sensorpunkt
  • d. Tv: Vertikaler Aufzeichnungszeitraum von oben bis unten
  • e. Te: Vertikaler Aufzeichnungszeitraum vom Anfang des Aufzeichnungszeitraums (oben) bis zum Sensorpunkt
  • Beschreibung der Kalibriervariablen:
  • f. TcMax, TcMin: Horizontale Ausmasse (maximal, minimal)
  • g. TeMax, TeMin: Vertikale Ausmasse (maximal, minimal)
  • h. Tcl, TcR: Horizontale Offset-Werte von links, rechts
  • i. TeT, TeB: Vertikale Offset-Werte von oben, unten
  • j. CTh: Kalibrierter horizontaler Aufzeichnungszeitraum
  • k. CTc: Kalibrierter horizontaler Sensorpunkt
  • l. CTv: Kalibrierter vertikaler Aufzeichnungszeitraum
  • m. Cte: Kalibrierter vertikaler Sensorpunkt
  • n. X: Kalibrierte horizontale Position (X-Achse)
  • o. Y: Kalibrierte vertikale Position (Y-Achse)
  • Wo sich die Zwischenoffset-Werte befinden:
  • 1a. TcL = Th + Thl - TcMax
  • 1b. TcR = Thl - TcMin, und
  • 1c. TeT = TeMin
  • 1d. TeB = Tv - TeMax
  • und die kalibrierten Werte für Th, Tc, Tv und Te sind CTh, Ctc, CTv und Cte:
  • 2a. CTh = Th - (TcL - TcR)
  • 2b. CTc = Tc - (Thl - TcR)und
  • 2c. CTv = Tv - (TeT + TeB)
  • 2d. Cte = Te - TeT
  • Die X- und Y-Speicherzellen werden wie folgt berechnet:
  • 3. X = (CTh - CTc) + (Rx/CTh)
  • Y = Cte·(Ry/CTvf)
  • In einer anderen Ausführung stellen die kalibrierten Werte für Th, Tc, Tv und Te die Werte CTh, CTc, CTv und Cte dar:
  • 4a. CTh = TcMax - TcMin
  • 4b. CTc = Tc - TcMin, und
  • 4c. CTv = TeMax - TeMin
  • 4d. Cte = Te - TeMin
  • Die X- und Y-Speicherzellen werden wie folgt berechnet:
  • 5. X = (CTh - CTc)·(Rx/CTh)
  • Y = Cte·(Ry/CTv).
  • In einer Ausführung wird der Kalibrierprozess, wie in Abb. 14 dargestellt, durch Abrufen der zeitlichen Steuerungswerte (Th, Thl, Tc, Tv und Te) ausgeführt. Während des Kalibrierprozesses werden eine Reihe von Massen genommen, um die maximalen und minimalen Aufzeichnungszeiten für die horizontale und vertikale Aktualisierung der Anzeige zu bestimmen, indem die maximalen und minimalen Zeiten von Anfang bis Ende der Aufzeichnungen für die Dauer des Messabschnitts des Kalibrierprogramms aufgezeichnet werden. Wenn die Messperiode abgeschlossen ist, werden die maximalen und minimalen Werte oder Ausmasse verwendet, um die Offset-Werte der horizontalen und vertikalen zeitlichen Steuerung zu berechnen, die mit den Gleichungen 1a-d (siehe oben) übereinstimmen.
  • In einer anderen Ausführung wird der Kalibrierprozess, wie in Abb. 15 dargestellt, ausgeführt, indem die zeitlichen Steuerungswerte (Th, Thl, Tc, Tv und Te) abgerufen werden. Während des Kalibriervorgangs werden die maximalen und minimalen Aufzeichnungszeiten für die horizontalen und vertikalen Aktualisierungen der Anzeige proportional zu den vorgenannten zeitlichen Steuerungswerten berechnet. Die maximalen und minimalen Werte oder Ausmasse werden zur Berechnung der Kalibrierwerte für die Gleichungen (siehe 4a-d) verwendet
  • Die Kalibrierwerte werden dann für die Bildschirmresolution verwendet, um eine kalibrierte X- und Y-Pixelkoordinate der empfangenen Anzeigeposition der Pixel zu bestimmen. Diese Kalibrierwerte werden von der Zentraleinheit des Sytems oder dem Mikrocontroller verwendet, um die Koordinate an die Spielsoftware weiterzuleiten. Wenn der Kalibrierprozess auf den Mikrocontroller des peripheren Adapters ausgeführt wird, verwenden die maximalen und minimalen Offset-Werte sowie die Kalibrierwerte den verfügbaren Speicher des Mikrocontrollers während des Kalibrierprozesses. Deshalb stellt die vorliegende Erfindung einen Vorteil dar, da die Lichtwaffe mit einem PC-Videospielsystem verwendet werden kann, ohne die Hardwarekonfiguration des Computers oder des Betriebssystems ändern zu müssen. Die Lichtwaffe kann ganz einfach auf anderen Computern verwendet werden, ohne den Computer auseinander legen zu müssen, um die Erweiterungsschaltungen auszubauen. Genauso kann ein lichtempfindliches Gerät, wie z. B. ein Lichtgriffel auf jedem anderen Softwaresystem verwendet werden, das alternative Eingaberessourcen zur Verfügung stellt und so funktioniert, wie zum Beispiel eine Maus.

Claims (18)

1. Ein Videospielsystem bestehend aus:
a) Computerressourcen bestehend aus
(i) Computerverarbeitungsressourcen (12) zur Ausführung von Videospielprogrammen; besagte Computerverarbeitungsressourcen zur Erzeugung einer Vielzahl von Anzeigerahmen, die typisch für Bilder sind, die auf dem Videomonitor (16) angezeigt werden;
(ii) Videoadapterressourcen (34), die an besagte Computerverarbeitungsressourcen zur Verarbeitung besagter Rahmen und zur Erzeugung analoger Anzeigesignale gekoppelt sind, sowie Synchronisationssignale die mit besagten analogen Anzeigesignalen in Beziehung stehen; besagte analoge Anzeigesignale und besagte Synchronisationssignale, die an den assoziierten Videoanschluss (3) Daten ausgeben;
b) einem peripheren Adapter (18), der an besagten Videoanschluss (3) gekoppelt ist; besagter peripherer Adapter, der an besagte analoge Anzeigesignale Daten ausgibt, sowie besagte Synchronisationssignale an den Videomonitor (16); besagter peripherer Adapter zur Ausgabe besagter Synchronisationssignale an das periphere Gerät des Videospiels (14);
c) einen Videomonitor (16), der an besagten peripheren Adapter (18) zur Verarbeitung besagter analoger Anzeigesignale und besagter Synchronisationssignale zur Anzeige von Bildern auf den hiermit assoziierten Bildschirm gekoppelt ist; sowie ein peripheres Videospielgerät (14) bestehend aus
(i) einem lichtempfindlichen Umformer (24) mit Sichtfeld; besagter lichtempfindlicher Umformer gibt ein elektrisches Signal proportional zum erfassten Licht im Sichtfeld aus;
(ii) Ressourcen (41) zum Empfang besagter Synchronisationssignale des besagten peripheren Adapters;
(iii) periphere Verarbeitungsressourcen (40) zur Verarbeitung besagter elektrischer Signale des besagten lichtemfindlichen Geräts und besagter Synchronisationssignale, sowie zur Erzeugung eines peripheren Positionssignals, das die relative Position des Sichtfeld des besagten lichtempfindlichen Umformers auf besagtem Bildschirm anzeigt; und
(iv) Ressourcen (41) zur Übertragung peripherer Positionssignale an besagte Computerressourcen zur weiteren Verarbeitung.
Besagtes peripheres Videospielgerät (14) enthält ferner einen manuell zu bedienenden Schalter (26); besagter Schalter ist so konfiguriert, um ein Abzugssignal an besagte periphere Verarbeitungsressourcen (18) zu senden; die besagten peripheren Positionssignale werden daraufhin an besagte Computerressourcen (12) übertragen, nachdem besagter Schalter betätigt wurde. Besagte Synchronisationssignale bestehen aus einem horizontalen und einem vertikalen. Synchronisationssignal, die durch folgende Merkmale gekennzeichnet sind:
Initialisierungsressourcen (80, 82, 84, 24) zum Messen einer Reihe von Initialisierungsparametern, die mit einer X-Dimension eines Rastermusters, das auf besagten Videomonitor aufgezeichnet wurde, korrelieren sowie eine Y- Dimension besagten Rastermusters;
Ressourcen (80) zum Abfühlen eines Abzugssignals, sowie Ressourcen (40) zur Bestimmung der relativen X- und Y-Position des Sichtfelds der Lichtwaffe (14), die auf den Bildschirm (16) zielt, wenn der Abzug (26) aktiviert wird.
2. Das Videospielsystem unter Punkt 1), wobei besagte Initialisierungsressourcen folgende Merkmale umfassen:
Erste Ressourcen zum Abfühlen der aktiven Polarität des horizontalen Synchronisationssignals, und
zweite Ressourcen zum Abfühlen der aktiven Polarität des vertikalen Synchronisationssignals.
3. Das Videospielsystem unter Punkt 2), wobei die zweite Abfühlressource zum Abfühlen der aktiven Polarität des vertikalen Synchronisationssignals folgende Merkmale umfasst:
Ressourcen zum Zählen der Anzahl der horizontalen Synchronisationsimpulse während des L-Zustands des besagten Synchronisationssignals;
Ressourcen zum Zählen der Anzahl der horizontalen Synchronisationsimpulse während des H-Zustands des besagten vertikalen Synchronisationssignals, sowie Ressourcen zum Aufbau der Polarität des vertikalen Synchronisationssignals, die
(i) aktiv hoch sind, wenn die Anzahl der horizontalen Synchronisationsimpulse während eines H-Zustands des besagten vertikalen Synchronisationssignals grosser ist, als die Anzahl des horizontalen Synchronisationsimpulses während eines L-Zustands des besagten vertikalen Synchronisationssignals, oder
(ii) aktiv niedrig ist, wenn die Anzahl der horizontalen Synchronisationsimpulse während eines L-Zustands des besagten vertikalen Synchronisationssignals grosser ist, als die Anzahl des horizontalen Synchronisationsimpulses während eines H-Zustands des besagten vertikalen Synchronisationssignals.
4. Das Videospielsytem unter Punkt 2), wobei die erste Abfühlressource zum Abfühlen der aktiven Polarität des horizontalen Synchronisationssignals folgende Merkmale umfasst:
Ressourcen zur Zeitmessung der Dauer des horizontalen Synchronisationssignals während eines L-Zustands des horizontalen Synchronisationssignals; Ressourcen zur Zeitmessung der Dauer des horizontalen Synchronisationssignals während eines H-Zustands des horizontalen Synchronisationssignals; sowie Ressourcen zum Aufbau der Polarität des horizontalen Synchronisationssignals, die
(i) aktiv hoch sind, wenn die Dauer des horizontalen Synchronisationssignals während eines H-Zustands des besagten vertikalen Synchronisationssignals grosser ist, als die Dauer des horizontalen Synchronisationssignals während eines L-Zustands des besagten horizontalen Synchronisationssignals, oder
(ii) aktiv niedrig ist, wenn die Dauer des horizontalen Synchronisationssignals während eines L-Zustands des besagten vertikalen Synchronisationssignals grosser ist, als die Dauer des horizontalen Synchronisationssignals während eines H-Zustands des besagten horizontalen Synchronisationssignals.
5. Das Videospielsystem unter Punkt 1), wobei die Initialisierungsressourcen (80, 82, 84, 24) erste Ressourcen zur Bestimmung der Y-Resolution Ys des Rastermusters und zweite Ressourcen zur Bestimmung der X-Resolution Xs des Rastermusters umfassen.
6. Das Videospielsystem unter Punkt 5), wobei besagte erste Bestimmungsressourcen Ressourcen zum Zählen der Anzahl der horizontalen Synchronisationsimpulse umfassen, während sich das vertikale Synchronisationssignal in seiner aktiven Polarität befindet.
7. Das Videospielsystem unter Punkt 5), wobei besagte zweite Bestimmungsressourcen Ressourcen zur Zeitmessung der Dauer der horizontalen Synchronisationsimpulse umfassen, während sich das horizontale Synchronisationssignal in seiner aktiven Polarität befindet.
8. Das Videospielsystem unter Punkt 5), wobei besagte Ressourcen zur Bestimmung der relativen x- und y-Position des Sichtfelds der Lichtwaffe, die auf den Bildschirm positioniert ist, wenn der Abzug betätigt wird, folgende Merkmale umfassen:
Ressourcen zur Erkennung eines Impulses im besagten elektrischen Signal von dem besagten lichtempfindlichen Gerät;
Ressourcen zum Zählen der Anzahl der horizontalen Synchronisationsaufzeichnungen von dem Zeitpunkt an, an dem das Synchronisationssignal in seines aktiven Zustand übergegangen ist bis zu dem Zeitpunkt, an dem der Impuls entdeckt wurde; besagte Anzahl der Aufzeichnungen werden als Yc definiert;
Ressourcen zur Zeitmessung der Dauer des horizontalen Synchronisationssignals von dem Zeitpunkt an, an dem das horizontale Synchronisationssignal in seinen aktiven Zustand übergegangen ist; besagte Zeitmessungsressourcen werden rückgesetzt, wenn besagtes horizontale Synchronisationssignal in seinen inaktiven Zustand übergeht, bevor der Impuls erfasst wurde; besagte Zeitdauer wird als Xt defiliert.
9. Das Videospielsystem unter Punkt 8), wobei besagtes peripheres Positionssignal Xt/Xs und Yc/Ys umfasst.
10. Das Videospielsystem unter Punkt 9), wobei besagte Computerverarbeitungsressourcen die X-Pixelkoordinate durch die Formel Xr·Xt/Xs bestimmt, wobei Xr die Pixelresolution der X-Achse auf dem Bildschirm darstellt.
11. Das Videospielsystem unter Punkt 9), wobei besagte Computerverarbeitungsressourcen die Y-Pixelkoordinate durch die Formel Yr·Yc/Ys darstellt, wobei Xr die Pixelresolution der Y-Achse auf dem Bildschirm darstellt.
12. Das Videospielsystem unter Punkt 5), wobei besagte Ressourcen die relative X- und Y-Position des Sichtfelds der Lichtwaffe bestimmt, die auf dem Bildschirm gerichtet ist, wenn der Abzug betätigt wird.
Ressourcen zur Zeitmessung der Dauer des vertikalen Synchronisationssignals von dem Zeitpunkt an, an dem das vertikale Synchronisationssignal in seinen aktiven Zustand übergangen ist bis zu dem Zeitpunkt, an dem der Impuls entdeckt wurde; besagte Zeitdauer wird als Yte definiert; und
Ressourcen zur Zeitnahme der Dauer des horizontalen Synchronisationssignals; besagte Zeitnahmeressourcen werden rückgesetzt, wenn der Impuls erfasst wurde und angehalten, wenn das horizontale Synchronisationssignal in seinen inaktiven Zustand übergegangen ist; besagte Zeitdauer wird als Xte definiert.
13. Das Videospielsystem unter Punkt 12), wobei die Verarbeitungsressourcen Xt = ((Th - Thl) - Xte)/(Th - Thl) und Yt + (Mod(Yte/Th)/(Mod(Tv/Th)) berechnen und Tv die gesamte vertikale Abtastzeit darstellt, Th die gesamte horizontale Abtastzeit und Thl die horizontale Strahlrücklaufzeit.
14. Das Videospielsystem unter Punkt 13), wobei besagtes Positionssignal Xt/Xs und Yt/Ys umfasst.
15. Das Videospielsystem unter Punkt 14), wobei besagte Computerverarbeitungsressourcen die X-Pixelkoordinate anhand der Formel Xr·Xt/Xs berechnen und Xr die Pixelresolution der X-Achse auf dem Bildschirm darstellt.
16. Das Videospielsystem unter Punkt 14), wobei besagte Computerverarbeitungsressourcen die Y-Pixelkoordinate anhand der Formel Yr·Yt/Ys berechnen und Yr die Pixelresolution der Y-Achse auf dem Bildschirm darstellt.
17. Das Videospielsystem unter Punkt 12), das weitere Kalibrierressourcen umfasst, um die Zeitmessungswerte für Xte und Yte rückzusetzen.
18. Das Videospielsystem unter Punkt 13), das weitere Kalibrierressourcen zur Rücksetzung der Zeitmessungswerte des peripheren Systemadapters umfasst, sowie weitere Speicherressourcen zum Speichern der maximalen und minimalen Werte von Th, Thl, Tv und Te.
DE69903939T 1998-05-27 1999-05-27 Lichtempfindliche peripherieeingabeeinheit für ein persönliches computergesteuertes videospielgerät Expired - Fee Related DE69903939T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/085,153 US6171190B1 (en) 1998-05-27 1998-05-27 Photosensitive input peripheral device in a personal computer-based video gaming platform
PCT/CA1999/000454 WO1999061121A1 (en) 1998-05-27 1999-05-27 Photensitive input peripheral device in a personal computer-based video gaming platform

Publications (2)

Publication Number Publication Date
DE69903939D1 DE69903939D1 (de) 2002-12-19
DE69903939T2 true DE69903939T2 (de) 2003-09-04

Family

ID=22189791

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69903939T Expired - Fee Related DE69903939T2 (de) 1998-05-27 1999-05-27 Lichtempfindliche peripherieeingabeeinheit für ein persönliches computergesteuertes videospielgerät

Country Status (6)

Country Link
US (2) US6171190B1 (de)
EP (1) EP1079905B1 (de)
CA (1) CA2333451A1 (de)
DE (1) DE69903939T2 (de)
ES (1) ES2190209T3 (de)
WO (1) WO1999061121A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007029135A1 (de) 2007-06-25 2009-01-02 Siemens Ag Verfahren und Vorrichtung zur Detektion der Position eines auf eine Anzeigeeinheit auftreffenden gebündelten Lichtstrahls

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6615814B1 (en) * 1999-03-18 2003-09-09 Npf Limited Paintball guns
US6311682B1 (en) 1999-01-22 2001-11-06 Npf Limited Paintball guns
JP2000218037A (ja) * 1999-02-02 2000-08-08 Sega Enterp Ltd ビデオ画面の指示位置検出方法及び装置
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US6287198B1 (en) * 1999-08-03 2001-09-11 Mccauley Jack J. Optical gun for use with computer games
US20020010021A1 (en) * 1999-08-03 2002-01-24 Mccauley Jack Jean Method and device for optical gun interaction with a computer game system
US20040259644A1 (en) * 1999-08-03 2004-12-23 Mccauley Jack Jean Method and device for optical gun interaction with a computer system
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
JP2001252474A (ja) * 2000-03-10 2001-09-18 Namco Ltd ゲームシステム及び情報記憶媒体
JP3847057B2 (ja) * 2000-05-24 2006-11-15 アルプス電気株式会社 指示位置検出装置及び前記装置を用いたゲーム用コントローラ
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
JP2002058874A (ja) * 2000-08-15 2002-02-26 Mitsumi Electric Co Ltd コントロールアダプタ装置
US7134960B1 (en) * 2000-08-23 2006-11-14 Nintendo Co., Ltd. External interfaces for a 3D graphics system
US6609977B1 (en) 2000-08-23 2003-08-26 Nintendo Co., Ltd. External interfaces for a 3D graphics system
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
FR2819901A1 (fr) * 2001-01-25 2002-07-26 Yves Jean Paul Guy Reza Ensemble d'interface entre un utilisateur et un dispositif electronique
KR20020093291A (ko) * 2001-06-08 2002-12-16 김범 스크린 상의 목표물 위치 감지 장치
TWI232769B (en) * 2001-10-19 2005-05-21 Zeroplus Technology Co Ltd Visual feedback system for light gun
ES2189685B1 (es) * 2001-12-19 2004-10-16 Industrias El Gamo, S.A. Cazabalines con deteccion electronica de impacto en el blanco y metodo de deteccion empleado.
JP3974507B2 (ja) * 2001-12-27 2007-09-12 株式会社東芝 半導体装置の製造方法
US6902483B2 (en) * 2002-04-01 2005-06-07 Xiao Lin Handheld electronic game device having the shape of a gun
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20030199324A1 (en) * 2002-04-23 2003-10-23 Xiaoling Wang Apparatus and a method for more realistic shooting video games on computers or similar devices using visible or invisible light
FR2839589A1 (fr) * 2002-05-13 2003-11-14 Yves Guy Reza Ensemble d'interface entre un utilisateur et un dispositif electronique
US20050075166A1 (en) * 2002-05-14 2005-04-07 Hemstreet Paul A. Media program with interactive feature
GB2391292B (en) * 2002-07-24 2005-11-16 Planet Eclipse Ltd Electronic grip-frame for a paintball marker
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
JP2004144451A (ja) * 2002-10-28 2004-05-20 Nec Corp
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
TW200516977A (en) * 2003-11-14 2005-05-16 Zeroplus Technology Co Ltd Target positioning system implemented by utilizing photography
US20070287132A1 (en) * 2004-03-09 2007-12-13 Lamons Jason W System and method of simulating firing of immobilization weapons
WO2005119356A2 (en) * 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
TWM268089U (en) * 2004-09-15 2005-06-21 Zeroplus Technology Co Ltd Light gun device
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
US7927216B2 (en) * 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
JP4805633B2 (ja) 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US8313379B2 (en) * 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
CN1919389A (zh) * 2005-08-24 2007-02-28 任天堂株式会社 游戏控制器和游戏系统
JP4262726B2 (ja) * 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US8308563B2 (en) * 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
EP1790938A3 (de) * 2005-10-03 2008-04-23 B.V.R. Systems (1998) Ltd System und Verfahren für Schiessanlagesimulator
GB2438667A (en) * 2006-05-18 2007-12-05 Spiral Scratch Ltd Position detection using light gun
JP5051822B2 (ja) 2006-08-02 2012-10-17 任天堂株式会社 汎用遠隔制御機能を備えたゲーム装置
US7866307B2 (en) * 2006-11-03 2011-01-11 Planet Eclipse Limited Selectable dual trigger mechanism for a paintball marker
US7566858B2 (en) 2006-11-07 2009-07-28 Apple Inc. Remote control systems that can distinguish stray light sources
US8291346B2 (en) * 2006-11-07 2012-10-16 Apple Inc. 3D remote control system employing absolute and relative position detection
US8102365B2 (en) * 2007-05-14 2012-01-24 Apple Inc. Remote control systems that can distinguish stray light sources
US20090045579A1 (en) * 2007-08-14 2009-02-19 Broadley Clifford J Method of competitive marksmanship and game therefore
NZ563215A (en) * 2007-11-06 2009-03-31 Zenith Asset Man Ltd A method of monitoring product identification and apparatus therefor
US8036704B2 (en) * 2007-12-19 2011-10-11 Werner Theodore J Device for wirelessly and remotely actuating a trigger of a weapon
US11287939B2 (en) 2008-10-09 2022-03-29 Aristocrat Technologies Australia Pty Limited Gaming system and gaming system processor module
US11385758B2 (en) 2008-10-09 2022-07-12 Aristocrat Technologies Australia Pty Limited Gaming system and gaming system processor module
AU2009222627B2 (en) 2008-10-09 2011-07-21 Aristocrat Technologies Australia Pty Limited Gaming system and gaming system processor module
US20100178967A1 (en) * 2009-01-10 2010-07-15 Chiu-Hao Cheng Shooting game processing method
JP5693022B2 (ja) * 2010-03-04 2015-04-01 キヤノン株式会社 表示制御装置および表示制御システム、並びにそれらの制御方法、プログラム、記憶媒体
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
USD662949S1 (en) * 2011-05-17 2012-07-03 Joby-Rome Otero Video game peripheral detection device
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
JP6239861B2 (ja) * 2013-05-17 2017-11-29 キヤノン株式会社 判定装置および判定方法
US10222176B2 (en) 2013-05-22 2019-03-05 Andrew Lohbihler Simulated gun shooting and target position sensing apparatus and method
US10451376B2 (en) 2014-12-16 2019-10-22 Kurt S. SCHULZ Firearm simulators
TW201800826A (zh) * 2016-04-01 2018-01-01 楊偉毅 外掛閃光燈以及使用其之拍照系統

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3793481A (en) 1972-11-20 1974-02-19 Celesco Industries Inc Range scoring system
JPS5627899B2 (de) 1974-06-05 1981-06-27
US4011546A (en) 1974-07-27 1977-03-08 Iwatsu Electric Co., Ltd. Display apparatus
DE2653093B1 (de) * 1976-11-23 1977-09-29 Loewe Opta Gmbh Fernsehspielschaltung mit einem zielflecksuchgeraet
US4190831A (en) 1978-05-08 1980-02-26 The Singer Company Light pen detection system for CRT image display
US4268826A (en) 1978-07-26 1981-05-19 Grundy & Partners Limited Interactive display devices
US4367465A (en) 1980-04-04 1983-01-04 Hewlett-Packard Company Graphics light pen and method for raster scan CRT
US4395045A (en) * 1980-06-16 1983-07-26 Sanders Associates, Inc. Television precision target shooting apparatus and method
DE3275769D1 (en) 1982-12-22 1987-04-23 Ibm A method and apparatus for continuously updating a display of the coordinates of a light pen
US4620107A (en) 1984-09-10 1986-10-28 Liprad Associates Compensated light pen with variable attenuator
US4642459A (en) 1985-05-17 1987-02-10 International Business Machines Corporation Light pen input system having two-threshold light sensing
US4677428A (en) 1985-06-07 1987-06-30 Hei, Inc. Cordless light pen
US4813682A (en) * 1985-08-09 1989-03-21 Nintendo Co., Ltd. Video target control and sensing circuit for photosensitive gun
US5187467A (en) 1991-01-10 1993-02-16 Hewlett Packard Company Universal light pen system
JP3181083B2 (ja) 1991-12-28 2001-07-03 任天堂株式会社 射撃ゲームシステムおよびそれに用いられる射撃ゲームシステムの制御方法
US5351969A (en) 1992-05-26 1994-10-04 Smith Engineering Remote control system for raster scanned video display
US5859635A (en) * 1995-06-06 1999-01-12 Cirrus Logic, Inc. Polarity synchronization method and apparatus for video signals in a computer system
JPH09152307A (ja) * 1995-12-01 1997-06-10 Sega Enterp Ltd 座標検出装置、その方法およびゲーム装置
FR2753327B1 (fr) * 1996-09-09 1998-11-27 Sgs Thomson Microelectronics Circuit de traitement de signaux de synchronisation verticale comprenant un circuit de detection de polarite
JP3140971B2 (ja) 1996-10-17 2001-03-05 株式会社ナムコ ゲームコントローラ
DE29708963U1 (de) 1997-05-21 1997-07-31 Huang Chun Min Computerschnittstellenkartengerät für Lichtpistolen
US6028571A (en) * 1998-03-05 2000-02-22 Paradise Electronics, Inc. Digital display unit in a computer system with an improved method and apparatus for determining a source mode using which a received analog display signal was generated

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007029135A1 (de) 2007-06-25 2009-01-02 Siemens Ag Verfahren und Vorrichtung zur Detektion der Position eines auf eine Anzeigeeinheit auftreffenden gebündelten Lichtstrahls

Also Published As

Publication number Publication date
EP1079905B1 (de) 2002-11-13
US6171190B1 (en) 2001-01-09
WO1999061121A1 (en) 1999-12-02
CA2333451A1 (en) 1999-12-02
ES2190209T3 (es) 2003-07-16
DE69903939D1 (de) 2002-12-19
US6323838B1 (en) 2001-11-27
EP1079905A1 (de) 2001-03-07

Similar Documents

Publication Publication Date Title
DE69903939T2 (de) Lichtempfindliche peripherieeingabeeinheit für ein persönliches computergesteuertes videospielgerät
DE3040954C2 (de) Videospiel
US4813682A (en) Video target control and sensing circuit for photosensitive gun
DE69833918T2 (de) Videospielvorrichtung und Speichermedium dafür
DE69431346T2 (de) Tragbare spielsteuerungsvorrichtung mit zwei modes
DE69809049T2 (de) Backup-System basierend auf Identifikationsinformation für ein Spielsystem betreibbar mit Backup-Daten auf verschiedenen Spielmaschinen
DE69630584T2 (de) Dreidimensionaler bildprozessor
DE69620381T2 (de) Spielvorrichtung und system dafür
DE69628727T2 (de) System zum bearbeiten von dreidimensionalen bildinformationen
DE60100222T2 (de) Videospielvorrichtung, Wurfführungsanzeigeverfahren in einem Videospiel, und rechnerlesbares Aufzeichnungsmedium mit gespeichertem Wurfführungsanzeigeprogram
DE69508978T2 (de) Vorrichtung zur Konversion eines Anzeigesignals für ein Videospiel
DE69928751T2 (de) Pistolenförmiger Regler
DE10336236B4 (de) Anzeigevorrichtung, Anzeigesystem und Kabel
DE69835491T2 (de) Wettkampfvideospielvorrichtung, Charakterbewegungs-Kontrollverfahren dafür und Aufzeichnungsmedium für Charakterbewegungskontrollprogramm
DE602004003860T2 (de) Spielvorrichtung und Spielprogramm auf Speichermedium
DE19520986A1 (de) Videospielsystem mit Vorrichtung zur Anzeige eines Tastenprogrammierverfahrens
DE60127937T2 (de) Verfahren zur änderung der blickpunkte mit hilfe von drucksensitiven mitteln, aufzeichnungsmedium mit entsprechendem programm und unterhaltungssystem
US7597624B2 (en) Light gun system for plasma and LCD displays
CN107174824A (zh) 特效信息处理方法、装置、电子设备及存储介质
DE60104613T2 (de) Aufzeichnungsmedium, computer und verfahren zur ausführung eines rollenspiels mit hilfe eines computers
DE60114747T2 (de) Anweisungsvorrichtung,programm und verfahren um angewiesene stelle zu messen.
DE69813738T2 (de) Videospielgerät, Spielanzeigeverfahren für Videospiel, und rechnerlesbares Aufzeichnungsmedium mit gespeichertem Spielanzeigeverfahren
DE60133646T2 (de) Positionsanzeigegerät und informationsspeichermedium
DE2653859C2 (de) Spielerbetriebene Spielvorrichtung für eine Bildschirmeinrichtung mit einer Intensitätssteuereinrichtung zum Ändern der Intensitäten von Bildelementen zur Darstellung beweglicher Symbole auf einem Bildschirm
DE69836948T2 (de) Videospielvorrichtung, Charakterverhaltenanweisungsverfahren für Videospiel, und maschinenlesbares Aufzeichungsmedium für Charakterverhaltenanweisungsprogramm

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee