DE69629983T2 - Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür - Google Patents

Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür Download PDF

Info

Publication number
DE69629983T2
DE69629983T2 DE69629983T DE69629983T DE69629983T2 DE 69629983 T2 DE69629983 T2 DE 69629983T2 DE 69629983 T DE69629983 T DE 69629983T DE 69629983 T DE69629983 T DE 69629983T DE 69629983 T2 DE69629983 T2 DE 69629983T2
Authority
DE
Germany
Prior art keywords
server terminal
virtual reality
client terminals
state
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69629983T
Other languages
English (en)
Other versions
DE69629983D1 (de
Inventor
Yasuaki Shinagawa-ku Honda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE69629983D1 publication Critical patent/DE69629983D1/de
Application granted granted Critical
Publication of DE69629983T2 publication Critical patent/DE69629983T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/352Details of game servers involving special game server arrangements, e.g. regional servers connected to a national server or a plurality of servers managing partitions of the game world
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/358Adapting the game course according to the network or server load, e.g. for reducing latency due to different connection speeds between clients
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/77Game security or game management aspects involving data related to game devices or game servers, e.g. configuration data, software version or amount of memory
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/404Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network characterized by a local network connection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/51Server architecture
    • A63F2300/513Server architecture server hierarchy, e.g. local, regional, national or dedicated for different tasks, e.g. authenticating, billing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/534Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for network load management, e.g. bandwidth optimization, latency reduction
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/552Details of game data or player data management for downloading to client devices, e.g. using OS version, hardware or software profile of the client device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5526Game data structure
    • A63F2300/5533Game data structure using program state or machine event data, e.g. server keeps track of the state of multiple players on in a multiple player game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Description

  • Verfahren und System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität sowie dabei verwendbares Client-Terminal und Computersoftwareprodukt für ein solches Client-Terminal
  • Hintergrund der Erfindung
  • Die Erfindung bezieht sich auf ein Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität, auf ein System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität, auf ein Verfahren zur Informationsverarbeitung, auf einen Informationsaufzeichnungsträger, auf ein Verfahren zur Informationsaufzeichnung, auf ein Informationsübertragungsmedium, auf ein Verfahren zur Informationsübertragung, auf ein Client-Terminal und auf ein gemeinsam genutztes Server-Terminal und insbesondere auf ein Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität, auf ein System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität, auf ein Verfahren zur Informationsverarbeitung, auf einen Informationsaufzeichnungsträger, auf ein Verfahren zur Informationsaufzeichnung, auf ein Informationsübertragungsmedium, auf ein Verfahren zur Informationsübertragung, auf ein Client-Terminal und auf ein gemeinsam genutztes Server-Terminal, wobei diese Verfahren und Terminals bzw. Einrichtungen zur Erzeugung eines Raumes virtueller Realität geeignet sind, der beispielsweise Anwendern zur Verfügung zu stellen ist.
  • Unter den sogenannten Personalcomputer-Kommunikationsdiensten, wie NIFTY-Serve (Handelsmarke) von Japan und CompuServe (Handelsname) der USA, bei denen eine Vielzahl von Anwendern ihre Personalcomputer über Modems oder das öffentliche Telefonnetzwerk mit den Host-Computern verbinden, die an den Zentren der Dienste installiert sind, um auf diese mit entsprechenden bestimmten Protokollen zuzugreifen, ist ein Cyberspace-Service unter dem Namen Habitat (Handelsmarke) bekannt. Die Entwicklung von Habitat begann im Jahre 1985 von Lucas Film, USA und wurde von Quantum Link, einem der kommerziellen US-Netzwerke bzw. -Netzwerkbetreiber über etwa drei Jahre betrieben. Sodann begann Habitat seinen Dienst im NIFTY-Serve als Fujitsu-Habitat (Handelsmarke) im Februar 1990. Bei Habitat können Anwender ihre verwandelten Egos, Avatare genannt (die Inkarnation eines in der Hindu-Mythologie erscheinenden Gottes) in eine virtuelle Stadt senden, die Populopolis genannt wird und die durch zweidimensionale Grafiken dargestellt ist, um eine Unterhaltung (nämlich eine Echtzeit-Konversation auf der Grundlage eingegebenen und angezeigten Textes) mit anderen zu führen. Bezüglich weiterer Einzelheiten zu Habitat wird auf die japanische Übersetzung von "Cyberspace: erste Schritte (First Steps), "Michael Benedikt, ed., 1991, MIT Press Cambridge, MA, ISBNO-262-02327-X Bezug genommen, wobei die Übersetzung von NTT Publishing, am 20. März 1994 veröffentlicht worden ist, ISBN4-87188-265-9C0010, Seiten 282–307.
  • In dem auf derartigen persönlichen Kommunikationsservern, wie oben erwähnt, betriebenen Cyberspacesystem der verwandten Technik werden bzw. sind eine virtuelle Strasse, ein virtuelles Raumintereur und dergleichen in zweidimensionalen Grafiken gezeichnet. In einer derartigen Umgebung wird eine Bewegung eines Avatars rückwärts oder vorwärts einfach dadurch realisiert, dass er in bzw. vor einem zweidimensionalen Hintergrund auf- und abbewegt wird, was eine schlechte Darstellung liefert, um Anwendern die Erfahrung einer Wanderung oder Bewegung im virtuellen Raum zu ermöglichen. Da dieses System den Anwender in den virtuellen Raum sehen lässt, in dem der Avatar des Anwenders und der Avatar eines anderen Anwenders dargestellt sind, und zwar vom Standpunkt einer dritten Person aus, ist der Eindruck eines Pseudoerlebnisses in einem großen Ausmaß beeinträchtigt. Daher ist die Realisierung der Durchwanderungsfähigkeit von der damit befassten Industrie erwartet wor den, wobei der virtuelle Raum in dreidimensionalen Grafiken angezeigt wird und wobei ein Avatar sich frei im virtuellen Raum vom Standpunkt des Avatars aus selbst bewegen kann, wodurch der Eindruck eines Pseudoerlebnisses gesteigert ist.
  • Andererseits ist als Beispiel einer verwandten Technik zur Realisierung der gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität in einem Netzwerk ein System gemäß 42 bekannt, welches durch Client-Terminals 3-1 bis 3-3 gebildet ist, die durch ein LAN-Netzwerk (lokales Bereichsnetzwerk) miteinander verbunden sind, welches in Firmen oder Laboratorien installiert ist.
  • Zunächst lesen sämtliche Client-Terminals 3-1 bis 3-3 Grafikdaten aus einer Speichervorrichtung 2 eines Server-Terminals 1, die denselben dreidimensionalen Raum beschreiben, um denselben dreidimensionalen Raum anzuzeigen. Zu diesem Zeitpunkt stimmen die von allen Anwendern gesehenen bzw. visuell wahrgenommenen dreidimensionalen Räume miteinander überein. Die Client-Terminals 3-1 bis 3-3 zeigen nämlich dreidimensionale Bilder entsprechend den Standpunkten der Anwender dieser Terminals, wie dies in 43A bis 43C veranschaulicht ist. Bei diesem Beispiel sind ein dreieckiges pyramidenförmiges Objekt 101, ein rechteckiger Prismengegenstand bzw. Quader 102 und ein zylindrischer Gegenstand 103 vorhanden.
  • Wenn unterdessen beim Client-Terminal 3-1 der Anwender die Positionen des kegelförmigen Gegenstands 101 ändert, wird eine Information über die Änderung (Änderungsinformation) vom Client-Terminal 3-1 über ein LAN-Netzwerk 4 zum Server 1 übertragen. Die Änderungsinformation über die Verschiebung bzw. Bewegung wird dann vom Server-Terminal 1 über das LAN-Netzwerk 4 zu den Client-Terminals 3-2 und 3-3 übertragen. Sodann wird in den Client-Terminals 3-2 und 3-3 die Anzeigeposition des kegelförmigen bzw. kegligen Gegenstands entsprechend der vom Client-Terminal 3-1 übertragenen Änderungsinformation geändert.
  • In entsprechender Weise wird dann, wenn auf dem Client-Terminal 3-2 oder 3-3 eine Operation ausgeführt wird, um den rechteckförmigen Prismagegenstand 102 oder den zylindrischen Gegenstand 103 zu bewegen oder zu verschieben, ein Bild, in welchem der rechteckförmige Prismagegenstand 102 oder der zylindrische Gegenstand 103 bewegt bzw. verschoben worden ist, entsprechend auf dem Client-Terminal 3-1 angezeigt.
  • Genauer gesagt wird die Änderung in der Anzeige der anderen Client-Terminals wiedergegeben, wenn eine Änderung bezüglich des Raumes virtueller Realität in irgendeinem der Client-Terminals 3-1 bis 3-3 vorgenommen wird, wodurch den Anwendern der Client-Terminals 3-1 bis 3-3 ermöglicht ist, denselben Raum virtueller Realität gemeinsam zu nutzen.
  • Die oben erwähnten Gegenstände bzw. Objekte 101 bis 103 und die Avatar-Objekte, die die Anwender darstellen, können innerhalb eines Raumes virtueller Realität verschoben bzw. bewegt werden, und sie können veranlasst werden, in den Raum virtueller Realität einzutreten oder diesen zu verlassen, und die Zustände der betreffenden Gegenstände bzw. Objekte werden innerhalb des Raumes virtueller Realität geändert (oder aktualisiert). Die Gegenstände bzw. Objekte, die ihre Zustände ändern können, werden nachstehend zweckmäßigerweise aktualisierte Objekte genannt. Im Unterschied zu den Aktualisierungsobjekten werden Objekte, die beispielsweise Gebäude darstellen, welche eine Stadt im Raum virtueller Realität bilden, üblicherweise von einer Vielzahl von Anwendern genutzt, wobei die Grundzustände derartiger Objekte unverändert bleiben. Sogar dann, wenn sich deren Zustände ändern, erfolgt eine derartige Änderung autonom; die Änderung findet nämlich unabhängig von der am Client-Terminal vorgenommenen Operation statt. Diese Objekte, die von einer Vielzahl von Anwendern genutzt werden, werden zweckmäßigerweise nachstehend als Basisobjekte bezeichnet.
  • In dem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität durch Verwendung des in 42 dargestellten LAN-Netzwerks können in dem Fall, dass Objekte 101 bis 103 jeweils eine einfache Form besitzen, die aus einem einzelnen Objekt besteht, wie dies in 43 veranschaulicht ist, diese durch Übertragung der Identifikationsnummern der Objekte 101 bis 103 und der Aktualisierungsinformation implementiert werden, die beispielsweise Verschiebevektoren der Objekte 101 bis 103 enthält.
  • Bei einer Verschiebung bzw. Bewegung eines Objekts mit einer komplexen Form bestehend aus einer Vielzahl von Subobjekten, muss indessen die Identifikationsnummer und die Aktualisierungsinformation jedes Subobjekts gesondert übertragen werden, wodurch der Verkehr über das LAN-Netzwerk zunimmt und die Übertragung der jeweiligen Aktualisierungsinformation verzögert wird, was zur Fehlanpassung zwischen den Bewegungen der auf den Client-Terminals 3-1 bis 3-3 angezeigten Objekten, zu einer Verzögerung in einer Vielzahl von Subobjekten und schließlich zu einer sprunghaften Bewegung in einer Folge von miteinander verbundenen Operationen bezüglich eines Objekts in seiner Gesamtheit führt.
  • Codella, C. und andere haben in "Interactive simulation in a multi-person virtual world" (Interaktive Simulation in einer virtuellen Mehrpersonenwelt) (Proceedings, Human factors in computing systems, Monterrey, CA, USA, 3.–7. Mai 1992, ACN Press, USA Seiten 329–334) eine virtuelle Multi-Anwender-Welt angegeben, in der ein elastisch verformbarer Objekt-Simulator mit einer Multi-Sensor-Nutzerschnittstelle auf der Grundlage einer Client-Server-Architektur vorgesehen ist, genannt Gummifelsen (Rubber Rocks). Das System besteht aus drei Moduln, einem Server-basierten Simulator, einem Dialog-Manager unbekannter physikalischer Lage und einer Benutzerschnittstelle, die die I/O-Geräte bedient, welche für den Multi-Sensoraspekt dieser virtuellen Welt erforderlich sind. Jeder Anwender bzw. Benutzer verfügt über einen Dialog-Manager für die Interaktion mit der virtuellen Welt. Dies ermöglicht, eine relativ geringe Menge einer Zustandsinformation zwischen dem Simulator und dem Dialog-Manager zu kommunizieren bzw. zu übertragen.
  • Eine durch ein Netzwerk verbundene virtuelle Welt, wie sie von Singh, G. und anderen (Proceedings, Computer animation, Genf, Schweiz, 19.–21. April 1995, IEEE Comput. Soc. Press, USA, Seiten 44–49) angegeben ist, nutzt das Verhalten zur Implementierung von Zustandsänderungen bezüglich Objekten im Raum virtueller Realität aus. Die gemeinsame Nutzung des Verhaltens wird mittels einer Übertragung eines sogenannten Starship-Programmcodes implementiert. Eine verhaltensmäßige Definition regelt die zulässigen Änderungen im Zustand und das Erscheinen bzw. Aussehen eines Objekts. Um ein komplizierteres Verhalten zu implementieren, werden Folgesteuerungstabellen von Positions-/Ausrichtungs-Größen-Triplets, denen das Objekt zu folgen hat, verwendet, um die einfachen Verhalten zu modifizieren.
  • In "DIVE – A multi-user virtual reality system" ("DIVE – Ein Mehrnutzer-System virtueller Realität), wie es von Carlsson C. und anderen (Proceedings. Virtual reality annual international Symp., Seattle, USA, 18.–22. September, 1993, IEEE C. Soc.
  • Press, USA, Seiten 394–400) angegeben ist, ist die Zusammensetzung der Objekte in einer hierarchischen Reihenfolge beschrieben. Hierbei erbt jedes Objekt die Drehung und Übersetzung des Objekts in seiner oberen Ebene. Die Interaktion mit einem Objekt basiert auf einem Status-Flag zur Steuerung der Basiseigenschaften des Objekts. Die Steuerung der Zustandsänderung des Objekts wird entsprechend dessen Verhalten durch eine dem Objekt zugeordnete Finite-Zustands-Maschine realisiert.
  • In "EM – An environment manager for building network virtual environments" (EM – Ein Umgebungs-Manager zur Bildung von virtuellen Netzwerkumgebungen) (Proceedings. Virtual reality annual international Symposium, Research Triangle Park, NC, USA, 11.–15. März 1995, IEEE C. Soc. Press, USA, Seiten 11–18, Qunjie Wang und andere) ist eine Werkzeugausrüstung angegeben, die Umgebungs-Manager genannt wird und die zur Darstellung bzw. Gestaltung der virtuellen Umgebung dient. Dieser Umgebungs-Manager kann initialisiert werden und durch eine Skript- bzw. Textdatei zum Ablauf gebracht werden. Eines der Werkzeuge der Werkzeugausrüstung ist eine Objekt-Modellierungssprache, mit der sogenannte OML-Objekte erzeugt werden können. Von diesen Objekten können Instanzen erzeugt werden, die sowohl durch ihre Geometrie als auch durch ihr Verhalten bestimmt sind. Das Verhalten wird bzw. ist gekennzeichnet als eine Prozedur oder ein Verfahren, die bzw. das auf eintreffende Ereignisse oder eine Kombination von Ereignissen hin reagiert und zu irgendeiner Art von Änderung im Zustand und Aussehen der Instanz selbst führt. Ein erstes Verhalten kann ein zweites Verhalten auslösen bzw. triggern, und zwar durch Übertragen eines Ereignisses auf das zweite Verhalten hin. Mit diesem eingebauten Tick-Ereignistrigger, können laufende Verhalten, wie ein Umhergehen, implementiert werden. Der Umgebungs-Manager bildet eine Ereignistabelle für sämtliche Instanz-Verhalten, und die Abbildung von Ereignissen in der Umgebung auf Verhalten wird zur Ablaufzeit gehandhabt.
  • 44 zeigt beispielsweise die Prinzipien der Arbeitsweise zur Darstellung des Verhaltens beim Entlanggehen eines Avatars, der einen Anwender in einem dreidimensionalen Raum virtueller Realität simuliert. Bei diesem Beispiel besteht das Avatar-Objekt aus insgesamt fünf Subobjekten; ein Körper enthält eine Hand, einen rechten Arm, einen linken Arm, ein rechtes Bein und ein linkes Bein. Um die Hände und die Beine dieses Avatars schwenken zu lassen, damit ein Laufverhalten zusammen mit der Bewegung dieses Avatars hervorgerufen wird, ist es erforderlich, die Aktualisierungsinformation, die zumindest den Verschiebevektor des Körper-Subobjekts, die Verschiebevektoren der Subobjekte des rechten Arms, des linken Arms, des rechten Beins und des linken Beins, den Bewegungs- bzw. Schwenkungswinkel von der Achse, der durch das Gelenk zum Kör per hervorgerufen wird, erhält, zusammen mit den Identifikationsnummern der Subobjekte zu übertragen.
  • Infolgedessen nimmt die Anzahl der Subobjekte, die das jeweilige Objekt bilden, zu. Wenn eine Bewegung, die komplexere Operationen enthält, ausgedrückt wird, steigt daher das Kommunikationsvolumen für die Übertragung der Aktualisierungsinformation von Objekten an, wodurch die Belastung auf das Server-Terminal 1 zunimmt und wodurch die Gleichmäßigkeit der Anzeigebewegung des Objekts verringert ist, die durch die kooperativen Operationen der Subobjekte dargestellt wird.
  • Zusammenfassung der Erfindung
  • Es besteht daher eine Aufgabe der vorliegenden Erfindung darin, ein Verfahren und ein System mit einem entsprechenden Client-Terminal und mit einem Software-Produkt für die Anwendung im Client-Terminal bereitzustellen, welches eine interaktive gemeinsame Nutzung eines dreidimensionalen Raumes virtueller Realität über ein Netzwerk, wie das Internet, ermöglicht, das keine Steuerung einer Informationsübertragung hervorruft.
  • Bei der Ausführung der Erfindung und gemäß einem ersten Aspekt der Erfindung umfasst ein Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität die Schritte: Verbinden einer Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches durch eine Vielzahl von Subobjekten gebildet ist, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk;
    Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals, um eine Beziehung zwischen einer Folge bzw. Sequenz einer Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung im Zustand des Aktualisierungsobjekts zu bestimmen, und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz;
    wenn der durch das gemeinsam genutzte Server-Terminal gesteuerte Zustand des Aktualisierungsobjekts aktualisiert wird, Unterrichten jedes der Vielzahl von Client-Terminals über die Nachricht entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal;
    und Ändern des Zustands jedes der Vielzahl von Subobjekten in jedem der Vielzahl von Client-Terminals auf der Grundlage der Änderungssequenz, die durch die Nachricht spezifiziert ist, um die Änderung in dem angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln.
  • Bei der Ausführung der Erfindung und gemäß einem zweiten Aspekt der Erfindung ist ein System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, umfassend: eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches durch eine Vielzahl von Subobjekten gebildet ist, deren jeweiliger Zustand Gegenstand einer Änderung ist;
    ein gemeinsam genutztes Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals;
    ein Kommunikationsnetzwerk zur Verbindung jedes der Vielzahl von Client-Terminals mit dem gemeinsam genutzten Server-Terminal;
    und eine Änderungssequenztabelle zur Festlegung einer Beziehung zwischen einer Änderungssequenz des Zustands jedes der Subobjekte entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts, und eine Nachricht zur Spezifizierung eines Typs der Änderungssequenz, wobei die Änderungssequenztabelle vorab in jedem der Vielzahl von Client-Terminals registriert wird bzw. ist; wobei dann, wenn der durch das gemeinsam genutzte Server-Terminal gesteuerte Zustand des Aktua lisierungsobjekts aktualisiert wird, das gemeinsam genutzte Server-Terminal jedes der Vielzahl von Client-Terminals von der bzw. über die Nachricht entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts unterrichtet und wobei jedes der Client-Terminals den Zustand jedes der Vielzahl von Subobjekten auf der Grundlage der Änderungssequenz ändert, die durch die Nachricht spezifiziert ist, um die Änderung im angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem dritten Aspekt der Erfindung ist ein Informationsaufzeichnungsträger für die Verwendung in einem System geschaffen, in welchem ein dreidimensionaler Raum virtueller Realität genutzt wird, um ein Computerprogramm aufzuzeichnen, umfassend die Verarbeitungsschritte: Verbinden einer Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk;
    Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Sequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz;
    wenn der Zustand des durch das gemeinsam genutzte Server-Terminal gesteuerten Aktualisierungsobjekts aktualisiert wird, Unterrichten jedes der Vielzahl von Client-Terminals von der bzw. über die Nachricht entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal;
    und Ändern des Zustands jedes der Vielzahl von Subobjekten in jedem der Vielzahl von Client-Terminals auf der Grundlage der durch die Nachricht spezifizierten Änderungssequenz, um die Änderung in dem wiedergegebenen dreidimensionalen Raum virtueller Realität widerzuspiegeln:
    wobei das Computerprogramm durch zumindest eines der Terminals lesbar und ausführbar ist, bestehend aus dem gemeinsam genutzten Server-Terminal und der Vielzahl von Client-Terminals.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem vierten Aspekt der betreffenden Erfindung ist ein Informationsaufzeichnungsverfahren zur Verwendung in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität zur Aufzeichnung eines Computerprogramms in bzw. auf einem Informationsaufzeichnungsträger geschaffen, wobei das Computerprogramm die Verarbeitungsschritte umfasst:
    Verbinden einer Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, enthaltend ein Aktualisierungsobjekt, welches durch eine Vielzahl von Subobjekten gebildet ist, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in bzw. auf jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk;
    Vorabregistrierung eine Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Sequenz einer Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz;
    wenn der Zustand des durch das gemeinsam genutzte Server-Terminal gesteuerten Aktualisierungsobjekts aktualisiert wird, Unterrichten jedes der Vielzahl von Client-Terminals über die Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal;
    und Ändern des Zustands jedes der Vielzahl von Subobjekten in jedem der Vielzahl von Client-Terminals auf der Grundlage der durch die Nachricht spezifizierten Änderungssequenz, um die Änderung in dem angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln;
    wobei das Computerprogramm durch zumindest eines der Terminals lesbar und ausführbar ist, die das gemeinsam genutzte Server-Terminal und die Vielzahl der Client-Terminals umfassen.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem fünften Aspekt der Erfindung ist ein Informationsübertragungsmedium für die Verwendung in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, um ein Computerprogramm zu übertragen, umfassend die Verarbeitungsschritte:
    Verbinden einer Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, enthaltend ein Aktualisierungsobjekt, welches durch eine Vielzahl von Subobjekten gebildet ist, deren jeweilige Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk;
    Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Sequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz;
    wenn der Zustand des durch das gemeinsam genutzte Server-Terminal gesteuerten Aktualisierungsobjekts aktualisiert wird; Unterrichten jedes der Vielzahl von Client-Terminals über die Nachricht entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal;
    und Ändern des Zustands jedes der Vielzahl von Subobjekten in jedem der Vielzahl von Client-Terminals auf der Grundlage der durch die Nachricht spezifizierten Änderungssequenz, um die Änderung in dem angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln;
    wobei das Computerprogramm durch zumindest eines der Terminals lesbar und ausführbar ist, die das gemeinsam genutzte Server-Terminal und die Vielzahl von Client-Terminals umfassen, und wobei das ausführbare Computerprogramm zu zumindest einem der Terminals übertragen wird, die das gemeinsam genutzte Server-Terminal und die Vielzahl von Client-Terminals umfassen.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem sechsten Aspekt der Erfindung ist ein Informationsübertragungsverfahren zur Verwendung in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, um ein Computerprogramm zu übertragen, umfassend die Verarbeitungsschritte:
    Verbinden einer Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, enthaltend ein Aktualisierungsobjekt, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk;
    Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Änderungssequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz;
    wenn der durch das gemeinsam genutzte Server-Terminal gesteuerte Zustand des Aktualisierungsobjekts aktualisiert wird bzw. ist, Unterrichten jedes der Vielzahl von Client-Terminals über die Nachricht entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal;
    und Ändern des Zustands jedes der Vielzahl von Subobjekten in jedem der Vielzahl von Client-Terminals auf der Grundlage der durch die Nachricht spezifizierten Änderungssequenz, um die Änderung im wiedergegebenen dreidimensionalen Raum virtueller Realität widerzuspiegeln;
    wobei das Computerprogramm durch zumindest eines der Terminals lesbar und ausführbar ist, die das gemeinsam genutzte Server-Terminal und die Vielzahl von Client-Terminals umfassen, und wobei das ausführbare Computerprogramm zu zumindest einem der Terminals hin übertragen wird, umfassend das gemeinsam genutzte Server-Terminal und die Vielzahl von Client-Terminals.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem siebten Aspekt der Erfindung ist ein Informationsverarbeitungsverfahren eines Client-Terminals in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, welcher ein Aktualisierungsobjekt enthält, das durch eine Vielzahl von Subobjekten gebildet ist, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk verbunden ist, wobei das Informationsverarbeitungsverfahren die Schritte umfasst:
    Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Änderungssequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Änderungssequenztyps;
    Gewinnen der Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts, wobei die Nachricht von dem gemeinsam genutzten Server-Terminal gemeldet wird, wenn der Zustand des durch das gemeinsam genutzte Server-Terminal gesteuerten Aktualisierungsobjekts aktualisiert wird bzw. ist,
    und Ändern des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage der durch die Nachricht spezifizierten Ände rungssequenz, um die Änderung in dem wiedergegebenen dreidimensionalen Raum virtueller Realität widerzuspiegeln.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem achten Aspekt der Erfindung ist ein Client-Terminal in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, bei dem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches durch eine Vielzahl von Subobjekten gebildet ist, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk verbunden ist, wobei das Client-Terminal umfasst:
    eine Registrierungseinrichtung zur Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals für die Festlegung einer Beziehung zwischen einer Änderungssequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten gemäß einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz;
    eine Nachrichtengewinnungseinrichtung zur Gewinnung der Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts, wobei die Nachricht von dem gemeinsam genutzten Server-Terminal gemeldet wird, wenn der durch das gemeinsam genutzte Server-Terminal gesteuerte Zustand des Aktualisierungsobjekts aktualisiert wird bzw. ist;
    und eine Änderungseinrichtung zur Änderung des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage der durch die Nachricht spezifizierten Änderungssequenz, um die Änderung in dem wiedergegebenen bzw. angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln.
  • Bei der bzw. zur Ausführung der Erfindung gemäß einem neunten Aspekt der Erfindung ist ein Informationsaufzeichnungsmedium bzw. -träger für die Verwendung in einem Client-Terminal in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, um ein Computerprogramm aufzuzeichnen, umfassend die Verarbeitungsschritte: Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Sequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz:
    Gewinnen der Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts, wobei die Nachricht von dem gemeinsam genutzten Server-Terminal gemeldet wird, wenn der durch das gemeinsam genutzte Server-Terminal gesteuerte Zustand des Aktualisierungsobjekts aktualisiert wird bzw. ist;
    und Ändern des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage der durch die Nachricht spezifizierten Änderungssequenz, um die Änderung in dem wiedergegebenen dreidimensionalen Raum virtueller Realität widerzuspiegeln;
    wobei das Computerprogramm in bzw. auf dem Informationsaufzeichnungsträger in einem durch das Client-Terminal lesbaren und ausführbaren Zustand aufgezeichnet wird.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem zehnten Aspekt der Erfindung ist ein Informationsaufzeichnungsverfahren zur Aufzeichnung auf einem Aufzeichnungsträger für die Verwendung in einem Client-Terminal in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, um ein Computerprogramm aufzuzeichnen, umfassend die Verarbeitungsschritte:
    Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Änderungssequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Änderungssequenztyps;
    Gewinnen der dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekt entsprechenden Nachricht, wobei die Nachricht von dem gemeinsam genutzten Server-Terminal gemeldet wird, wenn der durch das gemeinsam genutzte Server-Terminal gesteuerte Zustand des Aktualisierungsobjekts aktualisiert wird bzw. ist;
    und Ändern des Zustand jedes der Vielzahl von Subobjekten auf der Grundlage der durch die Nachricht spezifizierten Änderungssequenz, um die Änderung in dem angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln;
    wobei das Computerprogramm in bzw. auf dem Aufzeichnungsträger in einem durch das Client-Terminal lesbaren und ausführbaren Zustand aufgezeichnet wird.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem elften Aspekt der Erfindung ist ein Informationsübertragungsmedium für die Verwendung in einem Client-Terminal in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, welches ein Aktualisierungsobjekt enthält, das durch eine Vielzahl von Subobjekten gebildet ist, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk verbunden ist, wobei das Informationsübertragungsverfahren ein Computerprogramm überträgt, umfassend die Verarbeitungsschritte:
    Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Sequenz zur Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Spezifizierung eines Änderungssequenztyps;
    Gewinnen der Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts, wobei die Nachricht von dem gemeinsam genutzten Server-Terminal gemeldet wird, wenn der durch das gemeinsam genutzte Server-Terminal gesteuerte Zustand des Aktualisierungsobjekts aktualisiert wird bzw. ist;
    und Ändern des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage der Änderungssequenz, die durch die Nachricht spezifiziert ist, um die Änderung in dem wiedergegebenen dreidimensionalen Raum virtueller Realität widerzuspiegeln;
    wobei das Computerprogramm zum Client-Terminal in einem Zustand übertragen wird, in welchem es von diesem aufnehmbar und ausführbar ist.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem zwölften Aspekt der Erfindung ist ein Informationsübertragungsverfahren zur Verwendung in einem Client-Terminal innerhalb eines Systems zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Verbindungsnetzwerk mit einem gemeinsam genutzten Server-Terminal verbunden ist, wobei das Informationsübertragungsverfahren ein Computerprogramm überträgt, umfassend die Verarbeitungsschritte:
    Vorabregistrierung einer Änderungssequenztabelle in jedem der Vielzahl von Client-Terminals zur Festlegung einer Beziehung zwischen einer Sequenz einer Änderung des Zustands jedes der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts und einer Nachricht zur Festlegung eines Änderungssequenztyps;
    Gewinnen der Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts, wobei die Nachricht von dem gemeinsam genutzten Server-Terminal gemeldet bzw. abgegeben wird, wenn der durch das gemeinsam genutzte Server-Terminal gesteuerte Zustand des Aktualisierungsobjekts aktualisiert wird bzw. ist;
    und Ändern des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage der Änderungssequenz, die durch die Nachricht spezifiziert ist, um die Änderung des angezeigten dreidimensionalen Raumes virtueller Realität widerzuspiegeln; wobei das Computerprogramm zu dem Client-Terminal in einem Zustand übertragen wird, in welchem es von diesem empfangbar und ausführbar ist.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem dreizehnten Aspekt der Erfindung ist ein Informationsverarbeitungssystem eines gemeinsam genutzten Server-Terminals in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk verbunden ist, wobei das Informationsverarbeitungsverfahren die Schritte umfasst:
    Bestimmen der Aktualisierung des durch das gemeinsam genutzte Server-Terminal gesteuerten Zustands des Aktualisierungsobjekts;
    und dann, wenn der Zustand des Aktualisierungsobjekts aktualisiert wird bzw. ist, Melden bzw. Bekannt geben einer Nachricht an jedes der Vielzahl von Client-Terminals zur Spezifizierung eines Änderungssequenztyps jedes der Vielzahl von Subobjekten entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem vierzehnten Aspekt der Erfindung ist ein gemeinsam genutztes Server-Terminal in einem System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk verbunden ist, wobei das gemeinsam genutzte Server-Terminal umfasst:
    eine Bestimmungseinrichtung zur Bestimmung der Aktualisierung des durch das gemeinsam genutzte Server-Terminal gesteuerten Zustands des Aktualisierungsobjekts;
    und eine Meldeeinrichtung, die dann, wenn der Zustand des Aktualisierungsobjekts aktualisiert ist, jedem der Vielzahl von Client-Terminals eine Nachricht zur Spezifizierung eines Änderungssequenztyps jedes der Vielzahl von Subobjekten entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal meldet.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem fünfzehnten Aspekt der Erfindung ist ein Informationsaufzeichnungsmedium bzw. -träger zur Verwendung in einem gemeinsam genutzten Server-Terminal innerhalb eines Systems zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk verbunden ist, wobei der Informationsaufzeichnungsträger ein Computerprogramm aufzeichnet, umfassend die Verarbeitungsschritte:
    Bestimmen einer Aktualisierung des durch das gemeinsam genutzte Server-Terminal gesteuerten Zustands des Aktualisierungsobjekts;
    und in dem Fall, dass der Zustand des Aktualisierungsobjekts aktualisiert wird bzw. ist, Melden einer Nachricht an jedes der Vielzahl von Client-Terminals zur Spezifizierung eines Änderungssequenztyps jedes der Vielzahl von Subobjekten entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal;
    wobei das Computerprogramm in bzw. auf dem Informationsaufzeichnungsträger in einem Zustand gespeichert wird bzw. ist, in welchem es durch das gemeinsam genutzte Server-Terminal lesbar und ausführbar ist.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem sechzehnten Aspekt der Erfindung ist ein Informationsaufzeichnungsverfahren zur Anwendung in einem gemeinsam genutzten Server-Terminal innerhalb eines Systems zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk mit einem gemeinsam genutzten Server-Terminal verbunden ist,
    wobei das Informationsaufzeichnungsverfahren ein Computerprogramm aufzeichnet, umfassend die Verarbeitungsschritte:
    Bestimmen einer Aktualisierung des durch das gemeinsam genutzte Server-Terminal gesteuerten Zustands des Aktualisierungsobjekts;
    und in dem Fall, dass der Zustand des Aktualisierungsobjekts aktualisiert ist, Melden einer Nachricht an jedes der Vielzahl von Client-Terminals zur Spezifizierung eines Änderungssequenztyps jedes der Vielzahl von Subobjekten entsprechend einem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal;
    wobei das Computerprogramm in bzw. auf einem Informationsaufzeichnungsträger in einem Zustand gespeichert wird bzw. ist, in welchem es von dem gemeinsam genutzten Server-Terminal lesbar und ausführbar ist.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem siebzehnten Aspekt der Erfindung ist ein Informationsübertragungsmedium zur Verwendung in einem gemeinsam genutzten Server-Terminal innerhalb eines Systems zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige eines dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches durch eine Vielzahl von Subobjekten gebildet ist, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk verbunden ist, wobei das Informationsübertragungsmedium ein Computerprogramm überträgt, umfassend die Verarbeitungsschritte:
    Bestimmen einer Aktualisierung des durch das gemeinsam genutzte Server-Terminal gesteuerten Zustands des Aktualisierungsobjekts;
    und in dem Fall, dass der Zustand des Aktualisierungsobjekts aktualisiert ist, Melden einer Nachricht an jedes der Vielzahl von Client-Terminals zur Spezifizierung eines Typs einer Änderungssequenz jedes der Vielzahl von Subobjekten entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminals;
    wobei das Computerprogramm zu dem gemeinsam genutzten Server-Terminal in einem Zustand übertragen wird, in welchem es von diesem empfangbar und ausführbar ist.
  • Bei der bzw. zur Ausführung der Erfindung und gemäß einem achtzehnten Aspekt der Erfindung ist ein Informationsübertragungsverfahren zur Anwendung in einem gemeinsam genutzten Server-Terminal innerhalb eines Systems zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität geschaffen, in welchem eine Vielzahl von Client-Terminals zur Anzeige ei nes dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches durch eine Vielzahl von Subobjekten gebildet ist, deren jeweiliger Zustand Gegenstand einer Änderung ist, mit einem gemeinsam genutzten Server-Terminal zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk verbunden ist, wobei das Informationsübertragungsverfahren ein Computerprogramm überträgt, umfassend die Verarbeitungsschritte:
    Bestimmen einer Aktualisierung des durch das gemeinsam genutzte Server-Terminal gesteuerten Zustands des Aktualisierungsobjekts;
    und in dem Fall, dass der Zustand des Aktualisierungsobjekts aktualisiert ist, Melden einer Nachricht an jedes der Vielzahl von Client-Terminals zur Spezifizierung eines Typs einer Änderungssequenz jedes der Vielzahl von Subobjekten entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts in dem gemeinsam genutzten Server-Terminal;
    wobei das Computerprogramm zu dem gemeinsam genutzten Server-Terminal in einem Zustand übertragen wird, in welchem es von diesem empfangbar und ausführbar ist.
  • Gemäß der vorliegenden Erfindung wird bei einem Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität, bei dem System, bei dem Informationsaufzeichnungsträger, bei dem Informationsaufzeichnungsverfahren, bei dem Informationsübertragungsmedium und bei dem Informationsübertragungsverfahren die Änderungssequenz der Vielzahl von Subobjekten entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts in jedem Client-Terminal gespeichert, und die Änderungssequenzen in der Vielzahl von Client-Terminals werden in Synchronismus bzw. Synchronisation gestartet.
  • Ferner wird gemäß der vorliegenden Erfindung bei dem Informationsverarbeitungsverfahren, in dem Client-Terminal, bei dem Informationsaufzeichnungsträger, bei dem Informationsaufzeichnungsverfahren, bei dem Informationsübertragungsmedium und bei dem Informationsübertragungsverfahren die Änderungssequenz der Vielzahl von Subobjekten entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts in einem Client-Terminal gespeichert und in Synchronisation mit den in anderen Client-Terminals gespeicherten Änderungssequenzen gestartet.
  • Ferner wird gemäß der vorliegenden Erfindung bei dem Informationsverarbeitungsverfahren, in dem Server-Terminal, bei dem Informationsaufzeichnungsträger, bei dem Informationsaufzeichnungsverfahren, bei dem Informationsübertragungsmedium und bei dem Informationsübertragungsverfahren in dem Fall, dass eine eine Aktualisierung des Zustands des Aktualisierungsobjekts anzeigende Nachricht von einem spezifischen Client-Terminal über das globale Kommunikationsnetzwerk eintrifft, diese Nachricht zu anderen Client-Terminals über das globale Kommunikationsnetzwerk übertragen, und in Synchronisation mit der Änderungssequenz der Vielzahl von Subobjekten in dem spezifischen Client-Terminal werden die Änderungssequenzen der Vielzahl von Subobjekten in den anderen Client-Terminals gestartet.
  • Die obigen und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus den beiliegenden Zeichnungen näher ersichtlich werden, in denen entsprechende Bezugszeichen zur Bezeichnung derselben oder ähnlichen Einzelteile bzw. Teile in den verschiedenen Ansichten verwendet sind.
  • Kurze Beschreibung der Zeichnungen
  • 1 veranschaulicht in einem Blockdiagramm ein Beispiel des Aufbaus eines Cyberspace-Systems, welches als ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung ausgeführt ist.
  • 2 veranschaulicht in einem Blockdiagramm ein Beispiel des Aufbaus eines Server-Terminals 11 gemäß 1.
  • 3 veranschaulicht in einem Blockdiagramm ein Beispiel des Aufbaus eines Client-Terminals 13 gemäß 1.
  • 4 veranschaulicht in einem Blockdiagramm ein Beispiel des Aufbaus eines Diensteanbieter- bzw. Serviceprovider-Terminals 14 gemäß 1.
  • 5 zeigt ein Diagramm zur Beschreibung eines dreidimensionalen Raumes virtueller Realität, der durch das Cyberspace-System gemäß 1 gebildet wird.
  • 6 zeigt ein Diagramm, welches ein von einem Avatar C aus gesehenes Blickfeld beschreibt.
  • 7 zeigt ein Diagramm, welches ein von einem Avatar D aus gesehenes Blickfeld beschreibt.
  • 8 zeigt ein Diagramm, welches eine Nachrichten- bzw. Meldungsübertragung in dem Cyberspace-System beschreibt.
  • 9A zeigt ein Diagramm, welches ein Anzeigebeispiel einer Nachrichten- bzw. Meldungsliste beschreibt.
  • 9B zeigt ein Diagramm, welches ein Anzeigebeispiel einer Nachrichten- bzw. Meldungsliste beschreibt.
  • 10 zeigt ein Diagramm, welches ein Anzeigebeispiel eines Client-Terminals 13-1 veranschaulicht.
  • 11 zeigt ein Diagramm, welches ein Anzeigebeispiel eines Client-Terminals 13-2 veranschaulicht.
  • 12 zeigt ein Diagramm, welches ein Anzeigebeispiel eines Client-Terminals 13-3 veranschaulicht.
  • 13 zeigt ein Flussdiagramm zur Beschreibung der Verarbeitung einer Nachricht 1.
  • 14 zeigt ein Diagramm, welches eine Avatar-Bewegung in dem Raum virtueller Realität veranschaulicht.
  • 15 zeigt ein Flussdiagramm, welches die Verarbeitung einer Nachricht 3 beschreibt.
  • 16 zeigt ein Flussdiagramm, welches Einzelheiten der Verarbeitung einer Armbewegung beim Schritt S24 gemäß 15 beschreibt.
  • 17 zeigt ein Flussdiagramm, welches Einzelheiten der Verarbeitung einer Beinbewegung beim Schritt S25 gemäß 15 beschreibt.
  • 18 zeigt ein Diagramm, welches ein weiteres Anzeigebeispiel in einem Client-Terminal veranschaulicht.
  • 19 zeigt ein Flussdiagramm, welches die Verarbeitung beschreibt, bei der eine komplexe Bewegung begonnen ist.
  • 20 veranschaulicht in einem Blockdiagramm ein Beispiel des Aufbaus des Cyberspace-Systems, welches als weiteres bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung ausgeführt ist.
  • 21 zeigt ein Diagramm, welches das weltweite Netz (WWW) beschreibt.
  • 22 veranschaulicht in einem Diagramm ein Beispiel von URL.
  • 23 veranschaulicht in einem Blockdiagramm ein Beispiel des Aufbaus eines Abbildungsserver-Terminals.
  • 24 beschreibt in einem Flussdiagramm die Arbeitsweisen des Client-Terminals 13 (des Diensteanbieter-Terminals 14).
  • 25 beschreibt in einem Flussdiagramm die Operationen eines Informationsserver-Terminals 11A.
  • 26 beschreibt in einem Flussdiagramm die Operationen eines Abbildungsserver-Terminals 12.
  • 27 beschreibt in einem Flussdiagramm die Operationen eines gemeinsam genutzten Server-Terminals 11B.
  • 28 veranschaulicht in einem Blockdiagramm das Client-Terminal 13, welches als weiteres bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung ausgeführt ist.
  • 29 beschreibt in einem Diagramm Stellen, in denen Basisobjekte und Aktualisierungsobjekte gespeichert sind.
  • 30 beschreibt in einem Diagramm die Anordnung der Basisobjekte und der Aktualisierungsobjekte.
  • 31 beschreibt in einem Diagramm eine Software zur Implementierung des Cyberspace-Systems.
  • 32 beschreibt in einem Diagramm eine Software, die in dem Client-Terminal 13-1 und dem gemeinsam genutzten Server-Terminal 11B-1 läuft bzw. arbeitet.
  • 33 beschreibt in einem Diagramm die Umgebung, in der die Software wirkt bzw. läuft.
  • 34 veranschaulicht in einem Diagramm ein Anzeigebeispiel auf dem gemeinsam genutzten Server-Terminal 11B-1 gemäß 32.
  • 35 veranschaulicht in einem Diagramm ein weiteres Anzeigebeispiel auf dem gemeinsam genutzten Server-Terminal 11B-1 gemäß 32.
  • 36 veranschaulicht in einem Diagramm ein noch weiteres Anzeigebeispiel auf dem gemeinsam genutzten Server-Terminal 11B-1 gemäß 32.
  • 37 veranschaulicht in einem Diagramm ein noch weiteres Anzeigebeispiel auf dem gemeinsam genutzten Server-Terminal 11B-1 gemäß 32.
  • 38 veranschaulicht in einem Diagramm ein Anzeigebeispiel auf dem Client-Terminal 13-1 gemäß 32
  • 39 veranschaulicht in einem Diagramm ein Anzeigebeispiel auf dem gemeinsam genutzten Server-Terminal 11B-1 gemäß 32.
  • 40 veranschaulicht in einem Diagramm ein Anzeigebeispiel auf dem Client-Terminal 13-1 gemäß 32.
  • 41 veranschaulicht in einem Diagramm ein noch weiteres Anzeigebeispiel auf dem gemeinsam genutzten Server-Terminal 11B-1 gemäß 32.
  • 42 veranschaulicht in einem Blockdiagramm ein Beispiel des Aufbaus eines Cyberspace-Systems, welches durch das LAN-Netzwerk der verwandten Technik aufgebaut ist.
  • 43A veranschaulicht in einem Diagramm ein Anzeigebeispiel im Cyberspace-System, welches durch ein LAN-System der verwandten Technik aufgebaut ist.
  • 43B veranschaulicht in einem Diagramm ein weiteres Anzeigebeispiel im Cyberspace-System, welches durch das LAN-Netzwerk der verwandten Technik aufgebaut ist.
  • 43C veranschaulicht in einem Diagramm ein noch weiteres Anzeigebeispiel im Cyberspace-System, welches durch das LAN-Netzwerk der verwandten Technik aufgebaut ist.
  • 44 veranschaulicht in einem Diagramm Prinzipien von Operationen, um das Laufverhalten eines Avatars nach der verwandten Technik zum Ausdruck zu bringen.
  • Detaillierte Beschreibung von bevorzugten Ausführungsformen Die Erfindung wird unter Bezugnahme auf die beigefügten Zeichnungen beispielhaft in weiteren Einzelheiten beschrieben.
  • Die Grundidee und das Grundkonzept einer virtuellen Gesellschaft wird von Hiroaki Kitano, Sony Computer Science Laboratories wie folgt beschrieben:
  • "Zu Beginn des 21. Jahrhunderts würde eine virtuelle Gesellschaft in ein die Welt umspannendes Netzwerk eintauchen. Leute in jedem Teil der Welt werden eine Gesellschaft bilden, in der Millionen oder Hunderte von Millionen von Leuten in einem gemeinsam genutzten Raum leben, der im Netzwerk erzeugt ist. Eine Gesellschaft, die jenseits des gegenwärtigen Internets, CATV-Systems und des sogenannten Informations-Superhighways eintaucht, ist eine virtuelle Gesellschaft, die ich mir vorstelle. In der virtuellen Gesellschaft können Leute generell nicht nur dieselben sozialen Aktivitäten ausführen wie jene in der realen Welt – Einkaufen gehen, eine Unterhaltung führen, Spiele spielen, Arbeiten und dergleichen – sondern sie können auch Dinge ausführen, die lediglich in der virtuellen Gesellschaft möglich sind (sich beispielsweise in einem Augenblick von Tokyo nach Paris bewegen). Eine derartige "Gesellschaft" würde lediglich durch zum Stand der Technik gehörende Technologien implementiert werden, wie Cyberspace-Aufbautechnologien, die ein Breitbandnetzwerk, die Fähigkeit zur dreidimensionalen Darstellung in hoher Qualität und bidirektionale Kommunikationen von Sprache, Musik und Bewegtbildsignalen in einem verteilten System großen Maßstabs unterstützen, welches einer Vielzahl von Leuten ermöglicht, den aufgebauten Raum gemeinsam zu nutzen."
  • Bezüglich weiterer Einzelheiten wird auf die oben erwähnte Homepage (URL = http://www.csl.sony.co.jp/person/kitano/VS/concept.j.html) verwiesen.
  • Der dreidimensionale Raum virtueller Realität, der die oben erwähnte virtuelle Gesellschaft implementiert, ist ein Cyberspace-System. Die tatsächlichen Beispiele der Infrastrukturen zum Aufbau dieses Cyberspace-Systems enthalten zu diesem Zeitpunkt das Internet, das ein weltweites Computernetz darstellt, welches durch das TCP/IP (Transmission Control Protocol/Internet Protocol) genannte Kommunikationsprotokoll verbunden ist, und das Intranet, welches durch Anwendung der Internet-Technologien, wie des WWW (World Wide Web) auf das In-Haus-LAN-Netzwerk (Local Area Network – lokales Bereichsnetzwerk) implementiert ist. Ferner wird die Anwendung eines Breitbandkommunikationsnetzwerks auf der Basis von FTTH (Fiber To The Home) für die Zukunft vorgeschlagen, bei dem das Hauptleitungssystem und das Teilnehmersystem alle aus Faseroptiken bestehen.
  • Unterdessen ist bezüglich eines Informationsbereitstellungssystems, welches im Internet verfügbar ist, das von CERN (Europäisches Zentrum für nukleare Forschung) in der Schweiz entwickelte WWW bekannt. Diese Technologie ermöglicht einem Nutzer, durch eine Information (mittels eines Browsers) hindurchzugehen, die Text, Bild und Sprache beispielsweise in der Hypertextform enthält. Auf der Grundlage des HTTP-Protokolls (Hyper Text Transfer Protocol) wird die in einem WWW-Server-Terminal gespeicherte Information asynchron zu Terminals, wie zu Personalcomputern übertragen.
  • Der WWW-Server ist durch eine Server-Software gebildet bzw. enthält diese, die HTTP-Demon und HTML-Datei genannt wird, in der die Hypertextinformation gespeichert wird bzw. ist. Die Hypertextinformation wird in einer HTML (Hyper Text Markup-Sprache) bezeichneten Beschreibungssprache beschrieben. In der Beschreibung eines Hypertextes durch HTML wird eine logische Struktur eines Dokuments in einem Format ausgedrückt, welches eine Markierung genannt wird, die von "<" und ">" eingeschlossen ist. Die Beschreibung einer Verbindung mit einer anderen Information erfolgt auf der Grundlage einer Kettungsinformation, die ein Anker (Anchor) genannt wird. Ein Verfahren, bei dem eine Stelle, an der eine geforderte Information durch den Anker gespeichert wird, ist URL (Unifom Resource Locator).
  • Ein Protokoll zur Übertragung einer in HTML geschriebenen Datei in dem TCP/JP-Netzwerk ist das HTTP-Protokoll. Dieses Protokoll besitzt eine Fähigkeit zur Übertragung einer Anforderung bezüglich einer Information von einem Client zu dem WWW-Server und bezüglich der angeforderten Hypertextinformation, die in der HTML-Datei gespeichert ist, zu dem Client.
  • Von vielen wird als Umgebung für die Nutzung des WWW die Client-Software, wie der Netscape Navigator (Handelsmarke) benutzt, der ein WWW-Browser genannt wird.
  • Es sei darauf hingewiesen, dass ein Demon ein Programm zur Ausführung einer Steuerung und Verarbeitung im Hintergrund angibt, wenn eine Aufgabe bzw. ein Job in der UNIX-Umgebung ausgeführt wird.
  • Kürzlich sind eine Sprache zur Beschreibung von dreidimensionalen Grafikdaten, genannt VRML (Virtuelle Realitäts-Modellierungssprache) und eine VRML-Betrachtungssoftware (Viewer) zum Zeichnen eines Raumes virtueller Realität in dieser VRML-Sprache auf einem Personalcomputer oder einer Arbeitsstation entwickelt worden. Die VRML-Sprache ermöglicht, das WWW zu erweitern, legt Hypertextkettungen für Objekte fest, die durch dreidimensionale Grafiken gezeichnet sind, und folgt diesen Kettungen, um sequentiell auf WWW-Server-Terminals zuzugreifen. Die Spezifikationen der VRML-Version 1.0 wurden am 26. Mai 1995 öffentlich gemacht. Am 9. November 1995 wurde sodann eine überarbeitete Version öffentlich gemacht, in der Fehler und unklare Ausdrücke korrigiert worden sind.
  • Die Speicherung einer dreidimensionalen Information, wie sie in der oben erwähnten VRML-Sprache in einem WWW-Server-Terminal beschrieben ist, ermöglicht den Aufbau eines virtuellen Raums, der in dreidimensionalen Grafiken im Internet ausgedrückt ist. Ferner kann die Nutzung der VRML-Betrachtungssoftware unter Verwendung von Personalcomputern und dergleichen, die mit dem Internet verbunden sind, die Anzeige eines virtuellen Raumes auf der Grundlage von dreidimensionalen Grafiken und die Durchlauffähigkeit implementieren.
  • Im folgenden werden Beispiele beschrieben, gemäß denen das Internet als ein Netzwerk genutzt wird. Es dürfte Durchschnittsfachleuten ersichtlich sein, dass FTTH anstelle des Internets verwendet werden kann, um den virtuellen Raum zu implementieren.
  • Es sei darauf hingewiesen, dass Cyberspace eine Prägung von William Gibson, einem amerikanischen Zukunftsromanautor ist und in dessen "Neuromancer" (1984) benutzt wurde, der diesen Autor berühmt machte. Genau gesagt erschien das Wort "Cyberspace" zuerst in dessen Buch "Burning Chrome" (1982). In diesen Romanen gibt es Szenen, in denen der Held eine Spezialelektrode an seiner Stirn anbringt, um sich selbst mit einem Computer zu verbinden, damit sein Gehirn einen virtuellen dreidimensionalen Raum wiedergibt, der durch visuelle Rekonfigurierung von Daten in einem Computernetzwerk erhalten wird, welches sich um die gesamte Welt spannt. Dieser virtuelle dreidimensionale Raum wurde Cyberspace genannt. Kürzlich ist der Begriff zur Bezeichnung eines Systems in Benutzung gelangt, in welchem ein virtueller dreidimensionaler Raum von einer Vielzahl von Benutzern über ein Netzwerk genutzt wird.
  • Nunmehr wird auf 1 Bezug genommen, in der ein Beispiel vom Aufbau eines Cyberspace-Systems gezeigt ist, wie es als eine bevorzugte Ausführungsform der vorliegenden Erfindung ausgeführt ist. Wie dargestellt, besitzt eine vorgegebene Anzahl (in diesem Falle zwei) von Server-Terminals 11-1 und 11-2 Speichervorrichtungen 30-1 bzw. 30-2, und die betreffenden Server sind imstande, einen Raum virtueller Realität über ein Netzwerk 15 (ein globales Kommunikationsnetzwerk) bereitzustellen, welches beispielsweise durch das Internet dargestellt wird. Zusätzlich ist eine vorgegebene Anzahl (in diesem Fall drei) von Client-Terminals 13-1 bis 13-3 installiert, um den Raum virtueller Realität und spezifische Dienste (Informationen) unter Nutzung desselben von den Server-Terminals 11-1 und 11-2 über das Netzwerk 15 zu empfangen.
  • Ferner ist bei der oben erwähnten Ausführungsform eine vorgegebene Anzahl (in diesem Falle zwei) von Diensteanbieter-(Serviceprovider-)-Terminals 14-1 und 14-2 installiert, um den Raum virtueller Realität von den Server-Terminals 11-1 und 11-2 über das Netzwerk 15 aufzunehmen und spezifische Dienste für die Client-Terminals 13-1 bis 13-3 bereitzustellen.
  • 2 zeigt ein Beispiel des Aufbaus des Server-Terminals 11 (nämlich 11-1 und 11-2). Wie dargestellt, besitzt das Server-Terminal 11 eine CPU 21. Die CPU 21 führt eine Vielzahl von Verarbeitungsoperationen aus, wie sie durch ein in einem ROM-Speicher 22 gespeichertes Programm per Befehle festgelegt sind. Ein RAM-Speicher 23 speichert in geeigneter Weise Daten und ein Programm, die bzw. das für die CPU 21 erforderlich sind, um die Vielfalt von Verarbeitungsoperationen auszufüh ren. Eine Kommunikationsvorrichtung 24 überträgt spezifische Daten mit bzw. von/zu dem Netzwerk 15 (dem Internet).
  • Eine Anzeigevorrichtung 25 besitzt beispielsweise eine Kathodenstrahlröhre (CRT) oder eine Flüssigkristall-Anzeigevorrichtung (LCD) und sie ist an einer Schnittstelle 28 angeschlossen, um Bilder des Raumes virtueller Realität zu überwachen, der durch das Server-Terminal 11 bereitgestellt wird. Die Schnittstelle 28 ist außerdem mit einem Mikrofon 26 und einem Lautsprecher 27 verbunden, um ein spezifisches Sprachsignal an das Client-Terminal 13 und das Diensteanbieter-Terminal 14 abzugeben und um ein Sprachsignal zu überwachen, das von diesen Terminals her kommt.
  • Das Server-Terminal 11 weist eine Eingabevorrichtung 29 auf, auf der eine Vielzahl von Eingabeoperationen über die Schnittstelle 28 ausgeführt wird. Diese Eingabevorrichtung weist zumindest eine Tastatur 29a und eine Maus 29b auf.
  • 3 zeigt ein Beispiel des Aufbaus des Client-Terminals 13 (nämlich 13-1 bis 13-3). Das Client-Terminal 13 weist eine CPU 41 auf, die eine Vielzahl von Verarbeitungsoperationen gemäß einem Programm ausführt, welches in einem ROM-Speicher 42 gespeichert ist. Ein RAM-Speicher 43 speichert in geeigneter Weise Daten und ein Programm, die bzw. das für die CPU 41 erforderlich sind, um die Vielfalt von Verarbeitungsoperationen auszuführen. Eine Kommunikationsvorrichtung 44 überträgt Daten zu dem Server-Terminal 11 über das Netzwerk 15 (das Internet).
  • Eine Anzeigevorrichtung 45 weist eine Kathodenstrahlröhre oder eine LCD-Anzeigevorrichtung auf, um dreidimensionale Bilder anzuzeigen, die durch Computergrafiken (CG) erzeugt oder mittels einer gewöhnlichen Videokamera aufgenommen sind. Ein Mikrofon 46 wird zur Abgabe eines Sprachsignals an das gemeinsam genutzte Server-Terminal 11 verwendet. Ein Lautsprecher 47 gibt das von dem Server-Terminal 11 her stammende Sprachsignal ab. Eine Eingabevorrichtung 49 wird betätigt, um eine Vielfalt von Eingabeoperationen auszuführen.
  • Eine Tastatur 49a der Eingabevorrichtung 49 wird betätigt, wenn spezifische Zeichen und Symbole eingegeben werden. Eine Maus 49b wird betätigt, wenn spezifische Positionsinformationen eingegeben werden. Eine Standpunkt-Eingabevorrichtung 49c wird betätigt, wenn der Zustand des Avatars (Objekts) als Aktualisierungsobjekt des Client-Terminals 13 geändert wird. Dies heißt, dass die Standpunkt-Eingabevorrichtung 49c dazu herangezogen wird, den Standpunkt des Avatars des Client-Terminals 13 einzugeben, wodurch der Standpunkt des Avatars vertikal, horizontal oder in Richtung der Tiefe bewegt und ein spezifisches Bild einer Zoombewegung unterzogen wird. Darüber hinaus wird die Bewegungs-Eingabevorrichtung 49d dazu herangezogen, den Avatar in der Vorwärts- und Rückwärtsrichtung oder in die rechte und linke Richtung mit einer bestimmten Geschwindigkeit zu bewegen.
  • Es ist ersichtlich, dass die Operationen, die durch die Standpunkt- und Bewegungs-Eingabevorrichtungen ausgeführt werden, auch durch die oben erwähnte Tastatur 49a und die Maus 49b ausgeführt werden können.
  • Die Schnittstelle 48 stellt die Datenschnittstelle zu einer Anzeigevorrichtung 45, einem Mikrofon 46, einem Lautsprecher 47 und einer Eingabevorrichtung 49 dar. Eine Speichervorrichtung 50 bestehend aus einer Festplatte, einer optischen Platte und einer magnetooptischen Platte speichert Daten und Programme.
  • 4 zeigt ein Beispiel des Aufbaus des Diensteanbieter-Terminals 14 (nämlich 14-1 und 14-2). Die Komponenten, die eine CPU 51 bis eine Speichervorrichtung 60 enthalten, sind generell dieselben wie die Komponenten, die die CPU 41 bis zur Speichervorrichtung 50 gemäß 3 umfassen, weshalb die Be schreibung der CPU 51 bis zur Speichervorrichtung 60 weggelassen ist.
  • 5 zeigt schematisch den dreidimensionalen Raum virtueller Realität (nachstehend vorzugsweise einfach als Raum virtueller Realität bezeichnet), der durch das Server-Terminal 11 gemäß 1 bereitgestellt wird. Wie gezeigt, stellt dieser Raum virtueller Realität eine Stadt dar, in der ein Avatar C (Aktualisierungsobjekt) (beispielsweise das Avatarobjekt des Client-Terminals 13-1) und ein Avatar D (Aktualisierungsobjekt) (beispielsweise das Avatarobjekt des Client-Terminals 13-2) sich umherbewegen.
  • Der Avatar C sieht ein Bild, wie es in 6 dargestellt ist, beispielsweise aus der Position und dem Standpunkt im Raum virtueller Realität. Ein Bild, wie es in 6 gezeigt ist, wird nämlich von dem Server-Terminal 11 der Anzeigevorrichtung 25 des Client-Terminals 13-1 bereitgestellt, um angezeigt zu werden. Wenn der Standpunkt und die Position des Avatars C geändert (aktualisiert) werden, und zwar durch Betätigen einer Standpunkt-Eingabevorrichtung 49c und einer Bewegungs-Eingabevorrichtung 49d (oder der Tastatur 49a und der Maus 49b), dann wird das dreidimensionale Bild, welches den vom Server-Terminal 11 gelieferten Raum virtueller Realität bildet, entsprechend geändert.
  • In entsprechender Weise wird, wie in 7 gezeigt, auf der Anzeigevorrichtung 45 des Client-Terminals 13-2, dem der Avatar D entspricht, ein Bild angezeigt. Dieses angezeigte Bild wird ebenfalls durch Bewegen bzw. Verschieben des Standpunkts und der Position des Avatars D geändert.
  • Es sei darauf hingewiesen, dass in 5 der Avatar C in die Richtung des Avatars D blickt, so dass der Avatar D im Bild (im Raum virtueller Realität) der Anzeigevorrichtung 45 des Client-Terminals 13-1 angezeigt wird, wie in 6 gezeigt.
  • In entsprechender Weise blickt in 5 der Avatar D in die Richtung des Avatars C, so dass der Avatar C im Bild (im Raum virtueller Realität) auf der Anzeigevorrichtung 45 des Client-Terminals 13-1 angezeigt wird, wie dies in 7 gezeigt ist.
  • Im folgenden werden Operationen beschrieben, die zur Bewegung (Aktualisierung) eines spezifischen Objekts (eines Aktualisierungsobjekts (dessen Zustand Gegenstand einer Veränderung ist) erforderlich sind. Der Einfachheit halber wird angenommen, dass, wie in 8 gezeigt, die Bilder des Raumes virtueller Realität, wie sie von den Standpunkten Avatare der Client-Terminals 13-1 bis 13-3 aus zu sehen sind, in denselben angezeigt werden. Bei diesem Beispiel werden ein kegelförmiges Objekt 101, ein viereckiges Prismaobjekt bzw. Quaderobjekt 102 und ein zylindrisches Objekt 103 (ein Aktualisierungsobjekt) angezeigt. Es wird ferner angenommen, dass das Client-Terminals 13-1 das kegelförmige Objekt 101 betätigt, dass das Client-Terminal 13-2 das rechteckförmige Prismaobjekt 102 betätigt, und dass das Client-Terminal 13-3 das zylindrische Objekt 103 betätigt, und zwar durch die Bewegungs-Eingabevorrichtung 49d (oder die Maus 49b), um die Objekte zu bewegen.
  • In dem oben erwähnten Fall wird bzw. ist in den Client-Terminals 13-1 bis 13-3 eine Nachrichtentabelle (nämlich eine Änderungssequenztabelle), wie sie in 9A gezeigt ist, im ROM-Speicher 42 oder im RAM-Speicher 43 gespeichert. Bei der Ausführungsform gemäß 9A wird bzw. ist eine Bewegungsnachricht als Nachricht Nr. 1 registriert. Diese Bewegungsnachricht spezifiziert ein Objekt ID zur Identifizierung eines zu bewegenden Objekts, eine Richtung der Bewegung des Objekts, eine Geschwindigkeit, mit der das Objekt bewegt wird, und eine Zeitspanne, innerhalb der das Objekt in Bewegung gehalten wird, und zwar als Spezifikationsposten (Parameter).
  • Eine mit Nr. 2 numerierte Stoppnachricht dient zur Stillsetzung eines sich bewegenden Objekts; sie spezifiziert ein Objekt ID zur Identifizierung eines stillzusetzenden Objekts.
  • Eine mit Nr. 3 bezeichnete Avatar-Bewegungsnachricht dient zur Bewegung eines Avatars, spezifiziert ein Objekt ID zur Identifizierung eines zu bewegenden Avatars, eine Richtung der Bewegung des Avatars und eine Bewegungsstrecke der Bewegung des Avatars. Ein Avatarobjekt besteht insgesamt aus fünf Subobjekten: einem Körper mit einem Kopf, einem rechten Arm, einem linken Arm, einem rechten Bein und einem linken Bein. Um die Positionen der Arm- und Bein-Subobjekte eines Avatars zu ändern, wenn dieser dabei ist, sich zu bewegen (nämlich um den Avatar zu bewegen, während die rechten und linken Arme schwenken und die rechten und linken Beine sich abwechselnd bewegen) wird bzw. ist außerdem die Anzahl der Schwenkungen (um das Gelenk bzw. die Verbindung mit dem Körper) der Arme und der Beine pro Zeiteinheit als Parameter spezifiziert.
  • Eine mit Nr. 4 bezeichnete komplexe Operations-Startnachricht spezifiziert ein Objekt ID zur Identifizierung eines Objekts, welches eine komplexe Operation ausführt. Eine mit Nr. 5 bezeichnete komplexe Operations-Stoppnachricht spezifiziert ein Objekt ID zur Identifizierung eines Objekts, dessen komplexe Operation stillgesetzt wird.
  • Eine mit 6 numerierte Nachricht spezifiziert einen Paradestart. Diese Paradestartnachricht wird in einem Raum dreidimensionaler virtueller Realität eines später zu beschreibenden Zirkusparks implementiert. Diese Nachricht beginnt beispielsweise eine Parade, in der Clowns, Seebären bzw. -hunde, ein auf einem Fahrrad fahrender Bär und dergleichen in einem Umzug auftreten, wie dies in 9B gezeigt ist. In diesem Falle besteht das Objekt der gesamten Parade aus Subobjekten, wie aus den Clowns, Seebären bzw. -hunden, dem auf einem Fahrrad fahrenden Bär und dergleichen. Die Subobjekte eines Clowns bestehen beispielsweise aus insgesamt fünf Subobjekten: einem Körper mit einem Kopf, einen rechten Arm, einen linken Arm, einem rechten Bein und einem linken Bein. Um den Clown laufen zu lassen, wenn es vorwärts geht, währenddessen er seine Arme und Beine vorwärts und rückwärts bewegt, ist zusätzlich zu zumindest einer Richtung, in der sich der gesamte Clown bewegt, einer Geschwindigkeit, mit der sich der gesamte Clown bewegt, und einer Zeitspanne, in der sich der betreffende Clown fortwährend bewegt, eine Aktualisierungsinformation erforderlich, die die Anzahl von Schwenkungen pro Zeiteinheit der Subobjekte des rechten Arms, des linken Arms, des rechten Beines und des linken Beines um die Verbindung mit dem Körper enthält. In diesem Falle sind die Schwenkungswinkel der Objekte des rechten Arms, des linken Arms, des rechten Beines und des linken Beines in gewissen Bereichen zuvor festgelegt.
  • Zusätzlich zu einer Richtung, in der die gesamte Parade abläuft, einer Geschwindigkeit, mit der die gesamte Parade abläuft, und der Zeitspanne, innerhalb der die gesamte Parade fortlaufend abläuft, spezifiziert eine mit Nummer 6 bezeichnete Nachricht ein Überschrifts-Subobjekt ID1, beispielsweise ein Clown, ein zweites Subobjekt ID2, bezeichnet beispielsweise ein Seehund, ein letztes Subobjekt IDn, bezeichnet beispielsweise den auf einem Fahrrad fahrenden Bär, die Anzahl von Bewegungen pro Zeiteinheit um die oben erwähnte Verbindung von Hand-Subobjekten (rechts und links) des jeweiligen größeren Subobjekts und die Anzahl der Bewegungen bzw. Bewegungshäufigkeiten pro Zeiteinheit bezüglich der oben erwähnten Verbindung der Bein-Subobjekte (rechts und links) des jeweils größeren Subobjekts. In diesem Falle wird ersichtlich sein, dass die unterschiedliche Anzahl von Bewegungen bzw. Bewegungshäufigkeiten für die Hand- und Bein-Subobjekte von unterschiedlich großen Subobjekten von Clown, Seehunden und Bär festgelegt sein kann, um dadurch komplexe Fortgangsverhalten hinsichtlich der Parade in ihrer Gesamtheit zum Ausdruck zu bringen.
  • Es wird beispielsweise angenommen, dass in dem Client-Terminal 13-1 das kegelförmige bzw. keglige Objekt 101 (ein Aktualisierungsobjekt) aus der durch eine gestrichelte Linie bezeichneten Position in die durch eine volle Linie bezeichnete Positi on bewegt wird. Wenn die Bewegungs-Eingabevorrichtung 49d oder die Maus 49b des Client-Terminals 13-1 betätigt wird, um der CPU 41 den Befehl zu geben, das keglige Objekt zu bewegen, dann erzeugt die CPU 41 die Bewegungsnachricht Nr. 1. Das Objekt ID des kegligen Objekts 101 wird bzw. ist nämlich als ID des zu bewegenden Objekts festgelegt. Darüber hinaus werden spezifische Werte wie Richtung, Geschwindigkeit und Dauer der Bewegung entsprechend den Eingaben (durch die Betätigung der Eingabevorrichtungen) festgelegt.
  • Wie beschrieben wird, wird sich in dem Fall, dass die Festlegung derart erfolgt ist, wenn die Maus 49b nach oben bewegt wird und die linke Taste gedrückt gehalten wird, das Objekt beispielsweise nach vorn mit einer Geschwindigkeit bewegen, die der Bewegungsstrecke der Maus 49b entspricht; die Richtung (in diesem Falle die Aufwärtsrichtung), die Geschwindigkeit (in diesem Falle die Bewegungsstrecke der Maus 49b) und die Zeitdauer (während der die Maus betätigt worden ist) werden durch die CPU 41 ermittelt, um im Speicher eingestellt bzw. festgelegt zu werden.
  • Sodann führt die CPU 41 die Nachricht aus, die durch die betreffende CPU selbst erzeugt worden ist. Es werden nämlich Bilddaten so erzeugt, dass das keglige Objekt 101 sich aus der durch die gestrichelte Linie bezeichneten Position in die durch die volle Linie bezeichnete Position bewegt, wie dies in 10 veranschaulicht ist, was an die Anzeigevorrichtung 45 für eine Anzeige abgegeben wird.
  • Ferner steuert die CPU 41 des Client-Terminals 13-1 die Kommunikationsvorrichtung 44 an, um die erzeugte Bewegungsnachricht über das Netzwerk 15 zum Server-Terminal 11-1 zu übertragen. Auf den Empfang der Bewegungsnachricht durch die Kommunikationsvorrichtung 24 hin gibt die CPU 21 des Server-Terminals 11-1 die empfangene Bewegungsnachricht an die Client-Terminals 13-2 und 13-3 von der Kommunikationsvorrichtung 24 gleichzeitig ab.
  • Auf den Empfang der Bewegungsnachricht mittels der Kommunikationsvorrichtung 44 führt die CPU 41 des Client-Terminals 13-2 die in der empfangenen Bewegungsnachricht spezifizierte Verarbeitung aus. Genauer gesagt identifiziert die CPU 41 aus dieser Bewegungsnachricht das keglige Objekt 101 als das zu verschiebende bzw. bewegende Objekt, liest aus dieser Bewegungsnachricht die Bewegungsrichtung, Geschwindigkeit und Dauer im Raum virtueller Realität, erzeugt Daten eines Bildes zur Bewegung des kegligen Objekts 101 im Raum virtueller Realität und zeigt die erzeugten Bilddaten auf der Anzeigevorrichtung 45 an. Die entsprechende Verarbeitung wird im Client-Terminal 13-3 ausgeführt. Folglich erscheint das keglige Objekt 101 auf den Anzeigevorrichtungen 45 der Client-Terminals 13-2 und 13-3 in Synchronismus bewegt, wie dies in 11 und 12 gezeigt ist.
  • In dem oben erwähnten Fall wird das Bild zur Bewegung des kegligen Objekts 101 in jedem der Client-Terminals 13-1 bis 13-3 lokal erzeugt, um angezeigt zu werden, anstatt dass der Server 11-1 das Bild zur Bewegung des kegligen Objekts 101 erzeugt und an die Client-Terminals 13-1 bis 13-3 abgibt. Infolgedessen kann der Umfang der Kommunikation zwischen den Client-Terminals 13-1 bis 13-3 und dem Server-Terminal 11-1 minimiert werden.
  • Es sei darauf hingewiesen, dass mit Rücksicht darauf, dass die Nachricht über das Netzwerk 15 empfangen wird, die Anzeige auf den Client-Terminals 13-2 und 13-3 etwas gegenüber der Anzeige auf dem Client-Terminal 13-1 verzögert ist. Das Client-Terminals 13-1 überträgt jedoch die Nachricht unmittelbar nach deren Erzeugung, und die Anzeige auf sämtlichen Client-Terminals wird in der Praxis generell in Synchronisation miteinander gesteuert. Das Server-Terminal 11 überträgt die Nachricht zu den Client-Terminals 13-2 und 13-3 generell zur selben Zeit, so dass angenommen wird, dass die Anzeige auf den Client-Termi nals 13-2 und 13-3 generell in Synchronismus miteinander gesteuert wird.
  • 13 veranschaulicht die auszuführende Verarbeitung, wenn die Client-Terminals 13-1 bis 13-3 die Nachricht 1 empfangen.
  • Genauer gesagt wird beim ersten Schritt S1 das zu bewegende Objekt aus der Objekt-ID der Bewegungsnachricht Nr. 1 gelesen, und das so gelesene Objekt wird festgelegt. Sodann werden bei den Schritten S2 und S3 die Richtung und die Geschwindigkeit, die durch die Parameter der Bewegungsnachricht spezifiziert sind, gelesen und eingestellt. Sodann werden beim Schritt S4 die Bilddaten erzeugt, die das Objekt bewegen, das beim Schritt S1 festgelegt bzw. eingestellt ist, und zwar in der Richtung, die beim Schritt S2 festgelegt ist, und mit der Geschwindigkeit, die beim Schritt S3 festgelegt ist. Die erzeugten Bilddaten werden an die Anzeigevorrichtung 45 abgegeben, um angezeigt zu werden.
  • Sodann wird beim Schritt S5 bestimmt, ob die in der Bewegungsnachricht spezifizierte Zeitspanne bzw. Dauer abgelaufen ist oder nicht. Falls die Dauer nicht abgelaufen ist, dann wird die Verarbeitung zurückkehrend zum Schritt S4 zur Bewegung des Objekts fortgesetzt. Somit wird die Bewegung (Aktualisierung) des Objekts solange fortgesetzt, bis die in der Bewegungsnachricht spezifizierte Dauer abläuft bzw. abgelaufen ist.
  • Wenn die in der Bewegungsnachricht spezifizierte Zeitspanne bzw. Dauer beim Schritt S5 als abgelaufen ermittelt worden ist, dann wird beim Schritt S6 bestimmt, ob eine weitere Nachricht eingegeben worden ist oder nicht. Falls keine weitere Nachricht vorliegt, dann wird beim Schritt S7 das in Bewegung gehaltene Objekt soweit stillgesetzt. Falls eine weitere Nachricht beim Schritt S6 ermittelt worden ist, dann wird beim Schritt S8 die Verarbeitung der neuen Nachricht ausgeführt. Dies gestattet, das keglige Objekt 101 beispielsweise während einer bestimmten Zeitspanne zu bewegen, gefolgt von der Ausführung der nächsten Verarbeitung.
  • Falls eine Bewegungsnachricht erneut als nächste Nachricht eingegeben ist, wird das Objekt während einer weiteren bestimmten Zeitspanne bewegt.
  • Im folgenden wird die Bewegung eines Avatars in einer komplexeren Art und Weise beschrieben. Wie in 14 gezeigt, wird angenommen, dass der Raum virtueller Realität, in welchem das keglige Objekt 101, das viereckige Prismaobjekt 102 und das zylindrische Objekt 103 existieren, Avatare C bis E entsprechend den Client-Terminals 13-1 bis 13-3 enthält.
  • Nunmehr wird angenommen, dass in dem Client-Terminal 13-3 eine Operation mit der Maus 49b vorgenommen wird, um den Avatar E in die durch den Pfeil in 14 bezeichnete Richtung zu bewegen. In diesem Augenblick erzeugt die CPU 41 des Client-Terminals 13-3 auf diese Operation hin eine Avatar-Bewegungsnachricht Nr. 3, wie dies in 9 gezeigt ist. Als ein zu bewegender Avatar (ein Aktualisierungsobjekt) wird nämlich die Objekt-ID für den Avatar E festgelegt. Außerdem werden die Richtung, in der der Avatar bewegt wird, und die Bewegungsstrecke entsprechend den Eingaben von der Eingabevorrichtung 49 festgelegt.
  • Ferner wird für die Spezifikationen der Arme (Subobjekte) und Beine (Subobjekte) des Avatars E die Anzahl der Bewegungen bzw. Bewegungshäufigkeit pro Zeiteinheit, wie gefordert, festgelegt. Sofern nicht speziell angegeben, ist ein Vorbelegungs- bzw. Standardwert für die Anzahl der Bewegungen bzw. Bewegungshäufigkeiten festgelegt.
  • Die oben erwähnte Avatar-Bewegungsmeldung wird auf dem Client-Terminal 13-3 ausgeführt, und sie wird zur selben Zeit über bzw. durch das Server-Terminal 11-1 zu den Client-Terminals 13-1 und 13-2 übertragen, um zur selben Zeit ausgeführt zu werden, wie dies in dem Flussdiagramm gemäß 15 veranschaulicht ist.
  • Genauer gesagt starten die Client-Terminals 13-1 bis 13-3 zur selben Zeit ein Programm, wie es in 15 gezeigt ist. Beim Schritt S21 wird die Objekt-ID aus der Avatar-Bewegungsmeldung gelesen, und die so gelesene Objekt-ID wird festgelegt bzw. eingestellt. Beim Schritt S22 wird die Bewegungsrichtung festgelegt.
  • Ferner werden beim Schritt S23 (eine Aktualisierungssequenz) die Bilddaten in dem Fall erzeugt, dass das beim Schritt S21 festgelegte Objekt in die beim Schritt S22 festgelegte Richtung bewegt wird. Die erzeugten Bilddaten werden an die Anzeigevorrichtung 45 abgegeben, um angezeigt zu werden.
  • Somit bewegt sich der Avatar E auf den Anzeigevorrichtungen der Client-Terminals 13-1 bis 13-3 in Synchronismus bzw. synchronisiert.
  • Darüber hinaus werden bei den Schritt S24 und S25 Bewegungsverarbeitungsoperationen der Arme und Beine, als unabhängiger Objekte, ausgeführt.
  • Einzelheiten der Verarbeitung der Armbewegung (eine Aktualisierungssequenz) sind im Flussdiagramm gemäß 16 gezeigt. Zunächst wird beim Schritt S41 die Häufigkeit der Armbewegungen aus den Spezifikationen der Avatar-Bewegungsmeldung gelesen, und die so gelesene Anzahl wird festgelegt. Sodann wird beim Schritt S42 das Bild für die Bewegung der Arme des Objekts (in diesem Fall der Arme des Avatars E) in der beim Schritt S41 festgelegten Häufigkeit erzeugt. Das erzeugte Bild wird an die Anzeigevorrichtung 45 abgegeben, um angezeigt zu werden.
  • Wenn der Avatar E beim Schritt S23 gemäß 15 bewegt wird, dann wird das Bild, in welchem die Arme des Avatars E (in die sem Fall eines Teiles der Vielzahl von den Avatar E bildenden Objekten) rückwärts und vorwärts bewegt werden, angezeigt.
  • Einzelheiten der Verarbeitung der Beinbewegung (eine Aktualisierungssequenz) sind in dem Flussdiagramm gemäß 17 gezeigt. Beim Schritt S51 wird die Häufigkeit der Beinbewegungen aus den Spezifikationen der Avatar-Bewegungsmeldung gelesen, und die so gelesene Zahl wird festgelegt. Sodann erzeugt die CPU 41 beim Schritt S52 die Bilddaten für die Bewegung der Beine des Objekts (des Avatars E) in der beim Schritt S51 festgelegten Häufigkeit. Die erzeugten Bilddaten werden an die Anzeigevorrichtung 45 abgegeben, um angezeigt zu werden.
  • Wenn der Avatar E beim Schritt S23 gemäß 15 bewegt wird, wird somit das Bild, in welchem die Hände beim Schritt S24 rückwärts und vorwärts bewegt werden und in welchem die Beine beim Schritt S25 abwechselnd bewegt werden, angezeigt.
  • Durch Festlegen der Anzahl von Bewegungen pro Zeiteinheit bezüglich der Arme und Beine auf bestimmte Werte können unterschiedliche Avatare die Arme und Beine in einer Weise bewegen, die von jener anderer Avatare verschieden ist. Falls beispielsweise ein großer Avatar und ein kleiner Avatar mit derselben Geschwindigkeit laufen, kann die Festlegung der Anzahl der Bewegungen der Beine des großen Avatars auf einen geringeren Wert als jenem des kleinen Avatars das Laufverhalten natürlicher machen.
  • Für die Anzahl bzw. Häufigkeit der Bewegungen von Armen und Beinen sind Vorbelegungs- bzw. Standardwerte (eine Aktualisierungssequenz) vorbereitet. Falls kein Befehl bezüglich der Häufigkeit der Bewegung von Armen und Beinen von der Eingabevorrichtung 49 des Client-Terminals 13 eingegeben worden ist oder wenn ein Befehl (eine Aktualisierungssequenz) zur einfachen Bewegung eines bestimmten Avatars in eine bestimmte Richtung eingegeben worden ist, dann wird daher der Avatar mit seinen Armen und Beinen angezeigt, wie er sich in einer generell natürlichen Art und Weise bewegt.
  • Sodann wird beim Schritt S26 gemäß 15 vom Schritt S25 her kommend bestimmt, ob der sich bewegende (laufende) Avatar sich um die Strecke bewegt hat, die entsprechend der Spezifikation in der Avatar-Bewegungsnachricht festgelegt ist. Wenn festgestellt wird, dass der Avatar nicht die spezifizierte Strecke gelaufen ist, dann wird zurückgehend zum Schritt S23 die Verarbeitung wiederholt; der Avatar wird nämlich veranlasst, seinen Lauf bzw. sein Gehen fortzusetzen.
  • Wenn beim Schritt S26 festgestellt wird, dass der Avatar die bestimmte Strecke gegangen ist, dann wird beim Schritt S27 bestimmt, ob eine nächste Nachricht eingegeben worden ist oder nicht. Falls keine neue Nachricht ermittelt wird, dann wird beim Schritt S28 die Verarbeitung zur Stillsetzung des sich bewegenden Avatars ausgeführt. Diese Verarbeitung kann dadurch ausgeführt werden, dass beispielsweise die mit Nr. 2 bezeichnete Stoppnachricht gemäß 9 erzeugt wird, um diese auszuführen und um den Avatar stillzusetzen. Eine Einrichtung kann jedoch auch so erfolgen, dass der laufende bzw. gehende Avatar automatisch stillgesetzt werden kann, falls keine neue Nachricht vorliegt, wenn er die spezifizierte Strecke (oder während der spezifizierten Dauer) gegangen ist.
  • Wenn beim Schritt S27 die neue Nachricht ermittelt wird, dann wird beim Schritt S29 die in der neuen Nachricht spezifizierte Verarbeitung ausgeführt. Wenn beispielsweise die neue Nachricht die mit Nr. 2 bezeichnete Stopp-Nachricht ist, dann wird die Stoppverarbeitung beim Schritt S29 ausgeführt, wodurch der gehende Avatar stillgesetzt wird.
  • Somit kann der Avatar mit Leichtigkeit mittels einer relativ geringen Kommunikationsmenge und in einer generell natürlichen Art und Weise bewegt werden.
  • Es sei darauf hingewiesen, dass das Server-Terminal 11-1 den Takt des dreidimensionalen Raumes virtueller Realität steuert und dass dann, wenn ein bestimmter Zeitpunkt kommt, das betreffende Terminal eine mit Nr. 6 bezeichnete Paraden-Startnachricht zu jedem der Client-Terminals 13-1 bis 13-3 überträgt. Dies ermöglicht außerdem, dass die oben erwähnte Parade der mit Nr. 6 bezeichneten Nachricht lediglich dadurch zu implementieren ist, dass das Nachrichtenkommunikationsvolumen in derselben Verarbeitung genutzt wird, wie es in 15 bis 17 veranschaulicht ist.
  • Auf der Grundlage der oben erwähnten Prinzipien von Operationen können komplexere Verhalten ebenfalls mit einer relativ geringen Kommunikationsmenge implementiert werden.
  • So wird beispielsweise, wie in 18 gezeigt, angenommen, dass ein Fußgängerweg 112 längs einer Straße 111 vorgesehen ist, wobei eine Reklametafel 113 in der Nähe des Fußgängerwegs 112 in einem Raum virtueller Realität installiert ist. Die Reklametafel 113 ist so aufgestellt, dass sie eine bestimmte Werbung anzeigt, wenn ein Avatar (Avatar F in 18) in einen bestimmten Bereich gelangt.
  • In diesem Falle empfängt das Server-Terminal 11-1 die Positionsdaten der Avatare von den Client-Terminals 13-1 bis 13-3, um den Abstand zwischen dem jeweiligen Avatar und der Reklametafel 113 zu berechnen. Wenn festgestellt wird, dass der Abstand kleiner ist als ein bestimmter Wert bzw. Pegel, dann erzeugt das Server-Terminal 11-1 die mit Nr. 4 bezeichnete komplexe Bewegungs-Startnachricht und gibt die erzeugte Nachricht an die Client-Terminals 13-1 bis 13-3 ab. Auf die Aufnahme dieser komplexen Bewegungs-Startnachricht hin führt die CPU 41 jedes der Client-Terminals 13-1 bis 13-3 die Verarbeitung (eine Aktualisierungssequenz) aus, die in dem Flussdiagramm gemäß 19 veranschaulicht ist.
  • Genauer gesagt wird zunächst beim Schritt S61 die Reklametafel 113 gemäß 18 eingeschaltet. Sodann werden beim Schritt S62 beispielsweise bestimmte Zeichen und Grafiken auf der Reklametafel 113 entsprechend einer bestimmten Sequenz bzw. Reihenfolge angezeigt. Dann wird beim Schritt S63 bestimmt, ob die mit Nr. 5 bezeichnete komplexe Bewegungs-Stoppnachricht eingegeben worden ist oder nicht. Falls festgestellt wird, dass die komplexe Bewegungs-Stoppnachricht nicht vorliegt, wird zum Schritt S62 zurückgehend die Anzeige auf der Reklametafel 113 fortgesetzt.
  • Das Server-Terminal 11-1 überwacht stets den Abstand zwischen dem Avatar F in der Nähe der Reklametafel 113 und der Reklametafel 113. Wenn dieser Abstand größer wird als ein zuvor festgelegter Wert bzw. Pegel, dann erzeugt das Server-Terminal 11-1 die mit Nr. 5 bezeichnete komplexe Bewegungs-Stoppnachricht, um dieselbe an die Client-Terminals 13-1 bis 13-3 abzugeben.
  • Beim Schritt S63 gemäß 19 geht die CPU 41 des Client-Terminals 13 auf die Aufnahme dieser Nachricht hin zum Schritt S64 weiter, um die Reklametafel 113 auszuschalten. Es wird nämlich die auf der Reklametafel 113 ausgeführte komplexe Bewegung gestoppt.
  • Somit ermöglicht sogar für komplexere Bewegungen (Aktualisierungssequenzen) eine einfache Vorabregistrierung derselben Bewegungen in den Client-Terminals 13-1 bis 13-3 den betreffenden Client-Terminals 13-1 bis 13-3, komplexe Bewegungsbilder einfach dadurch anzuzeigen, dass eine Nachricht zur Anzeige ihres Beginns an die Client-Terminals 13-1 bis 13-3 abgegeben wird.
  • Bei der oben erwähnten Ausführungsform sind die beiden Server-Terminals und die drei Client-Terminals über das Netzwerk verbunden. Es dürfte jedoch einzusehen sein, dass die Anzahl der Terminals und Netzwerke auf diese Werte nicht beschränkt ist.
  • Es sei darauf hingewiesen, dass die Anzeige der Avatare C bis F zusätzlich zu dem oben erwähnten kegligen Objekt 101, dem rechteckigen Prismaobjekt 102 und dem zylindrischen Objekt 103 außerdem Objekte benötigen, die einen Hintergrund bereitstellen. Die Grundzustände der Hintergrundobjekte sind nicht Gegenstand einer Änderung, so dass diese Objekte als Basisobjekte im Gegensatz zu den Aktualisierungsobjekten bezeichnet werden, deren Zustände Gegenstand einer Änderung sind. Ein durch Basisobjekte gebildetes Hintergrundbild wird von dem Server-Terminal 11 über das Internet an das Client-Terminal 13 abgegeben. Deshalb werden die Aktualisierungsobjekte dem Hintergrundbild (Basisobjekte) überlagert angezeigt.
  • Unterdessen wird in dem oben erwähnten Habitat gemäß der verwandten Technik eine Animation, bei der sich ein Avatar bewegt, während er seine Arme und Beine schwenkt bzw. bewegt, vor bzw. auf einem zweidimensionalen Hintergrund angezeigt; wenn der Cursor in eine Zielposition bewegt wird, in die ein Avatar zu bewegen ist, wird die Maustaste an dieser Position gedrückt gehalten, um einen Mausbefehl (ein Hochzieh-Menü) anzuzeigen, und ein "GO" bzw. "Lauf-Befehl" wird in dem Hochzieh-Menü angeklickt. Dies stellt jedoch die Anzeige, in der der durch zweidimensionale Grafiken erzeugte Avatar dem Hintergrundbild überlagert ist, welches durch zweidimensionale Grafiken erzeugt ist, nämlich die Anzeige auf der Grundlage der Animation dar, die durch eine Reihe von Zelluloidbildern erzeugt wird, in denen Bitmapdaten, die unterschiedliche Richtungen der Arme und Beine darstellen, abwechselnd gelesen werden, wenn sich der Avatar längs bewegt.
  • Im Habitat, ein zweidimensionaler Raum virtueller Realität, kann nämlich lediglich von der Position aus betrachtet werden, von der man über den gesamten Raum sieht, der den eigenen Avatar einschließt, vom Standpunkt einer dritten Person aus betrachtet. Deshalb ist es unmöglich für Habitat, die Standpunkte oder die Darstellung einer Tiefe zu ändern.
  • Im Gegensatz dazu können bei der oben erwähnten Ausführungsform der vorliegenden Erfindung die Aktualisierungssequenzen der Avatar-Arme und -Beine (jeweils ein Subobjekt) vorab so definiert bzw. festgelegt werden, dass die Aktualisierungssequenzen sich ineinander greifen. Dies ermöglicht dem Avatar, eine Vielfalt von Verhalten auszuführen, die geringfügig voneinander verschieden sind, und zwar entsprechend den Attributen des Avatars, indem einfach beispielsweise eine Nachricht "gehen" für den Avatar gegeben bzw, eingegeben wird (z. B. wird ein männlicher Avatar veranlasst, mit einem großen Schritt zu gehen, während ein weiblicher Avatar veranlasst wird, mit einem kleinen femininen Schritt zu gehen).
  • Es sei darauf hingewiesen, dass die Daten des jeweiligen Objekts als VRML-Datei oder als E-VRML-Datei festgelegt bzw. definiert sind, wobei Einzelheiten darüber später beschrieben werden.
  • Bei der oben erwähnten Ausführungsform der vorliegenden Erfindung bewegt jedes Client-Terminal 13 sein Objekt. Es ist außerdem möglich, auf jedem Client-Terminal das Bild eines Raumes virtueller Realität anzuzeigen, wie er vom Standpunkt des jeweils entsprechenden Avatars gesehen wird. Wenn der Standpunkt auf dem jeweiligen Client-Terminal bewegt bzw. verschoben wird, ändert sich das Hintergrundbild entsprechend dem Standpunkt. Falls festgestellt wird, dass ein Avatar eines anderen Client-Terminals sich innerhalb des Blickfeldbereiches befindet, wie er von dem betreffenden Standpunkt aus gesehen wird, wird der betreffende Avatar angezeigt. Deshalb ist der Avatar-Anzeigezustand ein Ergebnis der Zusammensetzung eines Bewegungsbefehls von dem betreffenden Client-Terminal für den betreffenden Avatar. Dies macht die Steuerung der Anzeige komplexer.
  • 20 zeigt ein konkreteres Beispiel des Aufbaus eines Cyberspace-Systems auf der Grundlage des Internets. Bei dieser bevorzugten Ausführungsform wird eines der oben erwähnten Server-Terminals 11-1 und 11-2 (beispielsweise das Server-Terminal 11-1) als Informationsserver-Terminal benutzt, und das andere (das Server-Terminal 11-2) wird als gemeinsam genutztes Server-Terminal genutzt. Im folgenden wird daher das Server-Terminal 11-1 als Informationsserver-Terminal 11A bezeichnet, während das Server-Terminal 11-2 als gemeinsam genutztes Server-Terminal 11B bezeichnet ist.
  • Ein Host A stellt ein System beispielsweise des WWW (weltweites Netz) dar. Der Host A verfügt nämlich über eine später zu beschreibende Information (oder eine Datei). Jeder Teil der Information (oder jeder Datei) bezieht sich auf eine URL-Angabe (Uniform Ressource Locator) zur gleichmäßigen Spezifizierung der betreffenden Information. Eine Spezifizierung einer URL-Angabe ermöglicht, auf die ihr entsprechende Information zuzugreifen.
  • Genauer gesagt speichert der Host A dreidimensionale Bilddaten zur Bereitstellung von dreidimensionalen Räumen virtueller Realität (nachstehend zweckmäßigerweise einfach als Räume virtueller Realität bezeichnet), wie virtuellen Strassen beispielsweise in Tokyo, New York und an anderen Stellen. Es sei darauf hingewiesen, dass diese dreidimensionalen Bilddaten sich in ihrem Grundzustand nicht ändern; dies bedeutet, dass diese Daten statische Daten enthalten, die lediglich aus Basisobjekten, wie einem Gebäude und einer Strasse bestehen, welche von einer Vielzahl von Nutzern gemeinsam zu nutzen sind. Falls sich der Basis- bzw. Grundzustand ändert, spiegelt sich dies lediglich in einer autonomen Änderung im Zustand eines Karussells oder einer Leuchtreklame wieder. Die statischen Daten werden als Daten betrachtet, die nicht Gegenstand einer Aktualisierung sind. Der Host A verfügt über ein Informationsserver-Terminal 11A (ein Basis-Server-Terminal). Das Informationsserver-Terminal 11A wird aktualisiert, wenn es eine URL-Angabe über das Netzwerk 15 erhält, um die der empfangenen URL-Angabe entsprechende Information bereitzustellen, nämlich einen entsprechenden Raum virtueller Realität (in diesem Falle einen Raum, der lediglich aus Basisobjekten besteht).
  • Es sei darauf hingewiesen, dass in 20 lediglich ein Host, nämlich der Host A vorhanden ist, der über ein Informationsserver-Terminal zur Bereitstellung eines Raumes virtueller Realität (bestehend lediglich aus Basisobjekten) eines bestimmten Bereiches verfügt. Es ist ersichtlich, dass ein derartiger Host in einer Vielzahl installiert sein kann.
  • Ein Host B weist ein gemeinsam genutztes Server-Terminal 11B auf. Das gemeinsam genutzte Server-Terminal 11B steuert Aktualisierungsobjekte, die dann, wenn sie eingegeben sind, einen Raum virtueller Realität bilden. Die Aktualisierungsobjekte sind beispielsweise Avatare, die Benutzer der Client-Terminals darstellen. Somit gestattet das gemeinsam genutzte Server-Terminal 11B einer Vielzahl von Benutzer bzw. Anwendern, denselben Raum virtueller Realität gemeinsam zu nutzen. Es sei jedoch darauf hingewiesen, dass der Host B lediglich die Aktualisierungsobjekte steuert, die im Raum virtueller Realität liegen, und zwar lediglich für einen bestimmten Bereich (z. B. für Tokyo) der durch den Host A gesteuerten Räume virtueller Realität. Dies bedeutet, dass der Host B für den Raum virtueller Realität eines bestimmten Bereiches dediziert ist. Außerdem sei darauf hingewiesen, dass das Netzwerk 15 zusätzlich zum Host B mit einem nicht dargestellten Host verbunden ist, der ein gemeinsam genutztes Server-Terminal zur Steuerung von Aktualisierungsobjekten aufweist, die in Räumen virtueller Realität von anderen Bereichen, wie von New York und London liegen, was im Host A gespeichert ist.
  • Ein Host C stellt wie der Host A beispielsweise ein WWW-System dar und speichert Daten, einschließlich IP-(Internet Protokoll)-Adressen zur Adressierung von Hosts (gemeinsam genutzte Server-Terminals), die Aktualisierungsobjekte steuern, wie der Host B. Deshalb stehen die in dem Host C gespeicherten Adressen des gemeinsam genutzten Server-Terminals gleichmäßig in Beziehung zu den URL-Angaben wie im Falle des oben erwähnten Hosts A. Darüber hinaus weist der Host C ein Abbildungsserver-Terminal 12 (ein Steuerserver-Terminal) auf. Auf den Empfang einer URL-Angabe über das Netzwerk 15 stellt das Abbildungsserver-Terminal 12 die IP-Adresse des gemeinsam genutzten Server-Terminals entsprechend der empfangenen URL-Angabe über das Netzwerk 15 bereit. Es sei darauf hingewiesen, dass 20 lediglich einen Host, nämlich den Host C zeigt, der über das Abbildungsserver-Terminal 12 zur Bereitstellung der Adressen des gemeinsam genutzten Server-Terminals verfügt. Es wird ersichtlich sein, dass der Host C in einer Vielzahl installiert sein kann.
  • Das Client-Terminal 13 (13-1, 13-2 oder 13-3) erhält einen Raum virtueller Realität von dem Informationsserver-Terminal 11A über das Netzwerk 15, um den empfangenen Raum virtueller Realität gemeinsam mit anderen Client-Terminals zu nutzen (einschließlich dem Diensteanbieter-Terminal 14), und zwar unter der Steuerung des gemeinsam genutzten Server-Terminal 11B. Ferner ist das Client-Terminal 13 außerdem imstande, bestimmte Dienste (Informationen) unter Ausnutzung des Raumes virtueller Realität von dem Diensteanbieter-Terminal 14 zu empfangen.
  • Das Diensteanbieter-Terminal 14 erhält wie das Client-Terminal 13 einen Raum virtueller Realität zur gemeinsamen Nutzung des betreffenden Raumes mit dem Client-Terminal 13 (falls ein weiteres Diensteanbieter-Terminal vorhanden ist, dann nutzt es auch diesen Raum). Deshalb ist das Diensteanbieter-Terminal 14 dasselbe Terminal wie das Client-Terminal 13, soweit die Fähigkeit dieses Bereiches betroffen ist.
  • Ferner ist das Diensteanbieter-Terminal 14 imstande, bestimmte Dienste für das Client-Terminal 13 bereitzustellen. Es sei darauf hingewiesen, dass 20 lediglich ein Diensteanbieter-Terminal 14 veranschaulicht. Es dürfte einzusehen sein, dass das Diensteanbieter-Terminal in einer Vielzahl installiert sein kann.
  • Im folgenden wird kurz ein WWW-System beschrieben, bestehend aus dem Host A und dem Host C. Gemäß 21 stellt das WWW-System eines der Systeme zur Bereitstellung von Informationen von Hosts X, Y und Z für nicht spezifizierte Anwender bzw. Benutzer (Client-Terminals) über das Netzwerk 15 (das Internet im Falle des WWW-Systems) dar. Die Informationen, die in diesem System bereitgestellt werden können, enthalten nicht nur Texte, sondern auch Grafiken, Bilder (einschließlich Standbilder und Bewegtbilder), Sprache, dreidimensionale Bilder und Hypertexte, die alle diese Informationen kombinieren.
  • Im WWW-System wird eine URL-Angabe oder eine Form zur gleichmäßigen Darstellung dieser Informationsteile bestimmt. Durch Spezifizierung einer bestimmten URL-Angabe kann jeder Benutzer die der spezifizierten URL-Angabe entsprechende Information erhalten. Wie in 22 gezeigt, besteht jede URL-Angabe aus einem Protokolltyp zur Darstellung eines Servicetyps (http bei der bevorzugten Ausführungsform gemäß 22, was ein Äquivalent ist für einen Befehl zur Wiederauffindung einer Datei entsprechend einem Dateinamen, was später zu beschreiben ist, und zur Aussendung bzw. Übertragung der wiedergefundenen Datei), einem Host-Namen, der ein Ziel der URL-Angabe angibt (beim Beispiel gemäß 22 ist dies www.csl.sony.co.jp), und beispielsweise einem Dateinamen von zu übertragenden Daten (bei der Ausführungsform gemäß 22 ist dies index.html).
  • Jeder Anwender bzw. Benutzer bedient das Client-Terminal zur Eingabe einer URL-Angabe für eine gewünschte Information. Wenn die URL-Angabe eingegeben ist, nimmt das Client-Terminal auf einen Host-Namen Bezug, wie er beispielsweise in der URL-Angabe enthalten ist. Es wird eine Verbindung mit einem Host (bei dem Ausführungsbeispiel gemäß 21 ist der Host X beispielsweise mit dem Internet verbunden), hergestellt, der durch den Hostnamen adressiert ist. Sodann wird in dem Client-Terminal die URL-Angabe zu dem verbundenen Host, nämlich dem Host X, über das Internet übertragen, womit angefordert wird, dass der Host X die in der URL-Angabe spezifizierte Information überträgt. In dem Host X wird ein HTTP-Demon (httpd) auf dem Informationsserver-Terminal (dem WWW-Server-Terminal) betrieben. Auf den Empfang der URL-Angabe hin überträgt das Informationsserver-Terminal die in der URL-Angabe spezifizierte Information über das Internet zurück zum Client-Terminal.
  • Das Client-Terminal empfängt die Information vom Informationsserver-Terminal, um die empfangene Information auf seinem Monitor, wie gefordert, anzuzeigen. Somit kann der Benutzer die gewünschte Information erhalten.
  • Deshalb ermöglicht lediglich die Speicherung im Host von solchen Daten zur Beschreibung von Elementen (Objekten) zur Bildung eines Raumes virtueller Realität als Formen von Basisobjekten (beispielsweise eines rechteckigen Prismas und eines Kegels) und der Stellen und Attribute (beispielsweise Farbe und Textur) dieser Basisobjekte, den Raum virtueller Realität (bestehend in diesem Falle lediglich aus Basisobjekten) für nicht spezifizierte Benutzer bereitzustellen. Solange wie das Internet als Netzwerk 15 und das WWW genutzt werden, können nämlich Räume virtueller Realität für nicht spezifizierte Benutzer weltweit mit Leichtigkeit und unter geringen Kosten bereitgestellt werden, da das Internet selbst sich bereits über nahezu die gesamte Welt erstreckt und da die in Hosts zu speichernden Elemente, die den jeweiligen Raum virtueller Realität darstellen, nicht die Vornahme von Änderungen bezüglich der Informationsserver (WWW-Server-Terminals) erfordern, die das WWW bilden. Es sei darauf hingewiesen, dass der Dienst zur Bereitstellung der Beschreibung der Elemente, die einen Raum virtueller Realität darstellen, aufwärts kompatibel ist mit existierenden Diensten, die durch das WWW bereitgestellt werden.
  • Die Speicherung der IP-Adressen von anderen Hosts als Information in einem bestimmten Host (einem Abbildungsserver-Termi nal) ermöglicht die Bereitstellung der Host-IP-Adressen mit Leichtigkeit weltweit für nicht spezifizierte Nutzer.
  • Es sei darauf hingewiesen, dass es für eine Vielzahl von Anwendern bzw. Nutzern schwierig ist, denselben Raum virtueller Realität gemeinsam zu nutzen, wenn die Beschreibung (die Daten eines dreidimensionalen Bildes zur Bereitstellung des Raumes virtueller Realität eines bestimmten Bereichs) von den Raum virtueller Realität darstellenden Elementen in lediglich einem Host gespeichert ist, der das WWW darstellt. In dem WWW-Netz wird nämlich die einer URL-Angabe entsprechende Information lediglich einem Benutzer zur Verfügung gestellt, und daher wird keine Steuerung bezüglich einer Informationsübertragung ausgeführt. Folglich ist es schwierig, zwischen Anwendern die oben erwähnte Änderungsinformation von Aktualisierungsobjekten unter Nutzung des WWW ohne Änderung dessen Designs zu übertragen. Deshalb sind in dem Cyberspace-System gemäß 20 der Host B, der über das gemeinsam genutzte Server-Terminal 11B verfügt, und der Host C, der über den Abbildungs-Server 12 verfügt, installiert, um einer Vielzahl von Anwendern bzw. Nutzern zu ermöglichen, denselben Raum virtueller Realität gemeinsam zu nutzen, wobei Einzelheiten davon später beschrieben werden.
  • 23 zeigt ein Beispiel eines Aufbaus des Abbildungsserver-Terminals 12, das in bzw. auf dem Host C gemäß 20 betrieben wird. Die Komponenten von der CPU 91 bis zur Kommunikationsvorrichtung 94 sind generell dieselben im Aufbau wie jene gemäß 2, so dass die Beschreibung der Komponenten gemäß 23 generell weggelassen wird. Eine Speichervorrichtung 95 speichert Adressen zusammen mit URL-Angaben zur Identifizierung der gemeinsam genutzten Server-Terminals, die Aktualisierungsobjekte steuern (bei der Ausführungsform gemäß 20 ist lediglich das gemeinsam genutzte Server-Terminal 11B veranschaulicht; tatsächlich sind andere bzw. weitere gemeinsam genutzte Server-Terminals, die nicht dargestellt sind, mit dem Netzwerk 15 verbunden).
  • Im folgenden werden die Operationen des Client-Terminals 13 (oder des Diensteanbieter-Terminals 14), des Informationsserver-Terminals 11A, des Abbildungsserver-Terminals 12 und des gemeinsam genutzten Server-Terminals 11B unter Bezugnahme auf die Flussdiagramme gemäß 24 bis 27 beschrieben.
  • Nunmehr sei auf 24 Bezug genommen, in der ein Beispiel zur Verarbeitung durch das Client-Terminal 13 (oder das Diensteanbieter-Terminal 14) veranschaulicht ist. Beim Schritt S71 überprüft die CPU 41, ob die URL-Angabe eines Raumes virtueller Realität eingegeben worden ist oder nicht. Falls keine URL-Angabe eines Raumes virtueller Realität ermittelt worden ist, verbleibt die Verarbeitung beim Schritt S71. Falls beim Schritt S71 ein Raum URL virtueller Realität ermittelt worden ist, nämlich dann, wenn eine URL-Angabe eines Raumes virtueller Realität, der einem gewünschten Raum virtueller Realität entspricht und der durch den Anwender bzw. Benutzer durch Betätigen der Tastatur 49a eingegeben ist, von der CPU 41 über die Schnittstelle 48 erhalten worden ist, dann geht der Prozess weiter zum Schritt S72. Beim Schritt S72 wird ein WWW-System gebildet, wie es unter Bezugnahme auf 21 beschrieben ist, und die URL-Angabe eines Raumes virtueller Realität wird von der Kommunikationsvorrichtung 44 über das Netzwerk 15 zum Informationsserver-Terminal eines bestimmten Hosts (in diesem Falle beispielsweise zum Informationsserver-Terminal 11A des Hosts A) übertragen, der über das Informationsserver-Terminal verfügt, wodurch eine Verbindung hergestellt wird.
  • Ferner wird beim Schritt S21 eine Adressenerfassungs-URL-Angabe bezüglich der URL-Angabe des Raumes virtueller Realität aus der Speichervorrichtung 50 gelesen, um von der Kommunikationsvorrichtung 44 über das Netzwerk 15 zu dem Abbildungsserver-Terminal eines bestimmten Hosts (in diesem Falle des Abbildungsserver-Terminals 12 des Hosts C z. B.) übertragen z werden, welches das WWW-System darstellt, um dadurch eine Verbindung herzustellen.
  • Sodann geht der Prozess weiter zum Schritt S73. Beim Schritt S73 werden Daten (dreidimensionale Bilddaten) des Raumes virtueller Realität oder die IP-Adresse des gemeinsam Server-Terminals 11B entsprechend dem beim Schritt S72 aufgenommenen URL-Angabe des Raumes virtueller Realität oder der Adressenerfassungs-URL durch die Kommunikationsvorrichtung 44 aufgenommen.
  • Beim Schritt S72 wird nämlich die URL-Angabe des Raumes virtueller Realität zum Informationsserver-Terminal 11A übertragen. Wenn diese URL-Angabe des Raumes virtueller Realität von dem Informationsserver-Terminal 11A aufgenommen wird, dann werden Daten des entsprechenden Raumes virtueller Realität im Schritt S92 gemäß 25, was zu beschreiben ist, über das Netzwerk 15 zum Client-Terminal 13 übertragen. Somit werden beim Schritt S73 die von dem Informationsserver-Terminal 11A übertragenen Daten des Raumes virtueller Realität empfangen. Es sei darauf hingewiesen, dass die empfangenen Daten bezüglich des Raumes virtueller Realität zu dem RAM-Speicher 43 übertragen werden, um dort gespeichert zu werden (oder um zuerst in der Speichervorrichtung 50 gespeichert zu werden und um dann zum RAM-Speicher 43 übertragen zu werden).
  • Außerdem wird beim Schritt S72 die Adressengewinnungs-URL zum Abbildungsserver-Terminal 12 übertragen. Wenn die Adressengewinnungs-URL vom Abbildungsserver-Terminal 12 empfangen ist, wird die IP-Adresse des gemeinsam genutzten Server-Terminals entsprechend der URL-Angabe beim Schritt S102 gemäß 26, was zu beschreiben ist, über das Netzwerk 15 zum Client-Terminal 13 übertragen. Somit wird beim Schritt S73 die von dem Abbildungs-Server 12 übertragene IP-Adresse des gemeinsam genutzten Server-Terminals 11B empfangen.
  • Wie oben beschrieben, entspricht die auf die eingegebene URL-Angabe des Raumes virtueller Realität sich beziehende Adressengewinnungs-URL-Angabe der IP-Adresse des gemeinsam genutz ten Server-Terminals, welches das Aktualisierungsobjekt steuert, das in dem Raum virtueller Realität untergebracht ist, und zwar entsprechend der URL-Angabe des Raumes virtueller Realität. Falls die eingegebene URL-Angabe des Raumes virtueller Realität einem Raum virtueller Realität beispielsweise von Tokyo entspricht, und wenn das zu dem Host B gehörende gemeinsam genutzte Server-Terminal 11B die im Tokyo-Raum virtueller Realität platzierten Aktualisierungsobjekte steuert, dann wird daher die IP-Adresse des gemeinsam genutzten Server-Terminals 11B beim Schritt S73 empfangen. Infolgedessen kann der Anwender bzw. Benutzer automatisch die Lage (die IP-Adresse) des gemeinsam genutzten Server-Terminals erhalten, welches den Raum virtueller Realität eines gewünschten Bereiches steuert, und zwar sogar dann, wenn der Benutzer nicht weiß, welches gemeinsam genutzte Server-Terminal die Aktualisierungsobjekte in einen Raum virtueller Realität in welchem Bereich steuert.
  • Es sei darauf hingewiesen, dass bei den Schritten S72 und S73 die Verarbeitung der Übertragung der URL-Angabe des Raumes virtueller Realität und der Adressengewinnungs-URL sowie die Aufnahme der Daten des Raumes virtueller Realität und der IP-Adresse tatsächlich dadurch ausgeführt werden, dass die URL-Angabe des Raumes virtueller Realität übertragen, die Daten des entsprechendes Raumes virtueller Realität empfangen, die Adressengewinnungs-URL übertragen und dann die entsprechende IP-Adresse beispielsweise in dieser Reihenfolge empfangen werden.
  • Wenn die Daten des Raumes virtueller Realität und die IP-Adresse des gemeinsam genutzten Server-Terminals beim Schritt S73 empfangen werden, geht der Prozess weiter zum Schritt S74. Beim Schritt S74 wird eine Verbindungsanforderung der Kommunikationsvorrichtung 44 über das Netzwerk 15 zu dem gemeinsam genutzten Server-Terminal übertragen (in diesem Falle beispielsweise zu dem gemeinsam genutzten Server-Terminal 11B), und zwar entsprechend der IP-Adresse (das ist die IP-Adresse des gemeinsam genutzten Server-Terminals) die beim Schritt S73 empfangen worden ist. Dies stellt eine Verbindung zwischen dem Client-Terminal 13 und dem gemeinsam genutzten Server-Terminal 11B her. Ferner wird beim Schritt S73 nach der Herstellung der Verbindung der Avatar (nämlich das Aktualisierungsobjekt), der sich selbst darstellt und in der Speichervorrichtung 50 gespeichert ist, von der Kommunikationsvorrichtung 44 zu dem gemeinsam genutzten Server-Terminal 11B übertragen.
  • Wenn das gemeinsam genutzte Server-Terminal 11B den Avatar des Benutzers empfängt, wird derselbe zu den Client-Terminals von anderen Benutzern übertragen, die im selben Raum virtueller Realität existieren (in diesem Falle jenen von Tokyo, wie oben erwähnt). Sodann wird auf den Client-Terminals der anderen Benutzer der übertragene Avatar im Raum virtueller Realität untergebracht, womit die gemeinsame Nutzung desselben Raumes virtueller Realität unter einer Vielzahl von Nutzern implementiert wird bzw. ist.
  • Es sei darauf hingewiesen, dass anstelle der Bereitstellung des Avatars eines Benutzers vom Client-Terminal 11B für das gemeinsam genutzte Server-Terminal 11B ein bestimmter Avatar auch von dem gemeinsam genutzten Server-Terminal 11B jedem Benutzer zugewiesen werden kann, der auf diesen zugreift. Außerdem kann in dem Client-Terminal 13 der Avatar des Benutzers selbst, der dieses Terminal nutzt, im Raum virtueller Realität so platziert und angezeigt werden, wie dies in 36 und 37 gezeigt ist; in der realen Welt kann sich der Benutzer jedoch nicht selbst sehen, so dass es für den Avatar des Benutzers erwünscht ist, auf dem Client-Terminal des betreffenden Benutzers nicht dargestellt bzw. angezeigt zu werden, um den Raum virtueller Realität so real wie möglich zu gestalten.
  • Wenn die Verarbeitung gemäß dem Schritt S74 abgeschlossen worden ist, geht der Prozess weiter zum Schritt S75. Beim Schritt S75 werden die Daten des Raumes virtueller Realität, der gese hen werden kann, wenn er von einem bestimmten Standpunkt und einer bestimmten Position aus betrachtet wird, durch die CPU 41 aus dem RAM-Speicher 43 gelesen, um an die Anzeigevorrichtung 45 abgegeben zu werden. Damit wird der bestimmte Raum virtueller Realität auf der Anzeigevorrichtung 45 gezeigt.
  • Sodann bestimmt die Kommunikationsvorrichtung 44 beim Schritt S76, ob eine Aktualisierungsinformation des Avatars eines weiteren Benutzers von dem gemeinsam genutzten Server-Terminal 11B gesendet bzw. übertragen worden ist.
  • Wie oben beschrieben, kann der Benutzer die Position oder den Standpunkt seines eigenen Avatars dadurch aktualisieren, dass er die Standpunkt-Eingabevorrichtung 49c, die Bewegungs-Eingabevorrichtung 49d oder die Maus 49b betätigt. Falls unter Nutzung dieser Fähigkeit per Befehl die Aktualisierung der Position oder des Standpunkts des Avatars erfolgt, empfängt die CPU 41 den Befehl über die Schnittstelle 48. Gemäß dem Befehl führt die CPU 41 eine Verarbeitung aus, um Positionsdaten oder Standpunktdaten entsprechend der aktualisierten Position oder dem aktualisierten Standpunkt als Aktualisierungsinformation an das gemeinsam genutzte Server-Terminal 11B abzugeben. Mit anderen Worten ausgedrückt heißt dies, dass die CPU 41 die Kommunikationsvorrichtung 44 so steuert, dass die Aktualisierungsinformation zu dem gemeinsam genutzten Server-Terminal 11B hin übertragen wird.
  • Auf den Empfang der Aktualisierungsinformation von dem Client-Terminal hin gibt das gemeinsam genutzte Server-Terminal 11B die Aktualisierungsinformation beim Schritt S114 gemäß 27, die noch zu beschreiben ist, an andere Client-Terminals ab. Es sei darauf hingewiesen, dass das gemeinsam genutzte Server-Terminal 11B imstande ist, den Avatar, den es von dem Client-Terminal erhalten hat, das einen Zugriff angefordert hat, zu den Client-Terminals von anderen Benutzern zu übertragen, wobei dieser Avatar ebenfalls als Aktualisierungsinformation übertragen wird.
  • Wenn die Aktualisierungsinformation eingetroffen ist, wie oben erwähnt, wird beim Schritt S76 bestimmt, dass eine Aktualisierungsinformation des Avatars eines anderen Benutzers von dem gemeinsam genutzten Server-Terminal 11B eingetroffen ist. In diesem Falle wird diese Aktualisierungsinformation von der Kommunikationsvorrichtung 44 empfangen, um an die CPU 41 abgegeben zu werden. Die CPU 41 aktualisiert die Anzeige auf der Anzeigevorrichtung 45 entsprechend der Aktualisierungsinformation beim Schritt S77. Dies heißt dass dann, wenn die CPU 41 die Positionsdaten oder die Standpunktdaten von einem anderen Client-Terminal als Aktualisierungsinformation empfängt, die CPU 41 den Avatar des betreffenden Benutzers entsprechend den empfangenen Positionsdaten oder Standpunktdaten bewegt oder verändert (beispielsweise die Ausrichtung des Avatars). Wenn die CPU 41 den Avatar von einem anderen Client-Terminal empfängt, platziert die CPU 41 den empfangenen Avatar zusätzlich in dem gerade angezeigten Raum virtueller Realität an einer genau festgelegten Stelle. Es sei darauf hingewiesen, dass dann, wenn das gemeinsam genutzte Server-Terminal 11B einen Avatar als Aktualisierungsinformation überträgt, das gemeinsam genutzte Server-Terminal außerdem die Positionsdaten und die Standpunktdaten des Avatars zusammen mit der Aktualisierungsinformation überträgt. Der Avatar wird auf der Anzeigevorrichtung 45 entsprechend diesen Positionsdaten und Standpunktdaten angezeigt.
  • Wenn die oben erwähnte Verarbeitung zu einem Ende gelangt ist, geht der Prozess weiter zum Schritt S78.
  • Falls beim Schritt S76 keine Aktualisierungsinformation des Avatars eines anderen Benutzers vom gemeinsam genutzten Server-Terminal 11B eingetroffen ist, dann geht der Prozess unterdessen weiter zum Schritt S78 und überspringt den Schritt S77. Beim Schritt S78 bestimmt die CPU 41, ob die Position oder der Standpunkt des Avatars des Benutzers des Client-Terminals 13 durch Betätigen der Standpunkt-Eingabevorrichtung 49c oder der Bewegungs-Eingabevorrichtung 49d aktualisiert worden ist oder nicht.
  • Wenn die CPU 41 beim Schritt S78 bestimmt, dass die Avatar-Position oder der Avatar-Standpunkt aktualisiert worden ist, nämlich dann, wenn die Standpunkt-Eingabevorrichtung 49c oder die Bewegungs-Eingabevorrichtung 49d durch den Benutzer betätigt worden ist, dann geht der Prozess weiter zum Schritt S79. Beim Schritt S79 liest die CPU 41 Daten des Raumes virtueller Realität entsprechend der Position und dem Standpunkt des Avatars des Benutzers auf der Grundlage der eingegebenen Positionsdaten und Standpunktdaten, nimmt Berechnungen zur Korrektur vor, falls erforderlich, und erzeugt die Bilddaten entsprechend der korrekten Position und dem korrekten Standpunkt. Sodann gibt die CPU 41 die erzeugten Bilddaten an die Anzeigevorrichtung 45 ab. Somit wird das Bild (der Raum virtueller Realität) entsprechend dem Standpunkt und der Position, die von der Standpunkt-Eingabevorrichtung 49c und der Bewegungseingabevorrichtung 49d eingegeben sind, auf der Anzeigevorrichtung 45 angezeigt.
  • Ferner steuert die CPU 41 beim Schritt S80 die Kommunikationsvorrichtung 44, um die Standpunktdaten oder Positionsdaten, die von der Standpunkt-Eingabevorrichtung 49c oder der Bewegungs-Eingabevorrichtung 49d eingegeben worden sind, zu dem gemeinsam genutzten Server-Terminal 11 hin zu übertragen, woraufhin der Prozess weitergeht zum Schritt S81.
  • Hier wird, wie oben beschrieben, die von dem Client-Terminal 13 herkommende Aktualisierungsinformation von dem gemeinsam genutzten Server-Terminal 11B empfangen, um zu anderen Client-Terminals hin abgegeben zu werden. Somit wird der Avatar des Benutzers des Client-Terminals 13 in den anderen Client-Terminal angezeigt.
  • Wenn die CPU 41 andererseits beim Schritt S78 bestimmt, dass die Position oder der Standpunkt des Avatars nicht aktuali siert worden ist, dann geht der Prozess weiter zum Schritt S81 und überspringt die Schritte S79 und S80. Beim Schritt S81 bestimmt die CPU 41, ob die Beendigung der Aktualisierungsdaten-Eingabeoperation durch Betätigen einer bestimmten Taste in der Tastatur per Befehl festgelegt worden ist; wenn die Beendigung per Befehl nicht vorgenommen worden ist, geht der Prozess zurück zum Schritt S76, um die Verarbeitung zu wiederholen.
  • Nunmehr wird auf das Flussdiagramm gemäß 25 Bezug genommen; dort ist ein Beispiel für die Verarbeitung durch das Informations-Server-Terminal 11A gezeigt. Zunächst wird in dem Informationsserver-Terminal 11A die Kommunikationsvorrichtung 24 beim Schritt S91 bestimmen, ob eine URL-Angabe des Raumes virtueller Realität vom Client-Terminal 13 über das Netzwerk 15 eingetroffen ist. Falls beim Schritt S91 die Kommunikationsvorrichtung 24 bestimmt, dass keine URL-Angabe des Raumes virtueller Realität eingetroffen ist, geht der Prozess zurück zum Schritt S91. Falls eine URL-Angabe des Raumes virtueller Realität eingetroffen ist, wird diese von der Kommunikationsvorrichtung 24 aufgenommen, woraufhin der Prozess weitergeht zum Schritt S92. Beim Schritt S92 werden die Daten des Raumes virtueller Realität, die mit der URL-Angabe des Raumes virtueller Realität verbunden sind, welche durch die Kommunikationsvorrichtung 24 empfangen worden ist, durch die CPU 21 gelesen, um über das Netzwerk 15 zu dem Client-Terminal 13 übertragen zu werden, welches die URL-Angabe des virtueller Realität übertragen hat. Sodann kehrt der Prozess zum Schritt S91 zurück, um die oben erwähnte Verarbeitung zu wiederholen.
  • 26 zeigt ein Beispiel der Verarbeitung durch das Abbildungsserver-Terminal 12. Im Abbildungsserver-Terminal 12 bestimmt die Kommunikationsvorrichtung 24 beim Schritt S101, ob eine Adressengewinnungs-URL vom Client-Terminal 13 über das Netzwerk 15 eingetroffen ist. Falls keine Adressengewinnungs-URL eingetroffen ist, geht der Prozess zurück zum Schritt S101. Falls die Adressengewinnungs-URL eingetroffen ist, wird dieselbe von der Kommunikationsvorrichtung 24 aufgenommen, woraufhin der Prozess zum Schritt S102 weitergeht. Beim Schritt S102 wird die IP-Adresse (die IP-Adresse des gemeinsam genutzten Server-Terminals), die mit der Adressengewinnungs-URL verwandt ist, welche durch die Kommunikationsvorrichtung 24 empfangen worden ist, durch die CPU 21 aus der Speichervorrichtung 30 gelesen, um über das Netzwerk 15 zu dem Client-Terminal 13 hin übertragen zu werden, welches die Adressengewinnungs-URL übertragen hat. Sodann geht der Prozess zum Schritt S101 zurück, um die oben erwähnte Verarbeitung zu wiederholen.
  • 27 zeigt ein Beispiel der Verarbeitung durch das gemeinsam genutzte Server-Terminal 11B. In dem gemeinsam genutzten Server-Terminal 11B bestimmt die Kommunikationsvorrichtung 24 beim Schritt S111, ob eine Verbindungsanforderung vom Client-Terminal 13 über das Netzwerk 15 eingetroffen ist. Falls beim Schritt S111 keine Verbindungsanforderung eingetroffen ist, geht der Prozess weiter zum Schritt S113, indem er den Schritt S112 überspringt. Falls beim Schritt S111 die Verbindungsanforderung eingetroffen ist, das heißt falls das Client-Terminal 13 die Verbindungsanforderung für das gemeinsam genutzte Server-Terminal 11B beim Schritt S74 gemäß 24 besitzt, wird die Kommunikationsverbindung mit bzw. zu dem Client-Terminal 13 durch die Kommunikationsvorrichtung 24 hergestellt, woraufhin der Prozess zum Schritt S112 weitergeht.
  • Beim Schritt S112 wird eine in dem RAM-Speicher 23 gespeicherte Verbindungssteuertabelle durch die CPU 21 aktualisiert. Es ist nämlich für das gemeinsam genutzte Server-Terminal 11B erforderlich, das Client-Terminal 13 zu erkennen, mit dem das gemeinsam genutzte Server-Terminal 11B verbunden ist, um eine von dem Client-Terminal 13 eintreffende Aktualisierungsinformation zu anderen Client-Terminals hin zu übertragen. Um dies vorzunehmen, wenn die Kommunikationsverbindung mit bzw. zu den Client-Terminals hergestellt worden ist, registriert das gemeinsam genutzte Server-Terminal 11B die Information zur Identifizierung der verbundenen Client-Terminals in der Verbin dungssteuertabelle. Dies heißt, dass die Verbindungssteuertabelle eine Liste der gerade mit dem gemeinsam genutzten Server-Terminal 11B verbundenen Client-Terminals bereitstellt. Die Information zur Identifizierung der Client-Terminals enthält die Quell-IP-Adresse, die vom jeweiligen Client-Terminal übertragen wird, als Vorspann bzw. Header eines TCP/IP-Pakets und den Spitznamen des Avatars, der durch den Benutzer des jeweiligen Client-Terminals festgelegt ist.
  • Sodann geht der Prozess weiter zum Schritt S113, bei dem die Kommunikationsvorrichtung 24 bestimmt, ob die Aktualisierungsinformation vom Client-Terminal 13 eingetroffen ist. Falls beim Schritt S113 keine Aktualisierungsinformation ermittelt worden ist, geht der Prozess weiter zum Schritt S115, indem der Schritt S114 übersprungen wird. Falls beim Schritt S113 die Aktualisierungsinformation ermittelt wird, nämlich dann, wenn das Client-Terminal 13 beim Schritt S80 gemäß 24 Positionsdaten und Standpunktdaten als Aktualisierungsinformation zum gemeinsam genutzten Server-Terminal 11B übertragen hat (oder wenn beim Schritt S74 gemäß 24 das Client-Terminal 13 den Avatar als Aktualisierungsinformation zum gemeinsam genutzten Server-Terminal 11B nach der Übertragung der Verbindungsanforderung übertragen hat), dann wird die Aktualisierungsinformation von der Kommunikationsvorrichtung 24 empfangen, woraufhin der Prozess zum Schritt S114 weitergeht. Beim Schritt S114 nimmt die CPU 21 auf die in dem RAM-Speicher 23 gespeicherte Verbindungssteuertabelle Bezug, um die durch die Kommunikationsvorrichtung 24 empfangene Aktualisierungsinformation zu anderen Client-Terminals als demjenigen Client-Terminal zu übertragen, welches die betreffende Aktualisierungsinformation übertragen hatte. In diesem Augenblick wird die durch die Verbindungssteuertabelle gesteuerte Quell-IP-Adresse des jeweiligen Client-Terminals verwendet.
  • Es sei darauf hingewiesen, dass die oben erwähnte Aktualisierungsinformation beim Schritt S76 gemäß 24, wie oben beschrieben, vom Client-Terminal 13 empfangen wird. In diesem Augenblick wird die durch die Verbindungssteuertabelle gesteuerte IP-Adresse der Quelle des jeweiligen Client-Terminals verwendet.
  • Sodann geht der Prozess weiter zum Schritt S115, bei dem die CPU 21 bestimmt, ob die Beendigung der Verarbeitung von dem Client-Terminal 13 durch Befehl festgelegt ist. Falls die Beendigung der Verarbeitung nicht per Befehl festgelegt worden ist, geht der Prozess zum Schritt S111 zurück, indem der Schritt S116 übersprungen wird. Falls die Beendigung bzw. das Ende der Verarbeitung durch Befehl festgelegt worden ist, geht der Prozess weiter zum Schritt S116. Beim Schritt S116 wird die Verbindung mit bzw. zu dem Client-Terminal 13, von dem der Befehl her gekommen ist, durch die Kommunikationsvorrichtung 24 unterbrochen. Ferner wird aus der Verbindungssteuertabelle die dem Client-Terminal 13 zugeordnete Information mittels der CPU 21 gelöscht, woraufhin der Prozess zum Schritt S111 zurückgeht.
  • Es sei darauf hingewiesen, dass die Aktualisierungsinformation in geeigneter Weise als Nachricht (9) übertragen wird, wie dies oben beschrieben worden ist.
  • Somit wird die Steuerung der Aktualisierungsobjekte durch das gemeinsam genutzte Server-Terminal 11B ausgeführt, und die Steuerung (oder Bereitstellung) der Basisobjekte wird durch das Informationsserver-Terminal 11A ausgeführt, der das WWW oder das weltweit benutzte Internet darstellt, wodurch auf einfache Weise Räume virtueller Realität bereitgestellt werden, die von nicht spezifizierten Benutzern weltweit gemeinsam genutzt werden können. Es sei darauf hingewiesen, dass die Spezifikationen des existierenden WWW-Systems nicht modifiziert zu werden brauchen, um das oben erwähnte Ziel zu erreichen bzw. die oben erwähnte Aufgabe zu lösen.
  • Die Bereitstellung der Daten eines Raumes virtueller Realität durch Nutzung des WWW-Systems braucht nicht irgendeinen neuen Netz-Browser zu erzeugen, da die Übertragung dieser Daten unter Nutzung der Netz-Browser der verwandten bzw. bekannten Technik vorgenommen werden kann, wie des Netscape Browsers Navigator (Handelsname), wie er beispielsweise von der Netscape Communications Inc. angeboten wird.
  • Da die IP-Adresse des gemeinsam genutzten Server-Terminals 11B durch das Abbildungsserver-Terminal 12 bereitgestellt wird, kann der Benutzer überdies einen Raum virtueller Realität gemeinsam mit anderen Benutzern nutzen, ohne die Adresse des gemeinsam genutzten Server-Terminals 11B zu kennen.
  • Bei den oben erwähnten bevorzugten Ausführungsformen der Erfindung werden die Basisobjekte jedem Client-Terminal 13 über das Netzwerk 15 geliefert; es ist jedoch auch möglich, die Basisobjekte in bzw. auf einem Informationsaufzeichnungsträger, wie einer CD-ROM zu speichern und diese an den jeweiligen Benutzer vorab zu verteilen. In diesem Falle ist jedes Client-Terminal 13 so aufgebaut, wie dies in 28 gezeigt ist. Genauer gesagt ist bei der Ausführungsform gemäß 28 ein CD-ROM-Laufwerk 100 mit der Schnittstelle 48 für den Antrieb einer CD-ROM 101 verbunden, auf der eine virtuelle Realität bzw. ein Raum virtueller Realität gespeichert ist, bestehend aus Basisobjekten. Der übrige Teil des Aufbaus ist derselbe wie jener gemäß 3.
  • Somit vermeidet die Bereitstellung der Daten der Basisobjekte von der CD-ROM 101 die Zeit für die Übertragung der Daten über das Netzwerk 15, womit die Verarbeitungsgeschwindigkeit gesteigert ist.
  • Alternativ dazu können die von dem Informationsserver-Terminal 11A gelieferten Daten von Basisobjekten in der Speichervorrichtung 50 lediglich das erste Mal gespeichert werden, um anschließend für die Nutzung gelesen zu werden.
  • Wie in 29 gezeigt, können die Basisobjektdaten in der Speichervorrichtung 30 des Informationsserver-Terminals 11A (für die Fälle 1 bis 3), in der Speichervorrichtung 50 des Client-Terminals 13 (für die Fälle 4 bis 6) oder auf der CD-ROM 101 des Client-Terminals 13 (für die Fälle 7 bis 9) gespeichert werden bzw. sein.
  • Demgegenüber können die Aktualisierungsobjektdaten in der Speichervorrichtung 30 des Informationsserver-Terminals 11A (für den Fall 1) oder in der Speichervorrichtung 30 des gemeinsam genutzten Server-Terminals 11B (für die Fälle 2 bis 9) gespeichert werden bzw. sein. In dem Fall, dass die Aktualisierungsobjektdaten in dem gemeinsam genutzten Server-Terminal 11B gespeichert werden bzw. sind, kann das betreffende gemeinsam genutzte Server-Terminal das gemeinsam genutzte Server-Terminal 11B-1 in Japan (für den Fall 2, 5 oder 8) oder das gemeinsam genutzte Server-Terminal 11B-2 in USA (für den Fall 3, 6 oder 9) sein, wie dies beispielsweise in 30 veranschaulicht ist. In diesem Falle wird die URL-Angabe der Aktualisierungsobjektdaten in dem Abbildungsserver-Terminal 12 gespeichert.
  • Falls die Aktualisierungsobjektdaten in dem Informationsserver-Terminal 11A gespeichert sind, ist die URL-Angabe der Aktualisierungsobjektdaten die Vorbelegungs- bzw. Standard-URL-Angabe, die durch das Informationsserver-Terminal 11A (im Falle 1) gesteuert wird. Falls das gemeinsam genutzte Server-Terminal 11B durch den Benutzer manuell spezifiziert wird, ist die URL-Angabe der Aktualisierungsobjektdaten die spezifizierte URL-Angabe (im Falle 4 oder 7).
  • Gemäß 30 ist der Datenablauf bei jedem der oben erwähnten Fälle gemäß 29 folgender. Im Falle 1 werden die Basisobjektdaten aus einer VRML-Datei (die später zu beschreiben ist) gelesen, welche in einer HDD-Vorrichtung (Festplattenlaufwerk), einer Speichervorrichtung eines WWW-Server-Terminals 121 gespeichert ist, das als Informationsserver-Terminal 11B arbeitet, um an das Client-Terminal 13-1 geliefert zu werden, beispielsweise über das als Netzwerk 15 arbeitende Internet 15A. Die Speichervorrichtung des WWW-Serverterminals 121 speichert außerdem Aktualisierungsobjektdaten. Genauer gesagt wird dann, wenn die Basisobjektdaten im WWW-Server-Terminal 121 gelesen werden, die URL-Angabe der entsprechenden Aktualisierungsobjektdaten als Standard-URL-Angabe vorab in der Speichervorrichtung des WWW-Server-Terminals 121 gespeichert. Von dieser Standard- bzw. Vorbelegungs-URL-Angabe werden die Aktualisierungsobjektdaten gelesen, um an das Client-Terminal 13-1 abgegeben zu werden.
  • Im Falle 2 werden die Basisobjektdaten von dem WWW-Server-Terminal 121 an das Client-Terminal 13-1 in Japan über das Internet 15A abgegeben. Andererseits werden die Aktualisierungsobjektdaten von dem gemeinsam genutzten Server-Terminal 11B-1 in Japan, die bzw. das durch das Abbildungsserver-Terminal 12 spezifiziert sind bzw. ist, über das Internet 15A an das Client-Terminal 13-1 abgegeben.
  • Im Falle 3 werden die Basisobjektdaten von dem WWW-Server-Terminal 121 über das Internet 15A an das Client-Terminal 13-2 in USA abgegeben. Die Aktualisierungsobjektdaten werden von dem gemeinsam genutzten Server-Terminal 11-2 in den USA, die bzw. das durch das Abbildungsserver-Terminal 12 spezifiziert sind bzw. ist, über das Internet 15A geliefert.
  • Im Falle 4 werden die Basisobjektdaten vorab beispielsweise in der Speichervorrichtung 50 des Client-Terminals 13-1 in Japan gespeichert. Die Aktualisierungsobjektdaten werden beispielsweise von dem gemeinsam genutzten Server-Terminal 11-2 geliefert, welche bzw. welches durch das Client-Terminal 13-1 spezifiziert sind bzw. ist.
  • Im Falle 5 werden die Basisobjektdaten vorab in der Speichervorrichtung 50 des Client-Terminals 13-1 gespeichert. Die Aktualisierungsdaten werden von dem gemeinsam genutzten Server- Terminal 11B-1 in Japan, die bzw. das durch das Abbildungsserver-Terminal 12 spezifiziert sind bzw. ist, über das Internet 15A geliefert.
  • Im Falle 6 werden die Basisobjektdaten vorab in der Speichervorrichtung 50 des Client-Terminals 13-2 in den USA gespeichert. Die Aktualisierungsobjektdaten werden von dem gemeinsam genutzten Server-Terminal 11-2 in USA, bzw. welche welches durch das Abbildungsserver-Terminal 12 spezifiziert sind bzw. ist, über das Internet 15A an das Client-Terminal 13-2 geliefert.
  • Im Falle 7 werden die in bzw. auf der CD-ROM 101 gespeicherten Basisobjektdaten beispielsweise an das Client-Terminal 13-1 in Japan mittels des CD-ROM-Laufwerks 100 abgegeben. Die Aktualisierungsobjektdaten werden von dem gemeinsam genutzten Server-Terminal geliefert (beispielsweise von dem gemeinsam genutzten Server-Terminal 11-1 oder 11-2), welche bzw. welches durch das Client-Terminal 13-1 spezifiziert sind bzw. ist.
  • Im Falle 8 werden die Basisobjektdaten von der CD-ROM 101 an das Client-Terminal 13-1 geliefert. Die Aktualisierungsobjekte werden von dem gemeinsam genutzten Server-Terminals 11B-1 in Japan, welche bzw. welches durch das Abbildungsserver-Terminal 12 in Japan spezifiziert sind bzw. ist, geliefert.
  • Im Falle 9 werden die Basisobjektdaten von der CD-ROM 101 an das Client-Terminal 13-2 in den USA geliefert. Die Aktualisierungsobjektdaten werden von dem gemeinsam genutzten Server-Terminal 11-2 in den USA, welche bzw. welches durch das Abbildungsserver-Terminal 12 spezifiziert sind bzw. ist, über das Internet 15A geliefert.
  • Es folgt die Software für die Übertragung der Daten des oben erwähnten Raumes virtueller Realität, um diesen auf der Anzeigevorrichtung anzuzeigen. In dem WWW-System werden Dokumentdaten in einer Datei übertragen, die in einer HTML-Sprache (Hy per Text Markup-Language) geschrieben ist. Deshalb werden die Textdaten als HTML-Datei registriert.
  • Andererseits werden im WWW-System dreidimensionale Grafikdaten zur Nutzung durch Beschreibung dieser Daten in der VRML-Sprache (Virtual Reality Modellierungssprache) oder in der E-VRML-Sprache (verbesserte virtuelle Realitätsmodellierungssprache) geschrieben. Deshalb stellt, wie in 31 beispielsweise veranschaulicht, ein WWW-Server-Terminal 112 eines fern liegenden Hosts 111 das oben erwähnte Informationsserver-Terminal 11A dar, und das gemeinsam genutzte Server-Terminal 11B oder das Abbildungsserver-Terminal 12 speichert in seiner Speichervorrichtung die beiden HTML- und E-VRML-Dateien.
  • In einer HTML-Datei wird eine Kettung zwischen verschiedenen Dateien durch URL bzw. durch URL-Angaben vorgenommen. In einer VRML- oder E-VRML-Datei können solche Attribute, wie WWWAnchor und WWWInline für Objekte spezifiziert werden bzw. sein. WWWAnchor ist ein Attribut zur Verbindung bzw. zur Kettung eines Hypertextes an ein Objekt, wobei eine Datei eines Kettungszieles durch eine URL-Angabe spezifiziert ist bzw. wird. WWWInline ist ein Attribut zur Beschreibung beispielsweise einer Außenansicht eines Gebäudes in Teilen beispielsweise einer Außenwand, eines Daches, eines Fensters und einer Tür. Eine URL-Angabe kann sich auf jedes der betreffenden Teile beziehen. Somit kann auch in VRML- oder E-VRML-Dateien eine Kettung mit anderen Dateien mittels WWWAnchor oder WWWInline hergestellt werden.
  • Für Anwendungssoftware (ein WWW-Browser) zur Unterrichtung eines WWW-Server-Terminals über eine URL-Angabe, die in ein Client-Terminal im WWW-System eingegeben ist, um eine von dem WWW-Server-Terminal herkommende HTML-Datei zu interpretieren und anzuzeigen, ist der Netscape Navigator (registrierter Handelsname) (nachstehend einfach als Netscape bezeichnet) der Netscape Communications Inc. bekannt. Das Client-Terminal 13 benutzt beispielsweise Netscape, um die Fähigkeit zur Übertragung von Daten mit dem WWW-Server-Terminal zu nutzen.
  • Es sei jedoch darauf hingewiesen, dass dieser WWW-Browser eine HTML-Datei interpretieren und sie anzeigen kann; dieser WWW-Browser kann jedoch nicht eine VRML- oder E-VRML-Datei interpretieren und anzeigen, obwohl er diese Dateien empfangen kann. Deshalb ist ein VRML-Browser erforderlich, der eine VRML-Datei und eine E-VRML-Datei interpretieren und sie als dreidimensionalen Raum zeichnen und anzeigen kann.
  • Einzelheiten über VRML sind in der japanischen Übersetzung von "VRML: Browsing & Building Cyberspace", Mark Pesce, 1995, New Readers Publishing, ISBN 1-56205-498-8, angegeben; die Übersetzung ist betitelt "Getting to Know VRML: Building and Browsing Three-Dimensional Cyberspace" (Kennenlernen von VRML: Aufbau vom und Browsen im dreidimensionalen Cyberspace), übersetzt von Kouichi Matsuda, Terunao Gamaike, Shouichi Takeuschi, Yasuaki Honda, Junichi Rekimoto, Masayuki Ishikawa, Takeshi Miyashita und Kazuhiro Hara, veröffentlicht am 25. März 1996, Prenticehall Publishing, ISBN4-931356-37-0.
  • Die Anmelderin dieser Anmeldung entwickelte CyberPassage (Handelsmarke) als Anwendungssoftware, die diesen VRML-Browser enthält.
  • CyberPassage besteht aus den folgenden drei Softwareprogrammen:
  • (1) CyberPassage Browser
  • Dies ist ein VRML-Browser, der auf VRML 1.0 basiert und der die Fähigkeiten (Bewegung und Ton) von VRML 2.0 vorwegnimmt, um E-VRML zu unterstützen, das für eine Bewegtbildfähigkeit sorgt. Darüber hinaus stellt dies eine Mehrnutzerfähigkeit zur Verfügung, die mit CyberPassage Bureau verbunden werden kann. Als Beschreibungssprache wird TCL/TK benutzt.
  • (2) CyberPassage-Leiter
  • Dies ist ein VRML-Autorisierungssystem, das auf E-VRML basiert, welches auf VRML 1.0 basiert. Dieses Werkzeug kann nicht nur einfach eine dreidimensionale Welt aufbauen, sondern es kann außerdem der dreidimensionalen Welt auf einfach Art und Weise ein Verhalten, einen Ton und ein Bild geben.
  • (3) CyberPassage Bureau
  • Dieses wird für ein Server-Terminalsystem verwendet, um Leuten zu ermöglichen, sich in einem Raum virtueller Realität einander zu treffen, welches in einem Netzwerk aufgebaut ist, das von dem CyberPassage-Browser her verbunden ist.
  • In den in 30 dargestellten Client-Terminals 13-1 und 13-2 ist bzw. wird der CyberPassage-Browser vorab installiert und zum Ablaufen gebracht. In den gemeinsam genutzten Server-Terminals 11B-1 und 11B-2 wird bzw. ist das CyberPassage Bureau vorab installiert und es wird zum Ablauf gebracht. 32 zeigt ein Beispiel, bei dem der CyberPassage-Browser von der CD-ROM 101 her installiert wird und auf dem Client-Terminal 13-1 abläuft; um die Fähigkeit des gemeinsam genutzten Server-Terminals und die Fähigkeit des Client-Terminals in bzw. auf einem einzigen Terminal zu realisieren bzw. zu implementieren, sind das CyberPassage Bureau und der CyberPassage Browser vorab von der CD-ROM 101 installiert, und beide werden zum Ablauf gebracht.
  • Wie in 31 gezeigt, überträgt der CyberPassage Browser eine Vielfalt von Daten mit Netscape als einem WWW-Browser auf der Grundlage von NCAPI (Netscape Client-Anwendungsprogrammierungsschnittstelle) (Handelsmarke).
  • Auf den Empfang einer HTML-Datei oder einer VRML-Datei oder einer E-VRML-Datei von dem WWW-Server-Terminal 112 über das Internet speichert Netscape die empfangenen Dateien in der Speichervorrichtung 50. Netscape verarbeitet lediglich die HTML-Datei. Die VRML- oder E-VRML-Datei wird durch den CyberPassage-Browser verarbeitet.
  • E-VRML ist eine Erweiterung bzw. Verbesserung von VRML 1.0 durch Bereitstellung der Funktionen Verhalten und Multimedia (Ton und Bewegtbild) und wurde der VRML-Gemeinschaft im September 1995 als erste Ausführung der Anmelderin vorgeschlagen. Das Grundmodell (Ereignismodell) zur Beschreibung von Bewegungen, wie es in E-VRML benutzt ist, ist dem Bewegtbild-Vorschlag (einem der gegenwärtigen VRML 2.0-Vorschläge vererbt.
  • Im folgenden wird der CyberPassage Browser skizziert. Ein Muster dieses Browsers ist in bzw. auf der CD-ROM vorgesehen, die der japanischen Übersetzung von "VRML: Browsing & Building Cyberspace", Mark Pesce, 1995, New Readers Publishing, beigefügt ist. Nach Installation dieses Browsers zeigt die Auswahl "Manual" aus dem CyberPassage-Ordner" von "Programm" des Startmenüs von Windows 95 (Handelsmarke) (oder in Windows NT (Handelsmarke) der Programm Manager) das Befehlsmanual des Browsers an.
  • Betriebsumgebung des CyberPassage-Browsers:
  • Die Betriebs- bzw. Arbeitsumgebung des CyberPassage-Browsers ist in 33 veranschaulicht. Die minimale Betriebsumgebung muss zumindest erfüllt sein. Der Netscape-Navigator braucht jedoch nicht verwendet zu werden, falls der CyberPassage-Browser als alleiniger bzw. Standalone-VRML-Browser verwendet wird. Insbesondere im Mehrbenutzerbereich ist es wünschenswert, die empfohlene Betriebsumgebung zu verwenden.
  • Installieren des CyberPassage-Browsers:
  • Der CyberPassage-Browser kann üblicherweise in derselben Weise installiert werden, in der Netscape installiert wird. Genauer gesagt wird vscplb3a.exe, die im \Sony (Handelsmarke)-Ver zeichnis der mitgelieferten CD-ROM enthalten ist, für eine Installation wie folgt genutzt.
    • (1) Doppelklick auf vscplb3a.exe. Das Installationspaket wird dekomprimiert zu dem Verzeichnis, das durch die "Unzip To Directory"-Spalte bezeichnet ist. Das Zielverzeichnis kann erforderlichenfalls geändert werden.
    • (2) Anklicken der "Unzip"-Taste. Das Installationspaket wird dekomprimiert.
    • (3) Es erscheint "12 files unzipped successfully" (zwölf Dateien sind erfolgreich dekomprimiert). Die "OK"-Taste ist anzuklicken.
    • (4) Wenn das "Willkommen"-Fenster erscheint, ist die Taste "NEXT" (weiter) anzuklicken.
    • (5) Die "Software Lizenzvereinbarung" ist sorgfältig zu lesen. Falls zugestimmt wird, ist die "JA"-Taste zu drücken, falls nicht, ist die "NEIN"-Taste zu drücken.
    • (6) Das Installationsverzeichnis ist zu überprüfen. Die Vorbelegungs- bzw. Standardeinstellung ist "Program Files Sony\ CyberPassage".
    • (7) Falls eine Benutzung des oben erwähnten Verzeichnisses nicht erwünscht ist, sind die Taste "Browse" zu drücken und ein anderes Verzeichnis auszuwählen. Sodann ist die Taste "NEXT" (weiter) zu drücken.
    • (8) Um die "Lies mich"-Datei hier zu lesen, ist die "JA"-Taste anzuklicken.
    • (9) Wenn die Installation abgeschlossen ist, ist die "OK"-Taste anzuklicken.
  • Starten des CyberPassage-Browsers:
  • Bevor der CyberPassage-Browser gestartet wird, muss die Einstellung des Netscape-Navigators vorgenommen sein. Falls der CyberPassage-Browser allein verwendet wird, braucht diese Einstellung nicht vorgenommen zu werden; es ist lediglich ein "CyberPassage-Ordner ... CyberPassage" aus "Programm" des Startmenüs auszuwählen und zu starten. Die folgende Einstellung kann bei der Installation automatisch ausgeführt werden.
    • (1) Aus dem "Optionen"-Menü des Netscape-Navigators werden "Allgemeine Präferenz" ausgeführt und das "Präferenz"-Fenster geöffnet. Aus dem oberen Aufhänger wird "Hilfsanwendungen" ausgewählt.
    • (2) Die "Dateityp"-Spalte wird auf "x-world/x-vrml" überprüft. Wenn sie gefunden wird, ist zu (4) unten weiterzugehen.
    • (3) Die Taste "Neuen Typ erzeugen" ist anzuklicken. Es ist einzugeben "x-world" in der Spalte "Mime-Type", und es ist "x-vrml" in der Spalte "Mime SubType" einzugeben. Dann ist die "OK"-Taste anzuklicken. "wrl" ist in die Spalte "Erweiterungen" einzugeben.
    • (4) Die Taste "Starten der Anwendung" ist anzuklicken. Es ist der Pfadname des CyberPassage-Browsers in die Textzeile unterhalb dieser Taste einzutragen. Die Vorbelegung bzw. Standardbelegung lautet "\Program Files\Sony\CyberPassage\bin\vscp.exe".
    • (5) Die "OK"-Taste ist anzuklicken.
  • Damit ist die Einstellung des Netscape-Navigators abgeschlossen. Der Start des CyberPassage-Browsers läuft wie folgt ab:
    • (1) Im Netscape-Menü "Datei...Datei öffnen" ist "Lies mich. htm" der Proben- bzw. Muster-CD-ROM zu lesen.
    • (2) Die Verbindung zur Musterwelt ist anzuklicken, und Cyber-Passage startet automatisch und lädt die Musterwelt von der CD-ROM.
  • Deinstallieren des CyberPassage-Browsers
  • Es ist "Deinstallieren" aus dem "CyberPassage-Ordner" von "Programm" des Startmenüs auszuführen (oder in Windows NT der Programm Manager) und der CyberPassage-Browser wird automatisch deinstalliert.
  • Betrieb des CyberPassage-Browsers:
  • Der CyberPassage-Browser kann intuitiv mit der Maus 49b, der Tastatur 49a und den Tasten am Bildschirm betrieben werden.
  • Umherbewegung im dreidimensionalen Raum:
  • In dem durch VRML bereitgestellten dreidimensionalen Raum können solche Bewegungen erfolgen, die in der realen Welt vorgenommen werden, wie beispielsweise vorwärts bewegen, rückwärts bewegen, drehen nach rechts und drehen nach links. Der Cyber-Passage-Browser realisiert bzw. implementiert derartige Bewegungen durch die folgende Schnittstelle:
  • Durch die Tastatur:
  • Jede der nicht dargestellten Pfeiltasten in der Tastatur 49a erzeugt die folgende entsprechende Bewegung:
    → drehen nach rechts;
    ← drehen nach links;
    ↑ Vorwärtsbewegung und
    ↓ Rückwärtsbewegung.
  • Durch die Maus:
  • Die Betätigung bzw. Bedienung der Maus stets mit deren linker Taste.
    • (1) Gedrückthalten der linken Taste der Maus 49b im Fenster von CyberPassage und Bewegung der Maus: nach rechts zur Drehung nach rechts, nach links zur Drehung nach links, nach oben zur Vorwärtsbewegung und nach unten zur Rückwärtsbewegung. Die Geschwindigkeit der Bewegung hängt von der Verschiebung der Maus ab.
    • (2) Gedrückthalten der nicht dargestellten Steuertaste (Ctrl) in der Tastatur 49a und Anklicken eines Objekts auf dem Bildschirm, um zur Vorderseite des angeklickten Objekts zu gelangen.
  • Die folgenden Vorsichtsmaßnahmen sind erforderlich: Falls eine Kollision mit einem Objekt erfolgt, wird ein Kollisionston erzeugt, und das Bild des Bildschirms blinkt rot.
  • Falls dies geschieht, ist jegliche Vorwärtsbewegung blockiert. Die Bewegungsrichtungen müssen geändert werden.
  • Falls der Benutzer verloren geht oder nichts im Raum sieht, ist die Taste "Home" (zurück) auf der rechten Seite des Bildschirms anzuklicken, und der Benutzer kann in die Ausgangsposition zurückkehren.
  • Jumping Eye (Springendes Auge):
  • Während der Benutzer sich durch einen dreidimensionalen Raum navigiert, kann er bei Gelegenheiten verloren gehen. Wenn dies geschieht, kann der Benutzer Hochspringen, um einen Überblick von oben von seiner Umgebung zu erhalten.
    • (1) Die Taste "Sprung" auf der rechten Seite des Bildschirms ist anzuklicken, und der Benutzer gelangt in den Sprungauge-Modus und springt zu einer Stelle hin, von der er nach unten auf die Welt schauen kann.
    • (2) Die Taste "Sprung" ist erneut anzuklicken, und der Benutzer geht nach unten in die ursprüngliche Position.
    • (3) Alternativ ist irgendeine Stelle in der Welt anzuklicken, und der Benutzer geht zur angeklickten Stelle herunter.
  • Auswahl eines Objekts:
  • Wenn der Mauszeiger über dem Bildschirm bewegt wird, wird die Form des Cursors auf einem Objekt in einen Greifer (Hand) transformiert. In diesem Zustand können das Anklicken der linken Maustaste und die Aktion des erfassten Objekts auftreten.
  • Laden einer VRML-Datei:
  • Eine VRML-Datei kann wie folgt geladen werden:
    Bei Netscape ist die Verbindung zur VRML-Datei anzuklicken;
    Aus dem "Datei..Datei Öffnen"-Menü von CyberPassage ist die Datei mit der Erweiterung "wrl" auf der Platte auszuwählen.
  • Im Menü "Datei...URL öffnen" von CyberPassage ist die URL-Angabe einzutragen.
  • Es ist das Objekt im virtuellen Raum, für das die "URL" angezeigt wird, in bzw. mit dem Mauscursor anzuklicken.
  • Betätigen von Tasten in der Werkzeugleiste:
  • In 37 sind Tasten in der Werkzeugleiste dargestellt; sie können beispielsweise dazu benutzt werden, häufig benutzte Funktionen auszuführen.
    "Rückwärts" Zurückgehen in die zuletzt gelesene Welt.
    "Vorwärts" Gehen in die Welt nach Zurückgehen in die vorhergehende Welt.
    "Zurück" Bewegung in die Ausgangsposition.
    "Undo" Zurückführen eines bewegten Objekts in die Ursprungsposition (was später zu beschreiben ist).
    "Lesezeichen" Anbringen eines Lesezeichens an der gegenwärtigen Welt oder Position.
    "Späher" Eintritt in den Aufklärungsmodus (der später zu beschreiben ist).
    "Sprung" Eintritt in den Sprungauge-Modus.
  • Späher-Modus:
  • Jedes in einer virtuellen Welt untergebrachte Objekt kann eine Zeichenfolge als Information unter Ausnutzung der E-VRML-Fähigkeit besitzen.
    • (1) Anklicken der Taste "Späher" auf der rechten Seite des Bildschirms und Eintritt in den Späher-Modus.
    • (2) Wenn sich der Mauscursor bzw. -zeiger auf einem Objekt bewegt, welches über ein Informationsetikett verfügt, dann wird das Informationsetikett angezeigt.
    • (3) Erneutes Anklicken der Taste "Späher" und der Benutzer verläßt den Späher-Modus.
  • Umherbewegen eines Objekts:
  • Bei gedruckter Taste "ALT" (Wechsel) die nicht dargestellt ist, in der Tastatur 49a wird die linke Maustaste der Maus 49b auf einem gewünschten Objekt gedrückt, und der Benutzer kann das betreffende Objekt zu einer gewünschten Stelle mit der Maus bewegen. Dies ist wie die Bewegung in der realen Welt beispielsweise einer Kaffeetasse auf einem Schreibtisch mit der Hand. In der virtueller Realität sind Objekte, die bewegt werden können, jedoch solche, die über bewegbare Attribute verfügen. In der Musterwelt können Objekte durch eine digitale Handy-Kamera und dergleichen bewegt werden. Es sei darauf hingewiesen, dass ein bewegtes Objekt an der Position vor der Bewegung lediglich einmal wiederhergestellt werden kann, indem die "Undo"-Taste genutzt wird.
  • Verbindung mit einem Mehrbenutzer-Server-Terminal:
  • Der CyberPassage-Browser stellt eine Multi- bzw. Mehrbenutzerfähigkeit zur Verfügung. Die Mehrbenutzerfähigkeit gestattet die gemeinsame Nutzung ein und desselben virtuellen VRML-Raumes und einer Vielzahl von Benutzern. Gegenwärtig betreibt die Anmelderin ein CyberPassage-Bureau im Internet auf einer experimentellen Basis. Durch Laden eines "Unterhaltungsraumes" kann das Server-Terminal verbunden werden, um ein und denselben virtuellen VRML-Raum mit anderen Benutzern gemeinsam zu nutzen, beispielsweise gemeinsam zu laufen, eine Zimmerlampe auszuschalten, eine Unterhaltung zu führen und andere Aktivitäten zu unternehmen.
  • Diese Fähigkeit wird wie folgt gestartet:
    • (1) Sicherstellen, dass der Personalcomputer des Benutzers mit dem Internet verbunden ist.
    • (2) Laden des "Unterhaltungsraums" der Musterwelt in den CyberPassage-Browser. Dies erfolgt durch Laden "\Sony\readme. htm" von der Muster-CD-ROM durch Anklicken des "Chat Room" bzw. "Unterhaltungsraumes".
    • (3) Das Erscheinen von "mit VS-Server verbunden" im Nachrichtenfenster zeigt eine erfolgreiche Verbindung an.
  • Damit ist die Verbindung zum Server abgeschlossen. Zur Interaktion mit anderen Benutzern gibt es die folgenden zwei Arten bzw. Typen:
  • (a) Informieren von anderen über eine Aktion:
  • Dies wird dadurch realisiert, dass im "Aktion"-Fenster (siehe 39) auf irgendeinen der Begriffe "Hallo", "Lächeln", "Wao!", "Wooo!!", "Umm...", "traurig", "Aufwiedersehen" und so weiter geklickt wird. Die Aktionen schließen eine Drehung des Benutzers selbst (des Avatars) nach rechts oder links um 36°, 180° oder 360° ein.
  • (b) Reden mit anderen:
  • Diese Fähigkeit wird durch Öffnen des "Unterhaltungs"-Fensters (siehe 39) im Menü "Sehen...Unterhalten" und durch Eingabe einer Nachricht von der Tastatur 49a in der unteren Eingabespalte realisiert bzw. implementiert.
  • Mehrbenutzer-Welten:
  • Die folgenden drei Mehrbenutzer-Welten werden durch die Proben- bzw. Muster-CD-ROM bereitgestellt. Es sei darauf hingewiesen, dass eine Unterhaltung gewöhnlich in allen diesen drei Welten erfolgen kann.
  • (1) Unterhaltungsraum
  • Dies ist ein Raum, in welchem hauptsächlich eine Unterhaltung erfolgt. Einige Objekte in diesem Raum werden unter einer Vielzahl von Benutzern gemeinsam genutzt. Es gibt Objekte, die schrittweise jedes Mal dann transparent gemacht werden, wenn die linke Maustaste gedrückt wird, was beispielsweise zum Ausschalten von Zimmerlampen und zum Einschalten genutzt wird, wenn ein Anklicken erfolgt. Außerdem gibt es verborgene Löcher und dergleichen.
  • (2) Spielen mit einem Ball!!
  • Wenn ein Ball in der Luft angeklickt wird, fliegt der Ball zu dem Benutzer, der den Ball angeklickt hat. Diesen Ball nutzen sämtliche Benutzer gemeinsam, die den betreffenden Raum gemeinsam nutzen, um Fangball zu spielen.
  • (3) Teile Deine Zeichnung
  • Im virtuellen Raum wird eine weiße Tafel platziert. Wenn sie durch die linke Taste angeklickt wird, wird die gemeinsam genutzte weiße Tafel angezeigt. Das Ziehen mit der linken Taste zeichnet eine Form auf die weiße Tafel, wobei das Ergebnis von den Benutzern gemeinsam genutzt wird, die den Raum gemeinsam nutzen.
  • Zusätzlich zu dem CyberPassage-Browser sind auf der Muster-CD-ROM ein CyberPassage-Leiter und einige VRML-Musterdateien gespeichert. CyberPassage-Bureau ist jedoch auf dieser CD-ROM nicht gespeichert. Es kann über das Internet 15A von der Homepage URL = http://vs.sony.co.jp/ heruntergeladen werden, die von der Firma der Anmelderin zur Verfügung gestellt ist.
  • Die Anwendung von CyberPassage-Bureau ermöglicht den Benutzern, den CyberPassage-Browser zu nutzen, um gemeinsam in eine Welt einzutreten, wie sie im VRML 1.0 beschrieben ist. Um einen dreidimensionalen Raum virtueller Realität zur Ermöglichung dieser Fähigkeit bereitzustellen, muss eine in VRML 1.0 geschriebene Datei erstellt sein. Sodann arbeitet das CyberPassage-Bureau (nachstehend vorzugsweise einfach als Bureau bezeichnet) auf einem geeigneten Personalcomputer. Ferner wird der VRML 1.0-Datei eine Zeile hinzugefügt, die dem Personalcomputer mitteilt, in welchem Bureau er arbeitet. Die resultierende VRML-Datei wird in den CyberPassage-Browser (nachstehend vorzugsweise einfach als Browser bezeichnet) gelesen; der Browser wird mit dem Bureau verbunden.
  • Wenn diese Verbindung erfolgreich ist, können sich die Benutzer in der virtuellen Welt einander sehen und miteinander reden. Ferner ermöglicht das Schreiben eines geeigneten Textes in die Datei jedem Benutzer, Emotionen durch eine Nutzung eines Aktionsfeldes auszudrücken.
  • Der CyberPassage-Browser stellt eine Schnittstelle für eine Aktionsbeschreibung durch die Nutzung von TCL zur Verfügung. Diese Schnittstelle ermöglicht es jedem Benutzer, für Verhal ten bei Objekten in der virtuellen Welt zu sorgen und, sofern erwünscht, die resultierenden Objekte zwischen Browsern zu synchronisieren. Dies ermöglicht es einer Vielzahl von Benutzern, ein dreidimensionales Spiel zu spielen, sofern Mittel dafür vorbereitet sind.
  • Um sich in der virtuellen Mehrbenutzer-Welt zu erfreuen, sind drei Schritte erforderlich: die Erstellung einer VRML-Datei, der Start des CyberPassage-Bureaus und die Verbindung bzw. der Anschluss des CyberPassage-Browsers.
  • Erstellen einer VRML-Datei:
  • Zuerst muss die gewünschte VRML 1.0-Datei erstellt werden. Diese Datei erzeugt man selbst oder es wird eine sogenannte Freeware für diese Datei verwendet. Diese Datei stellt eine virtuelle Mehrbenutzer-Welt dar.
  • Start des CyberPassage-Bureaus:
  • Die Betriebs- bzw. Arbeitsumgebung des CyberPassage-Bureaus ist folgende:
    CPU 486SX oder höher
    Betriebssystem Window 95
    Speicher 12M oder höher
  • Das CyberPassage-Bureau kann lediglich dadurch gestartet werden, dass die heruntergeladene Datei ausgeführt wird. Wenn dieses CyberPassage-Bureau ausgeführt wird, wird lediglich eine Menüs zeigende Menüleiste angezeigt, wie dies in 34 veranschaulicht ist. Unmittelbar nach dem Start befindet sich das CyberPassage-Bureau im stillgesetzten Zustand. Die Auswahl "Status" durch Herunterziehen des "Betrachtungs"-Menüs zeigt das Statusfenster an, welches den gegenwärtigen Status des CyberPassage-Bureaus angibt. Zur selben Zeit wird außerdem eine auf eine Verbindung wartende Anschluss- bzw. Portnummer angezeigt.
  • Unmittelbar nach dem Starten wird das CyberPassage-Bureau so eingestellt, dass es auf eine Verbindung am TCP-Anschluss Nr. 5126 wartet. Um diese Anschlussnummer zu ändern, sind das Menü "Optionen" herunterziehen und "Anschluss" auszuwählen. Wenn zur Eingabe einer neuen Anschlussnummer aufgefordert wird, ist eine Anschlussnummer von 5000 oder höher einzugeben. Falls der Benutzer nicht weiß, welche Anschlussnummer einzugeben ist, kann der Standard- bzw. Vorbelegungswert (5126) verwendet werden.
  • Um das CyberPassage-Bureau aus dem stillgesetzten Zustand heraus zustarten, ist das Menü "Lauf" herunterzuziehen und "Start" auszuwählen. Das Server-Terminal wird mit dem spezifizierten Anschluss verbunden. In diesem Augenblick wird der im Fenster "Status" angegebene Zustand zu "Lauf" (Running), wie dies in 34 veranschaulicht ist.
  • Nach Abschluss der Bureau Vorbereitungen, wenn der CyberPassage-Browser mit dem CyberPassage Bureau in Kontakt gelangt, wird die Position des Browsers einem weiteren Browser mitgeteilt, oder eine Information, wie eine Konversation und ein Verhalten werden übertragen.
  • Das "Status"-Fenster des CyberPassage-Bureaus wird jedesmal aktualisiert, wenn eine Verbindung durch den Benutzer vorgenommen wird, so dass die Nutzung dieses Fensters dem Benutzer ermöglicht, die Existenz der Benutzer in der betreffenden virtuelle Welt sicherzustellen.
  • Verbindung des CyberPassage-Browsers:
  • Die Verbindung bzw. der Anschluss des CyberPassage-Browsers erfordert die folgenden zwei Schritte:
  • Erstens ist der CyberPassage-Browser darüber zu instruieren, mit welchem Bureau er zu verbinden ist. Dies erfolgt durch Schreiben eines "Info"-Knotens in die VRML-Datei. Zum Zweiten ist die Avatar-Datei des Benutzers in eine geeignete Richtung zu kopieren, so dass der Benutzer von den anderen Benutzern gesehen werden kann.
  • Hinzufügen zu einer VRML-Datei:
  • Wenn eine das Bureau spezifizierende Zeile geschrieben wird, die mit der VRML-Datei zu verbinden ist, dann müssen der Name des Personalcomputers, auf dem das Bureau betrieben wird, und die Anschlussnummer im folgenden Format spezifiziert werden:
    DEF VsServer Into {Datenfolge "Servername: Anschlussnummer"}
  • Der Name des Server-Terminals ist ein Maschinenname, wie er im Internet verwendet wird, in welchem das Bureau betrieben wird (z. B. fred.research.sony.com) oder dessen IP-Adresse (z. B. 123.231.12.1). Die Anschlussnummer ist ein Satz im Bureau.
  • Folglich wird das oben erwähnte Format beispielsweise folgendes Format:
    DEF VsServer Info {Datenfolge"fred.research.sony.com:5126"}
  • Bei dem Beispiel gemäß 32 ist die IP-Adresse des gemeinsam genutzten Server-Terminals 11-1 gegeben mit 43.0.35.117, so dass das oben erwähnte Format zu folgendem Format wird:
    DEF VsServer Info {Datenfolge"43.0.35.117:5126"}
  • Dies wird unter der Zeile hinzugefügt, die unter der erstellten VRML-Datei dargestellt ist:
    VRML V1.0 ascii
  • Kopieren einer Avatar-Datei:
  • Wenn der CyberPassage-Browser mit dem CyberPassage-Bureau verbunden wird bzw. ist, meldet ersterer dem letzteren seinen Avatar. Wenn ein bestimmter Avatar einen anderen trifft, unterrichtet das Bureau die anderen Browser von der bzw. über die Zusammentreff-Information, um den bestimmten Avatar auf den anderen Browsern anzeigen zu lassen. Aus diesem Grunde ist es erforderlich, die VRML-Datei des bestimmten Avatars vorab an einer geeigneten Stelle zu kopieren.
  • 34 zeigt ein Beispiel der Anzeige zur Auswahl eines Avatars. Bei diesem Beispiel kann ein gewünschter Avatar als eigener Avatar von "Person.wrl", "Junge.wrl" (boy.wrl) oder „Mädchen.wrl" (girl.wrl) ausgewählt werden.
  • Wenn die ausgewählte Avatar-Datei in dasselbe Verzeichnis kopiert wird, in der die eigene VRML-Datei gespeichert ist, dann sucht der Browser die Datei nach der Datei "{Person, Junge, Mädchen}.wrl" als Avatar-Datei ab, wenn der Browser die VRML-Datei lädt.
  • Um eine bestimmte VRML-Datei gemeinsam zu nutzen, kann somit lediglich das CyberPassage-Bureau betrieben werden, wobei der VsServer-Info-Knoten der VRML-Datei hinzuaddiert wird und wobei "{Person.Junge.Mädchen}wrl" in dieselbe Datei kopiert wird, in der die VRML-Datei gespeichert ist. Wenn die VRML-Datei derart eingerichtet ist, dass sie von anderen Benutzern geladen werden kann, dann wird somit jeder Benutzer, der die Datei durch bzw. mittels CyberPassage liest, mit dem Bureau verbunden.
  • Wie in 32 gezeigt, ist angenommen, dass das gemeinsam genutzte Server-Terminal 11B-1 einen Avatar mit dem Spitznamen Koutarou benutzt und das Client-Terminal 13-1 einen Avatar mit dem Spitznamen Minami benutzt, um durch eine der Mehrbenutzerwelten, Zirkuspark, zu gehen. Dabei wählt das gemeinsam genutzte Server-Terminal 11B-1 beispielsweise einen männlichen Avatar "Junge.wrl" aus, wie dies in 34 gezeigt ist. Wie in 35 gezeigt ist, wird ein Bildschirm angezeigt, wie er in 36 gezeigt ist, wenn ein Menü "Betrachten" heruntergezogen und "Präferenzen" ausgewählt wird. Auf diesem Bildschirm spezifiziert der Benutzer "Koutarou" als Name (Spitzname) des in 34 ausgewählten Avatars.
  • In entsprechender Weise wählt der Benutzer des Client-Terminals 13-1 beispielsweise "Mädchen.wrl" als eigenen Avatar aus, spezifiziert "Minami" als dessen Spitzname und tritt in den Zirkuspark ein. Wenn der Avatar Koutarou des gemeinsam genutzten Server-Terminals 11B-1 und der Avatar Minami des Client-Terminals 13-1 sich zu Positionen dicht genug zueinander bewegen, wird der Avatar Minami auf der Anzeigevorrichtung 25 des gemeinsam genutzten Server-Terminals 11B-1 dargestellt, wie dies in 35 gezeigt ist. In entsprechender Weise wird der Avatar Koutarou auf der Anzeigevorrichtung 45 des Client-Terminals 13-1 angezeigt, wie dies in der später zu beschreibenden 38 gezeigt ist.
  • Es sei darauf hingewiesen, dass in 32 und 34 bis 37 "K" dem Anzeigebildschirm der Anzeigevorrichtung 25 zugeordnet ist, der den Avatar Koutarou sieht, und "M" ist dem Anzeigebildschirm der Anzeigevorrichtung 45 zugeordnet, der den Avatar Minami sieht.
  • Wie in den Figuren veranschaulicht, zeigt jede Anzeigevorrichtung lediglich einen dreidimensionalen Raum virtueller Realität (der das Bild des anderen Avatars enthält), wie es vom eigenen Avatar aus gesehen wird, und der eigene Avatar selbst wird nicht angezeigt.
  • Wenn sich eine Vielzahl von Avataren einander dicht genug in einem bestimmten Raum annähert (nämlich dann, wenn der andere Avatar auf der Anzeigevorrichtung des bzw. der anderen Benutzers) angezeigt wird), kann eine Unterhaltung durch Auswahl von "Unterhaltung" (Chat) aus dem beispielsweise in 37 gezeigten Menü "Sehen" (see) ausgeführt werden. 37 zeigt ein Beispiel einer Anzeige auf der Anzeigevorrichtung 25 des gemeinsam genutzten Server-Terminals 11B-1, wenn die Avatare Koutarou und Minami eine Unterhaltung führen.
  • Wie in 37 gezeigt, werden die Nachrichten, soweit sie von den Tastaturen der betroffenen Terminals eingegeben sind, in dem "Unterhaltungs"-Fenster angezeigt. Die durch den Benutzer eingegebenen Zeichen werden einmal in dem Anzeigebereich an der Unterseite des "Unterhaltungs"-Fensters angezeigt; wenn die nicht dargestellte Eingabetaste der Tastatur 49a betätigt wird, wird die eingegebene Nachricht (Zeichenfolge) zu dem anderen Benutzer hin übertragen. Wenn beispielsweise die Nachricht "Ja, es ist heute mein erster Besuch" vom Avatar Minami (dem Client-Terminal 13-1) zum gemeinsam genutzten Server-Terminal 11B-1 hin gelangt ist, dann wird diese Nachricht in einem Ballon oberhalb des Avatars Minami im Fenster des CyberPassage-Bureaus auf der Anzeigevorrichtung 25 des gemeinsam genutzten Server-Terminals 11B-1 angezeigt, und zugleich wird die betreffende Nachricht in den "Unterhaltungs"-Fenstern nach den letzten Nachrichten angezeigt.
  • 38 zeigt ein Beispiel der Anzeige auf der Anzeigevorrichtung 45 des Client-Terminals 13-1, wenn die Nachricht "Lass uns zum Karussell gehen" von dem gemeinsam genutzten Server-Terminal 11B-1 eingegeben worden ist. Auch in diesem Falle wird die Nachricht in einem Ballon oberhalb des Atavars Koutarou im "Zirkuspark"-Fenster angezeigt, und zugleich wird sie in dem "Unterhaltungs"-Fenster nach den letzten Nachrichten angezeigt.
  • Ein Beispiel der Anzeige gemäß 39 veranschaulicht den Fall, in welchem die "Hallo"-Taste im Client-Terminal 13-1 gedrückt bzw. betätigt worden ist. Zu dieser Zeit wird, wie in 39 gezeigt ist, ein Bild, in welchem der Avatar Minami seine rechte Hand erhebt, auf bzw. in dem gemeinsam genutzten Server-Terminal 11B-1 angezeigt, und zugleich ist eine Sprachnachricht "Hallo" vom Lautsprecher 27 her zu hören.
  • Wenn der Benutzer sein Terminal verlässt, kann sein Avatar in den Schlafzustand versetzt werden. Um beispielsweise den Avatar Minami in den Schlafzustand zu versetzen, wird die Taste "Aktive", eine der Aktionstasten in dem in 38 gezeigten Aktionsfenster, im Client-Terminal 13-1 angeklickt, um die Form dieser Taste in eine "Schlaf"-Taste zu ändern, wie dies in 40 gezeigt ist. Der Avatar Minami gelangt in den Schlafzustand. Im Schlafzustand wird der in bzw. auf der Anzeigevorrichtung 25 des gemeinsam genutzten Server-Terminals 11B-1 angezeigte Avatar Minami auf dem Boden sitzend wiedergegeben, wie dies in 41 gezeigt ist. Der Benutzer des gemeinsam genutzten Server-Terminals 11B-1 kann aus diesem Zustand erkennen (der Benutzer des Avatars Minami hat nämlich das Client-Terminal 13-1 verlassen), dass sich der Avatar Minami im Schlafzustand befindet. Wenn die "Schlaf"-Taste im Schlafzustand angeklickt wird, kehrt die Taste wieder zur Taste "Aktive" zurück.
  • Somit können sich die Benutzer selbst eines Laufens durch den Zirkuspark als einem dreidimensionalen Raum virtueller Realität erfreuen.
  • Die vorliegende Erfindung wird angewandt, um die Parade, die Bewegung von Avataren und Avatarverhalten durch die in dem oben erwähnten Zirkuspark implementierten Aktions-Fenstertasten zu verkörpern.
  • Die vorliegende Erfindung ist unter Heranziehung beispielsweise des Falles beschrieben worden, bei dem das Internet für das bzw. als Netzwerk 15 verwendet und das WWW-System genutzt werden. Es dürfte Durchschnittsfachleuten ersichtlich sein, dass ein anderes globales Kommunikationsnetzwerk als das Internet für das bzw. als Netzwerk 15 verwendet werden kann, und dass ein anderes Kommunikationssystem als das WWW-System verwendet werden kann, um die oben erwähnten Ziele bzw. Aufgaben der vorliegenden Erfindung zu erreichen bzw. zu lösen.
  • Wie oben beschrieben, wird bei dem dreidimensionalen gemeinsam genutzten Verfahren virtueller Realität, dem System, dem Informationsaufzeichnungsträger, dem Informationsaufzeichnungsverfahren, dem Informationsübertragungsmedium und dem Informationsübertragungsverfahren die Änderungssequenz der Vielzahl von Subobjekten entsprechend dem aktualisierten Inhalt des Zustands des Aktualisierungsobjekts in jedem Client-Terminal gespeichert, und die Änderungssequenzen in der Vielzahl der Client-Terminals werden in Synchronisation bzw. synchron gestartet. Die oben erwähnte neue Einrichtung ermöglicht es, dass die Verhalten eines Objekts, das eine komplexe Form besitzt, bestehend aus einer Vielzahl von Subobjekten, gemeinsam in demselben dreidimensionalen Raum virtueller Realität in bzw. auf der Vielzahl von Client-Terminals zu nutzen sind, wodurch eine signifikante Verbesserung in der Anzeigegeschwindigkeit von Bildern erzielt ist.
  • Ferner wird gemäß der vorliegenden Erfindung bei dem Informationsverarbeitungsverfahren, im Client-Terminal, in dem Informationsaufzeichnungsträger, bei dem Informationsaufzeichnungsverfahren, in dem Informationsübertragungsmedium und bei dem Informationsübertragungsverfahren die Änderungssequenz der Vielzahl von Subobjekten entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts in einem Client-Terminal gespeichert und in Synchronisation mit Änderungssequenzen gestartet, die in anderen Client-Terminals gespeichert sind. Die oben erwähnte neue Einrichtung implementiert ein Client-Terminal, welches denselben dreidimensionalen Raum virtueller Realität mit anderen Client-Terminals gemeinsam nutzen kann.
  • Ferner wird gemäß der vorliegenden Erfindung bei dem Informationsverarbeitungsverfahren, dem Server-Terminal, dem Informationsaufzeichnungsträger, dem Informationsaufzeichnungsverfahren, dem Informationsübertragungsmedium und dem Informationsübertragungsverfahren in dem Fall, dass eine eine Aktualisierung des Zustands des Aktualisierungsobjekts anzeigende Nachricht von einem bestimmten Client-Terminal über das globale Kommunikationsnetzwerk eingegeben wird, diese Nachricht zu anderen Client-Terminals über das globale Kommunikationsnetzwerk übertragen, und in Synchronisation mit der Änderungssequenz der Vielzahl von Subobjekten in dem bestimmten Client-Terminal werden die Änderungssequenzen der Vielzahl von Subobjekten in den anderen Client-Terminals gestartet. Der oben erwähnte neue Aufbau ermöglicht, ein Server-Terminal zu realisieren bzw. zu implementieren, welches denselben dreidimensionalen Raum virtueller Realität für die Vielzahl von Client-Terminals bereitstellen kann.

Claims (10)

  1. Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität, umfassend die Schritte: Verbinden einer Vielzahl von Client-Terminals (13-1, 13-2, 13-3) mit einem Informationsserver-Terminal (11A) zur Aufnahme und Anzeige eines durch das genannte Informationsserver-Terminal (11A) bereitgestellten dreidimensionalen Raumes virtueller Realität in den Client-Terminals, Verbinden der genannten Client-Terminals (13-1, 13-2, 13-3) mit einem Abbildungsserver-Terminal (12) zur Übertragung einer Adresse eines gemeinsam genutzten Server-Terminals (11B), das dem genannten Raum virtueller Realität zugeordnet ist, der durch das Informationsserver-Terminal (11A) für die genannten Client-Terminals bereitgestellt wird, Verbinden der genannten Client-Terminals (13-1, 13-2, 13-3) mit dem genannten gemeinsam genutzten Server-Terminal (11B), wobei die Client-Terminals, welche den dreidimensionalen Raum virtueller Realität anzeigen, ein Aktualisierungsobjekt enthalten, das aus einer Vielzahl von Subobjekten besteht, deren jedes Gegenstand einer Änderung ist, und wobei das gemeinsam genutzte Server-Terminal (11B) einen Zustand des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk (15) steuert, Unterrichten jedes der Vielzahl von Client-Terminals (13-1, 13-2, 13-3) über eine Nachricht entsprechend dem Aktualisierungsinhalt des Zustand des Aktualisierungsobjekts von dem gemeinsam genutzten Server-Terminal (11B), wenn der Zustand des durch das gemeinsam genutzte Server-Terminal (11B) gesteuerten Aktualisierungsobjekts aktualisiert wird bzw. ist, und Ändern des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage einer Nachricht in jedem der Vielzahl von Client-Terminals (13-1, 13-2, 13-3), um die Änderung in dem angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln, wobei in jedem der Vielzahl von Client-Terminals eine Nachrichtentabelle im voraus registriert wird, in der eine Beziehung zwischen einer Änderungssequenz, die eine Sequenz einer Änderung des Zustands jedes der Vielzahl von Subobjekten als eine Prozedur von zusammengesetzten kooperativen Operationen der Vielzahl von Subobjekten gemäß einer Änderung in dem Zustand des Aktualisierungsobjekts bestimmt, und einer Nachricht zur Spezifizierung eines Typs einer Änderungssequenz festgelegt wird, und wobei die Nachricht zwischen einer Vielzahl von unspezifizierten Client-Terminals und dem gemeinsam genutzten Server-Terminal (11B) über das Internet als Kommunikationsnetzwerk übertragen wird.
  2. Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität nach Anspruch 1, wobei jedes der Vielzahl von Client-Terminals (13-1, 13-2, 13-3) das gemeinsam genutzte Server-Terminal über die dem aktualisierten Inhalt entsprechende Nachricht unterrichtet, falls der Zustand des Aktualisierungsobjekts entsprechend einer Operation aktualisiert wird bzw. ist, die durch einen Benutzer des jeweiligen Terminals der Vielzahl von Client-Terminals ausgeführt ist.
  3. Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität nach Anspruch 1 oder 2, wobei der aktualisierte Inhalt des Zustands des Aktualisierungsobjekts ein Verhalten ist, welches eine Verschiebung und Drehung umfasst.
  4. Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität nach einem der Ansprüche 1 bis 3, wobei die Änderungssequenz zumindest eine Größe der eine Richtungsverschiebung, eine Geschwindigkeitsverschiebung, eine Zeitspannenverschiebung und eine Distanzverschiebung sowie eine Drehrichtung, eine Drehgeschwindigkeit, eine Drehzeitspanne und eine Drehdistanz jedes der Vielzahl von Subobjekten umfassenden Größen enthält.
  5. Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität nach einem der Ansprüche 1 bis 4, wobei das gemeinsam genutzte Server-Terminal (11B) jedes der Vielzahl von Client-Terminals (13-1, 13-2, 13-3) über die dem aktualisierten Inhalt des Aktualisierungsobjekts entsprechende Nachricht zu einem bestimmten Zeitpunkt unterrichtet.
  6. Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität nach einem der Ansprüche 1 bis 5, wobei das Kommunikationsnetzwerk die Nachricht zwischen unspezifizierten Client-Terminals der Vielzahl von Client-Terminals (13-1, 13-2, 13-3) und dem gemeinsam genutzten Server-Terminal (11B) auf der Grundlage eines mit TCP/IP (Übertragungssteuerprotokoll/Internetprotokoll) bezeichneten Kommunikationsprotokolls überträgt.
  7. Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität nach einem der Ansprüche 1 bis 6, wobei dreidimensionale Grafikdaten zur Darstellung des Aktualisierungsobjekts in einer VRML-Sprache (virtuelle Realität Modellierungssprache) geschrieben wird.
  8. System zur gemeinsamen Nutzung eines dreidimensionalen Raumes virtueller Realität, umfassend ein Informationsserver-Terminal (11A) zur Bereitstellung eines dreidimensionalen Raumes virtueller Realität, eine Vielzahl von Client-Terminals (13-1, 13-2, 13-3) für den Empfang des genannten Raumes virtueller Realität, der von dem genannten Informationsserver-Terminal (11A) bereitgestellt wird, und zur Anzeige des betreffenden dreidimensionalen Raumes virtueller Realität, der ein Aktualisierungsobjekt enthält, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, ein Abbildungsserver-Terminal (12) zur Bereitstellung einer Adresse eines gemeinsam genutzten Server-Terminals (11B), das dem betreffenden Raum virtueller Realität zugeordnet ist, und zur Übertragung der betreffenden Adresse zu den genannten Client-Terminals (13-1, 13-2, 13-3), ein gemeinsam genutztes Server-Terminal (11B) zur Steuerung eines Zustands des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals, ein Kommunikationsnetzwerk (15) zur Verbindung jedes der Vielzahl von Client-Terminals (13-1, 13-2, 13-3) mit dem Informationsserver-Terminal (11A), dem Abbildungsserver-Terminal (12) und dem gemeinsam genutzten Server-Terminal (11B), eine Einrichtung zur Unterrichtung jedes Terminals der Vielzahl von Client-Terminals über eine Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts, wenn der Zustand des durch das gemeinsam genutzte Server-Terminal (11B) gesteuerten Aktualisierungsobjekts aktualisiert wird bzw. ist, und eine Einrichtung zur Änderung des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage einer Nachricht in jedem der Vielzahl von Client-Terminals (13-1, 13-2, 13-3), um die Änderung in dem dreidimensionalen Raumes virtueller Realität widerzuspiegeln, wobei eine Nachrichtentabelle vorgesehen ist, die im voraus in jedem der Vielzahl von Client-Terminals registriert ist und die eine Beziehung zwischen einer Änderungssequenz, welche eine Sequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten als eine Prozedur von zusammengesetzten kooperativen Operationen der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts bestimmt, und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz festlegt, und wobei die Nachricht zwischen einer Vielzahl von unspezifizierten Client-Terminals (13-1, 13-2, 13-3) und dem gemeinsam genutzten Server-Terminal (11B) über das Internet als Kommunikationsnetzwerk (15) übertragen wird.
  9. Client-Terminal in einem einen dreidimensionalen Raum virtueller Realität gemeinsam nutzenden System, in welchem eine Vielzahl von Client-Terminals (13-1, 13-2, 13-3) mit einem Informationsserver-Terminal (11A) für den Empfang und die Anzeige eines dreidimensionalen Raumes virtueller Realität verbunden ist, der von dem Informationsserver-Terminal (11A) bereitgestellt wird, mit einem Abbildungsserver-Terminal (12) zur Übertragung einer Adresse eines gemeinsam genutzten Server-Terminals (11B), welches dem genannten Raum virtueller Realität zugeordnet ist, der von dem genannten Informationsserver-Terminal (11A) bereitgestellt ist, und mit einem gemeinsam genutzten Server-Terminal (11B), wobei die Client-Terminals, die einen dreidimensionalen Raum virtueller Realität anzeigen, ein Aktualisierungsobjekt enthalten, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, wobei das gemeinsam genutzte Server-Terminal (11B) einen Zustand des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk (15) steuert, wobei das Client-Terminal umfasst eine Kommunikationseinrichtung zur Kommunikation mit einem Informationsserver-Terminal (11A) und zum Empfang eines dreidimensionalen Raumes virtueller Realität von dem genannten Informationsserver-Terminal (11A), zur Kommunikation mit einem Abbildungsserver-Terminal (12) für den Empfang einer Adresse eines gemeinsam genutzten Server-Terminals (11B), welches dem genannten Raum virtueller Realität zugeordnet ist, und zur Kommunikation mit dem betreffenden gemeinsam genutzten Serverterminal (11B) auf der Grundlage der genannten Adresse, eine Speichereinrichtung zur Speicherung des betreffenden Raumes virtueller Realität, der von dem genannten Informationsserver-Terminal empfangen worden ist, eine Gewinnungseinrichtung zur Gewinnung einer Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts, wenn der Zustand des durch das gemeinsam genutzte Server-Terminal gesteuerten Aktualisierungsobjekts ak tualisiert wird bzw. ist, auf Unterrichtung hin durch das gemeinsam genutzte Server-Terminal (11B) über das Internet als Kommunikationsnetzwerk (15), eine Änderungseinrichtung zur Änderung des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage einer Nachricht, um die Änderung im angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln, und eine Registriereinrichtung zur Registrierung einer Nachrichtentabelle im Voraus in jedem der Vielzahl von Client-Terminals, die eine Beziehung zwischen einer Änderungssequenz, welche eine Sequenz der Änderung des Zustands jedes der Vielzahl von Subobjekten als eine Prozedur von zusammengesetzten kooperativen Operationen der Vielzahl von Subobjekten entsprechend einer Änderung bezüglich des Zustands des Aktualisierungsobjekts bestimmt, und einer Nachricht zur Spezifizierung eines Typs der Änderungssequenz festlegt, und wobei die Gewinnungseinrichtung von dem gemeinsam genutzten Server-Terminal über das Internet als Kommunikationsnetzwerk (15) unterrichtet wird.
  10. Computersoftwareprodukt für die Verwendung in einem Client-Terminal eines einen dreidimensionalen Raum virtueller Realität gemeinsam nutzenden Systems, in welchem eine Vielzahl von Client-Terminals (13-1, 13-2, 13-3) mit einem Informationsserver-Terminal (11A) für den Empfang und die Anzeige eines dreidimensionalen Raumes virtueller Realität verbunden ist, der durch das Informationsserver-Terminal (11A) bereitgestellt wird, in welchem ein Abbildungsserver-Terminal (12) zur Übertragung einer Adresse eines gemeinsam genutzten Server-Terminals (11B) vorgesehen ist, welches dem genannten Raum virtueller Realität zugeordnet ist, der durch das genannte Informationsserver-Terminal (11A) bereitgestellt wird, und in welchem ein gemeinsam genutztes Server-Terminal (11B) vorgesehen ist, wobei die Client-Terminals, welche einen dreidimensionalen Raum virtueller Realität anzeigen, ein Aktualisierungsobjekt enthalten, welches aus einer Vielzahl von Subobjekten besteht, deren jeweiliger Zustand Gegenstand einer Änderung ist, wobei das gemeinsam genutzte Server-Terminal einen Zustand des Aktualisierungsobjekts in jedem der Vielzahl von Client-Terminals über ein Kommunikationsnetzwerk (15) steuert, wobei das Computersoftwareprodukt, welches Programmbefehle enthält, geeignet ist für eine Kommunikation mit einem Informationsserver-Terminal (11A) und den Empfang eines dreidimensionalen Raumes virtueller Realität von dem genannten Informationsserver-Terminal, für eine Kommunikation mit einem Abbildungsserver-Terminal (12) zum Empfang einer Adresse eines gemeinsam genutzten Server-Terminals (11B), welches dem genannten Raum virtueller Realität zugeordnet ist, für eine Kommunikation mit dem genannten gemeinsam genutzten Server-Terminal auf der Grundlage der genannten Adresse, für eine Speicherung des genannten Raumes virtueller Realität, der von dem genannten Informationsserver-Terminal empfangen ist, zum Gewinnen einer Nachricht entsprechend dem Aktualisierungsinhalt des Zustands des Aktualisierungsobjekts durch das gemeinsam genutzte Server-Terminal über das Internet als Kommunikationsnetzwerk (15), wenn der Zustand des durch das gemeinsam genutzte Server-Terminal gesteuerten Aktualisierungsobjekts aktualisiert wird bzw. ist, zur Änderung des Zustands jedes der Vielzahl von Subobjekten auf der Grundlage einer Nachricht, um die Änderung in dem angezeigten dreidimensionalen Raum virtueller Realität widerzuspiegeln, und zur Registrierung einer Nachrichtentabelle im Voraus in jedem der Vielzahl von Client-Terminals, die eine Beziehung zwischen einer Änderungssequenz, welche eine Sequenz des Änderns des Zustands jedes der Vielzahl von Subobjekten als eine Prozedur von zusammengesetzten kooperativen Operationen der Vielzahl von Subobjekten entsprechend einer Änderung in den Zustand des Aktualisierungsobjekts bestimmt, und einer Nach richt zur Spezifizierung eines Typs der Änderungssequenz festlegt.
DE69629983T 1995-07-12 1996-07-12 Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür Expired - Fee Related DE69629983T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP17585495 1995-07-12
JP17585495 1995-07-12

Publications (2)

Publication Number Publication Date
DE69629983D1 DE69629983D1 (de) 2003-10-23
DE69629983T2 true DE69629983T2 (de) 2004-07-15

Family

ID=16003367

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69629983T Expired - Fee Related DE69629983T2 (de) 1995-07-12 1996-07-12 Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür

Country Status (5)

Country Link
US (1) US6570563B1 (de)
EP (1) EP0753835B1 (de)
KR (1) KR100454615B1 (de)
CA (1) CA2180899A1 (de)
DE (1) DE69629983T2 (de)

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2278659A1 (en) * 1997-01-24 1998-07-30 Louis R. Bershad Document markup language and system and method for generating and displaying documents therein
GB9715516D0 (en) * 1997-07-22 1997-10-01 Orange Personal Comm Serv Ltd Data communications
AU761202B2 (en) 1997-09-22 2003-05-29 Sony Corporation Generation of a bit stream containing binary image/audio data that is multiplexed with a code defining an object in ascii format
GB9721664D0 (en) 1997-10-14 1997-12-10 Philips Electronics Nv Data management within a virtual environment browser
GB9817834D0 (en) * 1998-08-14 1998-10-14 British Telecomm Predicting avatar movement in a distributed virtual environment
JP4240343B2 (ja) * 1998-12-19 2009-03-18 株式会社セガ 画像生成装置および画像生成方法
US6947044B1 (en) * 1999-05-21 2005-09-20 Kulas Charles J Creation and playback of computer-generated productions using script-controlled rendering engines
US20120179651A1 (en) * 1999-07-16 2012-07-12 Marchese Leonard Electronic Space And Method For Providing Resources To Facilitate Ideation
US6948131B1 (en) * 2000-03-08 2005-09-20 Vidiator Enterprises Inc. Communication system and method including rich media tools
KR20010088015A (ko) * 2000-03-10 2001-09-26 김종현 Xyz 다중오더리스트와 채널관리자를 이용한 온라인가상세계 서비스 서버 및 그 내부통신방법
JP3642750B2 (ja) * 2000-08-01 2005-04-27 株式会社ソニー・コンピュータエンタテインメント 通信システム、コンピュータプログラム実行装置、記録媒体、コンピュータプログラム及び番組情報編集方法
GR20000100267A (el) * 2000-08-01 2002-05-24 Θεοδωρου Χρηστος Μαγκος Αμφιδρομη επικοινωνια εικονικου χαρακτηρα με τους θεατες
KR100413162B1 (ko) * 2000-12-27 2003-12-31 (주)아이뮤직소프트 서버와 클라이언트를 이용하여 파노라마식 영상을구현하는 방법 및 시스템
GB2373882B (en) 2001-03-27 2005-07-27 Proksim Software Inc Comparing the position of shared objects
US7445549B1 (en) 2001-05-10 2008-11-04 Best Robert M Networked portable and console game systems
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system
US6966837B1 (en) 2001-05-10 2005-11-22 Best Robert M Linked portable and video game systems
JP3829722B2 (ja) * 2002-01-23 2006-10-04 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4716237B2 (ja) * 2002-12-27 2011-07-06 ヤマハ株式会社 コンテンツ提供システム
US8751950B2 (en) 2004-08-17 2014-06-10 Ice Edge Business Solutions Ltd. Capturing a user's intent in design software
US7529690B2 (en) * 2004-05-22 2009-05-05 Altaf Hadi System and method for delivering real time remote buying, selling, meeting, and interacting in a virtual reality environment
US7176956B2 (en) 2004-05-26 2007-02-13 Motorola, Inc. Video enhancement of an avatar
WO2009111885A1 (en) 2008-03-11 2009-09-17 Dirtt Environmental Solutions, Ltd. Automatically creating and modifying furniture layouts in design software
JP3880603B2 (ja) * 2005-02-22 2007-02-14 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理方法及びプログラム
KR100610689B1 (ko) * 2005-06-24 2006-08-09 엔에이치엔(주) 3차원 화면에 동영상을 삽입하는 방법 및 이를 위한 기록매체
JP2008102467A (ja) * 2006-10-19 2008-05-01 Kokusai Kogyo Co Ltd サインオブジェクト表示システム
US8683353B2 (en) * 2006-12-12 2014-03-25 Motorola Mobility Llc Method and system for distributed collaborative communications
US7973786B2 (en) * 2007-01-16 2011-07-05 Motorola Solutions, Inc. System and method for managing interaction in a virtual environment
US7696992B2 (en) * 2007-01-16 2010-04-13 Motorola, Inc. Method and apparatus to facilitate multi-setting virtual reality experiences
US9230237B2 (en) * 2007-12-06 2016-01-05 International Business Machines Corporation Contract amendment mechanism in a virtual world
WO2009108790A1 (en) * 2008-02-26 2009-09-03 Ecity, Inc. Method and apparatus for integrated life through virtual cities
US8589809B2 (en) * 2008-02-28 2013-11-19 Chevron U.S.A. Inc. Methods and systems for conducting a meeting in a virtual environment
US9576330B2 (en) * 2008-03-07 2017-02-21 Virtually Live (Switzerland) Gmbh Media system and method
US8214751B2 (en) 2008-04-15 2012-07-03 International Business Machines Corporation Dynamic spawning of focal point objects within a virtual universe system
US10096032B2 (en) * 2008-04-15 2018-10-09 International Business Machines Corporation Proximity-based broadcast virtual universe system
US8259100B2 (en) * 2008-04-24 2012-09-04 International Business Machines Corporation Fixed path transitions
US8466931B2 (en) * 2008-04-24 2013-06-18 International Business Machines Corporation Color modification of objects in a virtual universe
US8230441B2 (en) 2008-04-29 2012-07-24 International Business Machines Corporation Virtual world subgroup determination and segmentation for performance scalability
US8990705B2 (en) * 2008-07-01 2015-03-24 International Business Machines Corporation Color modifications of objects in a virtual universe based on user display settings
US8471843B2 (en) 2008-07-07 2013-06-25 International Business Machines Corporation Geometric and texture modifications of objects in a virtual universe based on real world user characteristics
KR20100009947A (ko) * 2008-07-21 2010-01-29 삼성전자주식회사 가상 현실 서비스 간의 상호 연동을 위한 장치 및 방법
US20100073379A1 (en) * 2008-09-24 2010-03-25 Sadan Eray Berger Method and system for rendering real-time sprites
BRPI0921978A2 (pt) * 2008-11-26 2019-01-15 Calgary Scient Inc método de fornecimento de acesso remoto a estado de programa de aplicativo e meios de armazenamento.
US8533596B2 (en) 2008-12-22 2013-09-10 International Business Machines Corporation Sharing virtual space in a virtual universe
US20100177117A1 (en) 2009-01-14 2010-07-15 International Business Machines Corporation Contextual templates for modifying objects in a virtual universe
US10055105B2 (en) 2009-02-03 2018-08-21 Calgary Scientific Inc. Method and system for enabling interaction with a plurality of applications using a single user interface
US20100231582A1 (en) * 2009-03-10 2010-09-16 Yogurt Bilgi Teknolojileri A.S. Method and system for distributing animation sequences of 3d objects
US9610502B2 (en) * 2009-07-10 2017-04-04 International Business Machines Corporation Use of real time location information for user authentication and authorization in virtual environments
US9245064B2 (en) * 2009-11-24 2016-01-26 Ice Edge Business Solutions Securely sharing design renderings over a network
KR101099519B1 (ko) * 2010-02-12 2011-12-28 주식회사 블루사이드 데이터타입 분류에 따른 캐릭터정보 동기화 방법
KR20110107428A (ko) * 2010-03-25 2011-10-04 삼성전자주식회사 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체
US9741084B2 (en) 2011-01-04 2017-08-22 Calgary Scientific Inc. Method and system for providing remote access to data for display on a mobile device
CA2734860A1 (en) 2011-03-21 2012-09-21 Calgary Scientific Inc. Method and system for providing a state model of an application program
US9189571B2 (en) 2011-06-11 2015-11-17 Ice Edge Business Solutions, Ltd. Automated re-use of structural components
US9886552B2 (en) 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
JP6164747B2 (ja) 2011-08-15 2017-07-19 カルガリー サイエンティフィック インコーポレイテッド 協働環境におけるフロー制御のためのおよび信頼性のある通信のための方法
CN103782541B (zh) 2011-08-15 2018-11-27 卡尔加里科学公司 一种提供远程访问至少一个应用程序的方法
EP2761808A4 (de) 2011-09-30 2015-05-20 Calgary Scient Inc Entkoppelte anwendung mit erweiterungen interaktives digitales oberflächenschicht für kollaborative entfernten gemeinsamer benutzung von anwendungen und annotation
SG11201402546WA (en) 2011-11-23 2014-06-27 Calgary Scient Inc Methods ans systems for collaborative remote application sharing and conferencing
WO2013119208A1 (en) * 2012-02-07 2013-08-15 Empire Technology Development Llc Online gaming
CA2865707A1 (en) 2012-03-02 2013-09-06 Calgary Scientific Inc. Remote control of an application using dynamic-linked library (dll) injection
US9220982B2 (en) * 2012-05-04 2015-12-29 Blizzard Entertainment, Inc. Cross-realm zones for interactive gameplay
US10666726B2 (en) 2012-05-08 2020-05-26 Wingarc1St Inc. Data processing system, and program for managing data
US9020203B2 (en) 2012-05-21 2015-04-28 Vipaar, Llc System and method for managing spatiotemporal uncertainty
US9729673B2 (en) 2012-06-21 2017-08-08 Calgary Scientific Inc. Method and system for providing synchronized views of multiple applications for display on a remote computing device
US9710968B2 (en) * 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US9639984B2 (en) * 2013-06-03 2017-05-02 Daqri, Llc Data manipulation based on real world object manipulation
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
EP3075111B1 (de) 2013-11-29 2017-12-20 Calgary Scientific Inc. Verfahren zur bereitstellung einer verbindung mit einem nicht verwalteten dienst in einem client-server-fernzugangssystem
US9256348B2 (en) * 2013-12-18 2016-02-09 Dassault Systemes Americas Corp. Posture creation with tool pickup
KR20150101915A (ko) * 2014-02-27 2015-09-04 삼성전자주식회사 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스
US9405770B2 (en) 2014-03-10 2016-08-02 Google Inc. Three dimensional navigation among photos
FR3021426A1 (fr) * 2014-05-21 2015-11-27 New3S Procede de fabrication d'un site reseau en trois dimensions, site reseau obtenu par ce procede, et procede de navigation au sein ou a partir d'un tel site reseau
US20210149981A1 (en) 2014-05-21 2021-05-20 New3S Method of building a three-dimensional network site, network site obtained by this method, and method of navigating within or from such a network site
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US10015264B2 (en) 2015-01-30 2018-07-03 Calgary Scientific Inc. Generalized proxy architecture to provide remote access to an application framework
AU2016210974A1 (en) 2015-01-30 2017-07-27 Calgary Scientific Inc. Highly scalable, fault tolerant remote access architecture and method of connecting thereto
US10551993B1 (en) * 2016-05-15 2020-02-04 Google Llc Virtual reality content development environment
US11290572B2 (en) * 2016-11-07 2022-03-29 Constructive Labs System and method for facilitating sharing of virtual three-dimensional space
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (de) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatische lichtauskopplungsvorrichtung, augennahe anzeige damit und verfahren zur polychromatischem lichtauskopplung
US20180188905A1 (en) * 2017-01-04 2018-07-05 Google Inc. Generating messaging streams with animated objects
CN111448497B (zh) 2017-12-10 2023-08-04 奇跃公司 光波导上的抗反射涂层
CN112136152A (zh) 2018-03-15 2020-12-25 奇跃公司 由观看设备的部件变形导致的图像校正
AU2019240763A1 (en) * 2018-03-27 2020-10-01 Spacedraft Pty Ltd A media content planning system
JP6854972B2 (ja) * 2018-05-02 2021-04-07 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
KR101990428B1 (ko) * 2018-06-12 2019-06-19 한길씨앤씨 주식회사 다수의 사용자에 대하여 실시간 동기화가 가능한 vr 시스템 및 이를 이용한 vr 시스템의 실시간 동기화 방법
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
EP3830631A4 (de) 2018-08-03 2021-10-27 Magic Leap, Inc. Auf einer nichtfusionierten pose basierte driftkorrektur eines fusionierten totems in einem benutzerinteraktionssystem
CN109636917B (zh) * 2018-11-02 2023-07-18 北京微播视界科技有限公司 三维模型的生成方法、装置、硬件装置
US11592896B2 (en) * 2018-11-07 2023-02-28 Wild Technology, Inc. Technological infrastructure for enabling multi-user collaboration in a virtual reality environment
WO2020223636A1 (en) * 2019-05-01 2020-11-05 Magic Leap, Inc. Content provisioning system and method
JP2021018546A (ja) * 2019-07-18 2021-02-15 トヨタ自動車株式会社 車両用コミュニケーション装置および車両用コミュニケーションシステム
US11263358B2 (en) * 2019-07-26 2022-03-01 Geopogo Rapid design and visualization of three-dimensional designs with multi-user input
KR20190101323A (ko) * 2019-08-12 2019-08-30 엘지전자 주식회사 Ar 모드 및 vr 모드를 제공하는 xr 디바이스 및 그 제어 방법
JP7465960B2 (ja) * 2020-03-13 2024-04-11 グーグル エルエルシー ピアツーピアマルチプレイヤークラウドゲーミングアーキテクチャ
US11805176B1 (en) * 2020-05-11 2023-10-31 Apple Inc. Toolbox and context for user interactions
US11743340B2 (en) * 2020-06-10 2023-08-29 Snap Inc. Deep linking to augmented reality components
US11683290B1 (en) * 2020-07-15 2023-06-20 Glossi, Inc. System for producing e-commerce product videos
US11838336B2 (en) * 2020-08-27 2023-12-05 Varty Inc. Virtual events-based social network
US20230367395A1 (en) * 2020-09-14 2023-11-16 Interdigital Ce Patent Holdings, Sas Haptic scene representation format
US20220212100A1 (en) * 2021-01-04 2022-07-07 Microsoft Technology Licensing, Llc Systems and methods for streaming interactive applications
US11736605B2 (en) 2021-04-19 2023-08-22 Meta Platforms Technologies, Llc Coordinated video streaming and messaging using a wrist-wearable device and a head-worn wearable device, and methods of use thereof
US20220413433A1 (en) * 2021-06-28 2022-12-29 Meta Platforms Technologies, Llc Holographic Calling for Artificial Reality
US20230055819A1 (en) * 2021-08-18 2023-02-23 Target Brands, Inc. Virtual reality system for retail store design
US11934569B2 (en) * 2021-09-24 2024-03-19 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
KR20230147312A (ko) * 2022-04-14 2023-10-23 주식회사 피아몬드 가상 공간에서 프라이버시 제공을 위한 방법 및 시스템
US11860931B1 (en) * 2022-07-11 2024-01-02 Truist Bank Graphical user interface with insight hub and insight carousel
US20240031530A1 (en) * 2022-07-20 2024-01-25 Katmai Tech Inc. Using zones in a three-dimensional virtual environment for limiting audio and video
US20240073372A1 (en) * 2022-08-31 2024-02-29 Snap Inc. In-person participant interaction for hybrid event

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5133075A (en) * 1988-12-19 1992-07-21 Hewlett-Packard Company Method of monitoring changes in attribute values of object in an object-oriented database
EP0436561A1 (de) 1989-08-03 1991-07-17 International Business Machines Corporation Datenbehandlungsnetz
US5197094A (en) 1990-06-15 1993-03-23 Arachnid, Inc. System for remotely crediting and billing usage of electronic entertainment machines
WO1992009948A1 (en) 1990-11-30 1992-06-11 Vpl Research, Inc. Improved method and apparatus for creating virtual worlds
US5315709A (en) 1990-12-03 1994-05-24 Bachman Information Systems, Inc. Method and apparatus for transforming objects in data models
GB2256567B (en) 1991-06-05 1995-01-11 Sony Broadcast & Communication Modelling system for imaging three-dimensional models
US6141000A (en) * 1991-10-21 2000-10-31 Smart Technologies Inc. Projection display system with touch sensing on screen, computer assisted alignment correction and network conferencing
US5602564A (en) 1991-11-14 1997-02-11 Hitachi, Ltd. Graphic data processing system
JPH05233779A (ja) 1992-02-18 1993-09-10 Nec Home Electron Ltd 3次元画像データ伝送方法
ES2154647T3 (es) 1992-07-01 2001-04-16 Ericsson Telefon Ab L M Metodo y sistema de especificacion de interfaz independiente de la implementacion.
US5490239A (en) 1992-10-01 1996-02-06 University Corporation For Atmospheric Research Virtual reality imaging system
US5633993A (en) 1993-02-10 1997-05-27 The Walt Disney Company Method and apparatus for providing a virtual world sound system
US5625408A (en) 1993-06-24 1997-04-29 Canon Kabushiki Kaisha Three-dimensional image recording/reconstructing method and apparatus therefor
JP3311830B2 (ja) 1993-09-20 2002-08-05 株式会社東芝 3次元動画作成装置
US5659691A (en) 1993-09-23 1997-08-19 Virtual Universe Corporation Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
US5557724A (en) 1993-10-12 1996-09-17 Intel Corporation User interface, method, and apparatus selecting and playing channels having video, audio, and/or text streams
US5608446A (en) 1994-03-31 1997-03-04 Lucent Technologies Inc. Apparatus and method for combining high bandwidth and low bandwidth data transfer
US5623642A (en) 1994-04-06 1997-04-22 M ak Technologies, Inc. Method for simulating newtonian interactions over a computer network
US5634004A (en) 1994-05-16 1997-05-27 Network Programs, Inc. Directly programmable distribution element
US5635979A (en) 1994-05-27 1997-06-03 Bell Atlantic Dynamically programmable digital entertainment terminal using downloaded software to control broadband data operations
US5588914A (en) 1994-06-28 1996-12-31 The Walt Disney Company Method and system for guiding a user in a virtual reality presentation
US5625818A (en) 1994-09-30 1997-04-29 Apple Computer, Inc. System for managing local database updates published to different online information services in different formats from a central platform
JPH08137799A (ja) 1994-11-08 1996-05-31 Sony Corp サイバースペースシステム
US5623656A (en) 1994-12-15 1997-04-22 Lucent Technologies Inc. Script-based data communication system and method utilizing state memory
JPH08234976A (ja) 1995-02-23 1996-09-13 Sony Corp プログラム機能拡張方法、およびデータ処理方法
US5734795A (en) * 1995-05-15 1998-03-31 Rogers; Mccagie B. System for allowing a person to experience systems of mythology
US5634053A (en) 1995-08-29 1997-05-27 Hughes Aircraft Company Federated information management (FIM) system and method for providing data site filtering and translation for heterogeneous databases
US5675721A (en) 1996-08-08 1997-10-07 Freedman; Aaron S. Computer network data distribution and selective retrieval system

Also Published As

Publication number Publication date
EP0753835B1 (de) 2003-09-17
DE69629983D1 (de) 2003-10-23
KR970007676A (ko) 1997-02-21
EP0753835A3 (de) 1997-01-22
KR100454615B1 (ko) 2005-04-19
CA2180899A1 (en) 1997-01-13
EP0753835A2 (de) 1997-01-15
US6570563B1 (en) 2003-05-27

Similar Documents

Publication Publication Date Title
DE69629983T2 (de) Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür
US6020885A (en) Three-dimensional virtual reality space sharing method and system using local and global object identification codes
DE60206059T2 (de) Verfahren, system und speichermedium für ein ikonensprachenkommunikationswerkzeug
EP0753836B1 (de) Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes in virtueller Realität und System dafür
US6437777B1 (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
JP3859018B2 (ja) 3次元仮想現実空間共有方法、3次元仮想現実空間共有システム、アドレス管理方法、並びにアドレス管理サーバ端末
DE69432199T2 (de) Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
US6346956B2 (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
DE69731045T2 (de) Navigation und Interaktion in strukturierten Informationsräumen
DE69433061T2 (de) Netzwerk der virtuellen realität
US6331853B1 (en) Display control apparatus display control method and presentation medium
Hughes et al. Shared virtual worlds for education: the ExploreNet experiment
DE60110804T2 (de) Kommunikationssystem mit Programmerzeugungsmitteln
DE102014225409A1 (de) Abgesetztes Hilfsgerät zum Generieren spezifisch angepasster und synchronisierter Referenznotizen für ein programmierbares Metrologiesystem
Abdul-Kader E-learning systems in virtual environment
JP3859020B2 (ja) 3次元仮想現実空間共有方法、3次元仮想現実空間共有システム、情報処理方法、クライアント端末、並びに共有サーバ端末
Jensen Virtual inhabited 3D worlds: interactivity and interaction between avatars, autonomous agents and users
JPH10154243A (ja) 3次元仮想現実空間共有システムにおける情報処理装置、情報処理方法および情報提供媒体
EP3716014A1 (de) Übertragen eines zustands zwischen vr-umgebungen
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
Jensen 3D Inhabited Virtual Worlds Interactivity and interaction between avatars, autonomous agents, and users
JPH0981495A (ja) 3次元仮想現実空間共有方法、3次元仮想現実空間共有システム、情報記録媒体、情報記録方法、情報伝送媒体、情報伝送方法、情報処理方法、並びに共有サーバ端末
Knight et al. Working in virtual environments through appropriate physical interfaces
DE102004061884B4 (de) Verfahren und System zur Telekommunikation mit virtuellen Stellvertretern
DE19801027A1 (de) Vorrichtung und Verfahren zur Bestimmung von Verhaltensmustern von Konsumenten und Informationssuchenden in einer Open-Community-Plattform

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee