JP3625212B1 - 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP3625212B1
JP3625212B1 JP2003323612A JP2003323612A JP3625212B1 JP 3625212 B1 JP3625212 B1 JP 3625212B1 JP 2003323612 A JP2003323612 A JP 2003323612A JP 2003323612 A JP2003323612 A JP 2003323612A JP 3625212 B1 JP3625212 B1 JP 3625212B1
Authority
JP
Japan
Prior art keywords
virtual space
agent
avatar
operation instruction
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003323612A
Other languages
English (en)
Other versions
JP2005092459A (ja
Inventor
英之 中西
亨 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003323612A priority Critical patent/JP3625212B1/ja
Priority to PCT/JP2004/009973 priority patent/WO2005029414A1/ja
Priority to CA002538957A priority patent/CA2538957C/en
Priority to US10/572,060 priority patent/US20070075993A1/en
Priority to CNB2004800257890A priority patent/CN100442313C/zh
Priority to EP04747439A priority patent/EP1669932A4/en
Application granted granted Critical
Publication of JP3625212B1 publication Critical patent/JP3625212B1/ja
Publication of JP2005092459A publication Critical patent/JP2005092459A/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/572Communication between players during game play of non game information, e.g. e-mail, chat, file transfer, streaming of audio and streaming of video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 3次元仮想空間シミュレーションにおいて、ユーザの柔軟な参加形態と高い信頼性とを実現する。
【解決手段】 アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示部13と、エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示部14と、これらから受け取る動作指示データに基づいて、各キャラクタを仮想空間に表示する処理制御部11、グラフィック処理部17、および画像表示部18は、アバタ動作指示部13から動作指示データを受け取るインタフェースと、エージェント動作指示部14から動作指示データを受け取るインタフェースとを共通としている。
【選択図】 図1

Description

本発明は、複数のキャラクタが登場する仮想空間を3次元画像で表示する3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体に関するものである。
コンピュータおよびネットワーク技術の発展に伴い、高度なシミュレータが開発されている。最新のシミュレータの一つとして3次元仮想空間シミュレータがある。3次元仮想空間シミュレータとしては、例えば、WWW(World Wide Web)サーバに格納され、VRML(Virtual Reality Modeling Language)言語などで記述された3次元グラフィックデータを、ネットワークを介してクライアントコンピュータが取得し、そのクライアントコンピュータの表示装置に3次元画像からなる仮想空間を表示するものが知られている。
3次元画像は、人間が現実世界を目視する場合と同様の立体感や遠近感を的確に表現することができる。したがって、3次元画像で仮想空間を表示する3次元仮想空間シミュレータを利用することによって、ユーザは、臨場感溢れるシミュレーションを体験することができる。このような3次元仮想空間シミュレータは、チャットやビデオゲームなどのエンターテイメント分野の他、景観シミュレーションや災害シミュレーションなどにも応用されている。
一般に、3次元仮想空間シミュレータにおいて表示される仮想空間には、複数のキャラクタ(登場人物)が登場する。本明細書では、3次元仮想空間シミュレータにおいて表示される仮想空間において、ユーザの入力に応じて動作するキャラクタを「アバタ(Avatar)」と称する一方、自律的に動作するキャラクタを「エージェント(Agent)」と称する。3次元仮想空間シミュレータにおいて、ユーザは、主にアバタの視点を通じて仮想現実を体験することができる。近時、3次元仮想空間シミュレータの新たな利用法として、シミュレーション表示される仮想空間において、綿密なストーリーに基づいたロールプレイングをユーザに体験させ、この体験を通じて、ユーザを教育訓練することも提案されている(非特許文献1)。
W. Swartout et. al.,Toward the Holodeck: Integrating Graphics, Sound, Character and Story. International Conference on Autonomous Agents, pp. 409-416, 2001.
災害発生時の避難状態などをシミュレートする場合、集団行動のグループダイナミクスを的確にシミュレーション上で再現するためには、数多くのキャラクタを仮想空間に登場させることが好ましい。特に、シミュレーションを多くのユーザに体験させながら、仮想空間内のキャラクタの振る舞いを現実の状況に近づけるためには、できるだけ多くのアバタを仮想空間に登場させることが好ましい。
しかし、前記従来の3次元仮想空間シミュレータでは、仮想空間におけるアバタとエージェントとの役割はそれぞれ固定的である。すなわち、仮想空間において、アバタとして登場するキャラクタは、終始アバタとして振る舞う一方、エージェントとして登場するキャラクタは、終始エージェントとして振る舞う。したがって、シミュレーションの開始から終了までの間、アバタと同程度の人数のユーザがシミュレーションに参加していることが必要となる。
一方、災害発生時の避難状態などをシミュレートする場合、シミュレーションを現実感や信頼性の高いものとするためには、多数のアバタを仮想空間に登場させる必要がある。したがって、このような大規模なシミュレーションを行うためには、シミュレーションの開始から終了までの間、多数のユーザを確保して、拘束せねばならず、シミュレーションの実施が困難かつ高コストなものとなってしまうという問題が生じていた。
また、特定のアバタの視点を通じてシミュレーションに参加したユーザは、シミュレーションの開始から終了までの間、そのアバタの指示者として仮想空間に参加することになる。したがって、仮想空間内の場面をユーザが臨機応変に体験することには一定の限界があった。例えば、仮想空間内の異なる場所で同時に進行している異なるイベントの両方をユーザが体験することは困難なものとなっていた。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、3次元仮想空間シミュレーション、とりわけ多数のキャラクタが登場する大規模な3次元仮想空間シミュレーションにおいて、ユーザの柔軟な参加形態と、高い現実感や信頼性とを実現することのできる3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体を提供することにある。
本発明に係る3次元仮想空間シミュレータは、上記課題を解決するために、アバタとエージェントとからなる複数のキャラクタが登場する仮想空間を3次元画像で表示する3次元仮想空間シミュレータであって、前記アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、前記エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、前記各キャラクタを前記仮想空間に表示するキャラクタ表示手段とを備え、前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとを共通としていることを特徴としている。
また、本発明に係る3次元仮想空間シミュレータにおいて、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能であることを特徴としている。
また、本発明に係る3次元仮想空間シミュレータは、ネットワークを介して接続された複数のコンピュータで構成され、前記仮想空間を共有して、3次元画像で表示することを特徴としている。さらに、本発明に係る3次元仮想空間シミュレータは、上記複数のキャラクタ同士は、会話可能であり、上記各コンピュータは、上記複数のコンピュータ間で会話のデータ送受信する際、話者の一方がエージェントである場合には、アバタ側の音声データを音声認識処理によってテキストデータに変換してから、エージェント側に送信すると共に、アバタ同士の会話においては、音声データを送受信することによって、ユーザに肉声を通じた会話を行わせることを特徴としている。
また、本発明に係る3次元仮想空間シミュレータは、前記仮想空間において、災害発生時の避難状態をシミュレートすることを特徴としている。
本発明に係る3次元仮想空間シミュレーションプログラムは、上記課題を解決するために、コンピュータを、アバタとエージェントとからなる複数のキャラクタが登場する仮想空間を3次元画像で表示する3次元仮想空間シミュレータとして機能させる3次元仮想空間シミュレーションプログラムであって、前記コンピュータを、前記アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、前記エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、前記各キャラクタを前記仮想空間に表示するキャラクタ表示手段として機能させると共に、前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとが共通となっており、さらに、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能であることを特徴としている。
また、本発明に係る3次元仮想空間シミュレーションプログラムは、上記課題を解決するために、ネットワークを介して接続された複数のコンピュータを、アバタとエージェントとからなる複数のキャラクタが登場する仮想空間を共有し、3次元画像で表示する3次元仮想空間シミュレータとして機能させる3次元仮想空間シミュレーションプログラムであって、前記複数のコンピュータを、前記アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、前記エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、前記各キャラクタを前記仮想空間に表示するキャラクタ表示手段として機能させると共に、前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとが共通となっており、さらに、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能であることを特徴としている。
本発明に係るコンピュータ読み取り可能な記録媒体は、前記3次元仮想空間シミュレーションプログラムを記録したものである。
以上のように、本発明に係る3次元仮想空間シミュレータは、アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、各キャラクタを前記仮想空間に表示するキャラクタ表示手段とを備え、前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとを共通としている構成である。
また、本発明に係る3次元仮想空間シミュレータにおいて、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能とした構成である。
それゆえ、前記キャラクタ表示手段は、前記2つのインタフェースを切り替えることによって、仮想空間内の特定のキャラクタを、アバタとエージェントとの間で柔軟に変更することが可能となる。例えば、ユーザがその動作指示を入力しているアバタを途中からエージェントに切り替えたり、特定のエージェントを途中からアバタに切り替えたりすることができる。
これにより、シミュレーションの途中であっても、ユーザの参加、離脱、交代が柔軟かつ容易となるという効果を奏する。この結果、シミュレーションの規模が大きな場合であっても、多数のユーザを常時拘束することなく、比較的多数のアバタを登場させることも可能となるので、高い現実感や信頼性を有するシミュレーションを実現することが可能になる。
本発明に係る3次元仮想空間シミュレーションプログラムは、コンピュータを、アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、前記各キャラクタを前記仮想空間に表示するキャラクタ表示手段として機能させると共に、前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとが共通となっており、さらに、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能な構成である。また、本発明に係るコンピュータ読み取り可能な記録媒体は、前記3次元仮想空間シミュレーションプログラムを記録した構成である。
それゆえ、前記3次元仮想空間シミュレーションプログラムを、コンピュータに読み取り実行させることによって、前記3次元仮想空間シミュレータと同一の効果を奏することができる。
また、本発明に係る3次元仮想空間シミュレータは、ネットワークを介して接続された複数のコンピュータで構成され、前記仮想空間を共有して、3次元画像で表示するものである。
それゆえ、ネットワークを介して接続された異なるコンピュータを通じて、複数のユーザが同時にシミュレーションに参加することが可能になるので、ユーザは柔軟にシミュレーションに参加できるという効果を奏する。例えば、互いに遠隔地に所在するユーザが同時にシミュレーションに参加して、仮想空間内でコミュニケーションを図ったり、体験を共有したりすることが可能になる。併せて、不特定多数のユーザが、それぞれの都合に応じた任意のタイミングでシミュレーションに参加できるようになるという効果を奏する。また、本発明に係る3次元仮想空間シミュレータは、上記複数のキャラクタ同士は、会話可能であり、上記各コンピュータは、上記複数のコンピュータ間で会話のデータ送受信する際、話者の一方がエージェントである場合には、アバタ側の音声データを音声認識処理によってテキストデータに変換してから、エージェント側に送信すると共に、アバタ同士の会話においては、音声データを送受信することによって、ユーザに肉声を通じた会話を行わせることを特徴としている。それゆえ、話者の少なくとも一方がエージェントである場合において、音声データよりもテキストデータの方が解析しやすいテキストデータを送受信すると共に、一方、アバタ(ユーザ)同士の会話においては、音声データを送受信することによって、ユーザに肉声を通じた会話を行わせ、シミュレーションの現実感を高めるものとしている。
また、本発明に係る3次元仮想空間シミュレーションプログラムは、ネットワークを介して接続された複数のコンピュータを、アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、前記各キャラクタを前記仮想空間に表示するキャラクタ表示手段として機能させると共に、前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとが共通となっており、さらに、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能な構成である。また、本発明に係るコンピュータ読み取り可能な記録媒体は、前記3次元仮想空間シミュレーションプログラムを記録した構成である。
それゆえ、前記3次元仮想空間シミュレーションプログラムを、複数のコンピュータに読み取り実行させることによって、前記3次元仮想空間シミュレータと同一の効果を奏することができる。
また、本発明に係る3次元仮想空間シミュレータは、前記仮想空間において、災害発生時の避難状態をシミュレートする構成である。
災害発生時の避難状態をシミュレートする場合、集団行動のグループダイナミクスを的確に再現することが重要になる。
前述のとおり、本発明に係る3次元仮想空間シミュレータによれば、シミュレーションの規模が大きな場合であっても、多数のユーザを常時拘束することなく、比較的多数のアバタを登場させることも可能となるので、高い現実感や信頼性を有するシミュレーションを実現することが可能になる。また、シミュレーションの途中であっても、アバタとエージェントとの役割を自在に切り替えることができるので、ユーザは多彩な視点から臨機応変にシミュレーションに参加することができる。
したがって、災害発生時の避難状態をシミュレートする場合において、ユーザの柔軟な参加形態と、高い現実感や信頼性とを実現することができるという効果を奏する。
本発明の一実施形態に係る3次元仮想空間シミュレータシステム(3次元仮想空間シミュレータ)100について、図1ないし図10に基づいて説明すれば以下のとおりである。
[1.システム構成]
図1は、3次元仮想空間シミュレータシステム100の概略構成を示すブロック図である。同図に示されるように、3次元仮想空間シミュレータシステム100は、シミュレータ(3次元仮想空間シミュレータ)1、2、3、・・・が、ネットワーク4を介して、互いに接続されているものである。
シミュレータ1、2、3、・・・は、いずれも市販のグラフィックワークステーションやパーソナルコンピュータから構成され、同一の内部構成を有している。図1では、シミュレータ1の内部構成のみを図示して、シミュレータ2、3、・・・の内部構成の図示は省略している。シミュレータ1、2、3、・・・は、ネットワーク4を介して、互いにデータ通信を行うことができる。
ネットワーク4の種類は特に限定されるものではなく、例えば、インターネットの他、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、ネットワーク4を構成する伝送媒体についても、特に限定されるものではなく、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でもよい。
[2.シミュレータの内部構成]
まず、シミュレータ1の内部構成について説明する。シミュレータ1は、通信処理部10、処理制御部11、指示入力部12、アバタ動作指示部13、エージェント動作指示部14、記憶部15、音声入出力部16、グラフィック処理部17、画像表示部18を備えている。
通信処理部10は、ネットワーク4とシミュレータ1とを接続する通信インタフェースであって、各種の通信インタフェースおよび通信回路から構成されている。通信処理部10は、TCP/IPやUDP/IPなど任意のプロトコルを用いて外部装置と通信する。また、通信処理部10は、データ通信機能に加えて、各種のデータ圧縮・復元機能を有していてもよい。シミュレータ1が外部と送受信するデータの全てが、通信処理部10と処理制御部11との間で送受信されている。
処理制御部(キャラクタ表示手段)11は、シミュレータ1の各構成要素の動作、およびこれら構成要素間のデータのやりとりを統合的に制御する機能ブロックである。処理制御部11は、後述する各機能ブロックを統括、制御する他、ユーザのログイン処理、ログアウト処理なども制御する。
指示入力部12は、キーボードやマウスから構成されるシミュレータ1の入力用インタフェースであって、シミュレータ1がユーザから、アバタの動作指示を含む各種指示の入力を受け付けるための構成である。ユーザがアバタの動作を指示する際の操作性を高めるためには、指示入力部12は、各種の方向入力デバイス、例えばカーソルキーやアナログジョイスティックを備えることも好ましい。指示入力部12は、ユーザから受け付けた指示入力に応じた指示入力データを生成する。指示入力部12は、生成した指示入力データのうち、アバタの動作に関する指示入力データはアバタ動作指示部13に送信する一方、その他の指示入力データは、直接処理制御部11に送信する。
アバタ動作指示部(アバタ動作指示手段)13は、指示入力部12から受信したアバタの動作に関する指示入力データに基づいて、仮想空間におけるアバタの動作を決定し、その内容を示す動作指示データを生成する機能ブロックである。アバタ動作指示部13は、生成した動作指示データを処理制御部11に送信する。アバタ動作指示部13から出力される動作指示データはバッファメモリに記録され、このバッファメモリから処理制御部11およびグラフィック処理部17に読み出される。同様に、処理制御部11およびグラフィック処理部17が生成・出力するアバタの状態情報データは上記バッファメモリに記録され、このバッファメモリからアバタ動作指示部13に読み出される。
エージェント動作指示部(エージェント動作指示手段)14は、仮想空間におけるエージェントの動作を自律的に決定し、その内容を示す動作指示データを生成する機能ブロックである。エージェント動作指示部14は、生成した動作指示データを処理処理部11に送信する。また、エージェント動作指示部14と処理制御部11(およびグラフィック処理部17)との間では、図略のバッファメモリを介して、エージェント動作指示部14が生成した動作指示データと、この動作指示データに基づいて、処理制御部11およびグラフィック処理部17が生成・更新したエージェントの状態情報データとが交換されている。エージェント動作指示部14がエージェントの動作を自律的に決定する手法については後述する。
記憶部15は、各種の半導体メモリや記録媒体にデータを記録するデータ記録装置である。記憶部15がデータを記録する記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやMO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系などを用いることができる。
処理制御部11は、3次元仮想空間シミュレーションに関するすべてのデータを記憶部15に記憶させ、適宜読み出す。上記3次元仮想空間シミュレーションに関するデータの例としては、通信処理部10を介して外部装置から受信したデータ、指示入力部12から受信した指示入力データ、アバタ動作指示部13から受信した動作指示データ、エージェント動作指示部14から受信した動作指示データ、グラフィック処理部17で生成され、3次元仮想空間を記述するVRMLデータ、これらデータを処理することによって得られたデータなどが挙げられる。
音声入出力部16は、シミュレータ1がユーザに対して音声を出力し、ユーザからの音声入力を受け付けるための音声入出力装置である。音声入出力部16は、ヘッドフォン、スピーカなどの音声出力用装置、およびヘッドセットマイク、固定式マイクなどの音声入力用装置から構成されている。音声入出力部16は、処理制御部11から受信する音声データに基づいて音声を出力する一方、ユーザから入力された音声データを処理制御部11に送信する。なお、シミュレーションの臨場感を高めるためには、音声入出力部16を通じた音声の入出力は、ステレオ音声で行われることも好ましい。
グラフィック処理部(キャラクタ表示手段)17は、処理制御部11の指示に基づいて、仮想空間の3次元画像を記述するVRMLデータを生成、更新し、画像表示部18に仮想空間を3次元画像で表示させる機能ブロックである。
グラフィック処理部17は、仮想空間内で静止している背景の画像に関するデータを、VRMLデータの静的オブジェクト情報として取り扱う一方、仮想空間内で動作するキャラクタの画像に関するデータを、VRMLデータの動的オブジェクト情報として取り扱う。また、グラフィック処理部17は、仮想空間をいずれの視点、すなわち位置および方向からみた状態で3次元画像を生成すべきかの情報を、VRMLデータのカメラオブジェクト情報として取り扱う。グラフィック処理部17は、これらオブジェクト情報に基づいて、特定のキャラクタ(通常はアバタ)の視点からみた3次元画像のVRMLデータをリアルタイム生成して、記憶部15のVRMLデータを更新する。また、グラフィック処理部17は、記憶部15で更新されるVRMLデータに基づいて、仮想空間における町並みや人物などの3次元画像を表示させるための映像信号(アニメーションデータ)を生成し、この映像信号を画像表示部18に出力する。
ここで、静的オブジェクト情報、動的オブジェクト情報、およびカメラオブジェクト情報について説明しておく。
静的オブジェクト情報とは、仮想空間を構成する静的で動きのない画像の元となる複数のオブジェクトの情報である。静的オブジェクト情報は、主に、仮想空間の各静的オブジェクトを構成するポリゴンデータ、およびグラフィックスコンテキストデータから構成される。
動的オブジェクト情報とは、仮想空間内を動くことのできるキャラクタオブジェクトの情報である。動的オブジェクト情報は、主に、すべてのキャラクタ(アバタおよびエージェント)のオブジェクトを構成するポリゴンのバーティクスの座標データ、ポリゴンデータ、及び、グラフィックスコンテキストデータからなる。
カメラオブジェクト情報とは、仮想空間をいずれの視点、すなわち位置および方向からみた状態で3次元画像を生成すべきかを示すオブジェクト情報である。カメラオブジェクト情報は、主に、仮想空間内におけるアバタの現在位置及び向きを表す位置ベクトル情報、視線ベクトル情報から構成される。
画像表示部(キャラクタ表示手段)18は、グラフィック処理部17から出力される映像信号に基づき、その画面に、キャラクタを含む仮想空間を3次元画像で表示するディスプレイである。画像表示部18は、例えば液晶ディスプレイやCRTから構成される。
シミュレータ1の構成における各機能ブロック、特に、処理制御部11、アバタ動作指示部13、エージェント動作指示部14、グラフィック処理部17は、ハードウェアロジックによって構成してもよいし、演算装置(CPUやMPU)を用いてプログラム(ソフトウェア)によって実現してもよい。すなわち、シミュレータ1は、各機能を実現する制御プログラムの命令を実行するCPUの他、記憶部15やROM/マスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリに格納された上記プログラムや関連データ、上記プログラムを展開するRAM(random access memory)などを備え、これらによって、上記各機能ブロックを実現することも可能である。
上記各機能を実現する3次元仮想空間シミュレーションプログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)は、あらかじめシミュレータ1の記憶部15などに格納しておくほか、コンピュータで読み取り可能に記録した記録媒体を通じてシミュレータ1に供給され、シミュレータ1の演算装置が記録媒体に記録されているプログラムコードを読み取り実行させることもできる。なお、上記プログラムコードは、ネットワーク4を介して、シミュレータ1に供給されてもよい。本発明は、上記プログラムコードが電子的な伝送で具現化された搬送波あるいはデータ信号列の形態でも実現され得る。
[3.3次元仮想空間シミュレーションにおけるキャラクタの切り替え]
図2は、ユーザがシミュレータ1を操作する状態を示す外観図である。同図に示されるように、ユーザは、画像表示部18の表示や、音声入出力部16から出力される音声を確認しながら、指示入力部12を操作してシミュレータ1に指示入力を与え、3次元仮想空間シミュレーションに参加する。
図3は、画像表示部18に3次元仮想空間が表示されたときの画面例を示す図である。同図の画面例では、仮想空間において、街頭に登場する3人のキャラクタが描かれている。一般に、3次元仮想空間シミュレータにおいて表示される仮想空間には、複数のキャラクタが登場し、そのキャラクタは、ユーザの入力に応じて動作するアバタ、および自律的に動作するエージェントから構成される。そこで、ユーザは、特定のアバタに指示を与え、そのアバタの視点を通じて仮想空間を体験する。例えば、ユーザは、特定のアバタに指示を与え、仮想空間内を歩いたり、向きを変えたり、他のアバタやエージェントに近づいて話しかけたりすることができる。なお、図3の画面例は、ユーザが指示を与える対象となるアバタの視点からみた状態の仮想空間をあらわすものであるから、ユーザが指示を与える対象となるアバタ自身は表示されていない。ただし、設定に応じて、ユーザが指示を与える対象となるアバタを適宜表示させてもよい。
シミュレータ1において、処理制御部11およびグラフィック処理部17が、アバタ動作指示部13から受信する動作指示データと、エージェント動作指示部14から受信した動作指示データとは、同一のフォーマットから構成されている。すなわち、本発明において、アバタに対する動作指示データとエージェントに対する動作指示データのフォーマット、つまり動作指示インタフェースは共通である。上記動作指示データのフォーマットは、例えば、移動(歩行)速度、体全体の角速度、頭部(視線)の角速度、指差し中の腕の角速度、ジェスチャーの種類などのデータから構成されている。
アバタ動作指示部13は、指示入力部12へのユーザ入力に基づいて、上記フォーマットの動作指示データを生成するために、ユーザ入力と動作指示データとの対応テーブルを備えている。この対応テーブルには、指示入力部12への入力(押圧されたキーの種類など)に応じて、生成すべき動作指示データの内容が予め定められている。[表1]は、上記対応テーブルに定められる、指示入力部12への入力(ここでは、押圧されたキーの種類)と生成すべき動作指示データとの対応例を示したものである。

[表1]
(押圧されたキーの種類) (生成すべき動作指示データ)
上カーソル 移動(歩行)速度を10増やす。
下カーソル 移動(歩行)速度を10減らす。
右カーソル 体全体の角速度を5増やす。
左カーソル 体全体の角速度を5減らす。
「Q」 頭部(視線)の角速度を8増やす。
「W」 頭部(視線)の角速度を8減らす。
「A」 指差し中の腕の角速度を15増やす。
「S」 指差し中の腕の角速度を15減らす。
「1」 番号1(「来い」の仕草)のジェスチャーをする。
「2」 番号2(「止まれ」の仕草)のジェスチャーをする。

一方、エージェント動作指示部14は、後述のように、仮想空間におけるエージェントの動作を自律的に決定し、API(アプリケーションプログラムインタフェース)として定義された制御コマンドを通じて、上記フォーマットの動作指示データを生成する。[表2]は、制御コマンドと生成すべき動作指示データとの対応例を示したものである。

[表2]
(制御コマンド) (生成すべき動作指示データ)
walk(x, y) 移動(歩行)速度,(x, y)は目的地の座標
turn(r) 体全体の角速度,rは向かせたい角度
face(r) 頭部(視線)の角速度,rは向かせたい角度
point(r) 指差し中の腕の角速度,rは向かせたい角度
gesture(k) ジェスチャーの種類,kはジェスチャーの番号

[表1]と[表2]とを対比すれば、アバタ動作指示部13の生成する動作指示データとエージェント動作指示部14の生成する動作指示データとが同一フォーマットとなっていることがわかる。
処理制御部11はこれら動作指示データを受信し、この動作指示データに基づいて、キャラクタの位置(ワールド座標系に人体モデルを配置する座標)、キャラクタの向き(ワールド座標系における人体モデルの角度)などの情報を含む画像表示用VRMLデータを生成する。本実施形態の画像表示用VRMLデータにおいて、各キャラクタは、16個の関節においてポリゴンが結合された構成として表現されている。図4は、各キャラクタが16個の関節においてポリゴンが結合された様子を示す模式図である。同図の表において、「番号」とは各ポリゴンに付与された通し番号を表している。また、同図の表において、「名称」とは、各ポリゴンに付与されたパラメータ名であり、「意味」とは、人体の対応部分に基づいた各ポリゴンの説明である。処理制御部11は、上記動作指示データに基づいて、各キャラクタの各関節を支点としながら、ポリゴンの向きや位置を変化させる。
このようにして、処理制御部11で生成されたVRMLデータは、グラフィック処理部17に送信され、このVRMLデータに基づいて、グラフィック処理部17は、アニメーションデータを生成する。グラフィック処理部17は、このレンダリング処理によってキャラクタと背景とを合成し、3次元画像のアニメーションデータを生成する。
図5は、処理制御部11とグラフィック処理部17との間でのデータ送受信の様子を示す概念図である。同図に示されるように、処理制御部11およびグラフィック処理部17は、アバタ動作指示部13またはエージェント動作指示部14から同一構造(フォーマット)の動作指示データを受け取るインタフェースを備えている。処理制御部11およびグラフィック処理部17は、アバタ動作指示部13から上記動作指示データを受け取った場合には、アバタに関するVRMLデータ(カメラオブジェクト情報および動的オブジェクト情報)を生成・更新する一方、エージェント動作指示部14から上記動作指示データを受け取った場合には、エージェントに関するVRMLデータ(動的オブジェクト情報)を生成・更新する(S41)。
次に、処理制御部11およびグラフィック処理部17は、仮想空間中のキャラクタの動作がより自然なものとなるように、他のキャラクタとの衝突回避補正、歩行先の地形にあわせた歩行速さの補正などを加味して、ステップS41で生成・更新したVRMLデータ(カメラオブジェクト情報および動的オブジェクト情報)を補正する(S42)。
次に、処理制御部11およびグラフィック処理部17は、S42で補正したVRMLデータに基づいて、キャラクタの歩行動作を表現するアニメーションの画像『信号』を生成し(S43)、この画像信号を画像表示部18に出力して上記アニメーションを画面表示させる(S44)。
なお、歩行動作のように、キャラクタがある程度継続的に行う動作については、自然なアニメーション表示を行うために、上記S41〜S44の処理フローは短い時間単位で繰り返されることが好ましい。
以上のように、シミュレータ1において、処理制御部11およびグラフィック処理部17が、アバタ動作指示部13から受信する動作指示データと、エージェント動作指示部14から受信した動作指示データとは、同一のデータ構造から構成されているので、処理制御部11およびグラフィック処理部17が、アバタ動作指示部13から動作指示データを受け取るインタフェースと、エージェント動作指示部14から動作指示データを受け取るインタフェースとを共通としている。
また、処理制御部11およびグラフィック処理部17は、特定のキャラクタをアバタまたはエージェントとして前記仮想空間に表示するものであって、アバタ動作指示部13とエージェント動作指示部14とのいずれから動作指示データを受け取るかを切替可能となっている。すなわち、処理制御部11およびグラフィック処理部17は、アバタ動作指示部13とエージェント動作指示部14とのいずれから動作指示データを受け取るかを切り替えることによって、仮想空間内の特定のキャラクタを、アバタとエージェントとの間で柔軟に変更することが可能となっている。なお、上記の切り替えは、指示入力部12を通じたユーザの指示入力に応じて行われてもよいし、所定時間の経過などあらかじめ定められた条件をみたしたときに自動的に行われてもよい。
[4.エージェントの制御]
次に、エージェント動作指示部14(図1参照)が仮想空間におけるエージェントの動作を自律的に決定する手法について説明する。
図6に示されるように、エージェント動作指示部14と、処理制御部11およびグラフィック処理部17との間では、バッファメモリ50を介して、エージェント動作指示部14が生成した動作指示データと、この動作指示データに基づいて、処理制御部11およびグラフィック処理部17が生成・更新したエージェントの状態情報データ(動的オブジェクト情報)とが交換される。
すなわち、エージェント動作指示部14が、エージェントの動作指示データをバッファメモリ50に書き込むと、この動作指示データは、処理制御部11およびグラフィック処理部17によって読み出される。一方、処理制御部11およびグラフィック処理部17が、生成・更新したエージェントの状態情報データ(動的オブジェクト情報)をバッファメモリ50に書き込むと、この状態情報データは、エージェント動作指示部14に読み取られ、フィードバックされる。
エージェント動作指示部14は、エージェントの動作を制御するための状態情報として、VRMLデータに含まれる各種オブジェクト情報(カメラオブジェクト情報、静的オブジェクト情報、動的オブジェクト情報)と、エージェントの内部状態情報(例えば、知識、感情、性格などをあらわすパラメータ)とを保持している。また、エージェント動作指示部14は、エージェントに適宜「キュー」と呼ばれる観測を動作指示することができる。すなわち、エージェント動作指示部14は、処理制御部11およびグラフィック処理部17に「キュー」データを渡すことによって、上記オブジェクト情報を参照したり、上記オブジェクト情報に基づく判定結果を得たりすることができる。
エージェント動作指示部14は、例えば[表3]に示す「キュー」に基づいて、エージェントに観測を指示することにより、上記オブジェクト情報や上記オブジェクト情報に基づく判定結果を参照する。

[表3]
(キューの種類) (観測内容)
「position」 対象との位置関係
「observe」 対象が実行中の動作内容
「hear」 周囲の音声情報

エージェント動作指示部14は、上記オブジェクト情報および上記内部状態情報をあらかじめ定められた所定のルール(シナリオ)にあてはめることによって、次のエージェントの動作を決定する。すなわち、エージェントの行動ルールは、あらかじめエージェント動作指示部14内にシナリオとして設計されており、エージェント動作指示部14は、その時点の各種オブジェクト情報と、エージェントの内部状態情報とを上記シナリオにあてはめて解釈することによって、処理制御部11およびグラフィック処理部17にエージェントの動作指示データや「キュー」データを順次渡していく。
以上のように、エージェント動作指示部14は、所定のシナリオに基づいて、エージェントの動作指示データを生成するので、上記シナリオの設定によって、エージェントの行動パターンを自由に設計することが容易となっている。また、仮想空間におけるエージェントの動作を、実世界における人間の動作と近づけるように、上記シナリオを設定すれば、シミュレーションの進行内容をより自然なものとすることができる。
[5.共有モードにおけるシミュレーション形態]
3次元仮想空間シミュレータシステム100(図1参照)において、3次元仮想空間シミュレーションは、シミュレータ1のみでも実行することもできるし、シミュレータ1、シミュレータ2、シミュレータ3・・・(図1参照)間で、データ通信を行いながら、3次元仮想空間を共有した状態で実行することもできる。
これまでは、シミュレータ1のみで3次元仮想空間シミュレーションを実行する場合について説明したので、本欄では、シミュレータ1、シミュレータ2、シミュレータ3・・・間で3次元仮想空間を共有した状態で3次元仮想空間シミュレーションを実行する場合(便宜上「共有モード」と称する)のシミュレーション形態について説明する。
共有モードでは、シミュレータ1は、シミュレータ2、シミュレータ3・・・は、各シミュレータの処理制御部11およびグラフィック処理部17が生成するVRMLデータをネットワーク4を介した双方向通信によって共有する。すなわち、各シミュレータは、それぞれの処理制御部11およびグラフィック処理部17(図1参照)が更新したVRMLデータを、ネットワーク4を介したピアツーピア通信によって共有する。
図7は、シミュレータ1〜3が更新したVRMLデータを共有する状態を示す概念図である。同図において、シミュレータ1〜3は、5人のキャラクタが登場する仮想空間を共有しており、これらキャラクタは、シミュレータ1のユーザの操作に応じて、アバタ動作指示部13(図1参照)が動作指示データを生成するアバタ1人、シミュレータ2のエージェント動作指示部14(図1参照)が動作指示データを生成するエージェント1人、シミュレータ3のユーザの操作に応じて、アバタ動作指示部13(図1参照)が動作指示データを生成するアバタ1人、シミュレータ3のエージェント動作指示部14(図1参照)が動作指示データを生成するエージェント2人から構成されている。各シミュレータ1〜3は、処理制御部11およびグラフィック処理部17によって、更新したVRMLデータを、ネットワーク4を介して他のシミュレータに順次送信し、互いが更新したVRMLデータを共有する。このように共有されたVRMLデータに基づいて、シミュレータ1〜3はそれぞれの画像表示部18に3次元画像を表示する。
このように、各シミュレータは、VRMLデータの更新分のみを互いに送受信するので、ネットワーク4を介した通信負担を比較的軽いものとしながら、3次元仮想空間のVRMLデータをほぼリアルタイムで共有することができる。
以上の説明では、各シミュレータはピアツーピア通信でVRMLデータを共有するものとしたが、VRMLデータの通信および共有は、この形態に限られるものではなく、ネットワーク4上に適宜設けられたサーバコンピュータを介して行われてもよい。サーバコンピュータを用いる場合であれば、サーバコンピュータに、各シミュレータから送信される更新データの他、各種の管理情報も登録しておくことが好ましい。サーバコンピュータに登録する管理情報の例としては、各シミュレータのログイン・ログアウト情報や、どのシミュレータが、仮想空間のキャラクタのうち、どのキャラクタに関する動作指示データの生成等を分担するかなどが挙げられる。このような管理情報は、シミュレータと独立したサーバコンピュータではなく、いずれかのシミュレータに登録されていてもよい。
図8は、シミュレータ1、2・・・の間でVRMLデータを共有する共有モードにおいて、VRMLデータに含まれるキャラクタに動作指示を付与する主体を示す概念図である。同図に示される例では、共有されるキャラクタのうち、シミュレータ1では、ユーザがアバタ動作指示部13(図1参照)を通じて1人のキャラクタ(アバタ)に動作指示を付与し、エージェント動作指示部14(図1参照)が2人のキャラクタ(エージェント)に動作指示を付与している一方、シミュレータ2では、ユーザがアバタ動作指示部13(図1参照)を通じて1人のキャラクタ(アバタ)に動作指示を付与している。本発明では、共有モードにおいても、前述のように、各シミュレータにおける処理制御部11およびグラフィック処理部17は、特定のキャラクタをアバタまたはエージェントとして前記仮想空間に表示するものであって、アバタ動作指示部13とエージェント動作指示部14とのいずれから動作指示データを受け取るかを切替可能である。したがって、各シミュレータの処理制御部11およびグラフィック処理部17は、アバタ動作指示部13とエージェント動作指示部14とのいずれから動作指示データを受け取るかを切り替えることによって、仮想空間内の特定のキャラクタを、アバタとエージェントとの間で柔軟に変更することが可能となっている。
なお、共有モードでキャラクタ同士が会話する際、聞き手がアバタ(ユーザ)である場合には、会話は音声(音声データ)を通じて行われることが好ましい一方、聞き手がエージェントである場合には、会話は文字情報(テキストデータ)を通じて行われることが好ましい。図9は、共有モードのシミュレータ間で音声データおよびテキストデータの送受信を行う手法例を示したブロック図である。同図では、各シミュレータをA,B,C,Dで示しており、シミュレータA、Bではエージェントが動作する一方、シミュレータC,Dではアバタが動作しているものとする。したがって、AB間の会話はエージェント対エージェント、BC間の会話はエージェント対アバタ、CD間の会話はアバタ対アバタ、DA間の会話はアバタ対エージェントのものとなる。 同図において、話者の少なくとも一方がエージェントである場合には、シミュレータ間のデータ送受信は、テキストデータによって行っている。すなわち、アバタ対エージェントの会話については、アバタ側(ユーザ)の音声データを音声認識処理によって、テキストデータに変換してから、エージェント側に送信している。
これは、音声データよりもテキストデータの方が解析しやすいためである。一方、アバタ(ユーザ)同士の会話においては、音声データを送受信することによって、ユーザに肉声を通じた会話を行わせ、シミュレーションの現実感を高めるものとしている。これらの会話処理は、各シミュレータの通信処理部10、処理制御部11、および音声入出力部16(図1参照)によって行われる。
[6.避難シミュレーションへの適用例]
最後に、本実施形態の3次元仮想空間シミュレータシステム100(図1参照)を、災害発生時の避難シミュレーションに適用する例を説明する。ここでは、6台のシミュレータを用いた共有モードによって、20人のキャラクタが地下室から脱出するシミュレーション内容を構築した。例えば「避難者が近づいたら出口方向を指さしながら歩く」などの前記シナリオを適宜設計して組み合わせることによって、災害発生時の避難シミュレーションを構築した。
図10は、上記避難シミュレーションの実行中、各シミュレータの画像表示部18(図1参照)に仮想空間を3次元表示した画面例を示す図である。また、図11は、図10と同一の場面を上方向の視点からみた状態で3次元表示した画面例を示す図である。なお、各シミュレータの画像表示部18の画面には、適宜、周囲のキャラクタ位置を確認するための小画面表示であるレーダースクリーンや、本来は表示されない後方の様子を小画面表示する後方視点表示などを表示させてもよい。
次に、シミュレーションの実行中、ユーザによるシミュレータへの入力指示によって、20人のエージェントのうち、特定のエージェントを指定してアバタに切り替えた。全6台のシミュレータによって、この切替作業を行った結果、最終的には、20人のエージェントのうち、6人がアバタとなった。そのままシミュレーションを続行したところ、ユーザは、周囲のキャラクタがアバタなのかエージェントなのかを特別意識することなく、自然な感覚で避難シミュレーションを実行することができた。シミュレーションに参加するユーザを変更しながら、シミュレーションを数十回繰り返したところ、参加するユーザの性格や組み合わせに関係なく、同様の結果を得た。
なお、本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態では、3次元画像の表現にVRML言語を用いたが、データの形式等はこれに
限られるものではなく、適宜の言語・形式を採用することができる。
本発明は、複数のキャラクタが登場する仮想空間を3次元画像で表示する3次元仮想空間シミュレーションに適用できる。特に、災害発生時の避難状態などの大規模シミュレーションに好適である。
本発明の一実施形態に係る3次元仮想空間シミュレータシステム概略構成を示すブロック図である。 ユーザがシミュレータを操作する状態を示す外観図である。 上記3次元仮想空間シミュレータの画像表示部に3次元仮想空間が表示されたときの画面例を示す図である。 キャラクタが16個の関節においてポリゴンが結合されたものとして表現された様子を示す模式図である。 上記3次元仮想空間シミュレータにおける処理制御部およびグラフィック処理部の処理フローを説明する概念図である。 エージェント動作指示部と処理制御部およびグラフィック処理部との間における動作指示データとエージェントの状態情報データとの交換を説明するブロック図である。 複数のシミュレータが更新したVRMLデータを共有する状態を示す概念図である。 共有モードにおいて、VRMLデータに含まれるキャラクタに動作指示を付与する主体を示した概念図である。 共有モードのシミュレータ間で音声データおよびテキストデータの送受信を行う手法例を示したブロック図である。 各シミュレータの画像表示部に仮想空間を3次元表示した画面例を示す図である。 図10と同一の場面を上方向の視点からみた状態で3次元表示した画面例を示す図である。
符号の説明
1 シミュレータ(3次元仮想空間シミュレータ)
2 シミュレータ(3次元仮想空間シミュレータ)
3 シミュレータ(3次元仮想空間シミュレータ)
4 ネットワーク
11 処理制御部(キャラクタ表示手段)
13 アバタ動作指示部(アバタ動作指示手段)
14 エージェント動作指示部(エージェント動作指示手段)
17 グラフィック処理部(キャラクタ表示手段)
18 画像表示部(キャラクタ表示手段)
100 3次元仮想空間シミュレータシステム(3次元仮想空間シミュレータ)

Claims (7)

  1. アバタとエージェントとからなる複数のキャラクタが登場する仮想空間を3次元画像で表示する3次元仮想空間シミュレータであって、
    前記アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、
    前記エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、
    前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、前記各キャラクタを前記仮想空間に表示するキャラクタ表示手段とを備え、
    前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、
    前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとを共通としており、
    さらに、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能であることを特徴とする3次元仮想空間シミュレータ。
  2. ネットワークを介して接続された複数のコンピュータで構成され、前記仮想空間を共有して、3次元画像で表示することを特徴とする請求項1に記載の3次元仮想空間シミュレータ。
  3. 上記複数のキャラクタ同士は、会話可能であり、
    上記各コンピュータは、上記複数のコンピュータ間で会話のデータ送受信する際、話者の一方がエージェントである場合には、アバタ側の音声データを音声認識処理によってテキストデータに変換してから、エージェント側に送信すると共に、アバタ同士の会話においては、音声データを送受信することによって、ユーザに肉声を通じた会話を行わせることを特徴とする請求項2記載の3次元仮想空間シミュレータ。
  4. 請求項1乃至3のいずれか1項に記載の3次元仮想空間シミュレータであって、前記仮想空間において、災害発生時の避難状態をシミュレートすることを特徴とする3次元仮想空間シミュレータ。
  5. コンピュータを、アバタとエージェントとからなる複数のキャラクタが登場する仮想空間を3次元画像で表示する3次元仮想空間シミュレータとして機能させる3次元仮想空間シミュレーションプログラムであって、
    前記コンピュータを、
    前記アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、
    前記エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、
    前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、前記各キャラクタを前記仮想空間に表示するキャラクタ表示手段として機能させると共に、
    前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、
    前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとが共通となっていると共に、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能であることを特徴とする3次元仮想空間シミュレーションプログラム。
  6. ネットワークを介して接続された複数のコンピュータを、アバタとエージェントとからなる複数のキャラクタが登場する仮想空間を共有し、3次元画像で表示する3次元仮想空間シミュレータとして機能させる3次元仮想空間シミュレーションプログラムであって、
    前記複数のコンピュータを、
    前記アバタの動作をユーザの入力に基づいて決定し、その内容を示す動作指示データを生成するアバタ動作指示手段と、
    前記エージェントの動作を自律的に決定し、その内容を示す動作指示データを生成するエージェント動作指示手段と、
    前記アバタ動作指示手段および前記エージェント動作指示手段から受け取る動作指示データに基づいて、前記各キャラクタを前記仮想空間に表示するキャラクタ表示手段として機能させると共に、
    前記アバタに対する動作指示データとエージェントに対する動作指示データのフォーマットとが共通であり、
    前記キャラクタ表示手段は、前記アバタ動作指示手段から動作指示データを受け取るインタフェースと、前記エージェント動作指示手段から動作指示データを受け取るインタフェースとが共通となっていると共に、前記キャラクタ表示手段は、特定のキャラクタを前記アバタまたは前記エージェントとして前記仮想空間に表示するものであって、前記アバタ動作指示手段と前記エージェント動作指示手段とのいずれから動作指示データを受け取るかを切替可能であることを特徴とする3次元仮想空間シミュレーションプログラム。
  7. 請求項5または6に記載の3次元仮想空間シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2003323612A 2003-09-16 2003-09-16 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体 Expired - Fee Related JP3625212B1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2003323612A JP3625212B1 (ja) 2003-09-16 2003-09-16 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体
PCT/JP2004/009973 WO2005029414A1 (ja) 2003-09-16 2004-07-13 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体
CA002538957A CA2538957C (en) 2003-09-16 2004-07-13 Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer readable recording medium where the program is recorded
US10/572,060 US20070075993A1 (en) 2003-09-16 2004-07-13 Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer readable recording medium where the program is recorded
CNB2004800257890A CN100442313C (zh) 2003-09-16 2004-07-13 三维虚拟空间模拟器及其系统
EP04747439A EP1669932A4 (en) 2003-09-16 2004-07-13 THREE-DIMENSIONAL VIRTUAL SPACE SIMULATOR, THREE-DIMENSIONAL VIRTUAL SPACE SIMULATION PROGRAM, AND COMPUTER READABLE RECORDING MEDIUM IN WHICH THE PROGRAM IS RECORDED

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003323612A JP3625212B1 (ja) 2003-09-16 2003-09-16 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP3625212B1 true JP3625212B1 (ja) 2005-03-02
JP2005092459A JP2005092459A (ja) 2005-04-07

Family

ID=34372713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003323612A Expired - Fee Related JP3625212B1 (ja) 2003-09-16 2003-09-16 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体

Country Status (6)

Country Link
US (1) US20070075993A1 (ja)
EP (1) EP1669932A4 (ja)
JP (1) JP3625212B1 (ja)
CN (1) CN100442313C (ja)
CA (1) CA2538957C (ja)
WO (1) WO2005029414A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4761865B2 (ja) * 2005-07-22 2011-08-31 株式会社日立製作所 空間シミュレーションプログラムおよび装置
US7836437B2 (en) * 2006-02-10 2010-11-16 Microsoft Corporation Semantic annotations for virtual objects
US20080086696A1 (en) * 2006-03-03 2008-04-10 Cadcorporation.Com Inc. System and Method for Using Virtual Environments
US9329743B2 (en) * 2006-10-04 2016-05-03 Brian Mark Shuster Computer simulation method with user-defined transportation and layout
US20080215974A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Interactive user controlled avatar animations
JP2009025658A (ja) * 2007-07-20 2009-02-05 Oki Electric Ind Co Ltd 音声合成装置、音声合成システム
US8191001B2 (en) * 2008-04-05 2012-05-29 Social Communications Company Shared virtual area communication environment based apparatus and methods
US20090174656A1 (en) * 2008-01-07 2009-07-09 Rudell Design Llc Electronic image identification and animation system
US20090177976A1 (en) 2008-01-09 2009-07-09 Bokor Brian R Managing and presenting avatar mood effects in a virtual world
US20090193494A1 (en) * 2008-01-30 2009-07-30 International Business Machines Corporation Managing actions of virtual actors in a virtual environment
US8018462B2 (en) * 2008-02-11 2011-09-13 International Business Machines Corporation Pack avatar for shared inventory in a virtual universe
US8145676B2 (en) * 2008-02-11 2012-03-27 International Business Machines Corporation Shared inventory item donation in a virtual universe
US9256898B2 (en) * 2008-02-11 2016-02-09 International Business Machines Corporation Managing shared inventory in a virtual universe
US8103559B2 (en) * 2008-02-15 2012-01-24 International Business Machines Corporation Maintenance of group shared inventories in a virtual universe
US9754234B2 (en) * 2008-02-15 2017-09-05 International Business Machines Corporation Tracking of shared inventory in a virtual universe
US8645846B2 (en) * 2008-02-20 2014-02-04 International Business Machines Corporation Accessibility in virtual worlds using tags
US9063565B2 (en) * 2008-04-10 2015-06-23 International Business Machines Corporation Automated avatar creation and interaction in a virtual world
KR101640458B1 (ko) * 2009-06-25 2016-07-18 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
JP5211401B2 (ja) * 2010-02-15 2013-06-12 豊 塚本 アクセス制御システム、アクセス制御方法およびサーバ
US20110225519A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Social media platform for simulating a live experience
US20110225518A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Friends toolbar for a virtual social venue
US20110239136A1 (en) * 2010-03-10 2011-09-29 Oddmobb, Inc. Instantiating widgets into a virtual social venue
US20110225039A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Virtual social venue feeding multiple video streams
US20110225515A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Sharing emotional reactions to social media
US8667402B2 (en) * 2010-03-10 2014-03-04 Onset Vi, L.P. Visualizing communications within a social setting
US8572177B2 (en) * 2010-03-10 2013-10-29 Xmobb, Inc. 3D social platform for sharing videos and webpages
US20140067869A1 (en) * 2012-08-30 2014-03-06 Atheer, Inc. Method and apparatus for content association and history tracking in virtual and augmented reality
JP2015220574A (ja) * 2014-05-16 2015-12-07 ソニー株式会社 情報処理システム、記憶媒体、およびコンテンツ取得方法
CN105214308B (zh) * 2015-09-02 2018-09-11 网易(杭州)网络有限公司 一种游戏对象的控制方法及系统
US10181986B2 (en) 2015-11-02 2019-01-15 International Business Machines Corporation Action records in virtual space
WO2019051492A1 (en) * 2017-09-11 2019-03-14 Cubic Corporation TOOLS AND ARCHITECTURE OF IMMERSIVE VIRTUAL ENVIRONMENT (IVE)
JP6707111B2 (ja) * 2018-07-25 2020-06-10 株式会社バーチャルキャスト 3次元コンテンツ配信システム、3次元コンテンツ配信方法、コンピュータプログラム
JP2021005157A (ja) * 2019-06-25 2021-01-14 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
US11356393B2 (en) 2020-09-29 2022-06-07 International Business Machines Corporation Sharing personalized data in an electronic online group user session
US10979672B1 (en) * 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
CN112560622B (zh) * 2020-12-08 2023-07-21 中国联合网络通信集团有限公司 虚拟对象动作控制方法、装置及电子设备
JP7167388B1 (ja) 2021-12-24 2022-11-09 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム
US12062113B2 (en) 2022-01-06 2024-08-13 International Business Machines Corporation Dynamic pattern generator

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285380B1 (en) * 1994-08-02 2001-09-04 New York University Method and system for scripting interactive animated actors
US6563503B1 (en) * 1999-05-07 2003-05-13 Nintendo Co., Ltd. Object modeling for computer simulation and animation
US6954728B1 (en) * 2000-05-15 2005-10-11 Avatizing, Llc System and method for consumer-selected advertising and branding in interactive media
JP2001325169A (ja) * 2000-05-15 2001-11-22 Vasara:Kk タグ付き言語を用いたサイバースペースシステム
US6453294B1 (en) * 2000-05-31 2002-09-17 International Business Machines Corporation Dynamic destination-determined multimedia avatars for interactive on-line communications
JP3426571B2 (ja) * 2000-08-04 2003-07-14 株式会社国際電気通信基礎技術研究所 ルール生成装置
JP3948202B2 (ja) * 2000-10-03 2007-07-25 松下電工株式会社 避難仮想体験システム
US7392191B2 (en) * 2001-03-29 2008-06-24 Intellisist, Inc. Method and device to distinguish between voice conversation and automated speech recognition
US7333507B2 (en) * 2001-08-31 2008-02-19 Philip Bravin Multi modal communications system
JP4048347B2 (ja) * 2001-11-09 2008-02-20 ソニー株式会社 三次元仮想空間表示方法、プログラム及びそのプログラムを格納した記録媒体、並びに、三次元仮想空間制御装置
EP1495447A1 (en) * 2002-03-26 2005-01-12 KIM, So-Woon System and method for 3-dimension simulation of glasses
US7568004B2 (en) * 2002-06-20 2009-07-28 Linda Gottfried Method and system for sharing brand information
US20050234340A1 (en) * 2004-03-31 2005-10-20 Brock-Fisher George A Bolus control for contrast imaging with 3D

Also Published As

Publication number Publication date
CA2538957C (en) 2009-01-27
EP1669932A4 (en) 2006-10-25
JP2005092459A (ja) 2005-04-07
EP1669932A1 (en) 2006-06-14
WO2005029414A1 (ja) 2005-03-31
CN100442313C (zh) 2008-12-10
CN1849628A (zh) 2006-10-18
US20070075993A1 (en) 2007-04-05
CA2538957A1 (en) 2005-03-31

Similar Documents

Publication Publication Date Title
JP3625212B1 (ja) 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体
Orlosky et al. Virtual and augmented reality on the 5G highway
JP5405557B2 (ja) コンピュータで生成された三次元仮想環境へのウエブ・コンテンツの取り込み
Rostami et al. The metaverse and beyond: Implementing advanced multiverse realms with smart wearables
Vinayagamoorthy et al. An eye gaze model for dyadic interaction in an immersive virtual environment: Practice and experience
Zikas et al. MAGES 4.0: Accelerating the world’s transition to VR training and democratizing the authoring of the medical metaverse
Soltani et al. Developing a gesture-based game for deaf/mute people using microsoft kinect
Barakonyi et al. Agents that talk and hit back: Animated agents in augmented reality
KR20060082849A (ko) 협력 게임 시스템의 동작 동기화 방법, 이를 적용한 다수의협력 게임 시스템간의 상호간섭 작용 구현 방법 및 협력게임 방법
Nagendran et al. AMITIES: Avatar-mediated interactive training and individualized experience system
US11294453B2 (en) Simulated reality cross platform system
CN111819520A (zh) 空间化触觉设备力反馈
Panagiotidis Virtual reality applications and language learning
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
Nakanishi et al. Freewalk/q: social interaction platform in virtual space
Gomez Immersive virtual reality for learning experiences
WO2024066723A1 (zh) 针对虚拟场景的位置更新方法、设备、介质和程序产品
JP2024016017A (ja) 情報処理システム、情報処理装置およびプログラム
Hartholt et al. Multi-platform expansion of the virtual human toolkit: ubiquitous conversational agents
US12086301B2 (en) System for multi-user collaboration within a virtual reality environment
CN114053693B (zh) 虚拟场景中的对象控制方法、装置及终端设备
Zikas et al. MAGES 4.0: Accelerating the world’s transition to medical VR training
Coburn An analysis of enabling techniques for highly-accessible low-cost virtual reality hardware in the collaborative engineering design process
KR20210133409A (ko) 서버를 통한 아두이노 기기의 원격코딩 및 원격제어를 이용한 온/오프라인 융합형 게임서비스 제공방법
JP7548645B1 (ja) 通信教育システム、通信教育提供方法及び通信教育提供プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041125

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees