JP2003150978A - Three-dimensional virtual space display method, program, and recording medium storing program - Google Patents

Three-dimensional virtual space display method, program, and recording medium storing program

Info

Publication number
JP2003150978A
JP2003150978A JP2001345070A JP2001345070A JP2003150978A JP 2003150978 A JP2003150978 A JP 2003150978A JP 2001345070 A JP2001345070 A JP 2001345070A JP 2001345070 A JP2001345070 A JP 2001345070A JP 2003150978 A JP2003150978 A JP 2003150978A
Authority
JP
Japan
Prior art keywords
participant
avatar
dimensional virtual
virtual space
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001345070A
Other languages
Japanese (ja)
Other versions
JP2003150978A5 (en
JP4048347B2 (en
Inventor
Koichi Matsuda
晃一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001345070A priority Critical patent/JP4048347B2/en
Publication of JP2003150978A publication Critical patent/JP2003150978A/en
Publication of JP2003150978A5 publication Critical patent/JP2003150978A5/ja
Application granted granted Critical
Publication of JP4048347B2 publication Critical patent/JP4048347B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To autonomously change a viewpoint of an avatar without necessitating the operation of a terminal of a participator. SOLUTION: A first algorithm displays the avatar, or the other self of each participant in participating a three-dimensional virtual space, in the three- dimensional virtual space, allows a terminal of each participant to respond thereto, and changes the display position or the viewpoint of the avatar of the participant, and displays a speech message inputted from the terminal of an arbitrary participant in the three-dimensional virtual space corresponding to the avatar of the participant, or is applied to the three-dimensional virtual space display method displaying a prescribed message board. This method includes a first step (S18) specifying the position of the avatar of the participant corresponding to the speech message in the three-dimensional virtual space and a second step (S20) making the viewpoint of the avatar of another participant to direct to the specified position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、三次元仮想空間表
示方法、プログラム及びそのプログラムを格納した記録
媒体に関する。詳しくは、三次元仮想空間に参加した参
加者の視線が、注目相手(たとえば、発話者または会話
したい相手)の方向に自然に向くように改良した三次元
仮想空間表示方法、プログラム及びそのプログラムを格
納した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional virtual space display method, a program, and a recording medium storing the program. Specifically, a three-dimensional virtual space display method, program, and its program improved so that the line of sight of a participant who participates in the three-dimensional virtual space is naturally directed toward the target person (for example, the speaker or the person who wants to talk). The present invention relates to a stored recording medium.

【0002】[0002]

【従来の技術】従来より、インターネットを介して接続
された参加者の端末に仮想世界(Virtual Wo
rld)を模した三次元仮想空間画像を表示し、その空
間内に「アバタ」(avatar:インド神話に登場す
る神の化身)と呼ばれる、参加者の分身オブジェクトを
配し、そのアバタを参加者が操作することにより、仮想
世界内を自由に歩き回ったり、他の参加者と会話を交わ
したりできる、いわゆるサイバー・スペース・サービス
・システムが知られている(たとえば、特開平9−81
781号公報、特開2000−14282号公報)。
2. Description of the Related Art Conventionally, a virtual world (Virtual World) is provided to a participant's terminal connected via the Internet.
3D virtual space image imitating rld) is displayed, and a participant's alter ego object called "avatar" (incarnation of god appearing in Indian mythology) is arranged in the space, and the avatar is the participant. There is known a so-called cyber space service system in which a user can freely walk around in a virtual world and have a conversation with other participants by operating the device (for example, Japanese Patent Laid-Open No. 9-81).
781 and Japanese Patent Laid-Open No. 2000-14182).

【0003】図12は、かかるサイバー・スペース・サ
ービス・システムによって提供される三次元仮想空間の
一例を示す図である。この図において、画面201は、
ある参加者(便宜的に「参加者A」という)の端末に表
示された仮想世界の画像である。この画面201には、
背景画像(図では町並みと右奥の山)の前に、複数のア
バタ202、203とペット204、205が配置され
ている。アバタ202、203はそれぞれ他の参加者
(以下「参加者B」と「参加者C」という)の分身であ
り、また、ペット204、205はそれらの参加者B及
び参加者Cのエージェント(アバタごとに出現するオブ
ジェクトのこと)である。
FIG. 12 is a diagram showing an example of a three-dimensional virtual space provided by such a cyber space service system. In this figure, the screen 201 is
It is an image of a virtual world displayed on a terminal of a participant (for convenience, referred to as “participant A”). On this screen 201,
A plurality of avatars 202 and 203 and pets 204 and 205 are arranged in front of a background image (a townscape and a mountain on the far right in the figure). The avatars 202 and 203 are alternations of other participants (hereinafter referred to as “participant B” and “participant C”), and the pets 204 and 205 are agents (avatars) of those participants B and C, respectively. Object that appears for each).

【0004】ここで、図示の構図は、参加者Aの視点か
ら見たときの絵である。すなわち、参加者Aは、現在、
町並みと右奥の山を見渡す丘に立っており、この丘の上
には、参加者Aの他に、参加者B、Cのアバタ202、
203とそれらのエージェント(ペット204、20
5)が存在している。なお、画面201には、参加者A
のアバタは表示されていない。これは、現在、アバタの
視点から見るモードを選択しているからである。別の視
点モードを選択することにより、参加者Aのアバタを画
面201に表示させることも可能である。また、参加者
Aのエージェントも存在するが、今は、画面201の外
に位置していて見えていない。
Here, the illustrated composition is a picture as seen from the viewpoint of the participant A. That is, the participant A is currently
Standing on a hill overlooking the cityscape and the mountains in the far right, on top of this hill, in addition to participant A, participants B and C's avatars 202,
203 and their agents (pets 204, 20
5) exists. In addition, on the screen 201, the participant A
The avatar of is not displayed. This is because the mode currently viewed from the avatar's point of view is selected. The avatar of the participant A can be displayed on the screen 201 by selecting another viewpoint mode. There is also an agent of the participant A, but now it is located outside the screen 201 and cannot be seen.

【0005】さて、すべてのアバタは既述のとおり参加
者の分身である。すなわち、画面201の視点の元にな
る非表示のアバタは参加者Aの分身であり、また、アバ
タ202は参加者Bの分身、アバタ203は参加者Cの
分身である。各参加者は、自分の端末を操作して画面2
01の分身(アバタ)の位置を移動させたり、視点を変
えたりすることができる。さらに、画面201にメッセ
ージを送ることもできる。それらの操作結果は、自分の
端末はもちろんのこと、他の参加者の端末にも同様に反
映されるようになっており、同じ仮想世界を複数の参加
者で共有できる仕組みになっている。
Now, all avatars are the alter ego of the participants as described above. That is, the hidden avatar that is the basis of the viewpoint of the screen 201 is the altercation of the participant A, the avatar 202 is the altercation of the participant B, and the avatar 203 is the altercation of the participant C. Each participant operates their own terminal to display screen 2
It is possible to move the position of the avatar of 01 and change the viewpoint. Furthermore, a message can be sent to the screen 201. The results of those operations are reflected in the terminals of other participants as well as in their own terminals, so that the same virtual world can be shared by multiple participants.

【0006】たとえば、画面201には、参加者Cのメ
ッセージ(“こんにちは>花子さん”)206と参加者
Bの返信メッセージ(“はい、こんにちは”)207が
それぞれのアバタの上に表示されている。“花子”は参
加者Bのニックネーム(チャットネームまたはハンドル
ネームともいう)、“太郎”は参加者Cのニックネーム
である。メッセージ206は参加者C(太郎さん)の端
末から送信されたもの、メッセージ207は参加者B
(花子さん)の端末から送信されたものであり、これら
のメッセージ206、207を含む画面201は、仮想
世界にアクセスしているすべての参加者(参加者A〜
C)の端末に等しく表示される。
[0006] For example, in the screen 201, ( "Yes, hello") message ( "Hello>Hanako") 206 and the participant B of the reply message of the participants C 207 is displayed on each of the avatar . “Hanako” is the nickname of the participant B (also called chat name or handle name), and “Taro” is the nickname of the participant C. Message 206 is sent from the terminal of participant C (Mr. Taro), and message 207 is participant B.
The screen 201 including the messages 206 and 207, which is transmitted from the terminal of (Hanako-san), has all the participants (participants A to A) who are accessing the virtual world.
It is displayed equally on the terminal of C).

【0007】また、参加者Aの(アバタの)視線を変え
たい場合、参加者Aは画面201の下側に表示されたコ
ントロールパネル208を操作する。
When the participant A wants to change the line of sight of the avatar, the participant A operates the control panel 208 displayed on the lower side of the screen 201.

【0008】図13は、コントロールパネル208の拡
大図及び用途説明図である。コントロールパネル208
には、用途ごとにデザインされた複数のスイッチオブジ
ェクト208a〜208mが配置されている。左から順
にその用途を説明すると、たとえば、スイッチオブジェ
クト208aは視点仰角変更用、スイッチオブジェクト
208bは視点俯角変更用、スイッチオブジェクト20
8cは視点左旋回用、スイッチオブジェクト208dは
視点前方移動用、スイッチオブジェクト208eは視点
後方移動用、スイッチオブジェクト208fは視点右旋
回用、スイッチオブジェクト208gは視点左水平移動
用、スイッチオブジェクト208hは視点高度上昇用、
スイッチオブジェクト208iは視点右水平移動用、ス
イッチオブジェクト208jは視点高度下降用、スイッ
チオブジェクト208kは視点小連続旋回用、スイッチ
オブジェクト208mは視点大連続旋回用である。
FIG. 13 is an enlarged view of the control panel 208 and an application explanatory view. Control panel 208
Has a plurality of switch objects 208a to 208m designed for each purpose. Describing the uses in order from the left, for example, the switch object 208a is for changing the viewpoint elevation angle, the switch object 208b is for changing the viewpoint depression angle, and the switch object 20.
8c is for turning the viewpoint left, switch object 208d is for moving the viewpoint forward, switch object 208e is for moving the viewpoint backward, switch object 208f is for turning the viewpoint right, switch object 208g is for moving the viewpoint left horizontal, and switch object 208h is the viewpoint. For altitude increase,
The switch object 208i is for horizontally moving the viewpoint to the right, the switch object 208j is for descending the altitude of the viewpoint, the switch object 208k is for continuously rotating small viewpoint, and the switch object 208m is for continuously rotating large viewpoint.

【0009】図において、参加者Aのアバタ209は、
「単純化立姿図形」と「俯瞰図形」の二種類で表してあ
る。丸形状の俯瞰図形は、アバタ209の頭部を俯瞰し
て見た形を単純化したものであり、俯瞰図形の矢印記号
は視線方向(すなわち顔の正面方向)を表している。
In the figure, the avatar 209 of the participant A is
It is represented by two types: "simplified standing figure" and "overhead figure". The circular bird's-eye view graphic is a simplified view of the head of the avatar 209, and the arrow symbol of the bird's-eye view graphic represents the direction of the line of sight (that is, the front direction of the face).

【0010】参加者Aがスイッチオブジェクト208a
をクリック(マウス等のポインティングデバイスによる
クリック操作;以下同様)すると、アバタ209の視線
が頭上を見上げる方向に変化し、これに伴い、画面20
1の構図が変化する。同様にスイッチオブジェクト20
8bをクリックすると、同視線が足下を見下ろす方向に
変化し、また、スイッチオブジェクト208cをクリッ
クすると、アバタ209の体軸が反時計回りに回転(同
方向に視点移動)する。また、スイッチオブジェクト2
08dをクリックすると、アバタ209が前進し、スイ
ッチオブジェクト208eをクリックすると、アバタ2
09が後退する。また、スイッチオブジェクト208f
をクリックすると、アバタ209の体軸が時計回りに回
転しスイッチオブジェクト208gをクリックすると、
アバタ209が左方向に水平移動する。またスイッチオ
ブジェクト208hをクリックすると、アバタ209の
視点位置が高く(あたかも空中に浮かんだように)なり
スイッチオブジェクト208iをクリックすると、逆に
視点位置が低くなり、さらにスイッチオブジェクト20
8jをクリックすると、アバタ209が右方向に水平移
動する。
The participant A is the switch object 208a.
When clicking (clicking operation with a pointing device such as a mouse; the same applies below), the line of sight of the avatar 209 changes to look up overhead, and accordingly, the screen 20
The composition of 1 changes. Similarly, switch object 20
When 8b is clicked, the same line of sight changes to look down at the feet, and when the switch object 208c is clicked, the body axis of the avatar 209 rotates counterclockwise (viewpoint moves in the same direction). Also, switch object 2
If you click 08d, the avatar 209 advances, and if you click the switch object 208e, the avatar 2
09 will retreat. Also, the switch object 208f
When you click, the axis of the avatar 209 rotates clockwise, and when you click the switch object 208g,
The avatar 209 horizontally moves to the left. Further, when the switch object 208h is clicked, the viewpoint position of the avatar 209 becomes high (as if floating in the air), and when the switch object 208i is clicked, the viewpoint position becomes low, and further, the switch object 20h.
When 8j is clicked, the avatar 209 horizontally moves to the right.

【0011】したがって、たとえば、参加者Aの(アバ
タ209の)視線を参加者B(アバタ202)の方向に
向けたい(正対させたい)場合は、参加者Aは、視点左
旋回用のスイッチオブジェクト208cをクリックし、
画面201の真ん中に参加者B(アバタ202)が来る
ように構図を微調整すればよい。または、視点左水平移
動用のスイッチオブジェクト208gをクリックしても
よい。この場合、参加者A(のアバタ)は左移動するの
で、その移動量を微調整することにより、参加者B(ア
バタ202)の正面に位置させることができる。
Therefore, for example, when it is desired to direct the participant A's line of sight (of the avatar 209) to the direction of the participant B's (avatar 202) (to directly face the participant), the participant A uses a switch for turning the viewpoint to the left. Click the object 208c,
The composition may be finely adjusted so that the participant B (avatar 202) is in the center of the screen 201. Alternatively, the switch object 208g for horizontally moving the viewpoint left may be clicked. In this case, since the participant A (the avatar of the avatar) moves left, the participant A (avatar 202) can be positioned in front of the participant B by finely adjusting the amount of movement.

【0012】このように、参加者の端末を操作すること
により、自分の分身(参加者Aにああってはアバタ20
9、参加者Bにあってはアバタ202、参加者Cにあっ
てはアバタ203)の仮想世界における視点を自由自在
に変化させることができ、あたかも自らがその仮想世界
に存在するかのようなバーチャル・リアリティーを味わ
うことができる。
In this way, by operating the participant's terminal, his or her own altercation (for participant A, avatar 20
9, the avatar 202 for the participant B and the avatar 203 for the participant C) can freely change their viewpoints in the virtual world, and it is as if they were in the virtual world. You can enjoy virtual reality.

【0013】[0013]

【発明が解決しようとする課題】しかしながら、上記従
来の技術にあっては、いちいちコントロールパネル20
8を操作してアバタの視点を変えなければならないた
め、操作が面倒であるという問題点があった。
However, in the above-mentioned conventional technique, the control panel 20 is not always used.
Since it is necessary to operate 8 to change the viewpoint of the avatar, there is a problem that the operation is troublesome.

【0014】そこで、本発明が解決しようとする課題
は、現実の世界では、たとえば、近くの人の声に反応し
てその声の方向に視線を向けるのが自然な振る舞いであ
ることに着目し、かかる仕組みをアルゴリズムとして取
り入れることにより、参加者の端末操作を必要とするこ
となく、アバタの視点を自律的に変更できるようにし、
以て、操作性の大幅な改善を図った三次元仮想空間表示
方法、プログラム及びそのプログラムを格納した記録媒
体を提供することを目的とする。
In view of the above, the problem to be solved by the present invention is that, in the real world, for example, it is a natural behavior to react to the voice of a nearby person and direct his or her gaze in the direction of the voice. By incorporating such a mechanism as an algorithm, it is possible to change the avatar's viewpoint autonomously without the need for participant's terminal operation.
Thus, it is an object of the present invention to provide a three-dimensional virtual space display method, a program, and a recording medium storing the program, the operability of which is greatly improved.

【0015】[0015]

【課題を解決するための手段】一の発明は、三次元仮想
空間に参加中の各参加者自身の分身であるアバタを当該
三次元仮想空間内に表示し、各参加者の端末操作に応答
させてその参加者のアバタの表示位置やアバタの視点を
変更すると共に、任意の参加者の端末から入力された発
話メッセージを、その参加者のアバタに対応させて前記
三次元仮想空間内に表示し、または所定のメッセージボ
ードに表示する三次元仮想空間表示方法において、前記
発話メッセージに対応する参加者のアバタの前記三次元
仮想空間内における位置を特定する第1ステップと、他
の参加者のアバタの視線を前記特定した位置に指向させ
る第2ステップとを含むというものである。
[Means for Solving the Problems] One invention is to display an avatar, which is the alter ego of each participant participating in the three-dimensional virtual space, in the three-dimensional virtual space and respond to the terminal operation of each participant. Change the display position of the participant's avatar and the viewpoint of the avatar, and display the utterance message input from the terminal of any participant in the three-dimensional virtual space in correspondence with the participant's avatar. Or in a three-dimensional virtual space display method of displaying on a predetermined message board, the first step of specifying the position of the avatar of the participant corresponding to the utterance message in the three-dimensional virtual space, and the other participant's avatar. A second step of directing the avatar's line of sight to the specified position.

【0016】この発明では、任意の参加者の端末からの
発話メッセージに基づいて、その発話メッセージに対応
する参加者のアバタの三次元仮想空間内における位置が
特定され、他の参加者のアバタの視線が前記特定された
位置に指向させられる。
In the present invention, the position of the avatar of the participant corresponding to the utterance message in the three-dimensional virtual space is specified based on the utterance message from the terminal of the arbitrary participant, and the avatars of other participants are specified. The line of sight is directed to the specified position.

【0017】また、一の発明の好ましい態様は、前記発
話メッセージに対応する参加者のアバタと他の参加者の
アバタの距離が所定の制限距離以内の場合に、他の参加
者のアバタの視線を前記特定した位置に指向させるとい
うものである。
Further, in a preferred aspect of the invention, when the distance between the avatar of the participant corresponding to the utterance message and the avatar of the other participant is within a predetermined limit distance, the line of sight of the avatar of the other participant. Is directed to the specified position.

【0018】この発明の好ましい態様では、前記発話メ
ッセージに対応する参加者のアバタと他の参加者のアバ
タの距離が所定の制限距離以内の場合にのみ、他の参加
者のアバタの視線が前記特定された位置に指向させられ
る。
[0018] In a preferred aspect of the present invention, the line of sight of the avatars of the other participants is only when the distance between the avatars of the participants corresponding to the speech message and the avatars of the other participants is within a predetermined limit distance. It is directed to the specified position.

【0019】二の発明は、三次元仮想空間に参加中の各
参加者自身の分身であるアバタを当該三次元仮想空間内
に表示し、各参加者の端末操作に応答させてその参加者
のアバタの表示位置やアバタの視点を変更すると共に、
任意の参加者の端末から入力された発話メッセージを、
その参加者のアバタに対応させて前記三次元仮想空間内
に表示し、または所定のメッセージボードに表示する三
次元仮想空間表示方法において、前記発話メッセージに
発話相手に関する情報が含まれているか否かを判定する
第1ステップと、前記判定の結果が肯定のとき前記情報
に基づいて発話相手のアバタを特定する第2ステップ
と、その発話相手のアバタの前記三次元仮想空間内にお
ける位置を特定する第3ステップと、前記発話メッセー
ジに対応する参加者のアバタの視線を前記特定した位置
に指向させる第4ステップとを含むというものである。
In the second invention, an avatar, which is the alter ego of each participant participating in the three-dimensional virtual space, is displayed in the three-dimensional virtual space, and the participant's terminal operation is made to respond to that participant. While changing the display position of the avatar and the viewpoint of the avatar,
The speech message input from the terminal of any participant,
In the three-dimensional virtual space display method of displaying in the three-dimensional virtual space corresponding to the avatar of the participant or displaying on a predetermined message board, whether or not the utterance message includes information about the utterance partner And a second step of identifying the utterance partner's avatar based on the information when the result of the determination is affirmative, and the position of the utterance partner's avatar in the three-dimensional virtual space. The third step and the fourth step of directing the line of sight of the avatar of the participant corresponding to the speech message to the specified position are included.

【0020】この発明では、任意の参加者の端末からの
発話メッセージに発話相手に関する情報が含まれている
とき、その情報に基づいて発話相手のアバタが特定され
ると共に、その発話相手のアバタの前記三次元仮想空間
内における位置が特定され、前記発話メッセージに対応
する参加者のアバタの視線が前記特定された位置に指向
させられる。
According to the present invention, when the utterance message from the terminal of any participant includes information about the utterance partner, the avatar of the utterance partner is specified based on the information, and the avatar of the utterance partner is specified. A position in the three-dimensional virtual space is specified, and the line of sight of the avatar of the participant corresponding to the speech message is directed to the specified position.

【0021】また、二の発明の好ましい態様は、前記発
話相手のアバタと前記発話メッセージに対応する参加者
のアバタの距離が所定の制限距離以内の場合に、前記発
話メッセージに対応する参加者のアバタの視線を前記特
定した位置に指向させるというものである。
Further, in a preferred aspect of the second invention, when the distance between the utterance partner avatar and the participant avatar corresponding to the utterance message is within a predetermined limit distance, the participant corresponding to the utterance message is This is to direct the avatar's line of sight to the specified position.

【0022】この発明の好ましい態様では、前記発話相
手のアバタと前記発話メッセージに対応する参加者のア
バタの距離が所定の制限距離以内の場合にのみ、前記発
話メッセージに対応する参加者のアバタの視線が前記特
定された位置に指向させられる。
In a preferred aspect of the present invention, the avatars of the participants corresponding to the utterance message are set only when the distance between the avatar of the utterance partner and the avatars of the participants corresponding to the utterance message is within a predetermined limit distance. The line of sight is directed to the specified position.

【0023】[0023]

【発明の実施の形態】以下、本発明の実施の形態を、図
面を参照しながら説明する。なお、以下の説明における
様々な細部の特定ないし実例および数値や文字列その他
の記号の例示は、本発明の思想を明瞭にするための、あ
くまでも参考であって、それらのすべてまたは一部によ
って本発明の思想が限定されないことは明らかである。
また、周知の手法、周知の手順、周知のアーキテクチャ
および周知の回路構成等(以下「周知事項」)について
はその細部にわたる説明を避けるが、これも説明を簡潔
にするためであって、これら周知事項のすべてまたは一
部を意図的に排除するものではない。かかる周知事項は
本発明の出願時点で当業者の知り得るところであるの
で、以下の説明に当然含まれている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. It should be noted that the identification of various details in the following description or examples and examples of numerical values, character strings, and other symbols are merely references for clarifying the idea of the present invention, and may be used by all or a part of them. Obviously, the inventive idea is not limited.
In addition, a detailed description of well-known methods, well-known procedures, well-known architectures, well-known circuit configurations, and the like (hereinafter referred to as “well-known matters”) will be omitted, but this is also for the sake of brevity and these well-known matters. It does not intentionally exclude all or part of the matter. Such a well-known matter can be known to those skilled in the art at the time of filing the present invention, and is naturally included in the following description.

【0024】図1は、本発明に係る「三次元仮想空間表
示方法」を適用できるネットワーク・コンピューティン
グ・システム1の構成を模式的に示した図である。この
ネットワーク・コンピューティング・システム1上で
は、三次元仮想空間(以下「三次元仮想世界」または単
に「仮想世界」ともいう)に展開されるコミュニティ・
システムが構築・提供される。このコミュニティ・シス
テムは、後述するように、三次元仮想空間を表示し、ナ
ビゲーションするブラウザ(後述のCPブラウザ)と、
三次元仮想空間を各参加者同士で共有できるように管理
する共有仮想世界サーバ(後述のCPサーバ)と、共有
アプリケーション開発環境であるAO(Applica
tionObject)という3つの要素で構成され
る。
FIG. 1 is a diagram schematically showing the configuration of a network computing system 1 to which the “three-dimensional virtual space display method” according to the present invention can be applied. On this network computing system 1, a community that is developed in a three-dimensional virtual space (hereinafter also referred to as “three-dimensional virtual world” or simply “virtual world”)
System is constructed and provided. As will be described later, this community system displays a three-dimensional virtual space, and a browser (CP browser described later) for navigation,
A shared virtual world server (CP server described later) that manages the three-dimensional virtual space so that each participant can share it, and AO (Application) that is a shared application development environment.
It is composed of three elements, that is, a (regionObject).

【0025】ネットワーク・コンピューティング・シス
テム1には、無数のコンピュータ・システムが接続され
ている。これらコンピュータ・システムは、世界中に散
在しており、一部のコンピュータは各種のサービスを有
償または無償で提供する「サーバ」として稼動し、他の
一部はサーバに対してサービスを要求する「クライアン
ト」として稼動している。
Innumerable computer systems are connected to the network computing system 1. These computer systems are scattered all over the world, and some computers operate as "servers" that provide various services for a fee or free of charge, and some others request services from the servers. Running as a client.

【0026】また、ネットワーク・コンピューティング
・システム1は、通信媒体として、インターネット2
や、その他の小規模ネットワークとしてのLAN(Lo
calArea Network)3a、3b、・・・・、
各国の電話会社が構築・提供する公衆電話網4などを含
む。それぞれのLAN3a、3b、・・・・の実体は、単一
のネットワーク・セグメントであっても、あるいは複数
のセグメントがルータで接続された構成であってもよ
い。
The network computing system 1 uses the Internet 2 as a communication medium.
LAN as other small networks (Lo (Lo
calArea Network) 3a, 3b, ...
It includes the public telephone network 4 constructed and provided by the telephone companies in each country. Each of the LANs 3a, 3b, ... May be a single network segment or a configuration in which a plurality of segments are connected by a router.

【0027】インターネット2やそれぞれのLAN3
a、3b、・・・・は、ルータ5a、5b、・・・・等を経由し
て相互接続されている。インターネット2の実体は、L
AN3a、3b、・・・・のサーバ同士が相互接続を繰り返
した結果として世界規模に成長し巨大ネットワークであ
る。これらインターネット2やLAN3a、3b、・・・・
上のサーバ同士は、たとえば、TCP/IP(Tran
smission Control Protocol/
Internet Protocol)などの所定の通
信プロトコルに従って相互アクセスが可能となってい
る。
Internet 2 and each LAN 3
A, 3b, ... Are interconnected via routers 5a, 5b ,. The substance of Internet 2 is L
The servers of the ANs 3a, 3b, ... Are growing as a result of repeated interconnections with each other to become a huge network. These Internet 2, LAN 3a, 3b, ...
For example, TCP / IP (Trans
mission Control Protocol /
Mutual access is possible according to a predetermined communication protocol such as Internet Protocol.

【0028】また、インターネット2やLAN3a、3
b、・・・・などのネットワークと、公衆電話網4とは、ゲ
ートウェイ・システム(G/W)6によって相互接続さ
れている。公衆電話網4には、たとえば、PSTN(P
ublic Switched Telephone N
etwork)やISDN(IntegratedSe
rvice Digital Network)が含まれ
る。
The Internet 2, LANs 3a, 3
.., etc. and the public telephone network 4 are interconnected by a gateway system (G / W) 6. In the public telephone network 4, for example, PSTN (P
public Switched Telephone N
network) and ISDN (Integrated Se)
rvice Digital Network).

【0029】公衆電話網4は、さらに無数の交換局や端
局(図示しない)を擁し、末端には一般家庭などに設置
された加入電話機が接続されている。また、公衆電話網
4には、さらに、携帯電話サービス・プロバイダ、PH
S(Personal Handyphone Syst
em)サービス・プロバイダなど、無線通信サービスを
提供する多数のキャリアによって、多数の無線電話網が
敷設されている。
The public telephone network 4 further has an infinite number of exchanges and terminals (not shown), and subscriber telephones installed in ordinary households are connected to the ends. Further, the public telephone network 4 is further provided with a mobile telephone service provider, PH
S (Personal Handyphone System
em) Many wireless telephone networks are laid by many carriers that provide wireless communication services, such as service providers.

【0030】インターネット2上のコンピュータ・シス
テム(LAN経由でインターネット2接続されているコ
ンピュータを含む)は、インターネット2上で識別可能
なIPアドレスが割り当てられており、このIPアドレ
スは各コンピュータとインターネット2との論理的な接
続点となる。
A computer system on the Internet 2 (including a computer connected to the Internet 2 via a LAN) is assigned an IP address that can be identified on the Internet 2, and this IP address is assigned to each computer and the Internet 2. It becomes a logical connection point with.

【0031】また、インターネット2上には、専用線に
よるIP接続を行うことができない一般ユーザのため
に、インターネット2への接続サービスを提供する通信
事業者、いわゆる「インターネット・サービス・プロバ
イダ」(ISP)が存在する。営利のインターネット・
サービス・プロバイダは、第2種電気通信事業者の登録
・届出が必要である。インターネット・サービス・プロ
バイダの一例は、「So−net」である。一般ユーザ
は、サービス・プロバイダが設置するサーバすなわち
「アクセス・ポイント」(AP)2a〜2dにダイヤル
アップすることにより、インターネット2へのIP接続
を行うことができる。また、今日のインターネット・サ
ービス・プロバイダは、DSL(Digital Su
bscriber Line)やCATV(Commu
nity Antenna TeleVision)な
どを用いて定額制の24時間接続サービスを提供してい
るところが多い。このような常時接続サービスを利用す
る一般ユーザは、接続の都度、いちいちダイヤルアップ
する必要がない。
On the Internet 2, a telecommunications carrier providing a connection service to the Internet 2, a so-called "Internet service provider" (ISP), for general users who cannot make an IP connection by a dedicated line. ) Exists. Commercial Internet
The service provider is required to register and notify the type 2 telecommunications carrier. An example of an internet service provider is "So-net". A general user can make an IP connection to the Internet 2 by dialing up to a server installed by a service provider, that is, "access points" (AP) 2a to 2d. In addition, today's Internet service providers use DSL (Digital Su
bscriber Line) and CATV (Commu)
Many companies offer a flat-rate 24-hour connection service using, for example, "Nature Antenna TeleVision". A general user who uses such an always-on service does not need to dial up every time he / she connects.

【0032】専用線または任意のインターネット・サー
ビス・プロバイダ経由でインターネット2に接続された
一般ユーザの端末(以下「ユーザPC」という)7a、
7b、7c、・・・・は、インターネット2上では、主とし
て「クライアント」として稼動し、WWW(World
Wide Web)サーバやその他のサーバに対して所
要のサービスの提供を要求することができる。
A general user terminal (hereinafter referred to as "user PC") 7a connected to the Internet 2 via a leased line or any Internet service provider,
, 7b, 7c, ... Operate mainly as “clients” on the Internet 2, and WWW (World
Wide Web) servers and other servers can be requested to provide required services.

【0033】インターネット・サービス・プロバイダ
は、一般に、インターネット2への接続サービス以外に
も、チャットやBBS(Bulletin Board
System:電子掲示板システム)、電子メールなど
の各種アプリケーションをインターネット2上で提供し
ている。もちろん、インターネット・サービス・プロバ
イダ以外の各種の運営母体がチャットやBBS、電子メ
ール等のインターネット2・アプリケーションを提供す
ることも可能である。
In general, the Internet service provider, in addition to the connection service for connecting to the Internet 2, may use chat or BBS (Bulletin Board).
System: electronic bulletin board system), various applications such as electronic mail are provided on the Internet 2. Of course, various operating bodies other than the Internet service provider can provide Internet 2 applications such as chat, BBS, and electronic mail.

【0034】図1に示す例では、LAN3aを運営する
インターネット・サービス・プロバイダが、本実施の形
態に係るコミュニティ・システム、すなわち、三次元仮
想世界上において各ユーザが分身としての「アバタ」を
介してチャットなどの擬似コミュニケーションを楽しむ
ことができるコミュニティ・システム・サービスを提供
しているものとする。
In the example shown in FIG. 1, the Internet service provider operating the LAN 3a uses the community system according to the present embodiment, that is, each user via the "avatar" as an alternation in the three-dimensional virtual world. We provide a community system service that enables users to enjoy simulated communication such as chat.

【0035】「チャット」(chat)とは、インター
ネット2を介して遠隔ユーザ間でリアルタイムのコミュ
ニケーションを行うサービスのことであり、特に、三次
元チャットは、三次元グラフィックスを用いて描画され
た三次元仮想空間上で各ログイン・ユーザ(以下「参加
者」という)が自分の分身である「アバタ」を送り込ん
で、リアルタイムのコミュニケーションを行う環境を提
供するサービスである。WWWシステム上の三次元仮想
世界、すなわちコミュニティ・システムは、たとえば、
ISO(International Organiz
ation forStandardization)
標準のVRML(Virtual Reality Mo
deling Language)で記述することがで
き、また、Java(登録商標)を用いてその動作記述
を行うことができる。また、かかる三次元仮想世界は、
VRMLブラウザ(後述)を用いて表示し、ナビゲーシ
ョンすることができる。
The "chat" is a service for performing real-time communication between remote users via the Internet 2. In particular, the three-dimensional chat is a tertiary drawing rendered using three-dimensional graphics. This service provides an environment in which each logged-in user (hereinafter referred to as a "participant") sends his or her own "avatar" in the original virtual space to perform real-time communication. A three-dimensional virtual world on the WWW system, that is, a community system is, for example,
ISO (International Organization)
ation for Standardization)
Standard VRML (Virtual Reality Mo)
It is possible to describe the behavior by using Java (registered trademark). In addition, such a three-dimensional virtual world,
It can be displayed and navigated using a VRML browser (described later).

【0036】LAN3a上には、三次元仮想世界をイン
ターネット2上に構築・提供したり、この三次元仮想世
界上での各種の社会活動を行う環境を提供して、同三次
元仮想世界を管理するための共有仮想世界(CP:Co
mmunity Place)サーバ(以下「CPサー
バ」という)8や、1以上のアプリケーション・オブジ
ェクト(AO)・サーバ(以下「AOサーバ」という)
9a、9b、・・・・が設けられている。
On the LAN 3a, a three-dimensional virtual world is constructed and provided on the Internet 2, and an environment for various social activities in this three-dimensional virtual world is provided to manage the three-dimensional virtual world. Shared virtual world (CP: Co
mmmunity Place) server (hereinafter referred to as “CP server”) 8 and one or more application object (AO) servers (hereinafter referred to as “AO server”)
9a, 9b, ... Are provided.

【0037】また、LAN3a上には、HTML(Hy
per Text MarkupLanguage)コン
テンツ10aなどのHTTP(Hyper Text T
ransfer Protocol)資源オブジェクト
を提供する1以上のWWWサーバ10が設けられてお
り、さらに、この他にも、各ユーザ・アカウントに対す
る電子メールの送受信サービスを提供するメール・サー
バ11などが存在していてもよい。LAN3a上の各サ
ーバ、すなわち、CPサーバ8、AOサーバ9a、9
b、・・・・、WWWサーバ10、メール・サーバ11に
は、ルータ5aを介してインターネット2からアクセス
することができる。
On the LAN 3a, HTML (Hy
HTTP (Hyper Text T) such as per text Markup Language content 10a
One or more WWW servers 10 that provide resource objects are provided, and in addition to this, a mail server 11 that provides an e-mail transmission / reception service for each user account exists. Good. Each server on the LAN 3a, that is, the CP server 8 and the AO servers 9a, 9
The WWW server 10 and the mail server 11 can be accessed from the Internet 2 via the router 5a.

【0038】本実施の形態では、WWWサーバ10は、
通常のHTMLコンテンツ10aの他に、三次元仮想世
界を記述したVRMLファイル10bを提供している。
このVRMLファイル10bには、仮想世界と共有アプ
リケーション(SharedApplication)
の記述、CPサーバ8のインターネット2のアドレス
(URL:Uniform Resource Loca
tor)またはその参照リンクが含まれている。
In this embodiment, the WWW server 10 is
In addition to the normal HTML content 10a, a VRML file 10b describing a three-dimensional virtual world is provided.
This VRML file 10b includes a virtual world and a shared application (Shared Application).
Description, the Internet 2 address of the CP server 8 (URL: Uniform Resource Local
tor) or its reference link.

【0039】図2は、本実施の形態に係る三次元仮想世
界にログインするユーザ(参加者;便宜的に参加者Aと
参加者C)のコンピュータ(たとえば、ユーザPC7
a、7b)と、WWWサーバ10及びCPサーバ8との
関係を示す図である。参加者Aと参加者Cのコンピュー
タ(ユーザPC7a、7b)は、それぞれ、WWWサー
バ10が提供するHTMLコンテンツ10aをブラウズ
するHTMLブラウザ12と、VRMLファイル10b
を扱うことができるVRMLブラウザ13の双方がイン
ストールされている。
FIG. 2 is a computer (for example, user PC 7) of a user (participant; for convenience, participant A and participant C) who logs in to the three-dimensional virtual world according to the present embodiment.
It is a figure which shows the relationship between a, 7b) and WWW server 10 and CP server 8. The computers of the participant A and the participant C (user PCs 7a and 7b) respectively have an HTML browser 12 for browsing the HTML content 10a provided by the WWW server 10 and a VRML file 10b.
Both of the VRML browsers 13 capable of handling are installed.

【0040】本実施の形態で使用されるVRMLブラウ
ザ13は、特に、共有仮想世界(CP:Communi
ty Place)を表示し、ナビゲーションするもの
であることから、「CPブラウザ13」とも呼ぶ。以
下、本実施の形態においては、VRMLブラウザ13と
CPブラウザ13を同義語として取り扱うことにする。
HTMLブラウザ12とCPブラウザ13は、たとえ
ば、米Microsoft社のオペレーティング・シス
テム“Windows(R)シリーズ”などによって提
供される同一のプラットフォーム上で動作することがで
きる。ユーザPC7a、7b、7c、・・・・自体は、たと
えば、米IBM社のPC/AT(Personal C
omputer/Advanced Technolo
gy)互換機またはその後継機で構成される。
The VRML browser 13 used in this embodiment is, in particular, a shared virtual world (CP: Communi).
It is also referred to as a "CP browser 13" because it displays a "ty place" and performs navigation. Hereinafter, in this embodiment, the VRML browser 13 and the CP browser 13 will be treated as synonyms.
The HTML browser 12 and the CP browser 13 can operate on the same platform provided by, for example, the operating system “Windows (R) series” of Microsoft Corporation. The user PCs 7a, 7b, 7c, ... Are, for example, PCs / ATs (Personal C
computer / Advanced Technology
gy) A compatible machine or a successor machine.

【0041】VRMLファイル10bを用いて構築され
る三次元仮想世界では、その仮想世界内に配置された各
オブジェクトは、ユーザ操作に応答して発生するイベン
トや、あらかじめ設定された時間の経過に伴なって発生
するタイマー・イベントなどに応答した自律的な動きす
なわち“Behavior”を実現することができる。
In the three-dimensional virtual world constructed by using the VRML file 10b, each object placed in the virtual world is associated with an event that occurs in response to a user operation or a preset time elapses. It is possible to realize autonomous movement, that is, "Behavior" in response to a timer event or the like that occurs.

【0042】Behaviorのメカニズムは、「セン
サ」、「ルーティング」及び「スクリプト」という3つ
の要素の連携動作によって実現される。すなわち、
(1)三次元仮想世界に配置されたオブジェクトなどの
ノードに対してあらかじめ関連付けられ、VRMLファ
イル10bとして記述されたセンサ・ノードが、そのフ
ィールドの変化に基づいて外部イベントを感知して、V
RMLシーン内にイベントを発生させる。(2)発生し
たイベントは、VRMLファイル10bとして記述され
たルーティングに基づいて、オブジェクトの挙動を規定
するプログラムである外部スクリプトにルーティング
(すなわち伝達)される。(3)外部スクリプトには、
イベントが到来した時点で呼び出されるメソッドがあら
かじめ記述されている。ルーティングによって伝達され
たイベントを受け取った外部スクリプトは、その記述に
基づく処理を実行した後、その処理結果とルーティング
の記述に基づいてVRMLシーン内の該当するノードの
フィールド値を変更する。
The Behavior mechanism is realized by the cooperative operation of three elements of "sensor", "routing" and "script". That is,
(1) A sensor node previously associated with a node such as an object placed in a three-dimensional virtual world and described as a VRML file 10b senses an external event based on a change in the field, and V
Raise an event in the RML scene. (2) The generated event is routed (that is, transmitted) to an external script that is a program that defines the behavior of the object, based on the routing described as the VRML file 10b. (3) In the external script,
The method that is called when the event arrives is described in advance. The external script, which has received the event transmitted by the routing, executes the processing based on the description and then changes the field value of the corresponding node in the VRML scene based on the processing result and the description of the routing.

【0043】VRMLでは、センサ・ノードとして、た
とえば、指定されたオブジェクト上をマウス・カーソル
が通過したりクリックしたときにイベントを発生する
“TouchSensor”や、指定された領域内にユ
ーザの視点(ViewPoint)が侵入した場合にイ
ベントを発生する“ProximittySenso
r”、所定時刻の到来又は所定時間間隔が経過する毎に
発生する“TimerSensor”などが定義されて
いる。
In VRML, as a sensor node, for example, "TouchSensor" which generates an event when a mouse cursor passes or clicks on a specified object, or a user's viewpoint (ViewPoint) within a specified area. ) Raises an event when an intrusion “ProximitySenso
r ”,“ TimerSensor ”that occurs each time a predetermined time arrives or a predetermined time interval elapses are defined.

【0044】上述したように、参加者Aと参加者Cのユ
ーザPC7a、7b上では、HTMLブラウザ12とと
もに、VRMLコンテンツを解釈可能なCPブラウザ1
3が稼動している。HTMLブラウザ12としては、米
Netscape Communications社の
“Netscape Navigator”や、米Mi
crosoft社の“Internet Explor
er”のような汎用ブラウザを使用することができる。
As described above, on the user PCs 7a and 7b of the participants A and C, the HTML browser 12 and the CP browser 1 capable of interpreting VRML contents are used.
3 are running. Examples of the HTML browser 12 include “Netscape Navigator” manufactured by Netscape Communications of the US and Mi of the US.
"Internet Explorer" from Microsoft
A general-purpose browser such as "er" can be used.

【0045】ユーザPC7a、7b、7c、・・・・は、た
とえば、最寄のアクセス・ポイント(AP)へのダイヤ
ルアップ接続などの所定の手続を経てインターネット2
に接続され、または、常時接続の場合はこのような手続
きを省略してインターネット2に接続される。さらに、
ユーザPC7a、7b、7c、・・・・は、HTMLブラウ
ザ12により、HTTPプロトコルに従ってWWWサー
バ10にアクセスする。そして、WWWサーバ10から
三次元仮想世界を記述するVRMLファイル10bをダ
ウンロードし、それをCPブラウザ13に渡す。
The user PCs 7a, 7b, 7c, ... Are connected to the Internet 2 through a predetermined procedure such as dial-up connection to the nearest access point (AP).
, Or in the case of constant connection, such a procedure is omitted and the Internet 2 is connected. further,
The user PCs 7a, 7b, 7c, ... Access the WWW server 10 by the HTML browser 12 according to the HTTP protocol. Then, the VRML file 10b describing the three-dimensional virtual world is downloaded from the WWW server 10 and passed to the CP browser 13.

【0046】CPブラウザ13は、渡されたVRMLフ
ァイル10bを解析してブラウザ画面上に表示する。ま
た、VRMLファイル10bにCPサーバ8のアドレス
が記述されている場合には、そのアドレスへの接続を試
みる。したがって、同一のVRMLファイル10bをダ
ウンロードした各参加者のCPブラウザ13は、同一の
CPサーバ8への接続を果たす(ログインする)ことに
なり、VRMLファイル10bに記述されたVRMLシ
ーン(すなわち同じ三次元仮想世界)をログイン中の複
数のユーザ(参加者)で共有することができる。
The CP browser 13 analyzes the passed VRML file 10b and displays it on the browser screen. Also, if the address of the CP server 8 is described in the VRML file 10b, connection to that address is tried. Therefore, the CP browser 13 of each participant who has downloaded the same VRML file 10b establishes a connection (logs in) to the same CP server 8, and the VRML scene described in the VRML file 10b (that is, the same tertiary The former virtual world) can be shared by multiple logged-in users (participants).

【0047】CPサーバ8への接続、すなわち三次元仮
想世界へのログインに成功すると、それ以後の通信はC
Pサーバ8とCPブラウザ13間で行われる。この通信
は、所定のサーバ−クライアント間プロトコル〔本明細
書中では、VSCP(Virtual Society
ServerClient Protocol)と呼
ぶ〕を用いて行われる。VSCPプロトコルには、ユー
ザがCPブラウザ13を通して行った変更をCPサーバ
8に通知する機能や、通知された情報をCPサーバ8か
らさらに他のCPブラウザ13に通知する機能が含まれ
ている。
When the connection to the CP server 8, that is, the login to the three-dimensional virtual world is successful, the communication thereafter is C.
It is performed between the P server 8 and the CP browser 13. This communication is performed by using a predetermined server-client protocol [in this specification, VSCP (Virtual Society).
Called ServerClientProtocol)]. The VSCP protocol includes a function of notifying the CP server 8 of a change made by the user through the CP browser 13 and a function of notifying the CP server 8 of the notified information to another CP browser 13.

【0048】CPサーバ8は、各CPブラウザ13が知
る必要がある情報(すなわちCPブラウザ13に送信す
べき情報)の配信を、オーラ・アルゴリズムを用いて制
限することができる。オーラとは、アバタの周辺の領
域、すなわちユーザが興味を持つと想定される領域のこ
とを意味し、オーラの外側にある事物は興味を持たない
とみなして情報を送らない。オーラ・アルゴリズムを適
用することにより、配信すべき情報量を削減し、各参加
者へのネットワーク・トラフィックを規定の通信容量に
制限するようにしている。
The CP server 8 can limit the distribution of the information that each CP browser 13 needs to know (that is, the information to be transmitted to the CP browser 13) by using an aura algorithm. The aura means a region around the avatar, that is, a region where the user is supposed to be interested, and an object outside the aura is regarded as not interested and does not send information. By applying the aura algorithm, the amount of information to be delivered is reduced and the network traffic to each participant is limited to the specified communication capacity.

【0049】CPサーバ8によって提供される三次元仮
想世界上には、各ユーザの分身であるアバタや、アバタ
が飼育するペット(仮想生物;エージェントともいう)
など、さまざまなオブジェクトが存在する。これらのオ
ブジェクトの動作、その他仮想世界上のアプリケーショ
ンは、三次元仮想世界に存在する(すなわちログインし
ている)各ユーザ間で共有され、本明細書中では「共有
アプリケーション」と呼ばれる。
In the three-dimensional virtual world provided by the CP server 8, avatars, which are the altercations of each user, and pets kept by the avatars (virtual creatures; also called agents).
There are various objects such as. The operations of these objects and other applications in the virtual world are shared between the users existing in the three-dimensional virtual world (that is, logged in), and are referred to as “shared applications” in this specification.

【0050】図3は、CPサーバ8、AOサーバ9a、
9b、・・・・、WWWサーバ10に共通のハードウェア構
成を示す図である。CPU(Central Proc
essing Unit)21は、ROM(Read
Only Memory)22に記憶されているプログ
ラムに従って各種の処理を実行する。RAM(Rand
om Access Memory)23は、CPU2
1が各種の処理を実行する上において必要なプログラム
やデータを適宜記憶する。ハードディスク24には、デ
ータベース、その他必要なデータや、CPU21が処理
するプログラムなどが記憶される。これらは、バス25
を介して相互に接続されている。
FIG. 3 shows the CP server 8, the AO server 9a,
9b, ... Shows a hardware configuration common to the WWW server 10. CPU (Central Proc
The essing unit 21 is a ROM (Read
Various processes are executed according to the program stored in the Only Memory) 22. RAM (Rand
om Access Memory) 23 is CPU2
1 appropriately stores programs and data necessary for executing various processes. The hard disk 24 stores a database, other necessary data, a program processed by the CPU 21, and the like. These are bus 25
Are connected to each other via.

【0051】バス25にはまた、入出力インタフェース
26が接続されており、入出力インタフェース26に
は、LCD(Liquid Crystal Disp
lay)や、CRT(Cathode Ray Tub
e)などで構成される表示部27、キーボード、マウ
ス、マイクロホンなどで構成される入力部28が接続さ
れると共に、さらに、モデムなどを内蔵して一般電話回
線、専用回線、インターネット2などを介して外部の装
置と通信する通信部29と、フロッピー(登録商標)デ
ィスク、光ディスク、光磁気ディスクなどのディスクを
ドライブし、データを入出力するドライブ装置30が接
続されている。
An input / output interface 26 is also connected to the bus 25, and the input / output interface 26 is connected to the LCD (Liquid Crystal Display).
lay) and CRT (Cathode Ray Tub)
e) and the like, a display unit 27, a keyboard, a mouse, a microphone, etc. are connected to the input unit 28, and a modem or the like is further built-in through a general telephone line, a dedicated line, the Internet 2, etc. A communication unit 29 for communicating with an external device and a drive device 30 for driving a disk such as a floppy (registered trademark) disk, an optical disk, a magneto-optical disk, and inputting / outputting data are connected.

【0052】図4は、ユーザPC7a、7b、7c、・・
・・のハードウェア構成を示す図である。ユーザPC7
a、7b、7c、・・・・は、CPU41、RAM42、デ
ィスクコントローラ43、ディスク装置44、ディスプ
レイコントローラ45、ディスプレイ装置46、キーボ
ードコントローラ47、キーボード装置48、ポインテ
ィングデバイス装置49、通信部50、メインバス5
1、バスインターフェース52および内部バス53など
を有し、ディスク装置44にあらかじめ格納されたオペ
レーティングシステム等のソフトウェアリソース(HT
MLブラウザ12、CPブラウザ13等)をRAM42
にロードしてCPU41で実行することにより、前述の
WWWサーバ10やCPサーバ8にアクセスし、所要の
三次元仮想空間共有サービス(本実施の形態に係るコミ
ュニティ・システム・サービス)を受けることができ
る。
FIG. 4 shows user PCs 7a, 7b, 7c, ...
It is a figure which shows the hardware constitutions of. User PC 7
a, 7b, 7c, ... Are CPU 41, RAM 42, disk controller 43, disk device 44, display controller 45, display device 46, keyboard controller 47, keyboard device 48, pointing device device 49, communication unit 50, main. Bus 5
1, a bus interface 52, an internal bus 53, and the like, and software resources such as an operating system (HT stored in advance in the disk device 44.
ML browser 12, CP browser 13, etc.) RAM 42
And the CPU 41 executes the above, the WWW server 10 and the CP server 8 can be accessed and the required 3D virtual space sharing service (community system service according to the present embodiment) can be received. .

【0053】また、ユーザPC7a、7b、7c、・・・・
は、かかるサービスに関わる各種ユーザインターフェー
ス画面をディスプレイ装置46に表示し、そのインター
フェース画面上でキーボード装置48やポインティング
デバイス装置49を操作することにより、アバタの位置
移動、アバタの視点移動、及び、メッセージの作成並び
に送信などを行うことができるようになっている。
The user PCs 7a, 7b, 7c, ...
Displays various user interface screens related to the service on the display device 46, and operates the keyboard device 48 and the pointing device device 49 on the interface screen to move the position of the avatar, move the avatar's viewpoint, and send a message. It is possible to create and send.

【0054】参加者Aが自分の端末、たとえば、ユーザ
PC7aを操作し、所定の指令を入力すると、HTML
ブラウザ12が、インターネット2を介して、所定のU
RLで規定されるWWWサーバ10にアクセスし、VR
MLファイル10bを取得する。HTMLブラウザ12
は、VRMLファイル10bを取得すると、それをCP
ブラウザ13に引き渡す。CPブラウザ13は、VRM
Lファイル10bを解析し、ディスプレイ装置46に表
示する。また、CPブラウザ13は、VRMLファイル
10bにCPサーバ8のアドレスが指定されている場
合、CPサーバ8に接続する。
When the participant A operates his terminal, for example, the user PC 7a, and inputs a predetermined command, the HTML
The browser 12 sends a predetermined U via the Internet 2.
Access the WWW server 10 specified by the RL to perform VR
Obtain the ML file 10b. HTML browser 12
When it gets the VRML file 10b, CP it
Hand it over to the browser 13. CP browser 13 is VRM
The L file 10b is analyzed and displayed on the display device 46. Further, the CP browser 13 connects to the CP server 8 when the address of the CP server 8 is specified in the VRML file 10b.

【0055】接続が成功すると、それ以降、CPブラウ
ザ13とCPサーバ8との間の通信は、VSCPを用い
て行われる。VSCPは、参加者がCPブラウザ13を
介して行った変更をCPサーバ8に通知する機能、その
情報をCPサーバ8から、そこに接続されている他のC
Pブラウザ13に通知する機能などを有している。
When the connection is successful, thereafter, the communication between the CP browser 13 and the CP server 8 is performed using VSCP. The VSCP has a function of notifying the CP server 8 of changes made by participants via the CP browser 13, and the information from the CP server 8 to other Cs connected thereto.
It has a function of notifying the P browser 13.

【0056】他の参加者(たとえば、参加者B)も、参
加者Aと同様に、自分の端末(たとえば、ユーザPC7
b)を操作してWWWサーバ10にアクセスし、VRM
Lファイル10bを取得すると、CPブラウザ13が、
VRMLファイル10bを解析し、ディスプレイ装置4
6に表示する。
As with the participant A, the other participants (eg the participant B) also have their own terminals (eg the user PC 7).
Operate b) to access the WWW server 10 and execute VRM
When the L file 10b is acquired, the CP browser 13
The VRML file 10b is analyzed and displayed on the display device 4
Display in 6.

【0057】このようにして、複数の参加者が、同一の
仮想空間を共有する。
In this way, a plurality of participants share the same virtual space.

【0058】仮想空間にアクセスした参加者は、アバタ
としてその仮想空間上に表現される。所定のアバタ(参
加者)が仮想空間をナビゲートすると、その動作は、仮
想空間を共有する他のアバタにも反映される。このよう
なアバタの動きの情報も、VSCPによりCPブラウザ
13からCPサーバ8に送られる。CPサーバ8は、こ
の情報を自分に接続している他のCPブラウザ13に送
る。この情報を受け取ったCPブラウザ13は、情報の
送信元のCPブラウザ13で行われた変更を反映するよ
うに対応するアバタを更新する。
Participants who have accessed the virtual space are represented in the virtual space as avatars. When a given avatar (participant) navigates the virtual space, the action is reflected in other avatars sharing the virtual space. Information on such avatar movement is also sent from the CP browser 13 to the CP server 8 by VSCP. The CP server 8 sends this information to another CP browser 13 connected to itself. Upon receiving this information, the CP browser 13 updates the corresponding avatar to reflect the change made in the CP browser 13 that is the source of the information.

【0059】図5は、AOサーバ9a、9b、・・・・、C
Pサーバ8、及び、CPブラウザ13(ユーザPC7
a、7b、7c、・・・・上に存在するもの)の関係を示す
図である。AOサーバ9a、9b、・・・・は、ユニバーサ
ル(Universal)AO60を有する。ユニバー
サルAO60は、仮想世界全体を制御するAOである。
AOは、共有アプリケーションを管理するものであり、
共有アプリケーションとは、アバタ等のオブジェクト
と、その動作が共有空間にいる参加者により共有される
アプリケーションを意味する。
FIG. 5 shows AO servers 9a, 9b, ..., C.
P server 8 and CP browser 13 (user PC 7
a, 7b, 7c, ..., which are present above). The AO servers 9a, 9b, ... Have a universal AO 60. The universal AO 60 is an AO that controls the entire virtual world.
AO manages shared applications,
The shared application means an application in which an object such as an avatar and its operation are shared by participants in the shared space.

【0060】図5の例においては、仮想世界61には、
ユーザPC7a〜ユーザPC7cを操作する各ユーザ
(各参加者A〜参加者C)に対応するアバタ62〜64
からなるユーザオブジェクト群65と、各々のアバタ6
2〜64に対応して生成されるエージェント(図では便
宜的に犬66〜68)からなるエージェントオブジェク
ト群69と、各々のアバタ62〜64により共有される
共有オブジェクト(図では便宜的にショップ70、リサ
イクルボックス71)からなる共有オブジェクト群73
とが配置されている。
In the example of FIG. 5, in the virtual world 61,
Avatars 62 to 64 corresponding to users (each participant A to participant C) who operate the user PC 7a to user PC 7c.
User object group 65 consisting of, and each avatar 6
2 to 64, the agent object group 69 consisting of agents (dogs 66 to 68 for convenience in the figure) and shared objects shared by the respective avatars 62 to 64 (shop 70 for convenience in the figure). , A recycle box 71) shared object group 73
And are arranged.

【0061】ユニバーサルAO60は、起動時、デフォ
ルトのコンフィグレーションファイル(PAW.CON
F)を読み込み、そこに記述されている内容に従って、
ユーザ・マネージャ(User Manager)7
4、エージェント・マネージャ(Agent Mana
ger)75、オブジェクト・マネージャ(Objec
t Manager)76を生成する。
When the universal AO 60 is started, the default configuration file (PAW.CON
F) is read, and according to the contents described in it,
User Manager 7
4. Agent Manager
ger) 75, object manager (Objec)
t Manager) 76 is generated.

【0062】ユーザ・マネージャ74は、参加者が仮想
世界61にアクセスしてきたとき、各参加者ごとのユー
ザオブジェクト(User Object)を生成す
る。たとえば、3人の参加者(参加者A〜至参加者C)
がアクセスしていると仮定すると、ユーザ・マネージャ
74は、3つのユーザ・オブジェクト74a〜74cを
生成し、これらのユーザ・オブジェクト74a〜74c
は、それぞれ参加者ごとのアバタを生成管理する。すな
わち、ユーザ・オブジェクト74aは、参加者Aのアバ
タ62を生成管理し、ユーザ・オブジェクト74bは、
参加者Bのアバタ63を生成管理し、ユーザ・オブジェ
クト74cは、参加者Cのアバタ64を生成管理する。
AOサーバ9a、9b、・・・・には、このような各種の処
理を実行する上において必要な情報を適宜読み出すこと
ができるように、データベース77が接続されている。
When the participants access the virtual world 61, the user manager 74 creates a user object (User Object) for each participant. For example, 3 participants (Participants A to C)
User manager 74 creates three user objects 74a-74c, and these user objects 74a-74c are assumed to have access.
Generates and manages avatars for each participant. That is, the user object 74a creates and manages the avatar 62 of the participant A, and the user object 74b
The avatar 63 of the participant B is created and managed, and the user object 74c creates and manages the avatar 64 of the participant C.
A database 77 is connected to the AO servers 9a, 9b, ... In order to be able to appropriately read out information necessary for executing such various processes.

【0063】エージェント・マネージャ75は、各参加
者ごとのエージェントAOを生成する。この場合、3人
の参加者A〜参加者Cであるから、エージェント・マネ
ージャ75は、参加者Aに対応するエージェントAO7
5a、参加者Bに対応するエージェントAO75b、及
び、参加者Cに対応するエージェントAO75cを生成
する。これらのエージェントAO75a〜75cは、そ
れぞれ参加者ごとのエージェントを生成管理する。すな
わち、エージェントAO75a〜75aは、参加者Aの
エージェント66を生成管理し、エージェントAO75
a〜75bは、参加者Bのエージェント67を生成管理
し、エージェントAO75a〜75cは、参加者Aのエ
ージェント68を生成管理する。
The agent manager 75 creates an agent AO for each participant. In this case, since there are three participants A to C, the agent manager 75 uses the agent AO7 corresponding to the participant A.
5a, an agent AO75b corresponding to the participant B, and an agent AO75c corresponding to the participant C are generated. These agent AOs 75a to 75c generate and manage agents for each participant. That is, the agents AO75a to 75a generate and manage the agent 66 of the participant A, and the agent AO75a
The agents a to 75b generate and manage the agent 67 of the participant B, and the agents AO 75a to 75c generate and manage the agent 68 of the participant A.

【0064】ユーザ・オブジェクト74a〜74cとエ
ージェントAO75a〜75bは、参加者が仮想世界6
1にアクセス(ログ・イン)してきたときに生成され、
仮想世界61から退去(ログ・アウト)したとき消去さ
れる。たとえば、新たに別の参加者(便宜的に参加者D
とする)が仮想世界61にアクセスしてきたときには、
その参加者Dに対応するユーザ・オブジェクトとエージ
ェントAOが新規に作成され、且つ、新規作成されたユ
ーザ・オブジェクトとエージェントAOにより、参加者
Dのアバタとエージェントが仮想世界に追加される。ま
たは、仮想世界から参加者(便宜的に参加者Aとする)
が退去すると、その参加者Aに対応するユーザ・オブジ
ェクト74aとエージェントAO75aが消去され、し
たがって、仮想世界61から参加者Aのアバタ62とエ
ージェント66が取り除かれる。
In the user objects 74a to 74c and the agents AO 75a to 75b, the participants are the virtual world 6
It is generated when you access (log in) to 1.
It is deleted when you leave (log out) from the virtual world 61. For example, another participant (for convenience, participant D
When the user accesses the virtual world 61,
A user object and agent AO corresponding to the participant D are newly created, and the newly created user object and agent AO add the avatar and agent of the participant D to the virtual world. Or a participant from the virtual world (we will call participant A for convenience)
Is removed, the user object 74a and the agent AO 75a corresponding to the participant A are deleted, so that the avatar 62 and the agent 66 of the participant A are removed from the virtual world 61.

【0065】オブジェクトマネージャ76は、予め設定
された所定のタイミングにおいて、共有オブジェクトA
O(図示の例ではショップAO76aやリサイクルボッ
クスAO76b)を生成し、これらの共有オブジェクト
AOは、予め設定されている所定の時間存在する。ショ
ップAO76aはショップ70を生成管理し、リサイク
ルボックスAO76bはリサイクルボックス71を生成
管理する。
The object manager 76, at a predetermined timing set in advance, shares the shared object A
O (shop AO76a or recycle box AO76b in the illustrated example) is generated, and these shared objects AO exist for a predetermined time set in advance. The shop AO76a creates and manages the shop 70, and the recycle box AO76b creates and manages the recycle box 71.

【0066】CPサーバ8は、AOサーバ9a、9b、
・・・・と各CPブラウザ13との間に位置して仮想世界6
1を構築し、CPブラウザ13は、仮想世界61の中の
対応するアバタ(たとえば、参加者Aであればアバタ6
2)を基準とする所定の範囲を、その参加者Aの端末
(ユーザPC7a)上で管理する。
The CP server 8 includes AO servers 9a, 9b,
... and the virtual world 6 located between each CP browser 13
1 and the CP browser 13 sends the corresponding avatar in the virtual world 61 (for example, avatar 6 for participant A).
A predetermined range based on 2) is managed on the terminal of the participant A (user PC 7a).

【0067】今、参加者Aが自分の端末(ユーザPC7
a)のポインティングデバイス装置49を操作して、自
分のエージェント(犬としてのエージェント66)をク
リックした場合に、エージェント66に所定の動作(た
とえば、「Wow!」と鳴く動作)を起こさせる処理に
ついて説明する。
Participant A now has his own terminal (user PC 7
Regarding the processing for causing the agent 66 to perform a predetermined operation (for example, an operation of "Wow!") when the pointing device device 49 of a) is operated and the agent (the agent 66 as a dog) is clicked. explain.

【0068】まず、AOサーバ9a、9b、・・・・は、C
Pサーバ8に接続すると、AOサーバ9a、9b、・・・・
が管理する共有アプリケーション(共有物体)を、CP
サーバ8が管理する仮想世界61内に追加するように要
求する。CPサーバ8は、自分自身に接続している全て
のCPブラウザ13に対して、AOサーバ9a、9b、
・・・・からの要求を送信する。各CPブラウザ13は、こ
の要求を受け取ると、対応する共有アプリケーションを
出現させる。
First, the AO servers 9a, 9b, ...
When connecting to the P server 8, AO servers 9a, 9b, ...
A shared application (shared object) managed by
Request to add in the virtual world 61 managed by the server 8. The CP server 8 sends AO servers 9a, 9b, to all CP browsers 13 connected to itself.
・ Send the request from. Upon receiving this request, each CP browser 13 causes the corresponding shared application to appear.

【0069】この状態で、参加者Aがエージェント66
をマウスでクリックすると、対応するスクリプトがユー
ザPC7aのCPブラウザ13で起動される。このスク
リプトは、CPサーバ8にエージェント66がクリック
されたことを示すメッセージを送る。CPサーバ8は選
択されたエージェント66を管理するAOサーバ9a、
9b、・・・・にこのメッセージを送信する。
In this state, the participant A is the agent 66.
When is clicked with the mouse, the corresponding script is activated by the CP browser 13 of the user PC 7a. This script sends a message to the CP server 8 indicating that the agent 66 has been clicked. The CP server 8 is an AO server 9a that manages the selected agent 66,
Send this message to 9b, ....

【0070】AOサーバ9a、9b、・・・・は、メッセー
ジに対応する処理を実行し、CPサーバ8に対して処理
結果に対応するメッセージを送信する。このメッセージ
は、この例の場合、エージェント66を鳴かせるための
メッセージである。そして、このメッセージが、CPサ
ーバ8から、そこに接続されている全てのCPブラウザ
13を介して対応するエージェント66に渡され、処理
される。その結果、ログ・イン中のすべての参加者のP
C上で、エージェント66が、たとえば、「Wow!」
と鳴くことになる。
The AO servers 9a, 9b, ... Execute the processing corresponding to the message and send the message corresponding to the processing result to the CP server 8. In the case of this example, this message is a message for causing the agent 66 to ring. Then, this message is passed from the CP server 8 to the corresponding agent 66 via all the CP browsers 13 connected thereto and processed. As a result, P of all participants who are logged in
On C, agent 66, for example, "Wow!"
Will cry.

【0071】図6は、ログイン中の参加者のPCに表示
された、本実施の形態に係るコミュニティ・システム・
サービス用のユーザインターフェース画面を示す図であ
る。このユーザインターフェース画面80は、それぞれ
独立して位置や大きさを変更できる、たとえば、四つの
画面から構成されている。
FIG. 6 shows the community system according to the present embodiment, which is displayed on the PC of the logged-in participant.
It is a figure which shows the user interface screen for services. The user interface screen 80 is composed of, for example, four screens whose positions and sizes can be changed independently.

【0072】第一の画面は、ビューウインドウ81であ
る。このビューウィンドウ81には、その参加者(以下
便宜的に参加者Aとする)のアバタの位置を基準とする
仮想世界61内の所定の範囲が表示される。この例にお
いては、所定の背景上に、アバタ82、83とエージェ
ント84、85が表示されている。なお、これらのアバ
タ82、83やエージェント84、85は、他の参加者
(たとえば、参加者B、参加者C)のものであり、参加
者Aのアバタは非表示(すなわち、ビューウィンドウ8
1に映し出された絵はアバタの視点から見た時の構図で
ある)となっている。また、参加者Aのエージェント
も、ビューウィンドウ81の表示枠の外にいて見えない
ものとする。ビューウィンドウ81の下端には、自分の
アバタの位置や視点を変更操作するためのコントロール
パネル86が設けられており、このコントロールパネル
86は、先に説明した従来技術のコントロールパネル2
08(図13参照)と同様のものであり、その操作方法
等については、適宜に、図13を参照するものとする。
The first screen is the view window 81. In this view window 81, a predetermined range in the virtual world 61 based on the position of the avatar of the participant (hereinafter referred to as participant A for convenience) is displayed. In this example, avatars 82 and 83 and agents 84 and 85 are displayed on a predetermined background. The avatars 82 and 83 and the agents 84 and 85 belong to other participants (for example, the participant B and the participant C), and the avatar of the participant A is hidden (that is, the view window 8).
The picture shown in 1 is the composition as seen from the avatar's point of view). The agent of the participant A is also outside the display frame of the view window 81 and cannot be seen. At the lower end of the view window 81, there is provided a control panel 86 for changing and operating the position and viewpoint of one's own avatar. This control panel 86 is the control panel 2 of the prior art described above.
08 (see FIG. 13), and FIG. 13 will be appropriately referred to for the operating method and the like.

【0073】第二の画面は、個人情報を表示するための
ワールドツールウィンドウ87である。このワールドツ
ールウィンドウ87には、アバタの視点切り換えボタン
88、ペット情報ボタン89、パーソナル情報ボタン9
0、ペット情報表示エリア91などが設けられている。
なお、アバタの視点切り換えボタン88を押すたびに、
ビューウインドウ81の構図を、アバタの視点から見た
もの(この場合アバタは非表示)、アバタの背中越しに
見たもの、アバタの正面から見たものに切り換えること
ができる。
The second screen is the world tool window 87 for displaying personal information. In this world tool window 87, an avatar viewpoint switching button 88, a pet information button 89, and a personal information button 9
0, a pet information display area 91 and the like are provided.
It should be noted that each time the viewpoint switching button 88 of the avatar is pressed,
The composition of the view window 81 can be switched to a view from the viewpoint of the avatar (in this case, the avatar is not displayed), a view from behind the avatar's back, and a view from the front of the avatar.

【0074】第三の画面は、チャットウィンドウ(メッ
セージボード)92である。このチャットウィンドウ9
2には、自分のエージェント(図では現在見えていな
い)に対して各種の行為を実行するためのアクションボ
タン群93、チャットログ領域94、及び、メッセージ
入力部95が設けられている。チャットログ領域94に
は、現在ログイン中の参加者間またはエージェントとの
間でやり取りされているすべて(ただし、ある程度古い
ものは削除される)のチャットログが表示される。他の
参加者とチャットする場合または自分のエージェントに
メッセージを送る場合は、キーボード装置48を用いて
メッセージ入力部95に所望の文字列を入力し、キーボ
ード装置48の確定キー(たとえば、リターンキー)を
押す。
The third screen is a chat window (message board) 92. This chat window 9
2 is provided with an action button group 93 for executing various actions for its own agent (not currently visible in the figure), a chat log area 94, and a message input section 95. The chat log area 94 displays all chat logs exchanged between the currently logged-in participants or agents (however, some old logs are deleted). When chatting with other participants or sending a message to one's own agent, the desired character string is input to the message input section 95 using the keyboard device 48, and the enter key (for example, the return key) of the keyboard device 48 is input. push.

【0075】第四の画面は、コミュニケーションツール
ウィンドウ96である。このコミュニケーションツール
ウィンドウ96には、チャットボタン97、てがみボタ
ン98、PHSボタン99、地図ボタン100などが設
けられている。チャットボタン97をクリックすると、
第三の画面(チャットウィンドウ92)をオープンした
りクローズしたりすることができる。また、てがみボタ
ン98をクリックすると、仮想空間内を配送範囲とする
手紙(電子メールのようなもの)を作成したり、送受信
したりできる手紙ウィンドウ(不図示)をオープンする
ことができる。また、PHSボタン99をクリックする
と、携帯電話機やPHSなどへのメッセージを作成し、
送信するためのPHSウィンドウ(不図示)をオープン
することができる。また、地図ボタン100をクリック
すると、現在の自分(アバタ)の所在と向きを地図上に
明示する(たとえば、赤い矢印で示す)地図ウィンドウ
(不図示)をオープンすることができる。
The fourth screen is the communication tool window 96. The communication tool window 96 is provided with a chat button 97, a mane button 98, a PHS button 99, a map button 100 and the like. Click the chat button 97
The third screen (chat window 92) can be opened or closed. Further, when the manuscript button 98 is clicked, it is possible to open a letter window (not shown) in which a letter (such as an electronic mail) having a delivery range in the virtual space can be created and can be sent and received. Also, if you click the PHS button 99, you can create a message to your mobile phone, PHS, etc.
A PHS window (not shown) for sending can be opened. In addition, when the map button 100 is clicked, a map window (not shown) that clearly shows the current location and direction of the self (avatar) (for example, indicated by a red arrow) can be opened.

【0076】参加者Aが自分のアバタの視点を変えたい
場合、たとえば、参加者B(アバタ82)の方向に向け
たい(正対させたい)場合は、参加者Aは、ビューウィ
ンドウ81下端のコントロールパネル86を操作する。
先にも説明したように、このコントロールパネル86
は、図13に示すもの(コントロールパネル208)と
同じものであるから、このような場合は、図13におけ
る視点左旋回用のスイッチオブジェクト208cをクリ
ックし、ビューウィンドウ81の真ん中に参加者B(ア
バタ82)が来るように構図を微調整すればよい。また
は、図13における視点左水平移動用のスイッチオブジ
ェクト208gをクリックしてもよい。この場合、参加
者Aの視点は左移動するので、その移動量を微調整する
ことにより、参加者B(アバタ82)の正面に位置させ
ることができる。
When the participant A wants to change the viewpoint of his / her avatar, for example, when he / she wants to face (directly face) the participant B (avatar 82), he / she is at the bottom of the view window 81. The control panel 86 is operated.
As explained earlier, this control panel 86
13 is the same as that shown in FIG. 13 (control panel 208). In such a case, the switch object 208c for turning the viewpoint to the left in FIG. 13 is clicked, and the participant B ( Finely adjust the composition so that the avatar 82) comes. Alternatively, the switch object 208g for horizontally moving the viewpoint left in FIG. 13 may be clicked. In this case, since the viewpoint of the participant A moves left, the participant A (avatar 82) can be positioned in front of the participant B by finely adjusting the amount of movement.

【0077】かかる手動操作による視点の移動は従来と
同じであり、この点において特徴はないが、本実施の形
態では、このような手動操作による視点移動の他に以下
に説明する自律的移動を可能とすることにより、操作性
の改善を図っている点に技術的な特徴がある。
The movement of the viewpoint by the manual operation is the same as the conventional one, and there is no feature in this point. However, in the present embodiment, in addition to such a viewpoint movement by the manual operation, the autonomous movement described below is performed. A technical feature is that the operability is improved by making it possible.

【0078】<発話者の方向を見る:発話反応型>図7
は、発話者の方向を自然に見るようにするための第1の
アルゴリズムである。このアルゴリズムは、サーバサイ
ド(CPサーバ8における視線方向制御処理:ステップ
S11〜ステップS20)とクライアントサイド(CP
ブラウザ13における表示処理:ステップS21)で実
行される。このアルゴリズムを実行し、CPサーバ8
が、任意の参加者(以下、便宜的に参加者Bとする)の
クライアントPC7bから発話者と発話内容からなるパ
ケットを受け取ると(ステップS11)、次に、そのパ
ケットから発話者を抽出し(ステップS12)、ビュー
ウィンドウ81に表示されている各参加者のアバタから
上記発話者に対応するものを探し出す(ステップS1
3)。ここで、発話者は参加者Bであり、参加者Bのア
バタはビューウィンドウ81の左端に表示されているか
ら、次の判定結果(ステップS14)は肯定(YES)
となる。なお、ステップS14の判定結果が否定(N
O)となる場合、すなわち、発話者に対応するアバタが
ビューウィンドウ81に表示されていない場合は、この
ビューウィンドウ81の枠外に発話者のアバタがいるの
で、その場合は、発話者の方向を見る必要がなく、ま
た、発話内容を表示する必要もないので、エラーとして
処理し、そのパケットを切り捨てる(ステップS1
5)。
<Seeing the direction of the speaker: Speech reaction type> FIG.
Is a first algorithm for making the direction of the speaker look natural. This algorithm is applied to the server side (line-of-sight control process in the CP server 8: steps S11 to S20) and the client side (CP
Display process in browser 13: executed in step S21). This algorithm is executed and the CP server 8
Receives a packet consisting of the speaker and the content of the speaker from the client PC 7b of an arbitrary participant (hereinafter referred to as participant B for convenience) (step S11), then extracts the speaker from the packet ( In step S12, the avatar of each participant displayed in the view window 81 is searched for one corresponding to the speaker (step S1).
3). Here, the speaker is the participant B, and the avatar of the participant B is displayed at the left end of the view window 81, so the next determination result (step S14) is affirmative (YES).
Becomes In addition, the determination result of step S14 is negative (N
O), that is, when the avatar corresponding to the speaker is not displayed in the view window 81, the avatar of the speaker is outside the frame of the view window 81. In that case, the direction of the speaker is changed. Since it is not necessary to see and it is not necessary to display the utterance content, it is processed as an error and the packet is truncated (step S1).
5).

【0079】ステップS14の判定結果が肯定(YE
S)となった場合、すなわち、発話者に対応する参加者
Bのアバタがビューウィンドウ81に表示されている場
合は、次に、参加者A(ビューウィンドウ81を見てい
る者)と参加者B(発話者)の間の距離を計算し(ステ
ップS16)、その距離が所定の制限距離以内であるか
否かを判定する(ステップS17)。ここで、所定の制
限距離とは、たとえば、実世界における通常の会話可能
距離に相当する距離のことである。
The determination result of step S14 is affirmative (YE
S), that is, if the avatar of the participant B corresponding to the speaker is displayed in the view window 81, then the participant A (who is looking at the view window 81) and the participant The distance between B (speaker) is calculated (step S16), and it is determined whether the distance is within a predetermined limit distance (step S17). Here, the predetermined limit distance is, for example, a distance corresponding to a normal conversationable distance in the real world.

【0080】ステップS17の判定結果が否定(NO)
の場合、すなわち、参加者Aと参加者Bの距離が、実世
界における通常の会話可能距離に相当する距離を越えて
いる場合には、参加者Bの発した声が参加者Aに届か
ず、したがって、参加者Aがその声に反応し得る状態に
ないものと判断し、以下の処理(視線移動量計算や視線
方向制御等)をパスし、参加者Bの発話内容をビューウ
ィンドウ81のアバタ82の上に表示する(ステップS
21)。
The determination result of step S17 is negative (NO).
In the case of, that is, when the distance between the participant A and the participant B exceeds the distance equivalent to the normal conversationable distance in the real world, the voice of the participant B does not reach the participant A. Therefore, it is determined that the participant A is not in a state where he / she can react to the voice, and the following processing (gaze movement amount calculation, gaze direction control, etc.) is passed, and the speech content of the participant B is displayed in the view window 81. Display on the avatar 82 (step S
21).

【0081】一方、ステップS17の判定結果が肯定
(YES)の場合、すなわち、参加者Aと参加者Bの距
離が、実世界における通常の会話可能距離に相当する距
離以内である場合には、参加者Bの発した声に参加者A
が充分に反応し得ると判断し、参加者Aの視線移動量を
計算する(ステップS18:第1ステップ)。
On the other hand, if the determination result in step S17 is affirmative (YES), that is, if the distance between the participants A and B is within the distance equivalent to the normal conversationable distance in the real world, Participant A responds to the voice of Participant B
Is determined to be sufficiently responsive, and the amount of eye movement of the participant A is calculated (step S18: first step).

【0082】図8は、視線移動量の計算概念図である。
この図において、まず、参加者Aと参加者Bの顔の中心
点Pa、Pbを結ぶ直線Lを求め(ステップS18
a)、次いで、参加者Aの視線方向Fと直線Lの角度θ
を求める(ステップS18b)。角度θが参加者Aの視
線移動量になる。すなわち、θが0度になるように参加
者Aの視線方向Fを変更することにより、参加者Aの視
線を参加者Bの方向に向けることができる。
FIG. 8 is a conceptual diagram for calculating the amount of movement of the line of sight.
In this figure, first, a straight line L connecting the center points Pa and Pb of the faces of the participant A and the participant B is obtained (step S18).
a), and then the angle θ between the line-of-sight direction F of the participant A and the straight line L
Is calculated (step S18b). The angle θ is the line-of-sight movement amount of the participant A. That is, by changing the line-of-sight direction F of the participant A so that θ becomes 0 degrees, the line-of-sight of the participant A can be directed toward the participant B.

【0083】このようにして視線移動量θを計算する
と、次に、CPサーバ8は、視線移動量θが0以外の値
であるか否かを判定する(ステップS19)。θ=0の
場合は、すでに参加者Aの視線が参加者Bの方に向いて
いるので、視線方向制御を行わずに、参加者Bの発話内
容をビューウィンドウ81のアバタ82の上に表示する
(ステップS21)。
When the line-of-sight movement amount θ is calculated in this way, the CP server 8 next determines whether or not the line-of-sight movement amount θ is a value other than 0 (step S19). When θ = 0, the line of sight of Participant A has already turned to Participant B, so the utterance content of Participant B is displayed on avatar 82 of view window 81 without performing gaze direction control. Yes (step S21).

【0084】θ<>0の場合は、次に、視線移動量θだ
け参加者Aの視線方向Fの移動制御を行うための情報を
CPブラウザ13に送信し(ステップS20:第2ステ
ップ)、CPブラウザ13は、その情報に基づいて参加
者Aの視線を参加者Bの方に向けた後、参加者Bの発話
内容をビューウィンドウ81のアバタ82の上に表示す
る(ステップS21)。
If θ << 0, then information for controlling the movement of the participant A in the line-of-sight direction F by the line-of-sight movement amount θ is transmitted to the CP browser 13 (step S20: second step), Based on the information, the CP browser 13 directs the line of sight of the participant A toward the participant B, and then displays the speech content of the participant B on the avatar 82 of the view window 81 (step S21).

【0085】したがって、この第1のアルゴリズムによ
れば、ビューウィンドウ81内に表示されている任意の
アバタが発話したとき、その発話に反応して、他のアバ
タの視線をその発話を行ったアバタの方向に一斉に向け
ることができる。その結果、手動操作によるアバタの動
きに加えて、発話反応型の自律的な動きをアバタに与え
ることができるから、操作性の改善はもちろんのこと、
よりリアリティー感を増した三次元仮想空間表示方法を
提供することができる。
Therefore, according to this first algorithm, when an avatar displayed in the view window 81 utters, in response to the utterance, the avatar that made the utterance of another avatar's line of sight. It can be turned all at once. As a result, in addition to the movement of the avatar by the manual operation, it is possible to give the avatar a speech-reaction-type autonomous movement, so that the operability is of course improved.
It is possible to provide a three-dimensional virtual space display method with an increased sense of reality.

【0086】図9は、その発話反応型の自律的な動きを
示す一例図である。この例においては、参加者Bは発話
者であり、この参加者Bが所定の発話(たとえば、“や
あみんな”)を行うものとする。他の参加者(図では参
加者Aと参加者C)と発話者の間の距離を所定の制限距
離以内とすると、参加者Bの発話に応答して、他の参加
者(参加者Aと参加者C)の視線移動量(図では便宜的
に参加者Aの視線移動量θのみ示す)が計算され、各々
の視線移動量θをゼロとするようにそれぞれの視線方向
が制御される。すなわち、参加者A及び参加者Cの視線
が発話者(参加者B)の方を向くように自律的に制御さ
れる。
FIG. 9 is an example diagram showing the utterance reaction type autonomous movement. In this example, it is assumed that the participant B is a speaker and the participant B makes a predetermined utterance (for example, "hi everyone"). If the distance between the other participants (participants A and C in the figure) and the speaker is within a predetermined limit distance, the other participants (participants A and The line-of-sight movement amount of the participant C) (only the line-of-sight movement amount θ of the participant A is shown in the figure for convenience) is calculated, and each line-of-sight direction is controlled so that each line-of-sight movement amount θ is zero. That is, the line of sight of the participants A and C is autonomously controlled so as to face the speaker (participant B).

【0087】なお、この第1のアルゴリズムでは、発話
者との距離が所定の制限距離(たとえば、実世界におけ
る通常の会話可能距離に相当する距離)以内の場合にの
み、その発話者の声に反応するようにしているが、これ
に限定されない。声の大きさによってはかかる距離の制
限をなくしてもよいし、または、所定の制限距離をシチ
ュエーションに応じて可変とするようにしてもよい。
In the first algorithm, only when the distance to the speaker is within a predetermined limit distance (for example, a distance corresponding to a normal talkable distance in the real world), the voice of the speaker is changed. Although it is made to react, it is not limited to this. Depending on the loudness of the voice, the limitation on the distance may be eliminated, or the predetermined limitation distance may be variable according to the situation.

【0088】<発話内容を解釈して発話の相手の方向を
見る:発話相手指定型>図10は、発話内容を解釈して
発話の相手の方向を見るようにするための第2のアルゴ
リズムである。このアルゴリズムは、サーバサイド(C
Pサーバ8における視線方向制御処理:ステップS30
〜ステップS41)とクライアントサイド(CPブラウ
ザ13における表示処理:ステップS42)で実行され
る。このアルゴリズムを実行すると、まず、CPサーバ
8は、任意の参加者(以下、便宜的に参加者Aとする)
が自分の端末(クライアントPC7a)を操作して入力
した所望の相手(たとえば、参加者B)に対する発話内
容(たとえば、“こんにちは>花子さん”)を受け取る
(ステップS30)。
<Interpretation of Utterance Content and Viewing Direction of Utterance Partner: Utterance Partner Designation Type> FIG. 10 shows a second algorithm for interpreting the utterance content and viewing the direction of the utterance partner. is there. This algorithm is server side (C
Line-of-sight direction control processing in P server 8: Step S30
Up to step S41) and the client side (display processing in the CP browser 13: step S42). When this algorithm is executed, first, the CP server 8 makes an arbitrary participant (hereinafter referred to as participant A for convenience).
There desired partner (for example, participants B) that was input by operating its own terminal (client PC7a) speech content for (for example, "Hello>Hanako") receives a (step S30).

【0089】ここで、発話内容中の記号(“>”)は、
チャットの世界において、特定の相手に対するメッセー
ジであることを明示するための常用記号であり、この場
合、“こんにちは”の相手は“花子さん”である。
Here, the symbol (">") in the utterance content is
In the chat of the world, is a common symbol of order to clarify that it is a message for a particular opponent, in this case, it is "Hello" is of the other party "Hanako".

【0090】次に、CPサーバ8は、発話内容に上記の
記号(“>”)が含まれているか否かを判定し(ステッ
プS31:第1ステップ)、含まれていなければ、以下
の処理をパスして、参加者Aの発話内容をCPブラウザ
13に送信し、ビューウィンドウ81に表示させ(ステ
ップS42)、含まれている場合は、発話内容から発話
対象者を特定する(ステップS32)。すなわち、発話
内容の記号“>”よりも右側の文字列を取り出し、その
文字列から接尾辞(“さん”や“さま”など)を取り除
いて、発話対象者のチャットネーム(この場合は“花
子”)を得る。
Next, the CP server 8 determines whether or not the utterance content includes the above symbol (">") (step S31: first step). If not, the following processing is performed. And the utterance content of the participant A is transmitted to the CP browser 13 and displayed on the view window 81 (step S42). If it is included, the utterance target is specified from the utterance content (step S32). . That is, the character string on the right side of the utterance content symbol “>” is extracted, the suffix (“san” or “sama”, etc.) is removed from the character string, and the chat name (in this case, “Hanako”) of the utterance target is removed. )).

【0091】次に、ビューウィンドウ81に表示されて
いる各参加者のアバタから上記チャットネーム(“花
子”)に対応するものを探し出す(ステップS33:第
2ステップ)。発話対象者のチャットネームは“花子”
であり、そのチャットネームを持つ参加者Bのアバタは
ビューウィンドウ81の左端に表示されているから、次
の判定結果(ステップS34)は肯定(YES)とな
る。なお、ステップS34の判定結果が否定(NO)と
なる場合、すなわち、発話対象者に対応するアバタがビ
ューウィンドウ81に表示されていない場合は、このビ
ューウィンドウ81の枠外に発話対象者のアバタがいる
ので、その場合は、ステップS32で削除した接尾辞
(“さん”)を発話内容に戻し(ステップS35)、再
び発話対象者の有無を判定して(ステップS36)、発
話対象者がビューウィンドウ81に表示されていない場
合は、以下の処理をパスし、参加者Aの発話内容をビュ
ーウィンドウ81に表示する(ステップS42)。
Next, the avatar of each participant displayed in the view window 81 is searched for one corresponding to the chat name ("Hanako") (step S33: second step). The chat name of the utterance target is "Hanako"
Since the avatar of the participant B having the chat name is displayed at the left end of the view window 81, the next determination result (step S34) is affirmative (YES). When the determination result of step S34 is negative (NO), that is, when the avatar corresponding to the utterance target is not displayed in the view window 81, the avatar of the utterance target is outside the view window 81. In that case, the suffix (“san”) deleted in step S32 is returned to the utterance content (step S35), the presence or absence of the utterance target is determined again (step S36), and the utterance target is displayed in the view window. If it is not displayed in 81, the following processing is passed and the utterance content of the participant A is displayed in the view window 81 (step S42).

【0092】ステップS34の判定結果が肯定(YE
S)となった場合、すなわち、発話対象者に対応する参
加者Bのアバタがビューウィンドウ81に表示されてい
る場合は、次に、参加者A(発話者)と参加者B(発話
対象者)との間の距離を計算し(ステップS37)、そ
の距離が所定の制限距離以内であるか否かを判定する
(ステップS38)。ここで、所定の制限距離とは、た
とえば、実世界における通常の会話可能距離に相当する
距離のことである。
The determination result of step S34 is affirmative (YE
S), that is, when the avatar of the participant B corresponding to the utterance target is displayed in the view window 81, next, the participant A (speaker) and the participant B (speaker). ) Is calculated (step S37), and it is determined whether the distance is within a predetermined limit distance (step S38). Here, the predetermined limit distance is, for example, a distance corresponding to a normal conversationable distance in the real world.

【0093】ステップS38の判定結果が否定(NO)
の場合、すなわち、参加者Aと参加者Bとの間の距離
が、実世界における通常の会話可能距離に相当する距離
を越えている場合には、参加者Aの発した声が参加者B
に届かず、したがって、参加者Bがその声に反応し得る
状態にないものと判断し、以下の処理(視線移動量計算
や視線方向制御等)をパスし、参加者Aの発話内容をビ
ューウィンドウ81に表示する(ステップS42)。
The determination result of step S38 is negative (NO).
In the case of, that is, when the distance between the participant A and the participant B exceeds the distance equivalent to a normal conversationable distance in the real world, the voice uttered by the participant A is the voice of the participant B.
Therefore, it is judged that the participant B is not in a state in which he / she can react to the voice, and the following processes (gaze movement amount calculation, gaze direction control, etc.) are passed, and the utterance content of the participant A is viewed. It is displayed in the window 81 (step S42).

【0094】一方、ステップS38の判定結果が肯定
(YES)の場合、すなわち、参加者Aと参加者Bとの
間の距離が、実世界における通常の会話可能距離に相当
する距離以内である場合には、参加者Aの発した声に参
加者Bが充分に反応し得ると判断し、参加者Aの視線移
動量を計算する(ステップS39:第3ステップ)。視
線移動量の計算概念は、先の第1のアルゴリズムと同じ
(図8参照)である。すなわち、まず、参加者Aと参加
者Bの顔の中心点Pa、Pbを結ぶ直線Lを求め(ステ
ップS18a)、次いで、参加者Aの視線方向Fと直線
Lの角度θを求める(ステップS18b)。角度θが参
加者Aの視線移動量になる。θが0度になるように参加
者Aの視線方向Fを変更することにより、参加者Aの視
線を参加者Bの方向に向けることができる。
On the other hand, if the determination result in step S38 is affirmative (YES), that is, if the distance between the participants A and B is within the distance equivalent to the normal conversationable distance in the real world. , It is determined that the participant B can sufficiently react to the voice uttered by the participant A, and the amount of eye movement of the participant A is calculated (step S39: third step). The calculation concept of the eye movement amount is the same as that of the first algorithm (see FIG. 8). That is, first, a straight line L connecting the center points Pa and Pb of the faces of the participants A and B is obtained (step S18a), and then an angle θ between the line-of-sight direction F of the participant A and the straight line L is obtained (step S18b). ). The angle θ is the line-of-sight movement amount of the participant A. By changing the line-of-sight direction F of the participant A so that θ becomes 0 degree, the line-of-sight of the participant A can be directed toward the participant B.

【0095】このようにして視線移動量θを計算する
と、次に、CPサーバ8は、視線移動量θが0以外の値
であるか否かを判定する(ステップS40)。θ=0の
場合は、すでに参加者Aの視線が参加者Bの方に向いて
いるので、視線方向制御を行わずに、参加者Aの発話内
容をビューウィンドウ81に表示する(ステップS4
2)。
When the line-of-sight movement amount θ is calculated in this way, the CP server 8 next determines whether or not the line-of-sight movement amount θ is a value other than 0 (step S40). In the case of θ = 0, the line of sight of the participant A has already turned to the side of the participant B, so that the speech content of the participant A is displayed in the view window 81 without controlling the line-of-sight direction (step S4).
2).

【0096】θ<>0の場合は、次に、視線移動量θだ
け参加者Aの視線方向Fの移動制御を行うための情報を
CPブラウザ13に送信し(ステップS41:第4ステ
ップ)、CPブラウザ13は、その情報に基づいて参加
者Aの視線を参加者Bの方に向けた後、参加者Aの発話
内容をビューウィンドウ81に表示する(ステップS4
2)。
If θ <> 0, then information for controlling movement of the participant A in the line-of-sight direction F by the line-of-sight movement amount θ is transmitted to the CP browser 13 (step S41: fourth step). Based on the information, the CP browser 13 directs the line of sight of the participant A toward the participant B, and then displays the utterance content of the participant A in the view window 81 (step S4).
2).

【0097】したがって、この第2のアルゴリズムによ
れば、ビューウィンドウ81に表示されている任意のア
バタが発話したとき、その発話相手の方向に、当該アバ
タの視線を向けることができる。その結果、手動操作に
よるアバタの動きに加えて、発話相手指定型の自律的な
視線移動をアバタに与えることができるから、操作性の
改善はもちろんのこと、よりリアリティー感を増した三
次元仮想空間表示方法を提供することができる。
Therefore, according to this second algorithm, when an avatar displayed in the view window 81 utters, it is possible to direct the avatar's line of sight to the direction of the utterance partner. As a result, in addition to the movement of the avatar by manual operation, it is possible to give the avatar an autonomous line-of-sight movement that specifies the speaking partner, which not only improves operability but also enhances the sense of reality in 3D virtual. A spatial display method can be provided.

【0098】図11は、その発話相手指定型の自律的な
動きを示す一例図である。この例においては、参加者A
が発話者であり、相手指定の所定の発話(たとえば、
“こんにちは>花子さん”)を発話するものとする。発
話対象者(図では参加者B)と発話者との間の距離を所
定の制限距離以内とすると、参加者Aの発話に応答し
て、参加者Aの発話対象者に対する視線移動量θが計算
され、その視線移動量θをゼロとするように参加者Aの
視線方向が制御される。すなわち、参加者Aの視線が発
話対象者(参加者B;花子さん)の方を向くように自律
的に制御される。前記の第1のアルゴリズムとの違い
は、発話者のみが発話対象者の方を向く点にある。すな
わち、先の第1のアルゴリズムでは、所定の制限距離以
内にいる発話者以外の参加者が一斉に発話者の方を向く
が、この第2のアルゴリズムでは、発話者のみが視線を
変更するから、とりわけ一対一のコミュニケーションの
リアリティーを増すことができる。
FIG. 11 is an example of the utterance partner designation type autonomous movement. In this example, participant A
Is a speaker, and a predetermined utterance designated by the other party (for example,
It is assumed that the speech a "Hello>Hanako"). If the distance between the utterance target (participant B in the figure) and the utterer is within a predetermined limit distance, in response to the utterance of the participant A, the eye movement amount θ of the participant A with respect to the utterance target is The line-of-sight direction of the participant A is calculated so that the line-of-sight movement amount θ is zero. That is, the line of sight of the participant A is autonomously controlled so as to face the utterance target (participant B; Mr. Hanako). The difference from the above-mentioned first algorithm is that only the utterer faces the utterance target. That is, in the first algorithm described above, all the participants other than the speakers within the predetermined limit distance face the speakers all at once, but in the second algorithm, only the speakers change the line of sight. Especially, the reality of one-on-one communication can be increased.

【0099】なお、この第2のアルゴリズムでは、発話
内容中に特定の記号(“>”)がある場合に、その記号
の右側の文字列から発話相手の固有名詞(ニックネーム
等)を取り出しているが、本発明の技術思想はかかる態
様に限定されない。たとえば、人工知能技術を用いて、
会話内容から発話相手の固有名詞(ニックネーム)を抽
出するようにしてもよい。
In the second algorithm, when a specific symbol (">") is present in the utterance content, the proper noun (nickname, etc.) of the uttering partner is extracted from the character string on the right side of the symbol. However, the technical idea of the present invention is not limited to such an aspect. For example, using artificial intelligence technology,
The proper noun (nickname) of the utterance partner may be extracted from the conversation content.

【0100】また、この第2のアルゴリズムでは、発話
者対象者との距離が所定の制限距離(たとえば、実世界
における通常の会話可能距離に相当する距離)以内の場
合にのみ、発話者の視線を発話対象者の方に向けるよう
にしているが、これに限定されない。発話者の声の大き
さによってはかかる距離の制限をなくしてもよいし、ま
たは、所定の制限距離をシチュエーションに応じて可変
とするようにしてもよい。
Further, in the second algorithm, the line of sight of the speaker can be obtained only when the distance to the target speaker is within a predetermined limit distance (for example, a distance corresponding to a normal conversationable distance in the real world). , But is not limited to this. Depending on the loudness of the speaker's voice, the limitation on the distance may be eliminated, or the predetermined limitation distance may be variable according to the situation.

【0101】本実施の形態の主要な機能は、マイクロコ
ンピュータを含むハードウェア資産と、オペレーティン
グ・システム(OS)や各種プログラムなどのソフトウ
ェア資産との有機的結合によって機能的に実現されるも
のであるが、ハードウェア資産およびOSは汎用のもの
を利用できるから、本発明にとって欠くことのできない
必須の事項は、実質的に、前記の第1または第2のアル
ゴリズム(図7または図10)に集約されているという
ことがいえる。したがって、本発明は、前記の第1また
は第2のアルゴリズムのすべてまたはその要部を格納し
た、FD、MO、CD、ハードディスク、半導体メモリ
などの記録媒体(それ自体が流通経路に乗るものはもち
ろん、ネットワーク上にあって記録内容だけを提供する
ものも含む)を包含するものである。
The main function of this embodiment is functionally realized by organically combining hardware assets including a microcomputer and software assets such as an operating system (OS) and various programs. However, since general-purpose hardware assets and OS can be used, essential items essential to the present invention are substantially summarized in the first or second algorithm (FIG. 7 or FIG. 10). It can be said that it has been done. Therefore, according to the present invention, a recording medium such as an FD, an MO, a CD, a hard disk, or a semiconductor memory, which stores all or a part of the first or second algorithm described above (of course, a recording medium which itself is in a distribution channel) is used. , And those that provide only the recorded contents on the network).

【0102】[0102]

【発明の効果】一の発明によれば、任意の参加者の端末
からの発話メッセージに基づいて、その発話メッセージ
に対応する参加者のアバタの三次元仮想空間内における
位置が特定され、他の参加者のアバタの視線が前記特定
された位置に指向させられる。
According to one aspect of the invention, the position of the avatar of the participant corresponding to the utterance message in the three-dimensional virtual space is specified based on the utterance message from the terminal of any participant, and The line of sight of the avatar of the participant is directed to the specified position.

【0103】したがって、三次元仮想空間内のアバタの
発話に反応して他のアバタの視線が自律的に変更される
「発話反応型の動き」をそれぞれのアバタに与えること
ができ、ユーザの手動操作を不要にして、よりリアリテ
ィー感を増した三次元仮想空間表示方法を提供すること
ができる。
Therefore, it is possible to give each avatar a "speech response type movement" in which the sight line of another avatar is autonomously changed in response to the utterance of the avatar in the three-dimensional virtual space. It is possible to provide a three-dimensional virtual space display method that eliminates the need for operation and enhances the sense of reality.

【0104】この発明の好ましい態様によれば、前記発
話メッセージに対応する参加者のアバタと他の参加者の
アバタの距離が所定の制限距離以内の場合にのみ、他の
参加者のアバタの視線が前記特定された位置に指向させ
られる。
According to a preferred aspect of the present invention, only when the distance between the avatar of the participant corresponding to the utterance message and the avatar of the other participant is within a predetermined limit distance, the line of sight of the avatar of the other participant. Are directed to the specified position.

【0105】したがって、たとえば、実世界における通
常の会話可能距離に相当する距離以上離れている場合
に、アバタの視線移動を行わないようにすることがで
き、実世界とのミスマッチを回避し、違和感をなくすこ
とができる。
Therefore, for example, when the distance is equal to or more than the normal conversationable distance in the real world, it is possible to prevent the avatar's line of sight from moving, avoid a mismatch with the real world, and feel uncomfortable. Can be eliminated.

【0106】二の発明によれば、任意の参加者の端末か
らの発話メッセージに発話相手に関する情報が含まれて
いるとき、その情報に基づいて発話相手のアバタが特定
されると共に、その発話相手のアバタの前記三次元仮想
空間内における位置が特定され、前記発話メッセージに
対応する参加者のアバタの視線が前記特定された位置に
指向させられる。
According to the second aspect of the invention, when the utterance message from the terminal of any participant includes information about the utterance partner, the avatar of the utterance partner is specified based on the information, and the utterance partner is also specified. The position of the avatar of the avatar is specified in the three-dimensional virtual space, and the line of sight of the avatar of the participant corresponding to the speech message is directed to the specified position.

【0107】したがって、三次元仮想空間内のアバタの
発話内容からその発話相手を特定し、発話者の視線が発
話相手の方に向くように自律的に変更される「発話相手
指定型の動き」を発話者のアバタに与えることができ、
ユーザの手動操作を不要にして、よりリアリティー感を
増した三次元仮想空間表示方法を提供することができ
る。
Therefore, a "speech partner designation type movement" in which the utterance partner is specified from the utterance content of the avatar in the three-dimensional virtual space and is changed autonomously so that the line of sight of the utterer faces the utterance partner. Can be given to the speaker's avatar,
It is possible to provide a three-dimensional virtual space display method that does not require manual operation by the user and has a more realistic feeling.

【0108】この発明の好ましい態様によれば、前記発
話相手のアバタと前記発話メッセージに対応する参加者
のアバタの距離が所定の制限距離以内の場合にのみ、前
記発話メッセージに対応する参加者のアバタの視線が前
記特定された位置に指向させられる。
According to a preferred aspect of the present invention, only when the distance between the utterance partner avatar and the participant avatar corresponding to the utterance message is within a predetermined limit distance, the participant corresponding to the utterance message is The avatar's line of sight is directed to the specified location.

【0109】したがって、たとえば、実世界における通
常の会話可能距離に相当する距離以上離れている場合
に、アバタの視線移動を行わないようにすることがで
き、実世界とのミスマッチを回避し、違和感をなくすこ
とができる。
Therefore, for example, it is possible to prevent the avatar's line of sight from moving when the distance is equal to or more than the normal conversationable distance in the real world, avoiding a mismatch with the real world, and feeling discomfort. Can be eliminated.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る「三次元仮想空間表示方法」を適
用できるネットワーク・コンピューティング・システム
1の模式的構成図である。
FIG. 1 is a schematic configuration diagram of a network computing system 1 to which a “three-dimensional virtual space display method” according to the present invention can be applied.

【図2】本実施の形態に係る三次元仮想世界にログイン
するユーザのコンピュータ(たとえば、ユーザPC7
a、7b)とWWWサーバ10及びCPサーバ8との関
係図である。
FIG. 2 is a computer (for example, user PC 7) of a user who logs in to the three-dimensional virtual world according to the present embodiment.
It is a relationship diagram of a, 7b) and WWW server 10 and CP server 8.

【図3】CPサーバ8、AOサーバ9a、9b、・・・・、
WWWサーバ10に共通のハードウェア構成図である。
FIG. 3 is a CP server 8, AO servers 9a, 9b, ...
FIG. 3 is a hardware configuration diagram common to the WWW server 10.

【図4】ユーザPC7a、7b、7c、・・・・のハードウ
ェア構成図である。
FIG. 4 is a hardware configuration diagram of user PCs 7a, 7b, 7c, ...

【図5】AOサーバ9a、9b、・・・・、CPサーバ8、
及び、CPブラウザ13の関係図である。
FIG. 5: AO servers 9a, 9b, ..., CP server 8,
3 is a relationship diagram of the CP browser 13. FIG.

【図6】本実施の形態に係るコミュニティ・システム・
サービス用のユーザインターフェース画面を示す図であ
る。
FIG. 6 shows a community system according to the present embodiment.
It is a figure which shows the user interface screen for services.

【図7】第1のアルゴリズム(発話反応型)を示す図で
ある。
FIG. 7 is a diagram showing a first algorithm (speech response type).

【図8】視線移動量の計算概念図である。FIG. 8 is a conceptual diagram of calculation of a line-of-sight movement amount.

【図9】発話反応型の自律的な動きを示す一例図であ
る。
FIG. 9 is an example diagram showing a speech reaction type autonomous movement.

【図10】第2のアルゴリズム(発話相手指定型)を示
す図である。
FIG. 10 is a diagram showing a second algorithm (speech partner designation type).

【図11】発話相手指定型の自律的な動きを示す一例図
である。
FIG. 11 is an example diagram showing an utterance partner designation type autonomous movement.

【図12】従来のサイバー・スペース・サービス・シス
テムによって提供される三次元仮想空間の一例を示す図
である。
FIG. 12 is a diagram showing an example of a three-dimensional virtual space provided by a conventional cyber space service system.

【図13】コントロールパネル208の拡大図及び用途
説明図である。
FIG. 13 is an enlarged view of the control panel 208 and an application explanatory view.

【符号の説明】[Explanation of symbols]

S18・・・・ステップ(第1ステップ)、S20・・・・ステ
ップ(第2ステップ)、S31・・・・ステップ(第1ステ
ップ)、S33・・・・ステップ(第2ステップ)、S39
・・・・ステップ(第3ステップ)、S41・・・・ステップ
(第4ステップ)、201・・・・画面(三次元仮想空
間)、7a、7b、7c・・・・ユーザPC(端末)、8
2、83、62、63、64・・・・アバタ、92・・・・チャ
ットウィンドウ(メッセージボード)。
S18 ... Step (first step), S20 ... Step (second step), S31 ... Step (first step), S33 ... Step (second step), S39
··· Step (3rd step), S41 ··· Step (4th step), 201 ··· Screen (three-dimensional virtual space), 7a, 7b, 7c ··· User PC (terminal) , 8
2, 83, 62, 63, 64 ... Avatar, 92 ... Chat window (message board).

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 三次元仮想空間に参加中の各参加者自身
の分身であるアバタを当該三次元仮想空間内に表示し、 各参加者の端末操作に応答させてその参加者のアバタの
表示位置やアバタの視点を変更すると共に、 任意の参加者の端末から入力された発話メッセージを、
その参加者のアバタに対応させて前記三次元仮想空間内
に表示し、または所定のメッセージボードに表示する三
次元仮想空間表示方法において、 前記発話メッセージに対応する参加者のアバタの前記三
次元仮想空間内における位置を特定する第1ステップ
と、 他の参加者のアバタの視線を前記特定した位置に指向さ
せる第2ステップとを含むことを特徴とする三次元仮想
空間表示方法。
1. An avatar, which is the alter ego of each participant participating in the three-dimensional virtual space, is displayed in the three-dimensional virtual space, and the participant's avatar is displayed in response to the terminal operation of each participant. While changing the position and viewpoint of the avatar, you can change the utterance message input from the terminal of any participant.
In the three-dimensional virtual space display method of displaying in the three-dimensional virtual space corresponding to the participant's avatar or displaying on a predetermined message board, the three-dimensional virtual of the participant's avatar corresponding to the speech message. A three-dimensional virtual space display method comprising: a first step of specifying a position in space; and a second step of directing the line of sight of an avatar of another participant to the specified position.
【請求項2】 前記第2ステップは、 前記発話メッセージに対応する参加者のアバタと他の参
加者のアバタの距離が所定の制限距離以内の場合に、 他の参加者のアバタの視線を前記特定した位置に指向さ
せることを特徴とする請求項1記載の三次元仮想空間表
示方法。
2. The second step, when the distance between the avatar of the participant corresponding to the utterance message and the avatar of the other participant is within a predetermined limit distance, the line of sight of the avatar of the other participant is set. The three-dimensional virtual space display method according to claim 1, wherein the display is directed to a specified position.
【請求項3】 前記所定の制限距離を任意に設定し得る
ようにしたことを特徴とする請求項2記載の三次元仮想
空間表示方法。
3. The three-dimensional virtual space display method according to claim 2, wherein the predetermined limit distance can be set arbitrarily.
【請求項4】 三次元仮想空間に参加中の各参加者自身
の分身であるアバタを当該三次元仮想空間内に表示し、 各参加者の端末操作に応答させてその参加者のアバタの
表示位置やアバタの視点を変更すると共に、 任意の参加者の端末から入力された発話メッセージを、
その参加者のアバタに対応させて前記三次元仮想空間内
に表示し、または所定のメッセージボードに表示する三
次元仮想空間表示方法において、 前記発話メッセージに発話相手に関する情報が含まれて
いるか否かを判定する第1ステップと、 前記判定の結果が肯定のとき前記情報に基づいて発話相
手のアバタを特定する第2ステップと、 その発話相手のアバタの前記三次元仮想空間内における
位置を特定する第3ステップと、 前記発話メッセージに対応する参加者のアバタの視線を
前記特定した位置に指向させる第4ステップとを含むこ
とを特徴とする三次元仮想空間表示方法。
4. An avatar, which is the alter ego of each participant participating in the three-dimensional virtual space, is displayed in the three-dimensional virtual space, and the participant's avatar is displayed in response to the terminal operation of each participant. While changing the position and viewpoint of the avatar, you can change the utterance message input from the terminal of any participant.
In the three-dimensional virtual space display method of displaying in the three-dimensional virtual space corresponding to the avatar of the participant or displaying on a predetermined message board, whether the utterance message includes information about the utterance partner or not. A second step of identifying the utterance partner's avatar based on the information when the result of the determination is affirmative, and the position of the utterance partner's avatar in the three-dimensional virtual space. The three-dimensional virtual space display method comprising: a third step; and a fourth step of directing the line of sight of the avatar of the participant corresponding to the speech message to the specified position.
【請求項5】 前記第4ステップは、 前記発話相手のアバタと前記発話メッセージに対応する
参加者のアバタの距離が所定の制限距離以内の場合に、 前記発話メッセージに対応する参加者のアバタの視線を
前記特定した位置に指向させることを特徴とする請求項
4記載の三次元仮想空間表示方法。
5. In the fourth step, when the distance between the avatar of the utterance partner and the avatar of the participant corresponding to the utterance message is within a predetermined limit distance, the avatar of the participant corresponding to the utterance message is detected. The three-dimensional virtual space display method according to claim 4, wherein the line of sight is directed to the specified position.
【請求項6】 前記所定の制限距離を任意に設定し得る
ようにしたことを特徴とする請求項5記載の三次元仮想
空間表示方法。
6. The three-dimensional virtual space display method according to claim 5, wherein the predetermined limit distance can be set arbitrarily.
【請求項7】 コンピュータに所定の処理機能を実行さ
せるためのプログラムであって、 任意の参加者の端末から入力された発話メッセージを、
その参加者自身の分身であるアバタに対応させて三次元
仮想空間内に表示し、または所定のメッセージボードに
表示するステップと、 前記発話メッセージに対応する参加者のアバタの前記三
次元仮想空間内における位置を特定する第1ステップ
と、 他の参加者のアバタの視線を前記特定した位置に指向さ
せる第2ステップとを有することを特徴とするプログラ
ム。
7. A program for causing a computer to execute a predetermined processing function, wherein a speech message input from a terminal of an arbitrary participant,
In the three-dimensional virtual space of the avatar of the participant corresponding to the speech message, the step of displaying in the three-dimensional virtual space corresponding to the avatar that is the participant's own alternation, or displaying on a predetermined message board. And a second step of directing the line of sight of an avatar of another participant to the specified position.
【請求項8】 前記第2ステップは、 前記発話メッセージに対応する参加者のアバタと他の参
加者のアバタの距離が所定の制限距離以内の場合に、 他の参加者のアバタの視線を前記特定した位置に指向さ
せることを特徴とする請求項7記載のプログラム。
8. The second step, when the distance between the avatar of the participant corresponding to the utterance message and the avatar of the other participant is within a predetermined limit distance, the line of sight of the avatar of the other participant is set. The program according to claim 7, wherein the program is directed to a specified position.
【請求項9】 前記所定の制限距離を任意に設定し得る
ようにしたことを特徴とする請求項8記載のプログラ
ム。
9. The program according to claim 8, wherein the predetermined limit distance can be set arbitrarily.
【請求項10】 コンピュータに所定の処理機能を実行
させるためのプログラムであって、 任意の参加者の端末から入力された発話メッセージを、
その参加者自身の分身であるアバタに対応させて三次元
仮想空間内に表示し、または所定のメッセージボードに
表示するステップと、 前記発話メッセージに発話相手に関する情報が含まれて
いるか否かを判定する第1ステップと、 前記判定の結果が肯定のとき前記情報に基づいて発話相
手のアバタを特定する第2ステップと、 その発話相手のアバタの前記三次元仮想空間内における
位置を特定する第3ステップと、 前記発話メッセージに対応する参加者のアバタの視線を
前記特定した位置に指向させる第4ステップとを有する
ことを特徴とするプログラム。
10. A program for causing a computer to execute a predetermined processing function, wherein a speech message input from a terminal of an arbitrary participant,
Displaying in a three-dimensional virtual space corresponding to the participant's own avatar, or displaying on a predetermined message board, and determining whether or not the utterance message includes information about the utterance partner And a second step of identifying the utterance partner's avatar based on the information when the result of the determination is affirmative, and a third step of identifying the position of the utterance partner's avatar in the three-dimensional virtual space. A program comprising: a step; and a fourth step of directing the line of sight of the avatar of the participant corresponding to the speech message to the specified position.
【請求項11】 前記第4ステップは、 前記発話相手のアバタと前記発話メッセージに対応する
参加者のアバタの距離が所定の制限距離以内の場合に、 前記発話メッセージに対応する参加者のアバタの視線を
前記特定した位置に指向させることを特徴とする請求項
10記載のプログラム。
11. The fourth step comprises: if the distance between the avatar of the utterance partner and the avatar of the participant corresponding to the utterance message is within a predetermined limit distance, the avatar of the participant corresponding to the utterance message is detected. The program according to claim 10, wherein the line of sight is directed to the specified position.
【請求項12】 前記所定の制限距離を任意に設定し得
るようにしたことを特徴とする請求項11記載のプログ
ラム。
12. The program according to claim 11, wherein the predetermined limit distance can be set arbitrarily.
【請求項13】 請求項7乃至請求項9いずれかに記載
のプログラムを格納した記録媒体。
13. A recording medium in which the program according to any one of claims 7 to 9 is stored.
【請求項14】 請求項10乃至請求項12いずれかに
記載のプログラムを格納した記録媒体。
14. A recording medium storing the program according to any one of claims 10 to 12.
JP2001345070A 2001-11-09 2001-11-09 Three-dimensional virtual space display method, program, recording medium storing the program, and three-dimensional virtual space control device Expired - Fee Related JP4048347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001345070A JP4048347B2 (en) 2001-11-09 2001-11-09 Three-dimensional virtual space display method, program, recording medium storing the program, and three-dimensional virtual space control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001345070A JP4048347B2 (en) 2001-11-09 2001-11-09 Three-dimensional virtual space display method, program, recording medium storing the program, and three-dimensional virtual space control device

Publications (3)

Publication Number Publication Date
JP2003150978A true JP2003150978A (en) 2003-05-23
JP2003150978A5 JP2003150978A5 (en) 2005-07-07
JP4048347B2 JP4048347B2 (en) 2008-02-20

Family

ID=19158478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001345070A Expired - Fee Related JP4048347B2 (en) 2001-11-09 2001-11-09 Three-dimensional virtual space display method, program, recording medium storing the program, and three-dimensional virtual space control device

Country Status (1)

Country Link
JP (1) JP4048347B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078427A (en) * 2003-09-01 2005-03-24 Hitachi Ltd Mobile terminal and computer software
WO2005029414A1 (en) * 2003-09-16 2005-03-31 Japan Science And Technology Agency Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer readable recording medium where the program is recorded
JP2006314632A (en) * 2005-05-13 2006-11-24 Nintendo Co Ltd Game program and game device
JP2008259880A (en) * 2008-07-17 2008-10-30 Nintendo Co Ltd Game program and game device
JP2010005132A (en) * 2008-06-26 2010-01-14 Taito Corp Game apparatus and game program
WO2014119097A1 (en) 2013-02-01 2014-08-07 ソニー株式会社 Information processing device, terminal device, information processing method, and programme
WO2014119098A1 (en) 2013-02-01 2014-08-07 ソニー株式会社 Information processing device, terminal device, information processing method, and programme
JP6298523B1 (en) * 2016-12-26 2018-03-20 株式会社コロプラ Method executed by computer to communicate through virtual space, program for causing computer to execute the method, and computer apparatus
JP6321247B1 (en) * 2017-03-08 2018-05-09 株式会社コロプラ Method executed by computer for moving in virtual space, program for causing computer to execute the method, and information processing apparatus
JP2018106744A (en) * 2016-12-26 2018-07-05 株式会社コロプラ Method executed by computer for communication through virtual space, program causing computer to execute the same and computer device
WO2019130864A1 (en) * 2017-12-28 2019-07-04 ソニー株式会社 Information processing device, information processing method, and program
JP2020509468A (en) * 2017-02-13 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント Simulation method and system
WO2020262420A1 (en) * 2019-06-28 2020-12-30 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
JP2021009681A (en) * 2020-03-30 2021-01-28 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078427A (en) * 2003-09-01 2005-03-24 Hitachi Ltd Mobile terminal and computer software
WO2005029414A1 (en) * 2003-09-16 2005-03-31 Japan Science And Technology Agency Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer readable recording medium where the program is recorded
US7695367B2 (en) 2005-05-13 2010-04-13 Nintendo Co., Ltd. Storage medium having game program stored thereon and game apparatus
JP2006314632A (en) * 2005-05-13 2006-11-24 Nintendo Co Ltd Game program and game device
JP2010005132A (en) * 2008-06-26 2010-01-14 Taito Corp Game apparatus and game program
JP4743721B2 (en) * 2008-07-17 2011-08-10 任天堂株式会社 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND METHOD
JP2008259880A (en) * 2008-07-17 2008-10-30 Nintendo Co Ltd Game program and game device
EP3517190A2 (en) 2013-02-01 2019-07-31 Sony Corporation Information processing device, terminal device, information processing method, and programme
WO2014119097A1 (en) 2013-02-01 2014-08-07 ソニー株式会社 Information processing device, terminal device, information processing method, and programme
WO2014119098A1 (en) 2013-02-01 2014-08-07 ソニー株式会社 Information processing device, terminal device, information processing method, and programme
US11488362B2 (en) 2013-02-01 2022-11-01 Sony Corporation Information processing device, client device, information processing method, and program
US10529134B2 (en) 2013-02-01 2020-01-07 Sony Corporation Information processing device, client device, information processing method, and program
US10453259B2 (en) 2013-02-01 2019-10-22 Sony Corporation Information processing device, client device, information processing method, and program
JP2018106391A (en) * 2016-12-26 2018-07-05 株式会社コロプラ Method executed by computer for communication through virtual space, program causing computer to execute the same and computer device
JP2018106744A (en) * 2016-12-26 2018-07-05 株式会社コロプラ Method executed by computer for communication through virtual space, program causing computer to execute the same and computer device
JP6298523B1 (en) * 2016-12-26 2018-03-20 株式会社コロプラ Method executed by computer to communicate through virtual space, program for causing computer to execute the method, and computer apparatus
JP2020509468A (en) * 2017-02-13 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント Simulation method and system
JP7232765B2 (en) 2017-02-13 2023-03-03 株式会社ソニー・インタラクティブエンタテインメント Simulation method and system
JP6321247B1 (en) * 2017-03-08 2018-05-09 株式会社コロプラ Method executed by computer for moving in virtual space, program for causing computer to execute the method, and information processing apparatus
JP2018147334A (en) * 2017-03-08 2018-09-20 株式会社コロプラ Method to be executed by computer for movement in virtual space, program causing computer to execute the same and information processing device
WO2019130864A1 (en) * 2017-12-28 2019-07-04 ソニー株式会社 Information processing device, information processing method, and program
WO2020262420A1 (en) * 2019-06-28 2020-12-30 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
JP2021010077A (en) * 2019-06-28 2021-01-28 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program and content display method
CN113841182A (en) * 2019-06-28 2021-12-24 多玩国株式会社 Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
US11979684B2 (en) 2019-06-28 2024-05-07 Dwango Co., Ltd. Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
JP2021009681A (en) * 2020-03-30 2021-01-28 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
JP7257986B2 (en) 2020-03-30 2023-04-14 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method

Also Published As

Publication number Publication date
JP4048347B2 (en) 2008-02-20

Similar Documents

Publication Publication Date Title
US11785056B2 (en) Web browser interface for spatial communication environments
US7086005B1 (en) Shared virtual space conversation support system using virtual telephones
US9813463B2 (en) Phoning into virtual communication environments
EP1451672B1 (en) Rich communication over internet
KR100751184B1 (en) Method for changing graphical data like avatars by mobile telecommunications terminals
US8539085B2 (en) Networked computer system for communicating and operating in a virtual reality environment
US20170192799A1 (en) Method and System for Embedded Personalized Communication
US20060026233A1 (en) Enabling communication between users surfing the same web page
JP4048347B2 (en) Three-dimensional virtual space display method, program, recording medium storing the program, and three-dimensional virtual space control device
US20020059378A1 (en) System and method for providing on-line assistance through the use of interactive data, voice and video information
EP0950956A1 (en) Computer network
JP2002109394A (en) Device and method for providing community service, program-storing medium and community system
JP2003178328A (en) Three-dimensional virtual space display device, three- dimensional virtual space display method, program and storage medium with the program stored therein
KR20190104821A (en) Server, device and method for providing avatar communication
JPH0863416A (en) Cyberspace system
JP2003132003A (en) Information brokerage system, method and program thereof
US20230339816A1 (en) Visual Communications
JPH10154053A (en) Three-dimensional virtual reality space display processor, display processing method and information providing medium
KR20010096832A (en) Method for image chatting using internet
KR101000998B1 (en) Background changing method and system according to viewpoint of the avatar
JPH10154059A (en) Image display processor, image display processing method and information providing medium
KR20060036358A (en) System for providing 3d background screen
JPH10105541A (en) Information processor, information processing method and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041102

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20041102

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees