JP3452348B2 - Speaker identification method in virtual space and recording medium storing the program - Google Patents

Speaker identification method in virtual space and recording medium storing the program

Info

Publication number
JP3452348B2
JP3452348B2 JP03069499A JP3069499A JP3452348B2 JP 3452348 B2 JP3452348 B2 JP 3452348B2 JP 03069499 A JP03069499 A JP 03069499A JP 3069499 A JP3069499 A JP 3069499A JP 3452348 B2 JP3452348 B2 JP 3452348B2
Authority
JP
Japan
Prior art keywords
speaker
alter ego
virtual space
interlocutor
alternation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03069499A
Other languages
Japanese (ja)
Other versions
JP2000231644A (en
Inventor
敏宏 松本
大祐 箕浦
茂樹 正木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP03069499A priority Critical patent/JP3452348B2/en
Publication of JP2000231644A publication Critical patent/JP2000231644A/en
Application granted granted Critical
Publication of JP3452348B2 publication Critical patent/JP3452348B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、計算機(コンピュ
ータ)上にコンピュータグラフィック技術を用いて構築
された3次元仮想空間等の中をネットワークを介して、
音声、顔画像、テキストおよび自分の分身等の表現によ
る複合されたコミュニケーション手段を用いて通信し、
遠隔地における複数の端末利用者が同じ仮想空間の中で
同時にコミュニケーションが行えるシステムにおいて、
発話者を視覚的に特定することにより円滑なコミュニケ
ーションを図るようにする技術に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional virtual space or the like constructed on a computer (computer) by using computer graphic technology via a network.
Communicate using voice, facial images, texts, and complex communication means that express yourself,
In a system where multiple terminal users in remote areas can communicate at the same time in the same virtual space,
The present invention relates to a technique for achieving smooth communication by visually identifying a speaker.

【0002】[0002]

【従来の技術】ネットワークを介してコンピュータ上に
構築された3次元仮想空間の中を、自分自身の分身を利
用して、散策したり、同じくその仮想空間に入ってきて
いる他人とリアルタイムに音声、画像を通じてコミュニ
ケーションをとることができるシステムは、従来からい
くつか存在する。それらの従来型のシステムにおいて、
発話者(会話をしている分身)の特定方法としては、そ
の分身の口が発話に応じて動的に変化する方法、または
コンピュータ上の3次元仮想空間の表示部分を3次元の
表示部分とその世界全体を上から見た2次元の表示部分
とで組み合わせ、その2次元の表示部分に発話者を中心
として周囲に拡散する波紋の形で発話状況を表示する方
法や、仮想空間自体を秘話エリア、音声受信のみのエリ
ア、音声送信のみのエリアなどその機能毎に区切って発
話者を特定する方法、分身同士の距離、方向を判定し
て、3次元的な音場を作りだすことによって発話者の位
置を特定させようという方法などがある。
2. Description of the Related Art In a three-dimensional virtual space constructed on a computer via a network, one's own alter ego can be used for a walk, or voice can be heard in real time with another person who is also in the virtual space. Conventionally, there are several systems that can communicate with each other through images. In those traditional systems,
As a method of identifying a speaker (a person who has a conversation), a method in which the mouth of the body changes dynamically according to the utterance, or a display portion of a three-dimensional virtual space on a computer is called a three-dimensional display portion. A method of combining the whole world with a two-dimensional display part viewed from above, displaying the utterance situation in the form of ripples diffused around the speaker around the two-dimensional display part, and the virtual space itself A speaker is created by creating a three-dimensional sound field by determining the speaker by dividing the function into areas such as areas, areas that only receive audio, areas that only send audio, and the distances and directions between the subjects. There is a method to identify the position of.

【0003】[0003]

【発明が解決しようとする課題】前述の従来技術は、3
次元仮想空間上における参加者がごく少数である場合、
発話者の特定には有効な手段であった。
The above-mentioned conventional technique has three problems.
When the number of participants in the dimensional virtual space is very small,
It was an effective means to identify the speaker.

【0004】しかし、例えば分身の口を発話に応じて変
化させる方法は、参加者が多くなり、発話者が複数いた
場合などには、発話に応じて動的に分身の口を変化させ
ても、動きのパターンが同様な物体が複数になってしま
うために、自らが興味のある分身を特定するのは困難で
ある。そのため、誰が誰に向かって話かけているの分か
らなくなってしまう。また、仮想空間内で発話者と対話
者の距離が或る程度離れていれば発話者がどこにいるか
すぐに特定できない、会話グループを形成するのに時間
がかかる、あるいは妨げになる、という問題点もあっ
た。
However, for example, in the method of changing the mouth of the alter ego according to the utterance, when the number of participants increases and there are a plurality of speakers, even if the mouth of the alter ego is dynamically changed according to the utterance. , It is difficult for oneself to identify the alter ego that he / she is interested in because there are multiple objects with similar movement patterns. So you don't know who is talking to whom. Further, if the distance between the speaker and the interlocutor is a certain distance in the virtual space, it is not possible to immediately identify where the speaker is, it takes time to form a conversation group, or it becomes an obstacle. There was also.

【0005】一方、分身モデルの数はコンピュータ上で
は有限なので、参加者が増えるほど同じような分身の形
をした利用者が増えてしまうので、参加者は画面上で発
話者がどの分身であるか視覚的に特定をするのは困難で
あり、会話に入りにくいという問題点がある。
On the other hand, since the number of alternation models is finite on the computer, the number of users who have the same alternation shape increases as the number of participants increases. Therefore, the participants are who the speaker is on the screen. It is difficult to visually identify it, and it is difficult to enter the conversation.

【0006】さらに、音源からの距離により音声出力を
制御する方法では、参加者が複数で、発話者も複数いる
仮想空間では発話者を聴覚的に特定するのは容易だが、
視覚的に一致させるのは容易でなく、その人と対面して
話たいと思っても、その分身を特定するのに時間がかか
るという問題点がある。
Further, in the method of controlling the voice output according to the distance from the sound source, it is easy to aurally identify the speaker in a virtual space in which there are a plurality of participants and a plurality of speakers.
Visual matching is not easy, and even if you want to talk face-to-face with the person, it takes time to identify the other person.

【0007】本発明の目的は、多人数参加型の3次元仮
想空間において、分身同士の距離が仮想空間内で一定距
離以上離れているときには、会話グループを形成しづら
い、会話に入るのに時間がかかる、すぐに対面したいと
きにできない、といった原因となっている発話者の場所
をすぐに特定できないという問題を解決することにあ
る。
The object of the present invention is to make it difficult to form a conversation group and take time to enter a conversation when the distance between the alternations is a certain distance or more in the three-dimensional virtual space of the multiplayer type. It is to solve the problem that the location of the speaker, which causes the problem of being unable to do so when he / she wants to meet immediately, cannot be immediately identified.

【0008】また、本発明の目的は、一定距離以内にお
互いが近づいるときには、発話者が複数、参加者が複数
いると個人を特定しづらい、発話者が誰に向かって話し
掛けているのかわかりづらいので会話にすぐに入れない
という問題点を解決することにある。
Further, the object of the present invention is to make it difficult to identify an individual when there are a plurality of speakers and a plurality of participants when they are close to each other within a certain distance, and to know who the speaker is speaking to. It is difficult to solve the problem of not being able to immediately enter the conversation.

【0009】[0009]

【課題を解決するための手段】本発明は、発話者から予
め定めた距離内にいる分身(対話者)に対する発話者の
処理と距離外にいる分身に対する発話者の処理を区分す
る。つまり、発話者から一定距離以上離れている対話者
からは、発話者の分身モデルの大きさが動的に変化して
見えるようし、一定距離内にいる対話者からは、発話者
から発せられる動的な3次元的な波紋物体が見えるよう
にする。波紋物体は、発話者が仮想空間へ参加している
事を表わす特定の名前(以下、ユーザIDと呼ぶ)に応
じて特定される。
The present invention distinguishes between the processing of a speaker for an alter ego within a predetermined distance from the speaker (interlocutor) and the processing of a speaker for an alter ego outside the distance. In other words, the size of the speaker's alter ego model appears to be dynamically changed by the interlocutor who is more than a certain distance away from the speaker, and the speaker can speak from the interlocutor who is within the certain distance. Make a dynamic three-dimensional ripple object visible. The ripple object is specified according to a specific name (hereinafter referred to as a user ID) indicating that the speaker is participating in the virtual space.

【0010】発話者から予め定めた距離内に対話者の分
身がいる場合には、発話者の分身から3次元的な波紋物
体を、発話者の音量と発話者と対話者との距離に応じて
動的に変更しながら表示することにより、発話者の特定
を可能にする。このとき、その対面にいる分身とその反
対にいる分身とでは波紋物体の見える色を変え、発話の
視線の向きが後ろなのか前なのか判断できるようにす
る。また、波紋物体は発話者の向きに応じて一定の距離
内に表示されるので、その範囲内にいれば発話者から表
示される波紋物体の向きにより、発話者の視線の向きが
視覚的に特定できる。また、この波紋物体の色は発話者
のユーザIDに応じて定められる。
When the interlocutor's alter ego is within a predetermined distance from the speaker, a three-dimensional ripple object is set from the speaker's alter ego according to the speaker's volume and the distance between the speaker and the interlocutor. It is possible to identify the speaker by dynamically changing the display. At this time, the visible color of the ripple object is changed between the opposite one and the opposite one so that it is possible to determine whether the sight line of the utterance is backward or forward. In addition, since the ripple object is displayed within a certain distance according to the direction of the speaker, the direction of the speaker's line of sight is visually determined by the direction of the ripple object displayed by the speaker within the range. Can be specified. The color of the ripple object is determined according to the user ID of the speaker.

【0011】一方、発話者から予め定めた距離外に対話
者の分身がいる場合には、発話者である分身のモデルの
大きさを動的に変化させる。このとき、対話者の視線内
に発話者の分身がいないときには、対話者の向きを変更
し、発話者側に向かせる。それにより、発話者から離れ
た場所にいる他の分身も発話者がどの場所にいるか視覚
的に特定できる。
On the other hand, when the altercation of the interlocutor is located outside the predetermined distance from the speaker, the size of the model of the altercation who is the speaker is dynamically changed. At this time, when the speaker's line of sight is not within the line of sight of the speaker, the direction of the speaker is changed to face the speaker. As a result, it is possible to visually identify the location of the speaker in other alternations that are distant from the speaker.

【0012】以上の2つの処理ともに、仮想空間制御サ
ーバから各端末に共通に配信されてきたデータをもとに
端末側で、発話者の動的な変更処理を行う。
In both of the above two processes, the dynamic change process of the speaker is performed on the terminal side based on the data distributed in common from the virtual space control server to each terminal.

【0013】[0013]

【発明の実施の形態】以下、図面を用いて本発明の一実
施の形態について詳しく説明する。図1は、本発明の仮
想空間における発話者特定方法が適用されるシステムの
概略ブロック図を示す。図において、仮想空間制御サー
バ31および複数の端末21、41などがネットワーク
100を介して接続されている。ここでは便宜上、端末
21を発話者側の端末、端末41を対話者側の端末とす
る。図2乃至図4に発話者側の端末21、仮想空間制御
サーバ31、及び対話者側の端末41の各詳細構成図を
示す。勿論、各端末は、実際には図2と図4の両方の構
成を備えていることは云うまでもない。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings. FIG. 1 shows a schematic block diagram of a system to which a speaker identification method in a virtual space of the present invention is applied. In the figure, a virtual space control server 31 and a plurality of terminals 21, 41, etc. are connected via a network 100. Here, for convenience, the terminal 21 is a terminal on the speaker side and the terminal 41 is a terminal on the interlocutor side. 2 to 4 are detailed configuration diagrams of the speaker-side terminal 21, the virtual space control server 31, and the interlocutor-side terminal 41. Of course, it goes without saying that each terminal actually has both the configurations of FIG. 2 and FIG.

【0014】図5は、本発明の仮想空間における発話者
特定の方法が適用される多人数参加型3次元仮想空間に
おいて、発話者が発話してから対話者側でその分身が動
的に変化して、対話者が発話者を特定できるまでの処理
フローをまとめて示したものである。以下、図2乃至図
4を用いて、発話者側の端末21での処理、サーバー3
1での処理、対話者側の端末41での処理を順に説明す
る。
FIG. 5 shows that, in the multi-person participation type three-dimensional virtual space to which the speaker identification method in the virtual space of the present invention is applied, the alternation of the speaker dynamically changes after the speaker utters. Then, the processing flow until the interlocutor can specify the speaker is collectively shown. Hereinafter, with reference to FIGS. 2 to 4, the process at the terminal 21 on the speaker side, the server 3
The processing in 1 and the processing in the terminal 41 on the interlocutor side will be described in order.

【0015】まず、図2により発話者側の端末21での
処理を説明する。発話者は、マイク8を用いて自分の音
声を入力する。その音声データ11は音声制御部5で、
通信モジュール2が解釈できるデータに変更され、通信
モジュール2に送られる。通信モジュール2では、音声
データ11に自分のユーザIDを付加して、ネットワー
ク100を介して、仮想空間制御サーバ31へ送信す
る。また、位置座標データ9は、マウス7からの入力に
より仮想世界生成部4、仮想世界制御部3を通じて、通
信モジュール2に送られ、仮想世界制御部3で自分の存
在を他の参加者に知らせるための参加者データ13とカ
メラ6から取られた発話者の顔画像データ12ととも
に、ネットワーク100を介して仮想空間制御サーバ3
1へ送られる。
First, the processing in the terminal 21 on the speaker side will be described with reference to FIG. The speaker inputs his voice using the microphone 8. The voice data 11 is the voice control unit 5,
The data is converted into data that can be interpreted by the communication module 2 and sent to the communication module 2. The communication module 2 adds its own user ID to the voice data 11 and transmits the voice data 11 to the virtual space control server 31 via the network 100. Further, the position coordinate data 9 is sent to the communication module 2 through the virtual world generation unit 4 and the virtual world control unit 3 by the input from the mouse 7, and the virtual world control unit 3 informs other participants of his / her existence. Together with the participant data 13 and the face image data 12 of the speaker taken from the camera 6, the virtual space control server 3 via the network 100.
Sent to 1.

【0016】次に、図3により仮想空間制御サーバ31
での処理について説明する。サーバ31の参加者情報管
理部32は、仮想空間への参加者情報の保持機能および
その管理機能を持っている。この参加者情報管理部32
に参加者情報があらかじめ登録されていなければ、本シ
ステムの仮想空間の世界への参加は認められない。登録
されていれば、データ多重分離装置37を用いて、各端
末に仮想世界の参加者データ10を配信する。移動情報
制御部33は、各端末から送られてきた各分身の移動情
報をもとに、各端末に伝達すべき位置座標データ9を決
定し配信する。顔画像処理部34は各端末から送られて
きた顔画像データ12を移動情報制御情報部33で決定
された位置に基づいて、送信すべき映像を決定し、デー
タ多重分離装置37を用いて、各端末に配信する。空間
制御部35は、1つの仮想の世界の大きさやその世界で
使用する他の仮想空間制御サーバー群を管理するための
情報を保持している。音声ミキサ部36は各端末から送
られてきた音声データ11をもとにミキシング処理を行
い、仮想世界の参加者全員について、その結果である人
数分の音声データ11にその発話者を特定する情報を付
加して、データ多重分離装置37を用いて、ネットワー
ク100を介して各端末にを送信する。
Next, referring to FIG. 3, the virtual space control server 31
The processing in step will be described. The participant information management unit 32 of the server 31 has a function of holding participant information in the virtual space and a management function thereof. This participant information management unit 32
Unless the participant information is registered in advance, participation in the world of the virtual space of this system is not allowed. If registered, the data demultiplexing device 37 is used to deliver the participant data 10 of the virtual world to each terminal. The movement information control unit 33 determines and distributes the position coordinate data 9 to be transmitted to each terminal based on the movement information of each branch sent from each terminal. The face image processing unit 34 determines an image to be transmitted from the face image data 12 sent from each terminal based on the position determined by the movement information control information unit 33, and using the data demultiplexing device 37, Deliver to each terminal. The space control unit 35 holds information for managing the size of one virtual world and a group of other virtual space control servers used in that world. The voice mixer unit 36 performs a mixing process based on the voice data 11 sent from each terminal, and the information that specifies the utterers in the voice data 11 for all the participants in the virtual world as a result of the mixing process. Is added, and is transmitted to each terminal via the network 100 using the data demultiplexing device 37.

【0017】最後に、図4により対話者側の端末41で
の処理を説明する。対話者の端末41は、ネットワーク
100により、位置座標データ9、仮想空間への参加者
データ10、発話者の音声データ11を仮想空間制御サ
ーバ31から受信する。自分の顔画像データ12は常に
仮想空間制御サーバ31に送信し、また、一定の範囲内
にいる他の分身の顔画像データ12を受信する。これら
のデータは、通信モジュール2で処理され、仮想世界制
御部3が解釈できる形態に変更される。ここで処理され
た結果は仮想世界制御部3に送られ、それぞれ送られて
きたデータの中身がここで解釈され、仮想世界生成部4
によってモニタ8に表示するデータに変換される。それ
により、物理的に離れた場所にいる人が見ているモニタ
14には、発話者の分身の動的な変化が表示される。ま
た、それらの画面に表示される3次元のコンテンツデー
タ13はあらかじめ、計算機の記憶媒体に蓄積されてい
るのでそこから読み出す仕組みになっている。
Finally, the processing at the terminal 41 on the interlocutor side will be described with reference to FIG. The interlocutor's terminal 41 receives the position coordinate data 9, the participant data 10 in the virtual space, and the voice data 11 of the speaker from the virtual space control server 31 via the network 100. The face image data 12 of the user is always transmitted to the virtual space control server 31, and the face image data 12 of another subject within a certain range is received. These data are processed by the communication module 2 and changed into a form that can be interpreted by the virtual world control unit 3. The result processed here is sent to the virtual world control unit 3, the contents of each sent data are interpreted here, and the virtual world generation unit 4
Is converted into data to be displayed on the monitor 8. As a result, a dynamic change of the speaker's alter ego is displayed on the monitor 14 viewed by a person who is physically separated. Further, the three-dimensional content data 13 displayed on those screens is stored in advance in the storage medium of the computer, so that the structure is read out from there.

【0018】仮想空間制御サーバ31からミキシング処
理によって送られてきた発話者の音声データ11には音
声データとユーザIDが含まれているので、通信モジュ
ール2で音声データとユーザIDのデータを分離し、音
声データは音声制御部5に送られ、スピーカ15から発
話者の音声が出力される。また、同時に分離された音声
データは仮想世界制御部3にも送られ、そこで音声量が
計算される。参加者情報は通信モジュール2から同じく
仮想世界制御部3に送られて、該仮想世界制御部3にお
いて、配信されてきた全参加者の位置座標データ9と音
声の送り主のユーザIDをもとに発話者との距離、方向
を計算して、先ほど計算された音声量からその発話者の
表示形態変更命令16を作成し、仮想世界生成部4に送
り、モニタ14で、発話者の分身に3次元波紋モデルの
動的な変更が表示される。また、仮想世界制御部3から
音声制御部5にタイミング信号を供給することで、表示
と音声を同期化させることができる。
Since the voice data 11 of the speaker sent by the mixing process from the virtual space control server 31 includes the voice data and the user ID, the communication module 2 separates the voice data and the user ID data. The voice data is sent to the voice control unit 5, and the voice of the speaker is output from the speaker 15. Further, the voice data separated at the same time is also sent to the virtual world control unit 3, and the voice amount is calculated there. Participant information is also sent from the communication module 2 to the virtual world control unit 3, and based on the distributed position coordinate data 9 of all the participants and the user ID of the sender of the sound in the virtual world control unit 3. The distance and direction to the speaker are calculated, and the display form change command 16 of the speaker is created from the calculated amount of voice, and is sent to the virtual world generation unit 4, and is displayed on the monitor 14 as the body of the speaker. Dynamic changes to the 3D ripple model are displayed. Further, by supplying a timing signal from the virtual world control unit 3 to the voice control unit 5, the display and the voice can be synchronized.

【0019】次に、発話者の分身の大きさが動的に変化
し、さらに向きも発話者の方向に変更される仕組みにつ
いて説明する。送られてきた音声データ11は通信モジ
ュール2で音声データそのものとユーザIDとに分けら
れ、音声データそのものは音声制御部5に送り、スピー
カ15から発話者の音声が出力される。音声データその
ものは、また、仮想世界制御部3にも送られ、そこで音
声量が計算され、それに付加されてきたユーザIDとと
もに仮想世界制御部3に送られ、発話者の位置座標に基
づき、発話者の分身と自分に対しての表示形態変更命令
16が仮想世界生成部4に送られ、モニタ14で発話者
のモデルがいる方向に自分が向いて、発註者のモデルが
音声量に応じて動的に変更されるのが確認できる。この
とき、位置座標データ9は通信モジュール2を介して仮
想世界制御部3に送られ、自分と発話者の距離、視線の
向きを計算し、自分の視線の変更を表示形態変更命令1
6として仮想世界生成部4に送り、発話者の方向を向く
ようになる。
Next, a mechanism in which the size of the speaker's alter ego dynamically changes and the orientation also changes to the direction of the speaker will be described. The transmitted voice data 11 is divided into the voice data itself and the user ID by the communication module 2, the voice data itself is sent to the voice control unit 5, and the speaker 15 outputs the voice of the speaker. The voice data itself is also sent to the virtual world control unit 3, the amount of voice is calculated there, and is sent to the virtual world control unit 3 together with the user ID added to it, and utterance is made based on the position coordinates of the speaker. The person's alter ego and the display form change command 16 to the person are sent to the virtual world generation unit 4, and the person on the monitor 14 turns to the direction of the speaker's model, and the model of the speaker responds to the voice volume. It can be confirmed that it is dynamically changed. At this time, the position coordinate data 9 is sent to the virtual world control unit 3 via the communication module 2 to calculate the distance between the user and the speaker and the direction of the line of sight, and to change the line of sight of the user 1
Then, it is sent to the virtual world generation unit 4 as 6 and comes to face the speaker.

【0020】図6は、対話者側の端末41の仮想世界制
御部3における発話者特定に関する全体的な処理フロー
を示したものである。また、図7乃至図10は、図6に
おける処理A、処理B、処理C、処理Dの詳細フローで
ある。ここで、処理A(ステップ650)と処理C(ス
テップ680)は、3次元仮想空間上で、対話者の分身
が発話者の分身から予め定めた距離内(このエリアを波
紋表示エリアと称す)にいる場合の処理、処理B(ステ
ップ660)と処理D(ステップ690)は対話者の分
身が発話者の分身から予め定めた距離外(このエリアを
分身大小エリアと称す)にいる場合の処理である。
FIG. 6 shows an overall processing flow regarding the speaker identification in the virtual world control unit 3 of the terminal 41 on the side of the interlocutor. Further, FIGS. 7 to 10 are detailed flows of the process A, the process B, the process C, and the process D in FIG. Here, the process A (step 650) and the process C (step 680) are performed within the predetermined distance from the speaker's alter ego in the three-dimensional virtual space (this area is called a ripple display area). Processing in the case where the interlocutor's alter ego is outside the predetermined distance from the speaker's alter ego (this area is referred to as the alternator size area), processing B (step 660) and processing D (step 690) Is.

【0021】図7乃至図10において、処理Aと処理
C、処理Bと処理Dは、発話者が1人か2人以上かで多
少異なる程度で、大部分の処理は同様である。したがっ
て、以下では発話者が1人の場合を例に処理Aと処理B
について具体的に説明する。
7 to 10, process A and process C, and process B and process D are slightly different depending on whether one or more speakers are present, and most of the processes are the same. Therefore, in the following, processing A and processing B will be taken as an example in the case where there is one speaker.
Will be specifically described.

【0022】図11は、図6において処理Aと処理Bと
に処理が分岐する条件を説明している図である。図11
で四角で囲まれた範囲はコンピュータ上の仮想空間で、
1つの区切られた仮想世界を表す。これを仮想空間への
参加者がモニタ8を通して見ることのできる世界であ
る。発話者である分身の動的変更処理の違いは、発話者
の分身a51と対話者の分身b52との距離で決まる。
その範囲は、発話者の分身a51を中心とする半径r5
5の円で囲まれる波紋表示エリア56と該円の外の領域
である分身大小エリア57とで構成される。半径rは、
システムのハードウェア構成に応じて、後述する顔画像
を表示する範囲と同じく、システムの管理者側で予め任
意に設定することができる。
FIG. 11 is a diagram for explaining the conditions under which the process branches into process A and process B in FIG. Figure 11
The area surrounded by a square is a virtual space on your computer.
Represents a delimited virtual world. This is a world where participants in the virtual space can see through the monitor 8. The difference in the dynamic change process of the speaker, the alter ego, is determined by the distance between the speaker's alter ego a51 and the interlocutor's alter ego b52.
The range is a radius r5 centered on the speaker's alter ego a51.
It is composed of a ripple display area 56 surrounded by a circle of 5 and an alternation size area 57 which is an area outside the circle. Radius r is
Depending on the hardware configuration of the system, it can be arbitrarily set in advance by the system administrator side, as in the range of displaying a face image described later.

【0023】まず、図12乃至図18により、対話者が
波紋表示エリア56内にいる場合の発話者の分身に対す
る処理(処理A)について具体的に説明する。
First, the process (process A) for the altercation of the speaker when the interlocutor is in the ripple display area 56 will be described in detail with reference to FIGS.

【0024】図12は、波紋表示エリア56にいる発話
者の分身a51と対話者の分身b52とが発話する前の
状況を示している。図13では、発話者の分身a51が
発話をし、それからでている波紋71〜73を対話者が
見ている状況を示す。このとき、これら波紋のモデルの
大きさは、図11に示した半径r55と発話者の分身a
51と対話者の分身b52との距離|Vab|54との比
率にあわせて変化し、さらに、発話中は波紋が71,7
2,73と順番に1つづつ動的に表示される。このと
き、波紋を表すモデルデータはあらかじめコンテンツデ
ータ13として計算機の記憶媒体に保持しておく。
FIG. 12 shows a situation before the utterer's alter ego a51 and the interlocutor's alter ego b52 in the ripple display area 56 speak. FIG. 13 shows a situation in which the speaker's alter ego a51 speaks and the interlocutor sees the ripples 71 to 73 that are leaving. At this time, the size of these ripple models is the radius r55 shown in FIG.
51 and the distance b52 of the interlocutor's alternation b52, and changes according to the ratio of the distance | V ab | 54.
It is dynamically displayed one after another in the order of 2,73. At this time, the model data representing the ripples is stored in advance in the storage medium of the computer as the content data 13.

【0025】対話者の端末41は、仮想空間制御サーバ
31から発話者を含めて全員分の位置座標データ9と参
加者データ10、音声データ11を受け取ると(ステッ
プ610)、仮想世界制御部3で発話者との距離と向き
と音声量を計算して(ステップ620)、自分が波紋表
示エリアにいることを認識し(ステップ640でYE
S)、発話者の分身に対して、3次元の波紋モデルを動
的に表示させるステップ650の処理A(図7)に入
る。
When the interlocutor's terminal 41 receives the position coordinate data 9, the participant data 10, and the voice data 11 for all the persons including the speaker from the virtual space control server 31 (step 610), the virtual world control unit 3 Calculates the distance and direction to the speaker and the amount of voice (step 620), and recognizes that the user is in the ripple display area (step 640: YE
S), the process A (FIG. 7) of step 650 for dynamically displaying the three-dimensional ripple model for the altercation of the speaker is entered.

【0026】図14は、対話者は発話者からでる波紋
を、発話者である分身の視線方向に対して一定の角度に
収まる範囲で表示するということを示す。発話者の分身
a51の視線方向81に対して左右α/2度づつ(計α
度)の方向にそって、波紋71,72,73が1つづつ
順に表示されて行く。これは、発話中、繰り返し行われ
る。このとき、角αは、システムのハードウェア構成に
応じて仮想空間制御サーバを管理する側で任意に決める
ことができる。このとき、図14に示すように、発話者
の方向を向いていない対話者の分身からも、発話者から
見て角度αの範囲内にいればその波紋モデルを確認する
ことができる。
FIG. 14 shows that the interlocutor displays the ripples from the speaker within a range of a certain angle with respect to the line-of-sight direction of the speaker who is the speaker. Left and right α / 2 degrees with respect to the line-of-sight direction 81 of the speaker's alter ego 51 (total α
The ripples 71, 72, 73 are sequentially displayed one by one in the direction of (degree). This is repeated during speech. At this time, the angle α can be arbitrarily determined by the side managing the virtual space control server according to the hardware configuration of the system. At this time, as shown in FIG. 14, the ripple model can be confirmed even from the altercation of the interlocutor who is not facing the speaker if the angle model is within the range of the angle α.

【0027】図15は、図14のように発話者の視線方
向の対面にいる対話者の分身と、その反対面にいる対話
者の分身とでは、見える波紋の色を相違させることを示
す。例えば波紋の裏面の色は、全ての分身に対して共通
の色にしておく。これにより、対話者は、発話者の視線
の反対面にいるということをすぐに認識できる。
FIG. 15 shows that the colors of ripples are different between the altercation of the interlocutor facing the speaker's line of sight as shown in FIG. 14 and the altercation of the interlocutor on the opposite side. For example, the color of the back side of the ripples is common to all the alter-egoes. This allows the interlocutor to immediately recognize that he is on the opposite side of the speaker's line of sight.

【0028】図16は、波紋の色の決めかたを示す。発
話者のユーザIDの文字列のコードを抽出し、その文字
コードにより、端末41の仮想世界制御部5でハッシュ
関数を用いて、ハッシュ値を求める。この値により、例
えな16ビットの色RGBのパターン(65336色)
を1つ決める。ハッシュ値を用いる理由は、ハッシュ値
が、ユーザIDにより衝突することはめったにないこと
と、色の幅が広いこと、ユーザID毎に適当に色が散ら
ばってほしいことによる。
FIG. 16 shows how to determine the ripple color. The code of the character string of the user ID of the speaker is extracted, and the virtual world control unit 5 of the terminal 41 uses the hash function to obtain the hash value based on the character code. With this value, a 16-bit color RGB pattern (65336 colors)
Decide one. The reason why the hash value is used is that the hash value rarely collides with the user ID, that the color range is wide, and that the color is appropriately scattered for each user ID.

【0029】図17は、発話者との距離|Vab|54に
応じて、波紋の3次元モデルの大きさを相違させること
を示している。
FIG. 17 shows that the size of the three-dimensional model of ripples is changed according to the distance | V ab | 54 with the speaker.

【0030】図18は、発話者の音声量に応じて、その
波紋の枚数を相違させて表示することを示す。すなわ
ち、受け取った音声データ14から、その大小を仮想世
界制御部4が解釈して、対話者のモニタ8上には発話者
の音量小121のときには、波紋71が点滅しているよ
うに見え、発話者の音声量中122のときには波紋が7
1,72の順番で繰り返し点滅しているように見え、発
話者の音量大123のときには、波紋が71、72、7
3の順番で繰り返し点滅しているよに見て取れる。これ
により、発話者の音声量の減衰が3次元的に表示され
る。
FIG. 18 shows that the number of ripples is displayed differently according to the voice volume of the speaker. That is, the virtual world control unit 4 interprets the size of the received voice data 14 and the ripples 71 appear to blink on the monitor 8 of the interlocutor when the volume 121 of the speaker is low. When the speaker's voice volume is 122, the ripple is 7
It appears to blink repeatedly in the order of 1, 72, and when the volume of the speaker is high 123, ripples 71, 72, 7
It can be seen that it blinks repeatedly in the order of 3. Thereby, the attenuation of the voice volume of the speaker is displayed three-dimensionally.

【0031】次に、図19乃至図22により、対話者が
波紋表示エリア56の外の分身大小エリア57にいる場
合の発話者の分身と自分に対する処理B(図8)につい
て具体的に説明する。
Next, referring to FIGS. 19 to 22, a detailed description will be given of the speaker's altercation and the process B (FIG. 8) for the speaker when the interlocutor is in the alternation size area 57 outside the ripple display area 56. .

【0032】図19は発話者の分身a51の作る波紋表
示エリア56の外の分身大小エリア57にいる対話者の
分身c53が発話者の音声を聞く前の状況を示してい
る。図20は、発話者の分身a51の作る波紋表示エリ
ア56の外の分身大小エリア57にいる対話者の分身c
53が発話者の音声を聞いている状況を示す。
FIG. 19 shows the situation before the interlocutor's alter ego c53 in the alternation size area 57 outside the ripple display area 56 created by the speaker's alter ego 51 hears the voice of the speaker. FIG. 20 shows the altercation c of the interlocutor in the alternation size area 57 outside the ripple display area 56 created by the speaker's alter ego 51.
Reference numeral 53 indicates a situation in which the voice of the speaker is being heard.

【0033】仮想空間制御サーバ31から受け取った位
置座標データ9から、仮想世界制御部3で発話者との距
離、向きを計算し、音声データ11から音声量を仮想世
界制御部3が計算し、発話者の分身の大きさと自分自身
の向きの変更のための表示形態変更命令16を仮想世界
生成部4に送る。こうして、対話者が分身大小エリア5
7にいる場合、図20に示すように、発話者の分身の大
きさが、その音声量に応じて141,142,143と
順番に動的に変更されるのが、モニタ8により確認でき
る。これにより、発話する分身と対話している分身との
距離が離れていても、発話者が仮想空間内のどこにいる
のかすぐに特定できる。
From the position coordinate data 9 received from the virtual space control server 31, the virtual world control section 3 calculates the distance and direction to the speaker, and the virtual world control section 3 calculates the voice volume from the voice data 11. A display form change command 16 for changing the size of the speaker and the orientation of the speaker is sent to the virtual world generation unit 4. In this way, the interlocutor is
20, the monitor 8 can confirm that the size of the speaker's alter ego is dynamically changed to 141, 142, 143 in order according to the voice volume. Thus, even if the uttered alter ego is far from the interacting alter ego, it is possible to immediately identify where the speaker is in the virtual space.

【0034】図21は、対話者の視線が発話者を確認で
きる範囲にいなくても、発話者の発話が始まると自分の
視線の範囲内に発話者が見えるように回転することを示
す。このことから、発話者の分身の位置がすぐに特定さ
れる。
FIG. 21 shows that even if the line-of-sight of the interlocutor is not within the range in which the speaker can be confirmed, when the speaker's speech starts, the line-of-sight rotates so that the speaker can be seen within the range of his own line of sight. From this, the position of the speaker's alter ego is immediately specified.

【0035】図22は、発話者の音声量に応じて、発話
者の分身a51の大きさが動的に変化することを示して
いる。音声量小161のときには、対話者の端末から見
て141,142,141,142・・・の様に動的に
変化しているのが見て取れる。音量中162、音量大1
63の場合も同様である。
FIG. 22 shows that the size of the speaker's alter ego a51 dynamically changes according to the voice volume of the speaker. When the sound volume 161 is small, it can be seen that it changes dynamically as 141, 142, 141, 142, ... Seen from the interlocutor's terminal. 162 in volume, 1 in volume
The same applies to the case of 63.

【0036】以上本発明の一実施の形態について説明し
たが、図6乃至図10に示したような処理フローは、コ
ンピュータで実行可能な形式で記述し、仮想空間上の発
話者特定プログラムとして、コンピュータが読み取り可
能な記録媒体、例えばフロッピーディスク(FD)やコ
ンパクトデイスク(CD−ROM)などに記録して提供
することが可能である。
Although one embodiment of the present invention has been described above, the processing flow as shown in FIGS. 6 to 10 is described in a computer-executable format, and as a speaker identification program in the virtual space, It can be provided by recording it on a computer-readable recording medium such as a floppy disk (FD) or a compact disk (CD-ROM).

【0037】[0037]

【発明の効果】以上説明したように、本発明によれば、
発話者からの距離、向きに応じて動的にその表示形態を
変更することにより、仮想空間の他の参加者は、発話者
が空間のどの場所にいるかが特定できる。また、発話者
の音量により波紋状物体や発話者の分身の数が変化し、
さらに、波紋状物体として色は発話者毎に異なって表示
される。これらのことにより、仮想空間が大規模化した
際には、分身同士の距離が離れていてもどこにいるか特
徴づけることができ、参加者が複数で同じ形をした分身
が多い中でもそれぞれの動きは発話者ごとに特徴づける
ことができる。したがって、膨大な参加者がいるような
仮想空間においても、発話者の特定が容易になり、会話
への円滑な参加が可能であり、会話グループの形成の手
助けとなる。
As described above, according to the present invention,
By dynamically changing the display form according to the distance and direction from the speaker, other participants in the virtual space can identify where in the space the speaker is. In addition, the number of ripples and the number of alternations of the speaker change depending on the volume of the speaker.
Further, the color is displayed differently for each speaker as a ripple object. By these things, when the virtual space becomes large, it is possible to characterize where the ghosts are even if they are far apart, and even if there are many participants with the same shape and multiple participants, each movement It can be characterized for each speaker. Therefore, even in a virtual space where there are a large number of participants, it is easy to identify the speaker, it is possible to smoothly participate in the conversation, and it helps to form a conversation group.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明が適用されるシステムの概略ブロック図
を示す。
FIG. 1 shows a schematic block diagram of a system to which the present invention is applied.

【図2】発話者側の端末の構成例を示すブロック図であ
る。
FIG. 2 is a block diagram showing a configuration example of a terminal on the speaker side.

【図3】仮想空間制御サーバの構成例を示すブロック図
である。
FIG. 3 is a block diagram showing a configuration example of a virtual space control server.

【図4】対話者側の端末の構成例を示すブロック図であ
る。
FIG. 4 is a block diagram showing a configuration example of a terminal on the interlocutor side.

【図5】本発明により発話者が発話してから他の端末上
でその分身が動的に変更されるまでの処理概要を示す図
である。
FIG. 5 is a diagram showing an outline of processing from a speaker uttering to dynamically changing the alternation on another terminal according to the present invention.

【図6】対話者側の端末の発話者特定の全体的処理フロ
ーを示す図である。
FIG. 6 is a diagram showing an overall processing flow for identifying a speaker on a terminal on the side of an interlocutor.

【図7】図6の処理Aの詳細処理フローを示す図であ
る。
FIG. 7 is a diagram showing a detailed processing flow of processing A in FIG. 6;

【図8】図6の処理Bの詳細処理フローを示す図であ
る。
8 is a diagram showing a detailed processing flow of processing B in FIG.

【図9】図6の処理Cの詳細処理フローを示す図であ
る。
9 is a diagram showing a detailed processing flow of processing C in FIG.

【図10】図6の処理Dの詳細処理フローを示す図であ
る。
FIG. 10 is a diagram showing a detailed processing flow of processing D in FIG. 6;

【図11】仮想空間上の波紋表示エリアと分身大小エリ
アを示す図である。
FIG. 11 is a diagram showing a ripple display area and a separate size area in a virtual space.

【図12】波紋表示エリア内に対話者の分身があり、発
話者の発話前の状況を示す図である。
FIG. 12 is a diagram showing a situation before the utterance of the speaker, in which the interlocutor's alter ego exists in the ripple display area.

【図13】発話中の状況を示す図である。FIG. 13 is a diagram showing a situation during utterance.

【図14】発話者の波紋と発話者の視線の関係を示す図
である。
FIG. 14 is a diagram showing the relationship between the ripples of the speaker and the line of sight of the speaker.

【図15】発話者の波紋が発話者と対話者の対面/反対
面で異なることを示す図である。
FIG. 15 is a diagram showing that the ripples of the speaker are different on the facing / opposite sides of the speaker and the interlocutor.

【図16】ユーザIDにより波紋の色が特定されること
を示す図である。
FIG. 16 is a diagram illustrating that a ripple color is specified by a user ID.

【図17】対話者と発話者の距離により波紋の大きさが
変化することを示す図である。
FIG. 17 is a diagram showing that the size of a ripple changes depending on the distance between the interlocutor and the speaker.

【図18】発話者の音量により波紋の大きさが変化する
ことを示す図である。
FIG. 18 is a diagram showing that the size of a ripple changes depending on the volume of a speaker.

【図19】波紋表示エリアの外に対話者の分身があり、
発話者の発話前の状況を示す図である。
FIG. 19 shows the altercation of the interlocutor outside the ripple display area,
It is a figure which shows the condition before a speaker's speech.

【図20】発話中の状況を示す図である。FIG. 20 is a diagram showing a situation during utterance.

【図21】対話者が発話者を確認できる範囲内に回転す
ることを示す図である。
FIG. 21 is a diagram showing that the interlocutor rotates within a range in which the speaker can be confirmed.

【図22】発話者の音量により発話者の分身の大きさが
変化することを示す図である。
FIG. 22 is a diagram showing that the size of a speaker's alter ego changes according to the speaker's volume.

【符号の説明】[Explanation of symbols]

100 ネットワーク 21 発話者側の端末 31 仮想空間制御サーバ 41 対話者側の端末 51 発話者の分身 52〜53 対話者の分身 54 発話者と対話者の仮想空間内での距離 55 発話者が波紋を表示することのできる距離 56 発話者が波紋を表示できる範囲 57 発話者が自分の分身の大きさを動的に変化させる
範囲 58 仮想空間 71〜73 発話者の分身が表示する3次元波紋モデル 121〜123 発話者の音声量に対応する3次元波紋
モデル 141〜144 発話者の分身 161〜163 発話者の音声量に対応する発話者の分
身モデル
100 network 21 speaker side terminal 31 virtual space control server 41 interlocutor side terminal 51 speaker's alter ego 52-53 interlocutor's alter ego 54 distance between speaker and interlocutor in virtual space 55 speaker creates ripples Distance that can be displayed 56 Range in which the speaker can display ripples 57 Range in which the speaker dynamically changes the size of his or her own body 58 Virtual space 71 to 73 Three-dimensional ripple model 121 displayed by the body of the speaker 121 -123 Three-dimensional ripple model 141-144 corresponding to the voice volume of the speaker Speaker's alter ego 161 to 163 Speaker alternation model corresponding to the voice volume of the speaker

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平10−207684(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 15/00 - 17/40 G06F 13/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-10-207684 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 15/00-17/40 G06F 13 / 00

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の端末がネットワークを介してつな
がれ、少なくとも発話者の音声データ、自分や他の参加
者の位置データ、参加者データを送受信して、端末に表
示される仮想空間上で、音声、参加者の分身の表現によ
り参加者同士でコミュニケーションを行うシステムにお
いて、仮想空間上の発話者の分身を視覚的に特定する方
法であって、 発話者の分身と対話者の分身との距離を計算し、 発話者の分身から予め定めた距離内に対話者の分身がい
るか判定し、 発話者の分身から所定距離内に対話者の分身がいれば、
発話者の分身から動的な波紋状物体を送出して表示し、 発話者の分身から所定距離外に対話者の分身がいれば、
対話者の分身を発話者の分身の視覚方向に回転し、発話
者の分身の大きさを動的に変化させて表示する、ことを
特徴とする仮想空間における発話者特定方法。
1. A plurality of terminals are connected via a network, and at least voice data of a speaker, position data of oneself or other participants, participant data are transmitted and received, and in a virtual space displayed on the terminal, A method for visually identifying a speaker's alter ego in a virtual space in a system in which participants communicate with each other by using voice and the expression of the participant's alter ego, and the distance between the speaker's alter ego and the interlocutor's alter ego Is calculated, it is determined whether the interlocutor's alter ego is within a predetermined distance from the speaker's alter ego, and if the interlocutor's alter ego is within a predetermined distance from the speaker's alter ego,
If a dynamic ripple-like object is sent out from the speaker's alter ego and displayed, and if the speaker's alter ego is outside a predetermined distance from the speaker's alter ego,
A method for identifying a speaker in a virtual space, which comprises rotating a dialogue person's alternation in a visual direction of the speaker's alternation and dynamically changing the size of the speaker's alter ego.
【請求項2】 請求項1記載の仮想空間における発話者
特定方法において、発話者の分身と対話者の分身とが対
面する向きで、波紋状物体の色を変化させることを特徴
とする仮想空間における発話者特定方法。
2. The speaker identifying method in the virtual space according to claim 1, wherein the color of the rippled object is changed in a direction in which the speaker's alter ego and the interlocutor's alter ego face each other. Speaker identification method.
【請求項3】 請求項1、2記載の仮想空間における発
話者特定方法において、発話者毎に、波紋状物体の色を
異なった色に定めることを特徴とする仮想空間における
発話者特定方法。
3. The speaker identifying method in the virtual space according to claim 1, wherein the color of the rippled object is set to a different color for each speaker.
【請求項4】 請求項1、2、3記載の仮想空間におけ
る発話者特定方法において、発話者の分身と対話者の分
身との距離に応じて、波紋状物体の大きさを変化させる
ことを特徴とする仮想空間における発話者特定方法。
4. The method for identifying a speaker in a virtual space according to claim 1, 2, or 3, wherein the size of the rippled object is changed according to the distance between the speaker's alter ego and the interlocutor's alter ego. A speaker identification method in a characteristic virtual space.
【請求項5】 請求項1、2、3、4記載の仮想空間に
おける発話者特定方法において、発話者の音声量に応じ
て、波紋状物体の繰り返し数あるいは発話者の分身の繰
り返し数を変化させることを特徴とする仮想空間におけ
る発話者特定方法。
5. The method for identifying a speaker in a virtual space according to claim 1, 2, 3, or 4, wherein the number of repetitions of a rippled object or the number of repetitions of a speaker's alternation is changed according to the amount of voice of the speaker. A method for identifying a speaker in a virtual space characterized by:
【請求項6】 複数の端末がネットワークを介してつな
がれ、少なくとも発話者の音声データ、自分や他の参加
者の位置データ、参加者データを送受信して、端末に表
示される仮想空間上で、音声、参加者の分身の表現によ
り参加者同士でコミュニケーションを行うシステムにお
いて、仮想空間上の発話者の分身を視覚的に特定するた
めのプログラムを記録したコンピュータ読み取り可能な
記録媒体であって、 発話者の分身と対話者の分身との距離を計算するプロセ
スと、 発話者の分身から予め定めた距離内に対話者の分身がい
るか判定するプロセスと、 発話者の分身から所定距離内に対話者の分身がいれば、
発話者の分身から動的な波紋状物体を送出して表示する
プロセスと、 発話者の分身から所定距離外に対話者の分身がいれば、
対話者の分身を発話者の分身の視覚方向に回転し、発話
者の分身の大きさを動的に変化させて表示するプロセス
と、が記録されていることを特徴とする記録媒体。
6. A plurality of terminals are connected via a network, and at least voice data of a speaker, position data of oneself and other participants, participant data are transmitted and received, and in a virtual space displayed on the terminal, A computer-readable recording medium in which a program for visually identifying a speaker's alter ego in a virtual space is recorded in a system in which participants communicate with each other by voice and expression of the participant's alternation. Process of calculating the distance between the person's alter ego and the speaker's alter ego, the process of determining whether the interlocutor's alter ego is within a predetermined distance from the speaker's alter ego, and the interlocutor within the predetermined distance from the speaker's alter ego If you have
The process of sending and displaying a dynamic ripple object from the speaker's alter ego, and if the speaker's alter ego is outside the predetermined distance from the speaker's alter ego,
A recording medium characterized by: a process of rotating a dialogue person's alternation in a visual direction of the speaker's alternation and dynamically changing and displaying the alternation of the speaker's alternation.
JP03069499A 1999-02-08 1999-02-08 Speaker identification method in virtual space and recording medium storing the program Expired - Fee Related JP3452348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03069499A JP3452348B2 (en) 1999-02-08 1999-02-08 Speaker identification method in virtual space and recording medium storing the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03069499A JP3452348B2 (en) 1999-02-08 1999-02-08 Speaker identification method in virtual space and recording medium storing the program

Publications (2)

Publication Number Publication Date
JP2000231644A JP2000231644A (en) 2000-08-22
JP3452348B2 true JP3452348B2 (en) 2003-09-29

Family

ID=12310794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03069499A Expired - Fee Related JP3452348B2 (en) 1999-02-08 1999-02-08 Speaker identification method in virtual space and recording medium storing the program

Country Status (1)

Country Link
JP (1) JP3452348B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101086688B1 (en) 2004-05-10 2011-11-24 가부시키가이샤 세가 Electronic game machine, data processing method in electronic game machine and its program and storage medium
JP2022188081A (en) * 2017-06-12 2022-12-20 ソニーグループ株式会社 Information processing apparatus, information processing system, and information processing method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005107903A1 (en) * 2004-05-10 2005-11-17 Sega Corporation Electronic game machine, data processing method in electronic game machine, program and storage medium for the same
JP5798536B2 (en) * 2012-09-11 2015-10-21 日本電信電話株式会社 Video communication system and video communication method
WO2018155235A1 (en) * 2017-02-24 2018-08-30 ソニー株式会社 Control device, control method, program, and projection system
KR102022604B1 (en) 2018-09-05 2019-11-04 넷마블 주식회사 Server and method for providing game service based on an interaface for visually expressing ambient audio
JP6684952B1 (en) 2019-06-28 2020-04-22 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
JP7257986B2 (en) * 2020-03-30 2023-04-14 株式会社ドワンゴ Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
CN114003192A (en) * 2020-07-27 2022-02-01 阿里巴巴集团控股有限公司 Speaker role information processing method and device
JP6995416B1 (en) 2021-06-09 2022-01-14 クラスター株式会社 Avatar output device, terminal device, avatar output method, and program
JP7142392B1 (en) 2021-06-09 2022-09-27 クラスター株式会社 Avatar output device, terminal device, avatar output method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207684A (en) * 1996-11-19 1998-08-07 Sony Corp Information processor and information processing method for three-dimensional virtual reality space sharing system, and medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101086688B1 (en) 2004-05-10 2011-11-24 가부시키가이샤 세가 Electronic game machine, data processing method in electronic game machine and its program and storage medium
JP2022188081A (en) * 2017-06-12 2022-12-20 ソニーグループ株式会社 Information processing apparatus, information processing system, and information processing method
JP7468588B2 (en) 2017-06-12 2024-04-16 ソニーグループ株式会社 Information processing device, information processing system, and information processing method

Also Published As

Publication number Publication date
JP2000231644A (en) 2000-08-22

Similar Documents

Publication Publication Date Title
EP0942396B1 (en) Shared virtual space display method and apparatus using said method
US6330022B1 (en) Digital processing apparatus and method to support video conferencing in variable contexts
CN108076307B (en) AR-based video conference system and AR-based video conference method
JP2001503165A (en) Apparatus and method for creating a spatial audio environment in an audio conference system
JPH07255044A (en) Animated electronic conference room and video conference system and method
JP3452348B2 (en) Speaker identification method in virtual space and recording medium storing the program
Greenhalgh et al. Virtual reality tele-conferencing: Implementation and experience
WO2011027475A1 (en) Teleconference device
JP6901190B1 (en) Remote dialogue system, remote dialogue method and remote dialogue program
JP3027793B2 (en) Virtual space sharing device
JP2023146875A (en) Information processing device, information processing method, and program
JP2006094315A (en) Stereophonic reproduction system
JP2022173870A (en) Appreciation system, appreciation device, and program
US10469803B2 (en) System and method for producing three-dimensional images from a live video production that appear to project forward of or vertically above an electronic display
JP2023155921A (en) Information processing device, information processing terminal, information processing method, and program
JPH08336166A (en) Video viewing device
JP7062126B1 (en) Terminals, information processing methods, programs, and recording media
JP2001092990A (en) Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program
JP3203614B2 (en) Virtual shared display method in image communication system
WO2024034396A1 (en) Information processing device, information processing method, and program
JPH08241430A (en) Three-dimensional virtual space sharing system
WO2022201944A1 (en) Distribution system
JPH09288645A (en) Large room type virtual office system
WO2024150698A1 (en) Information processing device, information processing method, and program
Billinghurst et al. Collaboration with wearable computers

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees