JP2003006132A - Chatting device using voice, chat program and chatting method - Google Patents

Chatting device using voice, chat program and chatting method

Info

Publication number
JP2003006132A
JP2003006132A JP2001190978A JP2001190978A JP2003006132A JP 2003006132 A JP2003006132 A JP 2003006132A JP 2001190978 A JP2001190978 A JP 2001190978A JP 2001190978 A JP2001190978 A JP 2001190978A JP 2003006132 A JP2003006132 A JP 2003006132A
Authority
JP
Japan
Prior art keywords
avatar
information
identification information
voice
avatars
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001190978A
Other languages
Japanese (ja)
Inventor
Hideaki Sasaki
秀昭 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001190978A priority Critical patent/JP2003006132A/en
Publication of JP2003006132A publication Critical patent/JP2003006132A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable a user to conduct a conversation, by distinguishing which avatar is making the remark, in a virtual three-dimensional space in chatting using voice. SOLUTION: PCs 3a to 3e respectively connect to a server device 2, transmit the identification information and position information of their own avatars and voice information related to the identification information of their own avatars, receive the identification information and position information of the other avatars and voice information related to the identification information of the other avatars from the server device 2, and display their own avatars and the other avatars within the virtual three-dimensional space. Users distinguish which avatar is making the remark by three-dimensionally and stereophonically outputting voice processed, on the basis of a relative position between their own avatars and the other avatars from the left and right loudspeakers, and conduct conversation by chatting.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、仮想三次元空間内
において音声により会話を行うことが可能な音声を用い
たチャット装置、チャットプログラムおよびチャット方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a chat device, a chat program, and a chat method using voice capable of having a voice conversation in a virtual three-dimensional space.

【0002】[0002]

【従来の技術】コンピュータ通信回線を通じ、1対1や
多人数でリアルタイムに文字ベースの会話を行うチャッ
トシステムがある。近年では、文字のみでなく、仮想三
次元空間内にアバター(avatar)と称されるユー
ザの化身のキャラクターを配置して動作させ、ユーザが
あたかもその仮想三次元空間内に居るかのように感じさ
せるものが出始めている。このような仮想三次元空間を
用いたチャットシステムは、ユーザ各自のパーソナルコ
ンピュータ(以下、「PC」と称す)に専用のチャット
プログラムを導入することによって、そのサービスを受
けることができるようになる。
2. Description of the Related Art There is a chat system in which one-to-one or a large number of people can conduct a character-based conversation in real time through a computer communication line. In recent years, not only characters, but also a character of a user's incarnation called an avatar (avatar) is placed and operated in a virtual three-dimensional space, and it feels as if the user is in the virtual three-dimensional space. Something is starting to appear. A chat system using such a virtual three-dimensional space can receive the service by installing a dedicated chat program in each user's personal computer (hereinafter referred to as “PC”).

【0003】例えば、このプログラムには、道・木・家
などの物体の位置を示す地図情報が記憶されているもの
とする。同じプログラムを導入したPCによってサーバ
装置へアクセスすると、各PCは各ユーザの位置情報お
よび会話情報をこのサーバ装置へ送信し、サーバ装置は
この受信した情報を各ユーザのPCへ送信する。各PC
はこの受信した情報および記憶した地図情報を処理する
ことで仮想三次元空間内のアバターを制御する。このよ
うに同じプログラムを導入したPCのユーザは、見かけ
上、同じ仮想三次元空間を共有してチャットを行うこと
ができる。
For example, it is assumed that this program stores map information indicating the positions of objects such as roads, trees and houses. When the server in which the same program is installed accesses the server device, each PC transmits the position information and conversation information of each user to this server device, and the server device transmits the received information to each user's PC. Each PC
Controls the avatar in the virtual three-dimensional space by processing the received information and the stored map information. In this way, the users of the PCs who have introduced the same program can apparently share the same virtual three-dimensional space and can chat.

【0004】[0004]

【発明が解決しようとする課題】ところで、近年、文字
ベースではなく音声ベースでの会話を可能とした音声チ
ャットシステムが知られている。この音声チャットは主
に1対1で会話を行うものである。文字チャットでは会
話にどのユーザの発言かを示す名前やIDなどを表示す
ることで、多人数であっても混乱せずに会話を行うこと
が可能であるが、音声チャットでは名前などを表示する
ことができないため、多人数向きではない。
By the way, in recent years, a voice chat system has been known which enables conversation based on voice rather than character. This voice chat is mainly for one-to-one conversation. In the text chat, by displaying the name and ID indicating which user has said in the conversation, even a large number of people can talk without confusion, but in the voice chat, the name and the like are displayed. It is not suitable for a large number of people because it is not possible.

【0005】したがって、このような音声チャットを前
述の仮想三次元空間を用いたチャットシステムに応用し
ようとした場合、どのアバターが発言しているのかを区
別することができず、多人数では混乱して会話を行うこ
とができない。
Therefore, when it is attempted to apply such a voice chat to the chat system using the virtual three-dimensional space, it is impossible to distinguish which avatar is speaking and it is confusing for a large number of people. Can't have a conversation.

【0006】そこで、本発明では、仮想三次元空間にお
いてどのアバターが発言しているのかを区別して会話を
行うことが可能な音声を用いたチャット装置、チャット
プログラムおよびチャット方法を提供することを目的と
する。
Therefore, an object of the present invention is to provide a chat device, a chat program, and a chat method using voice capable of distinguishing which avatar is speaking in a virtual three-dimensional space and having a conversation. And

【0007】[0007]

【課題を解決するための手段】上記課題を解決するた
め、本発明は、サーバ装置に接続して自己のアバターの
識別情報および位置情報と自己のアバターの識別情報に
関連付けた音声情報とを送信し、サーバ装置から他のア
バターの識別情報および位置情報と他のアバターの識別
情報に関連付けられた音声情報とを受信し、自己および
他のアバターそれぞれの識別情報および位置情報に基づ
いて自己および他のアバターを仮想三次元空間内に表示
し、自己および他のアバターそれぞれの識別情報および
位置情報に基づいて前記仮想三次元空間内の自己のアバ
ターの位置に対する他のアバターの相対位置を算出し、
他のアバターの相対位置に基づいて他のアバターの音声
情報を立体的に処理し出力するように構成したものであ
る。
In order to solve the above problems, the present invention connects to a server device and transmits identification information and position information of its own avatar and voice information associated with the identification information of its own avatar. Then, the identification information and the position information of the other avatar and the voice information associated with the identification information of the other avatar are received from the server device, and the self and the other avatars are received based on the identification information and the position information of the other avatars. Displaying the avatar in the virtual three-dimensional space, and calculates the relative position of the other avatar to the position of the own avatar in the virtual three-dimensional space based on the identification information and the position information of the self and the other avatars,
It is configured to stereoscopically process and output voice information of another avatar based on the relative position of the other avatar.

【0008】本発明によれば、仮想三次元空間内の自己
のアバターと他のアバターとの位置関係に基づいて立体
的に処理された音声が出力されるため、ユーザはどのア
バターが発言しているのかを区別して会話を行うことが
可能となる。
According to the present invention, a stereoscopically processed voice is output based on the positional relationship between one's own avatar and another avatar in the virtual three-dimensional space. It becomes possible to have a conversation by distinguishing whether or not there is.

【0009】[0009]

【発明の実施の形態】請求項1に記載の発明は、通信回
線を介してサーバ装置へ接続し同サーバ装置に接続する
他の装置との間で共有する仮想三次元空間内でチャット
するチャット装置において、サーバ装置に接続して自己
のアバターの識別情報および位置情報と自己のアバター
の識別情報に関連付けた音声情報とを送信する手段と、
サーバ装置から他のアバターの識別情報および位置情報
と他のアバターの識別情報に関連付けられた音声情報と
を受信する手段と、自己および他のアバターそれぞれの
識別情報および位置情報に基づいて自己および他のアバ
ターを仮想三次元空間内に表示する手段と、自己および
他のアバターそれぞれの識別情報および位置情報に基づ
いて自己のアバターの位置に対する他のアバターの相対
位置を算出する手段と、他のアバターの相対位置に基づ
いて他のアバターの音声情報を立体的に処理し出力する
手段とを備えた音声を用いたチャット装置であり、仮想
三次元空間内の自己のアバターと他のアバターとの位置
関係に基づいて立体的に処理された音声が出力され、ユ
ーザはこの立体的に処理された音声によりどのアバター
が発言しているのかを区別することができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 is a chat for chatting in a virtual three-dimensional space which is connected to a server device via a communication line and is shared with other devices connected to the server device. In the device, means for connecting to the server device and transmitting identification information and position information of the own avatar and voice information associated with the identification information of the own avatar,
Means for receiving identification information and location information of another avatar and voice information associated with the identification information of another avatar from the server device, and self and other based on the identification information and location information of each self and other avatars. Means for displaying the avatar in the virtual three-dimensional space, a means for calculating the relative position of the other avatar with respect to the position of the own avatar based on the identification information and the position information of the own avatar, and the other avatar. Is a chat device using voice, which has means for stereoscopically processing and outputting voice information of another avatar based on the relative position of the avatar, and the position of the avatar of the self and the other avatar in the virtual three-dimensional space. A stereoscopically processed voice is output based on the relationship, and which avatar is speaking by the user by the stereoscopically processed voice. It can be distinguished.

【0010】請求項2に記載の発明は、通信回線を介し
てサーバ装置へ接続し同サーバ装置に接続する他の装置
との間で共有する仮想三次元空間内でチャットする装置
としてコンピュータを機能させるチャットプログラムに
おいて、サーバ装置に接続して自己のアバターの識別情
報および位置情報と自己のアバターの識別情報に関連付
けた音声情報とを送信する手段、サーバ装置から他のア
バターの識別情報および位置情報と他のアバターの識別
情報に関連付けられた音声情報とを受信する手段、自己
および他のアバターそれぞれの識別情報および位置情報
に基づいて自己および他のアバターを仮想三次元空間内
に表示する手段、自己および他のアバターそれぞれの識
別情報および位置情報に基づいて自己のアバターの位置
に対する他のアバターの相対位置を算出する手段、他の
アバターの相対位置に基づいて他のアバターの音声情報
を立体的に処理し出力する手段としてコンピュータを機
能させる音声を用いたチャットプログラムであり、この
チャットプログラムをコンピュータに供給し、実行する
ことによって、請求項1記載の発明と同様の作用を得る
ことができる。
According to a second aspect of the present invention, a computer functions as an apparatus for chatting in a virtual three-dimensional space that is connected to a server apparatus via a communication line and is shared with another apparatus connected to the server apparatus. In the chat program, means for connecting to the server device and transmitting the identification information and position information of the own avatar and the voice information associated with the identification information of the own avatar, the identification information and position information of another avatar from the server device And a means for receiving voice information associated with the identification information of the other avatar, a means for displaying the self and the other avatar in the virtual three-dimensional space based on the identification information and position information of the self and the other avatar, Other avatars for your avatar's position based on your own and other avatar's identification and location information, respectively. Is a chat program using a voice that causes a computer to function as a means for calculating the relative position of the other avatar and a means for stereoscopically processing and outputting the voice information of the other avatar based on the relative position of the other avatar. By supplying the above to a computer and executing the same, the same operation as the invention according to claim 1 can be obtained.

【0011】請求項3に記載の発明は、複数のアバター
をそれぞれに付与した識別情報に基づいて管理するサー
バ装置と、同サーバ装置に通信回線を介して接続し他の
装置との間で共有する仮想三次元空間内においてチャッ
トするチャット装置とによる音声を用いたチャット方法
であって、チャット装置が、自己のアバターの識別情報
および位置情報と自己のアバターの識別情報に関連付け
た音声情報とをサーバ装置に送信するステップ、サーバ
装置が、チャット装置から送信されたアバターの識別情
報および位置情報とアバターの識別情報に関連付けた音
声情報を受信するステップ、サーバ装置が、受信したア
バターの識別情報および位置情報とアバターの識別情報
に関連付けた音声情報を記憶するステップ、サーバ装置
が、同サーバ装置に接続するすべてのチャット装置に対
して記憶したすべてのアバターの識別情報および位置情
報とアバターの識別情報に関連付けた音声情報を送信す
るステップ、チャット装置が、サーバ装置から送信され
たアバターの識別情報および位置情報とアバターの識別
情報に関連付けた音声情報を受信するステップ、チャッ
ト装置が、受信したすべてのアバターそれぞれの識別情
報および位置情報に基づいて自己および他のアバターを
仮想三次元空間内に表示するステップ、自己および他の
アバターそれぞれの識別情報および位置情報に基づいて
自己のアバターの位置に対する他のアバターの相対位置
を算出するステップ、他のアバターの相対位置に基づい
て他のアバターの音声情報を立体的に処理し出力するス
テップ、を含むことを特徴とする音声を用いたチャット
方法であり、請求項1記載の発明と同様の作用を得るこ
とができる。
According to a third aspect of the present invention, a server device that manages a plurality of avatars based on identification information assigned to each avatar and a server device that is connected to the server device via a communication line and is shared by other devices. A chat method using voice with a chat device that chats in a virtual three-dimensional space, wherein the chat device provides identification information and position information of its own avatar and voice information associated with the identification information of its own avatar. A step of transmitting to the server device, a step of receiving the identification information and position information of the avatar transmitted from the chat device, and a voice information associated with the identification information of the avatar, the server device receiving the identification information of the avatar A step of storing voice information associated with the position information and the identification information of the avatar, the server device is the same server device. A step of transmitting identification information and position information of all stored avatars and voice information associated with the identification information of the avatar to all the chat devices to be connected, the chat device identifying the avatars transmitted from the server device, and Receiving position information and voice information associated with identification information of the avatar, the chat device displays the self and other avatars in the virtual three-dimensional space based on the identification information and position information of all the received avatars. Step, calculating the relative position of the other avatar with respect to the position of the own avatar based on the identification information and the position information of the self and the other avatars, the voice information of the other avatar based on the relative position of the other avatar Sound including a step of three-dimensionally processing and outputting The a chat method used, it is possible to obtain the effect similar to the first aspect of the present invention.

【0012】以下、本発明の実施の形態について、図面
を用いて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1は本発明の実施の形態におけるチャッ
トシステムの全体構成図、図2は図1のサーバ装置の機
能構成を示すブロック図、図3は図1のパーソナルコン
ピュータの外観図、図4は図1のパーソナルコンピュー
タの機能構成を示すブロック図である。
FIG. 1 is an overall configuration diagram of a chat system according to an embodiment of the present invention, FIG. 2 is a block diagram showing a functional configuration of the server device of FIG. 1, FIG. 3 is an external view of the personal computer of FIG. 1, and FIG. FIG. 2 is a block diagram showing a functional configuration of the personal computer of FIG. 1.

【0014】図1において、本発明の実施の形態のチャ
ットシステムは、通信回線としてのインターネット1を
介して相互に接続されるサーバ装置2およびチャット装
置としてのユーザのPC3a,3b,3c,3d,3e
により構成される。ユーザのPC3a,3b,3c,3
d,3eはそれぞれプロバイダ4a,4b,4c,4
d,4eを介してインターネット1に接続されている。
Referring to FIG. 1, a chat system according to an embodiment of the present invention comprises a server device 2 and a user's PCs 3a, 3b, 3c, 3d as chat devices, which are mutually connected via an Internet 1 as a communication line. 3e
It is composed of User's PCs 3a, 3b, 3c, 3
d and 3e are providers 4a, 4b, 4c and 4 respectively.
It is connected to the Internet 1 via d and 4e.

【0015】サーバ装置2は、図2に示すように、イン
ターネット接続装置21によってインターネット1へ接
続し、制御部22は、このインターネット1を介してP
C3a〜3e等との間で各情報を送受信する。また、制
御部22は、受信した各情報を識別情報記憶部23、位
置情報記憶部24および音声情報記憶部25へそれぞれ
記憶するとともに、これら各部23〜25に記憶した各
情報をPC3a〜3e等へ送信する。
As shown in FIG. 2, the server device 2 is connected to the internet 1 by the internet connection device 21, and the control unit 22 is connected to the internet 1 via the internet 1.
Each information is transmitted / received to / from C3a to 3e. In addition, the control unit 22 stores the received information in the identification information storage unit 23, the position information storage unit 24, and the voice information storage unit 25, respectively, and stores the information stored in each of the units 23 to 25 into the PCs 3a to 3e and the like. Send to.

【0016】ここで、識別情報記憶部23に記憶する情
報は、各ユーザのアバターを識別するためのアバター名
などの識別情報である。位置情報記憶部24に記憶する
情報は、各ユーザのPC3a〜3eから送信された各ユ
ーザのアバターの位置情報である。音声情報記憶部25
へ記憶する情報は、各ユーザのPC3a〜3eから送信
されたデジタル音声情報である。なお、各記憶部23,
24,25に記憶される情報は、すべて識別情報により
関連付けて記憶されているものとする。
The information stored in the identification information storage section 23 is identification information such as an avatar name for identifying the avatar of each user. The information stored in the position information storage unit 24 is the position information of each user's avatar transmitted from each user's PC 3a to 3e. Voice information storage unit 25
The information to be stored in is the digital audio information transmitted from the PCs 3a to 3e of each user. In addition, each storage unit 23,
It is assumed that all the information stored in 24 and 25 are stored in association with each other by the identification information.

【0017】PC3aは、図3および図4に示すよう
に、インターネット接続装置31によってプロバイダ4
aを介してインターネット1へ接続し、制御部32は、
このインターネット1を介してサーバ装置2との間で各
情報を送受信する。また、PC3aは、入力部としての
マウス33aおよびキーボード33bと、ディスプレイ
などの表示部34と、音声を入力するマイク35と、マ
イク35により入力したアナログ音声情報をデジタル音
声情報へと変換するA/D変換器36と、制御部32か
らのデジタル音声情報をアナログ音声情報へ変換するD
/A変換器37と、D/A変換器37からのアナログ音
声情報を音声出力する左スピーカ38aおよび右スピー
カ38bとを備える。なお、その他のPC3b〜3eに
ついても図3および図4と同様の構成である。
As shown in FIGS. 3 and 4, the PC 3a uses the Internet connection device 31 to provide the provider 4 with the internet connection device 31.
The controller 32 is connected to the Internet 1 via a.
Each information is transmitted / received to / from the server device 2 via the Internet 1. The PC 3a also includes a mouse 33a and a keyboard 33b as input units, a display unit 34 such as a display, a microphone 35 for inputting voice, and A / A for converting analog voice information input by the microphone 35 into digital voice information. D converter 36 and D for converting digital audio information from the control unit 32 into analog audio information
The A / A converter 37, and a left speaker 38a and a right speaker 38b for outputting the analog audio information from the D / A converter 37 by voice. The other PCs 3b to 3e have the same configurations as those in FIGS. 3 and 4.

【0018】上記構成のチャットシステムにおけるチャ
ット方法について、PC3aを中心として以下に説明す
る。図5は図1のチャットシステムによる処理を示すフ
ローチャート、図6は図5の音声制御処理の詳細を示す
フローチャート、図7はPCの画面上に表示される仮想
三次元空間の例を示す図である。
A chat method in the chat system having the above configuration will be described below centering on the PC 3a. 5 is a flowchart showing a process by the chat system of FIG. 1, FIG. 6 is a flowchart showing details of the voice control process of FIG. 5, and FIG. 7 is a diagram showing an example of a virtual three-dimensional space displayed on the screen of the PC. is there.

【0019】図5のステップS101では、まずPC3
aからサーバ装置2へ接続要求を行う。ここで、PC3
aのユーザは、自己のIDおよびパスワードをキーボー
ド33bにより入力し、サーバ装置2へ送信する。サー
バ装置2では、ステップS201において、このPC3
aからの接続要求を受信し、ステップS202で認証
し、ステップS203で接続許可する。そして、ステッ
プS204では、サーバ装置2は、PC3aのユーザ自
身のアバター(自己のアバター)の位置情報および他の
アバターの位置情報をそれぞれの識別情報とともにPC
3aへ送信する。ここで、他のアバターの位置情報は、
制御部22が位置情報記憶部24から取得して送信す
る。自己のアバターの位置情報は、ここでは初期位置と
してランダムに決定した値を送信する。
In step S101 of FIG.
The connection request is sent from a to the server device 2. Here, PC3
The user of “a” inputs his own ID and password with the keyboard 33b and sends them to the server device 2. In the server device 2, in step S201, the PC 3
The connection request from a is received, authentication is performed in step S202, and connection is permitted in step S203. Then, in step S204, the server device 2 sends the position information of the avatar (own avatar) of the user of the PC 3a and the position information of the other avatars to the PC together with their respective identification information.
3a. Here, the position information of other avatars is
The control unit 22 acquires from the position information storage unit 24 and transmits it. As the position information of the own avatar, here, a value randomly determined as the initial position is transmitted.

【0020】ステップS102では、PC3aは、サー
バ装置2から送信された自己および他のアバターの位置
情報および識別情報を受信する。PC3aは、続くステ
ップS103において、地図情報、自己および他のアバ
ターの位置情報および識別情報を元に疑似三次元画像
(3D画像)を表示部34に表示する。ここで、地図情
報は、PC3a内に予め記憶しておくものとし、3D画
像は、この地図情報に基づいて仮想三次元空間内に自己
のアバター41および他のアバター42,43,44を
配置したものである(図7参照)。
In step S102, the PC 3a receives the position information and the identification information of the self and other avatars transmitted from the server device 2. In subsequent step S103, the PC 3a displays a pseudo three-dimensional image (3D image) on the display unit 34 based on the map information, the position information of the self and other avatars, and the identification information. Here, the map information is stored in advance in the PC 3a, and the 3D image is obtained by arranging the own avatar 41 and other avatars 42, 43, 44 in the virtual three-dimensional space based on the map information. (See FIG. 7).

【0021】ステップS104では、PC3aのマウス
33a・キーボード33bにより自己のアバター41の
移動指示を行う。ステップS105において、制御部2
2は、アバター41の移動指示の有無を検出し、移動指
示有りの場合、ステップS106においてアバター41
の移動位置を計算する。ステップS107では、計算に
よって更新されたアバター41の位置情報をその識別情
報とともにサーバ装置2へ送信する。
In step S104, the mouse 33a / keyboard 33b of the PC 3a is used to instruct the movement of the avatar 41 of its own. In step S105, the control unit 2
2 detects the presence / absence of the movement instruction of the avatar 41. If the movement instruction is present, the avatar 41 is detected in step S106.
Calculate the moving position of. In step S107, the position information of the avatar 41 updated by the calculation is transmitted to the server device 2 together with its identification information.

【0022】サーバ装置2では、ステップS205にお
いてPC3aより送信されたアバター41の位置情報お
よび識別情報を受信し、ステップS206において、位
置情報記憶部24の位置情報をこのアバター41の識別
情報に基づいて更新する。そして、サーバ装置2は、ス
テップS207において、この更新したアバター41の
位置情報をその識別情報とともに他の接続ユーザのPC
3b,3c,3d等に送信する。ステップS208で
は、前述と同様、他のアバター42,43,44の位置
情報が更新されるとPC3aへその識別情報とともに送
信し、PC3aはステップS109においてこれらの情
報を受信する。
The server device 2 receives the position information and the identification information of the avatar 41 transmitted from the PC 3a in step S205, and in step S206, the position information of the position information storage unit 24 is based on the identification information of the avatar 41. Update. Then, in step S207, the server device 2 uses the updated position information of the avatar 41 together with the identification information of the PCs of other connected users.
3b, 3c, 3d, etc. In step S208, similarly to the above, when the position information of the other avatars 42, 43, 44 is updated, it is transmitted to the PC 3a together with its identification information, and the PC 3a receives these pieces of information in step S109.

【0023】ステップS107に戻って、PC3aは、
アバター41の位置情報をサーバ装置2へ送信した後、
ステップS108において図6に示す音声制御処理を行
う。
Returning to step S107, the PC 3a
After transmitting the position information of the avatar 41 to the server device 2,
In step S108, the voice control process shown in FIG. 6 is performed.

【0024】図6のステップS111において、PC3
aは、マイク35によるユーザの音声入力の有無を検出
し、ステップS112において、この入力された音声情
報を録音する。ステップS113では、PC3aは、音
声情報をそのアバター41の識別情報とともにサーバ装
置2へ送信する。
In step S111 of FIG. 6, the PC3
The a detects whether or not the voice of the user is input through the microphone 35, and records the input voice information in step S112. In step S113, the PC 3a transmits the voice information to the server device 2 together with the identification information of the avatar 41.

【0025】サーバ装置2は、ステップS211におい
て、この送信された音声情報および識別情報を受信し、
ステップS212では、この音声情報を識別情報に関連
付けて音声情報記憶部25に記憶するとともに他の接続
ユーザのPC3b,3c,3d等に送信する。そして、
ステップS213において、前述と同様、サーバ装置2
は、他のPCから送信される音声情報を識別情報ととも
に受信すると、ステップS214において、この音声情
報を識別情報に関連付けて音声情報記憶部25に記憶す
るとともにPC3aへ送信する。
The server device 2 receives the transmitted voice information and identification information in step S211,
In step S212, this voice information is stored in the voice information storage unit 25 in association with the identification information and is transmitted to the other connected user's PCs 3b, 3c, 3d and the like. And
In step S213, the server device 2
When receiving the voice information transmitted from another PC together with the identification information, in step S214, the voice information is stored in the voice information storage unit 25 in association with the identification information and transmitted to the PC 3a.

【0026】PC3aは、ステップS114において、
この送信された音声情報および識別情報を受信すると、
ステップS115において、この受信した音声情報に付
随する識別情報からアバター42,43,44を特定
し、そのアバター42,43,44の位置と自己のアバ
ター41の位置との相対位置関係(距離、方向)を計算
する。そして、ステップS116では、この計算結果に
従って、音声の大きさおよび方向を設定すなわち立体的
に処理し、その設定に従って左右のスピーカ38a,3
8bによりステレオで音声出力する。
The PC 3a, in step S114,
When receiving this transmitted voice information and identification information,
In step S115, the avatars 42, 43, 44 are specified from the identification information attached to the received voice information, and the relative positional relationship (distance, direction) between the positions of the avatars 42, 43, 44 and the position of the avatar 41 of the self. ) Is calculated. Then, in step S116, the volume and direction of the voice are set, that is, stereoscopically processed according to the calculation result, and the left and right speakers 38a, 3 are set according to the setting.
8b outputs audio in stereo.

【0027】なお、上記説明では、PC3aを中心とし
て説明したが、同じサーバ装置2に接続する他のPC3
b〜3eについても同様の処理が行われる。
In the above description, the PC 3a is mainly described, but another PC 3 connected to the same server device 2 is used.
Similar processing is performed for b to 3e.

【0028】以上のように本実施の形態におけるチャッ
トシステムでは、PC3a〜3eそれぞれによりサーバ
装置2に接続し、自己のアバター41の識別情報および
位置情報と自己のアバター41の識別情報に関連付けた
音声情報とを送信するとともに、サーバ装置2から他の
アバター42,43,44の識別情報および位置情報と
他のアバター42,43,44の識別情報に関連付けら
れた音声情報とを受信し、自己および他のアバター4
1,42,43,44を表示部34の仮想三次元空間内
に表示し、さらに自己のアバター41と他のアバター4
2,43,44との相対位置に基づいて処理した音声を
左右のスピーカ38a,38bにより立体的にステレオ
出力することによって、ユーザはどのアバターが発言し
ているのかを区別してチャットによる会話を行うことが
可能となる。
As described above, in the chat system according to the present embodiment, each of the PCs 3a to 3e connects to the server device 2, and the voice associated with the identification information and the position information of the own avatar 41 and the identification information of the own avatar 41 is connected. While transmitting the information, the server device 2 receives the identification information and the position information of the other avatars 42, 43, 44 and the voice information associated with the identification information of the other avatars 42, 43, 44, and the self and Other avatars 4
1, 42, 43, 44 are displayed in the virtual three-dimensional space of the display unit 34, and the avatar 41 of the user and other avatars 4 are displayed.
By stereoscopically outputting the processed voices based on the relative positions of 2, 43, and 44 from the left and right speakers 38a and 38b, the user can distinguish which avatar is speaking and have a chat conversation. It becomes possible.

【0029】このとき、サーバ装置2に接続するユーザ
のPC3a〜3eに同じチャットプログラムを導入し
て、これらのPC3a〜3eが同じ仮想三次元空間に入
るため、それぞれのPC3a〜3eに記憶する地図情報
は同じものである。したがって、サーバ装置2は各ユー
ザのアバターの位置情報および音声情報をそれぞれ各ア
バター41,42,43,44の識別情報と関連付けて
PC3a〜3eへ受け渡すのみで、各ユーザのアバター
41,42,43,44は見かけ上1つの同じ地図上に
居るように制御され、アバター41,42,43,44
が移動するたびに地図情報をPC3a〜3eへ受け渡す
ことがない。これにより、サーバ装置2の負荷を軽く
し、かつ、情報の通信料も最小限に抑えられる。
At this time, the same chat program is installed in the PCs 3a to 3e of the users who are connected to the server device 2, and since these PCs 3a to 3e enter the same virtual three-dimensional space, the maps stored in the respective PCs 3a to 3e. The information is the same. Therefore, the server device 2 merely associates the position information and the voice information of each user's avatar with the identification information of each avatar 41, 42, 43, 44 and transfers them to the PCs 3a to 3e. 43 and 44 are controlled so that they are apparently on the same map, and avatars 41, 42, 43 and 44
Does not pass the map information to the PCs 3a to 3e every time the user moves. As a result, the load on the server device 2 can be lightened and the communication charge for information can be minimized.

【0030】[0030]

【発明の効果】本発明によれば、仮想三次元空間内の自
己のアバターと他のアバターとの位置関係に基づいて立
体的に処理された音声が出力されるため、ユーザはどの
アバターが発言しているのかを区別して会話を行うこと
が可能となる。
According to the present invention, a stereoscopically processed voice is output based on the positional relationship between one's own avatar and another avatar in the virtual three-dimensional space. It becomes possible to have a conversation by distinguishing whether or not they are doing it.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態におけるチャットシステム
の全体構成図
FIG. 1 is an overall configuration diagram of a chat system according to an embodiment of the present invention

【図2】図1のサーバ装置の機能構成を示すブロック図FIG. 2 is a block diagram showing a functional configuration of the server device shown in FIG.

【図3】図1のパーソナルコンピュータの外観図FIG. 3 is an external view of the personal computer shown in FIG.

【図4】図1のパーソナルコンピュータの機能構成を示
すブロック図
FIG. 4 is a block diagram showing a functional configuration of the personal computer shown in FIG.

【図5】図1のチャットシステムによる処理を示すフロ
ーチャート
5 is a flowchart showing processing by the chat system of FIG.

【図6】図5の音声制御処理の詳細を示すフローチャー
FIG. 6 is a flowchart showing details of the voice control process of FIG.

【図7】パーソナルコンピュータの画面上に表示される
仮想三次元空間の例を示す図
FIG. 7 is a diagram showing an example of a virtual three-dimensional space displayed on the screen of a personal computer.

【符号の説明】[Explanation of symbols]

1 インターネット 2 サーバ装置 3a,3b,3c,3d,3e パーソナルコンピュー
タ(PC) 4a,4b,4c,4d,4e プロバイダ 21 インターネット接続装置 22 制御部 23 識別情報記憶部 24 位置情報記憶部 25 音声情報記憶部 31 インターネット接続装置 32 制御部 33a マウス 33b キーボード 34 表示部 35 マイク 36 A/D変換器 37 D/A変換器 38a 左スピーカ 38b 右スピーカ 41,42,43,44 アバター
1 Internet 2 Server device 3a, 3b, 3c, 3d, 3e Personal computer (PC) 4a, 4b, 4c, 4d, 4e Provider 21 Internet connection device 22 Control part 23 Identification information storage part 24 Position information storage part 25 Voice information storage Part 31 Internet connection device 32 Control part 33a Mouse 33b Keyboard 34 Display part 35 Microphone 36 A / D converter 37 D / A converter 38a Left speaker 38b Right speaker 41, 42, 43, 44 Avatar

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10K 15/00 H04M 3/56 A H04M 3/56 H04S 7/00 F H04S 7/00 G10K 15/00 M Fターム(参考) 5B050 BA07 BA09 CA05 CA07 FA02 FA06 FA10 5D062 CC16 5E501 AA02 AB19 BA09 BA17 CA03 CA08 CB02 CB09 EA34 FA14 FA32 5K015 AB01 AB02 AF05 JA01 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G10K 15/00 H04M 3/56 A H04M 3/56 H04S 7/00 F H04S 7/00 G10K 15/00 M F Term (reference) 5B050 BA07 BA09 CA05 CA07 FA02 FA06 FA10 5D062 CC16 5E501 AA02 AB19 BA09 BA17 CA03 CA08 CB02 CB09 EA34 FA14 FA32 5K015 AB01 AB02 AF05 JA01

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】通信回線を介してサーバ装置へ接続し同サ
ーバ装置に接続する他の装置との間で共有する仮想三次
元空間内でチャットするチャット装置において、 前記サーバ装置に接続して自己のアバターの識別情報お
よび位置情報と前記自己のアバターの識別情報に関連付
けた音声情報とを送信する手段と、前記サーバ装置から
他のアバターの識別情報および位置情報と前記他のアバ
ターの識別情報に関連付けられた音声情報とを受信する
手段と、前記自己および他のアバターそれぞれの識別情
報および位置情報に基づいて前記自己および他のアバタ
ーを前記仮想三次元空間内に表示する手段と、前記自己
および他のアバターそれぞれの識別情報および位置情報
に基づいて前記仮想三次元空間内の前記自己のアバター
の位置に対する前記他のアバターの相対位置を算出する
手段と、前記他のアバターの相対位置に基づいて前記他
のアバターの音声情報を立体的に処理し出力する手段と
を備えたことを特徴とする音声を用いたチャット装置。
1. A chat device that connects to a server device via a communication line and chats in a virtual three-dimensional space shared with another device connected to the server device, wherein Means for transmitting the identification information and position information of the avatar and the voice information associated with the identification information of the own avatar, and the identification information and the position information of the other avatar and the identification information of the other avatar from the server device. Means for receiving associated audio information, means for displaying the self and other avatars in the virtual three-dimensional space based on identification information and position information of the self and other avatars, and the self and Based on the identification information and the position information of each of the other avatars, the other of the other avatars with respect to the position of the own avatar in the virtual three-dimensional space A chat using voice, comprising means for calculating a relative position of an avatar, and means for stereoscopically processing and outputting voice information of the other avatar based on the relative position of the other avatar. apparatus.
【請求項2】通信回線を介してサーバ装置へ接続し同サ
ーバ装置に接続する他の装置との間で共有する仮想三次
元空間内でチャットする装置としてコンピュータを機能
させるチャットプログラムにおいて、 前記サーバ装置に接続して自己のアバターの識別情報お
よび位置情報と前記自己のアバターの識別情報に関連付
けた音声情報とを送信する手段、前記サーバ装置から他
のアバターの識別情報および位置情報と前記他のアバタ
ーの識別情報に関連付けられた音声情報とを受信する手
段、前記自己および他のアバターそれぞれの識別情報お
よび位置情報に基づいて前記自己および他のアバターを
前記仮想三次元空間内に表示する手段、前記自己および
他のアバターそれぞれの識別情報および位置情報に基づ
いて前記仮想三次元空間内の前記自己のアバターの位置
に対する前記他のアバターの相対位置を算出する手段、
前記他のアバターの相対位置に基づいて前記他のアバタ
ーの音声情報を立体的に処理し出力する手段としてコン
ピュータを機能させることを特徴とする音声を用いたチ
ャットプログラム。
2. A chat program for causing a computer to function as a device for chatting in a virtual three-dimensional space shared with another device connected to the server device via a communication line and connected to the server device, Means for connecting to the device to transmit identification information and position information of the own avatar and voice information associated with the identification information of the own avatar, identification information and position information of another avatar from the server device and the other Means for receiving voice information associated with the identification information of the avatar, means for displaying the self and other avatars in the virtual three-dimensional space based on the identification information and position information of the self and other avatars, The self in the virtual three-dimensional space is based on identification information and position information of the self and other avatars. Means for calculating the relative position of the other avatar with respect to the position of one's own avatar,
A chat program using voice, comprising causing a computer to function as a means for stereoscopically processing and outputting voice information of the other avatar based on the relative position of the other avatar.
【請求項3】複数のアバターをそれぞれに付与した識別
情報に基づいて管理するサーバ装置と、同サーバ装置に
通信回線を介して接続し他の装置との間で共有する仮想
三次元空間内においてチャットするチャット装置とによ
る音声を用いたチャット方法であって、 前記チャット装置が、自己のアバターの識別情報および
位置情報と前記自己のアバターの識別情報に関連付けた
音声情報とを前記サーバ装置に送信するステップ、 前記サーバ装置が、前記チャット装置から送信されたア
バターの識別情報および位置情報と前記アバターの識別
情報に関連付けた音声情報を受信するステップ、 前記サーバ装置が、前記受信したアバターの識別情報お
よび位置情報と前記アバターの識別情報に関連付けた音
声情報を記憶するステップ、 前記サーバ装置が、同サーバ装置に接続するすべてのチ
ャット装置に対して前記記憶したすべてのアバターの識
別情報および位置情報と前記アバターの識別情報に関連
付けた音声情報を送信するステップ、 前記チャット装置が、前記サーバ装置から送信されたア
バターの識別情報および位置情報と前記アバターの識別
情報に関連付けた音声情報を受信するステップ、 前記チャット装置が、前記受信したすべてのアバターそ
れぞれの識別情報および位置情報に基づいて前記自己お
よび他のアバターを前記仮想三次元空間内に表示するス
テップ、 前記自己および他のアバターそれぞれの識別情報および
位置情報に基づいて前記仮想三次元空間内の前記自己の
アバターの位置に対する前記他のアバターの相対位置を
算出するステップ、 前記他のアバターの相対位置に基づいて前記他のアバタ
ーの音声情報を立体的に処理し出力するステップ、 を含むことを特徴とする音声を用いたチャット方法。
3. A server device that manages a plurality of avatars based on identification information assigned to each avatar, and a virtual three-dimensional space that is shared with other devices by connecting to the server device via a communication line. A chat method using voice with a chat device for chatting, wherein the chat device transmits identification information and position information of its own avatar and voice information associated with the identification information of the own avatar to the server device. The server device receives the identification information and the position information of the avatar transmitted from the chat device and the voice information associated with the identification information of the avatar. The server device receives the identification information of the received avatar. And storing voice information associated with position information and identification information of the avatar, the server device A step of transmitting, to all chat devices connected to the same server device, identification information and position information of all the stored avatars and voice information associated with the identification information of the avatars; Receiving the identification information and position information of the avatar transmitted from the server device and the voice information associated with the identification information of the avatar, the chat device based on the identification information and the position information of each of the received avatars Displaying the self and other avatars in the virtual three-dimensional space, the other for the position of the own avatar in the virtual three-dimensional space based on the identification information and position information of the self and other avatars, respectively. Calculating the relative position of each avatar, Relative to the other avatar A method for stereoscopically processing and outputting voice information of the other avatar based on a position, and a chat method using voice.
JP2001190978A 2001-06-25 2001-06-25 Chatting device using voice, chat program and chatting method Pending JP2003006132A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001190978A JP2003006132A (en) 2001-06-25 2001-06-25 Chatting device using voice, chat program and chatting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001190978A JP2003006132A (en) 2001-06-25 2001-06-25 Chatting device using voice, chat program and chatting method

Publications (1)

Publication Number Publication Date
JP2003006132A true JP2003006132A (en) 2003-01-10

Family

ID=19029670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001190978A Pending JP2003006132A (en) 2001-06-25 2001-06-25 Chatting device using voice, chat program and chatting method

Country Status (1)

Country Link
JP (1) JP2003006132A (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311974A (en) * 2004-04-26 2005-11-04 Yamaha Corp Sound image localizing terminal
JP2006164212A (en) * 2004-11-10 2006-06-22 Sony Corp Information processing apparatus and method, recording medium, and program
JP2008131515A (en) * 2006-11-22 2008-06-05 Sharp Corp Information processor, information processing method and program
JP2008547290A (en) * 2005-06-24 2008-12-25 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Immersive audio communication
KR101150100B1 (en) 2003-09-25 2012-06-08 마이크로소프트 코포레이션 Visual indication of current voice speaker
WO2012120810A1 (en) * 2011-03-08 2012-09-13 パナソニック株式会社 Audio control device and audio control method
US8751944B2 (en) 2007-07-19 2014-06-10 Sony Corporation Communication system, communication apparatus, communication program, and computer-readable storage medium stored with the communication program
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
US11076128B1 (en) 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
EP4210355A1 (en) * 2022-01-07 2023-07-12 Sony Interactive Entertainment Europe Limited 3d spatialisation of voice chat
US11704864B1 (en) 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101150100B1 (en) 2003-09-25 2012-06-08 마이크로소프트 코포레이션 Visual indication of current voice speaker
JP2005311974A (en) * 2004-04-26 2005-11-04 Yamaha Corp Sound image localizing terminal
JP4529528B2 (en) * 2004-04-26 2010-08-25 ヤマハ株式会社 Sound localization terminal
JP2006164212A (en) * 2004-11-10 2006-06-22 Sony Corp Information processing apparatus and method, recording medium, and program
US8031631B2 (en) 2004-11-10 2011-10-04 Sony Corporation Information processing apparatus, method, and recording medium for communication through a network in a predetermined area
JP2008547290A (en) * 2005-06-24 2008-12-25 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Immersive audio communication
JP4854736B2 (en) * 2005-06-24 2012-01-18 ドルビー ラボラトリーズ ライセンシング コーポレイション Immersive audio communication
JP2008131515A (en) * 2006-11-22 2008-06-05 Sharp Corp Information processor, information processing method and program
US8751944B2 (en) 2007-07-19 2014-06-10 Sony Corporation Communication system, communication apparatus, communication program, and computer-readable storage medium stored with the communication program
WO2012120810A1 (en) * 2011-03-08 2012-09-13 パナソニック株式会社 Audio control device and audio control method
US11290688B1 (en) 2020-10-20 2022-03-29 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
US11076128B1 (en) 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
EP4210355A1 (en) * 2022-01-07 2023-07-12 Sony Interactive Entertainment Europe Limited 3d spatialisation of voice chat
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
US11704864B1 (en) 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment

Similar Documents

Publication Publication Date Title
JP2003006132A (en) Chatting device using voice, chat program and chatting method
JP4152432B2 (en) Virtual reality network
CN111527525A (en) Mixed reality service providing method and system
JP2009271750A (en) Virtual space provision device, program and virtual space provision system
EP3825817A1 (en) Information processing device, information processing method, and program
CN110637274B (en) Information processing apparatus, information processing method, and program
CN108513088B (en) Method and device for group video session
CN111770131A (en) Load balanced persistent connection technique
CN113037926B (en) Communication system, information communication method, and storage medium
JP2015219768A (en) Information processing system, storage medium, and information processing method
CN108111374A (en) Method, apparatus, equipment and the computer storage media of synchronizer list
JP2018067156A (en) Communication device and control method thereof
WO2019156263A1 (en) Method, system, and non-transitory computer-readable recording medium for providing chat room in three-dimensional form
JP2009065336A (en) Video conference system
JP2023100616A (en) Content distribution apparatus, content distribution program, content distribution method, content display device, content display program, and contents display method
KR20180105595A (en) Method and system for chatting on mobile deivce using external device
CN110855550B (en) Communication method, electronic device, and storage medium
US20220101849A1 (en) Voice chat apparatus, voice chat method, and program
JP6619539B2 (en) Information management system and information management method
CN113204724A (en) Method and device for creating interactive information, electronic equipment and storage medium
WO2023281820A1 (en) Information processing device, information processing method, and storage medium
KR20190108977A (en) Screen controlling method and electronic device supporting the same
JPH09102051A (en) Sound field control method and sound field controller
EP4297399A1 (en) Distribution system
KR102294362B1 (en) The method for providing realistication contents in xtended reality space and system thereof