JP3391050B2 - Voice virtual localization system - Google Patents

Voice virtual localization system

Info

Publication number
JP3391050B2
JP3391050B2 JP16162293A JP16162293A JP3391050B2 JP 3391050 B2 JP3391050 B2 JP 3391050B2 JP 16162293 A JP16162293 A JP 16162293A JP 16162293 A JP16162293 A JP 16162293A JP 3391050 B2 JP3391050 B2 JP 3391050B2
Authority
JP
Japan
Prior art keywords
virtual space
data
voice
virtual
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16162293A
Other languages
Japanese (ja)
Other versions
JPH0756497A (en
Inventor
篤 北原
盛国 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP16162293A priority Critical patent/JP3391050B2/en
Publication of JPH0756497A publication Critical patent/JPH0756497A/en
Application granted granted Critical
Publication of JP3391050B2 publication Critical patent/JP3391050B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、操作者が仮想する仮想
空間上に、仮想位置に対応して音声を定位させる音声仮
想定位システムに関する。 【0002】 【従来の技術】従来、複数の仮想空間シミュレータ(仮
想空間形成手段)間を通信で結ぶことにより、各仮想空
間シミュレータに共通の仮想空間を形成し、各仮想空間
シミュレータを操作するそれぞれの操作者が同一の仮想
空間を共有することができる仮想空間シミュレータシス
テムが知られている。 【0003】仮想空間シミュレータにより形成される仮
想空間は、所謂バーチャルリアリティを体験することが
できる三次元(3−dimention )空間により形成されて
いる。各仮想空間シミュレータにおいては、例えば操作
者がジョイスティック等を操作することで仮想空間上の
操作者に任意の行動を取らせることができ、同時に、行
動に対応した音声が発っせられる。 【0004】 【発明が解決しようとする課題】しかしながら、これま
での通信により結ばれた仮想空間シミュレータシステム
では、音声は、仮想空間シミュレータにより予め設定さ
れた発生源からパターン化されて出るに過ぎず、操作者
の発する実際の音声と三次元空間を表示する画像とが関
連せず仮想空間のリアリティに欠けるという問題点があ
った。 【0005】本発明は、上記問題点に鑑みてなされたも
のであり、その目的は、操作者の発する実際の音声と三
次元空間を表示する画像とを関連させることにより、音
声を仮想空間上に定位させて、仮想空間のリアリティを
向上させる音声仮想定位システムを提供することにあ
る。 【0006】 【課題を解決するための手段】上記目的は、操作者が仮
想する仮想空間を形成するための仮想空間形成手段と、
前記操作者の発する音声が入力される音声入力手段と、
前記仮想空間形成手段同士のデータ伝送を行う通信手段
と、データ伝送における所定単位送信時間毎に、前記仮
想空間の仮想データと共に前記音声に基づく前記所定単
位送信時間毎の音声データを送出する音声送出手段とを
有し、前記音声入力手段に入力された操作者の音声を前
記仮想空間上の仮想位置に定位させることを特徴とする
音声仮想定位システムによって達成される。 【0007】 【作用】本発明によれば、仮想空間形成手段に形成され
た操作者が仮想する仮想空間上に、音声入力手段に入力
された操作者の発する音声に基づく音声データが、音声
送出手段によってデータ伝送における所定単位送信時間
毎に仮想空間の仮想データと共に所定単位送信時間毎に
送出されることから、操作者が発した音声は、しかるべ
き仮想空間上の仮想位置に定位させた上で他の仮想空間
形成手段に出力されることとなり、同時に仮想データに
基づく画像とリンクすることとなる。 【0008】 【実施例】以下、本発明の一実施例による音声仮想定位
システムを図面を参照して説明する。図1に示すよう
に、音声仮想定位システム10は、仮想空間シミュレー
タ(仮想空間形成手段)11と、仮想空間シミュレータ
11が複数設けられたシミュレータ群12と、それぞれ
仮想空間シミュレータ11毎に設けられたマイク(音声
入力手段)13、通信手段14、及び音声送出手段15
と、ホストコンピュータ16とを有している。 【0009】この音声仮想定位システム10は、シミュ
レータ群12を構成する各仮想空間シミュレータ11毎
に共通の仮想空間を形成しており、各仮想空間シミュレ
ータ11を操作するそれぞれの操作者が同一の仮想空間
を共有することができる。仮想空間シミュレータ11
は、図2に示すように、制御手段としてのCPU11a
を有しており、入力する仮想データに基づくCPU11
aの演算処理によって、三次元(3−dimention )空間
からなる仮想空間を画像表示するための映像出力及び音
声出力を出力する。この仮想空間により、所謂バーチャ
ルリアリティを体験することができる。 【0010】仮想データは、操作者が発する、仮想され
ている操作者の仮想空間上の位置データ、所望の移動方
向や移動速度或は所望の行動種類等の状態データからな
り、仮想空間上に仮想された操作者に所望の行動を取ら
せることができる。各仮想空間シミュレータ11におい
ては、ジョイスティック17等の入力手段を操作者が操
作することにより、デコーダ17aを介して位置データ
及び状態データが入力される。同様に、操作者の変位状
態を検出する位置センサ18によっても、A/D変換器
18a等を介して位置データ及び状態データを入力する
ことができる(図2参照)。 【0011】また、画像情報は、画像出力装置19aを
介してヘッドマウンテッドディスプレイ19b等に三次
元画像として出力される。同様に、音声データは、音声
出力装置20a及び仮想空間音声定位計算装置20bを
介してスピーカ20c等に音声として出力される(図2
参照)。シミュレータ群12は、複数の仮想空間シミュ
レータ11と、各仮想空間シミュレータ11が通信手段
14を介して接続されたホストコンピュータ16とによ
り構成されており(図1参照)、各仮想空間シミュレー
タ11とホストコンピュータ16とは相互にデータの入
出力が可能である。 【0012】マイク13は、例えば操作者が装着するヘ
ッドマウンテッドディスプレイ19b毎に設けられてお
り、仮想空間シミュレータ11を操作する操作者の発す
る音声を採取する。採取された音声は、ノイズフィルタ
13a等及びA/D変換器13bを介してデジタル化さ
れた音声データとなる。通信手段14は、例えばISD
Nや電話回線等からなり、仮想空間シミュレータ11か
らのデータ出力部である音声送出手段15とホストコン
ピュータ16とを接続して、仮想空間シミュレータ11
同士のデータ伝送を行うデータ伝送路を形成している。 【0013】音声送出手段15は、データ送出に際し、
データ列を一定の大きさに分割して分割部分である1パ
ケット毎に送信しており、例えば所定単位送信時間であ
る1/60秒からなる1フィールドのデータを1パケッ
トとしている。従って、1フィールド毎に、CPU11
aの演算処理によって得られた位置データa及び状態デ
ータbと共に、マイク13を介して随時入力する音声デ
ータを1フィールド毎に分割して得られた音声データc
が送信される。図中、dはヘッダ(HEADER)であり、e
はチェックサム(CHECK SUM )若しくはパリティ(PARI
TY)である。 【0014】即ち、データ伝送における所定単位送信時
間毎に、位置データa及び状態データbと共に所定単位
送信時間毎の音声データcが送出される。このため、音
声データcを実時間で採取して実時間で再現することが
できることから、操作者の発した音声は、仮想空間上の
しかるべき位置に定位させた上で出力され、同時に、位
置データa及び状態データbを用いて画像もリンクさせ
ることができる。 【0015】なお、音声送出手段15は、音声データの
圧縮及び伸長を行う圧縮・伸長機能を有しており、位置
データa及び状態データbと共に1フィールド毎の音声
データcを送出するに際し必要に応じて音声データcを
圧縮すると共に、入力した圧縮状態の音声データを伸長
して元の状態に戻すことができる。次に、音声仮想定位
システムの作用を説明する。 【0016】先ず、第4図に示すように、各操作者が、
例えば椅子等に腰掛けて各自ヘッドマウンテッドディス
プレイ19b等を装着し、それぞれ仮想空間シミュレー
タ11による仮想空間の体験可能状態となってシミュレ
ータ群12を構成する。各操作者が、ジョイスティック
17等を操作し、ヘッドマウンテッドディスプレイ19
b等に画像表示された仮想空間上における仮想状態を体
験する。 【0017】この際、各仮想空間シミュレータ11に
は、ホストコンピユータ16を介して共通の仮想データ
が送られており、各操作者は各仮想空間シミュレータ1
1において同一の仮想空間を共有することとなる。続い
て、仮想状態にある操作者が音声を発すると、音声は、
マイク13により採取された後デジタル化されて1フィ
ールド毎に区切られた音声データcとなり、位置データ
a及び状態データbと共に1フィールド毎に(図3参
照)音声送出手段15から通信手段14を介しホストコ
ンピュータ16へと送信される。 【0018】データ送出に際し、音声データcは、位置
データa及び状態データbと共に送信すべく必要に応じ
て圧縮される。ところで、音声データがデジタル化され
且つ必要分圧縮して通信されることにより、より効果的
な三次元化が可能となる。即ち、三次元化に際しては、
特に反射波に対応する高周波が多ければ多いほど定位し
た時に位置が明確となることから、音質が劣化せずに高
周波成分を完全に持つ正確なデータを送出することで、
仮想空間シミュレータ11上にて三次元化する際に必要
なSN比及び周波数特性を得ることができる。 【0019】そして、1フレーム毎の音声データcが入
力したホストコンピユータ16は、通信手段14を介し
て他の仮想空間シミュレータ11へと、同様に1フレー
ム毎の音声データcを転送する。他の仮想空間シミュレ
ータ11に入力する1フレーム毎の音声データcは、音
声送出手段15により圧縮されている場合は伸長されて
元の状態に戻された後、位置データa及び状態データb
と音声データcとに分離され、それぞれのデータが音声
出力装置20a及び仮想空間音声定位計算装置20bに
入力される。 【0020】入力された音声データcは、音声出力装置
20a及び仮想空間音声定位計算装置20により、位置
データa及び状態データbに基づき音声を仮想空間上の
しかるべき位置に定位させた上で、スピーカ20c等に
出力される。従って、操作者が発した音声は、しかるべ
き仮想空間上の位置に定位させた上で、他の仮想空間シ
ミュレータ11に出力されることとなり、当然、同時に
位置データa及び状態データbに基づきヘッドマウンテ
ッドディスプレイ19b等に出力された画像とリンクす
ることとなる。 【0021】このように、音声の定位と画像の仮想空間
上での位置がリアルタイムにリンクし、且つ通信によっ
て複数の操作者が同じ仮想空間内のそれぞれの位置(定
位)にある画像と音声を楽しむことができることから、
仮想空間内で参加者同士が肉声で会話することができ
る。加えて、音声が劣化することなくより効果的な三次
元化が可能となる。 【0022】よって、操作者の発する実際の音声と三次
元空間を表示する画像とを関連させて音声を仮想空間上
に定位させることができることから、画像とシステム側
から発生する音のみが示されるだけで実際の音声はシス
テムとは切り離された形であった従来の仮想空間シミュ
レータに比べ、仮想空間のリアリティの向上とコミュニ
ケーションの向上が可能となる。 【0023】また、自分の音声に音場処理(例えばエコ
ー処理)を施して出力することも可能となり、この場合
はよりリアリティを向上させることができる。なお、本
発明は上記実施例に限らず種々の変形が可能であり、例
えば、各仮想空間シミュレータ11を、ホストコンピユ
ータ16を介すことなく直接接続しても良い。 【0024】 【発明の効果】以上の通り、本発明によれば、操作者の
発する実際の音声と三次元空間を表示する画像とを関連
させることにより、音声を仮想空間上に定位させて、仮
想空間のリアリティを向上させることができる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio virtual localization system that localizes audio corresponding to a virtual position in a virtual space virtualized by an operator. Conventionally, by connecting a plurality of virtual space simulators (virtual space forming means) by communication, a virtual space common to each virtual space simulator is formed, and each virtual space simulator is operated. There is known a virtual space simulator system in which the operators can share the same virtual space. A virtual space formed by a virtual space simulator is formed by a three-dimensional space in which a so-called virtual reality can be experienced. In each virtual space simulator, for example, when an operator operates a joystick or the like, the operator on the virtual space can take an arbitrary action, and at the same time, a sound corresponding to the action is emitted. [0004] However, in the virtual space simulator system connected by the conventional communication, the sound is only patterned from the source set in advance by the virtual space simulator. However, there is a problem in that the actual voice generated by the operator and the image displaying the three-dimensional space are not related and the reality of the virtual space is lacking. The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to associate sound in a virtual space by associating actual sound generated by an operator with an image displaying a three-dimensional space. It is to provide a sound virtual localization system that improves the reality of the virtual space. [0006] The above object is achieved by a virtual space forming means for forming a virtual space that is virtualized by an operator,
A voice input means for inputting a voice uttered by the operator;
Communication means for performing data transmission between the virtual space forming means and voice transmission for sending voice data for each predetermined unit transmission time based on the voice together with virtual data of the virtual space for every predetermined unit transmission time in data transmission And a voice virtual localization system characterized in that the voice of the operator input to the voice input means is localized at a virtual position in the virtual space. According to the present invention, the voice data based on the voice uttered by the operator input to the voice input means is transmitted to the virtual space virtualized by the operator formed in the virtual space forming means. Since the data is transmitted every predetermined unit transmission time together with virtual data in the virtual space every predetermined unit transmission time in the data transmission, the voice uttered by the operator is localized at the appropriate virtual position in the virtual space. Thus, the data is output to other virtual space forming means, and at the same time, it is linked to an image based on the virtual data. DESCRIPTION OF THE PREFERRED EMBODIMENTS An audio virtual localization system according to an embodiment of the present invention will be described below with reference to the drawings. As shown in FIG. 1, the sound virtual localization system 10 is provided for each virtual space simulator 11, a virtual space simulator (virtual space forming means) 11, a simulator group 12 provided with a plurality of virtual space simulators 11, and each. Microphone (voice input means) 13, communication means 14, and voice sending means 15
And a host computer 16. This voice virtual localization system 10 forms a common virtual space for each virtual space simulator 11 constituting the simulator group 12, and each operator who operates each virtual space simulator 11 has the same virtual space. You can share space. Virtual space simulator 11
As shown in FIG. 2, the CPU 11a as the control means
CPU 11 based on the input virtual data
By the arithmetic processing of a, a video output and an audio output for displaying an image of a virtual space consisting of a three-dimensional (3-dimention) space are output. This virtual space allows you to experience so-called virtual reality. The virtual data consists of position data in the virtual space of the virtual operator, which is issued by the operator, state data such as a desired moving direction and moving speed, or a desired action type. It is possible to make a virtual operator take a desired action. In each virtual space simulator 11, position data and state data are input via the decoder 17a when an operator operates input means such as the joystick 17 or the like. Similarly, position data and state data can be input via the A / D converter 18a and the like by the position sensor 18 that detects the displacement state of the operator (see FIG. 2). The image information is output as a three-dimensional image to the head mounted display 19b or the like via the image output device 19a. Similarly, the audio data is output as audio to the speaker 20c or the like via the audio output device 20a and the virtual space audio localization calculation device 20b (FIG. 2).
reference). The simulator group 12 includes a plurality of virtual space simulators 11 and a host computer 16 to which each virtual space simulator 11 is connected via communication means 14 (see FIG. 1). Data can be input / output to / from the computer 16. The microphone 13 is provided, for example, for each head-mounted display 19b worn by the operator, and collects sound produced by the operator who operates the virtual space simulator 11. The collected voice becomes voice data digitized through the noise filter 13a and the like and the A / D converter 13b. The communication means 14 is, for example, ISD
N, a telephone line, and the like, and the voice sending means 15 that is a data output unit from the virtual space simulator 11 and the host computer 16 are connected to each other, and the virtual space simulator 11
A data transmission path for transmitting data between each other is formed. The voice sending means 15 is used for sending data.
The data string is divided into a certain size and transmitted for each packet as a divided portion. For example, one field of data of 1/60 seconds which is a predetermined unit transmission time is defined as one packet. Therefore, for each field, the CPU 11
Along with the position data a and the state data b obtained by the arithmetic processing of a, the voice data c obtained by dividing the voice data input at any time via the microphone 13 for each field
Is sent. In the figure, d is a header (HEADER), and e
Is the checksum (CHECK SUM) or parity (PARI)
TY). That is, the audio data c for each predetermined unit transmission time is transmitted together with the position data a and the status data b for every predetermined unit transmission time in the data transmission. Therefore, since the voice data c can be collected in real time and reproduced in real time, the voice uttered by the operator is output after being localized at an appropriate position in the virtual space, and at the same time, Images can also be linked using data a and status data b. The voice sending means 15 has a compression / decompression function for compressing and decompressing voice data, and is necessary when sending the voice data c for each field together with the position data a and the status data b. Accordingly, the audio data c can be compressed, and the input compressed audio data can be decompressed and returned to the original state. Next, the operation of the voice virtual localization system will be described. First, as shown in FIG. 4, each operator
For example, each person mounts his / her head mounted display 19b or the like on a chair or the like, and becomes a virtual space experienceable state by the virtual space simulator 11 to constitute the simulator group 12. Each operator operates the joystick 17 and the like, and the head mounted display 19
Experience the virtual state on the virtual space displayed as an image on b etc. At this time, common virtual data is sent to the respective virtual space simulators 11 via the host computer 16, and each operator receives each virtual space simulator 1.
1 share the same virtual space. Subsequently, when the operator in the virtual state utters voice,
After being collected by the microphone 13, it is digitized and becomes voice data c divided into fields, and the position data a and the status data b together with the position data a and status data b (see FIG. 3) from the voice sending means 15 through the communication means 14. It is transmitted to the host computer 16. At the time of data transmission, the audio data c is compressed as necessary to be transmitted together with the position data a and the status data b. By the way, when voice data is digitized and compressed and communicated by a necessary amount, more effective three-dimensionalization is possible. In other words,
In particular, the more the high frequency that corresponds to the reflected wave, the clearer the position when localized, so by sending accurate data with complete high frequency components without sound quality degradation,
The signal-to-noise ratio and frequency characteristics necessary for three-dimensionalization on the virtual space simulator 11 can be obtained. The host computer 16 to which the audio data c for each frame is input transfers the audio data c for each frame to the other virtual space simulator 11 through the communication means 14 in the same manner. The audio data c for each frame input to the other virtual space simulator 11 is decompressed and returned to the original state when compressed by the audio sending means 15, and then the position data a and the state data b
And audio data c, and these data are input to the audio output device 20a and the virtual space audio localization calculation device 20b. The input audio data c is localized at an appropriate position in the virtual space by the audio output device 20a and the virtual space audio localization calculation device 20 based on the position data a and the state data b. It is output to the speaker 20c or the like. Accordingly, the voice uttered by the operator is localized at a position in the appropriate virtual space and then output to the other virtual space simulator 11, and naturally, the head is simultaneously based on the position data a and the state data b. The image is linked to the image output to the mounted display 19b or the like. As described above, the localization of the sound and the position of the image in the virtual space are linked in real time, and a plurality of operators can communicate the images and sounds at the respective positions (localization) in the same virtual space by communication. From being able to enjoy
Participants can talk with each other in the virtual space. In addition, more effective three-dimensionalization is possible without deterioration of the voice. Therefore, since the voice can be localized on the virtual space by associating the actual voice generated by the operator with the image displaying the three-dimensional space, only the image and the sound generated from the system side are shown. As a result, the reality of the virtual space and the communication can be improved compared to the conventional virtual space simulator in which the actual voice is separated from the system. In addition, it is possible to output the sound by subjecting it to sound field processing (for example, echo processing). In this case, the reality can be further improved. The present invention is not limited to the above-described embodiments, and various modifications are possible. For example, the virtual space simulators 11 may be directly connected without using the host computer 16. As described above, according to the present invention, the voice is localized on the virtual space by associating the actual voice generated by the operator with the image displaying the three-dimensional space, The reality of virtual space can be improved.

【図面の簡単な説明】 【図1】本発明の一実施例による音声仮想定位システム
の説明図である。 【図2】仮想空間シミュレータの概略構成説明図であ
る。 【図3】位置データa及び状態データbと音声データc
を納めた1フレームの説明図である。 【図4】各操作者がヘッドマウンテッドディスプレイ及
びマイクを装着してシミュレータ群を構成した説明図で
ある。 【符号の説明】 10…音声仮想定位システム 11…仮想空間シミュレータ(仮想空間形成手段) 11a…CPU 12…シミュレータ群 13…マイク(音声入力手段) 13a…ノイズフィルタ 13b…A/D変換器 14…通信手段 15…音声送出手段 16…ホストコンピュータ 17…ジョイスティッ ク 17a…デコーダ 18…位置センサ 18a…A/D変換器 19a…画像出力装置 19b…ヘッドマウンテッドディスプレイ 20a…音声出力装置 20b…仮想空間音声定位計算装置 20c…スピーカ a…位置データ b…状態データ c…音声データ d…ヘッダ e…チェックサム
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram of an audio virtual localization system according to an embodiment of the present invention. FIG. 2 is a schematic configuration explanatory diagram of a virtual space simulator. FIG. 3 shows position data a, state data b, and audio data c.
It is explanatory drawing of 1 frame which accommodated. FIG. 4 is an explanatory diagram in which a simulator group is configured by each operator wearing a head-mounted display and a microphone. DESCRIPTION OF SYMBOLS 10 ... Sound virtual localization system 11 ... Virtual space simulator (virtual space forming means) 11a ... CPU 12 ... Simulator group 13 ... Microphone (voice input means) 13a ... Noise filter 13b ... A / D converter 14 ... Communication means 15 ... Audio sending means 16 ... Host computer 17 ... Joystick 17a ... Decoder 18 ... Position sensor 18a ... A / D converter 19a ... Image output device 19b ... Head mounted display 20a ... Audio output device 20b ... Virtual space Audio localization calculator 20c ... speaker a ... position data b ... status data c ... audio data d ... header e ... checksum

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G09B 9/00 - 9/56 A63F 9/00 - 13/12 G10K 15/00 H04N 5/76 H04S 1/00 G06F 17/00 Continued on front page (58) Fields surveyed (Int.Cl. 7 , DB name) G09B 9/00-9/56 A63F 9/00-13/12 G10K 15/00 H04N 5/76 H04S 1/00 G06F 17 / 00

Claims (1)

(57)【特許請求の範囲】 【請求項1】 操作者が仮想する仮想空間を形成するた
めの仮想空間形成手段と、 前記操作者の発する音声が入力される音声入力手段と、 前記仮想空間形成手段同士のデータ伝送を行う通信手段
と、 データ伝送における所定単位送信時間毎に、前記仮想空
間の仮想データと共に前記音声に基づく前記所定単位送
信時間毎の音声データを送出する音声送出手段とを有
し、 前記音声入力手段に入力された操作者の音声を前記仮想
空間上の仮想位置に定位させることを特徴とする音声仮
想定位システム。
(57) Claims 1. A virtual space forming means for forming a virtual space virtualized by an operator, a voice input means for inputting a voice uttered by the operator, and the virtual space Communication means for performing data transmission between the forming means, and voice sending means for sending voice data for each predetermined unit transmission time based on the voice together with virtual data in the virtual space for each predetermined unit transmission time in data transmission. A voice virtual localization system characterized in that the voice of the operator input to the voice input means is localized at a virtual position in the virtual space.
JP16162293A 1993-06-30 1993-06-30 Voice virtual localization system Expired - Fee Related JP3391050B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16162293A JP3391050B2 (en) 1993-06-30 1993-06-30 Voice virtual localization system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16162293A JP3391050B2 (en) 1993-06-30 1993-06-30 Voice virtual localization system

Publications (2)

Publication Number Publication Date
JPH0756497A JPH0756497A (en) 1995-03-03
JP3391050B2 true JP3391050B2 (en) 2003-03-31

Family

ID=15738686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16162293A Expired - Fee Related JP3391050B2 (en) 1993-06-30 1993-06-30 Voice virtual localization system

Country Status (1)

Country Link
JP (1) JP3391050B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5784570A (en) * 1995-04-07 1998-07-21 At&T Corp Server for applying a recipient filter and compressing the input data stream based upon a set of at least one characteristics in a multiuser interactive virtual environment
EP0736996A3 (en) * 1995-04-07 1996-11-27 At & T Corp Method of and apparatus for transmitting voice messages in a multiuser interactive virtual environment
US6219045B1 (en) 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
DE60027170T2 (en) * 1999-12-24 2007-03-08 Koninklijke Philips Electronics N.V. ARRANGEMENT FOR AUDIO SIGNAL PROCESSING
JP2001204973A (en) * 2000-01-27 2001-07-31 Snk Corp Communication game system and game terminal used for communication game, and game method
JP2004136009A (en) 2002-10-21 2004-05-13 Nintendo Co Ltd Radio communication game system
JP4073885B2 (en) 2003-06-17 2008-04-09 任天堂株式会社 GAME SYSTEM, GAME DEVICE, AND GAME PROGRAM
AU2003903139A0 (en) 2003-06-20 2003-07-03 Resmed Limited Breathable gas apparatus with humidifier

Also Published As

Publication number Publication date
JPH0756497A (en) 1995-03-03

Similar Documents

Publication Publication Date Title
US6343131B1 (en) Method and a system for processing a virtual acoustic environment
US6038330A (en) Virtual sound headset and method for simulating spatial sound
US6430535B1 (en) Method and device for projecting sound sources onto loudspeakers
EP1408718A1 (en) Sound image localizer
US11902772B1 (en) Own voice reinforcement using extra-aural speakers
JP3391050B2 (en) Voice virtual localization system
WO1999049453A1 (en) A method and a system for processing directed sound in an acoustic virtual environment
US11889286B2 (en) Audio apparatus and method therefor
CN114143700A (en) Audio processing method, device, equipment, medium and program product
US20200126311A1 (en) Interactive virtual reality system for experiencing sound
Casey et al. Vision steered beam-forming and transaural rendering for the artificial life interactive video environment (alive)
KR100954033B1 (en) A Method and Apparatus for View-dependent Multi-channel Audio Processing for a Multi-view Camera System
JPH06301390A (en) Stereoscopic sound image controller
CN115705839A (en) Voice playing method and device, computer equipment and storage medium
JP6397524B2 (en) Game program and game system
US20190394583A1 (en) Method of audio reproduction in a hearing device and hearing device
Pörschmann et al. 3-D audio in mobile communication devices: effects of self-created and external sounds on presence in auditory virtual environments
JP2630041B2 (en) Video conference image display control method
JP2005123959A (en) High-presence communication conference apparatus
WO2023243375A1 (en) Information terminal, information processing method, program, and information processing device
RU2804014C2 (en) Audio device and method therefor
KR0164111B1 (en) Real sound system
JP2003283669A5 (en)
CN115550831A (en) Method, device, equipment, medium and program product for processing call audio
CN116939473A (en) Audio generation method and related device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021224

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100124

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120124

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120124

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120124

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130124

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees