JP3261941B2 - Sound field control method - Google Patents

Sound field control method

Info

Publication number
JP3261941B2
JP3261941B2 JP24743395A JP24743395A JP3261941B2 JP 3261941 B2 JP3261941 B2 JP 3261941B2 JP 24743395 A JP24743395 A JP 24743395A JP 24743395 A JP24743395 A JP 24743395A JP 3261941 B2 JP3261941 B2 JP 3261941B2
Authority
JP
Japan
Prior art keywords
sound
axis
control method
dxy
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP24743395A
Other languages
Japanese (ja)
Other versions
JPH0991460A (en
Inventor
悌之 清末
泰史 須田
浩 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP24743395A priority Critical patent/JP3261941B2/en
Publication of JPH0991460A publication Critical patent/JPH0991460A/en
Application granted granted Critical
Publication of JP3261941B2 publication Critical patent/JP3261941B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)
  • Telephonic Communication Services (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、パーソナルコンピ
ュータ(PC)やワークステーション(WS)などの計
算機上で、町や家などの三次元表示された仮想的な空間
を作り、計算機ネットワークや公衆回線を介して、複数
の参加者が参加する仮想環境を構築する技術分野にかか
わり、この三次元空間上の位置情報に基づいて参加者の
声や環境音を制御する技術に関係する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer, such as a personal computer (PC) or a workstation (WS), which creates a three-dimensional virtual space such as a town or a house on a computer, a computer network or a public line. And related to a technology for constructing a virtual environment in which a plurality of participants participate, and a technique for controlling the voices and environmental sounds of the participants based on the positional information in the three-dimensional space.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】本発明
に関係する従来技術として、三次元CAD(コンピュー
タが補助する工業的設計)システムや、三次元CG(コ
ンピュータグラフィック)もしくは、これを用いたVR
(バーチャルリアリティ)システムがあった。また、こ
れらの技術を用いて、現実世界を模倣した三次元の仮想
空間を実現し、さらにLAN(ローカルエリアネットワ
ーク)や公衆回線などのネットワークで接続された計算
機上で、計算機を使用しているユーザが同じ一つの仮想
空間を共有するシステムが実現されていた。
2. Description of the Related Art As prior art related to the present invention, a three-dimensional CAD (industrial design assisted by a computer) system, a three-dimensional CG (computer graphic), or a three-dimensional CG (computer graphic) is used. VR
There was a (virtual reality) system. In addition, using these technologies, a three-dimensional virtual space that imitates the real world is realized, and the computer is used on a computer connected by a network such as a LAN (local area network) or a public line. A system in which users share the same virtual space has been realized.

【0003】この仮想空間を共有するシステムでは、共
有されている三次元共有空間を、各々のユーザの分身と
しての人物画像(キャラクタ)が自由に動き回ることが
でき、またそれに伴って、各ユーザが使用している計算
機上のデータ(風景画像)も変化するものであった。し
かし、このシステムでは、ユーザの動きに伴って風景画
が変化すると同時に音情報(他のユーザの声や身近にあ
る物から発する音など)を制御することができなかっ
た。もしくは、自分からの距離が遠いか近いかで音情報
を伝達するかしないかを決定する程度の、おおまかな制
御しかしていなかった。
In this system for sharing a virtual space, a personal image (character) as an alter ego of each user can freely move around in the shared three-dimensional shared space. The data (landscape image) on the computer used also changed. However, with this system, it is not possible to control sound information (such as a voice of another user or a sound emitted from a nearby object) at the same time that the landscape image changes with the movement of the user. Or, they only had a rough control of deciding whether to transmit sound information depending on whether they were far or near.

【0004】本発明の目的は、計算機上の仮想的な三次
元空間上に自分の分身としての人物画像及び他のユーザ
の人物画像を配置することによって実現する仮想環境に
おける音場制御方法において、音情報に対して従来より
実際に近い細かな制御を行う方法を提供することにあ
る。
[0004] An object of the present invention is to provide a sound field control method in a virtual environment realized by arranging a personal image as an alter ego and a personal image of another user in a virtual three-dimensional space on a computer. It is an object of the present invention to provide a method for performing finer control on sound information than before.

【0005】[0005]

【課題を解決するための手段】この発明の音場制御方法
では、三次元空間での左右の方向、前後の方向(視線方
向)、上下の方向にそれぞれx軸、y軸及びz軸を取
り、自分の人物画像の位置座標(x0,y0,z0)
と、他のユーザの人物画像の位置座標(x1,y1,z
1)と、自分が発声する声もしくは自端末周辺で発声す
る音S0と、他のユーザの端末から入力された声または
音S1とから、自端末のスピーカから出力する音を演算
する。
According to the sound field control method of the present invention, an x-axis, a y-axis, and a z-axis are respectively taken in a left-right direction, a front-back direction (viewing direction), and a vertical direction in a three-dimensional space. , Position coordinates of own person image (x0, y0, z0)
And the position coordinates (x1, y1, z
1), the sound S0 uttered by the user or the sound uttered around the terminal, and the sound or sound S1 input from the terminal of another user, and the sound output from the speaker of the terminal is calculated.

【0006】本発明は、三次元空間のユーザの視線に対
する対象物の角度情報を用いて音情報の制御を行うこと
に特徴があり、従来の距離情報だけで制御する方法とは
異なる。
The present invention is characterized in that sound information is controlled using angle information of an object with respect to a user's line of sight in a three-dimensional space, and is different from a conventional method of controlling only with distance information.

【0007】[0007]

【発明の属する技術分野】本発明の実施例を、以下図面
を用いて詳細に説明する。図2Aは、三次元仮想空間上
のユーザ(自分)と、自分と同じ水平面上にある(い
る)対象物との位置関係を示した図である。x軸は自分
の左右方向の軸、y軸は自分の視線方向(前後方向)の
軸、z軸は自分の上下方向の軸である。自分の位置P0
を座標の原点にとった場合、αは対象のy軸となす角で
ある。
The embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 2A is a diagram illustrating a positional relationship between a user (self) in the three-dimensional virtual space and an object (located) on the same horizontal plane as the user. The x-axis is the axis of the user's left-right direction, the y-axis is the axis of the user's line of sight (front-back direction), and the z-axis is the axis of the user's vertical direction. My position P0
Is the origin of the coordinates, α is the angle made with the target y-axis.

【0008】この場合、対象物は、前方まっすぐの方向
(y軸方向)にある場合、つまり視線方向に存在する場
合と、視線からはずれた方向に存在する場合では、自分
と対象との間の距離が同じであっても、興味の度合いが
異なると考えられる。この違いを反映させるために、左
右方向の角度、すなわち図2Aにおける角αを用いて、
αが大きいほど(cosαが小さいほど)音情報の重み
を減らす。
In this case, when the object is in a straight forward direction (y-axis direction), that is, when the object exists in the direction of the line of sight, and when it exists in the direction out of the line of sight, there is a gap between itself and the object. Even if the distance is the same, the degree of interest is considered to be different. In order to reflect this difference, the angle in the horizontal direction, that is, the angle α in FIG.
The weight of the sound information is reduced as α is larger (cos α is smaller).

【0009】図2Bは、三次元仮想空間上のユーザ(自
分)とその前方の上方にある(浮遊している)対象物と
の位置関係を示した図である。αは対象をx,y軸に射
影した位置Pxyのy軸となす角、βは対象をyz平面
に射影した位置Pyzのy軸となす角である。この場
合、対象物は、前方水平面上にある場合と、水平面上か
ら離れて上方に浮遊している場合とでは、対象との間の
距離が同じであっても、興味の度合いが異なると考えら
れる。この違いを反映させるために、上下方向の角度、
すなわち、図2Bにおける角βを用いて、βが大きいほ
ど(cosβが小さいほど)音情報の重みを減らす。
FIG. 2B is a diagram showing a positional relationship between a user (self) and an object located above (floating) in front of the user (self) in the three-dimensional virtual space. α is the angle between the y-axis of the position Pxy where the target is projected on the x and y axes, and β is the angle between the y-axis of the position Pyz where the target is projected on the yz plane. In this case, it is considered that the degree of interest is different between the case where the target object is on the front horizontal plane and the case where the target object is floating above and away from the horizontal plane, even if the distance to the target is the same. Can be To reflect this difference, the vertical angle,
That is, using the angle β in FIG. 2B, the weight of the sound information is reduced as β is larger (cos β is smaller).

【0010】このようにして、自分の現在位置P0と音
を発生する対象物の位置P1との距離に加えて、現在の
視線軸に対する角度α,βをパラメータとして、音情報
の強弱を決定する。以下、決定方法を図1に示した記号
を用いて説明する。自分の視線方向(見ている方向)に
対し、左右方向をx軸方向、これに垂直な視線方向をy
軸方向、x軸及びy軸に垂直な上下方向をz軸方向とす
る。図1では、便宜上、自分の位置P0を座標軸上の原
点の位置としている。自分の位置P0を、x軸上での位
置、y軸上での位置、z軸上での位置の順番に表し、
(x0,y0,z0)とする。また、対象の位置P1
を、同様に(x1,y1,z1)とする。対称の位置か
らxy平面上への垂線の足をPxy(x1,y1,z
0)とし、同様にyz平面上への垂線の足をPyz(x
0,y1,z1)とする。さらにxz平面への垂線の足
をPzx(x1,y0,z1)とする。図1には、さら
にPxyからx軸方向へ下ろした垂線の足をPx(x
1,y0,z0)、y軸方向へ下ろした垂線の足をPy
(x0,y1,z0)、Pyzからz軸方向へ下ろした
垂線の足をPz(x0,y0,z1)として示してい
る。
In this manner, the strength of the sound information is determined by using the angles α and β with respect to the current line-of-sight axis as parameters, in addition to the distance between the current position P0 of the user and the position P1 of the object generating the sound. . Hereinafter, the determination method will be described using the symbols shown in FIG. With respect to your own line of sight (viewing direction), the horizontal direction is the x-axis direction, and the line of sight perpendicular to this is y.
The vertical direction perpendicular to the axial direction, the x axis and the y axis is defined as the z axis direction. In FIG. 1, for convenience, the own position P0 is set as the position of the origin on the coordinate axis. The own position P0 is represented in the order of a position on the x-axis, a position on the y-axis, and a position on the z-axis,
(X0, y0, z0). Also, the target position P1
Is similarly set to (x1, y1, z1). The perpendicular foot from the symmetric position to the xy plane is defined as Pxy (x1, y1, z
0), and similarly, the foot of the perpendicular to the yz plane is Pyz (x
0, y1, z1). Furthermore, let Pzx (x1, y0, z1) be the foot of the perpendicular to the xz plane. In FIG. 1, a perpendicular foot further lowered from Pxy in the x-axis direction is denoted by Px (x
1, y0, z0), the perpendicular foot lowered in the y-axis direction is Py
(X0, y1, z0), the perpendicular foot lowered from Pyz in the z-axis direction is indicated as Pz (x0, y0, z1).

【0011】各点間の距離は以下のように求められる。
自分(P0)とPx,Py,Pzとの距離をdx,d
y,dzとすると、 dx=|x1−x0| …(1) dy=|y1−y0| …(2) dz=|z1−z0| …(3) 自分(P0)とPxy,Pyz,Pzxとの距離をdx
y,dyz,dzxとすると、 dxy=√(dx2 +dy2 ) …(4) dyz=√(dy2 +dz2 ) …(5) dzx=√(dz2 +dx2 ) …(6) 自分(P0)と対象(P1)との距離をdとすると、 d=√(dx2 +dy2 +dz2 ) …(7) これら記号を用いて、対象が発する音S1に対する重み
付けパラメータmを以下のように決定する。
The distance between each point is obtained as follows.
The distance between yourself (P0) and Px, Py, Pz is dx, d
y, dz, dx = | x1-x0 | (1) dy = | y1-y0 | (2) dz = | z1-z0 | (3) own (P0) and Pxy, Pyz, Pzx Distance of dx
Assuming that y, dyz and dzx, dxy = √ (dx 2 + dy 2 ) (4) dyz = √ (dy 2 + dz 2 ) (5) dzx = √ (dz 2 + dx 2 ) (6) ) And the object (P1) as d: d = √ (dx 2 + dy 2 + dz 2 ) (7) Using these symbols, a weighting parameter m for the sound S1 emitted from the object is determined as follows. I do.

【0012】 m=m1×m2 …(8) m1=1/d2 …(9) m2=cosα×cosβ …(10) ここで、重み付けパラメータの要素m1は、自分と対象
との距離に基づくものであり、離れるにしたがって音を
小さくするために必要である。一方重み付けパラメータ
要素m2は、本発明に係わる、視線からの角度によって
音を制御するものであり、視線から離れるにしたがって
音を小さくする。
M = m1 × m2 (8) m1 = 1 / d 2 (9) m2 = cosα × cosβ (10) Here, the element m1 of the weighting parameter is based on the distance between the subject and the object. It is necessary to reduce the sound as the distance increases. On the other hand, the weighting parameter element m2 controls the sound according to the angle from the line of sight according to the present invention, and reduces the sound as the distance from the line of sight increases.

【0013】角度α、βは、上記した各距離の値から、
以下のようにして求められる。 cosα=dy/dxy …(11) cosβ=dy/dyz …(12) また、左右の音より上下の音に対する興味のほうが薄れ
ることから、xz平面上での角度γを用いて、 m2=cosα×cosβ×cosγ …(13) cosγ=dx/dzx …(14) とすることもできる。
The angles α and β are obtained from the values of the distances described above.
It is determined as follows. cosα = dy / dxy (11) cosβ = dy / dyz (12) Also, since interest in upper and lower sounds is weaker than left and right sounds, m2 = cosα × using an angle γ on the xz plane. cosβ × cosγ (13) cosγ = dx / dzx (14)

【0014】この重み付けパラメータmと、自分のとこ
ろで発生した音情報S0、および対象物のところで発生
した音情報S1とから、出力音情報S0′を、以下のよ
うに決定する。 S1′=m×S1 …(15)
Based on the weighting parameter m, the sound information S0 generated at the user, and the sound information S1 generated at the object, output sound information S0 'is determined as follows. S1 ′ = m × S1 (15)

【0015】[0015]

【数2】 (Equation 2)

【0016】このようにすると、S0=0のときS0′
=S1′となり、S1′=0のときS0′=S0とな
り、当然の結果が得られる。もしS0′=(S0+S
1′)/2によってS0′を決定したとすれば、S0=
0のときS0′=S1′/2となり、S1′=0のとき
S0′=S0/2となり、S0′が正常値の半分になっ
てしまうので好ましくない。
Thus, when S0 = 0, S0 '
= S1 ', and when S1' = 0, S0 '= S0, and a natural result is obtained. If S0 '= (S0 + S
1 ′) / 2, if S0 ′ is determined, then S0 =
When it is 0, it becomes S0 '= S1' / 2, and when it becomes S1 '= 0, it becomes S0' = S0 / 2 and S0 'becomes half of the normal value, which is not preferable.

【0017】入力されるデータが一つでない場合は、同
様にしてSn′(n=2,3,…,N)を算出しS0′
を以下のようにして決定できる。
If there is not one input data, Sn '(n = 2, 3,..., N) is calculated in the same manner, and S0'
Can be determined as follows.

【0018】[0018]

【数3】 (Equation 3)

【0019】計算機ネットワーク上に計算機を接続し、
これを介して各ユーザが各自の位置データと音声情報を
やり取りする場合のシステム構成図を図3に示す。ここ
で、自分が現在使用している計算機を図3中の4とする
と、1は自分が使用している音情報入力装置(マイクな
ど)であり、2は自分が使用している位置情報入力装置
(ジョイスティックなど)であり、3は自分が使用して
いる音情報出力装置(スピーカなど)である。6と10
は計算機4から見て対象物となる物体を操作するユーザ
が使う計算機である。計算機4と計算機6、計算機10
は計算機ネットワークケーブル5を用いて接続されてい
る。
A computer is connected to the computer network,
FIG. 3 shows a system configuration diagram in the case where each user exchanges his / her position data and voice information via this. Here, assuming that a computer currently used by the user is 4 in FIG. 3, reference numeral 1 denotes a sound information input device (such as a microphone) used by the user, and reference numeral 2 denotes a position information input device used by the user. The device 3 is a sound information output device (such as a speaker) used by the user. 6 and 10
Is a computer used by a user who operates an object as an object viewed from the computer 4. Calculator 4, Calculator 6, Calculator 10
Are connected using a computer network cable 5.

【0020】計算機4の中では、発生した音情報が入力
装置1から位置情報が入力装置2からそれぞれ入力さ
れ、AD変換装置4aによってAD(アナログデジタ
ル)変換された後、一方はネットワーク送信装置4bに
よって宛先を振られ、マルチキャスト送信によって計算
機ネットワークケーブル5を介して他の計算機(この場
合計算機6と計算機10)へ送られる。もう一方は演算
器4cに送られる。
In the computer 4, the generated sound information is input from the input device 1 to the position information from the input device 2, respectively, and is subjected to AD (analog-digital) conversion by the AD conversion device 4a. Is sent to another computer (in this case, the computer 6 and the computer 10) via the computer network cable 5 by multicast transmission. The other is sent to the calculator 4c.

【0021】演算器4cでは、AD変換器4aからの入
力とは別に、他の計算機からマルチキャスト送信され、
計算機ネットワーク経由で到着したデータが、ネットワ
ーク受信装置4dで、計算機4宛に送られてきたデータ
であるかどうかの判別がされた後に入力され、ユーザ
(自分)の位置情報入力装置2から入力された位置情報
をもとにして、上記の計算式で演算される。演算された
音情報は、DA変換装置4eによってDA(ディジタル
アナログ)変換され、音情報出力装置3から出力され
る。
The arithmetic unit 4c performs multicast transmission from another computer separately from the input from the AD converter 4a.
The data received via the computer network is input after the network receiving device 4d determines whether or not the data has been sent to the computer 4, and is input from the position information input device 2 of the user (self). It is calculated by the above-mentioned formula based on the position information obtained. The calculated sound information is DA (digital-analog) converted by the DA converter 4 e and output from the sound information output device 3.

【0022】上記計算式との関係を説明すると、音情報
入力装置1から入力されるものがS0であり、位置情報
入力装置2から入力される物が三次元情報x0,y0,
z0である。また、音情報出力装置3から出力されるも
のがS0′である。一方、計算機ネットワークケーブル
5経由でマルチキャスト送信されて入力されるデータ
が、S1およびx1,y1,z1である。もちろんマル
チキャスト送信されるデータは一つとは限らない。
Explaining the relationship with the above formula, the input from the sound information input device 1 is S0, and the input from the position information input device 2 is three-dimensional information x0, y0,
z0. What is output from the sound information output device 3 is S0 '. On the other hand, the data input by multicast transmission via the computer network cable 5 are S1 and x1, y1, and z1. Of course, the data transmitted by multicast is not limited to one.

【0023】ここでの処理の流れを図に示したものが図
4である。図4において15でマルチキャスト送信され
てきたデータを受信するたびに、以下の処理を行う。す
なわち、16でマルチキャストパケットから対象物の位
置データ(x1,y1,z1)を抽出し、17でこれを
元に上記の式から重みパラメータmを算出し、18でマ
ルチキャストパケットから対象物の音情報S1を抽出
し、19でS0とS1とmから出力音情報S0′を決定
し、20で出力する。
FIG. 4 shows the flow of the processing here. In FIG. 4, the following processing is performed each time the data transmitted in multicast at 15 is received. That is, the position data (x1, y1, z1) of the object is extracted from the multicast packet at 16, the weight parameter m is calculated from the above equation based on this at 17, and the sound information of the object is calculated from the multicast packet at 18. S1 is extracted, output sound information S0 'is determined from S0, S1, and m in 19, and output in 20.

【0024】以上述べたように、互いの位置情報を元に
して、実際の三次元空間と同じように、音情報を出力す
ることができる。また、計算機ネットワークを介して送
信されてくる対象物の音情報は一つに限らないことはい
うまでもなく、また、図3に示したような、ローカルエ
リアネットワーク(LAN)のみに留まらず、広く公衆
回線をもちいた場合にも適用できることはいうまでもな
い。
As described above, sound information can be output based on mutual positional information in the same manner as in an actual three-dimensional space. Further, it goes without saying that the sound information of the object transmitted through the computer network is not limited to one, and is not limited to only the local area network (LAN) as shown in FIG. It goes without saying that the present invention can be applied to a case where a public line is widely used.

【0025】[0025]

【発明の効果】以上述べたように本発明は計算機を使用
しているユーザ(自分)の三次元空間上の位置と対象物
との間の距離情報及びユーザの視線に対する対象物の角
度情報を元にして、音情報に対して従来より細かな制御
を行うことができる。本発明を用いて計算機上の仮想三
次元空間を実現すれば、実際の三次元空間により近い音
情報の伝達が可能であり、仮想空間内で作業をする者、
例えば遠隔で会議する者にとって違和感のない情報伝達
が可能になる。
As described above, according to the present invention, the distance information between the position of the user (self) in the three-dimensional space and the object using the computer and the angle information of the object with respect to the user's line of sight are obtained. Based on this, finer control can be performed on the sound information than before. By realizing a virtual three-dimensional space on a computer using the present invention, it is possible to transmit sound information closer to the actual three-dimensional space, and to work in a virtual space,
For example, information can be transmitted without discomfort to a person who remotely conferences.

【図面の簡単な説明】[Brief description of the drawings]

【図1】自分と前方の上方に存在する対象物との位置関
係(座標、距離及び角度)を三次元座標軸上に示した
図。
FIG. 1 is a diagram showing a positional relationship (coordinates, distance, and angle) between oneself and an object existing in front and above on a three-dimensional coordinate axis.

【図2】Aは自分と水平方向の平面上に存在する対象物
との位置関係を三次元座標軸上に示した図、Bは自分と
前方の上方に存在する対象物との位置関係を三次元座標
軸上に示した図。
FIG. 2A is a diagram showing a positional relationship between the subject and an object existing on a horizontal plane on a three-dimensional coordinate axis, and FIG. The figure shown on the original coordinate axis.

【図3】本発明を用いて計算機ネットワーク上に接続さ
れた計算機を介して各ユーザが各自の位置データと音情
報をやり取りする場合のシステム構成図。
FIG. 3 is a system configuration diagram in a case where each user exchanges his / her position data and sound information via a computer connected to a computer network using the present invention.

【図4】図3のシステムにおける処理の流れを示す図。FIG. 4 is a diagram showing a processing flow in the system of FIG. 3;

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI H04M 3/56 G10K 15/00 M (56)参考文献 特開 平8−186648(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 11/80 G06T 15/70 G10K 15/00 H04S 7/00 G09G 5/00 510 H04M 3/56 ──────────────────────────────────────────────────続 き Continuation of the front page (51) Int.Cl. 7 Identification code FI H04M 3/56 G10K 15/00 M (56) References JP-A-8-186648 (JP, A) (58) Fields investigated ( Int.Cl. 7 , DB name) G06T 11/80 G06T 15/70 G10K 15/00 H04S 7/00 G09G 5/00 510 H04M 3/56

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 計算機上の仮想的な三次元空間上に自分
の分身としての人物画像(キャラクタ)と、他のユーザ
の人物画像を配置することによって実現する仮想環境に
おける音場制御方法において、 三次元空間での左右の方向、前後の方向(視線方向)、
上下の方向にそれぞれx軸、y軸及びz軸を取り、 自分の人物画像の位置P0の座標(x0,y0,z0)
と、他のユーザの人物画像の位置P1の座標(x1,y
1,z1)と、自分が発声する声もしくは自端末周辺で
発声する音S0と、他のユーザの端末から入力された声
または音S1とから、前記P0とP1間の距離及びP0
より見たP1の角度情報を演算し、これらを用いて自端
末のスピーカから出力する音を演算することを特徴とす
る音場制御方法。
1. A sound field control method in a virtual environment realized by arranging a personal image (character) as an alter ego and a personal image of another user in a virtual three-dimensional space on a computer, Left and right direction in three-dimensional space, front and back direction (line of sight),
Take the x-axis, y-axis, and z-axis in the up and down directions, respectively, and set the coordinates (x0, y0, z0) of the position P0 of your own person image
And the coordinates (x1, y) of the position P1 of the person image of another user.
1, z1), the voice S0 uttered by the user or the voice around the terminal, and the voice or sound S1 input from the terminal of another user, the distance between P0 and P1 and P0
A sound field control method comprising calculating angle information of P1 as viewed from the outside and calculating a sound output from a speaker of the terminal using the calculated angle information.
【請求項2】 請求項1において、前記位置P0を座標
の原点にとった場合に、前記位置P1のxy平面、yz
平面上にそれぞれ投影された位置Pxy,Pyzのy軸
となす角をα及びβとし、前記位置P1のzx平面上に
投影された位置Pzxとのx軸となす角をγとすると、
前記声または音S1は重み付けパラメータm2=cos
α×cosβまたはm2=cosα×cosβ×cos
γによって重み付けされることを特徴とする音場制御方
法。
2. The xy plane of the position P1 according to claim 1, wherein the position P0 is taken as an origin of coordinates.
Let α and β be the angles of the positions Pxy and Pyz projected on the plane with the y axis, and γ be the angle of the position P1 with the position Pzx projected on the zx plane with the x axis.
The voice or sound S1 has a weighting parameter m2 = cos
α × cosβ or m2 = cosα × cosβ × cos
A sound field control method characterized by being weighted by γ.
【請求項3】 請求項1において、 dx=|x0−x1| dy=|y0−y1| dz=|z0−z1| なるdx,dy,dzを用い、 dxy=√(dx2 +dy2 ) dyz=√(dy2 +dz2 ) dzx=√(dz2 +dx2 ) なるdxy,dyz,dzxを算出し、 d=√(dx2 +dy2 +dz2 ) なるdと、 S1′=S1×(1/d2 )×(dy/dxy)×(d
y/dyz) または S1′=S1×(1/d2 )×(dy/dxy)×(d
y/dyz)×(dx/dzx) なるS1′を用いて、 【数1】 で、自端末のスピーカから出力する音S0′を演算する
ことを特徴とする音場制御方法。
3. The method according to claim 1, wherein dx = │x0-x1│ dy = │y0-y1│ dz = │z0-z1│, and dxy = , (dx 2 + dy 2 ) dyz. = √ (dy 2 + dz 2 ) dxy = √ (dz 2 + dx 2 ) dxy, dyz, dzx are calculated, and d = √ (dx 2 + dy 2 + dz 2 ), S1 ′ = S1 × (1 / d 2 ) × (dy / dxy) × (d
y / dyz) or S1 ′ = S1 × (1 / d 2 ) × (dy / dxy) × (d
y / dyz) × (dx / dzx) using S1 ′, A sound field control method, wherein a sound S0 'output from a speaker of the terminal is calculated.
JP24743395A 1995-09-26 1995-09-26 Sound field control method Expired - Lifetime JP3261941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24743395A JP3261941B2 (en) 1995-09-26 1995-09-26 Sound field control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24743395A JP3261941B2 (en) 1995-09-26 1995-09-26 Sound field control method

Publications (2)

Publication Number Publication Date
JPH0991460A JPH0991460A (en) 1997-04-04
JP3261941B2 true JP3261941B2 (en) 2002-03-04

Family

ID=17163375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24743395A Expired - Lifetime JP3261941B2 (en) 1995-09-26 1995-09-26 Sound field control method

Country Status (1)

Country Link
JP (1) JP3261941B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5326332B2 (en) * 2008-04-11 2013-10-30 ヤマハ株式会社 Speaker device, signal processing method and program
WO2018203579A1 (en) * 2017-05-02 2018-11-08 하수호 Stereophonic sound generating device and computer program therefor

Also Published As

Publication number Publication date
JPH0991460A (en) 1997-04-04

Similar Documents

Publication Publication Date Title
US12075193B2 (en) Emotes for non-verbal communication in a videoconference system
US20230128659A1 (en) Three-Dimensional Modeling Inside a Virtual Video Conferencing Environment with a Navigable Avatar, and Applications Thereof
JP2005182843A (en) Operation method of virtual reality circuit
AU2023229565B2 (en) A web-based videoconference virtual environment with navigable avatars, and applications thereof
KR20200067537A (en) System and method for providing a virtual environmental conference room
US20220417490A1 (en) Information processing system, information processing method, and information processing program
JPH05113941A (en) Transmission/reception device
JP2024150589A (en) Communication terminal equipment
JP3452348B2 (en) Speaker identification method in virtual space and recording medium storing the program
JP2024040211A (en) Moving image processing method, server device, and computer program
JP3261941B2 (en) Sound field control method
JP3262309B2 (en) Sound field control device
JP2022167902A (en) Video processing method, server device, and computer program
JP3296471B2 (en) Sound field control method and device
JP7280223B2 (en) Information terminal device, remote communication support method and program
JP2021005347A (en) Spatial reproduction method and spatial reproduction system
JP6751193B1 (en) Video processing method, server device, and computer program
US11928777B1 (en) Using optical labels in a virtual environment
WO2023190093A1 (en) Communication system
US20240371091A1 (en) Using optical labels in a virtual environment
WO2024009653A1 (en) Information processing device, information processing method, and information processing system
WO2024229404A1 (en) Using optical labels in a virtual environment
JPH08329279A (en) Virtual shared display method for picture communication system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071221

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081221

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091221

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 12

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term