JPH0991460A - Sound field control method - Google Patents
Sound field control methodInfo
- Publication number
- JPH0991460A JPH0991460A JP7247433A JP24743395A JPH0991460A JP H0991460 A JPH0991460 A JP H0991460A JP 7247433 A JP7247433 A JP 7247433A JP 24743395 A JP24743395 A JP 24743395A JP H0991460 A JPH0991460 A JP H0991460A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- axis
- user
- control method
- cos
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Stereophonic System (AREA)
- Telephonic Communication Services (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、パーソナルコンピ
ュータ(PC)やワークステーション(WS)などの計
算機上で、町や家などの三次元表示された仮想的な空間
を作り、計算機ネットワークや公衆回線を介して、複数
の参加者が参加する仮想環境を構築する技術分野にかか
わり、この三次元空間上の位置情報に基づいて参加者の
声や環境音を制御する技術に関係する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention creates a three-dimensionally displayed virtual space such as a town or a home on a computer such as a personal computer (PC) or a workstation (WS), a computer network or a public network. It is concerned with the technical field of constructing a virtual environment in which a plurality of participants participates through, and is related to the technology of controlling the voices and environmental sounds of the participants based on the position information in this three-dimensional space.
【0002】[0002]
【従来の技術及び発明が解決しようとする課題】本発明
に関係する従来技術として、三次元CAD(コンピュー
タが補助する工業的設計)システムや、三次元CG(コ
ンピュータグラフィック)もしくは、これを用いたVR
(バーチャルリアリティ)システムがあった。また、こ
れらの技術を用いて、現実世界を模倣した三次元の仮想
空間を実現し、さらにLAN(ローカルエリアネットワ
ーク)や公衆回線などのネットワークで接続された計算
機上で、計算機を使用しているユーザが同じ一つの仮想
空間を共有するシステムが実現されていた。2. Description of the Related Art As a prior art related to the present invention, a three-dimensional CAD (computer-aided industrial design) system, a three-dimensional CG (computer graphic), or this is used. VR
There was a (virtual reality) system. Also, using these techniques, a three-dimensional virtual space imitating the real world is realized, and a computer is used on a computer connected by a network such as a LAN (local area network) or a public line. A system has been realized in which users share the same virtual space.
【0003】この仮想空間を共有するシステムでは、共
有されている三次元共有空間を、各々のユーザの分身と
しての人物画像(キャラクタ)が自由に動き回ることが
でき、またそれに伴って、各ユーザが使用している計算
機上のデータ(風景画像)も変化するものであった。し
かし、このシステムでは、ユーザの動きに伴って風景画
が変化すると同時に音情報(他のユーザの声や身近にあ
る物から発する音など)を制御することができなかっ
た。もしくは、自分からの距離が遠いか近いかで音情報
を伝達するかしないかを決定する程度の、おおまかな制
御しかしていなかった。In this system for sharing a virtual space, a person image (character) as an altercation of each user can freely move around in the shared three-dimensional shared space, and accordingly, each user can The data (landscape image) on the computer used was also changing. However, with this system, it was not possible to control the sound information (such as the voice of another user or the sound emitted from a familiar object) at the same time when the landscape image changes with the movement of the user. Or, it was only a rough control of deciding whether or not to transmit the sound information depending on the distance from the person.
【0004】本発明の目的は、計算機上の仮想的な三次
元空間上に自分の分身としての人物画像及び他のユーザ
の人物画像を配置することによって実現する仮想環境に
おける音場制御方法において、音情報に対して従来より
実際に近い細かな制御を行う方法を提供することにあ
る。An object of the present invention is to provide a sound field control method in a virtual environment which is realized by arranging a person image as one's own self and a person image of another user in a virtual three-dimensional space on a computer. An object of the present invention is to provide a method for finely controlling the sound information that is closer to the actual level than before.
【0005】[0005]
【課題を解決するための手段】この発明の音場制御方法
では、三次元空間での左右の方向、前後の方向(視線方
向)、上下の方向にそれぞれx軸、y軸及びz軸を取
り、自分の人物画像の位置座標(x0,y0,z0)
と、他のユーザの人物画像の位置座標(x1,y1,z
1)と、自分が発声する声もしくは自端末周辺で発声す
る音S0と、他のユーザの端末から入力された声または
音S1とから、自端末のスピーカから出力する音を演算
する。In the sound field control method of the present invention, the x axis, the y axis and the z axis are taken in the left-right direction, front-back direction (line-of-sight direction), and up-down direction in the three-dimensional space. , Position coordinates of the person's image (x0, y0, z0)
And the position coordinates (x1, y1, z of the other person's image
1), the sound S0 that is uttered by himself or the sound S0 uttered in the vicinity of the own terminal, and the voice or sound S1 that is input from the terminal of another user, the sound output from the speaker of the own terminal is calculated.
【0006】本発明は、三次元空間のユーザの視線に対
する対象物の角度情報を用いて音情報の制御を行うこと
に特徴があり、従来の距離情報だけで制御する方法とは
異なる。The present invention is characterized in that the sound information is controlled by using the angle information of the object with respect to the line of sight of the user in the three-dimensional space, which is different from the conventional method of controlling only the distance information.
【0007】[0007]
【発明の属する技術分野】本発明の実施例を、以下図面
を用いて詳細に説明する。図2Aは、三次元仮想空間上
のユーザ(自分)と、自分と同じ水平面上にある(い
る)対象物との位置関係を示した図である。x軸は自分
の左右方向の軸、y軸は自分の視線方向(前後方向)の
軸、z軸は自分の上下方向の軸である。自分の位置P0
を座標の原点にとった場合、αは対象のy軸となす角で
ある。Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 2A is a diagram showing a positional relationship between a user (self) in a three-dimensional virtual space and an object on the same horizontal plane as (self). The x-axis is the axis in the left-right direction of the user, the y-axis is the axis in the line-of-sight direction (front-back direction) of the user, and the z-axis is the axis of the user's up-down direction. Your position P0
Is the origin of the coordinates, α is the angle with the target y-axis.
【0008】この場合、対象物は、前方まっすぐの方向
(y軸方向)にある場合、つまり視線方向に存在する場
合と、視線からはずれた方向に存在する場合では、自分
と対象との間の距離が同じであっても、興味の度合いが
異なると考えられる。この違いを反映させるために、左
右方向の角度、すなわち図2Aにおける角αを用いて、
αが大きいほど(cosαが小さいほど)音情報の重み
を減らす。[0008] In this case, the object is in the direction straight ahead (y-axis direction), that is, in the line-of-sight direction and in the direction deviating from the line-of-sight. Even if the distance is the same, it is considered that the degree of interest is different. In order to reflect this difference, using the angle in the left-right direction, that is, the angle α in FIG. 2A,
The larger α is (the smaller cos α is), the more the weight of the sound information is reduced.
【0009】図2Bは、三次元仮想空間上のユーザ(自
分)とその前方の上方にある(浮遊している)対象物と
の位置関係を示した図である。αは対象をx,y軸に射
影した位置Pxyのy軸となす角、βは対象をyz平面
に射影した位置Pyzのy軸となす角である。この場
合、対象物は、前方水平面上にある場合と、水平面上か
ら離れて上方に浮遊している場合とでは、対象との間の
距離が同じであっても、興味の度合いが異なると考えら
れる。この違いを反映させるために、上下方向の角度、
すなわち、図2Bにおける角βを用いて、βが大きいほ
ど(cosβが小さいほど)音情報の重みを減らす。FIG. 2B is a diagram showing a positional relationship between a user (self) in a three-dimensional virtual space and a target object (above) above and in front of it. α is an angle formed with the y axis of the position Pxy projected on the x and y axes, and β is an angle formed with the y axis of the position Pyz projected on the yz plane. In this case, the object is considered to have different degrees of interest between the case where the object is on the front horizontal plane and the case where the object floats upward apart from the horizontal plane even if the distance to the object is the same. To be In order to reflect this difference, the vertical angle,
That is, using the angle β in FIG. 2B, the weight of the sound information is reduced as β increases (coscos β decreases).
【0010】このようにして、自分の現在位置P0と音
を発生する対象物の位置P1との距離に加えて、現在の
視線軸に対する角度α,βをパラメータとして、音情報
の強弱を決定する。以下、決定方法を図1に示した記号
を用いて説明する。自分の視線方向(見ている方向)に
対し、左右方向をx軸方向、これに垂直な視線方向をy
軸方向、x軸及びy軸に垂直な上下方向をz軸方向とす
る。図1では、便宜上、自分の位置P0を座標軸上の原
点の位置としている。自分の位置P0を、x軸上での位
置、y軸上での位置、z軸上での位置の順番に表し、
(x0,y0,z0)とする。また、対象の位置P1
を、同様に(x1,y1,z1)とする。対称の位置か
らxy平面上への垂線の足をPxy(x1,y1,z
0)とし、同様にyz平面上への垂線の足をPyz(x
0,y1,z1)とする。さらにxz平面への垂線の足
をPzx(x1,y0,z1)とする。図1には、さら
にPxyからx軸方向へ下ろした垂線の足をPx(x
1,y0,z0)、y軸方向へ下ろした垂線の足をPy
(x0,y1,z0)、Pyzからz軸方向へ下ろした
垂線の足をPz(x0,y0,z1)として示してい
る。In this way, the strength of the sound information is determined using the angles α and β with respect to the current line-of-sight axis as a parameter, in addition to the distance between the current position P0 of the player and the position P1 of the sound-producing object. . The determination method will be described below using the symbols shown in FIG. The left-right direction is the x-axis direction and the line-of-sight direction perpendicular to this is y with respect to your own line-of-sight
The vertical direction perpendicular to the axial direction, the x-axis and the y-axis is the z-axis direction. In FIG. 1, for the sake of convenience, the position P0 is set as the position of the origin on the coordinate axis. Show your position P0 in the order of position on x-axis, position on y-axis, position on z-axis,
(X0, y0, z0). Also, the target position P1
Is similarly defined as (x1, y1, z1). A foot of a perpendicular line from the symmetrical position to the xy plane is represented by Pxy (x1, y1, z
0), and similarly the foot of the perpendicular to the yz plane is Pyz (x
0, y1, z1). Further, the leg of the perpendicular to the xz plane is Pzx (x1, y0, z1). In FIG. 1, the foot of the perpendicular line further lowered from Pxy in the x-axis direction is Px (x
1, y0, z0), Py the perpendicular foot down in the y-axis direction
(X0, y1, z0) and the foot of the perpendicular line drawn from Pyz in the z-axis direction is shown as Pz (x0, y0, z1).
【0011】各点間の距離は以下のように求められる。
自分(P0)とPx,Py,Pzとの距離をdx,d
y,dzとすると、 dx=|x1−x0| …(1) dy=|y1−y0| …(2) dz=|z1−z0| …(3) 自分(P0)とPxy,Pyz,Pzxとの距離をdx
y,dyz,dzxとすると、 dxy=√(dx2 +dy2 ) …(4) dyz=√(dy2 +dz2 ) …(5) dzx=√(dz2 +dx2 ) …(6) 自分(P0)と対象(P1)との距離をdとすると、 d=√(dx2 +dy2 +dz2 ) …(7) これら記号を用いて、対象が発する音S1に対する重み
付けパラメータmを以下のように決定する。The distance between the points is calculated as follows.
The distance between yourself (P0) and Px, Py, Pz is dx, d
Assuming y and dz, dx = | x1-x0 | (1) dy = | y1-y0 | (2) dz = | z1-z0 | (3) I (P0) and Pxy, Pyz, Pzx The distance of dx
Assuming y, dyz, and dzx, dxy = √ (dx 2 + dy 2 ) ... (4) dyz = √ (dy 2 + dz 2 ) ... (5) dzx = √ (dz 2 + dx 2 ) ... (6) myself (P0 ) And the object (P1) is d, d = √ (dx 2 + dy 2 + dz 2 ) ... (7) Using these symbols, the weighting parameter m for the sound S1 emitted by the object is determined as follows. To do.
【0012】 m=m1×m2 …(8) m1=1/d2 …(9) m2=cosα×cosβ …(10) ここで、重み付けパラメータの要素m1は、自分と対象
との距離に基づくものであり、離れるにしたがって音を
小さくするために必要である。一方重み付けパラメータ
要素m2は、本発明に係わる、視線からの角度によって
音を制御するものであり、視線から離れるにしたがって
音を小さくする。M = m1 × m2 (8) m1 = 1 / d 2 (9) m2 = cos α × cos β (10) Here, the element m1 of the weighting parameter is based on the distance between the subject and the target. It is necessary to reduce the sound as the distance increases. On the other hand, the weighting parameter element m2 controls the sound according to the angle from the line of sight according to the present invention, and reduces the sound as the distance from the line of sight increases.
【0013】角度α、βは、上記した各距離の値から、
以下のようにして求められる。 cosα=dy/dxy …(11) cosβ=dy/dyz …(12) また、左右の音より上下の音に対する興味のほうが薄れ
ることから、xz平面上での角度γを用いて、 m2=cosα×cosβ×cosγ …(13) cosγ=dx/dzx …(14) とすることもできる。The angles α and β are calculated from the values of the above distances,
It is determined as follows. cosα = dy / dxy (11) cosβ = dy / dyz (12) Since interest in upper and lower sounds is less than that in left and right sounds, m2 = cosα × using an angle γ on the xz plane cos β × cos γ (13) cos γ = dx / dzx (14)
【0014】この重み付けパラメータmと、自分のとこ
ろで発生した音情報S0、および対象物のところで発生
した音情報S1とから、出力音情報S0′を、以下のよ
うに決定する。 S1′=m×S1 …(15)The output sound information S0 'is determined from the weighting parameter m, the sound information S0 generated at its own position, and the sound information S1 generated at the target object as follows. S1 ′ = m × S1 (15)
【0015】[0015]
【数2】 [Equation 2]
【0016】このようにすると、S0=0のときS0′
=S1′となり、S1′=0のときS0′=S0とな
り、当然の結果が得られる。もしS0′=(S0+S
1′)/2によってS0′を決定したとすれば、S0=
0のときS0′=S1′/2となり、S1′=0のとき
S0′=S0/2となり、S0′が正常値の半分になっ
てしまうので好ましくない。In this way, when S0 = 0, S0 '
= S1 ', and when S1' = 0, S0 '= S0, which is a natural result. If S0 '= (S0 + S
If S0 'is determined by 1') / 2, S0 =
When 0, S0 ′ = S1 ′ / 2, and when S1 ′ = 0, S0 ′ = S0 / 2, and S0 ′ becomes half of the normal value, which is not preferable.
【0017】入力されるデータが一つでない場合は、同
様にしてSn′(n=2,3,…,N)を算出しS0′
を以下のようにして決定できる。If there is not one input data, Sn '(n = 2, 3, ..., N) is calculated in the same manner and S0' is calculated.
Can be determined as follows.
【0018】[0018]
【数3】 (Equation 3)
【0019】計算機ネットワーク上に計算機を接続し、
これを介して各ユーザが各自の位置データと音声情報を
やり取りする場合のシステム構成図を図3に示す。ここ
で、自分が現在使用している計算機を図3中の4とする
と、1は自分が使用している音情報入力装置(マイクな
ど)であり、2は自分が使用している位置情報入力装置
(ジョイスティックなど)であり、3は自分が使用して
いる音情報出力装置(スピーカなど)である。6と10
は計算機4から見て対象物となる物体を操作するユーザ
が使う計算機である。計算機4と計算機6、計算機10
は計算機ネットワークケーブル5を用いて接続されてい
る。A computer is connected to the computer network,
FIG. 3 shows a system configuration diagram in the case where each user exchanges their own position data and voice information via this. Here, assuming that the computer currently used by the user is 4 in FIG. 3, 1 is a sound information input device (such as a microphone) used by the user, and 2 is position information input used by the user. A device (such as a joystick), and 3 is a sound information output device (such as a speaker) used by itself. 6 and 10
Is a computer used by a user who operates an object to be viewed from the computer 4. Calculator 4, Calculator 6, Calculator 10
Are connected using a computer network cable 5.
【0020】計算機4の中では、発生した音情報が入力
装置1から位置情報が入力装置2からそれぞれ入力さ
れ、AD変換装置4aによってAD(アナログデジタ
ル)変換された後、一方はネットワーク送信装置4bに
よって宛先を振られ、マルチキャスト送信によって計算
機ネットワークケーブル5を介して他の計算機(この場
合計算機6と計算機10)へ送られる。もう一方は演算
器4cに送られる。In the computer 4, the generated sound information is input from the input device 1 and the position information is input from the input device 2, and AD (analog-digital) conversion is performed by the AD conversion device 4a, and then one is transmitted to the network transmission device 4b. The destination is assigned by and is sent to another computer (in this case, the computer 6 and the computer 10) via the computer network cable 5 by multicast transmission. The other is sent to the computing unit 4c.
【0021】演算器4cでは、AD変換器4aからの入
力とは別に、他の計算機からマルチキャスト送信され、
計算機ネットワーク経由で到着したデータが、ネットワ
ーク受信装置4dで、計算機4宛に送られてきたデータ
であるかどうかの判別がされた後に入力され、ユーザ
(自分)の位置情報入力装置2から入力された位置情報
をもとにして、上記の計算式で演算される。演算された
音情報は、DA変換装置4eによってDA(ディジタル
アナログ)変換され、音情報出力装置3から出力され
る。In the arithmetic unit 4c, aside from the input from the AD converter 4a, multicast transmission is performed from another computer,
The data received via the computer network is input after the network receiving device 4d determines whether or not the data has been sent to the computer 4, and is input from the position information input device 2 of the user (self). It is calculated by the above calculation formula based on the position information. The calculated sound information is DA (digital-analog) converted by the DA converter 4e and output from the sound information output device 3.
【0022】上記計算式との関係を説明すると、音情報
入力装置1から入力されるものがS0であり、位置情報
入力装置2から入力される物が三次元情報x0,y0,
z0である。また、音情報出力装置3から出力されるも
のがS0′である。一方、計算機ネットワークケーブル
5経由でマルチキャスト送信されて入力されるデータ
が、S1およびx1,y1,z1である。もちろんマル
チキャスト送信されるデータは一つとは限らない。Explaining the relationship with the above formula, the one input from the sound information input device 1 is S0, and the one input from the position information input device 2 is the three-dimensional information x0, y0,
z0. Also, what is output from the sound information output device 3 is S0 '. On the other hand, the data transmitted by multicast via the computer network cable 5 and input are S1 and x1, y1, z1. Of course, the number of data transmitted by multicast is not limited to one.
【0023】ここでの処理の流れを図に示したものが図
4である。図4において15でマルチキャスト送信され
てきたデータを受信するたびに、以下の処理を行う。す
なわち、16でマルチキャストパケットから対象物の位
置データ(x1,y1,z1)を抽出し、17でこれを
元に上記の式から重みパラメータmを算出し、18でマ
ルチキャストパケットから対象物の音情報S1を抽出
し、19でS0とS1とmから出力音情報S0′を決定
し、20で出力する。FIG. 4 shows the flow of processing here. The following processing is performed each time the data transmitted by multicast in 15 is received in FIG. That is, in 16 the position data (x1, y1, z1) of the target object is extracted from the multicast packet, in 17 the weighting parameter m is calculated from the above equation based on this, and in 18 the sound information of the target object from the multicast packet is calculated. S1 is extracted, output sound information S0 'is determined from S0, S1 and m at 19 and output at 20.
【0024】以上述べたように、互いの位置情報を元に
して、実際の三次元空間と同じように、音情報を出力す
ることができる。また、計算機ネットワークを介して送
信されてくる対象物の音情報は一つに限らないことはい
うまでもなく、また、図3に示したような、ローカルエ
リアネットワーク(LAN)のみに留まらず、広く公衆
回線をもちいた場合にも適用できることはいうまでもな
い。As described above, the sound information can be output based on the mutual positional information as in the actual three-dimensional space. Needless to say, the sound information of the object transmitted via the computer network is not limited to one, and is not limited to the local area network (LAN) as shown in FIG. It goes without saying that it can also be applied to the case where a public line is widely used.
【0025】[0025]
【発明の効果】以上述べたように本発明は計算機を使用
しているユーザ(自分)の三次元空間上の位置と対象物
との間の距離情報及びユーザの視線に対する対象物の角
度情報を元にして、音情報に対して従来より細かな制御
を行うことができる。本発明を用いて計算機上の仮想三
次元空間を実現すれば、実際の三次元空間により近い音
情報の伝達が可能であり、仮想空間内で作業をする者、
例えば遠隔で会議する者にとって違和感のない情報伝達
が可能になる。As described above, according to the present invention, the distance information between the position of the user (self) using the computer in the three-dimensional space and the object and the angle information of the object with respect to the user's line of sight are obtained. Based on the original, it is possible to perform finer control over the sound information than before. If a virtual three-dimensional space on a computer is realized by using the present invention, it is possible to transmit sound information closer to the actual three-dimensional space, a person who works in the virtual space,
For example, information can be transmitted without discomfort to those who have a conference remotely.
【図1】自分と前方の上方に存在する対象物との位置関
係(座標、距離及び角度)を三次元座標軸上に示した
図。FIG. 1 is a diagram showing a positional relationship (coordinates, distance, and angle) between oneself and an object existing above in front of the subject on a three-dimensional coordinate axis.
【図2】Aは自分と水平方向の平面上に存在する対象物
との位置関係を三次元座標軸上に示した図、Bは自分と
前方の上方に存在する対象物との位置関係を三次元座標
軸上に示した図。FIG. 2A is a diagram showing a positional relationship between oneself and an object existing on a horizontal plane on a three-dimensional coordinate axis, and B is a three-dimensional relationship between oneself and an object existing above in the front. The figure shown on the original coordinate axes.
【図3】本発明を用いて計算機ネットワーク上に接続さ
れた計算機を介して各ユーザが各自の位置データと音情
報をやり取りする場合のシステム構成図。FIG. 3 is a system configuration diagram in the case where each user exchanges their own position data and sound information via a computer connected to a computer network using the present invention.
【図4】図3のシステムにおける処理の流れを示す図。4 is a diagram showing the flow of processing in the system of FIG.
Claims (3)
の分身としての人物画像(キャラクタ)と、他のユーザ
の人物画像を配置することによって実現する仮想環境に
おける音場制御方法において、 三次元空間での左右の方向、前後の方向(視線方向)、
上下の方向にそれぞれx軸、y軸及びz軸を取り、 自分の人物画像の位置P0の座標(x0,y0,z0)
と、他のユーザの人物画像の位置P1の座標(x1,y
1,z1)と、自分が発声する声もしくは自端末周辺で
発声する音S0と、他のユーザの端末から入力された声
または音S1とから、前記P0とP1間の距離及びP0
より見たP1の角度情報を演算し、これらを用いて自端
末のスピーカから出力する音を演算することを特徴とす
る音場制御方法。1. A sound field control method in a virtual environment realized by arranging a person image (character) as an alter ego of himself and a person image of another user in a virtual three-dimensional space on a computer, Left-right direction, front-back direction (line of sight) in three-dimensional space,
The x-axis, the y-axis, and the z-axis are taken in the vertical direction, and the coordinates (x0, y0, z0) of the position P0 of the person's own image are taken.
And the coordinates (x1, y) of the position P1 of the person image of another user.
1, z1), a voice S0 that is uttered by the user or a sound S0 that is uttered near the terminal itself, and a voice or a sound S1 that is input from the terminal of another user, the distance between P0 and P1 and P0
A sound field control method characterized in that the angle information of P1 seen more is calculated, and the sound output from the speaker of the own terminal is calculated using these.
の原点にとった場合に、前記位置P1のxy平面、yz
平面上にそれぞれ投影された位置Pxy,Pyzのy軸
となす角をα及びβとし、前記位置P1のzx平面上に
投影された位置Pzxとのx軸となす角をγとすると、
前記声または音S1は重み付けパラメータm2=cos
α×cosβまたはm2=cosα×cosβ×cos
γによって重み付けされることを特徴とする音場制御方
法。2. In claim 1, when the position P0 is taken as the origin of the coordinates, the xy plane of the position P1 and yz.
Let α and β be the angles formed by the positions Pxy and Pyz projected on the plane with the y axis, and let γ be the angle formed by the position Pzx projected on the zx plane at the position P1 with the x axis.
The voice or sound S1 has a weighting parameter m2 = cos
α × cos β or m2 = cos α × cos β × cos
A sound field control method characterized by being weighted by γ.
y/dyz) または S1′=S1×(1/d2 )×(dy/dxy)×(d
y/dyz)×(dx/dzx) なるS1′を用いて、 【数1】 で、自端末のスピーカから出力する音S0′を演算する
ことを特徴とする音場制御方法。3. The method according to claim 1, wherein dx = | x0-x1 | dy = | y0-y1 | dz = | z0-z1 | is used, and dxy = √ (dx 2 + dy 2 ) dyz = √ (dy 2 + dz 2 ) dzx = √ (dz 2 + dx 2 ) dxy, dyz, dzx are calculated, and when d = √ (dx 2 + dy 2 + dz 2 ), S1 ′ = S1 × (1 / d 2 ) × (dy / dxy) × (d
y / dyz) or S1 ′ = S1 × (1 / d 2 ) × (dy / dxy) × (d
Using S1 ′ of y / dyz) × (dx / dzx), Then, the sound field control method is characterized in that the sound S0 ′ output from the speaker of the own terminal is calculated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24743395A JP3261941B2 (en) | 1995-09-26 | 1995-09-26 | Sound field control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24743395A JP3261941B2 (en) | 1995-09-26 | 1995-09-26 | Sound field control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0991460A true JPH0991460A (en) | 1997-04-04 |
JP3261941B2 JP3261941B2 (en) | 2002-03-04 |
Family
ID=17163375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24743395A Expired - Lifetime JP3261941B2 (en) | 1995-09-26 | 1995-09-26 | Sound field control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3261941B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009260427A (en) * | 2008-04-11 | 2009-11-05 | Yamaha Corp | Speaker device, method and program for processing signal |
WO2018203579A1 (en) * | 2017-05-02 | 2018-11-08 | 하수호 | Stereophonic sound generating device and computer program therefor |
-
1995
- 1995-09-26 JP JP24743395A patent/JP3261941B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009260427A (en) * | 2008-04-11 | 2009-11-05 | Yamaha Corp | Speaker device, method and program for processing signal |
WO2018203579A1 (en) * | 2017-05-02 | 2018-11-08 | 하수호 | Stereophonic sound generating device and computer program therefor |
Also Published As
Publication number | Publication date |
---|---|
JP3261941B2 (en) | 2002-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7002684B2 (en) | Systems and methods for augmented reality and virtual reality | |
JP4152432B2 (en) | Virtual reality network | |
US20160225188A1 (en) | Virtual-reality presentation volume within which human participants freely move while experiencing a virtual environment | |
US12015759B2 (en) | Information processing system, information processing method, and information processing program | |
JP7525598B2 (en) | COMMUNICATION TERMINAL DEVICE, COMMUNICATION METHOD, AND SOFTWARE PROGRAM | |
JP3036162B2 (en) | Virtual space sharing method and virtual space sharing server | |
JP2022132299A (en) | Moving image processing method, server device, and computer program | |
CN111986334A (en) | Hololens and CAVE combined virtual experience system and method | |
JP3452348B2 (en) | Speaker identification method in virtual space and recording medium storing the program | |
WO2022075152A1 (en) | Information processing device, information processing method, and information distribution system | |
CN112435316B (en) | Method and device for preventing mold penetration in game, electronic equipment and storage medium | |
JP2739444B2 (en) | Motion generation device using three-dimensional model | |
JP3261941B2 (en) | Sound field control method | |
JP2007072194A (en) | Man type picture control unit | |
JP3262309B2 (en) | Sound field control device | |
JP7280223B2 (en) | Information terminal device, remote communication support method and program | |
JP3296471B2 (en) | Sound field control method and device | |
CN112470218B (en) | Low frequency inter-channel coherence control | |
JP2021005347A (en) | Spatial reproduction method and spatial reproduction system | |
JP7412497B1 (en) | information processing system | |
JP7413472B1 (en) | Information processing systems and programs | |
JP2000155589A (en) | Spatial position presentation method and recording medium recorded with spatial position presentation program | |
WO2024009653A1 (en) | Information processing device, information processing method, and information processing system | |
Wang et al. | Scene-aware Motion Redirection in Telecommunication | |
JP2023144940A (en) | Stereoscopic image display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071221 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081221 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091221 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111221 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111221 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121221 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121221 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131221 Year of fee payment: 12 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |