JPH08107600A - Sound image localization device - Google Patents

Sound image localization device

Info

Publication number
JPH08107600A
JPH08107600A JP6264641A JP26464194A JPH08107600A JP H08107600 A JPH08107600 A JP H08107600A JP 6264641 A JP6264641 A JP 6264641A JP 26464194 A JP26464194 A JP 26464194A JP H08107600 A JPH08107600 A JP H08107600A
Authority
JP
Japan
Prior art keywords
listener
sound source
virtual sound
head
rotation angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6264641A
Other languages
Japanese (ja)
Inventor
Satoru Kamiya
了 神谷
Yoshihiro Mukoujima
祐弘 向嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP6264641A priority Critical patent/JPH08107600A/en
Publication of JPH08107600A publication Critical patent/JPH08107600A/en
Pending legal-status Critical Current

Links

Landscapes

  • Gyroscopes (AREA)
  • Stereophonic Arrangements (AREA)
  • Stereophonic System (AREA)

Abstract

PURPOSE: To stably localize a sound image at a designated position in an absolute coordinate system at all times even if the head of a listener is rotated. CONSTITUTION: This device is equipped with an angle of rotation sensor 5 which detects the rotation of the head of the listener 2, and the position information r, θ and ϕ of a virtual sound source are corrected by the output α, β and γof the angle of rotation sensor 5. A virtual sound source position controller 12 performs various kinds of processing such as delay control, filtering, amplitude control, etc., on an audio input signal SI based on corrected position information r', θ' and ϕ', and generates audio output signals SOR, SOL so as to localize the virtual sound source at the designated position in the absolute coordinate system at all times irrespective of the position of the head of the listener.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、3次元バーチャルリ
アリティシステム等に好適の音像定位装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound image localization apparatus suitable for a three-dimensional virtual reality system or the like.

【0002】[0002]

【従来の技術】従来より、音響再生システム、電子楽
器、ゲーム等において、音場空間内の任意の位置に仮想
音源を定位させて立体音場を生成する音像定位装置が知
られている。また、3次元バーチャルリアリティシステ
ムでも、仮想体験における臨場感を向上させる手段とし
て、この種の音像定位装置が使用されている。この場
合、音像定位装置は、モノラル音源からバイノーラル手
法に基づいて、時間差、振幅差及び周波数特性差を持つ
複数チャンネルの信号を発生させることにより、聴感
上、方向感及び距離感を与えるようにして立体音場を生
成し、あたかも3次元仮想空間上の各部から音が発して
いるように音響信号を生成するようにしている。
2. Description of the Related Art Heretofore, a sound image localization apparatus for locating a virtual sound source at an arbitrary position in a sound field space to generate a three-dimensional sound field has been known in sound reproduction systems, electronic musical instruments, games and the like. Further, even in the three-dimensional virtual reality system, this kind of sound image localization device is used as a means for improving the realism in the virtual experience. In this case, the sound image localization device generates a plurality of channels of signals having a time difference, an amplitude difference, and a frequency characteristic difference from a monaural sound source based on a binaural method so as to give a sense of direction, a sense of distance, and a sense of distance. A three-dimensional sound field is generated, and an acoustic signal is generated as if a sound is emitted from each part in the three-dimensional virtual space.

【0003】[0003]

【発明が解決しようとする課題】ところで、この種の音
像定位装置においては、リスナの頭が常に正面を向いて
いることを前提として遅延制御、フィルタリング及び振
幅制御等に必要な各種の制御パラメータを算出し、これ
らの制御パラメータに基づいて各チャンネルのオーディ
オ出力信号を制御するようにしている。このため、リス
ナの頭が正面から外れた場合、指定された仮想音源位置
に正しく音像が定位しないという問題点がある。例え
ば、ヘッドホンを使用した音像定位装置では、仮想音源
位置はリスナの頭の位置の変化(回転)に従って定位さ
せたい所望の位置とは異なる位置に定位してしまう。つ
まり、例えばリスナの後方に音を定位させたい場合、通
常のリスナの頭が正面を向いている場合には問題はない
が、リスナの頭が、例えば右に90°回転してしまった
場合、当然ヘッドホンも90°回転した向きになるた
め、リスナは聴感上、リスナの左側に音が定位(リスナ
の頭部の後方に定位)するよう感じてしまう。また、固
定的に設置されたスピーカシステムを用いた音像定位装
置では、ヘッドホンのような問題は生じないが、左右ス
ピーカからリスナの両耳までの伝達特性等がリスナの頭
の位置の変化によって変化するため、特にクロストーク
成分の処理が難しく、聴感上好ましくない音が発生する
場合もある。このような変化は、仮想音源の安定定位を
妨げる。特に視聴者の頭や視線の動きに応じて3次元画
像をパンニングさせるような高度なバーチャルリアリテ
ィシステムにおいては、このような仮想音源位置の移動
が、画像と仮想音源位置との整合を妨げ、リアリティの
低下を引き起こす。
By the way, in this type of sound image localization apparatus, various control parameters necessary for delay control, filtering, amplitude control, etc. are provided on the assumption that the listener's head is always facing the front. The audio output signal of each channel is calculated and controlled based on these control parameters. Therefore, there is a problem that the sound image is not properly localized at the designated virtual sound source position when the listener's head is displaced from the front. For example, in a sound image localization device that uses headphones, the virtual sound source position is localized at a position different from the desired position to be localized according to the change (rotation) of the position of the listener's head. In other words, for example, if you want to localize the sound behind the listener, there is no problem if the normal listener's head is facing the front, but if the listener's head has rotated 90 ° to the right, Of course, since the headphones are also rotated by 90 °, the listener feels that the sound is localized on the left side of the listener (localized behind the listener's head). In addition, a sound image localization device that uses a fixedly installed speaker system does not cause problems like headphones, but the transfer characteristics from the left and right speakers to both ears of the listener change due to changes in the position of the listener's head. Therefore, it is particularly difficult to process the crosstalk component, and a sound that is not preferable for hearing may be generated. Such a change hinders stable localization of the virtual sound source. Particularly in a high-level virtual reality system in which a three-dimensional image is panned according to the movement of the viewer's head or line of sight, such movement of the virtual sound source position hinders matching between the image and the virtual sound source position, and Cause a drop in.

【0004】また、2次元音像定位の例ではあるが、上
述のような問題を解決する方法が提案されている(特開
平4−17500号)。この例では、リスナ全体の左右
の回転、即ち椅子の左右回転に基づいた音像定位制御が
行われている。しかしながら、この方法においても、リ
スナの頭の動きに関しては考慮されておらず、結局、上
記従来例と同様の問題が生じてしまう。この発明は、こ
のような問題点に鑑みなされたもので、リスナの頭の位
置の変化(回転)が生じても常に絶対座標系における指
定された位置に安定に音像を定位させることができる音
像定位装置を提供することを目的とする。
Although a two-dimensional sound image localization is an example, a method for solving the above problem has been proposed (Japanese Patent Laid-Open No. 4-17500). In this example, the sound image localization control is performed based on the left-right rotation of the entire listener, that is, the left-right rotation of the chair. However, even in this method, the movement of the listener's head is not taken into consideration, and the problem similar to that of the above-described conventional example occurs in the end. The present invention has been made in view of such a problem, and a sound image that can always stably position a sound image at a designated position in an absolute coordinate system even if the position (rotation) of the listener's head changes. It is intended to provide a localization device.

【0005】[0005]

【課題を解決するための手段】この発明に係る音像定位
装置は、音場空間における予め指定された仮想音源位置
を示す位置情報に基づいて制御パラメータを算出し、音
源から供給されるオーディオ入力信号に対して前記算出
された制御パラメータに基づいて遅延制御、フィルタリ
ング及び/又は振幅制御を施すことにより前記仮想音源
位置に音像を定位させる複数チャンネルのオーディオ出
力信号を生成する仮想音源位置制御手段と、この仮想音
源位置制御手段から出力される複数チャンネルのオーデ
ィオ出力信号をそれぞれ電気音響変換する複数の電気音
響変換手段とを備えた音像定位装置において、リスナの
頭の回転角度を検出する回転角検出手段を備え、前記仮
想音源位置制御手段は、前記回転角検出手段で検出され
たリスナの頭の回転角度に基づいて前記制御パラメータ
を修正し、前記リスナの頭の位置に拘らず、常に絶対座
標系における指定された位置に仮想音源が定位するよう
に前記オーディオ出力信号を制御するものであることを
特徴とする。
A sound image localization apparatus according to the present invention calculates a control parameter based on position information indicating a prespecified virtual sound source position in a sound field space, and outputs an audio input signal supplied from the sound source. A virtual sound source position control means for generating a plurality of channels of audio output signals for locating a sound image at the virtual sound source position by performing delay control, filtering and / or amplitude control on the basis of the calculated control parameter. In a sound image localization device including a plurality of electroacoustic conversion means for respectively electroacoustic converting audio output signals of a plurality of channels output from the virtual sound source position control means, a rotation angle detection means for detecting a rotation angle of a listener's head. The virtual sound source position control means is configured to rotate the head of the listener detected by the rotation angle detection means. Modifying the control parameter based on the angle to control the audio output signal so that the virtual sound source is always localized at the specified position in the absolute coordinate system regardless of the position of the listener's head. Characterize.

【0006】なお、前記電気音響変換手段が、前記リス
ナの両耳に装着されるヘッドホンである場合、前記仮想
音源位置制御手段は、前記回転角検出手段で検出された
リスナの頭の回転角度に基づいて、前記リスナの両耳の
中心位置から垂直に下ろした前記リスナの首上の位置を
中心とした座標変換を行い、変換後の座標系における前
記仮想音源位置の位置情報を仮想音源位置の位置情報と
して前記制御パラメータを算出することが望ましい。
When the electro-acoustic converting means is headphones attached to both ears of the listener, the virtual sound source position control means determines the rotation angle of the listener's head detected by the rotation angle detecting means. Based on the virtual sound source position of the virtual sound source position of the position information of the virtual sound source position in the coordinate system after the coordinate conversion, the position on the neck of the listener vertically lowered from the center position of both ears of the listener It is desirable to calculate the control parameter as the position information.

【0007】また、前記電気音響変換手段が、前記音場
空間に固定的に設置されたスピーカである場合、前記仮
想音源位置制御手段は、前記回転角検出手段で検出され
たリスナの頭の回転角度に基づいて、前記リスナの両耳
の中心位置から垂直に下ろした前記リスナの首上の位置
を中心とした座標変換を行い、変換後の座標系における
前記仮想音源位置を修正された仮想音源位置とすると共
に、前記リスナの両耳位置に対する前記スピーカの位置
の変化に基づいて前記制御パラメータを修正するもので
あることが望ましい。
Further, when the electroacoustic conversion means is a speaker fixedly installed in the sound field space, the virtual sound source position control means rotates the head of the listener detected by the rotation angle detection means. Based on the angle, coordinate conversion is performed centering on the position on the neck of the listener vertically lowered from the center position of both ears of the listener, and the virtual sound source in which the virtual sound source position in the coordinate system after conversion is corrected It is preferable that the control parameter is adjusted based on the change in the position of the speaker with respect to the binaural position of the listener.

【0008】[0008]

【作用】この発明によれば、回転角検出手段で検出され
たリスナの頭の回転角度に基づいて、音像定位のための
制御パラメータを修正し、この修正された制御パラメー
タを用いてオーディオ入力信号に遅延制御、フィルタリ
ング及び振幅制御等を施すようにしているので、常に絶
対座標系における指定された位置に前記仮想音源が定位
するようにオーディオ出力信号を制御することができ
る。
According to the present invention, the control parameter for sound image localization is modified based on the rotation angle of the listener's head detected by the rotation angle detecting means, and the audio input signal is modified using this modified control parameter. Since the delay control, the filtering, the amplitude control, etc. are performed on the audio output signal, the audio output signal can be controlled so that the virtual sound source is always localized at the designated position in the absolute coordinate system.

【0009】なお、リスナの頭は通常、首のほぼ中心位
置を中心として各方向(x軸、y軸、z軸)に回転する
ので、仮想音源位置を示す位置情報の修正に際しては、
座標変換の中心位置をリスナの首上の位置に設定するこ
とにより、仮想音源位置の正確な修正を行うことができ
る。
Since the listener's head normally rotates in each direction (x-axis, y-axis, z-axis) about the center position of the neck, when correcting the position information indicating the virtual sound source position,
By setting the center position of the coordinate conversion to the position above the listener's neck, the virtual sound source position can be corrected accurately.

【0010】電気音響変換手段がヘッドホンである場合
には、ヘッドホンは常にリスナの頭に対して一定の位置
を保つので、仮想音源位置を常に頭の移動方向とは反対
側に同じ量だけ移動させるように制御を行えば、絶対座
標系における仮想音源位置は設定された位置に固定され
ることになる。従って、頭の回転に基づく座標変換後の
座標系における仮想音源位置の位置情報を修正後の位置
情報として制御パラメータを算出すれば、リスナの頭の
回転に拘りなく常に一定の位置に音像が定位されること
になる。
When the electroacoustic converting means is headphones, the headphones always maintain a fixed position with respect to the listener's head, and therefore the virtual sound source position is always moved in the opposite direction to the head moving direction by the same amount. With such control, the virtual sound source position in the absolute coordinate system is fixed at the set position. Therefore, if the control parameter is calculated by using the position information of the virtual sound source position in the coordinate system after the coordinate conversion based on the rotation of the head as the corrected position information, the sound image is always localized at a fixed position regardless of the rotation of the listener's head. Will be done.

【0011】また、電気音響変換手段が、音場空間に固
定的に設置されたスピーカの場合には、座標変換後の座
標系における仮想音源位置を修正された仮想音源位置と
するだけでは十分ではない。リスナの両耳の位置に対す
るスピーカの位置が変化するからである。この変化は、
各スピーカからのクロストーク成分の伝達関数を与える
制御パラメータ等に影響を及ぼす。この発明の一態様に
おいては、リスナの両耳位置に対するスピーカの位置の
変化に基づいて、これらの制御パラメータを修正するこ
とにより、仮想音源を一定の位置に定位させることが可
能になる。
Further, when the electroacoustic conversion means is a speaker fixedly installed in the sound field space, it is not sufficient to set the virtual sound source position in the coordinate system after coordinate conversion to the corrected virtual sound source position. Absent. This is because the position of the speaker changes with respect to the positions of both ears of the listener. This change
It affects control parameters and the like that give the transfer function of the crosstalk component from each speaker. In one aspect of the present invention, the virtual sound source can be localized at a fixed position by modifying these control parameters based on the change in the position of the speaker with respect to the binaural position of the listener.

【0012】[0012]

【実施例】以下、図面を参照して、この発明の実施例を
説明する。図1は、この発明の一実施例に係る音像定位
装置を適用した3次元バーチャルリアリティシステムの
構成を示す図である。ヘッドギヤ1は、リスナ2の頭に
装着されるもので、リスナ2の両耳に相当する位置にス
ピーカ3,4がそれぞれ埋め込まれている。また、この
ヘッドギヤ1の一部には、ヘッドギヤ1の基準位置から
の3次元方向への回転角を検出する回転角センサ5が装
着されている。これらスピーカ3,4及び回転角センサ
5は、コントローラ6と信号線7を介して接続されてい
る。コントローラ6には、ディスプレイ装置8が設けら
れ、このディスプレイ装置8に表示される3次元グラフ
ィックス画面をリスナ2が見ながら、図示しないジョイ
スティック等を操作してゲームやシミュレーション等を
行えるようになっている。そして、ディスプレイ装置8
に表示される画面の各部に対応する位置を仮想音源位置
とするように、コントローラ6は、音像定位制御を実行
する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration of a three-dimensional virtual reality system to which a sound image localization device according to an embodiment of the present invention is applied. The headgear 1 is mounted on the head of the listener 2, and the speakers 3 and 4 are embedded at positions corresponding to both ears of the listener 2. A rotation angle sensor 5 that detects a rotation angle of the headgear 1 in a three-dimensional direction from a reference position is attached to a part of the headgear 1. The speakers 3 and 4 and the rotation angle sensor 5 are connected to the controller 6 via a signal line 7. The controller 6 is provided with a display device 8 so that the listener 2 can watch a three-dimensional graphics screen displayed on the display device 8 and operate a joystick or the like (not shown) to perform a game or a simulation. There is. And the display device 8
The controller 6 executes the sound image localization control so that the positions corresponding to the respective parts of the screen displayed in FIG.

【0013】図2は、上記システムの更に詳細な構成を
示すブロック図である。コントローラ6の内部には、オ
ーディオソース11と仮想音源位置制御装置12とが設
けられている。オーディオソース11は、コンピュー
タ、ディスク再生装置、ビデオ再生装置等の音源であ
り、この実施例では、モノラルのオーディオ信号SI
と、仮想音源位置を示す3次元絶対座標系における位置
情報r,θ,φとを出力する。仮想音源位置制御装置1
2は、オーディオ入力信号SI 及び位置情報r,θ,
φ、並びに回転角センサ5からの角度情報α,β,γを
入力し、位置情報及び角度情報に基づいてオーディオ入
力信号SI に遅延制御、フィルタリング及び振幅制御等
の各処理を施して2チャンネルのオーディオ出力信号S
OR,SOLを生成する。この2チャンネルのオーディオ出
力信号がスピーカ3,4に供給されて、リスナ2の両耳
に音響波を供給する。
FIG. 2 is a block diagram showing a more detailed structure of the system. An audio source 11 and a virtual sound source position control device 12 are provided inside the controller 6. The audio source 11 is a sound source of a computer, a disc reproducing device, a video reproducing device, or the like, and in this embodiment, a monaural audio signal SI.
And position information r, θ, φ in the three-dimensional absolute coordinate system indicating the virtual sound source position. Virtual sound source position control device 1
2 is an audio input signal SI and position information r, θ,
φ and the angle information α, β, γ from the rotation angle sensor 5 are input, and the audio input signal SI is subjected to various processes such as delay control, filtering and amplitude control based on the position information and the angle information, and the two channels are processed. Audio output signal S
Generates OR and SOL. The two-channel audio output signals are supplied to the speakers 3 and 4 to supply acoustic waves to both ears of the listener 2.

【0014】図3は、仮想音源位置制御装置12の具体
的構成例を示すブロック図である。モノラルのオーディ
オ入力信号SI は、アンプ21を介してノッチフィルタ
22に供給される。ノッチフィルタ22は、人間の聴覚
特性に基づいてオーディオ信号SI の特定の周波数成分
を減衰させて、入力信号SI に上下方向感を付与する。
ノッチフィルタ22の出力は、仮想音源位置から両耳へ
の音の伝搬時間差を付与する遅延回路23で遅延処理さ
れ、時間差を持つ2チャンネルの信号に変換される。こ
れらの信号は、それぞれFIR(有限インパルス応答)
フィルタ24,25に供給される。FIRフィルタ2
4,25は、予め、例えばダミーヘッドによって、リス
ナ2の前後左右の各方向に音像が定位した場合のインパ
ルス応答(頭部伝達関数)を測定しておき、その結果を
FIR係数として記憶しておいたもので、入力された信
号から各4方向分の信号を生成する。FIRフィルタ2
4,25の出力は、アンプ26,27よって、指定され
た仮想音源位置から音が到来するように各方向成分の信
号をそれぞれ振幅制御する。アンプ26,27の出力
は、加算器28,29によってそれぞれ加算されたの
ち、アンプ30,31によって仮想音源の方向に基づく
左右の振幅バランスを調整され、アンプ32,33によ
って仮想音源までの距離に基づく振幅制御が施される。
各チャンネルの信号は、これらの処理を経てオーディオ
出力信号SOR,SOLとして出力される。
FIG. 3 is a block diagram showing a concrete example of the configuration of the virtual sound source position control device 12. The monaural audio input signal SI is supplied to the notch filter 22 via the amplifier 21. The notch filter 22 attenuates a specific frequency component of the audio signal SI on the basis of human auditory characteristics to give a vertical feeling to the input signal SI.
The output of the notch filter 22 is subjected to delay processing by a delay circuit 23 that gives a difference in sound propagation time from the virtual sound source position to both ears, and is converted into a two-channel signal having a time difference. These signals are respectively FIR (finite impulse response)
It is supplied to the filters 24 and 25. FIR filter 2
Numerals 4 and 25 measure the impulse response (head related transfer function) when the sound image is localized in the front, rear, left and right directions of the listener 2 in advance by, for example, a dummy head, and store the result as an FIR coefficient. The signal for each direction is generated from the input signal. FIR filter 2
The outputs of 4 and 25 are amplitude-controlled by the amplifiers 26 and 27 so that the signals of the respective directional components are controlled so that the sound comes from the designated virtual sound source position. The outputs of the amplifiers 26 and 27 are added by adders 28 and 29, respectively, and then the left and right amplitude balances based on the directions of the virtual sound sources are adjusted by the amplifiers 30 and 31, and the distances to the virtual sound sources are adjusted by the amplifiers 32 and 33. Based on the amplitude control.
The signal of each channel is output as audio output signals SOR and SOL through these processes.

【0015】一方、オーディオソース11から与えられ
る位置情報r,θ,φは、位置情報修正部35において
センサ出力α,β,γによって修正される。パラメータ
算出部36は、この修正された位置情報α′,β′,
γ′に基づいて、制御パラメータNt,T,VRx,V
Lx,VR,VL,Vrを生成し、各部に供給する。
On the other hand, the position information r, θ, φ given from the audio source 11 is corrected by the position information correction section 35 by the sensor outputs α, β, γ. The parameter calculation unit 36 uses the corrected position information α ′, β ′,
Based on γ ′, control parameters Nt, T, VRx, V
Lx, VR, VL, Vr are generated and supplied to each part.

【0016】次に、このシステムの動作原理について説
明する。図4は、仮想音源位置を示す位置情報r,θ,
φについて説明するための図である。いま、同図(a)
に示すように、リスナ2の両耳の中間点を3次元座標の
中心点P0 とし、リスナ2の頭が基準方向(正面方向)
を向いているとした場合のリスナ2の右方向、前方及び
上方をそれぞれ絶対座標系のX軸、Y軸、Z軸と設定す
る。仮想音源Ps の位置情報は、同図(b)に示すよう
に、中心点P0 から仮想音源Ps までの距離rと、リス
ナ2の正面(Y軸方向)からみた仮想音源Psの水平方
向の角度(アジマス)θと、リスナ2の正面に対して角
度θ方向からみた垂直方向の角度(エレベーション)φ
とにより与えられる。
Next, the operating principle of this system will be described. FIG. 4 shows position information r, θ, which indicates the virtual sound source position.
It is a figure for demonstrating (phi). Now, in the figure (a)
As shown in, the middle point between the ears of the listener 2 is the center point P0 of the three-dimensional coordinates, and the head of the listener 2 is in the reference direction (front direction).
The right direction, the front side, and the upper side of the listener 2 in the case of being directed to are set as the X axis, Y axis, and Z axis of the absolute coordinate system, respectively. The position information of the virtual sound source Ps is, as shown in FIG. 7B, the distance r from the center point P0 to the virtual sound source Ps and the horizontal angle of the virtual sound source Ps as viewed from the front of the listener 2 (Y-axis direction). (Azimuth) θ and the angle (elevation) φ in the vertical direction when viewed from the angle θ with respect to the front surface of the listener 2.
Given by and.

【0017】一方、図5に示すように、リスナ2の頭の
運動に伴う回転角は、Z軸を中心とする回転角αと、X
軸を中心とする回転角βと、Y軸を中心とする回転角γ
の3種類で表すことができる。これらの回転角α,β,
γは、回転角センサ5によって検出される。回転角セン
サ5としては、ジャイロセンサ、磁石式センサ、直交3
方向受信部を用いた電磁波受信方式センサ等の公知の方
向検出器が適用可能であるが、ジャイロセンサを一例に
とれば、例えば図6に示すようなものを使用することが
できる。即ち、モータ41でフライホイール42を回転
させて、フライホイール42の慣性で軸43を一定の方
向に安定させ、軸43を支持するアーム44と、ヘッド
ギヤ1の左右方向HR,HLを軸として回転可能に支持
されたアーム45との間の回転角αをエンコーダ46で
検出する。また、ヘッドギヤ1の左右方向HR,HLを
軸とする回転角βは、アーム45の回転軸に連動するエ
ンコーダ47で検出する。更に、ヘッドギヤ1の前後方
向HF,HBを軸として回転可能に支持されたアーム4
8に重り49がスライド可能に設けられており、アーム
48の回転軸に連動するエンコーダ50で、重り49の
重力方向への移動によって生じる、前後方向HF,HB
を軸とする回転角γを検出する。
On the other hand, as shown in FIG. 5, the rotation angle associated with the movement of the head of the listener 2 is the rotation angle α about the Z axis and the rotation angle α.
Rotation angle β around the axis and rotation angle γ around the Y axis
Can be represented by three types. These rotation angles α, β,
γ is detected by the rotation angle sensor 5. The rotation angle sensor 5 includes a gyro sensor, a magnet type sensor, and a right angle 3
A known direction detector such as an electromagnetic wave reception type sensor using a direction receiving unit can be applied, but if a gyro sensor is taken as an example, then a device as shown in FIG. 6 can be used, for example. That is, the flywheel 42 is rotated by the motor 41 so that the inertia of the flywheel 42 stabilizes the shaft 43 in a certain direction, and the arm 44 supporting the shaft 43 and the left and right directions HR and HL of the headgear 1 rotate about the shaft. The encoder 46 detects a rotation angle α between the arm 45 and the arm 45 which is supported. The rotation angle β of the headgear 1 about the left-right direction HR and HL is detected by the encoder 47 that is interlocked with the rotation axis of the arm 45. Further, the arm 4 rotatably supported about the front-rear direction HF, HB of the headgear 1 as an axis.
8 is provided with a weight 49 slidably, and an encoder 50 that interlocks with the rotation axis of the arm 48 causes front and rear directions HF and HB generated by the movement of the weight 49 in the gravity direction.
The rotation angle γ about the axis is detected.

【0018】この実施例のように、ヘッドホンタイプの
音像定位装置の場合、リスナの頭の回転移動に対して
は、仮想音源位置をその反対方向に回転移動させれば、
絶対座標系における仮想音源Ps の位置を一定に保つこ
とができる。このことは、絶対座標系X,Y,Zで与え
られた仮想音源Ps の位置情報r,θ,φを、リスナの
頭を基準とした変換座標系X′,Y′,Z′における変
換位置情報r′,θ′,φ′に変換し、これを与えられ
た位置情報とすることと等価である。
In the case of the headphone type sound image localization apparatus as in this embodiment, with respect to the rotational movement of the listener's head, if the virtual sound source position is rotationally moved in the opposite direction,
The position of the virtual sound source Ps in the absolute coordinate system can be kept constant. This means that the position information r, θ, φ of the virtual sound source Ps given in the absolute coordinate system X, Y, Z is converted in the transformed coordinate system X ′, Y ′, Z ′ with the listener's head as a reference. This is equivalent to converting the information into r ', θ', φ'and using this as given position information.

【0019】いま、仮想音源の位置Ps の各軸座標値X
s ,Ys ,Zs は、与えられた位置情報r,θ,φを用
いて、数1のように表すことができる。
Now, the coordinate value X of each axis of the position Ps of the virtual sound source
s, Ys, and Zs can be expressed as in Equation 1 by using the given positional information r, θ, and φ.

【0020】[0020]

【数1】Xs =r sinθ cosφ Ys =r cosθ cosφ Zs =r sinφ## EQU1 ## Xs = r sinθ cosφ Ys = r cosθ cosφ Zs = r sinφ

【0021】一方、図7に示すように、リスナ2の頭の
運動は、首を中心としてなされるから、座標回転の中心
は、前述した座標原点P0 を、リスナ2の首に沿って距
離mだけ下方に移動させた位置に設定する。mは、平均
的な値として15cm程度に設定する。変換座標系X′,
Y′,Z′における仮想音源Ps ′の各軸座標値X
s′,Ys ′,Zs ′は、下記数2のように表すことが
できる。
On the other hand, as shown in FIG. 7, since the movement of the head of the listener 2 is centered on the neck, the center of coordinate rotation is the coordinate origin P0 described above and the distance m along the neck of the listener 2. Set it to the position where it was moved downward. m is set to about 15 cm as an average value. Transformation coordinate system X ',
Coordinate value X of each axis of virtual sound source Ps 'in Y'and Z'
s', Ys', and Zs' can be expressed by the following equation 2.

【0022】[0022]

【数2】 [Equation 2]

【0023】なお、ここでMは変換行列で、各軸方向の
回転角α,β,γに基づく変換行列M(α),M
(β),M(γ)によって数3のように定義される。
Here, M is a transformation matrix, and transformation matrices M (α), M based on the rotation angles α, β, γ in the respective axial directions.
It is defined by Equation (3) by (β) and M (γ).

【0024】[0024]

【数3】M=M(α)M(β)M(γ) ## EQU3 ## M = M (α) M (β) M (γ)

【0025】求められた仮想音源Ps ′の各軸座標値X
s ′,Ys ′,Zs ′から変換位置情報r′,θ′,
φ′は、数4によって求めることができる。
The coordinate value X of each axis of the obtained virtual sound source Ps'
From s', Ys', Zs', conversion position information r ', θ',
φ ′ can be obtained by the equation 4.

【0026】[0026]

【数4】r′=√(Xs ′2 +Ys ′2 +Zs ′2 ) θ′= tan-1(Xs ′/Ys ′) φ′= tan-1[Zs ′/√(Xs ′2 +Ys ′2 )]Equation 4] r '= √ (Xs' 2 + Ys' 2 + Zs' 2) θ' = tan -1 (Xs' / Ys') φ '= tan -1 [Zs' / √ (Xs' 2 + Ys' 2 )]

【0027】図3の位置情報修正部35は、以上の処理
を実行して、位置情報r,θ,φとセンサ出力α,β,
γから座標変換処理によって、変換位置情報r′,
θ′,φ′を生成出力する。図8は、位置情報修正部3
5における座標変換処理の内容を示すフローチャートで
ある。位置情報修正部35に位置情報r,θ,φが与え
られたら、まず、絶対座標系での各軸座標値Xs ,Ys
,Zs を求める(S1)。但し、Zs軸については、
頭の運動座標系に予めシフト(+m)させておく。次に
回転角センサ5の出力α,β,γをサンプリングし(S
2)、変換行列Mにより、座標変換処理を施し(S
3)、Zs′軸を元の座標と整合するようにシフト(−
m)させる(S4)。そして求められた変換座標Xs
′,Ys ′,Zs ′から変換位置情報r′,θ′,
φ′を算出し(S5)、出力する(S6)。このセンサ
出力のサンプリングと変換処理とを一定の間隔で実行す
ることにより、リアルタイムに変換位置情報を求めるこ
とができる。
The position information correction unit 35 shown in FIG. 3 executes the above-mentioned processing, and the position information r, θ, φ and sensor outputs α, β,
From γ by coordinate conversion processing, conversion position information r ′,
Generates and outputs θ'and φ '. FIG. 8 shows the position information correction unit 3.
6 is a flowchart showing the contents of coordinate conversion processing in No. 5. When the position information r, θ, φ is given to the position information correction unit 35, first, the coordinate value Xs, Ys of each axis in the absolute coordinate system is given.
, Zs are obtained (S1). However, for the Zs axis,
It is shifted (+ m) in advance to the movement coordinate system of the head. Next, the outputs α, β, γ of the rotation angle sensor 5 are sampled (S
2) The coordinate conversion process is performed by the conversion matrix M (S
3), shift the Zs' axis to match the original coordinates (-
m) (S4). Then, the converted coordinate Xs obtained
From ′, Ys ′, Zs ′, conversion position information r ′, θ ′,
φ'is calculated (S5) and output (S6). The conversion position information can be obtained in real time by executing the sampling of the sensor output and the conversion process at regular intervals.

【0028】これらの変換位置情報r′,θ′,φ′
が、パラメータ算出部36に供給され、以下の各制御パ
ラメータが算出される。先ず、ノッチフィルタ22の減
衰周波数Ntが求められる。図9に示すように、人間の
耳は、音源の高さ方向の角度(エレベーション)φが大
きくなるほど、つまり音源位置が上に位置するほど、不
感帯周波数が高周波域にシフトすることが知られてい
る。従って、パラメータ算出部36は、エレベーション
φ′によって減衰周波数Ntを決定し、ノッチフィルタ
22を制御する。
These converted position information r ', θ', φ '
Is supplied to the parameter calculation unit 36, and the following control parameters are calculated. First, the attenuation frequency Nt of the notch filter 22 is obtained. As shown in FIG. 9, it is known that in the human ear, the dead band frequency shifts to a high frequency region as the angle (elevation) φ of the sound source in the height direction increases, that is, as the sound source position is located higher. ing. Therefore, the parameter calculator 36 determines the attenuation frequency Nt by the elevation φ ′ and controls the notch filter 22.

【0029】遅延回路23での左右チャンネルの伝搬時
間差Tは、仮想音源Ps′から各耳までの距離の差から
求められる。即ち、図10に示すように、座標中心点P
0 ′からリスナ2の両耳までの距離をhとすると、仮想
音源の位置Ps ′(Xs ′,Ys ′,Zs ′)から、右
耳(h,0,0)までの距離DR及び左耳(−h,0,
0)までの距離DLとは、数5のように表すことができ
る。
The propagation time difference T between the left and right channels in the delay circuit 23 is obtained from the difference in the distance from the virtual sound source Ps' to each ear. That is, as shown in FIG. 10, the coordinate center point P
If the distance from 0'to both ears of the listener 2 is h, the distance DR from the position Ps '(Xs', Ys ', Zs') of the virtual sound source to the right ear (h, 0, 0) and the left ear. (-H, 0,
The distance DL to 0) can be expressed as in Equation 5.

【0030】[0030]

【数5】 DR=√(r′2 −2r′h sinθ′ sinφ′+h2 ) DL=√(r′2 +2r′h sinθ′ sinφ′+h2DR = √ (r ′ 2 −2r′h sin θ ′ sin φ ′ + h 2 ) DL = √ (r ′ 2 + 2r′h sin θ ′ sin φ ′ + h 2 )

【0031】よって、音速をVsとすれば、Therefore, if the speed of sound is Vs,

【0032】[0032]

【数6】T=(DR−DL)/Vs[Equation 6] T = (DR-DL) / Vs

【0033】が、仮想音源Ps′から両耳へ音響信号が
到達する際の伝搬時間差となる。
Is the propagation time difference when the acoustic signal arrives from the virtual sound source Ps' to both ears.

【0034】FIRフィルタ26,27の各方向成分出
力の振幅を制御するパラメータVRx,VLx[但し、
Rは右耳用、Lは左耳用、xはF(前)、R(右)、B
(後)、L(左)である。]は、左右の耳と音源Ps′
とのアジマスθR,θL及びエレベーションφによって
決定される。各耳アジマスθR,θLは、次のように求
められる。
Parameters VRx and VLx for controlling the amplitude of each direction component output of the FIR filters 26 and 27 [however,
R is for the right ear, L is for the left ear, x is F (front), R (right), B
(Rear) and L (left). ] Indicates the left and right ears and the sound source Ps ′
And azimuth θR, θL and elevation φ. The azimuths θR and θL of each ear are obtained as follows.

【0035】[0035]

【数7】θR= tan-1[(r'sinφ'sinθ' −h)/
r'sinφ'cosθ' ] θL= tan-1[(r'sinφ'sinθ' +h)/r'sinφ'c
osθ' ]
## EQU7 ## θR = tan -1 [(r'sinφ'sinθ'-h) /
r'sin φ'cos θ '] θL = tan -1 [(r'sin φ'sin θ' + h) / r'sin φ'c
osθ ']

【0036】図11は、各耳アジマスθR,θLと、制
御パラメータVRx,VLxとの関係を示す図で、同図
(a)はエレベーションφ′が0°(水平)、同図
(b)はエレベーションφ′が±90°(垂直)のとき
の値をそれぞれ示している。このとき、図では、各ゲイ
ンが1/4に設定されているが、必ずしもこれに限定さ
れる訳ではない。パラメータ算出部36は、これらの関
係に基づいて、制御パラメータVRx,VLxを決定
し、アンプ26,27を制御する。
FIG. 11 is a diagram showing the relationship between the azimuth angles θR and θL of each ear and the control parameters VRx and VLx. In FIG. 11A, elevation φ ′ is 0 ° (horizontal), and FIG. Indicates the values when the elevation φ ′ is ± 90 ° (vertical). At this time, although each gain is set to 1/4 in the figure, it is not necessarily limited to this. The parameter calculation unit 36 determines the control parameters VRx and VLx based on these relationships and controls the amplifiers 26 and 27.

【0037】また、左右チャンネルの振幅を制御するア
ンプ30,31の制御パラメータVR,VLは、前述し
た仮想音源Ps′から両耳への距離の差によって決定さ
れる。更に、両チャンネルの全体的な振幅を制御するア
ンプ32,33の制御パラメータVrは、仮想音源P
s′からの距離r′によって決定される。
Further, the control parameters VR and VL of the amplifiers 30 and 31 for controlling the amplitudes of the left and right channels are determined by the difference between the above-mentioned virtual sound source Ps' and both ears. Further, the control parameter Vr of the amplifiers 32 and 33 for controlling the overall amplitude of both channels is the virtual sound source P.
It is determined by the distance r'from s'.

【0038】以上は、ヘッドホンを使用した音像定位装
置であるが、図12は、この発明を、固定的に配置され
たスピーカによる音像定位装置に適用したシステムの構
成を示している。この実施例においても、回転角センサ
5をリスナ2の頭に設置するため、何らかのヘッドギヤ
が必要となる。固定型スピーカの場合に考慮すべき点
は、リスナ2の頭の回転によってリスナ2に対する仮想
音源位置が変化するということに加え、リスナ2に対す
るスピーカ3,4の相対位置も変化するという点であ
る。このため、変換された位置情報r′,θ′,φ′
を、スピーカ3,4の相対位置変化に基づいて、再度最
初の位置情報r,θ,φの位置近傍まで再修正する必要
がある。また、もっと簡易な方法としては、最初の位置
情報r,θ,φをそのまま使用して制御パラメータを求
めても良い。しかし、固定型スピーカに特有のクロスト
ークの問題は、何らかの対策を必要とする。
The above is a sound image localization apparatus using headphones, but FIG. 12 shows the configuration of a system in which the present invention is applied to a sound image localization apparatus using a fixedly arranged speaker. Also in this embodiment, since the rotation angle sensor 5 is installed on the head of the listener 2, some kind of head gear is required. A point to be considered in the case of the fixed type speaker is that the position of the virtual sound source with respect to the listener 2 changes due to the rotation of the head of the listener 2, and the relative positions of the speakers 3 and 4 with respect to the listener 2 also change. . Therefore, the converted position information r ′, θ ′, φ ′
Needs to be re-corrected to the vicinity of the position of the first position information r, θ, φ again based on the change in the relative positions of the speakers 3 and 4. Further, as a simpler method, the control parameters may be obtained by directly using the initial position information r, θ, φ. However, the problem of crosstalk peculiar to fixed speakers requires some measures.

【0039】即ち、図12に示すように、固定型スピー
カを使用した音像定位装置の場合、右スピーカ3の音が
左耳に供給され、左スピーカ4の音が右耳に供給される
クロストークが発生する。このため、図13に示すよう
に、仮想音源位置制御装置12には、クロストークキャ
ンセラ61が、例えばアンプ30,31とアンプ32,
33との間に配置される。
That is, as shown in FIG. 12, in the case of a sound image localization apparatus using a fixed type speaker, the sound of the right speaker 3 is supplied to the left ear, and the sound of the left speaker 4 is supplied to the right ear. Occurs. Therefore, as shown in FIG. 13, in the virtual sound source position control device 12, the crosstalk canceller 61 includes, for example, the amplifiers 30, 31 and the amplifiers 32,
It is arranged between 33 and.

【0040】クロストークは、例えば図14のモデルに
よって表すことができる。いま、右(左)スピーカから
右(左)耳に音響波が伝搬する経路を主経路とし、右
(左)スピーカから左(右)耳に音響波が伝搬する経路
をクロストーク経路と定義すると、dは、音響波が主経
路を伝搬する時間とクロストーク経路を伝搬する時間と
の時間差であり、kは主経路を音響波が伝搬するときの
減衰量に対するクロストーク経路を伝搬するときの減衰
量の比である。
Crosstalk can be represented by, for example, the model shown in FIG. Now, let us define the path through which the acoustic wave propagates from the right (left) speaker to the right (left) ear as the main path, and the path through which the acoustic wave propagates from the right (left) speaker to the left (right) ear as the crosstalk path. , D is the time difference between the time when the acoustic wave propagates in the main path and the time when the acoustic wave propagates in the crosstalk path, and k is the time difference when propagating in the crosstalk path with respect to the attenuation amount when the acoustic wave propagates in the main path. It is the ratio of the amount of attenuation.

【0041】このモデルに基づくクロストークキャンセ
ラ61の詳細を図15に示す。ここで、伝搬時間差d及
び減衰量の比kは、リスナ2がスピーカ3,4に対して
正面を向いているものとして計算されたが、リスナ2の
頭が回転すると、d,kの値も比対称に変化する。そこ
で、パラメータ算出部62は、センサ出力α,β,γか
ら、伝搬時間差dr,dlと減衰量の比kr,klとを
計算する。伝搬時間差dr,dlは、各スピーカ3,4
の位置を音源位置として前述の座標変換処理を実行し、
リスナ2の頭の座標系で両耳から各スピーカまでの距離
を算出し、音速で割って求めた伝搬時間の差から求めら
れる。また、減衰量の比kr,klは、予め、リスナ2
の頭の回りの数点からの減衰量の比kを求めておき、リ
スナ2の頭の座標系におけるスピーカの方向に応じて、
これらの値を適宜補間処理して求めれば良い。かくして
求められた伝搬時間差dr,dl,kr,klは、クロ
ストークキャンセラ61の動作を決定する制御パラメー
タとなる。
The details of the crosstalk canceller 61 based on this model are shown in FIG. Here, the propagation time difference d and the attenuation ratio k are calculated assuming that the listener 2 faces the front of the speakers 3 and 4, but when the head of the listener 2 rotates, the values of d and k are also calculated. It changes symmetrically. Therefore, the parameter calculation unit 62 calculates the propagation time differences dr, dl and the attenuation ratios kr, kl from the sensor outputs α, β, γ. The propagation time differences dr and dl are
Perform the above-mentioned coordinate conversion process with the position of as the sound source position,
The distance from both ears to each speaker is calculated using the coordinate system of the head of the listener 2, and the distance is divided by the speed of sound to obtain the difference in propagation time. Also, the attenuation ratios kr and kl are calculated in advance by the listener 2
The ratio k of attenuation from several points around the head of the listener is calculated in advance, and according to the direction of the speaker in the coordinate system of the head of the listener 2,
It suffices to obtain these values by appropriately performing interpolation processing. The propagation time differences dr, dl, kr, and kl thus obtained are control parameters that determine the operation of the crosstalk canceller 61.

【0042】[0042]

【発明の効果】以上述べたように、この発明によれば、
回転角検出手段で検出されたリスナの頭の回転角度に基
づいて、音像定位のための制御パラメータを修正し、こ
の修正された制御パラメータを用いてオーディオ入力信
号に遅延制御、フィルタリング及び振幅制御等を施すよ
うにしているので、常に絶対座標系における指定された
位置に前記仮想音源が定位するようにオーディオ出力信
号を制御することができる。
As described above, according to the present invention,
Based on the rotation angle of the listener's head detected by the rotation angle detecting means, a control parameter for sound image localization is modified, and the modified control parameter is used to delay control, filter and amplitude control the audio input signal. Therefore, the audio output signal can be controlled so that the virtual sound source is always localized at the designated position in the absolute coordinate system.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明をヘッドホン型の音像定位装置を適
用したシステムの構成を示す図である。
FIG. 1 is a diagram showing a configuration of a system to which a headphone type sound image localization device of the present invention is applied.

【図2】 同システムの更に詳細なブロック図である。FIG. 2 is a more detailed block diagram of the system.

【図3】 同システムにおける仮想音源位置制御装置の
ブロック図である。
FIG. 3 is a block diagram of a virtual sound source position control device in the system.

【図4】 位置情報を説明するための図である。FIG. 4 is a diagram for explaining position information.

【図5】 リスナの頭の回転方向を説明するための図で
ある。
FIG. 5 is a diagram for explaining a rotation direction of a listener's head.

【図6】 回転角センサの一例を示す斜視図である。FIG. 6 is a perspective view showing an example of a rotation angle sensor.

【図7】 リスナの頭の運動と変換座標系とを示す図で
ある。
FIG. 7 is a diagram showing a movement of a listener's head and a transformation coordinate system.

【図8】 位置情報修正部の処理を示すフローチャート
である。
FIG. 8 is a flowchart showing a process of a position information correction unit.

【図9】 ノッチフィルタの特性を示す図である。FIG. 9 is a diagram showing characteristics of a notch filter.

【図10】 遅延回路での時間差を求める手順を説明す
るための図である。
FIG. 10 is a diagram for explaining a procedure for obtaining a time difference in the delay circuit.

【図11】 FIRフィルタ出力の振幅制御を説明する
ための図である。
FIG. 11 is a diagram for explaining amplitude control of the FIR filter output.

【図12】 この発明を固定スピーカ型の音像定位装置
を適用したシステムの構成を示す図である。
FIG. 12 is a diagram showing a configuration of a system to which a fixed speaker type sound image localization device of the present invention is applied.

【図13】 同システムにおける仮想音源位置制御装置
のブロック図である。
FIG. 13 is a block diagram of a virtual sound source position control device in the same system.

【図14】 同システムにおけるクロストークモデルを
示すブロック図である。
FIG. 14 is a block diagram showing a crosstalk model in the same system.

【図15】 同システムにおけるクロストークキャンセ
ラの詳細を示すブロック図である。
FIG. 15 is a block diagram showing details of a crosstalk canceller in the system.

【符号の説明】[Explanation of symbols]

1…ヘッドギヤ、2…リスナ、3,4…スピーカ、5…
回転角センサ、6…コントローラ、7…信号線、8…デ
ィスプレイ装置、11…オーディオソース、12…仮想
音源位置制御装置、21,26,27,30〜33…ア
ンプ、22…ノッチフィルタ、23…遅延回路、24,
25…FIRフィルタ、28,29…加算器、35…位
置情報修正部、36,62…パラメータ算出部、61…
クロストークキャンセラ。
1 ... Headgear, 2 ... Listener, 3, 4 ... Speaker, 5 ...
Rotation angle sensor, 6 ... Controller, 7 ... Signal line, 8 ... Display device, 11 ... Audio source, 12 ... Virtual sound source position control device 21, 26, 27, 30-33 ... Amplifier, 22 ... Notch filter, 23 ... Delay circuit, 24,
25 ... FIR filter, 28, 29 ... Adder, 35 ... Position information correction unit, 36, 62 ... Parameter calculation unit, 61 ...
Crosstalk canceller.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 音場空間における予め指定された仮想音
源位置を示す位置情報に基づいて制御パラメータを算出
し、音源から供給されるオーディオ入力信号に対して前
記算出された制御パラメータに基づいて遅延制御、フィ
ルタリング及び/又は振幅制御を施すことにより前記仮
想音源位置に音像を定位させる複数チャンネルのオーデ
ィオ出力信号を生成する仮想音源位置制御手段と、 この仮想音源位置制御手段から出力される複数チャンネ
ルのオーディオ出力信号をそれぞれ電気音響変換する複
数の電気音響変換手段とを備えた音像定位装置におい
て、 リスナの頭の回転角度を検出する回転角検出手段を備
え、 前記仮想音源位置制御手段は、前記回転角検出手段で検
出されたリスナの頭の回転角度に基づいて前記制御パラ
メータを修正し、前記リスナの頭の位置に拘らず、常に
絶対座標系における指定された位置に仮想音源が定位す
るように前記オーディオ出力信号を制御するものである
ことを特徴とする音像定位装置。
1. A control parameter is calculated based on position information indicating a prespecified virtual sound source position in a sound field space, and is delayed based on the calculated control parameter with respect to an audio input signal supplied from a sound source. Virtual sound source position control means for generating audio output signals of a plurality of channels for localizing a sound image at the virtual sound source position by performing control, filtering, and / or amplitude control, and a plurality of channels output from the virtual sound source position control means. A sound image localization apparatus including a plurality of electroacoustic conversion means for converting respective audio output signals into electroacoustic signals, comprising a rotation angle detection means for detecting a rotation angle of a listener's head, wherein the virtual sound source position control means is adapted to Correcting the control parameter based on the rotation angle of the listener's head detected by the angle detection means, A sound image localization apparatus that controls the audio output signal so that the virtual sound source is always localized at a specified position in an absolute coordinate system regardless of the position of the listener's head.
【請求項2】 前記電気音響変換手段は、前記リスナの
両耳に装着されるヘッドホンであり、 前記仮想音源位置制御手段は、前記回転角検出手段で検
出されたリスナの頭の回転角度に基づいて、前記リスナ
の両耳の中心位置から垂直に下ろした前記リスナの首上
の位置を中心とした座標変換を行い、変換後の座標系に
おける前記仮想音源位置の位置情報を仮想音源位置の位
置情報として前記制御パラメータを算出することを特徴
とする請求項1記載の音像定位装置。
2. The electroacoustic conversion means is headphones attached to both ears of the listener, and the virtual sound source position control means is based on the rotation angle of the listener's head detected by the rotation angle detection means. By performing coordinate conversion centered on the position on the neck of the listener vertically lowered from the center position of both ears of the listener, the position information of the virtual sound source position in the coordinate system after conversion is the position of the virtual sound source position. The sound image localization apparatus according to claim 1, wherein the control parameter is calculated as information.
【請求項3】 前記電気音響変換手段は、前記音場空間
に固定的に設置されたスピーカであり、 前記仮想音源位置制御手段は、前記回転角検出手段で検
出されたリスナの頭の回転角度に基づいて、前記リスナ
の両耳の中心位置から垂直に下ろした前記リスナの首上
の位置を中心とした座標変換を行い、変換後の座標系に
おける前記仮想音源位置を修正された仮想音源位置とす
ると共に、前記リスナの両耳位置に対する前記スピーカ
の位置の変化に基づいて前記制御パラメータを修正する
ものであることを特徴とする請求項1記載の音像定位装
置。
3. The electroacoustic conversion means is a speaker fixedly installed in the sound field space, and the virtual sound source position control means is a rotation angle of a listener's head detected by the rotation angle detection means. Based on the above, coordinate conversion is performed centering on the position on the neck of the listener vertically lowered from the center position of both ears of the listener, and the virtual sound source position in which the virtual sound source position in the coordinate system after conversion is corrected. The sound image localization apparatus according to claim 1, wherein the control parameter is corrected based on a change in the position of the speaker with respect to the binaural positions of the listener.
JP6264641A 1994-10-04 1994-10-04 Sound image localization device Pending JPH08107600A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6264641A JPH08107600A (en) 1994-10-04 1994-10-04 Sound image localization device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6264641A JPH08107600A (en) 1994-10-04 1994-10-04 Sound image localization device

Publications (1)

Publication Number Publication Date
JPH08107600A true JPH08107600A (en) 1996-04-23

Family

ID=17406181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6264641A Pending JPH08107600A (en) 1994-10-04 1994-10-04 Sound image localization device

Country Status (1)

Country Link
JP (1) JPH08107600A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023600A (en) * 1996-07-01 1998-01-23 Yamaha Corp Sound image localization device
JPH11220797A (en) * 1998-02-03 1999-08-10 Sony Corp Headphone system
JPH11331995A (en) * 1998-05-08 1999-11-30 Alpine Electronics Inc Sound image controller
JP2001079264A (en) * 1999-09-14 2001-03-27 Atlus Co Ltd Game device
JP2003111197A (en) * 2001-09-28 2003-04-11 Sony Corp Voice signal processing method and voice reproducing system
JP2004147283A (en) * 2002-08-27 2004-05-20 Yamaha Corp Sound image localization device, sound image localization method, sound data distribution system, sound data distribution method and program
JP2005057545A (en) * 2003-08-05 2005-03-03 Matsushita Electric Ind Co Ltd Sound field controller and sound system
JP2010531605A (en) * 2007-06-26 2010-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Binaural object-oriented audio decoder
JP2011505106A (en) * 2007-11-28 2011-02-17 クゥアルコム・インコーポレイテッド Method and apparatus for providing separate perceived positions for a sound source within an audio mixture
US8515106B2 (en) 2007-11-28 2013-08-20 Qualcomm Incorporated Methods and apparatus for providing an interface to a processing engine that utilizes intelligent audio mixing techniques
WO2015162946A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Head region position detection device and head region position detection method, image processing device and image processing method, display device, and computer program
CN105929367A (en) * 2016-04-28 2016-09-07 乐视控股(北京)有限公司 Handle positioning method, device and system
JP2016527799A (en) * 2013-07-19 2016-09-08 モロー,チャールズ Acoustic signal processing method
CN106954127A (en) * 2017-04-07 2017-07-14 南京邮电大学 A kind of VR scenes subaudio frequency immersion control method
JP2019506058A (en) * 2016-01-19 2019-02-28 3ディ スペイス サウンド ソリューションズ リミテッド Signal synthesis for immersive audio playback
CN111108555A (en) * 2017-07-14 2020-05-05 弗劳恩霍夫应用研究促进协会 Concept for generating an enhanced or modified sound field description using depth extended DirAC techniques or other techniques
WO2021081035A1 (en) * 2019-10-22 2021-04-29 Google Llc Spatial audio for wearable devices
US11463834B2 (en) 2017-07-14 2022-10-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for generating an enhanced sound field description or a modified sound field description using a multi-point sound field description
US11503419B2 (en) 2018-07-18 2022-11-15 Sphereo Sound Ltd. Detection of audio panning and synthesis of 3D audio from limited-channel surround sound
US11863962B2 (en) 2017-07-14 2024-01-02 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for generating an enhanced sound-field description or a modified sound field description using a multi-layer description

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023600A (en) * 1996-07-01 1998-01-23 Yamaha Corp Sound image localization device
GB2339127B (en) * 1998-02-03 2003-04-09 Sony Corp Headphone apparatus
JPH11220797A (en) * 1998-02-03 1999-08-10 Sony Corp Headphone system
WO1999040756A1 (en) * 1998-02-03 1999-08-12 Sony Corporation Headphone apparatus
GB2339127A (en) * 1998-02-03 2000-01-12 Sony Corp Headphone apparatus
JPH11331995A (en) * 1998-05-08 1999-11-30 Alpine Electronics Inc Sound image controller
JP2001079264A (en) * 1999-09-14 2001-03-27 Atlus Co Ltd Game device
JP2003111197A (en) * 2001-09-28 2003-04-11 Sony Corp Voice signal processing method and voice reproducing system
JP2004147283A (en) * 2002-08-27 2004-05-20 Yamaha Corp Sound image localization device, sound image localization method, sound data distribution system, sound data distribution method and program
JP2005057545A (en) * 2003-08-05 2005-03-03 Matsushita Electric Ind Co Ltd Sound field controller and sound system
JP2010531605A (en) * 2007-06-26 2010-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Binaural object-oriented audio decoder
JP2011505106A (en) * 2007-11-28 2011-02-17 クゥアルコム・インコーポレイテッド Method and apparatus for providing separate perceived positions for a sound source within an audio mixture
US8515106B2 (en) 2007-11-28 2013-08-20 Qualcomm Incorporated Methods and apparatus for providing an interface to a processing engine that utilizes intelligent audio mixing techniques
US8660280B2 (en) 2007-11-28 2014-02-25 Qualcomm Incorporated Methods and apparatus for providing a distinct perceptual location for an audio source within an audio mixture
JP2016527799A (en) * 2013-07-19 2016-09-08 モロー,チャールズ Acoustic signal processing method
WO2015162946A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Head region position detection device and head region position detection method, image processing device and image processing method, display device, and computer program
JP2019506058A (en) * 2016-01-19 2019-02-28 3ディ スペイス サウンド ソリューションズ リミテッド Signal synthesis for immersive audio playback
CN105929367A (en) * 2016-04-28 2016-09-07 乐视控股(北京)有限公司 Handle positioning method, device and system
CN106954127A (en) * 2017-04-07 2017-07-14 南京邮电大学 A kind of VR scenes subaudio frequency immersion control method
CN111108555B (en) * 2017-07-14 2023-12-15 弗劳恩霍夫应用研究促进协会 Apparatus and methods for generating enhanced or modified sound field descriptions using depth-extended DirAC techniques or other techniques
CN111108555A (en) * 2017-07-14 2020-05-05 弗劳恩霍夫应用研究促进协会 Concept for generating an enhanced or modified sound field description using depth extended DirAC techniques or other techniques
JP2020527887A (en) * 2017-07-14 2020-09-10 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Concepts for generating extended or modified sound field descriptions using depth-enhanced DirAC technology or other technologies
US11950085B2 (en) 2017-07-14 2024-04-02 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for generating an enhanced sound field description or a modified sound field description using a multi-point sound field description
US11863962B2 (en) 2017-07-14 2024-01-02 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for generating an enhanced sound-field description or a modified sound field description using a multi-layer description
US11463834B2 (en) 2017-07-14 2022-10-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for generating an enhanced sound field description or a modified sound field description using a multi-point sound field description
US11477594B2 (en) 2017-07-14 2022-10-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for generating an enhanced sound-field description or a modified sound field description using a depth-extended DirAC technique or other techniques
US11503419B2 (en) 2018-07-18 2022-11-15 Sphereo Sound Ltd. Detection of audio panning and synthesis of 3D audio from limited-channel surround sound
CN114026527A (en) * 2019-10-22 2022-02-08 谷歌有限责任公司 Spatial audio for wearable devices
WO2021081035A1 (en) * 2019-10-22 2021-04-29 Google Llc Spatial audio for wearable devices

Similar Documents

Publication Publication Date Title
JPH08107600A (en) Sound image localization device
JP3266020B2 (en) Sound image localization method and apparatus
JP3528284B2 (en) 3D sound system
JP3385725B2 (en) Audio playback device with video
US9838825B2 (en) Audio signal processing device and method for reproducing a binaural signal
EP3188513B1 (en) Binaural headphone rendering with head tracking
AU699647B2 (en) Method and apparatus for efficient presentation of high-quality three-dimensional audio
JP3796776B2 (en) Video / audio playback device
US5386082A (en) Method of detecting localization of acoustic image and acoustic image localizing system
WO2013105413A1 (en) Sound field control device, sound field control method, program, sound field control system, and server
CA2295092C (en) System for producing an artificial sound environment
US6532291B1 (en) Head tracking with limited angle output
CN113170272B (en) Near-field audio rendering
CN118075651A (en) Emphasis for audio spatialization
JP2671329B2 (en) Audio player
EP0744881A2 (en) Headphone reproducing apparatus
JP3750198B2 (en) Sound image localization device
JP3573797B2 (en) Stereo audio playback device
CN113347530A (en) Panoramic audio processing method for panoramic camera
JPH08237790A (en) Headphone reproducing device
JPH08297157A (en) Position, direction, and movement detecting device and headphone reproducing device using it
JPH0444500A (en) Headphone system
JP3799619B2 (en) Sound equipment
WO2023106070A1 (en) Acoustic processing apparatus, acoustic processing method, and program
US20230403529A1 (en) Systems and methods for providing augmented audio

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040706