JP2007214815A - 頭外音像定位装置 - Google Patents
頭外音像定位装置 Download PDFInfo
- Publication number
- JP2007214815A JP2007214815A JP2006031651A JP2006031651A JP2007214815A JP 2007214815 A JP2007214815 A JP 2007214815A JP 2006031651 A JP2006031651 A JP 2006031651A JP 2006031651 A JP2006031651 A JP 2006031651A JP 2007214815 A JP2007214815 A JP 2007214815A
- Authority
- JP
- Japan
- Prior art keywords
- sound image
- sound source
- sound
- head
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Stereophonic System (AREA)
Abstract
【課題】汎用の伝達関数を用いながら不特定多数の受聴者に良好な定位感が得られるステレオヘッドホンの頭外音像定位装置を提供する。
【解決手段】受聴者8の正面中心線から左右対称な円弧上のステレオ実音源位置L、Rに仮想音源Siを設定し、仮想音源Siをステレオ実音源位置L、Rから左右対称な円弧上の移動音源位置A、B間を一定のスイッチング時間Tで往復運動させてスイング音像を提示し、音像を受聴者8の頭外に定位させる。
【選択図】図4
【解決手段】受聴者8の正面中心線から左右対称な円弧上のステレオ実音源位置L、Rに仮想音源Siを設定し、仮想音源Siをステレオ実音源位置L、Rから左右対称な円弧上の移動音源位置A、B間を一定のスイッチング時間Tで往復運動させてスイング音像を提示し、音像を受聴者8の頭外に定位させる。
【選択図】図4
Description
本発明は、ステレオヘッドホン受聴時に頭外に音源の方位を知覚できるようにする頭外音像定位技術に関する。
頭外音像定位は、ヘッドホン装着時の外耳道の音響伝播特性をデジタルフィルタで補正して受聴者に提示することにより、頭の外に開放感のある音像を再現するものである。
空間音響特性の付与は、図13に示すように、頭外音像定位伝達関数SLTF(Sound Localization Transfer Function)を音源信号S(ω)と複素乗算して行う。
図の添字L、Rはそれぞれ左耳、右耳のものであることを示している。
SLTFは、自由空間におけるスピーカ3から外耳道入口のマイクロホン2までの空間音響伝達関数SSTF(Spacial Sound Transfer Function)を求め、これをスピーカ3の伝達関数LSTF(Loud Speaker Transfer Function)で割ってスピーカ3の特性を補償したものをさらに受聴者8のヘッドホン4からマイクロホン2までの外耳道伝達関数ECTF(Ear Canal Transfer Function)で割って得られる。すなわちSLTF=SSTF/(LSTF・ECTF)となる。
このSLTFを音源信号S(ω)と複素乗算し、ヘッドホン4を介して受聴者8に提示することにより、頭外音像定位が実現する。
空間音響特性の付与は、図13に示すように、頭外音像定位伝達関数SLTF(Sound Localization Transfer Function)を音源信号S(ω)と複素乗算して行う。
図の添字L、Rはそれぞれ左耳、右耳のものであることを示している。
SLTFは、自由空間におけるスピーカ3から外耳道入口のマイクロホン2までの空間音響伝達関数SSTF(Spacial Sound Transfer Function)を求め、これをスピーカ3の伝達関数LSTF(Loud Speaker Transfer Function)で割ってスピーカ3の特性を補償したものをさらに受聴者8のヘッドホン4からマイクロホン2までの外耳道伝達関数ECTF(Ear Canal Transfer Function)で割って得られる。すなわちSLTF=SSTF/(LSTF・ECTF)となる。
このSLTFを音源信号S(ω)と複素乗算し、ヘッドホン4を介して受聴者8に提示することにより、頭外音像定位が実現する。
しかしながら、受聴者が音源位置を知覚するのに必要な両耳間の到達時間差、レベル差、周波数特性などの両耳特性や単耳特性は、頭部、胴体、耳介などの微妙な違いで変化することが知られている。
そのため人間の頭部、胴体、耳介には個人差があり、ダミーヘッドを用いて測定した汎用の伝達関数では本来は前方に知覚されるべき音像が後方に知覚される、いわゆる前後誤判定が生じ、音像定位は不正確になるか、もしくは最悪の場合、音像は頭の中に定位してしまう。
そのため人間の頭部、胴体、耳介には個人差があり、ダミーヘッドを用いて測定した汎用の伝達関数では本来は前方に知覚されるべき音像が後方に知覚される、いわゆる前後誤判定が生じ、音像定位は不正確になるか、もしくは最悪の場合、音像は頭の中に定位してしまう。
解決しようとする問題点は以上のような点であり、本発明は、汎用の伝達関数を用いながら不特定多数の受聴者に良好な定位感が得られるステレオヘッドホンの頭外音像定位装置を提供することを目的になされたものである。
そのため本発明は、方位角±Φを有する前方の2チャネルステレオ実音源位置L、Rの左右に角度差θ(スイング角度)を有する移動音源位置A、Bを設定して両耳の受聴点までの経路の伝達関数Ha(ω)、Hb(ω)を移動音源位置毎に求め、ステレオヘッドホンの各チャネルの音源信号s(t)に対し、フレームの前後がオーバラップする波形切り出し関数w1(t)を掛けて逐次フレームを切り出し、音源信号s(t)を複数のフレーム信号sn(t)に分割する切り出し手段と、フレーム信号sn(t)に対し、交互に伝達関数Ha(ω)、Hb(ω)を畳み込んで移動音源位置A、Bの位置情報を含んだフレーム信号sa(t)、sb(t)を生成する畳み込み手段と、フレーム信号sa(t)、sb(t)に対し、波形合成関数w2を掛けて得られるフレーム信号sa´(t)、sb´(t)を交互にオーバラップ加算して、波形の不連続を平滑化するとともに、ステレオ実音源位置L、Rに設置した音源が移動音源位置A、B間を一定の周期T(スイッチング時間)で往復運動する移動情報を含んだ合成信号s´(t)を生成する加算手段とを備え、これより受聴者の両耳に音像提示角度φ、スイング角度θ、スイッチング時間Tなるスイング音像を提示して音像を頭外に定位させることを最も主要な特徴とする。
本発明は、人間を含む動物は一般的に移動音源の知覚に対して敏感であるという性質を利用して、ステレオヘッドホンの各チャネルの音源信号s(t)に移動音源位置A、Bの伝達関数Ha(ω)、Hb(ω)を交互に畳み込んで音像を移動するので、汎用の伝達関数を用いた高精度な頭外音像定位を実現できる。
また、オーバラップ区間の波形を合成してオーバラップ加算時の波形の不連続を平滑化するので、伝達関数を切り替える際に生じる振幅変動による違和感をなくし、より自然な信号波形の音像を提示できる。
また、オーバラップ区間の波形を合成してオーバラップ加算時の波形の不連続を平滑化するので、伝達関数を切り替える際に生じる振幅変動による違和感をなくし、より自然な信号波形の音像を提示できる。
以下、本発明の実施の形態について説明する。
図1に、本発明を実施した頭外音像定位装置の構成図を示す。
図には、図を複雑にしないためステレオヘッドホンシステムの片方のチャネル系列のみを示している。
頭外音像定位装置は、パソコン1の入力側に測定系のマイクロホン2を接続し、出力側に測定系のスピーカ3と再生系のヘッドホン4をスイッチ5により切換え可能に接続する。
マイクロホン2は、A/D変換器21、アンチエリアシングフィルタとしてのローパスフィルタ22、アンプ23を介してパソコン1に接続する。
スピーカ3は、セレクタ31、アンプ32を介してスイッチ5に接続する。
ヘッドホン4は、アンプ41を介してスイッチ5に接続する。
スイッチ5は、D/A変換器51、スムージングフィルタとしてのローパスフィルタ52を介してパソコン1に接続する。
図には、図を複雑にしないためステレオヘッドホンシステムの片方のチャネル系列のみを示している。
頭外音像定位装置は、パソコン1の入力側に測定系のマイクロホン2を接続し、出力側に測定系のスピーカ3と再生系のヘッドホン4をスイッチ5により切換え可能に接続する。
マイクロホン2は、A/D変換器21、アンチエリアシングフィルタとしてのローパスフィルタ22、アンプ23を介してパソコン1に接続する。
スピーカ3は、セレクタ31、アンプ32を介してスイッチ5に接続する。
ヘッドホン4は、アンプ41を介してスイッチ5に接続する。
スイッチ5は、D/A変換器51、スムージングフィルタとしてのローパスフィルタ52を介してパソコン1に接続する。
測定は測定室6内に人間の頭部、胴体、耳介形状を模したダミーヘッド7を設置して行い、ダミーヘッド7の両耳の外耳道入口部分にマイクロホン2をセットし、ダミーヘッド7を中心にした前方の円弧上に等しい角度間隔でスピーカ3を配置する。
そしてセレクタ31を切換えて測定音を出力するスピーカ3の位置を移動し、スピーカ3の測定音をダミーヘッド7の耳に挿入したマイクロホン2で収音して所定の測定角度間隔で順番にインパルス応答を測定する。
測定角度間隔を実際のスピーカ3の配置間隔より狭い、例えば1度間隔にする場合は、到来時間差を考慮した線形補間法を用いてインパルス応答を計算で求める。
スピーカ3は、円形の枠に等しい角度間隔で取り付けてもよい。
その場合、枠を水平方向に回転して測定角度間隔を実際のスピーカ3の配置間隔より狭い、例えば1度間隔にすることもできる。
そしてセレクタ31を切換えて測定音を出力するスピーカ3の位置を移動し、スピーカ3の測定音をダミーヘッド7の耳に挿入したマイクロホン2で収音して所定の測定角度間隔で順番にインパルス応答を測定する。
測定角度間隔を実際のスピーカ3の配置間隔より狭い、例えば1度間隔にする場合は、到来時間差を考慮した線形補間法を用いてインパルス応答を計算で求める。
スピーカ3は、円形の枠に等しい角度間隔で取り付けてもよい。
その場合、枠を水平方向に回転して測定角度間隔を実際のスピーカ3の配置間隔より狭い、例えば1度間隔にすることもできる。
測定はダミーヘッド7の両耳について行い、図2に示すように、左側のスピーカ3Lと左耳との間のインパルス応答h1L(t)、左側のスピーカ3Lと右耳との間のインパルス応答h2L(t)、右側のスピーカ3Rと右耳との間のインパルス応答h1R(t)、右側のスピーカ3Rと左耳との間のインパルス応答h2R(t)をそれぞれ測定する。
図3に、パソコン1内で処理する測定系のブロック図を示す。
測定系は、信号発生部11、インパルス応答計算部12、メモリ保存部13で構成し、測定室6内におけるスピーカ3とマイクロホン2の間のインパルス応答を測定して音源から受聴点までの経路の伝達関数を求める。
測定系は、信号発生部11、インパルス応答計算部12、メモリ保存部13で構成し、測定室6内におけるスピーカ3とマイクロホン2の間のインパルス応答を測定して音源から受聴点までの経路の伝達関数を求める。
信号発生部11は、M系列信号(Maximum Length Sequence)や時間伸張パルス(Time Stretched Pulse)などのインパルス応答測定用の入力信号x(t)を生成し、スピーカ3に出力する。
入力信号x(t)はスピーカ3により音として出力され、ダミーヘッド7の耳に挿入したマイクロホン2により収音される。
マイクロホン2で収音した音はデジタル信号に変換され、インパルス応答がh(t)の線形システムにx(t)を入力したときの出力信号y(t)として入力信号x(t)と共にインパルス応答計算部12に入力される。
インパルス応答計算部12は、入力信号x(t)のフーリエ変換X(ω)と出力信号y(t)のフーリエ変換Y(ω)からインパルス応答h(t)のフーリエ変換である伝達関数H(ω)=Y(ω)/X(ω)を算出する。
測定はスピーカ3の位置を移動して行い、異なる音源位置のインパルス応答h(t)を所定の測定角度間隔で順番に取得し、それより異なる音源位置の伝達関数H(ω)を順番に算出する。
メモリ保存部13は、インパルス応答計算部12が算出した異なる音源位置の伝達関数H(ω)を順番にメモリに保存する。
入力信号x(t)はスピーカ3により音として出力され、ダミーヘッド7の耳に挿入したマイクロホン2により収音される。
マイクロホン2で収音した音はデジタル信号に変換され、インパルス応答がh(t)の線形システムにx(t)を入力したときの出力信号y(t)として入力信号x(t)と共にインパルス応答計算部12に入力される。
インパルス応答計算部12は、入力信号x(t)のフーリエ変換X(ω)と出力信号y(t)のフーリエ変換Y(ω)からインパルス応答h(t)のフーリエ変換である伝達関数H(ω)=Y(ω)/X(ω)を算出する。
測定はスピーカ3の位置を移動して行い、異なる音源位置のインパルス応答h(t)を所定の測定角度間隔で順番に取得し、それより異なる音源位置の伝達関数H(ω)を順番に算出する。
メモリ保存部13は、インパルス応答計算部12が算出した異なる音源位置の伝達関数H(ω)を順番にメモリに保存する。
図2と図4に示すように、音源信号SL(t)と実音源3Lの位置から受聴者の両耳までの伝達関数のインパルス応答h1L(t)、h2L(t)を畳み込んだ信号と、音源信号SR(t)と実音源3Rの位置から受聴者の両耳までの伝達関数のインパルス応答h1R(t)、h2R(t)を畳み込んだ信号を両耳毎にそれぞれ加算することによって得られる2チャネルの仮想音源SiL(t)とSiR(t)を、ヘッドホン4を用いて提示することで、受聴者は合成されたステレオ音像Si(t)を知覚する。
このとき、音源信号SL(t)とSR(t)にレベル差と時間差を付加することで、合成されたステレオ音像の提示角度φを制御できる。
音像スイング法は、図4に示すように、仮想音源SiL(t)とSiR(t)をスイング角度θだけ変位した位置A、B間で一定のスイッチング時間Tで往復運動させることで、合成されたステレオ音像Si(t)を左右方向に変位させることにより、受聴者8の頭外に定位させるものである。
図4において、円弧ABの中心角θをスイング角度とし、3〜10度の範囲に設定する。
また、受聴者8の頭部中心からステレオ実音源位置L、Rまでの距離?を約1.5m、スイッチング時間Tを200m秒以上に設定する。
音像提示角度φは、各チャネルの音源信号s(t)に時間差とレベル差を付加することにより設定する。
このとき、音源信号SL(t)とSR(t)にレベル差と時間差を付加することで、合成されたステレオ音像の提示角度φを制御できる。
音像スイング法は、図4に示すように、仮想音源SiL(t)とSiR(t)をスイング角度θだけ変位した位置A、B間で一定のスイッチング時間Tで往復運動させることで、合成されたステレオ音像Si(t)を左右方向に変位させることにより、受聴者8の頭外に定位させるものである。
図4において、円弧ABの中心角θをスイング角度とし、3〜10度の範囲に設定する。
また、受聴者8の頭部中心からステレオ実音源位置L、Rまでの距離?を約1.5m、スイッチング時間Tを200m秒以上に設定する。
音像提示角度φは、各チャネルの音源信号s(t)に時間差とレベル差を付加することにより設定する。
スイング音像の提示方法には、図5に示すように、ステレオ実音源位置L、Rに設定した仮想音源SiL(t)、SiR(t)を逆方向に移動音源位置A、B間を往復させるコンパンド法と、図6に示すように、仮想音源SiL(t)、SiR(t)を同方向に移動音源位置A、B間を往復させるツイスト法がある。
コンパンド法は、左右のステレオ実音源位置L、Rに設定した仮想音源SiL(t)、SiR(t)が提示する音像の位置を左右に伸縮して受聴者8の前方の頭外に音像を定位させる。
ツイスト法は、左右のステレオ実音源位置L、Rに設定した仮想音源SiL(t)、SiR(t)が提示する音像の位置を左右に揺動して受聴者8の前方の頭外に音像を定位させる。
コンパンド法は、左右のステレオ実音源位置L、Rに設定した仮想音源SiL(t)、SiR(t)が提示する音像の位置を左右に伸縮して受聴者8の前方の頭外に音像を定位させる。
ツイスト法は、左右のステレオ実音源位置L、Rに設定した仮想音源SiL(t)、SiR(t)が提示する音像の位置を左右に揺動して受聴者8の前方の頭外に音像を定位させる。
図7に、パソコン1内で処理する再生系のブロック図を示す。
再生系は、第1音像生成部14、第2音像生成部15、第3音像生成部16、第4音像生成部17、第1音像合成部18、第2音像合成部19で構成し、左右のステレオ信号を入力して両耳のスイング音像を生成し、ヘッドホン4の左右のチャネルに出力する。
スイング音像は、左右のチャネルに対しメモリ保存部13に保存した異なる音源位置の伝達関数H(ω)の中から移動音源位置A、Bの伝達関数Ha(ω)、Hb(ω)を抽出し、それを交互に音源信号と複素乗算して得られる。
再生系は、第1音像生成部14、第2音像生成部15、第3音像生成部16、第4音像生成部17、第1音像合成部18、第2音像合成部19で構成し、左右のステレオ信号を入力して両耳のスイング音像を生成し、ヘッドホン4の左右のチャネルに出力する。
スイング音像は、左右のチャネルに対しメモリ保存部13に保存した異なる音源位置の伝達関数H(ω)の中から移動音源位置A、Bの伝達関数Ha(ω)、Hb(ω)を抽出し、それを交互に音源信号と複素乗算して得られる。
第1音像生成部14は、左側のステレオ信号とインパルス応答h1L(t)を畳み込み乗算して左耳用のスイング音像s1L(t)を生成する。
第2音像生成部15は、左側のステレオ信号とインパルス応答h2L(t)を畳み込み乗算して右耳用のスイング音像s2L(t)を生成する。
第3音像生成部16は、右側のステレオ信号とインパルス応答h2R(t)を畳み込み乗算して左耳用のスイング音像s2R(t)を生成する。
第4音像生成部17は、右側のステレオ信号とインパルス応答h1R(t)を畳み込み乗算して右耳用のスイング音像s1R(t)を生成する。
第1音像合成部18は、スイング音像s1L(t)、s2R(t)を加算してヘッドホン4の左チャネル出力信号を生成する。
第2音像合成部19は、スイング音像s1R(t)、s2L(t)を加算してヘッドホン4の右チャネル出力信号を生成する。
第2音像生成部15は、左側のステレオ信号とインパルス応答h2L(t)を畳み込み乗算して右耳用のスイング音像s2L(t)を生成する。
第3音像生成部16は、右側のステレオ信号とインパルス応答h2R(t)を畳み込み乗算して左耳用のスイング音像s2R(t)を生成する。
第4音像生成部17は、右側のステレオ信号とインパルス応答h1R(t)を畳み込み乗算して右耳用のスイング音像s1R(t)を生成する。
第1音像合成部18は、スイング音像s1L(t)、s2R(t)を加算してヘッドホン4の左チャネル出力信号を生成する。
第2音像合成部19は、スイング音像s1R(t)、s2L(t)を加算してヘッドホン4の右チャネル出力信号を生成する。
図8に、音像生成部の処理フローを示す。
まず、音源信号s(t)にフレーム間で前後がオーバラップする波形切り出し関数w1(t)を掛けて逐次フレームを切り出し、音源信号s(t)を複数のフレーム信号sn(t)=s(t)・w1(t)に分割する(ステップ101)。
これにより音源信号の長さをインパルス応答と同程度の長さに分割し、畳み込み演算の処理効率を高める。
次に、高速フーリエ変換(FFT)によりフレーム信号sn(t)のフーリエ変換Sn(ω)=F{sn(t)}を求める(ステップ102)。
次に、周波数領域のフレーム信号Sn(ω)と移動音源位置A、Bの伝達関数Ha(ω)、Hb(ω)を交互に複素乗算してA位置フレーム信号Sa(ω)=Sn(ω)・Ha(ω)とB位置フレーム信号Sb(ω)=Sn(ω)・Hb(ω)を生成する(ステップ103)。
これにより異なる音源位置A、Bで測定・算出された伝達関数が畳み込まれ、フレーム信号は空間の位置情報を含んだ音源信号となる。
まず、音源信号s(t)にフレーム間で前後がオーバラップする波形切り出し関数w1(t)を掛けて逐次フレームを切り出し、音源信号s(t)を複数のフレーム信号sn(t)=s(t)・w1(t)に分割する(ステップ101)。
これにより音源信号の長さをインパルス応答と同程度の長さに分割し、畳み込み演算の処理効率を高める。
次に、高速フーリエ変換(FFT)によりフレーム信号sn(t)のフーリエ変換Sn(ω)=F{sn(t)}を求める(ステップ102)。
次に、周波数領域のフレーム信号Sn(ω)と移動音源位置A、Bの伝達関数Ha(ω)、Hb(ω)を交互に複素乗算してA位置フレーム信号Sa(ω)=Sn(ω)・Ha(ω)とB位置フレーム信号Sb(ω)=Sn(ω)・Hb(ω)を生成する(ステップ103)。
これにより異なる音源位置A、Bで測定・算出された伝達関数が畳み込まれ、フレーム信号は空間の位置情報を含んだ音源信号となる。
コンパンド法の場合、ステレオの各チャネルのフレーム信号Sn(ω)に対し、複素乗算する伝達関数Ha(ω)、Hb(ω)の順序を左右逆にする。
ツイスト法の場合、ステレオの各チャネルのフレーム信号Sn(ω)に対し、複素乗算する伝達関数Ha(ω)、Hb(ω)の順序を左右同じにする。
ツイスト法の場合、ステレオの各チャネルのフレーム信号Sn(ω)に対し、複素乗算する伝達関数Ha(ω)、Hb(ω)の順序を左右同じにする。
次に、逆高速フーリエ変換(IFFT)によりA位置フレーム信号Sa(ω)とB位置フレーム信号Sb(ω)の逆フーリエ変換sa(t)=F-1{Sa(ω)}、sb(t)=F-1{Sb(ω)}を求め、音源信号を時間領域に戻す(ステップ104)。
次に、A位置フレーム信号sa(t)とB位置フレーム信号sb(t)に波形合成関数w2(t)を掛けてフレームの前後の波形を合成し、波形合成A位置フレーム信号sa´(t)=sa(t)・w2(t)と波形合成B位置フレーム信号sb´(t)=sb(t)・w2(t)を生成する。これによりオーバラップ区間の振幅を調整し、オーバラップ加算時の振幅変動を抑えてフレームのつなぎを滑らかにする。次に、波形合成A位置フレーム信号sa´(t)と波形合成B位置フレーム信号sb´(t)を交互にオーバラップ加算して結合し、合成信号s´(t)=sa´(t1)+sb´(t2)+・・・を生成する(ステップ105)。
これにより異なる音源位置A、Bの位置情報を含んだフレーム信号が交互に接続され、合成信号は空間の移動情報を含んだ音源信号となる。
次に、A位置フレーム信号sa(t)とB位置フレーム信号sb(t)に波形合成関数w2(t)を掛けてフレームの前後の波形を合成し、波形合成A位置フレーム信号sa´(t)=sa(t)・w2(t)と波形合成B位置フレーム信号sb´(t)=sb(t)・w2(t)を生成する。これによりオーバラップ区間の振幅を調整し、オーバラップ加算時の振幅変動を抑えてフレームのつなぎを滑らかにする。次に、波形合成A位置フレーム信号sa´(t)と波形合成B位置フレーム信号sb´(t)を交互にオーバラップ加算して結合し、合成信号s´(t)=sa´(t1)+sb´(t2)+・・・を生成する(ステップ105)。
これにより異なる音源位置A、Bの位置情報を含んだフレーム信号が交互に接続され、合成信号は空間の移動情報を含んだ音源信号となる。
波形切り出し関数w1(t)と波形合成関数w2(t)は、フェードイン/フェードアウト関数を用いる場合とモディファイド・ハミング窓を用いる場合がある。
切り出し区間Lとフレームシフト量Mの間に、L=(4・M)の倍数という関係が成り立つならば、モディファイド・ハミング窓を用いて、波形の切り出し・合成を行うことで、滑らかに波形を合成することができる。モディファイド・ハミング窓は、オーバラップ区間のパワー和が一定になるように一方の振幅と他方の振幅を両方同時に小さくして信号波形を平滑化し、音像が滑らかに移動するようにする。
また、フェードイン/フェードアウト関数を用いることでも、滑らかに波形の合成を行うことができる。フェードイン/フェードアウト関数は、図9に示すように、フレーム信号をaからbに切り替えるとき、もしくはbからaに切り替えるとき、信号a、bのオーバラップ区間をクロスフェード領域とし、クロスフェード領域においてフェードアウトする信号aには直線状に傾斜して下降するフェードアウト関数wa(t)を乗算し、フェードインする信号bには直線状に傾斜して上昇するフェードイン関数wb(t)を乗算する。
これによりオーバラップ区間のパワー和が一定になるように一方の振幅を単調減少、他方の振幅を単調増加させて信号波形を平滑化し、音像が滑らかに移動するようにする。
切り出し区間Lとフレームシフト量Mの間に、L=(4・M)の倍数という関係が成り立つならば、モディファイド・ハミング窓を用いて、波形の切り出し・合成を行うことで、滑らかに波形を合成することができる。モディファイド・ハミング窓は、オーバラップ区間のパワー和が一定になるように一方の振幅と他方の振幅を両方同時に小さくして信号波形を平滑化し、音像が滑らかに移動するようにする。
また、フェードイン/フェードアウト関数を用いることでも、滑らかに波形の合成を行うことができる。フェードイン/フェードアウト関数は、図9に示すように、フレーム信号をaからbに切り替えるとき、もしくはbからaに切り替えるとき、信号a、bのオーバラップ区間をクロスフェード領域とし、クロスフェード領域においてフェードアウトする信号aには直線状に傾斜して下降するフェードアウト関数wa(t)を乗算し、フェードインする信号bには直線状に傾斜して上昇するフェードイン関数wb(t)を乗算する。
これによりオーバラップ区間のパワー和が一定になるように一方の振幅を単調減少、他方の振幅を単調増加させて信号波形を平滑化し、音像が滑らかに移動するようにする。
以下、本発明の実施例(評価結果)について説明する。
図10に、音像提示角度φと前後誤判定率の関係を示す。
図10は、汎用の伝達関数を用いると定位精度が悪化する被験者に対し、本発明の頭外音像定位装置を適用した場合の評価結果を示し、左右0度から20度の音像提示角度φを横軸に、音像定位知覚の前後誤判定率を縦軸に配置している。
これより音像提示角度が0度の場合、従前の技術では前後誤判定率が60%であったものが本発明のコンパンド法とツイスト法では10〜30%に減少していることが分かる。
また、音像提示角度が10度の場合、従前の技術では前後誤判定率が25%であったものが本発明のコンパンド法とツイスト法では10〜20%に減少している。
このときの値は、後述のスイッチング時間T、スイング角度θ、伝達関数に合致しない被験者のすべての平均値で表している。
以上により、音像提示角度が0度における前後誤判定率が最も悪く、音像提示角度が正面を離れるほど、前後誤判定率が低下することが分かる。これは理論的・実験的にも正面方向の定位精度が悪いことを実証している。
以下、正面定位に議論を絞って最適なスイング角度θ、スイッチング時間Tを求める。
図10に、音像提示角度φと前後誤判定率の関係を示す。
図10は、汎用の伝達関数を用いると定位精度が悪化する被験者に対し、本発明の頭外音像定位装置を適用した場合の評価結果を示し、左右0度から20度の音像提示角度φを横軸に、音像定位知覚の前後誤判定率を縦軸に配置している。
これより音像提示角度が0度の場合、従前の技術では前後誤判定率が60%であったものが本発明のコンパンド法とツイスト法では10〜30%に減少していることが分かる。
また、音像提示角度が10度の場合、従前の技術では前後誤判定率が25%であったものが本発明のコンパンド法とツイスト法では10〜20%に減少している。
このときの値は、後述のスイッチング時間T、スイング角度θ、伝達関数に合致しない被験者のすべての平均値で表している。
以上により、音像提示角度が0度における前後誤判定率が最も悪く、音像提示角度が正面を離れるほど、前後誤判定率が低下することが分かる。これは理論的・実験的にも正面方向の定位精度が悪いことを実証している。
以下、正面定位に議論を絞って最適なスイング角度θ、スイッチング時間Tを求める。
図11に、スイング角度θと前後誤判定率の関係を示す。
図11は、汎用の伝達関数に合致しない被験者(Aグループ)とほぼ合致する被験者(Bグループ)に対し、本発明の頭外音像定位装置を適用した場合のツイスト法の評価結果を示し、音像提示角度φが0度でスイッチング時間Tを200m秒〜1秒までとし、スイング角度θを横軸に、音像定位知覚の前後誤判定率を縦軸に配置している。
これよりスイング角度θが最適な値の範囲は3〜10度であることが分かる。
なお、コンパンド法については記述を省略するが、ツイスト法と同様な評価結果を得ている。
図11は、汎用の伝達関数に合致しない被験者(Aグループ)とほぼ合致する被験者(Bグループ)に対し、本発明の頭外音像定位装置を適用した場合のツイスト法の評価結果を示し、音像提示角度φが0度でスイッチング時間Tを200m秒〜1秒までとし、スイング角度θを横軸に、音像定位知覚の前後誤判定率を縦軸に配置している。
これよりスイング角度θが最適な値の範囲は3〜10度であることが分かる。
なお、コンパンド法については記述を省略するが、ツイスト法と同様な評価結果を得ている。
図12に、スイッチング時間Tと前後誤判定率の関係を示す。
図12は、汎用の伝達関数に合致しない被験者(Aグループ)とほぼ合致する被験者(Bグループ)に対し、本発明の頭外音像定位装置を適用した場合のツイスト法の評価結果を示し、音像提示角度φが0度でスイング角度θを4度、8度とし、スイッチング時間Tを横軸に、音像定位知覚の前後誤判定率を縦軸に配置している。
これよりスイッチング時間Tが最適な値の範囲は200m秒以上であることが分かる。
同様に、コンパンド法については記述を省略するが、ツイスト法と同様な評価結果を得ている。
図12は、汎用の伝達関数に合致しない被験者(Aグループ)とほぼ合致する被験者(Bグループ)に対し、本発明の頭外音像定位装置を適用した場合のツイスト法の評価結果を示し、音像提示角度φが0度でスイング角度θを4度、8度とし、スイッチング時間Tを横軸に、音像定位知覚の前後誤判定率を縦軸に配置している。
これよりスイッチング時間Tが最適な値の範囲は200m秒以上であることが分かる。
同様に、コンパンド法については記述を省略するが、ツイスト法と同様な評価結果を得ている。
1 パソコン
11 信号発生部
12 インパルス応答計算部
13 メモリ保存部
14 第1音像生成部
15 第2音像生成部
16 第3音像生成部
17 第4音像生成部
18 第1音像合成部
19 第2音像合成部
2 マイクロホン
21 A/D変換器
22 ローパスフィルタ
23 アンプ
3 スピーカ
31 セレクタ
32 アンプ
4 ヘッドホン
41 アンプ
5 スイッチ
51 D/A変換器
52 ローパスフィルタ
6 測定室
7 ダミーヘッド
8 受聴者
11 信号発生部
12 インパルス応答計算部
13 メモリ保存部
14 第1音像生成部
15 第2音像生成部
16 第3音像生成部
17 第4音像生成部
18 第1音像合成部
19 第2音像合成部
2 マイクロホン
21 A/D変換器
22 ローパスフィルタ
23 アンプ
3 スピーカ
31 セレクタ
32 アンプ
4 ヘッドホン
41 アンプ
5 スイッチ
51 D/A変換器
52 ローパスフィルタ
6 測定室
7 ダミーヘッド
8 受聴者
Claims (6)
- 方位角±Φを有する前方の2チャネルステレオ実音源位置L、Rの左右に角度差θ(スイング角度)を有する移動音源位置A、Bを設定して両耳の受聴点までの経路の伝達関数Ha(ω)、Hb(ω)を移動音源位置毎に求め、ステレオヘッドホンの各チャネルの音源信号s(t)に対し、
フレームの前後がオーバラップする波形切り出し関数w1(t)を掛けて逐次フレームを切り出し、音源信号s(t)を複数のフレーム信号sn(t)に分割する切り出し手段と、
フレーム信号sn(t)に対し、交互に伝達関数Ha(ω)、Hb(ω)を畳み込んで移動音源位置A、Bの位置情報を含んだフレーム信号sa(t)、sb(t)を生成する畳み込み手段と、
フレーム信号sa(t)、sb(t)に対し、波形合成関数w2を掛けて得られるフレーム信号sa´(t)、sb´(t)を交互にオーバラップ加算して、波形の不連続を平滑化するとともに、ステレオ実音源位置L、Rに設置した音源が移動音源位置A、B間を一定の周期T(スイッチング時間)で往復運動する移動情報を含んだ合成信号s´(t)を生成する加算手段と、
を備え、
これより受聴者の両耳に音像提示角度φ、スイング角度θ、スイッチング時間Tなるスイング音像を提示して音像を頭外に定位させることを特徴とする頭外音像定位装置。 - 前記フレーム信号sn(t)に対し、畳み込む伝達関数Ha(ω)、Hb(ω)の順序を左右のチャネルで逆にしてスイング音像を左右に伸縮させることを特徴とする請求項1記載の頭外音像定位装置。
- 前記フレーム信号sn(t)に対し、畳み込む伝達関数Ha(ω)、Hb(ω)の順序を左右のチャネルで同じにしてスイング音像を左右に揺動させることを特徴とする請求項1記載の頭外音像定位装置。
- 前記波形切り出し関数w1(t)と波形合成関数w2(t)がそれぞれフェードイン/フェードアウト関数またはモディファイド・ハミング窓のいずれかであることを特徴とする請求項1記載の頭外音像定位装置。
- 前記スイング角度θが3〜10度であることを特徴とする請求項1記載の頭外音像定位装置。
- 前記スイッチング時間Tが200m秒以上であることを特徴とする請求項1記載の頭外音像定位装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006031651A JP4691662B2 (ja) | 2006-02-08 | 2006-02-08 | 頭外音像定位装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006031651A JP4691662B2 (ja) | 2006-02-08 | 2006-02-08 | 頭外音像定位装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007214815A true JP2007214815A (ja) | 2007-08-23 |
JP4691662B2 JP4691662B2 (ja) | 2011-06-01 |
Family
ID=38492872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006031651A Active JP4691662B2 (ja) | 2006-02-08 | 2006-02-08 | 頭外音像定位装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4691662B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009212944A (ja) * | 2008-03-05 | 2009-09-17 | Yamaha Corp | 音響装置 |
WO2013183392A1 (ja) * | 2012-06-06 | 2013-12-12 | ソニー株式会社 | 音声信号処理装置、音声信号処理方法およびコンピュータプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07123498A (ja) * | 1993-08-31 | 1995-05-12 | Victor Co Of Japan Ltd | ヘッドホン再生システム |
JPH0965498A (ja) * | 1995-08-29 | 1997-03-07 | Matsushita Electric Ind Co Ltd | 頭外音像定位ヘッドホン受聴装置および受聴方法 |
JPH11127500A (ja) * | 1997-10-23 | 1999-05-11 | Fuji Xerox Co Ltd | バイノーラル再生装置、バイノーラル再生用ヘッドホンおよび音源評価方法 |
-
2006
- 2006-02-08 JP JP2006031651A patent/JP4691662B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07123498A (ja) * | 1993-08-31 | 1995-05-12 | Victor Co Of Japan Ltd | ヘッドホン再生システム |
JPH0965498A (ja) * | 1995-08-29 | 1997-03-07 | Matsushita Electric Ind Co Ltd | 頭外音像定位ヘッドホン受聴装置および受聴方法 |
JPH11127500A (ja) * | 1997-10-23 | 1999-05-11 | Fuji Xerox Co Ltd | バイノーラル再生装置、バイノーラル再生用ヘッドホンおよび音源評価方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009212944A (ja) * | 2008-03-05 | 2009-09-17 | Yamaha Corp | 音響装置 |
WO2013183392A1 (ja) * | 2012-06-06 | 2013-12-12 | ソニー株式会社 | 音声信号処理装置、音声信号処理方法およびコンピュータプログラム |
CN104335605A (zh) * | 2012-06-06 | 2015-02-04 | 索尼公司 | 音频信号处理装置、音频信号处理方法和计算机程序 |
JPWO2013183392A1 (ja) * | 2012-06-06 | 2016-01-28 | ソニー株式会社 | 音声信号処理装置、音声信号処理方法およびコンピュータプログラム |
US9706326B2 (en) | 2012-06-06 | 2017-07-11 | Sony Corporation | Audio signal processing device, audio signal processing method, and computer program |
CN104335605B (zh) * | 2012-06-06 | 2017-10-03 | 索尼公司 | 音频信号处理装置、音频信号处理方法和计算机程序 |
Also Published As
Publication number | Publication date |
---|---|
JP4691662B2 (ja) | 2011-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107018460B (zh) | 具有头部跟踪的双耳头戴式耳机呈现 | |
JP4914124B2 (ja) | 音像制御装置及び音像制御方法 | |
US8520857B2 (en) | Head-related transfer function measurement method, head-related transfer function convolution method, and head-related transfer function convolution device | |
KR100608024B1 (ko) | 다중 채널 오디오 입력 신호를 2채널 출력으로 재생하기위한 장치 및 방법과 이를 수행하기 위한 프로그램이기록된 기록매체 | |
EP2206365B1 (en) | Method and device for improved sound field rendering accuracy within a preferred listening area | |
KR101567461B1 (ko) | 다채널 사운드 신호 생성 장치 | |
US8873761B2 (en) | Audio signal processing device and audio signal processing method | |
JP5769967B2 (ja) | ヘッドホン再生に関する方法、ヘッドホン再生システム、コンピュータプログラム | |
JP5986426B2 (ja) | 音響処理装置、音響処理方法 | |
US20130089209A1 (en) | Audio-signal processing device, audio-signal processing method, program, and recording medium | |
JP2009171144A (ja) | 信号処理装置、信号処理方法、プログラム | |
US20200059750A1 (en) | Sound spatialization method | |
JP2671329B2 (ja) | オーディオ再生装置 | |
JP4691662B2 (ja) | 頭外音像定位装置 | |
JP2004128854A (ja) | 音響再生装置 | |
JP5651813B1 (ja) | 音声信号処理装置、および音声信号処理方法 | |
JP6512767B2 (ja) | 音響処理装置および方法、並びにプログラム | |
JP3174965U (ja) | 骨伝導3dヘッドホン | |
US20230403528A1 (en) | A method and system for real-time implementation of time-varying head-related transfer functions | |
JP2007028198A (ja) | 音響装置 | |
JP2002345096A (ja) | 拡散音場再現装置 | |
JPH1051898A (ja) | 立体音再生装置 | |
JP2003078999A (ja) | 3次元移動音生成方法とその装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |