JP7384162B2 - 信号処理装置、信号処理方法、およびプログラム - Google Patents

信号処理装置、信号処理方法、およびプログラム Download PDF

Info

Publication number
JP7384162B2
JP7384162B2 JP2020537414A JP2020537414A JP7384162B2 JP 7384162 B2 JP7384162 B2 JP 7384162B2 JP 2020537414 A JP2020537414 A JP 2020537414A JP 2020537414 A JP2020537414 A JP 2020537414A JP 7384162 B2 JP7384162 B2 JP 7384162B2
Authority
JP
Japan
Prior art keywords
head
related transfer
transfer function
band
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020537414A
Other languages
English (en)
Other versions
JPWO2020036077A1 (ja
Inventor
広則 佐藤
亨 中川
哲 曲谷地
越 沖本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020036077A1 publication Critical patent/JPWO2020036077A1/ja
Application granted granted Critical
Publication of JP7384162B2 publication Critical patent/JP7384162B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Description

本開示は、信号処理装置、信号処理方法、およびプログラムに関し、特に、手軽に頭部伝達関数の個人化を実現することができるようにした信号処理装置、信号処理方法、およびプログラムに関する。
音源から耳への音の伝わり方を表現する頭部伝達関数(HRTF:Head-Related Transfer Function)を用いて、ヘッドホンで音像を立体的に再現する技術がある。
例えば、特許文献1には、ダミーヘッドを用いて測定したHRTFを利用して、立体音響を再生する携帯端末が開示されている。
しかしながら、HRTFには個人性があるため、ダミーヘッドを用いて測定したHRTFでは正確な音像定位ができなかった。これに対して、リスナ自身のHRTFを測定することで、HRTFを個人化し、精度の高い音像定位を実現できることが知られている。
ところが、リスナ自身のHRTFを測定する場合、無響室や大型スピーカなどの大規模な設備を用いる必要があった。
特開2009-260574号公報
そこで、例えばスマートフォンを音源として、リスナ自身のHRTFが測定できれば、大規模な設備を用いることなく、手軽にHRTFの個人化を実現することができる。
しかしながら、スマートフォンのスピーカは、その再生帯域が狭いため、十分な特性のHRTFを測定することができなかった。
本開示は、このような状況に鑑みてなされたものであり、全帯域における頭部伝達関数の個人化を手軽に実現することができるようにするものである。
本開示の信号処理装置は、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域より高い帯域を含む第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する合成部を備える信号処理装置である。
本開示の信号処理方法は、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域より高い帯域を含む第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する信号処理方法である。
本開示のプログラムは、コンピュータに、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域より高い帯域を含む第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する処理を実行させるためのプログラムである。
本開示においては、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域より高い帯域を含む第2の帯域の特性とが合成されることで、第3の頭部伝達関数が生成される。
本開示によれば、手軽に頭部伝達関数の個人化を実現することが可能となる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示に係る技術を適用した携帯端末の構成例を示すブロック図である。 携帯端末の機能構成例を示すブロック図である。 頭部伝達関数の生成処理について説明するフローチャートである。 第1の実施の形態の携帯端末の構成例を示すブロック図である。 頭部伝達関数の生成処理について説明するフローチャートである。 複数チャンネルについての頭部伝達関数の測定について説明する図である。 頭部伝達関数の帯域抽出について説明する図である。 残響成分の付加について説明する図である。 NCマイクロフォン利用時の特性の補正について説明する図である。 出力部の構成例を示す図である。 周波数特性の変更について説明する図である。 第2の実施の形態の携帯端末の構成例を示すブロック図である。 頭部伝達関数の生成処理について説明するフローチャートである。 左右方向の頭部伝達関数の推定について説明する図である。 推定フィルタの周波数特性の例を示す図である。 頭部伝達関数の生成処理について説明するフローチャートである。 正中面および矢状面の頭部伝達関数の測定について説明する図である。 コンピュータの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.本開示に係る技術を適用した携帯端末の構成と動作
2.第1の実施の形態(複数チャンネルについての頭部伝達関数の測定)
3.第2の実施の形態(正面方向についての頭部伝達関数の測定)
4.第3の実施の形態(正中面についての頭部伝達関数の測定)
5.その他
<1.本開示に係る技術を適用した携帯端末の構成と動作>
(携帯端末の構成)
まず、図1を参照して、本開示に係る技術を適用した信号処理装置としての携帯端末の構成例について説明する。
図1に示される携帯端末1は、例えば、いわゆるスマートフォンなどの携帯電話機として構成される。
携帯端末1は、制御部11を備える。制御部11は、携帯端末1内の各部の動作を制御する。制御部11は、制御ライン28を介して、携帯端末1内の各部とデータのやり取りを行う。
また、携帯端末1は、通信端末として必要な無線通信を行う通信部12を備える。通信部12には、アンテナ13が接続される。通信部12は、無線通信用の基地局と無線通信を行い、基地局との間で双方向のデータ伝送を行う。通信部12は、データライン29を介して、基地局側から受信したデータを携帯端末1内の各部に送出する。また、携帯端末1内の各部からデータライン29を介して伝送されたデータを、基地局側に送信する。
データライン29には、通信部12の他に、メモリ14、表示部15、音声処理部17、および立体音響処理部21が接続される。
メモリ14は、携帯端末1を動作させるために必要なプログラムや、ユーザが記憶させた各種データなどを記憶する。メモリ14には、ダウンロードなどで得られた音楽データなどの音声信号も記憶される。
表示部15は、液晶ディスプレイや有機ELディスプレイなどで構成され、制御部11の制御により、各種情報の表示を行う。
操作部16は、表示部15を構成するディスプレイと一体となって構成されるタッチパネルや、携帯端末1の筐体に設けられる物理的なボタンなどで構成される。タッチパネル(操作部16)としての表示部15には、数字や記号などのダイヤルキー、各種機能キーなどを表すボタンが表示される。各ボタンの操作情報は、制御部11に供給される。
音声処理部17は、音声信号の処理を行う処理部であり、スピーカ18とマイクロフォン19が接続される。スピーカ18とマイクロフォン19は、通話時に受話器として機能する。
通信部12から音声処理部17に供給される音声データは、音声処理部17により復調されてアナログ音声信号となり、増幅などのアナログ処理が施されてスピーカ18から放音される。また、マイクロフォン19により収音された音声の音声信号は、音声処理部17によりデジタル音声データに変調され、変調された音声データが通信部12に供給されて、無線送信などが行われる。
また、音声処理部17に供給される音声データのうち、立体音響として出力される音声は、立体音響処理部21に供給され、処理される。
立体音響処理部21は、バイノーラル立体音響を再現する2チャンネルの音声信号を生成する。立体音響処理部21が処理する音声信号は、音声処理部17から供給される他、メモリ14などから読み出されてデータライン29を介して供給されたり、通信部12で受信された音声データがデータライン29を介して供給されるなどしてもよい。
立体音響処理部21で生成された音声信号は、携帯端末1本体に内蔵された左右のチャンネル用の2つのスピーカ22L,22Rから出力されたり、出力端子23に接続された図示せぬヘッドホンから出力されたりする。
スピーカ22L,22Rは、携帯端末1本体に内蔵される、比較的小型なスピーカユニットを使用したスピーカであり、携帯端末1本体の周囲にいるリスナに対して再生音を聞かせることができる程度に増幅して出力させるスピーカである。
音声信号を図示せぬヘッドホンから出力させる場合には、出力端子23にヘッドホンを直接、有線接続する他に、例えばBluetooth(登録商標)などの方式でヘッドホンと無線通信することで、ヘッドホンに音声信号を供給する構成としてもよい。
図2は、上述した携帯端末1の機能構成例を示すブロック図である。
図2の携帯端末1は、測定部51、帯域抽出部52、HRTFデータベース53、帯域抽出部54、合成部55、音声入力部56、および出力部57を備えている。
測定部51は、携帯端末1を扱うユーザの頭部伝達関数(HRTF)を測定する。例えば、測定部51は、ユーザに対して1または複数の方向に配置された、例えばインパルス信号などの測定用音波を再生する音源に基づいて、頭部伝達関数を取得する。
測定用音波を再生する音源は、少なくとも1つのスピーカを有する1のデバイスであればよく、そのスピーカは、必ずしも再生帯域が広いものでなくてもよい。
例えば、測定用音波を再生する音源を、携帯端末1のスピーカ18とすることができる。この場合、ユーザは、所定の方向に携帯端末1を配置し、ユーザが左右の耳に装着した図示せぬマイクロフォンに、スピーカ18からの測定用音波を収音させる。測定部51は、所定の手段により供給されるマイクロフォンからの音声信号に基づいて、そのユーザの頭部伝達関数Hmを取得する。
帯域抽出部52は、測定部51により測定された頭部伝達関数Hmから第1の帯域の特性を抽出する。抽出された第1の帯域の頭部伝達関数Hmは、合成部55に供給される。
HRTFデータベース53は、頭部伝達関数Hmが測定される現在の測定環境とは異なる測定環境で測定された頭部伝達関数Hpを保持している。頭部伝達関数Hpは、例えばユーザが配置した携帯端末1のスピーカ18を用いて実測される頭部伝達関数Hmとは異なり、あらかじめ測定されたプリセットデータとされる。頭部伝達関数Hpは、例えば、平均的な形状の頭部や耳をもつ人やダミーヘッドについて、無響室や大型スピーカなどの設備を備える理想的な測定環境で測定された頭部伝達関数とされる。
帯域抽出部54は、HRTFデータベース53に保持されている頭部伝達関数Hpから、上述した第1の帯域以外の第2の帯域の特性を抽出する。抽出された第2の帯域の頭部伝達関数Hpは、合成部55に供給される。
合成部55は、帯域抽出部52からの第1の帯域の頭部伝達関数Hmと、帯域抽出部54からの第2の帯域の頭部伝達関数Hpとを合成することで、全帯域の頭部伝達関数Hを生成する。すなわち、頭部伝達関数Hは、第1の帯域については頭部伝達関数Hmの周波数特性を有し、第2の帯域については頭部伝達関数Hpの周波数特性を有する頭部伝達関数となる。生成された頭部伝達関数Hは、出力部57に供給される。
音声入力部56は、再生させたい立体音響の元となる音声信号を出力部57に入力する。
出力部57は、音声入力部56から入力された音声信号に対して、合成部55からの頭部伝達関数Hを畳み込んで2チャンネルの音声信号として出力する。出力部57により出力される音声信号は、バイノーラル立体音響を再現する音声信号となる。
(携帯端末の動作)
次に、図3のフローチャートを参照して、携帯端末1による頭部伝達関数の生成処理について説明する。
ステップS1において、測定部51は、スマートフォン(携帯端末1)を音源として用いることで、頭部伝達関数Hmを測定する。
ステップS2において、帯域抽出部52は、測定された頭部伝達関数Hmから第1の帯域の特性を抽出する。第1の帯域は、あらかじめ決められた第1の周波数f1から、周波数f1より高い第2の周波数f2までの帯域であってよいし、単に、周波数f1より高い帯域であってもよい。第1の帯域は、特に、個人に依存する特性が現れやすい帯域とされる。
ステップS3において、帯域抽出部54は、HRTFデータベース53に保持されているプリセットの頭部伝達関数Hpから第2の帯域の特性を抽出する。第2の帯域は、周波数f1より低い帯域と周波数f2より高い帯域を含む帯域であってもよいし、単に、周波数f1より低い帯域を含む帯域であってもよい。第2の帯域は、例えば、個人に依存する特性が現れにくく、スマートフォンが再生できない帯域とされる。
ステップS4において、合成部55は、抽出された第1の帯域の頭部伝達関数Hmと、第2の帯域の頭部伝達関数Hpとを合成することで、頭部伝達関数Hを生成する。
以上の処理によれば、実測された頭部伝達関数からは、個人に依存する特性が現れやすい帯域の特性が抽出され、プリセットの頭部伝達関数からは、個人に依存する特性が現れにくく、スマートフォンが再生できない帯域の特性が抽出される。したがって、再生帯域が狭いスマートフォンを音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができ、大規模な設備を用いることなく、全帯域における頭部伝達関数の個人化を手軽に実現することが可能となる。
以下、本開示の技術に係る実施の形態について説明する。
<2.第1の実施の形態>
(携帯端末の構成)
図4は、本開示の技術に係る第1の実施の形態の携帯端末1の構成例を示す図である。
図4の携帯端末1は、バンドパスフィルタ111、補正部112、およびイコライザ113を備える。さらに、携帯端末1は、残響成分分離部121、ハイパスフィルタ131、イコライザ132、バンドパスフィルタ141、イコライザ142、ローパスフィルタ151、イコライザ152、合成部161、および残響成分付加部162を備える。
バンドパスフィルタ111は、実測された頭部伝達関数Hmから、中域の特性を抽出する。中域は、あらかじめ決められた第1の周波数f1から、周波数f1より高い第2の周波数f2までの帯域とされる。抽出された中域の頭部伝達関数Hmは、補正部112に供給される。
補正部112は、携帯端末1のスピーカ18の逆特性を用いて、頭部伝達関数Hmに含まれるスピーカ18の特性を除去するよう頭部伝達関数Hmを補正する。スピーカ18の逆特性は、あらかじめ測定されたプリセットデータであり、携帯端末1の機種毎に異なる特性を示す。スピーカ18の特性が除去された中域の頭部伝達関数Hmは、イコライザ113に供給される。
イコライザ113は、中域の頭部伝達関数Hmに対して周波数特性の調整を行い、合成部161に出力する。
残響成分分離部121は、プリセットデータである頭部伝達関数Hpを時間領域で表現した頭部インパルス応答において、直接成分と残響成分とを分離する。分離された残響成分は、残響成分付加部162に供給される。分離された直接成分に対応する頭部伝達関数Hpは、ハイパスフィルタ131、バンドパスフィルタ141、ローパスフィルタ151それぞれに供給される。
ハイパスフィルタ131は、頭部伝達関数Hpから、高域の特性を抽出する。高域は、上述した周波数f2より高い帯域とされる。抽出された高域の頭部伝達関数Hpは、イコライザ132に供給される。
イコライザ132は、高域の頭部伝達関数Hpに対して周波数特性の調整を行い、合成部161に出力する。
バンドパスフィルタ141は、頭部伝達関数Hpから、中域の特性を抽出する。抽出された中域の頭部伝達関数Hpは、イコライザ142に供給される。
イコライザ142は、中域の頭部伝達関数Hpに対して周波数特性の調整を行い、合成部161に出力する。このとき、中域の頭部伝達関数Hpには、そのゲインを0または略0にする処理が施されてもよい。
ローパスフィルタ151は、頭部伝達関数Hpから、低域の特性を抽出する。低域は、上述した周波数f1より低い帯域とされる。抽出された低域の頭部伝達関数Hmは、イコライザ152に供給される。
イコライザ152は、低域の頭部伝達関数Hpに対して周波数特性の調整を行い、合成部161に出力する。
合成部161は、イコライザ113からの中域の頭部伝達関数Hm、イコライザ132からの高域の頭部伝達関数Hp、およびイコライザ152からの低域の頭部伝達関数Hpを合成し、全帯域の頭部伝達関数Hを生成する。生成された頭部伝達関数Hは、残響成分付加部162に供給される。
残響成分付加部162は、合成部161からの頭部伝達関数Hに、残響成分分離部121からの残響成分を付加する。残響成分が付加された頭部伝達関数Hは、出力部57における畳み込みに用いられる。
(頭部伝達関数の生成処理)
図5は、図4の携帯端末1による頭部伝達関数の生成処理について説明するフローチャートである。
ステップS11において、測定部51(図2)は、スマートフォン(携帯端末1)を音源として用いることで、複数チャンネルについての頭部伝達関数Hmを測定する。これにより、頭部伝達関数が測定されたチャンネル数分の仮想音源を定位させることができる。
例えば、図6のAの左図に示されるように、ユーザUがその左右斜め前それぞれにスマートフォンSPを手に持って腕を伸ばした状態で、頭部伝達関数を測定したとする。この場合、図6のAの右図に示されるように、ユーザUの左右斜め前それぞれに、仮想音源VS1,VS2を定位させることができる。
また、図6のBの左図に示されるように、ユーザUがその正面、左右斜め前、左右横それぞれにスマートフォンSPを手に持って腕を伸ばした状態で、頭部伝達関数を測定したとする。この場合、図6のBの右図に示されるように、ユーザUの正面、左右斜め前、左右横それぞれに、仮想音源VS1,VS2,VS3,VS4,VS5を定位させることができる。
ステップS12において、バンドパスフィルタ111は、測定された頭部伝達関数Hmから中域の特性を抽出する。抽出された中域の頭部伝達関数Hmは、補正部112によってスピーカ18の特性が除去された後、イコライザ113によって周波数特性の調整が行われる。
ステップS13において、ハイパスフィルタ131およびローパスフィルタ151は、HRTFデータベース53に保持されているプリセットの頭部伝達関数Hpから低域・高域の特性を抽出する。抽出された低域の頭部伝達関数Hpは、イコライザ152によって周波数特性の調整が行われ、高域の頭部伝達関数Hpは、イコライザ132によって周波数特性の調整が行われる。ステップS13の処理は、あらかじめ行われていてもよい。
なお、プリセットの頭部伝達関数Hpに対応する頭部インパルス応答からは、残響成分分離部121によって残響成分が分離される。分離された残響成分は、残響成分付加部162に供給される。
ステップS14において、合成部161は、抽出された低域の頭部伝達関数Hmと、低域・高域の頭部伝達関数Hpとを合成することで、頭部伝達関数Hを生成する。
図7のA,Bはそれぞれ、実測された頭部伝達関数Hmと、プリセットの頭部伝達関数Hpの周波数特性を示す図である。
図7のAにおいて、破線枠FMで囲まれる帯域の特性が、バンドパスフィルタ111によって頭部伝達関数Hmから抽出される中域の特性である。中域は、例えば1kHzから12kHzまでの帯域とされる。
一方、図7のBにおいて、破線枠FLで囲まれる帯域の特性が、ローパスフィルタ151によって頭部伝達関数Hpから抽出される低域の特性である。低域は、例えば1kHzより低い帯域とされる。また、図7のBにおいて、破線枠FHで囲まれる帯域の特性が、ハイパスフィルタ131によって頭部伝達関数Hpから抽出される高域の特性である。高域は、例えば12kHzより高い帯域とされる。
このようにして抽出された1kHzから12kHzまでの帯域の頭部伝達関数Hmと、1kHzより低い帯域および12kHzより高い帯域の頭部伝達関数Hpとが合成されることで、全帯域の頭部伝達関数Hが生成される。
スピーカの口径が小さく、再生帯域の狭いスマートフォンでは再生できない1kHzより低い帯域では、頭部伝達関数において個人に依存する特性が現れにくく、プリセットの特性に置き換えても十分な音像定位の精度が得られる。また、12kHzより高い帯域は、音像定位への寄与が小さく、プリセットの特性に置き換えても音像定位の精度に影響がない上に、プリセットの特性による高音質化が期待される。
ステップS15において、残響成分付加部162は、合成部161からの頭部伝達関数Hに、残響成分分離部121からの残響成分を付加する。
図8のA,Bはそれぞれ、実測された頭部伝達関数Hmと、プリセットの頭部伝達関数Hpを時間領域で表現した頭部インパルス応答を示す図である。
図8のAにおいて、破線枠FDで囲まれている波形が、実測された頭部伝達関数Hmに対応する頭部インパルス応答Imの直接成分である。
一方、図8のBにおいて、破線枠FRで囲まれている波形が、プリセットの頭部伝達関数Hpに対応する頭部インパルス応答Ipの残響成分である。
図8の例では、実測された頭部インパルス応答Imの残響成分は、プリセットの頭部インパルス応答Ipと比較して、波形の振幅が小さくなっている。これらの波形の振幅の大小関係は、スマートフォンのスピーカを用いた測定環境によって異なり、実測された頭部インパルス応答Imの残響成分が、プリセットの頭部インパルス応答Ipと比較して、波形の振幅が大きくなることもある。
残響成分付加部162においては、合成部161からの頭部伝達関数Hに、頭部インパルス応答Ipから分離された残響成分が付加される。残響成分が付加された頭部伝達関数Hは、出力部57における畳み込みに用いられる。
以上の処理によれば、再生帯域が狭いスマートフォンを音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができる。すなわち、大規模な設備を用いることなく、全帯域における頭部伝達関数の個人化を手軽に実現することが可能となる。
また、頭部インパルス応答の残響成分は、個人に依存しないので、実測された頭部インパルス応答にプリセットの頭部インパルス応答を付加しても、頭部伝達関数の個人化を実現することができる。さらに、ユーザが腕を伸ばした程度の状態での頭部伝達関数の測定であっても、プリセットの頭部インパルス応答の残響特性により、数m離れた場所にスピーカが設置されているような仮想音源を定位させるといった、距離感の制御を実現することができる。
(ノイズキャンセリングマイクロフォンの利用)
上述した頭部伝達関数の測定においては、ユーザが左右の耳に装着するマイクロフォンとして、市販のノイズキャンセリングマイクロフォン(NCマイクロフォン)を利用することができる。
図9は、同一のリスナを対象として、理想的な測定環境において測定専用のマイクロフォンとスピーカを用いて測定した頭部伝達関数Hdと、NCマイクロフォンとスマートフォンのスピーカを用いて測定した頭部伝達関数Hnの特性を示す図である。
図中、1kHzより低い帯域において、頭部伝達関数Hnのゲインが小さいのは、スマートフォンのスピーカの、その帯域におけるゲインが小さいことによるものである。
また、実測された頭部伝達関数の特性が用いられる中域(破線枠FMで囲まれる帯域)では、図中、白抜き矢印で示されるように、頭部伝達関数Hdと頭部伝達関数Hnとで差分が生じることがある。
そこで、あらかじめ、NCマイクロフォン毎にこのような差分データを記録しておき、実測された頭部伝達関数の特性の補正量として用いるようにする。差分データによる補正は、例えば補正部112によって行われるようにする。これにより、市販のNCマイクロフォンを利用した場合であっても、実測された頭部伝達関数の特性を、理想的な測定環境で測定された頭部伝達関数の特性に近づけることができる。
(音色の変更)
本実施の形態においては、仮想音源の音像定位を変えずに、立体音響の音色を変更することが可能である。
図10は、出力部57(図2)の構成例を示す図である。
出力部57には、FIR(Finite Impulse Response)フィルタ181L,181Rが設けられる。
FIRフィルタ181Lは、音声入力部56(図2)からの音声信号に、合成部55からの頭部伝達関数Hのうちの左耳用の頭部伝達関数HLを畳み込むことで、左耳用の音声信号SLを出力する。
同様に、FIRフィルタ181Rは、音声入力部56からの音声信号に、合成部55からの頭部伝達関数Hのうちの右耳用の頭部伝達関数HRを畳み込むことで、右耳用の音声信号SRを出力する。
なお、出力部57においては、定位させたい仮想音源の数だけ、図10に示される構成が設けられ、各構成からの音声信号SL,SRが加算・合成されて出力される。
FIRフィルタ181L,181Rは、直線位相特性を有するので、位相特性を保持した状態で周波数特性を変更することが可能となる。例えば、図11に示されるように、1つのインパルス応答190に対して、FIRフィルタ181L,181Rを適用することで、その周波数特性を、特性191としたり、特性192とすることができる。
これにより、個人化された音像定位を変えずに、立体音響の音色を、他の音場の音色に変更することが可能となる。
<3.第2の実施の形態>
(携帯端末の構成)
図12は、本開示の技術に係る第2の実施の形態の携帯端末1の構成例を示す図である。
図12の携帯端末1は、バンドパスフィルタ111の前段に、推定部211とイコライザ212を備える点以外は、図4の携帯端末1と同様の構成を有する。
推定部211は、実測された所定の方向についての頭部伝達関数Hmから、他の方向についての頭部伝達関数を推定する。実測された頭部伝達関数と推定された頭部伝達関数は、イコライザ212に供給される。
イコライザ212は、推定部211からの頭部伝達関数に対して周波数特性の調整を行い、バンドパスフィルタ111に出力する。
(頭部伝達関数の生成処理)
図13は、図12の携帯端末1による頭部伝達関数の生成処理について説明するフローチャートである。
ステップS21において、測定部51(図2)は、スマートフォン(携帯端末1)を音源として用いることで、ユーザの正面方向についての頭部伝達関数Hmを測定する。この例では、ユーザが正面に携帯端末1を持って腕を伸ばした状態で、頭部伝達関数Hmが測定される。
ステップS22において、推定部211は、測定された正面方向の頭部伝達関数Hmから、ユーザの左右方向の頭部伝達関数を推定する。
ここで、左右方向の頭部伝達関数の推定について詳細に説明する。
まず、図14のAに示されるように、ユーザUの正面方向にスマートフォンSPを配置することで測定された左右両耳の頭部伝達関数をCL,CRとする。
次に、図14のBに示されるように、推定対称となる、ユーザUの正面方向から左30°方向についての左右両耳の頭部伝達関数をLL,LRとする。同様に、図14のCに示されるように、推定対称となる、ユーザUの正面方向から右30°方向についての左右両耳の頭部伝達関数をRL,RRとする。
これら4つの特性LL,LR,RL,RRを、ユーザUとスマートフォンSPのスピーカとの距離によって日向側特性と日陰側特性に分類して推定する。具体的には、LL,RRは、スピーカから見てユーザUに近い側(日向側)の特性であるので、日向側特性に分類される。また、LR,RLは、スピーカから見てユーザUから見てスピーカの陰になる側(日陰側)の特性であるので、日陰側特性に分類される。
日向側特性は、スピーカからの音が直接耳に伝搬する直接成分が大きいため、正面方向の測定により得られた特性と比べて中域から高域のゲインが大きくなる。
一方、日陰側特性は、スピーカからの音が頭部を回り込んで伝搬するため、正面方向の測定により得られた特性と比べて高域のゲインが減衰する。
また、スピーカから左右の耳までの距離の差による両耳時間差が生じる。
以上の物理的な伝達特性を考慮し、正面方向についての特性CL,CRに対する補正項目を、以下の2項目とする。
(1)音源が左右方向に移動することに起因する、中域から高域の音の増幅や、頭部の日陰側における音の減衰を再現するゲインの補正
(2)音源が左右方向に移動することに起因する、音源からの距離の変化に伴う遅延の補正
図15は、正面方向についての特性CL,CRに対して、上記2項目の補正を実現する推定フィルタの周波数特性を示す図である。
図15のAには、日向側特性を推定するための日向側推定フィルタが示される。日向側推定フィルタにおいては、中域から高域にかけてゲインが増大している。
一方、図15のBには、日陰側特性を推定するための日陰側推定フィルタが示される。日陰側推定フィルタにおいては、中域から高域にかけてゲインが大きく減衰している。
ここで、日向側推定フィルタのインパルス応答をfilti(t)とすると、日向側特性LL,RRは以下のように推定される。
LL(t)=filti(t)*CL(t)
RR(t)=filti(t)*CR(t)
なお、“*”は畳み込みを意味する。
また、日陰側推定フィルタのインパルス応答をfiltc(t)とすると、日陰側特性RL,LRは以下のように推定される。
RL(t)=filtc(t)*CL(t)
LR(t)=filtc(t)*CR(t)
以上のようにして推定された左右方向の頭部伝達関数は、正面方向の頭部伝達関数とともに、イコライザ212によって周波数特性の調整が行われる。なお、日陰側特性は、個人に依存する特性が現れにくいので、あらかじめ用意されたプリセットの特性が用いられてもよい。
ステップS23において、バンドパスフィルタ111は、測定/推定された頭部伝達関数から中域の特性を抽出する。抽出された中域の頭部伝達関数は、補正部112によってスピーカ18の特性が除去された後、イコライザ113によって周波数特性の調整が行われる。
なお、ステップS24以降の処理は、図5のフローチャートのステップS13以降の処理と同様であるので、その説明は省略する。
以上の処理によれば、再生帯域が狭いスマートフォンを音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができる。すなわち、大規模な設備を用いることなく、全帯域における頭部伝達関数の個人化を手軽に実現することが可能となる。
特に、本実施の形態においては、ユーザの正面方向の頭部伝達関数から左右方向の頭部伝達関数が推定されるので、1回の頭部伝達関数の測定のみで、複数の仮想音源を定位させる頭部伝達関数の個人化を実現することができる。
<4.第3の実施の形態>
以下においては、ユーザの正中面についての頭部伝達関数から矢状面についての頭部伝達関数を推定する例について説明する。
図16は、図12の携帯端末1による頭部伝達関数の生成処理の他の例について説明するフローチャートである。
ステップS31において、測定部51(図2)は、スマートフォン(携帯端末1)を音源として用いることで、ユーザの正中面についての頭部伝達関数を測定する。
例えば、図17のAに示されるように、ユーザUが、正中面351内にスマートフォンSPを配置することで、頭部伝達関数が測定される。図17の例では、正中面351内のユーザの正面、斜め上、斜め下の3方向についての頭部伝達関数が測定される。
ステップS32において、推定部211は、測定された正中面の頭部伝達関数から、ユーザの左右の矢状面の頭部伝達関数を推定する。
例えば、図17のBに示されるように、ユーザUのいる空間において、ユーザUの左側で正中面351に平行な矢状面352Lについての頭部伝達関数と、ユーザUの右側で正中面351に平行な矢状面352Rについての頭部伝達関数が推定される。
ここでの頭部伝達関数の推定は、例えば、正中面351内のユーザの正面、斜め上、斜め下の3方向についての頭部伝達関数それぞれに対して、上述した日向側推定フィルタと日陰側推定フィルタを用いた補正を行うことで実現される。
推定された矢状面の頭部伝達関数は、正中面の頭部伝達関数とともに、イコライザ212によって周波数特性の調整が行われる。
なお、ステップS33以降の処理は、図13のフローチャートのステップS23以降の処理と同様であるので、その説明は省略する。
以上の処理によれば、再生帯域が狭いスマートフォンを音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができる。すなわち、大規模な設備を用いることなく、全帯域における頭部伝達関数の個人化を手軽に実現することが可能となる。
特に、本実施の形態においては、ユーザの周囲の任意の方向の頭部伝達関数が推定されるので、ユーザの所望する方向に仮想音源を定位させる頭部伝達関数の個人化を実現することができる。
<5.その他>
(音源の他の例)
上述した説明においては、測定用音波を再生する音源を、スピーカを有するスマートフォンとしたが、これ以外のデバイスとしてもよい。例えば、測定用音波を再生する音源を、スピーカとディスプレイを有するテレビジョン受像機とすることもできる。テレビジョン受像機は、高々200Hz程度の帯域までしか再生できず、スマートフォンと同様、再生帯域が広いものではない。
本開示に係る技術によれば、再生帯域が狭いテレビジョン受像機を音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができる。
(クラウドコンピューティングへの適用)
本開示に係る技術を適用した信号処理装置は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
例えば、図2のHRTFデータベース53が、インターネットなどのネットワークを介して接続されるサーバなど(いわゆるクラウド)に設けられてもよい。
また、図2の携帯端末1が備える全ての構成がクラウドに設けられてもよい。この場合、携帯端末1は、収音した測定用音波の音声信号をクラウドに送信し、クラウドからの立体音響を再現する音声信号を受信し再生するのみの構成となる。
(プログラムによる処理の実行)
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
上述した携帯端末1は、図18に示す構成を有するコンピュータにより実現される。
CPU1001、ROM1002、RAM1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005およびバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであっても良い。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本開示は以下のような構成をとることができる。
(1)
ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する合成部
を備える信号処理装置。
(2)
前記第1の帯域は、第1の周波数から第2の周波数までの帯域であり、
前記第2の帯域は、前記第1の周波数より低い帯域と、前記第2の周波数より高い帯域を含む
(1)に記載の信号処理装置。
(3)
前記第1の帯域は、第1の周波数より高い帯域であり、
前記第2の帯域は、前記第1の周波数より低い帯域を含む
(1)に記載の信号処理装置。
(4)
前記第1の頭部伝達関数は、前記ユーザが配置した音源を用いて実測されるデータであり、
前記第2の頭部伝達関数は、あらかじめ理想的な測定環境で測定されたプリセットデータである
(1)乃至(3)のいずれかに記載の信号処理装置。
(5)
前記第1の帯域は、個人に依存する特性を含む帯域である
(4)に記載の信号処理装置。
(6)
前記第2の帯域は、前記音源が再生できない帯域を含む
(4)または(5)に記載の信号処理装置。
(7)
前記音源は、スピーカを有するデバイスである
(4)乃至(6)のいずれかに記載の信号処理装置。
(8)
前記デバイスは、ディスプレイをさらに有する
(7)に記載の信号処理装置。
(9)
前記デバイスは、スマートフォンである
(8)に記載の信号処理装置。
(10)
前記デバイスは、テレビジョン受像機である
(8)に記載の信号処理装置。
(11)
前記第1の頭部伝達関数から抽出された前記第1の帯域の特性に含まれる前記音源の特性を除去するよう、前記第1の帯域の特性を補正する補正部をさらに備える
(4)乃至(10)のいずれかに記載の信号処理装置。
(12)
前記第2の頭部伝達関数に対応する頭部インパルス応答から分離された残響成分を、前記第3の頭部伝達関数に付加する付加部をさらに備える
(1)乃至(11)のいずれかに記載の信号処理装置。
(13)
信号処理装置が、
ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する
信号処理方法。
(14)
コンピュータに、
ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する
処理を実行させるためのプログラム。
1 携帯端末, 51 測定部, 52 帯域抽出部, 53 HRTFデータベース, 54 帯域抽出部, 55 合成部, 56 音声入力部, 57 出力部

Claims (13)

  1. ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域より高い帯域を含む第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する合成部
    を備える信号処理装置。
  2. 前記第1の帯域は、第1の周波数から第2の周波数までの帯域であり、
    前記第2の帯域は、前記第1の周波数より低い帯域と、前記第2の周波数より高い帯域を含む
    請求項1に記載の信号処理装置。
  3. 前記第1の頭部伝達関数は、前記ユーザが配置した音源を用いて実測されるデータであり、
    前記第2の頭部伝達関数は、あらかじめ理想的な測定環境で測定されたプリセットデータである
    請求項1に記載の信号処理装置。
  4. 前記第1の帯域は、個人に依存する特性を含む帯域である
    請求項に記載の信号処理装置。
  5. 前記第2の帯域は、前記音源が再生できない帯域を含む
    請求項に記載の信号処理装置。
  6. 前記音源は、スピーカを有するデバイスである
    請求項に記載の信号処理装置。
  7. 前記デバイスは、ディスプレイをさらに有する
    請求項に記載の信号処理装置。
  8. 前記デバイスは、スマートフォンである
    請求項に記載の信号処理装置。
  9. 前記デバイスは、テレビジョン受像機である
    請求項に記載の信号処理装置。
  10. 前記第1の頭部伝達関数から抽出された前記第1の帯域の特性に含まれる前記音源の特性を除去するよう、前記第1の帯域の特性を補正する補正部をさらに備える
    請求項に記載の信号処理装置。
  11. 前記第2の頭部伝達関数に対応する頭部インパルス応答から分離された残響成分を、前記第3の頭部伝達関数に付加する付加部をさらに備える
    請求項1に記載の信号処理装置。
  12. 信号処理装置が、
    ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域より高い帯域を含む第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する
    信号処理方法。
  13. コンピュータに、
    ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域より高い帯域を含む第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する
    処理を実行させるためのプログラム。
JP2020537414A 2018-08-17 2019-08-02 信号処理装置、信号処理方法、およびプログラム Active JP7384162B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018153658 2018-08-17
JP2018153658 2018-08-17
PCT/JP2019/030413 WO2020036077A1 (ja) 2018-08-17 2019-08-02 信号処理装置、信号処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020036077A1 JPWO2020036077A1 (ja) 2021-08-10
JP7384162B2 true JP7384162B2 (ja) 2023-11-21

Family

ID=69525513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020537414A Active JP7384162B2 (ja) 2018-08-17 2019-08-02 信号処理装置、信号処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US11743671B2 (ja)
JP (1) JP7384162B2 (ja)
CN (1) CN112567766B (ja)
DE (1) DE112019004139T5 (ja)
WO (1) WO2020036077A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2584152B (en) * 2019-05-24 2024-02-21 Sony Interactive Entertainment Inc Method and system for generating an HRTF for a user
JP2021131433A (ja) * 2020-02-19 2021-09-09 ヤマハ株式会社 音信号処理方法および音信号処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130255A1 (ja) 2016-01-26 2017-08-03 株式会社Jvcケンウッド 音像定位処理装置、及び音像定位処理方法
JP2018502535A (ja) 2014-12-04 2018-01-25 ガウディ オーディオ ラボラトリー,インコーポレイティド バイノーラルレンダリングのためのオーディオ信号処理装置及びその方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116787B2 (en) 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US20050147261A1 (en) * 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer
KR100754220B1 (ko) * 2006-03-07 2007-09-03 삼성전자주식회사 Mpeg 서라운드를 위한 바이노럴 디코더 및 그 디코딩방법
JP2009260574A (ja) 2008-04-15 2009-11-05 Sony Ericsson Mobilecommunications Japan Inc 音声信号処理装置、音声信号処理方法及び音声信号処理装置を備えた携帯端末
JP2012004668A (ja) 2010-06-14 2012-01-05 Sony Corp 頭部伝達関数生成装置、頭部伝達関数生成方法及び音声信号処理装置
US9426589B2 (en) * 2013-07-04 2016-08-23 Gn Resound A/S Determination of individual HRTFs
JP2015211418A (ja) 2014-04-30 2015-11-24 ソニー株式会社 音響信号処理装置、音響信号処理方法、および、プログラム
WO2016089133A1 (ko) * 2014-12-04 2016-06-09 가우디오디오랩 주식회사 개인 특징을 반영한 바이노럴 오디오 신호 처리 방법 및 장치
JP6732464B2 (ja) * 2016-02-12 2020-07-29 キヤノン株式会社 情報処理装置および情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018502535A (ja) 2014-12-04 2018-01-25 ガウディ オーディオ ラボラトリー,インコーポレイティド バイノーラルレンダリングのためのオーディオ信号処理装置及びその方法
WO2017130255A1 (ja) 2016-01-26 2017-08-03 株式会社Jvcケンウッド 音像定位処理装置、及び音像定位処理方法

Also Published As

Publication number Publication date
JPWO2020036077A1 (ja) 2021-08-10
US11743671B2 (en) 2023-08-29
CN112567766A (zh) 2021-03-26
DE112019004139T5 (de) 2021-05-06
US20210297802A1 (en) 2021-09-23
WO2020036077A1 (ja) 2020-02-20
CN112567766B (zh) 2022-10-28

Similar Documents

Publication Publication Date Title
JP4584416B2 (ja) 位置調節が可能な仮想音像を利用したスピーカ再生用多チャンネルオーディオ再生装置及びその方法
CN107852563A (zh) 双耳音频再现
JP2011009842A (ja) 音声信号処理装置および音声信号処理方法
JP2009232438A (ja) 垂直または水平に配置できる結合アレイスピーカー
JP2009194682A (ja) 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
CN107925835B (zh) 头外定位处理装置以及头外定位处理方法
JP6515720B2 (ja) 頭外定位処理装置、頭外定位処理方法、及びプログラム
JP2009260574A (ja) 音声信号処理装置、音声信号処理方法及び音声信号処理装置を備えた携帯端末
CN112956210B (zh) 基于均衡滤波器的音频信号处理方法及装置
JP7384162B2 (ja) 信号処理装置、信号処理方法、およびプログラム
JP2018050222A (ja) フィルタ生成装置、フィルタ生成方法、及びプログラム
JP2008502200A (ja) ワイドステレオ再生方法及びその装置
JP2003230198A (ja) 音像定位制御装置
CN105556990A (zh) 音响处理装置、音响处理方法、及音响处理程序
Liski et al. Adaptive equalization of acoustic transparency in an augmented-reality headset
US20200059750A1 (en) Sound spatialization method
WO2017013824A1 (ja) 頭外定位処理装置、頭外定位処理方法、プログラム
CN109923877B (zh) 对立体声音频信号进行加权的装置和方法
US6999590B2 (en) Stereo sound circuit device for providing three-dimensional surrounding effect
WO2017081733A1 (ja) 音響再生装置
US10764684B1 (en) Binaural audio using an arbitrarily shaped microphone array
JP7010649B2 (ja) オーディオ信号処理装置及びオーディオ信号処理方法
JP5163685B2 (ja) 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP6805879B2 (ja) フィルタ生成装置、フィルタ生成方法、及びプログラム
JP2013176170A (ja) 再生装置および再生方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R151 Written notification of patent or utility model registration

Ref document number: 7384162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151