JP7472582B2 - 音声再生システムおよび頭部伝達関数選択方法 - Google Patents

音声再生システムおよび頭部伝達関数選択方法 Download PDF

Info

Publication number
JP7472582B2
JP7472582B2 JP2020054235A JP2020054235A JP7472582B2 JP 7472582 B2 JP7472582 B2 JP 7472582B2 JP 2020054235 A JP2020054235 A JP 2020054235A JP 2020054235 A JP2020054235 A JP 2020054235A JP 7472582 B2 JP7472582 B2 JP 7472582B2
Authority
JP
Japan
Prior art keywords
head
related transfer
user
transfer function
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054235A
Other languages
English (en)
Other versions
JP2021158427A (ja
Inventor
和也 粂原
幸生 多田
光希 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2020054235A priority Critical patent/JP7472582B2/ja
Priority to US17/131,422 priority patent/US11252526B2/en
Publication of JP2021158427A publication Critical patent/JP2021158427A/ja
Application granted granted Critical
Publication of JP7472582B2 publication Critical patent/JP7472582B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

この発明の一実施形態は、ユーザに対して所定方向に定位するように音声を放音する音響デバイスにおける頭部伝達関数の選択に関する。
近年、音響でAR(拡張現実:Augmented Reality)を実現する技術が提案されている(例えば、特許文献1)。音響ARでは、ユーザにヘッドホンなどの音響デバイスを装用させ、その音響デバイスで音声を再生する。音響ARを実現するためには、決められた位置に音声を定位させることが必要である。音声を決められた定位位置に定位させる定位処理は、頭部伝達関数の畳み込みによって行われる。
頭部伝達関数とは、音源位置からユーザの両耳の外耳道までの音声の伝達関数である。具体的に言うと、頭部伝達関数は、音源位置で発生した音声がユーザの耳に到達するまでの間に、頭部形状、耳介形状などによりどのような周波数特性の変化を受けるかを表した関数である。音源位置からユーザの両耳に到来する音声は、ユーザの頭部形状や耳介形状などの影響を受けて、その到来方向特有の周波数特性となる。ユーザは、この特有の周波数特性を聞き分けて、音声の到来方向を判断している。したがって、ARシステムが、音声を所定方向の頭部伝達関数を用いて加工して再生することにより、ユーザにさも所定方向から音声が聞こえてきたかのような感覚をもたせることができる。なお、音声の定位は、方向と距離で定義される定位位置で表されるが、説明を容易にするため、以下では、主として定位の方向について説明する。定位位置の距離感は、音量の調整等により比較的容易に付加することができる。
頭部伝達関数は、予め測定されたものが音響デバイスに記憶される。音響デバイスは、音声を再生するとき、この音声に頭部伝達関数を畳み込むことで定位方向特有の周波数特性を付与する。この音声は、ユーザが装用するヘッドホンなどでバイノーラル再生される。これにより、決められた定位方向から到来した音声と同じ周波数特性を持つ音声がユーザに対して再生されるため、ユーザは、この音声がさも定位方向から聴こえてくるかのような聴感で聴くことができる。
バイノーラル再生で音声を全方向に定位可能にするために、頭部伝達関数は、全方向のものが両耳分用意される。実際には、水平方向または垂直方向に所定角度ごとの頭部伝達関数がセットとして用意される。たとえば、水平方向360度(全周)、垂直方向0度から90度(天頂)までの範囲で、10度間隔で頭部伝達関数が用意される。なお、頭部伝達関数セットは、水平面内のみで垂直方向成分を持たない頭部伝達関数セットも含む。頭部伝達関数は、非特許文献1に示されるように、モデル(被験者)の両耳にマイクを挿入し、各音源方向で再生されたテスト音声をマイクで収音することによって測定される。
上に述べたように、頭部伝達関数は、全方向のものがセット(一揃い)として用意され、そのうち音声を定位させる1方向の頭部伝達関数が実際の音声の定位に用いられる。以下の説明で、セットの頭部伝達関数と1方向の頭部伝達関数とを区別する必要がある場合、それぞれ「頭部伝達関数セット」および「単一方向頭部伝達関数」と呼ぶこととする。
特開2017-103598号公報
松井健太郎、技研だよりNo.32「頭部伝達関数」[online]、2007年11月、NHK放送技術研究所、[2020年3月5日検索]、インターネット<URL: https://www.nhk.or.jp/strl/publica/giken_dayori/jp2/rd-0711.html>
頭部伝達関数は、主としてユーザの頭部形状や耳介形状によって決定されるものであるため、音声の定位には、ユーザ本人について測定された頭部伝達関数を用いることが理想的である。しかし、ユーザごとに、非特許文献1に示したような設備を用いて、頭部伝達関数を測定することは極めて面倒であり、現実的でない。そこで、ユーザに似たモデルの頭部伝達関数を使用することが考えられるが、予め用意されている複数の頭部伝達関数のなかから適切な頭部伝達関数を選択することも容易ではない。
本発明の一実施形態に係る目的の一つは、音響デバイスにおいて、簡易な手順で適切な頭部伝達関数を選択できるようにすることにある。
本発明の一実施形態に係る音響デバイスは、ユーザが両耳に装用する放音部と、複数の頭部伝達関数を記憶した記憶部と、信号処理部と、制御部とを備える。信号処理部は、放音部から放音する音声信号を頭部伝達関数により処理する。制御部は、頭部伝達関数選択処理を実行する。制御部は、頭部伝達関数選択処理において以下の処理を実行する。制御部は、複数の頭部伝達関数から2以上の頭部伝達関数を候補関数として選択する。制御部は、選択した各候補関数について、所定のテスト音声を、所定の発音定位方向に定位するよう候補関数で処理して前記放音部から放音する。制御部は、選択した各候補関数について、放音部から放音されたテスト音声の、ユーザの聴覚上の定位方向である聴覚定位方向の入力を受け付ける。制御部は、選択した各候補関数について、発音定位方向と聴覚定位方向の差である定位差を算出する。制御部は、2以上の前記候補関数についての定位差に基づいて、ユーザに適用する頭部伝達関数を選択する。
本発明の一実施形態に係る頭部伝達関数選択方法では、信号処理部を備えたデバイスが、以下の処理を実行する。デバイスが、2以上の頭部伝達関数を候補関数として選択する。デバイスが、選択した各候補関数について、テスト音声を所定の発音定位方向に定位するよう候補関数で信号処理し、ユーザが両耳に装用する放音部から放音する。デバイスが、放音部から放音されたテスト音声のユーザの聴覚上の定位方向である聴覚定位方向の入力を受け付ける。デバイスが、発音定位方向と聴覚定位方向の差である定位差を算出して記憶する。デバイスが、2以上の前記候補関数についての定位差に基づいて、ユーザに適用する頭部伝達関数を選択する。
この発明によれば、簡易な手順で適切な頭部伝達関数を選択することが可能になる。
この発明が適用される音声再生システムの構成を示す図である。 この発明が適用される携帯端末装置のブロック図である。 この発明が適用されるヘッドホンのブロック図である。 プロファイルテーブルの例を示す図である。 選択ログの例を示す図である。 頭部伝達関数選択処理を示すフローチャートである。
図1は、本発明が適用される音声再生システム1の構成図である。図2は、本発明が適用される携帯端末装置10のブロック図である。図3は、本発明が適用されるヘッドホン20のブロック図である。音声再生システム1は、携帯端末装置10および音響デバイスであるヘッドホン20を含む。図1は、ユーザLが、携帯端末装置10を手に持ち、ヘッドホン20を両耳に装用した状態を示している。携帯端末装置10は、例えば、スマートホン(多機能携帯電話)が用いられる。携帯端末装置10とヘッドホン20とは、Bluetooth(登録商標)で接続(ペアリング)されており、相互に通信可能である。携帯端末装置10とヘッドホン20との接続は、Bluetoothに限定されず、他の無線通信規格または有線でもよい。携帯端末装置10は、インターネットを含むネットワーク4を介してサーバ3と通信する。ヘッドホン20は、2個のスピーカ21R,21Lとヘッドバンド22とを組み合わせた、いわゆる耳掛け型である。ヘッドホン20は、ヘッドバンド22に3軸のジャイロセンサ(センサ)23を有し、ユーザLの頭部の向きをトラッキング可能である。なお、音響デバイスとして、ヘッドホン20に代えてイヤホンを用いてもよい。サーバ3は、複数の音声再生システム1と通信し、音声再生システム1から収集した頭部伝達関数の選択ログなどを記憶する。また、サーバ3は、複数の頭部伝達関数を記憶しており、必要に応じて音声再生システム1に頭部伝達関数をダウンロードする。
音声再生システム1は、アプリケーションプログラム70により、頭部伝達関数選択処理、および、コンテンツ再生処理を実行する。携帯端末装置10では、制御部100を含むハードウェア、および、アプリケーションプログラム70が、協働することにより、候補選択手段、テスト音声放音手段、聴覚定位検出手段、定位差算出手段、および、関数決定手段として機能する。
音声再生システム1は、再生する音声をユーザLに対して所定の方向に定位させる。この定位処理に頭部伝達関数が用いられる。頭部伝達関数は、音声の定位位置からユーザLの耳に到達するまでの間に、頭部形状や耳介形状などによって受ける周波数特性の変化を表した関数である。
音声再生システム1は、複数の頭部伝達関数を予め記憶しており、その中からユーザLに最も適したものを選択して音声の定位処理に用いる。記憶されている複数の伝達関数は、例えば、それぞれプロファイルの異なるモデル(被験者)から測定したものである。プロファイルとは、図4のプロファイルテーブル74に示すように、頭部伝達関数を測定したモデルの人種、性別、年齢、頭部形状、耳介形状など、モデルについての頭部伝達関数の決定に影響を与えると考えられる情報である。以下、頭部伝達関数を測定したモデルのプロファイルを、単に、頭部伝達関数のプロファイルと呼ぶ。なお、頭部伝達関数は、複数の測定データの平均値を取る等して機械的に作り上げた伝達関数を使用しても良い。
頭部伝達関数選択処理においては以下の処理が実行される。ユーザLが、ヘッドホン20を装用した状態で、携帯端末装置10に自身のプロファイルを入力する。音声再生システム1は、入力されたプロファイルに似たプロファイルを持つ頭部伝達関数を候補として選択する。候補として選択された頭部伝達関数は、候補関数と呼ばれる。候補関数は複数選択される。音声再生システム1は、選択した候補関数を用いてテスト音声を発生する。すなわち、携帯端末装置10が、テスト音声を発生し、このテスト音声に所定の定位方向の頭部伝達関数を畳み込み演算する。この畳み込み演算によってテスト音声に付与された定位特性は、この候補関数のモデルに対して「所定の定位方向」に定位する特性であり、このテスト音声を聴くユーザLに対するものではない。畳み込み演算によって付与された所定の定位方向は、発音定位方向と呼ばれる。
この畳み込み演算されたテスト音声が、ヘッドホン20に出力され、ユーザLに向けて放音される。候補関数を畳み込み演算されたテスト音声は、ユーザLに対しても定位特性を有するため、発音定位方向と一致しなくても何らかの定位方向に定位する。この定位方向は聴覚定位方向と呼ばれる。
ユーザLは、テスト音声を聴いて、聴覚的にどの方向に定位しているか、すなわち、聴覚定位方向をシステムに入力する。音声再生システム1は、発音定位方向と聴覚定位方向とのずれである定位差を測定して記録する。ずれは、角度差、ずれの方向などの情報である。
音声再生システム1は、選択した候補関数の全てについて上の処理を行い、各候補関数の定位差を測定する。そして、この定位差に基づき、複数の候補関数の中から、このユーザLにとって最適な頭部伝達関数を決定する。この決定された頭部伝達関数がコンテンツ再生処理でコンテンツである音声データの定位に使用される。
コンテンツ再生処理では、音声再生システム1は、以下の処理を実行する。携帯端末装置10が、ユーザLの居る場所や時刻等を検出し、所定の場所、時刻になると、その場所、時刻に応じた音声を再生する。再生される音声は予め決められた方向に定位される。携帯端末装置10は、ユーザLの現在位置、ユーザLの頭部の向き、および、音声の定位位置に基づいて、ユーザLの頭部が向いている方向に対する音声の定位方向(相対定位方向)を算出する。携帯端末装置10は、頭部伝達関数選択処理で決定された頭部伝達関数(セット)から相対定位方向に対応する角度の頭部伝達関数を読み出して信号処理部105にセットする。信号処理部105は、再生された音声信号に対して頭部伝達関数を畳み込む信号処理を行う。信号処理された音声信号は、ヘッドホン20に送信される。ヘッドホン20は、受信した音声をスピーカ21R,21Lから出力する。これにより、ユーザLは、所定の方向から聞こえてくるような感覚で音声を聞くことができる。
図2を参照して携帯端末装置10を詳細に説明する。携帯端末装置10は、制御部100、記憶部101、ネットワーク通信部102、GPS測位部103、音声生成部104、信号処理部105、および、デバイス通信部106を有するスマートホンである。制御部100は、CPUを含んでいる。記憶部101は、ROM、RAMおよびフラッシュメモリを含んでいる。
記憶部101には、アプリケーションプログラム70、音声データ71、シナリオファイル72、頭部伝達関数データベース73、プロファイルテーブル74、および、選択ログ75が記憶されている。
アプリケーションプログラム70は、この携帯端末装置10およびヘッドホン20を、本実施形態の音声再生システム1として機能させるためのプログラムである。音声データ71は、頭部伝達関数の選択時に再生されるテスト音声、および、シナリオファイル72に基づいて再生されるコンテンツとしての音声データを含んでいる。シナリオファイル72は、コンテンツである音声データの再生イベントが記述されたファイルであり、コンテンツ再生処理で使用される。シナリオファイル72には、イベントごとに、音声データの再生タイミング、再生される音声の定位位置、再生する音声データの識別情報が記載されている。
頭部伝達関数データベース73には、複数の頭部伝達関数が記憶されている。各頭部伝達関数は、それぞれ異なるプロファイルのモデルで測定されたものである。プロファイルテーブル74は、頭部伝達関数データベース73に記憶されている各頭部伝達関数のプロファイルを記憶したテーブルである。頭部伝達関数選択処理において、ユーザLが自身のプロファイルを入力すると、このプロファイルでプロファイルテーブル74が参照され、似たプロファイルを有する頭部伝達関数が候補関数として選択される。
図4はプロファイルテーブル74の例を示す図である。プロファイルテーブル74には、頭部伝達関数データベース73に記憶されている各頭部伝達関数の(モデルの)プロファイルがそれぞれ記憶される。プロファイルとして、この例では、人種、性別、年齢、頭部形状、耳介形状が記憶されている。「人種」は、東アジア(モンゴロイド)、白人(コーカソイド)、黒人(ネグロイド)など骨格の違いで分類されている。「性別」、「年齢」は、モデルおよびユーザLの体格、体型を推定する指標である。「頭部形状」は、たとえば、丸形、四角形、逆三角形、五角形などの形状で表され、頭部伝達関数を決定する重要な要素である。「耳介形状」は、たとえば、丸形、四角型、三角形などの形状で表され、頭部伝達関数を決定する重要な要素である。図4の例では、以上のプロファイルで頭部伝達関数を分類しているが、プロファイルはこれに限定されない。例えば、モデルの身長、体重などをプロファイルの項目に入れてもよい。
頭部伝達関数選択処理において、ユーザLは、自身のプロファイルとして、プロファイルテーブル74に記載されている項目の全部または一部を入力する。音声再生システム1は、ユーザLによって入力されたプロファイルと、プロファイルテーブル74に記憶されている各頭部伝達関数のプロファイルとを比較し、一致するものが多いものなどを候補関数として選択する。この選択において、プロファイルの各項目を平等に扱ってもよく、影響の大きいと思われる項目の係数を大きくするなど、重み付けをしてもよい。また、プロファイルは、例えば携帯端末装置10に予め設定されている情報、例えば、住んでいる地域または使用している言語等に基づいて選択してもよい。この場合、携帯端末装置10は、予め設定されている各種の情報と、プロファイルと、を対応付けるテーブルを記憶部101に記憶しておく。携帯端末装置10は、当該テーブルに基づいてプロファイルを選択することで、プロファイルの選択の精度を簡易に高めることができる。
図5は、選択ログ75の例を示す図である。選択ログ75には、頭部伝達関数選択処理の選択結果が記録される。すなわち、頭部伝達関数選択処理において、ユーザLのユーザID、ユーザLによって入力されたプロファイル、および、最終的にユーザLに適用すべく選択された頭部伝達関数とが対応付けて記録される。選択ログ75の内容は、定期的または不定期にサーバ3にアップロードされる。
ネットワーク通信部102は、ネットワーク4を介してサーバ3と通信する。制御部100は、ネットワーク通信部102を用いて、サーバ3に選択ログ75の内容をアップロードする。この実施形態では、頭部伝達関数データベース73が、携帯端末装置10の記憶部101に記憶されているが、サーバ3に記憶されていてもよい。この場合、携帯端末装置10は、ユーザLのプロファイルでプロファイルテーブル74を参照して複数の候補関数(頭部伝達関数)を選択し、選択した頭部伝達関数をサーバ3からダウンロードすればよい。GPS測位部103は、GPS(Global Positioning System)衛星の信号を受信して、自身の正確な位置を測定する。
音声生成部104は、ヘッドホン20に出力する音声を生成する。音声生成部104によって生成された音声信号は、信号処理部105に入力される。信号処理部105には、頭部伝達関数がセットされている。具体的には、信号処理部105は、FIRフィルタとして構成されており、頭部伝達関数を時間領域に変換した頭部インパルス応答がフィルタ係数としてセットされる。信号処理部105は、音声信号に頭部伝達関数(頭部インパルス応答)に畳み込むことにより、この音声が指定された方向から聴こえてくるような周波数特性に加工する。
デバイス通信部106は、Bluetooth対応機器であるヘッドホン20と通信する。デバイス通信部106は、ヘッドホン20に対して音声信号の送信を行うとともに、ヘッドホン20からジャイロセンサ23の検出値を受信する。
図3のブロック図を参照して、ヘッドホン20の構成を説明する。ヘッドホン20は、スピーカ21L,21R、ジャイロセンサ23、デバイス通信部24、AIF25、DAC26L,26R、アンプ27L,27Rを備えている。
デバイス通信部24は、Bluetooth対応機器である携帯端末装置10(デバイス通信部106)と通信する。AIF(Audio Interface)25は、携帯端末装置10から受信した音声信号を左右チャンネル毎にDAC26L,26Rに送信する。DAC(Digtal to Analog Converter)26L,26Rは、AIF25から入力されたデジタル信号をアナログ信号に変換する。アンプ27L,27Rは、DAC26L,26Rから入力されたアナログ信号を増幅してスピーカ21L,21Rに供給する。これにより、携帯端末装置10から受信した音声信号は、音響としてスピーカ21L,21Rから放音される。上述したように、音声信号は、予め決められた位置に定位するよう信号処理されているため、ユーザLが移動しても且つ頭部の向きを変えても、ユーザLには同じ位置から発音しているように聞こえる。
図6のフローチャートを参照して、頭部伝達関数選択処理について説明する。この実施形態では、頭部伝達関数選択処理は、携帯端末装置10の制御部100によって実行される。図6において、ユーザLが自身のプロファイルを入力する(S11)。携帯端末装置10は、入力されたユーザプロファイルでプロファイルテーブル74を参照し、候補となる頭部伝達関数(候補関数)を複数選択する(S12)。S12で選択される候補関数の数は、m個(n=1~m)とする。
テストされる候補関数を示す引数nに1がセットされる(S13)。テストでは、候補関数nを用いて定位されたテスト音声が、ユーザLには、どの方向に聞こえるかが判定される。携帯端末装置10は、テスト音声の定位方向(発音定位方向)を決定する(S14)。テスト音声の定位方向は、予め一つの方向を決めておいてもよいが、ユーザLの慣れを防ぐため、毎回異なる方向を決定すればよい。また、携帯端末装置10が、テスト音声の定位方向を、決定した発音定位方向を中心にわずかに揺らせることにより、ユーザLが定位方向を認識しやすくなる。発音定位方向を揺らせる処理は、信号処理部105にセットされた頭部インパルス応答の1または数個のフィルタ係数を、わずかに上下させることによって可能である。
携帯端末装置10は、この定位方向の単一方向頭部伝達関数をn番目の候補関数セットから読み出して信号処理部105にセットする(S15)。頭部伝達関数がセットされたのち、携帯端末装置10は、テスト音声を発生する(S16)。
テスト音声が発生されると、ユーザLが、自身の聴覚上のテスト音声の定位方向(聴覚定位方向)を入力する(S17)。ユーザLによる聴覚定位方向の入力は、どのような方法であってもよい。たとえば、「ユーザLが、手に持っている携帯端末装置10を聴覚定位方向に向ける。」、「ユーザLが、聴覚定位方向に頭を向け、ジャイロセンサ23でその方向を検出する。」などの方法採用することができる。
候補関数はユーザL自身の頭部伝達関数ではないため、発音定位方向とユーザLの聴覚定位方向には、ずれが生じることが考えられる。S18では、そのずれである定位差を算出して記録する(S18)。定位差として、ずれの大きさ(角度の絶対値)、ずれの方向(発音定位方向から聴覚定位方向への相対角度)などが記録される。
携帯端末装置10は、候補関数1~mについて、S14-S18の処理を繰り返し実行する(S19,S20)。S14-S18の処理は、テスト発音を発生して発音定位方向とユーザLの聴覚定位方向の定位差を測定する処理である。候補関数1~mの定位差を算出・記録したのち、この記録に基づいて、候補関数1~mのなかから最適な頭部伝達関数を決定する(S21)。頭部伝達関数の決定方法は制限がないが、例えば、「角度差の最も小さいものを選択する。」、「水平方向の角度差が最も小さいものを選択する。」などの手法を採用することが可能である。そして、今回の選択結果をユーザLのプロファイルとともに選択ログ75に記録する(S22)。
図6の頭部伝達関数選択処理において、ユーザLからのプロファイルの入力がない場合、過去の選択ログ75を参照して、以前に選択された頭部伝達関数を今回も選択するようにしてもよい。
以上詳述した実施形態から、以下のような態様が把握される。
一実施形態に係る音響デバイスは、ユーザが両耳に装用する放音部と、複数の頭部伝達関数を記憶した記憶部と、信号処理部と、制御部とを備える。信号処理部は、放音部から放音する音声信号を頭部伝達関数により処理する。制御部は、頭部伝達関数選択処理を実行する。制御部は、頭部伝達関数選択処理において以下の処理を実行する。制御部は、複数の頭部伝達関数から2以上の頭部伝達関数を候補関数として選択する。制御部は、選択した各候補関数について、所定のテスト音声を、所定の発音定位方向に定位するよう候補関数で処理して前記放音部から放音する。制御部は、選択した各候補関数について、放音部から放音されたテスト音声の、ユーザの聴覚上の定位方向である聴覚定位方向の入力を受け付ける。制御部は、選択した各候補関数について、発音定位方向と聴覚定位方向の差である定位差を算出する。制御部は、2以上の候補関数についての定位差に基づいて、ユーザに適用する頭部伝達関数を選択する。制御部は、例えば、定位差が所定の閾値を超える候補関数を選択する。
一態様においては、放音部が、ヘッドホンまたはイヤホンであってもよい。
一態様においては、制御部は、複数の候補関数から一つの頭部伝達関数を選択することに代えて、2または3以上の候補関数を選択してもよい。制御部は、選択したこれらの関数値を補間して作成した新たな頭部伝達関数をユーザに適用してもよい。
一態様においては、ユーザの頭部の向きを検出する方位検出部をさらに備えてもよい。制御部は、テスト音声を聴いたユーザが向いたときの方位検出部の検出方向を聴覚定位方向として取得してもよい。
一態様においては、音響デバイスが、オーディオ再生装置が有線または無線で接続された構成であってもよい。記憶部、信号処理部、および、制御部の一部または全部がオーディオ再生装置に設けられていてもよい。
一態様においては、オーディオ再生装置または放音部にネットワーク通信部を備えてもよい。記憶部および制御部の一部がネットワーク上のサーバに設けられていてもよい。
一態様において、制御部は、ユーザに適用するよう選択された候補関数の情報を、サーバに送信してもよい。サーバは、複数の音響デバイスから頭部伝達関数の選択情報を収集してもよい。
一態様においては、複数の頭部伝達関数として、異なる(various)プロファイルの頭部伝達関数が記憶されていてもよい。ユーザのプロファイルに近いプロファイルの頭部伝達関数が候補関数として選択されてもよい。
《変形例1》
上記実施形態では、携帯端末装置10は、各候補関数について1回ずつテスト音声が発生されるようにしていた。各候補関数について、それぞれ別の発音定位方向で複数回ずつテスト音声が発生されるようにしてもよい。この場合、携帯端末装置10は、同じ候補関数についてS14-S18の処理を複数回繰り返せばよい。
《変形例2》
上記実施形態では、携帯端末装置10は、定位差に基づいて一つの候補関数を選択し、この候補関数(頭部伝達関数)をユーザLに適用している。携帯端末装置10が、定位差に基づいて複数の候補関数を選択し、これらの候補関数を補間してユーザに適用してもよい。
《変形例3》
上記実施形態では、本発明の音響デバイスが、携帯端末装置10とヘッドホン20との組み合わせで構成されていた。本発明の音響デバイスの全ての構成が、ヘッドホン20に集約されていてもよい。
《変形例4》
本発明の音響デバイスの構成の一部が、ネットワーク上のサーバ3に存在していてもよい。たとえば、頭部伝達関数データベース73がサーバ3に設けられ、プロファイルに基づいて選択された候補関数がサーバ3からダウンロードされてもよい。
《変形例5》
上記実施形態では、ユーザが入力したプロファイルに基づいて候補関数が選択される。ユーザが装用するヘッドホンが、カメラなどのセンサを備え、センサによってヘッドトラッキングデータ取得してもよい。システムは、ヘッドトラッキングデータに基づいてユーザの頭の形状を推定し、候補関数またはユーザに設定される頭部伝達関数を自動選択する。
1 音声再生システム
10 携帯端末装置(スマートホン)
20 ヘッドホン
21 スピーカ
23 ジャイロセンサ
70 アプリケーションプログラム
73 頭部伝達関数データベース
74 プロファイルテーブル
75 選択ログ
101 記憶部
105 信号処理部

Claims (17)

  1. ユーザが両耳に装用する放音部と、
    複数の頭部伝達関数を記憶した記憶部と、
    前記放音部から放音する音声信号を前記頭部伝達関数により処理する信号処理部と、
    頭部伝達関数選択処理を実行する制御部と、
    を備えた音声再生システムであって、
    前記制御部は、前記頭部伝達関数選択処理において、
    ユーザのプロファイルを入力し、前記複数の頭部伝達関数から入力した前記プロファイルに対応する2以上の頭部伝達関数を候補関数として選択し、
    選択した各候補関数について、
    所定のテスト音声を、所定の定位方向である発音定位方向に定位するよう前記候補関数で処理して前記放音部から放音し、
    前記放音部から放音された前記テスト音声の、前記ユーザの聴覚上の定位方向である聴覚定位方向を取得し、
    前記発音定位方向と前記聴覚定位方向の差である定位差を算出し、
    2以上の前記候補関数についての前記定位差に基づいて、前記ユーザに適用する頭部伝達関数を選択する
    音声再生システム
  2. 前記プロファイルは、前記ユーザの頭部形状または耳介形状の情報を含む請求項1に記載の音声再生システム
  3. 前記制御部は、前記複数の候補関数から一つの頭部伝達関数を選択することに代えて、2または3以上の候補関数を選択し、選択された関数値を補間して作成した新たな頭部伝達関数を前記ユーザに適用する請求項1または請求項2に記載の音声再生システム
  4. 前記ユーザの頭部の向きを検出する方位検出部をさらに備え、
    前記制御部は、前記テスト音声を聴いたユーザが向いたときの前記方位検出部の検出方向を前記聴覚定位方向として取得する
    請求項1乃至請求項3のいずれかに記載の音声再生システム
  5. オーディオ再生装置が有線または無線で接続され、前記記憶部、信号処理部、および、制御部の一部または全部が前記オーディオ再生装置に設けられている請求項1乃至請求項4のいずれかに記載の音声再生システム
  6. 前記オーディオ再生装置は、ネットワーク通信部を備え、
    前記記憶部および前記制御部の一部がネットワーク上のサーバに設けられている
    請求項5に記載の音声再生システム
  7. 前記放音部は、ネットワーク通信部を備え、
    前記記憶部および前記制御部の一部がネットワーク上のサーバに設けられている
    請求項1乃至請求項5のいずれかに記載の音声再生システム
  8. 前記制御部は、前記ユーザに適用すべく選択された頭部伝達関数の情報を、前記サーバに送信する請求項6または請求項7に記載の音声再生システム
  9. 記候補関数として入力した前記プロファイルに近いプロファイルに対応する2以上の頭部伝達関数が選択される
    請求項1乃至請求項8のいずれかに記載の音声再生システム
  10. 信号処理部を備えた装置が、
    ユーザのプロファイルを入力し、複数の頭部伝達関数のうち、入力した前記プロファイルに対応する2以上の頭部伝達関数を候補関数として選択し、
    選択した各候補関数について、所定のテスト音声を、所定の定位方向である発音定位方向に定位するよう前記候補関数で信号処理してユーザが両耳に装用する放音部から放音し、
    前記放音部から放音された前記テスト音声の、前記ユーザの聴覚上の定位方向である聴覚定位方向を取得し、
    前記発音定位方向と前記聴覚定位方向の差である定位差を算出し、
    2以上の前記候補関数についての前記定位差に基づいて、前記ユーザに適用する頭部伝達関数を選択する
    頭部伝達関数選択方法。
  11. 前記プロファイルは、前記ユーザの頭部形状または耳介形状の情報を含む請求項10に記載の頭部伝達関数選択方法。
  12. 前記複数の候補関数から一つの頭部伝達関数を選択することに代えて、2または3以上の候補関数を選択し、選択された関数値を補間して作成した新たな頭部伝達関数を前記ユーザに適用する請求項10または請求項11に記載の頭部伝達関数選択方法。
  13. 前記ユーザの頭部の向きを検出し、
    前記テスト音声を聴いたユーザが向いたとき検出された方向を前記聴覚定位方向として取得する
    請求項10乃至請求項12のいずれかに記載の頭部伝達関数選択方法。
  14. オーディオ再生装置を、有線または無線で接続し、
    前記候補関数を選択する処理、前記テスト音声を前記候補関数で信号処理して放音する処理、前記聴覚定位方向の入力を受け付ける処理、前記定位差を算出する処理、および、前記ユーザに適用する頭部伝達関数を選択する処理、の一部または全部を前記オーディオ再生装置に実行させる
    請求項10乃至請求項13のいずれかに記載の頭部伝達関数選択方法。
  15. ネットワーク通信部を介してサーバと通信し、
    前記候補関数を選択する処理、前記テスト音声を前記候補関数で信号処理して放音する処理、前記聴覚定位方向の入力を受け付ける処理、前記定位差を算出する処理、および、前記ユーザに適用する頭部伝達関数を選択する処理、の一部または全部を前記サーバに実行させる
    請求項10乃至請求項14のいずれかに記載の頭部伝達関数選択方法。
  16. 前記ユーザに適用すべく選択された頭部伝達関数の情報を前記サーバに送信する請求項15に記載の頭部伝達関数選択方法。
  17. 記候補関数として入力した前記プロファイルに近いプロファイルに対応する2以上の頭部伝達関数が選択される
    請求項10乃至請求項16のいずれかに記載の頭部伝達関数選択方法。
JP2020054235A 2020-03-25 2020-03-25 音声再生システムおよび頭部伝達関数選択方法 Active JP7472582B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020054235A JP7472582B2 (ja) 2020-03-25 2020-03-25 音声再生システムおよび頭部伝達関数選択方法
US17/131,422 US11252526B2 (en) 2020-03-25 2020-12-22 Acoustic device and head-related transfer function selecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054235A JP7472582B2 (ja) 2020-03-25 2020-03-25 音声再生システムおよび頭部伝達関数選択方法

Publications (2)

Publication Number Publication Date
JP2021158427A JP2021158427A (ja) 2021-10-07
JP7472582B2 true JP7472582B2 (ja) 2024-04-23

Family

ID=77856852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054235A Active JP7472582B2 (ja) 2020-03-25 2020-03-25 音声再生システムおよび頭部伝達関数選択方法

Country Status (2)

Country Link
US (1) US11252526B2 (ja)
JP (1) JP7472582B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193382A (ja) 2007-02-05 2008-08-21 Mitsubishi Electric Corp 携帯電話機、及び音声調整方法
JP2014099797A (ja) 2012-11-15 2014-05-29 Nippon Hoso Kyokai <Nhk> 頭部伝達関数選択装置、音響再生装置
JP2015019360A (ja) 2013-07-04 2015-01-29 ジーエヌ リザウンド エー/エスGn Resound A/S 個人ごとのhrtfの決定
JP2015211235A (ja) 2014-04-23 2015-11-24 国立研究開発法人情報通信研究機構 立体音再生装置およびプログラム
JP2017143469A (ja) 2016-02-12 2017-08-17 キヤノン株式会社 情報処理装置および情報処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017103598A (ja) 2015-12-01 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11228857B2 (en) * 2019-09-28 2022-01-18 Facebook Technologies, Llc Dynamic customization of head related transfer functions for presentation of audio content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193382A (ja) 2007-02-05 2008-08-21 Mitsubishi Electric Corp 携帯電話機、及び音声調整方法
JP2014099797A (ja) 2012-11-15 2014-05-29 Nippon Hoso Kyokai <Nhk> 頭部伝達関数選択装置、音響再生装置
JP2015019360A (ja) 2013-07-04 2015-01-29 ジーエヌ リザウンド エー/エスGn Resound A/S 個人ごとのhrtfの決定
JP2015211235A (ja) 2014-04-23 2015-11-24 国立研究開発法人情報通信研究機構 立体音再生装置およびプログラム
JP2017143469A (ja) 2016-02-12 2017-08-17 キヤノン株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US11252526B2 (en) 2022-02-15
JP2021158427A (ja) 2021-10-07
US20210306793A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US10362432B2 (en) Spatially ambient aware personal audio delivery device
JP5894634B2 (ja) 個人ごとのhrtfの決定
JP2017092732A (ja) 聴覚支援システムおよび聴覚支援装置
JP6791001B2 (ja) 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム
JP6596896B2 (ja) 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置
CN105814913A (zh) 对名字敏感的收听装置
US11115743B2 (en) Signal processing device, signal processing method, and program
US10880669B2 (en) Binaural sound source localization
JP2017532816A (ja) 音声再生システム及び方法
US10412530B2 (en) Out-of-head localization processing apparatus and filter selection method
JPWO2017195616A1 (ja) 情報処理装置および方法
US11068233B2 (en) Selecting a microphone based on estimated proximity to sound source
JP2019041382A (ja) 音響デバイス
JP7472582B2 (ja) 音声再生システムおよび頭部伝達関数選択方法
US11659347B2 (en) Information processing apparatus, information processing method, and acoustic system
JP6981330B2 (ja) 頭外定位処理装置、頭外定位処理方法、及びプログラム
US11190896B1 (en) System and method of determining head-related transfer function parameter based on in-situ binaural recordings
JP6805879B2 (ja) フィルタ生成装置、フィルタ生成方法、及びプログラム
JP7404736B2 (ja) 頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
JP7395906B2 (ja) ヘッドホン、頭外定位フィルタ決定装置、及び頭外定位フィルタ決定方法
US11937072B2 (en) Headphones, out-of-head localization filter determination device, out-of-head localization filter determination system, out-of-head localization filter determination method, and program
WO2021059984A1 (ja) 頭外定位フィルタ決定システム、頭外定位処理装置、頭外定位フィルタ決定装置、頭外定位フィルタ決定方法、及びプログラム
JP6988321B2 (ja) 信号処理装置、信号処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7472582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150