JP6841229B2 - 音声処理装置および方法、並びにプログラム - Google Patents

音声処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP6841229B2
JP6841229B2 JP2017555022A JP2017555022A JP6841229B2 JP 6841229 B2 JP6841229 B2 JP 6841229B2 JP 2017555022 A JP2017555022 A JP 2017555022A JP 2017555022 A JP2017555022 A JP 2017555022A JP 6841229 B2 JP6841229 B2 JP 6841229B2
Authority
JP
Japan
Prior art keywords
sound source
sound
frequency spectrum
spatial frequency
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017555022A
Other languages
English (en)
Other versions
JPWO2017098949A1 (ja
Inventor
悠 前野
悠 前野
祐基 光藤
祐基 光藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017098949A1 publication Critical patent/JPWO2017098949A1/ja
Application granted granted Critical
Publication of JP6841229B2 publication Critical patent/JP6841229B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本技術は音声処理装置および方法、並びにプログラムに関し、特に、より適切に音場を再現することができるようにした音声処理装置および方法、並びにプログラムに関する。
例えば、環状や球状のスピーカアレイを用いてHOA(Higher Order Ambisonics)により全方位の音場を再生するとき、所望の音場が正しく再現されるエリア(以下、再現エリアと称する)はスピーカアレイの中心付近に限定される。そのため、正しく再現した音場を同時に聴取できる人数は少数に限られてしまうことになる。
また、全方位のコンテンツを再生する場合、聴取者は頭を回転させながらコンテンツを楽しむことが考えられる。しかしながら、そのような場合、再現エリアが人の頭と同じくらいの大きさであるときには、聴取者の頭が再現エリアの外に出てしまい、期待する体験が得られなくなってしまう可能性もある。
さらに頭の回転だけでなく、聴取者が並進(移動)しながらコンテンツの音声を聴取することができれば、聴取者は音像の定位感をより感じることができ、臨場感のある音場を体験することができる。しかし、このような場合においても聴取者の頭部位置がスピーカアレイの中心付近から外れると、臨場感が損なわれる可能性がある。
そこで、環状や球状のスピーカアレイの内部において、聴取者の位置に合わせて音場の再現エリアを移動させる技術が提案されている(例えば、非特許文献1参照)。この技術により聴取者の頭部の移動に合わせて再現エリアを移動させれば、聴取者は常に正しく再現された音場を体験することができる。
しかしながら、上述した技術では再現エリアの移動に伴って音場全体がその移動に追従してしまうため、聴取者が移動すると音像も移動してしまうことになる。
この場合、例えば再生される音声が遠方から届くような平面波であるときには、音場全体が移動したとしても波面の到来方向は変わらないため、音場再現に大きな影響は生じない。しかし、再生される音声が比較的聴取者に近い音源からの球面波である場合には、音源が聴取者に追従するように聞こえてしまう。
このように、再現エリアを移動させる場合においても、音源が聴取者に近いときには適切に音場を再現することが困難であった。
本技術は、このような状況に鑑みてなされたものであり、より適切に音場を再現することができるようにするものである。
本技術の一側面の音声処理装置は、音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報を補正する音源位置補正部と、前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルを算出する再現エリア制御部とを備える。
前記再現エリア制御部には、前記オブジェクト音源信号と、前記オブジェクト音源とは異なる音源の音声の信号と、前記聴取位置と、前記補正音源位置情報とに基づいて、前記空間周波数スペクトルを算出させることができる。
音声処理装置には、音源分離を行うことで、音声の信号を前記オブジェクト音源信号と、前記オブジェクト音源とは異なる音源の音声の信号とに分離させる音源分離部をさらに設けることができる。
前記オブジェクト音源信号を、音声の時間信号または空間周波数スペクトルとすることができる。
前記音源位置補正部には、前記聴取位置の移動量の分だけ前記オブジェクト音源の位置が移動するように前記補正を行わせることができる。
前記再現エリア制御部には、前記聴取位置の前記移動量だけ前記再現エリアを移動させた前記空間周波数スペクトルを算出させることができる。
前記再現エリア制御部には、球座標系上で前記再現エリアを移動させることで前記空間周波数スペクトルを算出させることができる。
音声処理装置には、前記再現エリア制御部により算出された前記空間周波数スペクトルに対して空間周波数合成を行って時間周波数スペクトルを算出する空間周波数合成部と、前記時間周波数スペクトルに対して時間周波数合成を行って、前記スピーカアレイの駆動信号を算出する時間周波数合成部とをさらに設けることができる。
本技術の一側面の音声処理方法またはプログラムは、音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報を補正し、前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルを算出するステップを含む。
本技術の一側面においては、音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報が補正され、前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルが算出される。
本技術の一側面によれば、より適切に音場を再現することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術について説明する図である。 音場制御器の構成例を示す図である。 マイク配置情報について説明する図である。 音源位置情報の補正について説明する図である。 音場再現処理を説明するフローチャートである。 音場制御器の構成例を示す図である。 音場再現処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈本技術について〉
本技術は、音場再現時に聴取者の位置情報とオブジェクト音源の位置情報を用いて、再現エリアを聴取者の位置に追従させつつ、オブジェクト音源の位置を聴取者の移動によらず空間内で固定させることで、より適切に音場を再現できるようにするものである。
例えば図1の矢印A11に示すように再生空間において音場を再現する場合について考える。なお、図1において再生空間における濃淡はスピーカアレイにより再生された音声の音圧を表している。また、再生空間内のバツ印(「×」印)はスピーカアレイを構成する各スピーカを表している。
矢印A11に示す例では、環状のスピーカアレイの中心付近に、音場が正しく再現される領域、すなわち、いわゆるスイートスポットと呼ばれる再現エリアR11が位置している。また、その再現エリアR11のほぼ中心位置に再現された音場、つまりスピーカアレイで再生された音声を聴取する聴取者U11がいる。
いま、スピーカアレイにより音場を再現すると、聴取者U11には音源OB11からの音が聞こえているように感じられるものとする。この例では、音源OB11は比較的聴取者U11から近い位置にあり、この音源OB11の位置に音像が定位する。
このような音場再現を行っているときに、例えば聴取者U11が再生空間内を図中、右方向に並進(移動)したとする。また、このとき聴取者U11の移動に応じて、再現エリアを移動させる技術に基づいて、再現エリアR11を移動させたとする。
すると、例えば矢印A12に示すように聴取者U11の移動に合わせて再現エリアR11も移動し、聴取者U11は移動後においても再現エリアR11内で音声を聴取することができるようになる。
しかし、この場合、再現エリアR11とともに音源OB11の位置も移動してしまい、移動の前後において、聴取者U11と音源OB11との相対的な位置関係が同じとなってしまう。したがって、聴取者U11にとっては、自分が移動しているのにも関わらず、自分から見た音源OB11の位置は移動しておらず、違和感が生じてしまう。
そこで本技術では、再現エリアを移動させる技術に基づいて、聴取者U11の移動に合わせて再現エリアR11を移動させるとともに、再現エリアR11の移動時に適切に音源OB11の位置の補正も行うことで、より適切な音場再現を実現できるようにした。
これにより、例えば矢印A13に示すように、移動後においても聴取者U11が再現エリアR11内で正しく再現された音場(音声)を聴取できるようにするだけでなく、再生空間内において、音源OB11の位置を固定させることができる。
この場合、聴取者U11が移動しても再生空間内における音源OB11の位置はそのままであるので、聴取者U11に対してより臨場感のある音場再現を提供することができる。つまり、再現エリアR11を聴取者U11の移動に追従させつつ、音源OB11の位置は固定されたままとなる音場再現を実現することができる。
ここで、再現エリアR11の移動時における音源OB11の位置の補正には、聴取者U11の位置を示す聴取者位置情報と、音源OB11の位置、つまりオブジェクト音源の位置を示す音源位置情報とを用いればよい。
なお、聴取者位置情報の取得は、例えば加速度センサなどのセンサを聴取者U11に何らかの方法で装着させたり、カメラを用いて画像処理により聴取者U11の位置を検出したりすることで実現することができる。
また、音源OB11、すなわちオブジェクト音源の音源位置情報については、音声の再生内容によって異なった取得方法が考えられる。
例えば、オブジェクト音再生の場合には、メタデータとして与えられるオブジェクト音源の音源位置情報を取得し、それを用いればよい。
これに対して、マイクロホンアレイを用いて波面収音された音場を再現する場合には、例えば各オブジェクト音源を分離する技術を用いて、音源位置情報を得るようにすればよい。
なお、各オブジェクト音源を分離する技術については、例えば「小山翔一,村田直毅,猿渡洋,”超解像型音場収音・再現のためのグループスパース信号表現と分解アルゴリズム,” 春季日本音響学会講演論文集,2015.」(以下、参照文献1と称する)などに詳細に記載されている。
また、スピーカアレイではなくヘッドホンで音場を再現することも考えられる。
例えば一般的な技術として、オブジェクト音源から聴取者までの頭部伝達関数(HRTF(Head-Related Transfer Function))を用いることもできる。この場合、オブジェクト音源と聴取者との相対位置に応じて頭部伝達関数を切り替えることで音場再現が可能であるが、オブジェクト音源の数が増えるとその分だけ演算量も増加してしまう。
そこで、本技術では、ヘッドホンで音場を再現する場合には、スピーカアレイを構成する各スピーカを仮想スピーカとして捉え、各仮想スピーカの駆動信号に対して、それらの仮想スピーカの位置に対応する頭部伝達関数を畳み込むようにした。これにより、スピーカアレイを用いた再生と同様の音場を再現することができる。また、オブジェクト音源の数によらず頭部伝達関数の畳み込み演算の回数を一定数とすることができる。
さらに、以上のような本技術において、聴取者に近く、音源位置の補正が必要となるものをオブジェクト音源として音源位置の補正を行い、聴取者から遠く、音源位置の補正が不要であるものをアンビエント音源として音源位置の補正を行わないようにすれば、演算量をさらに削減することができる。
ここで、オブジェクト音源の音声は、コンテンツに含まれる主たる音声ということができ、アンビエント音源の音声は、コンテンツに含まれる環境音等の周囲の音声であるということができる。以下では、オブジェクト音源の音声信号をオブジェクト音源信号とも称し、アンビエント音源の音声信号をアンビエント信号とも称することとする。
なお、本技術によれば、各音源の音声信号に頭部伝達関数を畳み込み、ヘッドホンで音場を再現する場合においても、オブジェクト音源についてのみ頭部伝達関数を畳み込み、アンビエント音源については頭部伝達関数の畳み込みを行わないようにしても演算量を削減することができる。
以上のような本技術によれば、聴取者の動きに合わせて再現エリアを移動させることができるため、聴取者の位置によらず、聴取者に対して正しく再現された音場を提示することができる。また、聴取者が並進運動をしても空間内におけるオブジェクト音源の位置は変化しないので、音源の定位感を向上させることができる。
〈音場制御器の構成例〉
次に、本技術を音場制御器に適用した場合を例として、本技術を適用した具体的な実施の形態について説明する。
図2は、本技術を適用した音場制御器の一実施の形態の構成例を示す図である。
図2に示す音場制御器11は、収音空間に配置された収録装置21と、再生空間に配置された再生装置22とを有している。
収録装置21は、収音空間の音場を収録して、その結果得られた信号を再生装置22へと供給し、再生装置22は、収録装置21から信号の供給を受けて、その信号に基づいて収音空間の音場を再現する。
収録装置21は、マイクロホンアレイ31、時間周波数分析部32、空間周波数分析部33、および通信部34を備えている。
マイクロホンアレイ31は、例えば環状マイクロホンアレイや球状マイクロホンアレイからなり、収音空間の音声(音場)をコンテンツとして収音して、その結果得られたマルチチャンネルの音声信号である収音信号を時間周波数分析部32に供給する。
時間周波数分析部32は、マイクロホンアレイ31から供給された収音信号に対して時間周波数変換を行い、その結果得られた時間周波数スペクトルを空間周波数分析部33に供給する。
空間周波数分析部33は、外部から供給されたマイク配置情報を用いて、時間周波数分析部32から供給された時間周波数スペクトルに対して空間周波数変換を行い、その結果得られた空間周波数スペクトルを通信部34に供給する。
ここで、マイク配置情報は収録装置21、つまりマイクロホンアレイ31の方向を示す角度情報である。このマイク配置情報は、例えば収録装置21により音場の収録、つまり音声の収音を開始した時点など、所定時刻におけるマイクロホンアレイ31の方向、より詳細にはマイクロホンアレイ31を構成する各マイクロホンの方向を示す情報である。
通信部34は、空間周波数分析部33から供給された空間周波数スペクトルを、有線または無線により再生装置22に送信する。
また、再生装置22は、通信部41、音源分離部42、聴取位置検出部43、音源位置補正部44、再現エリア制御部45、空間周波数合成部46、時間周波数合成部47、およびスピーカアレイ48を備えている。
通信部41は、収録装置21の通信部34から送信されてきた空間周波数スペクトルを受信して音源分離部42に供給する。
音源分離部42は、音源分離を行うことで、通信部41から供給された空間周波数スペクトルを、オブジェクト音源信号とアンビエント信号とに分離させるとともに、各オブジェクト音源の位置を示す音源位置情報を求める。
音源分離部42は、オブジェクト音源信号と、音源位置情報とを音源位置補正部44に供給し、アンビエント信号を再現エリア制御部45に供給する。
聴取位置検出部43は、外部から供給されたセンサ情報に基づいて、再生空間における聴取者の位置を検出するとともに、その検出結果から得られる聴取者の移動量Δxを音源位置補正部44および再現エリア制御部45に供給する。
ここで、センサ情報は、例えば聴取者に取り付けられた加速度センサやジャイロセンサから出力された情報などとされる。この場合、聴取位置検出部43は、センサ情報として供給された、加速度や聴取者の変位量に基づいて聴取者の位置を検出する。
また、例えばセンサ情報として、画像センサで得られた画像情報を取得するようにしてもよい。この場合、聴取者を被写体として含む画像のデータ(画像情報)、または聴取者から見た周囲の画像のデータがセンサ情報として取得され、聴取位置検出部43は、センサ情報に対する画像認識等により聴取者の位置を検出する。
さらに、移動量Δxは、例えばスピーカアレイ48の中心位置、つまりスピーカアレイ48を構成する各スピーカにより囲まれる領域の中心位置から、再現エリアの中心位置までの移動量とされる。例えば聴取者が1人である場合には、その聴取者の位置が再現エリアの中心位置とされる。すなわち、スピーカアレイ48の中心位置からの聴取者の移動量がそのまま移動量Δxとされる。なお、再現エリアの中心位置は、スピーカアレイ48を構成する各スピーカにより囲まれる領域内の位置であるとする。
音源位置補正部44は、聴取位置検出部43から供給された移動量Δxに基づいて、音源分離部42から供給された音源位置情報を補正し、その結果得られた補正音源位置情報と、音源分離部42から供給されたオブジェクト音源信号とを再現エリア制御部45に供給する。
再現エリア制御部45は、聴取位置検出部43から供給された移動量Δxと、音源位置補正部44から供給された補正音源位置情報およびオブジェクト音源信号と、音源分離部42から供給されたアンビエント信号とに基づいて、再現エリアを移動量Δxだけ移動させた空間周波数スペクトルを求め、空間周波数合成部46に供給する。
空間周波数合成部46は、外部から供給されたスピーカ配置情報に基づいて、再現エリア制御部45から供給された空間周波数スペクトルを空間周波数合成し、その結果得られた時間周波数スペクトルを時間周波数合成部47に供給する。
ここで、スピーカ配置情報は、スピーカアレイ48の方向、より詳細にはスピーカアレイ48を構成する各スピーカの方向を示す角度情報である。
時間周波数合成部47は、空間周波数合成部46から供給された時間周波数スペクトルを時間周波数合成し、その結果得られた時間信号をスピーカ駆動信号としてスピーカアレイ48に供給する。
スピーカアレイ48は、複数のスピーカから構成される環状スピーカアレイや球状スピーカアレイなどからなり、時間周波数合成部47から供給されたスピーカ駆動信号に基づいて音声を再生する。
続いて、音場制御器11を構成する各部についてより詳細に説明する。
(時間周波数分析部)
時間周波数分析部32は、マイクロホンアレイ31を構成する各マイクロホン(以下、マイクユニットとも称する)が音声を収音することで得られたマルチチャンネルの収音信号s(i,nt)を、次式(1)の計算を行うことで、DFT(Discrete Fourier Transform)(離散フーリエ変換)を用いて時間周波数変換し、時間周波数スペクトルS(i,ntf)を求める。
Figure 0006841229
なお、式(1)において、iは、マイクロホンアレイ31を構成するマイクユニットを特定するマイクロホンインデックスを示しており、マイクロホンインデックスi=0,1,2,…,I-1である。また、Iはマイクロホンアレイ31を構成するマイクユニットの数を示しており、ntは時間インデックスを示している。
さらに式(1)において、ntfは時間周波数インデックスを示しており、MtはDFTのサンプル数を示しており、jは純虚数を示している。
時間周波数分析部32は、時間周波数変換により得られた時間周波数スペクトルS(i,ntf)を空間周波数分析部33に供給する。
(空間周波数分析部)
空間周波数分析部33は、外部から供給されたマイク配置情報を用いて、時間周波数分析部32から供給された時間周波数スペクトルS(i,ntf)に対して空間周波数変換を行う。
例えば空間周波数変換では、球面調和級数展開が用いられて時間周波数スペクトルS(i,ntf)が空間周波数スペクトルS'n m(ntf)に変換される。なお、空間周波数スペクトルS'n m(ntf)におけるntfは時間周波数インデックスを示しており、nおよびmは球面調和領域の次数を示している。
また、マイク配置情報は、例えば各マイクユニットの方向を示す仰角および方位角からなる角度情報とされる。
すなわち、例えば図3に示すように原点Oを基準とし、x軸、y軸、およびz軸を各軸とする3次元の直交座標系を考えるとする。
いま、マイクロホンアレイ31を構成する所定のマイクユニットMU11と原点Oとを結ぶ直線を直線LNとし、直線LNをz軸方向からxy平面に投影して得られる直線を直線LN’とする。
このとき、x軸と直線LN’とのなす角度φが、xy平面における原点Oから見たマイクユニットMU11の方向を示す方位角とされる。また、xy平面と直線LNとのなす角度θが、xy平面と垂直な平面における原点Oから見たマイクユニットMU11の方向を示す仰角とされる。
以下においては、マイク配置情報は、マイクロホンアレイ31を構成する各マイクユニットの方向を示す情報からなるものとする。
より具体的には、例えばマイクロホンインデックスがiであるマイクユニットの方向を示す情報は、基準となる方向に対するそのマイクユニットの相対的な方向を示す角度(θii)とされる。ここで、θiは基準となる方向から見たマイクユニットの方向の仰角であり、φiは基準となる方向から見たマイクユニットの方向の方位角である。
したがって、例えば図3に示した例においてx軸方向が基準となる方向であるときには、マイクユニットMU11の角度(θii)は仰角θi=θおよび方位角φi=φとなる。
ここで、空間周波数スペクトルS'n m(ntf)の具体的な算出方法について説明する。
一般的に、ある球上の音場Sは次式(2)に示すように表すことができる。
Figure 0006841229
なお、式(2)において、Yは球面調和関数行列を示しており、Wは球の半径および空間周波数の次数による重み係数を示しており、S’は空間周波数スペクトルを示している。このような式(2)の計算は空間周波数逆変換に相当する。
また、次式(3)を計算することで、空間周波数変換により空間周波数スペクトルS’を求めることができる。
Figure 0006841229
なお、式(3)においてY+は球面調和関数行列Yの疑似逆行列を示しており、球面調和関数行列Yの転置行列をYTとして次式(4)により得られるものである。
Figure 0006841229
以上のことから、時間周波数スペクトルS(i,ntf)からなるベクトルSに基づいて、次式(5)により、空間周波数スペクトルS'n m(ntf)からなるベクトルS’が得られることが分かる。空間周波数分析部33は、式(5)を計算して空間周波数変換を行うことで、空間周波数スペクトルS'n m(ntf)を求める。
Figure 0006841229
なお、式(5)において、S’は空間周波数スペクトルS'n m(ntf)からなるベクトルを示しており、ベクトルS’は以下の式(6)により表される。また、式(5)において、Sは各時間周波数スペクトルS(i,ntf)からなるベクトルを示しており、ベクトルSは以下の式(7)により表される。
さらに、式(5)において、Ymicは球面調和関数行列を示しており、球面調和関数行列Ymicは以下の式(8)により表される。また、式(5)において、Ymic Tは球面調和関数行列Ymicの転置行列を示している。
ここで、式(5)において、球面調和関数行列Ymicは、式(4)における球面調和関数行列Yに対応する。また、式(5)においては、式(3)に示した重み係数Wに対応する重み係数については省略されている。
Figure 0006841229
Figure 0006841229
Figure 0006841229
また、式(8)におけるYn mii)は次式(9)に示す球面調和関数である。
Figure 0006841229
式(9)において、nおよびmは球面調和領域、つまり球面調和関数Yn m(θ,φ)の次数を示しており、jは純虚数を示しており、ωは角周波数を示している。
さらに、式(8)の球面調和関数におけるθiおよびφiは、マイク配置情報により示されるマイクユニットの角度(θii)を構成する仰角θiおよび方位角φiを示している。
以上の計算により空間周波数スペクトルS'n m(ntf)が得られると、空間周波数分析部33は、空間周波数スペクトルS'n m(ntf)を、通信部34および通信部41を介して音源分離部42に供給する。
なお、空間周波数変換により空間周波数スペクトルを求める方法については、例えば「Jerome Daniel, Rozenn Nicol, Sebastien Moreau, “Further Investigations of High Order Ambisonics and Wavefield Synthesis for Holophonic Sound Imaging,” AES 114th Convention, Amsterdam, Netherlands, 2003」などに詳細に記載されている。
(音源分離部)
音源分離部42は、音源分離を行うことで、通信部41から供給された空間周波数スペクトルS'n m(ntf)を、オブジェクト音源信号とアンビエント信号とに分離させるとともに、各オブジェクト音源の位置を示す音源位置情報を求める。
なお、音源分離の方法は、どのような方法であってもよいが、例えば上述した参照文献1に記載されている方法により音源分離を行うようにすることが可能である。
この場合、収音空間内にはマイクロホンアレイ31の近くに点音源であるオブジェクト音源がいくつかあり、その他の音源はアンビエント音源であるという仮定に基づいて音声の信号、つまり空間周波数スペクトルがモデル化され、各音源の信号に分離される。すなわち、この技術ではスパース信号処理により音源分離が行われている。このような音源分離では、各音源の位置も特定される。
なお、音源分離をするにあたっては、何らかの基準により分離する音源数を制限するようにしてもよい。この基準は、例えば音源数そのものや、再現エリアの中心からの距離などが考えられる。すなわち、例えば予めオブジェクト音源とする音源の数を定めておくようにしてもよいし、再現エリアの中心からの距離、つまりマイクロホンアレイ31の中心からの距離が所定の距離以下である音源をオブジェクト音源とするようにしてもよい。
音源分離部42は、音源分離の結果として得られた各オブジェクト音源の位置を示す音源位置情報と、それらのオブジェクト音源のオブジェクト音源信号とされた空間周波数スペクトルS'n m(ntf)とを音源位置補正部44に供給する。
また、音源分離部42は、音源分離の結果、アンビエント信号とされた空間周波数スペクトルS'n m(ntf)を再現エリア制御部45に供給する。
(聴取位置検出部)
聴取位置検出部43は、再生空間における聴取者の位置を検出し、その検出結果に基づいて、聴取者の移動量Δxを求める。
具体的には、例えば図4に示すように2次元平面上において位置x0にスピーカアレイ48の中心位置があり、その中心位置の座標を中心座標x0と称することとする。
なお、ここでは説明を簡単にするため、2次元平面のみを考えることとし、中心座標x0は、例えば球座標系の座標とされるものとする。
また、2次元平面上において、聴取者の位置に基づいて求められる再現エリアの中心位置が位置xcであり、この再現エリアの中心位置を示す座標を中心座標xcと称することとする。但し、この中心位置xcは、スピーカアレイ48の内側、つまりスピーカアレイ48を構成する各スピーカユニットに囲まれる領域内であるとする。また、中心座標xcも中心座標x0と同様に球座標系の座標とされるものとする。
例えば再生空間内に聴取者が1人だけいる場合、その聴取者の頭部の位置が聴取位置検出部43により検出され、その聴取者の頭部位置がそのまま再現エリアの中心位置xcとされる。
これに対して、再生空間内に複数の聴取者がいる場合には、それらの聴取者の頭部の位置が聴取位置検出部43により検出され、それらの全聴取者の頭部の位置を内包し、半径が最小となる円の中心位置が再現エリアの中心位置xcとされる。
なお、再生空間内に複数の聴取者がいる場合、各聴取者の頭部の位置の重心位置を再現エリアの中心位置xcとするなど、他の方法により再現エリアの中心位置xcを定めるようにしてもよい。
このようにして再現エリアの中心座標xcが求まると、聴取位置検出部43は次式(10)を計算することで移動量Δxを求める。
Figure 0006841229
図4では位置x0を始点とし、位置xcを終点とするベクトルrcが移動量Δxを示しており、式(10)の計算では、球座標で表された移動量Δxが求められる。したがって、音場再現開始時に聴取者が位置x0にいるものとすると、移動量Δxは聴取者の頭部の移動量ともいうことができるし、再現エリアの中心位置の移動量であるということもできる。
また、音場再現開始時に再現エリアの中心位置が位置x0にあり、2次元平面上の位置xに所定のオブジェクト音源があったとすると、音場再現開始時における再現エリアの中心位置からみたオブジェクト音源の位置は、ベクトルrにより示される位置である。
これに対して、再現エリアの中心位置が当初の位置x0から位置xcへと移動したとすると、その移動後における再現エリアの中心位置からみたオブジェクト音源の位置は、ベクトルr’により示される位置となる。
この場合、移動前後における再現エリアの中心位置からみたオブジェクト音源の位置は、ベクトルrcの分だけ、つまり移動量Δxの分だけ変化している。そのため、再生空間内で再現エリアのみを移動させ、オブジェクト音源の位置は固定されたままとするためには、オブジェクト音源の位置xを適切に補正する必要があり、その補正が音源位置補正部44で行われる。
なお、位置x0から見たオブジェクト音源の位置xを、図4に示すベクトルrの大きさである半径rと、方位角φとを用いて球座標により表すとx=(r,φ)となる。同様に、移動後の位置xcから見たオブジェクト音源の位置xを、図4に示すベクトルr’の大きさである半径r’と、方位角φ’とを用いて球座標で表すとx=(r’,φ’)となる。
さらに移動量Δxもベクトルrcの大きさである半径rcと、方位角φcとを用いて球座標によりΔx=(rc,φc)と表すことができる。なお、ここでは各位置や移動量を球座標により表す例について説明するが、各位置や移動量を直交座標で表すようにしてもよい。
聴取位置検出部43は、以上の計算により得られた移動量Δxを、音源位置補正部44および再現エリア制御部45に供給する。
(音源位置補正部)
音源位置補正部44は、聴取位置検出部43から供給された移動量Δxに基づいて、音源分離部42から供給された音源位置情報を補正し、補正音源位置情報を得る。すなわち、音源位置補正部44では、聴取者による音声の聴取位置に応じて、各オブジェクト音源の位置が補正される。
具体的には、例えば音源位置情報により示されるオブジェクト音源の位置を示す座標がxobj(以下、音源位置座標xobjとも称する)であり、補正音源位置情報により示される補正後のオブジェクト音源の位置を示す座標がx’obj(以下、補正音源位置座標x’objとも称する)であるとする。なお、これらの音源位置座標xobjおよび補正音源位置座標x’objは、例えば球座標で表される。
音源位置補正部44は、音源位置座標xobjと移動量Δxとから次式(11)を計算することで、補正音源位置座標x’objを算出する。
Figure 0006841229
これにより、移動量Δxの分だけ、つまり聴取者による音声の聴取位置の移動分だけ、オブジェクト音源の位置が移動される。
音源位置座標xobjおよび補正音源位置座標x’objは、それぞれ移動前後における再現エリアの中心位置を基準とする、つまり聴取者の位置から見た各オブジェクト音源の位置を示す情報となっている。このように、オブジェクト音源の位置を示す音源位置座標xobjを、再生空間上における移動量Δxの分だけ補正して補正音源位置座標x’objとすれば、再生空間で見ると補正の前後でオブジェクト音源の位置は同じ位置のままとなる。
また、音源位置補正部44は、式(11)の計算により得られた球座標で表される補正音源位置座標x’objを、そのまま補正音源位置情報とする。
例えば図4に示した2次元平面のみを考える場合、オブジェクト音源の位置が位置xであるとすると、球座標系では、補正音源位置座標x’objは、ベクトルr’の大きさをr’とし、ベクトルr’の方位角をφ’としてx’obj=(r’,φ’)となる。したがって、補正音源位置座標x’objは、移動後の再現エリアの中心位置から見たオブジェクト音源の相対的な位置を示す座標となる。
音源位置補正部44は、このようにして求められた補正音源位置情報と、音源分離部42から供給されたオブジェクト音源信号とを再現エリア制御部45に供給する。
(再現エリア制御部)
再現エリア制御部45は、聴取位置検出部43から供給された移動量Δxと、音源位置補正部44から供給された補正音源位置情報およびオブジェクト音源信号と、音源分離部42から供給されたアンビエント信号とに基づいて、再現エリアを移動量Δxだけ移動させたときの空間周波数スペクトルS''n m(ntf)を求める。すなわち、空間周波数スペクトルS''n m(ntf)は、空間周波数スペクトルS'n m(ntf)に対して、音像(音源)位置を固定したまま再現エリアを移動量Δxだけ移動させることにより得られるものである。
但し、ここでは説明を簡単にするため、2次元座標系上にスピーカアレイ48を構成するスピーカが環状に配置され、球面調和関数の代わりに環調和関数が用いられて空間周波数スペクトルが算出される場合について説明する。以下では、空間周波数スペクトルS''n m(ntf)に対応する、環調和関数が用いられて算出された空間周波数スペクトルを空間周波数スペクトルS'n(ntf)と記すこととする。
空間周波数スペクトルS'n(ntf)は、次式(12)に示すように分解することができる。
Figure 0006841229
なお、式(12)においてS''n(ntf)は空間周波数スペクトルを示しており、Jn(ntf,r)はn次ベッセル関数を示している。
また、移動後の再現エリアの中心位置xcを中心としたときの時間周波数スペクトルS(ntf)は、次式(13)に示すように表すことができる。
Figure 0006841229
なお、式(13)において、jは純虚数を示しており、r’およびφ’は中心位置xcから見た音源の位置を示す半径および方位角を示している。
ここから、移動前の再現エリアの中心位置x0を中心としたときの空間周波数スペクトルを求めるためには、式(13)を以下の式(14)に示すように変形すればよい。
Figure 0006841229
なお、式(14)において、rおよびφは中心位置x0から見た音源の位置を示す半径および方位角を示してり、rcおよびφcは移動量Δxの半径および方位角を示している。
式(12)による空間周波数スペクトルの分解や式(14)に示した変形等については、例えば「Jens Ahrens, Sascha Spors, “An Analytical Approach to Sound Field Reproduction with a Movable Sweet Spot Using Circular Distributions of Loudspeakers,” ICASSP, 2009.」などに詳細に記載されている。
さらに以上の式(12)乃至式(14)から、求めようとする空間周波数スペクトルS'n(ntf)は、次式(15)のように表すことができる。この式(15)の計算は、球座標系上で音場を移動させる処理に相当する。
Figure 0006841229
再現エリア制御部45は、移動量Δx=(rc,φc)、補正音源位置情報としての補正音源位置座標x’obj=(r’,φ’)、オブジェクト音源信号、およびアンビエント信号に基づいて、式(15)を計算することで空間周波数スペクトルS'n(ntf)を求める。
但し、式(15)の計算時においては、再現エリア制御部45は、オブジェクト音源信号の空間周波数スペクトルS''n'(ntf)として、次式(16)に示される、補正音源位置座標x’objにより表される球面波モデルS''n',SWを、オブジェクト音源信号としての空間周波数スペクトルに乗算して得られるものを用いる。
Figure 0006841229
なお、式(16)においてr'S,φ'Sは、所定のオブジェクト音源についての補正音源位置座標x’objの半径および方位角を示しており、上述した補正音源位置座標x’obj=(r’,φ’)に対応する。すなわち、ここでは各オブジェクト音源を区別するために半径r’および方位角φ’に、オブジェクト音源を識別するための文字Sが記されてr'Sおよびφ'Sとされている。また、Hn' (2)(ntf,r'S)は第2種n’次ハンケル関数を示している。
式(16)に示す球面波モデルS''n',SWは補正音源位置座標x’objから得ることができる。
これに対して、式(15)の計算時において再現エリア制御部45は、アンビエント信号の空間周波数スペクトルS''n'(ntf)として、次式(17)に示される球面波モデルS''n',PWを、アンビエント信号としての空間周波数スペクトルに乗算して得られるものを用いる。
Figure 0006841229
なお、式(17)において、φPWは平面波の到来方向を示しており、この到来方向φPWは、例えば音源分離部42における音源分離時に何らかの到来方向推定技術により特定された方向や、外部入力により指定された方向などとされる。式(17)に示す球面波モデルS''n',PWは、到来方向φPWから得ることができる。
以上の計算によって、再生空間内において再現エリアの中心位置を移動量Δxだけ移動させ、再現エリアを聴取者の移動に追従させた空間周波数スペクトルS'n(ntf)を得ることができる。換言すれば、聴取者による音の聴取位置に合わせた再現エリアの空間周波数スペクトルS'n(ntf)を得ることができる。この場合、空間周波数スペクトルS'n(ntf)により再現される音場の再現エリアの中心位置は、環状や球状のスピーカアレイ48の内側における、移動後の聴取位置となる。
また、ここでは2次元座標系における場合を例として説明したが、3次元座標系における場合にも球面調和関数を用いて同様の計算が可能である。すなわち、球面調和関数を用いて球座標系上で音場(再現エリア)を移動させることが可能である。
球面調和関数を用いた場合の計算については、例えば「Jens Ahrens, Sascha Spors, “An Analytical Approach to 2.5D Sound Field Reproduction Employing Circular Distributions of Non-Omnidirectional Loudspeakers,” EUSIPCO, 2009.」などに詳細に記載されている。
再現エリア制御部45は、球面調和関数を用いて、球座標系上において音像を固定したまま再現エリアを移動させることで得られた空間周波数スペクトルS''n m(ntf)を空間周波数合成部46に供給する。
(空間周波数合成部)
空間周波数合成部46は、再現エリア制御部45から供給された空間周波数スペクトルS''n m(ntf)に対して、スピーカアレイ48を構成する各スピーカの方向を示す角度(ξll)による球面調和関数行列を用いて空間周波数逆変換を行い、時間周波数スペクトルを求める。すなわち、空間周波数合成として空間周波数逆変換が行われる。
なお、以下、スピーカアレイ48を構成する各スピーカをスピーカユニットとも称することとする。ここで、スピーカアレイ48を構成するスピーカユニットの数をスピーカユニット数Lとし、各スピーカユニットを示すスピーカユニットインデックスをlとする。この場合、スピーカユニットインデックスl=0,1,…,L-1である。
いま、外部から空間周波数合成部46に供給されるスピーカ配置情報が、スピーカユニットインデックスlにより示される各スピーカユニットの方向を示す角度(ξll)であるとする。
ここで、スピーカユニットの角度(ξll)を構成するξlおよびψlは、それぞれ上述した仰角θiおよび方位角φiに対応する、スピーカユニットの仰角および方位角を示す角度であり、所定の基準となる方向からの角度である。
空間周波数合成部46は、スピーカユニットインデックスlにより示されるスピーカユニットの方向を示す角度(ξll)について得られる球面調和関数Yn mll)と、空間周波数スペクトルS''n m(ntf)とに基づいて次式(18)を計算することで空間周波数逆変換を行い、時間周波数スペクトルD(l,ntf)を求める。
Figure 0006841229
なお、式(18)においてDは各時間周波数スペクトルD(l,ntf)からなるベクトルを示しており、ベクトルDは以下の式(19)により表される。また、式(18)において、SSPは各空間周波数スペクトルS''n m(ntf)からなるベクトルを示しており、ベクトルSSPは以下の式(20)により表される。
さらに、式(18)において、YSPは各球面調和関数Yn mll)からなる球面調和関数行列を示しており、球面調和関数行列YSPは以下の式(21)により表される。
Figure 0006841229
Figure 0006841229
Figure 0006841229
空間周波数合成部46は、このようにして得られた時間周波数スペクトルD(l,ntf)を時間周波数合成部47に供給する。
(時間周波数合成部)
時間周波数合成部47は、次式(22)を計算することで、空間周波数合成部46から供給された時間周波数スペクトルD(l,ntf)に対してIDFT(Inverse Discrete Fourier Transform)(逆離散フーリエ変換)を用いた時間周波数合成を行い、時間信号であるスピーカ駆動信号d(l,nd)を算出する。
Figure 0006841229
なお、式(22)において、ndは時間インデックスを示しており、MdtはIDFTのサンプル数を示している。また、式(22)においてjは純虚数を示している。
時間周波数合成部47は、このようにして得られたスピーカ駆動信号d(l,nd)を、スピーカアレイ48を構成する各スピーカユニットに供給し、音声を再生させる。
〈音場再現処理の説明〉
次に、音場制御器11の動作について説明する。音場制御器11は、音場の収録と再現が指示されると、音場再現処理を行って収音空間の音場を再生空間で再現する。以下、図5のフローチャートを参照して、音場制御器11による音場再現処理について説明する。
ステップS11において、マイクロホンアレイ31は、収音空間においてコンテンツの音声を収音し、その結果得られたマルチチャンネルの収音信号s(i,nt)を時間周波数分析部32に供給する。
ステップS12において、時間周波数分析部32は、マイクロホンアレイ31から供給された収音信号s(i,nt)の時間周波数情報を分析する。
具体的には、時間周波数分析部32は収音信号s(i,nt)を時間周波数変換し、その結果得られた時間周波数スペクトルS(i,ntf)を空間周波数分析部33に供給する。例えば、ステップS12では上述した式(1)の計算が行われる。
ステップS13において、空間周波数分析部33は、外部から供給されたマイク配置情報を用いて、時間周波数分析部32から供給された時間周波数スペクトルS(i,ntf)に対して空間周波数変換を行う。
具体的には、空間周波数分析部33は、マイク配置情報および時間周波数スペクトルS(i,ntf)に基づいて、上述した式(5)を計算することで空間周波数変換を行う。
空間周波数分析部33は、空間周波数変換により得られた空間周波数スペクトルS'n m(ntf)を、通信部34に供給する。
ステップS14において、通信部34は、空間周波数分析部33から供給された空間周波数スペクトルS'n m(ntf)を送信する。
ステップS15において、通信部41は、通信部34により送信された空間周波数スペクトルS'n m(ntf)を受信して、音源分離部42に供給する。
ステップS16において、音源分離部42は、通信部41から供給された空間周波数スペクトルS'n m(ntf)に基づいて音源分離を行い、空間周波数スペクトルS'n m(ntf)をオブジェクト音源信号とするものとアンビエント信号とするものとに分離する。
音源分離部42は、音源分離の結果として得られた各オブジェクト音源の位置を示す音源位置情報と、オブジェクト音源信号とされた空間周波数スペクトルS'n m(ntf)とを音源位置補正部44に供給する。また、音源分離部42は、アンビエント信号とされた空間周波数スペクトルS'n m(ntf)を再現エリア制御部45に供給する。
ステップS17において、聴取位置検出部43は、外部から供給されたセンサ情報に基づいて、再生空間における聴取者の位置を検出し、その検出結果に基づいて、聴取者の移動量Δxを求める。
具体的には、聴取位置検出部43は、センサ情報に基づいて聴取者の位置を求め、その聴取者の位置から、移動後の再現エリアの中心位置xcを算出する。そして、聴取位置検出部43は、中心位置xcと、予め求まっているスピーカアレイ48の中心の位置x0とから式(10)により移動量Δxを算出する。
聴取位置検出部43は、このようにして得られた移動量Δxを音源位置補正部44および再現エリア制御部45に供給する。
ステップS18において、音源位置補正部44は、聴取位置検出部43から供給された移動量Δxに基づいて、音源分離部42から供給された音源位置情報を補正する。
すなわち、音源位置補正部44は、音源位置情報としての音源位置座標xobjと、移動量Δxとから式(11)の計算を行い、補正音源位置情報としての補正音源位置座標x’objを算出する。
音源位置補正部44は、得られた補正音源位置情報と音源分離部42から供給されたオブジェクト音源信号とを再現エリア制御部45に供給する。
ステップS19において、再現エリア制御部45は、聴取位置検出部43からの移動量Δxと、音源位置補正部44からの補正音源位置情報およびオブジェクト音源信号と、音源分離部42からのアンビエント信号とに基づいて、再現エリアを移動量Δxだけ移動させた空間周波数スペクトルS''n m(ntf)を求める。
すなわち、再現エリア制御部45は、球面調和関数を用いて式(15)と同様の計算を行うことで空間周波数スペクトルS''n m(ntf)を求め、得られた空間周波数スペクトルS''n m(ntf)を空間周波数合成部46に供給する。
ステップS20において、空間周波数合成部46は、再現エリア制御部45から供給された空間周波数スペクトルS''n m(ntf)と、外部から供給されたスピーカ配置情報とに基づいて、上述した式(18)を計算し、空間周波数逆変換を行う。空間周波数合成部46は、空間周波数逆変換により得られた時間周波数スペクトルD(l,ntf)を時間周波数合成部47に供給する。
ステップS21において、時間周波数合成部47は、上述した式(22)を計算することで、空間周波数合成部46から供給された時間周波数スペクトルD(l,ntf)に対して時間周波数合成を行い、スピーカ駆動信号d(l,nd)を算出する。
時間周波数合成部47は、得られたスピーカ駆動信号d(l,nd)を、スピーカアレイ48を構成する各スピーカユニットに供給する。
ステップS22において、スピーカアレイ48は、時間周波数合成部47から供給されたスピーカ駆動信号d(l,nd)に基づいて音声を再生する。これにより、コンテンツの音声、すなわち収音空間の音場が再現されることになる。
このようにして収音空間の音場が再生空間で再現されると、音場再現処理は終了する。
以上のようにして、音場制御器11は、オブジェクト音源について音源位置情報を補正するとともに、補正された音源位置情報を用いて再現エリアを移動させた空間周波数スペクトルを求める。
これにより、聴取者の動きに合わせて再現エリアを移動させることができるとともに、オブジェクト音源の位置を再生空間内で固定させることができる。その結果、聴取者に対して正しく再現された音場を提示するだけでなく、音源の定位感を向上させることができ、より適切に音場を再現することができる。しかも、音場制御器11では、音源をオブジェクト音源とアンビエント音源とに分離し、オブジェクト音源のみ音源位置の補正を行うようにすることで、演算量を削減することができる。
〈第2の実施の形態〉
〈音場制御器の構成例〉
なお、以上においては、マイクロホンアレイ31を用いて波面収音された音場を再現する場合について説明したが、オブジェクト音再生を行う場合には、メタデータとして音源位置情報が与えられるので、音源分離が不要となる。
そのような場合、本技術を適用した音場制御器は、例えば図6に示すように構成される。なお、図6において、図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図6に示す音場制御器71は、聴取位置検出部43、音源位置補正部44、再現エリア制御部45、空間周波数合成部46、時間周波数合成部47、およびスピーカアレイ48を有している。
この例では、音場制御器71が外部から各オブジェクトのオーディオ信号とそのメタデータとを取得し、例えばメタデータに含まれているオブジェクトの重要度等に基づいて、各オブジェクトを、オブジェクト音源とアンビエント音源とに分ける。
そして、音場制御器71は、オブジェクト音源としたオブジェクトのオーディオ信号をオブジェクト音源信号として音源位置補正部44に供給するとともに、そのオブジェクト音源のメタデータに含まれる音源位置情報も音源位置補正部44に供給する。
また、音場制御器71は、アンビエント音源としたオブジェクトのオーディオ信号をアンビエント信号として再現エリア制御部45に供給するとともに、必要に応じてそのアンビエント音源のメタデータに含まれる音源位置情報も再現エリア制御部45に供給する。
なお、この実施の形態では、オブジェクト音源信号やアンビエント信号として供給されるオーディオ信号は、図2の音場制御器11において音源位置補正部44等に供給される場合と同様に空間周波数スペクトルでもよいし、時間信号や時間周波数スペクトル、またはそれらの組み合わせであってもよい。
例えばオーディオ信号が時間信号や時間周波数スペクトルとされる場合には、再現エリア制御部45において、時間信号や時間周波数スペクトルが空間周波数スペクトルに変換された後、再現エリアを移動させた空間周波数スペクトルが求められる。
〈音場再現処理の説明〉
次に、図7のフローチャートを参照して、図6に示した音場制御器71により行われる音場再現処理について説明する。なお、ステップS51の処理は図5のステップS17の処理と同様であるので、その説明は省略する。
ステップS52において、音源位置補正部44は、聴取位置検出部43から供給された移動量Δxに基づいて、音場制御器71から供給された音源位置情報を補正する。
すなわち、音源位置補正部44は、メタデータとして供給された音源位置情報である音源位置座標xobjと、移動量Δxとから式(11)の計算を行い、補正音源位置情報としての補正音源位置座標x’objを算出する。
音源位置補正部44は、得られた補正音源位置情報と音場制御器71から供給されたオブジェクト音源信号とを再現エリア制御部45に供給する。
ステップS53において、再現エリア制御部45は、聴取位置検出部43からの移動量Δxと、音源位置補正部44からの補正音源位置情報およびオブジェクト音源信号と、音場制御器71からのアンビエント信号とに基づいて、再現エリアを移動量Δxだけ移動させた空間周波数スペクトルS''n m(ntf)を求める。
例えばステップS53では、図5のステップS19における場合と同様に、球面調和関数を用いた計算により、音場(再現エリア)を移動させた空間周波数スペクトルS''n m(ntf)が求められ、空間周波数合成部46に供給される。このとき、オブジェクト音源信号およびアンビエント信号が時間信号や時間周波数スペクトルである場合には、適宜、空間周波数スペクトルへの変換が行われた後、式(15)と同様の計算が行われる。
空間周波数スペクトルS''n m(ntf)が求められると、その後、ステップS54乃至ステップS56の処理が行われて音場再現処理は終了するが、これらの処理は図5のステップS20乃至ステップS22の処理と同様であるので、その説明は省略する。
以上のようにして音場制御器71は、オブジェクト音源について音源位置情報を補正するとともに、補正された音源位置情報を用いて再現エリアを移動させた空間周波数スペクトルを求める。したがって、音場制御器71においても、より適切に音場を再現することができる。
なお、以上においては、マイクロホンアレイ31として、環状マイクロホンアレイや球状マイクロホンアレイを例として説明したが、マイクロホンアレイ31として直線マイクロホンアレイを用いるようにしてもよい。そのような場合においても以上において説明した処理と同様の処理により音場を再現することが可能である。
また、スピーカアレイ48も環状スピーカアレイや球状スピーカアレイに限らず、直線スピーカアレイなど、どのようなものであってもよい。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本技術は、以下の構成とすることも可能である。
(1)
音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報を補正する音源位置補正部と、
前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルを算出する再現エリア制御部と
を備える音声処理装置。
(2)
前記再現エリア制御部は、前記オブジェクト音源信号と、前記オブジェクト音源とは異なる音源の音声の信号と、前記聴取位置と、前記補正音源位置情報とに基づいて、前記空間周波数スペクトルを算出する
(1)に記載の音声処理装置。
(3)
音源分離を行うことで、音声の信号を前記オブジェクト音源信号と、前記オブジェクト音源とは異なる音源の音声の信号とに分離させる音源分離部をさらに備える
(2)に記載の音声処理装置。
(4)
前記オブジェクト音源信号は、音声の時間信号または空間周波数スペクトルである
(1)乃至(3)の何れか一項に記載の音声処理装置。
(5)
前記音源位置補正部は、前記聴取位置の移動量の分だけ前記オブジェクト音源の位置が移動するように前記補正を行う
(1)乃至(4)の何れか一項に記載の音声処理装置。
(6)
前記再現エリア制御部は、前記聴取位置の前記移動量だけ前記再現エリアを移動させた前記空間周波数スペクトルを算出する
(5)に記載の音声処理装置。
(7)
前記再現エリア制御部は、球座標系上で前記再現エリアを移動させることで前記空間周波数スペクトルを算出する
(6)に記載の音声処理装置。
(8)
前記再現エリア制御部により算出された前記空間周波数スペクトルに対して空間周波数合成を行って時間周波数スペクトルを算出する空間周波数合成部と、
前記時間周波数スペクトルに対して時間周波数合成を行って、前記スピーカアレイの駆動信号を算出する時間周波数合成部と
をさらに備える(1)乃至(7)の何れか一項に記載の音声処理装置。
(9)
音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報を補正し、
前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルを算出する
ステップを含む音声処理方法。
(10)
音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報を補正し、
前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルを算出する
ステップを含む処理をコンピュータに実行させるプログラム。
11 音場制御器, 42 音源分離部, 43 聴取位置検出部, 44 音源位置補正部, 45 再現エリア制御部, 46 空間周波数合成部, 47 時間周波数合成部, 48 スピーカアレイ

Claims (10)

  1. 音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報を補正する音源位置補正部と、
    前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルを算出する再現エリア制御部と
    を備える音声処理装置。
  2. 前記再現エリア制御部は、前記オブジェクト音源信号と、前記オブジェクト音源とは異なる音源の音声の信号と、前記聴取位置と、前記補正音源位置情報とに基づいて、前記空間周波数スペクトルを算出する
    請求項1に記載の音声処理装置。
  3. 音源分離を行うことで、音声の信号を前記オブジェクト音源信号と、前記オブジェクト音源とは異なる音源の音声の信号とに分離させる音源分離部をさらに備える
    請求項2に記載の音声処理装置。
  4. 前記オブジェクト音源信号は、音声の時間信号または空間周波数スペクトルである
    請求項1乃至請求項3の何れか一項に記載の音声処理装置。
  5. 前記音源位置補正部は、前記聴取位置の移動量の分だけ前記オブジェクト音源の位置が移動するように前記補正を行う
    請求項1乃至請求項4の何れか一項に記載の音声処理装置。
  6. 前記再現エリア制御部は、前記聴取位置の前記移動量だけ前記再現エリアを移動させた前記空間周波数スペクトルを算出する
    請求項5に記載の音声処理装置。
  7. 前記再現エリア制御部は、球座標系上で前記再現エリアを移動させることで前記空間周波数スペクトルを算出する
    請求項6に記載の音声処理装置。
  8. 前記再現エリア制御部により算出された前記空間周波数スペクトルに対して空間周波数合成を行って時間周波数スペクトルを算出する空間周波数合成部と、
    前記時間周波数スペクトルに対して時間周波数合成を行って、前記スピーカアレイの駆動信号を算出する時間周波数合成部と
    をさらに備える請求項1乃至請求項7の何れか一項に記載の音声処理装置。
  9. 音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報を補正し、
    前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルを算出する
    ステップを含む音声処理方法。
  10. 音声の聴取位置に基づいて、オブジェクト音源の位置を示す音源位置情報を補正し、
    前記オブジェクト音源の音声のオブジェクト音源信号と、前記聴取位置と、前記補正により得られた補正音源位置情報とに基づいて、球状または環状のスピーカアレイ内部の前記聴取位置に合わせた再現エリアとする空間周波数スペクトルを算出する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2017555022A 2015-12-10 2016-11-29 音声処理装置および方法、並びにプログラム Active JP6841229B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015241138 2015-12-10
JP2015241138 2015-12-10
PCT/JP2016/085284 WO2017098949A1 (ja) 2015-12-10 2016-11-29 音声処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2017098949A1 JPWO2017098949A1 (ja) 2018-09-27
JP6841229B2 true JP6841229B2 (ja) 2021-03-10

Family

ID=59014079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017555022A Active JP6841229B2 (ja) 2015-12-10 2016-11-29 音声処理装置および方法、並びにプログラム

Country Status (5)

Country Link
US (1) US10524075B2 (ja)
EP (1) EP3389285B1 (ja)
JP (1) JP6841229B2 (ja)
CN (1) CN108370487B (ja)
WO (1) WO2017098949A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106165444B (zh) 2014-04-16 2019-09-17 索尼公司 声场再现设备、方法和程序
WO2017038543A1 (ja) 2015-09-03 2017-03-09 ソニー株式会社 音声処理装置および方法、並びにプログラム
US11031028B2 (en) 2016-09-01 2021-06-08 Sony Corporation Information processing apparatus, information processing method, and recording medium
US10659906B2 (en) 2017-01-13 2020-05-19 Qualcomm Incorporated Audio parallax for virtual reality, augmented reality, and mixed reality
US10182303B1 (en) * 2017-07-12 2019-01-15 Google Llc Ambisonics sound field navigation using directional decomposition and path distance estimation
JP6983484B2 (ja) 2017-07-14 2021-12-17 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン マルチレイヤ記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト
MY204838A (en) * 2017-07-14 2024-09-18 Fraunhofer Ges Zur Frderung Der Angewandten Forschung E V Concept for generating an enhanced sound-field description or a modified sound field description using a depth-extended dirac technique or other techniques
CA3069241C (en) * 2017-07-14 2023-10-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for generating an enhanced sound field description or a modified sound field description using a multi-point sound field description
WO2019049409A1 (ja) * 2017-09-11 2019-03-14 シャープ株式会社 音声信号処理装置および音声信号処理システム
US10469968B2 (en) 2017-10-12 2019-11-05 Qualcomm Incorporated Rendering for computer-mediated reality systems
US10587979B2 (en) * 2018-02-06 2020-03-10 Sony Interactive Entertainment Inc. Localization of sound in a speaker system
US11375332B2 (en) 2018-04-09 2022-06-28 Dolby International Ab Methods, apparatus and systems for three degrees of freedom (3DoF+) extension of MPEG-H 3D audio
IL314886B2 (en) * 2018-04-09 2025-08-01 Dolby Int Ab Methods, apparatus and systems for three degrees of freedom (3dof+) extension of mpeg-h 3d audio
US10887717B2 (en) * 2018-07-12 2021-01-05 Sony Interactive Entertainment Inc. Method for acoustically rendering the size of sound a source
JP7234555B2 (ja) 2018-09-26 2023-03-08 ソニーグループ株式会社 情報処理装置、および情報処理方法、プログラム、情報処理システム
CN109495800B (zh) * 2018-10-26 2021-01-05 成都佳发安泰教育科技股份有限公司 一种音频动态采集系统及方法
KR20250048153A (ko) * 2019-06-21 2025-04-07 소니그룹주식회사 신호 처리 장치 및 방법, 그리고 프로그램
JP2022017880A (ja) 2020-07-14 2022-01-26 ソニーグループ株式会社 信号処理装置および方法、並びにプログラム
CN112379330B (zh) * 2020-11-27 2023-03-10 浙江同善人工智能技术有限公司 一种多机器人协同的3d声源识别定位方法
US20240223990A1 (en) * 2021-05-24 2024-07-04 Sony Group Corporation Information processing device, information processing method, information processing program, and information processing system
US12254540B2 (en) * 2022-08-31 2025-03-18 Sonaria 3D Music, Inc. Frequency interval visualization education and entertainment system and method

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8800745A (nl) 1988-03-24 1989-10-16 Augustinus Johannes Berkhout Werkwijze en inrichting voor het creeren van een variabele akoestiek in een ruimte.
JP3047613B2 (ja) 1992-04-03 2000-05-29 松下電器産業株式会社 超指向性マイクロホン
JP2005333211A (ja) 2004-05-18 2005-12-02 Sony Corp 音響収録方法、音響収録再生方法、音響収録装置および音響再生装置
US8005245B2 (en) * 2004-09-16 2011-08-23 Panasonic Corporation Sound image localization apparatus
US8612238B2 (en) 2006-02-07 2013-12-17 Lg Electronics, Inc. Apparatus and method for encoding/decoding signal
US8406439B1 (en) * 2007-04-04 2013-03-26 At&T Intellectual Property I, L.P. Methods and systems for synthetic audio placement
JP5245368B2 (ja) * 2007-11-14 2013-07-24 ヤマハ株式会社 仮想音源定位装置
JP5315865B2 (ja) 2008-09-02 2013-10-16 ヤマハ株式会社 音場伝送システムおよび音場伝送方法
US8391500B2 (en) * 2008-10-17 2013-03-05 University Of Kentucky Research Foundation Method and system for creating three-dimensional spatial audio
JP2010193323A (ja) 2009-02-19 2010-09-02 Casio Hitachi Mobile Communications Co Ltd 録音装置、再生装置、録音方法、再生方法、及びコンピュータプログラム
JP5246790B2 (ja) * 2009-04-13 2013-07-24 Necカシオモバイルコミュニケーションズ株式会社 音データ処理装置、及び、プログラム
US9036843B2 (en) 2010-02-05 2015-05-19 2236008 Ontario, Inc. Enhanced spatialization system
US9025415B2 (en) 2010-02-23 2015-05-05 Koninklijke Philips N.V. Audio source localization
US9107023B2 (en) * 2011-03-18 2015-08-11 Dolby Laboratories Licensing Corporation N surround
WO2013105413A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 音場制御装置、音場制御方法、プログラム、音場制御システム及びサーバ
US9445174B2 (en) 2012-06-14 2016-09-13 Nokia Technologies Oy Audio capture apparatus
JP5983313B2 (ja) * 2012-10-30 2016-08-31 富士通株式会社 情報処理装置、音像定位強調方法、及び音像定位強調プログラム
CN104010265A (zh) * 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
JP2014215461A (ja) 2013-04-25 2014-11-17 ソニー株式会社 音声処理装置および方法、並びにプログラム
JP6515087B2 (ja) * 2013-05-16 2019-05-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ処理装置及び方法
JP6087760B2 (ja) 2013-07-29 2017-03-01 日本電信電話株式会社 音場収音再生装置、方法及びプログラム
DE102013218176A1 (de) * 2013-09-11 2015-03-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur dekorrelation von lautsprechersignalen
JP2015095802A (ja) 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US10015615B2 (en) * 2013-11-19 2018-07-03 Sony Corporation Sound field reproduction apparatus and method, and program
EP2884489B1 (en) 2013-12-16 2020-02-05 Harman Becker Automotive Systems GmbH Sound system including an engine sound synthesizer
WO2015097831A1 (ja) * 2013-12-26 2015-07-02 株式会社東芝 電子機器、制御方法およびプログラム
BR112016015971B1 (pt) * 2014-01-16 2022-11-16 Sony Corporation Dispositivo e método de processamento de áudio, e, mídia de armazenamento legível por computador
CN106165444B (zh) 2014-04-16 2019-09-17 索尼公司 声场再现设备、方法和程序
JP6604331B2 (ja) 2014-10-10 2019-11-13 ソニー株式会社 音声処理装置および方法、並びにプログラム
US9508335B2 (en) 2014-12-05 2016-11-29 Stages Pcs, Llc Active noise control and customized audio system
US10380991B2 (en) 2015-04-13 2019-08-13 Sony Corporation Signal processing device, signal processing method, and program for selectable spatial correction of multichannel audio signal
WO2017038543A1 (ja) 2015-09-03 2017-03-09 ソニー株式会社 音声処理装置および方法、並びにプログラム
US11031028B2 (en) 2016-09-01 2021-06-08 Sony Corporation Information processing apparatus, information processing method, and recording medium

Also Published As

Publication number Publication date
WO2017098949A1 (ja) 2017-06-15
EP3389285B1 (en) 2021-05-05
CN108370487B (zh) 2021-04-02
US10524075B2 (en) 2019-12-31
EP3389285A1 (en) 2018-10-17
JPWO2017098949A1 (ja) 2018-09-27
CN108370487A (zh) 2018-08-03
EP3389285A4 (en) 2019-01-02
US20180359594A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6841229B2 (ja) 音声処理装置および方法、並びにプログラム
EP3320692B1 (en) Spatial audio processing apparatus
US10645518B2 (en) Distributed audio capture and mixing
CN105264911B (zh) 音频设备
GB2543276A (en) Distributed audio capture and mixing
CN108476365B (zh) 音频处理装置和方法以及存储介质
US11962991B2 (en) Non-coincident audio-visual capture system
US10412531B2 (en) Audio processing apparatus, method, and program
Sakamoto et al. Sound-space recording and binaural presentation system based on a 252-channel microphone array
EP3402223B1 (en) Audio processing device and method, and program
CN110890100B (zh) 语音增强、多媒体数据采集、播放方法、装置及监控系统
El-Mohandes et al. DeepBSL: 3-D personalized deep binaural sound localization on earable devices
WO2023085186A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2023000088A1 (en) Method and system for determining individualized head related transfer functions
CN119889341B (zh) 方位引导的语音拾取方法和语音拾取装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R151 Written notification of patent or utility model registration

Ref document number: 6841229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151