JP7463796B2 - デバイスシステム、音質制御方法および音質制御プログラム - Google Patents

デバイスシステム、音質制御方法および音質制御プログラム Download PDF

Info

Publication number
JP7463796B2
JP7463796B2 JP2020054233A JP2020054233A JP7463796B2 JP 7463796 B2 JP7463796 B2 JP 7463796B2 JP 2020054233 A JP2020054233 A JP 2020054233A JP 2020054233 A JP2020054233 A JP 2020054233A JP 7463796 B2 JP7463796 B2 JP 7463796B2
Authority
JP
Japan
Prior art keywords
sound
user
sound quality
door
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054233A
Other languages
English (en)
Other versions
JP2021158426A (ja
Inventor
幸生 多田
和也 粂原
光希 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2020054233A priority Critical patent/JP7463796B2/ja
Priority to US17/210,368 priority patent/US11693621B2/en
Publication of JP2021158426A publication Critical patent/JP2021158426A/ja
Application granted granted Critical
Publication of JP7463796B2 publication Critical patent/JP7463796B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • H04S7/306For headphones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Stereophonic System (AREA)

Description

この発明の一実施形態は、遮蔽物および遮蔽物によって隠されている仮想音源の移動に応じて、仮想音源の音質を変化させる音響デバイスおよび音質制御方法に関する。
ユーザに、ヘッドホンまたはイヤホンなどの音響デバイスを装用させて、拡張現実(AR:Augmented Reality)を体験させるARシステムが提案されている。ARシステムは、ユーザが滞在している場所に応じた音声を音響デバイスから放音する。ARシステムは、仮想音源を所定の定位位置に定位させるために、ユーザの現在位置およびユーザの頭部の向きを検出する。ARシステムは、検出された位置や頭部の向きに応じた頭部伝達関数を用いて音声に特定の信号処理を加えることで仮想音源を所定位置に定位させている。
頭部伝達関数とは、音源位置からユーザの両耳の外耳道までの音声の伝達関数である。音源位置で発生した音声がユーザの耳に到達するまでの間に、頭部形状、耳介形状などによりその音源方向に応じた特性で周波数特性が変化する。頭部伝達関数は、音声がユーザの耳に到達するまでの間に変化を受けた周波数特性を表した関数であり、音源方向毎に用意されている。ユーザは、各音源方向特有の周波数特性を聞き分けて、音声の到来方向を判断している。したがって、ARシステムが、音声を所定方向の頭部伝達関数を用いて加工して再生することにより、ユーザにさも所定方向から音声が聞こえてきたかのような感覚をもたせることができる。
ユーザの位置と仮想音源との間に、現実のまたは仮想的な遮蔽物がある場合、遮蔽物の影響が音質に反映されることが好ましい。例えば、特許文献1には、ユーザが滞在している場所に応じた道順を提示することにより、ユーザをナビゲーションする音声ナビゲーションシステムが開示されている。この文献では、目的物(目的地)についてのガイド音声が再生される際、目的物とユーザの位置との間に遮蔽物がある場合、音質を変化(減衰)させることが提案されている。なお、特許文献1のシステムは、目的物とユーザの位置との間に遮蔽物がある場合にナビゲーション音声を減衰させるものであり、目的物の位置にナビゲーション音声を定位するものではない。
国際公開第2017/018298
従来のARシステムは、仮想音源の定位位置が現実のまたは仮想的な扉や窓などの遮蔽物によって遮蔽された場所であるか否かを考慮して仮想音源の音質を制御していなかった。このため、拡張現実のリアリティが低下してしまう問題があった。
そこで、本発明の一実施形態に係る目的の一つは、現実世界の扉や窓などの遮蔽物による仮想音源の遮蔽状態を考慮して、仮想音源の聞こえ方をよりリアルに加工できるようにすることにある。
本発明の一実施形態に係るデバイスシステムは、デバイス、センサおよび音声生成手段を備える。デバイスは、ユーザが装用する。センサは、移動可能な遮蔽物の移動を検出する。音声処理部は、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成してデバイスから放音し、遮蔽物が仮想音源を遮蔽する位置から移動したことをセンサが検出したとき、音声の音質を、遮蔽物で遮蔽された音質から遮蔽されない場合の第2の音質に変化させる。
本発明の一実施形態に係る音質制御方法は、ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサを含むデバイスシステムが、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成して音響デバイスから放音し、遮蔽物が移動したことをセンサが検出したとき、音声の音質を第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させることを特徴とする。
本発明の一実施形態に係る音質制御プログラムは、ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサと通信する携帯端末装置の制御部を、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成して音響デバイスから放音し、遮蔽物が移動したことをセンサが検出したとき、音声の音質を第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる音声制御手段として機能させることを特徴とする。
この発明の一実施形態によれば、遮蔽物による仮想音源の遮蔽状態を考慮して、仮想音源の聞こえ方をよりリアルに加工することが可能となる。
図1は、この発明の実施形態である音声再生システムの構成を示す図である。 図2は、音声再生システムの携帯端末装置のブロック図である。 図3は、音声再生システムのヘッドホンのブロック図である。 図4は、音声再生システムのドアセンサのブロック図である。 図5は、音声再生システムが使用される建物の平面図である。 図6は、音声再生システムにおける間接音を説明する図である。 図7は、音声再生システムにおける直接音を説明する図である。 図8は、音声再生システムにおける透過音を説明する図である。 図9は、携帯端末装置の信号処理部の構成を示す図である。 図10は、携帯端末装置の処理動作を示すフローチャートである。 図11は、携帯端末装置の処理動作を示すフローチャートである。 図12は、携帯端末装置の処理動作を示すフローチャートである。 図13は、音声再生システムにおいて音源が移動する場合の建物の平面図である。
図1は、本発明が適用される音声再生システム1の構成を示す図である。図2は、音声再生システム1の携帯端末装置10のブロック図である。音声再生システム1は、携帯端末装置10、音響デバイスであるヘッドホン20、および、ドアセンサ30を含む。図1は、ユーザLが、携帯端末装置10を手に持ち、ヘッドホン20を装用した例を示している。ユーザLは、この装備で図5に示す部屋201に入る。ユーザLが部屋201に入ると、携帯端末装置10は、シナリオファイル72(単に、シナリオ72とも言う)に基づいて、部屋202に定位する音声を再生する。ヘッドホン20が本発明の音響デバイスに対応する。
携帯端末装置10は、例えば、スマートホン(多機能携帯電話)が用いられる。携帯端末装置10とヘッドホン20とは、Bluetooth(登録商標)で接続されており、相互に通信可能である。携帯端末装置10とヘッドホン20との接続は、Bluetoothに限定されず、他の無線通信規格または有線でもよい。ヘッドホン20は、2個のスピーカ21R,21Lとヘッドバンド22とを組み合わせた、いわゆる耳掛け型である。ヘッドホン20は、ヘッドバンド22に姿勢センサ23を有し、ユーザLの頭部の向きをトラッキング可能である。姿勢センサ23は、3軸ジャイロ(角速度)センサ、6軸センサ(3軸ジャイロセンサ+3軸モーション(加速度)センサ)、および、9軸センサ(3軸ジャイロセンサ+3軸モーションセンサ+3軸コンパス(方位)センサ)のいずれが用いられてもよい。音響デバイスとして、ヘッドホン20に代えてイヤホンが用いられてもよい。
ドアセンサ30は、固定壁501(図5参照)に設けられたドア502の開閉状態を検出する。ドアセンサ30は、携帯端末装置10にドア502の開閉状態の情報を送信する。ドアセンサ30と携帯端末装置10とは、Bluetooth Low Energy(BLE)で接続されている。BLEおよび通常のBluetoothは、一つのデバイスで併用可能である。この実施形態でBluetoothは、上述のように、携帯端末装置10とヘッドホン20との接続に用いられている。ドアセンサ30と携帯端末装置10との接続形態は、BLEに限定されない。例えばドアセンサ30と携帯端末装置10は、Wi-Fi(登録商標)または携帯通信ネットワーク等、インターネットを介して接続してもよい。
図2は、携帯端末装置10のブロック図である。携帯端末装置10は、ハードウェア的には、制御部100、記憶部103、音声生成部105、信号処理部106および通信処理部107などを備えたスマートホンである。制御部100は、CPUを備えている。記憶部103は、ROM、RAMおよびフラッシュメモリを備えている。
携帯端末装置10、ヘッドホン20およびドアセンサ30は、携帯端末装置10が、記憶部103に記憶されているプログラム70を起動することにより音声再生システム1として機能する。
記憶部103は、上述のプログラム70を記憶しているとともに、シナリオファイル72、および、音声データ73を記憶する。プログラム70は、携帯端末装置10、ヘッドホン20およびドアセンサ30を音声再生システムとして機能させるためのアプリケーションプログラムである。シナリオファイル72は、ユーザLに対して所定の音声を順次再生するための手順が記載されたファイルである。シナリオファイル72は、音声を再生する場所、例えば、図5に示す建物200の形状や壁500の配置などが記載されたレイアウトテーブル72Aを含んでいる。音声データ73は、シナリオファイル72にしたがって再生される音声のデータである。音声データ73は、たとえばPCMやMP4のような音声信号であってもよく、音声生成部105をシンセサイザとして利用する音声合成データであってもよい。なお、音声データ73が音声信号の場合、制御部100が、音声生成部105として、音声データ73を読み出してもよい。
フィルタ係数71は、頭部伝達関数および部屋201の所定位置におけるインパルス応答を含んでいる。これらのフィルタ係数は、図5等に示す仮想音源SP1をユーザLに対して所定の位置に定位させるために使用される。フィルタ係数71は、信号処理部106において使用される。なお、以下の記載において、SP1を仮想音源位置とも言う。
制御部100は、携帯端末装置10の動作を制御する。制御部100は、プログラム70が起動されることにより、位置決定部101、頭部方向決定部102としても機能する。位置決定部101は、携帯端末装置10の現在位置を決定する。音声再生システム1では、携帯端末装置10の位置がユーザLの位置として使用される。位置決定部101は、屋外であれば、GPS、みちびき等の衛星測位システムが用いられればよい。位置決定部101は、屋内であれば、屋内に設置されたビーコン等の位置測定システムが用いられればよい。屋内の場合でも、位置決定部101は、まず屋外で衛星測位システムを用いて正確な位置を決定しておき(キャリブレーション)、その後は姿勢センサ23を用いてユーザLの移動をトレースして屋内での位置を決定してもよい。ユーザLの移動をトレースする場合、姿勢センサ23は、ユーザLのモーションを検出できる6軸センサまたは9軸センサが好適である。
頭部方向決定部102は、ヘッドホン20から取得した姿勢センサ23の検出値に基づいてユーザLの頭部の向きを決定する。姿勢センサ23が3軸のジャイロセンサの場合、制御部100は、最初にユーザLに所定の方向を向かせて頭部方向を決定する(キャリブレーション)。その後、制御部100は、姿勢センサ23から角速度情報を取得し、この角速度情報を頭部方向に積算することで現在のユーザLの頭部の向きを決定する。姿勢センサ23がジャイロセンサおよびコンパスセンサを含む場合、応答の速いジャイロセンサでユーザLの頭部方向の変化に追従しつつ、応答の遅いコンパスセンサでジャイロセンサの積分誤差をキャンセルするようにすればよい。
音声生成部105は、音声データ73を再生する。音声データ73は、たとえばPCMやMP4のような音声信号であってもよく、音声生成部105をシンセサイザとして利用する音声合成データであってもよい。信号処理部106は、仮想音源SP1(図5参照)およびユーザLの位置に応じて、音声の音質を制御する。また、信号処理部106は、位置決定部101、頭部方向決定部102から取得したユーザLの位置および向きに応じて音声の定位を決定し、定位方向の頭部伝達関数を読み出して、音声をフィルタリングする。音声生成部105および信号処理部106が、本発明の音声処理部に対応する。
音声再生システム1は、シナリオファイル72に基づき、部屋201にいるユーザLに対して、壁500で隔てられた隣の部屋202に音声を定位させる(図5-8等参照)。壁500にはドア502が設けられている。ドア502が閉じているとき、音声再生システムは、壁500で遮られた向こうの部屋から聞こえてくるような音質で音声を再生する。ドア502が開いているとき、音声再生システムは、部屋202で響いている音声がドア枠503を通って聞こえてくるような音質で音声を再生する。携帯端末装置10(通信処理部107)は、処理された音声をヘッドホン20に送信する。ヘッドホン20は、受信した音声をスピーカ21R,21Lから出力する。これにより、ユーザLは、シナリオファイル72にしたがって、予め決められた定位位置から聞こえてくる聴感で音声を聞くことができる。
通信処理部107は、Bluetooth対応機器であるヘッドホン20、および、ドアセンサ30と通信する。通信処理部107は、ヘッドホン20の通信処理部24とBluetoothで通信する。通信処理部107は、ドアセンサ30の通信処理部32とBluetooth BLEで通信する。通信処理部107は、ヘッドホン20に対してオーディオ信号の送信を行うとともに、ヘッドホン20から姿勢センサ23の検出値を受信する。通信処理部107は、ドアセンサ30からドア502の開閉状態の情報を受信する。
図3は、ヘッドホン20の構成を示すブロック図である。ヘッドホン20は、スピーカ21L,21R、姿勢センサ23、通信処理部24、AIF25、DAC26L,26R、アンプ27L,27Rを備えている。
通信処理部24は、BluetoothまたはBLEで携帯端末装置10(通信処理部107)と通信する。AIF(Audio Interface)25は、携帯端末装置10から受信した音声信号を左右チャンネルの信号に分離してDAC26L,26Rに送信する。DAC(Digtal to Analog Converter)26L,26Rは、AIF25から入力されたデジタル信号をアナログ信号に変換する。アンプ27L,27Rは、DAC26L,26Rから入力されたアナログ信号を増幅してスピーカ21L,21Lに供給する。これにより、携帯端末装置10から受信した音声信号は、音響としてスピーカ21L,21Rから放音される。ヘッドホン20は、ユーザLの頭部に装用されているため、スピーカ21,21Rから放音された音声はユーザLの左右の耳で聴取される。
図4は、ドアセンサ30ブロック図である。ドアセンサ30は、図5に示されるように、ドア502のヒンジ近傍に取り付けられ、ドア502の固定壁501に対する開閉状態の情報を検出および出力する。開閉状態の情報は、固定壁501に対する角度で表される。ドアセンサ30は、センサモジュール31および通信処理部32を備えている。センサモジュール31は、ドア502の開閉状態を検出する。センサモジュール31は、例えば、ロータリエンコーダ、半導体センサ、または、光電センサなどで構成される。ロータリエンコーダは、ドア502のヒンジと同軸で回転してドア502の回転角度または絶対角度を検出する。半導体センサは、ドア502の開閉による角速度を検出し、この角速度を積分してドア502の角度を算出する。光学センサは、ドア502および固定壁501にそれぞれ発光部および受光部を有し、発光部から受光部に至る光の位置の変化によってドア502の角度を検出する。センサモジュール31は、上に述べたものに限定されない。たとえば、センサモジュール31が、ポテンショメータであってもよい。また、センサモジュール31が、ドア502が完全に閉じているか、少しでも開いているかのみを検出すればよい場合、センサモジュール31はリミットスイッチでもよい。通信処理部32は、センサモジュール31が検出したドア502の開閉状態の情報を携帯端末装置10に送信する。
図5は、本発明の音声再生システムでユーザLを導き入れてシナリオが実行される建物200の平面図である。建物200には、部屋201および部屋202が設けられている。部屋201および部屋202は、壁500で仕切られている。壁500は、固定壁501と固定壁501の一部に設けられたドア502とを有している。ドア502は、固定壁501に形成されたドア枠503に取り付けられている。ドア502は、部屋201側に揺動自在である。壁500が本発明の遮蔽物に対応する。
建物200およびその内部の位置はXY座標で特定される。XY座標は、図5左下に示されるように、図中左右方向に設定されたX軸、上下方向に設定されたY軸に基づいて決定される。部屋201、202の形状、壁500の位置、ドア502の位置は全てXY座標で表され、レイアウトテーブル72Aに記憶されている。本実施形態の音声再生システム1は、音声の定位処理を二次元、すなわち、音源の位置、ユーザLの耳の位置などは全て同じ高さにあるとみなして音像定位処理を行っている。音像定位を高さを含む三次元で行う場合は、図面の表裏方向に高さ方向のZ軸を設定すればよい。
ドア502には、ドア502の開閉状態を検出するためのドアセンサ30が設けられている。図5では、ドア502は部屋201側に開かれている。ドア502はユーザLによって手動で開かれてもよく、図示しないアクチュエータなどによって自動的に開かれてもよい。
ユーザLは、部屋201を移動しつつ、音声再生システム1によって再生される音声を聴く。音声再生システム1は、ユーザLの位置、時刻等でシナリオファイル72を参照し、シナリオファイル72によって指示された音声を再生する。図5に示した場面では、音声再生システム1は、部屋202の仮想音源位置SP1に定位するピアノ演奏音を再生する。図5では、仮想音源位置SP1の場所に、実際のピアノ300が設置されているが、実際のピアノ300は必須ではない。
図5において、ユーザLは、ヘッドホン20からピアノ演奏音が聞こえてくると、ドア502の近くの位置LP1へ移動してドア502を開ける(図5はドア502が開いた状態を示している)。これにより、ユーザLは、部屋202でピアノ300が鳴っていることを認識するが、ユーザLは、固定壁501で遮られて、位置LP1からピアノ300(仮想音源位置SP1)を直接見ることができない。ユーザLは、ドア502を開けたのち、音声が鳴っている場所を探すため、位置LP2へ移動する。位置LP2へ移動したユーザLは、ドア枠503を介して部屋202の中を見ることによって、ピアノ300(仮想音源位置SP1)を発見する。
ユーザLが上のような行動をした場合の、音声再生システム1による音声(ピアノ演奏音)の音質の制御態様は、以下のとおりである。ドア502が閉じているとき、音声再生システム1は、ユーザLに対して、壁500の向こう側でピアノ300が演奏され、壁500(ドア502)から漏れてくるような音質でピアノ演奏音を再生する。ドア502が開かれたとき、音声再生システム1は、部屋202で響いているピアノ演奏音がドア枠503を介して聞こえてくるような音質で、ピアノ演奏音を再生する。ただし、位置LP1では、ユーザLは、仮想音源位置SP1に定位されているピアノ演奏音の直接音を聴くことができない。その後、ユーザLは、ピアノ300が見える位置である位置LP2に移動する。ユーザLが位置LP2に移動したとき、音声再生システム1は、ピアノ演奏音の直接音をユーザLに対して再生する。
図6-8を参照して、ドア502が閉じているとき、ドア502が開かれユーザLが位置LP1にいるとき、および、ユーザLが位置LP2に移動したときの仮想音源位置SP1で発生した音声の伝達形態を説明する。以下の説明では、仮想音源位置SP1で発生した音声を音声S(SP1)と呼ぶ。なお、図5-9、および、図13の記載において、音声S(SP1)等の括弧“()”は、“-”で代用される。
図6は、ドア502が開かれた状態のドア枠503を介してユーザLに聞こえてくる音声(間接音)を説明する図である。音声S(SP1)は、部屋202全体に伝わり、壁で反射するなどして部屋202内に響きを形成する。ドア枠503の位置SP2においても、位置SP2における響きの音声が鳴動する。以下、位置SP2で聴取される音声を音声S(SP2)と呼ぶ。仮想音源位置SP1から位置SP2への音声の伝搬は、仮想音源位置SP1に発音源を設置し、位置SP2にマイクを設置して測定されたインパルス応答で表される。このインパルス応答を、以下、インパルス応答IR(1-2)と呼ぶ。インパルス応答IR(1-2)は、上述したように、部屋202に響いているピアノ演奏音S(SP1)を位置SP2で聴取した場合の応答波形を表している。音声S(SP2)は、音声S(SP1)にインパルス応答IR(1-2)を畳み込むFIRフィルタでフィルタリングすることによって得られる。
ドア502が開かれている場合、ドア枠503に到達した音声S(SP2)が、部屋201に伝わり、ユーザLまで到達する。ドア枠503の位置SP2から、ユーザLの両耳までの音声の伝搬は、ユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数によって表される。このときの頭部伝達関数を、以下、頭部伝達関数HRTF(2-L)と呼ぶ。開いたドア502(ドア枠503)からユーザLに聞こえてくる音声である間接音S(L open)は、音声S(SP2)を頭部伝達関数HRTF(2-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(2-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP2)に畳み込むFIRフィルタでフィルタリングすることによって、間接音S(L open)が得られる。なお、処理を容易にするため、部屋201における残響(インパルス応答)は、考慮しないものとする。
図7は、音源から直接ユーザLに聞こえてくる音声(直接音)を説明する図である。ユーザLが位置LP2にいる場合、仮想音源位置SP1を直接目視可能であるため、音声S(SP1)の直接音が聞こえる。直接音の伝搬は、仮想音源位置SP1からユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数によって表される。このときの頭部伝達関数を、以下、頭部伝達関数HRTF(1-L)と呼ぶ。直接音S(L direct)は、音声S(SP1)を頭部伝達関数HRTF(1-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(1-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP1)に畳み込むFIRフィルタでフィルタリングすることによって、直接音S(L direct)が得られる。
図8は、閉じられたドア502を透過してユーザLに聞こえてくる音声(透過音)を説明する図である。この実施形態では、固定壁501は、全く音声を透過しないとする。ドア502が閉じている場合、部屋201に居るユーザLは、部屋202からドア502を抜けて伝わってくる音声を聴く。ドア502に到達する音声は、上記のように音声S(SP2)である。透過音S(L door)は、音声S(SP2)がドア502に到達し、閉じているドア502を通過してドア表面(部屋201側)SP20に伝わり、ドア表面SP20からユーザLに伝わったものである。したがって、音声S(L door)の伝搬は、以下の3つのインパルス応答で表される。仮想音源位置SP1からドア502(SP2)までのインパルス応答、ドア502(SP2)からドア表面SP20までのインパルス応答、および、ドア表面SP20からユーザLまでの頭部伝達関数HRTF(20-L)。なお、処理を容易にするため、部屋201における残響(インパルス応答)は、考慮しないものとする。
頭部伝達関数HRTF(20-L)は、図6の頭部伝達関数HRTF(2-L)とほぼ同じと考えられる。したがって、頭部伝達関数HRTF(2-L)が頭部伝達関数HRTF(20-L)として用いられてもよい。
なお、ドア502(SP2)からドア表面SP20までのインパルス応答は、ドア502の遮音特性である。ドア502の遮音特性のインパルス応答を、以下、インパルス応答IR(door)と呼ぶ。
閉じたドア502を透過してユーザLに聞こえてくる音声である間接音S(L door)は、音声S(SP20)を頭部伝達関数HRTF(20-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(20-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP20)に畳み込むFIRフィルタでフィルタリングすることによって、透過音S(L door)が得られる。
図8に示したように、ドア502が、閉じているとき、音声再生システム1は、ユーザLに対して、透過音S(L door)のみを再生する。
図6に示したように、ドア502が開いているが、ユーザLが、ピアノ300が見えない場所(たとえば場所LP1)にいるとき、音声再生システム1は、ユーザLに対して、ドア枠503から聞こえてくる間接音S(L open)を再生する。
図7に示したように、ドア502が開いていて、ユーザLが、ピアノ300の見える位置(たとえば位置LP2)にいるとき、音声再生システム1は、ユーザLに対して、仮想音源位置SP1(ピアノ300)からの直接音S(L direct)、および、間接音S(L open)を再生する。これは、ユーザLがピアノ300を目視できる位置にいる場合であっても、間接音S(L open)は、ユーザLに聞こえてくるためである。
ユーザLが、ピアノ300(仮想音源位置SP1)が完全に見える位置にいるか、一部のみ見える位置にいるかで直接音S(L direct)のゲインを変えてもよい。また、この場合に、音質が、周波数領域で高音域の少し減衰させるなどの調整がされてもよい。
図9は、信号処理部106の機能ブロック図である。信号処理部106は、たとえばDSP(degitalsignal processor)で構成されており、プログラムにより、音声生成部105で生成された音声の信号処理を行うための種々の機能部が構成される。音声生成部105は、上述したように、ピアノ演奏音などの音声を生成する。信号処理部106は、音声を処理して、透過音S(L door)、間接音S(L open)、および、直接音S(L direct)を生成する。図示のフィルタ64-69は、全てFIRフィルタである。図9では信号の流れを一重線で表しているが、処理される音声信号は左右2チャンネルの信号である。
直列に接続されたフィルタ64-66は、ドア502が閉じられている場合の透過音S(L door)を生成する。フィルタ64には、仮想音源位置SP1からドア502の位置SP2までのインパルス応答IR(1-2)がセットされる。フィルタ64は、音声S(SP1)をフィルタリングして音声S(SP2)を生成する。フィルタ65には、ドア502の遮音特性であるインパルス応答IR(door)がセットされる。フィルタ65は、音声S(SP2)をフィルタリングして音声S(SP20)を生成する。フィルタ66には、ドア502の部屋201側の位置SP20からユーザLの位置および頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(20-L)がセットされる。フィルタ66は、音声S(SP20)をフィルタリングして透過音S(L door)を生成する。この実施形態では、インパルス応答IR(1-2)、インパルス応答(遮音特性)IR(door)、および、頭部伝達関数HRTF(20-L)の演算ために、3つのフィルタ64-66が設けられている。しかし、これらのフィルタ係数を合成した1つのフィルタで透過音S(L door)が生成されてもよい。
直列に接続されたフィルタ67,68は、ドア502が開かれている場合の間接音S(L open)を生成する。フィルタ67には、仮想音源位置SP1からドア502の位置SP2までのインパルス応答IR(1-2)がセットされる。フィルタ67は、音声S(SP1)をフィルタリングして音声S(SP2)を生成する。フィルタ68には、ドア502の位置SP2からユーザLの位置および頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(2-L)がセットされる。フィルタ68は、音声S(SP2)をフィルタリングして間接音S(L open)を生成する。この実施形態では、インパルス応答IR(1-2)、および、頭部伝達関数HRTF(2-L)のために、2つのフィルタ66、67が設けられている。しかし、これらのフィルタ係数を合成した1つのフィルタで間接音S(L open)が生成されてもよい。
フィルタ69は、直接音S(L direct)を生成する。フィルタ68には、仮想音源位置SP1からユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(1-L)がセットされる。フィルタ69は、音声S(SP1)をフィルタリングして直接音S(L direct)を生成する。
ゲイン調整部61-63は、生成された透過音S(L door)、間接音S(L open)、および、直接音S(L direct)のゲインをそれぞれオン/オフおよびゲイン調整する。インパルス応答や頭部伝達関数には、音量制御の要素が含まれているため、信号処理部106は、通常は透過音S(L door)などの生成後にゲインを調整しなくてもよい。ゲイン調整部61-63は、ドア502の開角に応じて間接音S(L open)のゲインを調整する場合、透過音S(L door)および間接音S(L open)をクロスフェードする場合などに使用される。
加算部80は、ゲイン調整部61-63でゲインを調整された透過音S(L door)、間接音S(L open)、直接音S(L direct)を加算して、ヘッドホン20に出力される音声S(L)を生成する。信号処理部106は、音声S(L)を通信処理部107に入力する。通信処理部107は、音声S(L)をヘッドホン20に送信する。信号処理部106は、全てのフィルタ64-69および全てのゲイン調整部61-63のフィルタ係数およびゲイン値を合成して一つのフィルタ係数を算出することも可能である。信号処理部106は、このフィルタ係数を用いて一つのFIRフィルタで音声S(L)を生成することも可能である。
図10は、携帯端末装置10の音声信号処理動作を示すフローチャートである。この処理はシナリオファイル72に基づいて音声が生成されているときに実行される。この処理は、定期的に、例えば20ミリ秒ごとに、携帯端末装置10の制御部100および信号処理部106などによって実行される。
制御部100は、ユーザLの現在位置および頭部方向を取得する(ステップS11,S12)。以下、このフローチャートにおいて、ステップSn(nは任意の数値)を単にSnと言う。制御部100は、ドアセンサ30から受信した信号を判断しドア502が開いているか否かを判断する(S13)。ドア502が閉じている場合は(S13でNO)、ユーザLには透過音のみが聞こえるため、図9に示す信号処理部106に透過音S(L door)の生成を指示する(S14)。信号処理部106から出力された透過音S(L door)は、通信処理部107に出力される(S15)。
ドア502が開いている場合は(S13でYES)、制御部100は、ユーザLが仮想音源位置SP1(ピアノ300)を直視できる位置にいるかを判断する(S21)。直視できる位置にいる場合(S21でYES)、制御部100は、処理をS25に進める。直視できない位置にいる場合(S21でNO)、制御部100は、処理をS22に進める。
ユーザLが仮想音源位置SP1を直視できない位置にいる場合(S21でNO)、制御部100は、信号処理部106に間接音S(L open)の生成を指示する(S22)。このとき、制御部100は、ユーザLの位置および頭部の向きに基づいて1つの頭部伝達関数を選択し、フィルタ68にセットする。信号処理部106から出力された間接音S(L open)は、通信処理部107に出力される(S15)。
ドア502が開いており、ユーザLが仮想音源位置SP1を直視できる位置にいる場合(S21でYES)、制御部100は、信号処理部106に直接音S(L direct)および間接音S(L open)の生成を指示する(S25、S26)。このとき、制御部100は、ユーザLの位置および頭部の向きに基づき、フィルタ68,69にそれぞれ1つの頭部伝達関数をセットする。信号処理部106は、生成された直接音S(L direct)および間接音S(L open)を加算して音声S(L)を生成して(S27)、通信処理部107に出力する(S27)。
制御部100は、図10のステップS13で、ドア502が開いているか閉じているかを判断している。制御部100は、ドア502が開いている場合、どの程度の角度で開いているかを判断し、その角度に応じて間接音S(L open)のゲインを調節してもよい。さらに、制御部100は、ドア502の開角に応じて間接音S(L open)の音質を調節してもよい。
図11は、ドア502の開角で間接音S(L open)のゲインを調節する処理を示すフローチャートである。制御部100は、ドアセンサ30からドア502の開角を取得する(S31)。制御部100は、取得された開角に基づき、ゲイン調整部62にこの開角に応じたゲインを設定する(S32)。このとき、制御部100は、ドア502の開角が大きくなるに従って、間接音S(L open)のゲインを大きくするとともに、透過音S(L door)のゲインを小さくする処理(クロスフェード)をしてもよい。
制御部100は、図10のステップS21で、ユーザLが仮想音源SP1を直視できる位置にいるか否かを判断している。制御部100は、仮想音源SP1にピアノ300のような所定の大きさを持たせ、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)のゲインを調節してもよい。さらに、制御部100は、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)の音質を調節してもよい。
図12は、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)のゲインを調節する処理を示すフローチャートである。制御部100は、ユーザLの位置から仮想音源SP1をどの程度直視できるかを算出する(S33)。直視範囲の算出は、ユーザL、仮想音源SP1、および、ドア枠503の座標に基づいて行われる。制御部100は、算出した直視範囲に応じてゲイン調整部62にゲインを設定する(S34)。すなわち、制御部100は、ユーザLが仮想音源SP1全体を直視できる場合は、100%のゲインを設定し、ユーザLが直視できる仮想音源SP1の範囲が狭くなるに従って設定されるゲインが小さくなるようにすればよい。
上の実施形態は、仮想音源SP1(ピアノ300)が移動しない場合について説明した。以下の実施形態は、仮想音源SP1が移動する場合について説明する。この実施形態において上の実施形態と同様の構成の部分は同一番号を付して説明を省略する。
図13は建物200内の仮想音源SP10およびユーザLの配置を示す図である。部屋のレイアウトは、図5に示したものと同じである。図13において、鳥の外観で記載されている仮想音源SP10は、位置SP10(1)から位置SP10(2)へ移動する。ドア502は開いている。図6、7の実施形態では、ユーザL自身が移動することにより、仮想音源SP1を直視できるようになる。この実施形態では、仮想音源SP10が移動することにより、ユーザLが仮想音源SP10を直視できるようになる。
ユーザLは、位置LP10に留まっている。仮想音源SP10が、位置SP10(1)にあるとき、ユーザLは、仮想音源SP10を直視することができず、ユーザLには間接音S(L open)が聴こえる。間接音S(L open)は、図6で説明したものと同じであり、SP2における仮想音源SP10(1)のインパルス応答、および、SP2からユーザLまでの頭部伝達関数で算出される。仮想音源SP10が、位置SP10(2)へ移動したとき、ユーザLは、ドア枠503を介して仮想音源SP10を直視することができる。ユーザLは、直接音S(L direct)が聴こえる。直接音S(L direct)は、図7で説明したものと同じであり、SP10(2)からユーザLまでの頭部伝達関数で算出される。また、直接音が聴こえているときも、間接音が併行して聴こえている。この間接音は、SP2における仮想音源SP10(2)のインパルス応答、および、SP2からユーザLまでの頭部伝達関数で算出される。
仮想音源SP10が移動する場合、制御部100は、図10のフローチャートにおいて、S10、11と併行して仮想音源SP10の位置を取得して、ユーザLが仮想音源SP10を直視できるか否かを計算すればよい。
図13の例は、ユーザLが停止している例を示した。さらに、ユーザLが図5-8と同様に移動し、さらに仮想音源SP10が移動する実施形態も実現可能である。
実施形態のドア502は、蝶番を用いた揺動式である。ドア502は、揺動式だけでなく、引き戸など他の機構で開閉するものも含む。ドア502が常に開放された実施形態、および、ドア502が無い実施形態、すなわちドア枠503(開口部)のみの実施形態も実現可能である。
図5の例は、ユーザLがドア502を開く場合についてのものであった。ユーザLが開いているドア502を閉じる実施形態も実現可能である。
図8の例は、ドア502を閉じたとき、ドア502のみから透過音が聴こえてくる実施形態である。ドア502を閉じたとき、壁500全体から透過音が聴こえてくる実施形態も実現可能である。
以上の実施形態では、音声生成部105および信号処理部106が、携帯端末装置10に設けられている。これら音声生成部105および信号処理部106が、ヘッドホン20に設けられてもよい。
以上の実施形態では、建物200、部屋201、202、壁500、ドア502等が実際に存在する例が説明された。本発明をVR(ヴァーチャル・リアリティ)に適用する場合、建物200、部屋201、202、壁500、ドア502等は、バーチャルであってもよい。
以上の実施形態では、遮蔽物に遮蔽されない場合の第2の音質に変化させる音声処理部として、頭部伝達関数を示した。しかし、例えば音量を変える処理も、当該音声処理の一例である。
以上詳述した実施形態から、以下のような態様が把握される。
《態様1》
本開示の態様1に係るデバイスシステムは、デバイス、センサおよび音声生成手段を備える。デバイスは、ユーザが装用する。センサは、移動可能な遮蔽物の移動を検出する。音声処理部は、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成してデバイスから放音し、遮蔽物が仮想音源を遮蔽する位置から移動したことをセンサが検出したとき、音声の音質を、遮蔽物で遮蔽された音質から遮蔽されない場合の第2の音質に変化させる。
《態様2》
本開示の態様2に係るデバイスシステムは、遮蔽物、ユーザおよび仮想音源のうち少なくとも一つが移動したことにより、ユーザが仮想音源の定位位置を直視できるようになった場合、第2の音質に代えて仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する。これにより直接音をユーザに聴かせることができる。
《態様3》
本開示の態様3に係るデバイスシステムは、遮蔽物として、ユーザがいる第1の空間、および、仮想音源が定位される第2の空間を仕切る壁、および、壁に設けられたドアを用いる。センサとして、ドアの開閉を検出するセンサを用いる。これにより、部屋を隔てて音声を聴く場合の音質が実現される。
《態様4》
本開示の態様4に係るデバイスシステムは、センサとして、ドアの開閉の程度を検出するものを用いる。音声処理部は、センサが検出したドアの開閉の程度に応じて、第1の音質および第2の音質をクロスフェードした音質の音声を生成する。これにより、ドア502が少し開かれた場合や徐々に開かれた場合の音質の変化が実現される。
《態様5》
本開示の態様5に係るデバイスシステムは、開かれたドアの位置SP2における仮想音源の第2の空間内のインパルス応答と、位置SP2からユーザまでの頭部伝達関数とでフィルタリングして第2の音質を実現する。
1 音声再生システム
10 携帯端末装置(スマートホン)
20 ヘッドホン
21 スピーカ
23 姿勢センサ
24 通信処理部
30 ドアセンサ
31 センサモジュール
30 通信処理部
70 アプリケーションプログラム
100 制御部
106 信号処理部
500 壁
501 固定壁
502 ドア
503 ドア枠
SP1,SP10 仮想音源

Claims (11)

  1. ユーザが装用する音響デバイスと、
    開閉可能な遮蔽物の移動を検出するセンサと、
    前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から前記遮蔽物に遮蔽されない場合の第2の音質に変化させる音声処理部と、
    を備えたデバイスシステムであって、
    前記遮蔽物、前記ユーザおよび前記仮想音源のうち少なくとも一つが移動したことにより、前記ユーザが前記仮想音源の定位位置を直視できるようになった場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する、
    デバイスシステム。
  2. 前記遮蔽物は、前記ユーザがいる第1の空間、および、前記仮想音源が定位される第2の空間を仕切る壁、および、該壁に設けられたドアであり、
    前記センサは、前記ドアの開閉を検出するセンサである
    請求項1に記載のデバイスシステム。
  3. 前記センサは、前記ドアの開閉の程度を検出するものであり、
    前記音声処理部は、前記センサが検出した前記ドアの開閉の程度に応じて、前記第1の音質および前記第2の音質をクロスフェードした音質の音声を生成する
    請求項に記載のデバイスシステム。
  4. 前記第2の音質は、
    前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答と、
    前記開かれたドアの位置から前記ユーザまでの頭部伝達関数と、
    でフィルタリングされた音質である請求項または請求項に記載のデバイスシステム。
  5. 前記第1の音質は、前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答と、前記遮蔽物の遮音特性のインパルス応答と、前記開かれたドアの位置から前記ユーザまでの頭部伝達関数と、でフィルタリングされた音質であり、
    前記第3の音質は、前記仮想音源の定位位置から前記ユーザまでの頭部伝達関数でフィルタリングされた音質である、
    請求項4に記載のデバイスシステム。
  6. ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサを含むデバイスシステムが、
    前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる
    音質制御方法であって、
    前記ユーザが前記仮想音源の定位位置を直視できる位置にいる場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する、
    音質制御方法
  7. 前記遮蔽物として、前記ユーザがいる第1の空間、および、前記仮想音源が定位される第2の空間を仕切る壁、および、該壁に設けられたドアが用いられ、
    前記センサとして、前記ドアの開閉を検出するセンサが用いられる
    請求項6に記載の音質制御方法。
  8. 前記センサとして、前記ドアの開閉の程度を検出するものが用いられ、
    前記センサが検出した前記ドアの開閉の程度に応じて、前記第1の音質および前記第2の音質をクロスフェードした音質の音声を生成する
    請求項に記載の音質制御方法。
  9. 前記第2の音質、前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答、および、前記開かれたドアの位置から前記ユーザまでの頭部伝達関数でフィルタリングされた音質である請求項または請求項に記載の音質制御方法。
  10. 前記第1の音質は、前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答と、前記遮蔽物の遮音特性のインパルス応答と、前記開かれたドアの位置から前記ユーザまでの頭部伝達関数と、でフィルタリングされた音質であり、
    前記第3の音質は、前記仮想音源の定位位置から前記ユーザまでの頭部伝達関数でフィルタリングされた音質である、
    請求項9に記載の音質制御方法。
  11. ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサと通信する携帯端末装置の制御部を、
    前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、
    前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる
    として機能させる音質制御プログラムであって、
    該音質制御プログラムは、前記制御部に、前記ユーザが前記仮想音源の定位位置を直視できる位置にいる場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成させる、
    音質制御プログラム
JP2020054233A 2020-03-25 2020-03-25 デバイスシステム、音質制御方法および音質制御プログラム Active JP7463796B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020054233A JP7463796B2 (ja) 2020-03-25 2020-03-25 デバイスシステム、音質制御方法および音質制御プログラム
US17/210,368 US11693621B2 (en) 2020-03-25 2021-03-23 Sound reproduction system and sound quality control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054233A JP7463796B2 (ja) 2020-03-25 2020-03-25 デバイスシステム、音質制御方法および音質制御プログラム

Publications (2)

Publication Number Publication Date
JP2021158426A JP2021158426A (ja) 2021-10-07
JP7463796B2 true JP7463796B2 (ja) 2024-04-09

Family

ID=77857085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054233A Active JP7463796B2 (ja) 2020-03-25 2020-03-25 デバイスシステム、音質制御方法および音質制御プログラム

Country Status (2)

Country Link
US (1) US11693621B2 (ja)
JP (1) JP7463796B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317911A (ja) 2003-04-18 2004-11-11 Chiba Inst Of Technology 音場シミュレーション装置、音場シミュレーション方法、コンピュータプログラム、プログラム記録媒体
JP2012505617A (ja) 2008-10-14 2012-03-01 ヴェーデクス・アクティーセルスカプ 補聴器システムにおいてバイノーラル・ステレオにレンダリングする方法および補聴器システム
JP2017522771A (ja) 2014-05-28 2017-08-10 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ルーム最適化された伝達関数の決定および使用
WO2019079523A1 (en) 2017-10-17 2019-04-25 Magic Leap, Inc. SPACE AUDIO WITH MIXED REALITY
WO2019121773A1 (en) 2017-12-18 2019-06-27 Dolby International Ab Method and system for handling local transitions between listening positions in a virtual reality environment
WO2019156992A2 (en) 2018-02-06 2019-08-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2019161314A1 (en) 2018-02-15 2019-08-22 Magic Leap, Inc. Dual listener positions for mixed reality

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6475337B2 (ja) 2015-07-27 2019-02-27 シャープ株式会社 音声ナビゲーション装置および音声ナビゲーションプログラム
US9942687B1 (en) * 2017-03-30 2018-04-10 Microsoft Technology Licensing, Llc System for localizing channel-based audio from non-spatial-aware applications into 3D mixed or virtual reality space
WO2019126665A1 (en) * 2017-12-22 2019-06-27 Magic Leap, Inc. Viewpoint dependent brick selection for fast volumetric reconstruction

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317911A (ja) 2003-04-18 2004-11-11 Chiba Inst Of Technology 音場シミュレーション装置、音場シミュレーション方法、コンピュータプログラム、プログラム記録媒体
JP2012505617A (ja) 2008-10-14 2012-03-01 ヴェーデクス・アクティーセルスカプ 補聴器システムにおいてバイノーラル・ステレオにレンダリングする方法および補聴器システム
JP2017522771A (ja) 2014-05-28 2017-08-10 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ルーム最適化された伝達関数の決定および使用
WO2019079523A1 (en) 2017-10-17 2019-04-25 Magic Leap, Inc. SPACE AUDIO WITH MIXED REALITY
WO2019121773A1 (en) 2017-12-18 2019-06-27 Dolby International Ab Method and system for handling local transitions between listening positions in a virtual reality environment
WO2019156992A2 (en) 2018-02-06 2019-08-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2019161314A1 (en) 2018-02-15 2019-08-22 Magic Leap, Inc. Dual listener positions for mixed reality

Also Published As

Publication number Publication date
JP2021158426A (ja) 2021-10-07
US20210301581A1 (en) 2021-09-30
US11693621B2 (en) 2023-07-04

Similar Documents

Publication Publication Date Title
CN107018460B (zh) 具有头部跟踪的双耳头戴式耳机呈现
JP6204618B2 (ja) 会話支援システム
JP2023175935A (ja) 非遮断型デュアルドライバイヤホン
Ranjan et al. Natural listening over headphones in augmented reality using adaptive filtering techniques
US20180090121A1 (en) Apparatus, Method and Computer Program for Adjustable Noise Cancellation
US8587631B2 (en) Facilitating communications using a portable communication device and directed sound output
US20150326963A1 (en) Real-time Control Of An Acoustic Environment
JP4916547B2 (ja) バイノーラル情報をユーザに伝える方法及びバイノーラル音響システム
JP7047383B2 (ja) 音響出力装置、音響出力方法、プログラム
CA2295092C (en) System for producing an artificial sound environment
US10959035B2 (en) System, method, and apparatus for generating and digitally processing a head related audio transfer function
US20080118078A1 (en) Acoustic system, acoustic apparatus, and optimum sound field generation method
US20120128166A1 (en) Systems, methods, apparatus, and computer-readable media for head tracking based on recorded sound signals
US11523244B1 (en) Own voice reinforcement using extra-aural speakers
US11546703B2 (en) Methods for obtaining and reproducing a binaural recording
US11322129B2 (en) Sound reproducing apparatus, sound reproducing method, and sound reproducing system
JP7463796B2 (ja) デバイスシステム、音質制御方法および音質制御プログラム
US6983054B2 (en) Means for compensating rear sound effect
Ranjan et al. Applying active noise control technique for augmented reality headphones
EP4404185A1 (en) Audio cancellation
JP2023080769A (ja) 再生制御装置、頭外定位処理システム、及び再生制御方法
Lezzoum et al. Assessment of sound source localization of an intra-aural audio wearable device for audio augmented reality applications
JP2003199186A (ja) リアサウンド効果の補償装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7463796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150