JP2022122038A - 肩乗せ型スピーカ、音像定位方法及び音像定位プログラム - Google Patents
肩乗せ型スピーカ、音像定位方法及び音像定位プログラム Download PDFInfo
- Publication number
- JP2022122038A JP2022122038A JP2021019091A JP2021019091A JP2022122038A JP 2022122038 A JP2022122038 A JP 2022122038A JP 2021019091 A JP2021019091 A JP 2021019091A JP 2021019091 A JP2021019091 A JP 2021019091A JP 2022122038 A JP2022122038 A JP 2022122038A
- Authority
- JP
- Japan
- Prior art keywords
- shoulder
- posture data
- head
- posture
- mounted speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004807 localization Effects 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims description 12
- 238000012546 transfer Methods 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims abstract description 46
- 238000012937 correction Methods 0.000 claims abstract description 37
- 230000005236 sound signal Effects 0.000 claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 47
- 238000012986 modification Methods 0.000 description 27
- 230000004048 modification Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/02—Casings; Cabinets ; Supports therefor; Mountings therein
- H04R1/026—Supports for loudspeaker casings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/403—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/02—Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
- H04R2201/023—Transducers incorporated in garment, rucksacks or the like
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- General Health & Medical Sciences (AREA)
- Stereophonic System (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
Abstract
【課題】肩乗せ型スピーカのように頭部の姿勢を検出できない場合であっても、頭部の姿勢に応じて適切な位置に音像定位を行う肩乗せ型スピーカを提供する。【解決手段】肩乗せ型スピーカ(1)は、肩乗せ型スピーカ(1)が乗っている部位の姿勢を検出し、部位の姿勢をデータ化した部位姿勢データを取得する姿勢データ検出部(251)と、取得した姿勢データを、頭部姿勢データに補正する姿勢データ補正部(252)と、姿勢データ補正部(252)で補正した頭部姿勢データに応じた頭部伝達関数を用いて、音信号に音像定位処理を施す音像定位処理部(254)と、を備える。【選択図】図4
Description
この発明の一実施形態は、ユーザの肩に乗せて利用するスピーカに関する。
特許文献1のウェアラブルスピーカ装置は、ユーザの肩に乗せて使用されるスピーカである。特許文献1のウェアラブルスピーカ装置は、センサと、センサを用いて検出したユーザの頭部の一部(例えば、耳)、との距離に応じて、例えばスピーカとユーザの耳との間の伝達関数を修正し、頭部の動きによる音色の変化を抑制していた。また、従来、耳元で立体音響をシミュレートする手法として、頭部伝達関数(HRTF: Head-Related Transfer Function)を用いて音像を制御する音響処理装置(例えば、ヘッドフォン)があった(例えば、特許文献2)。特許文献2の音響処理装置は、ヘッドトラッキングを行い、全周囲のHRTFデータベースから必要とするHRTFを逐次読み込むことで、音像定位を行っていた。
特許文献1のウェアラブルスピーカ装置は、頭部の姿勢に関係なく音像がスピーカの位置になってしまう。また、特許文献2の音響処理装置は、頭部の姿勢を検出するセンサが必要である。特許文献2のように、頭部に装着するヘッドフォンでは頭部の姿勢をセンサで検出することが可能であるが、特許文献1の様な肩乗せ型スピーカは、頭部に装着するものではないので、センサを用いて頭部の姿勢を検出することができない。したがって、肩乗せ型スピーカでは特許文献2の様な音像定位を実現することが困難であった。
この発明の一実施形態は、肩乗せ型スピーカのように頭部の姿勢を検出できない場合であっても、頭部の姿勢に応じて適切な位置に音像定位することを目的とする。
本発明の一実施形態に係る肩乗せ型スピーカは、前記肩乗せ型スピーカが乗っている部位の姿勢を検出し、前記部位の姿勢をデータ化した部位姿勢データを取得する姿勢データ検出部と、取得した前記部位姿勢データを、頭部姿勢データに補正する姿勢データ補正部と、前記姿勢データ補正部で補正した前記頭部姿勢データに応じた頭部伝達関数を用いて、音信号に音像定位処理を施す音像定位処理部と、を備える。
本発明の一実施形態の肩乗せ型スピーカ、音像定位方法及び音像定位プログラムは、肩乗せ型スピーカのように頭部の姿勢を検出できない場合であっても、頭部の姿勢に応じて適切な位置に音像定位することができる。
本実施形態の肩乗せ型スピーカ1について図面を参照して説明する。図1は、肩乗せ型スピーカ1の外観を示す平面図及び側面図である。図2は、ユーザが肩乗せ型スピーカ1を装着したときの状態を示す説明図である。肩乗せ型スピーカ1は、図1に示すように、平面(鉛直方向の上側)から見た場合、円弧形状の円弧部分と円弧部分の両端から延びる長尺部分とで構成されたU字型に形成されている。肩乗せ型スピーカ1は、円弧部分が、図2に示すように、ユーザの首の後ろ側を沿うように装着される。また、肩乗せ型スピーカ1は、2つの長尺部分がユーザの肩51から前方に向かうように、肩51に掛かけられる。
肩乗せ型スピーカ1は、図1に示すように、長尺部分の筐体のそれぞれにスピーカ3L、3Rを備えている。ユーザは、肩乗せ型スピーカ1を、スピーカ3L、3Rの放音部分が上側に向くように、装着する。より詳細には、ユーザは、スピーカ3Lを、ユーザの左耳52L側に配置されるように装着する。また、ユーザは、スピーカ3Rを、ユーザの右耳52R側に配置されるように装着する(図2参照)。
肩乗せ型スピーカ1は、円弧部分の筐体の内部にセンサ4及びセンサ4以外の電気回路等を搭載している。なお、センサ4は、必ずしも肩乗せ型スピーカ1の筐体内に搭載されていなくてもよい。センサ4は、例えば肩乗せ型スピーカ1の筐体の外側に設けられていてもよい。
肩乗せ型スピーカ1は、例えば、携帯端末(スマートフォン、PCなど)又はテレビから、オーディオ信号を受信する。肩乗せ型スピーカ1は、受信したオーディオ信号に信号処理を施す。肩乗せ型スピーカ1は、信号処理を施したオーディオ信号に基づく音を、スピーカ3L、3Rから放音する。
この例における肩乗せ型スピーカ1は、例えば、ステレオチャンネルのオーディオ信号を受信する。肩乗せ型スピーカ1は、例えば、受信したステレオチャンネルのオーディオ信号を5チャンネルのオーディオ信号にアップミックスする。この例でいう、5チャンネルとは、フロントレフトFL、センタC、フロントライトFR、サラウンドレフトSL及びサラウンドライトSRである。
肩乗せ型スピーカ1は、ステレオチャンネルからアップミックスした5チャンネルのオーディオ信号に音像定位処理を行う。より詳細には、肩乗せ型スピーカ1は、各チャンネルに音像の位置から左耳52Lに至る頭部伝達関数を畳み込んだオーディオ信号(Lチャンネル信号)と、右耳52Rに至る頭部伝達関数を畳み込んだ(Rチャンネル信号)を生成する。
肩乗せ型スピーカ1は、頭部姿勢データに応じた音像定位処理を行うことで、ユーザの頭部53の姿勢が変わっても、音像の位置が変わらない。
図3は、5チャンネルの音像の位置を示す平面図である。頭部伝達関数は、音源からユーザの頭部53(具体的には、ユーザの左耳52L、右耳52R)までの伝達関数を示す。頭部伝達関数は、図3に示すように、ユーザから所定の距離、例えば1mで離間し、かつ5チャンネル(フロントレフトFL、センタC、フロントライトFR、サラウンドレフトSL及びサラウンドライトSR)のそれぞれに対してユーザの左耳52L及び右耳52Rに至る2つの伝達経路を表現した伝達関数である。この例では、ユーザを鉛直方向の上側から見て、ユーザを基準に、5チャンネルのうち、フロントレフトFLの音像をユーザの左前、センタCをユーザの正面、フロントライトFRの音像をユーザの右前、サラウンドレフトSLの音像をユーザの左後ろ及びサラウンドライトSRの音像をユーザの右後ろに、それぞれ音像を定位させる。
ここで、肩乗せ型スピーカ1は、頭部伝達関数を使用して音像定位処理を行うために、頭部53の姿勢を取得する。肩乗せ型スピーカ1は、肩51の姿勢(傾き角度)を頭部53の姿勢(角度)に補正する。言い換えると、肩乗せ型スピーカ1は、頭部53の姿勢を直接検出せずに、肩51が傾いた角度を検出し、検出した肩の傾き角度から頭部の角度を取得する。この例でいう、肩の傾き角度は、本発明の部位姿勢データの一例である。また、この例でいう、頭部の角度は、本発明の頭部姿勢データの一例である。
肩乗せ型スピーカ1の構成について、図4を参照して説明する。図4は、肩乗せ型スピーカ1の構成の一例を示すブロック図である。肩乗せ型スピーカ1は、通信部21と、フラッシュメモリ22と、RAM23と、信号処理部24と、CPU25と、出力部26と、スピーカ3L、3Rと、センサ4とを備えている。
通信部21は、例えば、携帯端末又はテレビなどからオーディオ信号を受信する。
信号処理部24は、例えば、DSP(Digital Signal Processing)で構成されている。信号処理部24は、受信したオーディオ信号に信号処理を施す。この例では、信号処理部24は、受信したステレオオーディオ信号を5チャンネルにアップミックスする。
フラッシュメモリ22は、肩の傾き角度と頭部の角度との関係を示すテーブルta1(図7参照)を記憶している。なお、テーブルta1に関する詳細な説明は後述する。また、フラッシュメモリ22は、5チャンネルのそれぞれに対応する頭部伝達関数を記憶している。
CPU25は、フラッシュメモリ22に記憶されている動作用プログラムをRAM23に読み出し、肩乗せ型スピーカ1を統括的に制御する。また、CPU25は、姿勢データ検出部251と、姿勢データ補正部252と、頭部伝達関数取得部253と、音像定位処理部254とを備えている。CPU25は、アプリケーションプログラムを実行することで、フラッシュメモリ22から姿勢データ検出処理、姿勢データ補正処理、頭部伝達関数取得処理及び音像定位処理に関するプログラムをRAM23に読み出す。これにより、CPU25は、姿勢データ検出部251と、姿勢データ補正部252と、頭部伝達関数取得部253と、音像定位処理部254とを構成する。姿勢データ検出部251、姿勢データ補正部252、頭部伝達関数取得部253及び音像定位処理部254の詳細な説明は、後述する。
なお、CPU25が読み出すプログラムは、肩乗せ型スピーカ1のフラッシュメモリ22に記憶されている必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU25は、該サーバ(図示せず)から都度プログラムをRAM23に読み出して実行すればよい。
出力部26は、スピーカ3L、3Rに接続されている。出力部26は、信号処理が施されたオーディオ信号をスピーカ3L、3Rに出力する。出力部26は、DAコンバータ(以下、DACと称す)261と、増幅器(以下、AMPと称す)262とを有している。DAC261は、信号処理が施されたデジタル信号をアナログ信号に変換する。AMP262は、スピーカ3L、3Rを駆動するために該アナログ信号を増幅する。出力部26は、増幅されたアナログ信号(オーディオ信号)をスピーカ3L、3Rに出力する。
スピーカ3L、3Rは、出力部26から出力されたオーディオ信号に基づいて放音する。
センサ4は、例えば、角速度センサであって、筐体の円弧部分の中心に設けられている。センサ4は、例えば、鉛直方向(方向z1)を軸とする水平方向c1における角速度を検出する角速度センサである。この例では、肩51を肩乗せ型スピーカ1が乗っている部位として説明する。
図5は、鉛直方向から見た肩乗せ型スピーカ1であって、ユーザが肩乗せ型スピーカ1を装着した状態の変化(状態60から状態61)を示した、平面図である。図5の一点鎖線で示される方向y1は、前後方向を示し、紙面の上側がユーザの後ろ側、紙面の下側がユーザの前側を示す。また、図4の一点鎖線で示される方向x1は、左右方向を示し、紙面の右側がユーザの左側を示し、紙面の左側がユーザの右側を示す。
状態60(図5の紙面上における上側のユーザの状態)は、図5に示すように、ユーザが正面(前)を向いている状態を示す。また、状態61(図5の紙面上における下側のユーザの状態)は、ユーザが左方向に傾いている状態を示す。状態61の肩51は、右方向を基準とした場合、状態60の肩51の位置から、肩の傾き角度a1で傾いている。
姿勢データ検出部251、姿勢データ補正部252、頭部伝達関数取得部253及び音像定位処理部254について、図6及び図7を参照して説明する。図6は、肩乗せ型スピーカ1に入力された信号の流れの一例を示す説明図である。図7は、肩の傾き角度と頭部の角度との関係を示すテーブルである。
姿勢データ検出部251は、図6に示すように、センサ4が出力した計測値から、肩51の姿勢を検出する。姿勢データ検出部251は、センサ4で検出した角速度に基づいて肩の傾き角度a1(図5参照)を演算する。より詳細には、姿勢データ検出部251は、肩の向きが右方向から図5で示される二点鎖線d1で示される方向に傾いた場合の肩の傾き角度a1を検出する。姿勢データ検出部251は、演算した肩の傾き角度a1を姿勢データ補正部252に出力する。
姿勢データ補正部252は、図7で示されるテーブルta1に基づいて、肩の傾き角度a1(部位姿勢データ)を頭部の角度(頭部姿勢データ)に補正する。すなわち、姿勢データ補正部252は、フラッシュメモリ22に予め記憶されているテーブルta1を参照して、姿勢データ検出部251から出力された肩の傾き角度a1に対応する頭部の角度を取得する。姿勢データ補正部252は、例えば、図7に示すように、肩の傾き角度a1の場合、テーブルta1から、肩の傾き角度a1に対応する頭部の角度b1を取得する。
テーブルta1は、例えば、大量に集められた測定データを平均化したものである。測定データとは、座った状態における人の肩の傾き角度と、該肩の傾き角度に対応する頭部の角度を測定したものである。なお、テーブルta1は、機械学習済のアルゴリズム(例えばニューラルネットワーク)を用いて生成されたものでもよい。肩の傾き角度から頭部の角度を求めるアルゴリズムは、例えば、上記の大量に集められた測定データを用いてエンドツーエンドの学習により構築する。この場合、ユーザの肩の傾き角度は、入力データの要素となる。また、頭部の角度は、出力データの要素となる。当該アルゴリズムは、肩乗せ型スピーカ1のセンサ4から計算される肩の傾き角度に対する頭部の角度を出力することで、テーブルを生成する。この場合も、テーブルは予め作成される。
姿勢データ補正部252は、取得した頭部の角度b1を頭部伝達関数取得部253に出力する。
頭部伝達関数取得部253は、頭部の角度b1に対応する頭部伝達関数をフラッシュメモリ22から読み出す。頭部伝達関数取得部253は、読み出した頭部伝達関数を音像定位処理部254に出力する。頭部伝達関数取得部253は、スピーカ3Lに対応するL用チャンネルの頭部伝達関数及びスピーカ3Rに対応するR用チャンネルの頭部伝達関数を音像定位処理部254に出力する。
頭部伝達関数取得部253は、音像の位置が移動しないように、頭部の角度に応じた頭部伝達関数をフラッシュメモリ22から読み出す。より詳細には、頭部伝達関数取得部253は、頭部が状態60から状態61に角度b1°(例えば、鉛直方向を軸として反時計回りに30°)で傾いた場合、鉛直方向を軸として時計周りに角度b1°(角度30°)に傾いた場合の頭部伝達関数を読み出す。なお、頭部伝達関数取得部253は、頭部が状態60から状態61に角度b1°(例えば、鉛直方向を軸として反時計回りに角度30°)で傾いた場合、音像の位置を、鉛直方向を軸として時計周り角度b1°(角度-30°)に傾いた場合の頭部伝達関数を計算し、フラッシュメモリ22に記憶されている頭部伝達関数を補正してもよい。
音像定位処理部254は、信号処理部24によって5チャンネルにアップミックスされたオーディオ信号のそれぞれにLチャンネル用の頭部伝達関数及びRチャンネル用の頭部伝達関数をそれぞれ畳み込む。音像定位処理部254は、頭部伝達関数が畳み込まれた5チャンネルのオーディオ信号を2チャンネルのステレオオーディオ信号を生成する。
肩乗せ型スピーカ1の動作(音像定位に関する動作)について、図8を参照して説明する。図8は、肩乗せ型スピーカ1の動作の一例を示すフローチャートである。
肩乗せ型スピーカ1は、センサ4の計測値を取得する(S1)。肩乗せ型スピーカ1は、該計測値から肩の傾き角度a1を演算する(S2)。肩乗せ型スピーカ1は、テーブルta1を用いて肩の傾き角度a1を頭部の角度b1に補正する(S3)。言い換えると、肩乗せ型スピーカ1は、フラッシュメモリ22に記憶されているテーブルta1を参照して、肩の傾き角度a1に対応する頭部の角度b1を取得する。肩乗せ型スピーカ1は、頭部の角度b1に対応する頭部伝達関数を取得する(S4)。肩乗せ型スピーカ1は、アップミックスされた5チャンネルのオーディオ信号のそれぞれにLチャンネル用の頭部伝達関数及びRチャンネル用の頭部伝達関数を畳み込むことで、音像定位処理を行う(S5)。肩乗せ型スピーカ1は、頭部伝達関数が畳み込まれた各チャンネルのオーディオ信号をミキシングしてLチャンネルとRチャンネルのオーディオ信号として出力する(S6)。
本実施形態の肩乗せ型スピーカ1は、肩の傾き角度a1に対応する頭部の角度をテーブルta1から取得する。さらに、本実施形態の肩乗せ型スピーカ1は、取得した頭部の角度に対応する頭部伝達関数を各チャンネルのオーディオ信号に適用することで、音像定位処理を行う。これにより、本実施形態の肩乗せ型スピーカ1は、頭部53の姿勢を直接検出できない場合であっても、頭部53の姿勢に応じて音像の位置に音像定位を行うことができる。したがって、ユーザの頭部53の姿勢が変わっても、音像の位置は変わらない。
なお、信号処理部24は、5チャンネルにアップミックスすることに限定されない。信号処理部24は、3チャンネル、4チャンネル、7チャンネル又は9チャンネルなどにアップミックスしてもよい。
また、上述の実施形態では、肩乗せ型スピーカ1が2チャンネルのステレオオーディオ信号を5チャンネルにアップミックスし、5チャンネルにアップミックスされたオーディオ信号に対して頭部伝達関数を畳み込む処理を行っていたが、これに限定されない。肩乗せ型スピーカ1は、アップミックスは行わず、ステレオオーディオ信号に対して頭部伝達関数を畳み込む処理を行うようにしてもよい。
また、通信部21は、5チャンネルのオーディオ信号を受信してもよい。この場合、信号処理部24は、アップミックスせずに、音像定位処理部254にオーディオ信号を出力する。
[変形例1]
変形例1の肩乗せ型スピーカ1Aについて図9、図10、図11及び図12を参照して説明する。図9は、変形例1の肩乗せ型スピーカ1Aの構成を示すブロック図である。図10は、肩の傾き角度と頭部の角度との関係を示す複数のテーブルp1、p2、p3である。図11は、変形例1の肩乗せ型スピーカ1Aに入力された信号の流れを示す説明図である。図12は、データ算出部255の動作の一例を示すフローチャートである。
変形例1の肩乗せ型スピーカ1Aについて図9、図10、図11及び図12を参照して説明する。図9は、変形例1の肩乗せ型スピーカ1Aの構成を示すブロック図である。図10は、肩の傾き角度と頭部の角度との関係を示す複数のテーブルp1、p2、p3である。図11は、変形例1の肩乗せ型スピーカ1Aに入力された信号の流れを示す説明図である。図12は、データ算出部255の動作の一例を示すフローチャートである。
CPU25は、図9に示すように、姿勢データ検出部251で取得した肩51の角度からユーザの単位時間毎の肩の角度を算出するデータ算出部255を備えていることが、上述の実施形態の肩乗せ型スピーカ1の構成と異なる。また、肩乗せ型スピーカ1Aは、単位時間毎の肩の角度に対応する複数(図10では3つ)のテーブルp1、p2、p3をフラッシュメモリ22に記憶していることが、上述の肩乗せ型スピーカ1と異なる。テーブルp1、p2、p3については、後述する。
変形例1Aの肩乗せ型スピーカ1Aも、上述の実施形態の肩乗せ型スピーカ1と同様に、頭部の角度を、肩の傾き角度から求める。ところで、肩51の傾き角度に対する頭部の角度は、人それぞれ異なる。例えば、動きの小さい人は、動きの大きい人よりも、肩51の傾き角度に対する頭部の角度が小さい。動きの大きさは、単位時間毎(例えば、1分間)における、肩の傾き角度の合計(移動量)によって求める。動きの小さい人は、例えば、単位時間毎における肩の傾き角度が小さい。また、動きの大きい人は、例えば、単位時間毎における肩の傾き角度が大きい。
そこで、肩乗せ型スピーカ1Aは、単位時間毎、例えば、1分間の肩51の傾き角度の合計を移動量として算出する。肩乗せ型スピーカ1Aは、移動量に対応するパターンのテーブルを選択して、肩51の傾き角度(例えば、図5で示される肩の傾き角度a1)を頭部の角度に補正する。この例でいう、移動量は本願発明のパラメータの一例である。
データ算出部255は、姿勢データ検出部251によって演算された肩の傾き角度を取得し、1分間に取得した肩51の傾き角度の合計を移動量として算出する。データ算出部255は、例えば、正面を向いた状態から、ユーザが1分間に肩51を右方向に20°傾け、その後、左方向に肩51を10°を傾けた場合、ユーザの肩51の傾き角度の合計を移動量=30°として算出する。データ算出部255は、図11に示すように、姿勢データ補正部252に、算出した移動量を出力する。
データ算出部255の動作を、図12を参照して説明する。なお、図12で示されるデータ算出部255の動作は一例であって、これに限定されない。また、データ算出部255は、例えば、定期的、例えば30分毎に、1分間に傾いた肩の角度を算出してもよい。
データ算出部255は、姿勢データ検出部251から肩の傾き角度を取得する(S11)。データ算出部255は、1分間に傾いた肩51の角度の算出を開始してから1分経過していなければ、(S12:No)、取得した肩の傾き角度を加算する(S13)。データ算出部255は、S11の処理に戻る。データ算出部255は、1分間に傾いた肩51の角度の算出を開始してから1分経過した場合(S12:Yes)、算出した角度の合計を姿勢データ補正部252に出力する(S14)。
なお、S13はS12の判定ステップの前でもよい。この場合、1分間に傾いた肩51の算出を開始してから1分経過していなければ、動作をS11に移行する。
姿勢データ補正部252は、データ算出部255から受信した移動量から、対応するパターンのテーブルを選択する。姿勢データ補正部252は、図10に示す例では、3つのパターンのテーブルp1、p2、p3から、受信した移動量に応じたパターンのテーブルを選択する。
この例では、姿勢データ補正部252は、移動量が閾値th1(例えば、30°)未満の場合、パターン1のテーブルp1を選択する。また、姿勢データ補正部252は、移動量が閾値th1以上かつ閾値th2(例えば、120°)未満の場合、パターン2のテーブルp2を選択する。さらに、姿勢データ補正部252は、移動量が閾値th2以上の場合、パターン3のテーブルp3を選択する。
例えば、姿勢データ補正部252は、移動量が25°の場合、閾値th1未満であるため、パターン1のテーブルp1を選択する。姿勢データ補正部252は、パターン1のテーブルp1に基づいて肩の傾き角度を頭部の角度に補正する。
このように、変形例1の肩乗せ型スピーカ1Aは、移動量に応じたパターンのテーブルを選択し、選択されたテーブルから頭部の角度を取得する。これにより、変形例1の肩乗せ型スピーカ1Aは、個人差に応じて、よりユーザ毎に適したテーブルを使用して、頭部の角度を取得する。したがって、変形例1の肩乗せ型スピーカ1Aは、より正確な音像を定位することができる。
次に、肩乗せ型スピーカ1Aが、単位時間毎の肩51の移動回数(肩を傾かせる回数)に対応するパターンのテーブルから頭部の角度を取得する例を説明する。
例えば、単位時間毎の(例えば、1分間における)肩51の移動回数は、人それぞれ異なる。1分間における肩51の移動回数が少ない人と1分間における肩51の移動回数が多い人とでは、肩の傾き角度が同じであっても、該肩の傾き角度に対応する頭部の角度が異なる。例えば、移動回数が多い人は、移動回数が少ない人よりも肩の傾き角度に対する頭部の角度が大きくなる。そこで、肩乗せ型スピーカ1Aは、1分間に傾いた肩51の移動回数の合計(以下、1分間の移動回数)を算出する。肩乗せ型スピーカ1Aは、1分間の移動回数に応じたパターンのテーブルを使用して、肩51の傾き角度を頭部の角度に補正する。
データ算出部255は、姿勢データ検出部251から受け取ったデータに基づいて、肩51の1分間の移動回数を算出する。データ算出部255は、例えば、ユーザが1分間に右方向に5回及び左方向に6回、姿勢データ検出部251から肩の傾き角度を取得した場合、肩51の1分間の移動回数を11回とする。データ算出部255は、算出した1分間の移動回数を姿勢データ補正部252に出力する。
姿勢データ補正部252は、1分間の移動回数に対応するパターンのテーブルを選択する。また、姿勢データ補正部252は、1分間の移動回数に対応するパターンのテーブルに基づいて、姿勢データ検出部251によって演算された肩の傾き角度(例えば、図5で示される方の傾き角度a1)を頭部の角度を補正する。
ここで、各テーブルは、1分間の移動回数に応じて分類化されていると仮定する。すなわち、テーブルp1、p2、p3のそれぞれは、1分間の移動回数に応じて分類化されている。例えば、テーブルp1は、1分間の移動回数が5回未満で分類化されている。テーブルp2は、1分間の移動回数が5回以上かつ10回未満で分類化されている。テーブルp3は、1分間の移動回数が10回以上で分類化されている。
姿勢データ補正部252は、1分間の移動回数が閾値th1(例えば、5回)未満の場合、パターン1のテーブルp1を選択する。また、姿勢データ補正部252は、1分間の移動回数が閾値th1以上かつ閾値th2(例えば、10回)未満の場合、パターン2のテーブルp2を選択する。さらに、姿勢データ補正部252は、1分間の移動回数が閾値th2以上の場合、パターン3のテーブルp3を選択する。
このように、変形例1の肩乗せ型スピーカ1Aは、1分間の移動回数に応じたパターンのテーブルを選択し、選択されたテーブルから頭部の角度を取得してもよい。この場合も、変形例1の肩乗せ型スピーカ1Aは、個人差に応じて、よりユーザに毎に適したテーブルを使用して、頭部の角度を取得する。したがって、変形例1の肩乗せ型スピーカ1Aは、より正確な音像を定位することができる。
なお、変形例1では、単位時間を1分間で説明したが、単位時間は1分間より長くても短くてもよい。また、テーブルは、移動量及び移動回数の両方で分類化されてもよい。この場合、肩乗せ型スピーカ1Aは、移動量及び移動回数の両方を算出し、対応するパターンのテーブルを選択する。
また、変形例1の肩乗せ型スピーカ1Aは、コンテンツのジャンルに応じたパターンのテーブルを使用して頭部の角度を取得してもよい。同じユーザであっても、ゲーム、TV画像(DVDなどを含む)、又はミュージックなどにおける各コンテンツのジャンルに応じて、肩の傾き角度に対する頭部の角度が異なる。このように、同じ肩の傾き角度であっても、ユーザが視聴するコンテンツのジャンルに応じて、頭部の角度が異なる。例えば、ロック等の騒がしい曲はクラシック等の静かな曲に比べて、肩の傾き角度に対する頭部の角度が大きくなる。変形例1の肩乗せ型スピーカ1Aは、このような場合、コンテンツのジャンルに応じて、適したテーブルを選択することで、より正確な音像定位処理を行うことができる。なお、コンテンツのジャンルを示す情報は、例えば、スマートフォンなどから取得する。この場合、変形例1の肩乗せ型スピーカ1Aは、通信部21を介してスマートフォンから情報を受信する。
[変形例2]
変形例2の肩乗せ型スピーカ1Bについて、図13、図14、図15及び図16を参照して説明する。図13は、変形例2の肩乗せ型スピーカ1Bの構成を示すブロック図である。図14は、3軸方向(鉛直軸(ヨー軸)、前後軸(ロール軸)、及び左右軸(ピッチ軸))における肩の傾き角度と頭部の角度との関係を示すテーブルta1、ta2、ta3である。図15は、ユーザの正面から見た肩乗せ型スピーカ1Bであって、ユーザの状態の変化を示す正面図である。図16は、ユーザの左側から見た肩乗せ型スピーカ1Bであって、ユーザの状態の変化を示す側面図である。
変形例2の肩乗せ型スピーカ1Bについて、図13、図14、図15及び図16を参照して説明する。図13は、変形例2の肩乗せ型スピーカ1Bの構成を示すブロック図である。図14は、3軸方向(鉛直軸(ヨー軸)、前後軸(ロール軸)、及び左右軸(ピッチ軸))における肩の傾き角度と頭部の角度との関係を示すテーブルta1、ta2、ta3である。図15は、ユーザの正面から見た肩乗せ型スピーカ1Bであって、ユーザの状態の変化を示す正面図である。図16は、ユーザの左側から見た肩乗せ型スピーカ1Bであって、ユーザの状態の変化を示す側面図である。
変形例2の肩乗せ型スピーカ1Bは、3軸方向(鉛直軸、前後軸、及び左右軸)の動きに応じて、肩の傾き角度を頭部の角度に補正することが、上述の例と異なる。なお、上述の実施形態と同じ構成については同じ符号を付し、説明を省略する。
変形例2の肩乗せ型スピーカ1Bは、図13に示すように、3軸角速度センサ41を備えている。3軸角速度センサ41は、鉛直方向を軸(鉛直軸)にした水平方向c1における肩51の傾きの角速度を検出する。姿勢データ検出部251は、3軸角速度センサ41で検出した角速度に基づいて、図5の右方向から二点鎖線d1で示される方向に傾いた場合の肩の傾き角度a1(図5参照)を演算する。3軸角速度センサ41は、図15に示すように、前後方向(方向y1)を軸(前後軸)とする回転方向c2における肩51の傾きの角速度を検出する。姿勢データ検出部251は、3軸角速度センサ41で検出した角速度に基づいて、図15の右方向から二点鎖線d2で示される方向に傾いた場合の肩の傾き角度ay1を演算する。3軸角速度センサ41は、図16に示すように、左右方向(方向x1)を軸(左右軸)とする回転方向c3おける肩51の傾きの角速度を検出する。姿勢データ検出部251は、3軸角速度センサ41で検出した角速度に基づいて前方向から二点鎖線d3で示される方向に傾いた肩の傾き角度ax1を演算する。
なお、水平方向c1における肩の傾き角度a1は、上述の実施形態で説明しているので、ここでの詳細な説明は省略する。
フラッシュメモリ22には、鉛直軸(水平方向c1)に傾く肩の傾き角度a1(図5参照)に対応するテーブルta1と、前後軸に傾く肩51の肩の傾き角度ay1(図15参照)に対応するテーブルta2と、左右軸に傾く肩51の肩の傾き角度ax1(図16参照)に対応するテーブルta3とが記憶されている。
テーブルta2及びテーブルta3は、テーブルta1と同様に、大量の測定データから平均化したものである。また、テーブルta2及びテーブルta3は、ニューラルネットワーク等の機械学習済のアルゴリズムを用いて生成されたものでもよい。
姿勢データ検出部251は、演算した演算結果を、姿勢データ補正部252に出力する。
姿勢データ補正部252は、肩の傾き角度a1を受け取ると、肩の傾き角度a1に対応するテーブルta1から、頭部の角度を取得する。また、姿勢データ補正部252は、肩の傾き角度ay1を受け取ると、肩の傾き角度ay1に対応するテーブルta2から、頭部の角度を取得する。さらに、姿勢データ補正部252は、肩の傾き角度ax1を受け取ると、肩の傾き角度ax1に対応するテーブルta3から、頭部の角度を取得する。
頭部伝達関数取得部253は、鉛直軸、前後軸、及び左右軸の頭部の角度に対応する頭部伝達関数を読み出し、音像定位処理部254に出力する。あるいは、頭部伝達関数取得部253は、鉛直軸、前後軸、及び左右軸の頭部の角度に対応する頭部伝達関数を計算し、音像定位処理部254に出力する。
変形例2の肩乗せ型スピーカ1Bは、3軸方向において、肩51の傾きを3軸角速度センサ41から取得することで、より立体的でより正確な音像を定位することができる。
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
なお、肩乗せ型スピーカは、センサ4又は3軸角速度センサ41の代わりに3軸加速度センサを備えていてもよい。肩乗せ型スピーカは、3軸加速度センサで検出した加速度に基づいて、各軸の回転角度を求めることもできる。また、肩乗せ型スピーカは、上述した角速度センサと、3軸加速度センサとの両方を備えていてもよい。この場合、肩乗せ型スピーカは、角速度センサの検出値に基づいて計算した回転角度を3軸加速度センサの検出値で補正することで、より高精度に音像を定位することができる。
肩乗せ型スピーカは、テーブルを使用して、肩の傾き角度を頭部の角度に補正しなくてもよい。姿勢データ補正部252は、肩の傾き角度と頭部の角度との関係を示す関数に基づいて、肩の傾き角度を頭部の角度に補正してもよい。肩乗せ型スピーカは、頭部の角度を関数を用いて計算するので、頭部の角度の検出精度を上げることができる。
変形例1で説明した複数のパターンは、単位時間の移動量(速度)又は移動回数の少なくともいずれかのパラメータに対応付けされたものでなくてもよい。
変形例1の肩乗せ型スピーカ1Aは、例えば、ユーザの操作を受け付けるユーザインタフェースを備え、ユーザから操作を受け付けるように構成されていてもよい。この場合、肩乗せ型スピーカ1Aは、複数のパターンを表示した表示部を備える。表示部は、動きの大きい人用のパターンA及び動きの小さい人用のパターンBを表示する。肩乗せ型スピーカ1Aは、ユーザによって選択されたパターンのテーブルに基づいて、肩の傾き角度を頭部の角度に補正する。これにより、肩乗せ型スピーカ1Aは、ユーザ好みの音像を定位することができる。
また、肩乗せ型スピーカ1Aは、ユーザから入力された情報、例えば、性別及び年代に基づいて、パターンを選択するように構成されていてもよい。例えば、肩乗せ型スピーカ1Aは、20歳未満の人用のパターンA、20歳以上40歳未満の人用のパターンB及び40歳以上の人用のパターンCを用意する。この場合、肩乗せ型スピーカ1Aは、入力された情報が20歳未満の男性であれば、パターンAのテーブルを選択する。また、肩乗せ型スピーカ1Aは、入力された情報がパ20歳以上40歳未満の男性であれば、パターンBのテーブルを選択する。
また、音像定位に関する処理は、オーディオ信号を送信する携帯端末などで行われてもよい。この場合、肩乗せ型スピーカは、センサの検出信号を通信部21を介して携帯端末に送信し、携帯端末で音像定位処理が施されたステレオオーディオ信号を受信する。
1、1A、1B…肩乗せ型スピーカ
41…3軸角速度センサ
51…肩(部位)
53…頭部
251…姿勢データ検出部
252…姿勢データ補正部
254…音像定位処理部
c1…水平方向
ta1、ta2、ta3…テーブル
p1、p2、p3…テーブル(パターンのテーブル)
z1…鉛直方向
41…3軸角速度センサ
51…肩(部位)
53…頭部
251…姿勢データ検出部
252…姿勢データ補正部
254…音像定位処理部
c1…水平方向
ta1、ta2、ta3…テーブル
p1、p2、p3…テーブル(パターンのテーブル)
z1…鉛直方向
Claims (15)
- 肩乗せ型スピーカが乗っている部位の姿勢を検出し、前記部位の姿勢をデータ化した部位姿勢データを取得する姿勢データ検出部と、
取得した前記部位姿勢データを、頭部姿勢データに補正する姿勢データ補正部と、
前記姿勢データ補正部で補正した前記頭部姿勢データに応じた頭部伝達関数を用いて、音信号に音像定位処理を施す音像定位処理部と、を備える、
肩乗せ型スピーカ。 - 前記姿勢データ補正部は、前記部位姿勢データと前記頭部姿勢データとの関係を示すテーブルに基づいて、前記部位姿勢データを前記頭部姿勢データに補正する、
請求項1に記載の肩乗せ型スピーカ。 - 前記テーブルは、複数のパターンに分類化され、
前記姿勢データ補正部は、前記複数のパターンのうちいずれか1つのパターンの選択を受け付け、受け付けたパターンのテーブルに基づいて前記部位姿勢データを前記頭部姿勢データに補正する、
請求項2に記載の肩乗せ型スピーカ。 - 前記姿勢データ検出部で取得した前記部位姿勢データからユーザの単位時間毎の移動量又は前記単位時間毎の移動回数の少なくともいずれかのパラメータを算出するデータ算出部をさらに備え、
前記複数のパターンは、それぞれ前記パラメータに対応付けられ、
前記姿勢データ補正部は、算出された前記パラメータに対応するパターンのテーブルに基づいて前記部位姿勢データを前記頭部姿勢データに補正する、
請求項3に記載の肩乗せ型スピーカ。 - 前記姿勢データ補正部は、前記部位姿勢データと前記頭部姿勢データとの関係を示す関数に基づいて、前記部位姿勢データを前記頭部姿勢データに補正する、
請求項1に記載の肩乗せ型スピーカ。 - 前記姿勢データ補正部は、鉛直方向を軸とする水平方向における前記部位の角度を頭部の角度に補正する、
請求項1乃至5のいずれかに記載の肩乗せ型スピーカ。 - 前記姿勢データ検出部は、3軸角速度センサ又は3軸加速度センサの少なくとも1つから前記部位の姿勢を検出する、
請求項1乃至6のいずれかに記載の肩乗せ型スピーカ。 - 肩乗せ型スピーカが乗っている部位の姿勢を検出し、
前記部位の姿勢をデータ化した部位姿勢データを取得し、
取得した前記部位姿勢データを、頭部姿勢データに補正し、
補正した前記頭部姿勢データに応じた頭部伝達関数を用いて、音信号に音像定位処理を施す、
音像定位方法。 - 前記部位姿勢データと前記頭部姿勢データとの関係を示すテーブルに基づいて、前記部位姿勢データを前記頭部姿勢データに補正する、
請求項8に記載の音像定位方法。 - 前記テーブルは、複数のパターンに分類化され、
前記複数のパターンのうちいずれか1つのパターンの選択を受け付け、
受け付けたパターンのテーブルに基づいて前記部位姿勢データを前記頭部姿勢データに補正する、
請求項9に記載の音像定位方法。 - 取得した前記部位姿勢データからユーザの単位時間毎の移動量又は前記単位時間毎の移動回数の少なくともいずれかのパラメータを算出し、
前記複数のパターンは、それぞれ前記パラメータに対応付けられ、
算出された前記パラメータに対応するパターンのテーブルに基づいて前記部位姿勢データを前記頭部姿勢データに補正する、
請求項10に記載の音像定位方法。 - 前記部位姿勢データと前記頭部姿勢データとの関係を示す関数に基づいて、前記部位姿勢データを前記頭部姿勢データに補正する、
請求項8に記載の音像定位方法。 - 鉛直方向を軸とする水平方向における前記部位の角度を頭部の角度に補正する、
請求項8乃至12のいずれかに記載の音像定位方法。 - 3軸加速度センサ及び3軸角速度センサから前記部位の姿勢を検出する、
請求項8乃至13のいずれかに記載の音像定位方法。 - コンピュータに実行される音像定位プログラムであって、
肩乗せ型スピーカが乗っている部位の姿勢を検出し、
前記部位の姿勢をデータ化した部位姿勢データを取得し、
取得した前記部位姿勢データを、頭部姿勢データに補正し、
補正した前記頭部姿勢データに応じた頭部伝達関数を用いて、音信号に音像定位処理を施す、
音像定位プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021019091A JP2022122038A (ja) | 2021-02-09 | 2021-02-09 | 肩乗せ型スピーカ、音像定位方法及び音像定位プログラム |
US17/592,487 US11785385B2 (en) | 2021-02-09 | 2022-02-03 | Shoulder-mounted speaker, sound image localization method, and non-transitory computer-readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021019091A JP2022122038A (ja) | 2021-02-09 | 2021-02-09 | 肩乗せ型スピーカ、音像定位方法及び音像定位プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022122038A true JP2022122038A (ja) | 2022-08-22 |
Family
ID=82704848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021019091A Pending JP2022122038A (ja) | 2021-02-09 | 2021-02-09 | 肩乗せ型スピーカ、音像定位方法及び音像定位プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11785385B2 (ja) |
JP (1) | JP2022122038A (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2671327B2 (ja) * | 1987-11-04 | 1997-10-29 | ソニー株式会社 | オーディオ再生装置 |
WO2017135063A1 (ja) | 2016-02-04 | 2017-08-10 | ソニー株式会社 | 音声処理装置、および音声処理方法、並びにプログラム |
EP3280154B1 (en) * | 2016-08-04 | 2019-10-02 | Harman Becker Automotive Systems GmbH | System and method for operating a wearable loudspeaker device |
US11259112B1 (en) * | 2020-09-29 | 2022-02-22 | Harman International Industries, Incorporated | Sound modification based on direction of interest |
-
2021
- 2021-02-09 JP JP2021019091A patent/JP2022122038A/ja active Pending
-
2022
- 2022-02-03 US US17/592,487 patent/US11785385B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11785385B2 (en) | 2023-10-10 |
US20220256287A1 (en) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7342451B2 (ja) | 音声処理装置および音声処理方法 | |
US10206042B2 (en) | 3D sound field using bilateral earpieces system and method | |
US10397728B2 (en) | Differential headtracking apparatus | |
EP3412039B1 (en) | Augmented reality headphone environment rendering | |
US10728683B2 (en) | Sweet spot adaptation for virtualized audio | |
JP5702852B2 (ja) | データベース内の知覚的に最適なhrtfフィルタを形態学的パラメータに従って選択するための方法 | |
US20190349705A9 (en) | Graphical user interface to adapt virtualizer sweet spot | |
EP2775738B1 (en) | Orientation free handsfree device | |
JP7165215B2 (ja) | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム | |
JP2022167932A (ja) | 没入型オーディオ再生システム | |
US20110299707A1 (en) | Virtual spatial sound scape | |
JP2010056589A (ja) | 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法 | |
US10219089B2 (en) | Hearing loss compensation apparatus and method using 3D equal loudness contour | |
US20180176709A1 (en) | Out-of-head localization processing apparatus and filter selection method | |
JP2018126185A (ja) | 装置、音データの生成方法、及びプログラム | |
US20130191068A1 (en) | Head tracking system | |
WO2016167007A1 (ja) | 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置 | |
WO2019146254A1 (ja) | 音響処理装置、音響処理方法及びプログラム | |
JP2005057545A (ja) | 音場制御装置及び音響システム | |
CN116601514A (zh) | 用于使用声信标来确定设备的位置和取向的方法和系统 | |
JP2010041425A (ja) | 音響再生装置およびプログラム | |
JP2022122038A (ja) | 肩乗せ型スピーカ、音像定位方法及び音像定位プログラム | |
US10728684B1 (en) | Head related transfer function (HRTF) interpolation tool | |
JP2018152834A (ja) | 仮想聴覚環境において音声信号出力を制御する方法及び装置 | |
Gulli et al. | Spontaneous head movements support accurate horizontal auditory localization in a virtual visual environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231221 |