JP2018186471A - 目標位置設定装置及び音像定位装置 - Google Patents

目標位置設定装置及び音像定位装置 Download PDF

Info

Publication number
JP2018186471A
JP2018186471A JP2017088857A JP2017088857A JP2018186471A JP 2018186471 A JP2018186471 A JP 2018186471A JP 2017088857 A JP2017088857 A JP 2017088857A JP 2017088857 A JP2017088857 A JP 2017088857A JP 2018186471 A JP2018186471 A JP 2018186471A
Authority
JP
Japan
Prior art keywords
target position
sound image
listener
radius
position setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017088857A
Other languages
English (en)
Other versions
JP6926640B2 (ja
Inventor
要 早坂
Kaname Hayasaka
要 早坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Teac Corp
Original Assignee
Teac Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Teac Corp filed Critical Teac Corp
Priority to JP2017088857A priority Critical patent/JP6926640B2/ja
Priority to US15/899,975 priority patent/US10754610B2/en
Priority to CN201810163862.4A priority patent/CN108810794B/zh
Publication of JP2018186471A publication Critical patent/JP2018186471A/ja
Application granted granted Critical
Publication of JP6926640B2 publication Critical patent/JP6926640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】GUI画面を用いて容易に目標位置を設定し得る技術を提供する。【解決手段】装置は、表示部50に、リスナーの表象図60aと、リスナーを中心とする半球状のドームを水平面に投影した表象図60bを表示する。ユーザはマウスのクリック操作で半球状のドームの半径を指定し、中心に向かうドラッグ操作でリスナーに対する音像の目標位置を設定する。音像位置は黒丸Oで示され、リスナーに対する音像の左右方向、前後方向、及び高さ方向の位置を示す。【選択図】図4

Description

本発明は、目標位置設定装置及び音像定位装置に関する。
従来から、目標位置に音像を定位させるように音源信号に対して処理を行う音像定位装置が提案されている。
特許文献1には、音像位置として、水平面の縦位置を設定するX位置設定部、横位置を設定するY位置設定部、垂直面の高さ位置を設定するZ位置設定部、水平面の角度を設定するθ位置設定部、及び垂直面の角度を設定するφ位置設定部を備えることが記載されている。リスナーは、GUI(グラフィカルユーザインターフェース)アプリケーション画面に表示されたこれらの設定部の項目をクリックしてスライダをスライドさせることで、各位置を設定できる。
特許文献2には、頭部伝達関数を用いた音像定位装置が記載されている。
非特許文献1には、頭部伝達関数を再現し、音源信号に畳み込んでリスナーに提示することにより任意の位置に音像を定位させることが記載されている。
特開2004−193877号公報 特開2008−211834号公報
イェンス ブラウエルト・森本政之・後藤敏幸編著「空間音響」鹿島出版会、昭和61年7月10日
しかしながら、このようなX位置設定部、Y位置設定部、Z位置設定部、θ位置設定部、及びφ位置設定部を操作した場合、実際の立体音像の3D位置がイメージし難い問題がある。
他方、人体の頭部を模した模型の、耳の鼓膜の奥の位置に高感度のマイクを装着して収音する、いわゆるダミーヘッドマイクを用いたバイノーラル録音も開発されているが、一般に高価である。
本発明の目的は、GUI画面を用いて容易に目標位置を設定し得る技術を提供することにある。
本発明は、リスナーを示す第1表象図と、前記リスナーを中心とする半径Rの半球状ドームを水平面に投影して得られる第2表象図と、前記第2表象図に関連付けて目標位置を示すマークを表示する表示部と、前記半径Rを指定する第1操作部と、前記マークを前記第2表象図の範囲内で任意に移動させる第2操作部と、前記リスナーを基準とする前記マークの3次元位置データを音像定位用の目標位置データとして出力する制御部とを備える目標位置設定装置である。
本発明の1つの実施形態では、前記表示部は、さらに、前記半径Rの半球状ドームを垂直面に投影して得られる第3表象図を表示するとともに、前記第3表象図に関連付けて前記マークを表示する。
本発明の他の実施形態では、前記第2表象図の大きさは前記リスナーを基準とする音像の距離を示し、前記マークの位置は前記リスナーを基準とする音像の左右方向、前後方向、及び高さ方向の位置を示す。
本発明のさらに他の実施形態では、前記第1操作部及び前記第2操作部はマウスであり、前記マウスのクリック操作により前記半径Rを指定し、前記マウスのドラッグ操作により前記マークを移動させる。
本発明のさらに他の実施形態では、前記第1操作部及び前記第2操作部はタッチパネルであり、前記タッチパネルでのタッチ操作により前記半径Rを指定し、前記タッチパネルでの指の移動により前記マークを移動させる。
本発明のさらに他の実施形態では、前記第1操作部及び前記第2操作部は前記表示部に表示されるスライドバーである。
また、本発明は、上記の目標位置設定装置と、前記目標位置設定装置から出力された前記目標位置データを用いて音源信号を処理して音像定位信号を出力する音源信号処理装置とを備える音像定位装置である。
本発明によれば、GUI画面を用いて音像定位のための目標位置を容易に設定することができる。特に、本発明によれば、ユーザはリスナーに対する音像の3次元位置を容易に把握できる。
実施形態の前提となるGUI画面の説明図である。 実施形態のGUI画面の説明図である。 他の実施形態のGUI画面の説明図(その1)である。 他の実施形態のGUI画面の説明図(その2)である。 他の実施形態のGUI画面の説明図(その3)である。 他の実施形態の処理フローチャートである。 さらに他の実施形態の音像軌跡説明図である。 さらに他の実施形態の音像軌跡説明図である。 全体構成ブロック図である。 頭部伝達関数の説明図である。 さらに他の実施形態のGUI画面の説明図(その4)である。
以下、図面に基づき本発明の実施形態について説明する。
<前提となるGUI画面>
まず、本実施形態において前提となるGUI画面について説明する。
図1は、音像定位の前提となる音像の目標位置を設定する目標位置設定装置の表示部50に表示されるGUI画面を示す。GUI画面は、半球状のドーム52と、2種のスライドバー54,56から構成される。
半球状のドーム52は、その中点Pにリスナーが位置しており、このドーム52の表面の任意の位置に音像を定位する。
スライドバー54は、リスナーに対して左右方向の位置を定位するためのスライドバーであり、スライダ55をマウス等で移動させることで音像を左右方向に移動させる。スライドバー54は、水平面内の方位角θを変化させるためのスライドバーに対応する。また、スライドバー56は、リスナーに対して前後方向の位置を定位するためのスライドバーであり、スライダ57をマウス等で移動させることで音像を前後方向に移動させる。スライドバー56は、垂直面の角度(仰角)φを変化させるためのスライドバーに対応する。
半球状のドーム52の表面における音像の目標位置を例えば黒丸Oで表示し、スライダ55,57の移動に応じて黒丸Oを移動させることで、リスナーに対する音像目標位置を容易にイメージすることができる。
但し、このようなGUIでは、基本的に方位角θ及び仰角φを設定することで定位するものであるから、音像のX位置、Y位置、Z位置の把握が困難となる。具体的には、例えばリスナーの右耳付近から背後を回り左耳付近と音像が順次移動するような移動軌跡を設定するのは、X位置、Y位置、Z位置を把握すれば容易と考えられるところ、半球状のドーム52のみではその把握が困難である。
そこで、本実施形態では、このような半球状のドーム52を前提としつつ、より改良されたGUIを提供する。
<実施形態のGUI>
図2は、本実施形態における目標位置設定装置の表示部50に表示されるGUI画面を示す。GUI画面は、リスナーを中心とする半球状のドーム52を天頂方向から見た平面図60、つまり半球状のドーム52をリスナーの位置する水平面に投影した投影図と、リスナーの左側から見た側面図62、つまり、半球状のドーム52を垂直面に投影した投影図62と、スライドバー64,66,68から構成される。
平面図60は、さらに、リスナーを模式的に示すアイコンあるいは表象図60aと、半球状のドーム52を模式的に示すアイコンあるいは表象図60bと、音像の目標位置を示す黒丸Oを含む。リスナーを示す表象図60aは、図においてリスナーの正面が上方を向いた状態として示される。表象図60aは第1表象図として機能し、表象図60bは第2表象図として機能する。
平面図62は、さらに、リスナーを示す表象図60aと、半球状のドーム52の表面を示す表象図60bと、音像目標位置を示す黒丸Oを含む。リスナーを示す表象図60aは、図においてリスナーの正面が左方を向いた状態として示される。平面図62における表象図60bは、第3表象図として機能する。
スライドバー64は、リスナーに対して左右方向の位置を定位するためのスライドバーであり、スライダ65をマウス等で移動させることで音像をリスナーに対して左右方向に移動させる。スライドバー64は、表象図60aの中点Pを中心とした水平面内の方位角θを変化させるためのスライドバーに対応する。
スライドバー66は、リスナーに対して前後方向の位置を定位するためのスライドバーであり、スライダ67をマウス等で移動させることで音像をリスナーに対して前後方向に移動させる。スライドバー66は、表象図60aの中点Pを中心とした仰角φを変化させるためのスライドバーに対応する。
スライドバー68は、リスナー(表象図60aの中点P)に対して半球状のドーム52の半径Rを調整するためのスライドバーであり、スライダ69をマウス等で移動させることでリスナー(中点P)と音像との距離Rを増減させる。スライドバー68は、リスナーから音像までの距離Rを変化させるためのスライドバーに対応する。スライドバー68は第1操作部として機能し、スライドバー64,66は第2操作部として機能する。
ユーザは、平面図60,62を視認することで、音像との距離、音像の左右方向及び前後方向を設定することができる。すなわち、スライダ65を移動させることで平面図60における黒丸Oが左右方向に移動し、スライダ67を移動させることで平面図60,62における黒丸Oが前後方向に移動する。また、スライダ69を移動させることで平面図62における黒丸Oの中点Pに対する半径位置が変化する。従って、ユーザは、平面図60,62により、リスナーに対する音像との距離、左右方向、前後方向の位置を容易に把握し得る。
なお、ユーザがスライダ69を移動させた場合に平面図62における黒丸Oの位置が変化するのではなく、黒丸Oに変えて表象図60bの半径を拡大/縮小するように変化させてもよい。ユーザは、表象図60bを視認することで、リスナーと音像との距離を視認し得る。平面図60でX位置及びY位置を把握でき、平面図62でZ位置を把握できるといえる。
図3及び図4は、他の実施形態のGUI画面を示す。図2のGUI画面において、平面図60のみを表示し、平面図62を削除するとともにスライドバー64,66,68も削除した画面である。
まず、ユーザは、図3に示すように、リスナーの表象図60aに対して所望の位置をマウスでクリック操作する。このクリック操作により表象図60bの半径が設定されて表示される。また、クリック操作位置に黒丸Oが表示される。
次に、ユーザは、図4に示すように、黒丸Oを表象図60aの中心方向に向かって所望の位置までマウスをドラッグ操作する。このドラッグ操作により左右方向、前後方向及び高さが設定されて表示される。つまり、このドラッグ操作により、黒丸Oが半球状のドーム52の表面を移動し、表象図60aの中心に近づくほど半球状のドーム52の天頂位置に近づいていて高くなる。ユーザは、図4における黒丸Oを視認することで、音像のX位置、Y位置のみならずZ位置も把握し得る。この場合、マウスは第1操作部及び第2操作部として機能する。
図5は、最初のクリック位置が図3の場合よりも表象図60aに近い場合である。表象図60bの半径は図3及び図4における表象図60bよりも小さい。従って、音像はリスナーにより近く定位されることになる。
図6は、本実施形態の処理フローチャートを示す。目標位置設定装置としてのコンピュータが表示部50にGUI画面を表示する場合の例である。
まず、ユーザは、図3のGUI画面においてマウスで所望の一点(位置)をクリック操作して最大距離、すなわち半球状のドーム52の半径Rを設定する(S101)。半径Rの設定に応じて、マウスのクリック位置に黒丸Oが表示される。コンピュータのCPUは、マウスのクリック位置を検知して入力する。なお、マウスのクリック操作は、半径R(最大距離)の設定操作として機能するため、半径Rの設定後、半球状のドーム52の表面における黒丸Oの位置(音像位置)のみを変更する場合には、シフトキーやコントロールキー等の所定キーを押下した状態でドラッグ操作するのが望ましい。
次に、ユーザは、中心部に向かってドラッグ操作して黒丸Oを移動させ、前後、左右、及び高さを設定する(S102)。コンピュータのCPUは、マウスのドラッグ操作を入力し、ドラッグの終了位置を検知する。そして、中心部から最初のクリック位置までの距離Rを半径とする円を設定して表象図60bとして表示し、かつ、ドラッグ終了位置を音像位置として黒丸を表示する(S103)。コンピュータのCPUは、中心部から最初のクリック位置までの距離を半径Rとする半球状のドーム52を設定し、このドーム52の表面におけるドラッグ終了位置を定位し、音像位置として出力する(S104)。音像位置は、方位角θ及び仰角φ、あるいはX位置、Y位置、Z位置でもよく、その他の形式でもよい。
このように、クリック操作及びドラッグ操作の一連かつ一回の操作のみで、音像の目標位置を設定することができ、かつ、ユーザは、図4あるいは図5に示される平面図(半球状のドーム52を水平面に投影した投影図)を視認することで、音像のX位置、Y位置、Z位置を容易に把握することができる。従って、本実施形態の方法によれば、X位置、Y位置、Z位置を意識して音像の軌跡を定めることも容易化され得る。
図7は、音像の軌跡の一例を示す。音像の位置を示す黒丸Oは当初はリスナーの右耳付近に位置し、その位置から同じ高さでリスナーの背後を回って左耳付近に到達し(黒丸O’)、その後再びリスナーの背後を逆向きに回って右耳付近に戻るような軌跡である。このような軌跡をGUI画面で表示することで、ユーザは音像がリスナーに対してどのように移動するかを容易に把握できる。このような動きは、例えばマウスをクリックしてドラッグした後、マウスを再び所望の軌跡に沿ってドラッグすればよく、コンピュータのCPUはこのようなドラッグ操作を検知し、軌跡データファイルとしてメモリに記憶する。なお、軌跡データファイルは、デフォルトとしてプリセットされている軌跡データファイルを用いてもよいし、外部から取り込んだ軌跡データファイルを用いてもよい。CPUは、ユーザからの操作に応じて適宜、当該軌跡データファイルをメモリから読み出し、GUI画面に黒丸Oの動きとして表示する。
図8は、音像の他の軌跡の例を示す。音像の位置を示す黒丸Oは当初はリスナーの右耳付近に位置し、その位置から同じ高さでリスナーの周囲を反時計回りに一周して再び元の位置に戻るような軌跡である。このような動きは、例えば予めメニューとして音像の動きを規定するファイルを用意しておき、ユーザが所望のファイルを選択することによっても設定し得る。メニューは、例えば「同じ高さで周回」、「右耳から頭頂部の上を通って左耳」、「正面から背後へ」等である。
図9は、目標位置設定装置を含む音像定位装置の全体構成ブロック図を示す。音像定位装置は、目標位置設定装置としてのコンピュータ10と、音源信号処理装置30から構成される。
コンピュータ10は、CPU12,ROM14,RAM16,ディスプレイ18,HDD20,入出力インターフェース(I/F)22,キーボード24,マウス26を備える。
CPU12は、ROM14あるいはHDD20に記憶された処理プログラムに従い、RAM16をワーキングメモリとして用いて表示部50として機能するディスプレイ18にGUI画面を表示する。CPU12は、リスナーの表象図60aをGUI画面の略中央に表示する。ユーザがマウス26をクリック操作すると、その操作信号が入出力I/F22を介してCPU12に供給される。CPU12は、クリック位置を検知して半球状のドーム52の半径Rを設定し、RAM16等に記憶する。また、ユーザがマウス26をドラッグ操作すると、その操作信号が入出力I/F22を介してCPU12に供給される。CPU12は、ドラッグ終了位置を検知して音像のX位置、Y位置、Z位置を設定し、RAM16等に記憶する。CPU12は、RAM16等に記憶した半径Rを読み出して半球状のドーム52の表象図60bをディスプレイ18に表示するとともに、ドラッグ終了位置に音像の位置を示す黒丸Oを表示する。また、RAM16に記憶されたX位置、Y位置、Z位置を音像の目標位置データとして音源信号処理装置30に出力する。
音源信号処理装置30は、例えば頭部伝達関数HRTFを用いて音源信号を処理し、音像定位信号をスピーカやヘッドホン等に出力する。頭部伝達関数HRTFを用いた音源信号の処理は公知であり、特開2008−211834号公報等に記載されている。図10は、この公報に記載された頭部伝達関数の一例を示す。音像の目標位置に対応する標準的な頭部伝達関数HRTFの振幅周波数特性|HI,r(f)|に含まれるピークP1,P2,・・・、ディップD1,D2,・・・高域減衰Ch、低域減衰Cl等の構造的特徴を再現することで、その目標位置に音像を制御することができる。
具体的には、音源信号処理装置30は、コンピュータ10から目標位置データが入力されると、入力された目標位置データに対応する右耳用、左耳用それぞれの、構造的特徴に対応するパラメータを設定し、右耳用のIIRフィルタ及び左耳用のIIRフィルタに当該パラメータを設定して音源信号をこれらのIIRフィルタで処理し、Rch及びLchの音像定位信号を出力する。
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、種々の変形が可能である。以下に、変形例について説明する。
<変形例1>
実施形態では、マウスを用いて音像の目標位置を設定しているが、表示部50をタッチパネルで構成し、タッチ操作によって目標位置を設定してもよい。具体的には、ユーザは図3において所望の位置をタッチし、その後、中心に向かって指を移動させればよい。この場合、タッチパネルが第1操作部及び第2操作部として機能する。なお、タッチパネルのタッチ操作は、半径R(最大距離)の設定操作として機能するため、半径Rの設定後、タッチパネルから指を離して再度タッチをした場合、半径Rの設定が変更されることになる。よって、設定した半径Rを変更せずに黒丸Oの位置(音像位置)のみを変更する操作を可能にするために、例えば、タッチパネルのダブルタッチを検出した場合には、半径Rを設定する操作であると認識して、半径Rを設定し、シングルタッチを検出をした場合には、黒丸Oのドラッグ操作指示であると認識して、半径Rを変更することなく黒丸Oのドラッグ操作を可能にしてもよい。
<変形例2>
実施形態では、図9に示すように、音像定位装置はコンピュータ10と音源信号処理装置30から構成されているが、これらは互いに同一の筐体内に組み込まれている場合の他、互いに別筐体として有線あるいは無線でデータ送受可能に接続されていてもよい。例えば、コンピュータ10をタブレットあるいはスマートフォンで構成し、ユーザがタブレットやスマートフォンをタッチ操作して音像の目標位置を設定し、無線で目標位置データを音源信号処理装置30に出力する等である。
<変形例3>
実施形態では、図7、図8に示すような音像の軌跡を示したが、これら以外にも例えばリスナーに対して音像の目標位置をランダムに移動させることも可能である。
<変形例4>
実施形態では、GUI画面において音像の目標位置を黒丸Oで示しているが、形状及び色彩は任意に設定し得る。要するに、ユーザが視認可能なマークを表示すればよく、スライドバーやマウス等の操作部で当該マークを移動可能、あるいはタッチ操作で当該マークを移動可能に構成すればよい。
<変形例5>
実施形態では、リスナーを中心とする半球状のドーム52を水平面に投影した表象図60bとしてリスナーを中心とする円を示しているが、この円の領域内にグラデーションを施してその高さを視覚的に表現してもよく、3次元の高さを2次元表現する任意の表現方法を用い得る。
<変形例6>
実施形態では、リスナーを中心とする半球状のドーム52を水平面に投影した表象図60bとしてリスナーを中心とする円を示しているが、図11に示すようにこの円は楕円にしてもよい。人間の聴覚は、音の左右の移動に対しては敏感に反応するが、音の前後の移動については比較的反応が鈍いといった傾向が見られる。よって、表象図60bとして、左右方向の半径が長く、前後方向の半径が短い楕円とすることで、聴覚バランスを取ることが考えられる。この場合、「半球状」には「半回転楕円体状」も含まれるものとする。すなわち、半径Rは厳密に一定である必要はない。
50 表示部、52 半球状のドーム、54,56,64,66,68 スライドバー、55,57,65,67,69 スライダ、60a リスナーの表象図、60b 半球状のドームの表象図。

Claims (7)

  1. リスナーを示す第1表象図と、前記リスナーを中心とする半径Rの半球状ドームを水平面に投影して得られる第2表象図と、前記第2表象図に関連付けて目標位置を示すマークを表示する表示部と、
    前記半径Rを指定する第1操作部と、
    前記マークを前記第2表象図の範囲内で任意に移動させる第2操作部と、
    前記リスナーを基準とする前記マークの3次元位置データを音像定位用の目標位置データとして出力する制御部と、
    を備える目標位置設定装置。
  2. 前記表示部は、さらに、前記半径Rの半球状ドームを垂直面に投影して得られる第3表象図を表示するとともに、前記第3表象図に関連付けて前記マークを表示する
    請求項1に記載の目標位置設定装置。
  3. 前記第2表象図の大きさは前記リスナーを基準とする音像の距離を示し、前記マークの位置は前記リスナーを基準とする音像の左右方向、前後方向、及び高さ方向の位置を示す
    請求項1,2のいずれかに記載の目標位置設定装置。
  4. 前記第1操作部及び前記第2操作部はマウスであり、前記マウスのクリック操作により前記半径Rを指定し、前記マウスのドラッグ操作により前記マークを移動させる
    請求項1〜3のいずれかに記載の目標位置設定装置。
  5. 前記第1操作部及び前記第2操作部はタッチパネルであり、前記タッチパネルでのタッチ操作により前記半径Rを指定し、前記タッチパネルでの指の移動により前記マークを移動させる
    請求項1〜3のいずれかに記載の目標位置設定装置。
  6. 前記第1操作部及び前記第2操作部は前記表示部に表示されるスライドバーである
    請求項1〜3のいずれかに記載の目標位置設定装置。
  7. 請求項1〜6のいずれかに記載の目標位置設定装置と、
    前記目標位置設定装置から出力された前記目標位置データを用いて音源信号を処理して音像定位信号を出力する音源信号処理装置と、
    を備える音像定位装置。
JP2017088857A 2017-04-27 2017-04-27 目標位置設定装置及び音像定位装置 Active JP6926640B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017088857A JP6926640B2 (ja) 2017-04-27 2017-04-27 目標位置設定装置及び音像定位装置
US15/899,975 US10754610B2 (en) 2017-04-27 2018-02-20 Target position setting apparatus and sound image localization apparatus
CN201810163862.4A CN108810794B (zh) 2017-04-27 2018-02-27 目标位置设定装置及声像定位装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017088857A JP6926640B2 (ja) 2017-04-27 2017-04-27 目標位置設定装置及び音像定位装置

Publications (2)

Publication Number Publication Date
JP2018186471A true JP2018186471A (ja) 2018-11-22
JP6926640B2 JP6926640B2 (ja) 2021-08-25

Family

ID=63915743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017088857A Active JP6926640B2 (ja) 2017-04-27 2017-04-27 目標位置設定装置及び音像定位装置

Country Status (3)

Country Link
US (1) US10754610B2 (ja)
JP (1) JP6926640B2 (ja)
CN (1) CN108810794B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020195568A1 (ja) * 2019-03-25 2020-10-01 ヤマハ株式会社 オーディオ信号処理装置、オーディオ信号処理システムおよびオーディオ信号処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112771893A (zh) * 2018-11-20 2021-05-07 深圳市欢太科技有限公司 3d音效实现方法、装置、存储介质及电子设备
EP3742271B1 (en) * 2019-05-23 2024-02-28 Nokia Technologies Oy A control element
KR102227489B1 (ko) 2019-07-10 2021-03-15 김영언 음원 시각화 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008522239A (ja) * 2004-12-01 2008-06-26 クリエイティブ テクノロジー リミテッド ユーザがオーディオファイルを修正することを可能にするための方法及び装置
JP2014520491A (ja) * 2011-07-01 2014-08-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 向上した3dオーディオ作成および表現のためのシステムおよびツール
JP2015080188A (ja) * 2013-09-12 2015-04-23 ヤマハ株式会社 ユーザインタフェース装置及び音響制御装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5440639A (en) * 1992-10-14 1995-08-08 Yamaha Corporation Sound localization control apparatus
US5521981A (en) * 1994-01-06 1996-05-28 Gehring; Louis S. Sound positioner
GB2374506B (en) * 2001-01-29 2004-11-17 Hewlett Packard Co Audio user interface with cylindrical audio field organisation
JP2004193877A (ja) 2002-12-10 2004-07-08 Sony Corp 音像定位信号処理装置および音像定位信号処理方法
US8005245B2 (en) 2004-09-16 2011-08-23 Panasonic Corporation Sound image localization apparatus
CN101116374B (zh) 2004-12-24 2010-08-18 松下电器产业株式会社 声像定位装置
JP2006203850A (ja) 2004-12-24 2006-08-03 Matsushita Electric Ind Co Ltd 音像定位装置
JP5114981B2 (ja) * 2007-03-15 2013-01-09 沖電気工業株式会社 音像定位処理装置、方法及びプログラム
US8190438B1 (en) * 2009-10-14 2012-05-29 Google Inc. Targeted audio in multi-dimensional space
US8908874B2 (en) * 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction
US8767970B2 (en) * 2011-02-16 2014-07-01 Apple Inc. Audio panning with multi-channel surround sound decoding
US10321252B2 (en) * 2012-02-13 2019-06-11 Axd Technologies, Llc Transaural synthesis method for sound spatialization
DE102012224454A1 (de) * 2012-12-27 2014-07-03 Sennheiser Electronic Gmbh & Co. Kg Erzeugung von 3D-Audiosignalen
JP5958717B2 (ja) 2013-07-19 2016-08-02 パナソニックIpマネジメント株式会社 指向性制御システム、指向性制御方法、収音システム及び収音制御方法
US9998847B2 (en) * 2016-11-17 2018-06-12 Glen A. Norris Localizing binaural sound to objects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008522239A (ja) * 2004-12-01 2008-06-26 クリエイティブ テクノロジー リミテッド ユーザがオーディオファイルを修正することを可能にするための方法及び装置
JP2014520491A (ja) * 2011-07-01 2014-08-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 向上した3dオーディオ作成および表現のためのシステムおよびツール
JP2015080188A (ja) * 2013-09-12 2015-04-23 ヤマハ株式会社 ユーザインタフェース装置及び音響制御装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020195568A1 (ja) * 2019-03-25 2020-10-01 ヤマハ株式会社 オーディオ信号処理装置、オーディオ信号処理システムおよびオーディオ信号処理方法
JPWO2020195568A1 (ja) * 2019-03-25 2021-10-21 ヤマハ株式会社 オーディオ信号処理装置、オーディオ信号処理システムおよびオーディオ信号処理方法
JP7088408B2 (ja) 2019-03-25 2022-06-21 ヤマハ株式会社 オーディオ信号処理装置、オーディオ信号処理システムおよびオーディオ信号処理方法

Also Published As

Publication number Publication date
US20180314488A1 (en) 2018-11-01
US10754610B2 (en) 2020-08-25
JP6926640B2 (ja) 2021-08-25
CN108810794B (zh) 2020-08-11
CN108810794A (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
EP2891955B1 (en) In-vehicle gesture interactive spatial audio system
EP2920983B1 (en) Methods and apparatuses for representing a sound field in a physical space
JP6926640B2 (ja) 目標位置設定装置及び音像定位装置
US20190369951A1 (en) Augmented reality microphone pick-up pattern visualization
EP2831873B1 (en) A method, an apparatus and a computer program for modification of a composite audio signal
CN108540899B (zh) 包含用户交互式听觉显示器的听觉设备
US11812252B2 (en) User interface feedback for controlling audio rendering for extended reality experiences
US20140115468A1 (en) Graphical user interface for mixing audio using spatial and temporal organization
US20180115853A1 (en) Changing Spatial Audio Fields
EP3503592B1 (en) Methods, apparatuses and computer programs relating to spatial audio
JP7439131B2 (ja) 空間オーディオをキャプチャする装置および関連する方法
CN111316671A (zh) 信号处理设备和方法以及程序
CN106658344A (zh) 一种全息音频渲染控制方法
JP2013211712A (ja) 出力制御装置、出力制御方法、及びプログラム
US9674634B2 (en) User interface device, sound control apparatus, sound system, sound control method, and program
JP6456171B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP3170176B1 (en) Separating, modifying and visualizing audio objects
JP6907613B2 (ja) 情報処理装置および情報処理方法
JP2016109971A (ja) 信号処理装置および信号処理装置の制御方法
US20230014810A1 (en) Placing a Sound Within Content
CN115136109A (zh) 手势检测系统
TW201412147A (zh) 多媒體處理系統及音訊信號調整方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6926640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150