CN108810794A - 目标位置设定装置及声像定位装置 - Google Patents

目标位置设定装置及声像定位装置 Download PDF

Info

Publication number
CN108810794A
CN108810794A CN201810163862.4A CN201810163862A CN108810794A CN 108810794 A CN108810794 A CN 108810794A CN 201810163862 A CN201810163862 A CN 201810163862A CN 108810794 A CN108810794 A CN 108810794A
Authority
CN
China
Prior art keywords
listener
target position
schematic diagram
acoustic image
setting device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810163862.4A
Other languages
English (en)
Other versions
CN108810794B (zh
Inventor
早坂要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Teac Corp
Original Assignee
Teac Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Teac Corp filed Critical Teac Corp
Publication of CN108810794A publication Critical patent/CN108810794A/zh
Application granted granted Critical
Publication of CN108810794B publication Critical patent/CN108810794B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种可容易地使用GUI画面来设定目标位置的目标位置设定装置及声像定位装置。装置在显示部(50)显示收听者的示意图(60a)、将以收听者为中心的半球状的圆顶投影于水平面而得到的示意图(60b)。用户通过鼠标的点击操作来指定半球状的圆顶的半径,通过向中心的拖拽操作来设定声像相对于收听者的目标位置。声像位置由黑圆(O)表示,表示声像相对于收听者的左右方向、前后方向及高度方向上的位置。

Description

目标位置设定装置及声像定位装置
技术领域
本发明涉及目标位置设定装置及声像定位装置。
背景技术
以往,提出了以使声像定位于目标位置的方式对声源信号进行处理的声像定位装置。
专利文献1记载了具备作为声像位置而设定水平面的纵向位置的X位置设定部、设定横向位置的Y位置设定部、设定垂直面的高度位置的Z位置设定部、设定水平面的角度的θ位置设定部及设定垂直面的角度的位置设定部。收听者点击在GUI(图形用户界面)应用画面上显示的这些设定部的项目而使滑块滑动,由此能够设定各位置。
专利文献2记载了使用头部相关传输函数的声像定位装置。
非专利文献1记载了对头部相关传输函数进行再现,并向声源信号卷积而向收听者进行提示,由此将声像定位于任意的位置。
在先技术文献
专利文献1:日本特开2004-193877号公报
专利文献2:日本特开2008-211834号公报
非专利文献1:Jens Blauert、森本政之、后藤敏幸编著“空间音响”鹿岛出版会,昭和61年7月10日
发明内容
发明要解决的课题
然而,存在如下的问题:在对这样的X位置设定部、Y位置设定部、Z位置设定部、θ位置设定部及位置设定部进行了操作的情况下,难以想象出实际的立体声像的3D位置。
另一方面,也开发出在模仿了人体的头部的模型的耳朵鼓膜的里面的位置安装高灵敏度的麦克风而进行收音的使用了所谓仿真人头麦克风的双声道录音,但是通常造价高。
本发明的目的在于提供一种可容易地使用GUI画面设定目标位置的技术。
用于解决课题的方案
本发明涉及一种目标位置设定装置,具备:显示部,显示表示收听者的第一示意图、将以上述收听者为中心的半径为R的半球状圆顶投影于水平面而得到的第二示意图及与上述第二示意图建立关联地显示目标位置的标记;第一操作部,指定上述半径R;第二操作部,使上述标记在上述第二示意图的范围内任意地移动;及控制部,将上述标记的以上述收听者为基准的三维位置数据作为声像定位用的目标位置数据输出。
在本发明的一实施方式中,上述显示部还显示将上述半径为R的半球状圆顶投影于垂直面而得到的第三示意图,并且与上述第三示意图建立关联地显示上述标记。
在本发明的另一实施方式中,上述第二示意图的大小表示以上述收听者为基准的声像的距离,上述标记的位置表示以上述收听者为基准的声像的左右方向、前后方向及高度方向上的位置。
在本发明的又一实施方式中,上述第一操作部及上述第二操作部是鼠标,通过上述鼠标的点击操作来指定上述半径R,通过上述鼠标的拖拽操作来使上述标记移动。
在本发明的又一实施方式中,上述第一操作部及上述第二操作部是触摸面板,通过上述触摸面板上的触摸操作来指定上述半径R,通过手指在上述触摸面板上的移动来使上述标记移动。
在本发明的又一实施方式中,上述第一操作部及上述第二操作部是显示于上述显示部的滑动条。
另外,本发明涉及一种声像定位装置,具备:上述目标位置设定装置;及声源信号处理装置,使用从上述目标位置设定装置输出的上述目标位置数据,对声源信号进行处理而输出声像定位信号。
发明效果
根据本发明,能够容易地使用GUI画面来设定声像定位用的目标位置。尤其是根据本发明,用户能够容易掌握声像相对于收听者的三维位置。
附图说明
图1是作为实施方式的前提的GUI画面的说明图。
图2是实施方式的GUI画面的说明图。
图3是另一实施方式的GUI画面的说明图(其1)。
图4是另一实施方式的GUI画面的说明图(其2)。
图5是另一实施方式的GUI画面的说明图(其3)。
图6是另一实施方式的处理流程图。
图7是又一实施方式的声像轨迹说明图。
图8是又一实施方式的声像轨迹说明图。
图9是整体结构框图。
图10是头部相关传输函数的说明图。
图11是又一实施方式的GUI画面的说明图(其4)。
具体实施方式
以下,基于附图,说明本发明的实施方式。
<作为前提的GUI画面>
首先,说明在本实施方式中作为前提的GUI画面。
图1示出作为声像定位的前提的、在对声像的目标位置进行设定的目标位置设定装置的显示部50上显示的GUI画面。GUI画面由半球状的圆顶52和两种滑动条54、56构成。
收听者位于半球状的圆顶52的中点P,将声像定位在该圆顶52的表面上的任意位置。
滑动条54是用于相对于收听者而对左右方向的位置进行定位的滑动条,通过利用鼠标等使滑块55移动而使声像沿着左右方向移动。滑动条54对应于用于使水平面内的方位角θ变化的滑动条。另外,滑动条56是用于相对于收听者而对前后方向的位置进行定位的滑动条,通过利用鼠标等使滑块57移动而使声像沿着前后方向移动。滑动条56对应于用于使垂直面的角度(仰角)变化的滑动条。半球状的圆顶52的表面上的声像的目标位置由例如黑圆O来显示,对应于滑块55、57的移动而使黑圆O移动,由此能够容易地想象出相对于收听者的声像目标位置。
但是,在这样的GUI中,基本上通过设定方位角θ及仰角来进行定位,因此难以掌握声像的X位置、Y位置、Z位置。具体而言,可想到在例如设定声像逐渐从收听者的右耳附近绕过背后而移动至左耳附近那样的移动轨迹时,若掌握X位置、Y位置、Z位置则容易,但仅通过半球状的圆顶52则难以掌握。
因此,在本实施方式中,提供以这样的半球状的圆顶52为前提而进一步改良了的GUI。
<实施方式的GUI>
图2示出在本实施方式的目标位置设定装置的显示部50上显示的GUI画面。GUI画面包括:从顶点方向观察的以收听者为中心的半球状的圆顶52的俯视图60,即,将半球状的圆顶52投影于收听者所在的水平面而得到的投影图;从收听者的左侧观察的侧视图62,即,将半球状的圆顶52投影于垂直面而得到的投影图62;及滑动条64、66、68。
俯视图60还包括:示意性地表示收听者的图标或示意图60a;示意性地表示半球状的圆顶52的图标或示意图60b;及表示声像的目标位置的黑圆O。表示收听者的示意图60a表示为在图中收听者的正面朝向上方的状态。示意图60a作为第一示意图发挥作用,示意图60b作为第二示意图发挥作用。
俯视图62还包括:表示收听者的示意图60a;表示半球状的圆顶52的表面的示意图60b;及表示声像目标位置的黑圆O。表示收听者的示意图60a表示为在图中收听者的正面朝向左方的状态。俯视图62中的示意图60b作为第三示意图发挥作用。
滑动条64是用于相对于收听者而对左右方向的位置进行定位的滑动条,通过利用鼠标等使滑块65移动而使声像相对于收听者沿着左右方向移动。滑动条64对应于用于使以示意图60a的中点P为中心的水平面内的方位角θ变化的滑动条。
滑动条66是用于相对于收听者而对前后方向的位置进行定位的滑动条,通过利用鼠标等使滑块67移动而使声像相对于收听者沿着前后方向移动。滑动条66对应于用于使以示意图60a的中点P为中心的仰角变化的滑动条。
滑动条68是用于相对于收听者(示意图60a的中点P)而调整半球状的圆顶52的半径R的滑动条,通过利用鼠标等使滑块69移动而使收听者(中点P)与声像的距离R增减。滑动条68对应于用于使从收听者至声像的距离R变化的滑动条。滑动条68作为第一操作部发挥作用,滑动条64、66作为第二操作部发挥作用。
用户通过目视确认俯视图60、62,能够设定与声像的距离、声像的左右方向及前后方向。即,通过使滑块65移动而俯视图60中的黑圆O沿着左右方向移动,通过使滑块67移动而俯视图60、62中的黑圆O沿着前后方向移动。另外,通过使滑块69移动而俯视图62中的黑圆O相对于中点P的半径位置发生变化。因此,用户可通过俯视图60、62,容易地掌握声像相对于收听者的距离、左右方向、前后方向的位置。
另外,也可以在用户使滑块69移动的情况下,俯视图62中的黑圆O的位置不变化,取代黑圆O而使示意图60b的半径放大/缩小那样变化。用户可通过目视确认示意图60b来目视确认收听者与声像之间的距离。可以说在俯视图60中能够掌握X位置及Y位置,在俯视图62中能够掌握Z位置。
图3及图4示出另一实施方式的GUI画面。是在图2的GUI画面的基础上,仅显示俯视图60,删除俯视图62并且也删除了滑动条64、66、68的画面。
首先,如图3所示,用户相对于收听者的示意图60a利用鼠标点击操作所希望的位置。通过该点击操作而设定并显示示意图60b的半径。另外,在点击操作位置显示黑圆O。
接下来,如图4所示,用户拖拽操作鼠标而将黑圆O向示意图60a的中心方向至所希望的位置。通过该拖拽操作来设定并显示左右方向、前后方向及高度。即,通过该拖拽操作,而黑圆O在半球状的圆顶52的表面移动,越接近示意图60a的中心,则越接近半球状的圆顶52的顶点位置而变高。用户通过目视确认图4中的黑圆O,不仅能掌握声像的X位置、Y位置,而且也能掌握Z位置。在该情况下,鼠标作为第一操作部及第二操作部发挥作用。
图5是与图3的情况相比最初的点击位置接近示意图60a的情况。示意图60b的半径小于图3及图4中的示意图60b。因此,声像更接近收听者地被定位。
图6示出本实施方式的处理流程图。是作为目标位置设定装置的计算机在显示部50显示GUI画面的情况下的例子。
首先,用户在图3的GUI画面上利用鼠标对所希望的一点(位置)进行点击操作来设定最大距离,即设定半球状的圆顶52的半径R(S101)。对应于半径R的设定而在鼠标的点击位置显示黑圆O。计算机的CPU检测并输入鼠标的点击位置。另外,鼠标的点击操作作为半径R(最大距离)的设定操作发挥作用,因此在设定了半径R后,在仅变更半球状的圆顶52的表面上的黑圆O的位置(声像位置)的情况下,优选的是以按下了shift键或ctrl键等预定键的状态进行拖拽操作。
接下来,用户向中心部进行拖拽操作而使黑圆O移动,设定前后、左右及高度(S102)。计算机的CPU输入鼠标的拖拽操作,并检测拖拽的结束位置。并且,设定以从中心部至最初的点击位置为止的距离R为半径的圆而作为示意图60b并进行显示,并且将拖拽结束位置作为声像位置而显示黑圆(S103)。计算机的CPU设定以从中心部至最初的点击位置为止的距离为半径R的半球状的圆顶52,对该圆顶52的表面上的拖拽结束位置进行定位,并作为声像位置输出(S104)。声像位置可以是方位角θ及仰角或X位置、Y位置、Z位置,也可以是其他形式。
这样,仅通过点击操作及拖拽操作这样一系列且一次的操作,就能够设定声像的目标位置,并且用户能够通过目视确认图4或图5所示的俯视图(将半球状的圆顶52投影于水平面的投影图),而容易地掌握声像的X位置、Y位置、Z位置。因此,根据本实施方式的方法,也容易意识到X位置、Y位置、Z位置而确定声像的轨迹。
图7示出声像的轨迹的一例。是表示声像的位置的黑圆O最初位于收听者的右耳附近,从该位置开始以相同高度绕过收听者的背后而到达左耳附近(黑圆O’),然后再次反向地绕过收听者的背后而返回到右耳附近那样的轨迹。通过利用GUI画面来显示这样的轨迹,用户能够容易地掌握声像相对于收听者如何移动。这样的移动例如只要将鼠标点击并拖拽之后,将鼠标再次沿着所希望的轨迹进行拖拽即可,计算机的CPU检测这样的拖拽操作,作为轨迹数据文件存储于存储器。另外,轨迹数据文件可以使用作为默认而预置的轨迹数据文件,也可以使用从外部取入的轨迹数据文件。CPU根据来自用户的操作而适当地从存储器读出该轨迹数据文件,在GUI画面上作为黑圆O的移动进行显示。
图8示出声像的另一轨迹的例子。是表示声像的位置的黑圆O最初位于收听者的右耳附近,从该位置开始以相同高度逆时针地绕收听者的周围一圈而再次返回原来的位置那样的轨迹。这样的移动例如通过预先准备对声像的动向进行规定的文件作为菜单,用户进行选择所希望的文件来设定。菜单是例如“以相同高度绕圈”、“从右耳通过头顶部的上方而到达左耳”、“从正面向背后”等。
图9示出包括目标位置设定装置的声像定位装置的整体结构框图。声像定位装置由作为目标位置设定装置的计算机10、声源信号处理装置30构成。
计算机10具备:CPU12、ROM14、RAM16、显示器18、HDD20、输入输出接口(I/F)22、键盘24及鼠标26。
CPU12按照存储于ROM14或HDD20的处理程序,使用RAM16作为工作存储器而在作为显示部50发挥作用的显示器18上显示GUI画面。CPU12将收听者的示意图60a显示于GUI画面的大致中央。当用户对鼠标26进行点击操作时,其操作信号被经由输入输出I/F22而供给至CPU12。CPU12检测点击位置来设定半球状的圆顶52的半径R,并存储于RAM16等。而且,当用户对鼠标26进行拖拽操作时,其操作信号被经由输入输出I/F22而供给至CPU12。CPU12检测拖拽结束位置来设定声像的X位置、Y位置、Z位置,并存储于RAM16等。CPU12读出存储于RAM16等的半径R而将半球状的圆顶52的示意图60b显示于显示器18,并将表示声像的位置的黑圆O显示于拖拽结束位置。而且,将存储于RAM16的X位置、Y位置、Z位置作为声像的目标位置数据向声源信号处理装置30输出。
声源信号处理装置30使用例如头部相关传输函数HRTF对声源信号进行处理,将声像定位信号向扬声器或耳机等输出。使用了头部相关传输函数HRTF的声源信号的处理公知,记载于日本特开2008-211834号公报等。图10示出该公报记载的头部相关传输函数的一例。通过将与声像的目标位置对应的标准的头部相关传输函数HRTF的振幅频率特性|HI、r(f)|包含的峰值P1、P2、…、谷值D1、D2、…高域减衰Ch、低域减衰Cl等构造性的特征进行再现,能够将声像控制成该目标位置。
具体而言,声源信号处理装置30当从计算机10被输入目标位置数据时,设定与输入的目标位置数据对应的右耳用、左耳用各自的、与构造性的特征对应的参数,向右耳用的IIR滤波器及左耳用的IIR滤波器设定该参数而利用这些IIR滤波器对声源信号进行处理,输出Rch及Lch的声像定位信号。
以上,说明了本发明的实施方式,但是本发明不限定于此,能够进行各种变形。以下,对变形例进行说明。
<变形例1>
在实施方式中,使用鼠标来设定声像的目标位置,但是也可以通过触摸面板构成显示部50并通过触摸操作来设定目标位置。具体而言,用户只要在图3中触摸所希望的位置,然后,向中心移动手指即可。在该情况下,触摸面板作为第一操作部及第二操作部发挥作用。另外,触摸面板的触摸操作作为半径R(最大距离)的设定操作发挥作用,因此在设定了半径R后,使手指从触摸面板分离并再次触摸的情况下,半径R的设定被变更。因此,为了能够进行不变更设定的半径R而仅变更黑圆O的位置(声像位置)的操作,例如,可以在检测到触摸面板的双触的情况下,识别为是设定半径R的操作而设定半径R,在检测到单触的情况下,识别为是黑圆O的拖拽操作指示,不变更半径R而能够进行黑圆O的拖拽操作。
<变形例2>
在实施方式中,如图9所示,声像定位装置由计算机10和声源信号处理装置30构成,但是除了它们相互装入同一箱体内的情况之外,也可以相互为不同箱体而通过有线或无线以能够进行数据收发的方式连接。例如,计算机10由平板或智能手机构成,用户对平板或智能手机进行触摸操作来设定声像的目标位置,通过无线将目标位置数据向声源信号处理装置30输出等。
<变形例3>
在实施方式中,示出了图7、图8所示那样的声像的轨迹,但是除此以外,例如也可以相对于收听者而使声像的目标位置随机移动。
<变形例4>
在实施方式中,在GUI画面上利用黑圆O表示声像的目标位置,但是形状及色彩可任意设定。总之,只要显示用户能够目视确认的标记即可,只要能够通过滑动条或鼠标等操作部使该标记移动,或者能够通过触摸操作使该标记移动即可。
<变形例5>
在实施方式中,作为将以收听者为中心的半球状的圆顶52投影于水平面的示意图60b,示出了以收听者为中心的圆,但是也可以对该圆的区域内实施分级而视觉性地表现其高度,可使用对于三维的高度进行二维表现的任意的表现方法。
<变形例6>
在实施方式中,作为将以收听者为中心的半球状的圆顶52投影于水平面的示意图60b,示出了以收听者为中心的圆,但也可以如图11所示那样使该圆为椭圆。人类的听觉存在对于声音的左右的移动敏感地反应,但是对于声音的前后的移动反应比较迟钝的倾向。由此,作为示意图60b,通过设为左右方向的半径长且前后方向的半径短的椭圆,可认为取得了听觉平衡。在该情况下,“半球状”也包括“半旋转椭圆体状”。即,半径R不需要严格地恒定。
附图标记说明
50显示部,52半球状的圆顶,54、56、64、66、68滑动条,55、57、65、67、69滑块,60a收听者的示意图,60b半球状的圆顶的示意图。

Claims (7)

1.一种目标位置设定装置,具备:
显示部,显示表示收听者的第一示意图、将以所述收听者为中心的半径为R的半球状圆顶投影于水平面而得到的第二示意图及与所述第二示意图建立关联地显示目标位置的标记;
第一操作部,指定所述半径R;
第二操作部,使所述标记在所述第二示意图的范围内任意地移动;及
控制部,将所述标记的以所述收听者为基准的三维位置数据作为声像定位用的目标位置数据输出。
2.根据权利要求1所述的目标位置设定装置,其中,
所述显示部还显示将所述半径为R的半球状圆顶投影于垂直面而得到的第三示意图,并且与所述第三示意图建立关联地显示所述标记。
3.根据权利要求1或2所述的目标位置设定装置,其中,
所述第二示意图的大小表示以所述收听者为基准的声像的距离,所述标记的位置表示以所述收听者为基准的声像的左右方向、前后方向及高度方向上的位置。
4.根据权利要求1~3中任一项所述的目标位置设定装置,其中,
所述第一操作部及所述第二操作部是鼠标,通过所述鼠标的点击操作来指定所述半径R,通过所述鼠标的拖拽操作来使所述标记移动。
5.根据权利要求1~3中任一项所述的目标位置设定装置,其中,
所述第一操作部及所述第二操作部是触摸面板,通过所述触摸面板上的触摸操作来指定所述半径R,通过手指在所述触摸面板上的移动来使所述标记移动。
6.根据权利要求1~3中任一项所述的目标位置设定装置,其中,
所述第一操作部及所述第二操作部是显示于所述显示部的滑动条。
7.一种声像定位装置,具备:
权利要求1~6中任一项所述的目标位置设定装置;及
声源信号处理装置,使用从所述目标位置设定装置输出的所述目标位置数据,对声源信号进行处理而输出声像定位信号。
CN201810163862.4A 2017-04-27 2018-02-27 目标位置设定装置及声像定位装置 Active CN108810794B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017088857A JP6926640B2 (ja) 2017-04-27 2017-04-27 目標位置設定装置及び音像定位装置
JP2017-088857 2017-04-27

Publications (2)

Publication Number Publication Date
CN108810794A true CN108810794A (zh) 2018-11-13
CN108810794B CN108810794B (zh) 2020-08-11

Family

ID=63915743

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810163862.4A Active CN108810794B (zh) 2017-04-27 2018-02-27 目标位置设定装置及声像定位装置

Country Status (3)

Country Link
US (1) US10754610B2 (zh)
JP (1) JP6926640B2 (zh)
CN (1) CN108810794B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020102994A1 (zh) * 2018-11-20 2020-05-28 深圳市欢太科技有限公司 3d音效实现方法、装置、存储介质及电子设备

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020195568A1 (ja) * 2019-03-25 2020-10-01 ヤマハ株式会社 オーディオ信号処理装置、オーディオ信号処理システムおよびオーディオ信号処理方法
EP3742271B1 (en) * 2019-05-23 2024-02-28 Nokia Technologies Oy A control element
KR102227489B1 (ko) * 2019-07-10 2021-03-15 김영언 음원 시각화 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020150257A1 (en) * 2001-01-29 2002-10-17 Lawrence Wilcock Audio user interface with cylindrical audio field organisation
CN101065990A (zh) * 2004-09-16 2007-10-31 松下电器产业株式会社 声像定位装置
CN101175343A (zh) * 2004-12-24 2008-05-07 松下电器产业株式会社 声像定位装置
US20120210223A1 (en) * 2011-02-16 2012-08-16 Eppolito Aaron M Audio Panning with Multi-Channel Surround Sound Decoding
CN104301664A (zh) * 2013-07-19 2015-01-21 松下电器产业株式会社 指向性控制系统、指向性控制方法、收音系统及收音控制方法
US20160227342A1 (en) * 2013-09-12 2016-08-04 Yamaha Corporation User Interface Device, Sound Control Apparatus, Sound System, Sound Control Method, and Program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5440639A (en) * 1992-10-14 1995-08-08 Yamaha Corporation Sound localization control apparatus
US5521981A (en) * 1994-01-06 1996-05-28 Gehring; Louis S. Sound positioner
JP2004193877A (ja) 2002-12-10 2004-07-08 Sony Corp 音像定位信号処理装置および音像定位信号処理方法
US7774707B2 (en) * 2004-12-01 2010-08-10 Creative Technology Ltd Method and apparatus for enabling a user to amend an audio file
JP2006203850A (ja) 2004-12-24 2006-08-03 Matsushita Electric Ind Co Ltd 音像定位装置
JP5114981B2 (ja) * 2007-03-15 2013-01-09 沖電気工業株式会社 音像定位処理装置、方法及びプログラム
US8190438B1 (en) * 2009-10-14 2012-05-29 Google Inc. Targeted audio in multi-dimensional space
US8908874B2 (en) * 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction
KR102394141B1 (ko) * 2011-07-01 2022-05-04 돌비 레버러토리즈 라이쎈싱 코오포레이션 향상된 3d 오디오 오서링과 렌더링을 위한 시스템 및 툴들
US10321252B2 (en) * 2012-02-13 2019-06-11 Axd Technologies, Llc Transaural synthesis method for sound spatialization
DE102012224454A1 (de) * 2012-12-27 2014-07-03 Sennheiser Electronic Gmbh & Co. Kg Erzeugung von 3D-Audiosignalen
US9998847B2 (en) * 2016-11-17 2018-06-12 Glen A. Norris Localizing binaural sound to objects

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020150257A1 (en) * 2001-01-29 2002-10-17 Lawrence Wilcock Audio user interface with cylindrical audio field organisation
CN101065990A (zh) * 2004-09-16 2007-10-31 松下电器产业株式会社 声像定位装置
CN101175343A (zh) * 2004-12-24 2008-05-07 松下电器产业株式会社 声像定位装置
US20120210223A1 (en) * 2011-02-16 2012-08-16 Eppolito Aaron M Audio Panning with Multi-Channel Surround Sound Decoding
CN104301664A (zh) * 2013-07-19 2015-01-21 松下电器产业株式会社 指向性控制系统、指向性控制方法、收音系统及收音控制方法
US20160227342A1 (en) * 2013-09-12 2016-08-04 Yamaha Corporation User Interface Device, Sound Control Apparatus, Sound System, Sound Control Method, and Program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020102994A1 (zh) * 2018-11-20 2020-05-28 深圳市欢太科技有限公司 3d音效实现方法、装置、存储介质及电子设备
CN112771893A (zh) * 2018-11-20 2021-05-07 深圳市欢太科技有限公司 3d音效实现方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
JP2018186471A (ja) 2018-11-22
JP6926640B2 (ja) 2021-08-25
US20180314488A1 (en) 2018-11-01
CN108810794B (zh) 2020-08-11
US10754610B2 (en) 2020-08-25

Similar Documents

Publication Publication Date Title
US10720189B2 (en) Haptic effect generation for space-dependent content
EP2891955B1 (en) In-vehicle gesture interactive spatial audio system
CN108810794A (zh) 目标位置设定装置及声像定位装置
US9632683B2 (en) Methods, apparatuses and computer program products for manipulating characteristics of audio objects by using directional gestures
EP2831873B1 (en) A method, an apparatus and a computer program for modification of a composite audio signal
CN103139375B (zh) 移动终端及其控制方法
KR101762522B1 (ko) 물리적 공간에서 사운드 필드를 표현하기 위한 방법들 및 장치들
US11812252B2 (en) User interface feedback for controlling audio rendering for extended reality experiences
US11432071B2 (en) User interface for controlling audio zones
US11832086B2 (en) Spatial audio downmixing
CN107925712A (zh) 捕获声音
EP3236346A1 (en) An apparatus and associated methods
US20190335292A1 (en) An Apparatus and Associated Methods
CN108540899A (zh) 包含用户交互式听觉显示器的听觉设备
CN106454686A (zh) 一种基于体感摄像头的多通路环绕声动态双耳重放方法
CN106658344A (zh) 一种全息音频渲染控制方法
US11516615B2 (en) Audio processing
EP3170176B1 (en) Separating, modifying and visualizing audio objects
TWI838554B (zh) 具有用於控制擴展實境體驗之音訊呈現之使用者介面之裝置及非暫時性電腦可讀儲存媒體及其方法
CN117413536A (zh) 低延迟、低功率的多通道音频处理

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant