CN104735582A - 一种声音信号处理方法、装置及设备 - Google Patents

一种声音信号处理方法、装置及设备 Download PDF

Info

Publication number
CN104735582A
CN104735582A CN201310714608.6A CN201310714608A CN104735582A CN 104735582 A CN104735582 A CN 104735582A CN 201310714608 A CN201310714608 A CN 201310714608A CN 104735582 A CN104735582 A CN 104735582A
Authority
CN
China
Prior art keywords
sound
signal
axis
loud speaker
source signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310714608.6A
Other languages
English (en)
Other versions
CN104735582B (zh
Inventor
吴文海
王田
张德军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Gaohang Intellectual Property Operation Co ltd
Yuying School Yongnian District Handan City
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201310714608.6A priority Critical patent/CN104735582B/zh
Priority to PCT/CN2014/081511 priority patent/WO2015090039A1/zh
Publication of CN104735582A publication Critical patent/CN104735582A/zh
Application granted granted Critical
Publication of CN104735582B publication Critical patent/CN104735582B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)

Abstract

本发明实施例提供了一种声音信号处理方法、装置及设备,该方法包括:获取设定区域内的声源信号以及设定区域的图像信息,根据图像信息得到三维极坐标中声源信号的坐标位置,根据声源信号的坐标位置,得到声源信号对应每一个坐标轴的差分信号,获取扬声器的位置信息,根据扬声器的位置信息以及得到的每一个坐标轴的差分信号,得到扬声器的声音输出信号,最后扬声器根据得到的输出声音信号进行输出,从而实现了3D音频技术的侵入式效果。

Description

一种声音信号处理方法、装置及设备
技术领域
本发明涉及通信技术领域,尤其涉及一种声音信号处理方法、装置及设备。
背景技术
随着通信技术的发展,用户不仅可以使用网络进行信息的传输,还可以使用网络进行语音交互或者是视频交互,因此用户可以实现远程的通讯,比如说远程的视频教学或者是远程的视频会议等等。
当前,采用3D声音处理方式对音频会议中的音频流进行处理,即通过为各个音频流分配声像位置,以及根据各个声像位置的音频流的位置关系,调节音频流在左右声道的增益大小,进而营造出一种立体的声响效果。
当前的3D声音处理方式是通过简单的左右声道的增益调节来实现会场3D声效果,但是当前的3D声效果都是通过固定扬声器播放音频,因此当前的3D声效果只能实现单一效果,降低了用户体验度。
发明内容
本发明实施例提供了一种声音信号处理方法、装置及设备,用以解决现有技术中3D声效果单一的问题。
其具体的技术方案如下:
本发明实施例第一发明提供了一种声音信号处理方法,包括:
获取设定区域内的声源信号以及所述设定区域的图像信息;
根据所述图像信息得到三维极坐标中所述声源信号的坐标位置;
根据所述声源信号的坐标位置,得到所述声源信号对应每一个坐标轴的差分信号;
获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号。
结合第一方面,在第一种可能的实现方式中,在X轴以及Y轴上的差分信号L可以通过如下公式得到:
L=sqrt(2)/2*(gainL1*S(t-τL1)-gainL2*S(t-τL2))*K
gainL1、S(t-τL1)分别为X轴或者是Y轴上的一个声音采集点的增益系数以及延迟信号,gainL2、S(t-τL2)分别为X轴或者是Y轴上的另一个声音采集点的增益系数和延迟信号,τ是指两个相邻声音采集点之间的距离与声音传输速度之间的比值,K为复指数序列。
结合第一方面,在第二种可能的实现方式中,在Z轴上的差分信号z可以通过如下公式得到:
z=sqrt(2)/2*(gainz1*S(t-τz1)-gainz2*S(t-τz2))
gainz1、S(t-τz1)分别为Z轴上的一个声音采集点的增益系数以及延迟信号,gainz2、S(t-τz2)分别为Z轴上的另一个声音采集点的增益系数和延迟信号,τ是指两个相邻声音采集点之间的距离与声音传输速度之间的比值。
结合第一方面,在第三种可能的实现方式中,在根据所述声源信号的坐标位置,得到所述声源信号对应每一个坐标轴的差分信号之后,以及在获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号之前,还包括:
获取表征所述声源信号强度的幅度值;
根据所述声源信号的幅度值以及声源信号在所述预设三维极坐标中的坐标位置,得到所述声源信号的幅度值对应在每一个坐标轴上的差分信号的幅度值。
结合第三种可能的实现方式,在第四种可能的实现方式中,通过如下公式确定所述声源信号S(t)的幅度值对应在每个坐标轴上的差分信号的幅度值:
|x|=u*cos(θ)*cos(φ)*|S(t)|
|y|=u*sin(θ)*cos(φ)*|S(t)|
|z|=u*sin(φ)*|S(t)|
其中,|S(t)|为声源信号的幅度值,|x|为差分信号x在X轴上的幅度值,|y|为差分信号y在Y轴上的幅度值,|z|为差分信号z在Z轴上的幅度值,u为幅度衰减系数,θ表示声源信号的坐标与所述三维极坐标的坐标原点之间的连线在XOY平面上的投影与X轴的夹角,φ表示所述连线与XOY平面之间的夹角。
结合第一方面,在第五种可能的实现方式中,获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号,包括:
确定所述扬声器在所处区域中的位置信息(θk,φk),其中,θk为扬声器与坐标原点之间的连线在水平面上的投影与X轴的夹角,φk为所述连线与Z轴之间的夹角;
通过如下公式将扬声器的位置信息与每个坐标轴上的差分信号进行处理,生成所述扬声器对应的声音输出信号:
m(k)=0.5*[S(t)+x*cos(θk)cos(φk)+y*sin(θk)cos(φk)+z*sin(φk)]
其中,m(k)表示各扬声器的输出信号。
本发明实施例第二方面提供了一种声音信号处理装置,包括:
获取模块,用于获取设定区域内的声源信号以及所述设定区域的图像信息;
确定模块,用于根据所述图像信息得到三维极坐标中所述声源信号的坐标位置;
第一处理模块,用于根据所述声源信号的坐标位置,得到所述声源信号对应每一个坐标轴的差分信号;
第二处理模块,用于获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号。
结合第二方面,在第一种可能的实现方式中,第一处理模块,还用于获取表征所述声源信号强度的幅度值,根据所述声源信号的幅度值以及声源信号在所述预设三维极坐标中的坐标位置,得到所述声源信号的幅度值对应在每一个坐标轴上的差分信号的幅度值。
本发明实施例第三方面提供了一种声音信号处理设备,包括:
声音采集器,用于获取设定区域内的声音信号;
图像采集器,用于获取所述设定区域内的图像信息;
处理器,用于根据所述图像信息得到三维极坐标中所述声源信号的坐标位置,根据所述声源信号的坐标位置,得到所述声源信号对应每一个坐标轴的差分信号,获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号。
在本发明实施例中获取设定区域内的声源信号以及设定区域的图像信息,根据图像信息得到三维极坐标中声源信号的坐标位置,根据声源信号的坐标位置,得到声源信号对应每一个坐标轴的差分信号,获取扬声器的位置信息,根据扬声器的位置信息以及得到的每一个坐标轴的差分信号,得到扬声器的声音输出信号,最后扬声器根据得到的输出声音信号进行输出。这样通过多个扬声器实现3D音效果的同时,还能通过3D声效果反映出说话者的发声位置以及声音的大小,避免了现有技术中3D声效果单一的问题。
附图说明
图1为本发明实施例中一种声音信号处理方法的流程图;
图2为本发明实施例中在第一设定区域内的坐标定位的示意图;
图3为本发明实施例中声音信号采集的示意图;
图4为本发明实施例中第二设定区域中扬声器设置位置的示意图;
图5为本发明实施例中扬声器在第二设定区域中的坐标位置示意图;
图6为本发明实施例中一种声音信号处理装置的结构示意图;
图7为本发明实施例中一种声音信号处理设备的结构示意图。
具体实施方式
当前3D音频技术的应用越来越广泛,比如说在游戏、电影、会议中都可以应用到3D音频技术,通过3D音频技术可以让用户更加有真实感,从而提升用户在声音上的体验度,尤其是在视频会议中,应用3D音频技术之后不仅可以让用户有更加真实的感受,并且还能够使说话者的声音信息更加具有辨识度。
但是,在当前的3D音频技术一般是通过两路声音信号的增益以及延迟调节来完成,这使得3D音频技术的实现方式单一,并且这种单一的实现方式使得3D音效的真实感较低。
针对上述问题,本发明实施例提供了一种声音信号处理方法,该方法包括:获取设定区域内的声源信号以及设定区域的图像信息,根据图像信息得到三维极坐标中声源信号的坐标位置,根据所述声源信号的坐标位置,得到声源信号对应每一个坐标轴的差分信号,获取扬声器的位置信息,根据扬声器的位置信息、对应每一个坐标轴的差分信号,得到扬声器的声音输出信号。
简单的来讲,比如说说话者在第一间会议室说话,而所有听众在第二间会议室,此时声音处理装置通过第一间会议室中的三维极坐标确定说话者在第一间会议室说话的坐标位置,并将说话者的声源信号分解为每个坐标轴上的差分信号,然后结合第二间会议室中扬声器所处的位置确定扬声器应该输出的差分信号,从而通过扬声器的组合播放,使得用户可以通过扬声器输出的声音信号判定出说话者在第一间会议室中的说话位置,这样就实现了3D音频技术的侵入式效果。
下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解,本发明实施例只是对本发明技术方案的详细说明而不是限定,在不冲突的情况下本发明实施例以及实施例中的具体技术特征可以相互组合。
实施例一:
如图1所示为本发明实施例中一种声音信号处理方法的流程图,该方法包括:
S101,获取设定区域内的声源信号以及设定区域的图像信息;
首先来讲,在设定区域中设置有一声音处理设备,在该声音处理设备中至少包括了声音采集装置以及图像采集装置,在本发明实施例中该声音采集装置为全向麦克风,用来来采集设定区域内的声源信号,图像采集装置为全向摄像头,用来采集设定区域内的图像信息。
S102,根据图像信息得到三维极坐标中声源信号的坐标位置;
当用户在设定区域内发出一声音信号时,声音采集装置将采集到说话者的声源信号S(t),同时图像采集装置将采集设定区域中的图像信息,然后基于对图像的分析,得到声源信号在设定区域内的三维极坐标中的坐标位置。
具体来讲,在设定区域中的全向摄像头会拍摄一张设定区域中的全景图像,基于设定区域中的三维极坐标中的坐标原点确定出说话者在设定区域中的坐标位置,比如说如图2所示,在图2中说话者在设定区域中说话者的位置坐标可以使用极坐标(r,θ,φ)来表示,其中,r表示说话者与坐标原点之间的距离,θ表示说话者的声源位置与坐标原点之间的连线在XOY平面上的投影与X轴的夹角,φ表示XOY平面上的投影与连线之间的夹角。由于声源信号S(t)是由说话者发出,因此说话者的位置确定出来的同时声源信号S(t)的位置就相应的确定出来。
S103,根据声源信号的坐标位置,得到声源信号对应每一个坐标轴的差分信号;
在得到声源信号的坐标位置之后,声音处理设备会将声源信号S(t)分解到三维极坐标的每个坐标轴上,即:得到X、Y、Z坐标轴方向上的差分信号,具体来讲,X、Y、Z坐标轴方向上的差分信号可以根据自由声波传输原理,即:当一个点波传送到两个距离很近的虚拟的全向麦克风的信号的原理来得到各个坐标轴上的差分信号,比如说如图3所示,在图3中一个全向麦克分可以虚拟为两个距离很近的全向麦克风,通过分别获取声源信号对应在坐标轴上的两个相邻采集点上的第一声音采样信号以及第二声音采样信号,就可以根据坐标轴上的第一声音采样信号以及第二声音采样信号的差值得到声源信号S(t)在坐标轴上的差分信号。
具体来讲,X轴或者是Y上的差分信号可以但是不限于如下的公式(1)得到:
L=sqrt(2)/2*(gainL1*S(t-τL1)-gainL2*S(t-τL2))*K    (1)
当L表征X轴上的差分信号时:gainx1*S(t-τx1)表示X轴上一个声音采集点采集到的第一声音采样信号,gainx1、S(t-τx1)分别为X轴上的一个声音采集点的增益系数以及延迟信号,gainx2*S(t-τx2)表示X轴上另一声音采集点采集到的第二声音采样信号,gainx2、S(t-τx2)分别为X轴上的另一个声音采集点的增益系数和延迟信号,K为复指数序列
进一步,由于声源信号S(t)所处位置可以通过极坐标(r,θ,φ)表示,因此在X轴上的第一声音采样信号以及第二声音采样信号在第一预设坐标系中的增益系数以及延迟时间可以通过声源信号S(t)中极坐标来得到,具体可以通过如下公式得到:
gainx1=(5/4+cos(θ))cos(φ)
gainx2=(5/4-cos(θ))cos(φ)
τx1=τ*{-0.5+sqrt[(5/4-cos(θ))cos(φ)]}
τx2=τ*{-0.5+sqrt[(5/4+cos(θ))cos(φ)]}
这里的τ是指两个虚拟全向麦克风的采集中心点之间的距离与声音传输速度之间的比值,即:两个虚拟全向麦克风中间的声音延迟时间,τx1表示声源信号S(t)传输到X轴上的一个声音采集点的时间,τx2表示声源信号S(t)传输到X轴上的另一个声音采集点的时间。
当L表征Y轴上的差分信号时:gainy1*S(t-τy1)表示Y轴上一个声音采集点采集到的第一声音采样信号,gainy1、S(t-τy1)分别为Y轴上的一个声音采集点的增益系数以及延迟信号,gainy2*S(t-τy2)表示Y轴上另一声音采集点采集到的第二声音采样信号,gainy2、S(t-τy2)分别为Y轴上的另一个声音采集点的增益系数和延迟信号,K为复指数序列
进一步,由于声源信号S(t)所处位置可以通过极坐标(r,θ,φ)表示,因此在Y轴上的第一声音采样信号以及第二声源采样信号中的增益系数以及延迟时间可以通过声源信号S(t)的极坐标来得到,具体可以通过如下公式得到:
gainy1=(5/4+sin(θ))cos(φ)
gainy2=(5/4-sin(θ))cos(φ)
τy1=τ*{-0.5+sqrt[(5/4-sin(θ))cos(φ)]}
τy2=τ*{-0.5+sqrt[(5/4+sin(θ))cos(φ)]}
τy1表示声源信号S(t)传输到X轴上的一个声音采集点的延迟时间,τy2表示声源信号S(t)传输到X轴上的另一个声音采集点的时间。
对于Z轴上的差分信号可以通过公式(2)得到,具体如下:
z=sqrt(2)/2*(gainz1*S(t-τz1)-gainz2*S(t-τz2))    (2)
其中,gainz1*S(t-τz1)表示Z轴上一个声音采集点采集到的第一声音采样信号,gainz1、S(t-τz1)分别为Z轴上的一个声音采集点的增益系数以及延迟信号,gainz2*S(t-τz2)表示Z轴上另一声音采集点采集到的第二声音采样信号,gainz2、S(t-τz2)分别为Z轴上的另一个声音采集点的增益系数和延迟信号。
进一步,由于声源信号S(t)所处位置可以通过极坐标(r,θ,φ)表示,因此在Z轴上的第一声音采样信号以及第二声源采样信号中的增益系数以及延迟时间可以通过声源信号S(t)中极坐标来得到,具体可以通过如下公式得到:
gainz1=5/4+sin(φ)
gainz2=5/4-sin(φ)
τz1=τ*[-0.5+sqrt(5/4-sin(φ))]
τz1=τ*[-0.5+sqrt(5/4+sin(φ))]
τz1表示声源信号S(t)传输到X轴上的一个声音采集点的时间,τz2表示声源信号S(t)传输到X轴上的另一个声音采集点的时间。
通过上述的处理过程可以得到的声源信号在三维极坐标中每个坐标轴上的差分信号,在得到每个坐标轴上的差分信号之后,需要根据声源信号的幅度值来调整每个坐标轴上的差分信号的幅度值。
具体来讲,首先获取声源信号的幅度值,根据声源信号的幅度值以及声源信号在三维极坐标中的坐标位置,确定声源信号的幅度值对应在每个坐标轴上的幅度值,最后根据各个坐标轴上的幅度值,调整各个坐标轴的差分信号的幅度值,具体的调整方式可以但是不限于通过如下的公式来得到:
|x|=u*cos(θ)*cos(φ)*|S(t)|
|y|=u*sin(θ)*cos(φ)*|S(t)|
|z|=u*sin(φ)*|S(t)|
其中,|S(t)|为声源信号的幅度值,|x|为差分信号x在X轴上的幅度值,|y|为差分信号y在Y轴上的幅度值,|z|为差分信号z在Z轴上的幅度值,u为幅度衰减系数。
在得到X、Y、Z坐标轴上的幅度值之后,根据得到的幅度值来调整各个坐标轴上对应差分信号的幅度值,即:X轴上的差分信号的幅度值调整为|x|,Y轴上的差分信号的幅度值调整为|y|,Z轴上的差分信号的幅度值调整为|z|。
在得到各个坐标轴上调整幅度之后的差分信号时,该声音处理设备将执行步骤S104。
S104,获取扬声器的位置信息,根据扬声器的位置信息、对应每一个坐标轴的差分信号,得到扬声器的声音输出信号;
在得到每个坐标轴上的差分信号之后,需要基于扬声器的位置信息确定扬声器应该对应的声音输出信号。
具体来讲,在本发明实施例中扬声器所处的区域中也存在三维极坐标,此时扬声器的位置坐标也可以通过极坐标来表征,比如说如图4所示,在图4中设置的是三维极坐标,即包括X轴、Y轴以及Z轴,扬声器在三维极坐标中的位置应该是图5所示的位置关系,在图5中,扬声器处于三维极坐标中,此时扬声器的位置可以通过极坐标(r,θk,φk)来表征,其中,r用来表征扬声器与极坐标系中坐标原点之间的距离,θk表示扬声器与坐标原点之间的连线在XOY平面上的投影线与X轴之间的夹角,φk投影线与所述连线之间的夹角,图5中的每个扬声器都可以通过极坐标来表征。
基于扬声器的极坐标,通过公式(3)得到扬声器的声音输出信号:
m(k)=0.5*[S(t)+x*cos(θk)cos(φk)+ysin(θk)cos(φk)+zsin(φk)](3)
其中,m(k)表示各扬声器的输出信号。
比如说第一扬声器的极坐标为(r,θ1,φ1),则该第一扬声器的输出信号就是:m(1)=0.5*[S(t)+x*cos(θ1)cos(φ1)+ysin(θ1)cos(φk)+zsin(φ1)],当然,若是区域中存在多个扬声器时,可以通过公式(3)得到每个扬声器对应的声音输出信号,此处就不再赘述。
在得到扬声器的输出信号之后,为了保证扬声器输出信号的效果,根据说话者的方位和扬声器的布局,选择并计算扬声器的增益,并得到增益调整后的输出信号,其增益调整后的输出信号如下:
m(k)=0.5*gain*[S(t)+x*cos(θk)cos(φk)+ysin(θk)cos(φk)+zsin(φk)]
在得到每个扬声器增益调整后的输出信号之后,此时就将每个扬声器的声音输出信号发送至对应的扬声器,从而该扬声器就按照得到的输出信号进行输出。
通过不同位置的扬声器输出的不同的声音输出信号,就可以在区域中形成3D声效,并且能够比较精确的还原声源信号,从而让听者能够感受到声源信号的位置,以及感受到声源的位置改变以及声源信号的强度改变,进而实现了对声源信号在各个方位上的立体化效果,提升了3D声效的呈现效果。
另外,在本发明实施例中当说话者的位置发生改变,也就是声源位置发生改变时,则扬声器的声音输出信号也同时改变,这样就可以通过扬声器输出信号随着声源位置的改变而改变来反映出声源信号的位置改变,进而在提升了3D声效的呈现效果的基础上,听者还可以通过扬声器输出的声音输出信号随时感受到说话者在第一设定区域中的发声位置,实现了3D侵入式声效,提升了用户体验。
另外,在上述实施例中在设定区域中是通过全向麦克风将声源信号分别分解到3个坐标轴上的差分信号,当然在实际的场景中一般的麦克风只能是采集两路信号,因此在本发明实施例中还可以将声源信号分解到两个坐标轴上的差分信号,并通过这两个差分信号得到最后发送至扬声器的声音输出信号,具体的实现方式如下:
首先来讲,说话者还是处于设定区域中,并且在设定区域中存在三维极坐标,此时声源信号的位置可以通过三维极坐标来表示,即:根据声源信号的极坐标就可以得到声源信号在X轴上的差分信号,其X轴的声音信号采集方式与上述实施例中的采集方式相同,即:将一个麦克风虚拟为两个相邻的麦克风采集点,从而得到两次采集的声音信号,通过两次采集的声音信号得到X轴上的差分信号为:
x=sqrt(2)/2*(gainx1*S(t-τx1)-gainx2*S(t-τx2x3))
其中,gainx1表征声源信号在X轴上的第一声音采集点增益,S(t-τx1)表征声源信号在x轴上的第一声音采集点的延迟信号,gainx2表征声源信号在X轴上的第二声音采集点增益,S(t-τx2x3)表征声源信号在X轴上的第二声音采集点的延迟信号。
进一步,由于声源信号S(t)所处位置可以通过三维坐标系中的极坐标(r,θ)表征,因此X轴上的增益以及延迟时间可以通过声源信号的极坐标来获取,其具体的可以通过如下公式获取:
gainx1=5/4+cos(θ)
gainx2=5/4-cos(θ)
τx1=τ*[-0.5+sqrt(5/4-cos(θ))]
τx2=τ*[-0.5+sqrt(5/4+cos(θ))]
τx3
这里的τ是指两个虚拟全向麦克风的采集点之间的距离与声音传输速度之间的比值,即:两个虚拟全向麦克风中间的声音延迟时间,τx1表示声源信号S(t)传输到X轴上的一个声音采集点的时间,τx2表示声源信号S(t)传输到X轴上的另一个声音采集点的时间。
这样得到的X轴是的差分信号指向为心形。
基于获取X轴上差分信号的原理,同样可以通过如下公式获取到Y轴上的差分信号:
y=sqrt(2)/2*(gainy1*S(t-τy1)-gainy2*S(t-τy2))
其中,gainy1表征声源信号在X轴上的第一声音采集点增益,S(t-τy1)表征声源信号在Y轴上的第一声音采集点的延迟信号,gainy2表征声源信号在Y轴上的第二声音采集点增益,S(t-τy2)表征声源信号在Y轴上的第二声音采集点的延迟信号。
进一步,由于声源信号S(t)所处位置可以通过三维坐标系中的极坐标(r,θ)表征,因此Y轴上的增益以及延迟时间可以通过声源信号的极坐标来获取,其具体的可以通过如下公式获取:
gainy1=5/4+sin(θ)
gainy2=5/4-sin(θ)
τy1=τ*[-0.5+sqrt(5/4-sin(θ))]
τy2=τ*[-0.5+sqrt(5/4+sin(θ))]
τy1表示声源信号S(t)传输到Y轴上的一个声音采集点的时间,τy2表示声源信号S(t)传输到Y轴上的另一个声音采集点的时间。
这样得到的Y轴是的差分信号指向为8字形
由于通过上述方法得到的基于三维坐标系得到的两路差分信号,因此得到的两个差分信号提供给另一区域中的两个扬声器输出,在另一区域中的两个扬声器的输出信号可以通过如下公式得到:
L=0.5*(x+y)
R=0.5*(x-y)
其中,L表征相对于坐标原点的左边的扬声器的输出信号,当然R表征相对于坐标原点的右边扬声器的输出信号。
当然,得到两个扬声器中每个扬声器的输出信号之后,还需要对得到的输出信号进行增益调整,此处的增益调整可以根据实际的应用场景来调整,即:增益可调高也可以调低。在调整好输出信号的增益之后,得到增益调整后的输出信号:
L=0.5*gain*(x+y)
R=0.5*gain*(x-y)
将最终的输出信号发送至对应的扬声器,具体来讲就是将L输出信号发送至相对于坐标原点坐标的左边的扬声器,而R输出信号发送至相对于坐标原点的右边的扬声器。最后通过左右两边的扬声器的输出信号在第二设定区域中混合形成3D音效,增加了3D声效的实现方式。
并且在本发明实施例中在说话者说话位置的改变,即:声源位置的改变,此时每个扬声器输出信号也会同样的改变的情况下,扬声器输出信号也会相应的调整,然后通过扬声器输出调整后的输出信号来形成不同的3D音效,从而使得听者可以感受到声音信号位置的改变,提升了用户的使用体验。
实施例二:
对应本发明实施例一中的一种声音信号处理方法,如图6所示,本发明实施例还提供了一种声音信号处理装置,该装置包括:
获取模块601,用于获取设定区域内的声源信号以及设定区域的图像信息;
确定模块602,用于根据图像信息得到三维极坐标中声源信号的坐标位置;
第一处理模块603,用于根据声源信号的坐标位置,得到声源信号对应每一个坐标轴的差分信号;
第二处理模块604,用于获取扬声器的位置信息,根据扬声器的位置信息、对应每一个坐标轴的差分信号,得到扬声器的声音输出信号。
进一步,第一处理模块603,还用于获取表征声源信号强度的幅度值,根据声源信号的幅度值以及声源信号在预设三维极坐标中的坐标位置,得到声源信号的幅度值对应在每一个坐标轴上的差分信号的幅度值。
第二处理模块604,具体用于确定扬声器在所处区域中的位置信息(θk,φk),其中,θk为扬声器与坐标原点之间的连线在水平面上的投影与X轴的夹角,φk为连线与Z轴之间的夹角,通过如下公式将扬声器的位置信息与每个坐标轴上的差分信号进行处理,生成扬声器对应的声音输出信号:
m(k)=0.5*[S(t)+x*cos(θk)cos(φk)+y*sin(θk)cos(φk)+z*sin(φk)]其中,m(k)表示各扬声器的输出信号。
另外,本发明实施例中还提供了一种声音信号处理设备,如图7所示为本发明实施例中一种声音信号处理设备的结构示意图,该设备包括:
声音采集器701,用于获取设定区域内的声音信号;
图像采集器702,用于获取设定区域内的图像信息;
处理器703,用于根据图像信息得到三维极坐标中声源信号的坐标位置,根据声源信号的坐标位置,得到声源信号对应每一个坐标轴的差分信号,获取扬声器的位置信息,根据扬声器的位置信息、对应每一个坐标轴的差分信号,得到扬声器的声音输出信号。
进一步,处理器703,具体用于通过如下公式得到X轴以及Y轴上的差分信号:
L=sqrt(2)/2*(gainL1*S(t-τL1)-gainL2*S(t-τL2))*K
gainL1、S(t-τL1)分别为X轴或者是Y轴上的一个声音采集点的增益系数以及延迟信号,gainL2、S(t-τL2)分别为X轴或者是Y轴上的另一个声音采集点的增益系数和延迟信号,τ是指两个相邻声音采集点之间的距离与声音传输速度之间的比值,K为复指数序列。
处理器703,具体用于通过如下公式得到Z轴上的差分信号:
z=sqrt(2)/2*(gainz1*S(t-τz1)-gainz2*S(t-τz2))
gainz1、S(t-τz1)分别为Z轴上的一个声音采集点的增益系数以及延迟信号,gainz2、S(t-τz2)分别为Z轴上的另一个声音采集点的增益系数和延迟信号,τ是指两个相邻声音采集点之间的距离与声音传输速度之间的比值。
进一步,处理器703,还用于获取表征声源信号强度的幅度值,根据声源信号的幅度值以及声源信号在预设三维极坐标中的坐标位置,得到声源信号的幅度值对应在每一个坐标轴上的差分信号的幅度值。
进一步,处理器703,还用于确定扬声器在所处区域中的位置信息(θk,φk),其中,θk为扬声器与坐标原点之间的连线在水平面上的投影与X轴的夹角,φk为连线与Z轴之间的夹角,通过如下公式将扬声器的位置信息与每个坐标轴上的差分信号进行处理,生成扬声器对应的声音输出信
号:m(k)=0.5*[S(t)+x*cos(θk)cos(φk)+y*sin(θk)cos(φk)+z*sin(φk)]其中,m(k)表示各扬声器的输出信号。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (9)

1.一种声音信号处理方法,其特征在于,包括:
获取设定区域内的声源信号以及所述设定区域的图像信息;
根据所述图像信息得到三维极坐标中所述声源信号的坐标位置;
根据所述声源信号的坐标位置,得到所述声源信号对应每一个坐标轴的差分信号;
获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号。
2.如权利要求1所述的方法,其特征在于,在X轴以及Y轴上的差分信号L可以通过如下公式得到:
L=sqrt(2)/2*(gainL1*S(t-τL1)-gainL2*S(t-τL2))*K
gainL1、S(t-τL1)分别为X轴或者是Y轴上的一个声音采集点的增益系数以及延迟信号,gainL2、S(t-τL2)分别为X轴或者是Y轴上的另一个声音采集点的增益系数和延迟信号,τ是指两个相邻声音采集点之间的距离与声音传输速度之间的比值,K为复指数序列。
3.如权利要求1所述的方法,其特征在于,在Z轴上的差分信号z可以通过如下公式得到:
z=sqrt(2)/2*(gainz1*S(t-τz1)-gainz2*S(t-τz2))
gainz1、S(t-τz1)分别为Z轴上的一个声音采集点的增益系数以及延迟信号,gainz2、S(t-τz2)分别为Z轴上的另一个声音采集点的增益系数和延迟信号,τ是指两个相邻声音采集点之间的距离与声音传输速度之间的比值。
4.如权利要求1所述的方法,其特征在于,在根据所述声源信号的坐标位置,得到所述声源信号对应每一个坐标轴的差分信号之后,以及在获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号之前,还包括:
获取表征所述声源信号强度的幅度值;
根据所述声源信号的幅度值以及声源信号在所述预设三维极坐标中的坐标位置,得到所述声源信号的幅度值对应在每一个坐标轴上的差分信号的幅度值。
5.如权利要求4所述的方法,其特征在于,通过如下公式确定所述声源信号S(t)的幅度值对应在每个坐标轴上的差分信号的幅度值:
|x|=u*cos(θ)*cos(φ)*|S(t)|
|y|=u*sin(θ)*cos(φ)*|S(t)|
|z|=u*sin(φ)*|S(t)|
其中,|S(t)|为声源信号的幅度值,|x|为差分信号x在X轴上的幅度值,|y|为差分信号y在Y轴上的幅度值,|z|为差分信号z在Z轴上的幅度值,u为幅度衰减系数,θ表示声源信号的坐标与所述三维极坐标的坐标原点之间的连线在XOY平面上的投影与X轴的夹角,φ表示所述连线与XOY平面之间的夹角。
6.如权利要求1所述的方法,其特征在于,获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号,包括:
确定所述扬声器在所处区域中的位置信息(θk,φk),其中,θk为扬声器与坐标原点之间的连线在水平面上的投影与X轴的夹角,φk为所述连线与Z轴之间的夹角;
通过如下公式将扬声器的位置信息与每个坐标轴上的差分信号进行处理,生成所述扬声器对应的声音输出信号:
m(k)=0.5*[S(t)+x*cos(θk)cos(φk)+y*sin(θk)cos(φk)+z*sin(φk)]
其中,m(k)表示各扬声器的输出信号。
7.一种声音信号处理装置,其特征在于,包括:
获取模块,用于获取设定区域内的声源信号以及所述设定区域的图像信息;
确定模块,用于根据所述图像信息得到三维极坐标中所述声源信号的坐标位置;
第一处理模块,用于根据所述声源信号的坐标位置,得到所述声源信号对应每一个坐标轴的差分信号;
第二处理模块,用于获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号。
8.如权利要求7所述的装置,其特征在于,第一处理模块,还用于获取表征所述声源信号强度的幅度值,根据所述声源信号的幅度值以及声源信号在所述预设三维极坐标中的坐标位置,得到所述声源信号的幅度值对应在每一个坐标轴上的差分信号的幅度值。
9.一种声音信号处理设备,其特征在于,包括:
声音采集器,用于获取设定区域内的声音信号;
图像采集器,用于获取所述设定区域内的图像信息;
处理器,用于根据所述图像信息得到三维极坐标中所述声源信号的坐标位置,根据所述声源信号的坐标位置,得到所述声源信号对应每一个坐标轴的差分信号,获取扬声器的位置信息,根据所述扬声器的位置信息、所述对应每一个坐标轴的差分信号,得到所述扬声器的声音输出信号。
CN201310714608.6A 2013-12-20 2013-12-20 一种声音信号处理方法、装置及设备 Active CN104735582B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201310714608.6A CN104735582B (zh) 2013-12-20 2013-12-20 一种声音信号处理方法、装置及设备
PCT/CN2014/081511 WO2015090039A1 (zh) 2013-12-20 2014-07-02 一种声音处理方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310714608.6A CN104735582B (zh) 2013-12-20 2013-12-20 一种声音信号处理方法、装置及设备

Publications (2)

Publication Number Publication Date
CN104735582A true CN104735582A (zh) 2015-06-24
CN104735582B CN104735582B (zh) 2018-09-07

Family

ID=53402054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310714608.6A Active CN104735582B (zh) 2013-12-20 2013-12-20 一种声音信号处理方法、装置及设备

Country Status (2)

Country Link
CN (1) CN104735582B (zh)
WO (1) WO2015090039A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105879390A (zh) * 2016-04-26 2016-08-24 乐视控股(北京)有限公司 虚拟现实游戏处理方法及设备
CN109474881A (zh) * 2018-01-22 2019-03-15 国网浙江桐乡市供电有限公司 一种三维实景配现场音的方法及系统
CN114615534A (zh) * 2022-01-27 2022-06-10 海信视像科技股份有限公司 显示设备及音频处理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1997161A (zh) * 2006-12-30 2007-07-11 华为技术有限公司 一种视频终端以及一种音频码流处理方法
CN101350931A (zh) * 2008-08-27 2009-01-21 深圳华为通信技术有限公司 音频信号的生成、播放方法及装置、处理系统
CN101459797A (zh) * 2007-12-14 2009-06-17 深圳Tcl新技术有限公司 一种声音定位的方法及系统
US20100119083A1 (en) * 2008-11-11 2010-05-13 Motorola, Inc. Compensation for nonuniform delayed group communications
CN101843114A (zh) * 2007-11-01 2010-09-22 诺基亚公司 聚焦于用于音频信号的音频场景的一部分
CN203151672U (zh) * 2013-03-21 2013-08-21 徐华中 一种具有声源定位功能的视频系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9614078D0 (en) * 1996-07-04 1996-09-04 Central Research Lab Ltd Sound effect mechanism
JPH10191498A (ja) * 1996-12-27 1998-07-21 Matsushita Electric Ind Co Ltd 音信号処理装置
JP2003023699A (ja) * 2001-07-05 2003-01-24 Saibuaasu:Kk 空間情報聴覚化装置および空間情報聴覚化方法
JP2003348700A (ja) * 2002-05-28 2003-12-05 Victor Co Of Japan Ltd 臨場感信号の生成方法、及び臨場感信号生成装置
CN101330585A (zh) * 2007-06-20 2008-12-24 深圳Tcl新技术有限公司 一种声音定位的方法及系统
CN103118322B (zh) * 2012-12-27 2017-08-04 新奥特(北京)视频技术有限公司 一种环绕声声像处理系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1997161A (zh) * 2006-12-30 2007-07-11 华为技术有限公司 一种视频终端以及一种音频码流处理方法
CN101843114A (zh) * 2007-11-01 2010-09-22 诺基亚公司 聚焦于用于音频信号的音频场景的一部分
CN101459797A (zh) * 2007-12-14 2009-06-17 深圳Tcl新技术有限公司 一种声音定位的方法及系统
CN101350931A (zh) * 2008-08-27 2009-01-21 深圳华为通信技术有限公司 音频信号的生成、播放方法及装置、处理系统
US20100119083A1 (en) * 2008-11-11 2010-05-13 Motorola, Inc. Compensation for nonuniform delayed group communications
CN203151672U (zh) * 2013-03-21 2013-08-21 徐华中 一种具有声源定位功能的视频系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105879390A (zh) * 2016-04-26 2016-08-24 乐视控股(北京)有限公司 虚拟现实游戏处理方法及设备
CN109474881A (zh) * 2018-01-22 2019-03-15 国网浙江桐乡市供电有限公司 一种三维实景配现场音的方法及系统
CN109474881B (zh) * 2018-01-22 2020-10-16 国网浙江桐乡市供电有限公司 一种三维实景配现场音的方法及系统
CN114615534A (zh) * 2022-01-27 2022-06-10 海信视像科技股份有限公司 显示设备及音频处理方法

Also Published As

Publication number Publication date
CN104735582B (zh) 2018-09-07
WO2015090039A1 (zh) 2015-06-25

Similar Documents

Publication Publication Date Title
US11991315B2 (en) Audio conferencing using a distributed array of smartphones
US10349197B2 (en) Method and device for generating and playing back audio signal
US8204262B2 (en) Sound image localization processor, method, and program
JP4927848B2 (ja) オーディオ処理のためのシステムおよび方法
Hacihabiboglu et al. Perceptual spatial audio recording, simulation, and rendering: An overview of spatial-audio techniques based on psychoacoustics
US8073125B2 (en) Spatial audio conferencing
US20150189455A1 (en) Transformation of multiple sound fields to generate a transformed reproduced sound field including modified reproductions of the multiple sound fields
US20080219485A1 (en) Apparatus, System and Method for Acoustic Signals
US11122384B2 (en) Devices and methods for binaural spatial processing and projection of audio signals
KR20170106063A (ko) 오디오 신호 처리 방법 및 장치
US20180206038A1 (en) Real-time processing of audio data captured using a microphone array
US11109177B2 (en) Methods and systems for simulating acoustics of an extended reality world
CN111492342B (zh) 音频场景处理
JP2016527799A (ja) 音響信号処理方法
Lee et al. A real-time audio system for adjusting the sweet spot to the listener's position
CN113784274A (zh) 三维音频系统
CN104735582A (zh) 一种声音信号处理方法、装置及设备
Braasch et al. A loudspeaker-based projection technique for spatial music applications using virtual microphone control
Sun Immersive audio, capture, transport, and rendering: a review
KR101111734B1 (ko) 복수 개의 음원을 구분하여 음향을 출력하는 방법 및 장치
CN113347530A (zh) 一种用于全景相机的全景音频处理方法
US11589184B1 (en) Differential spatial rendering of audio sources
De Sena Analysis, design and implementation of multichannel audio systems
KR102559015B1 (ko) 공연과 영상에 몰입감 향상을 위한 실감음향 처리 시스템
Peters et al. Sound spatialization across disciplines using virtual microphone control (ViMiC)

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200113

Address after: 056000 south end of Xinming Road, Linmingguan Town, Yongnian District, Handan City, Hebei Province

Patentee after: Yuying school, Yongnian District, Handan City

Address before: 510000 unit 2414-2416, building, No. five, No. 371, Tianhe District, Guangdong, China

Patentee before: GUANGDONG GAOHANG INTELLECTUAL PROPERTY OPERATION Co.,Ltd.

Effective date of registration: 20200113

Address after: 510000 unit 2414-2416, building, No. five, No. 371, Tianhe District, Guangdong, China

Patentee after: GUANGDONG GAOHANG INTELLECTUAL PROPERTY OPERATION Co.,Ltd.

Address before: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen

Patentee before: HUAWEI TECHNOLOGIES Co.,Ltd.

TR01 Transfer of patent right