CN115914517A - 一种声音信号处理方法及电子设备 - Google Patents
一种声音信号处理方法及电子设备 Download PDFInfo
- Publication number
- CN115914517A CN115914517A CN202110927121.0A CN202110927121A CN115914517A CN 115914517 A CN115914517 A CN 115914517A CN 202110927121 A CN202110927121 A CN 202110927121A CN 115914517 A CN115914517 A CN 115914517A
- Authority
- CN
- China
- Prior art keywords
- audio signal
- signal
- audio
- sound
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 518
- 238000003672 processing method Methods 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 claims abstract description 125
- 230000008569 process Effects 0.000 claims abstract description 74
- 238000012545 processing Methods 0.000 claims description 78
- 230000004044 response Effects 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 7
- 238000009792 diffusion process Methods 0.000 description 54
- 238000004364 calculation method Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 28
- 230000001427 coherent effect Effects 0.000 description 24
- 230000007613 environmental effect Effects 0.000 description 24
- 239000000203 mixture Substances 0.000 description 24
- 238000010586 diagram Methods 0.000 description 20
- 230000004927 fusion Effects 0.000 description 14
- 206010044565 Tremor Diseases 0.000 description 9
- 230000001629 suppression Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000007499 fusion processing Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000002401 inhibitory effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Studio Devices (AREA)
Abstract
本申请实施例提供了一种声音信号处理方法及电子设备,能够减少录制视频的声音中的干扰声音信号,提高录制视频的声音信号的质量。该方法应用于电子设备。该方法包括:电子设备获取第一声音信号。第一声音信号为录制视频的声音信号。电子设备对第一声音信号进行处理,得到第二声音信号。电子设备在播放录制的视频文件时,输出第二声音信号。其中,第二声音信号中非目标方位的声音信号的能量低于第一声音信号中非目标方位的声音信号的能量。非目标方位为录制视频时摄像头的视场角范围外的方位。
Description
技术领域
本申请涉及电子技术领域,尤其涉及一种声音信号处理方法及电子设备。
背景技术
目前,电子设备的录像功能已成为人们经常使用的功能。随着短视频、直播社交软件(如快手、抖音等应用)的发展,录制高质量的视频文件成为了需求。
现有的电子设备在录制视频时会采集电子设备周围的声音信号,但是有一些声音信号属于干扰信号,并不是用户想要的。以前置摄像头录像为例,电子设备在录制用户的自拍短视频或者直播时,电子设备会采集到用户自己的声音,还会采集到周围环境的声音,从而导致电子设备录制的自拍声音不够清晰,存在较多的干扰,电子设备录制的声音质量较低。
发明内容
本申请实施例提供了一种声音信号处理方法及电子设备,能够减少录制视频的声音中的干扰声音信号,提高录制视频的声音信号的质量。
为达到上述目的,本申请提供如下技术方案:
第一方面,本申请实施例提供一种声音信号处理方法。该方法应用于电子设备,电子设备包括摄像头和麦克风。第一目标对象在摄像头的拍摄范围内,第二目标对象不在摄像头的拍摄范围内。其中,第一目标对象在摄像头的拍摄范围内,可以指第一目标对象位于摄像头的视场角的范围内。该方法包括:电子设备启动相机。显示预览界面,预览界面包括第一控件。检测到对第一控件的第一操作。响应于第一操作,开始拍摄。在第一时刻,显示拍摄界面,拍摄界面包括第一图像,第一图像为摄像头实时采集的图像,第一图像包括第一目标对象,第一图像不包括第二目标对象。其中,第一时刻可以是拍摄过程中的任意时刻。在第一时刻,麦克风采集第一音频,第一音频包括第一音频信号和第二音频信号,第一音频信号对应第一目标对象,第二音频信号对应第二目标对象。检测到对拍摄界面的第一控件的第二操作。响应于第二操作,停止拍摄,保存第一视频,其中,第一视频的第一时刻处包括第一图像和第二音频,第二音频包括第一音频信号和第三音频信号,第三音频信号是电子设备对第二音频信号进行处理得到的,第三音频信号的能量小于第二音频信号的能量。
一般而言,用户在使用电子设备录制视频时,电子设备通过麦克风会采集到电子设备周围的声音信号。例如,电子设备会采集到录制视频时摄像头的视场角范围内的声音信号,电子设备也会采集到录制视频时摄像头的视场角范围外的声音信号,电子设备还会采集到环境噪声。在此情况下,录制视频时摄像头的视场角范围外的声音信号以及环境噪声就会成为干扰信号。
示例性地,当电子设备录制到第二目标对象(如非目标对象1或非目标对象)的声音信号(即第二音频信号),则可以降低第二音频信号的能量而得到第三音频信号。如此一来,在本申请实施例中,电子设备可以对录制视频的声音信号(如麦克风采集到的声音信号)进行处理,并降低干扰信号的能量(如第二音频信号的能量),从而使得播放录制的视频文件时,输出的第三音频信号的能量,低于第二音频信号中非目标方位的声音信号的能量,以减少录制视频的声音信号中的干扰声音信号,提高录制视频的声音信号的质量。
在一种可能的实现方式中,第三音频信号是电子设备对第二音频信号进行处理得到的,包括:配置第二音频信号的增益小于1。根据第二音频信号和第二音频信号的增益,得到所述第三音频信号。
在一种可能的实现方式中,第三音频信号是电子设备对第二音频信号进行处理得到的,包括:电子设备计算第二音频信号在目标方位内的概率。其中,目标方位为录制视频时摄像头的视场角范围内的方位。第一目标对象在目标方位内,第二目标对象不在所述目标方位内。电子设备根据第二音频信号在目标方位内的概率,确定第二音频信号的增益。其中,若第二音频信号在目标方位内的概率大于预设概率阈值,则第二音频信号的增益等于1。若第二音频信号在目标方位内的概率小于或等于预设概率阈值,则第二音频信号的增益小于1。电子设备根据第二音频信号的能量和第二音频信号的增益,得到第三音频信号。
在该方案中,电子设备可以根据第二音频信号在目标方位内的概率大小,确定第二音频信号的增益,以便降低第二音频信号的能量,得到第三音频信号。
在一种可能的实现方式中,第一音频还包括第四音频信号,第四音频信号为扩散场噪声音频信号。第二音频还包括第五音频信号,第五音频信号为扩散场噪声音频信号。其中,第五音频信号是电子设备对第四音频信号进行处理得到的,第五音频信号的能量小于第四音频信号的能量。
在一种可能的实现方式中,第五音频信号是电子设备对第四音频信号进行处理得到的,包括:配置第四音频信号的增益小于1。根据第四音频信号的能量和第四音频信号的增益,得到第五音频信号。
在一种可能的实现方式中,第五音频信号是电子设备对第四音频信号进行处理得到的,包括:对第四音频信号进行抑制处理得到第六音频信号。对第六音频信号进行补偿处理得到第五音频信号。其中,第六音频信号为扩散场噪声音频信号,第六音频信号的能量小于第四音频信号,第六音频信号小于所述第五音频信号。
需要说明的是,在对第四音频信号进行处理的过程中,对第四音频信号进行处理得到的第六音频信号的能量可能会非常小,从而使得扩散场噪声不平稳。因此,通过对第六音频信号进行噪声补偿,可以使对第四音频信号进行处理后得到的第五音频信号的能量更加平稳,使用户的听感更佳。
在一种可能的实现方式中,上述方法还包括:在第一时刻,麦克风采集第一音频之后,电子设备处理第一音频得到第二音频。也就是说,电子设备可以在采集到音频信号时对音频信号实时处理。
在一种可能的实现方式中,方法还包括:在响应于第二操作,停止拍摄之后,电子设备处理第一音频得到第二音频。也就是说,电子设备可以视频文件录制结束时,从视频文件中获取声音信号。然后,对该声音信号按照时间先后顺序一帧一帧处理。
第二方面,本申请实施例提供一种声音信号处理方法。该方法应用于电子设备。该方法包括:电子设备获取第一声音信号。第一声音信号为录制视频的声音信号。电子设备对第一声音信号进行处理,得到第二声音信号。电子设备在播放录制的视频文件时,输出第二声音信号。其中,第二声音信号中非目标方位的声音信号的能量低于第一声音信号中非目标方位的声音信号的能量。非目标方位为录制视频时摄像头的视场角范围外的方位。
一般而言,用户在使用电子设备录制视频时,电子设备通过麦克风会采集到电子设备周围的声音信号。例如,电子设备会采集到录制视频时摄像头的视场角范围内的声音信号,电子设备也会采集到录制视频时摄像头的视场角范围外的声音信号,电子设备还会采集到环境噪声。
在本申请实施例中,电子设备可以对录制视频的声音信号(如麦克风采集到的声音信号)进行处理,抑制该声音信号中的非目标方位的声音信号,使播放录制的视频文件时,输出的第二声音信号中非目标方位的声音信号的能量,低于第一声音信号中非目标方位的声音信号的能量,以减少录制视频的声音信号中的干扰声音信号,提高录制视频的声音信号的质量。
在一种可能的实现方式中,电子设备获取第一声音信号,包括:电子设备响应于第一操作,通过麦克风实时采集第一声音信号。其中,第一操作用于触发电子设备开始录像或者开始直播。
例如,电子设备可以在启动相机的录像功能并开始录像时,通过麦克风实时采集第一声音信号。又例如,电子设备可以在启动直播应用(如抖音、快手)开始视频直播时,通过麦克风实时采集声音信号。在录像或直播的过程中,电子设备每采集一帧声音信号,便处理一帧声音信号。
在一种可能的实现方式中,在电子设备获取第一声音信号之前,上述方法还包括:电子设备录制视频文件。电子设备获取第一声音信号,包括:电子设备响应于视频文件录制结束,从视频文件中获取第一声音信号。
例如,电子设备可以视频文件录制结束时,从视频文件中获取声音信号。然后,对该声音信号按照时间先后顺序一帧一帧处理。
在一种可能的实现方式中,电子设备获取第一声音信号,包括:电子设备响应于第二操作,从电子设备保存的视频文件中获取第一声音信号。其中,第二操作用于触发电子设备处理视频文件提升视频文件的音质。
例如,电子设备对电子设备本地保存的视频文件中的声音进行处理,当电子设备检测到用户指示处理上述视频文件时(如点击视频文件操作界面中的“去噪处理”选项按钮),电子设备开始获取视频文件的声音信号。并且,对该声音信号按照时间先后顺序一帧一帧处理。
在一种可能的实现方式中,第一声音信号包括多个时频语音信号。电子设备对第一声音信号进行处理,得到第二声音信号,包括:电子设备识别第一声音信号中各个时频语音信号的方位。若第一声音信号中第一时频语音信号的方位为非目标方位,电子设备则降低第一时频语音信号的能量,得到第二声音信号。第一时频语音信号为第一声音信号中多个时频语音信号中的任意一个。
在一种可能的实现方式中,第一声音信号包括多个时频语音信号。电子设备对第一声音信号进行处理,得到第二声音信号,包括:电子设备计算第一声音信号中各个时频语音信号在目标方位内的概率。其中,目标方位为录制视频时摄像头的视场角范围内的方位。电子设备根据第一声音信号中第二时频语音信号在目标方位内的概率,确定第二时频语音信号的增益;其中,第二时频语音信号为第一声音信号中多个时频语音信号中的任意一个;若第二时频语音信号在目标方位内的概率大于预设概率阈值,则第二时频语音信号的增益等于1;若第二时频语音信号在目标方位内的概率小于或等于预设概率阈值,则第二时频语音信号的增益小于1。电子设备根据第一声音信号中每个时频语音信号和对应的增益,得到第二声音信号。
在一种可能的实现方式中,第二声音信号中扩散场噪声的能量低于第一声音信号中扩散场噪声的能量。应理解,通过降低第一声音信号中的非目标方位的声音信号的能量,并不能够降低所有的扩散场噪声。为了保证录制视频的声音信号质量,还需要降低扩散场噪声,以提高录制视频的声音信号的信噪比。
在一种可能的实现方式中,第一声音信号包括多个时频语音信号。电子设备对第一声音信号进行处理,得到第二声音信号,包括:所电子设备识别第一声音信号中各个时频语音信号是否为扩散场噪声。若第一声音信号中第三时频语音信号为扩散场噪声,则电子设备降低第三时频语音信号的能量,得到第二声音信号。第三时频语音信号为第一声音信号中多个时频语音信号中的任意一个。
在一种可能的实现方式中,第一声音信号包括多个时频语音信号。电子设备对第一声音信号进行处理,得到第二声音信号,还包括:电子设备识别第一声音信号中各个时频语音信号是否为扩散场噪声。电子设备根据第一声音信号中的第四时频语音信号是否为扩散场噪声,确定第四时频语音信号的增益;其中,第四时频语音信号为第一声音信号中多个时频语音信号中的任意一个;若第四时频语音信号为扩散场噪声,则第四时频语音信号的增益小于1;若第四时频语音信号为相干信号,则第四时频语音信号的增益等于1。电子设备根据第一声音信号中每个时频语音信号和对应的增益,得到第二声音信号。
在一种可能的实现方式中,第一声音信号包括多个时频语音信号;电子设备对第一声音信号进行处理得到第二声音信号,还包括:电子设备计算第一声音信号中各个时频语音信号在目标方位内的概率;其中,目标方位为录制视频时摄像头的视场角范围内的方位。电子设备识别第一声音信号中各个时频语音信号是否为扩散场噪声。电子设备根据第一声音信号中第五时频语音信号在目标方位内的概率,以及第五时频语音信号是否为扩散场噪声,确定第五时频语音信号的增益;其中,第五时频语音信号为第一声音信号中多个时频语音信号中的任意一个;若第五时频语音信号在目标方位内的概率大于预设概率阈值,且第五时频语音信号为相干信号,则第五时频语音信号的增益等于1;若第五时频语音信号在目标方位内的概率大于预设概率阈值,且第五时频语音信号为扩散场噪声,则第五时频语音信号的增益小于1;若第五时频语音信号在目标方位内的概率小于或等于预设概率阈值,则第五时频语音信号的增益小于1。电子设备根据第一声音信号中每个时频语音信号和对应的增益,得到第二声音信号。
在一种可能的实现方式中,电子设备根据第一声音信号中第五时频语音信号在目标方位内的概率,以及第五时频语音信号是否为扩散场噪声,确定第五时频语音信号的增益,包括:电子设备根据第五时频语音信号在目标方位内的概率,确定第五时频语音信号的第一增益;其中,若第五时频语音信号在目标方位内的概率大于预设概率阈值,则第五时频语音信号的第一增益等于1;若第五时频语音信号在目标方位内的概率小于或等于预设概率阈值,则第五时频语音信号的第一增益小于1。电子设备根据第五时频语音信号是否为扩散场噪声,确定第五时频语音信号的第二增益;其中,若第五时频语音信号为扩散场噪声,则第五时频语音信号的第二增益小于1;若第五时频语音信号为相干信号,则第五时频语音信号的第二增益等于1。电子设备根据第五时频语音信号的第一增益和第二增益,确定第五时频语音信号的增益;其中,第五时频语音信号的增益为第五时频语音信号的第一增益和第二增益的乘积。
在一种可能的实现方式中,若第五时频语音信号为扩散场噪声,且第五时频语音信号的第一增益和第二增益的乘积小于预设增益值,则第五时频语音信号的增益等于预设增益值。
第三方面,本申请实施例提供一种电子设备。该电子设备包括:麦克风;摄像头;一个或多个处理器;存储器;通信模块。其中,麦克风用于采集录像或直播时的声音信号;摄像头用于采集录像或直播时的图像信号。通信模块用于与外接设备通信。存储器中存储有一个或多个计算机程序,一个或多个计算机程序包括指令。当指令被处理器执行时,使得电子设备执行如第一方面及其任一种可能的实现方式所述的方法。
第四方面,本申请实施例提供一种芯片系统,该芯片系统应用于包括电子设备。该芯片系统包括一个或多个接口电路和一个或多个处理器。该接口电路和处理器通过线路互联。该接口电路用于从电子设备的存储器接收信号,并向处理器发送该信号,该信号包括存储器中存储的计算机指令。当处理器执行所述计算机指令时,电子设备执行如第一方面及其任一种可能的实现方式所述的方法。
第五方面,本申请实施例提供一种计算机存储介质,该计算机存储介质包括计算机指令,当所述计算机指令在可折叠的电子设备上运行时,使得所述电子设备执行如第一方面及其任一种可能的实现方式所述的方法。
第六方面,本申请实施例提供一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如第一方面及其任一种可能的设计方式所述的方法。
可以理解地,上述提供的第三方面所述的电子设备,第四方面所述的芯片系统,第五方面所述的计算机存储介质,第六方面所述的计算机程序产品所能达到的有益效果,可参考如第一方面及其任一种可能的实现方式中的有益效果,此处不再赘述。
附图说明
图1为本申请实施例提供的声音信号处理方法的应用场景图;
图2为本申请实施例提供的一种电子设备的结构示意图;
图3为本申请实施例提供的一种电子设备的麦克风位置示意图;
图4为本申请实施例提供的声音信号处理方法的流程图一;
图5为本申请实施例提供的一种电子设备的麦克风采集的时域声音信号转换为频域声音信号的对比示意图;
图6为本申请实施例中涉及的频域声音信号的语音帧与频点的对应关系图;
图7为本申请实施例提供的声音信号处理方法的流程图二;
图8为本申请实施例提供的声音信号处理方法中涉及的声音信号的场景图一;
图9为本申请实施例提供的第n帧语音在36个方位的概率分布图;
图10为本申请实施例提供的声音信号处理方法中涉及的声音信号的场景图二;
图11为本申请实施例执行图7所示的方法前后的语音频谱图;
图12为本申请实施例提供的声音信号处理方法的流程图三;
图13为本申请实施例提供的声音信号处理方法的流程图四;
图14为本申请实施例提供的声音信号处理方法中涉及的声音信号的场景图三;
图15为本申请实施例提供的声音信号处理方法中涉及的声音信号的场景图四;
图16为本申请实施例执行图7和图13所示的方法的对比语音频谱图;
图17为本申请实施例提供的声音信号处理方法的流程图五;
图18为本申请实施例提供的声音信号处理方法中涉及的声音信号的场景图五;
图19为本申请实施例执行图13和图17所示的方法的对比语音频谱图;
图20为本申请实施例提供的声音信号处理方法的流程图五;
图21A为本申请实施例提供的声音信号处理方法涉及的界面图一;
图21B为本申请实施例提供的声音信号处理方法的场景图一;
图22为本申请实施例提供的声音信号处理方法的流程图六;
图23为本申请实施例提供的声音信号处理方法的流程图七;
图24为本申请实施例提供的声音信号处理方法涉及的界面图二;
图25为本申请实施例提供的声音信号处理方法的场景图二;
图26为本申请实施例提供的声音信号处理方法的流程图八;
图27为本申请实施例提供的声音信号处理方法涉及的界面图三;
图28为本申请实施例提供的声音信号处理方法涉及的界面图四;
图29为本申请实施例提供的声音信号处理方法涉及的界面图五;
图30为本申请实施例提供的声音信号处理方法涉及的界面图六;
图31为本申请实施例提供的一种芯片系统的结构示意图。
具体实施方式
为了便于理解,示例性的给出了部分与本申请实施例相关概念的说明以供参考。如下所示:
目标对象:在摄像头(如前置摄像头)的视野范围内的对象,如人物、动物等。其中,摄像头的视野范围由摄像头的视场角(field of vie,FOV)决定。摄像头的FOV越大,摄像头的视野范围则越大。
非目标对象:不在摄像头的视野范围内的对象。以前置摄像头为例,手机背面的对象则为非目标对象。
扩散场噪声:在视频录制或音频录制的过程中,目标对象或非目标对象发出的声音会经过墙面、地面或天花板等反射形成的声音。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
目前,随着短视频、直播社交软件(如快手、抖音等应用)的发展,电子设备的录像功能已成为人们经常使用的功能,能够录制高质量的视频文件的电子设备成为了需求。
现有的电子设备在录制视频时会采集电子设备周围的声音信号,但是有一些声音信号属于干扰信号,并不是用户想要的,例如电子设备在使用摄像头(如前置摄像头或后置摄像头)录制拍摄视频时,电子设备会采集到摄像头的视场角FOV内的目标对象的声音,也会采集到摄像头的视场角FOV外的非目标对象的声音,还会采集到一些环境噪声。在此情况下,非目标对象的声音便可能成为了干扰对象,影响电子设备录制的视频的声音质量。
以前置摄像头录像为例,通常情况下,电子设备的前置摄像头用于方便用户自拍录制短视频或小视频。如图1所示,用户在使用电子设备的前置摄像头自拍录制短视频时,电子设备的背面可能会存在小朋友在玩耍(即图1中的非目标对象1)。在用户(即图1中的目标对象)的同侧,也可能会存在其他对象,例如小狗在叫,又例如小女孩在唱歌跳舞(即图1中的非目标对象2)。因此,电子设备在录制拍摄的过程中,不可避免地会录制到非目标对象1或非目标对象2的声音。然而,对于用户来说,用户更期望录制的短视频能够突出自己的声音(即目标对象的声音),抑制非自己的声音,例如图1中非目标对象1和非目标对象2发出的声音。
此外,由于拍摄环境的影响,在电子设备拍摄的过程中,电子设备录制的短视频中可能会存在很多由环境引起的噪声,如图1所示的扩散场噪声1和扩散场噪声2,从而使得电子设备录制的短视频存在较大且刺耳的噪声,对目标对象的声音产生干扰,影响录制的短视频的声音质量。
为解决上述问题,本申请实施例提供了一种声音信号处理方法,可以应用于电子设备,能够抑制自拍录像时非镜头内的语音,提升自拍语音的信噪比。以图1所示的录像拍摄场景为例,本申请实施例提供的声音信号处理方法可以去除非目标对象1和非目标对象2的声音,保留目标对象的声音,并且还可以降低扩散场噪声1和扩散场噪声2对目标对象的声音的影响,从而提高录像后目标对象的音频信号的信噪比,平滑背景噪声,使用户听感更佳。
本申请实施例提供的声音信号处理方法,可以用于电子设备的前置摄像头的录像拍摄,也可以用于电子设备的后置摄像头的录像拍摄。该电子设备可以是手机、平板电脑、可穿戴设备(例如智能手表)、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personalcomputer,UMPC)、上网本或个人数字助理(personal digital assistant,PDA)等移动终端,也可以是专业的相机等设备,本申请实施例对电子设备的具体类型不作任何限制。
示例性的,图2示出了电子设备100的一种结构示意图。电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。在本申请的实施例中,显示屏194可以用于显示拍摄模式下的预览界面和拍摄界面等。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
此外,摄像头193还可以包括用于测量待拍摄对象的物距的深度摄像,以及其他摄像头。例如,深度摄像头可以包括三维(3dimensions,3D)深感摄像头、飞行时间(time offlight,TOF)深度摄像头或双目深度摄像头等。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
内部存储器121可以用于存储计算机可执行程序代码,可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。在另一些实施例中,处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,来使得电子设备100执行本申请实施例中提供的方法,以及各种功能应用和数据处理。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话、发送语音信息或录制音视频文件时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置一个或多个麦克风170C,例如,电子设备100可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源方向,实现定向录音功能以及抑制非目标方向的声音等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称触控屏。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
可以理解的是,本申请实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
下面以电子设备为手机300,并且以电子设备的前置摄像头录制拍摄为例,对本申请实施例提供的声音信号处理方法进行详细说明。
示例性地,如图3所示,手机300中设置有三个麦克风,分别为顶麦301、底麦302和背麦303,用于在用户拨打电话、录制音视频文件时采集用户的声音信号。在手机录音或录制视频的过程中,顶麦301、底麦302和背麦303分别采集用户所处的录制环境的声音信号(包括目标对象的声音、非目标对象的声音,以及环境产生的噪声)。例如,当手机300以图3所示的方向录制视频采集音频时,顶麦301可以采集左声道声音信号,底麦302可以采集右声道声音信号。相反地,当手机300在图3所示的方向旋转180度之后录制视频采集音频时,顶麦301可以采集右声道语音信号,底麦302可以采集左声道语音信号。对此,手机300中的三个麦克风分别采集哪个声道的语音信号,可以依使用场景的不同而不同,本申请实施例中的上述描述仅仅为示意,不构成限定。
此外,背麦303采集的声音信号可以与顶麦301以及底麦302采集的声音信号结合,用于确定手机采集的声音信号的方位。
以图1所示的录像拍摄场景为例,手机300通过图3所示的三个麦克风(即顶麦301、底麦302和背麦303)可以采集到目标对象的声音、非目标对象1的声音、非目标对象2的声音,以及上述目标对象、非目标对象的声音经过环境的反射形成的扩散场噪声1和扩散场噪声2等。
应理解,在图1所示录像拍摄场景中,用户主要的拍摄对象为自己(例如,图1所示的目标对象),因此用户在录像拍摄过程中并不希望采集到非目标对象(如图1所示的非目标对象1和非目标对象2)的声音。本申请实施例中的声音信号处理方法,可以使手机对采集到的声音信号进行处理,抑制非目标对象的声音信号,突出目标对象的声音,提高拍摄的视频中声音的质量。
在一些实施例中,如图4所示,本申请实施例提供的一种声音信号处理方法包括:
400、手机获取声音信号。
示例性地,用户在进行录像拍摄的过程中,手机可以通过如图3所示的三个麦克风(即顶麦301、底麦302和背麦303)采集声音信号。以下实施例中,声音信号也可以称为音频信号。
通常情况下,如图5中的(a)所示,麦克风采集的声音信号是时域信号,用于表征声音信号的幅度随时间的变化情况。为了便于对麦克风采集的声音信号进行分析和处理。麦克风采集的声音信号可以通过傅里叶变换,如快速傅里叶变换(fast Fourier transform,FFT)或离散傅里叶变换(discrete Fourier transform,DFT)变换,转换为频域信号,例如图5中的(b)所示。在图5中的(a)中,时域信号采用时间/幅度表示,其中横坐标为采样时间,纵坐标为声音信号的幅度。上述图5中的(a)所示的声音信号经过FFT或DFT变换后,可以转换为如图5中的(b)所示的语音频谱图对应的频域信号。在该语音频谱图中,横坐标为时间、纵坐标为频率,横坐标与纵坐标的坐标点值为声音信号能量。例如,图5中的(b)中,时频信号位置511处的声音数据能量较高,时频信号位置512(上边的白方框,由于图中无法清晰示出,故特此解释说明)处的声音数据能量较低。
应理解,声音信号的幅值越大,则声音信号的能量越大,声音的分贝也就越高。
需要说明的是,在麦克风采集的声音信号通过FFT或DFT变换为频域信号时,会对声音信号进行分帧,并分别处理每一帧声音信号。一帧声音信号可以通过FFT或DFT变换为包括多个(如1024个、512个)频域采样点(即频点)的频域信号。如图6所示,麦克风采集的声音信号转换为1024个频点的频域信号后,可以用多个时频点来表示上述麦克风采集的声音信号。例如,图6中的一个方框代表一个时频点。图6的横坐标表示声音信号的帧数(可称为语音帧),纵坐标表示声音信号的频点。
在上述三个麦克风,即顶麦301、底麦302和背麦303分别采集的声音信号转换为频域信号后,可以用XL(t,f)表示左声道时频语音信号,即代表顶麦301采集的左声道声音信号中,不同时频点对应的声音信号。类似地,可以用XR(t,f)表示右声道时频语音信号,即代表底麦302采集的右声道声音信号中,不同时频点对应的声音信号能量;可以用X背(t,f)表示左右声道时频语音信号,即代表背麦303采集的左右声道环绕立体声音信号中,不同时频点对应的声音信号。其中,t表示声音信号的帧数(可称为语音帧),f表示声音信号的频点。
401、手机对采集的声音信号进行处理,抑制非目标方位的声音信号。
由上文描述可知,手机采集的声音信号包括目标对象的声音和非目标对象的声音。然而,非目标对象的声音并非是用户想要的,需要抑制。通常情况下,目标对象处于摄像头(如前置摄像头)的视场角内,摄像头的视场角可以作为本申请实施例的目标方位,因此上述非目标方位是指不在摄像头(如前置摄像头)的视场角内的方位。
示例性地,抑制非目标方位的声音信号,可以依次通过对声源方位概率计算和目标方位概率计算,实现声音信号的时频点增益计算。可以通过声音信号的时频点增益的大小不同,区分目标方位的声音信号和非目标方位的声音信号。如图7所示,抑制非目标方位的声音信号可以包括声源方位概率计算、目标方位概率计算和时频点增益gmask(t,f)计算三个计算过程,具体如下:
(1)声源方位概率计算
示例性地,在本申请实施例中,假设手机进行视频录制拍摄时,手机屏幕正前方的方向为0°方向,手机屏幕正后方的方向为180°方向,手机屏幕的正右方向为90°方向,手机屏幕的正左方向为270°方向。
在本申请实施例中,手机屏幕前后左右形成的360°的空间方位可以分为多个空间方位。例如,可以以10°为空间方位间隔,将360°的空间方位分为36个空间方位个数,具体如下表1。
表1 360°空间方位分为36个空间方位的方向对照表
以手机采用前置摄像头录像拍摄为例,假设手机的前置摄像头的视场角FOV的角度为[310°,50°],则目标方位为手机屏幕前后左右形成的360°空间方位中的[310°,50°]方位。手机拍摄的目标对象通常位于前置摄像头的视场角FOV的角度范围内,即位于目标方位内。抑制非目标方位的声音信号是指,抑制位于前置摄像头的视场角FOV的角度范围之外的对象的声音,例如图1所示的非目标对象1和非目标对象2。
对于环境噪声(如扩散场噪声1和扩散场噪声2)来说,环境噪声可能在目标方位内,也可能在非目标方位内。需要说明的是,扩散场噪声1和扩散场噪声2实质上可以是同一种噪声。在本申请实施例中,为了区别说明,以扩散场噪声1作为非目标方位内的环境噪声,以扩散场噪声2作为目标方位内的环境噪声。
示例性地,以图1所示的拍摄场景为例,如图8所示为目标对象、非目标对象1、非目标对象2、扩散场噪声1和扩散场噪声2所在的空间方位示意图。例如,目标对象的空间方位大约为340°方向,非目标对象1的空间方位大约为150°方向,非目标对象2的空间方位大约为60°方向,扩散场噪声1的空间方位大约为230°方向,扩散场噪声2的空间方位大约为30°方向。
手机在录制拍摄目标对象时,麦克风(如图3中的顶麦301、底麦302和背麦303)会采集到目标对象的声音、非目标对象(如非目标对象1和非目标对象2)以及环境噪声(如扩散场噪声1和扩散场噪声2)。采集的声音信号可以通过FFT或DFT转换为频域信号(下文统称为时频语音信号),分别为左声道时频语音信号XL(t,f)、右声道时频语音信号XR(t,f)和背部混合声道时频语音信号X背(t,f)。
三个麦克采集的时频语音信号XL(t,f)、XR(t,f)和X背(t,f),可以合成为一个时频语音信号X(t,f)。时频语音信号X(t,f)可以输入至声源方位概率计算模型,计算得到输入的时频语音信号在各方位存在的概率Pk(t,f)。其中,t代表声音的帧数(即语音帧),f代表频点,k为空间方位序号。声源方位概率计算模型用于计算声源的方位概率,例如,声源方位概率计算模型可以为复角中心高斯混合模型(Complex Angular Central GaussianMixture Model,cACGMM)。以空间方位个数K为36为例,1≤k≤36,且也就是说,在同一帧、同一频点上声音信号在36个方位存在的概率总和为1。如图9所示,为第n帧声音信号中1024个频点对应的声音信号在36个空间方位上存在的概率示意图。图9中,每一个小方框代表第n帧语音信号中某一个频点对应的声音信号,在某一个空间方位上的概率。图9中的虚线框中表示第n帧语音信号中的频点3对应的声音信号在36个空间方位上的概率总和为1。
示例性地,假设手机的前置摄像头的视场角FOV为[310°,50°],因目标对象属于手机想要录制拍摄的对象,因此目标对象通常均位于前置摄像头的视场角FOV内。这样一来,目标对象的声音信号来自[310°,50°]方位的概率最大,具体的概率分布可以为表2中的示例。
表2目标对象的音源在36个空间方位的概率分布
对于非目标对象(如非目标对象1或非目标对象2)来说,通常情况下,非目标对象出现在前置摄像头的视场角FOV的概率较小,可能会低于0.5,甚至为0。
对于环境噪声(如扩散场噪声1和扩散场噪声2)来说,由于扩散场噪声1为非目标方位内的环境噪声,因此扩散场噪声1出现在前置摄像头的视场角FOV的概率小,可能会低于0.5,甚至为0。由于扩散场噪声2为目标方位内的环境噪声,因此扩散场噪声2出现在前置摄像头的视场角FOV的概率较大,可能会高于0.8,甚至为1。
应理解,上述关于目标对象、非目标对象以及环境噪声在目标方位出现的概率均为举例,并不对本申请实施例构成限定。
(2)目标方位概率计算
目标方位概率计算是指:上述时频语音信号在目标方位内的各方位存在的概率总和,也可以称为目标方位的空间聚类概率。因此,上述时频语音信号在目标方位的空间聚类概率P(t,f)可以通过如下公式(一)进行计算:
其中,k1~k2为目标方位的角度索引,也可以为目标方位的空间方位序号。Pk(t,f)为当前时频语音信号在k方位上存在的概率;P(t,f)为当前时频语音信号在目标方位存在的概率总和。
示例性地,依然以手机屏幕的正前方为0°方向,手机的前置摄像头的视场角FOV为[310°,50°],即目标方位为[310°,50°]为例。
对于目标对象,以上述表2所示的目标对象的声音在36个空间方位的概率分布为例,k1~k2分别为序号32、33、34、35、36、1、2、3、4、5、6对应的概率,因此目标对象的时频语音信号在目标方向存在的概率总和P(t,f)为0.4+0.3+0.3=1。
类似计算方法,可以计算非目标对象的时频语音信号在目标方位存在的概率总和P(t,f),也可以计算环境噪声(如扩散场噪声1和扩散场噪声2)的视频语音信号在目标方位存在的概率总和P(t,f)。
对于非目标对象,非目标对象的时频语音信号在目标方位存在的概率总和P(t,f)可能小于0.5,甚至为0。
对于环境噪声,如扩散场噪声1,扩散场噪声1为非目标方位内的环境噪声,扩散场噪声1的时频语音信号在目标方位存在的概率较小,因此扩散场噪声1的时频语音信号在目标方位存在的概率总和P(t,f)可能小于0.5,甚至为0。
对于环境噪声,如扩散场噪声2,扩散场噪声2为目标方位内的环境噪声,扩散场噪声2的时频语音信号在目标方位存在的概率较大,因此扩散场噪声2的时频语音信号在目标方位存在的概率总和P(t,f)可能大于0.8,甚至为1。
(3)时频点增益gmask(t,f)计算
由上文描述可知,抑制非目标方位的声音信号的主要目的是要保留目标对象的声音信号,并且抑制非目标对象的声音信号。通常情况下,目标对象均处于前置摄像头的视场角FOV内,因此目标对象的声音信号大都来自于目标方位,即目标对象的声音出现在目标方位的概率通常较大。相反地,对于非目标对象,非目标对象通常都不会处于前置摄像头的视场角FOV内,因此非目标对象的声音信号大都来自于非目标方位,即非目标对象的声音出现在目标方位的概率通常较小。
基于此,可以通过上述目标方位聚类概率P(t,f)实现当前时频点增益gmask(t,f)计算,具体可参考如下公式(二):
其中,Pth为预设概率阈值,可通过参数进行配置,例如Pth设置为0.8;gmask-min为当前时频语音信号位于非目标方位时的时频点增益,可通过参数配置,例如gmask-min设置为0.2。
当当前时频语音信号在目标方位存在的概率总和P(t,f)大于概率阈值Pth时,可以认为当前时频语音信号在目标方位内,即当前时频语音信号的时频点增益gmask(t,f)=1。相应地,当时频语音信号在目标方位存在的概率总和P(t,f)小于或等于概率阈值Pth时,可以认为当前时频语音信号不在目标方位内。在此情况下,可以将设置的参数gmask-min,作为当前时频语音信号不在目标方位时的时频点增益gmask(t,f),例如gmask(t,f)=gmask-min=0.2。
如此一来,若当前时频语音信号在目标方位内,则当前时频语音信号最大可能性来自于目标对象,因此将当前时频语音信号在目标方位内时的时频点增益gmask(t,f)配置为1,能够最大程度保留目标对象的声音。若当前时频语音信号不在目标方位内,则当前时频语音信号最大可能性来自于非目标对象(如非目标对象1或非目标对象2),因此将当前时频语音信号不再目标方位内时的时频点增益gmask(t,f)配置为0.2,能够有效抑制非目标对象(如非目标对象1或非目标对象2)的声音。
应理解,对于环境噪声的时频语音信号,可能存在于目标方位内,如扩散场噪声2;也可能存在于非目标方位内,如扩散场噪声1。因此,环境噪声,如扩散场噪声2的时频语音信号的时频点增益gmask(t,f)较大可能为1;环境噪声,如扩散场噪声1的时频语音信号的时频点增益gmask(t,f)较大可能为gmask-min,如0.2。也就是说,通过上述抑制非目标对象的声音不能够抑制环境噪声的能量大小。
402、输出处理后的声音信号。
通常情况下,手机具有两个扬声器,分别为手机屏幕顶部的扬声器(下文称为扬声器1)和手机底部的扬声器(下文称为扬声器2)。其中,当手机输出音频(即声音信号)时,扬声器1可以用于输出左声道音频信号,扬声器2可以用于输出右声道音频信号。当然,当手机输出音频时,扬声器1也可以用于输出右声道音频信号,扬声器2可以用于输出左声道音频信号。对此,本申请实施例不做特殊限定。可以理解的,当电子设备仅有一个扬声器时,可以输出(左声道音频信号+右声道音频信号)/2,也可以输出左声道音频信号+右声道音频信号),还可以进行融合后进行输出,本申请不进行限定。
为使手机录制拍摄的音频信号能够被扬声器1和扬声器2输出。经过上述方法对声音信号进行处理后,输出的声音信号可以分为左声道音频输出信号YL(t,f)和右声道音频输出信号YR(t,f)。
示例性地,根据上述计算得到的各类声音信号的时频点增益gmask(t,f),并结合麦克风采集的声音输入信号,如左声道时频语音信号XL(t,f)或右声道时频语音信号XR(t,f),可以得到经过抑制非目标对象的声音处理后的声音信号,如YL(t,f)和YR(t,f)。具体地,处理后输出的声音信号YL(t,f)和YR(t,f)可以通过如下公式(三)和公式(四)分别计算:
YL(t,f)=XL(t,f)*gmask(t,f); 公式(三)
YR(t,f)=XR(t,f)*gmask(t,f)。 公式(四)
例如,对于目标对象,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量,即如图10所示的目标对象的声音信号得到完整的保留。
对于非目标对象,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量的0.2倍;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量的0.2倍,即如图10所示的非目标对象的声音信号得到有效抑制。
对于环境噪声,如处于目标方位内的扩散场噪声2,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量,即如图10所示的扩散场噪声2的声音信号并未得到抑制。
对于环境噪声,如处于非目标方位内的扩散场噪声1,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量的0.2倍;右声道音频输出信号YR(t,f)等于右声道时频语音信号XR(t,f)的能量的0.2倍,即如图10所示的扩散场噪声1的声音信号得到有效抑制。
综上所述,如图10所示,经过抑制非目标方位的声音信号中的时频点增益gmask(t,f)计算,在目标方位内的时频语音信号(如目标对象的时频语音信号,以及扩散场噪声2的时频语音信号)均得到完整保留,不在目标方位内的时频语音信号(如非目标对象1的时频语音信号、非目标对象2的时频语音信号、扩散场噪声1的时频语音信号)得到了有效抑制。例如,图11中的(a)为经过上述401处理之前的时频语音信号,图11中的(b)为经过上述401处理之后的时频语音信号。其中,图11中的(a)和图11中的(b)中的方框处为非目标方位的时频语音信号。对比图11中的(a)和图11中的(b)可以看出,经过上述401抑制非目标方位的声音信号的处理后,非目标方位的时频语音信号得到抑制,即方框内的时频语音信号的能量明显降低。
应理解,经过上述时频点增益gmask(t,f)计算输出的时频语音信号,仅仅抑制了非目标方位的时频语音信号,但对于目标方位内可能还存在环境噪声(如扩散场噪声2),使得输出的时频语音信号的环境噪声仍然较大,输出的声音信号的信噪比较小,语音信号质量较低。
基于此,在另一些实施例中,本申请实施例提供的声音信号处理方法还可以通过抑制扩散场噪声,来提高输出的语音信号的信噪比,提高语音信号的清晰度。如图12所示,本申请实施例提供的声音信号处理方法可以包括400-401、1201-1203。
1201、对采集的声音信号进行处理,抑制扩散场噪声。
在上述400采集声音信号之后,便可以执行1201对采集的声音信号进行处理,抑制扩散场噪声。示例性地,抑制扩散场噪声可以依次经过相干扩散比(coherent-to-diffusepower ratio,CDR)计算,实现抑制扩散场噪声时的时频点增益gcdr(t,f)计算。通过时频点增益gcdr(t,f)的大小不同,区分声音信号中的相干信号(如目标对象的声音信号和非目标对象的声音信号)和扩散场噪声。如图13所示,抑制扩散场噪声可以包括相干扩散比CDR计算和时频点增益gcdr(t,f)计算两个计算过程,具体如下:
(1)相干扩散比CDR计算
相干扩散比(coherent-to-diffuse power ratio,CDR)是指相干信号(即目标对象或非目标对象的语音信号)与扩散场噪声的功率比例。将上述左声道时频语音信号XL(t,f)、右声道时频语音信号XR(t,f)和背部混合声道时频语音信号X背(t,f)采用现有技术,如去混响的相干扩散功率比估计(Coherent-to-Diffuse Power Ratio Estimation forDereverberation)实现相干扩散比计算。
示例性地,在上述图1所示的拍摄场景中,对于目标对象的声音信号来说,目标对象的声音信号的相干扩散比为无穷大∞。对于非目标对象(如非目标对象1或非目标对象2)的声音信号来说,非目标对象的声音信号的相干扩散比也为无穷大∞。对于扩散场噪声(如扩散场噪声1或扩散场噪声2)来说,扩散场噪声的相干扩散比为0。
(2)时频点增益gcdr(t,f)计算
由上文描述可知,抑制扩散场噪声的主要目的是保留相干信号(如目标对象)的声音,降低扩散场噪声的能量。
示例性地,可以通过相干扩散比确定相干信号(即目标对象的声音信号、非目标对象的声音信号)的时频点增益gcdr(t,f),确定非相干信号(即扩散场噪声)的时频点增益gcdr(t,f),即通过时频点增益gcdr(t,f),区分相干信号或非相干信号。
示例性地,可以将相干信号的时频点增益gcdr(t,f)保留为1,可以使非相干信号的时频点增益gcdr(t,f)降低,如设置为0.3。这样,便能够保留目标对象的声音信号,并抑制扩散场噪声,以降低扩散场噪声的能力。
例如,可以采用如下公式(五)计算时频点增益gcdr(t,f):
其中,gcdr-min为抑制扩散场噪声后的最小增益,可通过参数配置,例如可以设置gcdr-min为0.3。gcdr(t,f)为抑制扩散场噪声后的时频点增益。μ为过估因子,可通过参数配置,例如设置μ为1。
由此可见,如图14所示,经过时频点增益gcdr(t,f)计算,相干信号(如目标对象的声音信号和非目标对象的声音信号)的时频点增益gcdr(t,f)为1,则能够完整保留相干信号。然而,经过时频点增益gcdr(t,f)计算,扩散场噪声(如扩散场噪声1和扩散场噪声2)的时频点增益gcdr(t,f)为0.3,因此扩散场噪声得到了有效的抑制,即扩散场噪声的能量相比处理之前具有明显地降低。
1202、将抑制非目标方位的声音和抑制扩散场噪声进行融合处理。
应理解,上述401中抑制非目标方位的声音信号的主要目的在于保留目标对象的声音信号,抑制非目标对象的声音信号。上述1201中抑制扩散场噪声的主要目的在于抑制扩散场噪声,保护相干信号(即目标对象或非目标对象的声音信号)。因而,如图12或图13所示的声音信号处理方法中,在执行1201抑制扩散场噪声之后,可以将上述401抑制非目标方位的声音信号得到的时频点增益gmask(t,f),以及上述1201抑制扩散场噪声得到的时频点增益gcdr(t,f)进行融合计算,可以得到融合增益gmix(t,f)。根据融合后的增益gmix(t,f)对输入的时频语音信号进行处理,可以得到清晰的目标对象的时频语音信号,降低了扩散场噪声的能量,提高音频(声音)信号的信噪比。
示例性地,可以采用如下公式(六)进行融合增益gmix(t,f)计算:
gmix(t,f)=gmask(t,f)*gcdr(t,f); 公式(六)
其中,gmix(t,f)为增益融合计算之后的混合增益。
示例性地,依然以上述图1所示的拍摄场景为例,分别对目标对象的时频点信号、非目标对象(如非目标对象1和非目标对象2)的时频语音信号、以及扩散场噪声1的时频语音信号、扩散场噪声2的时频语音信号进行增益融合后的融合增益gmix(t,f)进行计算。
例如:
目标对象的时频语音信号:gmask(t,f)=1,gcdr(t,f)=1,则gmix(t,f)=1;
非目标对象的时频语音信号:gmask(t,f)=0.2,gcdr(t,f)=1,则gmix(t,f)=0.2;
扩散场噪声1的时频语音信号:gmask(t,f)=0.2,gcdr(t,f)=0.3,则gmix(t,f)=0.06;
扩散场噪声2的时频语音信号:gmask(t,f)=1,gcdr(t,f)=0.3,则gmix(t,f)=0.3。
由上述融合增益gmix(t,f)计算可知,通过对上述抑制非目标方位的声音信号得到的时频点增益gmask(t,f),以及上述抑制扩散场噪声得到的时频点增益gcdr(t,f)进行融合计算,可以将能量较大的扩散场噪声进行抑制,如扩散场噪声2。
1203,输出处理后的声音信号。
示例性地,执行上述1202中的融合增益gmix(t,f)计算之后,可以根据上述计算得到的各类声音信号的融合增益gmix(t,f),并结合麦克风采集的声音输入信号,如左声道时频语音信号XL(t,f)或右声道时频语音信号XR(t,f),可以得到经过抑制非目标对象的声音,以及抑制扩散场噪声融合处理后的声音信号,如YL(t,f)和YR(t,f)。具体地,处理后的声音信号YL(t,f)和YR(t,f)可以通过如下公式(七)和公式(八)分别计算:
YL(t,f)=XL(t,f)*gmix(t,f); 公式(七)
YR(t,f)=XR(t,f)*gmix(t,f)。 公式(八)
例如,对于目标对象,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量,即如图15所示的目标对象的声音信号得到完整的保留。
对于非目标对象,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量的0.2倍;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量的0.2倍,即如图15所示的非目标对象的声音信号得到有效抑制。
对于环境噪声,如处于目标方位内的扩散场噪声2,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量的0.3倍;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量的0.3倍,即如图15所示的扩散场噪声2的声音信号得到有效抑制。
对于环境噪声,如处于非目标方位内的扩散场噪声1,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量的0.06倍;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量的0.06倍,即如图15所示的扩散场噪声1的声音信号得到有效抑制。
综上所述,如图15所示,经过抑制非目标方位的声音信号中的时频点增益gmask(t,f)计算,在目标方位内的目标对象的时频语音信号得到完整保留,不在目标方位内的时频语音信号(如非目标对象1的时频语音信号、非目标对象2的时频语音信号、扩散场噪声1的时频语音信号)得到了有效抑制。并且位于目标方位内的扩散场噪声2的时频语音信号也得到了有效抑制,从而提高了语音信号的信噪比,提高了自拍声音的清晰度。例如,图16中的(a)为仅抑制了非目标方位的声音信号的时频语音信号,图16中的(b)为经过抑制非目标方位的声音信号与抑制扩散场噪声融合处理后得到的时频语音信号。通过对比图16中的(a)和图16中的(b),可以看出图16中的(a)所示的语音频谱图中的背景颜色稍浅,该图16中的(a)所示的语音频谱图中对应的时频语音信号的背景噪声能量较大,图16中的(b)所示的语音频谱图中的背景颜色更深,该图16中的(b)所示的语音频谱图中对应的时频语音信号的背景颜色更深,背景噪声(即扩散场噪声)的能量较小。因此,可以确定经过抑制非目标方位的声音信号与抑制扩散场噪声融合处理后,输出的声音信号的噪声能量有所降低,声音信号的信噪比具有大幅提高。
需要说明的是,在嘈杂环境下仅依靠上述1202中的融合增益gmix(t,f)计算进行目标对象的声音与非目标对象的声音的分离,会出现背景噪声(即环境噪声)不平稳的问题。例如,经过上述1202中的融合增益gmix(t,f)计算之后,扩散场噪声1和扩散场噪声2的时频语音信号的融合增益gmix(t,f)具有较大的差距,从而使得输出的音频信号的背景噪声不平稳。
为了解决经过上述处理后音频信号的背景噪声不平稳的问题,在另一些实施例中,可以对扩散场噪声进行噪声补偿,进而二次降噪处理,使音频信号的背景噪声更加平稳。如图17所示,上述声音信号处理方法可以包括400-401、1201-1202、1701-1702。
1701、对扩散场噪声进行补偿。
示例性地,在扩散场噪声补偿阶段,可以通过如下公式(九)对扩散场噪声进行补偿:
gout(t,f)=MAX(gmix(t,f),MIN(1–gcdr(t,f),gmin)) 公式(九)
其中,gmin为扩散场噪声的最小增益(即预设增益值),可通过参数配置,例如可以将gmin设置为0.3。gout(t,f)为进行扩散场噪声补偿后时频语音信号的时频点增益。
示例性地,依然以上述图1所示的拍摄场景为例,分别对目标对象的时频语音信号、非目标对象(如非目标对象1和非目标对象2)的时频语音信号、以及扩散场噪声1的时频语音信号、扩散场噪声2的时频语音信号进行扩散场噪声补偿计算,得到时频点增益gout(t,f)。
例如:
目标对象的时频语音信号:gmask(t,f)=1,gcdr(t,f)=1,gmix(t,f)=1;则gout(t,f)=1;
非目标对象的时频语音信号:gmask(t,f)=0.2,gcdr(t,f)=1,则gmix(t,f)=0.2;则gout(t,f)=0.2;
扩散场噪声1的时频语音信号:gmask(t,f)=0.2,gcdr(t,f)=0.3,则gmix(t,f)=0.06;则gout(t,f)=0.3;
扩散场噪声2的时频语音信号:gmask(t,f)=1,gcdr(t,f)=0.3,则gmix(t,f)=0.3;则gout(t,f)=0.3。
由此可见,经过扩散场噪声补偿后,扩散场噪声1的时频点增益由0.06增加至0.3,扩散场噪声2的时频点增益保持在0.3,从而可以使输出的声音信号的背景噪声(如扩散场噪声1和扩散场噪声2)更加平稳,使用户的听感更佳。
1702、输出处理后的声音信号。
与上述1203不同的是,处理后的声音信号,如左声道音频输出信号YL(t,f)和右声道音频输出信号YR(t,f),是根据扩散场噪声补偿后时频语音信号的时频点增益gout(t,f)来计算的。具体可通过如下公式(十)和公式(十一)计算:
YR(t,f)=XR(t,f)*gout(t,f); 公式(十)
YL(t,f)=XL(t,f)*gout(t,f); 公式(十一)
其中,XR(t,f)为麦克风采集的右声道时频语音信号,XL(t,f)为麦克风采集的左声道时频语音信号。
例如,对于目标对象,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量,即如图18所示的目标对象的声音信号得到完整的保留。
对于非目标对象,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量的0.2倍;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量的0.2倍,即如图18所示的非目标对象的声音信号得到有效抑制。
对于环境噪声,如处于目标方位内的扩散场噪声2,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量的0.3倍;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量的0.3倍,即如图18所示的扩散场噪声2的声音信号得到有效抑制。
对于环境噪声,如处于非目标方位内的扩散场噪声1,左声道音频输出信号YL(t,f)的能量等于左声道时频语音信号XL(t,f)的能量的0.3倍;右声道音频输出信号YR(t,f)的能量等于右声道时频语音信号XR(t,f)的能量的0.3倍,即如图18所示的扩散场噪声1的声音信号得到有效抑制。
综上所述,如图18所示,经过扩散场噪声补偿的时频点增益gout(t,f)计算,减小了扩散场噪声1和扩散场噪声2的时频点增益gout(t,f)的差距,使得输出的声音信号的背景噪声(如扩散场噪声1和扩散场噪声2)更加平稳,使用户的听感更加。例如,如图19中的(a)所示,为未经过扩散场噪声补偿处理输出的时频语音信号,图19中的(b)所示,为经过扩散场噪声补偿处理输出的时频语音信号。通过对比图19中的(a)和图19中的(b),可以看出图19中的(b)中所示的语音频谱图的背景颜色更均匀,说明背景噪声的能量更加均匀,因而,可以确定经过扩散场噪声补偿处理后,输出的声音信号的背景噪声(如扩散场噪声)更加均匀平滑,从而使用户听感更佳。
需要说明的是,经过上述图7、图13和图17所示的声音信号处理方法的处理后,得到所有的左声道音频输出信号YL(t,f)和右声道音频输出信号YR(t,f),再经过快速傅里叶逆变换(inverse Fast Fourier Transform,IFFT)或(inverse discrete Fouriertransform,IDFT),将输出的时频语音信号变化为时域幅度信号,便可以通过手机的扬声器1和扬声器2输出。
以上是对本申请实施例提供的声音信号处理方法的具体过程的介绍,以下再结合不同的应用场景对如何使用上述声音信号处理方法进行说明。
场景一:用户使用前置摄像头录像的场景。
在一些实施例中,针对上述场景一,手机每采集一帧图像数据即对采集的一帧图像数据进行处理,或者每采集一帧图像数据对应的音频数据即对采集的音频数据进行处理。示例性地,如图20所示,本申请实施例提供的一种声音信号的处理方法可以包括:
2001、手机启动前置摄像头录像功能,并启动录像。
在本申请的实施例中,用户想要使用手机进行录像拍摄时,可以启动手机的录像功能。例如,手机可以启动相机应用,或者启动具有录像功能的其他应用(比如抖音或快手等AR应用),从而启动应用的录像功能。
示例性地,手机检测到用户点击图21A中的(a)所示的相机图标2101的操作后,启动相机应用的录像功能,并显示如图21A中的(b)所示的前置摄像头录像的预览界面。再示例性地,手机显示桌面或非相机应用的界面,检测到用户打开相机应用的语音指令后启动录像功能,并显示如图21A中的(b)所示的前置摄像头录像的预览界面。
需要说明的是,手机还可以响应于用户的其他触摸操作、语音指令或快捷手势等操作启动录像功能,本申请实施例对触发手机启动录像功能的操作不作限定。
当手机显示如图21A中的(b)所示的前置摄像头录像的预览界面时,手机检测到用户点击图21A中的(b)所示的录像按钮2102的操作后,启动前置摄像头录像,并显示如图21A中的(c)所示的前置摄像头录像的录像界面,并开始录像计时。
2002、手机采集第N帧图像,并对第N帧图像进行处理。
示例性地,手机在进行视频录制的过程中,可以分为图像流和音频流。其中图像流用于采集图像数据,并分别对每一帧图像进行图像处理操作。音频流用于采集音频数据,并分别对每一帧音频数据进行拾音去噪处理。
示例性地,以第1帧图像为例,当手机采集完第1帧图像之后,手机可以对第1帧图像进行处理,如图像去噪、色调映射(tonemapping)等处理。当手机采集完第2帧图像之后,手机可以对第2帧图像进行处理。以此类推,当手机采集完第N帧图像之后,手机可以对第N帧图像进行处理。其中,N为正整数。
2003、手机采集第N帧图像对应的音频,并对第N帧图像对应的音频进行处理。
以上述图1所示的拍摄环境和拍摄对象为例,手机在如图21B中的(a)所示的视频录制界面展示的视频录制过程中,手机采集的图像数据为目标对象的图像,手机采集的音频数据不仅会包括目标对象的声音,还可能包括非目标对象(如非目标对象1和非目标对象2)的声音,以及环境噪声(如扩散场噪声1和扩散场噪声2)。
以一帧图像为30毫秒(ms),一帧音频为10毫秒,从启动录像开始帧计数,则第N帧图像对应的音频为第3N-2帧、第3N-1帧和第3N帧音频。例如,第1帧图像对应的音频为第1帧、第2帧和第3帧音频。又例如,第2帧图像对应的音频为第4帧、第5帧和第6帧音频。再例如,第10帧图像对应的音频为第28帧、第29帧和第30帧音频。
以第1帧图像对应的音频为例,手机对第1帧图像对应的音频进行处理,需要分别对第1帧音频、第2帧音频和第3帧音频进行处理。
示例性地,当采集完第1帧音频时,手机可以执行上述图7所示的声音信号处理方法,对第1帧音频进行处理,抑制非目标对象的声音,以突出目标对象的声音;或者手机可以执行上述图13所示的声音信号处理方法,抑制非目标对象的声音,以突出目标对象的声音,并且抑制扩散场噪声,以降低音频信号中的噪声能量,提高音频信号的信噪比;又或者手机可以执行上述图17所示的声音信号处理方法,抑制非目标对象的声音,以突出目标对象的声音,并且抑制扩散场噪声,以降低音频信号中的噪声能量,提高音频信号的信噪比,还能够平滑背景噪声(即环境噪声),使用户听感更佳。
类似地,当采集完第2帧音频或第3帧音频,手机也可以执行上述图7或图13或图17所示的声音信号处理方法,对音频信号进行处理。应理解,上述2003可以对应图7或图13或图17中的400步骤。
应理解,对于后续任意一帧图像对应的音频,均可以按照上述第1帧图像对应的音频处理过程进行处理,此处不再一一赘述。当然,在本申请实施例中,在对第N帧图像对应的音频进行处理时,可以每采集一帧音频即执行上述方法进行处理,也可以在第N帧图像对应的3帧音频采集完成,再分别对3帧音频中的每一帧音频进行处理,本申请实施例不做特殊限制。
2004、手机合成处理后的第N帧图像和处理后的第N帧图像对应的音频,得到第N帧视频数据。
示例性地,当第N帧图像处理完成后,并且第N帧图像对应的音频,如第3N-2帧音频、第3N-1帧和第3N帧音频也处理完成后,手机可以从图像流中获取第N帧图像,并且从音频流中获取3N-2帧音频、第3N-1帧和第3N帧音频,然后将3N-2帧音频、第3N-1帧和第3N帧音频按照时间戳顺序,同第N帧图像进行合成,合成为第N帧视频数据。
2005、结束录制时,待最后一帧图像以及最后一帧图像对应的音频处理完成,得到最后一帧视频数据后,合成第一帧视频数据至最后一帧视频数据,并保存为视频文件A。
示例性地,当手机检测到用户点击图21B中的(a)所示的结束录制按钮2103的操作后,手机响应于用户的点击操作,结束录制,并显示如图21B中的(b)所示的前置摄像头录像的预览界面。
在此过程中,手机响应于用户对结束录制按钮2103的点击操作,手机停止图像和音频的采集,并且在最后一帧图像以及最后一帧图像对应的音频处理完成,得到最后一帧时频数据后,按照时间戳顺序合成第一帧视频数据至最后一帧视频数据,并保存为视频文件A。此时,在图21B中的(b)所示的前置摄像头录像的预览界面中的预览窗2104显示的预览文件,即为视频文件A。
当手机检测到用户对图21B中的(b)所示的预览窗2104的点击操作后,手机响应于用户对预览窗2104的点击操作,可以显示如图21B中的(c)所示的视频文件播放界面,以播放视频文件A。
当手机播放视频文件A时,播放出的视频文件A的声音信号已经没有了非目标对象(如非目标对象1和非目标对象2)的声音信号,并且播放出视频文件A的声音信号中的背景噪声(如扩散场噪声1和扩散场噪声2)较小且平滑,能够给用户良好的听感。
应理解,在图21B中展示的场景为执行上述图17所示的声音信号处理方法的场景,未示出执行图7或图13所示的声音信号处理方法的场景。
需要说明的是,在上述图20所示的方法中,手机完成第N帧图像的采集和处理,以及第N帧图像对应的音频的采集和处理之后,并不将第N帧图像以及第N帧图像对应的音频合成为第N帧视频数据,可以在结束录制,且最后一帧图像以及最后一帧图像对应的音频处理完成后,再按照时间戳顺序将所有的图像以及所有的音频合成为视频文件A。
在另一些实施例中,针对上述场景一,也可以等到视频文件录制完成后,执行对视频文件中的音频数据的拾音去噪处理操作。
示例性地,如图22所示,本申请实施例提供的录像拍摄方法与上述图20所示的录像拍摄方法不同的是:手机在启动录像后,先采集完所有的图像数据和音频数据后,再对图像数据和音频数据进行处理并合成,最后保存合成的视频文件。具体地,该方法包括:
2201、手机启动前置摄像头录像功能,并启动录像。
示例性地,手机启动前置摄像头录像功能,并启动录像的方法可以参照上述2001中的描述,此处不再赘述。
2202、手机分别采集图像数据和音频数据。
示例性地,手机在进行视频录制的过程中,可以分为图像流和音频流。其中图像流用于采集视频录制过程中的多帧图像数据。音频流用于采集视频录制过程中的多帧音频数据。
例如,在图像流中,手机依次采集第1帧图像、第2帧图像,……最后1帧图像。在音频流中,手机依次采集第1帧音频、第2帧音频,……最后1帧图像。
以上述图1所示的拍摄环境和拍摄对象为例,手机在如图21B中的(a)所示的视频录制界面展示的视频录制过程中,手机采集的图像数据为目标对象的图像,手机采集的音频数据不仅会包括目标对象的声音,还可能包括非目标对象(如非目标对象1和非目标对象2)的声音,以及环境噪声(如扩散场噪声1和扩散场噪声2)。
2203、结束录制时,手机分别对采集的图像数据和音频数据进行处理。
示例性地,当手机检测到用户点击图21B中的(a)所示的结束录制按钮2103的操作后,手机响应于用户的点击操作,结束录制,并显示如图21B中的(b)所示的前置摄像头录像的预览界面。
在此过程中,手机响应于用户对结束录制按钮2103的点击操作,手机分别对采集的图像数据和采集的音频数据进行处理。
示例性地,手机可以对采集的图像数据中的每1帧图像分别进行处理,如图像去噪、色调映射(tonemapping)等处理,得到处理后的图像数据。
示例性地,手机还可以对采集的音频数据中的每1帧音频进行处理。例如,执行上述图7所示的声音信号处理方法对第一音频数据中的每1帧音频进行处理,抑制非目标对象的声音,以突出目标对象的声音。又例如,执行上述图13所示的声音信号处理方法对采集的音频数据中的每1帧音频进行处理,抑制非目标对象的声音,以突出目标对象的声音,并且抑制扩散场噪声,以降低音频信号中的噪声能量,提高音频信号的信噪比。再例如,执行上述图17所示的声音信号处理方法对采集的音频数据中的每1帧音频进行处理,抑制非目标对象的声音,以突出目标对象的声音,并且抑制扩散场噪声,以降低音频信号中的噪声能量,提高音频信号的信噪比,还能够平滑背景噪声(即环境噪声),使用户听感更佳。
手机对采集的音频数据中的每1帧音频均处理完成后,可以得到处理后的音频数据。
应理解,上述2202和2203可以对应图7或图13或图17中的400步骤。
2204、手机合成处理后的图像数据和处理后的音频数据,得到视频文件A
应理解,处理后的图像数据和处理后的音频数据需要合成为视频文件,才能够供用户分享或播放。因此,在手机执行上述2203得到处理后的图像数据和处理后的音频数据之后,可以对处理后的图像数据和处理后的音频数据进行合成,形成视频文件A。
2205、手机保存视频文件A。
此时,手机可以保存视频文件A。示例性地,当手机检测到用户对图21B中的(b)所示的预览窗2104的点击操作后,手机响应于用户对预览窗2104的点击操作,可以显示如图21B中的(c)所示的视频文件播放界面,以播放视频文件A。
当手机播放视频文件A时,播放出的视频文件A的声音信号已经没有了非目标对象(如非目标对象1和非目标对象2)的声音信号,并且播放出视频文件A的声音信号中的背景噪声(如扩散场噪声1和扩散场噪声2)较小且平滑,能够给用户良好的听感。
场景二:用户使用前置摄像头进行直播的场景。
在该场景中,直播采集的数据会实时展示给用户观看,因此直播采集的图像和音频会实时进行处理,并将处理后的图像和音频数据及时展示给用户观看。在该场景中至少包括手机A、服务器和手机B。其中,手机A和手机B均与服务器通信。手机A可以为直播录像设备,用于录制音视频文件并传输至服务器。手机B可以为直播显示设备,用于从服务器中获取音视频文件,并在直播界面中显示音视频文件内容,以供用户观看。
示例性地,针对上述场景二,如图23所示,本申请实施例提供的一种录像拍摄方法,应用于手机A。该方法可以包括:
2301、手机A启动前置摄像头直播录像,并开启直播。
在本申请实施例中,用户想要使用手机进行直播录像时,可以启动手机中的直播应用,如抖音或快手,开启直播录像。
示例性地,以抖音应用为例,手机检测到用户点击图24中的(a)所示的开启视频直播按钮2401的操作后,启动抖音应用的视频直播功能,并显示如图24中的(b)所示的视频直播采集界面。此时,抖音应用会采集图像数据和声音数据。
2302、手机A采集第N帧图像,并对第N帧图像进行处理。
此处理过程与上述图20所示的2202类似,此处不再赘述。
2303、手机A采集第N帧图像对应的音频,并对第N帧图像对应的音频进行处理。
以上述图1所示的拍摄环境和拍摄对象为例,如图25所示,在视频直播采集界面中,手机采集的第N帧图像为目标对象的图像,手机采集的第N帧图像对应的音频中不仅会包括目标对象的声音,还可能包括非目标对象(如非目标对象1和非目标对象2)的声音,以及环境噪声(如扩散场噪声1和扩散场噪声2)。
此处理过程与上述图20所示的2203类似,此处不再赘述。
2304、手机A合成处理后的第N帧图像和处理后的第N帧图像对应的音频,得到第N帧视频数据。
此处理过程与上述图20所示的2203类似,此处不再赘述。应理解,第N帧图像和处理后的第N帧图像对应的音频,合成为第N帧视频数据时,即可展示给用户观看。
2305、手机A发送第N帧视频数据至服务器,以使手机B显示第N帧视频数据。
示例性地,当得到第N帧视频数据后,手机A可以将第N帧视频数据发送至服务器。应理解,该服务器通常为直播应用的服务器,如抖音应用的服务器。当观看直播的用户打开手机B的直播应用,如抖音应用时,手机B可以在直播显示界面显示第N帧视频,以供用户观看。
需要说明的是,经过上述2303对第N帧图像对应的音频,如第3N-2帧音频、第3N-1帧和第3N帧音频处理完成后,如图25所示,在手机B输出的第N帧视频数据中的音频信号为经过处理的音频信号,仅保留有目标对象(即直播拍摄对象)的声音。
应理解,在图25中展示的场景为执行上述图17所示的声音信号处理方法的场景,未示出执行图7或图13所示的声音信号处理方法的场景。
场景三:对手机相册中的视频文件进行拾音处理的场景。
在某些情况下,电子设备(如手机)在视频文件录制过程中不支持对录制的声音数据进行处理。为提高视频文件的声音数据的清晰度,抑制噪声信号,提高信号比。电子设备可以对保存在手机相册中的视频文件及保存的原始声音数据执行上述图7、图13或图17的声音信号处理方法,去除非目标对象的声音或去除扩散场噪声,使噪声更平稳,以使用户的听感更佳。其中,保存的原始声音数据是指录制上述手机相册中的视频文件时,手机的麦克风采集的声音数据。
示例性地,本申请实施例还提供一种拾音处理方法,用于对手机相册中的视频文件进行拾音处理。例如,如图26所示,该拾音处理方法包括:
2601、手机获取相册中的第一视频文件。
在本申请的实施例中,用户想要对手机相册中的视频文件的音频进行拾音处理,以去除非目标对象的声音或去除扩散场噪声。可以从手机的相册中选择想要处理的视频文件,以执行拾音处理。
示例性地,手机检测到用户点击图27中的(a)所示的第一视频文件的预览框2701的操作后,手机响应于用户的点击操作,显示如图27中的(b)所示的对第一视频文件的操作界面。在该操作界面中,用户可以对第一视频文件进行播放、分享、收藏、编辑或删除。
示例性地,在图27中的(b)所示的对第一视频文件的操作界面中,用户还可以对第一视频文件进行拾音去噪操作。例如,手机检测到用户点击图28中的(a)所示的“更多”选项2801的操作后,手机响应于用户的点击操作,显示如图28中的(b)所示的操作选择框2802。在操作选择框2802中设置有“去噪处理”选项按钮2803,用户可以点击“去噪处理”选项按钮2803,以对第一视频文件进行拾音去噪处理。
示例性地,手机检测到用户点击图29中的(a)所示的“去噪处理”选项按钮2803的操作后,手机响应于用户的点击操作,可以获取第一视频文件,以对第一视频文件进行拾音去噪处理。此时,手机可以显示如图29中的(b)所示的执行拾音去噪处理过程的等待界面,并在后台执行下述2602至2604,对第一视频文件进行拾音去噪处理。
2602、手机将第一视频文件分离为第一图像数据和第一音频数据。
应理解,对第一视频文件进行拾音去噪的目标是去除非目标对象的声音,抑制背景噪声(即扩散场噪声),因此手机需要将第一视频文件中的音频数据分离出来,以便对第一视频文件中的音频数据进行拾音去噪处理。
示例性地,当手机获取到第一视频文件后,可以将第一视频文件中的图像数据和音频数据分离为第一图像数据和第一音频数据。其中,第一图像数据可以为第一视频文件的图像流中第1帧到最后1帧图像的集合。第一音频数据可以为第一视频文件的音频流中第1帧音频到最后1帧音频的集合。
2603、手机对第一图像数据进行图像处理,得到第二图像数据;对第一音频数据进行处理,得到第二音频数据。
示例性地,手机可以对第一图像数据中的每1帧图像进行处理,如图像去噪、色调映射(tonemapping)等处理,得到第二图像数据。其中,第二图像数据为第一图像数据中的每1帧图像经过处理后得到的图像的集合。
示例性地,手机还可以对第一音频数据中的每1帧音频进行处理。例如,执行上述图7所示的声音信号处理方法对第一音频数据中的每1帧音频进行处理,抑制非目标对象的声音,以突出目标对象的声音。又例如,执行上述图13所示的声音信号处理方法对第一音频数据中的每1帧音频进行处理,抑制非目标对象的声音,以突出目标对象的声音,并且抑制扩散场噪声,以降低音频信号中的噪声能量,提高音频信号的信噪比。再例如,执行上述图17所示的声音信号处理方法对第一音频数据中的每1帧音频进行处理,抑制非目标对象的声音,以突出目标对象的声音,并且抑制扩散场噪声,以降低音频信号中的噪声能量,提高音频信号的信噪比,还能够平滑背景噪声(即环境噪声),使用户听感更佳。
手机对第一音频数据中的每1帧音频均处理完成后,可以得到第二音频数据。其中,第二音频数据为第一音频数据中的每一帧音频经过处理后得到的音频的集合。
应理解,上述2601至2603均可以对应图7或图13或图17中的400步骤。
2604、手机将第二图像数据和第二音频数据合成为第二视频文件。
应理解,处理完成后的第二图像数据和第二音频数据需要合成为视频文件,才能够供用户分享或播放。因此,当手机执行上述2603得到第二图像数据和第二音频数据后,可以对第二图像数据和第二音频数据进行合成,形成第二视频文件。此时,第二视频文件即为经过拾音去噪后的第一视频文件。
2605、手机保存第二视频文件。
示例性地,当手机执行2604,将第二图像数据和第二音频数据合成为第二视频文件后,拾音去噪处理已完成,手机可以显示如图30所示的文件保存选项卡3001。在文件保存选项卡3001中,可以提示用户“去噪处理完成,是否替换原有文件?”,并且设置有第一选项按钮3002和第二选项按钮3003,以供用户选择。其中,第一选项按钮3002上可以显示“是”,以指示用户将原有的第一视频文件替换为处理后的第二视频文件。第二选项按钮3003上可以显示“否”,以指示用户将处理后的第二视频文件另存,不替换第一视频文件,即第一视频文件和第二视频文件均保留。
示例性地,若手机检测到用户对图30中所示的第一选项按钮3002的点击操作,手机响应于用户对第一选项按钮3002的点击操作,将原有的第一视频文件替换为处理后的第二视频文件。若手机检测到用户对图30中所示的第二选项按钮3003的点击操作,手机响应于用户对第二选项按钮3003的点击操作,分别保存第一视频文件和第二视频文件。
可以理解的,上述实施例中未一帧图像对应一帧音频,但在某些实施例中,一帧图像对应多帧音频,或者多帧图像对应一帧音频也同样适用,例如,可以是一帧图像对应三帧音频,那么如图23中实时合成时,可以是手机合成处理后的第N帧图像和处理后的第3N-2帧、3N-1帧和第3N帧的音频,得到第N帧视频数据。
本申请实施例还提供另一种声音信号处理方法。该方法应用于电子设备,电子设备包括摄像头和麦克风。第一目标对象在摄像头的拍摄范围内,第二目标对象不在摄像头的拍摄范围内。其中,第一目标对象在摄像头的拍摄范围内,可以指第一目标对象位于摄像头的视场角的范围内。例如,第一目标对象可以为上述实施例中的目标对象。第二目标对象可以为上述实施例中的非目标对象1或非目标对象2。
该方法包括:
电子设备启动相机。
显示预览界面,预览界面包括第一控件。其中,第一控件可以是图21A中的(b)所示的录像按钮2102,也可以是图24中的(a)所示的开启视频直播按钮2401。
检测到对第一控件的第一操作。响应于第一操作,开始拍摄。其中,第一操作,可以是用户对第一控件的点击操作。
在第一时刻,显示拍摄界面,拍摄界面包括第一图像,第一图像为摄像头实时采集的图像,第一图像包括第一目标对象,第一图像不包括第二目标对象。其中,第一时刻可以是拍摄过程中的任意时刻。第一图像可以是图20、图22、图23所示的方法中的每一帧图像。第一目标对象可以是上述实施例中的目标对象。第二目标对象可以是上述实施例中的非目标对象1或非目标对象2。
在第一时刻,麦克风采集第一音频,第一音频包括第一音频信号和第二音频信号,第一音频信号对应第一目标对象,第二音频信号对应第二目标对象。以图1所示的场景为例,第一音频信号可以为目标对象的声音信号。第二音频信号可以是非目标对象1的声音信号或非目标对象2的声音信号。
检测到对拍摄界面的第一控件的第二操作。其中,拍摄界面的第一控件可以是图21B中的(a)所示的结束录制按钮2103。第二操作可以是用户对拍摄界面的第一控件的点击操作。
响应于第二操作,停止拍摄,保存第一视频,其中,第一视频的第一时刻处包括第一图像和第二音频,第二音频包括第一音频信号和第三音频信号,第三音频信号是电子设备对第二音频信号进行处理得到的,第三音频信号的能量小于第二音频信号的能量。例如,第三音频信号可以为处理后的非目标对象1的声音信号或非目标对象2的声音信号。
可选地,第一音频还可以包括第四音频信号,第四音频信号为扩散场噪声音频信号;第二音频还包括第五音频信号,第五音频信号为扩散场噪声音频信号。其中,第五音频信号是电子设备对第四音频信号进行处理得到的。第五音频信号的能量小于所述第四音频信号的能量。例如,第四音频信号可以为上述实施例中的扩散场噪声1的声音信号,或者为上述实施例中的扩散场噪声2的声音信号。第五音频信号可以是电子设备执行上述图13或图17后得到的处理后的扩散场噪声1的声音信号或者扩散场噪声2的声音信号。
可选地,第五音频信号是电子设备对第四音频信号进行处理得到的,包括:对第四音频信号进行抑制处理得到第六音频信号。例如,第六音频信号可以是执行图13得到的处理后的扩散场噪声1的声音信号。
对第六音频信号进行补偿处理得到第五音频信号。其中,第六音频信号为扩散场噪声音频信号,第六音频信号的能量小于第四音频信号,第六音频信号小于所述第五音频信号。例如,此时的第五音频信号可以是执行图17得到的处理后的扩散场噪声1的声音信号。
本申请另一些实施例提供了一种电子设备,该电子设备包括:麦克风;摄像头;一个或多个处理器;存储器;通信模块。其中,麦克风用于采集录像或直播时的声音信号;摄像头用于采集录像或直播时的图像信号。通信模块用于与外接设备通信。存储器中存储有一个或多个计算机程序,一个或多个计算机程序包括指令。当处理器执行计算机指令时,电子设备可执行上述方法实施例中手机执行的各个功能或者步骤。
本申请实施例还提供一种芯片系统。该芯片系统可以应用于可折叠的电子设备。如图31所示,该芯片系统包括至少一个处理器3101和至少一个接口电路3102。处理器3101和接口电路3102可通过线路互联。例如,接口电路3102可用于从其它装置(例如电子设备的存储器)接收信号。又例如,接口电路3102可用于向其它装置(例如处理器3101)发送信号。示例性的,接口电路3102可读取存储器中存储的指令,并将该指令发送给处理器3101。当所述指令被处理器3101执行时,可使得电子设备执行上述实施例中的各个步骤。当然,该芯片系统还可以包含其他分立器件,本申请实施例对此不作具体限定。
本申请实施例还提供一种计算机存储介质,该计算机存储介质包括计算机指令,当所述计算机指令在上述可折叠的电子设备上运行时,使得该电子设备执行上述方法实施例中手机执行的各个功能或者步骤。
本申请实施例还提供一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行上述方法实施例中手机执行的各个功能或者步骤。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请实施例各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:快闪存储器、移动硬盘、只读存储器、随机存取存储器、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请实施例的具体实施方式,但本申请实施例的保护范围并不局限于此,任何在本申请实施例揭露的技术范围内的变化或替换,都应涵盖在本申请实施例的保护范围之内。因此,本申请实施例的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种声音信号处理方法,其特征在于,应用于电子设备,所述电子设备包括摄像头和麦克风;第一目标对象在所述摄像头的拍摄范围内,第二目标对象不在所述摄像头的拍摄范围内,所述方法包括:
所述电子设备启动相机;
显示预览界面,所述预览界面包括第一控件;
检测到对所述第一控件的第一操作;
响应于所述第一操作,开始拍摄;
在第一时刻,显示拍摄界面,所述拍摄界面包括第一图像,所述第一图像为所述摄像头实时采集的图像,所述第一图像包括所述第一目标对象,所述第一图像不包括所述第二目标对象;
在所述第一时刻,所述麦克风采集第一音频,所述第一音频包括第一音频信号和第二音频信号,所述第一音频信号对应所述第一目标对象,第二音频信号对应所述第二目标对象;
检测到对所述拍摄界面的第一控件的第二操作;
响应于第二操作,停止拍摄,保存第一视频,其中,
所述第一视频的第一时刻处包括第一图像和第二音频,所述第二音频包括第一音频信号和第三音频信号,所述第三音频信号是所述电子设备对第二音频信号进行处理得到的,所述第三音频信号的能量小于所述第二音频信号的能量。
2.根据权利要求1所述的方法,其特征在于,
所述第一音频还包括第四音频信号,所述第四音频信号为扩散场噪声音频信号;
所述第二音频还包括第五音频信号,所述第五音频信号为扩散场噪声音频信号,其中,
所述第五音频信号是所述电子设备对第四音频信号进行处理得到的,所述第五音频信号的能量小于所述第四音频信号的能量。
3.根据权利要求2所述的方法,其特征在于,所述第五音频信号是所述电子设备对第四音频信号进行处理得到的,包括:
对所述第四音频信号进行抑制处理得到第六音频信号;
对所述第六音频信号进行补偿处理得到所述第五音频信号,其中,所述第六音频信号为扩散场噪声音频信号,所述第六音频信号的能量小于所述第四音频信号,所述第六音频信号小于所述第五音频信号。
4.根据权利要求2所述的方法,其特征在于,所述第五音频信号是所述电子设备对第四音频信号进行处理得到的,包括:
配置所述第四音频信号的增益小于1;
根据所述第四音频信号和所述第四音频信号的增益,得到所述第五音频信号。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述第三音频信号是所述电子设备对第二音频信号进行处理得到的,包括:
配置所述第二音频信号的增益小于1;
根据所述第二音频信号和所述第二音频信号的增益,得到所述第三音频信号。
6.根据权利要求5中任一项所述的方法,其特征在于,所述第三音频信号是所述电子设备对第二音频信号进行处理得到的,包括:
所述电子设备计算所述第二音频信号在目标方位内的概率;其中,所述目标方位为录制视频时摄像头的视场角范围内的方位;所述第一目标对象在所述目标方位内,所述第二目标对象不在所述目标方位内;
所述电子设备根据所述第二音频信号在所述目标方位内的概率,确定所述第二音频信号的增益;其中,若所述第二音频信号在所述目标方位内的概率大于预设概率阈值,则所述第二音频信号的增益等于1;若所述第二音频信号在所述目标方位内的概率小于或等于所述预设概率阈值,则所述第二音频信号的增益小于1;
所述电子设备根据所述第二音频信号和所述第二音频信号的增益,得到所述第三音频信号。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述方法还包括:
在所述第一时刻,所述麦克风采集到所述第一音频后,所述电子设备处理所述第一音频得到所述第二音频。
8.根据权利要求1-6中任一项所述的方法,其特征在于,所述方法还包括:
在响应于第二操作,停止拍摄之后,所述电子设备处理所述第一音频得到所述第二音频。
9.一种电子设备,其特征在于,所述电子设备包括:
麦克风;
摄像头;
一个或多个处理器;
存储器;
通信模块;
其中,所述麦克风用于采集录像或直播时的声音信号;所述摄像头用于采集录像或直播时的图像信号;所述通信模块用于与外接设备通信;所述存储器中存储有一个或多个计算机程序,所述一个或多个计算机程序包括指令,当所述指令被所述处理器执行时,使得所述电子设备执行如权利要求1-8中任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,其特征在于,当所述指令在电子设备上运行时,使得所述电子设备执行如权利要求1-8中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110927121.0A CN115914517A (zh) | 2021-08-12 | 2021-08-12 | 一种声音信号处理方法及电子设备 |
PCT/CN2022/095354 WO2023016053A1 (zh) | 2021-08-12 | 2022-05-26 | 一种声音信号处理方法及电子设备 |
US18/279,165 US20240144948A1 (en) | 2021-08-12 | 2022-05-26 | Sound signal processing method and electronic device |
EP22855039.8A EP4280211A4 (en) | 2021-08-12 | 2022-05-26 | SOUND SIGNAL PROCESSING METHOD AND ELECTRONIC DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110927121.0A CN115914517A (zh) | 2021-08-12 | 2021-08-12 | 一种声音信号处理方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115914517A true CN115914517A (zh) | 2023-04-04 |
Family
ID=85199808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110927121.0A Pending CN115914517A (zh) | 2021-08-12 | 2021-08-12 | 一种声音信号处理方法及电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240144948A1 (zh) |
EP (1) | EP4280211A4 (zh) |
CN (1) | CN115914517A (zh) |
WO (1) | WO2023016053A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118101988A (zh) * | 2024-04-26 | 2024-05-28 | 荣耀终端有限公司 | 一种视频处理方法、系统及电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8712076B2 (en) * | 2012-02-08 | 2014-04-29 | Dolby Laboratories Licensing Corporation | Post-processing including median filtering of noise suppression gains |
CN104699445A (zh) * | 2013-12-06 | 2015-06-10 | 华为技术有限公司 | 一种音频信息处理方法及装置 |
CN104599674A (zh) * | 2014-12-30 | 2015-05-06 | 西安乾易企业管理咨询有限公司 | 一种摄像中定向录音的系统及方法 |
WO2016183791A1 (zh) * | 2015-05-19 | 2016-11-24 | 华为技术有限公司 | 一种语音信号处理方法及装置 |
CN106653041B (zh) * | 2017-01-17 | 2020-02-14 | 北京地平线信息技术有限公司 | 音频信号处理设备、方法和电子设备 |
CN109036448B (zh) * | 2017-06-12 | 2020-04-14 | 华为技术有限公司 | 一种声音处理方法和装置 |
-
2021
- 2021-08-12 CN CN202110927121.0A patent/CN115914517A/zh active Pending
-
2022
- 2022-05-26 EP EP22855039.8A patent/EP4280211A4/en active Pending
- 2022-05-26 US US18/279,165 patent/US20240144948A1/en active Pending
- 2022-05-26 WO PCT/CN2022/095354 patent/WO2023016053A1/zh active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118101988A (zh) * | 2024-04-26 | 2024-05-28 | 荣耀终端有限公司 | 一种视频处理方法、系统及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
US20240144948A1 (en) | 2024-05-02 |
EP4280211A4 (en) | 2024-07-31 |
WO2023016053A1 (zh) | 2023-02-16 |
EP4280211A1 (en) | 2023-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111050269B (zh) | 音频处理方法和电子设备 | |
EP4099688A1 (en) | Audio processing method and device | |
JP6023779B2 (ja) | オーディオ情報処理の方法及び装置 | |
JP2023540908A (ja) | オーディオ処理方法および電子デバイス | |
CN114697812B (zh) | 声音采集方法、电子设备及系统 | |
EP3624463A1 (en) | Audio signal processing method and device, terminal and storage medium | |
WO2021114953A1 (zh) | 语音信号的采集方法、装置、电子设备以及存储介质 | |
CN114363512B (zh) | 一种视频处理的方法及相关电子设备 | |
JP2023511090A (ja) | ステレオ収音方法および装置、端末デバイス、ならびにコンピュータ可読記憶媒体 | |
CN111445901A (zh) | 音频数据获取方法、装置、电子设备及存储介质 | |
CN113744750A (zh) | 一种音频处理方法及电子设备 | |
CN113810589A (zh) | 电子设备及其视频拍摄方法和介质 | |
CN113573120B (zh) | 音频的处理方法及电子设备、芯片系统及存储介质 | |
EP4280211A1 (en) | Sound signal processing method and electronic device | |
CN114422935A (zh) | 音频处理方法、终端及计算机可读存储介质 | |
CN114466283A (zh) | 音频采集方法、装置、电子设备及外设组件方法 | |
WO2023231787A9 (zh) | 音频处理方法和装置 | |
CN114120950B (zh) | 一种人声屏蔽方法和电子设备 | |
CN116055869B (zh) | 一种视频处理方法和终端 | |
WO2023016032A1 (zh) | 一种视频处理方法及电子设备 | |
CN113395451B (zh) | 视频拍摄方法、装置、电子设备以及存储介质 | |
CN115206278A (zh) | 一种声音降噪的方法和装置 | |
CN116405774A (zh) | 视频处理方法与电子设备 | |
WO2022218271A1 (zh) | 一种视频录制方法和电子设备 | |
CN116634350B (zh) | 一种音频处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |