WO2020237855A1 - 声音分离方法、装置及计算机可读存储介质 - Google Patents

声音分离方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
WO2020237855A1
WO2020237855A1 PCT/CN2019/102199 CN2019102199W WO2020237855A1 WO 2020237855 A1 WO2020237855 A1 WO 2020237855A1 CN 2019102199 W CN2019102199 W CN 2019102199W WO 2020237855 A1 WO2020237855 A1 WO 2020237855A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
sound separation
video
video segment
model
Prior art date
Application number
PCT/CN2019/102199
Other languages
English (en)
French (fr)
Inventor
王健宗
程宁
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2020237855A1 publication Critical patent/WO2020237855A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party

Definitions

  • This application relates to the field of computer technology, and in particular to a sound separation method, device and computer-readable storage medium.
  • the present application provides a sound separation method, device, and computer-readable storage medium, the main purpose of which is to separate the target sound from the mixed sound, realize the voice enhancement of a specific target person, and at the same time weaken other noises.
  • a sound separation method which includes:
  • the present application also provides a sound separation device, the device includes a memory and a processor, the memory stores a sound separation program that can run on the processor, and the sound separation program is The processor executes the following steps:
  • the present application also provides a computer-readable storage medium with a sound separation program stored on the computer-readable storage medium, and the sound separation program can be executed by one or more processors to achieve The steps of the sound separation method as described above.
  • This application obtains original audio and video samples; divides the original audio and video samples into multiple audio and video segments, extracts the video stream and audio stream of each audio and video segment; determines the facial features in the video stream of each audio and video segment; utilizes The audio transformation compression method is used to obtain the audio features in the audio stream of each audio and video segment; through connection learning, the facial features and audio features of each audio and video segment are combined to generate the audiovisual features of each audio and video segment; The audiovisual features of each audio and video segment are used as the input of the sound separation model, and the sound separation model is trained to obtain the trained sound separation model; the target audio and video data is obtained; the target audio and video data is used as the trained The input of the sound separation model, and the output of the human audio data in the target audio and video data.
  • This application combines the audio visual signal to separate the voice in the input video, realizes the accurate mapping between the voice and the speaker, significantly improves the quality of voice separation, and purifies the audio track separated from the visual image; and through deep learning, the target sound is separated from The mixed sound is separated to generate a pure video, which realizes the voice enhancement of the specific target person, and at the same time weakens other noises.
  • FIG. 1 is a schematic flowchart of a sound separation method provided by an embodiment of this application
  • FIG. 2 is a schematic diagram of the internal structure of a sound separation device provided by an embodiment of the application.
  • FIG. 3 is a schematic diagram of modules of a sound separation program in a sound separation device provided by an embodiment of the application.
  • FIG. 1 it is a schematic flowchart of a sound separation method provided by an embodiment of this application.
  • the method can be executed by a device, and the device can be implemented by software and/or hardware.
  • the sound separation method includes:
  • the original audio and video samples include audio and video of multiple application scenarios. For example, obtain the historical audio and video files of the conference room, and select about 10,000 hours of audio and video data from them.
  • this application divides the original audio and video files into preset sizes Audio and video segments.
  • the audio and video data is cut into a plurality of segments of a preset size, such as about 3 seconds to 10 seconds in duration, in which approximately 25 frames of static images are included per second.
  • the determining the facial features in the video stream of each audio and video segment includes:
  • the facial features are extracted from the detected face images as the facial features in the video stream of each audio and video segment.
  • the training data of the face detector model may come from face data in an attendance system.
  • this application uses a large amount of face data to train the face recognition model, and the face recognition model is continuously updated and trained with the data to obtain a better face recognition effect.
  • the detected face images are extracted from the video clips, and irrelevant changes between face images, such as changes caused by illumination, are discarded.
  • the face feature extraction network model is an expanded convolutional neural network structure
  • the face feature extraction network model includes: a convolutional layer, a down-sampling layer, and a fully-linked layer, each layer has multiple feature maps.
  • the convolutional layer enhances the original signal characteristics through convolution operation, and reduces noise at the same time.
  • the down-sampling layer is based on the principle of the local correlation of the face image, sub-sampling the face image can reduce the amount of calculation while keeping the face image rotated without distortion.
  • Full link layer The loss function is fully connected, and the activation value obtained is the face feature extracted by the expanded convolutional neural network.
  • using the audio transformation compression method to obtain audio features in the audio stream of each audio and video segment includes:
  • the noise signal and pure reference signal in the audio stream of each audio and video segment are input into the trained audio feature extraction model, and the audio features in the audio stream of each audio and video segment are output.
  • the time and frequency parameters of the audio are passed into the short-time Fourier transform model, and the power-law compression is performed at the same time, the sound is separated, the noise signal and the pure reference signal data set are generated, and the dilated convolutional nerve is used
  • the network extracts audio features to ensure the accuracy of training data and better training models.
  • the facial features of each audio and video segment correspond to the audio features of each audio and video segment, so as to realize a mapping set of facial features and audio features, so as to better train the model.
  • the taking the audiovisual characteristics of each audio and video segment as the input of the sound separation model, and training the sound separation model to obtain a trained sound separation model includes:
  • the sound separation model is trained using an LSTM network and a three-layer fully linked network.
  • the training the sound separation model based on the audiovisual characteristics of each audio and video segment using an LSTM network and a three-layer fully linked network includes:
  • the first preset number of training data is sequentially input to the sound separation model, the LSTM network and the three-layer fully linked network are used to train the sound separation model, and the second preset number of training data is used to verify the trained Sound separation model;
  • a reminder message is issued to remind the user to increase the number of samples to retrain the sound separation model.
  • the target original audio and video data is acquired, and the facial features and audio features of each audio and video segment in the target original audio and video data are obtained according to the processing steps similar to the training sample, as the target audio and video data.
  • This application obtains original audio and video samples; divides the original audio and video samples into multiple audio and video segments, extracts the video stream and audio stream of each audio and video segment; determines the facial features in the video stream of each audio and video segment; utilizes
  • the audio transformation compression method obtains the audio features in the audio stream of each audio and video segment; combines the facial features and audio features of each audio and video segment through connection learning to generate the audiovisual features of each audio and video segment;
  • the audiovisual features of each audio and video segment are used as the input of the sound separation model, and the sound separation model is trained to obtain the trained sound separation model; the target audio and video data is obtained; the target audio and video data is used as the trained The input of the sound separation model, and the output of the human audio data in the target audio and video data.
  • This application combines the audio visual signal to separate the voice in the input video, realizes the accurate mapping between the voice and the speaker, significantly improves the quality of voice separation, and purifies the audio track separated from the visual image; and through deep learning, the target sound is separated from The mixed sound is separated to generate a pure video, which realizes the voice enhancement of the specific target person, and at the same time weakens other noises.
  • the application also provides a sound separation device.
  • FIG. 2 it is a schematic diagram of the internal structure of a sound separation device provided by an embodiment of this application.
  • the sound separation device 1 may be a personal computer (Personal Computer, PC), or a terminal device such as a smart phone, a tablet computer, or a portable computer.
  • the sound separation device 1 at least includes a memory 11, a processor 12, a communication bus 13, and a network interface 14.
  • the memory 11 includes at least one type of readable storage medium, and the readable storage medium includes flash memory, hard disk, multimedia card, card-type memory (for example, SD or DX memory, etc.), magnetic memory, magnetic disk, optical disk, etc.
  • the memory 11 may be an internal storage unit of the sound separation device 1 in some embodiments, such as a hard disk of the sound separation device 1.
  • the memory 11 may also be an external storage device of the sound separation device 1, for example, a plug-in hard disk equipped on the sound separation device 1, a smart media card (SMC), and a secure digital (Secure Digital, SD card, Flash Card, etc.
  • the memory 11 may also include both an internal storage unit of the sound separation device 1 and an external storage device.
  • the memory 11 can be used not only to store application software and various types of data installed in the sound separation device 1, such as the code of the sound separation program 01, etc., but also to temporarily store data that has been output or will be output.
  • the processor 12 may be a central processing unit (CPU), controller, microcontroller, microprocessor or other data processing chip in some embodiments, and is used to run the program code or processing stored in the memory 11 Data, such as execution of sound separation program 01, etc.
  • CPU central processing unit
  • controller microcontroller
  • microprocessor or other data processing chip in some embodiments, and is used to run the program code or processing stored in the memory 11 Data, such as execution of sound separation program 01, etc.
  • the communication bus 13 is used to realize the connection and communication between these components.
  • the network interface 14 may optionally include a standard wired interface and a wireless interface (such as a WI-FI interface), and is usually used to establish a communication connection between the device 1 and other electronic devices.
  • the device 1 may also include a user interface.
  • the user interface may include a display (Display) and an input unit such as a keyboard (Keyboard).
  • the optional user interface may also include a standard wired interface and a wireless interface.
  • the display may be an LED display, a liquid crystal display, a touch liquid crystal display, an organic light-emitting diode (OLED) touch device, and the like.
  • the display may also be appropriately called a display screen or a display unit, which is used to display the information processed in the sound separation device 1 and to display a visualized user interface.
  • Figure 2 only shows the sound separation device 1 with components 11-14 and the sound separation program 01.
  • Figure 1 does not constitute a limitation on the sound separation device 1, and may include Fewer or more components than shown, or some combination of components, or different component arrangement.
  • the sound separation program 01 is stored in the memory 11; when the processor 12 executes the sound separation program 01 stored in the memory 11, the following steps are implemented:
  • the original audio and video samples include audio and video of multiple application scenarios. For example, obtain the historical audio and video files of the conference room, and select about 10,000 hours of audio and video data from them.
  • the original audio and video samples are divided into multiple audio and video segments, and the video stream and audio stream of each audio and video segment are extracted.
  • this application divides the original audio and video files into preset sizes Audio and video segments.
  • the audio and video data is cut into a plurality of segments of a preset size, such as about 3 seconds to 10 seconds in duration, in which approximately 25 frames of static images are included per second.
  • the determining the facial features in the video stream of each audio and video segment includes:
  • the facial features are extracted from the detected face images as the facial features in the video stream of each audio and video segment.
  • the training data of the face detector model may come from face data in an attendance system.
  • this application uses a large amount of face data to train the face recognition model, and the face recognition model is continuously updated and trained with the data to obtain a better face recognition effect.
  • the detected face images are extracted from the video clips, and irrelevant changes between face images, such as changes caused by illumination, are discarded.
  • the face feature extraction network model is an expanded convolutional neural network structure
  • the face feature extraction network model includes: a convolutional layer, a down-sampling layer, and a fully-linked layer, each layer has multiple feature maps.
  • the convolutional layer enhances the original signal characteristics through convolution operation, and reduces noise at the same time.
  • the down-sampling layer is based on the principle of the local correlation of the face image, sub-sampling the face image can reduce the amount of calculation while keeping the face image rotated without distortion.
  • Full link layer The loss function is fully connected, and the activation value obtained is the face feature extracted by the expanded convolutional neural network.
  • the audio features in the audio stream of each audio and video segment are obtained.
  • using the audio transformation compression method to obtain audio features in the audio stream of each audio and video segment includes:
  • the noise signal and pure reference signal in the audio stream of each audio and video segment are input into the trained audio feature extraction model, and the audio features in the audio stream of each audio and video segment are output.
  • the time and frequency parameters of the audio are passed into the short-time Fourier transform model, and the power-law compression is performed at the same time, the sound is separated, the noise signal and the pure reference signal data set are generated, and the dilated convolutional nerve is used
  • the network extracts audio features to ensure the accuracy of training data and better training models.
  • the facial features of each audio and video segment correspond to the audio features of each audio and video segment, so as to realize a mapping set of facial features and audio features, so as to better train the model.
  • the audiovisual features of each audio and video segment are used as the input of the sound separation model, and the sound separation model is trained to obtain a trained sound separation model.
  • using the audiovisual features of each audio and video segment as the input of the sound separation model, and training the sound separation model to obtain a trained sound separation model includes:
  • the sound separation model is trained using an LSTM network and a three-layer fully linked network.
  • the training the sound separation model based on the audiovisual characteristics of each audio and video segment using an LSTM network and a three-layer fully linked network includes:
  • the first preset number of training data is sequentially input to the sound separation model, the LSTM network and the three-layer fully linked network are used to train the sound separation model, and the second preset number of training data is used to verify the trained Sound separation model;
  • a reminder message is issued to remind the user to increase the number of samples to retrain the sound separation model.
  • the target original audio and video data is acquired, and the facial features and audio features of each audio and video segment in the target original audio and video data are obtained according to the processing steps similar to the training sample, as the target audio and video data.
  • This application obtains original audio and video samples; divides the original audio and video samples into multiple audio and video segments, extracts the video stream and audio stream of each audio and video segment; determines the facial features in the video stream of each audio and video segment; utilizes The audio transformation compression method is used to obtain the audio features in the audio stream of each audio and video segment; through connection learning, the facial features and audio features of each audio and video segment are combined to generate the audiovisual features of each audio and video segment; The audiovisual features of each audio and video segment are used as the input of the sound separation model, and the sound separation model is trained to obtain the trained sound separation model; the target audio and video data is obtained; the target audio and video data is used as the trained The input of the sound separation model, and the output of the human audio data in the target audio and video data.
  • This application combines the audio visual signal to separate the voice in the input video, realizes the accurate mapping between the voice and the speaker, significantly improves the quality of voice separation, and purifies the audio track separated from the visual image; and through deep learning, the target sound is separated from The mixed sound is separated to generate a pure video, which realizes the voice enhancement of the specific target person, and at the same time weakens other noises.
  • the sound separation program may also be divided into one or more modules, and the one or more modules are stored in the memory 11 and are executed by one or more processors (in this embodiment, processing The module 12) is executed to complete this application.
  • the module referred to in this application refers to a series of computer program instruction segments that can complete specific functions, and is used to describe the execution process of the sound separation program in the sound separation device.
  • FIG. 3 is a schematic diagram of the program modules of the sound separation program in an embodiment of the sound separation device of this application.
  • the sound separation program can be divided into an acquisition module 10, an extraction module 20, and a determination module 30.
  • the generation module 40, the training module 50 and the output module 60 exemplarily:
  • the obtaining module 10 obtains original audio and video samples
  • the extraction module 20 divides the original audio and video samples into multiple audio and video segments, and extracts the video stream and audio stream of each audio and video segment;
  • the determining module 30 determines the facial features in the video stream of each audio and video segment
  • the obtaining module 10 uses an audio conversion compression method to obtain the audio features in the audio stream of each audio and video segment;
  • the generating module 40 combines the facial features and audio features of each audio and video segment through connection learning to generate the audiovisual features of each audio and video segment;
  • the training module 50 takes the audiovisual features of each audio and video segment as the input of the sound separation model, and trains the sound separation model to obtain a trained sound separation model;
  • the acquiring module 10 acquires target audio and video data
  • the output module 60 uses the target audio and video data as the input of the trained sound separation model, and outputs human audio data in the target audio and video data.
  • an embodiment of the present application also proposes a computer-readable storage medium with a sound separation program stored on the computer-readable storage medium, and the sound separation program can be executed by one or more processors to implement the following operations:

Abstract

本申请公开了一种声音分离方法,该方法包括:将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;确定每个音视频段的视频流中的人脸特征;利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。本申请还提出一种声音分离装置以及一种计算机可读存储介质。本申请能实现声音与说话者的准确映射,显著提高语音分离的质量。

Description

声音分离方法、装置及计算机可读存储介质
本申请要求于2019年5月30日提交中国专利局,申请号为201910466401.9、发明名称为“声音分离方法、装置及计算机可读存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及计算机技术领域,尤其涉及一种声音分离方法、装置及计算机可读存储介质。
背景技术
现有业内或产品的缺陷或不足或问题:在嘈杂的室内环境中,比如在鸡尾酒会中,同时存在着许多不同的声源,人类听觉非常容易从嘈杂的环境中专注于某一声音,自动“屏蔽”掉其他声音,而目前已有的计算机言语识别的智能系统无法准确在嘈杂环境中识别目标语句,无法加强选中人的语音,同时减弱同一时间其他人的音量,现有的系统未能解决“鸡尾酒会效应”。
发明内容
本申请提供一种声音分离方法、装置及计算机可读存储介质,其主要目的在于实现将目标声音从混杂声音中分离出来,实现了特定目标人的语音增强,同时削弱了其他杂音。
为实现上述目的,本申请提供一种声音分离方法,所述方法包括:
获取原始音视频样本;
将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;
确定每个音视频段的视频流中的人脸特征;
利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;
通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;
将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;
获取目标音视频数据;
将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
为了实现上述目的,本申请还提供一种声音分离装置,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的声音分离程序,所述声音分离程序被所述处理器执行时实现如下步骤:
获取原始音视频样本;
将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;
确定每个音视频段的视频流中的人脸特征;
利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;
通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;
将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;
获取目标音视频数据;
将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有声音分离程序,所述声音分离程序可被一个或者多个处理器执行,以实现如上所述的声音分离方法的步骤。
本申请获取原始音视频样本;将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;确定每个音视频段的视频流中的人脸特征;利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;获取目标音视频数据;将所述目标音视频数据作为所述训练好的声音分离模型的输入,输 出所述目标音视频数据中人的音频数据。本申请结合听视觉信号来分离输入视频中的语音,实现了声音与说话者的准确映射,显著提高语音分离的质量,净化了可视化图像分离出的音轨;并通过深度学习,将目标声音从混杂声音中分离出来,生成纯净的视频,实现了特定目标人的语音增强,同时削弱了其他杂音。
附图说明
图1为本申请一实施例提供的声音分离方法的流程示意图;
图2为本申请一实施例提供的声音分离装置的内部结构示意图;
图3为本申请一实施例提供的声音分离装置中声音分离程序的模块示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供一种声音分离方法。参照图1所示,为本申请一实施例提供的声音分离方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,声音分离方法包括:
S10、获取原始音视频样本。
在本实施例中,所述原始音视频样本包括多个应用场景的音视频。例如获取会议室的历史音视频文件,从中选择大约10000个小时的音视频数据。
S11、将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流。
由于音视频文件往往很大,这对数据的导入、处理、分析等操作造成效率低下、无法处理、分析等问题,为了能高效正常处理数据,本申请将原始音视频文件分割成预设大小的音视频段。将所述音视频数据切成预设大小,如大约3秒到10秒时长,的多个片段,其中,每秒包括大概25帧静态图像,。
S12、确定每个音视频段的视频流中的人脸特征。
在本实施例中,所述确定每个音视频段的视频流中的人脸特征包括:
将每个音视频段的视频流输入到人脸检测器中;
利用所述人脸检测器,在每个音视频段的视频流中的每帧中查找人脸图像;
使用人脸特征提取网络模型,从检测到的人脸图像中提取人脸特征作为每个音视频段的视频流中的人脸特征。
具体地,所述人脸检测器模型的训练数据可以来自一个考勤系统中的人脸数据。在一具体实现中本申请利用大量的人脸数据训练所述人脸识别模型,该人脸识别模型随数据的不断更新训练,可以得到较好的人脸识别效果。本案中基于该人脸识别模型从所述视频片段中提取检测到的人脸图像,并丢弃人脸图像间无关的变化,如由光照原因造成的变化等。
具体地,所述人脸特征提取网络模型为扩张卷积神经网络结构,所述人脸特征提取网络模型包括:卷积层、降采样层、全链接层,每一层有多个特征图。其中卷积层通过卷积运算,使原信号特征增强,同时降低噪音。降采样层根据人脸图像局部相关性的原理,对人脸图像进行子采样可以减少计算量,同时保持人脸图像旋转不变形。全链接层:采用损失函数全连接,得到的激活值即扩张卷积神经网络提取的人脸特征。
S13、利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征。
在本实施例中,所述利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征包括:
将每个音视频段的音频流中的时间和频率参数输入到短时傅里叶变换模型,得到变换后的信号
对变换后的信号执行幂律压缩,生成每个音视频段的音频流中噪声信号和纯净参考信号;
将每个音视频段的音频流中噪声信号和纯净参考信号输入至训练好的音频特征提取模型中,并输出每个音视频段的音频流中的音频特征。
通过上述实施例,将音频的时间和频率参数传入到短时傅里叶变换模型,同时执行幂律压缩,将声音进行分离,生成噪声信号和纯净参考信号数据集,并使用扩张卷积神经网络提取音频特征,从而保证训练数据的准确性,更好 的训练模型。
S14、通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征。
在本实施例中,每个音视频段的人脸特征对应每个音视频段的音频特征,从而实现人脸特征与音频特征的映射集,从而更好的训练模型。
S15、将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型。
在本实施例中,所述将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型包括:
基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型。
具体地,所述基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型包括:
获取第一预设数量的训练数据;
将所述第一预设数量的训练数据依次输入所述声音分离模型,利用LSTM网络及三层全链接网络训练所述声音分离模型,并利用第二预设数量的训练数据校验训练后的声音分离模型;
利用第二预设数量的训练数据校验训练后的声音分离模型,若训练后的声音分离模型的识别准确率大于或等于预设阈值,则训练完成;
若训练后的声音分离模型的识别准确率小于预设阈值,则发出提醒信息,提醒用户增加样本数量重新训练所述声音分离模型。
S16、获取目标音视频数据。
在本实施例中,获取目标原始音视频数据,按照类似于对训练样本的处理步骤得到所述目标原始音视频数据中每个音视频段的人脸特征及音频特征,作为所述目标音视频数据。
S17、将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
本申请获取原始音视频样本;将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;确定每个音视频段的视频流中的人脸特征;利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征; 通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;获取目标音视频数据;将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。本申请结合听视觉信号来分离输入视频中的语音,实现了声音与说话者的准确映射,显著提高语音分离的质量,净化了可视化图像分离出的音轨;并通过深度学习,将目标声音从混杂声音中分离出来,生成纯净的视频,实现了特定目标人的语音增强,同时削弱了其他杂音。
本申请还提供一种声音分离装置。参照图2所示,为本申请一实施例提供的声音分离装置的内部结构示意图。
在本实施例中,声音分离装置1可以是个人电脑(Personal Computer,PC),也可以是智能手机、平板电脑、便携计算机等终端设备。该声音分离装置1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是声音分离装置1的内部存储单元,例如该声音分离装置1的硬盘。存储器11在另一些实施例中也可以是声音分离装置1的外部存储设备,例如声音分离装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括声音分离装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于声音分离装置1的应用软件及各类数据,例如声音分离程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行声音分离程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该装置1与其他电子设备之间建立通信连接。
可选地,该装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在声音分离装置1中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11-14以及声音分离程序01的声音分离装置1,本领域技术人员可以理解的是,图1示出的结构并不构成对声音分离装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的装置1实施例中,存储器11中存储有声音分离程序01;处理器12执行存储器11中存储的声音分离程序01时实现如下步骤:
获取原始音视频样本。
在本实施例中,所述原始音视频样本包括多个应用场景的音视频。例如获取会议室的历史音视频文件,从中选择大约10000个小时的音视频数据。
将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流。
由于音视频文件往往很大,这对数据的导入、处理、分析等操作造成效率低下、无法处理、分析等问题,为了能高效正常处理数据,本申请将原始音视频文件分割成预设大小的音视频段。将所述音视频数据切成预设大小,如大约3秒到10秒时长,的多个片段,其中,每秒包括大概25帧静态图像,。
确定每个音视频段的视频流中的人脸特征。
在本实施例中,所述确定每个音视频段的视频流中的人脸特征包括:
将每个音视频段的视频流输入到人脸检测器中;
利用所述人脸检测器,在每个音视频段的视频流中的每帧中查找人脸图像;
使用人脸特征提取网络模型,从检测到的人脸图像中提取人脸特征作为每个音视频段的视频流中的人脸特征。
具体地,所述人脸检测器模型的训练数据可以来自一个考勤系统中的人 脸数据。在一具体实现中本申请利用大量的人脸数据训练所述人脸识别模型,该人脸识别模型随数据的不断更新训练,可以得到较好的人脸识别效果。本案中基于该人脸识别模型从所述视频片段中提取检测到的人脸图像,并丢弃人脸图像间无关的变化,如由光照原因造成的变化等。
具体地,所述人脸特征提取网络模型为扩张卷积神经网络结构,所述人脸特征提取网络模型包括:卷积层、降采样层、全链接层,每一层有多个特征图。其中卷积层通过卷积运算,使原信号特征增强,同时降低噪音。降采样层根据人脸图像局部相关性的原理,对人脸图像进行子采样可以减少计算量,同时保持人脸图像旋转不变形。全链接层:采用损失函数全连接,得到的激活值即扩张卷积神经网络提取的人脸特征。
利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征。
在本实施例中,所述利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征包括:
将每个音视频段的音频流中的时间和频率参数输入到短时傅里叶变换模型,得到变换后的信号
对变换后的信号执行幂律压缩,生成每个音视频段的音频流中噪声信号和纯净参考信号;
将每个音视频段的音频流中噪声信号和纯净参考信号输入至训练好的音频特征提取模型中,并输出每个音视频段的音频流中的音频特征。
通过上述实施例,将音频的时间和频率参数传入到短时傅里叶变换模型,同时执行幂律压缩,将声音进行分离,生成噪声信号和纯净参考信号数据集,并使用扩张卷积神经网络提取音频特征,从而保证训练数据的准确性,更好的训练模型。
通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征。
在本实施例中,每个音视频段的人脸特征对应每个音视频段的音频特征,从而实现人脸特征与音频特征的映射集,从而更好的训练模型。
将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型。
在本实施例中,所述将每个音视频段的视听特征作为声音分离模型的输 入,对所述声音分离模型进行训练,得到训练好的声音分离模型包括:
基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型。
具体地,所述基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型包括:
获取第一预设数量的训练数据;
将所述第一预设数量的训练数据依次输入所述声音分离模型,利用LSTM网络及三层全链接网络训练所述声音分离模型,并利用第二预设数量的训练数据校验训练后的声音分离模型;
利用第二预设数量的训练数据校验训练后的声音分离模型,若训练后的声音分离模型的识别准确率大于或等于预设阈值,则训练完成;
若训练后的声音分离模型的识别准确率小于预设阈值,则发出提醒信息,提醒用户增加样本数量重新训练所述声音分离模型。
获取目标音视频数据。
在本实施例中,获取目标原始音视频数据,按照类似于对训练样本的处理步骤得到所述目标原始音视频数据中每个音视频段的人脸特征及音频特征,作为所述目标音视频数据。
将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
本申请获取原始音视频样本;将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;确定每个音视频段的视频流中的人脸特征;利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;获取目标音视频数据;将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。本申请结合听视觉信号来分离输入视频中的语音,实现了声音与说话者的准确映射,显著提高语音分离的质量,净化了可视化图像分离出的音轨;并通过深度学习,将目标声音从混杂声音中分离出来,生成纯净的视频,实现了特定目标人的语音增强,同时削弱了 其他杂音。
可选地,在其他实施例中,声音分离程序还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本申请,本申请所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述声音分离程序在声音分离装置中的执行过程。
例如,参照图3所示,为本申请声音分离装置一实施例中的声音分离程序的程序模块示意图,该实施例中,声音分离程序可以被分割为获取模块10、提取模块20、确定模块30、生成模块40、训练模块50及输出模块60,示例性地:
获取模块10获取原始音视频样本;
提取模块20将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;
确定模块30确定每个音视频段的视频流中的人脸特征;
所述获取模块10利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;
生成模块40通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;
训练模块50将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;
所述获取模块10获取目标音视频数据;
输出模块60将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
上述获取模块10、提取模块20、确定模块30、生成模块40、训练模块50及输出模块60等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
此外,本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有声音分离程序,所述声音分离程序可被一个或多个处理器执行,以实现如下操作:
获取原始音视频样本;
将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;
确定每个音视频段的视频流中的人脸特征;
利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;
通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;
将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;
获取目标音视频数据;
将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
本申请计算机可读存储介质具体实施方式与上述声音分离装置和方法各实施例基本相同,在此不作累述。
需要说明的是,上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是 利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种声音分离方法,其特征在于,所述方法包括:
    获取原始音视频样本;
    将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;
    确定每个音视频段的视频流中的人脸特征;
    利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;
    通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;
    将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;
    获取目标音视频数据;
    将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
  2. 如权利要求1所述的声音分离方法,其特征在于,所述确定每个音视频段的视频流中的人脸特征包括:
    将每个音视频段的视频流输入到人脸检测器中;
    利用所述人脸检测器,在每个音视频段的视频流中的每帧中查找人脸图像;
    使用人脸特征提取网络模型,从检测到的人脸图像中提取人脸特征作为每个音视频段的视频流中的人脸特征。
  3. 如权利要求2所述的声音分离方法,其特征在于,所述人脸特征提取网络模型为扩张卷积神经网络结构,所述人脸特征提取网络模型包括:卷积层、降采样层、全链接层,每一层有多个特征图。
  4. 如权利要求1所述的声音分离方法,其特征在于,所述利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征包括:
    将每个音视频段的音频流中的时间和频率参数输入到短时傅里叶变换模型,得到变换后的信号
    对变换后的信号执行幂律压缩,生成每个音视频段的音频流中噪声信号 和纯净参考信号;
    将每个音视频段的音频流中噪声信号和纯净参考信号输入至训练好的音频特征提取模型中,并输出每个音视频段的音频流中的音频特征。
  5. 如权利要求1所述的声音分离方法,其特征在于,所述将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型包括:
    基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型。
  6. 如权利要求1所述的声音分离方法,其特征在于,所述基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型包括:
    获取第一预设数量的训练数据;
    将所述第一预设数量的训练数据依次输入所述声音分离模型,利用LSTM网络及三层全链接网络训练所述声音分离模型,并利用第二预设数量的训练数据校验训练后的声音分离模型;
    利用第二预设数量的训练数据校验训练后的声音分离模型,若训练后的声音分离模型的识别准确率大于或等于预设阈值,则训练完成;
    若训练后的声音分离模型的识别准确率小于预设阈值,则发出提醒信息,提醒用户增加样本数量重新训练所述声音分离模型。
  7. 如权利要求2-5任一项所述的声音分离方法,其特征在于,所述基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型包括:
    获取第一预设数量的训练数据;
    将所述第一预设数量的训练数据依次输入所述声音分离模型,利用LSTM网络及三层全链接网络训练所述声音分离模型,并利用第二预设数量的训练数据校验训练后的声音分离模型;
    利用第二预设数量的训练数据校验训练后的声音分离模型,若训练后的声音分离模型的识别准确率大于或等于预设阈值,则训练完成;
    若训练后的声音分离模型的识别准确率小于预设阈值,则发出提醒信息,提醒用户增加样本数量重新训练所述声音分离模型。
  8. 一种声音分离装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的声音分离程序,所述声音分离程序被所述处理器执行时实现如下步骤:
    获取原始音视频样本;
    将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;
    确定每个音视频段的视频流中的人脸特征;
    利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;
    通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;
    将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;
    获取目标音视频数据;
    将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
  9. 如权利要求8所述的声音分离装置,其特征在于,所述确定每个音视频段的视频流中的人脸特征包括:
    将每个音视频段的视频流输入到人脸检测器中;
    利用所述人脸检测器,在每个音视频段的视频流中的每帧中查找人脸图像;
    使用人脸特征提取网络模型从检测到的人脸图像中提取人脸特征作为每个音视频段的视频流中的人脸特征。
  10. 如权利要求9所述的声音分离装置,其特征在于,所述人脸特征提取网络模型为扩张卷积神经网络结构,所述人脸特征提取网络模型包括:卷积层、降采样层、全链接层,每一层有多个特征图。
  11. 如权利要求8所述的声音分离装置,其特征在于,所述利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征包括:
    将每个音视频段的音频流中的时间和频率参数输入到短时傅里叶变换模型,得到变换后的信号
    对变换后的信号执行幂律压缩,生成每个音视频段的音频流中噪声信号 和纯净参考信号;
    将每个音视频段的音频流中噪声信号和纯净参考信号输入至训练好的音频特征提取模型中,并输出每个音视频段的音频流中的音频特征。
  12. 如权利要求8所述的声音分离装置,其特征在于,所述将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型包括:
    基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型。
  13. 如权利要求8所述的声音分离装置,其特征在于,所述基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型包括:
    获取第一预设数量的训练数据;
    将所述第一预设数量的训练数据依次输入所述声音分离模型,利用LSTM网络及三层全链接网络训练所述声音分离模型,并利用第二预设数量的训练数据校验训练后的声音分离模型;
    利用第二预设数量的训练数据校验训练后的声音分离模型,若训练后的声音分离模型的识别准确率大于或等于预设阈值,则训练完成;
    若训练后的声音分离模型的识别准确率小于预设阈值,则发出提醒信息,提醒用户增加样本数量重新训练所述声音分离模型。
  14. 如权利要求9-12任一项所述的声音分离装置,其特征在于,所述基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型包括:
    获取第一预设数量的训练数据;
    将所述第一预设数量的训练数据依次输入所述声音分离模型,利用LSTM网络及三层全链接网络训练所述声音分离模型,并利用第二预设数量的训练数据校验训练后的声音分离模型;
    利用第二预设数量的训练数据校验训练后的声音分离模型,若训练后的声音分离模型的识别准确率大于或等于预设阈值,则训练完成;
    若训练后的声音分离模型的识别准确率小于预设阈值,则发出提醒信息,提醒用户增加样本数量重新训练所述声音分离模型。
  15. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有声音分离程序,所述声音分离程序可被一个或者多个处理器执行,以实现如下步骤:
    获取原始音视频样本;
    将原始音视频样本分割成多个音视频段,提取每个音视频段的视频流及音频流;
    确定每个音视频段的视频流中的人脸特征;
    利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征;
    通过连接学习将每个音视频段的人脸特征及音频特征进行结合,生成每个音视频段的视听特征;
    将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型;
    获取目标音视频数据;
    将所述目标音视频数据作为所述训练好的声音分离模型的输入,输出所述目标音视频数据中人的音频数据。
  16. 如权利要求15所述的计算机可读存储介质,其特征在于,所述确定每个音视频段的视频流中的人脸特征包括:
    将每个音视频段的视频流输入到人脸检测器中;
    利用所述人脸检测器,在每个音视频段的视频流中的每帧中查找人脸图像;
    使用人脸特征提取网络模型从检测到的人脸图像中提取人脸特征作为每个音视频段的视频流中的人脸特征。
  17. 如权利要求16所述的计算机可读存储介质,其特征在于,所述人脸特征提取网络模型为扩张卷积神经网络结构,所述人脸特征提取网络模型包括:卷积层、降采样层、全链接层,每一层有多个特征图。
  18. 如权利要求15所述的计算机可读存储介质,其特征在于,所述利用音频变换压缩方法,获取每个音视频段的音频流中的音频特征包括:
    将每个音视频段的音频流中的时间和频率参数输入到短时傅里叶变换模型,得到变换后的信号
    对变换后的信号执行幂律压缩,生成每个音视频段的音频流中噪声信号 和纯净参考信号;
    将每个音视频段的音频流中噪声信号和纯净参考信号输入至训练好的音频特征提取模型中,并输出每个音视频段的音频流中的音频特征。
  19. 如权利要求15所述的计算机可读存储介质,其特征在于,所述将每个音视频段的视听特征作为声音分离模型的输入,对所述声音分离模型进行训练,得到训练好的声音分离模型包括:
    基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型。
  20. 如权利要求15-19任一项所述的计算机可读存储介质,其特征在于,所述基于每个音视频段的视听特征,利用LSTM网络及三层全链接网络训练所述声音分离模型包括:
    获取第一预设数量的训练数据;
    将所述第一预设数量的训练数据依次输入所述声音分离模型,利用LSTM网络及三层全链接网络训练所述声音分离模型,并利用第二预设数量的训练数据校验训练后的声音分离模型;
    利用第二预设数量的训练数据校验训练后的声音分离模型,若训练后的声音分离模型的识别准确率大于或等于预设阈值,则训练完成;
    若训练后的声音分离模型的识别准确率小于预设阈值,则发出提醒信息,提醒用户增加样本数量重新训练所述声音分离模型。
PCT/CN2019/102199 2019-05-30 2019-08-23 声音分离方法、装置及计算机可读存储介质 WO2020237855A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910466401.9 2019-05-30
CN201910466401.9A CN110246512B (zh) 2019-05-30 2019-05-30 声音分离方法、装置及计算机可读存储介质

Publications (1)

Publication Number Publication Date
WO2020237855A1 true WO2020237855A1 (zh) 2020-12-03

Family

ID=67885556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/102199 WO2020237855A1 (zh) 2019-05-30 2019-08-23 声音分离方法、装置及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN110246512B (zh)
WO (1) WO2020237855A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560674A (zh) * 2020-12-15 2021-03-26 北京天泽智云科技有限公司 一种声音信号质量的检测方法及系统
CN112614512A (zh) * 2020-12-18 2021-04-06 腾讯音乐娱乐科技(深圳)有限公司 噪声检测的方法和装置
CN112990283A (zh) * 2021-03-03 2021-06-18 网易(杭州)网络有限公司 图像生成方法、装置和电子设备
CN113241091A (zh) * 2021-05-28 2021-08-10 思必驰科技股份有限公司 声音分离的增强方法及系统
CN113362864A (zh) * 2021-06-16 2021-09-07 北京字节跳动网络技术有限公司 音频信号处理的方法、装置、存储介质及电子设备
CN114598914A (zh) * 2022-02-17 2022-06-07 厦门快商通科技股份有限公司 一种基于视频的人声分离方法、终端设备及存储介质

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110765868A (zh) * 2019-09-18 2020-02-07 平安科技(深圳)有限公司 唇读模型的生成方法、装置、设备及存储介质
CN113035225B (zh) * 2019-12-09 2023-02-28 中国科学院自动化研究所 视觉声纹辅助的语音分离方法及装置
CN111028833B (zh) * 2019-12-16 2022-08-16 广州小鹏汽车科技有限公司 一种交互、车辆的交互方法、装置
CN110992978B (zh) * 2019-12-18 2022-03-29 思必驰科技股份有限公司 音视频分离模型的训练方法及系统
CN111210811B (zh) * 2019-12-31 2022-10-04 深圳市瑞讯云技术有限公司 一种基音混合方法及装置
US11790900B2 (en) 2020-04-06 2023-10-17 Hi Auto LTD. System and method for audio-visual multi-speaker speech separation with location-based selection
CN113516990A (zh) * 2020-04-10 2021-10-19 华为技术有限公司 一种语音增强方法、训练神经网络的方法以及相关设备
CN111899743A (zh) * 2020-07-31 2020-11-06 斑马网络技术有限公司 获取目标声音的方法、装置、电子设备及存储介质
CN112702659B (zh) * 2020-12-24 2023-01-31 成都新希望金融信息有限公司 视频字幕处理方法、装置、电子设备及可读存储介质
CN112927710B (zh) * 2021-01-21 2021-10-26 安徽南瑞继远电网技术有限公司 一种基于无监督方式的电力变压器工况噪声分离方法
CN113488043B (zh) * 2021-06-30 2023-03-24 上海商汤临港智能科技有限公司 乘员说话检测方法及装置、电子设备和存储介质
CN113593601A (zh) * 2021-07-27 2021-11-02 哈尔滨理工大学 基于深度学习的视听多模态语音分离方法
CN115691538A (zh) * 2021-07-29 2023-02-03 华为技术有限公司 视频处理方法及电子设备
CN113593587B (zh) * 2021-08-06 2022-07-29 宿迁硅基智能科技有限公司 语音分离方法及装置、存储介质、电子装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160284346A1 (en) * 2015-03-27 2016-09-29 Qualcomm Incorporated Deep neural net based filter prediction for audio event classification and extraction
CN107483445A (zh) * 2017-08-23 2017-12-15 百度在线网络技术(北京)有限公司 一种静默声纹识别注册方法、装置、服务器和存储介质
CN108847238A (zh) * 2018-08-06 2018-11-20 东北大学 一种新型服务机器人语音识别方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1443498B1 (en) * 2003-01-24 2008-03-19 Sony Ericsson Mobile Communications AB Noise reduction and audio-visual speech activity detection
KR100754385B1 (ko) * 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
US8635066B2 (en) * 2010-04-14 2014-01-21 T-Mobile Usa, Inc. Camera-assisted noise cancellation and speech recognition
US10497382B2 (en) * 2016-12-16 2019-12-03 Google Llc Associating faces with voices for speaker diarization within videos
CN108021864A (zh) * 2017-11-02 2018-05-11 平安科技(深圳)有限公司 人物性格分析方法、装置及存储介质
CN109522799A (zh) * 2018-10-16 2019-03-26 深圳壹账通智能科技有限公司 信息提示方法、装置、计算机设备和存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160284346A1 (en) * 2015-03-27 2016-09-29 Qualcomm Incorporated Deep neural net based filter prediction for audio event classification and extraction
CN107483445A (zh) * 2017-08-23 2017-12-15 百度在线网络技术(北京)有限公司 一种静默声纹识别注册方法、装置、服务器和存储介质
CN108847238A (zh) * 2018-08-06 2018-11-20 东北大学 一种新型服务机器人语音识别方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560674A (zh) * 2020-12-15 2021-03-26 北京天泽智云科技有限公司 一种声音信号质量的检测方法及系统
CN112560674B (zh) * 2020-12-15 2024-02-23 北京天泽智云科技有限公司 一种声音信号质量的检测方法及系统
CN112614512A (zh) * 2020-12-18 2021-04-06 腾讯音乐娱乐科技(深圳)有限公司 噪声检测的方法和装置
CN112990283A (zh) * 2021-03-03 2021-06-18 网易(杭州)网络有限公司 图像生成方法、装置和电子设备
CN113241091A (zh) * 2021-05-28 2021-08-10 思必驰科技股份有限公司 声音分离的增强方法及系统
CN113362864A (zh) * 2021-06-16 2021-09-07 北京字节跳动网络技术有限公司 音频信号处理的方法、装置、存储介质及电子设备
CN113362864B (zh) * 2021-06-16 2022-08-02 北京字节跳动网络技术有限公司 音频信号处理的方法、装置、存储介质及电子设备
CN114598914A (zh) * 2022-02-17 2022-06-07 厦门快商通科技股份有限公司 一种基于视频的人声分离方法、终端设备及存储介质

Also Published As

Publication number Publication date
CN110246512A (zh) 2019-09-17
CN110246512B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
WO2020237855A1 (zh) 声音分离方法、装置及计算机可读存储介质
US20230122905A1 (en) Audio-visual speech separation
WO2021082941A1 (zh) 视频人物识别方法、装置、存储介质与电子设备
WO2021208287A1 (zh) 用于情绪识别的语音端点检测方法、装置、电子设备及存储介质
WO2019227672A1 (zh) 说话人分离模型训练方法、两说话人分离方法及相关设备
US8983836B2 (en) Captioning using socially derived acoustic profiles
CN112088402A (zh) 用于说话者识别的联合神经网络
US20190259388A1 (en) Speech-to-text generation using video-speech matching from a primary speaker
WO2018222228A1 (en) Automated population of electronic records
CN107210045A (zh) 会议搜索以及搜索结果的回放
CN107211061A (zh) 用于空间会议回放的优化虚拟场景布局
CN112148922A (zh) 会议记录方法、装置、数据处理设备及可读存储介质
CN107211027A (zh) 感知质量比会议中原始听到的更高的后会议回放系统
CN107210034A (zh) 选择性会议摘要
EP4099709A1 (en) Data processing method and apparatus, device, and readable storage medium
CN111785279A (zh) 视频说话人的识别方法、装置、计算机设备及存储介质
CN107210036A (zh) 会议词语云
CN114465737B (zh) 一种数据处理方法、装置、计算机设备及存储介质
US11545140B2 (en) System and method for language-based service hailing
WO2020238046A1 (zh) 人声智能检测方法、装置及计算机可读存储介质
US20190199939A1 (en) Suggestion of visual effects based on detected sound patterns
WO2021120190A1 (zh) 数据处理方法、装置、电子设备和存储介质
CN110136726A (zh) 一种语音性别的估计方法、装置、系统及存储介质
US20230335148A1 (en) Speech Separation Method, Electronic Device, Chip, and Computer-Readable Storage Medium
CN111339809A (zh) 一种课堂行为分析方法及装置、电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19930827

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19930827

Country of ref document: EP

Kind code of ref document: A1