CN113707173A - 基于音频切分的语音分离方法、装置、设备及存储介质 - Google Patents
基于音频切分的语音分离方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113707173A CN113707173A CN202111004879.3A CN202111004879A CN113707173A CN 113707173 A CN113707173 A CN 113707173A CN 202111004879 A CN202111004879 A CN 202111004879A CN 113707173 A CN113707173 A CN 113707173A
- Authority
- CN
- China
- Prior art keywords
- recording
- audio
- preset
- frame
- time domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 54
- 230000011218 segmentation Effects 0.000 title claims abstract description 49
- 238000001514 detection method Methods 0.000 claims abstract description 68
- 238000010183 spectrum analysis Methods 0.000 claims abstract description 15
- 238000012216 screening Methods 0.000 claims abstract description 12
- 238000001228 spectrum Methods 0.000 claims description 38
- 238000013507 mapping Methods 0.000 claims description 30
- 238000001914 filtration Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种基于音频切分的语音分离方法,包括:提取录音音频的时域特征,获取该录音音频的环境参数,根据环境参数调整预设的静音检测模型,并利用该模型筛选出时域特征中的无人声特征,根据无人声特征删除录音音频中的静音部分,检测删除后剩余的音频的说话人切换点,按照该切换点对音频进行切分,并对切分后的音频进行声谱分析,以分离出符合预设用户特征的录音段。此外,本发明还涉及区块链技术,录音音频可存储于区块链的节点。本发明还提出一种基于音频切分的语音分离装置、电子设备以及存储介质。本发明可以提高语音分离的精确度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于音频切分的语音分离方法、装置、电子设备及计算机可读存储介质。
背景技术
随着语音处理技术的快速发展,人们越来越普遍地使用语音处理技术对音频进行分析,进而从音频中提取出需要的信息。例如,可利用语音分离技术从包含多个说话人的录音段中分离出目标人员的语音信息。
现有的语音分离方法多为基于聚类算法的语音分离方法,即通过将音频进行分割为多个语音片段,并利用聚类算法将多个语音片段进行聚类,以实现对不同说话人语音的分离。但该方法中,由于聚类算法的无监督性,会导致利用聚类算法对语音进行分离时没有较为明确的标准,进而仅利用聚类算法对语音进行分离的精确度不够高。
发明内容
本发明提供一种基于音频切分的语音分离方法、装置及计算机可读存储介质,其主要目的在于解决进行语音分离时的精确度较低的问题。
为实现上述目的,本发明提供的一种基于音频切分的语音分离方法,包括:
获取用户的录音音频,提取所述录音音频中每个录音帧的时域特征;
获取所述用户的录音环境参数,利用所述录音环境参数对预设的静音检测模型进行赋值,利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,删除所述录音音频中所述无人声特征对应的录音帧,得到多个录音段;
根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点;
在检测到说话人切换点时,按照所述说话人切换点对所述说话人切换点所在的录音段进行切分,并将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集;
分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,并汇集所述匹配值大于预设阈值的录音段为所述用户的语音。
可选地,所述提取所述录音音频中每个录音帧的时域特征,包括:
对所述录音音频中的每个录音帧进行加窗,并从所述录音音频中逐个选取其中一个录音帧;
将被选取的录音帧映射为语音时域图,统计所述语音时域图的峰值、幅值和过零率;
根据所述峰值和所述幅值计算所述目标帧的帧能量,将所述帧能量和所述过零率汇集为所述被选取的录音帧的时域特征。
可选地,所述利用所述录音环境参数对预设的静音检测模型进行赋值,包括:
提取预设的静音检测模型的配置文件;
将所述录音环境参数编译为参数字段;
将所述参数字段写入所述配置文件,并利用写入所述参数字段后的配置文件对所述静音检测模型进行配置。
可选地,所述利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,包括:
利用所述静音检测模型将所述录音音频中每个录音帧的所述时域特征进行多重映射,得到每个时域特征对应的映射特征;
分别计算每个时域特征对应的映射特征与预设静音特征之间的距离值,汇集所述距离值小于预设距离阈值的映射特征对应的时域特征为无人声特征。
可选地,所述根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点,包括:
从所述多个录音段中逐个选取其中一个录音段为目标录音段;
检测所述目标录音段中每个录音帧的声音强度;
计算所述目标录音段中每个录音帧与该录音帧的前置录音帧之间的声音强度差值;
当所述声音强度差值小于或等于预设差值阈值时,确定所述声音强度差值对应的录音帧与该录音帧的前置录音帧之间不是说话人切换点;
当所述声音强度差值大于所述预设差值阈值时,确定所述声音强度差值对应的录音帧与该录音帧的前置录音帧之间是说话人切换点。
可选地,所述分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,包括:
对汇集得到的每个录音段进行傅里叶变换,得到每个录音段的频域信号;
利用预设的梅尔频率滤波器对所述频域信号进行滤波,得到每个录音段对应的梅尔频率;
对所述梅尔频率取对数,并对所述对数进行离散余弦变换,得到每个录音段对应的离散频率;
对所述离散频率进行二阶差分处理,得到每个录音段对应差分频率;
利用预设的滤波网络对所述差分频率进行多重滤波,得到每个录音段对应的滤波频率;
将每个录音段对应的滤波频率进行编码,并将编码后的所述滤波频率拼接为每个录音段对应的声谱特征。
可选地,所述计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,包括:
利用如下匹配值算法计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值:
其中,P为所述匹配值,xk为第k个录音段对应的声谱特征,y为所述用户特征。
为了解决上述问题,本发明还提供一种基于音频切分的语音分离装置,所述装置包括:
时域特征提取模块,用于获取用户的录音音频,提取所述录音音频中每个录音帧的时域特征;
静音段删除模块,用于获取所述用户的录音环境参数,利用所述录音环境参数对预设的静音检测模型进行赋值,利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,删除所述录音音频中所述无人声特征对应的录音帧,得到多个录音段;
切换点检测模块,用于根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点;
语音切分模块,用于在检测到说话人切换点时,按照所述说话人切换点对所述说话人切换点所在的录音段进行切分,并将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集;
语音分离模块,用于分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,并汇集所述匹配值大于预设阈值的录音段为所述用户的语音。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的基于音频切分的语音分离方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于音频切分的语音分离方法。
本发明实施例能够对录音音频进行静音段删除,以减少静音段对最终语音分离的影响;并对静音删除后的语义段进行端点检测,以实现对同一语音段中不同说话人的语音段的分离,避免了同一个语音段中同时包含多个说话人的语音,提高了语音分离的精确度;同时,对最终得到的语音段进行声谱分析,进而利用声谱特征和预设用户特征对语义段实现有监督的分类,有利于提高语音分离的精确度。因此本发明提出的基于音频切分的语音分离方法、装置、电子设备及计算机可读存储介质,可以解决进行语音分离时的精确度较低的问题。
附图说明
图1为本发明一实施例提供的基于音频切分的语音分离方法的流程示意图;
图2为本发明一实施例提供的提取时域特征的流程示意图;
图3为本发明一实施例提供的进行端点检测的流程示意图;
图4为本发明一实施例提供的基于音频切分的语音分离装置的功能模块图;
图5为本发明一实施例提供的实现所述基于音频切分的语音分离方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于音频切分的语音分离方法。所述基于音频切分的语音分离方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于音频切分的语音分离方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于音频切分的语音分离方法的流程示意图。在本实施例中,所述基于音频切分的语音分离方法包括:
S1、获取用户的录音音频,提取所述录音音频中每个录音帧的时域特征。
本发明实施例中,所述录音音频是包含所述用户录音的音频。例如,银行行员所佩戴的胸牌对该行员与客户的对话进行录音产生的录音音频;或者,会议上演讲者的麦克风对会议内容进行录音产生的录音音频等。
本发明实施例中,可利用具有数据抓取功能的计算机语句(如java语句、python语句等)从预先构建的存储区域中抓取用户授权可被获取的录音音频,所述存储区域包括但不限于数据库、区块链、网络缓存。
本发明实施例中,由于录音音频中可能包含大量语音信息,若直接对所述录音音频进行处理,会占用大量计算资源,导致分析效率低下,因此,可提取所述录音音频中每个录音帧的时域特征,其中,所述时域特征包括但不限于帧能量和过零率。
本发明实施例中,参图2所示,所述提取所述录音音频中每个录音帧的时域特征,包括:
S21、对所述录音音频中的每个录音帧进行加窗,并从所述录音音频中逐个选取其中一个录音帧;
S21、将被选取的录音帧映射为语音时域图,统计所述语音时域图的峰值、幅值和过零率;
S21、根据所述峰值和所述幅值计算所述目标帧的帧能量,将所述帧能量和所述过零率汇集为所述被选取的录音帧的时域特征。
详细地,可通过汉明窗的方式对所述语音信息进行分帧加窗,得到多个录音帧,可实现利用信号的局部稳定性,提高对语言学习进行分析的精确度。
具体地,可利用matplotlib.pyplot包中的pcolormesh函数(预设第一函数)将所述目标录音帧映射为语音时域图,并通过数理统计,获取所述语音时域图的峰值、幅值均值和过零率,进而根据所述幅值计算帧能量。
示例性地,可利用如下能量算法计算所述帧能量:
其中,energy为第y个录音帧的帧能量,N为所述第y个录音帧的总时长,xn为所述第y个录音帧在n时刻的幅值。
S2、获取所述用户的录音环境参数,利用所述录音环境参数对预设的静音检测模型进行赋值,利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,删除所述录音音频中所述无人声特征对应的录音帧,得到多个录音段。
本发明其中一个实际应用场景中,由于所述录音音频中可能包含着一部分无人声的录音帧,因此,为了避免对无人声的录音帧进行分析,可利用预设的静音检测模型对该录音音频中无人声的录音帧进行筛选,以删除所述录音音频中所述无人声特征对应的录音段,减少后续进行语音分离时需要分析的数据量,提高语音分离的效率。
本发明实施例中,可获取用于预先存储的录音环境参数,并利用所述录音环境参数对预设的静音检测模型进行赋值,以提高该静音检测模型对所述用户的录音音频中的录音帧进行筛选的精确度。
详细地,所述录音环境参数包括任何可对用户产生该录音音频时的环境中的影响因素,例如,银行行员所佩戴的胸牌对该行员与客户的对话进行录音时的录音时间,该网点的客流量大小,该行员的职位等信息。
本发明实施例中,可利用所述录音环境参数对预设的静音检测模型进行赋值,以提高所述静音检测模型对所述录音音频的适应性,进而提高利用所述静音检测模型对所述录音音频中的录音帧进行筛选的精确度。
详细地,所述静音检测模型为具有静音检测功能的人工智能模型,所述静音检测模型包括但不限于VAD(Voice Activity Detection,语音活动检测)模型、LSTM(LongShort Term Memory,长短期记忆)模型。
本发明实施例中,所述利用所述录音环境参数对预设的静音检测模型进行赋值,包括:
提取预设的静音检测模型的配置文件;
将所述录音环境参数编译为参数字段;
将所述参数字段写入所述配置文件,并利用写入所述参数字段后的配置文件对所述静音检测模型进行配置。
详细地,可利用具有数据抓取功能的java语句从所述静音检测模型中提取所述配置文件,所述配置文件记载有所述静音检测模型的各项参数配置信息。
具体地,可利用预设的编译器将所述录音环境参数编译为参数字段,以实现对所述录音环境参数的结构化处理,进而将所述参数字段写入所述配置文件,利用含有该参数字段的配置文件对所述静音检测模型进行配置,实现利用所述录音环境参数对所述静音检测模型的赋值,其中,所述编译器包括但不限于:GNU Compiler Collection编译器、llvm+Clang编译器。
进一步地,所述利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,包括:
利用所述静音检测模型将所述录音音频中每个录音帧的所述时域特征进行多重映射,得到每个时域特征对应的映射特征;
分别计算每个时域特征对应的映射特征与预设静音特征之间的距离值,汇集所述距离值小于预设距离阈值的映射特征对应的时域特征为无人声特征。
详细地,可通过所述静音检测模型中预设的映射函数将所述录音音频中每个录音帧的所述时域特征进行预设次数的映射,得到每个时域特征对应的映射特征,所述映射函数包括但不限于高斯函数、map函数。
具体地,所述预设静音特征为预先设定的,不具有人声的音频对应的音频特征。
本发明实施例中,所述分别计算每个时域特征对应的映射特征与预设静音特征之间的距离值,包括:
利用如下距离值算法分别计算每个时域特征对应的映射特征与预设静音特征之间的距离值:
其中,D为所述距离值,ai为第i个时域特征对应的映射特征,b为所述预设静音特征。
本发明实施例中,可汇集所述距离值小于预设距离阈值的映射特征对应的时域特征为无人声特征。
例如,所述时域特征中包括特征A、特征B和特征C,其中,特征A对应映射特征a,特征B对应映射特征b,特征C对应映射特征c,且映射特征a与预设静音特征之间的距离值为80,映射特征b与预设静音特征之间的距离值为60,映射特征c与预设静音特征之间的距离值为20,当预设距离阈值为70时,则汇集与映射特征b对应的特征B,以及与映射特征c对应的特征C为无人声特征。
本发明实施例中,可删除所述录音音频中所述无人声特征对应的录音帧,以去除所述录音音频中无人声的片段,得到多个录音段,有利于减少后续进行语音分离时需要分析的数据量,提高语音分离的效率。
S3、根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点。
本发明其中一个实际应用场景中,由于删除所述录音音频中所述无人声特征对应的录音帧后,仅可得到包含人声的多个录音帧,但该多个录音帧中,可能存在着一些录音帧中包含多个说话人的语音,因此,为了实现对用户的语音的分离,可分别对所述多个录音段中每个录音段进行端点检测,以判断每个录音帧中是否出现说话人切换点。
详细地,所述说话人切换点是指录音帧中当一个人说完另一个人紧接着说话时的转换点,即语音的说话人从一个人切换为另一个人的转换点。
具体地,可根据预设的断句特征分别对所述多个录音片段中的每个录音片段进行端点检测,以判断出录音片段中是否出现了说话人切换点,其中,所述断句特征包括但不限于语调、语速、语气等。
本发明其中一个实施例中,参图3所示,所述根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点,包括:
S31、从所述多个录音段中逐个选取其中一个录音段为目标录音段;
S32、检测所述目标录音段中每个录音帧的声音强度;
S33、计算所述目标录音段中每个录音帧与该录音帧的前置录音帧之间的声音强度差值;
S34、判断所述差值是否大于预设差值阈值;
当所述声音强度差值小于或等于所述预设差值阈值时,则执行S35、确定所述声音强度差值对应的录音帧与该录音帧的前置录音帧之间不是说话人切换点;
当所述声音强度差值大于所述预设差值阈值时,则执行S36、确定所述声音强度差值对应的录音帧与该录音帧的前置录音帧之间是说话人切换点。
详细地,可利用预设的分贝检测仪检测所述目标录音段中每个录音帧的声音强度,进而计算所述目标录音段中每个录音帧与所述录音帧的前置相邻录音帧的声音强度之间的差值,其中,所述前置录音帧为与所述录音帧相邻,且在该录音帧之前的录音帧。
本发明其他实施例中,还可根据语速来判断是否出现说话人切换点,例如,当语速突然变快或者当语速突然变缓时,可确定出现了说话人切换点。
S4、在检测到说话人切换点时,按照所述说话人切换点对所述说话人切换点所在的录音段进行切分,并将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集。
本发明实施例中,当检测到说话人切换点时,可按照所述说话人切换点的位置对包含所述说话人切换点的录音段进行切分。
例如,录音段A包括10s的录音,其中,该录音段A中第5s时的录音帧为话人切换点,则将所述录音段A切分为1s-5s和6s-10s的两个录音段。
本发明实施例中,对所述多个录音段进行切分,直至所述多个录音段中所有包含说话人切换点的录音段均完成切分,将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集。
详细地,未被切分的录音段是指所述多个录音段中,不包含说话人切换点的录音段,例如,所述多个录音段包括录音段A、录音段B和录音段C,其中,录音段A包含说话人切换点,按照说话人切换点将录音段A切分为a1和a2两个录音段,并将切分得到的a1和a2两个录音段与录音段B和录音段C进行汇集。
本发明实施例中,对所述多个录音帧中包括说话人切换点的录音帧进行切割,可实现对不同说话人的划分,保证了每个录音段中只包含一个说话人的录音,有利于提高语音分离的精确度。
S5、分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,并汇集所述匹配值大于预设阈值的录音段为所述用户的语音。
本发明实施例中,为了从汇集得到的多个录音段中分离出所述用户的语音,可分别对每个录音段进行声谱分析,得到每个录音段的声谱特征,进而根据所述声谱特征与预设的用户特征对从所述多个录音段中分离出所述用户的语音,其中,所述用户特征包括用户在说话时的语音特征。
本发明实施例中,所述分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,包括:
对汇集得到的每个录音段进行傅里叶变换,得到每个录音段的频域信号;
利用预设的梅尔频率滤波器对所述频域信号进行滤波,得到每个录音段对应的梅尔频率;
对所述梅尔频率取对数,并对所述对数进行离散余弦变换,得到每个录音段对应的离散频率;
对所述离散频率进行二阶差分处理,得到每个录音段对应差分频率;
利用预设的滤波网络对所述差分频率进行多重滤波,得到每个录音段对应的滤波频率;
将每个录音段对应的滤波频率进行编码,并将编码后的所述滤波频率拼接为每个录音段对应的声谱特征。
详细地,对汇集得到的每个录音段进行傅里叶变换,可将每个录音段转换为频域信号,进而有利于从录音段中提取出声音的声谱特征。
具体地,可通过傅里叶变换将每个录音帧转换为频域信号,并利用具有梅尔刻度滤波器对所述频域信号进行过滤,得到每个录音帧对应的梅尔频率,其中,所述梅尔刻度滤波器是指按照标准梅尔频率进行刻度划分的滤波器,所述梅尔频率代表人耳对于频率的感受度,因此,将录音段的声音信号转换为梅尔频率,可确保信号内容的真实性,进而有利于提高利用该梅尔频率进行用户语音分离的精确度。
进一步地,由于人耳在感受声音时,并不是线性的,因此,可对求取所述梅尔频率的对数,以对数形式对所述梅尔频率中的非线性关系进行描述,有利于提高提取的声谱特征的精确度。
本发明实施例中,对所述对数进行离散余弦变换,可实现对转化为对数形式的所述梅尔频率的压缩和抽象,避免利用傅里叶变换对转化为对数形式的所述梅尔频率进行处理会的结果会包含虚数部分的情况,有利于降低计算的复杂度,提高对梅尔频率进行分析的效率。
详细地,由于录音段的时域连续性,对所述录音段进行提取的特征(离散频率),只是反映了录音段中每个录音帧的特征,为了符合该录音段的时域连续性,可通过对所述离散频率进行二阶差分处理,将每一帧的前后帧信息增加至该帧中。
本发明实施例中,所述滤波网络可以为PCANET网络,所述PCANET网络包括两层网络结构,每层网络结构至少由一个滤波器组成。
通过所述滤波网络中每一层网络结构中的多个滤波器分别对所述差分频率进行滤波,以实现对该差分频率的筛选,得到对所述脚步声信号有代表性的滤波频率,并按照预设编码方式对所述滤波频率进行编码,以及将编码后的所述滤波频率拼接为每个录音段对应的声谱特征。
本发明实施例中,所述计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,包括:
利用如下匹配值算法计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值:
其中,P为所述匹配值,xk为第k个录音段对应的声谱特征,y为所述用户特征。
本发明实施例中,可汇集所述匹配值大于预设阈值的录音段为所述用户的语音,以实现从所述多个录音段中分离出所述用户的录音段。
本发明实施例能够对录音音频进行静音段删除,以减少静音段对最终语音分离的影响;并对静音删除后的语义段进行端点检测,以实现对同一语音段中不同说话人的语音段的分离,避免了同一个语音段中同时包含多个说话人的语音,提高了语音分离的精确度;同时,对最终得到的语音段进行声谱分析,进而利用声谱特征和预设用户特征对语义段实现有监督的分类,有利于提高语音分离的精确度。因此本发明提出的基于音频切分的语音分离方法,可以解决进行语音分离时的精确度较低的问题。
如图4所示,是本发明一实施例提供的基于音频切分的语音分离装置的功能模块图。
本发明所述基于音频切分的语音分离装置100可以安装于电子设备中。根据实现的功能,所述基于音频切分的语音分离装置100可以包括时域特征提取模块101、静音段删除模块102、切换点检测模块103、语音切分模块104及语音分离模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述时域特征提取模块101,用于获取用户的录音音频,提取所述录音音频中每个录音帧的时域特征;
所述静音段删除模块102,用于获取所述用户的录音环境参数,利用所述录音环境参数对预设的静音检测模型进行赋值,利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,删除所述录音音频中所述无人声特征对应的录音帧,得到多个录音段;
所述切换点检测模块103,用于根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点;
所述语音切分模块104,用于在检测到说话人切换点时,按照所述说话人切换点对所述说话人切换点所在的录音段进行切分,并将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集;
所述语音分离模块105,用于分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,并汇集所述匹配值大于预设阈值的录音段为所述用户的语音。
详细地,本发明实施例中所述基于音频切分的语音分离装置100中所述的各模块在使用时采用与上述图1至图3中所述的基于音频切分的语音分离方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现基于音频切分的语音分离方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于音频切分的语音分离程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于音频切分的语音分离程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于音频切分的语音分离程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于音频切分的语音分离程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取用户的录音音频,提取所述录音音频中每个录音帧的时域特征;
获取所述用户的录音环境参数,利用所述录音环境参数对预设的静音检测模型进行赋值,利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,删除所述录音音频中所述无人声特征对应的录音帧,得到多个录音段;
根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点;
在检测到说话人切换点时,按照所述说话人切换点对所述说话人切换点所在的录音段进行切分,并将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集;
分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,并汇集所述匹配值大于预设阈值的录音段为所述用户的语音。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取用户的录音音频,提取所述录音音频中每个录音帧的时域特征;
获取所述用户的录音环境参数,利用所述录音环境参数对预设的静音检测模型进行赋值,利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,删除所述录音音频中所述无人声特征对应的录音帧,得到多个录音段;
根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点;
在检测到说话人切换点时,按照所述说话人切换点对所述说话人切换点所在的录音段进行切分,并将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集;
分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,并汇集所述匹配值大于预设阈值的录音段为所述用户的语音。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于音频切分的语音分离方法,其特征在于,所述方法包括:
获取用户的录音音频,提取所述录音音频中每个录音帧的时域特征;
获取所述用户的录音环境参数,利用所述录音环境参数对预设的静音检测模型进行赋值,利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,删除所述录音音频中所述无人声特征对应的录音帧,得到多个录音段;
根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点;
在检测到说话人切换点时,按照所述说话人切换点对所述说话人切换点所在的录音段进行切分,并将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集;
分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,并汇集所述匹配值大于预设阈值的录音段为所述用户的语音。
2.如权利要求1所述的基于音频切分的语音分离方法,其特征在于,所述提取所述录音音频中每个录音帧的时域特征,包括:
对所述录音音频中的每个录音帧进行加窗,并从所述录音音频中逐个选取其中一个录音帧;
将被选取的录音帧映射为语音时域图,统计所述语音时域图的峰值、幅值和过零率;
根据所述峰值和所述幅值计算所述目标帧的帧能量,将所述帧能量和所述过零率汇集为所述被选取的录音帧的时域特征。
3.如权利要求1所述的基于音频切分的语音分离方法,其特征在于,所述利用所述录音环境参数对预设的静音检测模型进行赋值,包括:
提取预设的静音检测模型的配置文件;
将所述录音环境参数编译为参数字段;
将所述参数字段写入所述配置文件,并利用写入所述参数字段后的配置文件对所述静音检测模型进行配置。
4.如权利要求1所述的基于音频切分的语音分离方法,其特征在于,所述利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,包括:
利用所述静音检测模型将所述录音音频中每个录音帧的所述时域特征进行多重映射,得到每个时域特征对应的映射特征;
分别计算每个时域特征对应的映射特征与预设静音特征之间的距离值,汇集所述距离值小于预设距离阈值的映射特征对应的时域特征为无人声特征。
5.如权利要求1所述的基于音频切分的语音分离方法,其特征在于,所述根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点,包括:
从所述多个录音段中逐个选取其中一个录音段为目标录音段;
检测所述目标录音段中每个录音帧的声音强度;
计算所述目标录音段中每个录音帧与该录音帧的前置录音帧之间的声音强度差值;
当所述声音强度差值小于或等于预设差值阈值时,确定所述声音强度差值对应的录音帧与该录音帧的前置录音帧之间不是说话人切换点;
当所述声音强度差值大于所述预设差值阈值时,确定所述声音强度差值对应的录音帧与该录音帧的前置录音帧之间是说话人切换点。
6.如权利要求1所述的基于音频切分的语音分离方法,其特征在于,所述分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,包括:
对汇集得到的每个录音段进行傅里叶变换,得到每个录音段的频域信号;
利用预设的梅尔频率滤波器对所述频域信号进行滤波,得到每个录音段对应的梅尔频率;
对所述梅尔频率取对数,并对所述对数进行离散余弦变换,得到每个录音段对应的离散频率;
对所述离散频率进行二阶差分处理,得到每个录音段对应差分频率;
利用预设的滤波网络对所述差分频率进行多重滤波,得到每个录音段对应的滤波频率;
将每个录音段对应的滤波频率进行编码,并将编码后的所述滤波频率拼接为每个录音段对应的声谱特征。
8.一种基于音频切分的语音分离装置,其特征在于,所述装置包括:
时域特征提取模块,用于获取用户的录音音频,提取所述录音音频中每个录音帧的时域特征;
静音段删除模块,用于获取所述用户的录音环境参数,利用所述录音环境参数对预设的静音检测模型进行赋值,利用赋值后的所述静音检测模型筛选出所述时域特征中的无人声特征,删除所述录音音频中所述无人声特征对应的录音帧,得到多个录音段;
切换点检测模块,用于根据预设的断句特征分别对所述多个录音段进行端点检测,以判断是否出现说话人切换点;
语音切分模块,用于在检测到说话人切换点时,按照所述说话人切换点对所述说话人切换点所在的录音段进行切分,并将切分得到的录音段与所述多个录音段中未被切分的录音段进行汇集;
语音分离模块,用于分别对汇集得到的多个录音段进行声谱分析,得到声谱特征,计算每个所述录音段对应的声谱特征与预设的用户特征之间的匹配值,并汇集所述匹配值大于预设阈值的录音段为所述用户的语音。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于音频切分的语音分离方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于音频切分的语音分离方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111004879.3A CN113707173B (zh) | 2021-08-30 | 2021-08-30 | 基于音频切分的语音分离方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111004879.3A CN113707173B (zh) | 2021-08-30 | 2021-08-30 | 基于音频切分的语音分离方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113707173A true CN113707173A (zh) | 2021-11-26 |
CN113707173B CN113707173B (zh) | 2023-12-29 |
Family
ID=78656877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111004879.3A Active CN113707173B (zh) | 2021-08-30 | 2021-08-30 | 基于音频切分的语音分离方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113707173B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114172856A (zh) * | 2021-11-30 | 2022-03-11 | 中国平安财产保险股份有限公司 | 消息自动回复方法、装置、设备及存储介质 |
CN114464198A (zh) * | 2021-11-30 | 2022-05-10 | 中国人民解放军战略支援部队信息工程大学 | 一种可视化人声分离系统、方法以及装置 |
CN115798459A (zh) * | 2023-02-03 | 2023-03-14 | 北京探境科技有限公司 | 音频处理方法、装置、存储介质及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108074576A (zh) * | 2017-12-14 | 2018-05-25 | 讯飞智元信息科技有限公司 | 审讯场景下的说话人角色分离方法及系统 |
CN108305615A (zh) * | 2017-10-23 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种对象识别方法及其设备、存储介质、终端 |
CN109360572A (zh) * | 2018-11-13 | 2019-02-19 | 平安科技(深圳)有限公司 | 通话分离方法、装置、计算机设备及存储介质 |
CN110853666A (zh) * | 2019-12-17 | 2020-02-28 | 科大讯飞股份有限公司 | 一种说话人分离方法、装置、设备及存储介质 |
CN111785302A (zh) * | 2020-06-23 | 2020-10-16 | 北京声智科技有限公司 | 说话人分离方法、装置及电子设备 |
KR102190988B1 (ko) * | 2020-11-09 | 2020-12-15 | 주식회사 마인즈랩 | 개별 화자 별 음성 제공 방법 및 컴퓨터 프로그램 |
KR20210055464A (ko) * | 2019-11-07 | 2021-05-17 | 연세대학교 산학협력단 | 기계학습 기반의 화자 분리 방법 및 그를 위한 장치 |
-
2021
- 2021-08-30 CN CN202111004879.3A patent/CN113707173B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305615A (zh) * | 2017-10-23 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种对象识别方法及其设备、存储介质、终端 |
CN108074576A (zh) * | 2017-12-14 | 2018-05-25 | 讯飞智元信息科技有限公司 | 审讯场景下的说话人角色分离方法及系统 |
CN109360572A (zh) * | 2018-11-13 | 2019-02-19 | 平安科技(深圳)有限公司 | 通话分离方法、装置、计算机设备及存储介质 |
KR20210055464A (ko) * | 2019-11-07 | 2021-05-17 | 연세대학교 산학협력단 | 기계학습 기반의 화자 분리 방법 및 그를 위한 장치 |
CN110853666A (zh) * | 2019-12-17 | 2020-02-28 | 科大讯飞股份有限公司 | 一种说话人分离方法、装置、设备及存储介质 |
CN111785302A (zh) * | 2020-06-23 | 2020-10-16 | 北京声智科技有限公司 | 说话人分离方法、装置及电子设备 |
KR102190988B1 (ko) * | 2020-11-09 | 2020-12-15 | 주식회사 마인즈랩 | 개별 화자 별 음성 제공 방법 및 컴퓨터 프로그램 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114172856A (zh) * | 2021-11-30 | 2022-03-11 | 中国平安财产保险股份有限公司 | 消息自动回复方法、装置、设备及存储介质 |
CN114464198A (zh) * | 2021-11-30 | 2022-05-10 | 中国人民解放军战略支援部队信息工程大学 | 一种可视化人声分离系统、方法以及装置 |
CN114172856B (zh) * | 2021-11-30 | 2023-05-30 | 中国平安财产保险股份有限公司 | 消息自动回复方法、装置、设备及存储介质 |
CN115798459A (zh) * | 2023-02-03 | 2023-03-14 | 北京探境科技有限公司 | 音频处理方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113707173B (zh) | 2023-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113707173B (zh) | 基于音频切分的语音分离方法、装置、设备及存储介质 | |
CN109087670B (zh) | 情绪分析方法、系统、服务器及存储介质 | |
US11315366B2 (en) | Conference recording method and data processing device employing the same | |
CN110619568A (zh) | 风险评估报告的生成方法、装置、设备及存储介质 | |
CN110443692A (zh) | 企业信贷审核方法、装置、设备及计算机可读存储介质 | |
CN113903363B (zh) | 基于人工智能的违规行为检测方法、装置、设备及介质 | |
CN113420556B (zh) | 基于多模态信号的情感识别方法、装置、设备及存储介质 | |
Pillos et al. | A Real-Time Environmental Sound Recognition System for the Android OS. | |
CN110880329A (zh) | 一种音频识别方法及设备、存储介质 | |
CN113077821B (zh) | 音频质量检测方法、装置、电子设备及存储介质 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
CN111696580A (zh) | 一种语音检测方法、装置、电子设备及存储介质 | |
CN111369981A (zh) | 一种方言地域识别方法、装置、电子设备及存储介质 | |
CN113903361A (zh) | 基于人工智能的语音质检方法、装置、设备及存储介质 | |
CN112466337A (zh) | 音频数据情绪检测方法、装置、电子设备及存储介质 | |
Chuchra et al. | A deep learning approach for splicing detection in digital audios | |
CN114420136A (zh) | 一种声纹识别模型训练的方法、装置以及存储介质 | |
CN113808577A (zh) | 语音摘要的智能提取方法、装置、电子设备及存储介质 | |
CN113421552A (zh) | 音频识别方法和装置 | |
WO2022205400A1 (zh) | 一种基于语音识别的安全预警方法、装置及终端设备 | |
CN114664325A (zh) | 一种异常声音识别方法、系统、终端设备及计算机可读存储介质 | |
CN117636909B (zh) | 一种数据处理方法、装置、设备以及计算机可读存储介质 | |
CN112988324B (zh) | 一种基于cpu信息的安卓模拟器识别方法及系统 | |
CN118155623B (zh) | 基于人工智能的语音识别方法 | |
CN111754982B (zh) | 语音通话的噪声消除方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |