CN115273891B - 一种基于相似度检测的音频自动剪错方法 - Google Patents

一种基于相似度检测的音频自动剪错方法 Download PDF

Info

Publication number
CN115273891B
CN115273891B CN202210823199.2A CN202210823199A CN115273891B CN 115273891 B CN115273891 B CN 115273891B CN 202210823199 A CN202210823199 A CN 202210823199A CN 115273891 B CN115273891 B CN 115273891B
Authority
CN
China
Prior art keywords
voice
signal
audio
similarity
tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210823199.2A
Other languages
English (en)
Other versions
CN115273891A (zh
Inventor
葛昊宇
薛彦昊
魏立斐
张蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Ocean University
Original Assignee
Shanghai Ocean University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Ocean University filed Critical Shanghai Ocean University
Priority to CN202210823199.2A priority Critical patent/CN115273891B/zh
Publication of CN115273891A publication Critical patent/CN115273891A/zh
Application granted granted Critical
Publication of CN115273891B publication Critical patent/CN115273891B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/09Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being zero crossing rates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于相似度检测的音频自动剪错方法,针对一段音频自动判断其所有语音段,并对所有语音段进行有限次的相似度比较,对相似度较高音频进行剪错,并保留所有剪错长度和位置信息,自动剪错系统具体实现过程包括如下步骤:预处理、语音段确定(标记确定)、相似段判断、预剪错、剪错,其中相似段判断部分包含了如下的具体实现过程:(1)动态规划获取预判断相似度的语音片段(2)快速傅里叶变换并插值获得两语音段在频域上的相似度(3)计算梅尔频率倒谱系数并进行经过改良的动态时间规整得到两语音段在时域上的相似度。本发明引入动态规划思想设计音频自动剪错系统,极大减少了语音激活检测的次数,使得计算效率极大提升。

Description

一种基于相似度检测的音频自动剪错方法
技术领域
本发明涉及音频端点检测,音频相似度检测领域,具体而言,是采用短时能量与过零率进行音频端点检测,再在频域上使用快速傅里叶变换和时域上采用梅尔频率倒谱系数进行综合的音频相似度分析,确定所有错误音频段的方法。
背景技术
随着新媒体行业的崛起,越来越多的人成为音视频博主,在录制音频或录制视频时经常有读错的现象,通常在读错后的做法是重新读读错的地方。但在录制时常常无法及时标记出错的地方,结束录制后需要花费大量时间进行错误的剪辑。而目前市面上对于音频的处理多集中在语音转文字技术,没有针对音频错误进行剪错的框架技术。通过开发音频自动剪错的方法,可以节约新媒体工作者的时间成本,同时核心的音频相似度算法将有更广泛的应用场景。
目前已有的语音相似度判断技术大部分都为适配语音转文字任务而设计的,其中有MFCC梅尔频率倒谱系数、DTW动态时间规整,而此类语音相似度判断技术的前置技术还需要VAD语音激活检测技术,具体算法步骤如下:
1.1.VAD语音激活检测技术
VAD语音激活检测技术是一种通过特定的判决准则判断语音中出现的停顿和静默间隔,检测出有效语音部分的技术。实现方式有多种,这里介绍张羊等人提出通过双门限算法实现语音端点检测,具体方案如下:
(1)为短时幅度设置两类门限,每类各两个门限
短时能量门限
–高能量门限ITU
–低能量门限ITL
过零率门限
–高过零率门限ZCRU
–低过零率门限ZCRL
(2)设置最大静音帧长maxSilence和最小语音帧长minLen
(3)分帧
(4)计算待测片段短时能量
(5)计算待测片段过零率
(6)调整两类门限的上下门限值
(7)逐帧判断模式类型(静音态、过渡态、语音态、结束态)
(8)用帧号乘帧长反解出语音开始时刻、结束时刻
1.2.MFCC梅尔频率倒谱系数
MFCC梅尔频率倒谱系数是基于人耳听觉特性提出来的,它与Hz频率成非线性对应关系。主要用于语音数据特征提取和降低运算维度,具体计算步骤如下:
(1)预加重
将待计算信号加上高通滤波器
(2)分帧
(3)加窗
分帧中添加窗函数,使窗体间过度平滑
(4)快速傅里叶变换
(5)梅尔滤波器组
(6)离散余弦变换
1.3.DTW动态时间规整
由于不同人的语速不同,即使同一个人不同一时刻发同一个音,也不可能具有完全相同的时间长度,所以利用传统相似度计算方式无法很好的体现语音相似度。通过使用DTW动态时间规整算法,将语音"对齐",达到可以在同一时间刻度上计算相似度的目的,具体计算步骤如下:
(1)计算两语音段的距离矩阵
(2)循环检测矩阵中最短距离
(3)得到两语音段的规整路径和累加距离
虽然已经有各类算法对音频进行相似度判断,但多是基于巨大的标准语音数据样本进行的有范围的相似度择优,这类方法仍存在以下问题:
因为技术路线本身为了适配语音识别所以音频相似度检测依赖于已有语料库,但对音频检错这类任务不能很好的适配
–原因1:音频检错任务不需要知道语音的文字内容,知道文字内容也对检错准确率也没有促进作用
–原因2:使用基于累加距离的相似度检测需要有固定样本与之匹配,在无固定样本情况下,累加距离无法很好的表达两段语音的相似性
基于已有语料库的相似度计算需要大量计算资源,技术成本高,技术普适性不强
–原因1:基于已有语料库的相似度计算是通过对待测语音段进行音素识别,再经过语言模型识别,得出最可能的语句,耗时与语料库大小成正比、与机器核心数量成反比
发明内容
本发明提供了一种基于相似度检测的音频自动剪错方法,其目的在于,基于上述所设计的语音相似度检测技术,并使用动态规划和哈希表思想设计了存储语音段起始终止位置的类结构以达到动态规划搜索的快速命中,同时系统设计中完全引入了多线程技术,实现了多核并行计算能力,计算效率显著提高、内存使用率显著下降。
本发明通过以下技术方案实现的:
一种基于相似度检测的音频自动剪错方法,包括如下步骤:
S1完成前期基础工作;
S11确定帧长:
getFrameLength(signal,frameLengthRate)→(frameLength)
输入待测语音信号signal,帧长占比frameLengthRate,输出待测语音信号的分帧长度frameLength;
S12语音分帧:
enframe(signal,frameLength,frameInc,windowFun)→(frames)
首先,通过计算帧长frameLength的三分之二作为帧移frameInc,接着输入待测语音信号signal,帧长frameLength,帧移frameInc,加窗函数windowFun,输出按帧长和帧移切割完成的形状为帧数×帧长的分帧矩阵frames
S13获得滤波系数:
getLfilter(sampleRate)→(FILTERA,FILTERB)
输入待测语音采样率sampleRate,经过scipy工具箱中的signal.butter方法,设计带通滤波器,滤波取80Hz到18000Hz的人声特征频段,得到滤波分子系数向量FILTERA和分母系数向量FILTERB,并输出;
S2语音激活检测;
S21计算过零率:
getZeroCrossingRate(signal,sens)→(zcr,zcr1,zcr2,tmp1,tmp2,signs,diffs)
输入待测语音信号signal,灵敏度系数sens,首先分别计算signal在[0,end-1]的分帧tmp1与在[1,end]的分帧tmp2,接着计算<tmp1,tmp2>得到结果取小于0的为1,其余为0,得出矩阵signs,即接着计算|tmp1-tmp2|,结果大于0.2的为1,其余为0,得出矩阵diffs,即/>最后计算<signs,diffs>,按列求和,得到形状为帧数×1的过零率矩阵zcr,再计算zcr中最大值除以snes的值作为高过零率门限zcr1,计算zcr中最大值除以snes的1.5倍的值作为低过零率门限zcr2
S22计算短时能量:
getShortTimeEnergy(signal,sens)→(amp,amp1,amp2,signalafterFilter,frames)
输入待测语音信号signal,灵敏度系数sens,首先通过计算获得滤波系数并通过scipy工具箱中的signal.lfilter方法进行signal的滤波,获得滤波后的语音信号signalafterFilter,再计算signalafterFilter的分帧frames,取frames的绝对值并按列求和得到形状为帧数×1的短时能量矩阵amp,再计算amp中最大值除以sens的值作为高能量门限amp1,计算amp中最大值除以sens的1.5倍的值作为低能量门限amp2
S23计算语音端点:
vad(amp,zcr,amp1,amp2,zcr1,zcr2,frameInc)→(startPoint,endPoint)
输入待测语音的短时能量amp,过零率zcr,短时能量上下门限amp1和amp2,过零率上下门限zcr1和zcr2,以及帧移frameInc,对amp和zcr中每一点数值进行比较,数值大于各自设定的上门限amp1或zcr1则进入语音段记录开始值的下标为startPoint,如大于各自下门限但小于上门限则进入过渡态,如进入语音态后,数值小于各自下门限则进入结束态记录结束值的下标为endPoint,并将startPoint与endPoint乘以frameInc得到正确的语音起点startPoint和语音终点endPoint;
S3计算梅尔频率倒谱系数;
mfcc(signal,sampleRate)→(ccc,signalafterFilter,frames,filterBanks)
入待测语音信号signal,待测语音信号采样率sampleRate,首先计算获得滤波系数并通过scipy工具箱中的signal.lfilter方法进行signal的滤波,获得滤波后的语音信号signalafterFilter,再对signalafterFilter分帧,此处帧长固定256,帧移80,窗函数选择汉明窗得到分帧矩阵frames,本发明选择将梅尔频率倒谱系数导出为12维,即设置梅尔频率倒谱系数矩阵ccc形状为frames列数×12的矩阵,接着计算每一帧系数,首先对当前帧进行快速傅里叶变换得到当前帧频域谱(数组),再对频域谱开平方,得到当前帧能量谱(数组),接着使用梅尔滤波器组(滤波器个数为24)进行滤波,再对滤波后矩阵取对数得到filterBanks特征,最后将filterBanks带入离散余弦变换函数计算并舍去计算结果第一列,得到第一帧的梅尔频率倒谱系数,记录至梅尔频率倒谱系数矩阵ccc对应列,重复以上步骤至所有帧计算完成,得到ccc;
S4动态时间规整技术;
计算两语音段的最佳路径:
dtw(signalA,signalB,penaltyC)→(signalAdtw,signalBdtw,PCRate,D,w)
输入待计算语音段singalA和singalB,输入惩罚系数penaltyC,首先将singalA和singalB标准化,再计算singalA每一点到singalB的所有点的欧式距离,形成形状为singalA长度×signalB长度的距离矩阵D,接着设置起点为矩阵右上角,开始选择最佳路径,选择项有三个,分别是矩阵中当前点的下方、左方和左下方,选取其中距离最短项,并将选择项记录到最佳路径w中。本发明在此算法中加入惩罚系数项(见图2),即当距离最短项为当前点下方或左方,对应方向的惩罚计数器加一,并在记录最佳路径前判断各方向惩罚计数器的计数,如果大于penaltyC则惩罚当前格最佳路径,其匹配的最佳路径位置被置-1,记录到w中。接着根据w中记录的最佳路径重新调整singalA和singalB,对于被惩罚的路径则将对应值置为当前语音段的平均值(取平均值减去原最佳路径值减去平均值的值效果会更佳),最终输出经过最佳路径重新对齐后的语音段signalAdtw和signalBdtw,同时计算检测中的总惩罚数除以总检测次数获得惩罚率PCRate。
S5利用音频自动剪错系统实现多核并行的计算能力。
作为优选实施例,所述步骤S5,包括如下步骤:
S51类定义;
S52预处理;
S53语音段确定(标记确定);
S54相似语音段判断;
S55预剪错:
如果getCutting方法返回的cutA和cutB非空,则将cutA和cutB封装成Tag类的变量,加入Tag链表,
当所有标记检测完成后,对链表头加上补偿时间makeupTime,以将所有剪错时间统一到原始音频时间轴中,并返回Tag链表头指针,
等待所有线程结束,将所有Tag链表头指针存入临时数组tagHeadList,
首先,对tagHeadList进行排序,这里重写了排序方法,以tagHeadList中每一个头指针指向的下一个剪错标记的开始位置的值作为排序值,由小到大排序,接着循环读取tagHeadList中每个剪错标记头指针,尾插法插入新的标记头tagHead,将tagHeadList组成为一条链表,链表头为tagHead,
将用户输入的原始标记点originTags(数组形式)进行排序,并从tagHead遍历链表,将originTags中所有标记转换为Tag类型变量(startTime与endTime同一时刻)插入链表,
接着处理tagHead,因插入了用户输入的原始标记点而可能导致的Tag同起点或嵌套的问题。从tagHead遍历链表,比较前一Tag和后一Tag在时间上是否有重叠部分,如有重叠部分则进行合并,
接着生成适配原始音频的标记段,深拷贝一份tagHead为头指针的链表tagHeadcopy,同时将用户输入的原始音频标记段(数组形式)转换为Tag链表形式,链表头为tagHeadorigin,将tagHeadorigin所有项插入tagHead,由于tagHeadorigin时间线和tagHead的并不相同,所以需要将tagHeadorigin中每一项依次插入tagHead且在插入后将插入点之后的所有Tag增加插入的Tag的时长,本发明采用链表结构组织Tag的优势也就体现出来,只需要对插入的Tag的下一Tag增加时长即可完成所有Tag的时长增加,tagHeadorigin中所有项插入完毕后,预剪错操作全部结束,获得tagHead和tagHeadcopy
S56剪错:
依次读取tagHead中剪错Tag,将原音频依据Tag中的startTime和endTime进行剪切,每剪切完一个Tag,将当前位置Tag的后一个Tag减去当前剪切的长度。最终获得剪错完成的音频,接着将tagHead和tagHeadcopy转换为方便用户导入的数组结构,即完成了剪错操作,最终输出剪错完成的音频、剪错完成的音频的剪错标记点、原始音频的剪错标记段。
作为优选实施例,步骤S51,包括如下步骤:
S511剪错记录Tag:用来记录剪错段落,
成员变量为剪切起始点startTime,终止点endTime,下一个剪错记录Tag的地址next;
成员方法重写了加法与减法;
加法:一个Tag加上一个常数则对应剪切起始点、终止点加上该常数,同时调用next加上该常数;
减法:一个Tag减去一个常数则对应剪切起始点、终止点减去该常数,同时调用next减去该常数;
S512端点记录单节点Section:用来记录端点激活检测后的结果,
成员变量为起始管辖点startInterval,终止管辖点endInterval,前一管辖域内起始端点位置beforePoint,前一管辖域内终止端点位置beforePointEnd,当前管辖域内起始端点位置afterPoint,当前管辖域内终止端点位置afterPointEnd;
S513端点数组单节点SectionsArrayPoint:用来协助哈希散列存储Section的类预处理,
成员变量为当前节点哈希号HashID,当前节点的所有Section组成的数组sectionsArray;
成员变量:
判断是否存在相同Section:
isExistSection(section)→(ansIndex),判断当前节点内的Section的beforePoint或afterPoint是否相同,如相同则返回该Section在sectionsArray中的下标,如没有相同则返回-1;
寻找当前节点中与某一时刻最佳匹配的Section:
findSection(point)→(ansSection),遍历sectionsArray判断该时刻point是否位于section的[startInterval,afterPoint]范围内,如位于则返回当前section,否则返回空。
作为优选实施例,所述步骤S52,包括如下步骤:
S521对用户输入的所有参数判断是否存在非法值,如存在非法值则将对应项置为默认值;
S522读取要处理的音频,获取音频数组和采样率;
S523如音频为多声道则保存一份原音频副本,并转化为单声道音频,为后续操作节约计算和内存资源;
S524计算音频最大可拆分线程(进程)数,本发明限定每线程处理音频长度不超过2分钟;
S525根据计算得出的最大可拆分线程数将音频平均分段,并创建线程池,将分完段的音频加入线程池。
作为优选实施例,所述步骤S53,包括如下步骤:
S531自动标记:
autoTag(signal,frameLengthRate,sens,similarTagsInterval,sampleRate)→(tags,sections)
输入待测语音段signal,分帧率frameLengthRate,端点检测灵敏度sens,断句最短时间similarTagsInterval,采样率sampleRate。首先创建记录标记点的数组tags,端点记录数组sections,接着调用语音激活检测函数计算第一处语音段的起始位置和结束位置,组成Section类变量,并加入单端点数组sections中,同时记录该结束点位置,接着将音频的起始位置到检测的语音段结束位置,进行下一次语音激活检测,将前一次记录的结束点位置和这一次得到的起始点位置求中点,加入待处理标签数组tags,并同样组成Section类变量并加入sections,循环操作,直到剩余音频段长度小于一固定值,退出循环。返回tags和sections。
S532初始化端点记录数组:
initSectionsPointArray(audioLength,sections)→(sectionsPointArray)
输入待测语音段长度audioLength,单端点数组sections,接着根据audioLength和sections计算装填因子(见图5)并创建端点记录数组sectionsPointArray,接着遍历sections中所有section,计算每个section中的startInterval到endInterval所跨域的哈希值,将该section的引用置入所有其包含的哈希块中,遍历装填完成后,返回初始化完成的sectionsPointArray。
作为优选实施例,所述步骤S54,包括如下步骤:
逐个读取标签,获取剪辑的起点和终点:
getCutting(sectionPointsArray,tag,signal,sampleRate,similarAudiosValueFFT,similarAudiosValueMFCC,frameLengthRate,sens,penaltyCDTW,makeupTime,maxIntervalNum)→(cutA,cutB)
输入端点记录数组sectionPointsArray,当前标记点tag,待检测语音段signal,采样率sampleRate,快速傅里叶的相似度标准similarAudiosValueFFT,梅尔频率倒谱系数的相似度标准similarAudiosValueMFCC,帧长占比frameLengthRate,端点检测灵敏度sens,惩罚系数penaltyCDTW,补偿时间makeupTime,最大前向检测次数maxIntervalNum,
首先,沿tag处将signal分为前半部分音频beforeWave和后半部分音频afterWave,接着寻找afterWave的语音起始点(动态规划思想),使用tag除以sectionPointsArray的装填因子,获得当前tag所在的sectionsArrayPoint并调用成员方法findSection寻找tag具体所在的section记为afterSection,如未找到则进行语言激活检测,获得当前语音段的起始点终止点,如找到则直接获取语音段的起始点,接着获取beforeWave的起始点和终止点,首先将beforeWave倒置,接着检测afterSection是否为空,如为空则进行语言激活检测,获得当前语音段的起始点,终止点,并同afterWave的起始点终止点封装成section加入sectionPointsArray,如不为空则直接从afterSection获取起始点beforePoint终止点beforePointEnd。然后根据获得的起始点终止点截取前后两段语音,并统一到相同长度,即选取两段语音中长度较小段,将较长段截取成较小段,将两段语音记为afterPart、beforePart,
S541计算快速傅里叶后的相似度:
calculateSimilarFFT(beforePart,afterPart,sampleRate)→(similarFFT)
输入要检测的前后语音段beforePart、afterPart,采样率sampleRate,接着计算每段音频的频谱插值,首先将音频进行带通滤波,随后快速傅里叶变换,接着在150Hz到sampleRate Hz计算出均匀分布的100001个点进行三次方插值,插值确保了两段音频比较频率相似度时的点位相同,接着计算Pearson相似度,获得similarFFT;
如计算得到的similarFFT小于用户设置的similarAudiosValueFFT则跳过本次检测,获取在beforePart前一段的语音段进行检测。如得到的similarFFT大于similarAudiosValueFFT则再计算两语音段的梅尔频率倒谱系数相似度;
S542计算梅尔频率倒谱系数相似度:
calculateSimilarMFCC(beforePart,afterPart,sampleRate,frameLengthRate,penaltyCDTW)→(similarMFCC,PCRateFlag)
输入要检测的前后语音段beforePart、afterPart,采样率sampleRate,帧长占比frameLengthRate,惩罚系数penaltyCDTW。首先计算两段语音段的12阶梅尔倒谱系数,记为cccB、cccA,接着对两语音段每一阶梅尔倒谱系数进行动态时间规整,如动态时间规整的惩罚率大于50%则直接使similarMFCC=0,PCRateFlag=False并返回,否则计算Pearson相似度,将当前阶的MFCC相似度记入similarMFCCrow,循环直到12阶梅尔倒谱系数相似度全部计算完成。接着对获得的similarMFCCrow进行归一化倒谱提升,提升人声特征频段的相似度权重,并获得最终的梅尔倒谱系数相似度similarMFCC,
如果获得的PCRateFlag为否,或者similarMFCC值小于用户设置的similarAudiosValueMFCC则跳过本次检测,向前移动beforePart的位置再检测,
检测轮次取决于用户设定的最大前向检测次数maxIntervalNum,
如similarMFCC大于等于用户设置的similarAudiosValueMFCC则将剪错起点cutA置为当前beforePart的起始点,剪错终点cutB置为afterPart的起始点,并返回。
本发明的技术原理:
针对音频自动剪错的需求,本发明将基于语音识别技术链中的语音激活检测、梅尔频率倒谱系数、动态时间规整技术,设计一种高效、轻量化的语音相似度检测技术,并基于此技术实现音频自动剪错功能。由于不使用已有语料库,于是传统动态时间规整技术的相似度标准:累加距离,不再具有绝对意义,且在相对意义下其不易被理解。因此,本发明根据动态时间规整获得的新的语音段进行Pearson相似度计算使相似度规整到[0,1]区间以获得更好的理解性,同时使用Pearson相似度计算相似度时将能够规避前后语音段音量大小不一致导致的相似度降低这一现象。并且,本发明将对动态时间规整算法进行改良,以适配无样本情况下的相似度判断,通过在算法中加入惩罚系数penaltyC,对动态时间规整算法在匹配两段语音时出现的过拟合现象进行修正。
本发明在实现高效、轻量化的语音相似度检测技术的基础上,设计了一套高效、高准确度的音频自动剪错系统,能够对音频中出现的错读现象进行标明和剪切。音频自动剪错系统中为加快计算速度引入了动态规划思想和多线程技术,针对时序序列的时刻误差性设计了一种数据结构算法,使得时间序列下的动态规划搜索效率极大提高。同时由于系统设计中完全引入了多线程技术,计算效率极大提高、内存使用率显著降低。同时系统根据用户使用的反馈,增加了可以进行多次迭代检测和记录原音轨剪错标记的能力,通过对已有剪错标记点和时长的反算,能够得到所有剪错标记在原始音频的标记段,做到了无限次迭代不丢失最原始音频标记的能力,极大方便用户使用本发明。
有益效果:
(1)利用改进的动态时间规整技术提高了无语料库情况下的音频相似度检测准确度,与传统动态时间规整技术相比,减少了音频过拟合的现象。
(2)使用Pearson相似度代替传统动态时间规整得到的累加距离相似度,适配无语料库情况下的音频相似度检测,同时使用Pearson相似度消除了因语音音量大小不同导致的相似度降低现象。
(3)引入动态规划思想设计音频自动剪错系统,极大减少了语音激活检测的次数,使得计算效率极大提升。
(4)设计了支持迭代的自动剪错方法,多次迭代自动剪错能获得较好的剪错效果同时所有剪错标记都能够得到保留,方便用户查看和修改。
附图说明
图1为本发明帧长占比与分帧关系示意图。
图2为本发明DTW算法与改进后的DTW算法。
图3为本发明VAD动态规划表示意图。
图4为本发明预处理流程图。
图5为本发明确定装填因子示意图。
图6为本发明语音段确定(标记确定)流程图。
图7为本发明相似语音段判断流程图。
图8为本发明预剪错流程图。
图9为本发明剪错流程图。
图10为本发明单次的自动剪错任务流程。
图11为本发明多次迭代的自动剪错任务流程。
具体实施方式
下面结合附图对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例:
1.4.实现步骤——语音相似度检测技术
1.4.1.基础功能
(1)确定帧长:
getFrameLength(signal,frameLengthRate)→(frameLength)
输入待测语音信号signal,帧长占比frameLengthRate,输出待测语音信号的分帧长度frameLength(见图1)
(2)语音分帧:
enframe(signal,frameLength,frameInc,windowFun)→(frames)
首先通过计算帧长frameLength的三分之二作为帧移frameInc,接着输入待测语音信号signal,帧长frameLength,帧移frameInc,加窗函数windowFun,输出按帧长和帧移切割完成的形状为帧数×帧长的分帧矩阵frames
(3)获得滤波系数:
getLfilter(sampleRate)→(FILTERA,FILTERB)
输入待测语音采样率sampleRate,经过scipy工具箱中的signal.butter方法,设计带通滤波器,滤波取80Hz到18000Hz的人声特征频段,得到滤波分子系数向量FILTERA和分母系数向量FILTERB,并输出
1.4.2.语音激活检测
(1)计算过零率:
getZeroCrossingRate(signal,sens)→(zcr,zcr1,zcr2,tmp1,tmp2,signs,diffs)
输入待测语音信号signal,灵敏度系数sens,首先分别计算signal在[0,end-1]的分帧tmp1与在[1,end]的分帧tmp2,接着计算<tmp1,tmp2>得到结果取小于0的为1,其余为0,得出矩阵signs,即接着计算|tmp1-tmp2|,结果大于0.2的为1,其余为0,得出矩阵diffs,即/>最后计算<signs,diffs>,按列求和,得到形状为帧数×1的过零率矩阵zcr,再计算zcr中最大值除以snes的值作为高过零率门限zcr1,计算zcr中最大值除以snes的1.5倍的值作为低过零率门限zcr2
(2)计算短时能量:
getShortTimeEnergy(signal,sens)→(amp,amp1,amp2,signalafterFilter,frames)
输入待测语音信号signal,灵敏度系数sens,首先通过计算获得滤波系数并通过scipy工具箱中的signal.lfilter方法进行signal的滤波,获得滤波后的语音信号signalafterFilter,再计算signalafterFilter的分帧frames,取frames的绝对值并按列求和得到形状为帧数×1的短时能量矩阵amp,再计算amp中最大值除以sens的值作为高能量门限amp1,计算amp中最大值除以sens的1.5倍的值作为低能量门限amp2
(3)计算语音端点:
vad(amp,zcr,amp1,amp2,zcr1,zcr2,frameInc)→(startPoint,endPoint)
输入待测语音的短时能量amp,过零率zcr,短时能量上下门限amp1和amp2,过零率上下门限zcr1和zcr2,以及帧移frameInc,对amp和zcr中每一点数值进行比较,数值大于各自设定的上门限amp1或zcr1则进入语音段记录开始值的下标为startPoint,如大于各自下门限但小于上门限则进入过渡态,如进入语音态后,数值小于各自下门限则进入结束态记录结束值的下标为endPoint,并将startPoint与endPoint乘以frameInc得到正确的语音起点startPoint和语音终点endPoint。
1.4.3.梅尔频率倒谱系数
(1)计算梅尔频率倒谱系数:
mfcc(signal,sampleRate)→(ccc,signalafterFilter,frames,filterBanks)
输入待测语音信号signal,待测语音信号采样率sampleRate,首先计算获得滤波系数并通过scipy工具箱中的signal.lfilter方法进行signal的滤波,获得滤波后的语音信号signalafterFilter,再对signalafterFilter分帧,此处帧长固定256,帧移80,窗函数选择汉明窗得到分帧矩阵frames,本发明选择将梅尔频率倒谱系数导出为12维,即设置梅尔频率倒谱系数矩阵ccc形状为frames列数×12的矩阵。接着计算每一帧系数,首先对当前帧进行快速傅里叶变换得到当前帧频域谱(数组),再对频域谱开平方,得到当前帧能量谱(数组),接着使用梅尔滤波器组(滤波器个数为24)进行滤波,再对滤波后矩阵取对数得到filterBanks特征,最后将filterBanks带入离散余弦变换函数计算并舍去计算结果第一列,得到第一帧的梅尔频率倒谱系数,记录至梅尔频率倒谱系数矩阵ccc对应列,重复以上步骤至所有帧计算完成,得到ccc。
1.4.4.动态时间规整技术
(1)计算两语音段的最佳路径:
dtw(signalA,signalB,penaltyC)→(signalAdtw,signalBdtw,PCRate,D,w)
输入待计算语音段singalA和singalB,输入惩罚系数penaltyC,首先将singalA和singalB标准化,再计算singalA每一点到singalB的所有点的欧式距离,形成形状为singalA长度×signalB长度的距离矩阵D,接着设置起点为矩阵右上角,开始选择最佳路径,选择项有三个,分别是矩阵中当前点的下方、左方和左下方,选取其中距离最短项,并将选择项记录到最佳路径w中。本发明在此算法中加入惩罚系数项(见图2),即当距离最短项为当前点下方或左方,对应方向的惩罚计数器加一,并在记录最佳路径前判断各方向惩罚计数器的计数,如果大于penaltyC则惩罚当前格最佳路径,其匹配的最佳路径位置被置-1,记录到w中。接着根据w中记录的最佳路径重新调整singalA和singalB,对于被惩罚的路径则将对应值置为当前语音段的平均值(取平均值减去原最佳路径值减去平均值的值效果会更佳),最终输出经过最佳路径重新对齐后的语音段signalAdtw和signalBdtw,同时计算检测中的总惩罚数除以总检测次数获得惩罚率PCRate。
1.5.实现步骤——音频自动剪错系统
1.5.1.类定义
(1)剪错记录Tag:用来记录剪错段落
·成员变量为剪切起始点startTime,终止点endTime,下一个剪错记录Tag的地址next
·成员方法重写了加法与减法
-加法:一个Tag加上一个常数则对应剪切起始点、终止点加上该常数,同时调用next加上该常数
-减法:一个Tag减去一个常数则对应剪切起始点、终止点减去该常数,同时调用next减去该常数
(2)端点记录单节点Section:用来记录端点激活检测后的结果
·成员变量为起始管辖点startInterval,终止管辖点endInterval,前一管辖域内起始端点位置beforePoint,前一管辖域内终止端点位置beforePointEnd,当前管辖域内起始端点位置afterPoint,当前管辖域内终止端点位置afterPointEnd
(3)端点数组单节点SectionsArrayPoint:用来协助哈希散列存储Section的类预处理
·成员变量为当前节点哈希号HashID,当前节点的所有Section组成的数组sectionsArray(见图3)
·成员变量
-判断是否存在相同Section:
isExistSection(section)→(ansIndex),判断当前节点内的Section的beforePoint或afterPoint是否相同,如相同则返回该Section在sectionsArray中的下标,如没有相同则返回-1
-寻找当前节点中与某一时刻最佳匹配的Section:
findSection(point)→(ansSection),遍历sectionsArray判断该时刻point是否位于section的[startInterval,afterPoint]范围内,如位于则返回当前section,否则返回空
1.5.2.预处理
(1)对用户输入的所有参数判断是否存在非法值,如存在非法值则将对应项置为默认值
(2)读取要处理的音频,获取音频数组和采样率
(3)如音频为多声道则保存一份原音频副本,并转化为单声道音频,为后续操作节约计算和内存资源
(4)计算音频最大可拆分线程(进程)数,本发明限定每线程处理音频长度不超过2分钟
(5)根据计算得出的最大可拆分线程数将音频平均分段,并创建线程池,将分完段的音频加入线程池。如图4所示。
1.5.3.语音段确定(标记确定)
(1)自动标记:
autoTags(signal,frameLengthRate,sens,similarTagsInterval,sampleRate)→(tags,sections)
输入待测语音段signal,分帧率frameLengthRate,端点检测灵敏度sens,断句最短时间similarTagsInterval,采样率sampleRate。首先创建记录标记点的数组tags,端点记录数组sections,接着调用语音激活检测函数计算第一处语音段的起始位置和结束位置,组成Section类变量,并加入单端点数组sections中,同时记录该结束点位置,接着将音频的起始位置到检测的语音段结束位置,进行下一次语音激活检测,将前一次记录的结束点位置和这一次得到的起始点位置求中点,加入待处理标签数组tags,并同样组成Section类变量并加入sections,循环操作,直到剩余音频段长度小于一固定值,退出循环。返回tags和sections。
(2)初始化端点记录数组:
initSectionsPointArray(audioLength,sections)→(sectionsPointArray)
输入待测语音段长度audioLength,单端点数组sections,接着根据audioLength和sections计算装填因子(见图5)并创建端点记录数组sectionsPointArray,接着遍历sections中所有section,计算每个section中的startInterval到endInterval所跨域的哈希值,将该section的引用置入所有其包含的哈希块中,遍历装填完成后,返回初始化完成的sectionsPointArray。如图6所示。
1.5.4.相似语音段判断
逐个读取标签,获取剪辑的起点和终点:
getCutting(sectionPointsArray,tag,signal,sampleRate,similarAudiosValueFFT,similarAudiosValueMFCC,frameLengthRate,sens,penaltyCDTW,makeupTime,maxIntervalNum)→(cutA,cutB)
输入端点记录数组sectionPointsArray,当前标记点tag,待检测语音段signal,采样率sampleRate,快速傅里叶的相似度标准similarAudiosValueFFT,梅尔频率倒谱系数的相似度标准similarAudiosValueMFCC,帧长占比frameLengthRate,端点检测灵敏度sens,惩罚系数penaltyCDTW,补偿时间makeupTime,最大前向检测次数maxIntervalNum。
首先沿tag处将signal分为前半部分音频beforeWave和后半部分音频afterWave,接着寻找afterWave的语音起始点(动态规划思想),使用tag除以sectionPointsArray的装填因子,获得当前tag所在的sectionsArrayPoint并调用成员方法findSection寻找tag具体所在的section记为afterSection,如未找到则进行语言激活检测,获得当前语音段的起始点终止点,如找到则直接获取语音段的起始点。接着获取beforeWave的起始点和终止点,首先将beforeWave倒置,接着检测afterSection是否为空,如为空则进行语言激活检测,获得当前语音段的起始点,终止点,并同afterWave的起始点终止点封装成section加入sectionPointsArray,如不为空则直接从afterSection获取起始点beforePoint终止点beforePointEnd。然后根据获得的起始点终止点截取前后两段语音,并统一到相同长度,即选取两段语音中长度较小段,将较长段截取成较小段,将两段语音记为afterPart、beforePart。
(1)计算快速傅里叶后的相似度
calculateSimilarFFT(beforePart,afterPart,sampleRate)→(similarFFT)
输入要检测的前后语音段beforePart、afterPart,采样率sampleRate,接着计算每段音频的频谱插值,首先将音频进行带通滤波,随后快速傅里叶变换,接着在150Hz到sampleRate Hz计算出均匀分布的100001个点进行三次方插值,插值确保了两段音频比较频率相似度时的点位相同,接着计算Pearson相似度,获得SimilarFFT。
如计算得到的similarFFT小于用户设置的similarAudiosValueFFT则跳过本次检测,获取在beforePart前一段的语音段进行检测。如得到的similarFFT大于similarAudiosValueFFT则再计算两语音段的梅尔频率倒谱系数相似度。
(2)计算梅尔频率倒谱系数相似度:
calculateSimilarMFCC(beforePart,afterPart,sampleRate,frameLengthRate,penaltyCDTW)→(similarMFCC,PCRateFlag)
输入要检测的前后语音段beforePart、afterPart,采样率sampleRate,帧长占比frameLengthRate,惩罚系数penaltyCDTW。首先计算两段语音段的12阶梅尔倒谱系数,记为cccB、cccA,接着对两语音段每一阶梅尔倒谱系数进行动态时间规整,如动态时间规整的惩罚率大于50%则直接使similarMFCC=0,PCRateFlag=False并返回,否则计算Pearson相似度,将当前阶的MFCC相似度记入similarMFCCrow,循环直到12阶梅尔倒谱系数相似度全部计算完成。接着对获得的similarMFCCrow进行归一化倒谱提升,提升人声特征频段的相似度权重,并获得最终的梅尔倒谱系数相似度similarMFCC。
如果获得的PCRateFlag为否,或者similarMFCC值小于用户设置的similarAudiosValueMFCC则跳过本次检测,向前移动beforePart的位置再检测。
检测轮次取决于用户设定的最大前向检测次数maxIntervalNum。
如similarMFCC大于等于用户设置的similarAudiosValueMFCC则将剪错起点cutA置为当前beforePart的起始点,剪错终点cutB置为afterPart的起始点,并返回。如图7所示。
1.5.5.预剪错
如果getCutting方法返回的cutA和cutB非空,则将cutA和cutB封装成Tag类的变量,加入Tag链表。
当所有标记检测完成后,对链表头加上补偿时间makeupTime,以将所有剪错时间统一到原始音频时间轴中,并返回Tag链表头指针。
等待所有线程结束,将所有Tag链表头指针存入临时数组tagHeadList。
首先对tagHeadList进行排序,这里重写了排序方法,以tagHeadList中每一个头指针指向的下一个剪错标记的开始位置的值作为排序值,由小到大排序,接着循环读取tagHeadList中每个剪错标记头指针,尾插法插入新的标记头tagHead,将tagHeadList组成为一条链表,链表头为tagHead。
将用户输入的原始标记点originTags(数组形式)进行排序,并从tagHead遍历链表,将originTags中所有标记转换为Tag类型变量(startTime与endTime同一时刻)插入链表。
接着处理tagHead,因插入了用户输入的原始标记点而可能导致的Tag同起点或嵌套的问题。从tagHead遍历链表,比较前一Tag和后一Tag在时间上是否有重叠部分,如有重叠部分则进行合并。
接着生成适配原始音频的标记段,深拷贝一份tagHead为头指针的链表tagHeadcopy,同时将用户输入的原始音频标记段(数组形式)转换为Tag链表形式,链表头为tagHeadorigin,将tagHeadorigin所有项插入tagHead,由于tagHeadorigin时间线和tagHead的并不相同,所以需要将tagHeadorigin中每一项依次插入tagHead且在插入后将插入点之后的所有Tag增加插入的Tag的时长,本发明采用链表结构组织Tag的优势也就体现出来,只需要对插入的Tag的下一Tag增加时长即可完成所有Tag的时长增加,tagHeadorigin中所有项插入完毕后,预剪错操作全部结束,获得tagHead和tagHeadcopy。如图8所示。
1.5.6.剪错
依次读取tagHead中剪错Tag,将原音频依据Tag中的startTime和endTime进行剪切,每剪切完一个Tag,将当前位置Tag的后一个Tag减去当前剪切的长度。最终获得剪错完成的音频。
接着将tagHead和tagHeadcopy转换为方便用户导入的数组结构,即完成了剪错操作,最终输出剪错完成的音频、剪错完成的音频的剪错标记点、原始音频的剪错标记段。如图9、10、11所示。
针对音频自动剪错的需求,本发明将基于语音识别技术链中的语音激活检测、梅尔频率倒谱系数、动态时间规整技术,设计一种高效、轻量化的语音相似度检测技术,并基于此技术实现音频自动剪错功能。由于不使用已有语料库,于是传统动态时间规整技术的相似度标准:累加距离,不再具有绝对意义,且在相对意义下其不易被理解。因此,本发明根据动态时间规整获得的新的语音段进行Pearson相似度计算使相似度规整到[0,1]区间以获得更好的理解性,同时使用Pearson相似度计算相似度时将能够规避前后语音段音量大小不一致导致的相似度降低这一现象。并且,本发明将对动态时间规整算法进行改良,以适配无样本情况下的相似度判断,通过在算法中加入惩罚系数penaltyC,对动态时间规整算法在匹配两段语音时出现的过拟合现象进行修正。
本发明在实现高效、轻量化的语音相似度检测技术的基础上,设计了一套高效、高准确度的音频自动剪错系统,能够对音频中出现的错读现象进行标明和剪切。音频自动剪错系统中为加快计算速度引入了动态规划思想和多线程技术,针对时序序列的时刻误差性设计了一种数据结构算法,使得时间序列下的动态规划搜索效率极大提高。同时由于系统设计中完全引入了多线程技术,计算效率极大提高、内存使用率显著降低。同时系统根据用户使用的反馈,增加了可以进行多次迭代检测和记录原音轨剪错标记的能力,通过对已有剪错标记点和时长的反算,能够得到所有剪错标记在原始音频的标记段,做到了无限次迭代不丢失最原始音频标记的能力,极大方便用户使用本发明。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (6)

1.一种基于相似度检测的音频自动剪错方法,其特征在于,包括如下步骤:
S1完成前期基础工作;
S11确定帧长:
getFrameLength(signal,frameLengthRate)→(frameLength)
输入待测语音信号signal,帧长占比frameLengthRate,输出待测语音信号的分帧长度frameLength;
S12语音分帧:
enframe(signal,frameLength,frameInc,windowFun)→(frames)
首先,通过计算帧长frameLength的三分之二作为帧移frameInc,接着输入待测语音信号signal,帧长frameLength,帧移frameInc,加窗函数windowFun,输出按帧长和帧移切割完成的形状为帧数×帧长的分帧矩阵frames
S13获得滤波系数:
getLfilter(sampleRate)→(FILTERA,FILTERB)
输入待测语音采样率sampleRate,经过scipy工具箱中的signal.butter方法,设计带通滤波器,滤波取80Hz到18000Hz的人声特征频段,得到滤波分子系数向量FILTERA和分母系数向量FILTERB,并输出;
S2语音激活检测;
S21计算过零率:
getZeroCrossingRate(signal,sens)→(zcr,zcr1,zcr2,tmp1,tmp2,signs,diffs)
输入待测语音信号signal,灵敏度系数sens,首先分别计算signal在[0,end-1]的分帧tmp1与在[1,end]的分帧tmp2,接着计算<tmp1,tmp2>得到结果取小于0的为1,其余为0,得出矩阵signs,即接着计算|tmp1-tmp2|,结果大于0.2的为1,其余为0,得出矩阵diffs,即/>最后计算<signs,diffs>,按列求和,得到形状为帧数×1的过零率矩阵zcr,再计算zcr中最大值除以snes的值作为高过零率门限zcr1,计算zcr中最大值除以snes的1.5倍的值作为低过零率门限zcr2
S22计算短时能量:
getShortTimeEnergy(signal,sens)→(amp,amp1,amp2,signalafterFilter,frames)
输入待测语音信号signal,灵敏度系数sens,首先通过计算获得滤波系数并通过scipy工具箱中的signal.lfilter方法进行signal的滤波,获得滤波后的语音信号signalafterFilter,再计算signalafterFilter的分帧frames,取frames的绝对值并按列求和得到形状为帧数×1的短时能量矩阵amp,再计算amp中最大值除以sens的值作为高能量门限amp1,计算amp中最大值除以sens的1.5倍的值作为低能量门限amp2
S23计算语音端点:
vad(amp,zcr,amp1,amp2,zcr1,zcr2,frameInc)→(startPoint,endPoint)
输入待测语音的短时能量amp,过零率zcr,短时能量上下门限amp1和amp2,过零率上下门限zcr1和zcr2,以及帧移frameInc,对amp和zcr中每一点数值进行比较,数值大于各自设定的上门限amp1或zcr1则进入语音段记录开始值的下标为startPoint,如大于各自下门限但小于上门限则进入过渡态,如进入语音态后,数值小于各自下门限则进入结束态记录结束值的下标为endPoint,并将startPoint与endPoint乘以frameInc得到正确的语音起点startPoint和语音终点endPoint;
S3计算梅尔频率倒谱系数;
mfcc(signal,sampleRate)→(ccc,signalafterFilter,frames,filterBanks)
入待测语音信号signal,待测语音信号采样率sampleRate,首先计算获得滤波系数并通过scipy工具箱中的signal.lfilter方法进行signal的滤波,获得滤波后的语音信号signalafterFilter,再对signalafterFilter分帧,此处帧长固定256,帧移80,窗函数选择汉明窗得到分帧矩阵frames,选择将梅尔频率倒谱系数导出为12维,即设置梅尔频率倒谱系数矩阵ccc形状为frames列数×12的矩阵,接着计算每一帧系数,首先对当前帧进行快速傅里叶变换得到当前帧频域谱,再对频域谱开平方,得到当前帧能量谱,接着使用梅尔滤波器组进行滤波,再对滤波后矩阵取对数得到filterBanks特征,最后将filterBanks带入离散余弦变换函数计算并舍去计算结果第一列,得到第一帧的梅尔频率倒谱系数,记录至梅尔频率倒谱系数矩阵ccc对应列,重复以上步骤至所有帧计算完成,得到ccc;
S4动态时间规整技术;
计算两语音段的最佳路径:
dtw(signalA,signalB,penaltyC)→(signalAdtw,signalBdtw,PCRate,D,w)
输入待计算语音段singalA和singalB,输入惩罚系数penaltyC,首先将singalA和singalB标准化,再计算singalA每一点到singalB的所有点的欧式距离,形成形状为singalA长度×signalB长度的距离矩阵D,接着设置起点为矩阵右上角,开始选择最佳路径,选择项有三个,分别是矩阵中当前点的下方、左方和左下方,选取其中距离最短项,并将选择项记录到最佳路径w中,在此算法中加入惩罚系数项,即当距离最短项为当前点下方或左方,对应方向的惩罚计数器加一,并在记录最佳路径前判断各方向惩罚计数器的计数,如果大于penaltyC则惩罚当前格最佳路径,其匹配的最佳路径位置被置-1,记录到w中,接着根据w中记录的最佳路径重新调整singalA和singalB,对于被惩罚的路径则将对应值置为当前语音段的平均值,最终输出经过最佳路径重新对齐后的语音段signalAdtw和signalBdtw,同时计算检测中的总惩罚数除以总检测次数获得惩罚率PCRate;
S5利用音频自动剪错系统实现多核并行的计算能力。
2.根据权利要求1所述的一种基于相似度检测的音频自动剪错方法,其特征在于,所述步骤S5,包括如下步骤:
S51类定义;
S52预处理;
S53语音段确定;
S54相似语音段判断;
S55预剪错:
如果getCutting方法返回的cutA和cutB非空,则将cutA和cutB封装成Tag类的变量,加入Tag链表,
当所有标记检测完成后,对链表头加上补偿时间makeupTime,以将所有剪错时间统一到原始音频时间轴中,并返回Tag链表头指针,
等待所有线程结束,将所有Tag链表头指针存入临时数组tagHeadList,
首先,对tagHeadList进行排序,这里重写了排序方法,以tagHeadList中每一个头指针指向的下一个剪错标记的开始位置的值作为排序值,由小到大排序,接着循环读取tagHeadList中每个剪错标记头指针,尾插法插入新的标记头tagHead,将tagHeadList组成为一条链表,链表头为tagHead,
将用户输入的原始标记点originTags进行排序,并从tagHead遍历链表,将originTags中所有标记转换为Tag类型变量插入链表,
接着处理tagHead,因插入了用户输入的原始标记点而可能导致的Tag同起点或嵌套的问题,从tagHead遍历链表,比较前一Tag和后一Tag在时间上是否有重叠部分,如有重叠部分则进行合并,
接着生成适配原始音频的标记段,深拷贝一份tagHead为头指针的链表tagHeadcopy,同时将用户输入的原始音频标记段转换为Tag链表形式,链表头为tagHeadorigin,将tagHeadorigin所有项插入tagHead,由于tagHeadorigin时间线和tagHead的并不相同,所以需要将tagHeadorigin中每一项依次插入tagHead且在插入后将插入点之后的所有Tag增加插入的Tag的时长,采用链表结构组织Tag的优势也就体现出来,只需要对插入的Tag的下一Tag增加时长即可完成所有Tag的时长增加,tagHeadorigin中所有项插入完毕后,预剪错操作全部结束,获得tagHead和tagHeadcopy
S56剪错:
依次读取tagHead中剪错Tag,将原音频依据Tag中的startTime和endTime进行剪切,每剪切完一个Tag,将当前位置Tag的后一个Tag减去当前剪切的长度,最终获得剪错完成的音频,接着将tagHead和tagHeadcopy转换为方便用户导入的数组结构,即完成了剪错操作,最终输出剪错完成的音频、剪错完成的音频的剪错标记点、原始音频的剪错标记段。
3.根据权利要求2所述的一种基于相似度检测的音频自动剪错方法,其特征在于,步骤S51,包括如下步骤:
S511剪错记录Tag:用来记录剪错段落,
成员变量为剪切起始点startTime,终止点endTime,下一个剪错记录Tag的地址next;
成员方法重写了加法与减法;
加法:一个Tag加上一个常数则对应剪切起始点、终止点加上该常数,同时调用next加上该常数;
减法:一个Tag减去一个常数则对应剪切起始点、终止点减去该常数,同时调用next减去该常数;
S512端点记录单节点Section:用来记录端点激活检测后的结果,
成员变量为起始管辖点startInterval,终止管辖点endInterval,前一管辖域内起始端点位置beforePoint,前一管辖域内终止端点位置beforePointEnd,当前管辖域内起始端点位置afterPoint,当前管辖域内终止端点位置afterPointEnd;
S513端点数组单节点SectionsArrayPoint:用来协助哈希散列存储Section的类预处理,
成员变量为当前节点哈希号HashID,当前节点的所有Section组成的数组sectionsArray;
成员变量:
判断是否存在相同Section:
isExistSection(section)→(ansIndex),判断当前节点内的Section的beforePoint或afterPoint是否相同,如相同则返回该Section在sectionsArray中的下标,如没有相同则返回-1;
寻找当前节点中与某一时刻最佳匹配的Section:
findSection(point)→(ansSection),遍历sectionsArray判断该时刻point是否位于section的[startInterval,afterPoint]范围内,如位于则返回当前section,否则返回空。
4.根据权利要求2所述的一种基于相似度检测的音频自动剪错方法,其特征在于,所述步骤S52,包括如下步骤:
S521对用户输入的所有参数判断是否存在非法值,如存在非法值则将对应项置为默认值;
S522读取要处理的音频,获取音频数组和采样率;
S523如音频为多声道则保存一份原音频副本,并转化为单声道音频,为后续操作节约计算和内存资源;
S524计算音频最大可拆分线程数,限定每线程处理音频长度不超过2分钟;
S525根据计算得出的最大可拆分线程数将音频平均分段,并创建线程池,将分完段的音频加入线程池。
5.根据权利要求2所述的一种基于相似度检测的音频自动剪错方法,其特征在于,所述步骤S53,包括如下步骤:
S531自动标记:
autoTags(signal,frameLengthRate,sens,similarTagsInterval,sampleRate)→(tags,sections)
输入待测语音段signal,分帧率frameLengthRate,端点检测灵敏度sens,断句最短时间similarTagsInterval,采样率sampleRate,首先创建记录标记点的数组tags,端点记录数组sections,接着调用语音激活检测函数计算第一处语音段的起始位置和结束位置,组成Section类变量,并加入单端点数组sections中,同时记录该结束点位置,接着将音频的起始位置到检测的语音段结束位置,进行下一次语音激活检测,将前一次记录的结束点位置和这一次得到的起始点位置求中点,加入待处理标签数组tags,并同样组成Section类变量并加入sections,循环操作,直到剩余音频段长度小于一固定值,退出循环,返回tags和sections,
S532初始化端点记录数组:
initSectionsPointArray(audioLength,sections)→(sectionsPointArray)
输入待测语音段长度audioLength,单端点数组sections,接着根据audioLength和sections计算装填因子创建端点记录数组sectionsPointArray,接着遍历sections中所有section,计算每个section中的startInterval到endInterval所跨域的哈希值,将该section的引用置入所有其包含的哈希块中,遍历装填完成后,返回初始化完成的sectionsPointArray。
6.根据权利要求2所述的一种基于相似度检测的音频自动剪错方法,其特征在于,所述步骤S54,包括如下步骤:
逐个读取标签,获取剪辑的起点和终点:
getCutting(sectionPointsArray,tag,signal,sampleRate,similarAudiosValueFFT,similarAudiosValueMFCC,frameLengthRate,sens,penaltyCDTW,makeupTime,maxIntervalNum)→(cutA,cutB)
输入端点记录数组sectionPointsArray,当前标记点tag,待检测语音段signal,采样率sampleRate,快速傅里叶的相似度标准similarAudiosValueFFT,梅尔频率倒谱系数的相似度标准similarAudiosValueMFCC,帧长占比frameLengthRate,端点检测灵敏度sens,惩罚系数penaltyCDTW,补偿时间makeupTime,最大前向检测次数maxIntervalNum,
首先,沿tag处将signal分为前半部分音频beforeWave和后半部分音频afterWave,接着寻找afterWave的语音起始点,使用tag除以sectionPointsArray的装填因子,获得当前tag所在的sectionsArrayPoint并调用成员方法findSection寻找tag具体所在的section记为afterSection,如未找到则进行语言激活检测,获得当前语音段的起始点终止点,如找到则直接获取语音段的起始点,接着获取beforeWave的起始点和终止点,首先将beforeWave倒置,接着检测afterSection是否为空,如为空则进行语言激活检测,获得当前语音段的起始点,终止点,并同afterWave的起始点终止点封装成section加入sectionPointsArray,如不为空则直接从afterSection获取起始点beforePoint终止点beforePointEnd,然后根据获得的起始点终止点截取前后两段语音,并统一到相同长度,即选取两段语音中长度较小段,将较长段截取成较小段,将两段语音记为afterPart、beforePart,
S541计算快速傅里叶后的相似度:
calculateSimilarFFT(beforePart,afterPart,sampleRate)→(similarFFT)
输入要检测的前后语音段beforePart、afterPart,采样率sampleRate,接着计算每段音频的频谱插值,首先将音频进行带通滤波,随后快速傅里叶变换,接着在150Hz到sampleRate Hz计算出均匀分布的100001个点进行三次方插值,插值确保了两段音频比较频率相似度时的点位相同,接着计算Pearson相似度,获得similarFFT;
如计算得到的similarFFT小于用户设置的similarAudiosValueFFT则跳过本次检测,获取在beforePart前一段的语音段进行检测,如得到的similarFFT大于similarAudiosValueFFT则再计算两语音段的梅尔频率倒谱系数相似度;
S542计算梅尔频率倒谱系数相似度:
calculateSimilarMFCC(beforePart,afterPart,sampleRate,frameLengthRate,penaltyCDTW)→(similarMFCC,PCRateFlag)
输入要检测的前后语音段beforePart、afterPart,采样率sampleRate,帧长占比frameLengthRate,惩罚系数penaltyCDTW,首先计算两段语音段的12阶梅尔倒谱系数,记为cccB、cccA,接着对两语音段每一阶梅尔倒谱系数进行动态时间规整,如动态时间规整的惩罚率大于50%则直接使similarMFCC=0,PCRateFlag=False并返回,否则计算Pearson相似度,将当前阶的MFCC相似度记入similarMFCCrow,循环直到12阶梅尔倒谱系数相似度全部计算完成,接着对获得的similarMFCCrow进行归一化倒谱提升,提升人声特征频段的相似度权重,并获得最终的梅尔倒谱系数相似度similarMFCC,
如果获得的PCRateFlag为否,或者similarMFCC值小于用户设置的similarAudiosValueMFCC则跳过本次检测,向前移动beforePart的位置再检测,
检测轮次取决于用户设定的最大前向检测次数maxIntervalNum,
如similarMFCC大于等于用户设置的similarAudiosValueMFCC则将剪错起点cutA置为当前beforePart的起始点,剪错终点cutB置为afterPart的起始点,并返回。
CN202210823199.2A 2022-07-13 2022-07-13 一种基于相似度检测的音频自动剪错方法 Active CN115273891B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210823199.2A CN115273891B (zh) 2022-07-13 2022-07-13 一种基于相似度检测的音频自动剪错方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210823199.2A CN115273891B (zh) 2022-07-13 2022-07-13 一种基于相似度检测的音频自动剪错方法

Publications (2)

Publication Number Publication Date
CN115273891A CN115273891A (zh) 2022-11-01
CN115273891B true CN115273891B (zh) 2024-04-19

Family

ID=83766035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210823199.2A Active CN115273891B (zh) 2022-07-13 2022-07-13 一种基于相似度检测的音频自动剪错方法

Country Status (1)

Country Link
CN (1) CN115273891B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116701128A (zh) * 2023-05-31 2023-09-05 上海创芯致锐互联网络有限公司 一种基于多端感应融合的led芯片烧录反馈监控系统
CN116939197A (zh) * 2023-09-15 2023-10-24 海看网络科技(山东)股份有限公司 基于音视频的直播节目首播和重播内容一致性监测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006132596A1 (en) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. Method and apparatus for audio clip classification
CN108665903A (zh) * 2018-05-11 2018-10-16 复旦大学 一种音频信号相似程度的自动检测方法及其系统
EP3839938A1 (en) * 2019-12-18 2021-06-23 Spotify AB Karaoke query processing system
CN113035160A (zh) * 2021-02-26 2021-06-25 成都潜在人工智能科技有限公司 基于相似矩阵的音乐自动剪辑实现方法、装置及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006132596A1 (en) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. Method and apparatus for audio clip classification
CN108665903A (zh) * 2018-05-11 2018-10-16 复旦大学 一种音频信号相似程度的自动检测方法及其系统
EP3839938A1 (en) * 2019-12-18 2021-06-23 Spotify AB Karaoke query processing system
CN113035160A (zh) * 2021-02-26 2021-06-25 成都潜在人工智能科技有限公司 基于相似矩阵的音乐自动剪辑实现方法、装置及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
一种改进的检测语音端点的方法;江官星;王建英;;微计算机信息;20060510(13);全文 *

Also Published As

Publication number Publication date
CN115273891A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
CN115273891B (zh) 一种基于相似度检测的音频自动剪错方法
US8249870B2 (en) Semi-automatic speech transcription
CN109065031B (zh) 语音标注方法、装置及设备
Zhou et al. Efficient audio stream segmentation via the combined T/sup 2/statistic and Bayesian information criterion
CA1246228A (en) Endpoint detector
JP3805809B2 (ja) オーディオデータのセグメンテーション方法
CN100530354C (zh) 信息检测装置、方法和程序
KR20030070179A (ko) 오디오 스트림 구분화 방법
CN108335699A (zh) 一种基于动态时间规整和语音活动检测的声纹识别方法
Wang et al. Digital audio tampering detection based on ENF consistency
CN107480152A (zh) 一种音频分析及检索方法和系统
JPS59121100A (ja) 連続音声認識装置
Zhang et al. System and method for automatic singer identification
Delacourt et al. Speaker-based segmentation for audio data indexing
US7680657B2 (en) Auto segmentation based partitioning and clustering approach to robust endpointing
US7680654B2 (en) Apparatus and method for segmentation of audio data into meta patterns
KR101122590B1 (ko) 음성 데이터 분할에 의한 음성 인식 장치 및 방법
Ahmed et al. Technique for automatic sentence level alignment of long speech and transcripts.
Htun Analytical approach to MFCC based space-saving audio fingerprinting system
Huang et al. Sports audio segmentation and classification
JPH04261591A (ja) 自動採譜装置
KR101002731B1 (ko) 오디오 데이터의 특징 벡터 추출방법과 그 방법이 기록된컴퓨터 판독 가능한 기록매체 및 이를 이용한 오디오데이터의 매칭 방법
Kartik et al. Speaker change detection using support vector machines
JPH0242238B2 (zh)
CN113902012A (zh) 说话人分离方法、装置和系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant