CN110400580A - 音频处理方法、装置、设备和介质 - Google Patents
音频处理方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN110400580A CN110400580A CN201910819078.9A CN201910819078A CN110400580A CN 110400580 A CN110400580 A CN 110400580A CN 201910819078 A CN201910819078 A CN 201910819078A CN 110400580 A CN110400580 A CN 110400580A
- Authority
- CN
- China
- Prior art keywords
- audio
- sound section
- shot sound
- target
- character quantity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000005520 cutting process Methods 0.000 claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims description 32
- 230000015654 memory Effects 0.000 claims description 22
- 238000001914 filtration Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 6
- 230000001788 irregular Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000013507 mapping Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 241001085205 Prenanthella exigua Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000005194 fractionation Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Auxiliary Devices For Music (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请公开了一种音频处理方法、装置、设备和介质,涉及数据处理技术领域。具体实现方案为:获取待切割的目标音频文件的音频波形,并确定所述音频波形中的单发音区间,所述单发音区间是指单字或发音黏连的多字的波形区间;确定所述单发音区间中的字符数量;根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割。本申请实施例提供的一种音频处理方法、装置、设备和介质,实现了对音频波形分布不规律的音频文件的自动切割。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种语音技术,具体涉及一种音频处理方法、装置、设备和介质。
背景技术
为了实现诗词或名作的跟读,需要将整首诗词的音频,根据单句时间点进行切割,然后才能根据用户跟读的进度灵活控制单句的音频播放。
当前对诗词音频的单句切割方法为:根据单句音频的设定时长进行切割。
上述方法存在如下缺陷:该方法的应用场景非常局限,仅适用于在音频波形分布极为规律的场景。在每句的文本长度不一,音频的单句时长也不一的场景下,此种方法就无效了。
发明内容
本申请实施例提供的一种音频处理方法、装置、设备和介质,以实现对音频波形分布不规律的音频文件的自动切割。
本申请实施例公开了一种音频处理方法,该方法包括:
获取待切割的目标音频文件的音频波形,并确定所述音频波形中的单发音区间,所述单发音区间是指单字或发音黏连的多字的波形区间;
确定所述单发音区间中的字符数量;
根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割。
上述实施例具有如下优点或有益效果:通过确定单发音区间中的字符数量;根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割,从而实现对目标音频文件的自动切割。
因为依据目标文本中的字符数量,而非固定的音频播放时长,对述目标音频文件进行切割,所以本实施例克服了现有技术要求目标音频文件的音频波形分布规律的技术问题,进而达到对音频波形分布不规律的目标音频文件的自动切割的技术效果。
进一步地,所述确定所述单发音区间中的字符数量,包括:
确定所述目标音频文件的单字发音时长;
根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量。
据此,上述实施例具有如下优点或有益效果:通过根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量,从而实现对单发音区间中字符数量的确定。
因为依据所述单字发音时长,确定所述单发音区间中的字符数量,而非直接将单发音区间中的字符数量默认为1,所以克服了由于多字发音黏连,导致的目标音频文件切割错误的问题,进而达到对目标音频文件的准确切割的技术效果。
进一步地,所述确定所述目标音频文件的单字发音时长,包括:
根据所述目标音频文件的采样点振幅,从所述目标音频文件的音频采样点中滤除静音采样点;
根据经过过滤的音频采样点的数量和所述目标音频文件的采样频率,确定所述目标音频文件的发音时长;
根据所述目标音频文件的发音时长和所述目标文件中的字符数量,确定所述单字发音时长。
据此,上述实施例具有如下优点或有益效果:通过根据所述目标音频文件的发音时长和所述目标文件中的字符数量,确定所述单字发音时长,从而实现对单字发音时长的确定。
因为根据经过静音过滤的音频采样点的数量和所述目标音频文件的采样频率,确定所述目标音频文件的发音时长依据所述单字发音时长,所以克服了单字发音时长确定不准确的问题,进而依据准确的单字发音时长,达到对目标音频文件准确切割的技术效果。
进一步地,所述根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割,包括:
顺序遍历所述目标文本中的每一单句,若所述目标音频文件中至少一个单发音区间中的字符数量等于该单句的字符数量,则将所述至少一个单发音区间作为该单句的切割音频部分。
据此,上述实施例具有如下优点或有益效果:通过顺序遍历所述目标文本中的每一单句,若所述目标音频文件中至少一个单发音区间中的字符数量等于该单句的字符数量,则将所述至少一个单发音区间作为该单句的切割音频部分,从而实现对目标音频文件中包括不同字数的单句的切割。
本申请实施例还公开了一种音频处理的装置,该装置包括:
区间确定模块,用于获取待切割的目标音频文件的音频波形,并确定所述音频波形中的单发音区间,所述单发音区间是指单字或发音黏连的多字的波形区间;
字符数量确定模块,用于确定所述单发音区间中的字符数量;
文件切割模块,用于根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割。
进一步地,所述字符数量确定模块,包括:
发音时长确定单元,用于确定所述目标音频文件的单字发音时长;
字符数量确定单元,用于根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量。
进一步地,所述发音时长确定单元具体用于:
根据所述目标音频文件的采样点振幅,从所述目标音频文件的音频采样点中滤除静音采样点;
根据经过过滤的音频采样点的数量和所述目标音频文件的采样频率,确定所述目标音频文件的发音时长;
根据所述目标音频文件的发音时长和所述目标文件中的字符数量,确定所述单字发音时长。
进一步地,所述文件切割模块,包括:
文件切割单元,用于顺序遍历所述目标文本中的每一单句,若所述目标音频文件中至少一个单发音区间中的字符数量等于该单句的字符数量,则将所述至少一个单发音区间作为该单句的切割音频部分。
本申请实施例还公开了一种电子设备,该设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如本申请实施例中任一项所述的方法。
本申请实施例还公开了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如本申请实施例中任一项所述的方法。
本申请实施例还公开了另一种音频处理方法,该方法包括:
获取待切割的目标音频文件的音频波形;
确定所述目标音频文件的单字发音时长;
根据所述单字发音时长和所述音频波形中单发音区间的时长,确定所述单发音区间中的字符数量,所述单发音区间是指单字或发音黏连的多字的波形区间。
该实施例具有如下优点或有益效果:通过根据所述单字发音时长和所述音频波形中单发音区间的时长,确定所述单发音区间中的字符数量,从而实现对单发音区间中字符数量的确定。
因为依据所述单字发音时长,确定所述单发音区间中的字符数量,而非直接将单发音区间中的字符数量默认为1,所以克服了由于多字发音黏连,导致的目标音频文件切割错误的问题,进而达到对单发音区间中字符数量准确确定的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3a是根据本申请第三实施例的方法流程示意图;
图3b是根据本申请第三实施例的诗词内容示意图;
图3c是根据本申请第三实施例的音频波形图;
图3d是根据本申请第三实施例的删除音频波形图中静音区间的示意图;
图3e是根据本申请第三实施例的单发音区间确定的示意图;
图4是根据本申请第四实施例的示意图;
图5是根据本申请第五实施例的示意图;
图6是用来实现本申请实施例的音频处理的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
第一实施例
图1是根据本申请第一实施例的示意图。本实施例可适用于对音频文件进行切割的情况。典型地,本实施例可以适用于,在跟读应用中控制单句的音频播放前,对待跟读音频文件进行单句切割的情况。本实施公开的音频处理方法可以由一种音频处理装置来执行,该装置可以由软件和/或硬件的方式实现。参见图1,本实施例提供的音频处理方法包括:
S110、获取待切割的目标音频文件的音频波形,并确定所述音频波形中的单发音区间。
具体地,音频波形根据目标音频文件在各音频采样点的振幅和采样频率确定。
单发音区间是指单字或发音黏连的多字的波形区间。
造成发音黏连的原因可能是多个字的连读。
具体地,单发音区间可以根据波形之间的停顿时长确定。典型地,单发音区间是一个波谷、波峰和波谷连接的波形区间。
确定所述音频波形中的单发音区间,包括:
识别所述音频波形中的各波谷、波峰和波谷连接的波形区间,将识别到的波形区间作为单发音区间。
可选地,确定所述音频波形中的单发音区间,包括:
识别所述音频波形中的停顿区间,将识别的两停顿区间之间的波形区间作为单发音区间。
S120、确定所述单发音区间中的字符数量。
具体地,根据所述单发音区间中波谷或波峰的个数,确定所述单发音区间中的字符数量。
例如,所述单发音区间中波峰的个数为一,则确定所述单发音区间中的字符数量为一。
S130、根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割。
其中,目标文本是所述目标音频文件关联的文本。
目标文本中字符数量是指目标文本中发音字符的数量。
具体地,所述根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割,包括:
顺序遍历所述目标文本中的每一单句,若所述目标音频文件中至少一个单发音区间中的字符数量等于该单句的字符数量,则将所述至少一个单发音区间作为该单句的切割音频部分。
示例性地,若目标文本包括4个单句,每个单句包括7个发音字符,则从目标音频文件的起始位置,顺序遍历每个单发音区间包括的字符数量,并累计字符数量。若累计结果为7,则将累计的最后一个字符在目标音频文件中的位置作为切割点。继续顺序遍历剩余目标音频文件,并对遍历到的单发音区间包括的字符数量进行重新累计,若累计结果为7,则将累计的最后一个字符在目标音频文件中的位置作为切割点。据此,实现对目标音频文件中各单句关联切割点的确定。
本申请实施例的技术方案,通过确定单发音区间中的字符数量;根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割,从而实现对目标音频文件的自动切割。
因为依据目标文本中的字符数量,而非固定的音频播放时长,对述目标音频文件进行切割,所以本实施例克服了现有技术要求目标音频文件的音频波形分布规律的技术问题,进而达到对音频波形分布不规律的目标音频文件的自动切割的技术效果。
可选地,根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割,包括:
根据所述单发音区间中的字符数量,将所述单发音区间划分为至少一个单字发音区间;
建立所述音频波形中单字发音区间与所述目标文本中发音字符的映射关系;
基于所述映射关系,根据所述待切割字符序列在所述目标文本中的位置,以及所述字符序列的字符数量,对述目标音频文件进行切割。
其中,单字发音区间是指单字发音的波形区间。
具体地,所述基于所述映射关系,根据所述待切割字符序列在所述目标文本中的位置,以及所述待切割字符序列的字符数量,对所述目标音频文件进行切割,包括:
根据所述待切割字符序列在目标文本中的位置和所述待切割字符序列的字符数量,从所述目标文本的发音字符中确定目标发音字符序列;
基于所述映射关系,根据目标发音字符序列,确定目标发音区间;
将所述目标发音区间的起始点和终止点作为切割点;
依据所述切割点,对所述目标音频文件进行切割。
所述建立所述音频波形中单字发音区间与所述目标文本中发音字符的映射关系,包括:
根据所述单字发音区间在所述音频波形中的排列顺序和发音字符在目标文本中的排列顺序,建立所述音频波形中单字发音区间与所述目标文本中发音字符的映射关系。
第二实施例
图2是根据本申请第二实施例的示意图。本实施例是在上述实施例的基础上提出的一种可选方案。参见图2,本实施例提供的音频处理方法包括:
S210、获取待切割的目标音频文件的音频波形,并确定所述音频波形中的单发音区间。
S220、确定所述目标音频文件的单字发音时长。
其中,单字发音时长是指一个字的发音时间长度。
具体地,所述确定所述目标音频文件的单字发音时长,包括:
根据所述目标音频文件的采样点振幅,从所述目标音频文件的音频采样点中滤除静音采样点;
根据经过过滤的音频采样点的数量和所述目标音频文件的采样频率,确定所述目标音频文件的发音时长;
根据所述目标音频文件的发音时长和所述目标文件中的字符数量,确定所述单字发音时长。
S230、根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量。
具体地,根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量,包括:
计算所述单发音区间的时长和所述单字发音时长的商;
根据计算的商确定所述单发音区间中的字符数量。
可选地,根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量,包括:
比较所述单发音区间的时长和设定时间阈值,其中所述设定时间阈值根据所述单字发音时长确定;
根据比较结果,确定所述单发音区间中的字符数量。
S240、根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割。
本申请实施例的技术方案,通过根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量,从而实现对单发音区间中字符数量的确定。
因为依据所述单字发音时长,确定所述单发音区间中的字符数量,而非直接将单发音区间中的字符数量默认为1,所以克服了由于多字发音黏连,导致的目标音频文件切割错误的问题,进而达到对目标音频文件的准确切割的技术效果。
第三实施例
图3a是根据本申请第三实施例的示意图。本实施例是在上述实施例的基础上提出的一种可选方案。参见图3a,本实施例提供的音频处理方法包括:
将目标音频文件的音频格式转换为WAV格式。
其中,WAV格式为微软公司开发的一种声音文件格式,它符合RIFF(ResourceInterchange File Format,资源交换文件格式)文件规范,这种音频格式通常使用三个参数来表示声音,量化位数、采样频率和采样点振幅。
解析目标音频文件的音频基本数据。
具体地,使用WAV音频读取工具可以解析WAV数据包,以获取到音频的基本信息,如音频的声道数、采样频率、采样点振幅、总体样本数和音频时长等信息。
提取目标音频文件的单声道的音频基本数据。
为了保证音频的听觉效果更好,有些音频使用了多声道的技术,在立体声的场景下,不同声道的波形可能不同,这样会导致音频的切割结果不同。本实施例方案只适用于单声道或者多声道切割结果相同的情况,因此可以直接提取单声道的音频基本数据信息来表征生成整个音频的波形。
根据提取的单声道的音频基本数据,确定目标音频文件的音频波形。
具体地,经过上述单声道音频的筛选,可以获取音频的单声道采样点振幅数组,该数组可以反映在采样时音频的振幅,通过这个数组绘制基于时序的音频波形图。
示例性地,目标音频文件是唐诗“春夜洛城闻笛”的朗读音频。图3b示出了唐诗“春夜洛城闻笛”的诗词内容,图3c示出了唐诗“春夜洛城闻笛”音频文件的音频波形图。
识别目标音频文件中的单发音区间。
通过观察上述音频波形图可以发现,每一个字的发音基本都可以对应上述波形图中的一个波谷-波峰-波谷的变化,依据此规律,可以识别出音频中的单发音区间。
但是,在切割过程中会发现有多字黏连的现象。为了避免将这种较长的发音区间识别为单字发音区间的错误,采用的方法是根据单字发音时长推断发音区间字长的方法。
参见图3d,为了获取准确的音频时长,需要把图3c所示的静音区间时长删除掉,也即在计算总时长时从采样点中删除振幅绝对值<100的采样点。
最终单字发音时长的计算方法为:
a=(n÷f)÷m
其中,a是单字平均时长,n是非静音采样点数,f是采样频率,m是目标音频文件关联的总的发音字符数量。
如图3e所示过程,在得到单字发音时长之后,将音频振幅从绝对值为零到绝对值大于零,从绝对值大于零到绝对值为零的过程认定为一个单发音区间。
根据单字发音时长,计算单发音区间所包括的单字数量。据此,生成一个发音区间和对应单字数量的序列(区间单字数量,区间开始时间,区间结束时间),如(2,0.5,1.5),(2,1.5,2.6),(1,2.6,3.1),……。
根据目标文本中每句的字符长度和单发音区间所包括的单字数量,对目标音频文件进行单句切割。
具体地,根据目标文本中单句的长度和单发音区间所包括的单字数量,从目标音频文件中确定对应的单句发音区间,并依据单句发音区间进行音频的切割。
其中,单句的长度可以依据切分的需求进行长句或短句的拆分。
根据单句发音区间,获取对应区间内的采样点数据,将这些数据存储为单独的文件,便可生成切分好的单句音频文件。
本申请实施例根据音频波形自动分析出单字和黏连的多字区间,然后根据文本断句长度自动获取音频断点,进而自动进行音频切割,极大的节省了标注人力。
需要说明的是,经过本实施例的技术教导,本领域技术人员有动机将上述实施例中描述的任一种实施方式进行方案的组合,以对音频波形分布不规律的音频文件的自动切割。
第四实施例
图4是根据本申请第四实施例的示意图。本实施例可适用于确定目标音频文件找那个单发音区间中字符数量的情况。参见图4,本实施例提供的音频处理方法,包括:
S410、获取待切割的目标音频文件的音频波形。
S420、确定所述目标音频文件的单字发音时长。
其中,单发音区间是指单字或发音黏连的多字的波形区间。
单字发音时长是指一个字的发音时间长度。
具体地,所述确定所述目标音频文件的单字发音时长,包括:
根据所述目标音频文件的采样点振幅,从所述目标音频文件的音频采样点中滤除静音采样点;
根据经过过滤的音频采样点的数量和所述目标音频文件的采样频率,确定所述目标音频文件的发音时长;
根据所述目标音频文件的发音时长和所述目标文件中的字符数量,确定所述单字发音时长。
目标文本是所述目标音频文件关联的文本。
目标文本中字符数量是指目标文本中发音字符的数量。
S430、根据所述单字发音时长和所述音频波形中单发音区间的时长,确定所述单发音区间中的字符数量。
本申请实施例的技术方案,通过根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量,从而实现对单发音区间中字符数量的确定。
因为依据所述单字发音时长,确定所述单发音区间中的字符数量,而非直接将单发音区间中的字符数量默认为1,所以克服了由于多字发音黏连,导致的目标音频文件切割错误的问题,进而达到对单发音区间中字符数量的准确确定的技术效果。
第五实施例
图5是根据本申请第五实施例的示意图。参见图5,本申请实施例公开了一种音频处理的装置500,该装置500包括:区间确定模块501、字符数量确定模块502和文件切割模块503。
其中,区间确定模块501,用于获取待切割的目标音频文件的音频波形,并确定所述音频波形中的单发音区间,所述单发音区间是指单字或发音黏连的多字的波形区间;
字符数量确定模块502,用于确定所述单发音区间中的字符数量;
文件切割模块503,用于根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割。
本申请实施例的技术方案,通过确定单发音区间中的字符数量;根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割,从而实现对目标音频文件的自动切割。
因为依据目标文本中的字符数量,而非固定的音频播放时长,对述目标音频文件进行切割,所以本实施例克服了现有技术要求目标音频文件的音频波形分布规律的技术问题,进而达到对音频波形分布不规律的目标音频文件的自动切割的技术效果。
进一步地,所述字符数量确定模块,包括:
发音时长确定单元,用于确定所述目标音频文件的单字发音时长;
字符数量确定单元,用于根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量。
进一步地,所述发音时长确定单元具体用于:
根据所述目标音频文件的采样点振幅,从所述目标音频文件的音频采样点中滤除静音采样点;
根据经过过滤的音频采样点的数量和所述目标音频文件的采样频率,确定所述目标音频文件的发音时长;
根据所述目标音频文件的发音时长和所述目标文件中的字符数量,确定所述单字发音时长。
进一步地,所述文件切割模块,包括:
文件切割单元,用于顺序遍历所述目标文本中的每一单句,若所述目标音频文件中至少一个单发音区间中的字符数量等于该单句的字符数量,则将所述至少一个单发音区间作为该单句的切割音频部分。
本申请实施例所提供的行车服务推荐装置可执行本申请任意实施例所提供的行车服务推荐方法,具备执行方法相应的功能模块和有益效果。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的音频处理的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的音频处理的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的音频处理的方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的音频处理的方法对应的程序指令/模块(例如,附图5所示的区间确定模块501、字符数量确定模块502和文件切割模块503)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的音频处理的方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据音频处理的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至音频处理的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
音频处理的方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与音频处理的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (11)
1.一种音频处理方法,其特征在于,包括:
获取待切割的目标音频文件的音频波形,并确定所述音频波形中的单发音区间,所述单发音区间是指单字或发音黏连的多字的波形区间;
确定所述单发音区间中的字符数量;
根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割。
2.根据权利要求1所述的方法,其特征在于,所述确定所述单发音区间中的字符数量,包括:
确定所述目标音频文件的单字发音时长;
根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量。
3.根据权利要求2所述的方法,其特征在于,所述确定所述目标音频文件的单字发音时长,包括:
根据所述目标音频文件的采样点振幅,从所述目标音频文件的音频采样点中滤除静音采样点;
根据经过过滤的音频采样点的数量和所述目标音频文件的采样频率,确定所述目标音频文件的发音时长;
根据所述目标音频文件的发音时长和所述目标文件中的字符数量,确定所述单字发音时长。
4.根据权利要求1所述的方法,其特征在于,所述根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割,包括:
顺序遍历所述目标文本中的每一单句,若所述目标音频文件中至少一个单发音区间中的字符数量等于该单句的字符数量,则将所述至少一个单发音区间作为该单句的切割音频部分。
5.一种音频处理的装置,其特征在于,包括:
区间确定模块,用于获取待切割的目标音频文件的音频波形,并确定所述音频波形中的单发音区间,所述单发音区间是指单字或发音黏连的多字的波形区间;
字符数量确定模块,用于确定所述单发音区间中的字符数量;
文件切割模块,用于根据所述单发音区间中的字符数量,以及目标文本中的字符数量,对所述目标音频文件进行切割。
6.根据权利要求5所述的装置,其特征在于,所述字符数量确定模块,包括:
发音时长确定单元,用于确定所述目标音频文件的单字发音时长;
字符数量确定单元,用于根据所述单字发音时长和所述单发音区间的时长,确定所述单发音区间中的字符数量。
7.根据权利要求6所述的装置,其特征在于,所述发音时长确定单元具体用于:
根据所述目标音频文件的采样点振幅,从所述目标音频文件的音频采样点中滤除静音采样点;
根据经过过滤的音频采样点的数量和所述目标音频文件的采样频率,确定所述目标音频文件的发音时长;
根据所述目标音频文件的发音时长和所述目标文件中的字符数量,确定所述单字发音时长。
8.根据权利要求5所述的装置,其特征在于,所述文件切割模块,包括:
文件切割单元,用于顺序遍历所述目标文本中的每一单句,若所述目标音频文件中至少一个单发音区间中的字符数量等于该单句的字符数量,则将所述至少一个单发音区间作为该单句的切割音频部分。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
11.一种音频处理方法,其特征在于,包括:
获取待切割的目标音频文件的音频波形;
确定所述目标音频文件的单字发音时长;
根据所述单字发音时长和所述音频波形中单发音区间的时长,确定所述单发音区间中的字符数量,所述单发音区间是指单字或发音黏连的多字的波形区间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910819078.9A CN110400580B (zh) | 2019-08-30 | 2019-08-30 | 音频处理方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910819078.9A CN110400580B (zh) | 2019-08-30 | 2019-08-30 | 音频处理方法、装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110400580A true CN110400580A (zh) | 2019-11-01 |
CN110400580B CN110400580B (zh) | 2022-06-17 |
Family
ID=68329573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910819078.9A Active CN110400580B (zh) | 2019-08-30 | 2019-08-30 | 音频处理方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110400580B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1049194A (ja) * | 1996-07-30 | 1998-02-20 | Aqueous Res:Kk | 音声認識装置 |
JPH1138990A (ja) * | 1997-07-15 | 1999-02-12 | Fujitsu Ten Ltd | 音声合成装置 |
CN101826216A (zh) * | 2010-03-31 | 2010-09-08 | 中国科学院自动化研究所 | 一个角色汉语口型动画自动生成系统 |
CN103345922A (zh) * | 2013-07-05 | 2013-10-09 | 张巍 | 一种长篇幅语音全自动切分方法 |
CN104900233A (zh) * | 2015-05-12 | 2015-09-09 | 深圳市东方泰明科技有限公司 | 一种声音与文本全自动匹配对齐的方法 |
CN105047203A (zh) * | 2015-05-25 | 2015-11-11 | 腾讯科技(深圳)有限公司 | 一种音频处理方法、装置及终端 |
US20170133008A1 (en) * | 2015-11-05 | 2017-05-11 | Le Holdings (Beijing) Co., Ltd. | Method and apparatus for determining a recognition rate |
CN107525517A (zh) * | 2016-10-09 | 2017-12-29 | 腾讯科技(深圳)有限公司 | 语音播报方法和装置 |
CN107799113A (zh) * | 2017-09-26 | 2018-03-13 | 广东欧珀移动通信有限公司 | 音频处理方法、装置、存储介质及移动终端 |
CN108831459A (zh) * | 2018-05-30 | 2018-11-16 | 出门问问信息科技有限公司 | 语音识别方法及装置 |
CN109065031A (zh) * | 2018-08-02 | 2018-12-21 | 阿里巴巴集团控股有限公司 | 语音标注方法、装置及设备 |
CN109379641A (zh) * | 2018-11-14 | 2019-02-22 | 腾讯科技(深圳)有限公司 | 一种字幕生成方法和装置 |
CN109948124A (zh) * | 2019-03-15 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 语音文件切分方法、装置及计算机设备 |
CN110136697A (zh) * | 2019-06-06 | 2019-08-16 | 深圳市数字星河科技有限公司 | 一种基于多进程线程并行运算的英语朗读练习系统 |
CN110164420A (zh) * | 2018-08-02 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法、语音断句的方法及装置 |
-
2019
- 2019-08-30 CN CN201910819078.9A patent/CN110400580B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1049194A (ja) * | 1996-07-30 | 1998-02-20 | Aqueous Res:Kk | 音声認識装置 |
JPH1138990A (ja) * | 1997-07-15 | 1999-02-12 | Fujitsu Ten Ltd | 音声合成装置 |
CN101826216A (zh) * | 2010-03-31 | 2010-09-08 | 中国科学院自动化研究所 | 一个角色汉语口型动画自动生成系统 |
CN103345922A (zh) * | 2013-07-05 | 2013-10-09 | 张巍 | 一种长篇幅语音全自动切分方法 |
CN104900233A (zh) * | 2015-05-12 | 2015-09-09 | 深圳市东方泰明科技有限公司 | 一种声音与文本全自动匹配对齐的方法 |
CN105047203A (zh) * | 2015-05-25 | 2015-11-11 | 腾讯科技(深圳)有限公司 | 一种音频处理方法、装置及终端 |
US20170133008A1 (en) * | 2015-11-05 | 2017-05-11 | Le Holdings (Beijing) Co., Ltd. | Method and apparatus for determining a recognition rate |
CN107525517A (zh) * | 2016-10-09 | 2017-12-29 | 腾讯科技(深圳)有限公司 | 语音播报方法和装置 |
CN107799113A (zh) * | 2017-09-26 | 2018-03-13 | 广东欧珀移动通信有限公司 | 音频处理方法、装置、存储介质及移动终端 |
CN108831459A (zh) * | 2018-05-30 | 2018-11-16 | 出门问问信息科技有限公司 | 语音识别方法及装置 |
CN109065031A (zh) * | 2018-08-02 | 2018-12-21 | 阿里巴巴集团控股有限公司 | 语音标注方法、装置及设备 |
CN110164420A (zh) * | 2018-08-02 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法、语音断句的方法及装置 |
CN109379641A (zh) * | 2018-11-14 | 2019-02-22 | 腾讯科技(深圳)有限公司 | 一种字幕生成方法和装置 |
CN109948124A (zh) * | 2019-03-15 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 语音文件切分方法、装置及计算机设备 |
CN110136697A (zh) * | 2019-06-06 | 2019-08-16 | 深圳市数字星河科技有限公司 | 一种基于多进程线程并行运算的英语朗读练习系统 |
Non-Patent Citations (2)
Title |
---|
ULYSSES BERNARDET: ""A Dynamic Speech Breathing System for Virtual CharactersA Dynamic Speech Breathing System for Virtual Characters"", 《SPRINGER》 * |
傅睿博: ""基于静音时长和文本特征融合的韵律边界自动标注"", 《清华大学学报(自然科学版)》 * |
Also Published As
Publication number | Publication date |
---|---|
CN110400580B (zh) | 2022-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107516510B (zh) | 一种智能设备自动化语音测试方法及装置 | |
US10311843B2 (en) | Music composition tools on a single pane-of-glass | |
US20180286459A1 (en) | Audio processing | |
US20150254061A1 (en) | Method for user training of information dialogue system | |
CN110751940A (zh) | 一种生成语音包的方法、装置、设备和计算机存储介质 | |
CN110674241B (zh) | 地图播报的管理方法、装置、电子设备和存储介质 | |
CN105810211A (zh) | 一种音频数据的处理方法及终端 | |
CN104732975A (zh) | 一种语音即时通讯方法及装置 | |
CN107103915A (zh) | 一种音频数据处理方法以及装置 | |
CN112614478B (zh) | 音频训练数据处理方法、装置、设备以及存储介质 | |
CN112365877A (zh) | 语音合成方法、装置、电子设备和存储介质 | |
CN104021152A (zh) | 基于音频文件播放的图片显示方法和装置 | |
CN111142667A (zh) | 一种基于文本标记生成语音的系统和方法 | |
CN110532567A (zh) | 短语的提取方法、装置、电子设备及存储介质 | |
CN104007984A (zh) | 一种转换数据的方法及装置 | |
CN105244041A (zh) | 歌曲试唱的评价方法及装置 | |
CN113672748A (zh) | 多媒体信息播放方法及装置 | |
CN112331234A (zh) | 歌曲多媒体的合成方法、装置、电子设备及存储介质 | |
CN113157240A (zh) | 语音处理方法、装置、设备、存储介质及计算机程序产品 | |
CN110400580A (zh) | 音频处理方法、装置、设备和介质 | |
CN110633357A (zh) | 语音交互方法、装置、设备和介质 | |
CN109213466B (zh) | 庭审信息的显示方法及装置 | |
CN114038481A (zh) | 一种歌词时间戳生成方法、装置、设备及介质 | |
CN206619289U (zh) | 一种播音主持语言训练装置 | |
US20210382918A1 (en) | Method and apparatus for labeling data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |