CN110473519B - 一种语音处理方法及装置 - Google Patents

一种语音处理方法及装置 Download PDF

Info

Publication number
CN110473519B
CN110473519B CN201810448810.1A CN201810448810A CN110473519B CN 110473519 B CN110473519 B CN 110473519B CN 201810448810 A CN201810448810 A CN 201810448810A CN 110473519 B CN110473519 B CN 110473519B
Authority
CN
China
Prior art keywords
voice
file
subfile
recognition result
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810448810.1A
Other languages
English (en)
Other versions
CN110473519A (zh
Inventor
石鹏
刘雨
梁文波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Gridsum Technology Co Ltd
Original Assignee
Beijing Gridsum Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Gridsum Technology Co Ltd filed Critical Beijing Gridsum Technology Co Ltd
Priority to CN201810448810.1A priority Critical patent/CN110473519B/zh
Publication of CN110473519A publication Critical patent/CN110473519A/zh
Application granted granted Critical
Publication of CN110473519B publication Critical patent/CN110473519B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了语音处理方法及装置,获取待进行语音识别的语音文件,在所述语音文件中识别用于切分语音文件的语音切分点,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个所述语音子文件,分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果,基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果。本发明能够对获取的语音文件进行切分,得到多个语音子文件,进而就能够同时对每个语音子文件进行语音识别,能够缩短语音识别时间,提高用户体验。

Description

一种语音处理方法及装置
技术领域
本发明涉及语音处理领域,更具体的说,涉及一种语音处理方法及装置。
背景技术
近二十年来,语音识别技术取得显著进步,开始从实验室走向市场。人们预计,未来10年内,语音识别技术将进入工业、家电、通信、汽车电子、医疗、家庭服务、消费电子产品等各个领域。
现有技术中,在进行语音识别时,首先使用可以收音的设备获取得到语音文件,采用语音识别算法识别得到相应的识别结果。
但当收音时间较长时,就会获取大量的语音文件,进而使得语音识别时间较长,影响用户体验。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种语音处理方法及装置。
具体技术方案如下:
一种语音处理方法,包括:
获取待进行语音识别的语音文件;
在所述语音文件中识别用于切分语音文件的语音切分点,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件;
分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果;
基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果。
优选地,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
将识别出的每个所述时间点分别作为一个所述语音切分点。
优选地,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
计算相邻两个所述时间点的时间间隔;
基于每一所述时间间隔,计算切分成的所述语音子文件的数量;其中,切分得到的相邻两个所述语音子文件的时间长度差在第二预设数值内;
根据计算得到的所述数量,从至少一个所述时间点中选取得到所述语音切分点。
优选地,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的持续振幅值小于第三预设数值的时间段;
从识别出的时间段中选取出时间长度不小于第四预设数值的时间段;
将选取出的时间段中的起始时间点作为所述语音切分点。
优选地,在所述语音文件中识别用于切分语音文件的语音切分点,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件后,还包括:
依据每一所述语音子文件在所述语音文件中的位置,为每一所述语音子文件设置一个顺序标识;
相应的,基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果,包括:
依据每个所述语音子文件对应的顺序标识,将所有的所述语音子文件的语音识别结果进行组合,得到所述语音文件的语音识别结果。
优选地,分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果,包括:
分别对至少一个所述语音子文件进行分帧和组合操作,得到每个所述语音子文件对应的音素组;
分析得到每个所述音素组中每一音素对应的至少一个识别结果以及每个所述识别结果对应的识别准确度;
基于语义分析算法以及每个所述识别结果对应的识别准确度,分析得到每一音素对应的最终识别结果;
基于每一音素对应的最终识别结果,得到每个所述语音子文件对应的语音识别结果。
一种语音处理装置,包括:
文件获取模块,用于获取待进行语音识别的语音文件;
识别模块,用于在所述语音文件中识别用于切分语音文件的语音切分点;
文件切分模块,用于根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件;
语音识别模块,用于分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果;
结果分析模块,用于基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果。
优选地,所述识别模块包括:
识别子模块,用于识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
切分点分析子模块,用于将识别出的每个所述时间点分别作为一个所述语音切分点。
一种存储介质,所述存储介质包括存储的程序,其中,所述程序执行上述的语音处理方法。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行上述的语音处理方法。
借由上述技术方案,本发明提供的语音处理方法及装置,能够对获取的语音文件进行切分,得到多个语音子文件,进而就能够同时对每个语音子文件进行语音识别,能够缩短语音识别时间,提高用户体验。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种语音处理方法的方法流程图;
图2示出了本发明实施例提供的一种语音文件的结构示意图;
图3示出了本发明实施例提供的另一种语音处理方法的方法流程图;
图4示出了本发明实施例提供的一种分帧操作的场景示意图;
图5示出了本发明实施例提供的一种文件组成结构的场景示意图;
图6示出了本发明实施例提供的一种音素组成结构的场景示意图;
图7示出了本发明实施例提供的一种语音识别的场景示意图;
图8示出了本发明实施例提供的另一种语音识别的场景示意图;
图9示出了本发明实施例提供的再一种语音处理方法的方法流程图;
图10示出了本发明实施例提供的一种语音处理装置的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例提供了一种语音处理方法,参照图1,可以包括:
S11、获取待进行语音识别的语音文件;
其中,语音文件是通过麦克风等收音设备采集得到的波形文件。语音文件的形式可以参照图2。图2中,横轴表示时间,纵轴表示振幅。根据图2可以看出,用户在不同时间,由于说话内容不同,所以各个时间上的振幅值不完全相同。
S12、在所述语音文件中识别用于切分语音文件的语音切分点,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件;
具体的,现有技术中采用串行的语音识别方法,获取到一段语音后,就对该语音进行语音识别,本申请中为了缩短语音识别的时间,将语音文件切分为多个语音子文件,以能够并行对多个语音子文件进行语音识别,缩短语音识别的时间。
另外,将语音文件切分为多个语音子文件,在进行传输时,由于受到网络拥堵等原因,越短的文件越容易传输成功,因此,也能够提高文件传输成功率。
S13、分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果;
可选的,在本实施例的基础上,参照图3,步骤S13可以包括:
S21、分别对至少一个所述语音子文件进行分帧和组合操作,得到每个所述语音子文件对应的音素组;
可以创建多个线程来对语音子文件进行语音识别,其中,线程的数量可以和切分得到的语音子文件的数量相同,此时,一个线程处理一个语音子文件;线程的数量也可以少于切分得到的语音子文件的数量,此时,一个线程处理至少一个语音子文件。
其中,在执行分帧操作时,采用图4中分帧方式进行分帧。具体的,每帧的长度为25毫秒,每两帧之间有25-10=15毫秒的交叠。我们称为以帧长25ms、帧移10ms分帧。
在对分帧后的数据进行组合得到音素组,现对音素进行简单介绍。具体的:
音素即文字的发音信息,如汉语一般直接使用全部声母和韵母作为音素集,而每个音素一般分为多个状态,状态是比音素更细致的语音单位。具体可以参照图5,一段文字由多个音素组成,一个音素有至少一个状态组成。
对语音子文件进行切分后,得到一帧一帧的数据。参照图6,每个小竖条代表一帧,若干帧语音对应一个状态,若干状态组合成一个音素,若干个音素组合成一段文字。如前六帧组成了状态S1029,状态S1029、S124和S561组成了一个音素ay。需要说明的是,图6中组合成的其余的状态,请参照图6,在此不再一一举例。
其中,在对分帧后的数据进行组成时,依据的是服务器中预先存储的大量的音素信息,音素信息经过大量预料训练得到。
S22、分析得到每个所述音素组中每一音素对应的至少一个识别结果以及每个所述识别结果对应的识别准确度;
具体的,此处采用的算法为神经网络算法。
基于神经网络算法,就可以得到音素对应的识别结果,如语音zhidao对应的识别结果可以是知道、直到等。神经网络算法还能够给出每个识别结果对应的识别准确度,如,知道的识别准确度为0.3,直到的识别准确度为0.4。参照图7,O1、O2、O3……O8分别表示一帧数据,若干帧数据组成一个音素,每个音素对应少一个识别结果。
需要说明的是,每个音素对应的识别结果对应的识别准确度,在对应不同的识别结果时,对应的识别准确度是不断变化的,如O1、O2、O3、O4对应的音素的识别准确度在0.4到0.6之间不断变化。其余音素对应的识别准确度的变化值请参照图7,再此不一一描述。
另外,语音识别时还可以切割成若干个状态,并在状态网络中搜索一条最佳路径,语音对应这条路径的概率最大,这称之为“解码”。
具体的,参照图8,一个状态对应的识别结果分别为S1、S2、S3、S4、S5,识别准确度分别为0.45、0.25、0.75、0.45、0.25。根据图8可知,在识别结果为S3时,对应的识别准确度最大,此时,可以认为该状态的识别结果为S3。
得到帧的状态后,依据状态与音素的对应关系,就能够找到匹配的音素。
S23、基于语义分析算法以及每个所述识别结果对应的识别准确度,分析得到每一音素对应的最终识别结果;
具体的,由于得到多个语音识别结果,进而基于语义分析算法以及识别准确度确定每一音素对应的最终识别结果。
其中,语义分析算法是结合上下文语义来确定音素对应的识别结果的方法,如果能够通过语音分析算法来确定识别结果,就采用语义分析算法确定得到最终识别结果。
如果通过语义分析算法不能确定出识别结果,就选取识别准确度最大的识别结果作为最终的识别结果。
S24、基于每一音素对应的最终识别结果,得到每个所述语音子文件对应的语音识别结果。
得到每一音素对应的最终识别结果,按照音素在音素组中的顺序,对音素对应的最终识别结果进行组合,就可以得到每个所述语音子文件对应的语音识别结果。
需要说明的是,步骤S21至步骤S24可以由一个服务器执行,也可以是步骤S21中的分帧操作由语音识别软件执行,其余步骤由另一个语音解析服务器执行。
本实施例中,能够对获取的语音文件进行切分,得到多个语音子文件,进而就能够同时对每个语音子文件进行语音识别,能够缩短语音识别时间,提高用户体验。
需要说明的是,由于并行处理,如并行对语音识别的方法属于本领域的常用技术手段,本实施例中对获取的语音文件进行切分,得到多个语音子文件,本领域技术人员在切分得到多个语音子文件的基础上,很容易想到并行对多个语音子文件进行语音识别的方法,进而能够提高语音识别的效率,缩短语音识别的时间。
可选的,在上述任一实施例的基础上,根据语音文件的不同,针对“在所述语音文件中识别用于切分语音文件的语音切分点”,有多种实现方式,现在一一介绍。
第一种实现方式:
识别所述语音文件中用于将所述语音文件切分为至少两个语音子文件的语音切分点,可以包括:
1)识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
具体的,参照图2,语音文件的横轴为时间,纵轴为振幅值,本实施例中的第一预设数值可以是0.1,即本实施例中寻找的是语音文件中,对应的振幅值接近于零的时间点。其中,选取对应的振幅值接近于零的时间点,是由于该时间点的音频不连续或者是无音频,进而选择该时间点进行切分可以保持数据的完整性,有效防止数据的丢失。
2)将识别出的每个所述时间点分别作为一个所述语音切分点。
通过上个步骤确定的时间点,将每个时间点作为语音切分点,再使用语音切分点进行语音切分即可。
本实施例中的语音文件切分方法,适用于对应的振幅值小于第一预设数值的至少一个时间点的数量较少的情景,若对应的振幅值小于第一预设数值的至少一个时间点的数量较多,则会切分到大量的语音子文件,进而会使得后期语音识别时,识别的语音子文件的数量较多,并且得到每个语音子文件对应的识别结果后,基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果的过程也会较复杂。
第二种实现方式:
参照图9,在所述语音文件中识别用于切分语音文件的语音切分点,可以包括:
S31、识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
其中,步骤S31的相应解释说明,请参照上述实施例中的相应解释说明,在此不再赘述。
S32、计算相邻两个所述时间点的时间间隔;
具体的,通过时间点做差,即可得到时间间隔。
S33、基于每一所述时间间隔,计算切分成的所述语音子文件的数量;
其中,切分得到的相邻两个所述语音子文件的时间长度差在第二预设数值内。
具体的,第二预设数值是技术人员根据具体的使用场景进行设定的。本实施例中,在保证切分得到的相邻两个所述语音子文件的时间长度差在第二预设数值内的基础上,得到能够语音子文件的数量。
举例来说,若存在六个时间间隔,分别是0.2s,0.3s,0.5s,0.4,0.2s,0.1s。如第二预设数值为0.2,则可以切分得到三个语音子文件,长度分别是0.2+0.3s,0.5s,0.4+0.2+0.1s。
S34、根据计算得到的所述数量,从至少一个所述时间点中选取得到所述语音切分点。
语音子文件的数量确定后,也能够确定从哪个时间点切割得到语音子文件,则确定的时间点就为语音切分点。
本实施例中的方法,能够在步骤S31中确定的时间点的位置在语音文件中分布的不均匀,进而若采用每个时间点作为一个语音切分点,会导致最终得到的语音子文件的长度相差太大的情况下使用。
此外,本实施例中的方法,还适用于最终想要得到的语音子文件的长度相似的情况,进而在进行语音识别时,每个语音子文件需要的识别时间相似,可以保证每个语音子文件基本同时完成语音识别。
第三种实现方式:
在所述语音文件中识别用于切分语音文件的语音切分点,可以包括:
1)识别出所述语音文件中,对应的持续振幅值小于第三预设数值的时间段;
其中,第三预设数值是技术人员根据具体的使用场景进行设定的,如可以是0.5。对应的持续振幅值小于第三预设数值,可以理解为有一段时间的振幅值均小于第三预设数值。
2)从识别出的时间段中选取出时间长度不小于第四预设数值的时间段;
其中,第四预设数值是技术人员根据具体的使用场景进行设定的,如可以是2s。
选取出时间长度不小于第四预设数值的时间段,可以理解为选取出停顿时间较长的时间段。
3)将选取出的时间段中的起始时间点作为所述语音切分点。
举例来说,若一个时间段为0.2s-0.5s,则将0.2s作为一个语音切分点。
本实施例中的切分方法,适用于语音文件中停顿时间较长的情况。由于在停顿时,基本一句话已经说完,所以在此刻进行切分,不会导致语音丢失。
本实施例中给出了三种语音切分方法,进行就能够在不同的场景下使用不同的语音切分方法对语音进行切分。
可选的,在上述任一实施例的基础上,步骤S12后,还可以包括:
依据每一所述语音子文件在所述语音文件中的位置,为每一所述语音子文件设置一个顺序标识;
相应的,步骤S14,包括:
依据每个所述语音子文件对应的顺序标识,将所有的所述语音子文件的语音识别结果进行组合,得到所述语音文件的语音识别结果。
具体的,为了在执行步骤S14时,有一定的排列顺序,在切分得到语音子文件后,就为每个语音子文件设置一个顺序标识,其中,顺序标识可以是1,2,3……。假设将语音文件切分得到三个语音子文件,则三个语音子文件的顺序标识分别为1,2,3。顺序标识与语音子文件在语音文件中的顺序有关,若语音子文件位于语音文件的开始位置,则顺序标识为1,若位于中间位置,则顺序标识为2,若位于末尾位置,则顺序标识为3。
得到每个语音子文件的顺序标识后,根据顺序标识,将每个语音子文件的语音识别结果进行组合,就可以得到语音文件的语音识别结果。
其中,在将不同的语音识别结果进行组合时,不同的语音识别结果可以用分隔符隔开。其中,分隔符可以是逗号或者句号。
或者,当根据时间间隔切分得到语音子文件时,可以根据时间间隔的长短来确定分隔符,若两个语音子文件中间的时间间隔大于第五预设数值,则使用句号作为分隔符,若小于第五预设数值,则使用逗号作为分隔符。
本实施例中,在切分得到语音子文件后,能够为每个语音子文件设置顺序标识,进而能够在将语音子文件的语音识别结果进行组合得到语音文件的语音识别结果时,有一定的组合依据。
可选的,与上述方法实施例相对应,本发明的另一实施例中提供了一种语音处理装置,参照图10,可以包括:
文件获取模块101,用于获取待进行语音识别的语音文件;
识别模块102,用于在所述语音文件中识别用于切分语音文件的语音切分点;
文件切分模块103,用于使用识别出的语音切分点,对所述语音文件进行切分,得到至少两个所述语音子文件;
语音识别模块104,用于分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果;
结果分析模块105,用于基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果。
进一步,语音识别模块104可以包括:
音素组分析子模块,用于分别对至少一个所述语音子文件进行分帧和组合操作,得到每个所述语音子文件对应的音素组;
第一结果分析子模块,用于分析得到每个所述音素组中每一音素对应的至少一个识别结果以及每个所述识别结果对应的识别准确度;
第二结果分析子模块,用于基于语义分析算法以及每个所述识别结果对应的识别准确度,分析得到每一音素对应的最终识别结果;
第三结果分析子模块,用于基于每一音素对应的最终识别结果,得到每个所述语音子文件对应的语音识别结果。
本实施例中,能够对获取的语音文件进行切分,得到多个语音子文件,进而就能够同时对每个语音子文件进行语音识别,能够缩短语音识别时间,提高用户体验。
需要说明的是,本实施例中的各个模块和子模块的工作过程,请参照上述实施例中的相应说明,在此不再赘述。
可选的,在上述任一语音处理装置的实施例的基础上,所述识别模块102可以包括:
识别子模块,用于识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
切分点分析子模块,用于将识别出的每个所述时间点分别作为一个所述语音切分点。
进一步,识别模块102在包括识别子模块的基础上,还可以包括:
间隔计算子模块,用于计算相邻两个所述时间点的时间间隔;
数量计算子模块,用于基于每一所述时间间隔,计算切分成的所述语音子文件的数量;其中,切分得到的相邻两个所述语音子文件的时间长度差在第二预设数值内;
第一切分点选取子模块,用于根据计算得到的所述数量,从至少一个所述时间点中选取得到所述语音切分点。
进一步,识别模块102还可以包括:
振幅分析子模块,用于识别出所述语音文件中,对应的持续振幅值小于第三预设数值的时间段;
时间段分析子模块,用于从识别出的时间段中选取出时间长度不小于第四预设数值的时间段;
第二切分点选取子模块,用于将选取出的时间段中的起始时间点作为所述语音切分点。
本实施例中给出了三种语音切分方法,进行就能够在不同的场景下使用不同的语音切分方法对语音进行切分。
需要说明的是,本实施例中的各个模块和子模块的工作过程,请参照上述实施例中的相应说明,在此不再赘述。
可选的,在上述任一语音处理装置的实施例的基础上,语音处理装置还包括:
标识设置模块,用于文件切分模块根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件后,依据每一所述语音子文件在所述语音文件中的位置,为每一所述语音子文件设置一个顺序标识;
相应的,结果分析模块用于基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果时,具体用于:
依据每个所述语音子文件对应的顺序标识,将所有的所述语音子文件的语音识别结果进行组合,得到所述语音文件的语音识别结果。
本实施例中,在切分得到语音子文件后,能够为每个语音子文件设置顺序标识,进而能够在将语音子文件的语音识别结果进行组合得到语音文件的语音识别结果时,有一定的组合依据。
需要说明的是,本实施例中的各个模块的工作过程,请参照上述实施例中的相应说明,在此不再赘述。
可选的,本发明的实施例还提供了一种语音处理装置,所述语音处理装置包括处理器和存储器,上述文件获取模块、识别模块和文件切分模块等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来缩短语音识别时间,提高用户体验。存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flashRAM),存储器包括至少一个存储芯片。
本发明实施例提供了一种存储介质,其上存储有程序,该程序被处理器执行时实现所述语音处理方法。
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述语音处理方法。
本发明实施例提供了一种设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:
获取待进行语音识别的语音文件;
在所述语音文件中识别用于切分语音文件的语音切分点,,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件;
分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果;
基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果。
进一步,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
将识别出的每个所述时间点分别作为一个所述语音切分点。
进一步,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
计算相邻两个所述时间点的时间间隔;
基于每一所述时间间隔,计算切分成的所述语音子文件的数量;其中,切分得到的相邻两个所述语音子文件的时间长度差在第二预设数值内;
根据计算得到的所述数量,从至少一个所述时间点中选取得到所述语音切分点。
进一步,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的持续振幅值小于第三预设数值的时间段;
从识别出的时间段中选取出时间长度不小于第四预设数值的时间段;
将选取出的时间段中的起始时间点作为所述语音切分点。
进一步,在所述语音文件中识别用于切分语音文件的语音切分点,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件后,还包括:
依据每一所述语音子文件在所述语音文件中的位置,为每一所述语音子文件设置一个顺序标识;
相应的,基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果,包括:
依据每个所述语音子文件对应的顺序标识,将所有的所述语音子文件的语音识别结果进行组合,得到所述语音文件的语音识别结果。
进一步,分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果,包括:
分别对至少一个所述语音子文件进行分帧和组合操作,得到每个所述语音子文件对应的音素组;
分析得到每个所述音素组中每一音素对应的至少一个识别结果以及每个所述识别结果对应的识别准确度;
基于语义分析算法以及每个所述识别结果对应的识别准确度,分析得到每一音素对应的最终识别结果;
基于每一音素对应的最终识别结果,得到每个所述语音子文件对应的语音识别结果。
本文中的设备可以是服务器、PC、PAD、手机等。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:
获取待进行语音识别的语音文件;
在所述语音文件中识别用于切分语音文件的语音切分点,,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件;
分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果;
基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果。
进一步,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
将识别出的每个所述时间点分别作为一个所述语音切分点。
进一步,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
计算相邻两个所述时间点的时间间隔;
基于每一所述时间间隔,计算切分成的所述语音子文件的数量;其中,切分得到的相邻两个所述语音子文件的时间长度差在第二预设数值内;
根据计算得到的所述数量,从至少一个所述时间点中选取得到所述语音切分点。
进一步,在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的持续振幅值小于第三预设数值的时间段;
从识别出的时间段中选取出时间长度不小于第四预设数值的时间段;
将选取出的时间段中的起始时间点作为所述语音切分点。
进一步,在所述语音文件中识别用于切分语音文件的语音切分点,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件后,还包括:
依据每一所述语音子文件在所述语音文件中的位置,为每一所述语音子文件设置一个顺序标识;
相应的,基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果,包括:
依据每个所述语音子文件对应的顺序标识,将所有的所述语音子文件的语音识别结果进行组合,得到所述语音文件的语音识别结果。
进一步,分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果,包括:
分别对至少一个所述语音子文件进行分帧和组合操作,得到每个所述语音子文件对应的音素组;
分析得到每个所述音素组中每一音素对应的至少一个识别结果以及每个所述识别结果对应的识别准确度;
基于语义分析算法以及每个所述识别结果对应的识别准确度,分析得到每一音素对应的最终识别结果;
基于每一音素对应的最终识别结果,得到每个所述语音子文件对应的语音识别结果。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flashRAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (6)

1.一种语音处理方法,其特征在于,包括:
获取待进行语音识别的语音文件;
在所述语音文件中识别用于切分语音文件的语音切分点,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件,其中,所述语音切分点基于所述语音文件中的各个时间点确定;
分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果;
基于每个所述语音子文件对应的语音识别结果,按照所述语音子文件对应的顺序标识进行组合得到所述语音文件的语音识别结果;
在所述语音文件中识别用于切分语音文件的语音切分点,包括:
识别出所述语音文件中,对应的振幅值小于第一预设数值的至少一个时间点;
计算相邻两个所述时间点的时间间隔;
基于每一所述时间间隔,计算切分成的所述语音子文件的数量;其中,切分得到的相邻两个所述语音子文件的时间长度差在第二预设数值内;
根据计算得到的所述数量,从至少一个所述时间点中选取得到所述语音切分点。
2.根据权利要求1所述的语音处理方法,其特征在于,在所述语音文件中识别用于切分语音文件的语音切分点,并根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件后,还包括:
依据每一所述语音子文件在所述语音文件中的位置,为每一所述语音子文件设置一个顺序标识;
相应的,基于每个所述语音子文件对应的语音识别结果,得到所述语音文件的语音识别结果,包括:
依据每个所述语音子文件对应的顺序标识,将所有的所述语音子文件的语音识别结果进行组合,得到所述语音文件的语音识别结果。
3.根据权利要求1所述的语音处理方法,其特征在于,分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果,包括:
分别对至少一个所述语音子文件进行分帧和组合操作,得到每个所述语音子文件对应的音素组;
分析得到每个所述音素组中每一音素对应的至少一个识别结果以及每个所述识别结果对应的识别准确度;
基于语义分析算法以及每个所述识别结果对应的识别准确度,分析得到每一音素对应的最终识别结果;
基于每一音素对应的最终识别结果,得到每个所述语音子文件对应的语音识别结果。
4.一种语音处理装置,其特征在于,包括:
文件获取模块,用于获取待进行语音识别的语音文件;
识别模块,用于在所述语音文件中识别用于切分语音文件的语音切分点,其中,所述语音切分点基于所述语音文件中的各个时间点确定;
文件切分模块,用于根据识别出的语音切分点,对所述语音文件进行切分,得到至少两个语音子文件;
语音识别模块,用于分别对每个所述语音子文件进行语音识别,得到每个所述语音子文件对应的语音识别结果;
结果分析模块,用于基于每个所述语音子文件对应的语音识别结果,按照所述语音子文件对应的顺序标识进行组合得到所述语音文件的语音识别结果;
所述识别模块还包括:
间隔计算子模块,用于计算相邻两个所述时间点的时间间隔;
数量计算子模块,用于基于每一所述时间间隔,计算切分成的所述语音子文件的数量;其中,切分得到的相邻两个所述语音子文件的时间长度差在第二预设数值内;
第一切分点选取子模块,用于根据计算得到的所述数量,从至少一个所述时间点中选取得到所述语音切分点。
5.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序执行权利要求1至3中任意一项所述的语音处理方法。
6.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至3中任意一项所述的语音处理方法。
CN201810448810.1A 2018-05-11 2018-05-11 一种语音处理方法及装置 Active CN110473519B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810448810.1A CN110473519B (zh) 2018-05-11 2018-05-11 一种语音处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810448810.1A CN110473519B (zh) 2018-05-11 2018-05-11 一种语音处理方法及装置

Publications (2)

Publication Number Publication Date
CN110473519A CN110473519A (zh) 2019-11-19
CN110473519B true CN110473519B (zh) 2022-05-27

Family

ID=68504278

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810448810.1A Active CN110473519B (zh) 2018-05-11 2018-05-11 一种语音处理方法及装置

Country Status (1)

Country Link
CN (1) CN110473519B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111210822A (zh) * 2020-02-12 2020-05-29 支付宝(杭州)信息技术有限公司 语音识别方法及其装置
CN111916108B (zh) * 2020-07-24 2021-04-02 北京声智科技有限公司 一种语音评测方法及装置
CN112686009A (zh) * 2020-12-23 2021-04-20 中国人民解放军战略支援部队信息工程大学 一种语音标注系统及方法
CN113436632A (zh) * 2021-06-24 2021-09-24 天九共享网络科技集团有限公司 语音识别方法、装置、电子设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101472082A (zh) * 2007-12-25 2009-07-01 新奥特(北京)视频技术有限公司 一种场记系统和方法
CN102903361A (zh) * 2012-10-15 2013-01-30 Itp创新科技有限公司 一种通话即时翻译系统和方法
CN104834740A (zh) * 2015-05-20 2015-08-12 深圳市东方泰明科技有限公司 一种全自动音视频结构化与精准搜索的方法
CN105513589A (zh) * 2015-12-18 2016-04-20 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105845129A (zh) * 2016-03-25 2016-08-10 乐视控股(北京)有限公司 一种在音频中切分句子的方法和系统及视频文件的字幕自动生成方法和系统
CN106340291A (zh) * 2016-09-27 2017-01-18 广东小天才科技有限公司 一种双语字幕制作方法及系统
CN106782506A (zh) * 2016-11-23 2017-05-31 语联网(武汉)信息技术有限公司 一种将录音音频分割成段的方法
CN107785018A (zh) * 2016-08-31 2018-03-09 科大讯飞股份有限公司 多轮交互语义理解方法和装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100063816A1 (en) * 2008-09-07 2010-03-11 Ronen Faifkov Method and System for Parsing of a Speech Signal
JP5667962B2 (ja) * 2011-11-08 2015-02-12 日本電信電話株式会社 音声認識装置とその方法とプログラム
CN104240697A (zh) * 2013-06-24 2014-12-24 浙江大华技术股份有限公司 一种音频数据的特征提取方法及装置
US9311932B2 (en) * 2014-01-23 2016-04-12 International Business Machines Corporation Adaptive pause detection in speech recognition
WO2015168274A1 (en) * 2014-04-29 2015-11-05 LENA, Foundation System and method for expressive language, developmental disorder, and emotion assessment
CN104050964A (zh) * 2014-06-17 2014-09-17 公安部第三研究所 音频信号还原度检测方法及系统
CN104157286B (zh) * 2014-07-31 2017-12-29 深圳市金立通信设备有限公司 一种习惯用语的获取方法及装置
CN106792069A (zh) * 2015-11-19 2017-05-31 北京国双科技有限公司 多媒体文件播放方法及装置
CN107657947B (zh) * 2017-09-20 2020-11-24 百度在线网络技术(北京)有限公司 基于人工智能的语音处理方法及其装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101472082A (zh) * 2007-12-25 2009-07-01 新奥特(北京)视频技术有限公司 一种场记系统和方法
CN102903361A (zh) * 2012-10-15 2013-01-30 Itp创新科技有限公司 一种通话即时翻译系统和方法
CN104834740A (zh) * 2015-05-20 2015-08-12 深圳市东方泰明科技有限公司 一种全自动音视频结构化与精准搜索的方法
CN105513589A (zh) * 2015-12-18 2016-04-20 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105845129A (zh) * 2016-03-25 2016-08-10 乐视控股(北京)有限公司 一种在音频中切分句子的方法和系统及视频文件的字幕自动生成方法和系统
CN107785018A (zh) * 2016-08-31 2018-03-09 科大讯飞股份有限公司 多轮交互语义理解方法和装置
CN106340291A (zh) * 2016-09-27 2017-01-18 广东小天才科技有限公司 一种双语字幕制作方法及系统
CN106782506A (zh) * 2016-11-23 2017-05-31 语联网(武汉)信息技术有限公司 一种将录音音频分割成段的方法

Also Published As

Publication number Publication date
CN110473519A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
CN110473519B (zh) 一种语音处理方法及装置
US9875739B2 (en) Speaker separation in diarization
CN109065044B (zh) 唤醒词识别方法、装置、电子设备及计算机可读存储介质
US20180218731A1 (en) Voice interaction apparatus and voice interaction method
CN109754783B (zh) 用于确定音频语句的边界的方法和装置
CN110309353A (zh) 视频索引方法及装置
CN110473528B (zh) 语音识别方法和装置、存储介质及电子装置
CN109979440B (zh) 关键词样本确定方法、语音识别方法、装置、设备和介质
CN111899755A (zh) 一种说话人语音分离方法及相关设备
CN109376363A (zh) 一种基于耳机的实时语音翻译方法及装置
CN108877779B (zh) 用于检测语音尾点的方法和装置
US20220399013A1 (en) Response method, terminal, and storage medium
CN112331188A (zh) 一种语音数据处理方法、系统及终端设备
Xiao et al. Contrastive semi-supervised learning for asr
CN107680584B (zh) 用于切分音频的方法和装置
CN109215659B (zh) 语音数据的处理方法、装置和系统
CN112989822A (zh) 识别对话中句子类别的方法、装置、电子设备和存储介质
CN112749299A (zh) 确定视频类型的方法、装置、电子设备及可读存储介质
CN109727603B (zh) 语音处理方法、装置、用户设备及存储介质
CN111292725B (zh) 一种语音解码方法及装置
CN114022955A (zh) 一种动作识别方法及装置
CN111402865B (zh) 语音识别训练数据的生成方法、语音识别模型的训练方法
CN109166581A (zh) 语音识别方法、装置、电子设备及计算机可读存储介质
CN111785256A (zh) 声学模型训练方法、装置、电子设备及存储介质
CN111179913A (zh) 一种语音处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant