CN109493869A - 音频数据的采集方法及系统 - Google Patents
音频数据的采集方法及系统 Download PDFInfo
- Publication number
- CN109493869A CN109493869A CN201811588420.0A CN201811588420A CN109493869A CN 109493869 A CN109493869 A CN 109493869A CN 201811588420 A CN201811588420 A CN 201811588420A CN 109493869 A CN109493869 A CN 109493869A
- Authority
- CN
- China
- Prior art keywords
- recording
- text
- audio
- information
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 241001672694 Citrus reticulata Species 0.000 claims description 10
- 238000012550 audit Methods 0.000 abstract description 4
- 239000000126 substance Substances 0.000 abstract description 2
- 230000015654 memory Effects 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
- G11B2020/10537—Audio or video recording
- G11B2020/10546—Audio or video recording specifically adapted for audio data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开一种音频数据的采集方法及系统包括:步骤S101,设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本。步骤S102,根据所述设置语音任务的语音任务标识获取当前录音音频。步骤S103,对所述当前录音音频进行语音识别,获取当前录音文本。步骤S104,若所述当前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。本申请通过对录音内容进行识别,自动录音音频信息进行了审核,考虑到方言等语言偏差所造成的不能实现审核的因素,本发明中还采用通过对汉语拼音进行辅助识别的方式,对音频录音进行审核,不仅提高了录音音频采集的准确性,同时也提高了录音音频采集的效率。
Description
技术领域
本发明属于音频信息的处理及应用的技术领域,尤其涉及音频数据的采集方法及系统。
背景技术
采集音频数据的产品有各类付费录音采集app的录音技术及天猫精灵等智能语音产品的语音识别技术。音频数据是语音技术研究的重要生产资料。合法采集录音数据,通常的做法有两个,一个通过寻找固定群体,提供录音app和相应的文本,用户按照要求录音完成并人工审核通过后获取一定的酬劳。另一种类似于天猫精灵,通过语音识别与用户交互,并采集分析用户音频数据。
付费录音采集app,需要人工审核录音,数据采集样本少,周期长。智能语音产品的语音识别,采用通用语音识别技术,且样本随机性高,无法按要求采集精准音频数据(如采集语音:你好小驰,需要快速和慢速各十遍)。付费录音app,只有录音技术,没有语音识别自动审核当前录音的准确度。智能语音产品的语音识别,是通用的语音识别技术,无法针对特定关键字的语音识别结果,进行审核,并实时调整通过率。
本行业从业人员为解决这些缺陷,采取的是结合录音app和语音交互产品的特点,通过语音技能或者游戏的方式,引导用户说出想要的关键字,但是如果一旦用户故意说错或者环境嘈杂,即使音频质量不合格,也无法纠错,让用户重新录音,否则容易使用户失去兴趣。这种方式虽然在录音效率和录音质量上有所平衡,但音频质量仍然不能很好的达到训练所需标准。我们根据过去的经验,放弃利用语音交互产品大规模采集音频的方法,用新的角度,结合录音app录音精准的优点,改进了人工审核效率低的问题。
发明内容
本发明实施例提供一种音频数据的采集方法及系统,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供了一种音频数据的采集方法,所述方法包括:
步骤S101,设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本;
步骤S102,根据所述设置语音任务的语音任务标识获取当前录音音频;
步骤S103,对所述当前录音音频进行语音识别,获取当前录音文本;
步骤S104,若所述当前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。
基于所述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
基于所述步骤S101中还包括:
根据所述录音文本及方言类型获取所述录音文本对应的汉语拼音序列。
基于所述步骤S103中还包括:对所述当前录音音频进行语音识别,获取当前录音汉语拼音序列。
基于,所述步骤S104中还包括:
若当前录音汉语拼音序列与所述录音文本对应的汉语拼音序列匹配,则对所述当前录音音频进行采集。
基于所述步骤S104中还包括:
生成用户记录信息,所述用户记录信息中包括,录音采集信息、客户奖励信息。
基于所述步骤S104中还包括:
若当前录音文本与所述录音任务文本不匹配,则生成重录信息。
第二方面,本发明实施例提供一种音频数据的采集系统,包括:设置语音任务单元、当前录音音频获取单元、当前录音文本获取单元及音频采集单元,其中,
所述设置语音任务单元,配置为设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本;
所述当前录音音频获取单元,配置为根据所述设置语音任务单元获取的所述设置语音任务的语音任务标识获取当前录音音频;
所述当前录音文本获取单元,配置为对所述当前录音音频获取单元中所获取的所述当前录音音频进行语音识别,获取当前录音文本;
音频采集单元,配置为若所述当前录音文本获取单元中获取的所述前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。
在一种优选的实施方式中,所述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
在一种优选的实施方式中,所述设置语音任务单元,还配置为根据所述录音文本及方言类型获取所述录音文本对应的汉语拼音序列。所述当前录音文本获取单元,还配置为若当前录音汉语拼音序列与所述录音文本对应的汉语拼音序列匹配,则对所述当前录音音频进行采集。
第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的方法的步骤。
第四方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行本发明任一实施例的方法的步骤。
本申请通过对录音内容进行识别,自动录音音频信息进行了审核,考虑到方言等语言偏差所造成的不能实现审核的因素,本发明中还采用通过对汉语拼音进行辅助识别的方式,对音频录音进行审核,不仅提高了录音音频采集的准确性,同时也提高了录音音频采集的效率。因此,本发明不仅能获得较高质量的特定文本,还能快速分享传播,加快了采集音频数据的速度。还可进行自由分享之后,采集的样本形态非常丰富,提高了后期的模型训练的可靠性。同时录音数据实时上传到大数据部门存储调用,极大的提高了研究的进度,提高技术体系升级的速度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的一种音频数据的采集方法的流程图。
图2为本发明一实施例提供的另一种音频数据的采集系统的组成图。
图3为本发明一实施例提供的又一种音频数据的采集方法的流程图。
图4为发明一实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,为音频数据的采集方法流程示意图,所述方法包括:
步骤S101,设置语音任务。
本步骤中,设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本。上述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
为便于通过拼音及方言进行辅助的音频判断,在本发明的一种实施方式中所述步骤S101中还包括:根据所述录音文本及方言类型获取所述录音文本对应的汉语拼音序列。在本步骤中,语音采集方登录管理后台,创建新的录音任务,该任务不能已上线的其他任务重名。根据近期研究需要,设置录音文本及每个文本需要录音的数量,选择需要的方言,默认为普通话。如果需要放宽录音要求,可以设置文本对应的拼音,即使语音识别返回的文本不同,但拼音相同,仍视为录音通过。拼音如果设置了多音字,文本词语的多音字组合中,通过任何一种,都可以视为录音。
步骤S102,获取当前录音音频。
本步骤中,根据所述设置语音任务的语音任务标识获取当前录音音频。用户从平台中认领步骤S101中的语音录音任务,按照语音录音任务的提示,对语音音频进行录制。可以将录音音频保存为多种格式后上传到平台上,同时,也可根据在平台上直接进行音频的录制。其录制音频的格式可采用多种的音频文件格式。在进行录音上传后,系统可自动对音频录音时间过短或音频文件大小明显为异常的情况进行自动筛选,并将筛选结果传回平台的用户端,从而,便于用户在接收到相应信息后,可对录音音频进行重新录制。
步骤S103,获取当前录音文本。
本步骤中,对所述当前录音音频进行语音识别,获取当前录音文本。所述步骤S103中还包括,对所述当前录音音频进行语音识别,获取当前录音汉语拼音序列。本步骤中所获取的“当前录音文本”是通过录音识别软件或系统对步骤S102中所获取的当前音频进行识别后,所得到的文本。其中需要说明的是,上述所提及的录音识别软件或系统在对录音音频进行识别时,也可以根据年龄等特征在识别方式上给予设置。从而提高对录音语音识别的准确性。也可同时采用多种语音识别软件文本进行识别,从而提高识别的准确性。
在本发明的一种优选的实施方式中,可通过对识别语音的设定,对多语种语言进行识别,在识别时为与汉语进行有效的分辨,也可以在S101的步骤中的语音任务设定信息中,特别备注多语言录音文件,一方面便于录音者对“录音任务”的认领,另外,也可根据语速信息,预估多种语音切换的区域时间,从而,为后期更准确的对多语言进行识别做好准备,具体的步骤可以为:首先,根据当前录音音频的字数及录音者的常规语速,预估得到“多语言切换的时间区间”。在对音频通过语音识别软件进行识别时,可根据上述的“多语言切换的时间区间”,设定多语言识别的切换时间。从而提高文字识别的准确性。在音频质量较差时,也可对音频先进行去燥处理,再进行音频信息的文字识别。降低识别过程中的差错率。
步骤S104,进行录音音频采集。
本步骤中,若所述当前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。也可根据任务文本数量和要求的高低设置奖励金额信息的设置。之后提交任务并发布,系统后台根据识别任务训练特定文本的识别模型,同时用户端即可看到该任务,并领取录音任务。在本部中中对当前录音音频的判断过程中,也可通过当前录音文本的字数对录音进行识别及审核。同时,也可以采用对语气词及轻声词进行适度忽略的方式,提高对主要内容识别的准确性。
用户在通过本发明进行音频信息采集时,主要流程是按照文本要求录音,通过后领取奖励金,主要步骤如下:首先,领取录音任务,每一个人录音任务限定了固定任务量,当领取人数达到设定值之后,便不能再领取任务。之后,用户根据要求的录音文本,按下录音键开始录音,简短的录音完成后,立即上传录音,然后通过针对该文本训练后的语音识别模型,返回语音识别结果。在后,将语音识别结果中的文本与当前文本比对,如果相同,则录音通过。如果不同,进入拼音审核。将语音识别结果的拼音与当前文本的拼音进行比对,如果相同,则录音通过,如果不同,则返回录音错误,重新进入录音环节。所有录音文本通过后,即可领取奖金到个人账户中。或由系统进行奖励金信息的收集。
本发明的一种实施方式中,还可以通过录音的拼音序列进行录音品质的判断,因此,在步骤S104中还包括:若当前录音汉语拼音序列与所述录音文本对应的汉语拼音序列匹配,则对所述当前录音音频进行采集。
同时,为便于对用户的动态采集信息进行采集,在本发明的一种实施方式中,在步骤S104中还包括:生成用户记录信息,所述用户记录信息中包括,录音采集信息、客户奖励信息。上述的记录可以为字段信息,也可以为数据库信息。
为及时对当前音频未通过信息的及时反馈,同时提高音频采集的效率,在本发明的一种实施方式中,上述步骤S104中还包括:若当前录音文本与所述录音任务文本不匹配,则生成重录信息。
同时,本发明还提供了一种音频数据的采集系统,如图2所示,包括:设置语音任务单元101、当前录音音频获取单元201、当前录音文本获取单元301及音频采集单元401。
其中,所述设置语音任务单元101,配置为设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本。上述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
所述当前录音音频获取单元201,配置为根据所述设置语音任务单元101获取的所述设置语音任务的语音任务标识获取当前录音音频;
所述当前录音文本获取单元301,配置为对所述当前录音音频获取单元201中所获取的所述当前录音音频进行语音识别,获取当前录音文本;
音频采集单元401,配置为若所述当前录音文本获取单元301中获取的所述前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。
在一种优选的实施方式中,上述设置语音任务单元101,还配置为根据所述录音文本及方言类型获取所述录音文本对应的汉语拼音序列;
在一种优选的实施方式中,上述当前录音文本获取单元301,还配置为若当前录音汉语拼音序列与所述录音文本对应的汉语拼音序列匹配,则对所述当前录音音频进行采集。
在本发明的另一种实施方式中,为了平衡采集音频效率和质量,本发明中改进了付费录音app的人工审核机制,引入语音识别技术作为审核机制,并为提高自动审核效率,改进了通用语音识别技术,设计了适用于审核机制的语音识别技术。同时为了改进录音app不易传播的特点,我们将该技术应用于微信小程序中,提高了用户分享和传播的效率。
如图3所示,精准采集音频数据,管理员和用户有着不同的操作流程。
管理员主要流程是发布任务和设置语音识别审核严格程度。主要步骤如下:
1)登录管理后台,创建新的录音任务,该任务不能已上线的其他任务重名。
2)根据近期研究需要,设置录音文本及每个文本需要录音的数量,选择需要的方言,默认为普通话。
3)如果需要放宽录音要求,可以设置文本对应的拼音,即使语音识别返回的文本不同,但拼音相同,仍视为录音通过。拼音如果设置了多音字,文本词语的多音字组合中,通过任何一种,都可以视为录音。
4)根据任务文本数量和要求的高低设置奖励金额。
5)提交任务并发布,系统后台根据识别任务训练特定文本的识别模型,同时用户端即可看到该任务,并领取录音任务。
用户主要流程是按照文本要求录音,通过后领取奖励金,主要步骤如下:
1)领取录音任务,每一个人录音任务限定了固定任务量,当领取人数达到设定值之后,便不能再领取任务。
2)用户根据要求的录音文本,按下录音键开始录音,简短的录音完成后,立即上传录音,然后通过针对该文本训练后的语音识别模型,返回语音识别结果。
3)将语音识别结果中的文本与当前文本比对,如果相同,则录音通过。如果不同,进入拼音审核。
4)将语音识别结果的拼音与当前文本的拼音进行比对,如果相同,则录音通过,如果不同,则返回录音错误,重新进入录音环节。
5)所有录音文本通过后,即可领取奖金到个人账户中。
在另一些实施例中,本发明实施例还提供了一种非易失性计算机存储介质,计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的语音信号处理和使用方法;
作为一种实施方式,本发明的非易失性计算机存储介质存储有计算机可执行指令,计算机可执行指令设置为:
步骤S101,设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本;
步骤S102,根据所述设置语音任务的语音任务标识获取当前录音音频;
步骤S103,对所述当前录音音频进行语音识别,获取当前录音文本;
步骤S104,若所述当前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。
基于所述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
基于所述步骤S101中还包括:
根据所述录音文本及方言类型获取所述录音文本对应的汉语拼音序列。
基于所述步骤S103中还包括:对所述当前录音音频进行语音识别,获取当前录音汉语拼音序列。
基于,所述步骤S104中还包括:
若当前录音汉语拼音序列与所述录音文本对应的汉语拼音序列匹配,则对所述当前录音音频进行采集。
基于所述步骤S104中还包括:
生成用户记录信息,所述用户记录信息中包括,录音采集信息、客户奖励信息。
基于所述步骤S104中还包括:
若当前录音文本与所述录音任务文本不匹配,则生成重录信息。
作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的一种音频数据的采集方法对应的程序指令/模块。一个或者多个程序指令存储在非易失性计算机可读存储介质中,当被处理器执行时,执行上述任意方法实施例中的一种音频数据的采集方法。
非易失性计算机可读存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据一种音频数据的采集系统的使用所创建的数据等。此外,非易失性计算机可读存储介质可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,非易失性计算机可读存储介质可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至一种音频数据的采集系统。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例还提供一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,使计算机执行上述任一项一种音频数据的采集方法。
图4是本发明实施例提供的电子设备的结构示意图,如图4所示,该设备包括:一个或多个处理器410以及存储器420,图4中以一个处理器410为例。一种音频数据的采集方法的设备还可以包括:输入装置430和输出装置440。处理器410、存储器420、输入装置430和输出装置440可以通过总线或者其他方式连接,图4中以通过总线连接为例。存储器420为上述的非易失性计算机可读存储介质。处理器410通过运行存储在存储器420中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例一种音频数据的采集方法。输入装置430可接收输入的数字或字符信息,以及产生与信息投放装置的用户设置以及功能控制有关的键信号输入。输出装置440可包括显示屏等显示设备。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
作为一种实施方式,上述电子设备可以应用于智能语音对话平台中,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够:
步骤S101,设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本;
步骤S102,根据所述设置语音任务的语音任务标识获取当前录音音频;
步骤S103,对所述当前录音音频进行语音识别,获取当前录音文本;
步骤S104,若所述当前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。
基于所述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
基于所述步骤S101中还包括:
根据所述录音文本及方言类型获取所述录音文本对应的汉语拼音序列。
基于所述步骤S103中还包括:对所述当前录音音频进行语音识别,获取当前录音汉语拼音序列。
基于,所述步骤S104中还包括:
若当前录音汉语拼音序列与所述录音文本对应的汉语拼音序列匹配,则对所述当前录音音频进行采集。
基于所述步骤S104中还包括:
生成用户记录信息,所述用户记录信息中包括,录音采集信息、客户奖励信息。
基于所述步骤S104中还包括:
若当前录音文本与所述录音任务文本不匹配,则生成重录信息。
同时还可实现下列系统的运行:
设置语音任务单元101、当前录音音频获取单元201、当前录音文本获取单元301及音频采集单元401,其中,
所述设置语音任务单元101,配置为设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本。上述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
所述当前录音音频获取单元201,配置为根据所述设置语音任务单元101获取的所述设置语音任务的语音任务标识获取当前录音音频;
所述当前录音文本获取单元301,配置为对所述当前录音音频获取单元201中所获取的所述当前录音音频进行语音识别,获取当前录音文本;
音频采集单元401,配置为若所述当前录音文本获取单元301中获取的所述前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种音频数据的采集方法,所述方法包括:
步骤S101,设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本;
步骤S102,根据所述设置语音任务的语音任务标识获取当前录音音频;
步骤S103,对所述当前录音音频进行语音识别,获取当前录音文本;
步骤S104,若所述当前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。
2.根据权利要求1所述的采集方法,所述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
3.根据权利要求2所述的采集方法,所述步骤S101中还包括:
根据所述录音文本及方言类型获取所述录音文本对应的汉语拼音序列。
4.根据权利要求3所述的采集方法,其中,所述步骤S103中还包括:
对所述当前录音音频进行语音识别,获取当前录音汉语拼音序列。
5.根据权利要求4所述的采集方法,其中,所述步骤S104中还包括:
若当前录音汉语拼音序列与所述录音文本对应的汉语拼音序列匹配,则对所述当前录音音频进行采集。
6.根据权利要求1所述的采集方法,所述步骤S104中还包括:
生成用户记录信息,所述用户记录信息中包括,录音采集信息、客户奖励信息。
7.根据权利要求1所述的采集方法,所述步骤S104中还包括:
若当前录音文本与所述录音任务文本不匹配,则生成重录信息。
8.一种音频数据的采集系统,包括:设置语音任务单元、当前录音音频获取单元、当前录音文本获取单元及音频采集单元,其中,
所述设置语音任务单元,配置为设置语音任务信息;所述语音任务信息中包括:语音任务标识及录音任务文本;
所述当前录音音频获取单元,配置为根据所述设置语音任务单元获取的所述设置语音任务的语音任务标识获取当前录音音频;
所述当前录音文本获取单元,配置为对所述当前录音音频获取单元中所获取的所述当前录音音频进行语音识别,获取当前录音文本;
音频采集单元,配置为若所述当前录音文本获取单元中获取的所述前录音文本与所述录音任务文本匹配,则对所述当前录音音频进行采集。
9.根据权利要求8所述的采集系统,所述语音任务信息中包括口音类型信息;所述口音类型信息包括:方言信息及普通话信息。
10.根据权利要求9所述的采集系统,其中,
所述设置语音任务单元,还配置为根据所述录音文本及方言类型获取所述录音文本对应的汉语拼音序列;
所述当前录音文本获取单元,还配置为若当前录音汉语拼音序列与所述录音文本对应的汉语拼音序列匹配,则对所述当前录音音频进行采集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811588420.0A CN109493869A (zh) | 2018-12-25 | 2018-12-25 | 音频数据的采集方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811588420.0A CN109493869A (zh) | 2018-12-25 | 2018-12-25 | 音频数据的采集方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109493869A true CN109493869A (zh) | 2019-03-19 |
Family
ID=65711889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811588420.0A Pending CN109493869A (zh) | 2018-12-25 | 2018-12-25 | 音频数据的采集方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109493869A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110349580A (zh) * | 2019-07-16 | 2019-10-18 | Oppo广东移动通信有限公司 | 录音配置方法、装置、存储介质及电子设备 |
CN110858819A (zh) * | 2019-08-16 | 2020-03-03 | 杭州智芯科微电子科技有限公司 | 基于微信小程序的语料收集方法、装置和计算机设备 |
CN111508468A (zh) * | 2020-04-17 | 2020-08-07 | 北京灵伴即时智能科技有限公司 | 录音编辑管理方法及系统 |
CN111554307A (zh) * | 2020-05-20 | 2020-08-18 | 浩云科技股份有限公司 | 一种声纹采集注册方法及装置 |
CN113112997A (zh) * | 2019-12-25 | 2021-07-13 | 华为技术有限公司 | 数据采集的方法及装置 |
CN114171065A (zh) * | 2021-11-29 | 2022-03-11 | 重庆长安汽车股份有限公司 | 音频采集和对比方法、系统及车辆 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170345411A1 (en) * | 2016-05-26 | 2017-11-30 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
CN107659847A (zh) * | 2016-09-22 | 2018-02-02 | 腾讯科技(北京)有限公司 | 语音互动方法和装置 |
CN108319978A (zh) * | 2018-02-01 | 2018-07-24 | 北京捷通华声科技股份有限公司 | 一种语义相似度计算方法及装置 |
CN108962284A (zh) * | 2018-07-04 | 2018-12-07 | 科大讯飞股份有限公司 | 一种语音录制方法及装置 |
CN109036419A (zh) * | 2018-07-23 | 2018-12-18 | 努比亚技术有限公司 | 一种语音识别匹配方法、终端及计算机可读存储介质 |
CN109065031A (zh) * | 2018-08-02 | 2018-12-21 | 阿里巴巴集团控股有限公司 | 语音标注方法、装置及设备 |
-
2018
- 2018-12-25 CN CN201811588420.0A patent/CN109493869A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170345411A1 (en) * | 2016-05-26 | 2017-11-30 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
CN107659847A (zh) * | 2016-09-22 | 2018-02-02 | 腾讯科技(北京)有限公司 | 语音互动方法和装置 |
CN108319978A (zh) * | 2018-02-01 | 2018-07-24 | 北京捷通华声科技股份有限公司 | 一种语义相似度计算方法及装置 |
CN108962284A (zh) * | 2018-07-04 | 2018-12-07 | 科大讯飞股份有限公司 | 一种语音录制方法及装置 |
CN109036419A (zh) * | 2018-07-23 | 2018-12-18 | 努比亚技术有限公司 | 一种语音识别匹配方法、终端及计算机可读存储介质 |
CN109065031A (zh) * | 2018-08-02 | 2018-12-21 | 阿里巴巴集团控股有限公司 | 语音标注方法、装置及设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110349580A (zh) * | 2019-07-16 | 2019-10-18 | Oppo广东移动通信有限公司 | 录音配置方法、装置、存储介质及电子设备 |
CN110858819A (zh) * | 2019-08-16 | 2020-03-03 | 杭州智芯科微电子科技有限公司 | 基于微信小程序的语料收集方法、装置和计算机设备 |
CN113112997A (zh) * | 2019-12-25 | 2021-07-13 | 华为技术有限公司 | 数据采集的方法及装置 |
CN111508468A (zh) * | 2020-04-17 | 2020-08-07 | 北京灵伴即时智能科技有限公司 | 录音编辑管理方法及系统 |
CN111554307A (zh) * | 2020-05-20 | 2020-08-18 | 浩云科技股份有限公司 | 一种声纹采集注册方法及装置 |
CN114171065A (zh) * | 2021-11-29 | 2022-03-11 | 重庆长安汽车股份有限公司 | 音频采集和对比方法、系统及车辆 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109493869A (zh) | 音频数据的采集方法及系统 | |
JP6799574B2 (ja) | 音声対話の満足度の確定方法及び装置 | |
US20190333118A1 (en) | Cognitive product and service rating generation via passive collection of user feedback | |
CN109360550B (zh) | 语音交互系统的测试方法、装置、设备和存储介质 | |
US20190347326A1 (en) | System and Method for Scoring Performance of Chatbots | |
US10224032B2 (en) | Determining an impact of a proposed dialog act using model-based textual analysis | |
US11527233B2 (en) | Method, apparatus, device and computer storage medium for generating speech packet | |
US20180307672A1 (en) | Recommending a dialog act using model-based textual analysis | |
EP3776175B1 (en) | Action validation for digital assistant-based applications | |
US9613616B2 (en) | Synthesizing an aggregate voice | |
US9652999B2 (en) | Computer-implemented systems and methods for estimating word accuracy for automatic speech recognition | |
CN108648750A (zh) | 混合模型语音识别 | |
CN102609406B (zh) | 学习装置、判断装置、学习方法和判断方法 | |
WO2017044368A1 (en) | System and method for validating natural language content using crowdsourced validation jobs | |
CN110351574B (zh) | 直播间的信息渲染方法、装置、电子设备和存储介质 | |
CN109389427A (zh) | 问卷推送方法、装置、计算机设备和存储介质 | |
CN110428825A (zh) | 忽略流式媒体内容中的触发词 | |
CN109460503A (zh) | 答案输入方法、装置、存储介质及电子设备 | |
CN106486134B (zh) | 话语状态确定装置及方法 | |
US20230077478A1 (en) | Method and apparatus for testing full-duplex speech interaction system | |
CN110970030A (zh) | 一种语音识别转换方法及系统 | |
CN112837159B (zh) | 基于场景要素的交易引导方法、装置、电子设备及介质 | |
CN114611504A (zh) | 用户言论、风险用户的识别方法及相关装置 | |
CN110516043A (zh) | 用于问答系统的答案生成方法和装置 | |
CN110858819A (zh) | 基于微信小程序的语料收集方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant after: Sipic Technology Co.,Ltd. Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant before: AI SPEECH Co.,Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190319 |
|
RJ01 | Rejection of invention patent application after publication |