CN112347788A - 语料处理方法、装置及存储介质 - Google Patents
语料处理方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112347788A CN112347788A CN202011229297.0A CN202011229297A CN112347788A CN 112347788 A CN112347788 A CN 112347788A CN 202011229297 A CN202011229297 A CN 202011229297A CN 112347788 A CN112347788 A CN 112347788A
- Authority
- CN
- China
- Prior art keywords
- target
- content
- preset
- voice
- voice conversation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 56
- 238000003062 neural network model Methods 0.000 claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 32
- 230000008451 emotion Effects 0.000 claims description 67
- 238000013507 mapping Methods 0.000 claims description 41
- 238000001914 filtration Methods 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 13
- 210000004556 brain Anatomy 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000013441 quality evaluation Methods 0.000 description 20
- 238000011156 evaluation Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000012421 spiking Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请涉及数据处理技术,尤其涉及一种语料处理方法、装置及存储介质,方法包括:获取语音对话内容,所述语音对话内容为针对预设内容的答复信息;在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容;将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记说话人主体的真实意图。采用本申请实施例能够快速将语音对话内容转化为文本,且通过神经网络模型识别相应的标签,能够提升语料标记效率。
Description
技术领域
本申请涉及数据处理技术领域,具体涉及一种语料处理方法、装置及存储介质。
背景技术
以智能语音项目为例,该项目是一个通过电话外呼,客户接通电话后,进行交互。项目刚开始没有语料,需要从零开始积累语料并提供给人工智能AI模型进行训练。按照现在业内一般的做法,先让系统上线到测试环境或者内测生产环境,由员工扮演客户角色,与AI机器人进行对话,积累语料后,导出对话文本,人工进行标注。还有一些可能有部分语料,可以对这些数据进行标注,往往数据还不够,也需要继续进行收集。也是按照员工扮演客户角色与AI机器人进行对话收集语料,然后再进行标注,如何提升语料标记的效率的问题亟待解决。
发明内容
本申请实施例提供了一种语料处理方法、装置及存储介质,能够提升语料标记效率。
第一方面,本申请实施例提供一种语料处理方法,所述方法包括:
获取语音对话内容,其中,所述语音对话内容为针对预设内容的答复信息;
在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容;
将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记说话人主体的真实意图。
第二方面,本申请实施例提供一种语料处理装置,所述装置包括:获取单元、处理单元和识别单元,其中,
所述获取单元,用于获取语音对话内容,所述语音对话内容为针对预设内容的答复信息;
所述处理单元,用于在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容;
所述识别单元,用于将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记说话人主体的真实意图。
第三方面,本申请实施例提供一种电子设备,包括处理器、存储器、通信接口以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面中的步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
实施本申请实施例,具备如下有益效果:
可以看出,本申请实施例中所描述的语料处理方法、装置及存储介质,获取语音对话内容,语音对话内容为针对预设内容的答复信息,在语音对话内容的信噪比大于预设阈值时,将对话内容处理为文本内容,将文本内容输入到预先训练好的神经网络模型,得到目标标签,目标标签用于标记说话人主体的真实意图,如此,能够快速将对话内容转化为文本,且通过神经网络模型识别相应的标签,能够提升语料标记效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种语料处理方法的流程示意图;
图2是本申请实施例提供的另一种语料处理方法的流程示意图;
图3是本申请实施例提供的一种电子设备的结构示意图;
图4是本申请实施例提供的一种语料处理装置的功能单元组成框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例所涉及到的电子设备可以包括各种具有无线通信功能的手持设备(如手机、平板电脑、POS机等等)、台式机、车载设备、可穿戴设备(智能手表、智能手环、无线耳机、增强现实/虚拟现实设备、智能眼镜)、AI机器人、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(user equipment,UE),移动台(mobilestation,MS),终端设备(terminal device)等等。为方便描述,上面提到的设备统称为电子设备。
下面对本申请实施例进行详细介绍。
请参阅图1,图1是本申请实施例提供的一种语料处理方法的流程示意图,如图所示,应用于电子设备,本语料处理方法包括:
101、获取语音对话内容,所述语音对话内容为针对预设内容的答复信息。
其中,预设内容可以由用户自行设置或者系统默认,例如,预设内容可以为:是否需要存款?又例如,确认存款50万元?等等。对话内容则可以为针对预设内容的答复,预设内容可以由电子设备进行提问,语音对话内容则是针对该预设内容的答复信息。以电子设备为AI机器人为例,其可以包括摄像头,该摄像头可以用于实现手势识别;又如,其可以包括声音传感器,该声音传感器用于识别语音识别;又如,其可以包括触控传感器或者键盘,该触控传感器或者键盘可以接收用户输入的文字;又如,其可以包括脑电波传感器,该脑电波传感器可以用于采集脑电波信号。
102、在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容。
具体实现中,预设阈值可以由用户自行设置或者系统默认,例如,预设阈值为85%,电子设备可以对语音对话内容进行语音识别,得到文本内容。
可选地,在所述对话内容为语音信息时,上述步骤102,将所述对话内容处理为文本内容,可以包括如下步骤:
21、将所述语音对话内容按照预设规则进行截取,得到第一语音信息,其中,所述预设规则包括按照所述语音对话内容中的声纹特征划分所述说话人主体及对应的语音内容,并根据所述说话人主体对所述语音信息进行截取分段;
22、对所述第一语音信息进行滤波处理,得到第二语音信息;
23、将所述第二语音信息输入到预设语义分割模型,得到所述文本内容。
其中,预设规则可以预先设置或者系统默认,预设规则可以包括按照语音对话内容中的声纹特征划分说话人主体及对应的语音内容,并根据说话人主体对语音信息进行截取分段,预设语义分割模型可以预先训练好,其用于将语音转化为文本内容。具体实现中,电子设备可以将语音信息进行截取,主要是为了截取用户说话部分,其他部分不包括用户表达的内容,则可以滤除,得到第一语音信息,该第一语音信息的起点时刻与结束时刻均对应用户说话的声音,进而,对第一语音信息进行滤波处理,得到第二语音信息,可以过滤环境声音,例如,风声,雨声,以及其他人的发出的声音,最后,将第二语音信息输入到预设语义分割模型,得到文本内容,如此,可以精准得到文本内容。
进一步可选地,上述步骤22,对所述第一语音信息进行滤波处理,得到第二语音信息,可以包括如下步骤:
221、获取所述说话人主体的声纹特征匹配滤波处理规则;
222、根据所匹配的所述滤波处理规则对对应的所述第一语音信息进行滤波处理,得到所述第二语音信息。
其中,电子设备中可以预先存储说话人主体的声纹特征匹配滤波处理规则,具体实现中,电子设备可以获取说话人主体的声纹特征匹配滤波处理规则,基于该说话人主体的声纹特征匹配滤波处理规则对第一语音信息进行滤波处理,得到第二语音信息,该第二语音信息则可以主要包括说话人主体发出的声音,有利于精准滤除噪声,且保留用户自己的声音。
在步骤101-步骤102之间,还包括如下步骤:
A1、获取所述说话人主体的脑电波信号对应的波形图,所述波形图横轴为时间,纵轴为幅值;
A2、将所述波形图进行采样,得到多个采样点;
A3、确定所述多个采样点对应的平均幅值和目标均方差;
A4、按照预设的幅值与情绪值之间的映射关系,确定所述平均幅值对应的第一情绪值;
A5、按照预设的均方差与调节系数之间的映射关系,确定所述目标均方差对应的目标调节系数;
A6、通过所述目标调节系数对所述第一情绪值进行调节,得到第二情绪值;
A7、按照预设的情绪值与情绪类型之间的映射关系,确定所述第二情绪值对应的目标情绪类型;
A8、在所述目标情绪类型为预设情绪类型时,执行步骤102。
其中,脑电波信号可以为说话人主体的脑电波信号,本申请实施例中,预设情绪类型可以由用户自行设置或者系统默认,预设情绪类型可以为以下至少一种:高兴、紧张、郁闷、憋屈、生气等等,在此不做限定。电子设备中可以预先存储预设的幅值与情绪值之间的映射关系、预设的均方差与调节系数之间的映射关系以及预设的情绪值与情绪类型之间的映射关系。
具体实现中,电子设备可以获取脑电波信号对应的波形图,波形图横轴为时间,纵轴为幅值,将波形图进行采样,得到多个采样点,可以采用均匀采样,则可以确定多个采样点对应的平均幅值和目标均方差,按照预设的幅值与情绪值之间的映射关系,确定平均幅值对应的第一情绪值,按照预设的均方差与调节系数之间的映射关系,确定目标均方差对应的目标调节系数,通过目标调节系数对第一情绪值进行调节,得到第二情绪值,其中,调节系数的取值范围为-0.1~0.1,则
第二情绪值=(1+目标调节系数)*第一情绪值
如此,可以实现情绪精准识别,接着,可以按照预设的情绪值与情绪类型之间的映射关系,确定第二情绪值对应的目标情绪类型,在目标情绪类型为预设情绪类型时,执行步骤102,如此,可以保证后续文本识别为标签的精准率。
103、将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记说话人主体的真实意图。
其中,神经网络模型可以为以下至少一种:卷积神经网络模型、循环神经网络模型、卷积神经网络模型、脉冲神经网络模型等等,在此不做限定。标签可以由用户预先设置或者系统默认,例如,标签可以为愿意、不愿意、犹豫、待定等等,在此不做限定。具体实现中,电子设备可以将文本内容输入到预先训练好的神经网络模型,得到目标标签,如此可以实现对语料进行快速标记。标签反映了用户意图。
具体实现中,电子设备还可以在界面展示文本内容以及标签,还可以按照预设的标签与控件之间的映射关系,生成与目标标签对应的目标控件,以提示用户执行相应的操作。
可选地,上述步骤103,将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,可以包括如下步骤:
31、获取目标身份信息;
32、按照预设的身份信息与模型参数之间的映射关系,确定所述目标身份信息对应的目标模型参数;
33、基于所述目标模型参数将所述文本内容输入到预先训练好的神经网络模型,得到目标标签。
其中,目标身份信息可以为上述说话人主体的身份信息,或者,也可以用是登录用户的身份信息。身份信息可以为以下至少一种:指纹、虹膜、脑电波、人脸、学历、身份证号、职业、特长、爱好、国籍、年龄等等,在此不做限定。模型参数可以理解为神经网络模型的控制参数,模型参数可以为以下至少一种:卷积核、步长、层数、收敛条件、精度值等等,在此不做限定。
其中,电子设备中可以预先存储预设的身份信息与模型参数之间的映射关系,获取说话人主体的目标身份信息,且按照预设的身份信息与模型参数之间的映射关系,确定目标身份信息对应的目标模型参数,基于目标模型参数将文本内容输入到预先训练好的神经网络模型,得到目标标签。
进一步可选地,上述步骤33,基于所述目标模型参数将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,可以包括如下步骤:
331、对所述文本内容进行特征提取,得到目标特征集;
332、基于所述目标模型参数将所述目标特征集输入到所述预设训练好的神经网络模型,得到所述目标标签。
其中,目标特征集中可以包括至少一个特征,文本内容的特征可以为关键字,关键字可以为以下至少一种:字符、词组、汉字、标点符号等等,在此不作限定。
具体实现中,电子设备可以对文本内容进行特征提取,得到目标特征集,并且基于目标模型参数将目标特征集输入到预设训练好的神经网络模型,得到目标标签,由于仅对文本内容的特征进行识别,进而,可以实现快速得到标签。
可选地,在步骤101之前,可以包括以下至少步骤:
B1、获取语料集,所述语料集包括多个语料,每一语料对应一个标签,所述多个语料中每一语料的标签构成标签集;
B2、将所述语料集和所述标签集输入到预设神经网络模型进行训练,得到训练好的神经网络模型。
其中,语料集可以包括多个语料,每一语料可以为一个话术,每一语料对应一个标签,由多个标签可以构成标签集,语料集和标签集可以理解为样本,则可以将语料集和标签集输入到预设神经网络模型进行训练,得到训练好的神经网络模型,通过大量样本测试,可以得到训练好的神经网络模型。
可选地,上述步骤101之前,可以包括如下步骤:
S1、获取目标指纹图像;
S2、确定所述目标指纹图像的目标图像质量评价值;
S3、在目标图像质量评价值大于指定阈值时,将所述目标指纹图像与预设指纹模板进行匹配;
S4、在所述目标指纹图像与所述预设指纹模板匹配成功时,执行所述获取对话内容的步骤;
S5、在所述目标图像质量评价值小于或等于所述指定阈值时,确定所述目标图像质量评价值对应的目标图像增强参数;
S6、依据所述目标图像增强参数对所述目标指纹图像进行图像增强处理,得到第一指纹图像;
S7、将所述第一指纹图像与所述预设指纹模板进行匹配;
S8、在所述第一指纹图像与所述预设指纹模板匹配成功时,执行所述获取对话内容的步骤。
其中,电子设备中可以预先存储预设指纹模板以及指定阈值。指定阈值可以由用户自行设置或者系统默认。具体实现中,电子设备可以获取目标指纹图像,可以采用至少一个图像质量评价指标对目标指纹图像进行图像质量评价,得到目标图像质量评价值,图像质量评价指标可以包括以下至少一种:信噪比、信息熵、清晰度、边缘保持度、均方差、平均梯度等等,在此不做限定。进一步地,电子设备可以在目标图像质量评价值大于指定阈值时,将目标指纹图像与预设指纹模板进行匹配,且在目标指纹图像与预设指纹模板匹配成功时,执行步骤101。
进一步地,电子设备可以在目标图像质量评价值小于或等于指定阈值时,确定目标图像质量评价值对应的目标图像增强参数,本申请实施例中,图像增强参数可以为图像增强算法以及相应的图像增强控制参数,图像增强算法可以为以下至少一种:灰度拉伸、小波变换、直方图均衡化、Retinex算法等等,在此不作限定,图像增强控制参数则为控制图像增强的幅度或者效果的参数,不同的图像增强算法可以对应不同的图像增强控制参数。电子设备中还可以预先存储预设的图像质量评价值与图像增强参数之间的映射关系,依据该映射关系可以确定目标图像质量评价值对应的目标图像增强参数。进而,电子设备可以依据目标图像增强参数对目标指纹图像进行图像增强处理,得到第一指纹图像,电子设备可以将第一指纹图像与预设指纹模板进行匹配,且在第一指纹图像与预设指纹模板匹配成功时,执行步骤101,反之,则可以提示用户继续输入指纹图像,如此,可以提升指纹识别效率。
进一步可选地,上述步骤S2,确定所述目标指纹图像的目标图像质量评价值,可以包括如下步骤:
S21、提取所述目标指纹图像的低频分量和高频分量;
S22、将所述低频分量划分为多个区域;
S23、确定所述多个区域中每一区域对应的信噪比,得到多个信噪比;
S24、依据所述多个信噪比确定平均信噪比和目标均方差;
S25、确定所述目标均方差对应的第一调节系数;
S26、依据所述第一调节系数对所述平均信噪比进行调节,得到目标信噪比;
S27、按照预设的信噪比与评价值之间的映射关系,确定所述目标信噪比对应的第一评价值;
S28、确定所述低频分量的能量值与所述目标指纹图像的能量值对应的目标能量占比;
S29、按照预设的低频能量占比与低频权重之间的映射关系,确定所述目标能量占比对应的目标低频权重,依据该目标低频权重确定目标高频权重;
S30、依据所述高频分量确定目标特征点分布密度;
S31、按照预设的特征点分布密度与评价值之间的映射关系,确定所述目标特征点分布密度对应的第二评价值;
S32、依据所述第一评价值、所述第二评价值、所述目标低频权重和所述目标高频权重进行加权运算,得到所述目标指纹图像的目标图像质量评价值。
具体实现中,电子设备可以采用多尺度分解算法将目标指纹图像进行多尺度特征分解,得到低频分量和高频分量,多尺度分解算法可以为以下至少一种:金字塔变换算法、小波变换、轮廓波变换、非下采用轮廓波变换、脊波变换、剪切波变换等等,在此不做限定。进一步地,电子设备可以将低频分量划分为多个区域,每一区域的面积大小相同或者不同。低频分量反映了图像的主体特征,高频分量反映了图像的细节信息。
进一步地,电子设备可以确定多个区域中每一区域对应的信噪比,得到多个信噪比,依据多个信噪比确定平均信噪比和目标均方差,信噪比在一定程度上反映了图像信息多少,均方差则可以反映图像信息的稳定性。电子设备中可以预先存储预设均方差与调节系数之间的映射关系,进而,可以依据该映射关系确定目标均方差对应的第一调节系数,本申请实施例中,调节系数的取值范围可以为-0.15~0.15。
进一步地,电子设备可以依据第一调节系数对平均信噪比进行调节,得到目标信噪比,目标信噪比=(1+第一调节系数)*平均信噪比。电子设备中可以预先存储预设的信噪比与评价值之间的映射关系,进而,可以按照预设的信噪比与评价值之间的映射关系,确定目标信噪比对应的第一评价值。
另外,电子设备中可以预先存储预设的低频能量占比与低频权重之间的映射关系,其中,低频能量占比为原始图像的低频分量与原始图像之间的能量比,电子设备可以确定低频分量的能量值与目标指纹图像的能量值对应的目标能量占比,按照预设的低频能量占比与低频权重之间的映射关系,确定目标能量占比对应的目标低频权重,依据该目标低频权重确定目标高频权重,其中,目标低频权重+目标高频权重=1。
进一步地,电子设备可以依据高频分量确定目标特征点分布密度,目标特征点分布密度=高频分量的特征点总数量/区域面积。电子设备中还可以预先存储预设的特征点分布密度与评价值之间的映射关系,进而,可以按照预设的特征点分布密度与评价值之间的映射关系,确定目标特征点分布密度对应的第二评价值,最后,依据第一评价值、第二评价值、目标低频权重和目标高频权重进行加权运算,得到所述目标指纹图像的目标图像质量评价值,具体如下:
目标图像质量评价值=第一评价值*目标低频权重+第二评价值*目标高频权重
如此,可以基于指纹图像的低频分量以及高频分量两个维度进行图像质量评价,能够精准得到图像的图像质量评价值,即目标图像质量评价值。
可以看出,本申请实施例中所描述的语料处理方法,获取语音对话内容,语音对话内容为针对预设内容的答复信息,在语音对话内容的信噪比大于预设阈值时,将对话内容处理为文本内容,将文本内容输入到预先训练好的神经网络模型,得到目标标签,目标标签用于标记说话人主体的真实意图,如此,能够快速将对话内容转化为文本,且通过神经网络模型识别相应的标签,能够提升语料标记效率。
请参阅图2,图2是本申请实施例提供的一种语料处理方法的流程示意图,应用于电子设备,如图所示,本语料处理方法包括:
201、获取语音对话内容,所述语音对话内容为针对预设内容的答复信息。
202、获取说话人主体的脑电波信号对应的波形图,所述波形图横轴为时间,纵轴为幅值。
203、将所述波形图进行采样,得到多个采样点。
204、确定所述多个采样点对应的平均幅值和目标均方差。
205、按照预设的幅值与情绪值之间的映射关系,确定所述平均幅值对应的第一情绪值。
206、按照预设的均方差与调节系数之间的映射关系,确定所述目标均方差对应的目标调节系数。
207、通过所述目标调节系数对所述第一情绪值进行调节,得到第二情绪值。
208、按照预设的情绪值与情绪类型之间的映射关系,确定所述第二情绪值对应的目标情绪类型。
209、在所述目标情绪类型为预设情绪类型且所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容。
210、将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记所述说话人主体的真实意图。
其中,上述步骤201-步骤210的具体描述可以参照上述图1所描述的相应步骤,在此不再赘述。
可以看出,本申请实施例中所描述的语料处理方法,获取语音对话内容,语音对话内容为针对预设内容的答复信息,且能够依据脑电波进行情绪识别,只有针对特定情绪以及语音对话内容的信噪比大于预设阈值时,才将语音对话内容处理为文本内容,将文本内容输入到预先训练好的神经网络模型,得到目标标签,如此,能够快速将语音对话内容转化为文本,且通过神经网络模型识别相应的标签,能够提升语料标记效率,也可以避免用户因为情绪化,意气用事,导致标记误差较大,可以提升标记精准度。
与上述实施例一致地,请参阅图3,图3是本申请实施例提供的一种电子设备的结构示意图,如图所示,该电子设备包括处理器、存储器、通信接口以及一个或多个程序,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,本申请实施例中,上述程序包括用于执行以下步骤的指令:
获取语音对话内容,其中,所述语音对话内容为针对预设内容的答复信息;
在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容;
将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记说话人主体的真实意图。
可以看出,本申请实施例中所描述的电子设备,对话内容为针对预设内容的答复,将对话内容处理为文本内容,将文本内容输入到预先训练好的神经网络模型,得到目标标签,如此,能够快速将对话内容转化为文本,且通过神经网络模型识别相应的标签,能够提升语料标记效率。
可选地,在所述将所述语音对话内容处理为文本内容方面,上述程序包括用于执行以下步骤的指令:
将所述语音对话内容按照预设规则进行截取,得到第一语音信息,其中,所述预设规则包括按照所述语音对话内容中的声纹特征划分说话人主体及对应的语音内容,并根据所述说话人主体对所述语音信息进行截取分段;
对所述第一语音信息进行滤波处理,得到第二语音信息;
将所述第二语音信息输入到预设语义分割模型,得到所述文本内容。
可选地,在所述对所述第一语音信息进行滤波处理,得到第二语音信息方面,上述程序包括用于执行以下步骤的指令:
获取所述说话人主体的声纹特征匹配滤波处理规则;
根据所匹配的所述滤波处理规则对对应的所述第一语音信息进行滤波处理,得到所述第二语音信息。
可选地,在所述将所述文本内容输入到预先训练好的神经网络模型,得到目标标签方面,上述程序包括用于执行以下步骤的指令:
获取目标身份信息;
按照预设的身份信息与模型参数之间的映射关系,确定所述目标身份信息对应的目标模型参数;
基于所述目标模型参数将所述文本内容输入到预先训练好的神经网络模型,得到目标标签。
可选地,在所述基于所述目标模型参数将所述文本内容输入到预先训练好的神经网络模型,得到目标标签方面,上述程序包括用于执行以下步骤的指令:
对所述文本内容进行特征提取,得到目标特征集;
基于所述目标模型参数将所述目标特征集输入到所述预设训练好的神经网络模型,得到所述目标标签。
可选地,在所述获取语音对话内容之前,上述程序还包括用于执行以下步骤的指令:
获取语料集,所述语料集包括多个语料,每一语料对应一个标签,所述多个语料中每一语料的标签构成标签集;
将所述语料集和所述标签集输入到预设神经网络模型进行训练,得到训练好的神经网络模型。
可选地,在所述获取语音对话内容之后,以及所述在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容,将所述语音对话内容处理为文本内容之前,上述程序还包括用于执行以下步骤的指令:
获取说话人主体的脑电波信号对应的波形图,所述波形图横轴为时间,纵轴为幅值;
将所述波形图进行采样,得到多个采样点;
确定所述多个采样点对应的平均幅值和目标均方差;
按照预设的幅值与情绪值之间的映射关系,确定所述平均幅值对应的第一情绪值;
按照预设的均方差与调节系数之间的映射关系,确定所述目标均方差对应的目标调节系数;
通过所述目标调节系数对所述第一情绪值进行调节,得到第二情绪值;
按照预设的情绪值与情绪类型之间的映射关系,确定所述第二情绪值对应的目标情绪类型;
在所述目标情绪类型为预设情绪类型时,执行所述在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容的步骤。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图4是本申请实施例中所涉及的语料处理装置400的功能单元组成框图。该语料处理装置400,所述装置400包括:获取单元401、处理单元402和识别单元403,其中,
所述获取单元401,用于获取语音对话内容,所述语音对话内容为针对预设内容的答复信息;
所述处理单元402,用于在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容;
所述识别单元403,用于将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记说话人主体的真实意图。
可以看出,本申请实施例中所描述的语料处理装置,获取语音对话内容,语音对话内容为针对预设内容的答复信息,在语音对话内容的信噪比大于预设阈值时,将对话内容处理为文本内容,将文本内容输入到预先训练好的神经网络模型,得到目标标签,目标标签用于标记说话人主体的真实意图,如此,能够快速将对话内容转化为文本,且通过神经网络模型识别相应的标签,能够提升语料标记效率。
可选地,在所述将所述语音对话内容处理为文本内容方面,所述处理单元402具体用于:
将所述语音对话内容按照预设规则进行截取,得到第一语音信息,其中,所述预设规则包括按照所述语音对话内容中的声纹特征划分说话人主体及对应的语音内容,并根据所述说话人主体对所述语音信息进行截取分段;
对所述第一语音信息进行滤波处理,得到第二语音信息;
将所述第二语音信息输入到预设语义分割模型,得到所述文本内容。
可选地,在所述对所述第一语音信息进行滤波处理,得到第二语音信息方面,所述处理单元402具体用于:
获取所述说话人主体的声纹特征匹配滤波处理规则;
根据所匹配的所述滤波处理规则对对应的所述第一语音信息进行滤波处理,得到所述第二语音信息。
可选地,在所述将所述文本内容输入到预先训练好的神经网络模型,得到目标标签方面,识别单元403具体用于:
获取目标身份信息;
按照预设的身份信息与模型参数之间的映射关系,确定所述目标身份信息对应的目标模型参数;
基于所述目标模型参数将所述文本内容输入到预先训练好的神经网络模型,得到目标标签。
可选地,在所述基于所述目标模型参数将所述文本内容输入到预先训练好的神经网络模型,得到目标标签方面,所述识别单元402具体用于:
对所述文本内容进行特征提取,得到目标特征集;
基于所述目标模型参数将所述目标特征集输入到所述预设训练好的神经网络模型,得到所述目标标签。
可选地,在所述获取语音对话内容之前,所述装置400还用于实现如下功能:
获取语料集,所述语料集包括多个语料,每一语料对应一个标签,所述多个语料中每一语料的标签构成标签集;
将所述语料集和所述标签集输入到预设神经网络模型进行训练,得到训练好的神经网络模型。
可选地,在所述获取语音对话内容之后,以及所述在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容之前,所述装置还用于实现如下功能:
获取说话人主体的脑电波信号对应的波形图,所述波形图横轴为时间,纵轴为幅值;
将所述波形图进行采样,得到多个采样点;
确定所述多个采样点对应的平均幅值和目标均方差;
按照预设的幅值与情绪值之间的映射关系,确定所述平均幅值对应的第一情绪值;
按照预设的均方差与调节系数之间的映射关系,确定所述目标均方差对应的目标调节系数;
通过所述目标调节系数对所述第一情绪值进行调节,得到第二情绪值;
按照预设的情绪值与情绪类型之间的映射关系,确定所述第二情绪值对应的目标情绪类型;
在所述目标情绪类型为预设情绪类型时,执行所述在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容的步骤。
可以理解的是,本实施例的语料处理装置的各程序模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤,上述计算机包括电子设备。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,上述计算机包括电子设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种语料处理方法,其特征在于,所述方法包括:
获取语音对话内容,其中,所述语音对话内容为针对预设内容的答复信息;
在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容;
将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记说话人主体的真实意图。
2.根据权利要求1所述的方法,其特征在于,所述将所述语音对话内容处理为文本内容,包括:
将所述语音对话内容按照预设规则进行截取,得到第一语音信息,其中,所述预设规则包括按照所述语音对话内容中的声纹特征划分所述说话人主体及对应的语音内容,并根据所述说话人主体对所述语音信息进行截取分段;
对所述第一语音信息进行滤波处理,得到第二语音信息;
将所述第二语音信息输入到预设语义分割模型,得到所述文本内容。
3.根据权利要求2所述的方法,其特征在于,所述对所述第一语音信息进行滤波处理,得到第二语音信息,包括:
获取所述说话人主体的声纹特征匹配滤波处理规则;
根据所匹配的所述滤波处理规则对对应的所述第一语音信息进行滤波处理,得到所述第二语音信息。
4.根据权利要求1或2所述的方法,其特征在于,所述将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,包括:
获取目标身份信息;
按照预设的身份信息与模型参数之间的映射关系,确定所述目标身份信息对应的目标模型参数;
基于所述目标模型参数将所述文本内容输入到预先训练好的神经网络模型,得到目标标签。
5.根据权利要求4所述的方法,其特征在于,所述基于所述目标模型参数将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,包括:
对所述文本内容进行特征提取,得到目标特征集;
基于所述目标模型参数将所述目标特征集输入到所述预设训练好的神经网络模型,得到所述目标标签。
6.根据权利要求1或2所述的方法,其特征在于,在所述获取语音对话内容之前,所述方法还包括:
获取语料集,所述语料集包括多个语料,每一语料对应一个标签,所述多个语料中每一语料的标签构成标签集;
将所述语料集和所述标签集输入到预设神经网络模型进行训练,得到训练好的神经网络模型。
7.根据权利要求1或2所述的方法,其特征在于,在所述获取语音对话内容之后,以及所述在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容之前,所述方法还包括:
获取所述说话人主体的脑电波信号对应的波形图,所述波形图横轴为时间,纵轴为幅值;
将所述波形图进行采样,得到多个采样点;
确定所述多个采样点对应的平均幅值和目标均方差;
按照预设的幅值与情绪值之间的映射关系,确定所述平均幅值对应的第一情绪值;
按照预设的均方差与调节系数之间的映射关系,确定所述目标均方差对应的目标调节系数;
通过所述目标调节系数对所述第一情绪值进行调节,得到第二情绪值;
按照预设的情绪值与情绪类型之间的映射关系,确定所述第二情绪值对应的目标情绪类型;
在所述目标情绪类型为预设情绪类型时,执行所述在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容的步骤。
8.一种语料处理装置,其特征在于,所述装置包括:获取单元、处理单元和识别单元,其中,
所述获取单元,用于获取语音对话内容,所述语音对话内容为针对预设内容的答复信息;
所述处理单元,用于在所述语音对话内容的信噪比大于预设阈值时,将所述语音对话内容处理为文本内容;
所述识别单元,用于将所述文本内容输入到预先训练好的神经网络模型,得到目标标签,所述目标标签用于标记说话人主体的真实意图。
9.一种电子设备,其特征在于,包括处理器、存储器,所述存储器用于存储一个或多个程序,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-7任一项所述的方法中的步骤的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011229297.0A CN112347788A (zh) | 2020-11-06 | 2020-11-06 | 语料处理方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011229297.0A CN112347788A (zh) | 2020-11-06 | 2020-11-06 | 语料处理方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112347788A true CN112347788A (zh) | 2021-02-09 |
Family
ID=74428394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011229297.0A Pending CN112347788A (zh) | 2020-11-06 | 2020-11-06 | 语料处理方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112347788A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393848A (zh) * | 2021-06-11 | 2021-09-14 | 上海明略人工智能(集团)有限公司 | 用于训练说话人识别模型的方法、装置、电子设备和可读存储介质 |
CN113539261A (zh) * | 2021-06-30 | 2021-10-22 | 大众问问(北京)信息科技有限公司 | 人机语音交互方法、装置、计算机设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107610707A (zh) * | 2016-12-15 | 2018-01-19 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
CN108564955A (zh) * | 2018-03-19 | 2018-09-21 | 平安科技(深圳)有限公司 | 电子装置、身份验证方法和计算机可读存储介质 |
US20180308487A1 (en) * | 2017-04-21 | 2018-10-25 | Go-Vivace Inc. | Dialogue System Incorporating Unique Speech to Text Conversion Method for Meaningful Dialogue Response |
CN108885873A (zh) * | 2016-03-29 | 2018-11-23 | 英特尔公司 | 使用自适应阈值的说话者识别 |
CN109068372A (zh) * | 2018-07-25 | 2018-12-21 | Oppo广东移动通信有限公司 | 邻近感知网络创建方法及相关产品 |
CN110046221A (zh) * | 2019-03-01 | 2019-07-23 | 平安科技(深圳)有限公司 | 一种机器对话方法、装置、计算机设备及存储介质 |
CN110162610A (zh) * | 2019-04-16 | 2019-08-23 | 平安科技(深圳)有限公司 | 机器人智能应答方法、装置、计算机设备及存储介质 |
-
2020
- 2020-11-06 CN CN202011229297.0A patent/CN112347788A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108885873A (zh) * | 2016-03-29 | 2018-11-23 | 英特尔公司 | 使用自适应阈值的说话者识别 |
CN107610707A (zh) * | 2016-12-15 | 2018-01-19 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
US20180308487A1 (en) * | 2017-04-21 | 2018-10-25 | Go-Vivace Inc. | Dialogue System Incorporating Unique Speech to Text Conversion Method for Meaningful Dialogue Response |
CN108564955A (zh) * | 2018-03-19 | 2018-09-21 | 平安科技(深圳)有限公司 | 电子装置、身份验证方法和计算机可读存储介质 |
CN109068372A (zh) * | 2018-07-25 | 2018-12-21 | Oppo广东移动通信有限公司 | 邻近感知网络创建方法及相关产品 |
CN110046221A (zh) * | 2019-03-01 | 2019-07-23 | 平安科技(深圳)有限公司 | 一种机器对话方法、装置、计算机设备及存储介质 |
CN110162610A (zh) * | 2019-04-16 | 2019-08-23 | 平安科技(深圳)有限公司 | 机器人智能应答方法、装置、计算机设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393848A (zh) * | 2021-06-11 | 2021-09-14 | 上海明略人工智能(集团)有限公司 | 用于训练说话人识别模型的方法、装置、电子设备和可读存储介质 |
CN113539261A (zh) * | 2021-06-30 | 2021-10-22 | 大众问问(北京)信息科技有限公司 | 人机语音交互方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021208287A1 (zh) | 用于情绪识别的语音端点检测方法、装置、电子设备及存储介质 | |
CN109741732B (zh) | 命名实体识别方法、命名实体识别装置、设备及介质 | |
CN106504768B (zh) | 基于人工智能的电话拨测音频分类方法及装置 | |
CN108346427A (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN110428842A (zh) | 语音模型训练方法、装置、设备及计算机可读存储介质 | |
CN112259106A (zh) | 声纹识别方法、装置、存储介质及计算机设备 | |
CN111243602A (zh) | 基于性别、国籍和情感信息的声纹识别方法 | |
CN111339913A (zh) | 一种视频中的人物情绪识别方法及装置 | |
CN110415701A (zh) | 唇语的识别方法及其装置 | |
US10878800B2 (en) | Methods and systems for providing changes to a voice interacting with a user | |
CN110517696A (zh) | 一种可植入式离线声纹识别系统 | |
CN112420049A (zh) | 数据处理方法、装置及存储介质 | |
CN112347788A (zh) | 语料处理方法、装置及存储介质 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
CN113223536A (zh) | 声纹识别方法、装置及终端设备 | |
CN109887510A (zh) | 一种基于经验模态分解与mfcc的声纹识别方法及装置 | |
CN110019741A (zh) | 问答系统答案匹配方法、装置、设备及可读存储介质 | |
CN106782503A (zh) | 基于发音过程中生理信息的自动语音识别方法 | |
Nathwani | Online signature verification using bidirectional recurrent neural network | |
CN111161713A (zh) | 一种语音性别识别方法、装置及计算设备 | |
CN112614493B (zh) | 声纹识别方法、系统、存储介质及电子设备 | |
CN112735479B (zh) | 语音情绪识别方法、装置、计算机设备和存储介质 | |
CN113837594A (zh) | 多场景下客服的质量评价方法、系统、设备及介质 | |
CN110910898A (zh) | 一种语音信息处理的方法和装置 | |
CN110544472B (zh) | 提升使用cnn网络结构的语音任务的性能的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210209 |