CN111583906B - 一种语音会话的角色识别方法、装置及终端 - Google Patents

一种语音会话的角色识别方法、装置及终端 Download PDF

Info

Publication number
CN111583906B
CN111583906B CN201910119870.3A CN201910119870A CN111583906B CN 111583906 B CN111583906 B CN 111583906B CN 201910119870 A CN201910119870 A CN 201910119870A CN 111583906 B CN111583906 B CN 111583906B
Authority
CN
China
Prior art keywords
voice
score
role
speaker identity
fragments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910119870.3A
Other languages
English (en)
Other versions
CN111583906A (zh
Inventor
高莹莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Communications Ltd Research Institute
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Communications Ltd Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Communications Ltd Research Institute filed Critical China Mobile Communications Group Co Ltd
Priority to CN201910119870.3A priority Critical patent/CN111583906B/zh
Publication of CN111583906A publication Critical patent/CN111583906A/zh
Application granted granted Critical
Publication of CN111583906B publication Critical patent/CN111583906B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明提供一种语音会话的角色识别方法、装置及终端,该角色识别方法包括:获取待识别语音会话;对所述待识别语音会话进行切分,得到多个语音片段;利用预先训练的多个语言模型和多个声学模型,识别得到所述多个语音片段中的每个语音片段的说话人身份;其中,所述多个语言模型是区分角色的,每个语言模型对应于一个角色;所述多个声学模型是区分角色的,每个声学模型对应于一个角色。本发明的实施例,可以利用已知说话人身份的语音信息,充分考虑声学特征以及文本特征,实现对语音会话的识别,从而实现对相应语音片段的说话人身份的有效识别。

Description

一种语音会话的角色识别方法、装置及终端
技术领域
本发明涉及数据处理技术领域,尤其涉及一种语音会话的角色识别方法、装置及终端。
背景技术
目前,在对记录的语音会话进行角色识别时,主要涉及两个模块:切分模块和聚类模块。其中,切分模块主要负责检测语音会话中说话人身份的改变点,并利用这些改变点将语音会话分割成多个语音片段;聚类模块通常采用k-means等聚类方法,将属于同一说话人身份的语音片段聚类在一起,并根据聚类结果,得到该语音会话中说话人个数以及各说话人的语音。
然而,由于聚类模块采用的聚类方法通常为无监督的,仅基于语音片段的特征进行聚类,而不同说话人的语音片段之间的特征差异可能非常小,几乎没有,因此得到的聚类结果的效果往往较差,造成无法对相应语音片段的说话人身份进行有效识别。
发明内容
本发明实施例提供一种语音会话的角色识别方法、装置及终端,以解决现有的语音会话的角色识别方法中,无法对语音片段的说话人身份进行有效识别的问题。
第一方面,本发明实施例提供了一种语音会话的角色识别方法,包括:
获取待识别语音会话;
对所述待识别语音会话进行切分,得到多个语音片段;
利用预先训练的多个语言模型和多个声学模型,识别得到所述多个语音片段中的每个语音片段的说话人身份;
其中,所述多个语言模型是区分角色的,每个语言模型对应于一个角色;所述多个声学模型是区分角色的,每个声学模型对应于一个角色。
第二方面,本发明实施例提供了一种语音会话的角色识别装置,包括:
第一获取模块,用于获取待识别语音会话;
第一切分模块,用于对所述待识别语音会话进行切分,得到多个语音片段;
识别模块,用于利用预先训练的多个语言模型和多个声学模型,识别得到所述多个语音片段中的每个语音片段的说话人身份;
其中,所述多个语言模型是区分角色的,每个语言模型对应于一个角色;所述多个声学模型是区分角色的,每个声学模型对应于一个角色。
第三方面,本发明实施例提供了一种终端,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述计算机程序被所述处理器执行时实现上述语音会话的角色识别方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现上述语音会话的角色识别方法的步骤。
本发明实施例中,利用预先训练的区分角色的语言模型和声学模型,识别得到待识别语音会话中的每个语音片段的说话人身份,可以利用已知说话人身份的语音信息,充分考虑声学特征以及文本特征,实现对语音会话的识别,从而相比于无监督的聚类方法,可控性更高,实现对相应语音片段的说话人身份的有效识别。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的语音会话的角色识别方法的流程图;
图2A为本发明实施例中确定语音片段的说话人身份的过程示意图之一;
图2B为本发明实施例中确定语音片段的说话人身份的过程示意图之二;
图3为本发明实施例中利用声学模型确定语音片段的得分的过程示意图;
图4为本发明实施例的语音会话的角色识别装置的结构示意图;
图5为本发明实施例的终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,图1是本发明实施例提供的一种语音会话的角色识别方法的流程图,该方法应用于终端,如图1所示,该方法包括如下步骤:
步骤101:获取待识别语音会话。
本实施例中,上述待识别语音会话可以理解为多个即至少两个角色的语音会话,可选为电话录音、会议录音等。
步骤102:对所述待识别语音会话进行切分,得到多个语音片段。
其中,上述对待识别语音会话进行切分的方式可采用现有方式,本发明实施例不对此进行限制。优选的,可采用静音检测技术对待识别语音会话进行切分,以保证语句的完整性。上述步骤102可包括:
通过静音检测技术,对待识别语音会话进行切分,得到多个语音片段。
步骤103:利用预先训练的多个语言模型和多个声学模型,识别得到所述多个语音片段中的每个语音片段的说话人身份。
其中,所述多个语言模型是区分角色的,每个语言模型对应于一个角色;所述多个声学模型是区分角色的,每个声学模型对应于一个角色。
本发明实施例的角色识别方法,利用预先训练的区分角色的语言模型和声学模型,识别得到待识别语音会话中的每个语音片段的说话人身份,可以利用已知说话人身份的语音信息,充分考虑声学特征以及文本特征,实现对语音会话的识别,从而相比于无监督的聚类方法,可控性更高,实现对相应语音片段的说话人身份的有效识别。
本发明实施例中,上述多个语言模型和多个声学模型可利用训练数据集预先训练得到,而为了保证后续识别的准确性,语言模型和声学模型所需的训练数据集优选保持一致。可选的,上述步骤101之前,所述方法还可包括:
获取训练数据集;其中,所述训练数据集中包括多个角色的语音会话;至于每个语音会话中的角色个数可依情况而定;
对所述多个角色的语音会话进行切分,得到每个角色的语音片段;此切分的方式可采用现有方式,优选可通过静音检测技术进行切分;
利用所述每个角色的语音片段,分别训练预先构建的语言模型,得到每个角色对应的语言模型;
利用所述每个角色的语音片段,分别训练预先构建的声学模型,得到每个角色对应的声学模型。
这样,可预先训练得到多个区分角色的语言模型和声学模型。
需说明的是,在利用语音片段训练语言模型时,可首先结合语音对话中所有角色的对话文本(即语音对话的标注文本)以及一些领域相关或无关的其他文本(增强模型普适性),训练不区分角色的语言模型,用于语音识别引擎对语音对话进行文本转写,然后分别利用每个角色的对话文本,训练得到对应的语言模型,即一个角色对应一个语言模型。具体应用中,通过语言模型可获得对应语音片段(即文本片段)的困惑度值(可在困惑度值前面添加一个负号,使其与角色判断可能性成正比,作为语言模型的得分),困惑度值越低获得的得分越高,困惑度值越低说明该语音片段属于对应角色的可能性越高。
在利用语音片段训练声学模型时,可首先将语音片段分割为多个语音帧,并提取多个语音帧中每个语音帧的谱特征;然后分别利用每个角色的语音帧的谱特征,训练得到对应的声学模型,即一个角色对应一个声学模型。上述语音帧的谱特征可选为梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC),和/或,梅尔频率分析值(Mel-Frequency Analysis,FBank)等。具体应用中,通过声学模型可获得每个语音帧的声学似然概率,而对相应语音片段中所有语音帧的声学似然概率进行相乘,可以得到该语音片段针对该声学模型的概率得分。
本发明实施例中,可选的,当利用预先训练的多个语言模型和多个声学模型,识别得到切分后的语音片段的说话人身份时,可以基于区分角色的语言模型和声学模型,分别计算切分后的语音片段针对不同角色的语言模型和声学模型的得分,并综合得分结果判断相应语音片段所属于的说话人角色。
具体的,上述步骤103可包括:
针对多个语音片段中的每个语音片段,分别执行如下步骤:
将所述语音片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分;
将所述语音片段分别输入到所述多个声学模型中,得到所述语音片段属于每个角色时的第二得分;
根据所述第一得分和所述第二得分,确定所述语音片段的说话人身份。
可理解的,该第一得分可选为困惑度值,该第二得分可选为声学似然概率乘积(为避免乘积值过小,可取对数),本发明实施例不对此进行限制,由相应模型的设置决定。
这样,根据语音片段属于每个角色时的得分,确定该语音片段的说话人身份,可以提高角色识别的准确性。
进一步的,上述根据所述第一得分和所述第二得分,确定所述语音片段的说话人身份的过程可包括:
针对每个角色,对所述第一得分和所述第二得分进行加权求和,得到所述语音片段属于每个角色时的第三得分;其中,此加权过程中所需的权重值可以基于实际情况预先设置;
将所述第三得分中的最高得分对应的角色,确定为所述语音片段的说话人身份。
可理解的,由于不同模型的得分的值域可能相差较大,比如声学模型的得分一般为概率值乘积(或乘积值取对数),语言模型的得分一般为困惑度值,即声学模型得分与语言模型得分的值域可能相差较大,因此当针对每个角色进行得分比较时,需首先基于尺度因子对相应得分进行调整,然后利用设定的权重值(或称为融合因子)对相应得分即第一得分和第二得分进行加权求和,得到每个角色的得分,选取得分最高的角色为相应语音片段的说话人身份。
或者,上述根据所述第一得分和所述第二得分,确定所述语音片段的说话人身份的过程可包括:
将所述第一得分中的最高得分对应的角色,确定为所述语音片段的第一说话人身份;
将所述第二得分中的最高得分对应的角色,确定为所述语音片段的第二说话人身份;
当所述第一说话人身份与所述第二说话人身份相同时,将所述第一说话人身份或所述第二说话人身份确定为所述语音片段的说话人身份;
或者,
当所述第一说话人身份与所述第二说话人身份不相同时,计算第一差值与第一最高得分的第一比值,计算第二差值与第二最高得分的第二比值,和将所述第一比值和所述第二比值中的最大比值对应的说话人身份,确定为所述语音片段的说话人身份;
其中,所述第一差值为所述第一得分中的最高得分和最小得分的差值,所述第一最高得分为所述第一得分中的最高得分;所述第二差值为所述第二得分中的最高得分和最小得分的差值,所述第二最高得分为所述第二得分中的最高得分。
这样,通过语音片段的得分的比较判断,可准确确定相应语音片段的说话人身份。
比如,参见图2A和图2B所示,若存在两个声学模型,分别为对应于角色1的AM1和对应于角色2的AM2,以及存在两个语言模型,分别为对应于角色1的LM1和对应于角色2的LM2;某语音片段s分别输入到AM1和AM2中,得到s属于角色1时的得分为Af1(即第二得分),和s属于角色2时的得分为Af2(即第二得分);s分别输入到LM1和LM2中,得到s属于角色1时的得分为Lf1(即第一得分),和s属于角色2时的得分为Lf2(即第一得分),则:根据Af1、Af2、Lf1和Lf2,确定s的说话人身份的过程可为:
如图2A,可首先针对角色1,对Af1和Lf1进行加权求和,得到s属于角色1时的得分(即第三得分)为M1,同时针对角色2,对Af2和Lf2进行加权求和,得到s属于角色2时的得分(即第三得分)为M2;然后将M1和M2中的最高得分对应的角色,确定为s的说话人身份,比如若M1高于M2,则s的说话人身份为角色1,而若M2高于M1,则s的说话人身份为角色2。
或者,如图2B,可首先将Af1和Af2中的最高得分对应的角色,确定为s的说话人身份1,及将Lf1和Lf2中的最高得分对应的角色,确定为s的说话人身份2;然后若s的说话人身份1和说话人身份2相同,比如是角色1,则可确定s的说话人身份为角色1;而若s的说话人身份1和说话人身份2不相同,比如确定的说话人身份1为角色1,说话人身份2为角色2,则可以计算差值1(Af1和Af2的差值绝对值)与最高得分1(Af1和Af2中的最高得分)的比值1,计算差值2(Lf1和Lf2的差值绝对值)与最高得分2(Lf1和Lf2中的最高得分)的比值2,和将比值1和比值2中的最大比值对应的说话人身份,确定为s的说话人身份。
本发明实施例中,可选的,上述将所述语音片段分别输入到所述多个声学模型中,得到所述语音片段属于每个角色时的第二得分的过程可包括:
对所述语音片段进行分帧,得到多个语音帧;
对所述多个语音帧进行特征提取,获得所述多个语音帧中每个语音帧的谱特征;
将所述每个语音帧的谱特征分别输入到所述多个声学模型中,得到所述每个语音帧属于每个角色时的第四得分;
根据所述第四得分,确定所述语音片段属于每个角色时的第二得分。
可理解的,上述声学模型可利用语音帧的谱特征训练得到。上述语音帧的谱特征可选为MFCC,和/或FBank等。而训练和识别过程中,所使用的谱特征需要保持一致。
进一步的,上述根据所述第四得分,确定所述语音片段属于每个角色时的第二得分的过程可包括:
针对每个角色,对所述第四得分进行相乘,或者相乘取对数,得到所述语音片段属于每个角色时的第二得分。
这样,借助语音片段中语音帧的谱特征,确定语音片段属于每个角色时的得分,可提高确定的角色得分的准确性。
比如,参见图3所示,本发明具体实施例中,根据声学模型比如对应于角色1的AM1和对应于角色2的AM2,确定某语音片段s属于每个角色时的得分的过程可包括如下步骤:
首先,对语音片段s进行分帧,将s分割为n个语音帧,并提取n个语音帧中每个语音帧的谱特征,获得第f1帧特征、第f2帧特征、第f3帧特征、……、第fn帧特征;
然后,将每个语音帧的谱特征分别输入到AM1和AM2,得到每个语音帧属于角色1时的得分Af1(帧似然概率),即得到n个Af1,和每个语音帧属于角色2时的得分Af2(帧似然概率),即得到n个Af2;
最后,针对角色1,对n个Af1进行相乘取对数,得到s属于角色1时的得分;和针对角色2,对n个Af2进行相乘取对数,得到s属于角色2时的得分。
本发明实施例中,可选的,所述将所述语音片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分的过程可包括:
将所述语音片段转化为文本片段;其中,此文本片段的转化过程可利用预先训练的语音识别引擎执行;
将所述文本片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分。
这样,利用语言模型可考虑语音片段的文本特征,准确得到相应语音片段的角色得分。
请参见图4,图4是本发明实施例提供的一种语音会话的角色识别装置的结构示意图,如图4所示,该装置包括:
第一获取模块41,用于获取待识别语音会话;
第一切分模块42,用于对所述待识别语音会话进行切分,得到多个语音片段;
识别模块43,用于利用预先训练的多个语言模型和多个声学模型,识别得到所述多个语音片段中的每个语音片段的说话人身份;
其中,所述多个语言模型是区分角色的,每个语言模型对应于一个角色;所述多个声学模型是区分角色的,每个声学模型对应于一个角色。
本发明实施例的角色识别装置,利用预先训练的区分角色的语言模型和声学模型,识别得到待识别语音会话中的每个语音片段的说话人身份,可以利用已知说话人身份的语音信息,充分考虑声学特征以及文本特征,实现对语音会话的识别,从而相比于无监督的聚类方法,可控性更高,实现对相应语音片段的说话人身份的有效识别。
本发明实施例中,可选的,所述识别模块43具体用于:
针对所述多个语音片段中的每个语音片段,分别执行如下步骤:
将所述语音片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分;
将所述语音片段分别输入到所述多个声学模型中,得到所述语音片段属于每个角色时的第二得分;
根据所述第一得分和所述第二得分,确定所述语音片段的说话人身份。
可选的,所述识别模块43具体用于:
针对每个角色,对所述第一得分和所述第二得分进行加权求和,得到所述语音片段属于每个角色时的第三得分;
将所述第三得分中的最高得分对应的角色,确定为所述语音片段的说话人身份。
可选的,所述识别模块43具体用于:
将所述第一得分中的最高得分对应的角色,确定为所述语音片段的第一说话人身份;
将所述第二得分中的最高得分对应的角色,确定为所述语音片段的第二说话人身份;
当所述第一说话人身份与所述第二说话人身份相同时,将所述第一说话人身份或所述第二说话人身份确定为所述语音片段的说话人身份;
或者,
当所述第一说话人身份与所述第二说话人身份不相同时,计算第一差值与第一最高得分的第一比值,计算第二差值与第二最高得分的第二比值,和将所述第一比值和所述第二比值中的最大比值对应的说话人身份,确定为所述语音片段的说话人身份;
其中,所述第一差值为所述第一得分中的最高得分和最小得分的差值,所述第一最高得分为所述第一得分中的最高得分;所述第二差值为所述第二得分中的最高得分和最小得分的差值,所述第二最高得分为所述第二得分中的最高得分。
可选的,所述识别模块43具体用于:
对所述语音片段进行分帧,得到多个语音帧;
对所述多个语音帧进行特征提取,获得所述多个语音帧中每个语音帧的谱特征;
将所述每个语音帧的谱特征分别输入到所述多个声学模型中,得到所述每个语音帧属于每个角色时的第四得分;
根据所述第四得分,确定所述语音片段属于每个角色时的第二得分。
可选的,所述识别模块43具体用于:
针对每个角色,对所述第四得分进行相乘,得到所述语音片段属于每个角色时的第二得分。
可选的,所述识别模块43具体用于:
将所述语音片段转化为文本片段;
将所述文本片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分。
可选的,切分模块42具体用于:
通过静音检测技术,对所述待识别语音会话进行切分,得到多个语音片段。
可选的,所述装置40还包括:
第二获取模块,用于获取训练数据集;其中,所述训练数据集中包括多个角色的语音会话;
第二切分模块,用于对所述多个角色的语音会话进行切分,得到每个角色的语音片段;
第一训练模块,用于利用所述每个角色的语音片段,分别训练预先构建的语言模型,得到每个角色对应的语言模型;
第二训练模块,用于利用所述每个角色的语音片段,分别训练预先构建的声学模型,得到每个角色对应的声学模型。
此外,本发明实施例还提供了一种终端,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述计算机程序被所述处理器执行时可实现上述语音会话的角色识别方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
具体的,参见图5所示,本发明实施例还提供了一种终端,包括总线51、收发机52、天线53、总线接口54、处理器55和存储器56。
在本发明实施例中,所述终端还包括:存储在存储器56上并可在处理器55上运行的计算机程序。其中,所述计算机程序被处理器55执行时可实现上述语音会话的角色识别方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
在图5中,总线架构(用总线51来代表),总线51可以包括任意数量的互联的总线和桥,总线51将包括由处理器55代表的一个或多个处理器和存储器56代表的存储器的各种电路链接在一起。总线51还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口54在总线51和收发机52之间提供接口。收发机52可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器55处理的数据通过天线53在无线介质上进行传输,进一步,天线53还接收数据并将数据传送给处理器55。
处理器55负责管理总线51和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器56可以被用于存储处理器55在执行操作时所使用的数据。
可选的,处理器55可以是CPU、ASIC、FPGA或CPLD。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述语音会话的角色识别方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (11)

1.一种语音会话的角色识别方法,其特征在于,包括:
获取待识别语音会话;
对所述待识别语音会话进行切分,得到多个语音片段;
利用预先训练的多个语言模型和多个声学模型,识别得到所述多个语音片段中的每个语音片段的说话人身份;
其中,所述多个语言模型是区分角色的,每个语言模型对应于一个角色;所述多个声学模型是区分角色的,每个声学模型对应于一个角色;
其中,所述利用预先训练的多个语言模型和多个声学模型,识别得到所述多个语音片段中的每个语音片段的说话人身份,包括:
针对所述多个语音片段中的每个语音片段,分别执行如下步骤:
将所述语音片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分;
将所述语音片段分别输入到所述多个声学模型中,得到所述语音片段属于每个角色时的第二得分;
根据所述第一得分和所述第二得分,确定所述语音片段的说话人身份。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一得分和所述第二得分,确定所述语音片段的说话人身份,包括:
针对每个角色,对所述第一得分和所述第二得分进行加权求和,得到所述语音片段属于每个角色时的第三得分;
将所述第三得分中的最高得分对应的角色,确定为所述语音片段的说话人身份。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第一得分和所述第二得分,确定所述语音片段的说话人身份,包括:
将所述第一得分中的最高得分对应的角色,确定为所述语音片段的第一说话人身份;
将所述第二得分中的最高得分对应的角色,确定为所述语音片段的第二说话人身份;
当所述第一说话人身份与所述第二说话人身份相同时,将所述第一说话人身份或所述第二说话人身份确定为所述语音片段的说话人身份;
或者,
当所述第一说话人身份与所述第二说话人身份不相同时,计算第一差值与第一最高得分的第一比值,计算第二差值与第二最高得分的第二比值,和将所述第一比值和所述第二比值中的最大比值对应的说话人身份,确定为所述语音片段的说话人身份;
其中,所述第一差值为所述第一得分中的最高得分和最小得分的差值,所述第一最高得分为所述第一得分中的最高得分;所述第二差值为所述第二得分中的最高得分和最小得分的差值,所述第二最高得分为所述第二得分中的最高得分。
4.根据权利要求1所述的方法,其特征在于,所述将所述语音片段分别输入到所述多个声学模型中,得到所述语音片段属于每个角色时的第二得分,包括:
对所述语音片段进行分帧,得到多个语音帧;
对所述多个语音帧进行特征提取,获得所述多个语音帧中每个语音帧的谱特征;
将所述每个语音帧的谱特征分别输入到所述多个声学模型中,得到所述每个语音帧属于每个角色时的第四得分;
根据所述第四得分,确定所述语音片段属于每个角色时的第二得分。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第四得分,确定所述语音片段属于每个角色时的第二得分,包括:
针对每个角色,对所述第四得分进行相乘,得到所述语音片段属于每个角色时的第二得分。
6.根据权利要求1所述的方法,其特征在于,所述将所述语音片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分,包括:
将所述语音片段转化为文本片段;
将所述文本片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分。
7.根据权利要求1所述的方法,其特征在于,所述对所述待识别语音会话进行切分,得到多个语音片段,包括:
通过静音检测技术,对所述待识别语音会话进行切分,得到多个语音片段。
8.根据权利要求1所述的方法,其特征在于,所述获取待识别语音会话之前,所述方法还包括:
获取训练数据集;其中,所述训练数据集中包括多个角色的语音会话;
对所述多个角色的语音会话进行切分,得到每个角色的语音片段;
利用所述每个角色的语音片段,分别训练预先构建的语言模型,得到每个角色对应的语言模型;
利用所述每个角色的语音片段,分别训练预先构建的声学模型,得到每个角色对应的声学模型。
9.一种语音会话的角色识别装置,其特征在于,包括:
第一获取模块,用于获取待识别语音会话;
第一切分模块,用于对所述待识别语音会话进行切分,得到多个语音片段;
识别模块,用于利用预先训练的多个语言模型和多个声学模型,识别得到所述多个语音片段中的每个语音片段的说话人身份;
其中,所述多个语言模型是区分角色的,每个语言模型对应于一个角色;所述多个声学模型是区分角色的,每个声学模型对应于一个角色;
其中,所述识别模块具体用于:
针对所述多个语音片段中的每个语音片段,分别执行如下步骤:
将所述语音片段分别输入到所述多个语言模型中,得到所述语音片段属于每个角色时的第一得分;
将所述语音片段分别输入到所述多个声学模型中,得到所述语音片段属于每个角色时的第二得分;
根据所述第一得分和所述第二得分,确定所述语音片段的说话人身份。
10.一种终端,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的语音会话的角色识别方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的语音会话的角色识别方法的步骤。
CN201910119870.3A 2019-02-18 2019-02-18 一种语音会话的角色识别方法、装置及终端 Active CN111583906B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910119870.3A CN111583906B (zh) 2019-02-18 2019-02-18 一种语音会话的角色识别方法、装置及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910119870.3A CN111583906B (zh) 2019-02-18 2019-02-18 一种语音会话的角色识别方法、装置及终端

Publications (2)

Publication Number Publication Date
CN111583906A CN111583906A (zh) 2020-08-25
CN111583906B true CN111583906B (zh) 2023-08-15

Family

ID=72110735

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910119870.3A Active CN111583906B (zh) 2019-02-18 2019-02-18 一种语音会话的角色识别方法、装置及终端

Country Status (1)

Country Link
CN (1) CN111583906B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112233680B (zh) * 2020-09-27 2024-02-13 科大讯飞股份有限公司 说话人角色识别方法、装置、电子设备及存储介质
CN112434492B (zh) * 2020-10-23 2021-10-15 北京百度网讯科技有限公司 文本标注方法、装置及电子设备
CN112437125B (zh) * 2020-11-10 2022-05-03 阿波罗智联(北京)科技有限公司 信息并发处理方法、装置、电子设备及存储介质
CN113077784B (zh) * 2021-03-31 2022-06-14 重庆风云际会智慧科技有限公司 一种角色识别智能语音设备
CN113192516B (zh) * 2021-04-22 2024-05-07 平安科技(深圳)有限公司 语音角色分割方法、装置、计算机设备及存储介质
CN113626573B (zh) * 2021-08-11 2022-09-27 北京深维智信科技有限公司 一种销售会话异议及应对提取方法及系统
CN114186559B (zh) * 2021-12-09 2022-09-13 北京深维智信科技有限公司 一种从销售会话中确定会话主体角色标签的方法及系统

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250593A (ja) * 1999-03-03 2000-09-14 Fujitsu Ltd 話者認識装置及び方法
JP2005221752A (ja) * 2004-02-05 2005-08-18 Toyota Central Res & Dev Lab Inc 音声認識装置、音声認識方法及びプログラム
JP2009237336A (ja) * 2008-03-27 2009-10-15 Nippon Hoso Kyokai <Nhk> 音声認識装置及び音声認識プログラム
CN101697514A (zh) * 2009-10-22 2010-04-21 中兴通讯股份有限公司 一种身份验证的方法及系统
CN102708867A (zh) * 2012-05-30 2012-10-03 北京正鹰科技有限责任公司 一种基于声纹和语音的防录音假冒身份识别方法及系统
CN102982799A (zh) * 2012-12-20 2013-03-20 中国科学院自动化研究所 一种融合引导概率的语音识别优化解码方法
CN103365849A (zh) * 2012-03-27 2013-10-23 富士通株式会社 关键词检索方法和设备
CN103915092A (zh) * 2014-04-01 2014-07-09 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN104157285A (zh) * 2013-05-14 2014-11-19 腾讯科技(深圳)有限公司 语音识别方法、装置及电子设备
CN104681036A (zh) * 2014-11-20 2015-06-03 苏州驰声信息科技有限公司 一种语言音频的检测系统及方法
CN105513589A (zh) * 2015-12-18 2016-04-20 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105869624A (zh) * 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 数字语音识别中语音解码网络的构建方法及装置
KR20160107735A (ko) * 2015-03-05 2016-09-19 한국전자통신연구원 음성 인식 기반 발음 평가 방법 및 장치
CN106486115A (zh) * 2015-08-28 2017-03-08 株式会社东芝 改进神经网络语言模型的方法和装置及语音识别方法和装置
CN106611597A (zh) * 2016-12-02 2017-05-03 百度在线网络技术(北京)有限公司 基于人工智能的语音唤醒方法和装置
CN107093425A (zh) * 2017-03-30 2017-08-25 安徽继远软件有限公司 电力系统的语音导航系统、语音识别方法和语音交互方法
CN107274903A (zh) * 2017-05-26 2017-10-20 北京搜狗科技发展有限公司 文本处理方法和装置、用于文本处理的装置
CN107578771A (zh) * 2017-07-25 2018-01-12 科大讯飞股份有限公司 语音识别方法及装置、存储介质、电子设备
KR20180038707A (ko) * 2016-10-07 2018-04-17 한국전자통신연구원 동적 가중치 값과 토픽 정보를 이용하는 음성인식 방법
CN108428446A (zh) * 2018-03-06 2018-08-21 北京百度网讯科技有限公司 语音识别方法和装置
CN108510990A (zh) * 2018-07-04 2018-09-07 百度在线网络技术(北京)有限公司 语音识别方法、装置、用户设备及存储介质
CN109256152A (zh) * 2018-11-08 2019-01-22 上海起作业信息科技有限公司 语音评分方法及装置、电子设备、存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5294086B2 (ja) * 2007-02-28 2013-09-18 日本電気株式会社 重み係数学習システム及び音声認識システム
US20160336007A1 (en) * 2014-02-06 2016-11-17 Mitsubishi Electric Corporation Speech search device and speech search method
JP6052814B2 (ja) * 2014-09-24 2016-12-27 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 音声認識モデルの構築方法、音声認識方法、コンピュータ・システム、音声認識装置、プログラムおよび記録媒体

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250593A (ja) * 1999-03-03 2000-09-14 Fujitsu Ltd 話者認識装置及び方法
JP2005221752A (ja) * 2004-02-05 2005-08-18 Toyota Central Res & Dev Lab Inc 音声認識装置、音声認識方法及びプログラム
JP2009237336A (ja) * 2008-03-27 2009-10-15 Nippon Hoso Kyokai <Nhk> 音声認識装置及び音声認識プログラム
CN101697514A (zh) * 2009-10-22 2010-04-21 中兴通讯股份有限公司 一种身份验证的方法及系统
CN103365849A (zh) * 2012-03-27 2013-10-23 富士通株式会社 关键词检索方法和设备
CN102708867A (zh) * 2012-05-30 2012-10-03 北京正鹰科技有限责任公司 一种基于声纹和语音的防录音假冒身份识别方法及系统
CN102982799A (zh) * 2012-12-20 2013-03-20 中国科学院自动化研究所 一种融合引导概率的语音识别优化解码方法
CN104157285A (zh) * 2013-05-14 2014-11-19 腾讯科技(深圳)有限公司 语音识别方法、装置及电子设备
CN103915092A (zh) * 2014-04-01 2014-07-09 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN104681036A (zh) * 2014-11-20 2015-06-03 苏州驰声信息科技有限公司 一种语言音频的检测系统及方法
KR20160107735A (ko) * 2015-03-05 2016-09-19 한국전자통신연구원 음성 인식 기반 발음 평가 방법 및 장치
CN106486115A (zh) * 2015-08-28 2017-03-08 株式会社东芝 改进神经网络语言模型的方法和装置及语音识别方法和装置
CN105513589A (zh) * 2015-12-18 2016-04-20 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105869624A (zh) * 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 数字语音识别中语音解码网络的构建方法及装置
KR20180038707A (ko) * 2016-10-07 2018-04-17 한국전자통신연구원 동적 가중치 값과 토픽 정보를 이용하는 음성인식 방법
CN106611597A (zh) * 2016-12-02 2017-05-03 百度在线网络技术(北京)有限公司 基于人工智能的语音唤醒方法和装置
CN107093425A (zh) * 2017-03-30 2017-08-25 安徽继远软件有限公司 电力系统的语音导航系统、语音识别方法和语音交互方法
CN107274903A (zh) * 2017-05-26 2017-10-20 北京搜狗科技发展有限公司 文本处理方法和装置、用于文本处理的装置
CN107578771A (zh) * 2017-07-25 2018-01-12 科大讯飞股份有限公司 语音识别方法及装置、存储介质、电子设备
CN108428446A (zh) * 2018-03-06 2018-08-21 北京百度网讯科技有限公司 语音识别方法和装置
CN108510990A (zh) * 2018-07-04 2018-09-07 百度在线网络技术(北京)有限公司 语音识别方法、装置、用户设备及存储介质
CN109256152A (zh) * 2018-11-08 2019-01-22 上海起作业信息科技有限公司 语音评分方法及装置、电子设备、存储介质

Also Published As

Publication number Publication date
CN111583906A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
CN111583906B (zh) 一种语音会话的角色识别方法、装置及终端
EP3479377B1 (en) Speech recognition
US9875739B2 (en) Speaker separation in diarization
WO2021128741A1 (zh) 语音情绪波动分析方法、装置、计算机设备及存储介质
CN108305643B (zh) 情感信息的确定方法和装置
US8494853B1 (en) Methods and systems for providing speech recognition systems based on speech recordings logs
US20160217792A1 (en) Word-level blind diarization of recorded calls with arbitrary number of speakers
JP2006079079A (ja) 分散音声認識システム及びその方法
US9799325B1 (en) Methods and systems for identifying keywords in speech signal
US11837236B2 (en) Speaker recognition based on signal segments weighted by quality
CN106898354B (zh) 基于dnn模型和支持向量机模型的说话人个数估计方法
EP4425482A2 (en) Model training and tone conversion method and apparatus, device, and medium
CN111091809B (zh) 一种深度特征融合的地域性口音识别方法及装置
CN113178192B (zh) 语音识别模型的训练方法、装置、设备及存储介质
CN114708857A (zh) 语音识别模型训练方法、语音识别方法及相应装置
CN109493846B (zh) 一种英语口音识别系统
CN110390948B (zh) 一种快速语音识别的方法及系统
Chakroun et al. Efficient text-independent speaker recognition with short utterances in both clean and uncontrolled environments
CN110875044B (zh) 一种基于字相关得分计算的说话人识别方法
Yamamoto et al. Denoising autoencoder-based speaker feature restoration for utterances of short duration.
CN113160796B (zh) 一种广播音频的语种识别方法、装置、设备及存储介质
Bąkowski et al. On Voice Autentication Algorithm Development
CN117831540A (zh) 一种基于课程学习的说话人识别方法、装置及存储介质
CN115240650A (zh) 一种语音数据的处理方法、装置、电子设备及存储介质
CN114927129A (zh) 一种基于机器学习的单声道角色识别方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant