CN109003624B - 情绪识别方法、装置、计算机设备及存储介质 - Google Patents
情绪识别方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN109003624B CN109003624B CN201810712770.7A CN201810712770A CN109003624B CN 109003624 B CN109003624 B CN 109003624B CN 201810712770 A CN201810712770 A CN 201810712770A CN 109003624 B CN109003624 B CN 109003624B
- Authority
- CN
- China
- Prior art keywords
- emotion
- recognition
- text
- current
- emotion recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 245
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000008451 emotion Effects 0.000 claims abstract description 173
- 230000002996 emotional effect Effects 0.000 claims abstract description 51
- 238000005516 engineering process Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 17
- 230000000694 effects Effects 0.000 abstract description 9
- 230000007547 defect Effects 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000012634 fragment Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000007935 neutral effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例中提供了一种情绪识别方法、装置、计算机设备及存储介质。该方法包括:采用语音识别技术确定当前对话语音的当前对话文本;将当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果;采用预先训练的情绪识别模型对当前对话文本进行识别,得到第二识别结果;依据第一识别结果和所述第二识别结果,得到当前对话文本的情绪状态。本发明实施例中的情绪识别方法能够结合情绪识别模板和情绪识别模型来识别对话文本的情绪状态,提高了情绪状态识别的准确率,同时还减少了对人力操作的依赖性,降低了人力成本,克服了语音交互效果难以把控的缺陷。
Description
技术领域
本发明实施例涉及计算机应用技术领域,尤其涉及一种情绪识别方法、装置、计算机设备及存储介质。
背景技术
随着人工智能的发展,智能交互在越来越多的领域中发挥着越来越重要的作用,而智能交互中,一个重要的方向,就是如何识别交互过程中,用户当前的情绪状态,从而为整个智能交互系统提供情绪层面的反馈,及时作出调整,以便应对不同情绪状态下的用户,提升整个交互过程的服务质量。
由于同一词语在不同场景下含义不同,表示的情绪状态不同,相关技术的通用性不足,情绪状态的识别准确率低;并且,还存在样本量需求大,依赖于人力操作,人力成本高,语音交互效果难以把控等缺陷。
发明内容
本发明提供的一种情绪识别方法、装置、计算机设备及存储介质,能够结合情绪识别模板和情绪识别模型来识别对话文本的情绪状态,提高了情绪状态识别的准确率。
第一方面,本发明实施例中提供了一种情绪识别方法,该方法包括:
采用语音识别技术确定当前对话语音的当前对话文本;
将所述当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果;
采用预先训练的情绪识别模型对所述当前对话文本进行识别,得到第二识别结果;
依据所述第一识别结果和所述第二识别结果,得到所述当前对话文本的情绪状态。
第二方面,本发明实施例中还提供了一种情绪识别装置,该装置包括:
文本确定模块,用于采用语音识别技术确定当前对话语音的当前对话文本;
第一识别模块,用于将所述当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果;
第二识别模块,用于采用预先训练的情绪识别模型对所述当前对话文本进行识别,得到第二识别结果;
情绪确定模块,用于依据所述第一识别结果和所述第二识别结果,得到所述当前对话文本的情绪状态。
第三方面,本发明实施例中还提供了一种计算机设备,该计算机设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上任一所述的情绪识别方法。
第四方面,本发明实施例中还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上任一所述的情绪识别方法。
本发明实施例中提供了一种情绪识别方法,采用语音识别技术确定当前对话语音的当前对话文本;将当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果;采用预先训练的情绪识别模型对当前对话文本进行识别,得到第二识别结果;依据第一识别结果和所述第二识别结果,得到当前对话文本的情绪状态。本发明实施例中的情绪识别方法能够结合情绪识别模板和情绪识别模型来识别对话文本的情绪状态,提高了情绪状态识别的准确率,同时还减少了对人力操作的依赖性,降低了人力成本,克服了语音交互效果难以把控的缺陷。
附图说明
图1示出了本发明实施例一中提供的一种情绪识别方法的流程示意图;
图2示出了本发明实施例二中提供的一种情绪识别方法的流程示意图;
图3示出了本发明实施例三中提供的一种情绪识别方法的流程示意图;
图4示出了本发明实施例四中提供的一种情绪识别装置的结构示意图;
图5示出了本发明实施例五中提供的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1示出了本发明实施例一中提供的一种情绪识别方法的流程示意图,本发明实施例可应用于金融客服平台、银行客服平台、智能家居平台、在线教育平台等需要进行智能交互的场景,该方法可以由情绪识别装置来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以集成在任何具有网络通信功能的计算机设备,该计算机设备可以为移动终端,比如手机、电脑等移动终端,也可以为服务器。
如图1所示,本发明实施例中的情绪识别方法可以包括:
S101、采用语音识别技术确定当前对话语音的当前对话文本。
在本发明实施例中,通过语音输入部件可以获取用户在金融客服平台、银行客服平台、智能家居平台以及在线教育平台等智能交互场景中用户所属的对话语音。其中,语音输入部件可以为麦克风等用于接收用户语音的部件。情绪识别装置可以将获取的对话语音作为当前对话语音,并采用语音识别技术将当前对话语音转化为与该当前对话语音对应的当前对话文本,这里的语音识别技术可以是任一语音识别技术。需要注意的是,当前对话语音和当前对话文本时一种代指,当前对话语音可以理解为情绪识别装置当前正在进行情绪识别的用户对话语音,而当前对话文本可以理解为当前对话语音的文本信息。
在本发明实施例中,在获取用户的对话语音之后,用户的对话语音可能会比较长,如果当前对话语音比较长,那么情绪识别装置采用语音识别技术确定当前对话语音的当前对话文本的过程中就会占用大量的语音处理资源。基于上述情况的考虑,可选的,将连续的当前对话语音拆分成多个当前对话语音片段,采用语音识别技术分别将拆分得到的多个当前对话语音片段转换成相应的多个当前对话文本片段,在得到多个当前对话文本片段后可以将多个当前对话文本片段按照顺序进行拼接,就可以得到当前对话语音的当前对话文本。这样既能保证准确的将当前对话语音转换为当前对话文本,又不会在语音识别过程中占用过多的数据处理资源,以免由于占用过多资源影响其他数据的正常处理。
S102、将当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果。
在本发明实施例中,可以预先从大量的对话文本中提取一系列的情绪关键词,并根据提取的一系列情绪关键词分别生成多个具有预定规则的情绪识别模板。其中,情绪识别模板中可以包括至少一个情绪关键词,且情绪识别模板中包含的情绪关键词可以在对话文本中反映用户的情绪。例如,情绪识别模板可以为具有类似“[W:0-20][D:开心][W:0-20]”、“[W:0-20][D:快乐][W:0-20]”、“[W:0-20][D:悲痛][W:0-20]”、“[W:0-20][D:兴奋][W:0-20]”、“[W:0-20][D:痛苦][W:0-20]”等预设规则的模板,相应的情绪识别模板中包含的情绪关键词可以为“开心”、“快乐”、“悲痛”、“兴奋”、“痛苦”等词语。其中,情绪识别模板中的“[W:0-20]”可以理解为是对需要进行匹配操作的当前对话文本中包含的情绪关键词的前面或者后面的字符长度进行限定的字符长度限定条件。
需要说明的是,本实施例中预先设置的各个情绪识别模板包括但不限于本实施例中列出的上述几种示例性的情绪识别模板和情绪识别模板中包含的关键词。
在本发明实施例中,由于情绪识别模板中包含的情绪关键词可以在对话文本中反映用户的情绪,因而预先设置的每一个情绪识别模板均可以关联至少一种情绪状态。其中,情绪状态可以包括正向情绪、负向情绪、中性情绪。例如,“开心”、“快乐”、“兴奋”等情绪关键词在对话文本中可以反映用户的情绪状态是正向情绪(即积极情绪),而“痛苦”、“悲痛”等情绪关键词在对话文本中可以反映用户的情绪状态是负向情绪(即消极情绪)。例如,通过情绪识别模板1:“[W:0-20][D:开心][W:0-20]”可以实现对所有类似“xxx开心xxx”的对话文本的识别,从而确定对话文本为正向情绪;通过情绪识别模板2:“[W:0-20][D:悲痛][W:0-20]”可以实现对所有类似“xxx悲痛xxx”的对话文本的识别,从而确定对话文本为负向情绪。
在本发明实施例中,预先设置的情绪识别模板中可以包括多个情绪识别模板,其中,各个情绪识别模板中的包含的情绪关键词可能是相似的情绪关键词,比如“高兴”和“开心”,也可能是完全不相同的情绪关键词,比如“开心”和“痛苦”。由于在对当前对话文本进行识别时并不清楚当前对话文本中包含什么样的词语,因而可以将当前对话文本依次分别与预先设置的各个情绪识别模板进行匹配,根据当前对话文本与各个情绪识别模板的匹配结果确定当前对话文本的第一识别结果。其中,第一识别结果可以包括:当前对话文本与预先设置的各个情绪识别模板均匹配失败,无法得到当前对话文本的情绪状态;或者,当前对话文本与预先设置的各个情绪识别模板中的至少一个情绪识别模板匹配成功,得到当前对话文本的情绪状态。其中,情绪状态可以包括正向情绪、负向情绪、中性情绪。
S103、采用预先训练的情绪识别模型对当前对话文本进行识别,得到第二识别结果。
在本发明实施例中,可以预先获取大量标注有不同情绪关键词的训练对话文本,然后根据各个训练对话文本中包含的情绪关键词反映的情绪状态对训练对话文本进行分类,从而得到各个情绪状态下对训练对话文本中情绪关键词进行标注的模型训练数据。通过对得到的模型训练数据进行训练可以得到情绪识别模型。可选的,可以采用支持向量机、神经网络、决策树、贝叶斯网络、K近邻以及隐马尔科夫等算法模型,对模型训练数据进行学习训练,以得到情绪识别模型。为了保证情绪识别模型的准确度,还可以对初步得到的情绪识别模型进行模型验证,并根据验证结果对初步得到的情绪识别模型的分类参数进行修正,得到最终修正后的情绪识别模型。在将当前对话文本输入至预先训练的情绪识别模型之后,通过预先训练的情绪识别模型可以输出当前对话文本的第二识别结果。其中,第二识别结果可以包括:预先训练的情绪识别模型识别出当前对话文本的情绪状态;或者,预先训练的情绪识别模型无法识别出当前对话文本的情绪状态。可选的,预先训练的情绪识别模型可以包括基于深度学习的模型。
S104、依据第一识别结果和第二识别结果,得到当前对话文本的情绪状态。
在本发明实施例中,若第一识别结果为当前对话文本与各个情绪识别模板均匹配失败,则将第二识别结果作为当前对话文本的情绪状态。换言之,当第一识别结果为当前对话文本与各个情绪识别模板均匹配失败时,表明通过将当前对话文本与预先设置的各个情绪识别模板进行匹配是无法得到当前对话文本的情绪状态,因而第一识别结果可能就没有了参考价值,可以直接将采用预先训练的情绪识别模型对当前对话文本进行识别得到的第二识别结果作为当前对话文本的情绪状态。其中,第二识别结果可以包括:预先训练的情绪识别模型识别出当前对话文本的情绪状态;或者,预先训练的情绪识别模型无法识别出当前对话文本的情绪状态。当预先训练的情绪识别模型识别出当前对话文本的情绪状态时,可以直接将预先训练的情绪识别模型得到的识别结果作为当前对话文本的情绪状态。当预先训练的情绪识别模型无法识别出当前对话文本的情绪状态时,则需要重新训练情绪识别模型或者更新情绪识别模型。
在本发明实施例中,若第一识别结果为当前对话文本与预先设置的各个情绪识别模板中的至少一个情绪识别模板匹配成功,且第二识别结果为预先训练的情绪识别模型识别出当前对话文本的情绪状态,则依据第一识别结果和第二识别结果来共同确定当前对话文本的情绪状态。
可选的,依据第一识别结果和第二识别结果来共同确定当前对话文本的情绪状态,具体可以包括:依据第一识别结果得到的当前对话文本的情绪状态的第一相似度和第二识别结果得到的当前对话文本的情绪状态的第二相似度,确定当前对话文本的情绪状态。其中,情绪状态可以包括:正向情绪、负向情绪、中性情绪。
在本实施方式中,若第一识别结果为当前对话文本与预先设置的各个情绪识别模板中的至少一个情绪识别模板匹配成功,则将该匹配成功的情绪识别模板对应情绪状态作为当前对话文本的情绪状态,还可以得到通过该匹配成功的情绪识别模板识别确定的当前对话文本的情绪状态的相似度,并记为第一相似度。其中,第一相似度越大,表明通过该匹配成功的情绪识别模板识别得到的当前对话文本的情绪状态越准确,反之第一相似度越小,表明通过该匹配成功的情绪识别模板识别得到的当前对话文本的情绪状态越不准确。另外,当预先训练的情绪识别模型识别出当前对话文本的情绪状态时,通过预先训练的情绪识别模型可以识别确定当前对话文本的情绪状态,还可以得到通过预先训练的情绪识别模型确定的当前对话文本的情绪状态的相似度,并记为第二相似度。其中,第二相似度越大,表明通过预先训练的情绪识别模型识别得到的当前对话文本的情绪状态越准确,反之第二相似度越小,表明通过预先训练的情绪识别模型识别得到的当前对话文本的情绪状态越不准确。在确定第一相似度和第二相似度之后,可以根据第一相似度的大小和第二相似度的大小来确定当前对话文本的情绪状态,比如选择相似度较大的识别结果作为当前对话文本的情绪状态。示例性的,若第一识别结果得到的当前对话文本的情绪状态的第一相似度为30%,第二识别结果得到的当前对话文本的情绪状态的第二相似度为60%,则将第二识别结果得到的当前对话文本的情绪状态最终识别结果。需要注意的,如果第一识别结果得到的当前对话文本的情绪状态与第二识别结果得到的当前对话文本的情绪状态不是同一极性方向的情绪状态,比如一个是正向情绪,一个是负向情绪,则需要对当前对话文本的情绪进行进一步判断。
在本发明实施例中,情绪状态可以包括:正向情绪、负向情绪、中性情绪。其中,同一种情绪状态还可以分为不同的情绪状态等级,通过不同的情绪状态等级可以反映用户在对应情绪状态下的情绪强弱程度。例如,正向情绪可以按照情绪强弱程度由强到弱依次分为第一等级、第二等级、第三等级。可选的,通过第一识别结果和第二识别结果不仅可以初步确定当前对话文本的情绪状态和当前对话文本的情绪状态的相似度,还可以确定当前对话文本的情绪状态的情绪状态等级,以便可以根据情绪状态等级针对当前对话语音采取合适的应答策略。通过确定当前对话文本的情绪状态,可以进一步确定当前用户的情绪状态,从而方便在金融客服平台、银行客服平台、智能家居平台、在线教育平台中根据用户的情绪状态进行智能交互。
本发明实施例中提供了一种情绪识别方法,采用语音识别技术确定当前对话语音的当前对话文本;将当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果;采用预先训练的情绪识别模型对当前对话文本进行识别,得到第二识别结果;依据第一识别结果和所述第二识别结果,得到当前对话文本的情绪状态。本发明实施例中的情绪识别方法能够结合情绪识别模板和情绪识别模型来识别对话文本的情绪状态,提高了情绪状态识别的准确率,同时还减少了对人力操作的依赖性,降低了人力成本,克服了语音交互效果难以把控的缺陷。
实施例二
图2示出了本发明实施例二中提供的一种情绪识别方法的流程示意图,本实施例在上述实施例的基础上进一步地优化。
如图2所示,本发明实施例中的情绪识别方法可以包括:
S201、采用语音识别技术确定当前对话语音的当前对话文本。
S202、按照各个情绪识别模板的权重由大到小的顺序,依次将当前对话文本与各个情绪识别模板进行匹配,若匹配成功,则将匹配成功的情绪识别模板对应的情绪状态作为第一识别结果。
在本发明实施例中,由于预先设置的情绪识别模板中可以包含多个情绪识别模板,将当前对话文本与预先设置的各个情绪识别模板进行匹配时,如果将当前对话文本与全部的预先设置的情绪识别模板均进行一次匹配,那么必然需要浪费较多的时间,造成情绪识别效率低等问题。为此,情绪识别装置可以按照各个情绪识别模板的权重由大到小的顺序对各个情绪识别模板排序,并按照情绪识别模板的排序结果依次将所述当前对话文本与各个情绪识别模板进行匹配。
在本发明实施例中,按照情绪识别模板的排序结果依次将所述当前对话文本与各个情绪识别模板进行匹配,具体可以为:按照各个情绪识别模板的权重由大到小的顺序,先将当前对话文本与权重较大的情绪识别模板进行匹配,如果当前对话文本与权重较大的情绪识别模板匹配成功,则将匹配成功的权重较大的情绪识别模板对应的情绪状态作为第一识别结果;如果当前对话文本与权重较大的情绪识别模板匹配失败,则返回按照各个情绪识别模板的权重由大到小的顺序,再选择下一权重比较大的情绪识别模板与当前对话文本进行匹配,如果匹配成功,则匹配成功的情绪识别模板对应的情绪状态作为第一识别结果;否则,继续返回按照各个情绪识别模板的权重由大到小的顺序,将当前对话文本与下一权重的情绪识别模板进行匹配,直至匹配成功或者各个情绪模板均已匹配使用。
可选的,在按照各个情绪识别模板的权重由大到小的顺序,依次将当前对话文本与各个情绪识别模板进行匹配之前,还可以包括:依据各个情绪识别模板中包括的情绪关键词的数量和各个情绪关键词的权重,确定各个情绪识别模板的权重。具体的,每一个情绪识别模板可以包括一个情绪关键词,也可以包括多个情绪关键词,各个情绪关键词的权重大小可以根据情绪关键词的情绪强度进行设置,情绪关键词的情绪强度越大,情绪关键词的权重越大,具体如何设置这里不再进行具体限定。各个情绪识别模板中包括的情绪关键词的数量越多和各个情绪关键词的权重越大,表明各个情绪识别模板的权重越大。
S203、采用预先训练的情绪识别模型对当前对话文本进行识别,得到第二识别结果。
S204、依据第一识别结果和第二识别结果,得到当前对话文本的情绪状态。
可选的,依据第一识别结果和第二识别结果,得到当前对话文本的情绪状态,可以包括:若第一识别结果为当前对话文本与各个情绪识别模板均匹配失败,则将第二识别结果作为当前对话文本的情绪状态。
本发明实施例中提供了一种情绪识别方法,采用语音识别技术确定当前对话语音的当前对话文本;按照各个情绪识别模板的权重由大到小的顺序,依次将所述当前对话文本与各个情绪识别模板进行匹配,若匹配成功,则将匹配成功的情绪识别模板对应的情绪状态作为第一识别结果;采用预先训练的情绪识别模型对当前对话文本进行识别,得到第二识别结果;依据第一识别结果和所述第二识别结果,得到当前对话文本的情绪状态。本发明实施例中的情绪识别方法能够结合情绪识别模板和情绪识别模型来识别对话文本的情绪状态,提高了情绪状态识别的准确率,减少了对人力操作的依赖性,降低了人力成本,克服了语音交互效果难以把控的缺陷,同时还提高了情绪识别的效率,节省了情绪识别耗费的时间。
实施例三
图3示出了本发明实施例三中提供的一种情绪识别方法的流程示意图,本实施例在上述实施例的基础上进一步地优化。
如图3所示,本发明实施例中的情绪识别方法可以包括:
S301、采用语音识别技术确定当前对话语音的当前对话文本。
S302、将当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果。
在本发明实施例中,本实施例的情绪识别模板可以对标注少量带有情绪关键词的对话文本进行扩展。例如,将对话文本“你真是很开心呀”扩展为“xxx开心xxx”,即情绪识别模板1:“[W:0-20][D:开心][W:0-20]”;或者,将对话文本“你真是很悲痛”扩展为“xxx悲痛xxx”,即情绪识别模板1:“[W:0-20][D:悲痛][W:0-20]”。通过情绪识别模板还可以对标注了大量带有情绪关键词的对话文本进行覆盖。例如,参考实施例一中的情绪识别模板1:“[W:0-20][D:开心][W:0-20]”和情绪识别模板2:“[W:0-20][D:悲痛][W:0-20]”;通过情绪识别模板1:“[W:0-20][D:开心][W:0-20]”可以覆盖所有类似“你很开心”、“你非常开心”等的对话文本;通过情绪识别模板2:“[W:0-20][D:悲痛][W:0-20]”可以覆盖所有类似“你很悲痛”、“你非常悲痛”等的对话文本。基于上述的覆盖和扩展得到的情绪识别模板,可以将当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果。
由于在实际的交互过程中,大多数用户只有在偶尔感觉到服务质量无法忍受的情况下,才会爆发出负面情绪,一般情况是无情绪的普通交互,情绪关键词的占比非常低(约1%),从而造成情绪关键词分布不均匀,标注大量对话文本以后,只能够获取少量带有情绪关键词的对话文本,比如10000条的用户对话文本,只能获取约100条的带有情绪关键词的对话文本,如果通过标注来收集更多数据,将会耗费大量人力和时间。然而通过本实施例的情绪识别模板可以从未标注情绪关键词的对话文本集合中,快速抽取大量带有情绪关键词的对话文本。例如,以上述将对话文本“你真是很开心呀”扩展为“xxx开心xxx”,即情绪识别模板1:“[W:0-20][D:开心][W:0-20]”为例,通过情绪识别模板1:“[W:0-20][D:开心][W:0-20]”可以从未标注情绪关键词的对话文本集合中抽取出大量类似“你真是很开心”,“你相当开心了”等对话文本。这样的做的好处在于,使用少量带有情绪关键词的对话文本就可以构建对应的情绪识别模板,从而在大量未标注情绪关键词的对话文本中批量抽取出大量高质量的带有情绪关键词的对话文本数据,极大地降低了对话文本数据获取的成本。
可选的,将当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果,可以包括:按照各个情绪识别模板的权重由大到小的顺序,依次将当前对话文本与各个情绪识别模板进行匹配,若匹配成功,则将匹配成功的情绪识别模板对应的情绪状态作为第一识别结果。
可选的,在按照各个情绪识别模板的权重由大到小的顺序,依次将当前对话文本与各个情绪识别模板进行匹配之前,还可以包括:依据各个情绪识别模板中包括的情绪关键词的数量和各个情绪关键词的权重,确定各个情绪识别模板的权重。
S303、依据情绪识别模板对历史对话文本的识别结果确定样本会话文本以及样本会话文本的情绪状态。
S304、依据样本会话文本以及样本会话文本的情绪状态,对已有情绪识别模型进行训练。
一般情况下,情绪关键词是分布不均匀,标注大量对话文本以后,只能够获取少量带有情绪关键词的对话文本。也就是说,假设标注对话文本数据有10000条中,可能只有100条对话文本数据中带有情绪关键词,那么情绪识别模型在训练学习过程中,将会偏向于将大部分对话文本都识别为无情绪关键词的对话文本。如果通过调整情绪识别模型提升对带有情绪关键词的对话文本的敏感程度,那么只要新出现的对话文本与上述训练学习的100条带有情绪关键词的对话文本稍有不同,就会被认定为是未带情绪关键词的对话文本,因为敏感度的提升会造成对话文本的误判,从而使得情绪识别模型的可扩展性无法发挥,难以达到良好的识别效果。如果希望情绪识别模型达到良好的情绪识别效果,就需要采用大量带有情绪关键词的对话文本对情绪识别模型进行训练学习才可以实现,然而通过标注来收集更多带有情绪关键词的对话文本,必然会耗费大量人力和时间。
本发明实施例中,基于上述情况,情绪识别装置可以依据情绪识别模板对历史对话文本的识别结果确定样本会话文本以及样本会话文本的情绪状态。具体的,情绪识别装置在采用预先设置的各个情绪识别模板与历史对话文本进行匹配识别时,必然得到了大量的历史对话文本以及历史对话文本的情绪状态。此时,可以根据历史得到的历史对话文本以及历史对话文本的情绪状态从历史对话文本的识别结果中快速获取样本会话文本以及样本会话文本的情绪状态。其中,样本会话文本中均携带有情绪关键词。然后使用样本会话文本以及样本会话文本的情绪状态对已有情绪识别模型进行训练学习,得到训练后的情绪识别模型。这样做的好处在于,一方面,可以充分利用依据情绪识别模板对历史对话文本的识别得到的带有情绪关键词的历史对话文本,而不需要通过标注来收集更多带有情绪关键词的对话文本,从而节省了大量人力和时间,同时使得情绪识别模型的训练有了充足的样本数据;另一方面,由于依据情绪识别模板对历史对话文本的识别得到的带有情绪关键词的历史对话文本中可以快速挖掘大量的带有情绪关键词的对话文本,从而在数据层面上彻底地解决了训练样本集中带有情绪关键词的对话文本分布不均匀问题,从而令深度学习模型能够充分发挥其对词含义与词之间关系的学习,从而迅速地提升整体情绪识别效果。
S305、采用预先训练的情绪识别模型对当前对话文本进行识别,得到第二识别结果。
S306、依据第一识别结果和第二识别结果,得到当前对话文本的情绪状态。
可选的,依据第一识别结果和第二识别结果,得到当前对话文本的情绪状态,可以包括:若第一识别结果为当前对话文本与各个情绪识别模板均匹配失败,则将第二识别结果作为当前对话文本的情绪状态。
本发明实施例中提供了一种情绪识别方法,结合情绪识别模板和情绪识别模型来识别会话文本的情绪状态,提供了一种新的情绪识别方法,提高了情绪状态识别的准确率,减少了对人力操作的依赖性,降低了人力成本,克服了语音交互效果难以把控的缺陷,并且还可以将情绪识别模板的识别结果对情绪识别模型进行训练,解决了情绪识别模型的样本不足的缺陷。
实施例四
图4示出了本发明实施例四中提供的一种情绪识别装置的结构示意图,本发明实施例可应用于金融客服平台、银行客服平台、智能家居平台、在线教育平台等需要进行智能交互的场景,该装置可以采用软件和/或硬件的方式实现,该装置可以集成在任何具有网络通信功能的计算机设备。
如图4所示,本发明实施例中的情绪识别装置可以包括:文本确定模块401、第一识别模块402、第二识别模块403和情绪确定模块404,其中:
文本确定模块401,用于采用语音识别技术确定当前对话语音的当前对话文本。
第一识别模块402,用于将所述当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果。
第二识别模块403,用于采用预先训练的情绪识别模型对所述当前对话文本进行识别,得到第二识别结果。
情绪确定模块404,用于依据所述第一识别结果和所述第二识别结果,得到所述当前对话文本的情绪状态。
在上述方案的基础上,可选的,所述情绪识别装置还可以包括:训练样本确定模块405和识别模型训练模块406,其中:
训练样本确定模块405,用于依据所述情绪识别模板对历史对话文本的识别结果确定样本会话文本以及所述样本会话文本的情绪状态。
识别模型训练模块406,用于依据所述样本会话文本以及所述样本会话文本的情绪状态,对已有情绪识别模型进行训练。
在上述方案的基础上,可选的,所述第一识别模块402具体可以用于:
按照各个情绪识别模板的权重由大到小的顺序,依次将所述当前对话文本与各个情绪识别模板进行匹配,若匹配成功,则将匹配成功的情绪识别模板对应的情绪状态作为第一识别结果。
在上述方案的基础上,可选的,所述情绪识别装置还可以包括:
识别模板权重确定模块407,用于依据各个情绪识别模板中包括的情绪关键词的数量和各个情绪关键词的权重,确定各个情绪识别模板的权重。
在上述方案的基础上,可选的,所述情绪确定模块404具体可以用于:
若所述第一识别结果为所述当前对话文本与各个情绪识别模板均匹配失败,则将所述第二识别结果作为所述当前对话文本的情绪状态。
本发明实施例中提供的情绪识别装置可执行本发明任意实施例所提供的情绪识别方法,具备执行方法相应的功能模块和有益效果。
实施例五
图5示出了本发明实施例五中提供的一种计算机设备的结构示意图。本实施例中提供了一种计算机设备500,其包括:一个或多个处理器520;存储装置510,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器520执行,使得所述一个或多个处理器520实现本发明实施例中提供的情绪识别方法,该情绪识别方法可以包括:
采用语音识别技术确定当前对话语音的当前对话文本;
将所述当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果;
采用预先训练的情绪识别模型对所述当前对话文本进行识别,得到第二识别结果;
依据所述第一识别结果和所述第二识别结果,得到所述当前对话文本的情绪状态。
当然,本领域技术人员可以理解,处理器520还可以实现本发明任意实施例中所提供的情绪识别方法的技术方案。
图5显示的计算机设备500仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备500以通用计算设备的形式表现。计算机设备500的组件可以包括但不限于:一个或者多个处理器520,存储装置510,连接不同系统组件(包括存储装置510和处理器520)的总线550。
总线550表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备500典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备500访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置510可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)511和/或高速缓存存储器512。计算机设备500可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统513可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线550相连。存储装置510可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块515的程序/实用工具514,可以存储在例如存储装置510中,这样的程序模块515包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块515通常执行本发明所描述的任意实施例中的功能和/或方法。
计算机设备500也可以与一个或多个外部设备560(例如键盘、指向设备、显示器570等)通信,还可与一个或者多个使得用户能与该计算机设备500交互的设备通信,和/或与使得该电子设备500能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口530进行。并且,计算机设备500还可以通过网络适配器540与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器540通过总线550与计算机设备500的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备500使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器520通过运行存储在存储装置510中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例中所提供的情绪识别方法。
实施例六
本发明实施例中提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种情绪识别方法,本发明实施例的情绪识别方法可以包括:
采用语音识别技术确定当前对话语音的当前对话文本;
将所述当前对话文本与预先设置的各个情绪识别模板进行匹配,得到第一识别结果;
采用预先训练的情绪识别模型对所述当前对话文本进行识别,得到第二识别结果;
依据所述第一识别结果和所述第二识别结果,得到所述当前对话文本的情绪状态。
当然,本发明实施例中所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例中所提供的情绪识别方法中的相关操作。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种情绪识别方法,其特征在于,所述方法包括:
采用语音识别技术确定当前对话语音的当前对话文本;
依据各个情绪识别模板中包括的情绪关键词的数量和各个情绪关键词的权重,确定各个情绪识别模板的权重;其中,依据各个情绪关键词的情绪强度确定各个情绪关键词的权重;
按照各个情绪识别模板的权重由大到小的顺序,依次将所述当前对话文本与各个情绪识别模板进行匹配,若匹配成功,则将匹配成功的情绪识别模板对应的情绪状态作为第一识别结果;
采用预先训练的情绪识别模型对所述当前对话文本进行识别,得到第二识别结果;
依据所述第一识别结果和所述第二识别结果,得到所述当前对话文本的情绪状态。
2.根据权利要求1所述的方法,其特征在于,在所述采用预先训练的情绪识别模型对所述当前对话文本进行识别,得到第二识别结果之前,还包括:
依据所述情绪识别模板对历史对话文本的识别结果确定样本会话文本以及所述样本会话文本的情绪状态;
依据所述样本会话文本以及所述样本会话文本的情绪状态,对已有情绪识别模型进行训练。
3.根据权利要求1所述的方法,其特征在于,依据所述第一识别结果和所述第二识别结果,得到所述当前对话文本的情绪状态,包括:
若所述第一识别结果为所述当前对话文本与各个情绪识别模板均匹配失败,则将所述第二识别结果作为所述当前对话文本的情绪状态。
4.一种情绪识别装置,其特征在于,所述装置包括:
文本确定模块,用于采用语音识别技术确定当前对话语音的当前对话文本;
识别模板权重确定模块,用于依据各个情绪识别模板中包括的情绪关键词的数量和各个情绪关键词的权重,确定各个情绪识别模板的权重;其中,依据各个情绪关键词的情绪强度确定各个情绪关键词的权重;
第一识别模块,用于按照各个情绪识别模板的权重由大到小的顺序,依次将所述当前对话文本与各个情绪识别模板进行匹配,若匹配成功,则将匹配成功的情绪识别模板对应的情绪状态作为第一识别结果;
第二识别模块,用于采用预先训练的情绪识别模型对所述当前对话文本进行识别,得到第二识别结果;
情绪确定模块,用于依据所述第一识别结果和所述第二识别结果,得到所述当前对话文本的情绪状态。
5.根据权利要求4所述的装置,其特征在于,所述装置还包括:
训练样本确定模块,用于依据所述情绪识别模板对历史对话文本的识别结果确定样本会话文本以及所述样本会话文本的情绪状态;
识别模型训练模块,用于依据所述样本会话文本以及所述样本会话文本的情绪状态,对已有情绪识别模型进行训练。
6.根据权利要求4所述的装置,其特征在于,所述情绪确定模块具体用于:
若所述第一识别结果为所述当前对话文本与各个情绪识别模板均匹配失败,则将所述第二识别结果作为所述当前对话文本的情绪状态。
7.一种计算机设备,其特征在于,所述计算机设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-3中任一项所述的情绪识别方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-3中任一项所述的情绪识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810712770.7A CN109003624B (zh) | 2018-06-29 | 2018-06-29 | 情绪识别方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810712770.7A CN109003624B (zh) | 2018-06-29 | 2018-06-29 | 情绪识别方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109003624A CN109003624A (zh) | 2018-12-14 |
CN109003624B true CN109003624B (zh) | 2022-02-15 |
Family
ID=64598710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810712770.7A Active CN109003624B (zh) | 2018-06-29 | 2018-06-29 | 情绪识别方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109003624B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753663B (zh) * | 2019-01-16 | 2023-12-29 | 中民乡邻投资控股有限公司 | 一种客户情绪分级方法及装置 |
CN110246485B (zh) * | 2019-05-21 | 2024-05-24 | 平安科技(深圳)有限公司 | 基于语音识别模型的样本数据获取方法、终端设备及介质 |
CN110364185B (zh) * | 2019-07-05 | 2023-09-29 | 平安科技(深圳)有限公司 | 一种基于语音数据的情绪识别方法、终端设备及介质 |
CN110310629A (zh) * | 2019-07-16 | 2019-10-08 | 湖南检信智能科技有限公司 | 基于文本情感分类的语音识别控制系统 |
CN110675853B (zh) * | 2019-09-10 | 2022-07-05 | 苏宁云计算有限公司 | 一种基于深度学习的情感语音合成方法及装置 |
CN110751943A (zh) * | 2019-11-07 | 2020-02-04 | 浙江同花顺智能科技有限公司 | 一种语音情绪识别方法、装置以及相关设备 |
US11019207B1 (en) | 2019-11-07 | 2021-05-25 | Hithink Royalflush Information Network Co., Ltd. | Systems and methods for smart dialogue communication |
CN110880081A (zh) * | 2019-11-29 | 2020-03-13 | 秒针信息技术有限公司 | 基于语音识别的员工管理方法、装置、计算机设备和介质 |
CN113129926A (zh) * | 2019-12-30 | 2021-07-16 | 中移(上海)信息通信科技有限公司 | 语音情绪识别模型训练方法、语音情绪识别方法及装置 |
CN111444322B (zh) * | 2020-01-08 | 2023-10-13 | 北京小米松果电子有限公司 | 处理语音数据的方法、处理语音数据的装置及存储介质 |
CN111223498A (zh) * | 2020-01-10 | 2020-06-02 | 平安科技(深圳)有限公司 | 情绪智能识别方法、装置及计算机可读存储介质 |
CN113761877B (zh) * | 2020-05-29 | 2024-06-18 | 北京沃东天骏信息技术有限公司 | 数据处理方法、装置、电子设备和介质 |
CN112035634A (zh) * | 2020-08-28 | 2020-12-04 | 康键信息技术(深圳)有限公司 | 文本情绪检测方法、装置、设备及存储介质 |
CN112612894B (zh) * | 2020-12-29 | 2022-03-18 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
CN114662499A (zh) * | 2022-03-17 | 2022-06-24 | 平安科技(深圳)有限公司 | 基于文本的情绪识别方法、装置、设备及存储介质 |
CN114743693A (zh) * | 2022-03-21 | 2022-07-12 | 北京左医科技有限公司 | 基于医患对话的诊中质控方法以及诊中质控装置 |
CN115862675B (zh) * | 2023-02-10 | 2023-05-05 | 之江实验室 | 一种情感识别方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708096A (zh) * | 2012-05-29 | 2012-10-03 | 代松 | 一种基于语义的网络智能舆情监测系统及其工作方法 |
KR20140067678A (ko) * | 2012-11-27 | 2014-06-05 | 포항공과대학교 산학협력단 | 상담 대화 제공 방법 및 이를 이용하는 장치 |
CN105095415A (zh) * | 2015-07-10 | 2015-11-25 | 沃民高新科技(北京)股份有限公司 | 网络情绪的确定方法和装置 |
CN105895101A (zh) * | 2016-06-08 | 2016-08-24 | 国网上海市电力公司 | 用于电力智能辅助服务系统的语音处理设备及处理方法 |
WO2017003031A1 (ko) * | 2015-06-29 | 2017-01-05 | 김영자 | 감성 아바타 이모티콘 기반의 초경량 데이터 애니메이션 방식 제공 방법, 그리고 이를 구현하기 위한 감성 아바타 이모티콘 제공 단말장치 |
CN106341527A (zh) * | 2016-08-25 | 2017-01-18 | 珠海市魅族科技有限公司 | 一种情绪调节方法及移动终端 |
CN106407236A (zh) * | 2015-08-03 | 2017-02-15 | 北京众荟信息技术有限公司 | 一种面向点评数据的情感倾向性检测方法 |
CN108197115A (zh) * | 2018-01-26 | 2018-06-22 | 上海智臻智能网络科技股份有限公司 | 智能交互方法、装置、计算机设备和计算机可读存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103488623A (zh) * | 2013-09-04 | 2014-01-01 | 中国科学院计算技术研究所 | 多种语言文本数据分类处理方法 |
CN107623624B (zh) * | 2016-07-15 | 2021-03-16 | 阿里巴巴集团控股有限公司 | 提供通知消息的方法及装置 |
CN106682608A (zh) * | 2016-12-23 | 2017-05-17 | 努比亚技术有限公司 | 指纹匹配装置及方法 |
-
2018
- 2018-06-29 CN CN201810712770.7A patent/CN109003624B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708096A (zh) * | 2012-05-29 | 2012-10-03 | 代松 | 一种基于语义的网络智能舆情监测系统及其工作方法 |
KR20140067678A (ko) * | 2012-11-27 | 2014-06-05 | 포항공과대학교 산학협력단 | 상담 대화 제공 방법 및 이를 이용하는 장치 |
WO2017003031A1 (ko) * | 2015-06-29 | 2017-01-05 | 김영자 | 감성 아바타 이모티콘 기반의 초경량 데이터 애니메이션 방식 제공 방법, 그리고 이를 구현하기 위한 감성 아바타 이모티콘 제공 단말장치 |
CN105095415A (zh) * | 2015-07-10 | 2015-11-25 | 沃民高新科技(北京)股份有限公司 | 网络情绪的确定方法和装置 |
CN106407236A (zh) * | 2015-08-03 | 2017-02-15 | 北京众荟信息技术有限公司 | 一种面向点评数据的情感倾向性检测方法 |
CN105895101A (zh) * | 2016-06-08 | 2016-08-24 | 国网上海市电力公司 | 用于电力智能辅助服务系统的语音处理设备及处理方法 |
CN106341527A (zh) * | 2016-08-25 | 2017-01-18 | 珠海市魅族科技有限公司 | 一种情绪调节方法及移动终端 |
CN108197115A (zh) * | 2018-01-26 | 2018-06-22 | 上海智臻智能网络科技股份有限公司 | 智能交互方法、装置、计算机设备和计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109003624A (zh) | 2018-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109003624B (zh) | 情绪识别方法、装置、计算机设备及存储介质 | |
CN108985358B (zh) | 情绪识别方法、装置、设备及存储介质 | |
CN108922564B (zh) | 情绪识别方法、装置、计算机设备及存储介质 | |
WO2021072875A1 (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
KR102170199B1 (ko) | 비교 세트를 사용한 입력 예시들 분류 | |
US9842585B2 (en) | Multilingual deep neural network | |
CN111738016B (zh) | 多意图识别方法及相关设备 | |
CN110147726A (zh) | 业务质检方法和装置、存储介质及电子装置 | |
CN108710704B (zh) | 对话状态的确定方法、装置、电子设备及存储介质 | |
CN111428010B (zh) | 人机智能问答的方法和装置 | |
CN112100349A (zh) | 一种多轮对话方法、装置、电子设备及存储介质 | |
CN112487139B (zh) | 基于文本的自动出题方法、装置及计算机设备 | |
CN116737908A (zh) | 知识问答方法、装置、设备和存储介质 | |
CN111062217A (zh) | 语言信息的处理方法、装置、存储介质及电子设备 | |
CN111159358A (zh) | 多意图识别训练和使用方法及装置 | |
CN111399629B (zh) | 一种终端设备的操作引导方法、终端设备及存储介质 | |
CN111737991A (zh) | 文本断句位置的识别方法及系统、电子设备及存储介质 | |
CN111753524A (zh) | 文本断句位置的识别方法及系统、电子设备及存储介质 | |
CN114722822B (zh) | 命名实体识别方法、装置、设备和计算机可读存储介质 | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
CN116821290A (zh) | 面向多任务对话的大语言模型训练方法和交互方法 | |
CN113362815A (zh) | 语音交互方法、系统、电子设备及存储介质 | |
EP4064031A1 (en) | Method and system for tracking in extended reality using voice commmand | |
CN113792133B (zh) | 判题方法、装置、电子设备和介质 | |
CN115188381B (zh) | 基于点击排序的语音识别结果优化方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |