CN113990352B - 用户情绪识别与预测方法、装置、设备及存储介质 - Google Patents
用户情绪识别与预测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113990352B CN113990352B CN202111229784.1A CN202111229784A CN113990352B CN 113990352 B CN113990352 B CN 113990352B CN 202111229784 A CN202111229784 A CN 202111229784A CN 113990352 B CN113990352 B CN 113990352B
- Authority
- CN
- China
- Prior art keywords
- emotion
- user
- data
- preset
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000008451 emotion Effects 0.000 claims abstract description 664
- 238000004458 analytical method Methods 0.000 claims abstract description 117
- 238000012545 processing Methods 0.000 claims abstract description 77
- 238000007781 pre-processing Methods 0.000 claims abstract description 19
- 230000011218 segmentation Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 13
- 238000004140 cleaning Methods 0.000 claims description 10
- 238000013145 classification model Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000010845 search algorithm Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能技术领域,公开了一种用户情绪识别与预测方法、装置、设备及存储介质,用于提高用户负面情绪检测的准确性。用户情绪识别与预测方法包括:通过预设的自动语音识别模型识别用户情感识别请求,得到初始文本信息;通过预置的文本情绪分析模型中输入层对初始文本信息进行数据预处理,得到目标文本信息;通过文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据;当负面情绪标签数据不为空值时,通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型。此外,本发明还涉及区块链技术,用户情绪类型可存储于区块链节点中。
Description
技术领域
本发明涉及人工智能的神经网络技术领域,尤其涉及一种用户情绪识别与预测方法、装置、设备及存储介质。
背景技术
智能语音客服系统已经广泛应用于各个行业中,如银行、电信、电商等。随着智能语音客服系统的不断发展,产品的服务范围越来越广,产品的智能程度也越来越高。其中,情感能力作为类人能力的重要体现,已经在智能语音客服系统的各个维度的场景中被实际应用,并且对系统类人能力的提升起到了至关重要的作用。
在智能语音客服系统中,用户的负面情绪会对业务以及用户满意度等方面造成负面影响。因此,对用户负面情绪的检测是该应用的基础和核心。但是在真实场景中,包含负面情绪的数据在整体数据中的比例极低(约1:100),导致传统的处理数据不平衡方法对负面情绪的检测准确性低。
发明内容
本发明提供了一种用户情绪识别与预测方法、装置、设备及存储介质,用于提高用户负面情绪检测的准确性。
为实现上述目的,本发明第一方面提供了一种用户情绪识别与预测方法,包括:获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息;通过预置的文本情绪分析模型中输入层对所述初始文本信息进行数据预处理,得到目标文本信息;通过所述文本情绪分析模型中召回层对所述目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,所述召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;当所述负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型;当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层对所述负面情绪标签数据和所述正面情绪标签数据进行情绪预测处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型;通过所述文本情绪分析模型中的输出层输出用户情绪类型,并将所述用户情绪类型发送至目标终端,以使得所述目标终端按照所述用户情绪类型显示对应的情绪图像信息。
可选的,在本发明第一方面的第一种实现方式中,所述获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息,包括:接收目标终端发送的用户情感识别请求,对所述用户情感识别请求进行参数解析和参数校验处理,得到用户语音时域信号,所述用户语音时域信号用于指示用户与客服之间的语音对话信息;通过预设的自动语音识别模型将所述用户语音时域信号转换为初始文本信息。
可选的,在本发明第一方面的第二种实现方式中,所述通过预置的文本情绪分析模型中输入层对所述初始文本信息进行数据预处理,得到目标文本信息,包括:通过预置的文本情绪分析模型中输入层,按照预置的数据清理规则对所述初始文本信息进行数据清洗处理,得到处理后的文本信息;通过预置的结巴分词工具对到所述处理后的文本信息进行分词处理,得到文本分词数据;对所述文本分词数据依次进行删除特殊符号、去停用词和词性过滤处理,得到目标文本信息。
可选的,在本发明第一方面的第三种实现方式中,所述通过所述文本情绪分析模型中召回层对所述目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,所述召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型,包括:将所述目标文本信息输入至所述文本情绪分析模型中召回层,并通过预置的情绪关键词匹配子模型对所述目标文本信息进行负面情绪关键词匹配,得到目标关键词,所述召回层包括所述预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;基于所述预置的新词发现子模型对所述目标文本信息进行序列识别,得到目标新词汇;调用所述预置的分类子模型对目标文本信息进行情绪分类处理,得到负面情绪分类数据;对所述目标关键词、所述目标新词汇和所述负面情绪分类数据进行数据统计分析和情绪标签化,得到负面情绪标签数据和正面情绪标签数据。
可选的,在本发明第一方面的第四种实现方式中,所述当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层对所述负面情绪标签数据和所述正面情绪标签数据进行情绪预测处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型,包括:当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层,按照预设的增强策略对所述负面情绪标签数据进行数据增强处理,得到增强后的负面情绪数据;通过训练好的二分类模型对所述正面情绪标签数据和所述增强后的负面情绪数据进行分类处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型。
可选的,在本发明第一方面的第五种实现方式中,在所述获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息之前,所述用户情绪识别与预测方法包括:获取初始语音文本样本数据集和数据增强策略信息,所述初始语音文本样本数据集包括负面情绪样本数据和正面情绪样本数据;基于所述数据增强策略信息生成数据增强策略搜索空间;在所述数据增强策略搜索空间中对所述负面情绪样本数据进行数据增强,得到增强的负面情绪样本数据,并将正面情绪样本数据和所述增强的负面情绪样本数据设置为情绪训练数据集;基于所述情绪训练数据集对递归神经网络模型进行模型迭代训练,得到预置的文本情绪分析模型,所述预置的文本情绪分析模型包括所述输入层、所述召回层、所述增强分类层和所述输出层。
可选的,在本发明第一方面的第六种实现方式中,在所述通过所述文本情绪分析模型中的输出层输出用户情绪类型,并将所述用户情绪类型发送至目标终端,以使得目标终端按照所述用户情绪类型显示对应的情绪图像信息之后,所述用户情绪识别与预测方法还包括:获取用户唯一标识和用户基本信息,并根据所述用户唯一标识将所述负面情绪标签数据存储至预设的数据库中;按照所述用户基本信息和所述负面情绪标签数据构建用户情绪画像,所述用户情绪画像包括用户情绪级别、预警级别以及预警次数;基于所述用户情绪画像生成情绪分析报告和情绪预警信息,并将所述情绪分析报告和所述情绪预警信息推送至所述目标终端。
本发明第二方面提供了一种用户情绪识别与预测装置,包括:识别模块,用于获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息;预处理模块,用于通过预置的文本情绪分析模型中输入层对所述初始文本信息进行数据预处理,得到目标文本信息;标注模块,用于通过所述文本情绪分析模型中召回层对所述目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,所述召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;确定模块,用于当所述负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型;预测模块,用于当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层对所述负面情绪标签数据和所述正面情绪标签数据进行情绪预测处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型;发送模块,用于通过所述文本情绪分析模型中的输出层输出用户情绪类型,并将所述用户情绪类型发送至目标终端,以使得所述目标终端按照所述用户情绪类型显示对应的情绪图像信息。
可选的,在本发明第二方面的第一种实现方式中,所述识别模块具体用于:接收目标终端发送的用户情感识别请求,对所述用户情感识别请求进行参数解析和参数校验处理,得到用户语音时域信号,所述用户语音时域信号用于指示用户与客服之间的语音对话信息;通过预设的自动语音识别模型将所述用户语音时域信号转换为初始文本信息。
可选的,在本发明第二方面的第二种实现方式中,所述预处理模块具体用于:通过预置的文本情绪分析模型中输入层,按照预置的数据清理规则对所述初始文本信息进行数据清洗处理,得到处理后的文本信息;通过预置的结巴分词工具对到所述处理后的文本信息进行分词处理,得到文本分词数据;对所述文本分词数据依次进行删除特殊符号、去停用词和词性过滤处理,得到目标文本信息。
可选的,在本发明第二方面的第三种实现方式中,所述标注模块具体用于:将所述目标文本信息输入至所述文本情绪分析模型中召回层,并通过预置的情绪关键词匹配子模型对所述目标文本信息进行负面情绪关键词匹配,得到目标关键词,所述召回层包括所述预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;基于所述预置的新词发现子模型对所述目标文本信息进行序列识别,得到目标新词汇;调用所述预置的分类子模型对目标文本信息进行情绪分类处理,得到负面情绪分类数据;对所述目标关键词、所述目标新词汇和所述负面情绪分类数据进行数据统计分析和情绪标签化,得到负面情绪标签数据和正面情绪标签数据。
可选的,在本发明第二方面的第四种实现方式中,所述预测模块具体用于:当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层,按照预设的增强策略对所述负面情绪标签数据进行数据增强处理,得到增强后的负面情绪数据;通过训练好的二分类模型对所述正面情绪标签数据和所述增强后的负面情绪数据进行分类处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型。
可选的,在本发明第二方面的第五种实现方式中,所述用户情绪识别与预测装置还包括:获取模块,用于获取初始语音文本样本数据集和数据增强策略信息,所述初始语音文本样本数据集包括负面情绪样本数据和正面情绪样本数据;生成模块,用于基于所述数据增强策略信息生成数据增强策略搜索空间;增强模块,用于在所述数据增强策略搜索空间中对所述负面情绪样本数据进行数据增强,得到增强的负面情绪样本数据,并将正面情绪样本数据和所述增强的负面情绪样本数据设置为情绪训练数据集;训练模块,用于基于所述情绪训练数据集对递归神经网络模型进行模型迭代训练,得到预置的文本情绪分析模型,所述预置的文本情绪分析模型包括所述输入层、所述召回层、所述增强分类层和所述输出层。
可选的,在本发明第二方面的第六种实现方式中,所述用户情绪识别与预测装置还包括:存储模块,用于获取用户唯一标识和用户基本信息,并根据所述用户唯一标识将所述负面情绪标签数据存储至预设的数据库中;构建模块,用于按照所述用户基本信息和所述负面情绪标签数据构建用户情绪画像,所述用户情绪画像包括用户情绪级别、预警级别以及预警次数;推送模块,用于基于所述用户情绪画像生成情绪分析报告和情绪预警信息,并将所述情绪分析报告和所述情绪预警信息推送至所述目标终端。
本发明第三方面提供了一种用户情绪识别与预测设备,包括:存储器和至少一个处理器,所述存储器中存储有计算机程序;所述至少一个处理器调用所述存储器中的所述计算机程序,以使得所述用户情绪识别与预测设备执行上述的用户情绪识别与预测方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行上述的用户情绪识别与预测方法。
本发明提供的技术方案中,获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息;通过预置的文本情绪分析模型中输入层对所述初始文本信息进行数据预处理,得到目标文本信息;通过所述文本情绪分析模型中召回层对所述目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,所述召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;当所述负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型;当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层对所述负面情绪标签数据和所述正面情绪标签数据进行情绪预测处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型;通过所述文本情绪分析模型中的输出层输出用户情绪类型,并将所述用户情绪类型发送至目标终端,以使得目标终端按照所述用户情绪类型显示对应的情绪图像信息。本发明实施例中,通过预置的文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,并通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,增强分类层通过数据增强策略提升负面情绪标签数据数量,进一步降低负面情绪标签数据与正面情绪标签数据之间的不平衡比例,提高了用户负面情绪检测的准确性。
附图说明
图1为本发明实施例中用户情绪识别与预测方法的一个实施例示意图;
图2为本发明实施例中用户情绪识别与预测方法的另一个实施例示意图;
图3为本发明实施例中用户情绪识别与预测装置的一个实施例示意图;
图4为本发明实施例中用户情绪识别与预测装置的另一个实施例示意图;
图5为本发明实施例中用户情绪识别与预测设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种用户情绪识别与预测方法、装置、设备及存储介质,用于通过预置的文本情绪分析模型降低负面情绪标签数据与正面情绪标签数据之间的不平衡比例,提高用户负面情绪检测的准确性。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中用户情绪识别与预测方法的一个实施例包括:
101、获取用户情感识别请求,并通过预设的自动语音识别模型对用户情感识别请求进行语音识别处理,得到初始文本信息。
需要说明的是,预设的自动语音识别模型对应的输入数据一般是时域的语音信号,可以用多个向量表示,向量长度为T,自动语音识别模型对应的输出数据是文本类型数据,可以用多个词块token表示,token长度为N,长度T大于长度N。其中,token可以为声音的基本元素(也就是音素),也可以为书写位grapheme,还可以为词素morpheme,具体此处不做限定。
其中,预设的自动语音识别模型可以为深度神经网络模型,也可以为贝叶斯语音识别模型,具体此处不做限定。具体的,服务器接收目标终端发送的用户情感识别请求,并从用户情感识别请求中提取原始语音信息(也就是用户语音时域信号),服务器通过预设的自动语音识别模型对原始语音信息进行特征提取,得到目标声学特征;服务器基于目标声学特征确定文本输出概率分布,并基于文本输出概率分布转译生成文本序列,得到初始文本信息;服务器存储初始文本信息,例如,服务器将初始文本信息存储至预设的文件中,或者将初始文本信息存储至预设的内存数据库中。
可以理解的是,本发明的执行主体可以为用户情绪识别与预测装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
102、通过预置的文本情绪分析模型中输入层对初始文本信息进行数据预处理,得到目标文本信息。
也就是,服务器对自动语音识别模型转译输出的初始文本信息进行数据预处理,得到目标文本信息。具体的,服务器从预设的文件中读取初始文本信息,并从对初始文本信息进行去掉特殊符号和去停用词处理,得到目标文本信息。特殊符号包括空格、顿号、逗号等符号。
103、通过文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型。
需要说明的是,预置的文本情绪分析模型中召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型。预置的情绪关键词匹配子模型用于提取人工标注的负面情绪关键词、预置的新词发现子模型为基于人工标注的负面情绪训练的命名实体模型、预置的分类子模型为标注数据训练(对非负面数据随机抽样,负面与非负面样本比约1:1)的二分类模型。具体的,服务器通过预置的情绪关键词匹配子模型匹配到目标关键词,服务器通过预置的新词发现子模型识别到目标新词汇,并通过预置的分类子模型识别负面情绪分类数据,服务器将目标关键词、目标新词汇和负面情绪分类数据组合为负面情绪标签数据,并将其他数据(也就是,目标文本信息中除了情绪召回候选集的数据)输出为非负面标签,得到正面情绪标签数据。其中文本情绪分析模型中召回层通过高召回策略,以高的召回率(例如,97%)召回负面情绪标签数据,降低负面情绪标签数据和正面情绪标签数据不平衡比例,其中,负面情绪标签数据和正面情绪标签数据的比例为1:10。
104、当负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型。
其中,正面情绪类型用于指示开心、乐观、自信、欣赏、放松等情绪。具体的,服务器判断负面情绪标签数据是否为空值,若负面情绪标签数据为空值,则服务器确定用户情绪类型为正面情绪类型,并停止预测处理,执行步骤106。正面情绪类型采用预设的字符表示,例如001或style_001,具体此处不做限定。
105、当负面情绪标签数据不为空值时,通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,用户情绪类型为正面情绪类型或负面情绪类型。
其中,负面情绪类型包括焦虑、紧张、愤怒、沮丧、悲伤、痛苦等情绪。也就是,服务器将文本情绪分析模型中增强分类层搜索出的最优增强策略,应用于经过文本情绪分析模型中召回层过滤过的目标数据集(包括负面情绪标签数据和正面情绪标签数据),并通过一个训练好的二分类模型对目标数据集进行分类处理,得到分类概率值,服务器判断分类概率值是否大于预设的分类阈值,若分类概率值大于预设的分类阈值,则服务器确定用户情绪类型为负面情绪类型,若分类概率值小于或等于预设的分类阈值,则服务器确定用户情绪类型为正面情绪类型。例如,预设的分类阈值为0.65,若分类概率值为0.69,服务器确定用户情绪类型为负面情绪类型;若分类概率值为0.35,服务器确定用户情绪类型为正面情绪类型。进一步地,服务器将用户情绪类型存储于区块链数据库中,具体此处不做限定。
106、通过文本情绪分析模型中的输出层输出用户情绪类型,并将用户情绪类型发送至目标终端,以使得目标终端按照用户情绪类型显示对应的情绪图像信息。
其中,用户情绪类型与情绪图像信息为一对多关系。也就是,目标终端显示的情绪图像信息可以为人脸表情图像,也可以为动态的表情图像,具体此处不做限定。具体的,服务器通过文本情绪分析模型中的输出层输出用户情绪类型,服务器将用户情绪类型和用户情感识别请求进行映射存储处理;服务器调用预设的信息发送接口,按照预设的数据格式将用户情绪类型封装处理,得到已封装的数据,并将已封装的数据发送至目标终端,以使得目标终端按照用户情绪类型随机查询预设的图像信息集,并显示对应的情绪图像信息。预设的数据格式可以为JS对象简谱格式JSON,也可以为数据序列化格式YAML,还可以为其他数据格式,具体此处不做限定。
本发明实施例中,通过预置的文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,并通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,增强分类层通过数据增强策略提升负面情绪标签数据数量,进一步降低负面情绪标签数据与正面情绪标签数据之间的不平衡比例,提高了用户负面情绪检测的准确性。
请参阅图2,本发明实施例中用户情绪识别与预测方法的另一个实施例包括:
201、获取用户情感识别请求,并通过预设的自动语音识别模型对用户情感识别请求进行语音识别处理,得到初始文本信息。
其中,用户情感识别请求与初始文本信息存在一一对应关系。初始文本信息可以为中文文本,也可以为英文文本,还可以为其他语言类型的文本数据,具体此处不做限定。可选的,服务器接收目标终端发送的用户情感识别请求,对用户情感识别请求进行参数解析和参数校验处理,得到用户语音时域信号,用户语音时域信号用于指示用户与客服之间的语音对话信息;服务器通过预设的自动语音识别模型将用户语音时域信号转换为初始文本信息。进一步地,服务器通过预设的自动语音识别模型对用户语音时域信号静音切除去掉无关噪音,得到已去除噪音的语音时域信号进行分帧,得到多个分帧语音时域信号,多个分帧语音时域信号互相关联,服务器依次对多个分帧语音时域信号分别进行预加重、加窗、傅里叶变换(可以为短时傅里叶变换或快速傅里叶变换)、梅尔参数滤波、取对数、离散余弦变换处理,得到已处理的语音时域信号;服务器通过预设的梅尔频率倒谱系数对已处理的语音时域信号提取目标声学特征;服务器基于目标声学特征确定初始文本信息。
进一步地,服务器获取初始语音文本样本数据集和数据增强策略信息,初始语音文本样本数据集包括负面情绪样本数据和正面情绪样本数据;服务器基于数据增强策略信息生成数据增强策略搜索空间;服务器在数据增强策略搜索空间中对负面情绪样本数据进行数据增强,得到增强的负面情绪样本数据,并将正面情绪样本数据和增强的负面情绪样本数据设置为情绪训练数据集;服务器基于情绪训练数据集对递归神经网络模型进行模型迭代训练,得到预置的文本情绪分析模型,预置的文本情绪分析模型包括输入层、召回层、增强分类层和输出层。其中,预置的文本情绪分析模型用于指示通过预设的高召回策略召回负面样本,降低不平衡比例,并对找回的样本数据经过增强处理后,能够提高用户负面情绪检测的准确性。数据增强策略搜索空间具体包括:每一个增强策略由5个子策略构成,每一个子策略存在三个超参数:1)操作类型(同义词替换、随机插入、随机删除、随机交换);2)执行该操作的概率(0-1(间隔0.1));3)整句话中应用该操作的词的比例(0-0.5(间隔0.05))。搜索算法为快速神经搜索算法(efficient neural architecture search,ENAS)。具体的,服务器通过控制器RNN,按照三个超参数从数据增强策略搜索空间中抽样一个增强策略S,并将S应用于情绪训练数据集训练递归神经网络模型,并在预设的验证集上得到准确率R,服务器将R作为强化学习中的奖励reward,并更新控制器RNN模型的参数,直到模型收敛时,得到预置的文本情绪分析模型。
202、通过预置的文本情绪分析模型中输入层对初始文本信息进行数据预处理,得到目标文本信息。
其中,目标文本信息为仅保留文字,不具有符号的文本。可选的,服务器通过预置的文本情绪分析模型中输入层,按照预置的数据清理规则对初始文本信息进行数据清洗处理,得到处理后的文本信息;服务器通过预置的结巴分词工具对到处理后的文本信息进行分词处理,得到文本分词数据;服务器对文本分词数据依次进行删除特殊符号、去停用词和词性过滤处理,得到目标文本信息。例如,初始文本信息为“我有个问题想要反馈,请您予以支持”,目标文本信息为“我”、“问题”、“反馈”、“您”、“支持”。
203、通过文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型。
其中,负面情绪标签数据和正面情绪标签数据具有对应的比例关系。可选的,服务器将目标文本信息输入至文本情绪分析模型中召回层,并通过预置的情绪关键词匹配子模型对目标文本信息进行负面情绪关键词匹配,得到目标关键词,召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;服务器基于预置的新词发现子模型对目标文本信息进行序列识别,得到目标新词汇;服务器调用预置的分类子模型对目标文本信息进行情绪分类处理,得到负面情绪分类数据;服务器对目标关键词、目标新词汇和负面情绪分类数据进行数据统计分析和情绪标签化,得到负面情绪标签数据和正面情绪标签数据。进一步地,服务器对负面情绪标签数据和正面情绪标签数据进行缓存处理。
204、当负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型。
该步骤204的具体执行过程与步骤104的具体执行过程相似,具体此处不再赘述。
205、当负面情绪标签数据不为空值时,通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,用户情绪类型为正面情绪类型或负面情绪类型。
需要说明的是,负面情绪标签数据经过召回层处理,此时负面情绪标签数据和正面情绪标签数据比例约为1:10,服务器通过对负面情绪标签数据进行数据增强进一步降低样本不平衡比例。也就是,服务器通过定义数据增强策略(预设的增强策略)的数据增强策略搜索空间和选择搜索算法,搜索出对负面情绪标签数据最优的数据增强方式。
可选的,当负面情绪标签数据不为空值时,服务器通过文本情绪分析模型中增强分类层,按照预设的增强策略对负面情绪标签数据进行数据增强处理,得到增强后的负面情绪数据,其中,预设的增强策略包括数据增强策略搜索空间;服务器通过训练好的二分类模型对正面情绪标签数据和增强后的负面情绪数据进行分类处理,得到用户情绪类型,用户情绪类型为正面情绪类型或负面情绪类型。在实际业务场景(例如寿险客服系统)中,传统数据增强效果普遍在50%-60%,本发明可以到达85%以上。
206、通过文本情绪分析模型中的输出层输出用户情绪类型,并将用户情绪类型发送至目标终端,以使得目标终端按照用户情绪类型显示对应的情绪图像信息。
该步骤206的具体执行过程与步骤106的执行过程相似,具体此处不再赘述。
207、获取用户唯一标识和用户基本信息,并根据用户唯一标识将负面情绪标签数据存储至预设的数据库中。
具体的,服务器接收情绪报告和预警信息生成请求,并对情绪报告和预警信息生成请求进行参数解析,得到用户唯一标识;服务器将用户唯一标识作为目标索引,并按照目标索引检索预设的数据表,得到用户基本数据,服务器将用户的唯一标识设置为目标键,将负面情绪标签数据设置为目标值,并将目标键和目标值封装为键值对,服务器将键值对缓存至预设的数据库(例如,远程服务字典redis)中。
208、按照用户基本信息和负面情绪标签数据构建用户情绪画像,用户情绪画像包括用户情绪级别、预警级别以及预警次数。
其中,用户基本信息可以包括姓名、年龄、性别、职业、血型、医疗就诊信息和身体健康状况信息,还可以包括情绪预测次数、情绪类型统计次数和情绪倾向类型,具体此处不做限定。具体的,服务器按照用户基本信息和预设的标签分类维度确定用户的多个维度标签数据;服务器对多个维度标签数据和负面情绪标签数据进行聚类处理并生成用户情绪画像,用户情绪画像包括用户情绪级别、预警级别以及预警次数。
209、基于用户情绪画像生成情绪分析报告和情绪预警信息,并将情绪分析报告和情绪预警信息推送至目标终端。
具体的,服务器根据用户情绪级别确定情绪报告模板,服务器基于情绪报告模板和用户基本信息生成情绪分析报告;服务器根据预警级别确定预警信息模板,服务器基于预警信息模板、预警次数和用户基本信息生成情绪预警信息;服务器通过预设的通知方式将情绪分析报告和情绪预警信息推送至目标终端,以使得目标终端向用户展示情绪分析报告和情绪预警信息。预设的通知方式包括邮件方式和消息推送方式。
本发明实施例中,通过预置的文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,并通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,增强分类层通过数据增强策略提升负面情绪标签数据数量,进一步降低负面情绪标签数据与正面情绪标签数据之间的不平衡比例,提高了用户负面情绪检测的准确性。
上面对本发明实施例中用户情绪识别与预测方法进行了描述,下面对本发明实施例中用户情绪识别与预测装置进行描述,请参阅图3,本发明实施例中用户情绪识别与预测装置的一个实施例包括:
识别模块301,用于获取用户情感识别请求,并通过预设的自动语音识别模型对用户情感识别请求进行语音识别处理,得到初始文本信息;
预处理模块302,用于通过预置的文本情绪分析模型中输入层对初始文本信息进行数据预处理,得到目标文本信息;
标注模块303,用于通过文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;
确定模块304,用于当负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型;
预测模块305,用于当负面情绪标签数据不为空值时,通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,用户情绪类型为正面情绪类型或负面情绪类型;
发送模块306,用于通过文本情绪分析模型中的输出层输出用户情绪类型,并将用户情绪类型发送至目标终端,以使得目标终端按照用户情绪类型显示对应的情绪图像信息。
进一步地,将用户情绪类型存储于区块链数据库中,具体此处不做限定。
本发明实施例中,通过预置的文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,并通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,增强分类层通过数据增强策略提升负面情绪标签数据数量,进一步降低负面情绪标签数据与正面情绪标签数据之间的不平衡比例,提高了用户负面情绪检测的准确性。
请参阅图4,本发明实施例中用户情绪识别与预测装置的另一个实施例包括:
识别模块301,用于获取用户情感识别请求,并通过预设的自动语音识别模型对用户情感识别请求进行语音识别处理,得到初始文本信息;
预处理模块302,用于通过预置的文本情绪分析模型中输入层对初始文本信息进行数据预处理,得到目标文本信息;
标注模块303,用于通过文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;
确定模块304,用于当负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型;
预测模块305,用于当负面情绪标签数据不为空值时,通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,用户情绪类型为正面情绪类型或负面情绪类型;
发送模块306,用于通过文本情绪分析模型中的输出层输出用户情绪类型,并将用户情绪类型发送至目标终端,以使得目标终端按照用户情绪类型显示对应的情绪图像信息。
可选的,识别模块301还可以具体用于:
接收目标终端发送的用户情感识别请求,对用户情感识别请求进行参数解析和参数校验处理,得到用户语音时域信号,用户语音时域信号用于指示用户与客服之间的语音对话信息;
通过预设的自动语音识别模型将用户语音时域信号转换为初始文本信息。
可选的,预处理模块302还可以具体用于:
通过预置的文本情绪分析模型中输入层,按照预置的数据清理规则对初始文本信息进行数据清洗处理,得到处理后的文本信息;
通过预置的结巴分词工具对到处理后的文本信息进行分词处理,得到文本分词数据;
对文本分词数据依次进行删除特殊符号、去停用词和词性过滤处理,得到目标文本信息。
可选的,标注模块303还可以具体用于:
将目标文本信息输入至文本情绪分析模型中召回层,并通过预置的情绪关键词匹配子模型对目标文本信息进行负面情绪关键词匹配,得到目标关键词,召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;
基于预置的新词发现子模型对目标文本信息进行序列识别,得到目标新词汇;
调用预置的分类子模型对目标文本信息进行情绪分类处理,得到负面情绪分类数据;
对目标关键词、目标新词汇和负面情绪分类数据进行数据统计分析和情绪标签化,得到负面情绪标签数据和正面情绪标签数据。
可选的,预测模块305还可以具体用于:
当负面情绪标签数据不为空值时,通过文本情绪分析模型中增强分类层,按照预设的增强策略对负面情绪标签数据进行数据增强处理,得到增强后的负面情绪数据;
通过训练好的二分类模型对正面情绪标签数据和增强后的负面情绪数据进行分类处理,得到用户情绪类型,用户情绪类型为正面情绪类型或负面情绪类型。
可选的,用户情绪识别与预测装置还可以包括:
获取模块307,用于获取初始语音文本样本数据集和数据增强策略信息,初始语音文本样本数据集包括负面情绪样本数据和正面情绪样本数据;
生成模块308,用于基于数据增强策略信息生成数据增强策略搜索空间;
增强模块309,用于在数据增强策略搜索空间中对负面情绪样本数据进行数据增强,得到增强的负面情绪样本数据,并将正面情绪样本数据和增强的负面情绪样本数据设置为情绪训练数据集;
训练模块310,用于基于情绪训练数据集对递归神经网络模型进行模型迭代训练,得到预置的文本情绪分析模型,预置的文本情绪分析模型包括输入层、召回层、增强分类层和输出层。
可选的,用户情绪识别与预测装置还可以包括:
存储模块311,用于获取用户唯一标识和用户基本信息,并根据用户唯一标识将负面情绪标签数据存储至预设的数据库中;
构建模块312,用于按照用户基本信息和负面情绪标签数据构建用户情绪画像,用户情绪画像包括用户情绪级别、预警级别以及预警次数;
推送模块313,用于基于用户情绪画像生成情绪分析报告和情绪预警信息,并将情绪分析报告和情绪预警信息推送至目标终端。
本发明实施例中,通过预置的文本情绪分析模型中召回层对目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,并通过文本情绪分析模型中增强分类层对负面情绪标签数据和正面情绪标签数据进行情绪预测处理,得到用户情绪类型,增强分类层通过数据增强策略提升负面情绪标签数据数量,进一步降低负面情绪标签数据与正面情绪标签数据之间的不平衡比例,提高了用户负面情绪检测的准确性。
上面图3和图4从模块化的角度对本发明实施例中的用户情绪识别与预测装置进行详细描述,下面从硬件处理的角度对本发明实施例中用户情绪识别与预测设备进行详细描述。
图5是本发明实施例提供的一种用户情绪识别与预测设备的结构示意图,该用户情绪识别与预测设备500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)510(例如,一个或一个以上处理器)和存储器520,一个或一个以上存储应用程序533或数据532的存储介质530(例如一个或一个以上海量存储设备)。其中,存储器520和存储介质530可以是短暂存储或持久存储。存储在存储介质530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对用户情绪识别与预测设备500中的一系列计算机程序操作。更进一步地,处理器510可以设置为与存储介质530通信,在用户情绪识别与预测设备500上执行存储介质530中的一系列计算机程序操作。
用户情绪识别与预测设备500还可以包括一个或一个以上电源540,一个或一个以上有线或无线网络接口550,一个或一个以上输入输出接口560,和/或,一个或一个以上操作系统531,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图5示出的用户情绪识别与预测设备结构并不构成对用户情绪识别与预测设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得计算机执行所述用户情绪识别与预测方法的步骤。
本发明还提供一种用户情绪识别与预测设备,所述用户情绪识别与预测设备包括存储器和处理器,存储器中存储有计算机程序,所述计算机程序被处理器执行时,使得处理器执行上述各实施例中的所述用户情绪识别与预测方法的步骤。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干计算机程序用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-onlymemory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种用户情绪识别与预测方法,其特征在于,所述用户情绪识别与预测方法包括:
获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息;
通过预置的文本情绪分析模型中输入层对所述初始文本信息进行数据预处理,得到目标文本信息;
通过所述文本情绪分析模型中召回层对所述目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,所述召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;
当所述负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型;
当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层对所述负面情绪标签数据和所述正面情绪标签数据进行情绪预测处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型;
通过所述文本情绪分析模型中的输出层输出用户情绪类型,并将所述用户情绪类型发送至目标终端,以使得所述目标终端按照所述用户情绪类型显示对应的情绪图像信息;
所述通过所述文本情绪分析模型中召回层对所述目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,所述召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型,包括:
将所述目标文本信息输入至所述文本情绪分析模型中召回层,并通过预置的情绪关键词匹配子模型对所述目标文本信息进行负面情绪关键词匹配,得到目标关键词,所述召回层包括所述预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;
基于所述预置的新词发现子模型对所述目标文本信息进行序列识别,得到目标新词汇;
调用所述预置的分类子模型对目标文本信息进行情绪分类处理,得到负面情绪分类数据;
对所述目标关键词、所述目标新词汇和所述负面情绪分类数据进行数据统计分析和情绪标签化,得到负面情绪标签数据和正面情绪标签数据;
所述当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层对所述负面情绪标签数据和所述正面情绪标签数据进行情绪预测处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型,包括:
当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层,按照预设的增强策略对所述负面情绪标签数据进行数据增强处理,得到增强后的负面情绪数据;
通过训练好的二分类模型对所述正面情绪标签数据和所述增强后的负面情绪数据进行分类处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型。
2.根据权利要求1所述的用户情绪识别与预测方法,其特征在于,所述获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息,包括:
接收目标终端发送的用户情感识别请求,对所述用户情感识别请求进行参数解析和参数校验处理,得到用户语音时域信号,所述用户语音时域信号用于指示用户与客服之间的语音对话信息;
通过预设的自动语音识别模型将所述用户语音时域信号转换为初始文本信息。
3.根据权利要求1所述的用户情绪识别与预测方法,其特征在于,所述通过预置的文本情绪分析模型中输入层对所述初始文本信息进行数据预处理,得到目标文本信息,包括:
通过预置的文本情绪分析模型中输入层,按照预置的数据清理规则对所述初始文本信息进行数据清洗处理,得到处理后的文本信息;
通过预置的结巴分词工具对到所述处理后的文本信息进行分词处理,得到文本分词数据;
对所述文本分词数据依次进行删除特殊符号、去停用词和词性过滤处理,得到目标文本信息。
4.根据权利要求1-3中任意一项所述的用户情绪识别与预测方法,其特征在于,在所述获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息之前,所述用户情绪识别与预测方法包括:
获取初始语音文本样本数据集和数据增强策略信息,所述初始语音文本样本数据集包括负面情绪样本数据和正面情绪样本数据;
基于所述数据增强策略信息生成数据增强策略搜索空间;
在所述数据增强策略搜索空间中对所述负面情绪样本数据进行数据增强,得到增强的负面情绪样本数据,并将正面情绪样本数据和所述增强的负面情绪样本数据设置为情绪训练数据集;
基于所述情绪训练数据集对递归神经网络模型进行模型迭代训练,得到预置的文本情绪分析模型,所述预置的文本情绪分析模型包括所述输入层、所述召回层、所述增强分类层和所述输出层。
5.根据权利要求1-3中任意一项所述的用户情绪识别与预测方法,其特征在于,在所述通过所述文本情绪分析模型中的输出层输出用户情绪类型,并将所述用户情绪类型发送至目标终端,以使得所述目标终端按照所述用户情绪类型显示对应的情绪图像信息之后,所述用户情绪识别与预测方法还包括:
获取用户唯一标识和用户基本信息,并根据所述用户唯一标识将所述负面情绪标签数据存储至预设的数据库中;
按照所述用户基本信息和所述负面情绪标签数据构建用户情绪画像,所述用户情绪画像包括用户情绪级别、预警级别以及预警次数;
基于所述用户情绪画像生成情绪分析报告和情绪预警信息,并将所述情绪分析报告和所述情绪预警信息推送至所述目标终端。
6.一种用户情绪识别与预测装置,其特征在于,所述用户情绪识别与预测装置包括:
识别模块,用于获取用户情感识别请求,并通过预设的自动语音识别模型对所述用户情感识别请求进行语音识别处理,得到初始文本信息;
预处理模块,用于通过预置的文本情绪分析模型中输入层对所述初始文本信息进行数据预处理,得到目标文本信息;
标注模块,用于通过所述文本情绪分析模型中召回层对所述目标文本信息进行情绪标注处理,得到负面情绪标签数据和正面情绪标签数据,所述召回层包括预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;
确定模块,用于当所述负面情绪标签数据为空值时,确定用户情绪类型为正面情绪类型;
预测模块,用于当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层对所述负面情绪标签数据和所述正面情绪标签数据进行情绪预测处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型;
发送模块,用于通过所述文本情绪分析模型中的输出层输出用户情绪类型,并将所述用户情绪类型发送至目标终端,以使得所述目标终端按照所述用户情绪类型显示对应的情绪图像信息;
所述标注模块,具体用于:将所述目标文本信息输入至所述文本情绪分析模型中召回层,并通过预置的情绪关键词匹配子模型对所述目标文本信息进行负面情绪关键词匹配,得到目标关键词,所述召回层包括所述预置的情绪关键词匹配子模型、预置的新词发现子模型和预置的分类子模型;基于所述预置的新词发现子模型对所述目标文本信息进行序列识别,得到目标新词汇;调用所述预置的分类子模型对目标文本信息进行情绪分类处理,得到负面情绪分类数据;对所述目标关键词、所述目标新词汇和所述负面情绪分类数据进行数据统计分析和情绪标签化,得到负面情绪标签数据和正面情绪标签数据;
所述预测模块,具体用于:当所述负面情绪标签数据不为空值时,通过所述文本情绪分析模型中增强分类层,按照预设的增强策略对所述负面情绪标签数据进行数据增强处理,得到增强后的负面情绪数据;通过训练好的二分类模型对所述正面情绪标签数据和所述增强后的负面情绪数据进行分类处理,得到用户情绪类型,所述用户情绪类型为正面情绪类型或负面情绪类型。
7.一种用户情绪识别与预测设备,其特征在于,所述用户情绪识别与预测设备包括:存储器和至少一个处理器,所述存储器中存储有计算机程序;
所述至少一个处理器调用所述存储器中的所述计算机程序,以使得所述用户情绪识别与预测设备执行如权利要求1-5中任意一项所述的用户情绪识别与预测方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-5中任意一项所述的用户情绪识别与预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111229784.1A CN113990352B (zh) | 2021-10-22 | 2021-10-22 | 用户情绪识别与预测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111229784.1A CN113990352B (zh) | 2021-10-22 | 2021-10-22 | 用户情绪识别与预测方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113990352A CN113990352A (zh) | 2022-01-28 |
CN113990352B true CN113990352B (zh) | 2023-05-30 |
Family
ID=79740120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111229784.1A Active CN113990352B (zh) | 2021-10-22 | 2021-10-22 | 用户情绪识别与预测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113990352B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114662499A (zh) * | 2022-03-17 | 2022-06-24 | 平安科技(深圳)有限公司 | 基于文本的情绪识别方法、装置、设备及存储介质 |
CN114579751A (zh) * | 2022-04-07 | 2022-06-03 | 深圳追一科技有限公司 | 情绪分析方法、装置、电子设备及存储介质 |
CN117122289B (zh) * | 2023-09-12 | 2024-03-19 | 中国人民解放军总医院第一医学中心 | 一种疼痛评定方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6275806B1 (en) * | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
CN109492226B (zh) * | 2018-11-10 | 2023-03-24 | 上海五节数据科技有限公司 | 一种提高情感倾向占比低文本预断准确率的方法 |
CN111178399A (zh) * | 2019-12-13 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 数据处理方法及装置、电子设备和计算机可读存储介质 |
CN111931516A (zh) * | 2020-08-25 | 2020-11-13 | 汪金玲 | 一种基于强化学习的文本情感分析方法及系统 |
CN112862305A (zh) * | 2021-02-03 | 2021-05-28 | 北京百度网讯科技有限公司 | 确定对象风险状态的方法、装置、设备和存储介质 |
-
2021
- 2021-10-22 CN CN202111229784.1A patent/CN113990352B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113990352A (zh) | 2022-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111046133B (zh) | 基于图谱化知识库的问答方法、设备、存储介质及装置 | |
CN113990352B (zh) | 用户情绪识别与预测方法、装置、设备及存储介质 | |
CN113449099B (zh) | 文本分类方法和文本分类设备 | |
CN113094578B (zh) | 基于深度学习的内容推荐方法、装置、设备及存储介质 | |
CN110033760A (zh) | 语音识别的建模方法、装置及设备 | |
CN112328742A (zh) | 基于人工智能的培训方法、装置、计算机设备及存储介质 | |
CN113656547B (zh) | 文本匹配方法、装置、设备及存储介质 | |
CN113254613B (zh) | 对话问答方法、装置、设备及存储介质 | |
CN111145903A (zh) | 获取眩晕症问诊文本的方法、装置、电子设备及问诊系统 | |
CN112562736A (zh) | 一种语音数据集质量评估方法和装置 | |
CN111180025A (zh) | 表示病历文本向量的方法、装置及问诊系统 | |
CN113268576A (zh) | 一种基于深度学习的部门语义信息抽取的方法及装置 | |
CN111783425B (zh) | 基于句法分析模型的意图识别方法及相关装置 | |
CN113255319A (zh) | 模型训练方法、文本分段方法、摘要抽取方法及装置 | |
CN115292492A (zh) | 意图分类模型的训练方法、装置、设备及存储介质 | |
CN113095073B (zh) | 语料标签生成方法、装置、计算机设备和存储介质 | |
CN115357720A (zh) | 基于bert的多任务新闻分类方法及装置 | |
CN114974310A (zh) | 基于人工智能的情感识别方法、装置、计算机设备及介质 | |
CN112071304B (zh) | 一种语意分析方法及装置 | |
CN111506764B (zh) | 音频数据筛选方法、计算机设备和存储介质 | |
CN114398482A (zh) | 一种词典构造方法、装置、电子设备及存储介质 | |
CN114528851A (zh) | 回复语句确定方法、装置、电子设备和存储介质 | |
CN115081441A (zh) | 运维指令意图识别方法、装置、电子设备和存储介质 | |
CN115618968B (zh) | 新意图发现方法、装置、电子设备及存储介质 | |
CN113704405B (zh) | 基于录音内容的质检评分方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40062901 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |