CN117133413A - 一种基于nlp的用户心理状态评估方法及系统 - Google Patents
一种基于nlp的用户心理状态评估方法及系统 Download PDFInfo
- Publication number
- CN117133413A CN117133413A CN202311401503.5A CN202311401503A CN117133413A CN 117133413 A CN117133413 A CN 117133413A CN 202311401503 A CN202311401503 A CN 202311401503A CN 117133413 A CN117133413 A CN 117133413A
- Authority
- CN
- China
- Prior art keywords
- emotion
- primary
- vector
- dialogue
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000008451 emotion Effects 0.000 claims abstract description 490
- 230000006996 mental state Effects 0.000 claims abstract description 39
- 230000008569 process Effects 0.000 claims abstract description 19
- 230000004044 response Effects 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 484
- 230000010354 integration Effects 0.000 claims description 69
- 239000012634 fragment Substances 0.000 claims description 56
- 230000003993 interaction Effects 0.000 claims description 53
- 230000004927 fusion Effects 0.000 claims description 44
- 238000005728 strengthening Methods 0.000 claims description 25
- 238000011156 evaluation Methods 0.000 claims description 19
- 230000004913 activation Effects 0.000 claims description 15
- 230000002776 aggregation Effects 0.000 claims description 14
- 238000004220 aggregation Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 10
- 230000003213 activating effect Effects 0.000 claims description 4
- 238000013210 evaluation model Methods 0.000 claims description 3
- 230000002787 reinforcement Effects 0.000 claims description 2
- 238000003058 natural language processing Methods 0.000 abstract description 22
- 238000013461 design Methods 0.000 abstract description 3
- 230000002996 emotional effect Effects 0.000 description 47
- 208000019901 Anxiety disease Diseases 0.000 description 40
- 230000036506 anxiety Effects 0.000 description 40
- 230000036651 mood Effects 0.000 description 11
- 206010048909 Boredom Diseases 0.000 description 10
- 238000001994 activation Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 239000000090 biomarker Substances 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 208000004077 Professional Burnout Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7405—Details of notification to user or communication with user or patient ; user input means using sound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种基于NLP的用户心理状态评估方法及系统,包括:首先,响应于目标用户正确佩戴心理状态评估设备的指令,进行设备初始化操作。该设备包括扬声器和麦克风。随后,通过扬声器播放预设内容,通过麦克风采集目标用户对预设内容的反馈。利用这些信息,构建待解析对话。最后,调用预先训练的NLP模型处理待解析对话,得到与之对应的用户心理状态评估结果。如此设计,通过实现对用户口头反馈的自然语言处理,提供了一种实时、精准的用户心理状态评估方式,相比于传统的心理评估,不仅显著提高了评估效率,而且由于采用预先训练的NLP模型,其评估结果更为准确,能够捕捉并理解用户在对话中表达出的情绪变化。
Description
技术领域
本发明涉及人工智能领域,具体而言,涉及一种基于NLP的用户心理状态评估方法及系统。
背景技术
目前,心理状态评估主要依赖于专业心理咨询师通过面对面的交谈和专业的心理测试进行。
此外,也有一些利用问卷、生物标志物等方式进行的心理状态评估。
然而,这些方法通常需要大量的人力、物力和时间投入,且难以实现实时、连续的心理状态监测。
而传统的心理状态评估方法不能满足大规模用户的需求,而且在准确性、实时性和连续性方面都存在一定的局限。
例如,面对面的交谈和专业的心理测试往往受到时间和地点的限制,不能实现远程和连续的心理状态评估。
问卷和生物标志物虽然可以进行远程评估,但其准确性和实时性往往较差。
发明内容
本发明的目的在于提供一种基于NLP的用户心理状态评估方法及系统。
第一方面,本发明实施例提供一种基于NLP的用户心理状态评估方法,包括:
响应于目标用户正确佩戴心理状态评估设备的指令,对心理状态评估设备进行初始化操作,心理状态评估设备包括扬声器和麦克风;
通过扬声器播放预设内容,并通过麦克风采集目标用户针对预设内容的反馈内容;
根据预设内容和反馈内容构建待解析对话;
调用预先训练的NLP模型对待解析对话进行处理,得到待解析对话对应的用户心理状态评估结果。
第二方面,本发明提供一种服务器系统,包括服务器,服务器用于执行第一方面的方法。
相比现有技术,本发明提供的有益效果包括:采用本发明实施例提供的基于NLP的用户心理状态评估方法及系统,通过响应于目标用户正确佩戴心理状态评估设备的指令,进行设备初始化操作。
该设备包括扬声器和麦克风。
随后,通过扬声器播放预设内容,通过麦克风采集目标用户对预设内容的反馈。
利用这些信息,构建待解析对话。
最后,调用预先训练的NLP模型处理待解析对话,得到与之对应的用户心理状态评估结果。
如此设计,通过实现对用户口头反馈的自然语言处理,提供了一种实时、精准的用户心理状态评估方式,相比于传统的心理评估,不仅显著提高了评估效率,而且由于采用预先训练的NLP模型,其评估结果更为准确,能够捕捉并理解用户在对话中表达出的情绪变化。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍。
应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定。
对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的一种基于NLP的用户心理状态评估方法的步骤流程示意图;
图2为本发明实施例提供的计算机设备结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
为了解决前述背景技术中的技术问题,图1为本公开实施例提供的基于NLP的用户心理状态评估方法的步骤流程示意图,下面对该基于NLP的用户心理状态评估方法进行详细介绍。
步骤S201,响应于目标用户正确佩戴心理状态评估设备的指令,对心理状态评估设备进行初始化操作,心理状态评估设备包括扬声器和麦克风。
步骤S202,通过扬声器播放预设内容,并通过麦克风采集目标用户针对预设内容的反馈内容。
步骤S203,根据预设内容和反馈内容构建待解析对话。
步骤S204,调用预先训练的NLP模型对待解析对话进行处理,得到待解析对话对应的用户心理状态评估结果。
在本发明实施例中,假设目标用户刚从工作中抽离出来,希望进行一次心理状态评估。
他在舒适的客厅里坐下,正确地佩戴上了心理状态评估设备,这是一款设计精美、舒适易用的智能耳机。
在接收到目标用户清晰而坚定的"开始评估"口头指令后,设备立即启动,指示灯闪烁,表示已经准备好开始。
目标用户的耳机开始播放一段平静而悦耳的音乐,之后女性语音温和地提出第一个问题:“你最近有没有感觉特别紧张或者焦虑?” 目标用户听到问题后,思考了片刻,然后回答:“嗯,我感觉我最近工作压力比较大,确实有些焦虑” 。
这个回答被麦克风清晰地采集并记录下来。
设备在后台将提出的问题和目标用户的回答结合在一起,形成了一条完整的对话。
例如,“问题:你最近有没有感觉特别紧张或者焦虑?回答:嗯,我感觉我最近工作压力比较大,确实有些焦虑”。
设备接着使用内置的语言理解系统分析这个对话,推断出目标用户可能正在经历工作压力导致的轻度焦虑。
然后设备根据这个结果制定出相应的建议,如引导目标用户进行一些深呼吸练习,或者建议他尝试听一些放松的音乐,甚至如果情况需要,可以提示他寻求专业的心理咨询帮助。
示例性的,假设现在有一位用户名叫小王。
他感觉自己最近工作压力过大,心情总是低落,于是决定使用我们的心理状态评估设备来了解一下自己的心理状况。
他正确地戴上了设备,并发出了"开始评估"的口头指令。
设备成功初始化后,开始播放预设内容,询问:“你最近是否常常感到疲倦或者缺乏动力?”小王听完问题后,回答说:“是的,我经常感到很疲劳,每天下班后就没有任何精力去做其他事情了” 。
这就是小王对预设内容的反馈,他的反馈被设备的麦克风准确采集并记录下来。
接着,设备将这个问题和小王的反馈组成待解析对话,例如,“问题:你最近是否常常感到疲倦或者缺乏动力?回答:是的,我经常感到很疲劳,每天下班后就没有任何精力去做其他事情了” 。
之后,通过调用预先训练的NLP模型,设备处理了这段对话,推断出小王可能正在遭受职业倦怠,进而为他提供了一些相关的建议,如改变工作方式,做适量运动,以及寻找合适的放松方法等。
在本发明实施例中,前述步骤S204可以通过以下详细的方式执行实施。
(1)将待解析对话输入预先训练的NLP模型中进行拆分,获得多对话片段,并抽取每一对话片段的特征向量,形成对话片段向量。
在本发明实施例中,假设目标用户在与设备的交互过程中提到了“我最近工作压力比较大,确实有些焦虑”。
这段对话被输入到一个预先训练好的NLP模型中。
该模型可以是基于深度学习的,如BERT或GPT,也可以是基于规则的或其他类型的模型。
模型首先会识别出这段对话的语法结构和语义内容,然后将其拆分为两个对话片段:“我最近工作压力比较大”和“确实有些焦虑”。
接下来,模型从每一个对话片段中抽取出关键的向量,这可以包括情感倾向(正面、负面或中性)、主题(如“工作压力”)以及具体的情绪状态(如“焦虑”)。
所有这些向量都会被记录下来,形成对话片段向量。
在本发明实施例中,在对话被输入到模型后,模型会进行语法结构和语义内容的识别,包括词性标注、命名实体识别以及依存句法分析等步骤,从而深入理解每个词语和句子的含义以及它们之间的关系;接着,模型将对话拆分为多个对话片段,使得每个片段都包含一个独立的思想或情绪。
这一步可能涉及到断句任务,需要模型正确地找到句子的边界并进行拆分;随后,模型会从每个对话片段中抽取关键的向量,包括情感倾向、主题以及具体的情绪状态等。
情感倾向是通过情感分析来判断的(模型通过情感分析来判断每个对话片段的情感倾向。
具体来说,它会计算每个词的情感得分,并根据词语间的关系(如否定、强调等)调整这些得分,最后将所有得分合并得到整个句子的情感倾向),主题是通过主题建模来识别的(模型通过主题建模来识别对话片段的主题。
它会将每个词映射到一个高维空间(称为嵌入空间),在这个空间中,语义相近的词会被映射到相近的位置。
然后,模型会找出对话片段中所有词的共同特征,作为该片段的主题),具体的情绪状态则可能涉及到文本分类任务(此外,模型还会尝试抽取具体的情绪状态,例如“压力大”或“焦虑”。
这可能涉及到文本分类任务,模型需要根据训练数据学习到如何从文本中识别出各种情绪状态)。
最后,所有抽取出的向量都被记录下来,形成对话片段向量。
这些向量构成了一个多维度的数据集,为后续的用户心理状态评估提供了基础。
(2)将对话片段向量逐一拆分,产生对话片段向量相应的初级情绪标签,构建初级情绪标签组,同时产生对话片段向量相应的次级情绪标签,构建次级情绪标签组。
在本发明实施例中,可以将这些对话片段向量进一步拆分和分类。
例如,“工作压力大”可以被拆分为初级情绪标签“压力”和次级情绪标签“工作”。
同样,“焦虑”可以直接被标记为初级情绪标签“焦虑”。
在这个过程中,初级情绪标签通常指的是具体的情绪状态(如快乐、悲伤、愤怒、压力等),而次级情绪标签则更多地反映了引发这些情绪的具体因素(如工作、家庭、健康等)。
所有的这些标签都会被存储起来,以备后续分析使用。
(3)计算初级情绪标签之间的向量关联程度,根据向量关联程度决定初级情绪标签之间的情感相互作用。
在本发明实施例中,可以通过内置的算法来分析每一个初级情绪标签之间的关联程度。
在前述例子中,可以发现当用户谈到“压力”时,他们也很会提到“焦虑”,因此这两个初级情绪标签之间存在较高的关联程度。
示例性的,已经从目标用户的对话中提取出了两个初级情绪标签:“压力”和“焦虑”。现在,需要确定这两个标签之间的关联程度。
为此,可以利用关联规则学习的数据挖掘技术,关联规则学习的目标是发现大量数据中的有趣关系,比如“如果...那么...”类型的模式。
在前述场景中,它可以被用来发现各种情绪标签之间的关系。
例如,已经通过分析大量用户对话数据,发现当用户谈到“压力”时,他们也很会提到“焦虑”。
更具体地说,假设系统在过去的100次对话中,有50次对话中同时出现了“压力”和“焦虑”。
那么,“压力”和“焦虑”之间的关联程度就可以简单地计算为50/100=0.5。
这个数值越接近1,表示这两个情绪标签之间的关联程度越高;反之,如果这个数值越接近0,表示它们之间的关联程度越低。
基于这样的分析,会判断目标用户谈到“压力”时也会感到“焦虑”,因此决定在生成心理状态评估结果时,需要将这两个标签之间的关联考虑进去。
在本发明实施例的其他实施方中,还通过计算它们共同出现的频率、基于上下文的语义相似度,或者其他更复杂的算法来实现。
比如,可以会找到大量的对话数据,然后统计在提到“压力”时同时提到“焦虑”的频率有多高。
如果这个频率非常高,那么系统就会判断这两个初级情绪标签之间有很强的关联程度,即它们有较强的情感相互作用。
(4)将初级情绪标签逐一作为网络交互元素,并按照情感相互作用将初级情绪标签进行相连,形成初级情绪网络。
在本发明实施例中,可以构建一个初级情绪网络。
这是一个图形化的网络,在其中每一个节点代表一个初级情绪标签,而每一条边则表示两个标签之间的情感相互作用。
例如,“压力”和“焦虑”这两个节点之间会有一条边,其权重等于它们之间的关联程度。
通过这样的方式,系统可以直观地理解和表示各种不同的情绪状态之间的关系。
(5)根据每一对话片段的对话次序决定对话片段向量相应的次级情绪标签的向量位置,根据向量位置决定次级情绪标签组中次级情绪标签之间的次序关系。
在本发明实施例中,可以考虑对话的顺序,以确定次级情绪标签的位置。
这是因为在实际的对话中,同一种情绪可能由于不同的原因在不同的时间点被触发。
例如,目标用户首先说“我最近工作压力比较大”,然后才说“确实有些焦虑”。
那么,在分析次级情绪标签(即“工作”)时,系统就需要注意到它出现在“压力”之前,而“压力”又出现在“焦虑”之前。
这样,系统就可以正确地理解这三个标签之间的次序关系。
(6)将次级情绪标签逐一作为网络交互元素,并按照次序关系将次级情绪标签进行相连,形成次级情绪网络。
在本发明实施例中,可以构建一个次级情绪网络。
和初级情绪网络类似,每一个节点代表一个次级情绪标签,而每一条边则表示两个标签之间的次序关系。
例如,“工作”和“压力”这两个节点之间可以有一条边,其方向从“工作”指向“压力”,表示“工作”出现在“压力”之前。
(7)利用初级情绪网络中的初级情绪标签以及初级情绪标签对应的邻近交互元素向量进行向量整合,得到初级情绪标签组中初级情绪标签相应的初级整合向量,并利用次级情绪网络中次级情绪标签以及次级情绪标签对应的邻近交互元素向量进行向量整合,得到次级情绪标签组中次级情绪标签相应的次级整合向量。
在本发明实施例中,可以开始处理这两个情绪网络。
具体来说,它会查看每一个节点(即情绪标签)以及与其相连的其他节点(即邻近交互元素),并根据这些信息来确定每个标签的整合向量。
比如,在初级情绪网络中,“压力”可以与“工作”和“焦虑”相连,因此,“压力”的整合向量就可以包括这两个标签的向量。
同样,在次级情绪网络中,如果“工作”和“家庭”这两个标签都与“压力”相连,那么“工作”的整合向量就可以包括“压力”和“家庭”。
(8)根据同一对话片段向量相应的初级整合向量和次级整合向量进行连接,形成对话片段向量相应的目标对话片段向量,并根据对话片段向量相应的目标对话片段向量进行用户心理状态评估,获得待解析对话对应的用户心理状态评估结果。
在本发明实施例中,可以将每个对话片段的初级整合向量和次级整合向量进行连接,形成了目标对话片段向量。
例如,如果目标用户说“我最近工作压力比较大”,那么这个对话片段的目标对话片段向量就是“工作压力大”。
然后,根据这些目标对话片段向量来评估目标用户的心理状态。
具体来说,它可以会查找过去的数据,看看在其他人说出类似话语时他们的心理状态通常是什么。
然后,基于这些信息,会判断目标用户正在经历工作压力过大,可能感到焦虑或者疲劳。
在本发明实施例中,前述抽取每一对话片段的特征向量,形成对话片段向量的步骤,可以通过以下详细的实施方式执行实施。
(1)抽取每一对话片段的词汇向量,形成对话片段词汇向量。
在本发明实施例中,假设待解析对话是目标用户说的:“我最近工作压力比较大,确实有些焦虑”。
这段对话被分成了两个对话片段:“我最近工作压力比较大”和“确实有些焦虑”。
在这个步骤中,系统将会从每一个对话片段中抽取出词汇向量。
具体来说,可以首先进行词性标注(例如,使用词性标注器或自然语言处理库),将每个单词或短语标记为名词、动词、形容词等。
例如,“工作”可以被标记为名词,“压力大”可以被标记为形容词短语,“焦虑”可以被标记为形容词。
此外,系统还可以会记录每个单词或短语的频率,例如,“工作”和“压力”都出现了一次,而“焦虑”出现了两次。
所有这些信息都构成了对话片段的词汇向量。
(2)读取每一对话片段的对话次序,将每一对话片段的对话次序进行数值化,形成对话片段位置向量。
在本发明实施例中,可以读取每一个对话片段在整个对话中的次序,并将这些次序进行数值化。
具体来说,会给每一个对话片段分配一个唯一的序号,表示它在对话中出现的顺序。
例如,“我最近工作压力比较大”可能被分配了序号1,因为它是目标用户首先说的,而“确实有些焦虑”则被分配了序号2,因为它是接下来说的。
这些序号就构成了对话片段的位置向量。
(3)将对话片段词汇向量和相应的对话片段位置向量进行整合,形成对话片段向量。
在本发明实施例中,可以将每个对话片段的词汇向量和位置向量进行整合,形成了对话片段向量。
这个过程可能涉及到数据结构的转换和存储。
例如,会创建一个新的数据结构(如字典或类),其中每个条目都包含一个对话片段的词汇向量和位置向量。
以“我最近工作压力比较大”为例,其对应的对话片段向量可能看起来像这样:{"词汇向量": {"工作": "名词", "压力大": "形容词短语"}, "位置向量": 1}。
通过这种方式,能够将所有关于一个对话片段的信息整合在一起,以便进行后续的处理和分析。
在本发明实施例中,前述利用初级情绪网络中的初级情绪标签以及初级情绪标签对应的邻近交互元素向量进行向量整合,得到初级情绪标签组中初级情绪标签相应的初级整合向量的步骤,可以通过以下步骤执行实施。
(1)计算初级情绪标签对应的邻近交互元素向量的平均向量,形成初级平均向量,并计算初级情绪标签与初级情绪标签对应的邻近交互元素向量之间的差异向量,形成初级差异向量。
在本发明实施例中,例如已经从目标用户的对话中识别出了两个初级情绪标签:“压力”和“焦虑”。
这两个标签在初级情绪网络中都连接到了“工作”这个节点。
假设系统具有大量关于“压力”和“焦虑”的历史数据,它会分析所有标记为“压力”的对话片段,并计算他们的词汇向量或位置向量的平均值,形成初级平均向量。
例如,“压力”的初级平均向量可能包括最常见的相关词汇(例如,“工作”和“困难”)以及它们在对话中出现的平均位置。
然后,计算初级情绪标签与其邻近交互元素向量之间的差异向量。
例如,如果在目标用户的对话中,“压力”主要与“工作”相关,并且出现在对话的开始,那么这些特征就可能被认为是初级差异向量。
示例性的,若已经建立了一个初级情绪网络,其中包含三个节点:“压力”,“焦虑”和“工作”,以及两条边:从“压力”到“工作”和从“焦虑”到“工作”。
每个节点都有一个属性向量,这可能是基于词嵌入模型(如Word2Vec或GloVe)得到的。
首先,需要计算每个初级情绪标签对应的邻近交互元素向量的平均向量。
例如,对于“压力”,其邻近交互元素是“工作”,因此计算“压力”和“工作”的属性向量的平均值,得到初级平均向量。
然后,需要计算初级情绪标签与邻近交互元素向量之间的差异向量。
这可能通过计算它们的属性向量的欧几里得距离或余弦相似度来实现。
(2)将初级情绪标签、初级差异向量和初级平均向量进行连接,形成初级连接向量,并根据初级连接向量进行完全交互处理,得到初级情绪标签对应的初级整合向量。
在本发明实施例中,可以把初级情绪标签(例如,“压力”)、初级差异向量和初级平均向量进行连接,形成初级连接向量。
这个过程可能涉及到一些数据转换和编码技术。
例如,会创建一个新的特征向量来表示初级连接向量,其中包括每个初级情绪标签的独热编码,以及其初级差异向量和初级平均向量的数值表示。
然后,会利用深度学习模型(例如,神经网络或长短期记忆网络)来处理这些初级连接向量,并生成初级整合向量。
这个过程可能涉及到词嵌入学习、序列建模、注意力机制等技术。
示例性的,可以将初级情绪标签、初级差异向量和初级平均向量进行连接,形成初级连接向量。
具体来说,这可能通过简单地将这些属性向量串联在一起来实现。
然后,需要根据初级连接向量进行完全交互处理。
这可能涉及到一些深度学习技术,例如使用一个多层感知机(MLP)或者自注意力机制(self-attention mechanism)来处理这些初级连接向量,得到初级整合向量。
(3)遍历初级情绪网络中的初级情绪标签,得到初级情绪标签组中初级情绪标签相应的初级整合向量。
在本发明实施例中,可以会遍历初级情绪网络中的所有初级情绪标签,并获取它们的初级整合向量。
具体来说,会创建一个迭代器来遍历每个节点,并通过查询已经计算好的初级整合向量来获取相关信息。
例如,当系统访问“压力”这个节点时,它会从存储器中检索到关于“压力”的初级整合向量,包括其平均向量、差异向量以及由深度学习模型生成的其他特征。
这样,系统就能够得到初级情绪标签组中每个标签的初级整合向量,为后续的用户心理状态评估提供数据支持。
在本发明实施例中,前述利用次级情绪网络中次级情绪标签以及次级情绪标签对应的邻近交互元素向量进行向量整合,得到次级情绪标签组中次级情绪标签相应的次级整合向量的步骤,可以通过以下具体的实施方式执行实施。
(1)计算次级情绪标签对应的邻近交互元素向量的综合表达,形成次级综合向量,并计算次级情绪标签与次级情绪标签对应的邻近交互元素向量之间的向量异同,形成次级异同向量。
(2)将次级情绪标签、次级异同向量和次级综合向量进行连接,形成次级连接向量,并根据次级连接向量进行完全交互处理,得到次级情绪标签对应的次级整合向量。
(3)遍历次级情绪网络中的次级情绪标签,得到次级情绪标签组中次级情绪标签相应的次级整合向量。
在本发明实施例中,首先,可以假设次级情绪标签有"厌烦"和"紧张",它们都与"工作"这个元素有关联。
在计算次级综合向量时,会分析所有标记为"厌烦"或"紧张"的对话片段,并从中提取词汇向量和位置向量。
例如,"厌烦"相关的对话片段可能常常包含"任务"、"压力"等词汇,并且通常出现在对话的后半部分,那么这些特征就可能被视为"厌烦"的次级综合向量。
同时,也会比较次级情绪标签与邻近交互元素向量之间的异同。
例如,如果发现"厌烦"主要与"工作"相关,但是在目标用户的对话中,"厌烦"更多地与"家庭"相关,那么这种差异就可能被视为次级异同向量。
接下来,可以将次级情绪标签(如"厌烦"、"紧张")、次级异同向量和次级综合向量进行连接,形成次级连接向量。
例如,会创建一个新的特征向量,其中包括每个次级情绪标签的独热编码(如"厌烦"为[1, 0],"紧张"为[0, 1]),以及其次级异同向量和次级综合向量的数值表示。
然后,会利用深度学习模型进行处理,例如输入到一个神经网络中,通过隐藏层的非线性变换和激活函数,最终生成次级整合向量。
这个过程会考虑词嵌入学习、序列建模、注意力机制等多种技术。
最后,可以遍历整个次级情绪网络,得到每个次级情绪标签对应的次级整合向量。
例如,当系统访问"厌烦"这个节点时,它会从存储器中检索到关于"厌烦"的次级整合向量,这可能包括其与"工作"的关联程度、在对话中出现的位置、出现频率等信息,还可能包括由深度学习模型生成的特征,比如基于上下文理解的情感倾向等。
这样,系统就能够得到次级情绪标签组中每个标签的次级整合向量,从而为更深层次的用户心理状态评估提供支持。
在本发明实施例中,前述根据同一对话片段向量相应的初级整合向量和次级整合向量进行连接,形成对话片段向量相应的目标对话片段向量,并根据对话片段向量相应的目标对话片段向量进行用户心理状态评估,获得待解析对话对应的用户心理状态评估结果的步骤,可以通过以下详细的示例执行实施。
(1)获取初级信息强化参数,根据初级信息强化参数对初级情绪标签组中各个初级情绪标签相应的初级融合向量进行深层感情理解,形成初级深层对话理解,并计算初级深层对话理解对应的统计偏差值,形成初级统计偏差值。
(2)将初级情绪标签组中各个初级情绪标签相应的初级融合向量进行加权,得到初级情绪标签组中各个初级情绪标签相应的初级加权向量。
(3)计算初级加权向量与初级统计偏差值的乘积,得到初级情绪标签组中各个初级情绪标签相应的初级信息强化向量。
(4)根据初级信息强化参数对次级情绪标签组中次级情绪标签相应的次级整合向量进行深层感情理解,形成次级深层对话理解,并计算次级深层对话理解对应的统计偏差值,形成次级统计偏差值。
(5)将次级情绪标签组中次级情绪标签相应的次级整合向量进行加权,形成次级加权向量。
(6)计算次级加权向量与次级统计偏差值的乘积,得到次级情绪标签组中次级情绪标签相应的次级信息强化向量。
(7)将同一对话片段向量相应的初级信息强化向量和次级信息强化向量进行连接,形成对话片段向量相应的强化对话片段向量。
(8)将对话片段向量相应的强化对话片段向量进行划分,形成初级强化情绪标签组、次级强化情绪标签组和高级强化情绪标签组,其中,次级强化情绪标签组中次级强化情绪标签的数目和高级强化情绪标签组中高级强化情绪标签的数目之和与次级情绪标签的数目一致。
(9)根据初级强化情绪标签组中各个初级强化情绪标签之间的关联程度建立初级强化情绪标签组对应的初级强化情绪网络,并根据每一对话片段的对话次序建立次级强化情绪标签组对应的次级强化情绪网络。
(10)根据每一对话片段的对话次序确定高级强化情绪标签组中各个高级强化情绪标签相应的相邻强化情绪标签,从各个高级强化情绪标签中选取当前向量和目标向量。
(11)根据每一对话片段的对话次序从各个高级强化情绪标签中确定当前向量对应的各个当前相邻向量,将各个当前相邻向量进行信息聚合,形成当前聚合相邻向量。
(12)根据每一对话片段的对话次序从各个高级强化情绪标签中确定目标向量对应的各个目标相邻向量,将各个目标相邻向量进行信息聚合,形成目标聚合相邻向量。
(13)计算当前聚合相邻向量与目标聚合相邻向量的关联程度,得到当前向量和目标向量之间的关联程度。
(14)遍历各个高级强化情绪标签,得到各个高级强化情绪标签相应的相邻强化情绪标签之间的关联程度,将各个高级强化情绪标签相应的相邻强化情绪标签之间的关联程度作为各个高级强化情绪标签之间的目标关联程度。
(15)根据目标关联程度确定各个高级强化情绪标签之间的目标连接关系,并将各个高级强化情绪标签分别作为网络交互元素,按照目标连接关系将各个高级强化情绪标签进行相连,得到高级强化情绪网络。
(16)利用初级强化情绪网络中的初级强化情绪标签和初级强化情绪标签对应的邻近交互元素向量进行向量整合,得到初级强化情绪标签组中初级强化情绪标签相应的初级融合强化向量。
(17)利用次级强化情绪网络中的次级强化情绪标签和次级强化情绪标签对应的邻近交互元素向量进行向量整合,得到次级强化情绪标签组中次级强化情绪标签相应的次级融合强化向量。
(18)利用高级强化情绪网络中的高级强化情绪标签和高级强化情绪标签对应的邻近交互元素向量进行向量整合,得到高级强化情绪标签组中高级强化情绪标签相应的高级融合强化向量。
(19)获取次级信息强化参数,根据次级信息强化参数将初级强化情绪标签组中各个初级强化情绪标签相应的初级融合强化向量进行激活,得到初级强化情绪标签组中各个初级强化情绪标签相应的初级激活向量。
(20)根据次级信息强化参数将次级强化情绪标签组中各个次级强化情绪标签相应的次级融合强化向量进行激活,得到次级强化情绪标签组中各个次级强化情绪标签相应的次级激活向量。
(21)根据次级信息强化参数对高级强化情绪标签组中各个高级强化情绪标签相应的高级融合强化向量进行深层感情理解,形成高级深层对话理解,并计算高级深层对话理解对应的统计偏差值,形成高级统计偏差值。
(22)将高级强化情绪标签组中各个高级强化情绪标签相应的高级融合强化向量进行加权,得到高级强化情绪标签组中各个高级强化情绪标签相应的高级加权向量。
(23)计算高级加权向量与高级统计偏差值的乘积,得到高级强化情绪标签组中各个高级强化情绪标签相应的高级激活向量。
(24)将同一对话片段向量相应的初级激活向量、次级激活向量和高级激活向量进行连接,形成对话片段向量相应的目标强化对话片段向量。
(25)根据对话片段向量相应的目标强化对话片段向量进行用户心理状态评估,得到待解析对话对应的强化用户心理状态评估结果。
在本发明实施例中,首先,可以通过自身参数或外部资源获取初级信息强化参数,然后利用这些参数对目标用户在对话中表达出的初级情绪,如“压力”和“焦虑”,进行深层感情理解,即初级深层对话理解。
然后,系统计算出这种深层理解与实际观察到的情绪之间的统计偏差值,即初级统计偏差值。
例如,如果目标用户表达的压力水平在统计上显著高于或低于普通人群,那么这种偏差就会被记录下来。
接下来,可以会对初级情绪标签组中的各个初级情绪标签相应的初级融合向量进行加权处理。
例如,如果系统发现目标用户对“压力”这个主题讨论得更多,那么“压力”这个初级情绪标签的权重可能就会提高,反之亦然。
这样,就得到了每个初级情绪标签的初级加权向量。
接着,可以计算初级加权向量与初级统计偏差值的乘积。
例如,如果目标用户对"压力"的讨论比较多(高的初级加权向量),并且他的压力水平在统计上显著高于普通人群(高的初级统计偏差值),那么"压力"这个初级情绪标签的信息强化向量就会相应地提高。
示例性的,如果发现目标用户在讨论工作时经常表现出"厌烦"和"紧张"的情绪(次级情绪标签),那么它会通过类似的方式计算这些次级情绪标签的次级整合向量、次级加权向量和次级信息强化向量。
具体来说,会分析所有标记为"厌烦"或"紧张"的对话片段,并从中提取词汇向量和位置向量。
然后,会利用深度学习模型进行处理,例如输入到一个神经网络中,最终生成次级整合向量。
接下来,对次级整合向量进行加权处理,并计算次级加权向量与次级统计偏差值的乘积,得到次级信息强化向量。
然后,可以将初级信息强化向量和次级信息强化向量连接起来,形成一个更为复杂和详尽的对话片段向量,即强化对话片段向量。
例如,如果在同一对话片段中,目标用户既表达了高度的"压力"(初级情绪),又表现出明显的"厌烦"和"紧张"(次级情绪),那么这个对话片段的强化对话片段向量就可能包含"压力"、"厌烦"和"紧张"等多个方面的信息。
然后,可以将目标用户的强化对话片段向量进一步划分为初级强化情绪标签组、次级强化情绪标签组和高级强化情绪标签组。
比如,目标用户的对话内容可以被划分为与“压力”相关的初级强化情绪标签,“厌烦”和“紧张”等次级强化情绪标签,以及由此派生出的“工作满意度低”等高级强化情绪标签。
接下来,可以构建初级强化情绪网络和次级强化情绪网络,分析目标用户在讨论特定主题(如工作)时的情绪变化和趋势。
此外,也会在高级强化情绪标签组中确定每个标签相邻的强化情绪标签,并选择当前向量和目标向量。
例如,如果系统发现目标用户最近经常在谈作压力时表现出厌烦和紧张,那么这些情绪就可能被视为当前向量,而目标用户希望减轻工作压力的愿望可能被视为目标向量。
接着,可以分析目标用户在谈作压力时的情绪变化,并将这些相关的情绪标签(如“厌烦”和“紧张”)聚合起来,形成当前聚合相邻向量。
同样,也会分析目标用户在谈论希望减轻工作压力时的情绪变化,并将这些相关的情绪标签聚合起来,形成目标聚合相邻向量。
然后,计算当前聚合相邻向量与目标聚合相邻向量的关联程度,以此了解目标用户当前的心理状态与他期望的心理状态之间的差距。
接下来,可以遍历所有高级强化情绪标签,例如“工作满意度低”,并计算每一个高级强化情绪标签与其相邻强化情绪标签之间的关联程度。
这个关联程度可以帮助系统理解目标用户当前的心理状态和他期望的心理状态之间的差距有多大。
然后,构建一个高级强化情绪网络,该网络包含了所有的高级强化情绪标签,以及这些标签之间的目标连接关系。
然后,可以分别在初级、次级和高级强化情绪网络中,整合每个情绪标签及其邻近交互元素的向量。
例如,在初级强化情绪网络中,“压力”这个标签可能与“疲劳”、“焦虑”等其他情绪标签有关,整合这些向量得到“压力”的初级融合强化向量。
同样的处理也适用于次级和高级强化情绪网络。
然后,可以利用次级信息强化参数,对初级、次级和高级强化情绪标签组中的各个强化情绪标签进行激活处理。
例如,会使用某种深度学习模型,比如神经网络,对“压力”的初级融合强化向量进行激活,得到初级激活向量。
同样的过程也会应用于次级和高级强化情绪标签。
然后,可以将初级、次级和高级激活向量连接起来,形成目标强化对话片段向量。
然后,系统根据这些向量对目标用户的心理状态进行评估。
例如,如果目标用户的“压力”、“厌烦”和“紧张”的情绪标签都被激活,并且他经常谈论希望减轻工作压力,那么会评估出目标用户当前正在经历重大的工作压力,并需要寻求帮助。
在本发明实施例中,还提供了以下实施例。
(1)将目标强化对话片段向量作为强化对话片段向量,并返回将对话片段向量相应的强化对话片段向量进行划分,形成初级强化情绪标签组、次级强化情绪标签组和高级强化情绪标签组的步骤执行,次级强化情绪标签组中次级强化情绪标签的数目按照预设数目增加,高级强化情绪标签组中高级强化情绪标签的数目按照预设数目减少;
(2)直到达到预设迭代完成条件时,得到对话片段向量相应的最终对话片段向量,并根据对话片段向量相应的最终对话片段向量进行用户心理状态评估,得到待解析对话对应的最终用户心理状态评估结果。
在前述场景中,已经得到了目标用户的目标强化对话片段向量。
接着,可以将这些向量作为强化对话片段向量,并根据这些向量进行划分,形成初级、次级和高级强化情绪标签组。
比如,目标用户在谈作压力时的情绪可以被划分为“压力”(初级情绪),“紧张”和“焦虑”(次级情绪),以及“工作满意度低”(高级情绪)。
然后,调整各级情绪标签的数目,使得次级情绪标签的数目增加,高级情绪标签的数目减少。
这可能意味着尝试更深入地理解目标用户在谈作压力时表现出的具体情绪,而不仅仅是他对工作的总体满意度。
可以持续执行以上的处理步骤,直到达到预设的迭代完成条件。
这个条件可能是一定数量的迭代次数,也可能是某种性能指标达到预设阈值,比如情绪标签的划分精度或者用户心理状态评估的准确度。
当达到这个条件时,得到每个对话片段的最终向量,包括初级、次级和高级情绪标签,以及这些标签的相关向量。
然后,根据这些最终向量对目标用户的心理状态进行最终评估。
例如,如果目标用户的“压力”、“紧张”和“焦虑”的情绪标签都被激活,并且他经常谈论希望减轻工作压力,那么会评估出目标用户当前正在经历重大的工作压力,并需要寻求帮助。
这就是待解析对话对应的最终用户心理状态评估结果。
在本发明实施例中,前述根据对话片段向量相应的目标对话片段向量进行用户心理状态评估,得到待解析对话对应的用户心理状态评估结果的步骤,可以通过以下示例实施。
(1)将对话片段向量相应的目标对话片段向量进行划分,形成初级目标情绪标签组、次级目标情绪标签组和高级目标情绪标签组,其中,次级目标情绪标签组中次级目标情绪标签的数目和高级目标情绪标签组中高级目标情绪标签的数目之和与次级情绪标签的数目一致;
(2)根据初级目标情绪标签组中各个初级目标情绪标签之间的关联程度建立初级目标情绪标签组对应的初级目标情绪网络,并根据每一对话片段的对话次序建立次级目标情绪标签组对应的次级目标情绪网络;
(3)根据每一对话片段的对话次序确定高级目标情绪标签组中各个高级目标情绪标签相应的相邻目标情绪标签,根据高级目标情绪标签组中各个高级目标情绪标签相应的相邻目标情绪标签之间的关联程度建立高级目标情绪标签组对应的高级目标情绪网络;
(4)根据初级目标情绪网络中的初级目标情绪标签和初级目标情绪标签对应的邻近交互元素向量进行向量整合,得到初级目标情绪标签组中各个初级目标情绪标签相应的初级融合目标向量;
(5)根据次级目标情绪网络中次级目标情绪标签和次级目标情绪标签相应的邻近交互元素向量进行向量整合,得到次级目标情绪标签组中各个次级目标情绪标签相应的次级融合目标向量;
(6)根据高级目标情绪网络中高级目标情绪标签和高级目标情绪标签相应的邻近交互元素向量进行向量整合,得到高级目标情绪标签组中各个高级目标情绪标签相应的高级融合目标向量;
(7)根据同一对话片段向量相应的初级融合目标向量、次级融合目标向量和高级融合目标向量进行连接,形成对话片段向量相应的当前对话片段向量;
(8)根据对话片段向量相应的当前对话片段向量进行用户心理状态评估,得到待解析对话对应的当前用户心理状态评估结果。
在本发明实施例中,首先,可以将目标用户的目标对话片段向量进行划分,形成初级、次级和高级目标情绪标签组。
例如,如果目标用户在谈作压力时表现出的情绪被划分为“压力”(初级情绪),“紧张”和“焦虑”(次级情绪),以及“工作满意度低”(高级情绪)。
然后,确保次级和高级目标情绪标签的总数等于次级情绪标签的数目,这可能意味着需要调整次级和高级情绪标签的数目。
然后,可以根据初级目标情绪标签之间的关联程度,构建初级目标情绪网络。
例如,如果目标用户在谈作压力时,“压力”和“疲劳”这两个初级情绪可能具有较强的关联程度。
同样,也会根据对话的次序,构建次级目标情绪网络。
例如,如果目标用户在谈作压力时,先表现出“紧张”,然后表现出“焦虑”,那么在次级目标情绪网络中,“紧张”和“焦虑”之间可能存在一条连接。
接下来,可以根据对话的次序,确定高级目标情绪标签组中每个标签的相邻标签。
例如,如果目标用户在谈作压力时,先表现出“工作满意度低”,然后表现出“希望改变工作”,那么在高级目标情绪网络中,“工作满意度低”和“希望改变工作”之间可能存在一条连接。接下来,可以在初级、次级和高级目标情绪网络中,整合每个情绪标签及其邻近交互元素的向量。
例如,在初级目标情绪网络中,“压力”这个标签可能与“疲劳”等其他情绪标签有关,整合这些向量得到“压力”的初级融合目标向量。
同样的处理也适用于次级和高级目标情绪网络。
然后,可以将初级、次级和高级融合目标向量连接起来,形成当前对话片段向量。
例如,如果在同一对话片段中,目标用户既表达了高度的“压力”(初级情绪),又表现出明显的“厌烦”和“紧张”(次级情绪),以及“工作满意度低”(高级情绪),那么这个对话片段的当前对话片段向量就可能包含“压力”、“厌烦”、“紧张”和“工作满意度低”等多个方面的信息。
最后,可以根据当前对话片段向量对目标用户的心理状态进行评估。
在本发明实施例中,还提供了如下实施方式。
(1)将待解析对话输入到用户心理状态评估模型中,通过用户心理状态评估模型将待解析对话进行划分,得到每一对话片段,并提取每一对话片段的特征向量,得到对话片段向量;
(2)通过用户心理状态评估模型将对话片段向量分别进行划分,形成对话片段向量相应的初级情绪标签,组成初级情绪标签组,以及得到对话片段向量相应的次级情绪标签,组成次级情绪标签组;
(3)通过用户心理状态评估模型使用初级情绪标签组中各个初级情绪标签之间的关联程度建立初级情绪标签组对应的初级情绪网络,并根据每一对话片段的对话次序建立次级情绪标签组对应的次级情绪网络;
(4)通过用户心理状态评估模型使用初级情绪网络中的初级情绪标签和初级情绪标签对应的邻近交互元素向量进行向量整合,得到初级情绪标签组中各个初级情绪标签相应的初级融合向量,并根据次级情绪网络中次级情绪标签和次级情绪标签相应的邻近交互元素向量进行向量整合,得到次级情绪标签组中各个次级情绪标签相应的次级融合向量;
(5)通过用户心理状态评估模型将同一对话片段向量相应的初级融合向量和次级融合向量进行连接,形成对话片段向量相应的目标对话片段向量,并根据对话片段向量相应的目标对话片段向量进行用户心理状态评估,得到输出的待解析对话对应的用户心理状态评估结果。
在本发明实施例中,假设有一个待解析对话,即目标用户和他的朋友的一次对话。
首先将这个对话输入到用户心理状态评估模型中,然后模型会将对话划分成多个对话片段。
比如,一句“我感觉今天压力很大,工作上遇到了很多问题。”
可以被划分为两个对话片段:“我感觉今天压力很大”和“工作上遇到了很多问题”。
然后,提取每一对话片段的特征向量,例如情绪、主题、关键词等,得到对话片段向量。
接着,将对话片段向量分别进行划分,形成初级情绪标签和次级情绪标签。
例如,“我感觉今天压力很大”这个对话片段的向量可以被划分为“压力大”(初级情绪标签),“工作上遇到了很多问题”这个对话片段的向量可以被划分为“工作问题”(次级情绪标签)。
然后,根据初级情绪标签之间的关联程度,构建一个初级情绪网络。
例如,“压力大”可能与其他初级情绪标签如“疲劳”、“焦虑”等有关。
同样,也会根据对话的次序,构建一个次级情绪网络。
例如,“工作问题”可能先引发“压力大”,然后引发“想要放弃”。
接下来,在初级和次级情绪网络中,分别整合每个情绪标签及其邻近交互元素的向量。
例如,在初级情绪网络中,“压力大”这个标签可能与“疲劳”、“焦虑”等其他情绪标签有关,整合这些向量得到“压力大”的初级融合向量。
同样的处理也适用于次级情绪网络。
然后,将初级融合向量和次级融合向量连接起来,形成目标对话片段向量。
例如,如果在同一对话片段中,目标用户既表达了高度的“压力大”(初级情绪),又谈到了“工作问题”(次级情绪),那么这个对话片段的目标对话片段向量就可能包含“压力大”和“工作问题”的信息;最后,根据目标对话片段向量对目标用户的心理状态进行评估。
例如,如果目标用户的“压力大”和“工作问题”的情绪标签都被激活,那么会评估出目标用户当前正在经历重大的工作压力,并需要寻求帮助。这就是待解析对话对应的用户心理状态评估结果。
本发明实施例提供一种计算机设备100,计算机设备100包括处理器及存储有计算机指令的非易失性存储器,计算机指令被处理器执行时,计算机设备100执行前述的基于NLP的用户心理状态评估方法。
如图2所示,图2为本发明实施例提供的计算机设备100的结构框图。
计算机设备100包括存储器111、处理器112及通信单元113。
为实现数据的传输或交互,存储器111、处理器112以及通信单元113各元件相互之间直接或间接地电性连接。
例如,可通过一条或多条通讯总线或信号线实现这些元件相互之间电性连接。
出于说明目的,前面的描述是参考具体实施例而进行的。
但是,上述说明性论述并不打算穷举或将本公开局限于所公开的精确形式。
根据上述教导,众多修改和变化都是可行的。
选择并描述这些实施例是为了最佳地说明本公开的原理及其实际应用,从而使本领域技术人员最佳地利用本公开,并利用具有不同修改的各种实施例以适于预期的特定应用。
出于说明目的,前面的描述是参考具体实施例而进行的。
但是,上述说明性论述并不打算穷举或将本公开局限于所公开的精确形式。
根据上述教导,众多修改和变化都是可行的。
选择并描述这些实施例是为了最佳地说明本公开的原理及其实际应用,从而使本领域技术人员最佳地利用本公开,并利用具有不同修改的各种实施例以适于预期的特定应用。
Claims (10)
1.一种基于NLP的用户心理状态评估方法,其特征在于,包括:
响应于目标用户正确佩戴心理状态评估设备的指令,对所述心理状态评估设备进行初始化操作,所述心理状态评估设备包括扬声器和麦克风;
通过所述扬声器播放预设内容,并通过所述麦克风采集所述目标用户针对所述预设内容的反馈内容;
根据所述预设内容和所述反馈内容构建待解析对话;
调用预先训练的NLP模型对所述待解析对话进行处理,得到所述待解析对话对应的用户心理状态评估结果。
2.根据权利要求1所述的方法,其特征在于,所述调用预先训练的NLP模型对所述待解析对话进行处理,得到所述待解析对话对应的用户心理状态评估结果,包括:
将所述待解析对话输入所述预先训练的NLP模型中进行拆分,获得多对话片段,并抽取每一对话片段的特征向量,形成对话片段向量;
将所述对话片段向量逐一拆分,产生对话片段向量相应的初级情绪标签,构建初级情绪标签组,同时产生对话片段向量相应的次级情绪标签,构建次级情绪标签组;
计算所述初级情绪标签之间的向量关联程度,根据所述向量关联程度决定所述初级情绪标签之间的情感相互作用;
将所述初级情绪标签逐一作为网络交互元素,并按照所述情感相互作用将所述初级情绪标签进行相连,形成所述初级情绪网络;
根据所述每一对话片段的对话次序决定所述对话片段向量相应的次级情绪标签的向量位置,根据所述向量位置决定所述次级情绪标签组中次级情绪标签之间的次序关系;
将所述次级情绪标签逐一作为网络交互元素,并按照所述次序关系将所述次级情绪标签进行相连,形成所述次级情绪网络;
利用所述初级情绪网络中的初级情绪标签以及初级情绪标签对应的邻近交互元素向量进行向量整合,得到初级情绪标签组中初级情绪标签相应的初级整合向量,并利用所述次级情绪网络中次级情绪标签以及次级情绪标签对应的邻近交互元素向量进行向量整合,得到次级情绪标签组中次级情绪标签相应的次级整合向量;
根据同一对话片段向量相应的初级整合向量和次级整合向量进行连接,形成对话片段向量相应的目标对话片段向量,并根据所述对话片段向量相应的目标对话片段向量进行用户心理状态评估,获得所述待解析对话对应的用户心理状态评估结果。
3.根据权利要求2所述的方法,其特征在于,所述抽取每一对话片段的特征向量,形成对话片段向量,包括:
抽取所述每一对话片段的词汇向量,形成对话片段词汇向量;
读取所述每一对话片段的对话次序,将所述每一对话片段的对话次序进行数值化,形成对话片段位置向量;
将所述对话片段词汇向量和相应的对话片段位置向量进行整合,形成所述对话片段向量。
4.根据权利要求2所述的方法,其特征在于,所述利用所述初级情绪网络中的初级情绪标签以及初级情绪标签对应的邻近交互元素向量进行向量整合,得到初级情绪标签组中初级情绪标签相应的初级整合向量,包括:
计算所述初级情绪标签对应的邻近交互元素向量的平均向量,形成初级平均向量,并计算所述初级情绪标签与所述初级情绪标签对应的邻近交互元素向量之间的差异向量,形成初级差异向量;
将所述初级情绪标签、所述初级差异向量和所述初级平均向量进行连接,形成初级连接向量,并根据所述初级连接向量进行完全交互处理,得到所述初级情绪标签对应的初级整合向量;
遍历所述初级情绪网络中的初级情绪标签,得到初级情绪标签组中初级情绪标签相应的初级整合向量。
5.根据权利要求2所述的方法,其特征在于,所述利用所述次级情绪网络中次级情绪标签以及次级情绪标签对应的邻近交互元素向量进行向量整合,得到次级情绪标签组中次级情绪标签相应的次级整合向量,包括:
计算所述次级情绪标签对应的邻近交互元素向量的综合表达,形成次级综合向量,并计算所述次级情绪标签与所述次级情绪标签对应的邻近交互元素向量之间的向量异同,形成次级异同向量;
将所述次级情绪标签、所述次级异同向量和所述次级综合向量进行连接,形成次级连接向量,并根据所述次级连接向量进行完全交互处理,得到所述次级情绪标签对应的次级整合向量;
遍历所述次级情绪网络中的次级情绪标签,得到次级情绪标签组中次级情绪标签相应的次级整合向量。
6.根据权利要求2所述的方法,其特征在于,所述根据同一对话片段向量相应的初级整合向量和次级整合向量进行连接,形成对话片段向量相应的目标对话片段向量,并根据所述对话片段向量相应的目标对话片段向量进行用户心理状态评估,获得所述待解析对话对应的用户心理状态评估结果,包括:
获取初级信息强化参数,根据所述初级信息强化参数对所述初级情绪标签组中各个初级情绪标签相应的初级融合向量进行深层感情理解,形成初级深层对话理解,并计算所述初级深层对话理解对应的统计偏差值,形成初级统计偏差值;
将所述初级情绪标签组中各个初级情绪标签相应的初级融合向量进行加权,得到所述初级情绪标签组中各个初级情绪标签相应的初级加权向量;
计算所述初级加权向量与所述初级统计偏差值的乘积,得到所述初级情绪标签组中各个初级情绪标签相应的初级信息强化向量;
根据所述初级信息强化参数对所述次级情绪标签组中次级情绪标签相应的次级整合向量进行深层感情理解,形成次级深层对话理解,并计算所述次级深层对话理解对应的统计偏差值,形成次级统计偏差值;
将所述次级情绪标签组中次级情绪标签相应的次级整合向量进行加权,形成次级加权向量;
计算所述次级加权向量与所述次级统计偏差值的乘积,得到所述次级情绪标签组中次级情绪标签相应的次级信息强化向量;
将同一对话片段向量相应的初级信息强化向量和次级信息强化向量进行连接,形成所述对话片段向量相应的强化对话片段向量;
将所述对话片段向量相应的强化对话片段向量进行划分,形成初级强化情绪标签组、次级强化情绪标签组和高级强化情绪标签组,其中,次级强化情绪标签组中次级强化情绪标签的数目和高级强化情绪标签组中高级强化情绪标签的数目之和与次级情绪标签的数目一致;
根据所述初级强化情绪标签组中各个初级强化情绪标签之间的关联程度建立所述初级强化情绪标签组对应的初级强化情绪网络,并根据所述每一对话片段的对话次序建立次级强化情绪标签组对应的次级强化情绪网络;
根据所述每一对话片段的对话次序确定所述高级强化情绪标签组中各个高级强化情绪标签相应的相邻强化情绪标签,从所述各个高级强化情绪标签中选取当前向量和目标向量;
根据所述每一对话片段的对话次序从所述各个高级强化情绪标签中确定所述当前向量对应的各个当前相邻向量,将所述各个当前相邻向量进行信息聚合,形成当前聚合相邻向量;
根据所述每一对话片段的对话次序从所述各个高级强化情绪标签中确定所述目标向量对应的各个目标相邻向量,将所述各个目标相邻向量进行信息聚合,形成目标聚合相邻向量;
计算所述当前聚合相邻向量与所述目标聚合相邻向量的关联程度,得到所述当前向量和所述目标向量之间的关联程度;
遍历所述各个高级强化情绪标签,得到所述各个高级强化情绪标签相应的相邻强化情绪标签之间的关联程度,将所述各个高级强化情绪标签相应的相邻强化情绪标签之间的关联程度作为各个高级强化情绪标签之间的目标关联程度;
根据所述目标关联程度确定所述各个高级强化情绪标签之间的目标连接关系,并将所述各个高级强化情绪标签分别作为网络交互元素,按照所述目标连接关系将所述各个高级强化情绪标签进行相连,得到所述高级强化情绪网络;
利用所述初级强化情绪网络中的初级强化情绪标签和初级强化情绪标签对应的邻近交互元素向量进行向量整合,得到初级强化情绪标签组中初级强化情绪标签相应的初级融合强化向量;
利用所述次级强化情绪网络中的次级强化情绪标签和次级强化情绪标签对应的邻近交互元素向量进行向量整合,得到次级强化情绪标签组中次级强化情绪标签相应的次级融合强化向量;
利用所述高级强化情绪网络中的高级强化情绪标签和高级强化情绪标签对应的邻近交互元素向量进行向量整合,得到高级强化情绪标签组中高级强化情绪标签相应的高级融合强化向量;
获取次级信息强化参数,根据所述次级信息强化参数将所述初级强化情绪标签组中各个初级强化情绪标签相应的初级融合强化向量进行激活,得到所述初级强化情绪标签组中各个初级强化情绪标签相应的初级激活向量;
根据所述次级信息强化参数将所述次级强化情绪标签组中各个次级强化情绪标签相应的次级融合强化向量进行激活,得到所述次级强化情绪标签组中各个次级强化情绪标签相应的次级激活向量;
根据所述次级信息强化参数对所述高级强化情绪标签组中各个高级强化情绪标签相应的高级融合强化向量进行深层感情理解,形成高级深层对话理解,并计算所述高级深层对话理解对应的统计偏差值,形成高级统计偏差值;
将所述高级强化情绪标签组中各个高级强化情绪标签相应的高级融合强化向量进行加权,得到所述高级强化情绪标签组中各个高级强化情绪标签相应的高级加权向量;
计算所述高级加权向量与所述高级统计偏差值的乘积,得到所述高级强化情绪标签组中各个高级强化情绪标签相应的高级激活向量;
将同一对话片段向量相应的初级激活向量、次级激活向量和高级激活向量进行连接,形成所述对话片段向量相应的目标强化对话片段向量;
根据所述对话片段向量相应的目标强化对话片段向量进行用户心理状态评估,得到所述待解析对话对应的强化用户心理状态评估结果。
7.根据权利要求6所述的方法,其特征在于,所述方法,还包括:
将所述目标强化对话片段向量作为强化对话片段向量,并返回将所述对话片段向量相应的强化对话片段向量进行划分,形成初级强化情绪标签组、次级强化情绪标签组和高级强化情绪标签组的步骤执行,所述次级强化情绪标签组中次级强化情绪标签的数目按照预设数目增加,所述高级强化情绪标签组中高级强化情绪标签的数目按照预设数目减少;
直到达到预设迭代完成条件时,得到所述对话片段向量相应的最终对话片段向量,并根据所述对话片段向量相应的最终对话片段向量进行用户心理状态评估,得到所述待解析对话对应的最终用户心理状态评估结果。
8.根据权利要求2所述的方法,其特征在于,所述根据所述对话片段向量相应的目标对话片段向量进行用户心理状态评估,得到所述待解析对话对应的用户心理状态评估结果,包括:
将所述对话片段向量相应的目标对话片段向量进行划分,形成初级目标情绪标签组、次级目标情绪标签组和高级目标情绪标签组,其中,次级目标情绪标签组中次级目标情绪标签的数目和高级目标情绪标签组中高级目标情绪标签的数目之和与次级情绪标签的数目一致;
根据所述初级目标情绪标签组中各个初级目标情绪标签之间的关联程度建立所述初级目标情绪标签组对应的初级目标情绪网络,并根据所述每一对话片段的对话次序建立所述次级目标情绪标签组对应的次级目标情绪网络;
根据所述每一对话片段的对话次序确定所述高级目标情绪标签组中各个高级目标情绪标签相应的相邻目标情绪标签,根据所述高级目标情绪标签组中各个高级目标情绪标签相应的相邻目标情绪标签之间的关联程度建立所述高级目标情绪标签组对应的高级目标情绪网络;
根据所述初级目标情绪网络中的初级目标情绪标签和初级目标情绪标签对应的邻近交互元素向量进行向量整合,得到所述初级目标情绪标签组中各个初级目标情绪标签相应的初级融合目标向量;
根据所述次级目标情绪网络中次级目标情绪标签和次级目标情绪标签相应的邻近交互元素向量进行向量整合,得到所述次级目标情绪标签组中各个次级目标情绪标签相应的次级融合目标向量;
根据所述高级目标情绪网络中高级目标情绪标签和高级目标情绪标签相应的邻近交互元素向量进行向量整合,得到所述高级目标情绪标签组中各个高级目标情绪标签相应的高级融合目标向量;
根据同一对话片段向量相应的初级融合目标向量、次级融合目标向量和高级融合目标向量进行连接,形成所述对话片段向量相应的当前对话片段向量;
根据所述对话片段向量相应的当前对话片段向量进行用户心理状态评估,得到所述待解析对话对应的当前用户心理状态评估结果。
9.根据权利要求2所述的方法,其特征在于,所述方法,还包括:
将所述待解析对话输入到用户心理状态评估模型中,通过所述用户心理状态评估模型将所述待解析对话进行划分,得到每一对话片段,并提取所述每一对话片段的特征向量,得到对话片段向量;
通过所述用户心理状态评估模型将所述对话片段向量分别进行划分,形成所述对话片段向量相应的初级情绪标签,组成初级情绪标签组,以及得到所述对话片段向量相应的次级情绪标签,组成次级情绪标签组;
通过所述用户心理状态评估模型使用所述初级情绪标签组中各个初级情绪标签之间的关联程度建立所述初级情绪标签组对应的初级情绪网络,并根据所述每一对话片段的对话次序建立所述次级情绪标签组对应的次级情绪网络;
通过所述用户心理状态评估模型使用所述初级情绪网络中的初级情绪标签和初级情绪标签对应的邻近交互元素向量进行向量整合,得到所述初级情绪标签组中各个初级情绪标签相应的初级融合向量,并根据所述次级情绪网络中次级情绪标签和次级情绪标签相应的邻近交互元素向量进行向量整合,得到所述次级情绪标签组中各个次级情绪标签相应的次级融合向量;
通过所述用户心理状态评估模型将同一对话片段向量相应的初级融合向量和次级融合向量进行连接,形成所述对话片段向量相应的目标对话片段向量,并根据所述对话片段向量相应的目标对话片段向量进行用户心理状态评估,得到输出的所述待解析对话对应的用户心理状态评估结果。
10.一种服务器系统,其特征在于,包括服务器,所述服务器用于执行权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311401503.5A CN117133413B (zh) | 2023-10-26 | 2023-10-26 | 一种基于nlp的用户心理状态评估方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311401503.5A CN117133413B (zh) | 2023-10-26 | 2023-10-26 | 一种基于nlp的用户心理状态评估方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117133413A true CN117133413A (zh) | 2023-11-28 |
CN117133413B CN117133413B (zh) | 2024-01-30 |
Family
ID=88851214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311401503.5A Active CN117133413B (zh) | 2023-10-26 | 2023-10-26 | 一种基于nlp的用户心理状态评估方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117133413B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160321401A1 (en) * | 2013-12-19 | 2016-11-03 | Koninklijke Philips N.V. | System and method for topic-related detection of the emotional state of a person |
CN107944008A (zh) * | 2017-12-08 | 2018-04-20 | 神思电子技术股份有限公司 | 一种针对自然语言进行情绪识别的方法 |
CN108805089A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态的情绪识别方法 |
US20190266999A1 (en) * | 2018-02-27 | 2019-08-29 | Microsoft Technology Licensing, Llc | Empathetic personal virtual digital assistant |
CN115862868A (zh) * | 2022-12-15 | 2023-03-28 | 清华大学 | 心理测评系统、平台、电子设备及存储介质 |
-
2023
- 2023-10-26 CN CN202311401503.5A patent/CN117133413B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160321401A1 (en) * | 2013-12-19 | 2016-11-03 | Koninklijke Philips N.V. | System and method for topic-related detection of the emotional state of a person |
CN107944008A (zh) * | 2017-12-08 | 2018-04-20 | 神思电子技术股份有限公司 | 一种针对自然语言进行情绪识别的方法 |
US20190266999A1 (en) * | 2018-02-27 | 2019-08-29 | Microsoft Technology Licensing, Llc | Empathetic personal virtual digital assistant |
CN108805089A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态的情绪识别方法 |
CN115862868A (zh) * | 2022-12-15 | 2023-03-28 | 清华大学 | 心理测评系统、平台、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117133413B (zh) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chung et al. | Speech2vec: A sequence-to-sequence framework for learning word embeddings from speech | |
Wu et al. | Emotion recognition from text using semantic labels and separable mixture models | |
CN110297907B (zh) | 生成访谈报告的方法、计算机可读存储介质和终端设备 | |
Mirheidari et al. | Detecting Signs of Dementia Using Word Vector Representations. | |
Nie et al. | Long dialogue emotion detection based on commonsense knowledge graph guidance | |
Griol et al. | Combining speech-based and linguistic classifiers to recognize emotion in user spoken utterances | |
CN115329779B (zh) | 一种多人对话情感识别方法 | |
Li et al. | Attentive to Individual: A Multimodal Emotion Recognition Network with Personalized Attention Profile. | |
CN110457466A (zh) | 生成访谈报告的方法、计算机可读存储介质和终端设备 | |
CN109977215A (zh) | 基于关联兴趣点的语句推荐方法和装置 | |
CN113239666B (zh) | 一种文本相似度计算方法及系统 | |
CN116821457B (zh) | 一种基于多模态大模型的智能咨询及舆情处理系统 | |
CN110457424A (zh) | 生成访谈报告的方法、计算机可读存储介质和终端设备 | |
CN110297906A (zh) | 生成访谈报告的方法、计算机可读存储介质和终端设备 | |
Klaylat et al. | Enhancement of an Arabic speech emotion recognition system | |
CN113609264B (zh) | 电力系统节点的数据查询方法、装置 | |
Zhang | Ideological and political empowering English teaching: ideological education based on artificial intelligence in classroom emotion recognition | |
Wang | Essumm: Extractive speech summarization from untranscribed meeting | |
Zorrilla et al. | Audio Embedding-Aware Dialogue Policy Learning | |
Gasparini et al. | Sentiment recognition of Italian elderly through domain adaptation on cross-corpus speech dataset | |
CN117133413B (zh) | 一种基于nlp的用户心理状态评估方法及系统 | |
Hung et al. | Context‐Centric Speech‐Based Human–Computer Interaction | |
Bai et al. | Low-rank multimodal fusion algorithm based on context modeling | |
CN110543559A (zh) | 生成访谈报告的方法、计算机可读存储介质和终端设备 | |
KR102635031B1 (ko) | 의미 단위 시각화를 기반으로 한 화자 분리 실시간 통역 서비스 제공 방법, 장치 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |