CN115496113B - 一种基于智能算法的情绪行为分析方法 - Google Patents
一种基于智能算法的情绪行为分析方法 Download PDFInfo
- Publication number
- CN115496113B CN115496113B CN202211442252.0A CN202211442252A CN115496113B CN 115496113 B CN115496113 B CN 115496113B CN 202211442252 A CN202211442252 A CN 202211442252A CN 115496113 B CN115496113 B CN 115496113B
- Authority
- CN
- China
- Prior art keywords
- representing
- probability
- screen
- emotion
- agent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
Abstract
本发明公开了一种基于智能算法的情绪行为分析方法,该方法包括:利用传感器采集行为人在单位时间内对屏幕点击的次数和力度,构建行为数据集;对数据集进行特征提取和归一化处理;建立峰值函数;利用相似度矩阵对行为与特征量进行比较;利用注意力机制提取行为人在单位时间内对屏幕点击次数和力度的相似信息;进一步获取特征差异值;得到数据集的平均池化向量和最大池化向量;通过softmax函数为每个输出情绪的类别都赋予一个概率值,同时利用交叉熵计算模型预测类别的概率与真实类别概率间的差距;对情绪输出的类别进行判断;计算正确分类的概率和错误分类的概率,该方法可以有效的监控行为人的情绪变化,防止行为人出现过激行为。
Description
技术领域
本发明涉及情绪分析与算法的领域,尤其涉及一种基于智能算法的情绪行为分析方法。
背景技术
随着社交网络和手机的快速发展,社交网络和购物平台给人们的生活带来了很大的影响,越来越多的用户喜欢在社交媒体上发表自己的看法,而不只是浏览和接收信息,在国内,手机已经成为许多年轻人分享和获取信息的核心平台。在这些信息中包含着喜、怒、哀、乐等个人情绪,对这些信息中的情绪进行分析可以获得用户的内心活动、分析用户的性格特点。
公开号为CN111904441A的中国专利公开了一种基于多模态特征的情绪分析系统及其分析方法,包括:多模态特征收集装置,用于收集不同年龄段、不同性别的人群在不同情绪下的多模态特征作为参考值;多模态特征读取装置,用于读取待检测对象的多模态特征;情绪分析装置,用于根据读取的多模态特征对待检测对象进行情绪分析;情绪状态评估装置,用于根据分析结果评估待检测对象的危险程度。该发明在旅客通过安检门时,实现快速、便捷、非接触的安全检查,并对旅客进行危险评估,保证公共安全,同时大大提升了旅客的安检体验。
公开号为CN111680541A的中国专利公开了一种基于多维度注意力融合网络的多模态情绪分析方法,包括:针对包含语音、视频、文本等多个模态的样本数据提取语音预处理特征、视频预处理特征、文本预处理特征;然后对每个模态构建所述的多维度注意力融合网络,利用网络内部的自相关特征提取模块提取一级自相关特征和二级自相关特征,然后将三种模态的自相关信息进行组合,利用网络内部的跨模态融合模块得到三种模态的跨模态融合特征;再利用所述的二级自相关特征和跨模态融合特征合并得到模态多维度特征;最后将所述的模态多维度特征进行拼接,确定情绪分数,进行情绪分析;该方法能够有效的在非对齐多模态数据场景下进行特征融合,充分利用多模态的关联信息,进行情绪分析。
但目前现有的方法中并没有设计一种基于行为人在使用手机时的情绪分析方法,分析人们对于公众事件和社会现象的态度在使用手机时的方式可以更好的检测和控制事件进展。因此,对行为人在使用手机时进行情绪分析有重要的意义。
发明内容
为了克服现有技术存在的缺点与不足,本发明提供一种基于智能算法的情绪行为分析方法。
本发明所采用的技术方案是,该方法步骤如下:
步骤S1:利用传感器采集行为人在单位时间内对屏幕点击的次数和力度,构建行为数据集[,];
步骤S2:对数据集[,]进行特征提取和归一化处理;
步骤S3:建立峰值函数,利用峰值函数设定不同情绪的峰值范围;
步骤S4:对行为构建相似度矩阵,利用相似度矩阵对行为与特征量进行比较;
步骤S5:利用注意力机制提取行为人在单位时间内对屏幕点击次数和力度的相似信息;
步骤S6:进一步获取次数、力度与特征量之间的特征差异值;
步骤S7:利用差异值对数据集进行扩展,得到数据集的平均池化向量和最大池化向量;
步骤S8:通过softmax函数为每个输出情绪的类别都赋予一个概率值,表示出每个类别输出的可能性,同时利用交叉熵计算模型预测类别的概率与真实类别概率间的差距;
步骤S9:对情绪输出的类别进行判断,当输出的类别与行为人真实情绪一致时,APP提醒行为人可以控制情绪的方式,当输出的类别与行为人真实情绪不一致时,重复步骤S2、S3、S4、S5、S6、S7、S8、S9;
步骤S10:计算正确分类的概率和错误分类的概率。
进一步地,所述进行特征提取,表达式为:
其中,表示对行为提取的特征量,b表示行为特征提取系数,表示单位时间内行为人对屏幕的点击次数,表示单位时间内行为人对屏幕的点击力度;
所述归一化处理,表达式为:
其中,表示归一化后的行为数据集,n表示第n次迭代,X表示数据采集次数,θn表示归一化系数矩阵,μn表示拉格朗日乘子,d表示归一化误差值。
进一步地,所述峰值函数,表达式为:
其中,表示峰值函数,n表示第n次迭代,X表示数据采集次数,表示行为数据集,fn表示不同情绪波动的临界点阈值。
进一步地,所述构建相似度矩阵,表达式为:
其中,表示行为所构成的相似度矩阵,表示对屏幕点击次数与特征量的比对矩阵,T表示矩阵的转置运算,表示对屏幕点击力度与特征量的比对矩阵。
进一步地,所述利用注意力机制提取行为人在单位时间内对屏幕点击次数和力度的相似信息,表达式为:
其中,表示利用注意力机制提取对屏幕点击次数的相似信息,表示对屏幕点击力度与特征量的比对矩阵,表示利用注意力机制提取对屏幕点击力度的相似信息,表示对屏幕点击次数与特征量的比对矩阵,表示行为所构成的相似度矩阵,ph和pk分别表示次数和力度持续的时间。
进一步地,所述获取次数、力度与特征量之间的特征差异值,表达式为:
其中,qh和qk分别表示进一步获取次数、力度与特征量之间的特征差异值;
进一步地,所述对数据集进行扩展,表达式为:
其中,r池化合集,rh,ave、rh,max表示对屏幕点击次数的平均池化向量和最大池化向量,rk,ave、rk,max表示对屏幕点击力度的平均池化向量和最大池化向量。
进一步地,所述通过softmax函数为每个输出情绪的类别都赋予一个概率值,表达式为:
其中,表示第tij个单位时间内的输出值,F表示情绪类别的个数。
所述利用交叉熵计算模型预测类别的概率与真实类别概率间的差距,表达式为:
其中,wij表示期望模型预测类别的概率,uij表示模型实际预测类别的概率。
进一步地,所述计算正确分类的概率和错误分类的概率,表达式为:
其中,G表示正确分类的概率,F表示错误分类的概率,f表示实际的行为人情绪类别被分类为正确类别的个数,
v表示实际的行为人情绪类别被分类为错误类别的个数。
有益效果:
本发明通过提出一种基于智能算法的情绪行为分析方法,该方法通过对利用传感器采集行为人在单位时间内对屏幕点击的次数和力度,将次数和力度构成数据集,进行特征提取、归一化处理、构建相似度矩阵等流程判断出行为人的情绪类别,该方法是基于现有的深度学习理论,理解简单,无需添加除手机以外的硬件传感器,只需要配套相应的APP使用,当检测到行为的情绪发生异常变化时,会弹出相应的情绪控制信息,该方法可以有效的监控行为人的情绪变化,防止行为人出现过激行为。
附图说明
图1为本发明总体步骤流程图;
图2为本发明的情绪分类图;
图3为本发明的相似信息与特征差异值相互作用图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和有具体实施例对本申请作进一步详细说明。
如图1所示,一种基于智能算法的情绪行为分析方法,该方法步骤如下:
步骤S1:利用传感器采集行为人在单位时间内对屏幕点击的次数和力度,构建行为数据集[,];
传感器利用的是手机上的自带的力度传感器,对次数和力度采集使用的50Hz,每隔半个小时采集一次,数据集的构建以一个星期的采集的数据量作为标准。
步骤S2:对数据集[,]进行特征提取和归一化处理;
特征提取是对行为人的手机使用习惯进行分析,不同的行为人在使用手机时的按压次数以及按力度度大小不同,且行为人的按压次数以及按力度度大小随着情绪的变化而变化,例如:情绪为愉快和愤怒时对手机屏幕按压的力度有着明显的区别,特征提取是通过对行为人在一段时间内的手机使用习惯的特征进行量化,特征提取出特征量随着行为人对手机使用时长的增加特征量越明显。
数据归一化处理的目的是,使得预处理的数据被限定在一定的范围内,从而消除奇异样本数据导致的不良影响。数据归一化处理后,可以加快梯度下降求最优解的速度,且有提高对数据分析的精度。
步骤S3:建立峰值函数,利用峰值函数设定不同情绪的峰值范围;
如图2所示,峰值函数是对行为人不同情绪极限值的描述,不同的情绪对应不同的极限,发明中将行为人情绪分为喜、怒、哀、惧、爱、恶、欲,利用峰值函数计算出分别对应极限值。不同行为人的极限值不同,通过对使用者的调查发现儿童的喜、怒、哀、惧、爱、恶、欲的极限值呈现平均分布,随着年龄的增长成年人的喜、怒、哀、惧、爱、恶、欲呈现正态分布。
步骤S4:对行为构建相似度矩阵,利用相似度矩阵对行为与特征量进行比较;
相似度矩阵是对每次采集的数据与特征量的描述,相似度矩阵中的数值允许在一定范围内的波动,因为行为人的情绪在喜、怒、哀、惧、爱、恶、欲中出现轻微波动都属于正常范围,相似度矩阵由对屏幕点击次数与特征量的比对矩阵,与对屏幕点击力度与特征量的比对矩阵运算产生。
步骤S5:利用注意力机制提取行为人在单位时间内对屏幕点击次数和力度的相似信息;
如图3所示,目前大多对情绪分析中,都是对两个模态分别建立单独模型提取特征再输入到一个特征融合层进行特征融合,忽略了次数和力度之间的交互作用。本发明采用交互注意力机制来处理次数和力度,该方法的交互注意力机制可以计算出次数和力度之间的相似特征,实现次数和力度在时域上的对齐,从而得到更加准确的情绪特征表示。
步骤S6:进一步获取次数、力度与特征量之间的特征差异值;
该步骤的目的是为了分析出次数和力度之间的差异特征,次数和力度之间既有交互作用的特征即步骤S5,又有独立的特征部分,通过步骤S5和S6可以准确的位行为人情绪的分类提供可靠的特征量,步骤S5和步骤S6既相互独立,又相互融合,保证了情绪分类的准确性。
步骤S7:利用差异值对数据集进行扩展,得到数据集的平均池化向量和最大池化向量;
对经过步骤S5和步骤S6后的次数和力度进行池化。经过该步骤可以提高模型的鲁棒性,同时对次数和力度进行平均池化和最大池化操作,最后再把结果放入一个定长向量中。
步骤S8:通过softmax函数为每个输出情绪的类别都赋予一个概率值,表示出每个类别输出的可能性,同时利用交叉熵计算模型预测类别的概率与真实类别概率间的差距;
对于一个完整的情绪识别模型,在得到次数和力度的融合特征后则要进行情绪识别分类。本发明采用两层全连接层和softmax分类器作为情绪的分类层,两个全连接FC1和FC2以解决可能存在的非线性问题。全连接层中选用线性的ReLU函数作为激活函数,可以有效避免梯度爆炸的问题。最后使用 softmax函数进行最终的情绪分类预测,通过softmax函数为每个输出情绪的类别都赋予一个概率值,表示出每个类别输出的可能性。在模型的训练过程中,本发明选取交叉熵作为损失函数。交叉熵表示模型实际预测类别的概率与期望模型预测类别的概率间的差距,交叉熵的值越小,类别预测概率分布就越接近。
步骤S9:对情绪输出的类别进行判断,当输出的类别与行为人真实情绪一致时,APP提醒行为人可以控制情绪的方式,当输出的类别与行为人真实情绪不一致时,重复步骤S2、S3、S4、S5、S6、S7、S8、S9;
该步骤是一个对行为人的习惯进行不断学习的过程,APP提醒以信息弹窗的方式进行,当进行重复步骤时是为了准确掌握行为人情绪的变化,当再出现类似情绪时,即可进行准确分类。
步骤S10:计算正确分类的概率和错误分类的概率。
该步骤通过计算正确分类的概率和错误分类的概率,证明该方法的有效性,当该方法正确分类的概率越来越高,错误分类的概率越来越低时,说明该方法的准确度也越来越高。
进行特征提取,表达式为:
其中,表示对行为提取的特征量,b表示行为特征提取系数,表示单位时间内行为人对屏幕的点击次数,表示单位时间内行为人对屏幕的点击力度;
归一化处理,表达式为:
其中,表示归一化后的行为数据集,n表示第n次迭代,X表示数据采集次数,θn表示归一化系数矩阵,μn表示拉格朗日乘子,d表示归一化误差值。
峰值函数,表达式为:
其中,表示峰值函数,n表示第n次迭代,X表示数据采集次数,表示行为数据集,fn表示不同情绪波动的临界点阈值。
构建相似度矩阵,表达式为:
其中,表示行为所构成的相似度矩阵,表示对屏幕点击次数与特征量的比对矩阵,T表示矩阵的转置运算,表示对屏幕点击力度与特征量的比对矩阵。
利用注意力机制提取行为人在单位时间内对屏幕点击次数和力度的相似信息,表达式为:
其中,表示利用注意力机制提取对屏幕点击次数的相似信息,表示对屏幕点击力度与特征量的比对矩阵,表示利用注意力机制提取对屏幕点击力度的相似信息,表示对屏幕点击次数与特征量的比对矩阵,表示行为所构成的相似度矩阵,ph和pk分别表示次数和力度持续的时间。
获取次数、力度与特征量之间的特征差异值,表达式为:
其中,qh和qk分别表示进一步获取次数、力度与特征量之间的特征差异值;
对数据集进行扩展,表达式为:
其中,r池化合集,rh,ave、rh,max表示对屏幕点击次数的平均池化向量和最大池化向量,rk,ave、rk,max表示对屏幕点击力度的平均池化向量和最大池化向量。
通过softmax函数为每个输出情绪的类别都赋予一个概率值,表达式为:
其中,表示第tij个单位时间内的输出值,F表示情绪类别的个数。
利用交叉熵计算模型预测类别的概率与真实类别概率间的差距,表达式为:
其中,wij表示期望模型预测类别的概率,uij表示模型实际预测类别的概率
计算正确分类的概率和错误分类的概率,表达式为:
其中,G表示正确分类的概率,F表示错误分类的概率,f表示实际的行为人情绪类别被分类为正确类别的个数,
v表示实际的行为人情绪类别被分类为错误类别的个数。
本发明通过提出一种基于智能算法的情绪行为分析方法,该方法通过对利用传感器采集行为人在单位时间内对屏幕点击的次数和力度,将次数和力度构成数据集,进行特征提取、归一化处理、构建相似度矩阵等流程判断出行为人的情绪类别,该方法是基于现有的深度学习理论,理解简单,无需添加除手机以外的硬件传感器,只需要配套相应的APP使用,当检测到行为的情绪发生异常变化时,会弹出相应的情绪控制信息,该方法可以有效的监控行为人的情绪变化,防止行为人出现过激行为。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解的是,在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种等效的变化、修改、替换和变型,本发明的范围由所附权利要求及其等同范围限定。
Claims (1)
1.一种基于智能算法的情绪行为分析方法,其特征在于,该方法步骤如下:
步骤S1:利用传感器采集行为人在单位时间内对屏幕点击的次数和力度,构建行为数据集[,];
步骤S2:对数据集[,]进行特征提取和归一化处理;
步骤S3:建立峰值函数,利用峰值函数设定不同情绪的峰值范围;
步骤S4:对行为构建相似度矩阵,利用相似度矩阵对行为与特征量进行比较;
步骤S5:利用注意力机制提取行为人在单位时间内对屏幕点击次数和力度的相似信息;
步骤S6:进一步获取次数、力度与特征量之间的特征差异值;
步骤S7:利用差异值对数据集进行扩展,得到数据集的平均池化向量和最大池化向量;
步骤S8:通过softmax函数为每个输出情绪的类别都赋予一个概率值,表示出每个类别输出的可能性,同时利用交叉熵计算模型预测类别的概率与真实类别概率间的差距;
步骤S9:对情绪输出的类别进行判断,当输出的类别与行为人真实情绪一致时,APP发送信息提醒行为人可以控制情绪的方式,当输出的类别与行为人真实情绪不一致时,重复步骤S2、S3、S4、S5、S6、S7、S8、S9;
步骤S10:计算正确分类的概率和错误分类的概率;
所述进行特征提取,表达式为:
其中,表示对行为提取的特征量,b表示行为特征提取系数,表示单位时间内行为人对屏幕的点击次数,表示单位时间内行为人对屏幕的点击力度;
所述归一化处理,表达式为:
其中,表示归一化后的行为数据集,n表示第n次迭代,X表示数据采集次数,θn表示归一化系数矩阵,μn表示拉格朗日乘子,d表示归一化误差值;
所述峰值函数,表达式为:
其中,表示峰值函数,n表示第n次迭代,X表示数据采集次数,表示行为数据集,fn表示不同情绪波动的临界点阈值;
所述构建相似度矩阵,表达式为:
其中,表示行为所构成的相似度矩阵,表示对屏幕点击次数与特征量的比对矩阵,T表示矩阵的转置运算,表示对屏幕点击力度与特征量的比对矩阵;
所述利用注意力机制提取行为人在单位时间内对屏幕点击次数和力度的相似信息,表达式为:
其中,表示利用注意力机制提取对屏幕点击次数的相似信息,表示对屏幕点击力度与特征量的比对矩阵,表示利用注意力机制提取对屏幕点击力度的相似信息,表示对屏幕点击次数与特征量的比对矩阵,表示行为所构成的相似度矩阵,ph和pk分别表示次数和力度持续的时间;
所述获取次数、力度与特征量之间的特征差异值,表达式为:
其中,qh和qk分别表示进一步获取次数、力度与特征量之间的特征差异值;
所述对数据集进行扩展,表达式为:
其中,r池化合集,rh,ave、rh,max表示对屏幕点击次数的平均池化向量和最大池化向量,rk,ave、rk,max表示对屏幕点击力度的平均池化向量和最大池化向量;
所述通过softmax函数为每个输出情绪的类别都赋予一个概率值,表达式为:
其中,表示第tij个单位时间内的输出值,F表示情绪类别的个数;
所述利用交叉熵计算模型预测类别的概率与真实类别概率间的差距,表达式为:
其中,wij表示期望模型预测类别的概率,uij表示模型实际预测类别的概率;
所述计算正确分类的概率和错误分类的概率,表达式为:
其中,G表示正确分类的概率,F表示错误分类的概率,f表示实际的行为人情绪类别被分类为正确类别的个数,v表示实际的行为人情绪类别被分类为错误类别的个数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211442252.0A CN115496113B (zh) | 2022-11-17 | 2022-11-17 | 一种基于智能算法的情绪行为分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211442252.0A CN115496113B (zh) | 2022-11-17 | 2022-11-17 | 一种基于智能算法的情绪行为分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115496113A CN115496113A (zh) | 2022-12-20 |
CN115496113B true CN115496113B (zh) | 2023-04-07 |
Family
ID=85116054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211442252.0A Active CN115496113B (zh) | 2022-11-17 | 2022-11-17 | 一种基于智能算法的情绪行为分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115496113B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874410A (zh) * | 2017-01-22 | 2017-06-20 | 清华大学 | 基于卷积神经网络的中文微博文本情绪分类方法及其系统 |
WO2020211701A1 (zh) * | 2019-04-17 | 2020-10-22 | 华为技术有限公司 | 模型训练方法、情绪识别方法及相关装置和设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005199403A (ja) * | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
CN112488214A (zh) * | 2020-12-02 | 2021-03-12 | 浙江大华技术股份有限公司 | 一种图像情感分析方法以及相关装置 |
CN112633364B (zh) * | 2020-12-21 | 2024-04-05 | 上海海事大学 | 一种基于Transformer-ESIM注意力机制的多模态情绪识别方法 |
-
2022
- 2022-11-17 CN CN202211442252.0A patent/CN115496113B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874410A (zh) * | 2017-01-22 | 2017-06-20 | 清华大学 | 基于卷积神经网络的中文微博文本情绪分类方法及其系统 |
WO2020211701A1 (zh) * | 2019-04-17 | 2020-10-22 | 华为技术有限公司 | 模型训练方法、情绪识别方法及相关装置和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN115496113A (zh) | 2022-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492157B (zh) | 基于rnn、注意力机制的新闻推荐方法及主题表征方法 | |
Dong et al. | Bidirectional convolutional recurrent sparse network (BCRSN): an efficient model for music emotion recognition | |
CN109165692B (zh) | 一种基于弱监督学习的用户性格预测装置及方法 | |
CN107391760A (zh) | 用户兴趣识别方法、装置及计算机可读存储介质 | |
CN112687374B (zh) | 一种基于文本和图像信息联合计算的心理危机预警方法 | |
WO2022188773A1 (zh) | 文本分类方法、装置、设备、计算机可读存储介质及计算机程序产品 | |
Dandannavar et al. | Social media text-a source for personality prediction | |
CN114202791A (zh) | 面部情绪识别模型的训练方法、情绪识别方法及相关设备 | |
CN112364638A (zh) | 一种基于社交文本的人格识别方法 | |
CN109829733A (zh) | 一种基于购物行为序列数据的虚假评论检测系统和方法 | |
CN115391670B (zh) | 一种基于知识图谱的互联网行为分析方法与系统 | |
CN110570941A (zh) | 一种基于文本语义向量模型评估心理状态的系统和装置 | |
CN111401105B (zh) | 一种视频表情识别方法、装置及设备 | |
CN111931616A (zh) | 基于移动智能终端传感器设备的情绪识别方法及系统 | |
CN115050077A (zh) | 情绪识别方法、装置、设备及存储介质 | |
CN110664412A (zh) | 一种面向可穿戴传感器的人类活动识别方法 | |
Nasrullah et al. | Detection of types of mental illness through the social network using ensembled deep learning model | |
CN113705725B (zh) | 一种基于多模态信息融合的用户人格特征预测方法和装置 | |
CN114330482A (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
Wu et al. | Estimating the uncertainty in emotion class labels with utterance-specific Dirichlet priors | |
CN116580706B (zh) | 一种基于人工智能的语音识别方法 | |
CN115496113B (zh) | 一种基于智能算法的情绪行为分析方法 | |
CN107578785A (zh) | 基于Gamma分布分析的音乐连续情感特征分析评价方法 | |
CN112948554B (zh) | 基于强化学习和领域知识的实时多模态对话情感分析方法 | |
CN115544361A (zh) | 一种窗口相似度分析的关注点变化预测框架及其分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |