CN109697413A - 基于头部姿态的人格分析方法、系统和存储介质 - Google Patents
基于头部姿态的人格分析方法、系统和存储介质 Download PDFInfo
- Publication number
- CN109697413A CN109697413A CN201811526907.6A CN201811526907A CN109697413A CN 109697413 A CN109697413 A CN 109697413A CN 201811526907 A CN201811526907 A CN 201811526907A CN 109697413 A CN109697413 A CN 109697413A
- Authority
- CN
- China
- Prior art keywords
- video
- emotion
- data
- head pose
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供一种基于头部姿态的人格分析方法、系统和存储介质,涉及人格分析技术领域。该方法包括:获取多段待分析用户视频;从每段待分析用户视频中获取头部姿态数据,并将该头部姿态数据作为第一头部姿态数据;计算第一头部姿态数据的统计特征,对第一头部姿态数据进行降维,得到第二头部姿态数据;将每段情感刺激视频对应的第二头部姿态数据和统计特征输入情感预测模型中,得到待分析用户在观看该情感刺激视频过程中的情感数据;将待分析用户在观看各段情感刺激视频过程中的情感数据均输入人格预测模型中,得到待分析用户的人格数据。本发明避免穿戴接触式设备给用户带来的心理干扰,提高人格分析的准确性。
Description
技术领域
本发明涉及人格分析技术领域,具体涉及一种基于头部姿态的人格分析方法、系统和存储介质。
背景技术
目前,一般是根据生理特征进行人格分析,例如,皮肤电阻,因此现有的人格分析方案需要使用接触式设备来检测生理特征,由于接触式设备会对被测者产生一定给心理影响,因此会降低人格分析的准确性。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种基于头部姿态的人格分析方法、系统和存储介质,能够避免使用接触式设备对被测者造成心理影响,提高人格分析的准确性。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
第一方面,本发明提供一种基于头部姿态的人格分析方法,包括:
获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;
从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;
计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;
将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;
将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。
第二方面,本发明提供一种基于头部姿态的人格分析系统,包括:
第一获取模块,用于获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;
第二获取模块,用于从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;
数据降维模块,用于计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;
情感预测模块,用于将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;
人格预测模块,用于将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。
第三方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时可实现以上人格分析方法。
(三)有益效果
本发明实施例提供了一种基于头部姿态的人格分析方法、系统和存储介质,采用视频记录设备记录待分析用户观看情感刺激视频的过程,进而分析出待分析用户的头部姿态数据,进而依据头部姿态数据分析出待分析用户的情感数据,最后依据情感数据得到待分析用户的人格数据。可见,本发明采用了一种非接触的方式采集用户观看情感刺激视频的过程,相对于接触式采集用户生理特征的方式,更加方便,且避免穿戴接触式设备给用户带来的心理干扰,从而提高人格分析的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于头部姿态的人格分析方法的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
第一方面,本发明提供一种基于头部姿态的人格分析方法,如图1所示,该方法包括:
S100、获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;
在实际场景中,待分析用户端坐于电脑显示器前观看上述能够触发不同情感的情感刺激视频,同时在待分析用户的正面放置一台摄像机作为视频记录设备,以用于记录待分析用户在观看这些情感刺激视频时的头部运动变化,甚至还可记录面部信息。待分析用户观看完一段情感刺激视频后,电脑显示器暂停一段时间,再播放下一段情感刺激视频,以使待分析用户平复心情。待分析用户观看完一段情感刺激视频后,摄像机便记录了待分析用户观看这一段情感刺激视频的过程,即记录了一段待分析用户视频。例如,待分析用户观看了17段情感刺激视频,摄像机便记录了17段待分析用户视频。
为了从多个角度激发待分析者的情感以用于对其人格进行预测,上述情感刺激视频可以采用五大人格的针对性视频。五大人格包括神经质、外向型、开放性、宜人性、尽责性,因此情感刺激视频可以包括神经质类视频(内容压抑、令人不安的视频)、外向型视频(充满热性和富有感染力的视频)、开放性视频(具有创新性的视频)、宜人性视频(让人感动的视频)、尽责性视频(含有大量描述尽责行为的视频)。另外,情感刺激视频的段数可以根据情况需求而定,例如,设置17段情感刺激视频,这17段情感刺激视频中包括上述五种类型的视频。
可理解的是,由于待分析用户视频记录于视频记录设备中,因此是从视频记录设备中获取上述待分析用户视频。
S200、从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;
可理解的是,在一帧图像中,可以提取出一组表示头部姿态的数据,例如,一段待分析用户视频为3分钟即3*60秒,而1秒中有30帧图像,则该段待分析用户视频包括3*60*30帧图像,因此可以从该段待分析用户视频中提取出3*60*30组头部姿态数据。具体可以采用预先训练好的深度学习模型从每一帧图像中提取头部姿态数据。
其中,每一组头部姿态数据可以表示为(x,y,z),在待分析用户头部端正时,以待分析用户的视角方向为参考,前后方为X轴,前方为X正半轴,左右方为Y轴,左方为Y正半轴,上下为Z轴,上方为Z正半轴。x为待分析用户低头或抬头的角度,低头时该角度为正,抬头时该角度为负。y为待分析用户向左向右水平转动头部的角度,头水平右转时该角度为正,头水平向左转时该角度为负;z为向左向右偏头的角度,头部左偏时该角度为正,头部右偏时该角度为负。
为了便于与后面降维后的头部姿态数据进行区分,这里将从待分析用户视频中提取出来的头部姿态数据作为第一头部姿态数据。
进一步的,由于不同的人,动作幅度不同,因此不同的用户,其头部姿态变化差异较大。为了研究不同的用户的头部姿态变化与情感之间的关系,可以去除各个用户的头部姿态变化的基础水平差异,也就是个体间的差异性,以便研究出头部姿态的某些内在特征随着情感不同产生的变化,因此需要对待分析用户的头部姿态数据进行归一化处理。通过对头部姿态数据的归一化,可以提高整体人格分析的准确性。归一化处理的方式有多种,下面提供一种归一化处理过程:
A1、将每段情感刺激视频对应的第一头部姿态数据与该段情感刺激视频对应的第一头部姿态数据的均值相减,得到第一差值数据;
A2、计算该段情感刺激视频对应的第一头部姿态数据中的最大值和最小值之间的差值;
A3、计算所述候第一差值数据与所述差值的比值,并将所述比值作为归一化后的第一头部姿态数据。
后面提到的第一头部姿态数据可以是归一化处理之前的头部姿态数据,也可以是归一化处理之后的头部姿态数据。
S300、计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;
可理解的是,一段待分析用户视频中包括n帧图像,一帧图像对应一组第一头部姿态数据,因此一段待分析用户视频对应n组第一头部姿态数据,而一段情感刺激视频对应一段待分析用户视频,因此一段情感刺激视频对应n组第一头部姿态数据,n个第一头部姿态数据降维后得到n’个第二头部姿态数据。从该段情感刺激视频对应的n组第一头部姿态数据中可以提取出m个统计特征,因此该段情感刺激视频也对应m个统计特征。
其中,每段情感刺激视频对应的第一头部姿态数据的统计特征可以包括:该段情感刺激视频对应的第一头部姿态数据的均值、标准差、中值、最大值、最小值、最大值和最小值的差值、最小值比率和最大值比率中的至少一项。
在实际应用中,如果数据维度过大,会非常不利于后面的数据计算,因此这里采用主成分分析法(简称为PCA)对第一头部姿态数据降维,便于后续计算。
S400、将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;
将一段情感刺激视频对应的n’个第二头部姿态数据和m个统计特征输入预先训练的情感预测模型中,得到待分析用户在观看这一段情感刺激视频过程中的一组情感数据。待分析用户观看17段情感刺激视频,便可以得到17组情感数据。
可理解的是,人类情感一般包括六种,例如,高兴、悲伤、愤怒、惊奇、厌恶、恐惧,一组情感数据中包括待分析用户在这六种情感上的程度,也就是说,一组情感数据中包括六个值,这六个值代表了待分析用户观看一段情感刺激视频时高兴的程度、悲伤的程度、愤怒的程度、惊奇的程度、厌恶的程度、恐惧的程度。
下面对情感预测模型的一种训练过程进行介绍:
B1、构建第一训练数据集;其中,所述第一训练数据集中包括多个训练用户在观看多个情感刺激视频后所产生的若干条训练数据,每一条训练数据包括一个训练用户在观看一段情感刺激视频过程中所述视频记录设备所记录的训练用户视频对应的第一头部姿态数据对应的第二头部姿态数据、该第一头部姿态数据的统计特征以及训练用户在观看完该情感刺激视频后所记录的情感信息;
例如,选取了30个训练用户,每一个训练用户观看17段情感刺激视频。针对每一个训练用户,其视频记录设备记录了17段训练用户视频,一段训练用户视频对应n个第一头部姿态数据,n个第一头部姿态数据对应n’个第二头部姿态数据、m个统计特征和一组情感数据(即上述情感信息)。可见一条训练数据包括n’个第二头部姿态数据、m个统计特征和一组情感数据,这些数据按照一定的顺序和格式(例如,libsvm要求的格式)排列好形成一条训练数据。
可理解的是,在训练用户观看完一段情感刺激视频后,要求训练用户填写观看该段情感刺激视频所产生的感情信息即一组情感数据。
可理解的是,第一头部姿态数据、第二头部姿态数据、统计特征等这些数据的计算过程可以参考上述S200和S300,这里不再赘述。
B2、采用交叉验证的方式对所述训练数据集进行训练,得到多个情感分类器,将所述多个情感分类器作为所述情感预测模型;其中,所述情感分类器的数量与情感种类的数量相同,所述情感预测模型为支持向量机模型。
例如,针对六种情感,设置了六个情感分类器,每一个情感分类器输出一个对应情感的程度值。
可理解的是,所谓的训练过程,是指确定模型参数的过程,即训练完成后,可以确定模型的各个参数。在训练完成后,将训练结果保存为.model模型文件,从而得到六个情感分类器。
S500、将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。
例如,待分析用户观看了17段情感刺激视频,得到了17组情感数据,将这17组情感数据输入至人格预测模型中,便可以得到待分析用户的人格数据。可理解的是,情感是某个时刻的情绪倾向,而人格描述的是在较长时间内的情感概率分布,因此情感和人格关系密切。这里,依据待分析用户在观看这17段情感刺激视频过程中的情感数据,分析出待分析用户的人格数据。
可理解的是,如果进行五大人格分析,则人格数据中包括五个人格的程度值即神经质的程度、外向型的程度、开放性的程度、宜人性的程度、尽责性的程度。例如,将待分析用户在观看这17段情感刺激视频过程中的情感数据输入人格预测模型中,可以得到五个人格的程度值。
下面对人格预测模型的一种训练过程进行介绍:
C1、构建第二训练数据集;其中,所述第二训练数据集中包括多个训练用户在观看多段情感刺激视频过程中的情感数据以及多个训练用户在观看完多段情感刺激视频后所记录的人格信息;
可理解的是,第二训练数据集中的情感数据为情感预测模型输出的情感数据。
可理解的是,在训练用户观看完所有情感刺激视频后,要求训练用户填写观看所有情感刺激视频时的人格信息(例如,五个人格的程度值),将该人格信息即上述第二训练数据集中的人格信息。
C2、通过前向传播和反向传播对所述第二训练数据集进行训练,得到所述人格预测模型,所述人格预测模型为深度神经网络模型。
可理解的是,所谓的训练过程即确定模型参数的过程。
本发明提供的人格分析方法,采用视频记录设备记录待分析用户观看情感刺激视频的过程,进而分析出待分析用户的头部姿态数据,进而依据头部姿态数据分析出待分析用户的情感数据,最后依据情感数据得到待分析用户的人格数据。可见,本发明采用了一种非接触的方式采集用户观看情感刺激视频的过程,相对于接触式采集用户生理特征的方式,更加方便,且避免穿戴接触式设备给用户带来的心理干扰,从而提高人格分析的准确性。
第二方面,本发明提供一种基于头部姿态的人格分析系统,该系统包括:
第一获取模块,用于获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;
第二获取模块,用于从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;
数据降维模块,用于计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;
情感预测模块,用于将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;
人格预测模块,用于将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。
第三方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时可实现第一方面所提供的人格分析方法。
可理解的是,本发明第二方面提供的人格分析系统和第三方面提供的存储介质与第一方面提供的人格分析方法相对应,因此有关内容的解释、举例、有益效果等可以参考第一方面中的相应内容,此处不再赘述。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种基于头部姿态的人格分析方法,其特征在于,包括:
获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;
从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;
计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;
将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;
将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。
2.如权利要求1所述的方法,其特征在于,计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维之前,所述方法还包括:
将每段情感刺激视频对应的第一头部姿态数据与该段情感刺激视频对应的第一头部姿态数据的均值相减,得到第一差值数据;计算该段情感刺激视频对应的第一头部姿态数据中的最大值和最小值之间的差值;计算所述候第一差值数据与所述差值的比值,并将所述比值作为归一化后的第一头部姿态数据。
3.如权利要求1所述的方法,其特征在于,每段情感刺激视频对应的第一头部姿态数据的统计特征包括:该段情感刺激视频对应的第一头部姿态数据的均值、标准差、中值、最大值、最小值、最大值和最小值的差值、最小值比率和最大值比率中的至少一项。
4.如权利要求1所述的方法,其特征在于,所述情感预测模型的训练过程包括:
构建第一训练数据集;其中,所述第一训练数据集中包括多个训练用户在观看多个情感刺激视频后所产生的若干条训练数据,每一条训练数据包括一个训练用户在观看一段情感刺激视频过程中所述视频记录设备所记录的训练用户视频对应的第一头部姿态数据对应的第二头部姿态数据、该第一头部姿态数据的统计特征以及训练用户在观看完该情感刺激视频后所记录的情感信息;
采用交叉验证的方式对所述训练数据集进行训练,得到多个情感分类器,将所述多个情感分类器作为所述情感预测模型;其中,所述情感分类器的数量与情感种类的数量相同,所述情感预测模型为支持向量机模型。
5.如权利要求1所述的方法,其特征在于,所述人格预测模型的训练过程包括:
构建第二训练数据集;其中,所述第二训练数据集中包括多个训练用户在观看多段情感刺激视频过程中的情感数据以及多个训练用户在观看完多段情感刺激视频后所记录的人格信息;
通过前向传播和反向传播对所述第二训练数据集进行训练,得到所述人格预测模型,所述人格预测模型为深度神经网络模型。
6.一种基于头部姿态的人格分析系统,其特征在于,包括:
第一获取模块,用于获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;
第二获取模块,用于从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;
数据降维模块,用于计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;
情感预测模块,用于将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;
人格预测模块,用于将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。
7.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时可实现权利要求1~5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811526907.6A CN109697413B (zh) | 2018-12-13 | 2018-12-13 | 基于头部姿态的人格分析方法、系统和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811526907.6A CN109697413B (zh) | 2018-12-13 | 2018-12-13 | 基于头部姿态的人格分析方法、系统和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109697413A true CN109697413A (zh) | 2019-04-30 |
CN109697413B CN109697413B (zh) | 2021-04-06 |
Family
ID=66231651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811526907.6A Active CN109697413B (zh) | 2018-12-13 | 2018-12-13 | 基于头部姿态的人格分析方法、系统和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109697413B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110393539A (zh) * | 2019-06-21 | 2019-11-01 | 合肥工业大学 | 心理异常检测方法、装置、存储介质及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102627A (zh) * | 2014-07-11 | 2014-10-15 | 合肥工业大学 | 一种多模态的非接触情感分析记录系统 |
CN106970703A (zh) * | 2017-02-10 | 2017-07-21 | 南京威卡尔软件有限公司 | 基于心情指数的多层情感计算方法 |
CN107080546A (zh) * | 2017-04-18 | 2017-08-22 | 安徽大学 | 基于脑电图的青少年环境心理的情绪感知系统及方法、刺激样本选择方法 |
CN107247703A (zh) * | 2017-06-08 | 2017-10-13 | 天津大学 | 基于卷积神经网络和集成学习的微博情感分析方法 |
CN107729838A (zh) * | 2017-10-12 | 2018-02-23 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的头部姿态估算方法 |
CN108345843A (zh) * | 2018-01-25 | 2018-07-31 | 电子科技大学 | 一种基于混合深度回归网络的头部姿态估计方法 |
CN108630299A (zh) * | 2018-04-27 | 2018-10-09 | 合肥工业大学 | 基于皮肤电阻特征的人格分析方法和系统、存储介质 |
-
2018
- 2018-12-13 CN CN201811526907.6A patent/CN109697413B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102627A (zh) * | 2014-07-11 | 2014-10-15 | 合肥工业大学 | 一种多模态的非接触情感分析记录系统 |
CN106970703A (zh) * | 2017-02-10 | 2017-07-21 | 南京威卡尔软件有限公司 | 基于心情指数的多层情感计算方法 |
CN107080546A (zh) * | 2017-04-18 | 2017-08-22 | 安徽大学 | 基于脑电图的青少年环境心理的情绪感知系统及方法、刺激样本选择方法 |
CN107247703A (zh) * | 2017-06-08 | 2017-10-13 | 天津大学 | 基于卷积神经网络和集成学习的微博情感分析方法 |
CN107729838A (zh) * | 2017-10-12 | 2018-02-23 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的头部姿态估算方法 |
CN108345843A (zh) * | 2018-01-25 | 2018-07-31 | 电子科技大学 | 一种基于混合深度回归网络的头部姿态估计方法 |
CN108630299A (zh) * | 2018-04-27 | 2018-10-09 | 合肥工业大学 | 基于皮肤电阻特征的人格分析方法和系统、存储介质 |
Non-Patent Citations (3)
Title |
---|
ACDREAMERS: "数据归一化处理", 《CSDN》 * |
RAMANATHAN SUBRAMANIAN ET AL.: "ASCERTAIN: Emotion and Personality Recognition Using Commercial Sensors", 《IEEE TRANSACTIONS ON AFFECTIVE COMPUTING 》 * |
王国江 等: "基于Markov决策过程的交互虚拟人情感计算模型", 《计算机科学》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110393539A (zh) * | 2019-06-21 | 2019-11-01 | 合肥工业大学 | 心理异常检测方法、装置、存储介质及电子设备 |
CN110393539B (zh) * | 2019-06-21 | 2021-11-23 | 合肥工业大学 | 心理异常检测方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109697413B (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jung et al. | Deepvision: Deepfakes detection using human eye blinking pattern | |
US9642536B2 (en) | Mental state analysis using heart rate collection based on video imagery | |
US20150099987A1 (en) | Heart rate variability evaluation for mental state analysis | |
KR101738278B1 (ko) | 영상을 이용한 감정 인식 방법 | |
CN110036402A (zh) | 用于媒体内容表现的预测的数据处理方法 | |
Matsubara et al. | Emotional arousal estimation while reading comics based on physiological signal analysis | |
CN110147729A (zh) | 用户情绪识别方法、装置、计算机设备及存储介质 | |
WO2014145204A1 (en) | Mental state analysis using heart rate collection based video imagery | |
Kortelainen et al. | Multimodal emotion recognition by combining physiological signals and facial expressions: a preliminary study | |
US20140200460A1 (en) | Real-time physiological characteristic detection based on reflected components of light | |
JP6455809B2 (ja) | 嗜好判断システム | |
WO2021143667A1 (zh) | 人脸表情分析方法和系统及人脸表情满意度分析方法和系统 | |
Dantcheva et al. | Female facial aesthetics based on soft biometrics and photo-quality | |
CN116211305A (zh) | 动态实时情绪检测方法及系统 | |
Vance et al. | Deception detection and remote physiological monitoring: A dataset and baseline experimental results | |
CN109697413A (zh) | 基于头部姿态的人格分析方法、系统和存储介质 | |
CN111104815A (zh) | 一种基于情绪能量感知的心理测评方法及装置 | |
JP7067389B2 (ja) | 生体状態推定装置 | |
JP6201520B2 (ja) | 生理指標を用いる視線分析システムおよび方法 | |
US20200074240A1 (en) | Method and Apparatus for Improving Limited Sensor Estimates Using Rich Sensors | |
Mirabet-Herranz et al. | LVT Face Database: A benchmark database for visible and hidden face biometrics | |
KR101808956B1 (ko) | 대인 감성 평가 시스템 및 대인 감성 평가 정보를 수집하고 이용하는 방법 | |
US20150317647A1 (en) | Method And Apparatus For Correlating Biometric Responses To Analyze Audience Reactions | |
KR101846350B1 (ko) | 신체 미동 이용한 사용자의 몰입도 평가 방법 및 그 장치 | |
Dunbar et al. | Automated methods to examine nonverbal synchrony in dyads |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |