CN108021864A - 人物性格分析方法、装置及存储介质 - Google Patents
人物性格分析方法、装置及存储介质 Download PDFInfo
- Publication number
- CN108021864A CN108021864A CN201711061173.4A CN201711061173A CN108021864A CN 108021864 A CN108021864 A CN 108021864A CN 201711061173 A CN201711061173 A CN 201711061173A CN 108021864 A CN108021864 A CN 108021864A
- Authority
- CN
- China
- Prior art keywords
- video
- sample
- analyzed
- character
- obtains
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
本发明提供一种人物性格分析方法、装置及计算机可读存储介质。该方法包括以下步骤:收集样本视频并标注性格类型;提取每个样本视频的图像特征和音频特征,组合得到每个样本视频的视频特征;构建以Softmax分类器为输出层的神经网络;用所述视频特征及性格标注训练神经网络,优化训练参数,得到人物性格分析模型;采集待分析对象预定时长的面部视频;提取该待分析对象视频的图像特征和音频特征,组合得到该待分析对象视频的视频特征;将该待分析对象视频的视频特征输入所述人物性格分析模型,得到该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。利用本发明,可以客观分析人物的性格。
Description
技术领域
本发明涉及计算机信息处理技术领域,尤其涉及一种人物性格分析方法、装置及存储介质。
背景技术
性格是人格的重要组成部分,了解人物的性格,可以提高人与人的沟通效率,也有助于人们选择更理性的思维方式,形成良好的人格特质。
目前,人物性格分析一般是通过问卷调查或语音问答的方式实现的,需要耗费大量的时间和人力资源。而且,如果答卷人或答题者受客观环境影响或不积极配合分析过程,分析结果往往不准确客观。
发明内容
鉴于以上原因,有必要提供一种人物性格分析方法、装置及存储介质,通过分析人物的面部视频,客观、准确地判断人物的性格类型。
为实现上述目的,本发明提供一种人物性格分析方法,该方法包括:
样本准备步骤:收集不同性格类型人物预定时长的面部视频作为样本,为每个样本标注一个性格类型;
样本特征提取步骤:提取每个样本的图像特征和音频特征,组合得到每个样本的视频特征;
网络构建步骤:构建以Softmax分类器为输出层的神经网络;
网络训练步骤:定义Softmax损失函数,以各样本的性格标注及视频特征为样本数据,对所述神经网络进行训练,输出各样本对应每种性格类型的概率值,每次训练更新该神经网络的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到人物性格分析模型;及
模型应用步骤:采集待分析对象预定时长的面部视频,利用所述人物性格分析模型分析该待分析对象的该面部视频,得到该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。
优选地,所述样本特征提取步骤包括:
对每个样本进行解码和预处理,得到每个样本的音频部分和视频帧;
对每个样本的视频帧进行特征提取,得到每个样本的图像特征;及
对每个样本的音频部分进行特征提取,得到每个样本的音频特征。
优选地,所述网络构建步骤包括:
根据所述样本的序列长度及视频特征维度设置所述神经网络的层数及每层网络的神经元个数;
根据所述性格类型的数量设置所述Softmax分类器的神经元个数。
优选地,所述Softmax损失函数公式如下:
其中,θ为所述神经网络的训练参数,Xj表示第j个样本,yj表示第j个样本对应的性格类型的概率。
优选地,所述训练参数包括迭代次数。
优选地,所述模型应用步骤还包括:
对所述待分析对象视频进行解码和预处理,得到该待分析对象视频的音频部分和视频帧;
对该待分析对象视频的视频帧进行特征提取,得到该待分析对象视频的图像特征;
对该待分析对象视频的音频部分进行特征提取,得到该待分析对象视频的音频特征;及
对该待分析对象视频的图像特征和音频特征进行组合,得到该待分析对象视频的视频特征。
本发明还提供一种计算装置,包括存储器和处理器,所述存储器中包括人物性格分析程序。该计算装置直接或间接地与摄像装置相连接,摄像装置将拍摄的面部视频传送至计算装置。该计算装置的处理器执行存储器中的人物性格分析程序时,实现以下步骤:
样本准备步骤:收集不同性格类型人物预定时长的面部视频作为样本,为每个样本标注一个性格类型;
样本特征提取步骤:提取每个样本的图像特征和音频特征,组合得到每个样本的视频特征;
网络构建步骤:构建以Softmax分类器为输出层的神经网络;
网络训练步骤:定义Softmax损失函数,以各样本的性格标注及视频特征为样本数据,对所述神经网络进行训练,输出各样本对应每种性格类型的概率值,每次训练更新该神经网络的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到人物性格分析模型;及
模型应用步骤:采集待分析对象预定时长的面部视频,利用所述人物性格分析模型分析该待分析对象的该面部视频,得到该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。
优选地,所述样本特征提取步骤包括:
对每个样本进行解码和预处理,得到每个样本的音频部分和视频帧;
对每个样本的视频帧进行特征提取,得到每个样本的图像特征;及
对每个样本的音频部分进行特征提取,得到每个样本的音频特征。
优选地,所述网络构建步骤包括:
根据所述样本的序列长度及视频特征维度设置所述神经网络的层数及每层网络的神经元个数;
根据所述性格类型的数量设置所述Softmax分类器的神经元个数。
优选地,所述Softmax损失函数公式如下:
其中,θ为所述神经网络的训练参数,Xj表示第j个样本,yj表示第j个样本对应的性格类型的概率。
优选地,所述训练参数包括迭代次数。
优选地,所述模型应用步骤还包括:
对所述待分析对象视频进行解码和预处理,得到该待分析对象视频的音频部分和视频帧;
对待该分析对象视频的视频帧进行特征提取,得到该待分析对象视频的图像特征;
对该待分析对象视频的音频部分进行特征提取,得到该待分析对象视频的音频特征;及
对该待分析对象视频的图像特征和音频特征进行组合,得到该待分析对象视频的视频特征。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中包括人物性格分析程序,所述人物性格分析程序被处理器执行时,实现如上所述的人物性格分析方法中的任意步骤。
本发明提供的人物性格分析方法、装置及存储介质,通过大量的面部视频训练神经网络,每次训练更新该神经网络的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到人物性格分析模型。之后,采集待分析对象预定时长的面部视频,提取该视频的音频特征和图像特征,组合得到该视频的视频特征,将该视频特征输入训练得到的人物性格分析模型,即可得到该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。利用本发明,可以客观、有效地分析人物的性格类型,也降低了人力成本,节省了时间。
附图说明
图1为本发明人物性格分析方法第一较佳实施例的应用环境图。
图2为本发明人物性格分析方法第二较佳实施例的应用环境图。
图3为图1、图2中人物性格分析程序的程序模块图。
图4为本发明人物性格分析方法较佳实施例的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将参考若干具体实施例来描述本发明的原理和精神。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1所示,为本发明人物性格分析方法第一较佳实施例的应用环境图。在该实施例中,摄像装置3通过网络2连接计算装置1,摄像装置3拍摄人物面部视频,通过网络2传送至计算装置1,计算装置1利用本发明提供的人物性格分析程序10分析所述视频,输出人物对应每种性格类型的概率值,供人们参考。
计算装置1可以是服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有存储和运算功能的终端设备。
该计算装置1包括存储器11、处理器12、网络接口13及通信总线14。
摄像装置3安装于特定场所,如心理咨询室、办公场所、监控区域等,用于拍摄不同性格类型人物对话时的面部视频,然后通过网络2将拍摄得到的视频传输至存储器11。网络接口13可以包括标准的有线接口、无线接口(如WI-FI接口)。通信总线14用于实现这些组件之间的连接通信。
存储器11包括至少一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器等的非易失性存储介质。在一些实施例中,所述可读存储介质可以是所述计算装置1的内部存储单元,例如该计算装置1的硬盘。在另一些实施例中,所述可读存储介质也可以是所述计算装置1的外部存储器11,例如所述计算装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11存储所述人物性格分析程序10的程序代码、摄像装置3拍摄的对话视频,以及处理器12执行人物性格分析程序10的程序代码应用到的数据以及最后输出的数据等。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片。
图1仅示出了具有组件11-14的计算装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该计算装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)、语音输入装置比如麦克风(microphone)等具有语音识别功能的设备、语音输出装置比如音响、耳机等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,计算装置1还可以包括显示器。显示器在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器用于显示计算装置1处理的信息以及可视化的用户界面。
可选地,该计算装置1还包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。此外,这里所述的触摸传感器可以为电阻式触摸传感器、电容式触摸传感器等。而且,所述触摸传感器不仅包括接触式的触摸传感器,也可包括接近式的触摸传感器等。此外,所述触摸传感器可以为单个传感器,也可以为例如阵列布置的多个传感器。用户,例如心理咨询师,可以通过触摸启动人物性格分析程序10。
该计算装置1还可以包括射频(Radio Frequency,RF)电路、传感器和音频电路等等,在此不再赘述。
参照图2所示,为本发明人物性格分析方法第二较佳实施例的应用环境图。待分析对象通过终端3实现性格分析过程,终端3的摄像装置30拍摄待分析对象对话时的面部视频,并通过网络2传送至所述计算装置1,计算装置1的处理器12执行存储器11存储的人物性格分析程序10的程序代码,对视频的音频部分和视频帧进行分析,输出该待分析对象对应每种性格类型的概率值,供待分析对象或心理咨询师等人参考。
图2中计算装置1的组件,例如图中示出的存储器11、处理器12、网络接口13及通信总线14,以及图中未示出的组件,请参照关于图1的介绍。
所述终端3可以为智能手机、平板电脑、便携计算机、桌上型计算机等具有存储和运算功能的终端设备。
图1、图2中的人物性格分析程序10,在被处理器12执行时,实现以下步骤:
样本准备步骤:收集不同性格类型人物预定时长的面部视频作为样本,为每个样本标注一个性格类型;
样本特征提取步骤:提取每个样本的图像特征和音频特征,组合得到每个样本的视频特征;
网络构建步骤:构建以Softmax分类器为输出层的神经网络;
网络训练步骤:定义Softmax损失函数,以各样本的性格标注及视频特征为样本数据,对所述神经网络进行训练,输出各样本对应每种性格类型的概率值,每次训练更新该神经网络的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到人物性格分析模型;及
模型应用步骤:采集待分析对象预定时长的面部视频,利用所述人物性格分析模型分析该待分析对象的该面部视频,得到该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。
关于上述步骤的详细介绍,请参照下述图3关于人物性格分析程序10的程序模块图及图4关于人物性格分析方法较佳实施例的流程图的说明。
参照图3所示,为图1、图2中人物性格分析程序10的程序模块图。在本实施例中,人物性格分析程序10被分割为多个模块,该多个模块被存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
所述人物性格分析程序10可以被分割为:获取模块110、提取模块120、训练模块130及预测模块140。
获取模块110,用于获取不同性格类型人物预定时长的面部视频。所述视频可以是通过图1的摄像装置3或图2的摄像装置30获取的,也可以是从网络信息或视频资料库中选取的性格鲜明的人物对话时的面部视频。将用于神经网络训练的样本视频标注性格类型,例如:“活泼”、“内向”、“随和”等等,将所述性格标注映射为one-hot向量。
提取模块120,用于提取所述视频的音频特征和图像特征,并将音频特征和图像特征组合,得到每个视频的视频特征。对获取模块110获取的视频进行解码和预处理,得到每个视频的音频部分和视频帧,对所述音频部分和视频帧分别进行特征提取,得到每个视频的音频特征和图像特征,对所述音频特征和图像特征进行组合,得到每个视频的视频特征。
提取模块120提取所述视频的图像特征时,可将经过归一化、去除噪声等处理的视频帧的HOG特征、LBP特征等作为图像特征,也可以直接利用卷积神经网络提取视频帧的特征向量。
提取模块120提取所述视频的音频特征时,可将所述视频的音频部分的振幅值作为音频特征。例如,假设所述视频的预定时长为3分钟,音频采样率为8000HZ,则3分钟视频的音频部分提取8000*60*3个振幅值作为音频特征。
提取模块120组合所述图像特征和音频特征时,组合得到的视频特征的维度是每帧图像的图像特征维度与对应的音频特征维度之和。依上述例子,假设人物对话的面部视频V的音频采样率为8000HZ,视频采样率为20HZ,则每读取一帧图像需要50ms,50ms对应400个音频振幅值,若该视频V的第t帧图像的图像特征维度为k1,则对应的音频特征的维度k2=400,组合得到的视频特征的维度k=k1+k2。
训练模块130,用于通过迭代训练优化构建的神经网络,得到人物性格分析模型。人物对话的面部视频的视频帧和音频帧按时间顺序排列,因此本发明采用循环神经网络中的长短期记忆网络(Long Short-Term Memory,LSTM),由于本发明利用LSTM输出待分析对象对应每种性格类型的概率值,故该LSTM以Softmax分类器作为输出层。
构建LSTM时,先根据获取模块110获取的人物预定时长的面部视频的序列长度及提取模块120提取组合得到的视频特征的维度定义网络形状,设置LSTM的层数及每层LSTM的神经元个数,根据所述性格类型的数量设置所述Softmax分类器的神经元个数。以上述例子,假设所述视频的预定时长为3分钟,视频采样率为m,组合得到的视频特征的维度为k,则每个视频的序列长度记为3*60*m,该LSTM的形状可用tflearn深度学习库的代码表示成如下形式:
net=tflearn.input_data(shape=[None,3*60*m,k])
然后构建两个隐含层,每层128个神经单元,用tflearn深度学习库的代码表示如下:
net=tflearn.lstm(net,128)
net=tflearn.lstm(net,128)
最后,接入Softmax分类器。例如,假设将人物性格分为n类,则Softmax分类器用tflearn深度学习库的代码表示如下:
net=tflearn.fully_connected(net,n,activation=‘softmax’)
定义Softmax损失函数公式如下:
LSTM及Softmax损失函数构建完成后,设置训练参数。假设迭代次数为100、梯度优化算法为adam、验证集为0.1,则LSTM模型训练用tflearn深度学习库的代码表示如下:
net=tflearn.regression(net,optimizer=‘adam’,loss=‘categorical_crossentropy’,
name=‘output1’)
model=tflearn.DNN(net,tersorboard_verbose=2)
model.fit(X,Y,n_epoch=100,validation_set=0.1,snapshot_step=100)
训练模块130利用每个样本性格标注的one-hot向量及组合得到的视频特征对LSTM进行训练,每次训练更新该LSTM的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到人物性格分析模型。
分析模块140,用于分析人物对应每种性格类型的概率值,得到待分析对象的性格类型。获取模块110获取待分析对象预定时长的面部视频,提取模块120提取该视频的图像特征及音频特征,并将图像特征和音频特征组合成该视频的视频特征,分析模块140将该视频特征输入训练模块130训练得到的人物性格分析模型,输出待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。
参照图4所示,为本发明人物性格分析方法较佳实施例的流程图。利用图1或图2所示的架构,启动计算装置1,处理器12执行存储器11中存储的人物性格分析程序10,实现如下步骤:
步骤S10,利用获取模块110收集不同性格类型人物预定时长的面部视频并标注性格类型。所述视频可以是通过图1的摄像装置3或图2的摄像装置30获取的,也可以是从网络信息或视频资料库中选取的性格鲜明的人物对话时的面部视频。将所述性格类型映射成one-hot向量的形式,即每个性格类型所对应的标志位为1,其余位全为0。
步骤S20,利用提取模块120提取每个视频的音频特征和图像特征,并组合该音频特征和图像特征,得到每个视频的视频特征。所述图像特征可以是视频帧的HOG特征、LBP特征等底层特征,也可以是直接利用卷积神经网络提取的视频帧的特征向量。所述音频特征可以是每帧图像对应音频的振幅值的集合。所述视频特征的维度是视频帧的图像特征维度与对应的音频特征维度之和。
步骤S30,根据所述预定时长视频的序列长度、视频特征的维度以及性格类型的数量构建神经网络。根据获取模块110获取的不同性格类型人物预定时长的面部视频的序列长度以及提取模块120提取组合得到的视频特征的维数设置神经网络的层数及每层网络的神经元个数,根据预设性格类型的数量设置作为网络输出层的Softmax分类器的神经元个数。
步骤S40,根据每个视频的视频特征及性格标注训练神经网络,得到人物性格分析模型。以获取模块110获取的样本视频的性格标注映射成的one-hot向量和提取模块120提取组合得到的视频特征为样本数据,对神经网络进行迭代训练,每次训练更新该神经网络的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到训练好的人物性格分析模型。
步骤S50,利用获取模块110采集待分析对象预定时长的面部视频。该面部视频通过图1的摄像装置3或图2的摄像装置30获取。
步骤S60,利用提取模块120提取所述待分析对象视频的图像特征和音频特征,将该图像特征和音频特征组合,得到该待分析对象视频的视频特征。特征提取和组合的具体过程,请参照提取模块120以及步骤S20的详细介绍。
步骤S70,将该视频特征输入所述人物性格分析模型,得到待分析对象的性格类型。将提取模块120得到的待分析对象的视频特征输入训练得到的人物性格分析模型,输出该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等等中的任意一种或者几种的任意组合。所述计算机可读存储介质中包括样本视频及人物性格分析程序10,所述人物性格分析程序10被处理器执行时实现如下操作:。
样本准备步骤:收集不同性格类型人物预定时长的面部视频作为样本,为每个样本标注一个性格类型;
样本特征提取步骤:提取每个样本的图像特征和音频特征,组合得到每个样本的视频特征;
网络构建步骤:构建以Softmax分类器为输出层的神经网络;
网络训练步骤:定义Softmax损失函数,以各样本的性格标注及视频特征为样本数据,对所述神经网络进行训练,输出各样本对应每种性格类型的概率值,每次训练更新该神经网络的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到人物性格分析模型;及
模型应用步骤:采集待分析对象预定时长的面部视频,利用所述人物性格分析模型分析该待分析对象的该面部视频,得到该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。
本发明之计算机可读存储介质的具体实施方式与上述人物性格分析方法以及电计算装置1的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种人物性格分析方法,其特征在于,该方法包括:
样本准备步骤:收集不同性格类型人物预定时长的面部视频作为样本,为每个样本标注一个性格类型;
样本特征提取步骤:提取每个样本的图像特征和音频特征,组合得到每个样本的视频特征;
网络构建步骤:构建以Softmax分类器为输出层的神经网络;
网络训练步骤:定义Softmax损失函数,以各样本的性格标注及视频特征为样本数据,对所述神经网络进行训练,输出各样本对应每种性格类型的概率值,每次训练更新该神经网络的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到人物性格分析模型;及
模型应用步骤:采集待分析对象预定时长的面部视频,利用所述人物性格分析模型分析该待分析对象的该面部视频,得到该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。
2.如权利要求1所述的人物性格分析方法,其特征在于,所述样本特征提取步骤包括:
对每个样本进行解码和预处理,得到每个样本的音频部分和视频帧;
对每个样本的视频帧进行特征提取,得到每个样本的图像特征;及
对每个样本的音频部分进行特征提取,得到每个样本的音频特征。
3.如权利要求1所述的人物性格分析方法,其特征在于,所述网络构建步骤包括:
根据所述样本的序列长度及视频特征维度设置所述神经网络的层数及每层网络的神经元个数;及
根据所述性格类型的数量设置所述Softmax分类器的神经元个数。
4.如权利要求1所述的人物性格分析方法,其特征在于,所述Softmax损失函数公式如下:
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mi>n</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>h</mi>
<mi>&theta;</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>+</mo>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
</mrow>
<mo>)</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>h</mi>
<mi>&theta;</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
其中,θ为所述神经网络的训练参数,Xj表示第j个样本,yj表示第j个样本对应的性格类型的概率。
5.如权利要求1所述的人物性格分析方法,其特征在于,所述网络训练步骤中的训练参数包括迭代次数。
6.如权利要求1所述的人物性格分析方法,其特征在于,所述模型应用步骤还包括:
对所述待分析对象视频进行解码和预处理,得到该待分析对象视频的音频部分和视频帧;
对该待分析对象视频的视频帧进行特征提取,得到该待分析对象视频的图像特征;
对该待分析对象视频的音频部分进行特征提取,得到该待分析对象视频的音频特征;及
对该待分析对象视频的图像特征和音频特征进行组合,得到该待分析对象视频的视频特征。
7.一种计算装置,包括存储器和处理器,其特征在于,所述存储器中包括人物性格分析程序,所述人物性格分析程序被所述处理器执行时实现如下步骤:
样本准备步骤:收集不同性格类型人物预定时长的面部视频作为样本,为每个样本标注一个性格类型;
样本特征提取步骤:提取每个样本的图像特征和音频特征,组合得到每个样本的视频特征;
网络构建步骤:构建以Softmax分类器为输出层的神经网络;
网络训练步骤:定义Softmax损失函数,以各样本的性格标注及视频特征为样本数据,对所述神经网络进行训练,输出各样本对应每种性格类型的概率值,每次训练更新该神经网络的训练参数,以使所述Softmax损失函数最小化的训练参数作为最终参数,得到人物性格分析模型;及
模型应用步骤:采集待分析对象预定时长的面部视频,利用所述人物性格分析模型分析该待分析对象的该面部视频,得到该待分析对象对应每种性格类型的概率值,取概率值最大的性格类型作为该待分析对象的性格类型。
8.如权利要求7所述的计算装置,其特征在于,所述样本特征提取步骤包括:
对每个样本进行解码和预处理,得到每个样本的音频部分和视频帧;
对每个样本的视频帧进行特征提取,得到每个样本的图像特征;及
对每个样本的音频部分进行特征提取,得到每个样本的音频特征。
9.如权利要求7所述的计算装置,其特征在于,所述模型应用步骤还包括:
对所述待分析对象视频进行解码和预处理,得到该待分析对象视频的音频部分和视频帧;
对该待分析对象视频的视频帧进行特征提取,得到该待分析对象视频的图像特征;
对该待分析对象视频的音频部分进行特征提取,得到该待分析对象视频的音频特征;及
对该待分析对象视频的图像特征和音频特征进行组合,得到该待分析对象视频的视频特征。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括人物性格分析程序,所述人物性格分析程序被处理器执行时,实现如权利要求1至6中任一项所述的人物性格分析方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711061173.4A CN108021864A (zh) | 2017-11-02 | 2017-11-02 | 人物性格分析方法、装置及存储介质 |
PCT/CN2018/076121 WO2019085330A1 (zh) | 2017-11-02 | 2018-02-10 | 人物性格分析方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711061173.4A CN108021864A (zh) | 2017-11-02 | 2017-11-02 | 人物性格分析方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108021864A true CN108021864A (zh) | 2018-05-11 |
Family
ID=62080439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711061173.4A Pending CN108021864A (zh) | 2017-11-02 | 2017-11-02 | 人物性格分析方法、装置及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108021864A (zh) |
WO (1) | WO2019085330A1 (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108776846A (zh) * | 2018-05-15 | 2018-11-09 | 中国平安人寿保险股份有限公司 | 推荐方法、装置、计算机设备及存储介质 |
CN109409196A (zh) * | 2018-08-30 | 2019-03-01 | 深圳壹账通智能科技有限公司 | 基于人脸的性格预测方法、装置、电子设备 |
CN109583387A (zh) * | 2018-11-30 | 2019-04-05 | 龙马智芯(珠海横琴)科技有限公司 | 身份认证方法及装置 |
CN109784388A (zh) * | 2018-12-29 | 2019-05-21 | 北京中电普华信息技术有限公司 | 窃电用户识别方法和装置 |
CN109902645A (zh) * | 2019-03-07 | 2019-06-18 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN110110671A (zh) * | 2019-05-09 | 2019-08-09 | 谷泽丰 | 一种性格分析方法、装置及电子设备 |
CN110246512A (zh) * | 2019-05-30 | 2019-09-17 | 平安科技(深圳)有限公司 | 声音分离方法、装置及计算机可读存储介质 |
CN110779175A (zh) * | 2018-07-31 | 2020-02-11 | 珠海格力电器股份有限公司 | 一种运行模式控制方法及装置 |
CN111091489A (zh) * | 2019-11-01 | 2020-05-01 | 平安科技(深圳)有限公司 | 图片优化方法、装置、电子设备及存储介质 |
WO2020093614A1 (zh) * | 2018-11-09 | 2020-05-14 | 深圳壹账通智能科技有限公司 | 面试人员的性格预测方法、装置及计算机可读存储介质 |
CN113593674A (zh) * | 2020-04-30 | 2021-11-02 | 北京心数矩阵科技有限公司 | 一种基于结构化神经网络的性格影响因子分析方法 |
CN115146743A (zh) * | 2022-08-31 | 2022-10-04 | 平安银行股份有限公司 | 性格识别模型的训练方法、性格识别方法、装置及系统 |
CN116739814A (zh) * | 2023-04-23 | 2023-09-12 | 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) | 一种预防疾病传播的方法及社交平台 |
CN116739814B (zh) * | 2023-04-23 | 2024-05-14 | 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) | 一种预防疾病传播的方法及社交平台 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062435A (zh) * | 2019-12-13 | 2020-04-24 | 北京奇艺世纪科技有限公司 | 图像分析方法、装置及电子设备 |
CN111222011B (zh) * | 2020-01-06 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 一种视频向量确定方法和装置 |
CN114584824A (zh) * | 2020-12-01 | 2022-06-03 | 阿里巴巴集团控股有限公司 | 数据处理方法、系统、电子设备、服务端及客户端设备 |
CN112561474B (zh) * | 2020-12-14 | 2024-04-30 | 华南理工大学 | 一种基于多源数据融合的智能人格特性评价方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359995A (zh) * | 2008-09-28 | 2009-02-04 | 腾讯科技(深圳)有限公司 | 提供在线服务的方法和装置 |
CN104462454A (zh) * | 2014-12-17 | 2015-03-25 | 上海斐讯数据通信技术有限公司 | 一种性格分析方法 |
CN105405082A (zh) * | 2015-11-30 | 2016-03-16 | 河北工程大学 | 大数据学生性格分析方法 |
CN105701210A (zh) * | 2016-01-13 | 2016-06-22 | 福建师范大学 | 一种基于混杂特征计算的微博主题情感分析方法 |
CN106909896A (zh) * | 2017-02-17 | 2017-06-30 | 竹间智能科技(上海)有限公司 | 基于人物性格与人际关系识别的人机交互系统及工作方法 |
CN107256386A (zh) * | 2017-05-23 | 2017-10-17 | 东南大学 | 基于深度学习的人类行为分析方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8457354B1 (en) * | 2010-07-09 | 2013-06-04 | Target Brands, Inc. | Movement timestamping and analytics |
-
2017
- 2017-11-02 CN CN201711061173.4A patent/CN108021864A/zh active Pending
-
2018
- 2018-02-10 WO PCT/CN2018/076121 patent/WO2019085330A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359995A (zh) * | 2008-09-28 | 2009-02-04 | 腾讯科技(深圳)有限公司 | 提供在线服务的方法和装置 |
CN104462454A (zh) * | 2014-12-17 | 2015-03-25 | 上海斐讯数据通信技术有限公司 | 一种性格分析方法 |
CN105405082A (zh) * | 2015-11-30 | 2016-03-16 | 河北工程大学 | 大数据学生性格分析方法 |
CN105701210A (zh) * | 2016-01-13 | 2016-06-22 | 福建师范大学 | 一种基于混杂特征计算的微博主题情感分析方法 |
CN106909896A (zh) * | 2017-02-17 | 2017-06-30 | 竹间智能科技(上海)有限公司 | 基于人物性格与人际关系识别的人机交互系统及工作方法 |
CN107256386A (zh) * | 2017-05-23 | 2017-10-17 | 东南大学 | 基于深度学习的人类行为分析方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108776846A (zh) * | 2018-05-15 | 2018-11-09 | 中国平安人寿保险股份有限公司 | 推荐方法、装置、计算机设备及存储介质 |
CN110779175A (zh) * | 2018-07-31 | 2020-02-11 | 珠海格力电器股份有限公司 | 一种运行模式控制方法及装置 |
CN109409196A (zh) * | 2018-08-30 | 2019-03-01 | 深圳壹账通智能科技有限公司 | 基于人脸的性格预测方法、装置、电子设备 |
WO2020093614A1 (zh) * | 2018-11-09 | 2020-05-14 | 深圳壹账通智能科技有限公司 | 面试人员的性格预测方法、装置及计算机可读存储介质 |
CN109583387A (zh) * | 2018-11-30 | 2019-04-05 | 龙马智芯(珠海横琴)科技有限公司 | 身份认证方法及装置 |
CN109784388A (zh) * | 2018-12-29 | 2019-05-21 | 北京中电普华信息技术有限公司 | 窃电用户识别方法和装置 |
CN109902645A (zh) * | 2019-03-07 | 2019-06-18 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN110110671A (zh) * | 2019-05-09 | 2019-08-09 | 谷泽丰 | 一种性格分析方法、装置及电子设备 |
CN110246512B (zh) * | 2019-05-30 | 2023-05-26 | 平安科技(深圳)有限公司 | 声音分离方法、装置及计算机可读存储介质 |
CN110246512A (zh) * | 2019-05-30 | 2019-09-17 | 平安科技(深圳)有限公司 | 声音分离方法、装置及计算机可读存储介质 |
CN111091489A (zh) * | 2019-11-01 | 2020-05-01 | 平安科技(深圳)有限公司 | 图片优化方法、装置、电子设备及存储介质 |
CN111091489B (zh) * | 2019-11-01 | 2024-05-07 | 平安科技(深圳)有限公司 | 图片优化方法、装置、电子设备及存储介质 |
CN113593674A (zh) * | 2020-04-30 | 2021-11-02 | 北京心数矩阵科技有限公司 | 一种基于结构化神经网络的性格影响因子分析方法 |
CN115146743A (zh) * | 2022-08-31 | 2022-10-04 | 平安银行股份有限公司 | 性格识别模型的训练方法、性格识别方法、装置及系统 |
CN116739814A (zh) * | 2023-04-23 | 2023-09-12 | 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) | 一种预防疾病传播的方法及社交平台 |
CN116739814B (zh) * | 2023-04-23 | 2024-05-14 | 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) | 一种预防疾病传播的方法及社交平台 |
Also Published As
Publication number | Publication date |
---|---|
WO2019085330A1 (zh) | 2019-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108021864A (zh) | 人物性格分析方法、装置及存储介质 | |
CN108038414A (zh) | 基于循环神经网络的人物性格分析方法、装置及存储介质 | |
CN108038413A (zh) | 欺诈可能性分析方法、装置及存储介质 | |
CN108053838B (zh) | 结合音频分析和视频分析的欺诈识别方法、装置及存储介质 | |
CN110245213A (zh) | 调查问卷生成方法、装置、设备和存储介质 | |
CN107704834A (zh) | 微表情面审辅助方法、装置及存储介质 | |
CN110246512A (zh) | 声音分离方法、装置及计算机可读存储介质 | |
CN109460737A (zh) | 一种基于增强式残差神经网络的多模态语音情感识别方法 | |
CN109271493A (zh) | 一种语言文本处理方法、装置和存储介质 | |
CN110377814A (zh) | 题目推荐方法、装置及介质 | |
CN111785366B (zh) | 患者治疗方案的确定方法、装置及计算机设备 | |
CN112509690B (zh) | 用于控制质量的方法、装置、设备和存储介质 | |
CN114676704B (zh) | 句子情感分析方法、装置、设备以及存储介质 | |
CN104346408B (zh) | 一种对网络用户进行标注的方法与设备 | |
CN108052889A (zh) | 情绪识别方法、装置及存储介质 | |
CN110020653A (zh) | 图像语义分割方法、装置及计算机可读存储介质 | |
CN106776716A (zh) | 一种智能匹配销售顾问和用户的方法及设备 | |
CN106203050A (zh) | 智能机器人的交互方法及装置 | |
CN104951807A (zh) | 股市情绪的确定方法和装置 | |
CN110246506A (zh) | 人声智能检测方法、装置及计算机可读存储介质 | |
CN110276382A (zh) | 基于谱聚类的人群分类方法、装置及介质 | |
CN112418059A (zh) | 一种情绪识别的方法、装置、计算机设备及存储介质 | |
CN115022098A (zh) | 人工智能安全靶场内容推荐方法、装置及存储介质 | |
CN112995414B (zh) | 基于语音通话的行为质检方法、装置、设备及存储介质 | |
CN109657133A (zh) | 交友对象推荐方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |