CN109376598A - 面部表情图片处理方法、装置、计算机设备和存储介质 - Google Patents
面部表情图片处理方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN109376598A CN109376598A CN201811081555.8A CN201811081555A CN109376598A CN 109376598 A CN109376598 A CN 109376598A CN 201811081555 A CN201811081555 A CN 201811081555A CN 109376598 A CN109376598 A CN 109376598A
- Authority
- CN
- China
- Prior art keywords
- facial
- facial expression
- emotional characteristics
- label information
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 192
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 230000002996 emotional effect Effects 0.000 claims abstract description 167
- 230000001815 facial effect Effects 0.000 claims abstract description 144
- 239000013598 vector Substances 0.000 claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 20
- 230000036651 mood Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims description 75
- 238000010195 expression analysis Methods 0.000 claims description 37
- 230000014509 gene expression Effects 0.000 claims description 30
- 239000000284 extract Substances 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 28
- 238000012360 testing method Methods 0.000 claims description 25
- 238000003062 neural network model Methods 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 23
- 238000005457 optimization Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 18
- 238000011156 evaluation Methods 0.000 claims description 11
- 238000012512 characterization method Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 abstract description 29
- 238000013473 artificial intelligence Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 210000000887 face Anatomy 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 238000005194 fractionation Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 244000221110 common millet Species 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及人工智能领域,提供了一种面部表情图片处理方法、装置、计算机设备和存储介质。方法包括:将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量,可以更准确、详细地描述面部区域特征,提高匹配的准确率,根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息,将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果,根据标签信息组合结果确定面部表情图片对应的情绪特征。通过将面部表情图片拆分,确定拆分后各面部区域的标签,然后将标签进行组合的方式,可以精确分析到面部表情图片中的每个细节,提高了情绪分析的准确率。
Description
技术领域
本申请涉及图片处理技术领域,特别是涉及一种面部表情图片处理方法、装置、计算机设备和存储介质。
背景技术
随着信息技术的发展,对图片的识别处理技术也越来越成熟,例如图片分类,人脸识别等技术,这些技术的快速发展给我们的生活带来了许多便利。目前的人脸识别技术可以用于识别是否为活体,甚至可以识别身份、判断是否为本人。
然而,随着不同的业务需要,对图片处理技术提出了更高的需求,例如在接收到客户申请的大额信用贷款时,通常需要工作人员的线下或远程面审,在对借款客户的面审过程中,主要依赖于工作人员的经验来判断,判断结果不够准确,存在一定的难度和风险,针对此情况,亟待实现一种能够准确进行情绪分析的方法。
发明内容
基于此,有必要针对上述技术问题,提供一种能够准确进行情绪分析的面部表情图片处理方法、装置、计算机设备和存储介质。
一种面部表情图片处理方法,所述方法包括:
将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量;
根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息;
将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
根据标签信息组合结果确定面部表情图片对应的情绪特征。
在其中一个实施例中,将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量之前,还包括:
获取表情图片的训练样本与测试样本;
将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练;
根据训练得到的模型评估参数,对预设神经网络模型的结构进行调整,获得初始面部表情分析模型;
将测试样本输入初始面部表情分析模型,根据样本测试结果对初始面部表情分析模型的参数进行调整,获得优化面部表情分析模型,优化面部表情分析模型用于根据输入的面部表情图片,确定面部表情图片对应的情绪特征。
在其中一个实施例中,将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练,包括:
对训练样本按面部区域进行拆分,并提取各面部区域的样本特征向量;
通过聚类分析对样本特征向量进行层级分类;
将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练之后,还包括:
将样本特征向量设定样本标签信息,并按多层级分类的结果构建标签数据库;
根据预设的训练样本表征的样本情绪特征,以及训练样本对应的样本标签信息组合,建立样本标签信息组合与样本情绪特征的关联关系;
根据样本标签信息组合与样本情绪特征的关联关系,构建情绪特征库。
在其中一个实施例中,根据标签信息组合结果确定面部表情图片对应的情绪特征,包括:
遍历情绪特征库,确定情绪特征库中与标签信息组合结果匹配的情绪特征。
在其中一个实施例中,将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量之前,还包括:
获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片;
根据标签信息组合结果确定面部表情图片对应的情绪特征之后,还包括:
统计待分析视频中各面部表情图片对应的标签信息和情绪特征;
根据面部区域中各标签信息所占比重,确定待分析视频中的主要情绪特征;
根据情绪特征与主要情绪特征,确定待分析视频中的情绪变化。
在其中一个实施例中,根据情绪特征与主要情绪特征,确定待分析视频中的情绪变化包括:
当检测到情绪特征与预设正常区域的差别大于预设值时,确定情绪特征对应的面部表情图片,以及面部表情图片在待分析视频中的时间点;
设定面部表情图片所在的时间点为中心,提取预设时间范围中的多帧图片;
对多帧图片分别进行分析,确定情绪特征在预设时间范围的持续时间;
根据主要情绪特征以及情绪特征的持续时间,确定待分析视频中的情绪变化。
在其中一个实施例中,获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片之前,还包括:
获取客户相关数据信息,根据客户相关数据信息对客户进行面审应急问答,并采集客户面审视频;
设定一个问题或一类问题的问答时间为单位,将客户面审视频划分为多个待分析视频。
一种面部表情图片处理装置,所述装置包括:
面部区域划分与特征向量提取模块,用于将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量;
标签信息查找模块,用于根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息;
标签信息组合结果确定模块,用于将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
情绪特征确定模块,用于根据标签信息组合结果确定面部表情图片对应的情绪特征。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量;
根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息;
将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
根据标签信息组合结果确定面部表情图片对应的情绪特征。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量;
根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息;
将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
根据标签信息组合结果确定面部表情图片对应的情绪特征。
上述面部表情图片处理方法、装置、计算机设备和存储介质,通过将获取到的待分析的面部表情图片按面部区域进行拆分,并提取各面部区域的特征向量,以特征向量的形式表征各面部区域的特征,可以更准确、详细地描述面部区域特征,提高匹配的准确率,通过面部区域的区域标识,遍历与该区域标识对应的标签数据库,查找与特征向量匹配的标签信息,根据标签信息的组合结果,确定面部表情图片对应的情绪特征。通过将面部表情图片拆分,确定拆分后各面部区域的标签,然后将标签进行组合的方式,可以精确分析到面部表情图片中的每个细节,提高了情绪分析的准确率。
附图说明
图1为本申请一个实施例中面部表情图片处理方法的应用场景图;
图2为本申请一个实施例中面部表情图片处理方法的流程示意图;
图3为本申请另一个实施例中面部表情图片处理方法的流程示意图;
图4为本申请另一个实施例中面部表情图片处理方法的流程示意图;
图5为本申请另一个实施例中面部表情图片处理方法的流程示意图;
图6为本申请一个实施例中面部表情图片处理步骤S780的流程示意图;
图7为本申请另一个实施例中面部表情图片处理方法的流程示意图;
图8为本申请一个实施例中面部表情图片处理装置的结构框图;
图9为本申请一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的面部表情图片处理方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。服务器104从终端102获取待分析的面部表情图片,对面部表情图片按面部区域进行拆分,并提取拆分后各面部区域的特征向量,进一步查找特征向量对应的标签信息,最后通过对标签信息进行组合,确定面部表情图片对应的情绪特征,面部表情图片对应的情绪特征可以发送至终端102。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。在实施例中,面部表情处理方法可以应用于金融行业的借款人面审过程,以使面审更好地把握客户的真实情绪变化,有利于提高风控水平。
在一个实施例中,如图2所示,提供了一种面部表情图片处理方法,以该方法应用于图1中的服务器104为例进行说明,包括以下步骤:
S400,将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量。
面部表情图片是指包含待分析对象的脸部正面的面部信息的图片,可以通过人脸检测算法提取图片中的面部信息,在实施例中,可以采用神经网络分析方法提取出面部信息,面部区域是指基于提取的面部信息,以额头、眉毛、眼、鼻子、嘴、下巴等人脸特征点为中心,进行大区域划分,并以大区域的重要特征点如眼部大区域中的眼珠、眼角,嘴部大区域的嘴角等重点区域进行细化,确定面部区域划分规则,划分方法可以根据面部信息中的器官信息与纹理信息等进行识别区分,从而使得不同的面部表情图片可以根据对应特征的位置和形状达到面部区域上的对应划分,面部区域的特征提取是指将图片信息数据化,获取图片信息中各像素单元间隐藏信息的方法,在实施例中,可以通过主元分析、独立分量分析以及线性判别分析的方式来获取面部区域的特征向量。在实施例中,面部表情图片可以包括针对待分析对象,同一时刻从各角度采集到的的图像信息的集合,并对集合进行整合处理,获取各面部区域图片中的最佳视角图片作为特征向量提取目标。
S500,根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息。
面部区域按照设定的划分规则进行拆分,各个面部区域都携带有对应的区域标识,标签数据库与面部区域一一对应,表情数据库中包含大量的样本特征向量,各样本特征向量对应有标签信息,标签信息是指用于表征情绪特征的组成元素,通过将标签数据库与面部区域设置对应绑定关系,可以便捷快速地进行特征向量的匹配,遍历与区域标识对应的标签数据库,可以匹配到与面部区域提取出的特征向量对应的样本特征向量,并根据样本特征向量的对应标签,确定面部区域提取出的特征向量对应的标签信息。
S600,将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果。
在标签信息的获取过程中,将面部表情图片进行了拆分,在拆分过程中,各面部区域携带有原图片的图片识别编码信息,根据图片识别编码信息,可以快速确定原图片的对应各标签信息,将标签信息按照设定的顺序进行组合,可以得到标签信息组合结果。
S700,根据标签信息组合结果确定面部表情图片对应的情绪特征。
特征情绪是指通过对面部表情图片进行分析,得到的对应表征的情绪。在实施例中,可以通过遍历预设的情绪特征库,查找情绪特征库中与标签信息组合结果匹配的情绪特征,从而确定面部表情图片对应的情绪特征。
上述面部表情图片处理方法,通过将获取到的待分析的面部表情图片按面部区域进行拆分,并提取各面部区域的特征向量,以特征向量的形式表征各面部区域的特征,可以更准确、详细地描述面部区域特征,提高匹配的准确率,通过面部区域的区域标识,遍历与该区域标识对应的标签数据库,查找与特征向量匹配的标签信息,根据标签信息的组合结果,确定面部表情图片对应的情绪特征。通过将面部表情图片拆分,确定拆分后各面部区域的标签,然后将标签进行组合的方式,可以精确分析到面部表情图片中的每个细节,提高了情绪分析的准确率。
在一个实施例中,如图3所示,根据输入的面部表情图片,确定面部表情图片对应的情绪特征可以通过神经网络模型分析来进行,将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量之前,还包括:
S320,获取表情图片的训练样本与测试样本。
训练样本与测试样本是指用于对神经网络模型的结构和参数进行调整与优化的面部表情图片,作为训练样本与测试样本的表情图片可以通过网络查找获取,在实施例中,可以根据情绪特征分类查找获取表情图片,并将查找的结果分为两部分,一部分作为训练样本集合,一部分作为测试样本集合,其中训练样本集合与测试样本集合可以有相同图片元素。
S340,将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练。
聚类分析指将物理或抽象对象的集合分组为由类似的对象组成的多个类的分析过程,聚类分析是一种探索性的分析,在分类的过程中,不必事先给出一个分类的标准,聚类分析能够从样本数据出发,自动进行分类。预设的神经网络模型采用聚类分析的方式,对训练样本进行分类,可以获得分类结果,在分类结束后,可以得到对预设神经网络模型的评估参数,模型评估参数是模型结构优化调整的重要依据条件。
S360,根据训练得到的模型评估参数,对预设神经网络模型的结构进行调整,获得初始面部表情分析模型。
模型评估参数包括正确率、召回率以及F值等,其中,正确率是评估捕获的成果中目标成果所占得比例;召回率是从关注领域中,召回目标类别的比例;F值是综合这二者指标的评估指标,用于综合反映整体的指标,通过模型评估参数,可以判断模型结构的优劣,并以此为依据,对模型结构如预设神经网络模型中隐藏层包含的卷积层、池化层以及全连接层的数量与方式进行不断地优化调整,从而得到优化后的初始面部表情分析模型。
S380,将测试样本输入初始面部表情分析模型,根据样本测试结果对初始面部表情分析模型的参数进行调整,获得优化面部表情分析模型,优化面部表情分析模型用于根据输入的面部表情图片,确定面部表情图片对应的情绪特征。
初始面部表情分析模型是对模型结构进行优化后的结果,为提高模型的分析准确率,还需对模型的参数进行进一步调整,通过将测试样本输入初始面部表情分析模型,得到样本测试结果,根据样本测试结果对初始面部表情分析模型的参数进行调整,获得优化面部表情分析模型。
在一个实施例中,如图4所示,将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练,包括:
S342,对训练样本按面部区域进行拆分,并提取各面部区域的样本特征向量。
S344,通过聚类分析对样本特征向量进行层级分类。
层级分类是指按照面部大区域以及大区域中的细化区域进行分类,通过层级分类可以提高分类处理速度,在实施例中,可以先将获取的训练样本的表情图片按照面部区域进行初步分类,并对根据面部区域进行初步归类好的样本图片,按照同一面部区域的不同状态进行进一步细分。
将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练之后,还包括:
S352,将样本特征向量设定样本标签信息,并按多层级分类的结果构建标签数据库。
S354,根据预设的训练样本表征的样本情绪特征,以及训练样本对应的样本标签信息组合,建立样本标签信息组合与样本情绪特征的关联关系。
S356,根据样本标签信息组合与样本情绪特征的关联关系,构建情绪特征库。
通过对分类好的样本特征向量设定样本标签信息,可以实现标签数据库的分类构建,在实施例中,可以根据初级分类的结果,分别构建标签数据库,并建立标签数据库与初级分类的各面部区域对应区域标识的绑定关系,以便通过面部区域的区域标识查找到对应的标签数据库。训练样本可以根据分类搜索获得,各训练样本携带有本身表征的情绪特征,根据训练样本的样本标签信息组合,可以建立样本标签信息组合与样本情绪特征的关联关系,并利用各种样本标签信息组合,以及其表征的情绪特征,构建情绪特征库,以便在使用过程中,根据待分析的面部表情图片的标签信息组合,查找该情绪特征库,根据与之匹配的结果确定待分析的面部表情图片的情绪特征。
在一个实施例中,根据标签信息组合结果确定面部表情图片对应的情绪特征,包括:
S720,遍历情绪特征库,确定情绪特征库中与标签信息组合结果匹配的情绪特征。
在一个实施例中,如图5所示,将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量之前,还包括:
S200,获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片。
根据标签信息组合结果确定面部表情图片对应的情绪特征之后,还包括:
S740,统计待分析视频中各面部表情图片对应的标签信息和情绪特征。
S760,根据面部区域中各标签信息所占比重,确定待分析视频中的主要情绪特征。
S780,根据情绪特征与主要情绪特征,确定待分析视频中的情绪变化。
在实际使用过程中,面部表情图片的获取途径会根据实际应用场景而变化,例如在面审风控过程中,需要分析的面部表情图片需要从面审过程中获取,在实施例中,可以通过设定频率拍摄面审过程中客户的面部表情图片,也可以通过拍摄客户面审视频,通过截取视频中的面部表情图片进行分析,在其中一个实施例中,获取需要分析的客户面审视频,根据设定的频率对播放的面审视频进行截图,截取出多张用户的面部表情图片,将截取的图片输入预先构建并优化处理后的面部表情分析模型,该模型对截图中的用户面部区域进行拆分,对拆分后的面部区域进行特征向量提取,依据该面部区域的区域标识,遍历面部表情分析模型中与该标识对应的标签数据库,查找标签数据库中与该面部区域特征向量相同的标签信息,然后将各面部区域的数据标签信息进行组合,通过将组合结果与模型中的情绪特征数据库进行对比,对比结果重合的组合结果即为该面部表情图片对应的情绪特征。根据多个图片的分析结果的变化过程,对应用户情绪的变化。根据面部区域中各标签信息所占比重,确定待分析视频中的主要情绪特征,主要情绪特征是表征用户在该时间段内的情绪基调的重要依据,在实施例中,通过对该视频中的多张图片的数据标签信息进行统计,根据各面部区域中比重最大的数据标签信息,确定该段视频中用户的主要情绪特征,进一步通过每一张面部表情图片表征的情绪特征,判断以主要情绪特征为基调的面审过程中,客户的情绪变化。在实施例中,可以根据设定的频率如0.01S对视频片段进行截图,并对该段时间内的截图进行抽样,选取出一定数量的截图样本来进行分析判断。具体地,抽样方式可以是按时间顺序的系统抽样法。在其他实施例中,还可以通过对视频文件进行解码,提取每帧数据,得到图片样本。
在一个实施例中,如图6所示,根据情绪特征与主要情绪特征,确定待分析视频中的情绪变化包括:
S782,当检测到情绪特征与预设正常区域的差别大于预设值时,确定情绪特征对应的面部表情图片,以及面部表情图片在待分析视频中的时间点。
S784,设定面部表情图片所在的时间点为中心,提取预设时间范围中的多帧图片。
S786,对多帧图片分别进行分析,确定情绪特征在预设时间范围的持续时间。
S788,根据主要情绪特征以及情绪特征的持续时间,确定待分析视频中的情绪变化。
预设正常区域是指用户在问答过程中应该表现的情绪,通过对没一会在那个面部表情图片对应的情绪特征进行分析,并通过数据形式表征情绪特征,当情绪特征与预设正常区域的差别大于预设值时,表明客户的情绪异常,以该面部表情图片所在的时间点为中心,提取出设定时间范围的截图,将提取出的截图进行再次分析,并统计在预设时间范围内该情绪特征的持续时间,提高分析结果的准确性。
在一个实施例中,如图7所示,获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片之前,还包括:
S120,获取客户相关数据信息,根据客户相关数据信息对客户进行面审应急问答,并采集客户面审视频。
S140,设定一个问题或一类问题的问答时间为单位,将客户面审视频划分为多个待分析视频。
获取用户相关数据信息,包括用户每天的运动轨迹,用户的资产信息(包括存款信息与房产信息等),历史借贷情况,通话、水电等各项生活费用的缴纳情况等,结合各项数据分析,确定风控评审影响因素,以作为评审重要参考条件。例如,将客户回答应激问题“你是否有固定住房资产?”、“你的工作稳定吗?”、“如果将这笔资金贷款给你,你是否能在规定期限能还款?”的视频片段,一个问题或一类问题的问答时间为单位,逐一从视频中划分成多个小的视频片段,以便后续有针对性地对客户情绪进行分析。
应该理解的是,虽然图2-7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-7中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种面部表情图片处理装置,包括:
面部区域划分与特征向量提取模块400,用于将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量;
标签信息查找模块500,用于根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息;
标签信息组合结果确定模块600,用于将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
情绪特征确定模块700,用于根据标签信息组合结果确定面部表情图片对应的情绪特征。
在一个实施例中,面部表情图片处理装置还包括面部表情分析模型优化调整模块,面部表情分析模型优化调整模块包括:
样本获取单元,用于获取表情图片的训练样本与测试样本;
分类训练单元,用于将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练;
模型结构调整单元,用于根据训练得到的模型评估参数,对预设神经网络模型的结构进行调整,获得初始面部表情分析模型;
模型参数优化单元,用于将测试样本输入初始面部表情分析模型,根据样本测试结果对初始面部表情分析模型的参数进行调整,获得优化面部表情分析模型,优化面部表情分析模型用于根据输入的面部表情图片,确定面部表情图片对应的情绪特征。
在一个实施例中,分类训练单元还用于对训练样本按面部区域进行拆分,并提取各面部区域的样本特征向量,通过聚类分析对样本特征向量进行层级分类,
面部表情分析模型优化调整模块还包括:
标签数据库构建单元,用于将样本特征向量设定样本标签信息,并按多层级分类的结果构建标签数据库;
关联关系建立单元,用于根据预设的训练样本表征的样本情绪特征,以及训练样本对应的样本标签信息组合,建立样本标签信息组合与样本情绪特征的关联关系;
情绪特征库构建单元,用于根据样本标签信息组合与样本情绪特征的关联关系,构建情绪特征库。
在一个实施例中,情绪特征确定模块700,还用于遍历情绪特征库,确定情绪特征库中与标签信息组合结果匹配的情绪特征。
在一个实施例中,面部表情图片处理装置还包括:
面部表情图片获取模块,用于获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片;
情绪变化分析模块,用于统计待分析视频中各面部表情图片对应的标签信息和情绪特征,根据面部区域中各标签信息所占比重,确定待分析视频中的主要情绪特征,根据情绪特征与主要情绪特征,确定待分析视频中的情绪变化。
在一个实施例中,情绪变化分析模块还用于当检测到情绪特征与预设正常区域的差别大于预设值时,确定情绪特征对应的面部表情图片,以及面部表情图片在待分析视频中的时间点,设定面部表情图片所在的时间点为中心,提取预设时间范围中的多帧图片,对多帧图片分别进行分析,确定情绪特征在预设时间范围的持续时间,根据主要情绪特征以及情绪特征的持续时间,确定待分析视频中的情绪变化。
在一个实施例中,面部表情图片处理装置还包括:
待分析视频采集与划分模块,用于获取客户相关数据信息,根据客户相关数据信息对客户进行面审应急问答,并采集客户面审视频,设定一个问题或一类问题的问答时间为单位,将客户面审视频划分为多个待分析视频。
上述面部表情图片处理装置,通过将获取到的待分析的面部表情图片按面部区域进行拆分,并提取各面部区域的特征向量,以特征向量的形式表征各面部区域的特征,可以更准确、详细地描述面部区域特征,提高匹配的准确率,通过面部区域的区域标识,遍历与该区域标识对应的标签数据库,查找与特征向量匹配的标签信息,根据标签信息的组合结果,确定面部表情图片对应的情绪特征。通过将面部表情图片拆分,确定拆分后各面部区域的标签,然后将标签进行组合的方式,可以精确分析到面部表情图片中的每个细节,提高了情绪分析的准确率。
关于面部表情图片处理装置的具体限定可以参见上文中对于面部表情图片处理方法的限定,在此不再赘述。上述面部表情图片处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种面部表情图片处理方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量;
根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息;
将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
根据标签信息组合结果确定面部表情图片对应的情绪特征。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取表情图片的训练样本与测试样本;
将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练;
根据训练得到的模型评估参数,对预设神经网络模型的结构进行调整,获得初始面部表情分析模型;
将测试样本输入初始面部表情分析模型,根据样本测试结果对初始面部表情分析模型的参数进行调整,获得优化面部表情分析模型,优化面部表情分析模型用于根据输入的面部表情图片,确定面部表情图片对应的情绪特征。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
对训练样本按面部区域进行拆分,并提取各面部区域的样本特征向量;
通过聚类分析对样本特征向量进行层级分类;
将样本特征向量设定样本标签信息,并按多层级分类的结果构建标签数据库;
根据预设的训练样本表征的样本情绪特征,以及训练样本对应的样本标签信息组合,建立样本标签信息组合与样本情绪特征的关联关系;
根据样本标签信息组合与样本情绪特征的关联关系,构建情绪特征库。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
遍历情绪特征库,确定情绪特征库中与标签信息组合结果匹配的情绪特征。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片;
统计待分析视频中各面部表情图片对应的标签信息和情绪特征;
根据面部区域中各标签信息所占比重,确定待分析视频中的主要情绪特征;
根据情绪特征与主要情绪特征,确定待分析视频中的情绪变化。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
当检测到情绪特征与预设正常区域的差别大于预设值时,确定情绪特征对应的面部表情图片,以及面部表情图片在待分析视频中的时间点;
设定面部表情图片所在的时间点为中心,提取预设时间范围中的多帧图片;
对多帧图片分别进行分析,确定情绪特征在预设时间范围的持续时间;
根据主要情绪特征以及情绪特征的持续时间,确定待分析视频中的情绪变化。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取客户相关数据信息,根据客户相关数据信息对客户进行面审应急问答,并采集客户面审视频;
设定一个问题或一类问题的问答时间为单位,将客户面审视频划分为多个待分析视频。
上述用于实现面部表情图片处理方法的计算机设备,通过将获取到的待分析的面部表情图片按面部区域进行拆分,并提取各面部区域的特征向量,以特征向量的形式表征各面部区域的特征,可以更准确、详细地描述面部区域特征,提高匹配的准确率,通过面部区域的区域标识,遍历与该区域标识对应的标签数据库,查找与特征向量匹配的标签信息,根据标签信息的组合结果,确定面部表情图片对应的情绪特征。通过将面部表情图片拆分,确定拆分后各面部区域的标签,然后将标签进行组合的方式,可以精确分析到面部表情图片中的每个细节,提高了情绪分析的准确率。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
将获取的面部表情图片拆分成多个面部区域,分别提取各面部区域的特征向量;
根据面部区域的区域标识,遍历与区域标识对应的标签数据库,查找标签数据库中与特征向量匹配的标签信息;
将面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
根据标签信息组合结果确定面部表情图片对应的情绪特征。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取表情图片的训练样本与测试样本;
将训练样本输入预设神经网络模型,通过聚类分析对训练样本进行分类训练;
根据训练得到的模型评估参数,对预设神经网络模型的结构进行调整,获得初始面部表情分析模型;
将测试样本输入初始面部表情分析模型,根据样本测试结果对初始面部表情分析模型的参数进行调整,获得优化面部表情分析模型,优化面部表情分析模型用于根据输入的面部表情图片,确定面部表情图片对应的情绪特征。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
对训练样本按面部区域进行拆分,并提取各面部区域的样本特征向量;
通过聚类分析对样本特征向量进行层级分类;
将样本特征向量设定样本标签信息,并按多层级分类的结果构建标签数据库;
根据预设的训练样本表征的样本情绪特征,以及训练样本对应的样本标签信息组合,建立样本标签信息组合与样本情绪特征的关联关系;
根据样本标签信息组合与样本情绪特征的关联关系,构建情绪特征库。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
遍历情绪特征库,确定情绪特征库中与标签信息组合结果匹配的情绪特征。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片;
统计待分析视频中各面部表情图片对应的标签信息和情绪特征;
根据面部区域中各标签信息所占比重,确定待分析视频中的主要情绪特征;
根据情绪特征与主要情绪特征,确定待分析视频中的情绪变化。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
当检测到情绪特征与预设正常区域的差别大于预设值时,确定情绪特征对应的面部表情图片,以及面部表情图片在待分析视频中的时间点;
设定面部表情图片所在的时间点为中心,提取预设时间范围中的多帧图片;
对多帧图片分别进行分析,确定情绪特征在预设时间范围的持续时间;
根据主要情绪特征以及情绪特征的持续时间,确定待分析视频中的情绪变化。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取客户相关数据信息,根据客户相关数据信息对客户进行面审应急问答,并采集客户面审视频;
设定一个问题或一类问题的问答时间为单位,将客户面审视频划分为多个待分析视频。
上述用于实现面部表情图片处理方法的存储介质,通过将获取到的待分析的面部表情图片按面部区域进行拆分,并提取各面部区域的特征向量,以特征向量的形式表征各面部区域的特征,可以更准确、详细地描述面部区域特征,提高匹配的准确率,通过面部区域的区域标识,遍历与该区域标识对应的标签数据库,查找与特征向量匹配的标签信息,根据标签信息的组合结果,确定面部表情图片对应的情绪特征。通过将面部表情图片拆分,确定拆分后各面部区域的标签,然后将标签进行组合的方式,可以精确分析到面部表情图片中的每个细节,提高了情绪分析的准确率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种面部表情图片处理方法,所述方法包括:
将获取的面部表情图片拆分成多个面部区域,分别提取各所述面部区域的特征向量;
根据所述面部区域的区域标识,遍历与所述区域标识对应的标签数据库,查找所述标签数据库中与所述特征向量匹配的标签信息;
将所述面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
根据所述标签信息组合结果确定所述面部表情图片对应的情绪特征。
2.根据权利要求1所述的面部表情图片处理方法,其特征在于,所述将获取的面部表情图片拆分成多个面部区域,分别提取各所述面部区域的特征向量之前,还包括:
获取表情图片的训练样本与测试样本;
将所述训练样本输入预设神经网络模型,通过聚类分析对所述训练样本进行分类训练;
根据训练得到的模型评估参数,对所述预设神经网络模型的结构进行调整,获得初始面部表情分析模型;
将所述测试样本输入所述初始面部表情分析模型,根据样本测试结果对所述初始面部表情分析模型的参数进行调整,获得优化面部表情分析模型,所述优化面部表情分析模型用于根据输入的所述面部表情图片,确定所述面部表情图片对应的情绪特征。
3.根据权利要求2所述的面部表情图片处理方法,其特征在于,所述将所述训练样本输入预设神经网络模型,通过聚类分析对所述训练样本进行分类训练,包括:
对所述训练样本按面部区域进行拆分,并提取各面部区域的样本特征向量;
通过聚类分析对所述样本特征向量进行层级分类;
所述将所述训练样本输入预设神经网络模型,通过聚类分析对所述训练样本进行分类训练之后,还包括:
将所述样本特征向量设定样本标签信息,并按所述多层级分类的结果构建标签数据库;
根据预设的训练样本表征的样本情绪特征,以及所述训练样本对应的样本标签信息组合,建立所述样本标签信息组合与所述样本情绪特征的关联关系;
根据所述样本标签信息组合与所述样本情绪特征的关联关系,构建情绪特征库。
4.根据权利要求3所述的面部表情图片处理方法,其特征在于,所述根据所述标签信息组合结果确定所述面部表情图片对应的情绪特征,包括:
遍历所述情绪特征库,确定所述情绪特征库中与所述标签信息组合结果匹配的情绪特征。
5.根据权利要求1所述的面部表情图片处理方法,其特征在于,所述将获取的面部表情图片拆分成多个面部区域,分别提取各所述面部区域的特征向量之前,还包括:
获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片;
所述根据所述标签信息组合结果确定所述面部表情图片对应的情绪特征之后,还包括:
统计所述待分析视频中各面部表情图片对应的所述标签信息和情绪特征;
根据所述面部区域中各标签信息所占比重,确定所述待分析视频中的主要情绪特征;
根据所述情绪特征与所述主要情绪特征,确定所述待分析视频中的情绪变化。
6.根据权利要求5所述的面部表情图片处理方法,其特征在于,所述根据所述情绪特征与所述主要情绪特征,确定所述待分析视频中的情绪变化包括:
当检测到所述情绪特征与预设正常区域的差别大于预设值时,确定所述情绪特征对应的面部表情图片,以及所述面部表情图片在所述待分析视频中的时间点;
设定所述面部表情图片所在的时间点为中心,提取预设时间范围中的多帧图片;
对所述多帧图片分别进行分析,确定所述情绪特征在所述预设时间范围的持续时间;
根据所述主要情绪特征以及所述情绪特征的持续时间,确定所述待分析视频中的情绪变化。
7.根据权利要求5所述的面部表情图片处理方法,其特征在于,所述获取待分析视频,根据设定的频率对播放的待分析视频进行取样,获取多张面部表情图片之前,还包括:
获取客户相关数据信息,根据所述客户相关数据信息对客户进行面审应急问答,并采集客户面审视频;
设定一个问题或一类问题的问答时间为单位,将所述客户面审视频划分为多个待分析视频。
8.一种面部表情图片处理装置,其特征在于,所述装置包括:
面部区域划分与特征向量提取模块,用于将获取的面部表情图片拆分成多个面部区域,分别提取各所述面部区域的特征向量;
标签信息查找模块,用于根据所述面部区域的区域标识,遍历与所述区域标识对应的标签数据库,查找所述标签数据库中与所述特征向量匹配的标签信息;
标签信息组合结果确定模块,用于将所述面部表情图片的各面部区域的标签信息进行组合,获取标签信息组合结果;
情绪特征确定模块,用于根据所述标签信息组合结果确定所述面部表情图片对应的情绪特征。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811081555.8A CN109376598A (zh) | 2018-09-17 | 2018-09-17 | 面部表情图片处理方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811081555.8A CN109376598A (zh) | 2018-09-17 | 2018-09-17 | 面部表情图片处理方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109376598A true CN109376598A (zh) | 2019-02-22 |
Family
ID=65404767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811081555.8A Pending CN109376598A (zh) | 2018-09-17 | 2018-09-17 | 面部表情图片处理方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109376598A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992505A (zh) * | 2019-03-15 | 2019-07-09 | 平安科技(深圳)有限公司 | 应用程序测试方法、装置、计算机设备及存储介质 |
CN110110672A (zh) * | 2019-05-10 | 2019-08-09 | 广东工业大学 | 一种人脸表情识别方法、装置及设备 |
CN110414493A (zh) * | 2019-06-02 | 2019-11-05 | 四川仕虹腾飞信息技术有限公司 | 一种心理状态分析方法与系统 |
CN111259857A (zh) * | 2020-02-13 | 2020-06-09 | 星宏集群有限公司 | 一种人脸笑容评分方法及人脸情绪分类方法 |
CN111738160A (zh) * | 2020-06-23 | 2020-10-02 | 平安科技(深圳)有限公司 | 视频微表情识别方法、装置、计算机设备及存储介质 |
CN111914844A (zh) * | 2019-05-07 | 2020-11-10 | 杭州海康威视数字技术股份有限公司 | 一种图像识别方法、装置、电子设备及存储介质 |
CN112492389A (zh) * | 2019-09-12 | 2021-03-12 | 上海哔哩哔哩科技有限公司 | 视频推送方法、视频播放方法、计算机设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106293074A (zh) * | 2016-07-29 | 2017-01-04 | 维沃移动通信有限公司 | 一种情绪识别方法和移动终端 |
CN107341432A (zh) * | 2016-05-03 | 2017-11-10 | 中兴通讯股份有限公司 | 一种微表情识别的方法和装置 |
CN107862598A (zh) * | 2017-09-30 | 2018-03-30 | 平安普惠企业管理有限公司 | 远程面谈审批方法、服务器及可读存储介质 |
-
2018
- 2018-09-17 CN CN201811081555.8A patent/CN109376598A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107341432A (zh) * | 2016-05-03 | 2017-11-10 | 中兴通讯股份有限公司 | 一种微表情识别的方法和装置 |
CN106293074A (zh) * | 2016-07-29 | 2017-01-04 | 维沃移动通信有限公司 | 一种情绪识别方法和移动终端 |
CN107862598A (zh) * | 2017-09-30 | 2018-03-30 | 平安普惠企业管理有限公司 | 远程面谈审批方法、服务器及可读存储介质 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992505A (zh) * | 2019-03-15 | 2019-07-09 | 平安科技(深圳)有限公司 | 应用程序测试方法、装置、计算机设备及存储介质 |
CN111914844A (zh) * | 2019-05-07 | 2020-11-10 | 杭州海康威视数字技术股份有限公司 | 一种图像识别方法、装置、电子设备及存储介质 |
CN110110672A (zh) * | 2019-05-10 | 2019-08-09 | 广东工业大学 | 一种人脸表情识别方法、装置及设备 |
CN110414493A (zh) * | 2019-06-02 | 2019-11-05 | 四川仕虹腾飞信息技术有限公司 | 一种心理状态分析方法与系统 |
CN112492389A (zh) * | 2019-09-12 | 2021-03-12 | 上海哔哩哔哩科技有限公司 | 视频推送方法、视频播放方法、计算机设备和存储介质 |
CN111259857A (zh) * | 2020-02-13 | 2020-06-09 | 星宏集群有限公司 | 一种人脸笑容评分方法及人脸情绪分类方法 |
CN111738160A (zh) * | 2020-06-23 | 2020-10-02 | 平安科技(深圳)有限公司 | 视频微表情识别方法、装置、计算机设备及存储介质 |
CN111738160B (zh) * | 2020-06-23 | 2024-03-26 | 平安科技(深圳)有限公司 | 视频微表情识别方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376598A (zh) | 面部表情图片处理方法、装置、计算机设备和存储介质 | |
Abd El Meguid et al. | Fully automated recognition of spontaneous facial expressions in videos using random forest classifiers | |
CN109359548B (zh) | 多人脸识别监控方法及装置、电子设备及存储介质 | |
CN109508638A (zh) | 人脸情绪识别方法、装置、计算机设备及存储介质 | |
CN109948447B (zh) | 基于视频图像识别的人物网络关系发现及演化呈现方法 | |
Phillips et al. | Evaluation methods in face recognition | |
WO2019100282A1 (zh) | 一种人脸肤色识别方法、装置和智能终端 | |
CN108717663B (zh) | 基于微表情的面签欺诈判断方法、装置、设备及介质 | |
Barra et al. | Web-shaped model for head pose estimation: An approach for best exemplar selection | |
CN111738243B (zh) | 人脸图像的选择方法、装置、设备及存储介质 | |
CN109766770A (zh) | 服务质量评价方法、装置、计算机设备和存储介质 | |
CN109858958A (zh) | 基于微表情的目标客户定位方法、装置、设备及存储介质 | |
CN105721936B (zh) | 一种基于情景感知的智能电视节目推荐系统 | |
CN111160275B (zh) | 行人重识别模型训练方法、装置、计算机设备和存储介质 | |
CN109858405A (zh) | 基于微表情的满意度评价方法、装置、设备及存储介质 | |
CN107911643A (zh) | 一种视频通信中展现场景特效的方法和装置 | |
CN113643047B (zh) | 虚拟现实控制策略的推荐方法、装置、设备及存储介质 | |
CN110298829A (zh) | 一种舌诊方法、装置、系统、计算机设备和存储介质 | |
CN109063984A (zh) | 风险旅客方法、装置、计算机设备和存储介质 | |
CN113139439A (zh) | 一种基于人脸识别的在线学习专注度评价方法及装置 | |
KR102594093B1 (ko) | 딥러닝 기술을 활용한 피부과 시술 추천 시스템 및 방법 | |
CN109697421A (zh) | 基于微表情的评价方法、装置、计算机设备和存储介质 | |
CN115130493A (zh) | 基于图像识别的面部形变推荐方法、装置、设备和介质 | |
Sun et al. | In your eyes: Modality disentangling for personality analysis in short video | |
US20220101407A1 (en) | Method for determining a recommended product, electronic apparatus, and non-transitory computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |