CN114373214A - 基于微表情的用户心理分析方法、装置、设备及存储介质 - Google Patents

基于微表情的用户心理分析方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN114373214A
CN114373214A CN202210040449.5A CN202210040449A CN114373214A CN 114373214 A CN114373214 A CN 114373214A CN 202210040449 A CN202210040449 A CN 202210040449A CN 114373214 A CN114373214 A CN 114373214A
Authority
CN
China
Prior art keywords
micro
expression
expressions
sub
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210040449.5A
Other languages
English (en)
Inventor
臧家琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Puhui Enterprise Management Co Ltd
Original Assignee
Ping An Puhui Enterprise Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Puhui Enterprise Management Co Ltd filed Critical Ping An Puhui Enterprise Management Co Ltd
Priority to CN202210040449.5A priority Critical patent/CN114373214A/zh
Publication of CN114373214A publication Critical patent/CN114373214A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于微表情的用户心理分析方法,应用于人工智能技术领域,用于提高基于微表情对用户的心理进行分析的分析结果的准确性。本发明提供的方法包括:获取待识别的视频;从该视频中抽取包含有人像画面的帧图像;通过预先训练好的微表情识别模型对该帧图像进行识别,当该帧图像中包含微表情时,输出对应帧图像中包含的时序子表情;将该时序子表情中排在第一位的子表情作为根节点匹配对应的决策树;将该时序子表情中剩余的子表情按照对应子表情的时序排位在该决策树中依次进行匹配;当排在最末位的子表情与该决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为被检测人员的心理状态。

Description

基于微表情的用户心理分析方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及基于微表情的用户心理分析方法、装置、计算机设备及存储介质。
背景技术
微表情识别是人工智能领域的重要领域,微表情对于人类来说这是一种与生俱来的一种神态,是我们无法自控的,对于专业人士来说,微表情就是我们内心的真实写照,真实反应我们自己的内心最真实的想法,对于人工智能来说,微表情识别是人脸识别的一个新的进展,当前各大巨头都在着手研究微表情识别,人生气、高兴、惊讶、说谎都会产生微表情的变化,通过对这些细微表情的变化数据进行提前分析,能快速识别推测出人的内心的真实想法,在公安领域有着很大的应用,能够帮助公安部门更好的进行审讯,检测被监控人的心理活动。
目前对于微表情的研究,已经出现了一些微表情的识别模型,但是目前的微表情识别模型是基于无监督学习得到,在学习和识别的过程中出现错误识别时,用户无法得知,只能看到分析的结果,导致微表情识别模型的识别结果不够准确,最终导致对相应用户的心理分析结果也不准确。
发明内容
本发明实施例提供一种基于微表情的用户心理分析方法、装置、计算机设备及存储介质,以解决基于微表情对用户的心理进行分析的准确性低的技术问题。
一种基于微表情的用户心理分析方法,包括:
获取待识别的视频;
从待识别的所述视频中抽取包含有人像画面的至少一个帧图像;
通过预先训练好的微表情识别模型对所述帧图像进行识别,当所述帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情;
将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树,所述决策树的根节点及中间节点表示表情,所述决策树的叶子节点表示心理状态;
将所述时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配;
当排在最末位的子表情与所述决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态。
一种基于微表情的用户心理分析装置,包括:
视频获取模块,用于获取待识别的视频;
图像抽取模块,用于从待识别的所述视频中抽取包含有人像画面的至少一个帧图像;
识别模块,用于通过预先训练好的微表情识别模型对所述帧图像进行识别,当所述帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情;
第一匹配模块,用于将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树,所述决策树的根节点及中间节点表示表情,所述决策树的叶子节点表示心理状态;
第二匹配模块,用于将所述时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配;
状态确定模块,用于当排在最末位的子表情与所述决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于微表情的用户心理分析方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于微表情的用户心理分析方法的步骤。
本申请提出的基于微表情的用户心理分析方法、装置、计算机设备及存储介质,首先从待识别的视频中抽取包含有人像画面的至少一个帧图像,通过预先训练好的微表情识别模型对该帧图像进行识别,当该帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情,便于在将智能识别到的微表情进行人工校验时,心理专家能够对被测人员的微表情尽快获取,以使得人工智能和专业表情分析师可以同时对被测人员的微表情及心理进行分析,一方面可以提高对被测人员依据微表情进行分析的准确性,另一方面便于根据同一待识别的视频,利用专业表情分析师对智能识别的微表情进行校验,以确定本申请通过微表情识别模型对该微表情进行识别的准确性。然后将该时序子表情中排在第一位的子表情作为根节点,根据该根节点匹配对应的决策树,再将该时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态,通过将该微表情识别模型和该决策树进行配合应用,能够实现基于微表情对被测人员的心理状态进行智能分析,同时便于专业表情分析师对微表情识别模型识别出的微表情进行校验,以提高通过微表情对被测人员的心理状态预测的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于微表情的用户心理分析方法的一应用环境示意图;
图2是本发明一实施例中基于微表情的用户心理分析方法的一流程图;
图3是本发明一实施例中训练微表情识别模型一流程图;
图4是本发明一实施例中基于微表情的用户心理分析装置的结构示意图;
图5是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供的基于微表情的用户心理分析方法,可应用在如图1的应用环境中,其中,该计算机设备能够通过网络与外部服务器进行通信。其中,该计算机设备可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
可以理解的是,该基于微表情的用户心理分析方法属于人工智能技术领域,通过人工智能并基于微表情对用户心理进行分析,本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
在一实施例中,如图2所示,为了提高基于微表情对用户的心理进行分析的分析结果的准确性,本申请提出了一种基于微表情的用户心理分析方法,以该方法应用在图1中的计算机设备为例进行说明,包括如下步骤S101至S101至S106。
S101、获取待识别的视频。
所述视频可以是实时拍摄得到,也可以是预先存储在存储器上的视频,还可以是存储在其他设备上发送至本端的视频。
在其中一个实施例中,在获取待识别的视频的步骤之后,所述方法还包括:
对待识别的所述视频进行预处理。
进一步地,对该待识别的视频进行预处理的方式例如:
截取待识别的所述视频中不包括人像的第一视频片段并删除。
通过对待识别的视频进行预处理,将不包括人像的第一视频片段删除,可以剔除无用的视频片段,减少需要处理的视频数据量,从而缩短微表情的分析时间。
S102、从待识别的所述视频中抽取包含有人像画面的至少一个帧图像。
作为可选地,所述从待识别的所述视频中抽取包含有人像画面的至少一个帧图像的步骤具体包括:
识别所述帧图像中是否包含有人脸区域,若是,则抽取对应的帧图像。
在其中一个实施例中,所述从待识别的所述视频中抽取包含有人像画面的至少一个帧图像的步骤具体包括:
识别所述视频中是否包含有人体姿态动画,若是,则截取包含有人体姿态动画的第二视频片段;
获取所述包含有人体姿态动画的第二视频片段的帧图像。
在其中一个实施例中,该人体姿态包括但不限于抖腿、抖手指、耸肩等。
S103、通过预先训练好的微表情识别模型对所述帧图像进行识别,当所述帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情。
在其中一个实施例中,该微表情包括但不限于面部表情和人体姿态,可以理解的是,能够表示微表情的人体姿态为预先设定的特定人体姿态,例如抖腿、抖手指、耸肩等。
其中,输出所述时序子表情的方例如通过终端设备的屏幕显示该时序子表情、将该时序子表情发送至其它设备进行显示输出等。
可以理解的是,该时序子表情为对应帧图像中人像展示出来的微表情按照发生时刻而产生的子表情序列,例如“笑”的时序子表情按照发生时刻产生的时序子表情可以包括左嘴角上扬、右嘴角上扬、抖手指,在其他实施例中,“笑”的时序子表情按照发生时刻产生的时序子表情还可以包括左右嘴角同时上扬、抖腿等。
在其中一个实施例中,在所述输出对应帧图像中包含的对应微表情的时序子表情的步骤之后,所述方法还包括:
检测所述微表情是否发生在面部区域;
当对应帧图像中包含的所述微表情发生在面部区域时,截取所述面部区域;
对截取的所述面部区域进行放大处理;
输出包括放大后的所述面部区域的对应帧图像。
本实施例通过输出包括放大后的面部区域的对应帧图像,使得后续利用该微表情的帧图像并通过决策树对被检测人员的心理状态进行匹配时,用户可以将决策树的匹配结果与对应面部区域的帧图像所显示的微表情进行校验,对于新人来讲,有利于新人结合决策树的心理状态的匹配结果以及对应的微表情进行学习,学习哪一连续的微表情对应地是人们的哪一种心理状态,对于微表情分析专家而言,有利于结合具体的微表情对决策树匹配出的心理状态进行校对,使得决策树的叶子节点表示的心理状态出错时,可以及时纠正。
在其中一个实施例中,在所述对截取的所述面部区域进行放大处理的步骤之后,所述方法还包括:
从所述待识别的视频中截取所述面部区域发生微表情的第三视频片段;
同时输出放大后的所述面部区域的对应帧图像和所述第三视频片段。
其中同时输出发生微表情的面部区域的帧图像及第三视频片段的方式可以是将对应的帧图像和第三视频片段通过网络发送至其它终端设备进行显示输出,也可以通过本端终端设备,例如通过手机屏幕进行输出。
由于微表情是人的面部或身体的一个细微变化,该实施例通过对截取的所述面部区域进行放大处理,并同时输出放大后的发生微表情的面部区域的帧图像和所述第三视频片段,便于在将智能识别到的微表情进行人工校验时,心理专家能够对被测人员的微表情尽快获取,以使得人工智能和专业表情分析师可以同时对被测人员的微表情及心理进行分析,一方面可以提高对被测人员依据微表情进行分析的准确性,另一方面便于根据同一待识别的视频,利用专业表情分析师对智能识别的微表情进行校验,以确定本实施例中通过微表情识别模型对该微表情进行识别的准确性,使得可以在该微表情识别模型对该微表情进行识别的准确性过低时,对该微表情识别模型重新进行训练,有利于该微表情识别模型参数的良性调节,最终可以避免将微笑、大笑等常规表情识别为微表情。
在其中一个实施例中,该微表情识别模型可以选用VGG-16预训练模型,通过预先训练好的微表情识别模型对所述帧图像进行识别的步骤具体为:
1、输入224x224x3的帧图像,经过64个卷积核的两次卷积后,采用第一次pooling池化操作,其中,经过第一次卷积后,有3*3*3个可训练的参数;
2、将第一次pooling池化操作后得到的结果经过两次128的卷积核进行卷积,采用第二次pooling池化操作;
3、将第二次pooling池化操作后得到的结果再经过三次256的卷积核进行卷积,然后采用第三次pooling池化操作;
4、将第三次pooling池化操作后得到的结果重复两次通过三个512的卷积核进行卷积,之后再采用第四次pooling池化操作;
5、将第四次pooling池化操作后得到的结果,经过三次FC(Fully Connected)全连接层,得到对应帧图像是否包括微表情的结果。
在其中一个实施例中,如图3所示,训练该微表情识别模型的步骤包括以下步骤S301至S303:
S301、抽取携带有样本标签的样本图片,所述样本标签表示所述样本图片中是否包含有微表情的结果;
S302、将所述样本图片输入至待训练的微表情识别模型,得到所述样本图片中是否包含有微表情的预测结果;
S303、当所述预测结果与所述样本标签中表示的结果不相同时,调节所述微表情识别模型的参数,循环所述抽取携带有样本标签的样本图片至所述调节所述微表情识别模型的参数的步骤,直至所述预测结果与所述样本标签中表示的结果相同时,得到训练好的微表情识别模型。
在本实施例提出的训练该微表情识别模型的步骤中,样本图片在待训练的微表情识别模型的处理方式与帧图像在训练好的微表情识别模型中的处理方式相同,本实施例通过对微表情识别模进行训练和应用,通过该微表情识别模型可以从待识别的视频中快速并且智能的定位到被测人员发生微表情的时刻以及具体的微表情,以提高微表情识别效率。
S104、将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树,所述决策树的根节点及中间节点表示表情,所述决策树的叶子节点表示心理状态。
可以理解的是,每一个决策树都对应着包括有时序子表情的微表情,同样也对应了相关的心理状态,在其中一个实施例中,该心理状态包括但不限于生气、高兴、撒谎、紧张等等。该决策树的根节点表示微表情包括的至少一个时序子表情中排在第一位的子表情,该根节点可以至左嘴角上扬、右嘴角上扬、瘪嘴等人的面部特征的细微变化。
在其中一个实施例中,在所述将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树的步骤之前,所述方法还包括:
接收所述帧图像中包含的对应微表情的时序子表情是否正确的指示;
当接收到的指示为是时,将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树。
在其中一个实施例中,该指示可以是专业表情分析师输入得到,在将时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树的步骤之前,增加输入时序子表情是否正确的指示,使得当该微表情识别模型识别出错时,可以通过人为的方式及时纠正,以免根据错误的微表情中的时序子表情对被测人员的心理状态预测出错。
S105、将所述时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配。
根据本实施例的一个匹配场景例如:
通过训练好的微表情识别模型对所述帧图像进行识别,得到的一组时序子表情依次为:左嘴角上扬、右嘴角上扬、抖手指;
将排在第一位的子表情“左嘴角上扬”作为根节点,匹配到对应的决策树A;
将排在第二位的子表情“右嘴角上扬”与该决策树A中的中间节点进行匹配,从该决策树中选中对应的分支;
再将排在第三位的子表情“抖手指”与该决策树A中所选分支的下一节点进行匹配,从该决策树中继续选择后续节点;
当该决策树A中第三层级的节点为叶子节点时,获取与子表情“抖手指”对应匹配到的叶子节点,将该叶子节点表示的心理状态确定为被检测人员的心理状态。
其中各所述决策树的叶子节点所表示的心理状态可以通过预先配置得到,也可以通过样本进行学习得到。
S106、当排在最末位的子表情与所述决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态。
在其中一个实施例中,该决策树的叶子节点所对应的心理状态包括但不限于生气、高兴、不屑、撒谎、紧张等。
本实施例提出的基于微表情的用户心理分析方法,首先从待识别的视频中抽取包含有人像画面的至少一个帧图像,通过预先训练好的微表情识别模型对该帧图像进行识别,当该帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情,便于在将智能识别到的微表情进行人工校验时,心理专家能够对被测人员的微表情尽快获取,以使得人工智能和专业表情分析师可以同时对被测人员的微表情及心理进行分析,一方面可以提高对被测人员依据微表情进行分析的准确性,另一方面便于根据同一待识别的视频,利用专业表情分析师对智能识别的微表情进行校验,以确定本实施例中通过微表情识别模型对该微表情进行识别的准确性,然后将该时序子表情中排在第一位的子表情作为根节点,根据该根节点匹配对应的决策树,再将该时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态,通过将该微表情识别模型和该决策树进行配合应用,能够实现基于微表情对被测人员的心理状态进行智能分析,同时便于专业表情分析师对微表情识别模型识别出的微表情进行校验,在识别出错时,便于对出错的微表情及包括的时序子表情进行纠正,以提高通过微表情对被测人员的心理状态预测的准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于微表情的用户心理分析装置,该基于微表情的用户心理分析装置与上述实施例中基于微表情的用户心理分析方法一一对应。如图4所示,该基于微表情的用户心理分析装置100包括视频获取模块11、图像抽取模块12、识别模块13、第一匹配模块14、第二匹配模块15和状态确定模块16。各功能模块详细说明如下:
视频获取模块11,用于获取待识别的视频;
图像抽取模块12,用于从待识别的该视频中抽取包含有人像画面的至少一个帧图像;
识别模块13,用于通过预先训练好的微表情识别模型对该帧图像进行识别,当该帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情;
第一匹配模块14,用于将该时序子表情中排在第一位的子表情作为根节点,根据该根节点匹配对应的决策树,该决策树的根节点及中间节点表示表情,该决策树的叶子节点表示心理状态;
第二匹配模块15,用于将该时序子表情中剩余的子表情按照对应子表情的时序排位在该决策树中依次进行匹配;
状态确定模块16,用于当排在最末位的子表情与该决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为该视频中被检测人员的心理状态。
可以理解的是,该时序子表情为对应帧图像中人像展示出来的微表情按照发生时刻而产生的子表情序列,例如“笑”的时序子表情按照发生时刻产生的时序子表情可以包括左嘴角上扬、右嘴角上扬、抖手指,在其他实施例中,“笑”的时序子表情按照发生时刻产生的时序子表情还可以包括左右嘴角同时上扬、抖腿等。
其中,每一个决策树都对应着包括有时序子表情的微表情,同样也对应了相关的心理状态,在其中一个实施例中,该心理状态包括但不限于生气、高兴、撒谎、紧张等等。该决策树的根节点表示微表情包括的至少一个时序子表情中排在第一位的子表情,该根节点可以至左嘴角上扬、右嘴角上扬、瘪嘴等人的面部特征的细微变化。
根据本实施例的一个匹配场景例如:
通过训练好的微表情识别模型对所述帧图像进行识别,得到的一组时序子表情依次为:左嘴角上扬、右嘴角上扬、抖手指;
将排在第一位的子表情“左嘴角上扬”作为根节点,匹配到对应的决策树A;
将排在第二位的子表情“右嘴角上扬”与该决策树A中的中间节点进行匹配,从该决策树中选中对应的分支;
再将排在第三位的子表情“抖手指”与该决策树A中所选分支的下一节点进行匹配,从该决策树中继续选择后续节点;
当该决策树A中第三层级的节点为叶子节点时,获取与子表情“抖手指”对应匹配到的叶子节点,将该叶子节点表示的心理状态确定为被检测人员的心理状态。
在其中一个实施例中,该图像抽取模块12包括:
第一识别单元,用于识别该视频中是否包含有人体姿态动画,若是,则截取包含有人体姿态动画的第二视频片段;
帧图像获取单元,用于获取该第二视频片段中的至少一个该帧图像。
在另一个实施例中,该图像抽取模块12包括:
第二识别单元,用于识别该帧图像中是否包含有人脸区域,若是,则抽取对应的帧图像。
在其中一个实施例中,该基于微表情的用户心理分析装置100还包括:
检测模块,用于检测该微表情是否发生在面部区域;
第一截取模块,用于当对应帧图像中包含的该微表情发生在面部区域时,截取该面部区域;
放大模块,用于对截取的该面部区域进行放大处理;
输出模块,用于输出包括放大后的该面部区域的对应帧图像。
本实施例通过输出包括放大后的面部区域的对应帧图像,使得后续利用该微表情的帧图像并通过决策树对被检测人员的心理状态进行匹配时,用户可以将决策树的匹配结果与对应面部区域的帧图像所显示的微表情进行校验,对于新人来讲,有利于新人结合决策树的心理状态的匹配结果以及对应的微表情进行学习,学习哪一连续的微表情对应地是人们的哪一种心理状态,对于微表情分析专家而言,有利于结合具体的微表情对决策树匹配出的心理状态进行校对,使得决策树的叶子节点表示的心理状态出错时,可以及时纠正。
作为可选地,该基于微表情的用户心理分析装置100还包括:
第二截取模块,用于从该待识别的视频中截取该面部区域发生微表情的第三视频片段;
该输出模块具体用于同时输出放大后的该面部区域的对应帧图像和该第三视频片段。
其中该输出模块同时输出发生微表情的面部区域的帧图像及第三视频片段的方式可以是将对应的帧图像和第三视频片段通过网络发送至其它终端设备进行显示输出,也可以通过本端终端设备,例如通过手机屏幕进行输出。
本实施例通过对截取的所述面部区域进行放大处理,并同时输出放大后的发生微表情的面部区域的帧图像和所述第三视频片段,便于在将智能识别到的微表情进行人工校验时,心理专家能够对被测人员的微表情尽快获取,以使得人工智能和专业表情分析师可以同时对被测人员的微表情及心理进行分析,一方面可以提高对被测人员依据微表情进行分析的准确性,同时便于根据同一待识别的视频,利用专业表情分析师对智能识别的微表情进行校验,以确定本实施例中通过微表情识别模型对该微表情进行识别的准确性,使得可以在该微表情识别模型对该微表情进行识别的准确性过低时,对该微表情识别模型重新进行训练,有利于该微表情识别模型参数的良性调节。
在其中一个实施例中,该基于微表情的用户心理分析装置100还包括:
样本抽取模块,用于抽取携带有样本标签的样本图片,该样本标签表示该样本图片中是否包含有微表情的结果;
预测模块,用于将该样本图片输入至待训练的微表情识别模型,得到该样本图片中是否包含有微表情的预测结果;
循环模块,用于当该预测结果与该样本标签中表示的结果不相同时,调节该微表情识别模型的参数,循环该抽取携带有样本标签的样本图片至该调节该微表情识别模型的参数的步骤,直至该预测结果与该样本标签中表示的结果相同时,得到训练好的微表情识别模型。
在本实施例提出的训练该微表情识别模型的步骤中,样本图片在待训练的微表情识别模型的处理方式与帧图像在训练好的微表情识别模型中的处理方式相同,本实施例通过对微表情识别模进行训练和应用,通过该微表情识别模型可以从待识别的视频中快速并且智能的定位到被测人员发生微表情的时刻以及具体的微表情,以提高微表情识别效率。
在其中一个实施例中,该基于微表情的用户心理分析装置100还包括:
指示接收模块,用于接收该帧图像中包含的对应微表情的时序子表情是否正确的指示;
该第一匹配模块14具体用于当接收到的指示为是时,将该时序子表情中排在第一位的子表情作为根节点,根据该根节点匹配对应的决策树。
在其中一个实施例中,该指示可以是专业表情分析师输入得到,在将时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树的步骤之前,增加输入时序子表情是否正确的指示,使得当该微表情识别模型识别出错时,可以通过人为的方式及时纠正,以免根据错误的微表情中的时序子表情对被测人员的心理状态预测出错。
本实施例提出的基于微表情的用户心理分析装置,在将智能识别到的微表情进行人工校验时,便于心理专家能够对被测人员的微表情尽快获取,以使得人工智能和专业表情分析师可以同时对被测人员的微表情及心理进行分析,一方面可以提高对被测人员依据微表情进行分析的准确性,另一方面便于根据同一待识别的视频,利用专业表情分析师对智能识别的微表情进行校验,以确定本实施例中通过微表情识别模型对该微表情进行识别的准确性,然后将该时序子表情中排在第一位的子表情作为根节点,根据该根节点匹配对应的决策树,再将该时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态,通过将该微表情识别模型和该决策树进行配合应用,能够实现基于微表情对被测人员的心理状态进行智能分析,同时便于专业表情分析师对微表情识别模型识别出的微表情进行校验,在识别出错时,便于对出错的微表情及包括的时序子表情进行纠正,以提高通过微表情对被测人员的心理状态预测的准确性。
其中上述模块/单元中的“第一”和“第二”的意义仅在于将不同的模块/单元加以区分,并不用于限定哪个模块/单元的优先级更高或者其它的限定意义。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式。
关于基于微表情的用户心理分析装置的具体限定可以参见上文中对于基于微表情的用户心理分析方法的限定,在此不再赘述。上述基于微表情的用户心理分析装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括存储介质、内存储器。该存储介质包括非易失性存储介质和/或易失性的存储介质,该存储介质存储有操作系统和计算机程序。该内存储器为存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机程序被处理器执行时以实现一种基于微表情的用户心理分析方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于微表情的用户心理分析方法的步骤,例如图2所示的步骤101至步骤106及该方法的其它扩展和相关步骤的延伸。或者,处理器执行计算机程序时实现上述实施例中基于微表情的用户心理分析装置的各模块/单元的功能,例如图4所示模块11至模块16的功能。为避免重复,这里不再赘述。
所述处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述计算机装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、视频数据等)等。
所述存储器可以集成在所述处理器中,也可以与所述处理器分开设置。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中基于微表情的用户心理分析方法的步骤,例如图2所示的步骤101至步骤106及该方法的其它扩展和相关步骤的延伸。或者,计算机程序被处理器执行时实现上述实施例中基于微表情的用户心理分析装置的各模块/单元的功能,例如图4所示模块11至模块16的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性和/或易失性的计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于微表情的用户心理分析方法,其特征在于,包括:
获取待识别的视频;
从待识别的所述视频中抽取包含有人像画面的至少一个帧图像;
通过预先训练好的微表情识别模型对所述帧图像进行识别,当所述帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情;
将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树,所述决策树的根节点及中间节点表示表情,所述决策树的叶子节点表示心理状态;
将所述时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配;
当排在最末位的子表情与所述决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态。
2.根据权利要求1所述的基于微表情的用户心理分析方法,其特征在于,所述从待识别的所述视频中抽取包含有人像画面的至少一个帧图像的步骤具体包括:
识别所述视频中是否包含有人体姿态动画,若是,则截取包含有人体姿态动画的第二视频片段;
获取所述第二视频片段中的至少一个所述帧图像。
3.根据权利要求1所述的基于微表情的用户心理分析方法,其特征在于,所述从待识别的所述视频中抽取包含有人像画面的至少一个帧图像的步骤具体包括:
识别所述帧图像中是否包含有人脸区域,若是,则抽取对应的帧图像。
4.根据权利要求1所述的基于微表情的用户心理分析方法,其特征在于,在所述输出对应帧图像中包含的对应微表情的时序子表情的步骤之后,所述方法还包括:
检测所述微表情是否发生在面部区域;
当对应帧图像中包含的所述微表情发生在面部区域时,截取所述面部区域;
对截取的所述面部区域进行放大处理;
输出包括放大后的所述面部区域的对应帧图像。
5.根据权利要求4所述的基于微表情的用户心理分析方法,其特征在于,在所述对截取的所述面部区域进行放大处理的步骤之后,所述方法还包括:
从所述待识别的视频中截取所述面部区域发生微表情的第三视频片段;
同时输出放大后的所述面部区域的对应帧图像和所述第三视频片段。
6.根据权利要求1所述的基于微表情的用户心理分析方法,其特征在于,训练所述微表情识别模型的步骤包括:
抽取携带有样本标签的样本图片,所述样本标签表示所述样本图片中是否包含有微表情的结果;
将所述样本图片输入至待训练的微表情识别模型,得到所述样本图片中是否包含有微表情的预测结果;
当所述预测结果与所述样本标签中表示的结果不相同时,调节所述微表情识别模型的参数,循环所述抽取携带有样本标签的样本图片至所述调节所述微表情识别模型的参数的步骤,直至所述预测结果与所述样本标签中表示的结果相同时,得到训练好的微表情识别模型。
7.根据权利要求1至6任一项所述的基于微表情的用户心理分析方法,其特征在于,在所述将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树的步骤之前,所述方法还包括:
接收所述帧图像中包含的对应微表情的时序子表情是否正确的指示;
当接收到的指示为是时,将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树。
8.一种基于微表情的用户心理分析装置,其特征在于,包括:
视频获取模块,用于获取待识别的视频;
图像抽取模块,用于从待识别的所述视频中抽取包含有人像画面的至少一个帧图像;
识别模块,用于通过预先训练好的微表情识别模型对所述帧图像进行识别,当所述帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情;
第一匹配模块,用于将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树,所述决策树的根节点及中间节点表示表情,所述决策树的叶子节点表示心理状态;
第二匹配模块,用于将所述时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配;
状态确定模块,用于当排在最末位的子表情与所述决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述基于微表情的用户心理分析方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述基于微表情的用户心理分析方法的步骤。
CN202210040449.5A 2022-01-14 2022-01-14 基于微表情的用户心理分析方法、装置、设备及存储介质 Pending CN114373214A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210040449.5A CN114373214A (zh) 2022-01-14 2022-01-14 基于微表情的用户心理分析方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210040449.5A CN114373214A (zh) 2022-01-14 2022-01-14 基于微表情的用户心理分析方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN114373214A true CN114373214A (zh) 2022-04-19

Family

ID=81143378

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210040449.5A Pending CN114373214A (zh) 2022-01-14 2022-01-14 基于微表情的用户心理分析方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114373214A (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831447A (zh) * 2012-08-30 2012-12-19 北京理工大学 多类别面部表情高精度识别方法
JP2013003706A (ja) * 2011-06-14 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置、方法、及びプログラム
US20150242678A1 (en) * 2014-02-21 2015-08-27 Electronics And Telecommunications Research Institute Method and apparatus of recognizing facial expression using adaptive decision tree based on local feature extraction
JP2020057111A (ja) * 2018-09-28 2020-04-09 パナソニックIpマネジメント株式会社 表情判定システム、プログラム及び表情判定方法
CN111553299A (zh) * 2020-05-03 2020-08-18 刀锋 基于图像大数据提取学生面部信息实现教育心理学分析方法
WO2021027553A1 (zh) * 2019-08-15 2021-02-18 深圳壹账通智能科技有限公司 微表情分类模型生成、图像识别方法、装置、设备及介质
CN112818740A (zh) * 2020-12-29 2021-05-18 南京智能情资创新科技研究院有限公司 一种用于智能面试的心理素质维度评价方法及装置
CN113435335A (zh) * 2021-06-28 2021-09-24 平安科技(深圳)有限公司 微观表情识别方法、装置、电子设备及存储介质
CN113764099A (zh) * 2021-09-08 2021-12-07 平安国际智慧城市科技股份有限公司 基于人工智能的心理状态分析方法、装置、设备及介质
WO2021259005A1 (zh) * 2020-06-23 2021-12-30 平安科技(深圳)有限公司 视频微表情识别方法、装置、计算机设备及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003706A (ja) * 2011-06-14 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置、方法、及びプログラム
CN102831447A (zh) * 2012-08-30 2012-12-19 北京理工大学 多类别面部表情高精度识别方法
US20150242678A1 (en) * 2014-02-21 2015-08-27 Electronics And Telecommunications Research Institute Method and apparatus of recognizing facial expression using adaptive decision tree based on local feature extraction
JP2020057111A (ja) * 2018-09-28 2020-04-09 パナソニックIpマネジメント株式会社 表情判定システム、プログラム及び表情判定方法
WO2021027553A1 (zh) * 2019-08-15 2021-02-18 深圳壹账通智能科技有限公司 微表情分类模型生成、图像识别方法、装置、设备及介质
CN111553299A (zh) * 2020-05-03 2020-08-18 刀锋 基于图像大数据提取学生面部信息实现教育心理学分析方法
WO2021259005A1 (zh) * 2020-06-23 2021-12-30 平安科技(深圳)有限公司 视频微表情识别方法、装置、计算机设备及存储介质
CN112818740A (zh) * 2020-12-29 2021-05-18 南京智能情资创新科技研究院有限公司 一种用于智能面试的心理素质维度评价方法及装置
CN113435335A (zh) * 2021-06-28 2021-09-24 平安科技(深圳)有限公司 微观表情识别方法、装置、电子设备及存储介质
CN113764099A (zh) * 2021-09-08 2021-12-07 平安国际智慧城市科技股份有限公司 基于人工智能的心理状态分析方法、装置、设备及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周建国 等: "基于卷积神经网络的课堂表情分析软件研究与实现", 成都信息工程大学学报, no. 5, 15 October 2017 (2017-10-15), pages 508 - 512 *

Similar Documents

Publication Publication Date Title
WO2019085329A1 (zh) 基于循环神经网络的人物性格分析方法、装置及存储介质
US10713540B2 (en) Deep learning system for recognizing pills in images
CN111767228B (zh) 基于人工智能的界面测试方法、装置、设备和介质
CN109034069B (zh) 用于生成信息的方法和装置
US11244157B2 (en) Image detection method, apparatus, device and storage medium
WO2019085331A1 (zh) 欺诈可能性分析方法、装置及存储介质
KR101955919B1 (ko) 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램
US20210390370A1 (en) Data processing method and apparatus, storage medium and electronic device
CN114787883A (zh) 自动情绪识别方法、系统、计算设备及计算机可读存储介质
CN112434556A (zh) 宠物鼻纹识别方法、装置、计算机设备及存储介质
CN109783365A (zh) 自动化测试方法、装置、计算机设备及存储介质
CN111144285B (zh) 胖瘦程度识别方法、装置、设备及介质
KR102114273B1 (ko) 퍼스널 이미지 진단 제공방법 및 이를 수행하기 위한 컴퓨팅 장치
Jha et al. An Automated Attendance System Using Facial Detection and Recognition Technology
CN114639150A (zh) 情绪识别方法、装置、计算机设备和存储介质
CN109101956B (zh) 用于处理图像的方法和装置
CN110717407A (zh) 基于唇语密码的人脸识别方法、装置及存储介质
CN109697421A (zh) 基于微表情的评价方法、装置、计算机设备和存储介质
CN109345184A (zh) 基于微表情的节点信息处理方法、装置、计算机设备及存储介质
CN111507289A (zh) 视频匹配方法、计算机设备和存储介质
CN116680401A (zh) 文档处理方法、文档处理装置、设备及存储介质
CN114373214A (zh) 基于微表情的用户心理分析方法、装置、设备及存储介质
CN115691793A (zh) 一种舌象数据处理方法、装置及相关设备
Yadav et al. In-browser attendance system using face recognition and serverless edge computing
CN113362334B (zh) 一种舌照处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination