CN112381036A - 一种应用于刑侦的微表情与宏表情片段识别方法 - Google Patents

一种应用于刑侦的微表情与宏表情片段识别方法 Download PDF

Info

Publication number
CN112381036A
CN112381036A CN202011343361.8A CN202011343361A CN112381036A CN 112381036 A CN112381036 A CN 112381036A CN 202011343361 A CN202011343361 A CN 202011343361A CN 112381036 A CN112381036 A CN 112381036A
Authority
CN
China
Prior art keywords
expression
micro
macro
network
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011343361.8A
Other languages
English (en)
Inventor
刘昆宏
陈滨
吴清强
姚俊峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202011343361.8A priority Critical patent/CN112381036A/zh
Publication of CN112381036A publication Critical patent/CN112381036A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种应用于刑侦的微表情与宏表情片段识别方法,步骤一:采集犯罪嫌疑人视频信息;步骤二:将视频数据转换成图像数据,并进行人脸定位;步骤三:将人脸视频序列数据分别进行微表情片段和宏表情片段的发现;步骤四:然后将发现的微表情和宏表情片段进行相应的微表情和宏表情的识别,得出结果。本发明通过对犯罪嫌疑人视频中发现微表情和宏表情片段并对其进行识别,可以帮助更好的捕捉宏微表情序列,消除了时间,光照,和头部移动的对结果的影响,有较高的鲁棒性和泛化能力,提高预测精度。

Description

一种应用于刑侦的微表情与宏表情片段识别方法
技术领域
本发明涉及生物特征识别技术领域,具体地,涉及一种应用于刑侦的微表情与宏表情片段识别方法。
背景技术
微表情是一种持续时间只有1/25秒-1/5秒的面部肌肉运动,是人不经意间的情感表达,常常表现出人心中被压抑的真实情感。而宏表情的持续时间则较长,且面部运动较为明显。
在侦查讯问的过程中,犯罪嫌疑人所提供的语言信息具有一定的真伪性,侦查人员通过直接沟通并细致观察其细微表情和宏表情,可以判断嫌疑人口供的真伪,并掌握核心线索。但是靠侦查人员去判断带有主观色彩,且由于讯问时间较长,侦查人员很有可能遗漏关键表情信息,最后结果还不一定准确。
因此,业界需要一种具有较高准确性且应用于刑侦的微表情与宏表情片段识别方法。
发明内容
鉴于现有技术中的上述缺陷或不足,本发明的目的是提供可提高识别的准确性、精度和泛化能力的应用于刑侦的微表情与宏表情片段识别方法及应用装置。本发明对人脸进行了TVL1光流法处理,可以帮助更好的捕捉宏微表情序列;本发明的人脸特征提取方法消除了时间,光照,和头部移动的对结果的影响,有较高的鲁棒性和泛化能力;本发明采用神经网络进行宏微表情的发现与分类,先发现再进行分类的两步走策略也可以提高该算法的预测精度;本发明的分类结果可以达到专业的水平,与多位心理学家的推断结果一致。本发明的发现与分类效率较高,可以在10秒之内完成分类,以达到要求。
为了解决上述问题,第一方面,本发明提供了一种应用于刑侦的微表情与宏表情片段识别方法,所述方法包括:
步骤一.借助专业的仪器设备,对犯罪嫌疑人在讯问过程中的面部表情进行录像,将视频数据输入到客户端;
步骤二.将视频数据通过逐帧扫描的方法,识别出犯罪嫌疑人的脸部,并找出视频数据中的微表情与宏表情片段,再针对这些微表情与宏表情片段具体进行识别;
步骤三.发现视频序列中的宏表情序列;
步骤四.发现视频序列中的微表情序列;
步骤五.针对找到的宏表情片段,使用神经网络对每一个宏表情片段去识别具体属于哪一个宏表情;
步骤六:针对找到的微表情片段,使用神经网络对每一个微表情片段去识别具体属于哪一个微表情;
步骤七:将宏微表情片段组和其分类结果返回到客户端界面,为侦讯人员正确把握嫌犯供述的真伪提供了帮助。
第二方面,本申请实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现本申请实施例描述的方法。
第三方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序用于:所述计算机程序被处理器执行时实现如本申请实施例描述的方法。
附图说明
以下将结合附图对本发明的实施方案进行描述,其中
图1示出了本申请的应用于刑侦的微表情与宏表情片段识别流程示意图;
图2示出了本申请的系统结构图;
图3示出了本申请用于微表情片段发现的ConvLSTM网络框架示意图;
图4示出了本申请的表情片段发现时的概率曲线的示意图;
图5示出了本申请的用于宏微表情分类的ConvLSTM网络框架示意图。
具体实施方式
为了能够使得本发明的发明目的、技术流程及技术创新点进行更加清晰的阐述,以下结合附图及实例,对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
为达到以上目的,本发明提供了一种应用于刑侦的微表情与宏表情片段识别方法,主流程如图1所示,系统结构如图2所示,该方法包括:
步骤一.借助专业的仪器设备,对犯罪嫌疑人在讯问过程中的面部表情进行录像,将视频数据输入到客户端;
步骤二.将视频数据通过逐帧扫描的方法,识别出犯罪嫌疑人的脸部,并找出视频数据中的微表情与宏表情片段,再针对这些微表情与宏表情片段具体进行识别,具体步骤包括:(1)读取视频中每帧的图像,将其按顺序输出;
(2)对视频序列中的每一帧进行去噪处理,并根据人类肤色在色彩空间的区域性特点进行人脸对齐,初步确定嫌疑人人脸的区域;
(3)对每一帧图片以第一帧图片为参照点进行TVL1光流法处理,得到光流法的横向和纵向的光流法图片u,v。
步骤三.发现视频序列中的宏表情序列,具体步骤包括:(1)先用CK+数据集来训练macroNet神经网络,网络为二分类,判断输入图片是否属于宏表情;
(2)用训练好的网络来预测视频序列中的每一帧是否属于宏表情,绘制出视频序列的每一帧是否属于宏表情的概率曲线;
(3)然后根据概率曲线来判断曲线中的峰值点,并寻找峰值点对应的起始点和结束点,找到视频序列的宏表情序列,返回宏表情片段。
步骤四.发现视频序列中的微表情序列,如图3所示,具体步骤包括:(1)先用SAMMlong video数据集训练ConvLSTM网络,该网络的输入为前k帧图片,来判断当前帧是否属于微表情;ConvLSTM网络如图3所示;
(2)用训练好的网络来预测视频序列中的每一帧是否属于微表情,绘制出视频序列的每一帧是否属于微表情的概率曲线;
(3)然后根据概率曲线来判断曲线中的峰值点,并寻找峰值点对应的起始点和结束点,找到视频序列的微表情序列,返回微表情片段。
步骤五.针对找到的宏表情片段,使用神经网络对每一个宏表情片段去识别具体属于哪一个宏表情;
步骤六:针对找到的微表情片段,使用神经网络对每一个微表情片段去识别具体属于哪一个微表情;
步骤七:将宏微表情片段组和其分类结果返回到客户端界面,为侦讯人员正确把握嫌犯供述的真伪提供了帮助。
进一步的,基于步骤二,在单张图像上的人脸识别,我们首先根据图像上的RGB色彩通道初步判断出人脸的位置,把大致判断出来的人脸变换成M*N的矩阵,再把每个矩阵堆叠成一列的MN维列向量Xi,即把矩阵向量化,计算所有向量的均值向量
Figure BDA0002799165770000041
N为全部向量的总数,m为均值向量,计算向量的协方差矩阵:
Figure BDA0002799165770000042
计算协方差矩阵的特征向量u和对应的特征值λ,这些特征向量组成的矩阵U就是人脸空间的正交基底,将协方差矩阵的特征值按从大到小排序:λ1>λ2>λ3>…>λd>…。由大于λd的λi对应的特征向量构成主成分,主成分构成的变换矩阵为U=(u1,u2,…,ud),这样每一幅图像判断出来的大致区域都可以投影到已经训练好的特征脸子空间,通过与各个图像比较识别出人脸,从而进行人脸对齐。
然后对人脸对齐后的图片进行TVL1光流法来计算横向和纵向的光流,得到横向和纵向的光流图片u和v,用于发现宏表情片段的输入。TVL1光学应变技术已经被证明其的有效性,它能够描述判别表达式的运动特征。具体地说,通过执行进一步的推导规则,将光学应变从光流矢量中扩展出来。从两个帧(即,每个视频中的第一帧与其余帧)估计的光学流矢量可以表示为:
Oi={(u(x,y),v(x,y))|x=1,2,…,X,y=1,…,Y}
其中(X*Y)代表该帧图片的宽和高,u(x,y)和v(x,y)代表横向和纵向的光流。
进一步的,基于步骤三,用于发现视频序列中宏表情序列的macroNet网络的输入有三个,分别是每一帧的对齐后的人脸图片以及TVL1光流法的横向与纵向图片u和v,输出为一个概率值,表示该帧图片是否为宏表情的概率。该网络先用CK+数据集进行训练,训练之后保存模型,用于对嫌疑人视频序列进行预测。
将嫌疑人视频序列的每一帧预测的概率绘制出视频序列的每一帧是否属于宏表情的概率曲线,示例图见附图4。然后根据约束条件来判断曲线中的峰值点。约束条件为:峰值属于宏表情的概率必须大于0.8,且该片段的宽度在100-4000帧之间,每两个峰值的差距大于150帧。基于这三个约束条件,发现视频序列中的宏表情峰值点以及峰值点对应的起止点,从而发现了视频序列中的宏表情片段。
进一步的,基于步骤四,用于发现视频序列中宏表情序列的ConvLSTM网络框架图见附图5。ConvLSTM网络的架构是为了可以对图片进行时间序列的分析。ConvLSTM核心本质还是和LSTM一样,将上一层的输出作下一层的输入。不同的地方在于加上卷积操作之后,为不仅能够得到时序关系,还能够像卷积层一样提取特征,提取空间特征。这样就能够得到时空特征。并且将状态与状态之间的切换也换成了卷积计算。
该网络的输入为当前帧的前k帧以及该帧的图片,输出为一个概率,表示该帧图片是否为微表情的概率。该网络先用SAMM long videos数据集进行训练,训练之后保存模型,用于对嫌疑人视频序列进行预测。
然后与宏表情发现一样的操作,对嫌疑人视频序列绘制微表情概率曲线图,然后进行寻找峰值点的操作,但是与宏表情发现不同的是,约束条件不同。微表情峰值点的约束条件为:峰值属于微表情的概率必须大于0.9,且该片段的宽度在30-120帧之间,每两个峰值的差距大于50帧。最终可以得到嫌疑人视频序列中的微表情片段。
进一步的,基于步骤五和步骤六,两者的网络结构大致相同,如附图5所示。网络输入均是宏微表情的片段序列,输出是属于哪一种微表情或者宏表情的分类结果,输出维度n依据微表情和宏表情的种类而定。这里,宏表情的维度n设为7,微表情的维度设为3。
为了更好地理解本发明,以上结合发明的具体实例做了详细描述,但并非是本发明的限制。凡是依据本发明的技术实质对以上实施例所做的任何简单修改,均仍属于本发明技术方案的范围。
作为另一方面,本申请还提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如描述于本申请实施例描述的方法。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中前述装置中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。计算机可读存储介质存储有一个或者一个以上程序,前述程序被一个或者一个以上的处理器用来执行描述于本申请实施例描述的方法。
本申请实施例所使用的存储介质的任何引用可包括非易失性、易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、光盘(包含光盘只读存储器(CD-ROM)和数字通用盘(DVD))、或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而并非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(ProgrammableGate Array;以下简称:PGA),现场可编程门阵列(Field ProgrammableGate Array;以下简称:FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件和固件的形式实现。所述集成的模块如果以软件和固件的形式实现并作为独立的产品销售或使用时,可以从存储介质或网络中传入具有专用硬件结构的计算机进行功能实现。
还要指出的是,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。
虽然上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制。任何本领域技术人员,在不脱离本发明的精神和范围内,均可以对上述实施例进行变化、修改、替换和变型,因此本发明的保护范围并不局限于此,应当以权利要求所限定的范围为准。

Claims (9)

1.一种应用于刑侦的微表情与宏表情片段识别方法,所述方法包括:
步骤一,借助专业的仪器设备,对犯罪嫌疑人在讯问过程中的面部表情进行录像,将视频数据输入到客户端;
步骤二,将视频数据通过逐帧扫描的方法,识别出犯罪嫌疑人的脸部,并找出视频数据中的微表情与宏表情片段,再针对这些微表情与宏表情片段具体进行识别;
步骤三,发现视频序列中的宏表情序列;
步骤四,发现视频序列中的微表情序列;
步骤五,针对找到的宏表情片段,使用神经网络对每一个宏表情片段去识别具体属于哪一个宏表情;
步骤六,针对找到的微表情片段,使用神经网络对每一个微表情片段去识别具体属于哪一个微表情;
步骤七,将宏微表情片段组和其分类结果返回到客户端界面,为侦讯人员正确把握嫌犯供述的真伪提供了帮助。
2.根据权利要求1所述的方法,其特征在于,步骤二具体包括:(1)读取视频中每帧的图像,将其按顺序输出;
(2)对视频序列中的每一帧进行去噪处理,并根据人类肤色在色彩空间的区域性特点进行人脸对齐,初步确定嫌疑人人脸的区域;
(3)对每一帧图片以第一帧图片为参照点进行TVL1光流法处理,得到光流法的横向和纵向的光流法图片u,v。
3.根据权利要求1所述的方法,其特征在于,步骤三具体包括:(1)先用CK+数据集来训练macroNet神经网络,网络为二分类,判断输入图片是否属于宏表情;
(2)用训练好的网络来预测视频序列中的每一帧是否属于宏表情,绘制出视频序列的每一帧是否属于宏表情的概率曲线;
(3)然后根据概率曲线来判断曲线中的峰值点,并寻找峰值点对应的起始点和结束点,找到视频序列的宏表情序列,返回宏表情片段。
4.根据权利要求3所述的方法,其特征在于,发现宏表情片段模块分为对宏表情图像进行训练并且预测和通过概率曲线发现宏表情序列两个步骤,具体步骤包括:
(1)对宏表情图像进行训练并且预测是通过训练macroNet神经网络来判断每一帧属于宏表情的概率,macroNet网络根据已有网络进行改进构建,网络采用光流法的横向纵向光流图和当前帧的图像作为输入,分为三通道进行训练,对图像是否属于宏表情进行二分类预测:当前帧的图像通道采用三层卷积层的架构,三层卷积层均采用3*3的filter,步长均为1,卷积核大小依次增大,分别为32、64、128,并且在每两层卷积层之间依次连接归一化层和最大池化层以及dropout层,而光流法的图片由于已经做了光流法的特征处理,所以网络对这两个通道只进行一次卷积操作,然后引入了attention机制和residual模块,可以更好地提取光流法通道中有用的信息;
(2)通过概率曲线发现宏表情序列则是采用峰值检测的方法,通过设定约束条件来寻找概率曲线的峰值点,约束条件为:峰值属于宏表情的概率必须大于0.8,且该片段的宽度在100-4000帧之间,每两个峰值的差距大于150帧,然后再根据寻找到的峰值点确定该段序列的起始点和终止点,最终得到该视频序列的宏表情序列。
5.根据权利要求1所述的方法,其特征在于,步骤四具体包括:(1)先用SAMM longvideo数据集训练ConvLSTM网络,该网络的输入为前k帧图片,来判断当前帧是否属于微表情;
(2)用训练好的网络来预测视频序列中的每一帧是否属于微表情,绘制出视频序列的每一帧是否属于微表情的概率曲线;
(3)然后根据概率曲线来判断曲线中的峰值点,并寻找峰值点对应的起始点和结束点,找到视频序列的微表情序列,返回微表情片段。
6.根据权利要求5所述的方法,其特征在于,发现微表情片段模块分为对微表情图像进行训练并且预测和通过概率曲线发现微表情序列两个步骤,具体步骤包括:
(1)对微表情图像进行训练并且预测是通过训练ConvLSTM网络来预测当前帧属于微表情的概率,ConvLSTM网络是使用当前帧前k帧的图片数据,采用时间维度和空间维度两个维度的信息来进行网络的训练,并对视频序列的每一帧进行属于微表情的概率预测:ConvLSTM网络对图片进行时间序列的分析,并提取空间特征,这样得到时空特征,将状态与状态之间的切换换成卷积计算;
(2)通过概率曲线发现微表情序列是采用峰值检测的方法,由于微表情和宏表情在持续时间和动作幅度上的差异,提取峰值点所采取的约束条件也不同,微表情的约束条件为:峰值属于微表情的概率必须大于0.9,且该片段的宽度在30-120帧之间,每两个峰值的差距大于50帧,然后同样对每一个峰值点确定起始点和终止点,从而最终得到该视频序列的微表情序列。
7.根据权利要求1-6任一项所述的方法,其特征在于,识别微表情和宏表情先分别训练识别宏微表情情感分类的神经网络,宏表情情感分类分为7类,微表情情感分类分为3类,分别进行网络的搭建和数据集构建以及训练的步骤,其中网络的搭建是根据convlstm网络改进的网络,对图像进行时空的网络训练,数据集则是根据已有数据集挑选合并而来的,然后对发现微表情和宏表情模块中已经找到的宏表情片段和微表情片段进行情感分类预测,具体步骤是使用训练好的神经网络分别对每一个宏微表情片段去预测属于哪一类,哪一类的概率高则属于哪一个宏微表情,最终实现宏微表情的情感分类。
8.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7任一项所述的方法。
9.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序用于:所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的方法。
CN202011343361.8A 2020-11-26 2020-11-26 一种应用于刑侦的微表情与宏表情片段识别方法 Pending CN112381036A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011343361.8A CN112381036A (zh) 2020-11-26 2020-11-26 一种应用于刑侦的微表情与宏表情片段识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011343361.8A CN112381036A (zh) 2020-11-26 2020-11-26 一种应用于刑侦的微表情与宏表情片段识别方法

Publications (1)

Publication Number Publication Date
CN112381036A true CN112381036A (zh) 2021-02-19

Family

ID=74588262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011343361.8A Pending CN112381036A (zh) 2020-11-26 2020-11-26 一种应用于刑侦的微表情与宏表情片段识别方法

Country Status (1)

Country Link
CN (1) CN112381036A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908722A (zh) * 2023-01-05 2023-04-04 杭州华鲤智能科技有限公司 一种生成3d人脸建模的方法
CN118013257A (zh) * 2024-04-07 2024-05-10 一网互通(北京)科技有限公司 基于数据序列的峰值查找方法、装置及电子设备
CN118013257B (zh) * 2024-04-07 2024-06-07 一网互通(北京)科技有限公司 基于数据序列的峰值查找方法、装置及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130300900A1 (en) * 2012-05-08 2013-11-14 Tomas Pfister Automated Recognition Algorithm For Detecting Facial Expressions
WO2019184125A1 (zh) * 2018-03-30 2019-10-03 平安科技(深圳)有限公司 基于微表情的风险识别方法、装置、设备及介质
WO2019223139A1 (zh) * 2018-05-22 2019-11-28 深圳壹账通智能科技有限公司 一种风险预测方法、装置、存储介质和服务器
CN111460981A (zh) * 2020-03-30 2020-07-28 山东大学 一种基于重构跨域视频生成对抗网络模型的微表情识别方法
CN111582212A (zh) * 2020-05-15 2020-08-25 山东大学 一种基于运动单元的多域融合微表情检测方法
CN111950373A (zh) * 2020-07-13 2020-11-17 南京航空航天大学 一种基于光流输入的迁移学习用于微表情识别的方法
WO2020232279A1 (en) * 2019-05-14 2020-11-19 Yawye Generating sentiment metrics using emoji selections

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130300900A1 (en) * 2012-05-08 2013-11-14 Tomas Pfister Automated Recognition Algorithm For Detecting Facial Expressions
WO2019184125A1 (zh) * 2018-03-30 2019-10-03 平安科技(深圳)有限公司 基于微表情的风险识别方法、装置、设备及介质
WO2019223139A1 (zh) * 2018-05-22 2019-11-28 深圳壹账通智能科技有限公司 一种风险预测方法、装置、存储介质和服务器
WO2020232279A1 (en) * 2019-05-14 2020-11-19 Yawye Generating sentiment metrics using emoji selections
CN111460981A (zh) * 2020-03-30 2020-07-28 山东大学 一种基于重构跨域视频生成对抗网络模型的微表情识别方法
CN111582212A (zh) * 2020-05-15 2020-08-25 山东大学 一种基于运动单元的多域融合微表情检测方法
CN111950373A (zh) * 2020-07-13 2020-11-17 南京航空航天大学 一种基于光流输入的迁移学习用于微表情识别的方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
MIN PENG等: "From Macro to Micro Expression Recognition: Deep Learning on Small Datasets Using Transfer Learning", 《2018 13TH IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE & GESTURE RECOGNITION》, pages 657 - 661 *
YUNSHENG LI等: "MicroNet: Towards Image Recognition with Extremely Low FLOPs", 《ARXIV》, pages 1 - 11 *
张琛: "面部微表情识别若干关键技术研究", no. 6, pages 16 - 45 *
李文书;张琛;李宏汀;邹涛涛;阮梦慧;: "微表情识别方法综述", 人类工效学, no. 04 *
温杰彬等: "基于Apex帧光流和卷积自编码器的微表情识别", 《计算机工程与应用》, pages 1 - 12 *
贲晛烨等: "微表情自动识别综述", 《计算机辅助设计与图形学学报》, vol. 26, no. 9, pages 1385 - 1395 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908722A (zh) * 2023-01-05 2023-04-04 杭州华鲤智能科技有限公司 一种生成3d人脸建模的方法
CN118013257A (zh) * 2024-04-07 2024-05-10 一网互通(北京)科技有限公司 基于数据序列的峰值查找方法、装置及电子设备
CN118013257B (zh) * 2024-04-07 2024-06-07 一网互通(北京)科技有限公司 基于数据序列的峰值查找方法、装置及电子设备

Similar Documents

Publication Publication Date Title
Canal et al. A survey on facial emotion recognition techniques: A state-of-the-art literature review
US10102421B2 (en) Method and device for face recognition in video
El Khiyari et al. Face recognition across time lapse using convolutional neural networks
Merghani et al. A review on facial micro-expressions analysis: datasets, features and metrics
JP4292837B2 (ja) パターン特徴抽出方法及びその装置
Bekhouche et al. Pyramid multi-level features for facial demographic estimation
CN110427881B (zh) 基于人脸局部区域特征学习的跨库微表情识别方法及装置
Anand et al. An improved local binary patterns histograms techniques for face recognition for real time application
KR102128158B1 (ko) 시공간 주의 기반 감정 인식 장치 및 방법
Kekre et al. Eigenvectors of covariance matrix using row mean and column mean sequences for face recognition
CN110175578B (zh) 应用于刑侦的基于深度森林的微表情识别方法
CN111259759B (zh) 基于域选择迁移回归的跨数据库微表情识别方法及装置
CN114511912A (zh) 基于双流卷积神经网络的跨库微表情识别方法及装置
CN116434311A (zh) 一种基于混合域一致性约束的面部表情识别方法及系统
KR20020057522A (ko) 상관관계를 이용한 유사도 측정의 얼굴 인증 방법
CN112381036A (zh) 一种应用于刑侦的微表情与宏表情片段识别方法
Borgi et al. Sparse multi-stage regularized feature learning for robust face recognition
Turhal et al. Cross grouping strategy based 2DPCA method for face recognition
Zhu et al. Micro-expression recognition convolutional network based on dual-stream temporal-domain information interaction
Wharton et al. A vision-based transfer learning approach for recognizing behavioral symptoms in people with dementia
KR20090113481A (ko) 텐서 기반 데이터 생성 모델을 이용한 영상 데이터 분류방법 및 장치
Rajagopalan et al. Face recognition using multiple facial features
Zhong et al. Facial micro-expression recognition based on local region of the key frame
TWI632509B (zh) 人臉辨識裝置及方法、提升影像辨識率的方法、及電腦可讀儲存介質
CN115720664A (zh) 物体位置估计设备、物体位置估计方法和记录介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination