CN106303233B - 一种基于表情融合的视频隐私保护方法 - Google Patents

一种基于表情融合的视频隐私保护方法 Download PDF

Info

Publication number
CN106303233B
CN106303233B CN201610643151.8A CN201610643151A CN106303233B CN 106303233 B CN106303233 B CN 106303233B CN 201610643151 A CN201610643151 A CN 201610643151A CN 106303233 B CN106303233 B CN 106303233B
Authority
CN
China
Prior art keywords
expression
image
pixel
source images
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610643151.8A
Other languages
English (en)
Other versions
CN106303233A (zh
Inventor
王祥
熊琛
裴庆祺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201610643151.8A priority Critical patent/CN106303233B/zh
Publication of CN106303233A publication Critical patent/CN106303233A/zh
Application granted granted Critical
Publication of CN106303233B publication Critical patent/CN106303233B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于表情融合的视频隐私保护方法,所述基于表情融合的视频隐私保护方法,在视频直播中实时检测人脸并对人脸表情进行识别,通过与表情库中具有相同表情的人脸图像进行融合,在对人脸进行隐私保护的同时,保证了人脸表情不发生变化。本发明在保证表情不变的情况下,通过与表情库中具有相同表情的人脸图像进行融合,既保护了人脸的隐私信息,又保留了人脸原有的表情,从而在隐私保护的前提下提高了原人脸信息的完整性。与以往直接对整张人脸进行融合的方法不同,将人脸中的表情通过表情库进行融合,实现了在人脸表情不变情况下对信息进行保护。

Description

一种基于表情融合的视频隐私保护方法
技术领域
本发明属于视频隐私保护技术领域,尤其涉及一种基于表情融合的视频隐私保护方法。
背景技术
近年来,互联网的快速发展和各类视频应用的日益普及,使视频个人隐私保护得到了广泛关注。在保证视频应用的同时不泄露隐私信息是目前研究的热点问题。视频隐私保护技术以其较高的学术价值和巨大的应用潜力,得到了学者的广大关注,传统直接对整张人脸进行融合的方法通过对人脸图像运用图像融合方法,将人脸图像与不包含重要信息的另一人脸图像进行融合,使需要保护的人脸图像逐渐转换为另一幅图像,从而保护了人脸图像中的重要信息。传统的直接对人脸进行融合的方法能保证重要信息不被泄漏,但在融合的过程中人脸图像中原有的表情会发生变化。本发明提出的方法则解决了这一问题,通过与具有相同表情的图像进行融合,既保护了人脸信息又保证了人脸表情不发生变化。
发明内容
本发明的目的在于提供一种基于表情融合的视频隐私保护方法,旨在解决传统的直接对人脸进行融合的方法能保证重要信息不被泄漏,但在融合的过程中人脸图像中原有的表情会发生变化的问题。
本发明是这样实现的,一种在视频直播中基于表情融合的视频隐私保护方法,所述基于表情融合的视频隐私保护方法,在视频直播中对人脸表情进行检测和识别,并根据识别结果与表情库中具有相同表情的图像进行融合。经过本方法融合之后的人脸的表情没有发生变化,且融合后的人脸为原人脸与表情库人脸的结合,从而在保证表情不变的情况下对视频直播中的人脸隐私信息进行了保护。
进一步,所述人脸图像进行融合的方法包括:
步骤一,目标图像和源图像的选择,选择包含需要被保护的面部表情的图像为目标图像,同时选择表情库中与目标图像具有相同表情的图像为源图像;
步骤二,选择包含人脸表情的部分作为感兴趣区域;
步骤三,图像校准;
步骤四,通过选择适当的权值对源图像和目标图像R中像素点大小进行加权求和,从而将两幅图像进行融合。
进一步,所述图像校准具体包括:
第一步,定位特征点,分别在目标图像和源图像中手动的选取人脸区域比较重要的特征点,如眼睛、鼻子和嘴巴部位,并标记出来;
第二步,仿射变换,设和分别为源图像S和目标图像R中第k个相对应的特征点,则该仿射变换用下式表示:
对源图像中的所有像素点都进行该仿射变换,则经过变换的源图像可表示为,并且中的第k个特征点可表示为x‘k=A*xk+b*
第三步,图像重建:
先将源图像分成k个大小同为w×w的块,每个像素拥有5个通道,即3个颜色通道L*a*b和2个梯度通道,梯度通道横向梯度与纵向梯度;
对源图像S生成全分辨率尺度空间金字塔;
遍历源图像中所有像素点q,坐标为i,j的像素点A,找到覆盖像素点A的w×w个目标块,则每个块的左上角坐标为(i′,j′),其中i′∈{i,…,i-w+1},j′∈{j,…,j-w+1};
采用最近邻算法在Spyr中找到w×w个目标块所对应的最匹配块P,在最匹配块中找到对应点A的像素点,并在5个通道上加权求平均,完成对点A的更新,
第四步,像素替换:
替换重建后得到的图像的特征点附近的像素点;
权值为随的增加线性减小;当x=yk时,而当时‖x-yk‖>θ,其中,采用权值通过下式替换每个yk附近的像素点:
第五步,泊松图像编辑:
对源图像进行泊松图像编辑,完成最后的校准:
其中,I为图像像素个数,D为在5个通道上像素点的距离平方和,为一个参数。
所述步骤四进一步包括:
具有如下性质:
其中ρ为一个参数;
则得到每一点的权值β(x):
Y为感性趣区域的特征点子集
融合后的图像P中每个像素点的值表示为:
本发明提供的基于表情融合的视频隐私保护方法,在保证表情不变的情况下,通过与表情库中具有相同表情的人脸图像进行融合,由于源图像的表情与目标图像一致,通过定位特征点,在经过仿射变换和重建以及像素替换、泊松图像编辑等一系列校准后,源图像的特征点与目标图像已经相当接近,此时再进行特征融合,得到的目标图像不仅是两幅图像的结合,而且重要特征点的信息即表情特征基本没有改变,从而在隐私保护的前提下保留了原人脸的表情信息。与以往直接对整张人脸进行融合的方法不同,通过与表情库中具有相同表情的图像进行融合,得到的融合后图像不仅为原人脸与表情库人脸的结合,且融合后的人脸的表情没有发生变化,因此本方法既保护了人脸的隐私信息又保护了人脸原有的表情。
附图说明
图1是本发明实施例提供的基于表情融合的视频隐私保护方法流程图。
图2是本发明实施例提供的实施例1的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图对本发明的应用原理作详细的描述。最近网络上的视频直播已经成为网络达人的热门娱乐方式,众多网红通过社交软件进行视频直播与网友分享生活趣事,而在视频直播中除网红以外,其他人的身份信息是需要被保护不允许获取的,同时保护后的目标需要保持表情不变来保证直播的流畅性及完整性,因此在该情况下可运用本发明的方法。
如图1所示,本发明实施例的基于表情融合的视频隐私保护方法包括以下步骤:
S101:建立表情数据库,在视频直播中通过摄像头等摄影工具获取人脸图像,对获取的图像进行一系列的预处理,改善图像质量,抑制外界干扰,尽量保留有用信息;
S102:把点阵转化成更高级的图像表述比如纹理、颜色、形状或空间结构等,并提取出能很好表征表情变化的特征,在提取出的特征中选择最重要的特征,并对图像数据进一步降维;
S103:选择合适的分类器对表情特征进行分类,最终通过与表情库中的7种表情投票判决完成对表情特征的分类;
S104:选择视频直播中包含需要保护的面部区域的图像为目标图像,选择表情库中与目标图像具有同一表情的图像作为源图像;在目标图像和相应的源图像中选择需要保护即融合的区域,本发明选择包含人脸表情的区域为感兴趣区域;
S105:在目标图像和源图像中定位特征点,一般选取人脸的五官如鼻子、眼镜、嘴巴等部位为特征点;分别在目标图像和源图像中找到特征点在感兴趣区域中的坐标,通过找到目标图像和源图像中对应特征点之间的关系,得到一个线性变换,将该线性变换应用到源图像感兴趣区域中的所有像素点,从而完成对源图像的调整;
S106:在完成仿射变换后得到的源图像只是初步的接近于目标图像,通过在源图像中遍历搜索与投票,找到与目标图像中对应点更接近的像素点;将重建后的图像特征点周围像素点进行替换,使替换后的图像更接近与目标图像;通过泊松方程,完成对源图像的校准,得到最接近与目标图像的源图像;
S107:通过选择相应的权值,对源图像和目标图像中对应像素点的值进行加权求和,从而完成整个融合过程。
下面结合具体实施例对本发明的应用原理作进一步的描述。
实施例1:
参照附图2,本发明实施例的具体步骤如下:
1.人脸表情识别过程
步骤1,表情库的建立:
采用包含10个女性7种不同表情的213幅图像的JAFFE日本成年女性人脸表情数据库进行表情识别,每种表情各2~4幅图像,均为256×256的8位灰度图像。
步骤2,图像获取:
在视频直播中通过摄像头或其他设备获得连续的静态图像序列。
步骤3,图像预处理:
对人脸图像进行亚采样和灰度均衡化处理。通过亚采样,将图像中不相关的区域去除,只保留能够反映表情变化如眼睛、嘴角及眉毛等面部区域。然后对图像进行直方图均衡化处理,经过均衡化后,图像的细节更加清晰,直方图各灰度等级的分布更平均。
步骤4,特征提取:
本发明采用PCA进行特征提取。通过对训练样本进行主成份分析得到表征表情子空间的一组正交基,对正交基进行取舍降维,最终得到一个特征子空间。
设图像为一个N维的矢量x,将特征归一化,对每一维数据减去该维的均值,
减去均值后得到矩阵B:
计算矩阵B的协方差矩阵C:
计算协方差矩阵C的特征值与特征向量,将特征值按从大到小的顺序排列,对应的特征向量也按此顺序排列。选取前k个特征值对应的特征向量构成一个子空间,该空间就是表征人脸表情的特征子空间。
步骤5,特征选择。
本发明采用Adaboost分类器对图像特征进行选择,挑选出最重要的特征。
训练样本中包含7个类别,即S1、S2……、S7,分别选取其中的两类Sa、Sb(a=1,……,6;b=2,……,7),同时令Sa类为正样本,Sb为负样本。特征向量与样本标记构成样本子集(x1,y1),……,(xn,yn),yi取1或0分别表示正样本和负样本,n为Sa、Sb样本总数。
对样本权值初始化
k与m分别为正负样本的总数。
对权值归一化,
对特征向量中每个特征fj设置分类器,
其中min(fj)≤θj≤max(fj),pj为1或-1。
找到所有分类器中加权误差εt最小的分类器ht,选择ht对应的特征ft。对所有样本,令ft=0。
εj=∑iwi|hj(xj)-yj|
对权值进行更新,其中βt=εt/1-εt,正确分类样本时ej=0,ej=1。
重复上述过程,直到所有对所有特征完成选择。
步骤6,特征分类。
本发明采用SVM分类算法对特征进行分类。
令训练样本集为(xi,yi),xi为特征向量,yi为分类标签,yi取-1或1。设w和b分别为最优分类界面的权向量与偏置,因此搜索最优分类界面的过程如下:
其中,ε≥0为松弛变量,c为大于0的指定常数。
找到最优分类界面后选择多项式形式的内积核函数对样本分类。每次选择样本空间中的两类作为一个分类器,将其中一类选择为正样本,另一类作为负样本。对测试样本进行分类,通过将样本输入到所有的分类器中,对每个分类器的分类结果进行投票判决,得票数最多的类别就是样本最终的分类结果。若出现类别投票数相同的情况,则根据最近邻原则找到测试样本与这些类别的训练样本间的最小距离,该距离所对应的类别即为最终的分类类别。
2.表情融合过程:
步骤1,目标图像和源图像的选择:
完成人脸表情识别后,选择包含需要被保护的面部表情的图像为目标图像,同时选择表情库中与目标图像具有相同表情的图像为源图像。
步骤2,感兴趣区域选择:
图像中并不是所有的信息都是需要融合的信息,选择包含人脸表情的部分作为感兴趣区域。
步骤3,图像校准:
第一步,定位特征点,分别在目标图像和源图像中手动的选取人脸区域比较重要的特征点,如眼睛、鼻子和嘴巴等部位,并标记出来。
第二步,仿射变换,设xk和yk分别为源图像S和目标图像R中第k个相对应的特征点,则该仿射变换可以用下式表示:
对源图像中的所有像素点都进行该仿射变换,则经过变换的源图像可表示为S′,并且S′中的第k个特征点可表示为x‘k=A*xk+b*
第三步,图像重建:
先将源图像S′分成k个大小同为w×w的块,每个像素拥有5个通道,即3个颜色通道L*a*b和2个梯度通道(横向梯度与纵向梯度);
对源图像S生成全分辨率尺度空间金字塔Spyr
遍历源图像S′中所有像素点q,以坐标为i,j的像素点A为例。可以找到覆盖像素点A的w×w个目标块Qi′,j′,则每个块的左上角坐标为(i′,j′),其中i′∈{i,…,i-w+1},j′∈{j,…,j-w+1};
采用最近邻算法在Spyr中找到w×w个目标块所对应的最匹配块P,在这些最匹配块中找到对应点A的像素点,并在5个通道上加权求平均,完成对点A的更新。
第四步,像素替换:
替换重建后得到的图像的特征点附近的像素点。
权值为随的增加线性减小;当x=yk时,而当时‖x-yk‖>θ,其中,采用权值通过下式替换每个yk附近的像素点:
第五步,泊松图像编辑:
对源图像进行泊松图像编辑,完成最后的校准:
其中,I为图像像素个数,D为在5个通道上像素点的距离平方和,为一个参数。
所述步骤四进一步包括:
具有如下性质;
其中ρ为一个参数;
则得到每一点的权值β(x):
Y为感性趣区域的特征点子集
融合后的图像P中每个像素点的值表示为:
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种基于表情融合的视频隐私保护方法,其特征在于,所述基于表情融合的视频隐私保护方法,在视频直播中实时检测人脸并对人脸表情进行识别,通过与表情库中具有相同表情的人脸图像进行融合;
所述人脸图像进行融合的方法包括:
步骤一,目标图像和源图像的选择,选择包含需要被保护的面部表情的图像为目标图像,同时选择表情库中与目标图像具有相同表情的图像为源图像;
步骤二,选择包含人脸表情的部分作为感兴趣区域;
步骤三,图像校准:
步骤四,通过选择适当的权值对源图像和目标图像R中像素点大小进行加权求和,从而将两幅图像进行融合。
2.如权利要求1所述的基于表情融合的视频隐私保护方法,其特征在于,所述图像校准具体包括:
第一步,定位特征点,分别在目标图像和源图像中手动的选取人脸区域比较重要的特征点,如眼睛、鼻子和嘴巴部位,并标记出来;
第二步,仿射变换,设xk和yk分别为源图像S和目标图像R中第k个相对应的特征点,则该仿射变换用下式表示:
A*,b*=arg minA,bk||yk-(Axk+b)||2
对源图像中的所有像素点都进行该仿射变换,则经过变换的源图像可表示为S′,并且S′中的第k个特征点可表示为x‘k=A*xk+b*
第三步,图像重建:
先将源图像分成k个大小同为w×w的块,每个像素拥有5个通道,即3个颜色通道L*a*b和2个梯度通道,梯度通道横向梯度与纵向梯度;
对源图像S生成全分辨率尺度空间金字塔;
遍历源图像中所有像素点q,坐标为i,j的像素点A,找到覆盖像素点A的w×w个目标块,则每个块的左上角坐标为(i′,j′),其中i′∈{i,…,i-w+1},j′∈{j,…,j-w+1};
采用最近邻算法在Spyr中找到w×w个目标块所对应的最匹配块P,在最匹配块中找到对应点A的像素点,并在5个通道上加权求平均,完成对点A的更新,
第四步,像素替换:
替换重建后得到的图像的特征点附近的像素点;
权值为随的增加线性减小;当x=yk时,而当时||x-yk||>θ,其中,采用权值通过下式替换每个yk附近的像素点:
第五步,泊松图像编辑:
对源图像进行泊松图像编辑,完成最后的校准:
其中,I为图像像素个数,D为在5个通道上像素点的距离平方和,为一个参数。
3.如权利要求1所述的基于表情融合的视频隐私保护方法,其特征在于,所述步骤四进一步包括:具有如下性质:
其中ρ为一个参数;
则得到每一点的权值β(x):
Y为感性趣区域的特征点子集
融合后的图像P中每个像素点的值表示为:
CN201610643151.8A 2016-08-08 2016-08-08 一种基于表情融合的视频隐私保护方法 Expired - Fee Related CN106303233B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610643151.8A CN106303233B (zh) 2016-08-08 2016-08-08 一种基于表情融合的视频隐私保护方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610643151.8A CN106303233B (zh) 2016-08-08 2016-08-08 一种基于表情融合的视频隐私保护方法

Publications (2)

Publication Number Publication Date
CN106303233A CN106303233A (zh) 2017-01-04
CN106303233B true CN106303233B (zh) 2019-03-15

Family

ID=57666557

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610643151.8A Expired - Fee Related CN106303233B (zh) 2016-08-08 2016-08-08 一种基于表情融合的视频隐私保护方法

Country Status (1)

Country Link
CN (1) CN106303233B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316020B (zh) * 2017-06-26 2020-05-08 司马大大(北京)智能系统有限公司 人脸替换方法、装置及电子设备
CN109325988B (zh) * 2017-07-31 2022-11-11 腾讯科技(深圳)有限公司 一种面部表情合成方法、装置及电子设备
WO2019024068A1 (en) * 2017-08-04 2019-02-07 Xinova, LLC SYSTEMS AND METHODS FOR DETECTING EMOTION IN VIDEO DATA
CN108111868B (zh) * 2017-11-17 2020-06-09 西安电子科技大学 一种基于mmda的表情不变的隐私保护方法
CN109886864B (zh) * 2017-12-06 2021-03-09 杭州海康威视数字技术股份有限公司 隐私遮蔽处理方法及装置
CN108334821B (zh) * 2018-01-18 2020-12-18 联想(北京)有限公司 一种图像处理方法及电子设备
CN108259788A (zh) * 2018-01-29 2018-07-06 努比亚技术有限公司 视频编辑方法、终端和计算机可读存储介质
CN108427918B (zh) * 2018-02-12 2021-11-30 杭州电子科技大学 基于图像处理技术的人脸隐私保护方法
CN108364355B (zh) * 2018-02-12 2022-12-09 成都睿码科技有限责任公司 一种贴合面部表情的ar渲染方法
CN108573527B (zh) * 2018-04-18 2020-02-18 腾讯科技(深圳)有限公司 一种表情图片生成方法及其设备、存储介质
CN110610469B (zh) * 2019-08-01 2022-05-06 长沙理工大学 一种人脸图像隐私保护方法、装置、设备及存储介质
CN111160092A (zh) * 2019-11-25 2020-05-15 广州富港万嘉智能科技有限公司 带隐私保护的用户意思表达实时判断系统及智能居室系统
CN110932946A (zh) * 2019-11-25 2020-03-27 广州富港万嘉智能科技有限公司 带隐私保护的用户意思表达实时判断系统及智能居室系统
CN111083352A (zh) * 2019-11-25 2020-04-28 广州富港万嘉智能科技有限公司 带隐私保护的摄像头工作控制方法、计算机可读存储介质及摄像终端
CN111031236A (zh) * 2019-11-25 2020-04-17 广州富港万嘉智能科技有限公司 带隐私保护的摄像头工作控制方法、计算机可读存储介质及摄像终端
CN111539008B (zh) * 2020-05-22 2023-04-11 蚂蚁金服(杭州)网络技术有限公司 保护隐私的图像处理方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100403338C (zh) * 2006-09-14 2008-07-16 浙江大学 一种基于视频流的人脸表情幻想方法
CN102254336B (zh) * 2011-07-14 2013-01-16 清华大学 人脸视频合成方法及装置
KR101231469B1 (ko) * 2012-02-23 2013-02-07 인텔 코오퍼레이션 이미지 처리 지원 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
CN103268623B (zh) * 2013-06-18 2016-05-18 西安电子科技大学 一种基于频域分析的静态人脸表情合成方法

Also Published As

Publication number Publication date
CN106303233A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
CN106303233B (zh) 一种基于表情融合的视频隐私保护方法
Schlett et al. Face image quality assessment: A literature survey
Seibold et al. Detection of face morphing attacks by deep learning
Mohan et al. Example-based object detection in images by components
CN107169455B (zh) 基于深度局部特征的人脸属性识别方法
Guo et al. Facial expression recognition influenced by human aging
Zhang et al. Content-adaptive sketch portrait generation by decompositional representation learning
Yin et al. Instance-level facial attributes transfer with geometry-aware flow
CN108829900A (zh) 一种基于深度学习的人脸图像检索方法、装置及终端
CN109389074A (zh) 一种基于人脸特征点提取的表情识别方法
CN111178208A (zh) 基于深度学习的行人检测方法、装置及介质
Li et al. A multi-level contextual model for person recognition in photo albums
Bhattacharjee et al. A comparative study of human thermal face recognition based on Haar wavelet transform and local binary pattern
CN109740572A (zh) 一种基于局部彩色纹理特征的人脸活体检测方法
Wandzik et al. CNNs under attack: on the vulnerability of deep neural networks based face recognition to image morphing
Zhuang et al. Recognition oriented facial image quality assessment via deep convolutional neural network
Gilani et al. Towards large-scale 3D face recognition
Liu et al. Physics-guided spoof trace disentanglement for generic face anti-spoofing
KR101727833B1 (ko) 얼굴인식을 위한 판별분석 기반의 복합 특징 벡터 생성 장치 및 방법
Mosayyebi et al. Gender recognition in masked facial images using EfficientNet and transfer learning approach
Arab et al. Revealing true identity: Detecting makeup attacks in face-based biometric systems
Emeršič et al. Towards accessories-aware ear recognition
Hannan et al. Analysis of Detection and Recognition of Human Face Using Support Vector Machine
Paul et al. Face detection using skin color recursive clustering and recognition using multilinear PCA
Sikiric et al. I know that person: Generative full body and face de-identification of people in images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190315

Termination date: 20190808

CF01 Termination of patent right due to non-payment of annual fee