CN109241910B - 一种基于深度多特征融合级联回归的人脸关键点定位方法 - Google Patents
一种基于深度多特征融合级联回归的人脸关键点定位方法 Download PDFInfo
- Publication number
- CN109241910B CN109241910B CN201811040656.0A CN201811040656A CN109241910B CN 109241910 B CN109241910 B CN 109241910B CN 201811040656 A CN201811040656 A CN 201811040656A CN 109241910 B CN109241910 B CN 109241910B
- Authority
- CN
- China
- Prior art keywords
- face
- key points
- image
- training
- thermodynamic diagram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
本发明属于人脸识别技术领域,具体涉及一种基于深度多特征融合级联回归的人脸关键点定位方法,首先将深度网络的多层特征进行融合通过回归的方式来进行人脸关键点的初步定位,其次根据定位结果将其对应的人脸图像进行校正,同时计算初步定位结果的热力图,然后将校正后的图像和计算出的热力图再次输入到深度网络中进行人脸关键点修正,最后根据实际预测精度决定是否再次进行人脸关键点修正。本方法在复杂性及可操作性没有明显增加的情况下,相比单个深度网络进一步降低关键点定位误差。
Description
技术领域
本发明属于人脸识别技术领域,具体涉及一种基于深度多特征融合级联回归的人脸关键点定位方法。
背景技术
计算机视觉技术是一种研究如何使用计算机及其相关设备,对生物视觉进行模拟的技术。通过摄像机等成像设备采集的图片或视频进行处理,获得相应场景的三维信息,由计算机代替大脑完成处理和理解。该技术涉及多个学科,包括图像处理、模式识别、图像分析和图像理解等。目前,广泛应用于各个领域,如医疗图像处理、视频监控、电子卡口、虚拟现实、智能交通等。
随着计算机视觉技术的发展,人脸识别技术已经广泛应用于很多电子系统,如门禁系统、卡口系统、电子护照、公安、银行自助系统、信息安全等。但是在实际的人脸识别过程中,由于人脸角度、姿态各异,因此需要先对检测到的人脸进行对齐,其实也就是人脸关键点定位。人脸关键点定位的目的是针对一张给定的人脸图像,通过一定的方法计算出其五官(眉毛、嘴、眼睛、鼻子和脸颊)的N个关键点坐标(x,y),如图1显示了N(68)个人脸关键点的相对位置。
人脸关键点定位的准确与否直接影响接下来的人脸识别、比对等任务。因此,目前已经有一些专利专门用于人脸关键点定位,例如:现有技术1:深圳大学于仕琪(CN104899563A),该专利的核心步骤为:首先,通过预设的人脸关键点定位方法将得到的二维人脸关键点坐标输入到事先建立好的关键点维度转换模型中;其次,将二维人脸关键点坐标转换为三维坐标,并将得到的三维坐标投影到二维人脸图像上得到估计坐标。最后,通过估计坐标与二维位置坐标计算人脸关键点定位误差,如果误差小于给定的阈值T,则将该估计坐标作为人脸关键点。
另外,现有技术2:旷视科技(CN103824049A)采用了一种基于级联神经网络的人脸关键点定位方法。该专利的核心是将人脸分为:内脸(包括:眉毛、嘴、眼睛、鼻子)和外脸(脸轮廓)。然后将内脸和外脸分别通过一个深度神经网络进行人脸关键点定位,最后再将内、外脸网络预测得到的人脸关键点进行合并。值得一提的是,在进行内脸关键点定位时,该技术又提取了内脸中的眉毛、嘴、眼睛和鼻子区域,并对其进行了角度矫正。
由于实际环境存在一定的复杂性,虽然上述现有技术1和现有技术2在一定程度上缓解了人脸关键点定位的效率和准确率问题,但仍存在一些不足之处。现有技术1人脸关键点定位的精度严重依赖所用的“预设人脸关键点定位方法”和“关键点维度转换模型”,况且对于复杂场景,这两种技术的鲁棒性严重下降;另外,虽然现有技术1将人脸分为多个子区域进行人脸关键点定位,但是由于其需要对每个子区域进行校正,因此复杂性也明显提高。除此之外,由于人脸每个区域存在一定的几何位置关系,该方案将人脸拆分单独进行关键点定位的方式不能很好的利用人脸不同区域的位置关系。
发明内容
本发明的目的是提出一种基于深度多特征融合级联回归的人脸关键点定位方法,旨在解决现有技术中复杂性及可操作性没有明显增加的情况下,相比单个深度网络关键点定位误差较大的问题。
本发明通过以下技术方案实现:
一种基于深度多特征融合级联回归的人脸关键点定位方法,包括步骤:
(1)将深度网络的多层特征进行融合通过回归的方式来进行人脸关键点的初步定位;
(2)根据初步定位结果对其对应的人脸图像进行校正,同时计算初步定位结果的热力图;
(3)将校正后的图像和计算出的热力图再次输入到深度网络中进行人脸关键点修正;
(4)根据实际预测精度决定是否再次进行人脸关键点修正。
进一步,所述的步骤(1)中的初步定位包括步骤:
Step 1:准备训练网络所用的数据集;
Step 2:构建深度网络模型,并利用预训练好的网络模型进行权重初始化;
Step 3:人脸关键点初步定位,网络初始化完成后利用Step 1中准备好的数据进行深度网络训练,一直到网络收敛为止。
优选的,在所述的Step 1中采用的数据集为人脸关键点定位领域常用的数据集300W比赛数据集。
进一步,在所述的Step 1中,训练数据格式为(Xi,Yi),其中Xi表示图像,Yi表示Xi对应的关键点集合,i=1,2,…,M,M为训练图像数量。
进一步,在所述的Step 3中,运用的监督函数是正则化后的欧氏损失,如下式所示:
进一步,所述的步骤(2)中包括步骤:
Step 4:人脸图像校正;所述的Step 4中,首先,通过Step 3得到人脸关键点的初步位置然后,通过相似性变换计算与标准脸YS之间的相似性变换矩阵Ti,进而可以得到校正后的人脸图像Ti(Xi)。
优选的,标准脸YS取所有训练数据集的平均值。
进一步,所述的步骤(2)中包括步骤:
Ti:第i级的关键点校正矩阵,
Yi:第i级检测出的关键点,
Pxy:图像的所有坐标点,
α:热力图数值调整系数,
β:热力图数值调整系数,
λ:热力图数值调整系数,
r:阈值,其值为图像的宽度。
进一步,所述的步骤(3)中包括:
Step 6:将Step 4和Step 5得到的校正后图像及关键点热力图合并后,再次返回执行Step2和Step3进行人脸关键点修正。
进一步,所述的步骤(4)中包括:
Setp 7:如果训练误差Error小于给定的阈值Threshod,则训练结束;否则继续重复Step 6直到训练误差小于给定阈值为止。
与现有技术相比,本发明至少具有下述的有益效果或优点:
本发明提供的这种基于深度多特征融合级联回归的人脸关键点定位方法,在复杂性及可操作性没有明显增加的情况下,相比单个深度网络进一步降低关键点定位误差。通过将多级网络进行级联,该方案理论上可以无限逼近人脸关键点的真实位置;但是,在实际中鉴于运行效率及资源占用问题,一般级联两个或三个网络即可达到比较理想的定位效果。通过引入热力图,可以使得网络在训练的时候更加专注的学习人脸关键点周围的人脸特征,从而也相应的提高了关键点的定位精度。
附图说明
以下将结合附图对本发明做进一步详细说明;
图1是现有技术中68个人脸关键点相对位置示意图;
图2-a是本发明的人脸关键点原始的位置图;
图2-b是本发明的人脸关键点校正后的位置图;
图2-c是本发明的人脸关键点校正后对应的热力图;
图3是本发明的整体流程图;
图4是本发明所用的深度网络结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
对于基于深度学习的人脸关键点定位方法来说,首先需要一种鲁棒的人脸表示方式。传统的手工特征提取方法只能提取人脸的某些浅层特征,不能充分反映人脸的本质。然而,深度网络可以通过一个多级的分层结构提取出目标对象的一些语义信息,这些信息能够较好的描述目标对象的本质特征。本发明首先将深度网络的多层特征进行融合通过回归的方式来进行人脸关键点的初步定位,其次根据定位结果将其对应的人脸图像进行校正,同时计算初步定位结果的热力图,然后将校正后的图像和计算出的热力图再次输入到深度网络中进行人脸关键点修正,最后根据实际预测精度决定是否再次进行人脸关键点修正。详细方案如下所述:
5.1、准备训练数据并进行人脸关键点初步定位
Step 1:准备训练网络所用的数据集。本方法中使用的是人脸关键点定位领域常用的数据集300W比赛数据集(包括:LFPW,HELEN,AFW,IBUG)。训练数据格式为(Xi,Yi)(i=1,2,...,M),其中Xi表示图像,Yi∈R1x2N(N表示关键点个数)表示Xi对应的关键点集合,M表示训练图像数量。
Step 2:构建深度网络模型(如附图4所示),并利用预训练好的网络模型进行权重初始化。
Step 3:人脸关键点初步定位。网络初始化完成后利用Step 1中准备好的数据进行深度网络训练,一直到网络收敛为止;本方案中用到的监督函数是正则化后的欧氏损失,如下式所示:
5.2、人脸图像校正及人脸关键点热力图计算
Step 4:人脸图像校正。首先,通过Step3可以得到人脸关键点的初步位置如图2-a所示。然后,通过相似性变换计算与标准脸YS(可通过取所有训练集平均得到)之间的相似性变换矩阵Ti,进而可以得到校正后的人脸图像Ti(Xi),如图2-b所示。
Ti:第i级的关键点校正矩阵,
Yi:第i级检测出的关键点,
Pxy:图像的所有坐标点,
α:热力图数值调整系数,默认为1,
β:热力图数值调整系数,默认为接近0的极小值,
λ:热力图数值调整系数,默认为1,
r:阈值,默认为图像的宽度。
5.3、人脸关键点修正
Step 6:将Step 4和Step 5得到的校正后图像及关键点热力图合并后,再次通过Step2和Step3进行人脸关键点修正。
Setp 7:如果训练误差Error小于给定的阈值Threshod,则训练结束;否则继续重复Step 6直到训练误差小于给定阈值为止(一般Step 6执行完后,精度即可达到要求);整体流程图如图3所示。
本方案针对人脸关键点定位问题,通过将深度网络的多层特征进行融合,并进一步结合人脸关键点热力图及人脸图像校正手段,采用深度网络级联回归逐步求精的方式进行人脸关键点位置预测。
通过将多级网络进行级联,该方案理论上可以无限逼近人脸关键点的真实位置。但是,在实际中鉴于运行效率及资源占用问题,一般级联两个或三个网络即可达到比较理想的定位效果。该方案的核心点如下:
1、融合深度网络的多层特征用于人脸关键点位置预测;
2、先初步预测人脸关键点位置,然后在此基础上利用校正后的人脸图像和关键点热力图进一步修正人脸关键点位置。
综上所述,现有技术2的技术方案需要将人脸分成不同的子区域,并分别对每个子区域的人脸关键点分别进行预测。与本方案相似的地方在于该方案是对每个人脸子区域进行了校正,因此也进一步预测出了更加准确的关键点位置。通过本方案也证明,对人脸进行校正后再进行关键点预测确实可以带来一定的改善,但是本方案是对人脸整体进行校正,这样不但不会丢失不同人脸子区域中人脸关键点的几何位置,也使得实施起来更加方便。
除此之外,本方案中热力图的引入,在一定程度上也提高了人脸关键点的定位精度。因为引入热力图,可以使得网络在训练的时候更加专注的学习人脸关键点周围的人脸特征,从而也相应的提高了关键点的定位精度。
最后,本方案还有一个优点就是,通过多次修正本方案理论上可以无限接近关键点的真实位置。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。在不脱离本发明之精神和范围内,所做的任何修改、等同替换、改进等,同样属于本发明的保护范围之内。
Claims (6)
1.一种基于深度多特征融合级联回归的人脸关键点定位方法,其特征在于,包括步骤:
(1)将深度网络的多层特征进行融合通过回归的方式来进行人脸关键点的初步定位;
(2)根据初步定位结果对其对应的人脸图像进行校正,同时计算初步定位结果的热力图;
(3)将校正后的图像和计算出的热力图合并后再次输入到深度网络中进行人脸关键点修正;
(4)根据实际预测精度决定是否再次进行人脸关键点修正;
所述步骤(1)中的初步定位包括步骤:
Step 1:准备训练网络所用的数据集;
Step 2:构建深度网络模型,并利用预训练好的网络模型进行权重初始化;
Step 3:人脸关键点初步定位,网络初始化完成后利用Step 1中准备好的数据进行深度网络训练,一直到网络收敛为止;
其中所述的Step 1中,训练数据格式为(Xi,Yi),其中Xi表示图像,Yi表示Xi对应的关键点集合,i=1,2,…,M,M为训练图像数量;
所述的步骤(2)中包括步骤:
Step 4:人脸图像校正;所述的Step 4中,首先,通过Step 3得到人脸关键点的初步位置然后,通过相似性变换计算与标准脸YS之间的相似性变换矩阵Ti,进而可以得到校正后的人脸图像Ti(Xi);
所述的步骤(2)中包括步骤:
Ti:第i级的关键点校正矩阵,
Yi:第i级检测出的关键点,
Pxy:图像的所有坐标点,
α:热力图数值调整系数,
β:热力图数值调整系数,
λ:热力图数值调整系数,
r:阈值,其值为图像的宽度。
2.根据权利要求1所述的基于深度多特征融合级联回归的人脸关键点定位方法,其特征在于,在所述的Step 1中采用的数据集为人脸关键点定位领域的数据集300W比赛数据集。
4.根据权利要求1所述的基于深度多特征融合级联回归的人脸关键点定位方法,其特征在于,标准脸YS取所有训练数据集的平均值。
5.根据权利要求1所述的基于深度多特征融合级联回归的人脸关键点定位方法,其特征在于,所述的步骤(3)中包括:
Step 6:将Step 4和Step 5得到的校正后图像及关键点热力图合并后,再次返回执行Step2和Step3进行人脸关键点修正。
6.根据权利要求1所述的基于深度多特征融合级联回归的人脸关键点定位方法,其特征在于,所述的步骤(4)中包括:
Setp 7:如果训练误差Error小于给定的阈值Threshod,则训练结束;否则继续重复Step 6直到训练误差小于给定阈值为止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811040656.0A CN109241910B (zh) | 2018-09-07 | 2018-09-07 | 一种基于深度多特征融合级联回归的人脸关键点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811040656.0A CN109241910B (zh) | 2018-09-07 | 2018-09-07 | 一种基于深度多特征融合级联回归的人脸关键点定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109241910A CN109241910A (zh) | 2019-01-18 |
CN109241910B true CN109241910B (zh) | 2021-01-01 |
Family
ID=65060186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811040656.0A Active CN109241910B (zh) | 2018-09-07 | 2018-09-07 | 一种基于深度多特征融合级联回归的人脸关键点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109241910B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902616B (zh) * | 2019-02-25 | 2020-12-01 | 清华大学 | 基于深度学习的人脸三维特征点检测方法及系统 |
CN110210306B (zh) * | 2019-04-30 | 2021-09-14 | 青岛小鸟看看科技有限公司 | 一种人脸跟踪方法和相机 |
US11514713B2 (en) * | 2019-05-31 | 2022-11-29 | Apple Inc. | Face quality of captured images |
CN110399809A (zh) * | 2019-07-08 | 2019-11-01 | 北京亮亮视野科技有限公司 | 多特征融合的人脸关键点检测方法及装置 |
CN110348463B (zh) * | 2019-07-16 | 2021-08-24 | 北京百度网讯科技有限公司 | 用于识别车辆的方法和装置 |
CN110458494A (zh) * | 2019-07-19 | 2019-11-15 | 暨南大学 | 一种无人机物流送货方法及系统 |
CN110569724B (zh) * | 2019-08-05 | 2021-06-04 | 湖北工业大学 | 一种基于残差沙漏网络的人脸对齐方法 |
CN110598601A (zh) * | 2019-08-30 | 2019-12-20 | 电子科技大学 | 一种基于分布式热力图的人脸3d关键点检测方法及系统 |
CN110516642A (zh) * | 2019-08-30 | 2019-11-29 | 电子科技大学 | 一种轻量化人脸3d关键点检测方法及系统 |
CN111160375B (zh) * | 2019-12-31 | 2024-01-23 | 北京奇艺世纪科技有限公司 | 三维关键点预测及深度学习模型训练方法、装置及设备 |
CN111507248B (zh) * | 2020-04-16 | 2023-05-26 | 成都东方天呈智能科技有限公司 | 一种低分辨热力图的人脸额头区域检测与定位方法及其系统 |
CN113128436B (zh) * | 2021-04-27 | 2022-04-01 | 北京百度网讯科技有限公司 | 关键点的检测方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016026135A1 (en) * | 2014-08-22 | 2016-02-25 | Microsoft Technology Licensing, Llc | Face alignment with shape regression |
CN105868769A (zh) * | 2015-01-23 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中的人脸关键点定位方法及装置 |
CN107016319A (zh) * | 2016-01-27 | 2017-08-04 | 北京三星通信技术研究有限公司 | 一种关键点定位方法和装置 |
CN108073914A (zh) * | 2018-01-10 | 2018-05-25 | 成都品果科技有限公司 | 一种动物面部关键点标注方法 |
CN108229488A (zh) * | 2016-12-27 | 2018-06-29 | 北京市商汤科技开发有限公司 | 用于检测物体关键点的方法、装置及电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140185924A1 (en) * | 2012-12-27 | 2014-07-03 | Microsoft Corporation | Face Alignment by Explicit Shape Regression |
-
2018
- 2018-09-07 CN CN201811040656.0A patent/CN109241910B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016026135A1 (en) * | 2014-08-22 | 2016-02-25 | Microsoft Technology Licensing, Llc | Face alignment with shape regression |
CN105868769A (zh) * | 2015-01-23 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中的人脸关键点定位方法及装置 |
CN107016319A (zh) * | 2016-01-27 | 2017-08-04 | 北京三星通信技术研究有限公司 | 一种关键点定位方法和装置 |
CN108229488A (zh) * | 2016-12-27 | 2018-06-29 | 北京市商汤科技开发有限公司 | 用于检测物体关键点的方法、装置及电子设备 |
CN108073914A (zh) * | 2018-01-10 | 2018-05-25 | 成都品果科技有限公司 | 一种动物面部关键点标注方法 |
Non-Patent Citations (2)
Title |
---|
A Deep Regression Architecture with Two-Stage Re-initialization for;Jiangjing Lv 等;《2017 IEEE Conference on Computer Vision and Pattern Recognition 》;20170721;第3691-3700页 * |
Deep Convolutional Network Cascade for Facial Point Detection;Hanjiang Lai等;《IEEE Transactions on Circuits and Systems for Video Technology》;20161228;第28卷(第5期);第1144-1157页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109241910A (zh) | 2019-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109241910B (zh) | 一种基于深度多特征融合级联回归的人脸关键点定位方法 | |
CN110135375B (zh) | 基于全局信息整合的多人姿态估计方法 | |
CN110175558B (zh) | 一种人脸关键点的检测方法、装置、计算设备及存储介质 | |
WO2018000752A1 (zh) | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 | |
CN104036546B (zh) | 一种基于自适应形变模型的任意视角人脸三维重构方法 | |
CN108596024A (zh) | 一种基于人脸结构信息的肖像生成方法 | |
CN103514441B (zh) | 基于移动平台的人脸特征点定位跟踪方法 | |
WO2020125499A1 (zh) | 一种操作提示方法及眼镜 | |
CN110490158B (zh) | 一种基于多级模型的鲁棒人脸对齐方法 | |
WO2016023264A1 (zh) | 指纹识别方法及其指纹识别装置 | |
CN106327571A (zh) | 一种三维人脸建模方法及装置 | |
CN111783748B (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN111091075B (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN108932536A (zh) | 基于深度神经网络的人脸姿态重建方法 | |
CN107066969A (zh) | 一种人脸识别方法 | |
CN110110694B (zh) | 一种基于目标检测的视觉slam闭环检测方法 | |
CN108470178B (zh) | 一种结合深度可信度评价因子的深度图显著性检测方法 | |
CN113343878A (zh) | 基于生成对抗网络的高保真人脸隐私保护方法和系统 | |
CN114494347A (zh) | 一种单摄像头多模式视线追踪方法和装置、电子设备 | |
CN114503162A (zh) | 具有不确定性的特征点位置估计的图像处理系统和方法 | |
CN114283265A (zh) | 一种基于3d旋转建模的无监督人脸转正方法 | |
CN114049442A (zh) | 三维人脸视线计算方法 | |
Liang et al. | Affine correspondence based head pose estimation for a sequence of images by using a 3D model | |
CN113379890A (zh) | 一种基于单张照片的人物浅浮雕模型生成方法 | |
Yücel et al. | Resolution of focus of attention using gaze direction estimation and saliency computation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |