CN111695450A - 一种基于IMobileNet的人脸快速识别方法 - Google Patents
一种基于IMobileNet的人脸快速识别方法 Download PDFInfo
- Publication number
- CN111695450A CN111695450A CN202010459770.8A CN202010459770A CN111695450A CN 111695450 A CN111695450 A CN 111695450A CN 202010459770 A CN202010459770 A CN 202010459770A CN 111695450 A CN111695450 A CN 111695450A
- Authority
- CN
- China
- Prior art keywords
- face
- network
- image
- imobilenet
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于IMobileNet的人脸快速识别方法,首先,选择人脸图像数据库并对人脸图像进行预处理,预处理包括:人脸矫正、图像尺度变换、图像像素归一化;其次利用轻量级神经网络IMobileNet搭建人脸分类器网络;然后,将经过预处理的图片样本输入到搭建的网络中进行训练;最后,保存训练模型,将网络中softmax层的前一层作为人脸的特征向量,并利用特征向量进行人脸识别。本发明利用设计的轻量级神经网络提取人脸特征向量,降低了网络的参数和所需计算量,使其便于在资源受限的移动设备中部署。
Description
技术领域
本发明涉及一种基于IMobileNet的人脸快速识别方法,属于人脸识别技术领域。
背景技术
近些年来,由于深度学习算法的高效与高精确度,使得其愈来愈多地被用在人脸识别中。Facebook在2014年提出了DeepFace模型,利用多个卷积层模型相连,最后加入全连接层的方式进行训练,在LFW数据集中取得了97.53%的准确率。Sun等人通过重建VGG网络和GoogLeNet网络,得到了DeepID3 net1与DeepID3 net2网络,在LFW数据集的准确率均超过了99%。Deng等人设计的ArcFace,通过加入角余量损失,改进softmax分类模型,在YouTube人脸数据库中,取得92.59%的准确率。2015年,Google发布了FaceNet模型,它通过引入三元组模型进行人脸验证、识别与训练,在YouTube人脸数据库中测试,准确率达到了95.12%。
随着人脸识别技术的不断发展,一些技术难题仍然亟待解决:1.神经网络的复杂程度与算法检测速度的冲突。一般来说,卷积层的层数越多,对于图像的特征提取就越准确,人脸识别精度就会增加,但是复杂的卷积层结构对于资源受限设备的计算力有很大考验。2.算法模型大小与算法精度无法同时保证。在进行人脸特征提取时,通过增加卷积层通道数,神经网络采集到的特征也随之增加,但是这样做会导致训练出来的模型过大,使得硬件的内存消耗严重。
发明内容
发明目的:本发明提出一种基于IMobileNet(即轻量级神经网络)的人脸快速识别方法,该方法在保证人脸识别精度的同时,使用了轻量化网络减少网络参数,以提高人脸识别的速度。
技术方案:本发明的一种基于IMobileNet的人脸快速识别方法,该方法包括如下步骤:
1)选择人脸图像数据库并对人脸图像进行预处理,预处理包括:人脸对齐、图像尺度变换、图像像素归一化;
(2)利用轻量级神经网络IMobileNet搭建人脸分类器网络;
(3)将步骤(1)中经过预处理的图片样本输入到步骤(2)中搭建的网络中进行训练;
(4)保存训练模型,将网络中softmax层的前一层作为人脸的特征向量,并利用特征向量进行人脸识别。
进一步地,步骤(1)所述人脸数据库为CASIA-WebFace,人脸图像预处理包含以下步骤:
(11)利用MTCNN人脸检测框架检测输入图像的5个人脸特征坐标;
(12)利用5个人脸特征坐标进行人脸对齐,使得每个人脸图像的眼睛处于同一水平线上,每个人脸图像的鼻尖处于同一垂直线上;
(13)将人脸对齐后的图片缩放至128*128大小,并将图像进行标准化处理,即将图片的像素值转化为服从高斯分布的零均值、单位方差的像素值。
进一步地,步骤(2)所述的轻量级神经网络IMobileNet使用了Inception网络和SE模块,包含了2个Mobile-Inception模块与6个Mobile-Resnet模块,其中每个Mobile-Inception模块的宽度为3,在第一个分支中,使用了两个内核为3×3的DW卷积与一个SE模块串联,在第二个分支中,使用了一个内核为3×3的DW卷积与一个SE模块串联,第三个分支使用了一个1×1的卷积模块;每个Mobile-Resnet模块具有两个分支,最右侧的分支首先将输入的维度降为1/4,再进行卷积,最后进行升维,与输入相加。
进一步地,步骤(3)中所述训练时采用了中心损失与交叉熵损失结合作为损失函数的方式,在训练时,数据按照批次输入网络进行训练,在将所有数据训练一次后,称为完成了一个时期的训练;
在按照批次训练时,令网络输入向量为I(i1,i2,...,im),m∈N,输出向量为z(z1,z2,...,zu),u∈N,在每个容量大小为a的批次中,交叉熵损失Ls表示为:
中心损失Lc的定义为:
进一步地,所述步骤(4)具体包括以下步骤:
(41)将两张经过步骤(1)中预处理后的待识别人脸图片输入分类器,利用IMobileNet网络进行特征提取,将网络中softmax层的前一层作为人脸的特征向量;
(42)利用余弦相似度比较输入的两张人脸图片是否为同一人:
假设有人脸特征向量X,Y,那么人脸的余弦相似度sim(X,Y)可表示为:
其中,θ表示X,Y之间的夹角,
在(0,180°)内,θ越大,相似度越低,所以通过设定θ的阈值来判定两个特征向量是否属于同一个输入,当输入的两张人脸图像的余弦相似度小于阈值时,判定输入的是同一个人物的图像,否则判定输入的是不同人物的图像。
进一步地,步骤(42)所述阈值的选取方法是:利用LFW数据集提供的人脸样本进行阈值的选取,通过10折交差验证法,得出阈值。
本发明所要解决的关键技术问题:传统的人脸识别网络参数量(Params)通常超过20M,运行所需的浮点计算力(FLOPs)大于1000M,虽然这些网络能够取得较高的精度,但由于它们消耗的算力资源较大,部署在资源受限的设备中时,进行人脸识别所消耗的时间过长,会造成设备的卡顿,甚至影响设备正常使用。
本发明的优点和有益效果:本发明借鉴了Inception网络结构和SE模块的设计结构,设计了IMoblienet网络,当输入为128*128的三通道彩色图像时,Params为348k,FLOPs为39M。对比MobileNet网络,该网络的Params与Flops为MobileNet-0.5的40%,是MobileNet-0.25的1.4倍。该网络在LFW验证集的分类准确率达到了95.5%,比MobileNet-0.5提高了0.9%,比MobileNet-0.25提高了5.1%。将网络部署在RK3399开发板(CPU主频1.5GHz,板载2GB内存)上,运行一次人脸识别算法所需要的平均时间为75ms。总体来说,IMoblienet网络具有比MobileNet网络更优异的性能,更加适合部署在资源受限的移动设备上。
附图说明
图1为本发明的总体流程图。
图2A为Mobile-Inception模块的结构示意图,图2B为Mobile-Resnet模块的结构示意图。
图3为IMoblienet网络结构示意图。
图4为利用IMobileNet获得人脸特征向量的示意图。
图5为利用余弦相似度进行人脸识别的流程图。
具体实施方式
下面将结合附图对本发明作进一步描述。
图1展示了本发明的总流程:
步骤一:选择人脸图像数据库并对人脸图像进行预处理:
首先利用MTCNN人脸检测框架检测输入图像的5个人脸特征坐标;
然后利用5个人脸特征坐标进行人脸对齐,使得每个人脸图像的眼睛处于同一水平线上,每个人脸图像的鼻尖处于同一垂直线上
最后将人脸对齐后的图片缩放至128×128大小,并将图像进行标准化处理,即将图片的像素值转化为服从高斯分布的零均值、单位方差的像素值。
对于一幅S×T大小的彩色图像,具有R、G、B三个通道,对于每一个通道,计算像素的平均值μ和方差δ2。
其中,pst表示彩色图像每一通道的像素值。
得到μ、δ2之后,计算该通道每个像素点的标准化像素值xst
步骤二:利用轻量级神经网络IMobileNet搭建人脸分类器网络;
IMobileNet使用了Inception网络和SE模块的思想进行设计,包含了Mobile-Inception模块与Mobile-Resnet模块。Mobile-Inception模块,它参考了Inception网络的经典设计,它的宽度为3,在第一个分支中,使用了两个内核为3×3的DW卷积与一个SE模块串联,在第二个分支中,使用了一个内核为3×3的DW卷积与一个SE模块串联,第三个分支使用了一个1×1的卷积模块。Mobile-Resnet模块,具有残差网络的显著特征。该模块具有两个分支,最右侧的分支首先将输入的维度降为1/4,再进行卷积,最后进行升维,与输入相加。这种先降维后升维的思想,可以减少网络中的参数,并且在通道数较多时,不会影响特征的提取。Mobile-Inception模块的结构如图2(A)所示,Mobile-Resnet模块的结构如图2(B)所示。
IMobileNet网络使用了2个Mobile-Inception模块与6个Mobile-Resnet模块。该网络的参数仅有500k,当输入为128*128的三通道彩色图片时,其消耗的浮点运算次数为39M。IMobileNet的网络结构如图3所示。
步骤三:将步骤一中经过预处理的图片样本输入到步骤二中搭建的网络中进行训练;
在训练时采用了中心损失(centerloss)与交叉熵损失(cross-entropy)结合作为损失函数的方式,减小同类之间的类内距离,增加分类准确率:
在按照批次训练时,令网络输入向量为I(i1,i2,...,im),m∈N,输出向量为z(z1,z2,...,zu),u∈N,在每个容量大小为a的批次中,交叉熵损失Ls表示为:
中心损失Lc的定义为:
其中,xi为全连接层之前的特征,cyi表示第yi个类别的特征中心,Zi为输出向量中的第i列,Zj为输出向量中的第j列;
整个网络总的损失函数L=Ls+λLc,λ的取值在0-1之间。
步骤四:保存训练模型,将网络中softmax层的前一层作为人脸的特征向量,并利用特征向量进行人脸识别。
首先利用IMobileNet网络进行特征提取,将网络中softmax层的前一层作为人脸的特征向量。如图4所示,可利用IMobileNet网络获得人脸的512维特征向量。
然后利用不同向量的余弦相似度比较输入的两幅图像是否为同一人。在进行人脸识别时,当同一个人的脸部信息反复进行特征提取时,神经网络输出的特征向量具有相似性。在数学中,使用余弦相似度来表示这种向量间的相似性。假设有人脸特征向量X,Y,那么人脸的余弦相似度sim(X,Y)可表示为:
其中,θ表示X,Y之间的夹角。
在(0,180°)内,θ越大,相似度越低。可以通过设定θ的阈值来判定两个特征向量是否属于同一个输入。当输入的两张人脸图像的余弦相似度小于阈值时,判定输入的是同一个人物的图像,否则判定输入的是不同人物的图像。
本发明利用LFW数据集提供的6000对人脸样本进行阈值的选取,通过10折交差验证法,得出阈值为0.378。此阈值在LWF数据集上的人脸识别正确率为95.5%。
利用余弦相似度进行人脸识别的方法如图5所示。
本发明所公开的技术手段不仅限于上述技术手段所公开的技术手段,还包括由以上技术特征等同替换所组成的技术方案。本发明的未尽事宜,属于本领域技术人员的公知常识。
Claims (6)
1.一种基于IMobileNet的人脸快速识别方法,其特征在于:该方法包括如下步骤:
1)选择人脸图像数据库并对人脸图像进行预处理,预处理包括:人脸对齐、图像尺度变换、图像像素归一化;
(2)利用轻量级神经网络IMobileNet搭建人脸分类器网络;
(3)将步骤(1)中经过预处理的图片样本输入到步骤(2)中搭建的网络中进行训练;
(4)保存训练模型,将网络中softmax层的前一层作为人脸的特征向量,并利用特征向量进行人脸识别。
2.根据权利要求1所述的基于IMobileNet的人脸快速识别方法,其特征在于:步骤(1)所述人脸数据库为CASIA-WebFace,人脸图像预处理包含以下步骤:
(11)利用MTCNN人脸检测框架检测输入图像的5个人脸特征坐标;
(12)利用5个人脸特征坐标进行人脸对齐,使得每个人脸图像的眼睛处于同一水平线上,每个人脸图像的鼻尖处于同一垂直线上;
(13)将人脸对齐后的图片缩放至128*128大小,并将图像进行标准化处理,即将图片的像素值转化为服从高斯分布的零均值、单位方差的像素值。
3.根据权利要求1所述的基于IMobileNet的人脸快速识别方法,其特征在于:步骤(2)所述的轻量级神经网络IMobileNet使用了Inception网络和SE模块,包含了2个Mobile-Inception模块与6个Mobile-Resnet模块,其中每个Mobile-Inception模块的宽度为3,在第一个分支中,使用了两个内核为3×3的DW卷积与一个SE模块串联,在第二个分支中,使用了一个内核为3×3的DW卷积与一个SE模块串联,第三个分支使用了一个1×1的卷积模块;每个Mobile-Resnet模块具有两个分支,最右侧的分支首先将输入的维度降为1/4,再进行卷积,最后进行升维,与输入相加。
4.根据权利要求1所述的基于IMobileNet的人脸快速识别方法,其特征在于:步骤(3)中所述训练时采用了中心损失与交叉熵损失结合作为损失函数的方式,在训练时,数据按照批次输入网络进行训练,在将所有数据训练一次后,称为完成了一个时期的训练;
在按照批次训练时,令网络输入向量为I(i1,i2,...,im),m∈N,输出向量为z(z1,z2,...,zu),u∈N,在每个容量大小为a的批次中,交叉熵损失Ls表示为:
中心损失Lc的定义为:
整个网络总的损失函数L=Ls+λLc,λ的取值在0-1之间,
5.根据权利要求1所述的基于IMobileNet的人脸快速识别方法,其特征在于:所述步骤(4)具体包括以下步骤:
(41)将两张经过步骤(1)中预处理后的待识别人脸图片输入分类器,利用IMobileNet网络进行特征提取,将网络中softmax层的前一层作为人脸的特征向量;
(42)利用余弦相似度比较输入的两张人脸图片是否为同一人:
假设有人脸特征向量X,Y,那么人脸的余弦相似度sim(X,Y)可表示为:
其中,θ表示X,Y之间的夹角,
在(0,180°)内,θ越大,相似度越低,所以通过设定θ的阈值来判定两个特征向量是否属于同一个输入,当输入的两张人脸图像的余弦相似度小于阈值时,判定输入的是同一个人物的图像,否则判定输入的是不同人物的图像。
6.根据权利要求5所述的基于IMobileNet的人脸快速识别方法,其特征在于:步骤(42)所述阈值的选取方法是:利用LFW数据集提供的人脸样本进行阈值的选取,通过10折交差验证法,得出阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010459770.8A CN111695450B (zh) | 2020-05-26 | 2020-05-26 | 一种基于IMobileNet的人脸快速识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010459770.8A CN111695450B (zh) | 2020-05-26 | 2020-05-26 | 一种基于IMobileNet的人脸快速识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111695450A true CN111695450A (zh) | 2020-09-22 |
CN111695450B CN111695450B (zh) | 2023-05-09 |
Family
ID=72478516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010459770.8A Active CN111695450B (zh) | 2020-05-26 | 2020-05-26 | 一种基于IMobileNet的人脸快速识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111695450B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102314A (zh) * | 2020-11-02 | 2020-12-18 | 成都考拉悠然科技有限公司 | 基于不确定性来判断人脸图片质量的计算方法 |
CN114022943A (zh) * | 2021-12-13 | 2022-02-08 | 南京优闼智能科技有限公司 | 一种基于信息流通的超交互卷积神经网络的人脸识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509862A (zh) * | 2018-03-09 | 2018-09-07 | 华南理工大学 | 抗角度与遮挡干扰的快速人脸识别方法 |
CN109214360A (zh) * | 2018-10-15 | 2019-01-15 | 北京亮亮视野科技有限公司 | 一种基于ParaSoftMax损失函数的人脸识别模型的构建方法及应用 |
CN109583357A (zh) * | 2018-11-23 | 2019-04-05 | 厦门大学 | 一种改进lbp和轻量卷积神经网络级联的人脸识别方法 |
CN109886190A (zh) * | 2019-02-20 | 2019-06-14 | 哈尔滨工程大学 | 一种基于深度学习的人脸表情和姿态双模态融合表情识别方法 |
CN110532920A (zh) * | 2019-08-21 | 2019-12-03 | 长江大学 | 基于FaceNet方法的小数量数据集人脸识别方法 |
-
2020
- 2020-05-26 CN CN202010459770.8A patent/CN111695450B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509862A (zh) * | 2018-03-09 | 2018-09-07 | 华南理工大学 | 抗角度与遮挡干扰的快速人脸识别方法 |
CN109214360A (zh) * | 2018-10-15 | 2019-01-15 | 北京亮亮视野科技有限公司 | 一种基于ParaSoftMax损失函数的人脸识别模型的构建方法及应用 |
CN109583357A (zh) * | 2018-11-23 | 2019-04-05 | 厦门大学 | 一种改进lbp和轻量卷积神经网络级联的人脸识别方法 |
CN109886190A (zh) * | 2019-02-20 | 2019-06-14 | 哈尔滨工程大学 | 一种基于深度学习的人脸表情和姿态双模态融合表情识别方法 |
CN110532920A (zh) * | 2019-08-21 | 2019-12-03 | 长江大学 | 基于FaceNet方法的小数量数据集人脸识别方法 |
Non-Patent Citations (1)
Title |
---|
王锟朋 等: "基于附加间隔Softmax特征的人脸聚类算法" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102314A (zh) * | 2020-11-02 | 2020-12-18 | 成都考拉悠然科技有限公司 | 基于不确定性来判断人脸图片质量的计算方法 |
CN114022943A (zh) * | 2021-12-13 | 2022-02-08 | 南京优闼智能科技有限公司 | 一种基于信息流通的超交互卷积神经网络的人脸识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111695450B (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615010B (zh) | 基于平行卷积神经网络特征图融合的人脸表情识别方法 | |
US11809485B2 (en) | Method for retrieving footprint images | |
CN111832546B (zh) | 一种轻量级自然场景文本识别方法 | |
CN112633350B (zh) | 一种基于图卷积的多尺度点云分类实现方法 | |
CN112580590A (zh) | 一种基于多语义特征融合网络的指静脉识别方法 | |
CN111160533A (zh) | 一种基于跨分辨率知识蒸馏的神经网络加速方法 | |
CN112766229B (zh) | 基于注意力机制的人脸点云图像智能识别系统及方法 | |
CN112801015B (zh) | 一种基于注意力机制的多模态人脸识别方法 | |
CN111401156B (zh) | 基于Gabor卷积神经网络的图像识别方法 | |
CN111414862A (zh) | 基于神经网络融合关键点角度变化的表情识别方法 | |
CN110991349B (zh) | 一种基于度量学习的轻量级车辆属性识别方法 | |
CN111178312B (zh) | 基于多任务特征学习网络的人脸表情识别方法 | |
CN111259735B (zh) | 基于多级预测特征增强卷积神经网络的单人姿态估计方法 | |
CN112329683A (zh) | 一种基于注意力机制融合的多通道卷积神经网络人脸表情识别方法 | |
CN111695450A (zh) | 一种基于IMobileNet的人脸快速识别方法 | |
CN111709443B (zh) | 一种基于旋转不变卷积神经网络的书法字风格分类方法 | |
CN110188646B (zh) | 基于梯度方向直方图与局部二值模式融合的人耳识别方法 | |
CN113449671A (zh) | 一种多尺度多特征融合的行人重识别方法及装置 | |
CN113065426A (zh) | 基于通道感知的手势图像特征融合方法 | |
CN114463812B (zh) | 基于双通道多分支融合特征蒸馏的低分辨率人脸识别方法 | |
CN114821736A (zh) | 基于对比学习的多模态人脸识别方法、装置、设备及介质 | |
CN114972753A (zh) | 基于上下文信息聚合和辅助学习的轻量级语义分割方法及系统 | |
CN110826534A (zh) | 一种基于局部主成分分析的人脸关键点检测方法及系统 | |
CN110910388A (zh) | 一种基于U-Net和密度估计的癌细胞图像分割方法 | |
CN114463340A (zh) | 一种边缘信息引导的敏捷型遥感图像语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |