CN112507982B - 一种人脸特征码的跨模型转换系统及方法 - Google Patents
一种人脸特征码的跨模型转换系统及方法 Download PDFInfo
- Publication number
- CN112507982B CN112507982B CN202110141833.XA CN202110141833A CN112507982B CN 112507982 B CN112507982 B CN 112507982B CN 202110141833 A CN202110141833 A CN 202110141833A CN 112507982 B CN112507982 B CN 112507982B
- Authority
- CN
- China
- Prior art keywords
- feature
- layer
- network
- conversion
- repeatable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 110
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 57
- 230000004913 activation Effects 0.000 claims description 26
- 238000010606 normalization Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 11
- 238000011176 pooling Methods 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 abstract description 7
- 238000004364 calculation method Methods 0.000 abstract description 6
- 230000008569 process Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 17
- 230000009286 beneficial effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种人脸特征码的跨模型转换系统及方法,将训练集中的人脸图像输入图像特征网络进行训练,并得到训练好的图像特征网络;将训练集中的待转换特征码输入特征码转换网络进行训练,并得到训练好的特征码转换网络;将人脸图像、待转换码分别输入训练好的图像特征网络、特征码转换网络,并对应提取得到图像特征码、转换特征码;将提取得到的图像特征码、转换特征码结合求平均值,然后进行正则化操作得到最终转换的特征码。本发明构建两个神经网络模型,且两个网络分别进行训练,训练过程更加稳定。本发明同时利用了人脸图片和待转换特征码的信息,可以实现高精度的人脸特征码的跨模型转换,具有易于实施、计算精度高的特点。
Description
技术领域
本发明属于人脸识别的技术领域,具体涉及一种人脸特征码的跨模型转换系统及方法。
背景技术
计算机机器视觉中的人脸识别技术被大量的应用于考勤,安防,视频监控,身份认证等众多领域,是计算机机器视觉技术应用最为广泛的技术之一。人脸识别技术的核心之一是提取人脸图像的特征码,作为核心技术,不同的算法公司一般都会训练独有的人脸识别模型来提取特征码。
然而,不同的算法模型之间由于训练数据,网络结构,优化方法之间的不同,导致即使同一张图像,如果由不同的算法模型来提取,得到的特征码也是不同的,无法通过常用的余弦相似度等方法来进行下游的人脸识别,对比等任务。
对于人脸识别系统使用者而言,如果需要替换或者更新人脸识别模型,就需要对系统底库中所有的注册人脸全部由新模型重新生成特征码,且历史记录中保存的特征码也无法再使用。这极大的限制了脸识别系统的灵活性和兼容性。因此,急需要提出一种高效,准确的方法,来对不同人脸识别模型生成的特征码进行相互转换。
发明内容
本发明的目的在于提供一种人脸特征码的跨模型转换系统,本发明同时利用了人脸图片和待转换特征码的信息,可以实现高精度的人脸特征码的跨模型转换,具有易于实施、计算精度高的特点。本发明的目的还在于提供一种人脸特征码的跨模型转换方法,旨在解决上述问题。
本发明主要通过以下技术方案实现:
一种人脸特征码的跨模型转换系统,包括图像训练模块、特征码训练模块、特征码提取模块、转换处理模块,所述图像训练模块用于将训练集中的人脸图像输入图像特征网络进行训练,并得到训练好的图像特征网络;所述特征码训练模块用于将训练集中的待转换特征码输入特征码转换网络进行训练,并得到训练好的特征码转换网络;
所述特征码提取模块用于将人脸图像、待转换码分别输入训练好的图像特征网络、特征码转换网络,并对应提取得到图像特征码、转换特征码;
所述转换处理模块用于将提取得到的图像特征码、转换特征码结合求平均值,然后进行正则化操作得到最终转换的特征码。
为了更好地实现本发明,进一步地,所述图像特征网络由从前至后依次设置的根部模块、若干个可重复模块以及特征提取模块构成;所述根部模块包括从前至后依次连接并封装的卷积层、批归一化层和激活层;所述可重复模块包括从前至后依次设置的卷积层、批归一化层、激活层、深度可分离卷积层、批归一化层、激活层、卷积层和批归一化层;所述特征提取模块包括从前至后依次连接并封装的全局平均池化层、全连接层、激活层和正则化层。
为了更好地实现本发明,进一步地,若可重复模块进行下采样,则可重复模块的尾端设置有空间注意力层;所述空间注意力层由从前至后依次连接并封装的第一卷积层、第二卷积层以及采用sigmoid激活函数的激活层生成。
为了更好地实现本发明,进一步地,所述空间注意力层的注意力映射函数的表达式如下:
其中:
X为空间注意力层的输入的特征张量,
sigmoid(·)为sigmoid激活函数,
Conv 1 为第一卷积层的卷积操作函数;
Conv 2 为第二卷积层的卷积操作函数。
为了更好地实现本发明,进一步地,所述空间注意力层的处理步骤如下:
步骤S100:输入特征张量并结合注意力映射函数求得一个与输入特征张量大小相同、且通道为1的注意力图;
步骤S200:将注意力图的结果与输入的特征张量进行元素乘,得到空间注意力层的输出结果,所述空间注意力层的输出结果的表达式如下:
其中,X为空间注意力层的输入特征张量,
X'为空间注意力层的输出结果,
F at 为注意力映射函数,
步骤S300:将加权注意力特征张量沿通道方向上进行拼接,得到注意力层的输出张量,且表达式如下:
其中,X out 为空间注意力层的输出张量,
concat为通道拼接函数,
为了更好地实现本发明,进一步地,所述特征码转换网络由从前至后若干个顺序连接的可重复全连接单块以及正则化层构成;所述可重复全连接单块由若干个全连接基础模块顺序连接得到,所述全连接基础模块由从前至后依次连接并封装的全连接层、批归一化层、激活层构成。
为了更好地实现本发明,进一步地,所述可重复全连接单块采用残差连接的方式,将可重复全连接单块中最后一个全连接基础模块的输出与可重复全连接单块的输入按元素进行相加,以作为可重复全连接单块的输出。
为了更好地实现本发明,进一步地,所述可重复全连接单块中最后一个的全连接基础模块的输出作为可重复全连接单块的输出,以作为特征码转换网络的输出。
为了更好地实现本发明,进一步地,所述可重复全连接单块中设置有3个全连接基础模块;所述特征码转换网络中设置有6个可重复全连接单块。
为了更好地实现本发明,进一步地,所述转换处理模块将输出的图像特征码与转换特征码按元素进行求平均值,然后导入正则化模块进行L2正则化操作得到最终转换的特征码。
本发明主要通过以下技术方案实现:
一种人脸特征码的跨模型转换方法,采用上述的转换系统进行转换,包括以下步骤:
步骤S1:分别获取图像特征网络、特征码转换网络的训练集;
步骤S2:利用训练集并结合损失函数分别对图像特征网络、特征码转换网络进行训练;
步骤S3:然后将人脸图像输入训练后的图像特征网络得到图像特征码;将待转换特征码输入训练后的特征码转换网络得到转换特征码;
步骤S4:将步骤S3中处理得到的图像特征码与转换特征码结合求平均值,并进行正则化操作,得到最终转换的特征码。
为了更好地实现本发明,进一步地,所述图像特征网络的损失函数定义如下:
其中:image为图像特征网络的输入,即原始人脸图像。
label为输入对应的训练标签,即原始人脸图像对应的目标模型生成的特征码。
f(·)为映射函数,即图像特征网络本身所代表的操作变换,
为了更好地实现本发明,进一步地,特征码转换网络的损失函数定义如下:
其中:inputs为网络的输入,即待转换特征码。
label为输入对应的训练标签,即原始人脸图像对应的目标模型生成的特征码。
g为映射函数,即特征码转换网络本身所代表的操作变换。
本发明构建两个神经网络模型,其中一个为图像特征网络,网络的输入为人脸图片,输出为图像特征码;另一个网络为特征码转换网络,输入为待转换特征码,输出为转换特征码。将两个网络的输出求均值,并进行正则化操作,得到最终的转换后的特征码。本发明同时利用了人脸图片和待转换特征码的信息,可以实现高精度的人脸特征码的跨模型转换,具有易于实施、计算精度高的特点。
本发明的有益效果:
(1)本发明同时利用了原始人脸图像和待转换特征码作为网络的输入,相比只利用待转换特征码,网络的输入信号更为丰富,有利于提升精度;
(2)本发明的图像特征网络,采用了的空间注意力结构,有利于使网络更关注于图像中对人脸特征贡献重要的区域,而不是背景等无关区域,有利于提升精度;
(3)本发明的特征码转换网络,采用了可重复堆叠的全连接层为主体构成的模块,计算量小,应用时耗时短,消耗的资源小;
(4)本发明利用了两个相互独立的网络分别处理原始人脸图像和待转换特征码,最后再将结果进行融合,相比较于单个网络,精度更高;
(5)本发明利用中的两个网络在训练时分别进行训练,模型更容易收敛,训练过程更加稳定。
附图说明
图1为本发明的原理示意图;
图2为图像特征网络的结构示意图;
图3为图像特征网络中根部模块的结构示意图;
图4为图像特征网络中不带空间注意力层的可重复模块的结构示意图;
图5为图像特征网络中带有空间注意力层的可重复模块的结构示意图;
图6为图像特征网络中空间注意力层的结构示意图;
图7为图像特征网络中特征提取模块的结构示意图;
图8为特征码转换网络的结构示意图;
图9为特征码转换网络中全连接基础模块的结构示意图;
图10为特征码转换网络中不使用残差连接的可重复全连接单块法结构示意图;
图11为特征码转换网络中使用残差连接的可重复全连接单块结构示意图。
具体实施方式
实施例1:
一种人脸特征码的跨模型转换系统,包括图像训练模块、特征码训练模块、特征码提取模块、转换处理模块,所述图像训练模块用于将训练集中的人脸图像输入图像特征网络进行训练,并得到训练好的图像特征网络;所述特征码训练模块用于将训练集中的待转换特征码输入特征码转换网络进行训练,并得到训练好的特征码转换网络。
如图1所示,所述特征码提取模块用于将人脸图像、待转换码分别输入训练好的图像特征网络、特征码转换网络,并对应提取得到图像特征码、转换特征码;
所述转换处理模块用于将提取得到的图像特征码、转换特征码结合求平均值,然后进行正则化操作得到最终转换的特征码。
进一步地,所述转换处理模块将输出的图像特征码与转换特征码按元素进行求平均值,然后导入正则化模块进行L2正则化操作得到最终转换的特征码。本发明同时利用了原始人脸图像和待转换特征码作为网络的输入,相比只利用待转换特征码,网络的输入信号更为丰富,有利于提升精度。本发明利用了两个相互独立的网络分别处理原始人脸图像和待转换特征码,最后再将结果进行融合,相比较于单个网络,精度更高。
本发明构建两个神经网络模型,其中一个为图像特征网络,网络的输入为人脸图片,输出为图像特征码;另一个网络为特征码转换网络,输入为待转换特征码,输出为转换特征码。将两个网络的输出求均值,并进行正则化操作,得到最终的转换后的特征码。本发明同时利用了人脸图片和待转换特征码的信息,可以实现高精度的人脸特征码的跨模型转换,具有易于实施、计算精度高的特点。
实施例2:
本实施例是在实施例1的基础上进行优化,如图2-图4所示,所述图像特征网络由从前至后依次设置的根部模块、若干个可重复模块以及特征提取模块构成;所述根部模块包括从前至后依次连接并封装的卷积层、批归一化层和激活层;所述可重复模块包括从前至后依次设置的卷积层、批归一化层、激活层、深度可分离卷积层、批归一化层、激活层、卷积层和批归一化层;如图7所示,所述特征提取模块包括从前至后依次连接并封装的全局平均池化层、全连接层、激活层和正则化层。
进一步地,如图5、图6所示,若可重复模块进行下采样,则可重复模块的尾端设置有空间注意力层;所述空间注意力层由从前至后依次连接并封装的第一卷积层、第二卷积层以及采用sigmoid激活函数的激活层生成。本发明的图像特征网络,采用了的空间注意力结构,有利于使网络更关注于图像中对人脸特征贡献重要的区域,而不是背景等无关区域,有利于提升精度。
进一步地,所述空间注意力层的注意力映射函数的表达式如下:
其中:
X为空间注意力层的输入的特征张量,
sigmoid(·)为sigmoid激活函数,
Conv 1 为第一卷积层的卷积操作函数;
Conv 2 为第二卷积层的卷积操作函数。
进一步地,所述空间注意力层的处理步骤如下:
步骤S100:输入特征张量并结合注意力映射函数求得一个与输入特征张量大小相同、且通道为1的注意力图;
步骤S200:将注意力图与输入的特征张量进行元素乘,将注意力图在通道方向上进行广播扩展,得到加权注意力特征张量,且表达式如下:
步骤S200:将注意力图的结果与输入的特征张量进行元素乘,得到空间注意力层的输出结果,所述空间注意力层的输出结果的表达式如下:
其中,X为空间注意力层的输入的特征张量,
X'为空间注意力层的输出结果,
Fat为注意力映射函数,
步骤S300:将加权注意力特征张量沿通道方向上进行拼接,得到注意力层的输出张量,且表达式如下:
其中,X out 为空间注意力层的输出张量,
concat为通道拼接函数,
本实施例的其他部分与实施例1相同,故不再赘述。
实施例3:
本实施例是在实施例1或2的基础上进行优化,如图8、图9所示,所述特征码转换网络由从前至后若干个顺序连接的可重复全连接单块以及正则化层构成;所述可重复全连接单块由若干个全连接基础模块顺序连接得到,所述全连接基础模块由从前至后依次连接并封装的全连接层、批归一化层、激活层构成。本发明的特征码转换网络,采用了可重复堆叠的全连接层为主体构成的模块,计算量小,应用时耗时短,消耗的资源小。
进一步地,如图11所示,所述可重复全连接单块采用残差连接的方式,将可重复全连接单块中最后一个全连接基础模块的输出与可重复全连接单块的输入按元素进行相加,以作为可重复全连接单块的输出。
进一步地,如图10所示,所述可重复全连接单块中最后一个的全连接基础模块的输出作为可重复全连接单块的输出,以作为特征码转换网络的输出。
进一步地,所述可重复全连接单块中设置有3个全连接基础模块;所述特征码转换网络中设置有6个可重复全连接单块。
本实施例的其他部分与上述实施例1或2相同,故不再赘述。
实施例4:
一种人脸特征码的跨模型转换方法,如图1所示,采用上述的转换系统进行转换,包括以下步骤:
步骤S1:分别获取图像特征网络、特征码转换网络的训练集;
步骤S2:利用训练集并结合损失函数分别对图像特征网络、特征码转换网络进行训练;
步骤S3:然后将人脸图像输入训练后的图像特征网络得到图像特征码;将待转换特征码输入训练后的特征码转换网络得到转换特征码;
步骤S4:将步骤S3中处理得到的图像特征码与转换特征码结合求平均值,并进行正则化操作,得到最终转换的特征码。
本发明构建两个神经网络模型,其中一个为图像特征网络,网络的输入为人脸图片,输出为图像特征码;另一个网络为特征码转换网络,输入为待转换特征码,输出为转换特征码。将两个网络的输出求均值,并进行正则化操作,得到最终的转换后的特征码。本发明同时利用了人脸图片和待转换特征码的信息,可以实现高精度的人脸特征码的跨模型转换,具有易于实施、计算精度高的特点。
实施例5:
一种人脸特征码的跨模型转换系统,如图1-图11所示,实现过程如下:
第一步,如图3所示,从前至后依次连接并封装的卷积层、批归一化层和激活层得到根部模块;
第二步,如图4所示,从前至后依次连接并封装的卷积层、批归一化层、激活层、深度可分离卷积层、批归一化层、激活层、卷积层和批归一化层得到可重复模块。如图5所示,若可重复模块进行下采样,则可重复模块的尾端还设置有一空间注意力层;
第三步,如图7所示,从前至后依次连接并封装的全局平均池化层、全连接层、激活层和正则化层得到特征提取模块;
第四步,如图2所示,从前至后依次连接根部模块、数个可重复模块、特征提取模块得到图像特征网络;
第五步,如图9所示,从前至后按全连接层,批归一化层,激活层顺序连接并封装得到全连接基础模块;
第六步,如图10所示,将数个全连接基础模块顺序连接得到可重复全连接单块;如图11所示,可重复全连接单块可使用残差连接的方式,即将单块中最后一个全连接模块的输出,与单块的输入按元素进行相加,作为单块的输出。可重复全连接单块也可不使用残差连接,即将直接将单块中最后一个全连接模块的输出,作为单块的输出;
第七步,如图8所示,从前至后由数个顺序连接的可重复全连接单块,和正则化层构成特征码转换网络。
第八步,图像特征网络和特征码转换网络在模型训练时,应当分别进行训练。
所述图像特征网络的损失函数定义如下:
其中:image为图像特征网络的输入,即原始人脸图像。label为输入对应的训练标签,即原始人脸图像对应的目标模型生成的特征码。f为映射函数,即图像特征网络本身所代表的操作变换,为元素积,sum为求和函数,l为训练的损失值。
特征码转换网络的损失函数定义如下:
其中:inputs为网络的输入,即待转换特征码。label为输入对应的训练标签,即原始人脸图像对应的目标模型生成的特征码。g为映射函数,即特征码转换网络本身所代表的操作变换,为元素积,sum为求和函数,l为训练的损失值。
第九步,将图像特征网络和特征码转换网络的输出求均值,并进行正则化操作,得到最终的转换后的特征码。
为了验证本方法的可行性和良好的性能,本实施例通过构建以下实验进行测试:
1)首先准备两个不同的人脸识别模型,模型A和模型B,以及人脸识别的验证集。
2)实验中,模型A输出的特征码为512维,模型B输出的特征码为256维。由于特征码维度不同,两个模型的输出无法兼容使用。
3)通过构建本实施例中的神经网络,进行训练。训练时,训练集包含25万张不同的人脸图像。训练完成后,使用人脸识别验证集进行测试,结果如表1所示。
表1
从表1中的结果可以看出,模型A的特征码,经过转换以后,能够达到非常接近模型B原本的精度。同时,人脸识别模型所需的训练图片数量一般都非常庞大,本实施中的模型A和模型B均使用了1200万张人脸图像进行训练,而转换模型的训练集仅为25万张。训练图像特征网络和特征码转换网络所需的资源和时间,均远小于人脸识别模型。因此,采用本发明所述的方法,在应用于不同人脸识别模型相互转换时,只需要较少的资源训练转换网络即可实现。通过上述实验,可以验证本发明所采用的结构的高效性,和高精度。
通过上述方法,本发明利用了两个相互独立的网络分别处理原始人脸图像和待转换特征码,最后再将结果进行融合,相比较于单个网络,精度更高。与相同技术相比,本发明具有突出的实质性特点和显著的进步,在人脸识别领域具有很高的实用价值和推广价值。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。
Claims (8)
1.一种人脸特征码的跨模型转换系统,其特征在于,包括图像训练模块、特征码训练模块、特征码提取模块、转换处理模块,所述图像训练模块用于将训练集中的人脸图像输入图像特征网络进行训练,并得到训练好的图像特征网络;所述特征码训练模块用于将训练集中的待转换特征码输入特征码转换网络进行训练,并得到训练好的特征码转换网络;
所述特征码提取模块用于将人脸图像、待转换码分别输入训练好的图像特征网络、特征码转换网络,并对应提取得到图像特征码、转换特征码;
所述转换处理模块用于将提取得到的图像特征码、转换特征码结合求平均值,然后进行正则化操作得到最终转换的特征码;
所述特征码转换网络由从前至后若干个顺序连接的可重复全连接单块以及正则化层构成;所述可重复全连接单块由若干个全连接基础模块顺序连接得到,所述全连接基础模块由从前至后依次连接并封装的全连接层、批归一化层、激活层构成;
所述可重复全连接单块采用残差连接的方式,将可重复全连接单块中最后一个全连接基础模块的输出与可重复全连接单块的输入按元素进行相加,以作为可重复全连接单块的输出。
2.根据权利要求1所述的一种人脸特征码的跨模型转换系统,其特征在于,所述图像特征网络由从前至后依次设置的根部模块、若干个可重复模块以及特征提取模块构成;所述根部模块包括从前至后依次连接并封装的卷积层、批归一化层和激活层;所述可重复模块包括从前至后依次设置的卷积层、批归一化层、激活层、深度可分离卷积层、批归一化层、激活层、卷积层和批归一化层;所述特征提取模块包括从前至后依次连接并封装的全局平均池化层、全连接层、激活层和正则化层。
3.根据权利要求2所述的一种人脸特征码的跨模型转换系统,其特征在于,若可重复模块进行下采样,则可重复模块的尾端设置有空间注意力层;所述空间注意力层由从前至后依次连接并封装的第一卷积层、第二卷积层以及采用sigmoid激活函数的激活层生成。
5.根据权利要求1所述的一种人脸特征码的跨模型转换系统,其特征在于,所述可重复全连接单块中最后一个的全连接基础模块的输出作为可重复全连接单块的输出,以作为特征码转换网络的输出。
6.根据权利要求1所述的一种人脸特征码的跨模型转换系统,其特征在于,所述可重复全连接单块中设置有3个全连接基础模块;所述特征码转换网络中设置有6个可重复全连接单块。
7.根据权利要求1-6任一项所述的一种人脸特征码的跨模型转换系统,其特征在于,所述转换处理模块将输出的图像特征码与转换特征码按元素进行求平均值,然后导入正则化模块进行L2正则化操作得到最终转换的特征码。
8.一种人脸特征码的跨模型转换方法,采用权利要求1-7任一项所述的转换系统进行转换,其特征在于,包括以下步骤:
步骤S1:分别获取图像特征网络、特征码转换网络的训练集;
步骤S2:利用训练集并结合损失函数分别对图像特征网络、特征码转换网络进行训练;
步骤S3:然后将人脸图像输入训练后的图像特征网络得到图像特征码;将待转换特征码输入训练后的特征码转换网络得到转换特征码;
步骤S4:将步骤S3中处理得到的图像特征码与转换特征码结合求平均值,并进行正则化操作,得到最终转换的特征码;
所述特征码转换网络由从前至后若干个顺序连接的可重复全连接单块以及正则化层构成;所述可重复全连接单块由若干个全连接基础模块顺序连接得到,所述全连接基础模块由从前至后依次连接并封装的全连接层、批归一化层、激活层构成;
所述可重复全连接单块采用残差连接的方式,将可重复全连接单块中最后一个全连接基础模块的输出与可重复全连接单块的输入按元素进行相加,以作为可重复全连接单块的输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110141833.XA CN112507982B (zh) | 2021-02-02 | 2021-02-02 | 一种人脸特征码的跨模型转换系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110141833.XA CN112507982B (zh) | 2021-02-02 | 2021-02-02 | 一种人脸特征码的跨模型转换系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112507982A CN112507982A (zh) | 2021-03-16 |
CN112507982B true CN112507982B (zh) | 2021-05-07 |
Family
ID=74952632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110141833.XA Active CN112507982B (zh) | 2021-02-02 | 2021-02-02 | 一种人脸特征码的跨模型转换系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112507982B (zh) |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548161A (zh) * | 2016-11-23 | 2017-03-29 | 上海成业智能科技股份有限公司 | 用于户外或光扰条件下人脸识别特征码采集与识别的方法 |
CN113411805A (zh) * | 2017-04-27 | 2021-09-17 | 华为技术有限公司 | 一种实现访问网络的认证方法、认证设备及用户设备 |
CN107247941A (zh) * | 2017-06-22 | 2017-10-13 | 易容智能科技(苏州)有限公司 | 一种高硬件弹性的精准人脸采样和识别方法 |
CN109711422B (zh) * | 2017-10-26 | 2023-06-30 | 北京邮电大学 | 图像数据处理、模型的建立方法、装置、计算机设备和存储介质 |
CN108229348B (zh) * | 2017-12-21 | 2020-04-28 | 中国科学院自动化研究所 | 遮挡人脸图像的识别装置 |
US20190384796A1 (en) * | 2018-06-13 | 2019-12-19 | Oracle International Corporation | Regular expression generation using longest common subsequence algorithm on regular expression codes |
CN109255851A (zh) * | 2018-08-31 | 2019-01-22 | 镇江赛唯思智能科技有限公司 | 一种基于人脸识别的考勤方法及系统 |
CN110175516B (zh) * | 2019-04-17 | 2021-12-07 | 深圳绿米联创科技有限公司 | 生物特征模型生成方法、装置、服务器及存储介质 |
CN111831844A (zh) * | 2019-04-17 | 2020-10-27 | 京东方科技集团股份有限公司 | 图像检索方法、图像检索装置、图像检索设备及介质 |
CN111461129B (zh) * | 2020-04-02 | 2022-08-02 | 华中科技大学 | 一种基于上下文先验的场景分割方法和系统 |
CN111489287B (zh) * | 2020-04-10 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 图像转换方法、装置、计算机设备和存储介质 |
CN111652236B (zh) * | 2020-04-21 | 2022-04-29 | 东南大学 | 弱监督场景下跨层特征交互的轻量级细粒度图像识别方法 |
CN111881436B (zh) * | 2020-08-04 | 2024-08-06 | 公安部第三研究所 | 基于特征一致性实现黑盒人脸对抗攻击样本生成的方法、装置及其存储介质 |
CN112052792B (zh) * | 2020-09-04 | 2022-04-26 | 恒睿(重庆)人工智能技术研究院有限公司 | 一种跨模型人脸识别方法、装置、设备及介质 |
CN112200302B (zh) * | 2020-09-27 | 2021-08-17 | 四川翼飞视科技有限公司 | 一种用于图像分类的加权残差神经网络的构建方法 |
CN112258431B (zh) * | 2020-09-27 | 2021-07-20 | 成都东方天呈智能科技有限公司 | 基于混合深度可分离膨胀卷积的图像分类模型及其分类方法 |
-
2021
- 2021-02-02 CN CN202110141833.XA patent/CN112507982B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112507982A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Qassim et al. | Compressed residual-VGG16 CNN model for big data places image recognition | |
CN110059465B (zh) | 身份验证方法、装置及设备 | |
Zuo et al. | Convolutional recurrent neural networks: Learning spatial dependencies for image representation | |
CN110782462A (zh) | 一种基于双流特征融合的语义分割方法 | |
CN112507995B (zh) | 一种跨模型人脸特征向量的转换系统及方法 | |
CN111553267A (zh) | 图像处理方法、图像处理模型训练方法及设备 | |
CN113065402A (zh) | 一种基于变形注意力机制的人脸检测方法 | |
CN110321761A (zh) | 一种行为识别方法、终端设备及计算机可读存储介质 | |
CN113628201A (zh) | 基于深度学习的病理切片分析方法、电子设备及可读存储介质 | |
CN113516133A (zh) | 一种多模态图像分类方法及系统 | |
CN111444957B (zh) | 图像数据处理方法、装置、计算机设备和存储介质 | |
CN113935435A (zh) | 基于时空特征融合的多模态情感识别方法 | |
CN114913303A (zh) | 虚拟形象生成方法及相关装置、电子设备、存储介质 | |
CN115994822A (zh) | 一种人机交互的实时信用审核决策系统 | |
CN113096001A (zh) | 图像处理方法、电子设备及可读存储介质 | |
CN114463805A (zh) | 深度伪造检测方法、装置、存储介质及计算机设备 | |
CN114241585A (zh) | 一种跨年龄人脸识别模型训练方法、识别方法及装置 | |
CN112801069B (zh) | 一种人脸关键特征点检测装置、方法和存储介质 | |
Gao et al. | Generalized pyramid co-attention with learnable aggregation net for video question answering | |
CN112507982B (zh) | 一种人脸特征码的跨模型转换系统及方法 | |
CN114329148A (zh) | 内容信息识别方法、装置、计算机设备和存储介质 | |
CN116882469A (zh) | 用于情感识别的脉冲神经网络部署方法、装置及设备 | |
CN115359088A (zh) | 一种图像处理方法及装置 | |
Ma et al. | Fast and efficient neural network for light field disparity estimation | |
CN114863949A (zh) | 情绪识别方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |