CN107145852A - 一种基于同源余弦损失函数的人物识别方法 - Google Patents
一种基于同源余弦损失函数的人物识别方法 Download PDFInfo
- Publication number
- CN107145852A CN107145852A CN201710296006.1A CN201710296006A CN107145852A CN 107145852 A CN107145852 A CN 107145852A CN 201710296006 A CN201710296006 A CN 201710296006A CN 107145852 A CN107145852 A CN 107145852A
- Authority
- CN
- China
- Prior art keywords
- mrow
- mover
- homologous
- face
- cosine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 210000000746 body region Anatomy 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims description 17
- 210000003128 head Anatomy 0.000 claims description 11
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 210000004709 eyebrow Anatomy 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 230000000116 mitigating effect Effects 0.000 claims description 2
- 238000013519 translation Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 abstract description 2
- 230000004075 alteration Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明中提出的一种基于同源余弦损失函数的人物识别方法,其主要内容包括:为头部标记真实数据并检测脸部和身体区域、姿态估计、补丁对齐并送入深度模型、使用同源余弦损失函数训练深度模型,其过程为,先为头部标记真实数据,并检测脸部和身体区域,接着使用人物姿态估计器进行人物姿态估计,识别人体关键部位,从而找到上身区域,再将每个区域(补丁)对齐到基本位置,减轻内部类别的差异,然后送入深度模型,获得有代表性和鲁棒的特征,最后使用同源余弦损失函数训练深度模型。本发明扩大了类之间的区别,缩小了内部的差异,从而具有更好的分类精度,准确度也有所提高;利用强大的多个深层模型,可以无需对测试集进行第二次训练。
Description
技术领域
本发明涉及人物识别领域,尤其是涉及了一种基于同源余弦损失函数的人物识别方法。
背景技术
随着智能手机和数码相机的出现,人们通过拍摄更多的照片来记录日常生活和故事,因此人们希望能够识别个人数据,如从社交媒体或互联网的成千上万个图像中的识别不同时间和空间的同一个人。人物识别涵盖了数字图像处理、神经网络、计算机视觉以及人工智能等各个方面的内容,在公安、金融、网络安全、物业管理、考勤制度以及人们日常相册整理等都有广泛的应用。多人物中的人脸识别则可以应用在机场、火车站等人流量密集的场所,可以在密集的人群中识别出目标人物,如可疑人员等,这对提高公共安全有着重要作用。然而,由于受到非正面、光和照明的变化,外观的变化等因素的影响,在无约束环境中的人物识别仍然是一个具有挑战性的问题。
本发明提出了一种基于同源余弦损失函数的人物识别方法,先为头部标记真实数据,并检测脸部和身体区域,接着使用人物姿态估计器进行人物姿态估计,识别人体关键部位,从而找到上身区域,再将每个区域(补丁)对齐到基本位置,减轻内部类别的差异,然后送入深度模型,获得有代表性和鲁棒的特征,最后使用同源余弦损失函数训练深度模型。本发明扩大了类之间的区别,缩小了内部的差异,从而具有更好的分类精度,准确度也有所提高;利用强大的多个深层模型,可以无需对测试集进行第二次训练。
发明内容
针对受到非正面、光和照明的变化,外观变化等影响的问题,本发明的目的在于提供一种基于同源余弦损失函数的人物识别方法,先为头部标记真实数据,并检测脸部和身体区域,接着使用人物姿态估计器进行人物姿态估计,识别人体关键部位,从而找到上身区域,再将每个区域(补丁)对齐到基本位置,减轻内部类别的差异,然后送入深度模型,获得有代表性和鲁棒的特征,最后使用同源余弦损失函数训练深度模型。
为解决上述问题,本发明提供一种基于同源余弦损失函数的人物识别方法,其主要内容包括:
(一)为头部标记真实数据并检测脸部和身体区域;
(二)姿态估计;
(三)补丁对齐并送入深度模型;
(四)使用同源余弦损失函数训练深度模型。
其中,所述的为头部标记真实数据并检测脸部和身体区域,用四个区域的特征r∈{1,…,4},即脸、头、全身和上身来识别一个人;每个区域遵循训练和特征提取程序;在区域建议网络(RPN)中预先训练脸部检测器;使用残差网络模型,删除图层并添加分类和回归两个损失函数;对训练集的脸部模型进行分类;脸部检测器识别脸部(眼睛、眉毛、嘴巴等)的m个关键点,并且通过平移、旋转和缩放让检测到的脸部补丁对准“基本”形状;令分别表示由脸部模型和对准结果检测的m个关键点;将P,Q定义为两个仿射空间,然后将仿射变换 定义为:
其中,是P中的线性变换矩阵,是Q中的偏差;如果关键点的置信度低于某个阈值,则不依赖于这样的点来对齐补丁;当关键点的数量小于3时,取基于头部的基本真值来对齐补丁,因为至少需要三个点才可以确定仿射变换。
进一步地,所述的身体区域检测,为了检测身体部分,在RPN框架中预先训练检测器;网络结构是一个初始模型,最终的池层由完全连接的层替代。
其中,所述的通过人体姿态估计识别身体的关键点,确定上半身区域,从而通过这些点定位上身部分。
其中,所述的补丁对齐并送入深度模型,通过将每个区域(补丁)对齐到人体的基本位置,从而减轻内部类别的差异,然后将对齐的补丁送入深度模型,获得有代表性和鲁棒的特征。
其中,所述的使用同源余弦损失函数训练深度模型,使用同源余弦损失函数具有代表性的深层特征,能更好地区分不同类别的样本,并最大程度地减少某一个类别中的差异;首先,定义两个特征f(i)的余弦相似度C(f(i),f(j)),其中i,j表示样本指标,D表示特征维度;
其中,表示两个向量的内积;
令li,lj∈{1,…,K}为样品i,j的标签,其中K是类别的总数,W是网络的权重,则有以下损失函数最大化:
其中,是指标函数,用∈来计算稳定性,由于上述损失的复杂性为随着批量大小M的增大,损耗随之增加。
进一步地,所述的特征平均值,将k类的质心定义为小型中特征的平均值:
结合公式(3),有以下输出样本i最大化:
分子确保样本i足够接近其本身li,分母限制与其他类别样本的最小距离;指数运算是将余弦相似度转移到范围从0到1的归一化概率输出。
进一步地,所述的同源余弦损失函数,以协作的方式扩大类别之间的差异:
实际上,同源余弦损失可以通过softmax操作以整齐的方式实现。
进一步地,所述的归一化,归一化特征和质心,即分母中的求和包括k=li,则样本i的概率输出变为:
其中,m根据中的类维度进行索引;因此,在偏置项为零的softmax之前,归一化质心可以看作原始分类层中的权重。
进一步地,所述的梯度,输入特征f(i)和质心ck的梯度,以元素的方式,如下:
其中,tk是来自标签li的向量化映射;集群质心ck是可学习的参数,只使用公式(4)初始化网络。
附图说明
图1是本发明一种基于同源余弦损失函数的人物识别方法的系统流程图。
图2是本发明一种基于同源余弦损失函数的人物识别方法的算法训练流程图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于同源余弦损失函数的人物识别方法的系统流程图。主要包括为头部标记真实数据并检测脸部和身体区域,姿态估计,补丁对齐并送入深度模型,使用同源余弦损失函数训练深度模型。
为头部标记真实数据并检测脸部和身体区域,用四个区域的特征r∈{1,…,4},即脸、头、全身和上身来识别一个人;每个区域遵循训练和特征提取程序;在区域建议网络(RPN)中预先训练脸部检测器;使用残差网络模型,删除图层并添加分类和回归两个损失函数;对训练集的脸部模型进行分类;脸部检测器识别脸部(眼睛、眉毛、嘴巴等)的m个关键点,并且通过平移、旋转和缩放让检测到的脸部补丁对准“基本”形状;令分别表示由脸部模型和对准结果检测的m个关键点;将P,Q定义为两个仿射空间,然后将仿射变换 定义为:
其中,是P中的线性变换矩阵,是Q中的偏差;如果关键点的置信度低于某个阈值,则不依赖于这样的点来对齐补丁;当关键点的数量小于3时,取基于头部的基本真值来对齐补丁,因为至少需要三个点才可以确定仿射变换。
为了检测身体部分,在RPN框架中预先训练检测器;网络结构是一个初始模型,最终的池层由完全连接的层替代。
姿态估计,通过人体姿态估计识别身体的关键点,确定上半身区域,从而通过这些点定位上身部分。
补丁对齐并送入深度模型,通过将每个区域(补丁)对齐到人体的基本位置,从而减轻内部类别的差异,然后将对齐的补丁送入深度模型,获得有代表性和鲁棒的特征。
使用同源余弦损失函数训练深度模型,其特征在于,使用同源余弦损失函数具有代表性的深层特征,能更好地区分不同类别的样本,并最大程度地减少某一个类别中的差异;首先,定义两个特征f(i)的余弦相似度C(f(i),f(j)),其中i,j表示样本指标,D表示特征维度;
其中,表示两个向量的内积;
令li,lj∈{1,…,K}为样品i,j的标签,其中K是类别的总数,W是网络的权重,则有以下损失函数最大化:
其中,是指标函数,用∈来计算稳定性,由于上述损失的复杂性为随着批量大小M的增大,损耗随之增加。
将k类的质心定义为小型中特征的平均值:
结合公式(3),有以下输出样本i最大化:
分子确保样本i足够接近其本身li,分母限制与其他类别样本的最小距离;指数运算是将余弦相似度转移到范围从0到1的归一化概率输出。
同源余弦损失函数,以协作的方式扩大类别之间的差异:
实际上,同源余弦损失可以通过softmax操作以整齐的方式实现。
归一化特征和质心,即分母中的求和包括k=li,则样本i的概率输出变为:
其中,m根据中的类维度进行索引;因此,在偏置项为零的softmax之前,归一化质心可以看作原始分类层中的权重。
输入特征f(i)和质心ck的梯度,以元素的方式,如下:
其中,tk是来自标签li的向量化映射;集群质心ck是可学习的参数,只使用公式(4)初始化网络。
图2是本发明一种基于同源余弦损失函数的人物识别方法的算法训练流程图。先为头部标记真实数据,并检测脸部和身体区域,接着使用人物姿态估计器进行人物姿态估计,识别人体关键部位,从而找到上身区域,再将每个区域(补丁)对齐到基本位置,减轻内部类别的差异,然后送入深度模型,获得有代表性和鲁棒的特征,最后使用同源余弦损失函数训练深度模型。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于同源余弦损失函数的人物识别方法,其特征在于,主要包括为头部标记真实数据并检测脸部和身体区域(一);姿态估计(二);补丁对齐并送入深度模型(三);使用同源余弦损失函数训练深度模型(四)。
2.基于权利要求书1所述的为头部标记真实数据并检测脸部和身体区域(一),其特征在于,用四个区域的特征r∈{1,…,4},即脸、头、全身和上身来识别一个人;每个区域遵循训练和特征提取程序;在区域建议网络(RPN)中预先训练脸部检测器;使用残差网络模型,删除图层并添加分类和回归两个损失函数;对训练集的脸部模型进行分类;脸部检测器识别脸部(眼睛、眉毛、嘴巴等)的m个关键点,并且通过平移、旋转和缩放让检测到的脸部补丁对准“基本”形状;令分别表示由脸部模型和对准结果检测的m个关键点;将P,Q定义为两个仿射空间,然后将仿射变换定义为:
其中,是P中的线性变换矩阵,是Q中的偏差;如果关键点的置信度低于某个阈值,则不依赖于这样的点来对齐补丁;当关键点的数量小于3时,取基于头部的基本真值来对齐补丁,因为至少需要三个点才可以确定仿射变换。
3.基于权利要求书2所述的身体区域检测,其特征在于,为了检测身体部分,在RPN框架中预先训练检测器;网络结构是一个初始模型,最终的池层由完全连接的层替代。
4.基于权利要求书1所述的姿态估计(二),其特征在于,通过人体姿态估计识别身体的关键点,确定上半身区域,从而通过这些点定位上身部分。
5.基于权利要求书1所述的补丁对齐并送入深度模型(三),其特征在于,通过将每个区域(补丁)对齐到人体的基本位置,从而减轻内部类别的差异,然后将对齐的补丁送入深度模型,获得有代表性和鲁棒的特征。
6.基于权利要求书1所述的使用同源余弦损失函数训练深度模型(四),其特征在于,使用同源余弦损失函数具有代表性的深层特征,能更好地区分不同类别的样本,并最大程度地减少某一个类别中的差异;首先,定义两个特征f(i)的余弦相似度C(f(i),f(j)),其中i,j表示样本指标,D表示特征维度;
其中,⊙表示两个向量的内积;
令li,lj∈{1,…,K}为样品i,j的标签,其中K是类别的总数,W是网络的权重,则有以下损失函数最大化:
其中,δ(·,·)是指标函数,用∈来计算稳定性,由于上述损失的复杂性为随着批量大小M的增大,损耗随之增加。
7.基于权利要求书6所述的特征平均值,其特征在于,将k类的质心定义为小型中特征的平均值:
结合公式(3),有以下输出样本i最大化:
分子确保样本i足够接近其本身li,分母限制与其他类别样本的最小距离;指数运算是将余弦相似度转移到范围从0到1的归一化概率输出。
8.基于权利要求书6所述的同源余弦损失函数,其特征在于,以协作的方式扩大类别之间的差异:
实际上,同源余弦损失可以通过softmax操作以整齐的方式实现。
9.基于权利要求书8所述的归一化,其特征在于,归一化特征和质心,即 分母中的求和包括k=li,则样本i的概率输出变为:
<mrow>
<msubsup>
<mi>p</mi>
<mi>m</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mover>
<mi>c</mi>
<mo>^</mo>
</mover>
<mi>m</mi>
<mi>T</mi>
</msubsup>
<mo>&CenterDot;</mo>
<msup>
<mover>
<mi>f</mi>
<mo>^</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mi>k</mi>
</msub>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mover>
<mi>c</mi>
<mo>^</mo>
</mover>
<mi>k</mi>
<mi>T</mi>
</msubsup>
<mo>&CenterDot;</mo>
<msup>
<mover>
<mi>f</mi>
<mo>^</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>=</mo>
<mi>s</mi>
<mi>o</mi>
<mi>f</mi>
<mi>t</mi>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>c</mi>
<mo>^</mo>
</mover>
<mi>m</mi>
</msub>
<mo>&CenterDot;</mo>
<msup>
<mover>
<mi>f</mi>
<mo>^</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,m根据中的类维度进行索引;因此,在偏置项为零的softmax之前,归一化质心可以看作原始分类层中的权重。
10.基于权利要求书9所述的梯度,其特征在于,输入特征f(i)和质心ck的梯度,以元素的方式,如下:
<mrow>
<msub>
<mi>z</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<msubsup>
<mover>
<mi>c</mi>
<mo>^</mo>
</mover>
<mi>k</mi>
<mi>T</mi>
</msubsup>
<mo>&CenterDot;</mo>
<mover>
<mi>f</mi>
<mo>^</mo>
</mover>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,tk是来自标签li的向量化映射;集群质心ck是可学习的参数,只使用公式(4)初始化网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710296006.1A CN107145852A (zh) | 2017-04-28 | 2017-04-28 | 一种基于同源余弦损失函数的人物识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710296006.1A CN107145852A (zh) | 2017-04-28 | 2017-04-28 | 一种基于同源余弦损失函数的人物识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107145852A true CN107145852A (zh) | 2017-09-08 |
Family
ID=59774955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710296006.1A Withdrawn CN107145852A (zh) | 2017-04-28 | 2017-04-28 | 一种基于同源余弦损失函数的人物识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107145852A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108447082A (zh) * | 2018-03-15 | 2018-08-24 | 深圳市唯特视科技有限公司 | 一种基于联合学习关键点检测器的三维目标匹配方法 |
CN108537165A (zh) * | 2018-04-08 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 用于确定信息的方法和装置 |
CN109063607A (zh) * | 2018-07-17 | 2018-12-21 | 北京迈格威科技有限公司 | 用于重识别的损失函数确定的方法及装置 |
CN109241995A (zh) * | 2018-08-01 | 2019-01-18 | 中国计量大学 | 一种基于改进型ArcFace损失函数的图像识别方法 |
CN111209799A (zh) * | 2019-12-23 | 2020-05-29 | 上海物联网有限公司 | 基于部分共享网络和余弦间隔损失函数的行人搜索方法 |
-
2017
- 2017-04-28 CN CN201710296006.1A patent/CN107145852A/zh not_active Withdrawn
Non-Patent Citations (1)
Title |
---|
YU LIU等: "Learning Deep Features via Congenerous Cosine Loss for Person Recognition", 《ARXIV(HTTPS://ARXIV.ORG/ABS/1702.06890V1)》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN107832672B (zh) * | 2017-10-12 | 2020-07-07 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108447082A (zh) * | 2018-03-15 | 2018-08-24 | 深圳市唯特视科技有限公司 | 一种基于联合学习关键点检测器的三维目标匹配方法 |
CN108537165A (zh) * | 2018-04-08 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 用于确定信息的方法和装置 |
CN109063607A (zh) * | 2018-07-17 | 2018-12-21 | 北京迈格威科技有限公司 | 用于重识别的损失函数确定的方法及装置 |
CN109063607B (zh) * | 2018-07-17 | 2022-11-25 | 北京迈格威科技有限公司 | 用于重识别的损失函数确定的方法及装置 |
CN109241995A (zh) * | 2018-08-01 | 2019-01-18 | 中国计量大学 | 一种基于改进型ArcFace损失函数的图像识别方法 |
CN109241995B (zh) * | 2018-08-01 | 2021-05-14 | 中国计量大学 | 一种基于改进型ArcFace损失函数的图像识别方法 |
CN111209799A (zh) * | 2019-12-23 | 2020-05-29 | 上海物联网有限公司 | 基于部分共享网络和余弦间隔损失函数的行人搜索方法 |
CN111209799B (zh) * | 2019-12-23 | 2022-12-23 | 上海物联网有限公司 | 基于部分共享网络和余弦间隔损失函数的行人搜索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Singh et al. | Face detection and recognition system using digital image processing | |
CN107145852A (zh) | 一种基于同源余弦损失函数的人物识别方法 | |
Yuan et al. | Bag-of-words and object-based classification for cloud extraction from satellite imagery | |
CN105550657B (zh) | 基于关键点的改进sift人脸特征提取方法 | |
CN107341447A (zh) | 一种基于深度卷积神经网络和证据k近邻的人脸核实方法 | |
CN103824052A (zh) | 一种基于多层次语义特征的人脸特征提取方法及识别方法 | |
CN107247916A (zh) | 一种基于Kinect的三维人脸识别方法 | |
CN103745240A (zh) | 一种基于Haar分类器和ORB特征的人脸检索方法及系统 | |
Arı et al. | Detection of compound structures using a Gaussian mixture model with spectral and spatial constraints | |
Mahmud et al. | Face detection and recognition system | |
Zhang et al. | Face recognition using scale invariant feature transform and support vector machine | |
Lenc et al. | Face Recognition under Real-world Conditions. | |
Begum et al. | A novel approach for multimodal facial expression recognition using deep learning techniques | |
Gupta et al. | Real‐Time Gender Recognition for Juvenile and Adult Faces | |
Gao et al. | On Designing a SwinIris Transformer Based Iris Recognition System | |
Balazia et al. | Walker-independent features for gait recognition from motion capture data | |
Whitelam et al. | On designing an unconstrained tri-band pupil detection system for human identification | |
Huffman et al. | Mixed media tattoo image matching using transformed edge alignment | |
Granger et al. | Survey of academic research and prototypes for face recognition in video | |
Moghaddam et al. | Automatic face recognition via local directional patterns | |
Tambi et al. | Person-dependent face recognition using histogram of oriented gradients (HOG) and convolution neural network (CNN) | |
Basak et al. | Face recognition using fuzzy logic | |
Полякова et al. | Comparative analysis of classifiers for face recognition on image fragments identified by the FaceNet neural network | |
Nanda et al. | Multishot person reidentification through inlier orientation and consensus clusters | |
Dubey et al. | A review of face recognition using SIFT feature extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170908 |