CN107392102A - 基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法 - Google Patents
基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法 Download PDFInfo
- Publication number
- CN107392102A CN107392102A CN201710462744.9A CN201710462744A CN107392102A CN 107392102 A CN107392102 A CN 107392102A CN 201710462744 A CN201710462744 A CN 201710462744A CN 107392102 A CN107392102 A CN 107392102A
- Authority
- CN
- China
- Prior art keywords
- mrow
- local
- group photo
- feature
- msubsup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,包括以下步骤:S1:对每张合照提取局部特征,局部特征为局部几何特征、局部亲属关系特征或者局部语义特征;S2:选择一种基于多示例学习架构的二类分类器,将每张合照的所有局部特征和照片标签作为输入,训练多示例分类器的参数;S3:在测试阶段,将未知类别合照的局部特征输入到步骤S2训练好的多示例分类器中,得到预测的类别。本发明能够有效利用合照中位于局部区域的具有区分力的信息,保证这些信息不被无用信息所污染,分类精度高。
Description
技术领域
本发明涉及模式识别、计算机视觉和多媒体分析技术领域,特别是涉及基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法。
背景技术
在已有的基于图像的家庭合照与非家庭合照分类算法中,所有的方法都使用全局特征表示与分类的方式进行照片识别。具体来讲,已有的方法先在每张照片中提取一个全局特征向量,将该照片中的具有区分力的信息全部归纳进该向量,然后使用传统的二分类器进行训练与照片识别。但是,家庭合照和非家庭合照中最具有区分力的信息往往位于图像的局部,而已有方法采用的全局特征表示会将具有区分力的信息和无用的信息混合起来,削弱有用信息的作用,影响分类的精度。因此,上述方法存在较大的不足。
发明内容
发明目的:本发明的目的是提供一种能够解决现有技术中存在的缺陷的基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法。
技术方案:为达到此目的,本发明采用以下技术方案:
本发明所述的基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,包括以下步骤:
S1:对每张合照提取局部特征,局部特征为局部几何特征、局部亲属关系特征或者局部语义特征;
S2:选择一种基于多示例学习架构的二类分类器,将每张合照的所有局部特征和照片标签作为输入,训练多示例分类器的参数;
S3:在测试阶段,将未知类别合照的局部特征输入到步骤S2训练好的多示例分类器中,得到预测的类别。
进一步,所述步骤S1中,如果提取局部几何特征,则按照以下步骤来提取:
S111:在合照中,根据不同人脸之间的像素距离,将所有N张脸连接成为一个无权重的Urquhart图;
S112:用一个邻接矩阵AN×N来描述Urquhart图,其中AN×N的对角线元素被置为1,Aij=1表示第i个节点和第j个节点被连接了起来,一个节点代表一个人脸;此外,将每个人脸的年龄和性别作为其对应节点的属性特征,用一个D维特征向量hD×1来描述每个节点的属性特征,在hD×1中,只有一个元素为1,其余都为0;
S113:按照与邻接矩阵A相同的节点顺序,算法将图中所有节点的特征归入一个矩阵HN×D=[h1,h2,…,hN]T,算法通过式(1)计算位于每个中心人的局部几何特征:
F(n)=(D-0.5AD-0.5)nH (1)
式(1)中,矩阵D是矩阵A的对角度矩阵,FN×D的第i行特征向量表示Urquhart图中与第i个中心人通过不超过n条边相连的所有人的属性特征统计。取n=1,2,3,…,将得到的F(1),F(2),F(3),…级联起来,组成该合照中一个局部特征向量。
进一步,所述步骤S111具体为:先用Delaunay三角化算法把人脸连接起来,然后在生成的图的基础上,移除每个三角形中的最长边,得到Urquhart图。
进一步,所述步骤S1中,如果提取局部亲属关系特征,则按照以下步骤来提取:
S121:用一个预训练的人脸识别模型对合照中所有人脸提取特征,记在第i张脸上提取的特征为fi;
S122:遍历所有的二人组合(fi,fj),计算他们之间的脸部比较特征
S123:根据所有二人组合的年龄差,将脸部比较特征进行分组;在每一组中,再根据合照的标签,将该组中的脸部比较特征分为两类,用K-Means算法分别在两类特征数据上各训练一个字典;
S124:将每个脸部比较特征用其对应年龄的字典Dicp,p∈{1,-1}进行编码,包括两个步骤:
S1241:对于一个比较特征计算它与对应字典中每个基的距离:
得到一个映射向量
S1242:在向量zp中,用所有元素的均值减去每个元素,并只保留大于0的元素,其余置零,以增加向量的稀疏性:
S1243:将映射到两个字典上的向量级联起来,成为一个向量:
在得到用字典编码的向量后,对于一张照片中第i个人的脸,算法用他和其他人j进行比较的平均向量作为他的局部亲属关系特征
即为这个合照里的一个局部特征向量。
进一步,所述步骤S1中,如果提取局部语义特征,则按照以下步骤来提取:
S131:计算合照中所有人脸的平均眼间距,然后将合照放大或者缩小,使得调整后合照中的眼间距为指定值;
S132:在各个尺度的合照上,将一个固定大小的正方形窗口按固定的步长滑动,提取出每个位置的图像块;
S133:将每个图像块输入到一个预训练的通用目标识别模型中进行特征向量的提取,提取的特征向量代表该图像块所在位置、所在尺度的局部语义特征。
有益效果:本发明公开了一种基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,能够有效利用合照中位于局部区域的具有区分力的信息,保证这些信息不被无用信息所污染,分类精度高。
附图说明
图1为本发明具体实施方式中局部几何特征的提取过程示意图;
图2为本发明具体实施方式中局部亲属关系特征的提取过程示意图;
图3为本发明具体实施方式中局部语义特征的提取过程示意图。
具体实施方式
下面结合具体实施方式和附图对本发明的技术方案作进一步的介绍。
不同于已有方法采用的传统二分类器,多示例学习对每张合照采用多个局部特征向量进行描述。它能够接收来自一张照片(也被称为包)的多个局部特征向量(也被称为示例),预测每个向量的正负值,并将所有向量的正负值合并成为整张照片的正负值(即照片的类别)。在正的照片中,至少有一个特征向量(示例)的预测值为正;在负的照片中,所有局部特征向量(示例)的预测值均为负。本发明以家庭合照为正类,非家庭合照为负类。
本具体实施方式公开了一种基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,包括以下步骤:
S1:对每张合照提取局部特征,局部特征为局部几何特征、局部亲属关系特征或者局部语义特征;
S2:选择一种基于多示例学习架构的二类分类器,将每张合照的所有局部特征和照片标签作为输入,训练多示例分类器的参数;
S3:在测试阶段,将未知类别合照的局部特征输入到步骤S2训练好的多示例分类器中,得到预测的类别。
在局部几何特征中,算法以多人照片中的某个人为中心人,提取中心人以及与其空间相邻的人之间的属性关系模式,将其作为合照的局部几何表示。这种特征表示在家庭和非家庭照片中会以不同的模式存在。在家庭照片中,一个中心人周围的人通常和中心人在属性上有很大的不同,其中主要包括他们之间年龄和性别上的差距。而在非家庭照片中,这种差距通常很少见,尤其是年龄上的差距。以图1为例。在图1的家庭照片中,以第10个人为中心人,他周围的人都拥有和他不同的年龄和(或)性别。而在图1的非家庭照片中,每个中心人周围的人都与中心人不存在年龄上的差距。所以,算法可以通过统计这种中心人与周围人在年龄和性别上的差异模式,来区分家庭照片和非家庭照片。
步骤S1中,如果提取局部几何特征,则按照以下步骤来提取:
S111:在合照中,根据不同人脸之间的像素距离,将所有N张脸连接成为一个无权重的Urquhart图;也即先用Delaunay三角化算法把人脸连接起来,然后在生成的图的基础上,移除每个三角形中的最长边,得到Urquhart图;
S112:用一个邻接矩阵AN×N来描述Urquhart图,其中AN×N的对角线元素被置为1,Aij=1表示第i个节点和第j个节点被连接了起来,一个节点代表一个人脸;此外,将每个人脸的年龄和性别作为其对应节点的属性特征,也即用一个D维特征向量hD×1来描述每个节点的属性特征,在hD×1中,只有一个元素为1,其余都为0;
S113:按照与邻接矩阵A相同的节点顺序,算法将图中所有节点的特征归入一个矩阵HN×D=[h1,h2,…,hN]T,算法通过式(1)计算位于每个中心人的局部几何特征:
F(n)=(D-0.5AD-0.5)nH (1)
式(1)中,矩阵D是矩阵A的对角度矩阵,FN×D的第i行特征向量表示Urquhart图中与第i个中心人通过不超过n条边相连的所有人的属性特征统计(包括中心人)。取n=1,2,3,…,将得到的F(1),F(2),F(3),…级联起来,组成该合照中一个局部特征向量。
在家庭合照中,某些人与照片中较多人有亲属关系,而有些人只有很少的甚至没有亲属关系。而在非家庭照片中,每两个人之间都不存在亲属关系。与此同时,如果两人间存在亲属关系,那么他们将有很多相似的脸部特征。所以,算法可以将照片中一张人脸和其他人脸之间的特征相似度作为亲属关系信息的局部表示,并用这种表示从所有合照中寻找出家庭照片。
步骤S1中,如图2所示,如果提取局部亲属关系特征,则按照以下步骤来提取:
S121:用一个预训练的人脸识别模型对合照中所有人脸提取特征,记在第i张脸上提取的特征为fi;
S122:遍历所有的二人组合(fi,fj),计算他们之间的脸部比较特征
S123:根据所有二人组合的年龄差,将脸部比较特征进行分组;在每一组中,再根据合照的标签,将该组中的脸部比较特征分为两类,用K-Means算法分别在两类特征数据上各训练一个字典;
S124:将每个脸部比较特征用其对应年龄的字典Dicp,p∈{1,-1}进行编码,包括两个步骤:
S1241:对于一个比较特征计算它与对应字典中每个基的距离:
得到一个映射向量
S1242:在向量zp中,用所有元素的均值减去每个元素,并只保留大于0的元素,其余置零,以增加向量的稀疏性:
S1243:将映射到两个字典上的向量级联起来,成为一个向量:
在得到用字典编码的向量后,对于一张照片中第i个人的脸,算法用他和其他人j进行比较的平均向量作为他的局部亲属关系特征
即为这个合照里的一个局部特征向量。
一张合照的类别(家庭或非家庭)与照片中的背景信息有较强的关联,这种背景信息包括照片拍摄地点、照片中的事件等。另外,照片中的背景信息通常能通过照片中的物体反映出来,而很多物体往往只占了照片的一小部分。比如,如果一张多人合照中出现了猫或狗,那么这张照片很可能拍摄于家庭住宅中,因而可以进一步推测,这张照片是家庭合照。再比如,如果照片中出现了啤酒瓶、啤酒杯等物件,那么这张照片很可能拍摄于某个酒吧,照片中很可能记录了一场朋友间的聚会,所以它不太可能是家庭照片。由此可见,照片中的局部物体信息可以被用来帮助区分家庭合照与非家庭合照。
步骤S1中,如图3所示,如果提取局部语义特征,则按照以下步骤来提取:
S131:计算合照中所有人脸的平均眼间距,然后将合照放大或者缩小,使得调整后合照中的眼间距为指定值;
S132:在各个尺度的合照上,将一个固定大小的正方形窗口按固定的步长滑动,提取出每个位置的图像块;
S133:将每个图像块输入到一个预训练的通用目标识别模型中进行特征向量的提取,提取的特征向量代表该图像块所在位置、所在尺度的局部语义特征。
Claims (5)
1.基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,其特征在于:包括以下步骤:
S1:对每张合照提取局部特征,局部特征为局部几何特征、局部亲属关系特征或者局部语义特征;
S2:选择一种基于多示例学习架构的二类分类器,将每张合照的所有局部特征和照片标签作为输入,训练多示例分类器的参数;
S3:在测试阶段,将未知类别合照的局部特征输入到步骤S2训练好的多示例分类器中,得到预测的类别。
2.根据权利要求1所述的基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,其特征在于:所述步骤S1中,如果提取局部几何特征,则按照以下步骤来提取:
S111:在合照中,根据不同人脸之间的像素距离,将所有N张脸连接成为一个无权重的Urquhart图;
S112:用一个邻接矩阵AN×N来描述Urquhart图,其中AN×N的对角线元素被置为1,Aij=1表示第i个节点和第j个节点被连接了起来,一个节点代表一个人脸;此外,将每个人脸的年龄和性别作为其对应节点的属性特征,用一个D维特征向量hD×1来描述每个节点的属性特征,在hD×1中,只有一个元素为1,其余都为0;
S113:按照与邻接矩阵A相同的节点顺序,算法将图中所有节点的特征归入一个矩阵HN×D=[h1,h2,…,hN]T,算法通过式(1)计算位于每个中心人的局部几何特征:
F(n)=(D-0.5AD-0.5)nH (1)
式(1)中,矩阵D是矩阵A的对角度矩阵,FN×D的第i行特征向量表示Urquhart图中与第i个中心人通过不超过n条边相连的所有人的属性特征统计。取n=1,2,3,…,将得到的F(1),F(2),F(3),…级联起来,组成该合照中一个局部特征向量。
3.根据权利要求2所述的基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,其特征在于:所述步骤S111具体为:先用Delaunay三角化算法把人脸连接起来,然后在生成的图的基础上,移除每个三角形中的最长边,得到Urquhart图。
4.根据权利要求1所述的基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,其特征在于:所述步骤S1中,如果提取局部亲属关系特征,则按照以下步骤来提取:
S121:用一个预训练的人脸识别模型对合照中所有人脸提取特征,记在第i张脸上提取的特征为fi;
S122:遍历所有的二人组合(fi,fj),计算他们之间的脸部比较特征
S123:根据所有二人组合的年龄差,将脸部比较特征进行分组;在每一组中,再根据合照的标签,将该组中的脸部比较特征分为两类,用K-Means算法分别在两类特征数据上各训练一个字典;
S124:将每个脸部比较特征用其对应年龄的字典Dicp,p∈{1,-1}进行编码,包括两个步骤:
S1241:对于一个比较特征计算它与对应字典中每个基的距离:
<mrow>
<msubsup>
<mi>z</mi>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>f</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>p</mi>
<mi>a</mi>
<mi>i</mi>
<mi>r</mi>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>Dic</mi>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
1
得到一个映射向量
S1242:在向量zp中,用所有元素的均值减去每个元素,并只保留大于0的元素,其余置零,以增加向量的稀疏性:
<mrow>
<msubsup>
<mi>f</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
<mo>,</mo>
<mi>p</mi>
</mrow>
<mrow>
<mi>p</mi>
<mi>a</mi>
<mi>i</mi>
<mi>r</mi>
</mrow>
</msubsup>
<mo>=</mo>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mn>0</mn>
<mo>,</mo>
<msub>
<mi>mean</mi>
<mi>k</mi>
</msub>
<mo>(</mo>
<mo>{</mo>
<msubsup>
<mi>z</mi>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>}</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>z</mi>
<mi>p</mi>
</msub>
<mo>)</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
S1243:将映射到两个字典上的向量级联起来,成为一个向量:
<mrow>
<msubsup>
<mi>f</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
</msubsup>
<mo>=</mo>
<mo>&lsqb;</mo>
<msubsup>
<mi>f</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
<mo>,</mo>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>f</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
<mo>,</mo>
<mi>p</mi>
<mo>=</mo>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
</msubsup>
<mo>&rsqb;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
在得到用字典编码的向量后,对于一张照片中第i个人的脸,算法用他和其他人j进行比较的平均向量作为他的局部亲属关系特征
<mrow>
<msubsup>
<mi>f</mi>
<mi>i</mi>
<mrow>
<mi>l</mi>
<mi>o</mi>
<mi>c</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>=</mo>
<msub>
<mi>mean</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mo>{</mo>
<msubsup>
<mi>f</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>p</mi>
</mrow>
</msubsup>
<mo>|</mo>
<mi>j</mi>
<mo>&NotEqual;</mo>
<mi>i</mi>
<mo>}</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
即为这个合照里的一个局部特征向量。
5.根据权利要求1所述的基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法,其特征在于:所述步骤S1中,如果提取局部语义特征,则按照以下步骤来提取:
S131:计算合照中所有人脸的平均眼间距,然后将合照放大或者缩小,使得调整后合照中的眼间距为指定值;
S132:在各个尺度的合照上,将一个固定大小的正方形窗口按固定的步长滑动,提取出每个位置的图像块;
S133:将每个图像块输入到一个预训练的通用目标识别模型中进行特征向量的提取,提取的特征向量代表该图像块所在位置、所在尺度的局部语义特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710462744.9A CN107392102A (zh) | 2017-06-19 | 2017-06-19 | 基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710462744.9A CN107392102A (zh) | 2017-06-19 | 2017-06-19 | 基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107392102A true CN107392102A (zh) | 2017-11-24 |
Family
ID=60333343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710462744.9A Pending CN107392102A (zh) | 2017-06-19 | 2017-06-19 | 基于局部图像特征和多示例学习的家庭合照与非家庭合照分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107392102A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111898505A (zh) * | 2020-07-21 | 2020-11-06 | 深圳康佳电子科技有限公司 | 一种判定多人间关系的方法、智能终端及存储介质 |
TWI743413B (zh) * | 2018-10-18 | 2021-10-21 | 緯創資通股份有限公司 | 獨照生成裝置和方法及其非揮發性電腦可讀媒體 |
-
2017
- 2017-06-19 CN CN201710462744.9A patent/CN107392102A/zh active Pending
Non-Patent Citations (2)
Title |
---|
ADAM COATES等: "An Analysis of Single-Layer Networks in Unsupervised Feature Learning", 《INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE AND STATISTICS》 * |
JUNKANG ZHANG 等: "Family Photo Recognition via Multiple Instance Learning", 《2017 ACM ON INTERNATIONAL CONFERENCE ON MULTIMEDIA RETRIEVAL》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI743413B (zh) * | 2018-10-18 | 2021-10-21 | 緯創資通股份有限公司 | 獨照生成裝置和方法及其非揮發性電腦可讀媒體 |
CN111898505A (zh) * | 2020-07-21 | 2020-11-06 | 深圳康佳电子科技有限公司 | 一种判定多人间关系的方法、智能终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200285896A1 (en) | Method for person re-identification based on deep model with multi-loss fusion training strategy | |
CN106407352B (zh) | 基于深度学习的交通图像检索方法 | |
CN111325115B (zh) | 带有三重约束损失的对抗跨模态行人重识别方法和系统 | |
CN109271895B (zh) | 基于多尺度特征学习和特征分割的行人重识别方法 | |
CN110309331A (zh) | 一种基于自监督的跨模态深度哈希检索方法 | |
CN107506740A (zh) | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 | |
CN110378366A (zh) | 一种基于耦合知识迁移的跨域图像分类方法 | |
CN104573669A (zh) | 图像物体检测方法 | |
JP2017513144A (ja) | 顔認証方法およびシステム | |
CN108921107A (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
CN109376796A (zh) | 基于主动半监督学习的图像分类方法 | |
CN107506786A (zh) | 一种基于深度学习的属性分类识别方法 | |
CN108345850A (zh) | 基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法 | |
CN109558902A (zh) | 一种快速目标检测方法 | |
CN107766890A (zh) | 一种细粒度识别中判别性图块学习的改进方法 | |
CN104021381B (zh) | 一种基于多层级特征的人体动作识别方法 | |
CN104268552B (zh) | 一种基于部件多边形的精细类别分类方法 | |
CN105976397B (zh) | 一种目标跟踪方法 | |
Zhang et al. | Oracle character recognition by nearest neighbor classification with deep metric learning | |
KR20180038169A (ko) | 딥 러닝 기반의 데이터특징을 이용한 도시영상의 안전도 분류방법 | |
CN107818299A (zh) | 基于融合hog特征和深度信念网络的人脸识别算法 | |
CN108549901A (zh) | 一种基于深度学习的快速迭代目标检测方法 | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN109002463A (zh) | 一种基于深度度量模型的文本检测方法 | |
CN107247755A (zh) | 一种基于上下文序列记忆网络的个性化图像字幕生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171124 |