CN110427941A - 一种基于关键点的区域建议生成方法 - Google Patents
一种基于关键点的区域建议生成方法 Download PDFInfo
- Publication number
- CN110427941A CN110427941A CN201910717208.8A CN201910717208A CN110427941A CN 110427941 A CN110427941 A CN 110427941A CN 201910717208 A CN201910717208 A CN 201910717208A CN 110427941 A CN110427941 A CN 110427941A
- Authority
- CN
- China
- Prior art keywords
- rectangle frame
- label
- feature
- positive
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明适用于深度学习技术领域,提供一种基于关键点的区域建议生成方法,包括如下步骤:S1、对关键点集D进行二样本抽样并生成矩形框;S2、建立各矩形框的正负标签及回归值数组;S3、基于面积大小对矩形框进行分组,基于组别数来构建表示正负标签的特征立方体,称为标签特征;S4、基于4倍组别数来构建表示回归变量的特征立方体,称为回归特征;S5、将矩形框的正负标签映射到标签特征上;S6、将矩形框的回归值数组映射到回归特征上;S7、将标签特征和回归特征代入已知的卷积网络训练,生成区域建议。提供了一种基于关键点的区域建议生成方法,将目标的局部属性应用于区域建议,提高了区域建议的智能性、针对性。
Description
技术领域
本发明属于深度学技术领域,提供了一种基于关键点的区域建议生成方法。
背景技术
图像中一般目标的检测是一个复杂问题,其中的一个难点是需要对不同的目标分配一个准确的矩形定位框,如Zhaowei Cai and Nuno Vasconcelos,Cascade R-CNN:delving into high quality object detection,IEEE Conference on Computer Visionand Pattern Recognition(CVPR)2018,pp.6154-6162。过去二十年,基于卷积神经网络的方法在目标检测问题上取得了令人瞩目的成绩。通常基于卷积神经网络的目标检测方法可以分为两类:一是基于区域建议的二阶段方法;二是不需要区域建议的一阶段方法。基于区域建议的方法包括Fast R-CNN(Ross Girshick,Fast R-CNN,IEEE InternationalConference on Computer Vision(ICCV),(2015),pp.1440-1448)、Faster R-CNN(Shaoqing Ren,Kaiming He,Ross Girshick,and Jian Sun,Faster R-CNN:Towardsreal-time object detection with region proposal networks,IEEE Transactions onPattern Analysis And Machine Intelligence,2017,39:1137-1149)、R-FCN(JifengDai,Yi Li,Kaiming He,Jian Sun,R-FCN:Object detection via region-based fullyconvolutional networks,30th Conference on Neural Information ProcessingSystems,2016,pp.379-387)等,其中Fast R-CNN通过选择性搜索产生区域建议,Faster R-CNN和R-FCN都通过RPN网络,在整个图像上直接产生固定大小和宽高比的矩形框用于区域建议的产生。
与选择性搜索相比,直接生成矩形框的方法速度较快,但是直接生成的方法忽略了图像本身的角点、边缘等局部属性,具有一定的盲目性,其“吸附”目标的智能性有待提高。
发明内容
本发明实施例提供了一种基于关键点的区域建议生成方法,针对二阶段目标识别方法,通过局部关键点诱导卷积特征,用于提高区域建议产生的智能性。
本发明是这样实现的,一种基于关键点的区域建议生成方法,所述方法具体包括如下步骤:
S1、对关键点集D进行二样本抽样并生成矩形框;
S2、建立各矩形框的正负标签及回归值数组;
S3、基于面积大小对矩形框进行分组,基于组别数来构建表示正负标签的特征立方体,称为标签特征;
S4、基于4倍组别数来构建表示回归变量的特征立方体,称为回归特征;
S5、将矩形框的正负标签映射到标签特征上;
S6、将矩形框的回归值数组映射到回归特征上;
S7、将完成相关映射的标签特征和回归特征代入已知的卷积网络训练,生成区域建议。
进一步的,矩形框的构建方法具体如下:
在关键点集D中任意抽取两个关键点pi和pj,以关键点pi和pj作为矩形框对角线上的两端点,来构建矩形框aij。
进一步的,矩形框的分组方法具体如下:
基于面积大小对矩形框进行分组,分成c个组别,其中Smax为工作数据集中所有图像的最大尺寸面积。
进一步的,矩形框的正负标签的建立方法如下:
计算矩形框与标注区域的交集与并集的比值;
若比值大于设定值,则矩形框的标签设为正标签1,否则矩形框的标签设为负标签0。
进一步的,矩形框的回归值数组建立方法如下:
对于标签为正标签1的矩形框,回归值数组为矩形框与标注区域之间中心点的横坐标差、中心点的纵坐标差、宽度差、高度差所组成的四元数组。
进一步的,正负标签的特征立方体的构建方法具体如下:
正负标签特征立方体的通道数设置为c,宽和高分别为w=[W/shrank]和h=[H/shrank],其中,W和H为设输入图像的宽和高,shrank为卷积网络中池化操作所产生的缩减倍数。
进一步的,回归变量特征立方体的构建方法具体如下:
回归变量特征立方体的通道数设置为4c,宽和高分别为w=[W/shrank]和h=[H/shrank],其中,W和H为设输入图像的宽和高,shrank为卷积网络中池化操作所产生的缩减倍数。
进一步的,回归值数组到回归特征的映射方法具体如下:
针对矩形框aij,(1)若矩形框面积s(aij)大于16,将图像的最大面积Smax除以矩形框面积S(aij),若Smax/S(aij)的比值落在(2k,2k+1]的区间内,则将矩形框aij的正标签或负标签映射到特征的第k个通道上的[ctij/shrank]坐标点处,其中k=0,1,2,…,c-2;(2)若矩形框面积S(aij)小于等于16,则将矩形框aij的正标签或负标签映射到特征的第c-1个通道上的[ctij/shrank]坐标点处,其中,ctij为矩形框aij中心点坐标。
进一步的,所述步骤S5具体如下:
对于标签为正标签1的矩形框aij,若矩形框aij属于第k个组别,则将矩形框aij的回归值数组依次映射到第4k到4k+3个通道的[ctij/shrank]坐标点处。
本发明提供的基于关键点的区域建议生成方法具如下益效果:
1.提供了一种基于关键点的区域建议生成方法,将目标的局部属性应用于区域建议,提高了区域建议的智能性、针对性。
2.该方法首先提取图像中的关键点;其次生成训练矩形框;再次,构建表示正负标签和回归变量的特征立方体;然后建立矩形框到正负标签特征和回归特征的映射;最后,将标签特征和回归特征用于深度神经网络的训练,生成区域建议,以便实现区域建议的智能化。
附图说明
图1为本发明实施例提供的基于关键点的区域建议生成方法流程图;
图2是本发明的具体实施方式的由关键点生成矩形框的示意图。
图3是本发明的具体实施方式的矩形面积框分组的示意图。
图4是本发明的具体实施方式的标签特征的构造示意图。
图5是本发明的具体实施方式的回归变量特征的构造示意图。
图6是本发明的具体实施方式的矩形框到标签特征的映射的示意图。
图7是本发明的具体实施方式的矩形框到标签特征的映射的示意图。
图8是本发明的具体实施方式的从关键点到卷积特征的构造方法示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明是通过关键点诱导适用于密度不均匀和大小不规范的异质矩形框的卷积特征,用于区域建议的训练,其中密度不均匀是指矩形框在图像中的分布密度不均匀,如集中分布在左上角,大小不规范是指矩形框的尺寸不统一;矩形框卷积特征该构造方法的梗概如图2-图7所示。首先,通过检测到的关键点,生成矩形框集合,如图2所示;其次将矩形框按照面积大小进行分组,如图3所示;再次,根据组别数设计标签特征的尺寸,如图4所示;然后,根据组别数的4倍设计回归特征的尺寸,如图5所示;再将矩形框的标签映射到标签特征上,如图6所示,然后,将矩形框的回归值映射到回归特征上,如图7所示;最后,将标签特征和回归特征代入卷积网络训练生成区域建议,如图8所示。
图1为本发明实施例提供的基于关键点的候选目标生成方法流程图,该方法具体包括如下步骤:
S1、对关键点集D进行二样本抽样并生成矩形框;
本发明所要解决的问题是由关键点集D诱导用于深度学习的特征,以便训练出吸附于关键点这一局部属性的区域建议,使区域建议具有一定的智能性、针对性。在本发明实施例中,关键点集D已基于图像处理技术提取出来,如基于Harris角点检测图像中的关键点坐标,形成关键点集D,基于关键点集D来生成矩形框,假定关键点集中有n个关键点,可以形成n(n-1)/2个矩形框,即在关键点集D中任意抽取两个样本关键点pi和pj,以样本关键点pi和pj作为矩形框对角线上的两端点,来构建矩形框。假定样本关键点pi和pj的坐标分别为(xi,yi)、(xj,yj),构成矩形框的四个端点坐标依次为(xi,yi)、(xj,yi)、(xj,yj)及(xi,yj);
S2、建立各矩形框的正负标签及回归值数组;
矩形框的正负标签的建立方法如下:根据训练数据集,计算矩形框与标注区域的交集与并集的比值,根据比值对矩形框进行0标签或1标签的映射,若比值大于设定值,则矩形框的标签设为正标签1,否则矩形框的标签设为负标签0;
其中标注区域是数据集自带的,是指已经在图像上标识了目标的位置和类别。
矩形框的回归值数组建立方法如下:对于标签为正标签1的矩形框,回归值数组为矩形框与标注区域之间中心点的横坐标差、中心点的纵坐标差、宽度差、高度差所组成的四元数组;
正样本为目标样本,负样本不是目标样本,因此不需要回归坐标位置。
S3、基于面积大小对矩形框进行分组,基于组别数来构建表示正负标签的特征立方体,称为标签特征;
在本发明实施例中,步骤S3具体包括如下步骤:
S31、基于面积大小对矩形框进行分组,分成c个组别,其中Smax为工作数据集中所有图像的最大尺寸面积;
S32、正负标签特征立方体的通道数设置为c,宽和高分别为w=[W/shrank]和h=[H/shrank],标签特征立方体的宽和高由卷积网络的池化操作确定,设输入图像的宽和高分别为W和H,卷积网络中池化操作所产生的缩减倍数为shrank,则标签特征立方体的宽和高分别为w=[W/shrank]和h=[H/shrank]
在本发明实施例中,步骤S31具体包括如下步骤:
设D={pi=(xi,yi)|i=0,1,…,N}是检测到的关键点集合,矩形框集合A={aij=(xi,yi,xj,yj)},其中xi≤xj,yi≤yj,(xi,yi),(xj,yj)∈D;设数据集中所有图像的最大尺寸为Smax,则A的分组为:A=A0∪A1∪…∪Ac-1(如图3所示),其中第0组矩形框,aij∈A0满足s(aij)>Smax/2,其中第k(k=1,…,c-2)组矩形框,aij∈A1满足Smax/2k+1<s(aij)≤Smax/2k,第c-1组aij∈Ac-1满足s(aij)≤16,s(●)表示●的面积;也即:c=[ln(Smax/16)/ln(2)]+1,[●]表示●的整数部分。
获取数据集中所有图像的最大尺寸面积,其尺寸为Smax,从最大尺寸Smax开始重复模2,直到结果小于等于16,设总共除了c次,其中c=[ln(Smax/16)/ln(2)]+1,正负标签特征立方体的通道数设置为c(正负标签的特征立方体长度),标签特征立方体的宽和高由卷积网络的池化操作确定,设输入图像的宽和高分别为W和H,卷积网络中池化操作所产生的缩减倍数为shrank,则标签特征立方体的宽和高分别为w=[W/shrank]和h=[H/shrank],通道数设置为c。
S4、基于4倍组别数来构建表示回归变量的特征立方体,称为回归特征;
设输入图像的宽和高分别为W和H,则回归特征的宽和高分别为:w=[W/shrank]和h=[H/shrank],通道数设置为4c。
S5、将矩形框的正负标签映射到标签特征上;
若矩形框共分为c个组别,则标签特征上设有c个通道,对于任一待映射矩形框,若矩形框aij=(xi,yi,xj,yj)∈Ak,矩形框aij的中心点坐标为:ctij=((xi+xj)/2,(yi+yj)/2),则将aij的正负标签映射到第k个通道上的[ctij/shrank]坐标点处,其映射过程具体如下:
(1)针对矩形框aij,若该矩形框面积s(aij)大于16,将图像的最大面积Smax除以该矩形框面积S(aij),若Sxam/S(aij)的比值落在[2k,2k+1)的区间内,则将矩形框aij的正标签或负标签映射到特征的第k个通道上的[ctij/shrank]坐标点处,其中k=0,1,2,…,c-2;(2)该矩形框面积s(aij)小于等于16,则将矩形框aij的正标签或负标签映射到特征的第c-1个通道上的[ctij/shrank]坐标点处,其中c=[ln(Smax/16)/ln(2)]+1,[●]表示●的整数部分,其具体实现方法如下:
对于任意一个待映射矩形,(1)当该矩形框面积大于16时,若该矩形框面积大于Smax/2,则将该矩形映射到第0个通道上;若该矩形框面积小于等于Smax/2大于Smax/4,则将该矩形映射到第1个通道上;以此类推,直到倒数第二个通道映射完毕;(2)若该矩形框面积小于等于16,则将该矩形的正标签或负标签映射到特征的最后一个通道上的某个位置,其中所述的某个位置为图像中待映射矩形的中心点位置经卷积网络卷积所得到的坐标位置。
S6、将矩形框的回归值数组映射到回归特征上;
对于标签为正标签1的矩形框aij,若aij=(xi,yi,xj,yj)∈Ak,即最大尺寸矩形框面积Smax除以矩形面积S(aij),若Smax/S(aij)的比值落在[2k,2k+1)的区间内,即矩形框aij∈Ak,其中心点坐标为:ctij=((xi+xj)/2,(yi+yj)/2),则将aij的回归值四元数组依次映射到第4k到4k+3个通道的[ctij/shrank]坐标点处。
S7、将完成相关映射的标签特征和回归特征代入已知的卷积网络训练,生成区域建议。
在本发明实施例中,完成相关映射的标签特征和回归特征分别是指:完成正负标签映射的标签特征及完成回归值数组映射的回归特征,此外,训练区域建议的神经网络采用现有的。
本发明提供的基于关键点的区域建议生成方法具如下益效果:
1.提供了一种基于关键点的区域建议生成方法,将目标的局部属性应用于区域建议,提高了区域建议的智能性、针对性。
2.该方法首先提取图像中的关键点;其次生成训练矩形框;再次,构建表示正负标签和回归变量的特征立方体;然后建立矩形框到正负标签特征和回归特征的映射;最后,将标签特征和回归特征用于深度神经网络的训练,生成区域建议,以便实现区域建议的智能化。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于关键点的区域建议生成方法,其特征在于,所述方法具体包括如下步骤:
S1、对关键点集D进行二样本抽样并生成矩形框;
S2、建立各矩形框的正负标签及回归值数组;
S3、基于面积大小对矩形框进行分组,基于组别数来构建表示正负标签的特征立方体,称为标签特征;
S4、基于4倍组别数来构建表示回归变量的特征立方体,称为回归特征;
S5、将矩形框的正负标签映射到标签特征上;
S6、将矩形框的回归值数组映射到回归特征上;
S7、将完成相关映射的标签特征和回归特征代入已知的卷积网络训练,生成区域建议。
2.如权利要求1所述基于关键点的区域建议生成方法,其特征在于,矩形框的构建方法具体如下:
在关键点集D中任意抽取两个样本关键点pi和pj,以样本关键点pi和pj作为矩形框对角线上的两端点,来构建矩形框aij。
3.如权利要求1所述基于关键点的区域建议生成方法,其特征在于,矩形框的分组方法具体如下:
基于面积大小对矩形框进行分组,分成c个组别,其中c=[ln(Smax/16)/ln2]+1,Smax为工作数据集中所有图像的最大尺寸面积。
4.如权利要求1所述基于关键点的区域建议生成方法,其特征在于,矩形框的正负标签的建立方法如下:
计算矩形框与标注区域的交集与并集的比值;
若比值大于设定值,则矩形框的标签设为正标签1,否则矩形框的标签设为负标签0。
5.如权利要求1所述基于关键点的区域建议生成方法,其特征在于,矩形框的回归值数组建立方法如下:
对于标签为正标签1的矩形框,回归值数组为矩形框与标注区域之间中心点的横坐标差、中心点的纵坐标差、宽度差、高度差所组成的四元数组。
6.如权利要求3所述基于关键点的区域建议生成方法,其特征在于,正负标签的特征立方体的构建方法具体如下:
正负标签特征立方体的通道数设置为c,宽和高分别为w=[W/shrank]和h=[H/shrank],其中,W和H为设输入图像的宽和高,shrank为卷积网络中池化操作所产生的缩减倍数。
7.如权利要求3所述基于关键点的区域建议生成方法,其特征在于,回归变量特征立方体的构建方法具体如下:
回归变量特征立方体的通道数设置为4c,宽和高分别为w=[W/shrank]和h=[H/shrank],其中,W和H为设输入图像的宽和高,shrank为卷积网络中池化操作所产生的缩减倍数。
8.如权利要求6所述基于关键点的区域建议生成方法,其特征在于,回归值数组到回归特征的映射方法具体如下:
针对矩形框aij,(1)若矩形框面积s(aij)大于16,将图像的最大面积Smax除以矩形框面积S(aij),若Smax/S(aij)的比值落在[2k,2k+1)的区间内,则将矩形框aij的正标签或负标签映射到特征的第k个通道上的[ctij/shrank]坐标点处,其中k=0,1,2,…,c-2;(2)若矩形框面积S(aij)小于等于16,则将矩形框aij的正标签或负标签映射到特征的第c-1个通道上的[ctij/shrank]坐标点处,其中,ctij为矩形框aij中心点坐标。
9.如权利要求7所述基于关键点的区域建议生成方法,其特征在于,所述步骤S5具体如下:
对于标签为正标签1的矩形框aij,若矩形框aij属于第k个组别,则将矩形框aij的回归值数组依次映射到第4k到4k+3个通道的[ctij/shrank]坐标点处。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910717208.8A CN110427941B (zh) | 2019-08-05 | 2019-08-05 | 一种基于关键点的区域建议生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910717208.8A CN110427941B (zh) | 2019-08-05 | 2019-08-05 | 一种基于关键点的区域建议生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110427941A true CN110427941A (zh) | 2019-11-08 |
CN110427941B CN110427941B (zh) | 2021-08-27 |
Family
ID=68414222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910717208.8A Active CN110427941B (zh) | 2019-08-05 | 2019-08-05 | 一种基于关键点的区域建议生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110427941B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018213972A1 (en) * | 2017-05-22 | 2018-11-29 | Intel Corporation | Region proposal filter for digital image processing |
CN109086797A (zh) * | 2018-06-29 | 2018-12-25 | 中国地质大学(武汉) | 一种基于注意机制的异常事件检测方法及系统 |
CN109117876A (zh) * | 2018-07-26 | 2019-01-01 | 成都快眼科技有限公司 | 一种稠密小目标检测模型构建方法、模型及检测方法 |
CN109919122A (zh) * | 2019-03-18 | 2019-06-21 | 中国石油大学(华东) | 一种基于3d人体关键点的时序行为检测方法 |
CN109961006A (zh) * | 2019-01-30 | 2019-07-02 | 东华大学 | 一种低像素多目标人脸检测和关键点定位方法以及对齐方法 |
-
2019
- 2019-08-05 CN CN201910717208.8A patent/CN110427941B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018213972A1 (en) * | 2017-05-22 | 2018-11-29 | Intel Corporation | Region proposal filter for digital image processing |
CN109086797A (zh) * | 2018-06-29 | 2018-12-25 | 中国地质大学(武汉) | 一种基于注意机制的异常事件检测方法及系统 |
CN109117876A (zh) * | 2018-07-26 | 2019-01-01 | 成都快眼科技有限公司 | 一种稠密小目标检测模型构建方法、模型及检测方法 |
CN109961006A (zh) * | 2019-01-30 | 2019-07-02 | 东华大学 | 一种低像素多目标人脸检测和关键点定位方法以及对齐方法 |
CN109919122A (zh) * | 2019-03-18 | 2019-06-21 | 中国石油大学(华东) | 一种基于3d人体关键点的时序行为检测方法 |
Non-Patent Citations (3)
Title |
---|
DAVID G. LOWE ET AL: "Distinctive image features from scale-invariant keypoints", 《INTERNATIONAL JOURNAL OF COMPUTER VISION VOLUME》 * |
XIU-SHEN WEI ET AL: "Selective Convolutional Descriptor Aggregation for Fine-Grained Image Retrieval", 《IEEE TRANSACTIONS ON IMAGE PROCESSING 》 * |
董德轩: "基于深度学习的人脸检测算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN110427941B (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163110B (zh) | 一种基于迁移学习和深度特征融合的行人重识别方法 | |
CN104915636B (zh) | 基于多级框架显著性特征的遥感影像道路识别方法 | |
CN107657226B (zh) | 一种基于深度学习的人数估计方法 | |
Chen et al. | Automatically conflating road vector data with orthoimagery | |
Li et al. | Adaptive deep convolutional neural networks for scene-specific object detection | |
CN105809651B (zh) | 基于边缘非相似性对比的图像显著性检测方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN103714181B (zh) | 一种层级化的特定人物检索方法 | |
CN106022232A (zh) | 基于深度学习的车牌检测方法 | |
CN109543632A (zh) | 一种基于浅层特征融合引导的深层网络行人检测方法 | |
CN109255375A (zh) | 基于深度学习的全景图像对象检测方法 | |
CN106611420A (zh) | 基于反卷积网络和素描图方向约束的sar图像分割方法 | |
CN109978882A (zh) | 一种基于多模态融合的医疗影像目标检测方法 | |
CN103927511A (zh) | 基于差异特征描述的图像识别方法 | |
Zhang et al. | Road recognition from remote sensing imagery using incremental learning | |
CN109829449A (zh) | 一种基于超像素时空上下文的rgb-d室内场景标注方法 | |
CN104680545B (zh) | 光学图像中存在显著目标的检测方法 | |
CN110223310B (zh) | 一种基于深度学习的线结构光中心线和箱体边缘检测方法 | |
CN106897681A (zh) | 一种遥感图像对比分析方法及系统 | |
CN109448015A (zh) | 基于显著图融合的图像协同分割方法 | |
CN113808166B (zh) | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 | |
CN110490913A (zh) | 基于角点与单线段编组的特征描述算子进行影像匹配方法 | |
CN113158943A (zh) | 一种跨域红外目标检测方法 | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
CN105095867A (zh) | 基于深度学习的快速动态人脸提取、识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |