CN107122713B - 一种基于深度学习的似物性检测方法 - Google Patents
一种基于深度学习的似物性检测方法 Download PDFInfo
- Publication number
- CN107122713B CN107122713B CN201710187970.0A CN201710187970A CN107122713B CN 107122713 B CN107122713 B CN 107122713B CN 201710187970 A CN201710187970 A CN 201710187970A CN 107122713 B CN107122713 B CN 107122713B
- Authority
- CN
- China
- Prior art keywords
- matrix
- super
- merged
- superpixel
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 28
- 238000001514 detection method Methods 0.000 title claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims abstract description 81
- 230000011218 segmentation Effects 0.000 claims abstract description 13
- 238000011156 evaluation Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 14
- 238000012216 screening Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 238000013136 deep learning model Methods 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims description 3
- 238000010348 incorporation Methods 0.000 claims description 2
- 239000003550 marker Substances 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000009792 diffusion process Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的似物性检测方法,包括先对输入图像进行超像素分割以及深度学习的特征图提取,然后结合特征图和标记矩阵获取所有超像素的特征,根据所提取的超像素的特征进行超像素的合并操作,判断是否需要继续下一轮合并;若需要合并,则将新的标记矩阵将更新后的标签矩阵重新与特征图相结合,提取新的超像素特征,继续新的一轮合并;若合并已经结束,则将所包含的超像素信息送入训练好的网络进行似物性评估;之后根据所得到的似物性分数进行排序,最后将排序的结果输出。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种基于深度学习的似物性检测方法。
背景技术
对象检测在计算机视觉研究领域中起着重要的作用,是对象识别的前提。
似物性即为一般物体(Class-independent object or Generic objects),或者Objectness,其意为于类别无关的一切物体。而似物性检测的任务便是从图片中定位出一般物体的位置,并提供该物体的形状或大小信息。
似物性检测常用作为一系列图像处理算法的预处理步骤,为之后的图像处理工作提供了可能的物体存在的位置,大小等一系列信息,使得例如目标识别,目标跟踪,协同分割等图像处理工作能够更加便利的进行。
目前的似物性检测方法主要分为三类,一是利用聚合的思路,主要方法是将图像进行过分割,再进行聚合。二是先生成海量的候选框,然后根据定义的分数进行排序来过滤掉无用的候选框,三是近年来出现了较多基于深度学习的似物性检测方法,提出了一种框架,通过CNN提取的顶层特征,训练了网络对输入图像中的像素进行分类,在计算出objectmask的同时,训练另一个网络对输入图像的似物性做出评估。该方法的能够较好定位一般物体的位置,并将其分割出来;但该方法存在的假设,输入的图像的中心必须包含有一个物体,使得该方法在开始依旧需要去筛选出一些图像块作为输入;并且分割的结果并不是十分精细。
发明内容
为了克服现有技术存在的缺点与不足,本发明提供一种基于深度学习的似物性检测方法。
本发明包括如下技术方案:
一种基于深度学习的似物性检测方法,包括如下步骤:
S1对输入图像进行超像素分割,为图像中的每个超像素赋予标记值,通过标记矩阵L保存分割信息;
S2通过深度学习模型和标记矩阵L提取每个超像素的特征;
S3建立合并矩阵M,具体为:
在输入图像中随机选取超像素作为中心,计算中心超像素与周围超像素的特征的距离与阈值,并根据阈值筛选出需合并的超像素,构成的合并集合C,并将合并集合C的信息存入合并矩阵M中;
继续选取超像素作为中心,计算合并集合C,直到输入图像中所有的超像素均已被合并或作为过中心,则停止选取,并将每次合并集合信息存入合并矩阵M;
S4根据S3得到的合并矩阵,得到输入图像的超像素合并为多个区域,将区域信息存入区域标记矩阵R,并将R加入候选区域集合{Rf};
S5判定候选区域是否提取完毕,若为否,则将S4结果的候选区域集合视为超像素,依据区域标记矩阵R,重复S2,S3,S4,并改变S3中计算合并超像素的距离权重系数;若为是,停止重复步骤;
S6训练用于近似物分数评估的深度学习网络;
S7根据候选区域集合{Rf},将所有区域送入网络计算似物性分数;按似物性分数进行排序,输出结果。
所述S2中,通过深度学习模型和标记矩阵L提取每个超像素的特征,具体为:将原始图像输入VGG16网络中,提取出网络中所有卷积层(共13层)的特征图(feature map);超像素分割获得的标记矩阵L,标记矩阵大小与输入图像一致,且矩阵中每个像素位置赋值为该像素所属超像素的标记;根据特征图和标记矩阵L,将特征图按照超像素区域进行均值池化,所有特征图的池化后的数值拼接后得到的1*4224维向量作为该超像素的特征。
所述S3中,在输入图像中随机选取超像素作为中心,计算中心超像素与周围超像素的特征的距离与阈值,并根据阈值筛选出需合并的超像素,构成的合并集合C,具体为:
计算中心超像素si与邻接超像素Ai={s1,s2....sk}的距离集合Di={d1,d2....dk},根据Di计算出阈值σ并通过σ筛选出与si合并的超像素加入集合Ci={sp,sq....sr}({p,q,…,r}∈{1,2,....,k});循环且非重复地选取Ci中的超像素sj作为中心,进行如下操作:计算sj与邻接超像素Aj的距离与阈值,根据阈值筛选超像素时对于距离添加惩罚系数项p,筛选获得合并集合Cj,将sj的合并集合Cj并入Ci,Ci=Ci∩Cj;当Ci中的元素不再增加时,则超像素si的合并集合即为Ci。
其中计算中心超像素与周围超像素特征的距离,具体计算为:
两个超像素之间距离:d=α·dlow+β·dmid+γ·dhigh
其中,dlow为底层特征距离,dmid为中层特征距离,dhigh为高层特征距离;α、β、γ为权重系数。每个超像素的特征v为4224维,其中第1至第384维为底层特征,第385至1152维为中层特征,第1153至4224维为高层特征。特征v根据底层、中层、高层划分为3段特征:vlow,vmid,vhigh,分别计算距离。
所述S3中,计算阈值并根据阈值筛选出需合并的超像素,具体为:
阈值由两部分组成,标准阈值σnorm与绝对阈值σabs;
绝对阈值σabs的计算:根据大量的实验数据选取出经验阈值作为绝对阈值σabs;
根据中心超像素与其所有的邻接超像素计算出来的距离集合D,其中对于di∈D,所有符合di<mnn(σnorm,σabs)的i对应的超像素应加入合并超像素集合C。
所述惩罚系数项:
超像素si与邻接超像素Ai={s1,s2….sk}的距离集合Di={d1,d2….dk},在通过阈值筛选时,使用D′i=Di·p,每进行一次合并计算后,p会逐渐增大。
所述将每次合并集合信息存入合并矩阵M,具体为:
设图像中超像素的总数量为n,超像素sn以及其邻接超像素集合为An={s1,s2….sk},则构建的合并矩阵大小为n×n并以0进行初始化;对于以超像素sn为中心,根据S3中计算的阈值得到与sn合并的超像素集合Cn,根据Cn将合并矩阵M中对应位置的数值置为1。
所述S4中,根据S3得到的合并矩阵,得到输入图像的超像素合并为多个区域,将区域信息存入区域标记矩阵R,具体为:
根据合并矩阵M,若M(i,j)=1,则超像素si与超像素sj应当合并,将标记矩阵R中的标记i和标记j均置为i;在遍历完合并矩阵后,对标记矩阵进行一次更新,以保证R中的标记按1递增。
所述S5中,判定候选区域是否提取完毕,具体为:
若区域标记矩阵R中仅有一种标记,则表示合并成功,则进入S6,否则需要对现有的区域重新提取特征即S2,区域合并得到合并矩阵即S3及重新标记矩阵即S4。
所述S6中的训练网络,具体操作如下:
基于标记矩阵集合{L}获取所有的区域集合{Rf},对于每个区域ri∈R,提取其特征vi,则训练集为二元组格式{yi,vi},其中Loss函数为二值对数回归损失函数的和,具体为:
其中yi为区域ri的实际标记,vi为ri的特征,fscore(vi)为网络所推测的超像素的似物性分数。训练集的制作时,采样了不同大小,不同形状,不同外观的超像素作为样本;同时保证正样本与负样本的数量一致。
所述S7中的似物性分数计算,具体操作如下
根据输入区域ri的特征vi,该区域的似物性分数fscore(vi)的计算:
fscore(vi)=f(W2·f(W1·vi+b1)+b2))
本文采用将聚合策略与深度学习相结合的方法。首先采用超像素分割,将图像分割为多个同质且大小相近的图像子块,子块内的颜色纹理具有同一性。通过深度学习,提取出超像素的低层,中层,高层特征。对于不同层次的特征采用不同的聚合策略,将超像素合并为多个较大的子块。重复这一步骤,直至合并结束。将所有合并的子块作为潜在的一般物体,通过深度学习网络对它们进行似物性评分,以确保检测到不同层次的一般物体。
本发明的有益效果:
(1)预先对图像进行超像素分割,分割出一些同质的图像子块,以子块为单位,降低了计算量,同时也能提供较为精确的分割结果;
(2)对于超像素进行了深度学习特征提取,充分的利用了不同阶层的深度学习特征;
(3)针对自然图像中物体存在多层次结构这一特性,对多个层次的合并结果进行了似物性检测,尽可能检测出不同层次的一般物体。
附图说明
图1是本发明的工作流程图;
图2是本发明的S2的工作流程图;
图3是本发明S3的工作流程图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例
图1-图3所示,一种基于深度学习的似物性检测方法,包括如下步骤:
S1对输入图像进行超像素分割,为每个超像素赋予标记值,通过标记矩阵L保存分割信息,所述标记矩阵和输入图像大小一致,每个超像素的标记都是一个整数值,不同的整数值表示不同的超像素;根据图像中每个超像素的位置对应标记矩阵中的整数值,即表示哪一个超像素。
具体是对图像进行分割成n个超像素,输出为原图大小的标记矩阵L。
S2通过深度学习模型和标记矩阵L提取每个超像素的特征f,具体为:如图2所示,
首先将RGB图像输入已经训练好的网络VGG16中,提取出VGG16网络中conv1_1,conv1_2,conv2_1,conv2_2,conv3_1,conv3_2,conv3_3,conv4_1,conv4_2,conv4_3,conv5_1,conv5_2,conv5_3,总计13层卷积层中的特征图F(feature map),一共为64*2+128*2+256*3+512*3+512*3=4224张特征图。
对于4224张特征图F通过双线性插值全部上采样至第一层的大小224*224,同时将标记矩阵L下采样至224*224,使其保证一样的大小。对于每张特征图,将对应L中超像素区域内的特征值进行均值池化,这样对于每个超像素,将4224张特征图池化后的数值拼接起来,则每个超像素的特征便是一个1*4224维的特征向量v。
S3建立合并矩阵M,具体为:
S3.1超像素合并,具体为:
S3.1.1在输入图像中随机选取一个超像素sn作为中心,根据邻接矩阵Madj找出与超像素sn相邻的超像素集合Ai={s1,s2….sk};其中邻接矩阵Madj的构成为:对于超像素sn,sm,若超像素sn的八邻域范围内存在超像素sm,则Madj(n,m)=1。
S3.1.2计算超像素之间的距离d
d=α·dlow+β·dmid+γ·dhigh
其中,dlow为底层特征距离,dmid为中层特征距离,dhigh为高层特征距离;α、β、γ为权重系数。
每个超像素的特征v为4224维,其中第1至第384维为底层特征,第385至1152维为中层特征,第1153至4224维为高层特征。特征v根据底层、中层、高层划分为3段特征:vlow,vmid,vhigh,对于3段特征分别计算其欧氏距离;其中α=0.7、β=0.2、γ=0.1为初始化权重系数,权重系数的初始化数值是根据多次实验结果进行确定的。
S3.1.3计算阈值
其中阈值包含两部分,其一为超像素s与邻接超像素之间相对距离所计算的标准阈值σ;其二为根据实验确定的绝对阈值σabs。
以超像素sn为中心举例,则sn的邻接超像素集合An={s1,s2….sk},标准阈值σ的计算步骤为,
首先计算sn与An每个元素之间的距离并对其归一化,得到距离集合D={di|i=1,2,…k};
对D进行升序排序得到Drank={dj|j=1,2,…k};
求取差分集合ΔDrank={xj=dj+1-dj|j=1,2,…k-1};
根据大量的实验数据,选取出表现最好的阈值作为绝对阈值σabs。
根据中心超像素与其所有的邻接超像素计算出来的距离集合Di,其中对于di∈D,所有符合di<min(σnorm,σabs)的i对应的超像素si应加入合并超像素集合C。
当以超像素sn为中心,在计算出与其合并的超像素集合Cn={s1,s2….sj}后,合并应当进行扩散,继续循环且非重复第选取Cn中的每一个sm超像素为中心,并按照上述步骤计算出应当合并的超像素集合Cm={sp,sq….sr}({p,q,…,r}∈{1,2,….,k}),直到所有的超像素均已被合并或作为过中心,则停止选取;
为了防止合并过度扩散,在扩散时,当计算该超像素的标准阈值σ后,对于该组距离集合D乘以一个惩罚系数p,D=d·p,随着扩散的进行,惩罚系数随之递增。
S3.2合并矩阵M,由于添加了惩罚项,合并扩散必然会在扩散数次时终止。然后将合并超像素集合的信息填写进合并矩阵M中。假设得到合并超像素集合为{sn,s1,……,sj},则M(n,p)=1(p=1,2,…..,j)。
S4根据S3得到的合并矩阵,得到输入图像的超像素合并为多个区域,将区域信息存入区域标记矩阵R,并将R加入候选区域集合{Rf};所述区域信息是指图像中每个像素属于哪个区域。
当所有的超像素都已合并或作为中心计算过合并集合后,此时超像素已经合并成为候选区域,依据超像素分割的标记矩阵L和合并矩阵M,获取候选区域标记矩阵R。
通过遍历合并矩阵M,找出合并的超像素集合,并将他们在L中标记置为集合中的任意标记。完全遍历合并矩阵M后,最终得到的标记矩阵R便是候选区域的标记矩阵。
对于合并矩阵M,假设共有n个超像素,则矩阵M的大小为n×n,其中M(i,j)的i,j则表示对应标记的超像素si与sj;若M(i,j)=1,则超像素si与超像素sj应当合并,将标记矩阵R中的标记i和标记j均置为i;在遍历完合并矩阵后,对标记矩阵进行一次更新,以保证R中的标记按1递增;
S5判定候选区域是否提取完毕,若为否,则将S4结果的候选区域集合视为超像素,依据区域标记矩阵R,重复S2,S3,S4,并改变S3中计算合并超像素的距离权重系数;若为是,停止重复步骤;
具体为:
在得到候选区域标记矩阵R后,将其存入候选区域集合{Rf};结合标记矩阵R和4224张特征图F,将现有候选区域视为超像素,重新提取超像素特征,再度进行超像素合并及计算区域标记矩阵R′,重复上述操作。当最后所有超像素合并成原图像,即矩阵R中所有的元素为相同值时,则停止该循环操作。若在k次循环后,运算结束,则得到的k张标记矩阵{Rf}={R1,R2…,Rk},这k张标记矩阵即是一般物体的分割结果。
所述改变距离权重系统,具体为:
超像素之间距离d=α·dlow+β·dmid+γ·dhigh,随着标记矩阵R的变化,所分割的超像素面积增大,权重系数α、β、γ也随之改变,表现为逐渐降低α,逐渐提升β、γ的大小。
S6训练用于近似物分数评估的深度学习网络,
基于标记矩阵集合{L}获取所有的区域集合{Rf},对于每个区域ri∈R(R∈{Rf}),提取其特征vi,则训练集为二元组格式{yi,vi},其中Loss函数为二值对数回归损失函数的和,具体为:
其中yi为区域ri的实际标记,vi为ri的特征,fscore(vi)为网络所推测的超像素的似物性分数。训练集的制作时,采样了不同大小,不同形状,不同外观的超像素作为样本;同时保证正样本与负样本的数量一致。
S7似物性分数评估
对于每个区域ri∈R,提取其特征vi,通过深度学习网络计算其似物性分数fscore(vi),具体为:
fscore(vi)=f(W2·f(W1·vi+b1)+b2))
其中vi为1x4224维向量,W1、b1为第一层网络参数;W1、b1为第二层网络参数;其中函数f为激活函数,f(x)=max(0,x)。
其中的W和b分别是在深度学习中,每个卷积网络层的参数;,其中W为一个矩阵,其中保存的是网络中神经元的联接参数,b为偏置项。
其中的激活函数f对于任意值的x,其函数值为x与0二者之间的最大值;这些参数都会在训练网络的时候自动的设定。
本发明的流程示意图如图1所示。先对输入图像进行超像素分割以及深度学习的特征图提取,然后结合特征图和标记矩阵获取所有超像素的特征。根据所提取的超像素的特征进行超像素的合并操作。在一轮的合并结束后,判断是否需要继续下一轮合并。若需要合并,则将新的标记矩阵将更新后的标签矩阵重新与特征图相结合,提取新的超像素特征,继续新的一轮合并;若合并已经结束,则将所包含的超像素信息送入训练好的网络进行似物性评估;之后根据所得到的似物性分数进行排序,最后将排序的结果输出。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.一种基于深度学习的似物性检测方法,其特征在于,包括如下步骤:
S1对输入图像进行超像素分割,为图像中的每个超像素赋予标记值,通过标记矩阵L保存分割信息;
S2通过深度学习模型和标记矩阵L提取每个超像素的特征;
S3建立合并矩阵M,具体为:
在输入图像中随机选取超像素作为中心,计算中心超像素与周围超像素的特征的距离与阈值,其中计算距离时添加惩罚系数,随后根据阈值筛选出需合并的超像素,构成的合并集合C,并将合并集合C的信息存入合并矩阵M中;
继续选取超像素作为中心,计算合并集合C,直到输入图像中所有的超像素均已被合并或作为过中心,则停止选取,并将每次合并集合信息存入合并矩阵M;
S4根据S3得到的合并矩阵,得到输入图像的超像素合并为多个区域,将区域信息存入区域标记矩阵R,并将R加入候选区域集合{Rf};
S5判定候选区域是否提取完毕,若为否,则将S4结果的候选区域集合视为超像素,依据区域标记矩阵R,重复S2,S3,S4,并改变S3中惩罚系数;若为是,停止重复步骤;
S6训练用于近似物分数评估的深度学习网络;
所述S6中训练用于近似物分数评估的深度学习网络,具体为:
基于标记矩阵集合{L}获取所有的区域集合{Rf},对于每个超像素ri∈R,提取其特征vi,则训练集为二元组格式{yi,vi},其中Loss函数为二值对数回归损失函数的和,具体为:
其中yi为区域ri的实际标记,vi为ri的特征,fscore(vi)为网络所推测的超像素的似物性分数;
S7根据候选区域集合{Rf},将所有区域送入网络计算似物性分数;按似物性分数进行排序,输出结果;
所述S7中计算似物性分数,具体为:
根据输入区域ri的特征vi,该区域的似物性分数fscore(vi)的计算:
fscore(vi)=f(W2·f(W1·vi+b1)+b2))
其中vi为1x4224维向量,W1、b1为第一层网络参数;W2、b2为第二层网络参数;其中函数f为激活函数,f(x)=max(0,x)。
2.根据权利要求1所述的一种基于深度学习的似物性检测方法,其特征在于,所述S2中通过深度学习模型和标记矩阵提取每个超像素的特征,具体为:
将输入图像输入VGG16网络中,提取网络中所有卷积层的特征图,根据S1获得的标记矩阵和特征图,将特征图按照超像素区域进行均值池化,特征图池化后的竖直拼接后得到1*4224维向量作为该超像素的特征。
3.根据权利要求1所述的一种基于深度学习的似物性检测方法,其特征在于,所述S3中在输入图像中任意选取一个超像素作为中心,计算与中心超像素合并的周围超像素构成的合并集合C,具体为:
设中心超像素si与邻接超像素Ai={s1,s2....sk}的距离集合Di={d1,d2....dk},根据Di计算出阈值σ并通过σ筛选出与si合并的超像素加入集合Ci={sp,sq....sr}({p,q,...,r}∈{1,2,....,k});
循环且非重复地选取Ci中的超像素sj作为中心,计算sj与邻接超像素Aj的距离与阈值,根据阈值筛选超像素时对于距离添加惩罚系数项p,筛选获得合并集合Cj,
将sj的合并集合Cj并入Ci,Ci=Ci∩Cj;当Ci中的元素不再增加时,则超像素si的合并集合即为Ci。
4.根据权利要求3所述的一种基于深度学习的似物性检测方法,其特征在于,中心超像素与邻接超像素的距离d表示为:
d=α·dlow+β·dmid+γ·dhigh
其中,dlow为底层特征距离,dmid为中层特征距离,dhigh为高层特征距离,其中每个超像素的特征v为4224维,其中第1至第384维为底层特征,第385至1152维为中层特征,第1153至4224维为高层特征,α、β、γ为权重系数,其中权重系数初始化时根据实验结果进行人为的设定。
6.根据权利要求3所述的一种基于深度学习的似物性检测方法,其特征在于,所述惩罚系数项p,具体为:
超像素si与邻接超像素Ai={s1,s2....sk}的距离集合Di={d1,d2....dk},在通过阈值筛选时,将会对D′i=Di·p进行筛选;每经过一次计算合并集合操作,p会逐渐增大。
7.根据权利要求1所述的一种基于深度学习的似物性检测方法,其特征在于,所述S4中,根据S3得到的合并矩阵,得到输入图像的超像素合并为多个区域,将区域信息存入区域标记矩阵R,具体为:
在合并矩阵M中,若M(i,j)=1,则超像素si与超像素sj应当合并,将标记矩阵R中的标记i和标记j均置为i;在遍历完合并矩阵M后,对标记矩阵R进行一次更新,以保证R中的标记按1递增。
8.根据权利要求1所述的一种基于深度学习的似物性检测方法,其特征在于,所述S5中,判定候选区域是否提取完毕,具体为:
若区域标记矩阵R中仅有一种标记,则进入S6。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710187970.0A CN107122713B (zh) | 2017-03-27 | 2017-03-27 | 一种基于深度学习的似物性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710187970.0A CN107122713B (zh) | 2017-03-27 | 2017-03-27 | 一种基于深度学习的似物性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107122713A CN107122713A (zh) | 2017-09-01 |
CN107122713B true CN107122713B (zh) | 2020-07-28 |
Family
ID=59718040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710187970.0A Expired - Fee Related CN107122713B (zh) | 2017-03-27 | 2017-03-27 | 一种基于深度学习的似物性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107122713B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785328B (zh) * | 2017-11-13 | 2023-05-09 | 南京大学 | 一种结合区域合并与深度连通性的似物性估计方法 |
CN108648233B (zh) * | 2018-03-24 | 2022-04-12 | 北京工业大学 | 一种基于深度学习的目标识别与抓取定位方法 |
CN108830183A (zh) * | 2018-05-28 | 2018-11-16 | 广东工业大学 | 一种无人超市的商品管理方法、装置以及系统 |
CN109697464A (zh) * | 2018-12-17 | 2019-04-30 | 环球智达科技(北京)有限公司 | 基于物体检测和特征搜索的精确目标识别的方法及系统 |
CN110796650A (zh) * | 2019-10-29 | 2020-02-14 | 杭州阜博科技有限公司 | 图像质量的评估方法及装置、电子设备、存储介质 |
CN113837171B (zh) * | 2021-11-26 | 2022-02-08 | 成都数之联科技有限公司 | 候选区域提取方法及系统及装置及介质及目标检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751163A (zh) * | 2013-12-27 | 2015-07-01 | 同方威视技术股份有限公司 | 对货物进行自动分类识别的透视检查系统和方法 |
WO2015105239A1 (ko) * | 2014-01-13 | 2015-07-16 | 삼성테크윈 주식회사 | 차량 및 차선 위치 검출 시스템 및 방법 |
CN105930868A (zh) * | 2016-04-20 | 2016-09-07 | 北京航空航天大学 | 一种基于层次化增强学习的低分辨率机场目标检测方法 |
CN106203450A (zh) * | 2016-07-11 | 2016-12-07 | 国家新闻出版广电总局广播科学研究院 | 基于深度学习框架对图像进行特征提取的目标检测方法 |
CN106296728A (zh) * | 2016-07-27 | 2017-01-04 | 昆明理工大学 | 一种基于全卷积网络的非限制场景中运动目标快速分割方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665962B2 (en) * | 2015-07-29 | 2017-05-30 | Adobe Systems Incorporated | Image distractor detection and processng |
-
2017
- 2017-03-27 CN CN201710187970.0A patent/CN107122713B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751163A (zh) * | 2013-12-27 | 2015-07-01 | 同方威视技术股份有限公司 | 对货物进行自动分类识别的透视检查系统和方法 |
WO2015105239A1 (ko) * | 2014-01-13 | 2015-07-16 | 삼성테크윈 주식회사 | 차량 및 차선 위치 검출 시스템 및 방법 |
CN105930868A (zh) * | 2016-04-20 | 2016-09-07 | 北京航空航天大学 | 一种基于层次化增强学习的低分辨率机场目标检测方法 |
CN106203450A (zh) * | 2016-07-11 | 2016-12-07 | 国家新闻出版广电总局广播科学研究院 | 基于深度学习框架对图像进行特征提取的目标检测方法 |
CN106296728A (zh) * | 2016-07-27 | 2017-01-04 | 昆明理工大学 | 一种基于全卷积网络的非限制场景中运动目标快速分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107122713A (zh) | 2017-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107122713B (zh) | 一种基于深度学习的似物性检测方法 | |
US11922615B2 (en) | Information processing device, information processing method, and storage medium | |
CN107123088B (zh) | 一种自动更换证件照背景颜色的方法 | |
EP3633605A1 (en) | Information processing device, information processing method, and program | |
EP3161728B1 (en) | Hierarchical interlinked multi-scale convolutional network for image parsing | |
CN114444558A (zh) | 用于对象识别的神经网络的训练方法及训练装置 | |
CN107424142B (zh) | 一种基于图像显著性检测的焊缝识别方法 | |
CN110866871A (zh) | 文本图像矫正方法、装置、计算机设备及存储介质 | |
CN109657612B (zh) | 一种基于人脸图像特征的质量排序系统及其使用方法 | |
CN105335725A (zh) | 一种基于特征融合的步态识别身份认证方法 | |
US11961203B2 (en) | Image processing device and operation method therefor | |
JP6341650B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN109711268B (zh) | 一种人脸图像筛选方法及设备 | |
CN110969171A (zh) | 基于改进卷积神经网络的图像分类模型、方法及应用 | |
CN104361357B (zh) | 基于图片内容分析的相片集分类系统及分类方法 | |
CN111160194B (zh) | 一种基于多特征融合的静态手势图像识别方法 | |
CN108038486A (zh) | 一种文字检测方法 | |
JP7350208B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN113793301A (zh) | 基于稠密卷积网络模型的眼底影像分析模型的训练方法 | |
CN113902965A (zh) | 一种基于多层特征融合的多光谱行人检测方法 | |
CN109902751B (zh) | 融合卷积神经网络和半字模板匹配的表盘数字字符识别法 | |
CN104268845A (zh) | 极值温差短波红外图像的自适应双局部增强方法 | |
CN110717910B (zh) | 基于卷积神经网络的ct图像目标检测方法及ct扫描仪 | |
CN110443790B (zh) | 一种医学影像中软骨识别方法和识别系统 | |
CN110472639B (zh) | 一种基于显著性先验信息的目标提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200728 |
|
CF01 | Termination of patent right due to non-payment of annual fee |