CN104778464A - 一种基于深度卷积神经网络的服装定位检测方法 - Google Patents
一种基于深度卷积神经网络的服装定位检测方法 Download PDFInfo
- Publication number
- CN104778464A CN104778464A CN201510221552.XA CN201510221552A CN104778464A CN 104778464 A CN104778464 A CN 104778464A CN 201510221552 A CN201510221552 A CN 201510221552A CN 104778464 A CN104778464 A CN 104778464A
- Authority
- CN
- China
- Prior art keywords
- size
- region
- following
- seg
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度卷积神经网络的服装定位检测方法,属于图像处理、计算机视觉分析技术领域。该方法通过在输入图像中,合理选取待检测区域ROI;然后,利用深度卷积神经网络对待检测区域进行特征提取;最后,采用LibSVM分类器对所有特征向量进行判断。本发明提供的一种基于深度卷积神经网络的服装定位检测方法能够对待检测图像中服装的进行检测并给出精确定位,可实现智能试、换服装。
Description
技术领域
本发明属于图像处理、计算机视觉分析技术领域,涉及一种基于深度卷积神经网络的服装定位检测方法。
背景技术
服装检测系统已成为图像处理、计算机视觉分析领域的新兴应用方向,对服装检测的研究,是智能形象设计的一项关键技术,此技术通过对待检测图像中服装的检测并给出精确定位提示,可实现智能试、换服装,有着巨大的市场应用价值和社会意义。
现阶段国内外诸多国家围绕深度学习神经网络展开了研究,但将此技术应用到服装检测领域的例子还甚少。深度神经网络普遍存在由于待检测ROI区域数量过多而导致的时效性较差问题,以及对于提取特征的方法选取不当,从而极大的束缚了精确度的问题,也都有待于提出更好的解决方案。
发明内容
有鉴于此,本发明的目的在于提供一种基于深度卷积神经网络的服装定位检测方法,能够对待检测图像中服装的进行检测并给出精确定位提示,可实现智能试、换服装。
为达到上述目的,本发明提供如下技术方案:
一种基于深度卷积神经网络的服装定位检测方法,该方法包括以下步骤:
步骤1:在输入图像中,选取待检测区域ROI;
步骤2:利用深度卷积神经网络对待检测区域进行特征提取,得到每一个分割区域rect的特征向量;
步骤3:采用LibSVM分类器对所有特征向量进行判断,选出最后检测结果。
进一步,所述步骤1选取待检测区域ROI,具体包括以下步骤:
定义区域内间距为,
其中,ω(e)表示相邻两点之间权值,E表示区域内所有的边;
定义区域间间距为,
其中,R表示区域,p表示像素点,E为边的集合;然后执行以下步骤:
步骤1.1:初始化区域;初始化过程的输入为一个有n个像素和m条边的图Img,输出为分割区域rect的集合;
步骤1.2:相似性计算;找出相似性最大的区域max(S)={ri,rj};
步骤1.3:区域合并。
进一步,所述步骤1.1初始化区域具体包括以下步骤:
步骤1.1.1:将边按照权重值以降序排列,边的权重值为对应两个像素点像素值差值的绝对值;
ω(pi,pj)=|I(pi)-I(pj)|,
其中,I(pi)和I(pi)分别表示点pi和pj的像素值;
步骤1.1.2:设分割记为Seg(0),即每个像素自成一个区域;
步骤1.1.3:令k=1;按照以下的方式由Seg(k-1)构造Seg(k);
第k条边连接的两个节点为pi和pj,如果在Seg(k-1)中pi和pj是分别属于两个区域并且第k条边的权重小于两个区域的区域内间距,则合并这两个区域;否则令Seg(k)=Seg(k-1);
MIn(R1,R2)=min(In(R1)+τ(R1),In(R2)+τ(R2)),
τ(R)=k/|R|,|R|表示区域R的大小;
步骤1.1.4:令k=k+1,重复步骤1.1.3,直至k=m;
步骤1.1.5:返回Seg(m)即为所求分割区域rect的集合。
进一步,所述步骤1.2相似性计算,包括以下几个方面的相似性计算:
步骤1.2.1:通过以下公式计算颜色相似性:
其中,n表示输入图片的颜色直方图区间数目,c为对应区间向量,
步骤1.2.2:通过以下公式计算纹理相似性:
其中,纹理特征为提取HOG特征,n表示区间数,是所取的bin数与颜色通道数两者的乘积,t为对应区间向量;
步骤1.2.3:通过以下公式计算小区域相似性:
其中,size(Img)表示整张输入图片的像素个数;
步骤1.2.4:通过以下公式计算重合区域相似性:
其中,size(BBij)为包含ri,rj两个区域的最小外接矩形。
进一步,所述步骤1.3区域合并,具体包括以下步骤:
步骤1.3.1:定义合并区域rt=ri∪rj,
size(rt)=size(ri)+size(rj),
其中,Ct为将区域ri,rj合并后,区域rt的颜色直方图分布;
步骤1.3.2:从S集合中,移走所有与ri,rj相关的数据,s(ri,r*),s(r*,rj);
步骤1.3.3:计算新集合rt与所有与它相邻区域的相似性s(rt,r*);
步骤1.3.4:R=R∪rt;重复步骤1.3.2至步骤1.3.4步骤,直到S集合空为止。
进一步,所述步骤2具体包括以下步骤:
步骤2.1:卷积运算:
g(x,y)=f(x,y)*c(u,v)+ε(b),
其中,ε(b)为bias参数,f为原图,c为卷积核;
步骤2.2:池化过程:
首先对相邻的四个像素求和,通过标量W加权,再增加偏置b,然后通过sigmoid激活函数,产生缩小的特征映射图P;
步骤2.3:重复步骤2.1~2.2;直到特征图变为1*1维,进行全连接,最终得到每一个分割区域rect的特征向量。
进一步,所述步骤3具体包括以下步骤:
步骤3.1:LibSVM判断:
采用线性核函数进行计算,公式如下所示:
g(x)=W·f(x)+b,
其中,W为SVM判别模型,f为特征向量,g为计算所得分数;
步骤3.2:选取MAX:
计算出所有检测框的分值后,选取得分最高的一个分割区域rect,作为最终检测结果,输出到原图上。
本发明的有益效果在于:本发明提供的一种基于深度卷积神经网络的服装定位检测方法,为现有的传统试衣、换衣模式提出新的解决方案。
传统的方法如sliding window限制了步长,以固定的滑动窗口,从上至下,从左至右地遍历整幅图片,因此得到的预检测ROI框数量很多。本发明所述的方法在输入图像中,通过合理选取待检测区域ROI,在进行区域合并,所述检测区域ROI的数量较少,从而解决了待检测ROI区域数量过多而导致的时效性较差问题;很大程度上减低了预检测框的数量,缩短预检测时间,提升了效率。在对待检测区域进行合并时,对于初始化区域的相似性度量,采用相较于SIFT特征更倾向于边缘梯度特征的提取方法,以优化检测精度。
再利用深度卷积神经网络对待检测区域进行特征提取,提高了特征提取的精确度;该方法能够对待检测图像中服装的进行检测并给出精确定位提示,可实现智能试、换服装,有着巨大的市场应用价值。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为本发明所述方法的流程图;
图2为实施例中的待检测图片;
图3为实施例中的待检测区域;
图4为实施例中的提取待检测区域特征;
图5为实施例中的检测结果。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
本发明提供的一种基于深度卷积神经网络的服装定位检测方法,如图1所示,该方法包括以下步骤:
步骤1:在输入图像中,选取待检测区域ROI;
定义区域内间距为,
即区域中权重最大的边的权重值;其中,ω(e)表示相邻两点之间权值,E表示区域内所有的边;
定义区域间间距如下:
即在所有分别属于两个区域且相邻的点对中,寻找权重最小的点对;其中,R表示区域,p表示像素点,E为边的集合;然后执行以下步骤:
步骤1.1:初始化区域;输入检测图片,如图2所示;初始化过程的输入为一个有n个像素和m条边的图Img,输出为分割区域rect的集合;
步骤1.1.1:将边按照权重值以降序排列,只要两个像素相邻,则认为他们之间有边连接;边的权重值为对应两个像素点像素值差值的绝对值;
ω(pi,pj)=|I(pi)-I(pj)|,
其中,I(pi)和I(pi)分别表示点pi和pj的像素值;
步骤1.1.2:设分割记为Seg(0),即每个像素自成一个区域;
步骤1.1.3:令k=1;按照以下的方式由Seg(k-1)构造Seg(k);
即第k条边连接的两个节点为pi和pj,如果在Seg(k-1)中pi和pj是分别属于两个区域并且第k条边的权重小于两个区域的区域内间距,则合并这两个区域;否则令Seg(k)=Seg(k-1);
MIn(R1,R2)=min(In(R1)+τ(R1),In(R2)+τ(R2)),
MIn(R1,R2)表示选取R1和R2两个区域中区域内间距较小的那一个;τ(R)=k/|R|,|R|表示区域R的大小。
当初始化时,区域R即是单一的像素点,所有像素都是“零容忍”只有像素值完全一样才能合并,自然会导致过分割。所以应该给每个像素点设定一个可以容忍的范围,τ(R)用于限定两个区域在多大程度上相似才合并。
步骤1.1.4:令k=k+1,重复步骤1.1.3,直至k=m。
步骤1.1.5:返回Seg(m)即为所求分割区域rect的集合。
步骤1.2:相似性计算;找出相似性最大的区域max(S)={ri,rj};
步骤1.2.1:通过以下公式计算颜色相似性:
其中,n表示输入图片的颜色直方图区间数目,c为对应区间向量,
步骤1.2.2:通过以下公式计算纹理相似性:
其中,纹理特征为提取HOG特征,n表示区间数,是所取的bin数与颜色通道数两者的乘积,t为对应区间向量。
步骤1.2.3:通过以下公式计算小区域相似性:
其中,size(Img)表示整张输入图片的像素个数。
步骤1.2.4:通过以下公式计算重合区域相似性:
其中,size(BBij)为包含ri,rj两个区域的最小外接矩形。
步骤1.3:区域合并。
所述步骤1.3区域合并,具体包括以下步骤:
步骤1.3.1:定义合并区域rt=ri∪rj,
size(rt)=size(ri)+size(rj),
其中,Ct为将区域ri,rj合并后,区域rt的颜色直方图分布;
步骤1.3.2:从S集合中,移走所有与ri,rj相关的数据,s(ri,r*),s(r*,rj);
步骤1.3.3:计算新集合rt与所有与它相邻区域的相似性s(rt,r*);
步骤1.3.4:R=R∪rt;
重复步骤1.3.2至步骤1.3.4步骤,直到S集合空为止。实施例中部分合并结果如图3所示。
步骤2:利用深度卷积神经网络对待检测区域进行特征提取,得到每一个分割区域rect的特征向量;
上一步中提取出的集合R,即为待检测区rect,下面对每一个rect利用深度卷积神经网络(DCNN)提取特征。
步骤2.1:卷积运算:
g(x,y)=f(x,y)*c(u,v)+ε(b),
其中,ε(b)为bias参数,f为原图,c为卷积核;
实验输入图片统一尺寸到224*224大小,卷积核大小为5*5像素,采用7层卷积神经网络,步长为4,由于采用权值共享策略,因此第一层卷积每个Feature map的可训练参数为26个,连接数为44*44*25=48400个,之后每层以此类推。
步骤2.2:池化过程:
首先对相邻的四个像素求和,通过标量W加权,再增加偏置b,然后通过一个sigmoid激活函数,产生一个大概缩小四倍的特征映射图P;
步骤2.3:重复步骤2.1~2.2;直到特征图变为1*1维,进行全连接,最终得到每一个rect的特征向量。提取的部分特征如图4所示。
步骤3:采用LibSVM分类器对所有特征向量进行判断,选出最后检测结果。
对上一步得到的所有特征向量进行判断,寻求最优答案,并输出结果。
步骤3.1:LibSVM判断
采用线性核函数进行计算,公式如下所示:
g(x)=W·f(x)+b,
其中,W为SVM判别模型,f为特征向量,g为计算所得分数;
步骤3.2:选取MAX
计算出所有检测框的分值后,选取得分最高的一个分割区域rect,作为最终检测结果,输出到原图上。检测结果如图5所示。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (7)
1.一种基于深度卷积神经网络的服装定位检测方法,其特征在于:该方法包括以下步骤:
步骤1:在输入图像中,选取待检测区域ROI;
步骤2:利用深度卷积神经网络对待检测区域进行特征提取,得到每一个分割区域rect的特征向量;
步骤3:采用LibSVM分类器对所有特征向量进行判断,选出最后检测结果。
2.根据权利要求1所述的一种基于深度卷积神经网络的服装定位检测方法,其特征在于:
所述步骤1选取待检测区域ROI,具体包括以下步骤:
定义区域内间距为,
其中,ω(e)表示相邻两点之间权值,E表示区域内所有的边;
定义区域间间距为,
其中,R表示区域,p表示像素点,E为边的集合;然后执行以下步骤:
步骤1.1:初始化区域;初始化过程的输入为一个有n个像素和m条边的图Img,输出为分割区域rect的集合;
步骤1.2:相似性计算;找出相似性最大的区域max(S)={ri,rj};
步骤1.3:区域合并。
3.根据权利要求2所述的一种基于深度卷积神经网络的服装定位检测方法,其特征在于:所述步骤1.1初始化区域具体包括以下步骤:
步骤1.1.1:将边按照权重值以降序排列,边的权重值为对应两个像素点像素值差值的绝对值;
ω(pi,pj)=|I(pi)-I(pj)|,
其中,I(pi)和I(pi)分别表示点pi和pj的像素值;
步骤1.1.2:设分割记为Seg(0),即每个像素自成一个区域;
步骤1.1.3:令k=1;按照以下的方式由Seg(k-1)构造Seg(k);
第k条边连接的两个节点为pi和pj,如果在Seg(k-1)中pi和pj是分别属于两个区域并且第k条边的权重小于两个区域的区域内间距,则合并这两个区域;否则令Seg(k)=Seg(k-1);
MIn(R1,R2)=min(In(R1)+τ(R1),In(R2)+τ(R2)),
τ(R)=k/|R|,|R|表示区域R的大小;
步骤1.1.4:令k=k+1,重复步骤1.1.3,直至k=m;
步骤1.1.5:返回Seg(m)即为所求分割区域rect的集合。
4.根据权利要求2所述的一种基于深度卷积神经网络的服装定位检测方法,其特征在于:
所述步骤1.2相似性计算,包括以下几个方面的相似性计算:
步骤1.2.1:通过以下公式计算颜色相似性:
其中,n表示输入图片的颜色直方图区间数目,c为对应区间向量,
步骤1.2.2:通过以下公式计算纹理相似性:
其中,纹理特征为提取HOG特征,n表示区间数,是所取的bin数与颜色通道数两者的乘积,t为对应区间向量;
步骤1.2.3:通过以下公式计算小区域相似性:
其中,size(Img)表示整张输入图片的像素个数;
步骤1.2.4:通过以下公式计算重合区域相似性:
其中,size(BBij)为包含ri,rj两个区域的最小外接矩形。
5.根据权利要求2所述的一种基于深度卷积神经网络的服装定位检测方法,其特征在于:
所述步骤1.3区域合并,具体包括以下步骤:
步骤1.3.1:定义合并区域rt=ri∪rj,
size(rt)=size(ri)+size(rj),
其中,Ct为将区域ri,rj合并后,区域rt的颜色直方图分布;
步骤1.3.2:从S集合中,移走所有与ri,rj相关的数据,s(ri,r*),s(r*,rj);
步骤1.3.3:计算新集合rt与所有与它相邻区域的相似性s(rt,r*);
步骤1.3.4:R=R∪rt;重复步骤1.3.2至步骤1.3.4步骤,直到S集合空为止。
6.根据权利要求1所述的一种基于深度卷积神经网络的服装定位检测方法,其特征在于:
所述步骤2具体包括以下步骤:
步骤2.1:卷积运算:
g(x,y)=f(x,y)*c(u,v)+ε(b),
其中,ε(b)为bias参数,f为原图,c为卷积核;
步骤2.2:池化过程:
首先对相邻的四个像素求和,通过标量W加权,再增加偏置b,然后通过sigmoid激活函数,产生缩小的特征映射图P;
步骤2.3:重复步骤2.1~2.2;直到特征图变为1*1维,进行全连接,最终得到每一个分割区域rect的特征向量。
7.根据权利要求1所述的一种基于深度卷积神经网络的服装定位检测方法,其特征在于:
所述步骤3具体包括以下步骤:
步骤3.1:LibSVM判断:
采用线性核函数进行计算,公式如下所示:
g(x)=W·f(x)+b,
其中,W为SVM判别模型,f为特征向量,g为计算所得分数;
步骤3.2:选取MAX:
计算出所有检测框的分值后,选取得分最高的一个分割区域rect,作为最终检测结果,输出到原图上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510221552.XA CN104778464B (zh) | 2015-05-04 | 2015-05-04 | 一种基于深度卷积神经网络的服装定位检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510221552.XA CN104778464B (zh) | 2015-05-04 | 2015-05-04 | 一种基于深度卷积神经网络的服装定位检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104778464A true CN104778464A (zh) | 2015-07-15 |
CN104778464B CN104778464B (zh) | 2018-06-05 |
Family
ID=53619917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510221552.XA Expired - Fee Related CN104778464B (zh) | 2015-05-04 | 2015-05-04 | 一种基于深度卷积神经网络的服装定位检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104778464B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105117739A (zh) * | 2015-07-29 | 2015-12-02 | 南京信息工程大学 | 一种基于卷积神经网络的服装分类方法 |
CN105260747A (zh) * | 2015-09-30 | 2016-01-20 | 广东工业大学 | 基于衣物共现信息与多任务学习的衣物识别方法 |
CN105426455A (zh) * | 2015-11-12 | 2016-03-23 | 中国科学院重庆绿色智能技术研究院 | 基于图片处理来对衣服进行分类管理的方法和装置 |
CN105447529A (zh) * | 2015-12-30 | 2016-03-30 | 商汤集团有限公司 | 一种服饰检测及其属性值识别的方法和系统 |
CN105589798A (zh) * | 2015-12-10 | 2016-05-18 | 小米科技有限责任公司 | 征信值计算方法及装置 |
CN105844289A (zh) * | 2016-03-17 | 2016-08-10 | 湖南大学 | 一种汽车充电接口识别方法 |
CN106021603A (zh) * | 2016-06-20 | 2016-10-12 | 昆明理工大学 | 一种基于分割和特征匹配的服装图像检索方法 |
CN106296587A (zh) * | 2016-08-19 | 2017-01-04 | 广东工业大学 | 轮胎模具图像的拼接方法 |
CN106355244A (zh) * | 2016-08-30 | 2017-01-25 | 深圳市诺比邻科技有限公司 | 卷积神经网络的构建方法及系统 |
CN106407891A (zh) * | 2016-08-26 | 2017-02-15 | 东方网力科技股份有限公司 | 基于卷积神经网络的目标匹配方法及装置 |
CN107578439A (zh) * | 2017-07-19 | 2018-01-12 | 阿里巴巴集团控股有限公司 | 生成目标图像的方法、装置及设备 |
CN107576022A (zh) * | 2017-09-12 | 2018-01-12 | 广东美的制冷设备有限公司 | 空调器的控制方法、空调器、及存储介质 |
CN107683469A (zh) * | 2015-12-30 | 2018-02-09 | 中国科学院深圳先进技术研究院 | 一种基于深度学习的产品分类方法及装置 |
CN108229288A (zh) * | 2017-06-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络训练及衣服颜色检测方法、装置、存储介质、电子设备 |
CN108960029A (zh) * | 2018-03-23 | 2018-12-07 | 北京交通大学 | 一种行人分心行为检测方法 |
CN110168477A (zh) * | 2016-11-15 | 2019-08-23 | 奇跃公司 | 用于长方体检测的深度学习系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521565A (zh) * | 2011-11-23 | 2012-06-27 | 浙江晨鹰科技有限公司 | 低分辨率视频的服装识别方法及系统 |
CN104504055A (zh) * | 2014-12-19 | 2015-04-08 | 常州飞寻视讯信息科技有限公司 | 基于图像相似度的商品相似计算方法及商品推荐系统 |
-
2015
- 2015-05-04 CN CN201510221552.XA patent/CN104778464B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521565A (zh) * | 2011-11-23 | 2012-06-27 | 浙江晨鹰科技有限公司 | 低分辨率视频的服装识别方法及系统 |
CN104504055A (zh) * | 2014-12-19 | 2015-04-08 | 常州飞寻视讯信息科技有限公司 | 基于图像相似度的商品相似计算方法及商品推荐系统 |
Non-Patent Citations (2)
Title |
---|
J.R.R UIJLINGS等: "Selective Search for Object Recognition", 《TECHNICAL REPORT 2012》 * |
PEDRO F.FELZENSZWALB等: "Efficient Graph-Based Image Segmentation", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105117739A (zh) * | 2015-07-29 | 2015-12-02 | 南京信息工程大学 | 一种基于卷积神经网络的服装分类方法 |
CN105260747A (zh) * | 2015-09-30 | 2016-01-20 | 广东工业大学 | 基于衣物共现信息与多任务学习的衣物识别方法 |
CN105260747B (zh) * | 2015-09-30 | 2019-07-23 | 广东工业大学 | 基于衣物共现信息与多任务学习的衣物识别方法 |
CN105426455A (zh) * | 2015-11-12 | 2016-03-23 | 中国科学院重庆绿色智能技术研究院 | 基于图片处理来对衣服进行分类管理的方法和装置 |
CN105426455B (zh) * | 2015-11-12 | 2019-07-12 | 中国科学院重庆绿色智能技术研究院 | 基于图片处理来对衣服进行分类管理的方法和装置 |
CN105589798A (zh) * | 2015-12-10 | 2016-05-18 | 小米科技有限责任公司 | 征信值计算方法及装置 |
CN107683469A (zh) * | 2015-12-30 | 2018-02-09 | 中国科学院深圳先进技术研究院 | 一种基于深度学习的产品分类方法及装置 |
CN105447529A (zh) * | 2015-12-30 | 2016-03-30 | 商汤集团有限公司 | 一种服饰检测及其属性值识别的方法和系统 |
CN105447529B (zh) * | 2015-12-30 | 2020-11-03 | 商汤集团有限公司 | 一种服饰检测及其属性值识别的方法和系统 |
CN105844289A (zh) * | 2016-03-17 | 2016-08-10 | 湖南大学 | 一种汽车充电接口识别方法 |
CN106021603A (zh) * | 2016-06-20 | 2016-10-12 | 昆明理工大学 | 一种基于分割和特征匹配的服装图像检索方法 |
CN106296587B (zh) * | 2016-08-19 | 2020-03-06 | 广东工业大学 | 轮胎模具图像的拼接方法 |
CN106296587A (zh) * | 2016-08-19 | 2017-01-04 | 广东工业大学 | 轮胎模具图像的拼接方法 |
CN106407891B (zh) * | 2016-08-26 | 2019-06-28 | 东方网力科技股份有限公司 | 基于卷积神经网络的目标匹配方法及装置 |
WO2018036146A1 (zh) * | 2016-08-26 | 2018-03-01 | 东方网力科技股份有限公司 | 基于卷积神经网络的目标匹配方法、装置及存储介质 |
CN106407891A (zh) * | 2016-08-26 | 2017-02-15 | 东方网力科技股份有限公司 | 基于卷积神经网络的目标匹配方法及装置 |
CN106355244B (zh) * | 2016-08-30 | 2019-08-13 | 深圳市诺比邻科技有限公司 | 卷积神经网络的构建方法及系统 |
CN106355244A (zh) * | 2016-08-30 | 2017-01-25 | 深圳市诺比邻科技有限公司 | 卷积神经网络的构建方法及系统 |
US11797860B2 (en) | 2016-11-15 | 2023-10-24 | Magic Leap, Inc. | Deep learning system for cuboid detection |
CN110168477B (zh) * | 2016-11-15 | 2022-07-08 | 奇跃公司 | 用于长方体检测的深度学习系统 |
CN110168477A (zh) * | 2016-11-15 | 2019-08-23 | 奇跃公司 | 用于长方体检测的深度学习系统 |
CN108229288B (zh) * | 2017-06-23 | 2020-08-11 | 北京市商汤科技开发有限公司 | 神经网络训练及衣服颜色检测方法、装置、存储介质、电子设备 |
CN108229288A (zh) * | 2017-06-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络训练及衣服颜色检测方法、装置、存储介质、电子设备 |
CN107578439B (zh) * | 2017-07-19 | 2020-04-28 | 创新先进技术有限公司 | 生成目标图像的方法、装置及设备 |
CN107578439A (zh) * | 2017-07-19 | 2018-01-12 | 阿里巴巴集团控股有限公司 | 生成目标图像的方法、装置及设备 |
CN107576022B (zh) * | 2017-09-12 | 2020-12-11 | 广东美的制冷设备有限公司 | 空调器的控制方法、空调器、及存储介质 |
CN107576022A (zh) * | 2017-09-12 | 2018-01-12 | 广东美的制冷设备有限公司 | 空调器的控制方法、空调器、及存储介质 |
CN108960029A (zh) * | 2018-03-23 | 2018-12-07 | 北京交通大学 | 一种行人分心行为检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104778464B (zh) | 2018-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104778464A (zh) | 一种基于深度卷积神经网络的服装定位检测方法 | |
Maas et al. | Using pattern recognition to automatically localize reflection hyperbolas in data from ground penetrating radar | |
Bai et al. | A fuzzy clustering segmentation method based on neighborhood grayscale information for defining cucumber leaf spot disease images | |
CN104966085B (zh) | 一种基于多显著特征融合的遥感图像感兴趣区域检测方法 | |
CN103810503A (zh) | 一种基于深度学习的自然图像中显著区域的检测方法 | |
CN108564565A (zh) | 一种基于深度学习的电力设备红外图像多目标定位方法 | |
CN105512684A (zh) | 基于主成分分析卷积神经网络的车标自动识别方法 | |
CN105046197A (zh) | 基于聚类的多模板行人检测方法 | |
CN104866524A (zh) | 一种商品图像精细分类方法 | |
CN104408711B (zh) | 一种基于多尺度区域融合的显著区域检测方法 | |
CN109558806A (zh) | 高分遥感图像变化的检测方法和系统 | |
CN102254319A (zh) | 一种多层次分割的遥感影像变化检测方法 | |
CN107545571A (zh) | 一种图像检测方法及装置 | |
CN108537239A (zh) | 一种图像显著性目标检测的方法 | |
CN107369158A (zh) | 基于rgb‑d图像的室内场景布局估计及目标区域提取方法 | |
CN104966285A (zh) | 一种显著性区域的检测方法 | |
CN108108669A (zh) | 一种基于显著子区域的面部特征解析方法 | |
Xu et al. | A semantic segmentation method with category boundary for Land Use and Land Cover (LULC) mapping of Very-High Resolution (VHR) remote sensing image | |
Zhang et al. | Salient region detection for complex background images using integrated features | |
CN107977948A (zh) | 一种面向社群图像的显著图融合方法 | |
CN103279944A (zh) | 一种基于生物地理优化的图像分割方法 | |
CN106874917A (zh) | 一种基于Harris角点的显著性目标检测方法 | |
Yang et al. | GTFN: GCN and transformer fusion with spatial-spectral features for hyperspectral image classification | |
CN104778683B (zh) | 一种基于泛函映射的多模态图像分割方法 | |
Wu et al. | Hyperspectral image classification based on adaptive segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180605 Termination date: 20210504 |