CN110895707A - 一种强遮挡条件下洗衣机内衣物类型的深度判别方法 - Google Patents

一种强遮挡条件下洗衣机内衣物类型的深度判别方法 Download PDF

Info

Publication number
CN110895707A
CN110895707A CN201911196183.8A CN201911196183A CN110895707A CN 110895707 A CN110895707 A CN 110895707A CN 201911196183 A CN201911196183 A CN 201911196183A CN 110895707 A CN110895707 A CN 110895707A
Authority
CN
China
Prior art keywords
fusion
roi
clothes
type
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911196183.8A
Other languages
English (en)
Other versions
CN110895707B (zh
Inventor
化春键
陈莹
凌艳
潘志浩
沈家峻
钱春俊
李祥明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN201911196183.8A priority Critical patent/CN110895707B/zh
Publication of CN110895707A publication Critical patent/CN110895707A/zh
Application granted granted Critical
Publication of CN110895707B publication Critical patent/CN110895707B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B40/00Technologies aiming at improving the efficiency of home appliances, e.g. induction cooking or efficient technologies for refrigerators, freezers or dish washers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种强遮挡条件下洗衣机内衣物类型的深度判别方法,属于智能制造及人工智能技术领域。本发明通过设计一个基于图像的目标检测网络完成洗衣机内衣物类型的检测,且针对洗衣机内衣物存在强遮挡的情况,提出一种基于双向多尺度融合的区域生成网络,通过多尺度特征的正向与方向融合,实现不同层特征间的信息交流,提高检测网络对目标尺度变化的适应性。

Description

一种强遮挡条件下洗衣机内衣物类型的深度判别方法
技术领域
本发明涉及一种强遮挡条件下洗衣机内衣物类型的深度判别方法,属于智能制造及人工智能技术领域。
背景技术
传统洗衣机不具有“慧眼”功能,洗衣者需要人为根据已知衣物类型,通过自身经验值设置洗衣模式;恩智浦半导体在德国纽伦堡举行的全球嵌入式系统展会上展出其采用了RFID和NFC技术的智能洗衣机演示机型,洗衣机可以从内置RFID标签的钮扣中读取有关织物纤维类型及颜色等信息,优化洗涤程序,但该项技术需要对衣物进行改造;深圳大学曾磐等人(曾磐.基于深度学习的智能洗衣机系统构建[D].深圳大学,2017.)在洗衣机内部放置一个高清摄像头,通过该摄像头采集到待洗衣物的图像,将问题转化成图像分割和纹理图像分类领域的问题,通过设计一个基于卷积神经网络的图像分割算法和纹理图像分类算法,得出洗衣机内部衣物量和衣物的材质信息;但该方案需设计两个深度卷积神经网络,分别为图像分割网络和图像分类网络,且衣物为人为规则摆放,并非在洗衣机内环境下各类衣物相互遮挡的自然状态。
发明内容
为了解决上述至少一个问题,本发明利用洗衣机内拍摄的图片,将其转化为目标检测问题,通过对传统目标检测网络Faster-R-CNN做出改进,提供了一种强遮挡条件下洗衣机内衣物类型的深度判别方法。
本发明主要是通过设计一个基于图像的目标检测网络完成洗衣机内衣物类型的检测,且针对洗衣机内衣物存在强遮挡的情况,提出一种基于双向多尺度融合的区域生成网络,通过多尺度特征的正向与方向融合,实现不同层特征间的信息交流,提高检测网络对目标尺度变化的适应性。
本发明能在各种类型衣物混合、相互遮挡的洗衣环境下完成桶内衣物类型的精确判别。
本发明的第一个目的是提供了一种强遮挡条件下洗衣机内衣物类型的深度判别方法,操作步骤如下:
S01:训练基于双向多尺度融合区域生成网络的目标检测网络(BMS-R-CNN);
S02:将测试衣物图片输入BMS-R-CNN,得到测试图片中衣物类型检测结果。
在一种实施方式中,所述的衣物类型为毛衣、衬衫、羽绒服、牛仔、文胸和户外服中的一种或几种。
可选的,所述的检测方式具体为:
S01:在现有目标检测网络Fast-R-CNN的基础上,设计基于双向多尺度融合的区域生成网络(BMS-RPN)代替原区域生成网络(RPN),使用训练衣物数据{(Ik,yk)}k=1,2,...,M对目标检测网络进行端到端训练,获得基于双向多尺度融合区域生成网络的目标检测网络(BMS-R-CNN),其中(Ik,yk)为第k个衣物样本的图像及标定数据,Ik为第k个图像样本,yk={[ci,xi,yi,wi,hi]}i=1,2,..,T为第k个样本的标定数据,T为该样本中目标的个数,[ci,xi,yi,wi,hi]表示该样本中第i个目标的类型以及在图像中的位置,xi,yi为该目标框的左上角坐标,wi,hi为该目标框的宽和高,M为训练图像个数;
S02:将测试衣物图像{Jt}t=1,2,...,N作为输入送入训练好的BMS-R-CNN,其中N为训练图像个数,通过BMS-RPN后得到多尺度下的候选区域ROI,经ROI池化后再通过Faster-RCNN的定位回归及类型识别模块,计算每个ROI内目标的所属类别及ROI的位置偏移量,即得到了测试衣物图片中各类型衣物的定位框及类型判别结果。
可选的,所述步骤S01(双向多尺度融合)包括:
(1)在Faster-R-CNN的基础上,将去掉平均池化和全连接层的ResNet-101作为特征提取网络,将训练集图像{(Ik,yk)}k=1,2,...,M输入其中,然后分别利用核大小为3×3、通道数为64的卷积运算,从最大池化层和第二到第五阶段中最后一个卷积层提取原始特征{Fi}i∈{1,2,3,4,5}
(2)将{Fi}i∈{1,2,3,4,5}送入双向多尺度融合模块,获得双向多尺度融合特征{Gi}i∈{1,2,3,4,5}
(3)将{Gi}i∈{1,2,3,4,5}送入各自的RPN生成候选感兴趣区域(Region of Interest,ROI),再通过ROI池化将特征变成统一大小,送入Faster-RCNN的定位回归及类型识别模块;
(4)Faster-RCNN的定位回归及类型识别模块利用已经获得的ROI特征图,经过9层卷积层、1层全连接层与softmax计算每个ROI中的目标具体属于哪个类别,输出类别概率向量,同时再次利用边界框回归获得每个ROI的位置偏移量;根据每个ROI的类别概率向量和位置偏移量建立网络损失函数,通过端对端的方式对网络进行训练。
可选的,所述的步骤(4)所述的Faster-R-CNN具体操作来源于文献(Ren S,He K,Girshick R,et al.Faster R-CNN:Towards Real-Time Object Detection with RegionProposal Networks[J].2017.)。
可选的,所述步骤S01第(2)步中双向多尺度融合模块的具体构建方法为:
(1)构建正向融合特征,计算方式为:
Figure BDA0002293397100000031
其中,Fi,Fi+1分别表示i和i+1层的原始特征,Fi p表示i层获得高层信息的融合特征,Conv(·)表示卷积运算,Cat(·)表示将输入特征图在通道维度上级联运算,Up(·)表示双线性插值上采样运算。对前四级别原始特征,首先将Fi+1上采样为Fi的尺度,然后将两者级联起来,经过核大小为3×3,通道数为64的卷积运算得到Fi p;P表示正向。
(2)构建反向融合特征,计算方式为:
Figure BDA0002293397100000032
其中,Fi n表示i层获得低层信息的融合特征,Down(·)表示双线性插值下采样运算,对后四层原始特征,首先将Fi-1下采样为Fi的尺度,然后将两者级联起来,经过核大小为3×3、通道数为64的卷积运算得到Fi n;n表示反向;
(3)将原始特征Fi、正向融合特征Fi p和反向融合特征Fi n在通道维度上级联得到双向融合特征Gi,即双向融合模块的输出。
本发明的第二个目的是本发明所述的检测方法在检测洗衣机内衣物类型中的应用。
本发明的有益效果:
(1)本发明通过设计一个基于图像的目标检测网络完成洗衣机内衣物类型的判别,且针对洗衣机内衣物存在强遮挡的情况,提出了基于双向多尺度融合的区域生成网络能实现不同层特征间的信息交流,提高检测网络对目标尺度变化的适应性。
(2)单件衣物的检测准确率达到99.85%以上,多件单类衣服的检测准确率达到99.7%以上,两类衣物的检测准确率达到96.13%以上,三类衣服的检测准确率达到97.45%以上,四类衣物的检测准确率达到96.5%以上。
附图说明
图1为本发明所提供的一种强遮挡条件下洗衣机内衣物类型深度判别网络的训练及测试流程示意图。
图2为本发明所提供的基于双向多尺度融合区域生成网络的目标检测网络框架图。
图3为本发明所提供的一种强遮挡条件下洗衣机内衣物类型深度判别网络的检测结果示例图。
具体实施方式
下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本发明的保护范围之内。
实施例1
如图1所示,为本发明所提供的一种强遮挡条件下洗衣机内衣物类型的深度判别方法的流程示意图。
一种强遮挡条件下洗衣机内衣物类型的深度判别方法,其包括以下部分:
S01:在现有目标检测网络Fast-R-CNN的基础上,设计基于双向多尺度融合的区域生成网络(BMS-RPN)代替原区域生成网络(RPN),使用训练衣物数据{(Ik,yk)}k=1,2,...,M对目标检测网络进行端到端训练,获得基于双向多尺度融合区域生成网络的目标检测网络(BMS-R-CNN),其中(Ik,yk)为第k个衣物样本的图像及标定数据,Ik为第k个图像样本,yk={[ci,xi,yi,wi,hi]}i=1,2,..,T为第k个样本的标定数据,T为该样本中目标的个数,[ci,xi,yi,wi,hi]表示该样本中第i个目标的类型以及在图像中的位置,xi,yi为该目标框的左上角坐标,wi,hi为该目标框的宽和高,M为训练图像个数。
如图2所示:所述步骤S01具体包括:
(1)在Faster-R-CNN的基础上,将去掉平均池化和全连接层的ResNet-101作为特征提取网络,将训练集图像{(Ik,yk)}k=1,2,...,M输入其中,然后分别利用核大小为3×3、通道数为64的卷积运算,从最大池化层和第二到第五阶段中最后一个卷积层提取原始特征{Fi}i∈{1,2,3,4,5}
(2)将{Fi}i∈{1,2,3,4,5}送入双向多尺度融合模块,获得双向多尺度融合特征{Gi}i∈{1,2,3,4,5}
(3)将{Gi}i∈{1,2,3,4,5}送入各自的RPN生成候选感兴趣区域ROI,再通过ROI池化将特征变成统一大小,送入Faster-RCNN的定位回归及类型识别模块;
(4)Faster-RCNN的定位回归及类型识别模块利用已经获得的ROI特征图,经过9层卷积层、1层全连接层与softmax计算每个ROI中的目标具体属于哪个类别,输出类别概率向量,同时再次利用边界框回归获得每个ROI的位置偏移量;根据每个ROI的类别概率向量和位置偏移量建立网络损失函数,通过端对端的方式对网络进行训练。
其中,步骤S01第(2)步中双向多尺度融合模块的具体构建方法为:
(1)构建正向融合特征,计算方式为:
Figure BDA0002293397100000051
其中,Fi,Fi+1分别表示i和i+1层的原始特征,Fi p表示i层获得高层信息的融合特征,Conv(·)表示卷积运算,Cat(·)表示将输入特征图在通道维度上级联运算,Up(·)表示双线性插值上采样运算。对前四级别原始特征,首先将Fi+1上采样为Fi的尺度,然后将两者级联起来,经过核大小为3×3,通道数为64的卷积运算得到Fi p;P代表正向。
(2)构建反向融合特征,计算方式为:
Figure BDA0002293397100000052
其中,Fi n表示i层获得低层信息的融合特征,Down(·)表示双线性插值下采样运算,对后四层原始特征,首先将Fi-1下采样为Fi的尺度,然后将两者级联起来,经过核大小为3×3、通道数为64的卷积运算得到Fi n;n为反向。
(3)将原始特征Fi、正向融合特征Fi p和反向融合特征Fi n在通道维度上级联得到双向融合特征Gi,即双向融合模块的输出。
S02:将测试衣物图像{Jt}t=1,2,...,N作为输入送入训练好的BMS-R-CNN,其中N为训练图像个数,通过BMS-RPN后得到多尺度下的候选区域ROI,经ROI池化后再通过Faster-RCNN的定位回归及类型识别模块,计算每个ROI内目标的所属类别及ROI的位置偏移量,即得到了测试衣物图片中各类型衣物的定位框及类型判别结果。检测结果示例如图3所示。
在检测阶段,输入一幅如图3第1列所示的洗衣机内摄像头拍摄的衣物图片,经S01输出的衣物类型检测深度网络,得到图片中衣物的定位及其类型信息,如图3第2列所示。
收集6种衣物(包括毛衣、衬衫、羽绒服、牛仔、文胸和户外服),每种衣物选择不同花色或不同材质的10件衣服,按不同的组合放入洗衣机桶内。洗衣机内设有提供滚筒转动的控制系统(每次旋转120度),滚筒暂停期间,控制系统为桶内安置的摄像头提供触发信号(每旋转120度提供一个触发信号)。共拍摄了300000张不同时段、不同衣物组合的图片,其中选择260000张用于训练,其余40000张用于测试。部分衣物组合及测试准确率如表1所示。
表1部分检测结果统计表
衣物组合类型 图像数量 正确判断数量 错误判断数量 准确率
单件衣物 674 673 1 99.85%
多件单类衣物 1023 1020 3 99.70%
衬衫+毛衣 1512 1495 17 99.67%
衬衫+内衣 1486 1434 52 96.53%
衬衫+牛仔 1678 1650 28 98.33%
毛衣+羽绒服 1109 1086 23 97.93%
毛衣+户外服 1474 1439 35 97.67%
户外服+羽绒服 1295 1245 50 96.13%
牛仔+户外服 1348 1315 33 97.53%
牛仔+羽绒服 1794 1745 49 97.27%
内衣+衬衫+牛仔 1974 1941 33 98.35%
衬衫+牛仔+户外服 2045 1993 52 97.45%
牛仔+户外服+羽绒服 2156 2103 53 97.55%
毛衣+衬衫+牛仔+内衣 2386 2302 84 96.50%
从表1可以看出:单件衣物的检测准确率达到99.85%以上,多件单类衣服的检测准确率达到99.7%以上,两类衣物的检测准确率达到96.13%以上,三类衣服的检测准确率达到97.45%以上,四类衣物的检测准确率达到96.5%以上。
虽然本发明已以较佳实施例公开如上,但其并非用以限定本发明,任何熟悉此技术的人,在不脱离本发明的精神和范围内,都可做各种的改动与修饰,因此本发明的保护范围应该以权利要求书所界定的为准。

Claims (10)

1.一种强遮挡条件下洗衣机内衣物类型的深度判别方法,其特征在于,所述方法包括具体操作步骤如下:
S01:训练基于双向多尺度融合区域生成网络的目标检测网络BMS-R-CNN;
S02:将测试衣物图片输入BMS-R-CNN,得到测试图片中衣物类型检测结果。
2.根据权利要求1所述的方法,其特征在于,所述的衣物类型为毛衣、衬衫、羽绒服、牛仔、文胸或户外服中的一种或几种。
3.根据权利要求1所述的方法,其特征在于,步骤S01具体为:在现有目标检测网络Fast-R-CNN的基础上,设计基于双向多尺度融合的区域生成网络(BMS-RPN)代替原区域生成网络RPN,使用训练衣物数据{(Ik,yk)}k=1,2,...,M对目标检测网络进行端到端训练,获得基于双向多尺度融合区域生成网络的目标检测网络BMS-R-CNN,其中(Ik,yk)为第k个衣物样本的图像及标定数据,Ik为第k个图像样本,yk={[ci,xi,yi,wi,hi]}i=1,2,..,T为第k个样本的标定数据,T为该样本中目标的个数,[ci,xi,yi,wi,hi]表示该样本中第i个目标的类型以及在图像中的位置,xi,yi为该目标框的左上角坐标,wi,hi为该目标框的宽和高,M为训练图像个数。
4.根据权利要求1所述的方法,其特征在于,步骤S02具体为:将测试衣物图像{Jt}t=1,2,...,N作为输入送入训练好的BMS-R-CNN,其中N为训练图像个数,通过BMS-RPN后得到多尺度下的候选区域ROI,经ROI池化后再通过Faster-RCNN的定位回归及类型识别模块,计算每个ROI内目标的所属类别及ROI的位置偏移量,即得到了测试衣物图片中各类型衣物的定位框及类型判别结果。
5.根据权利要求1所述的方法,其特征在于,所述的步骤S01包括:
(1)在Faster-R-CNN的基础上,将去掉平均池化和全连接层的ResNet-101作为特征提取网络,将训练集图像{(Ik,yk)}k=1,2,...,M输入其中,然后分别利用核大小为3×3、通道数为64的卷积运算,从最大池化层和第二到第五阶段中最后一个卷积层提取原始特征{Fi}i∈{1,2,3,4,5}
(2)将{Fi}i∈{1,2,3,4,5}送入双向多尺度融合模块,获得双向多尺度融合特征{Gi}i∈{1,2,3,4,5}
(3)将{Gi}i∈{1,2,3,4,5}送入各自的RPN生成候选感兴趣区域ROI,再通过ROI池化将特征变成统一大小,送入Faster-RCNN的定位回归及类型识别模块;
(4)Faster-RCNN的定位回归及类型识别模块利用已经获得的ROI特征图,经过9层卷积层、1层全连接层与softmax计算每个ROI中的目标具体属于哪个类别,输出类别概率向量,同时再次利用边界框回归获得每个ROI的位置偏移量;根据每个ROI的类别概率向量和位置偏移量建立网络损失函数,通过端对端的方式对网络进行训练。
6.根据权利要求5所述的方法,其特征在于,所述步骤S01第(2)步中双向多尺度融合模块的具体构建方法为:(1)构建正向融合特征;(2)构建反向融合特征,(3)将原始特征、正向融合特征和反向融合特征在通道维度上级联得到双向融合特征,即双向融合模块的输出。
7.根据权利要求6所述的方法,其特征在于,所述的(1)构建正向融合特征的计算方式为:
Figure FDA0002293397090000021
其中,Fi,Fi+1分别表示i和i+1层的原始特征,Fi p表示i层获得高层信息的融合特征,Conv(·)表示卷积运算,Cat(·)表示将输入特征图在通道维度上级联运算,Up(·)表示双线性插值上采样运算;对前四级别原始特征,首先将Fi+1上采样为Fi的尺度,然后将两者级联起来,经过核大小为3×3,通道数为64的卷积运算得到Fi p;P表示正向。
8.根据权利要求6所述的方法,其特征在于,所述的(2)构建反向融合特征的计算方式为:
Figure FDA0002293397090000022
其中,Fi n表示i层获得低层信息的融合特征,Down(·)表示双线性插值下采样运算,对后四层原始特征,首先将Fi-1下采样为Fi的尺度,然后将两者级联起来,经过核大小为3×3、通道数为64的卷积运算得到Fi n;n表示反向。
9.根据权利要求6所述的方法,其特征在于,所述的步骤(3)具体为:将原始特征Fi、正向融合特征Fi p和反向融合特征Fi n在通道维度上级联得到双向融合特征Gi,即双向融合模块的输出。
10.权利要求1-9所述的方法在在检测洗衣机内衣物类型中的应用。
CN201911196183.8A 2019-11-28 2019-11-28 一种强遮挡条件下洗衣机内衣物类型的深度判别方法 Active CN110895707B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911196183.8A CN110895707B (zh) 2019-11-28 2019-11-28 一种强遮挡条件下洗衣机内衣物类型的深度判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911196183.8A CN110895707B (zh) 2019-11-28 2019-11-28 一种强遮挡条件下洗衣机内衣物类型的深度判别方法

Publications (2)

Publication Number Publication Date
CN110895707A true CN110895707A (zh) 2020-03-20
CN110895707B CN110895707B (zh) 2023-06-20

Family

ID=69788718

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911196183.8A Active CN110895707B (zh) 2019-11-28 2019-11-28 一种强遮挡条件下洗衣机内衣物类型的深度判别方法

Country Status (1)

Country Link
CN (1) CN110895707B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598141A (zh) * 2020-04-26 2020-08-28 月亮小屋(中国)有限公司 模型训练方法、衣物洗涤方法、系统、装置和介质
CN113705359A (zh) * 2021-08-03 2021-11-26 江南大学 一种基于洗衣机滚筒图像的多尺度衣物检测系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427912A (zh) * 2018-02-05 2018-08-21 西安电子科技大学 基于稠密目标特征学习的光学遥感图像目标检测方法
CN108509978A (zh) * 2018-02-28 2018-09-07 中南大学 基于cnn的多级特征融合的多类目标检测方法及模型
CN109885718A (zh) * 2019-02-28 2019-06-14 江南大学 一种基于深度车贴检测的嫌疑车辆检索方法
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
CN110321867A (zh) * 2019-07-09 2019-10-11 西安电子科技大学 基于部件约束网络的遮挡目标检测方法
CN110348437A (zh) * 2019-06-27 2019-10-18 电子科技大学 一种基于弱监督学习与遮挡感知的目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427912A (zh) * 2018-02-05 2018-08-21 西安电子科技大学 基于稠密目标特征学习的光学遥感图像目标检测方法
CN108509978A (zh) * 2018-02-28 2018-09-07 中南大学 基于cnn的多级特征融合的多类目标检测方法及模型
CN109885718A (zh) * 2019-02-28 2019-06-14 江南大学 一种基于深度车贴检测的嫌疑车辆检索方法
CN110348437A (zh) * 2019-06-27 2019-10-18 电子科技大学 一种基于弱监督学习与遮挡感知的目标检测方法
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
CN110321867A (zh) * 2019-07-09 2019-10-11 西安电子科技大学 基于部件约束网络的遮挡目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
凌艳,陈莹: "多尺度上下文信息增强的显著目标检测全卷积网络" *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598141A (zh) * 2020-04-26 2020-08-28 月亮小屋(中国)有限公司 模型训练方法、衣物洗涤方法、系统、装置和介质
CN113705359A (zh) * 2021-08-03 2021-11-26 江南大学 一种基于洗衣机滚筒图像的多尺度衣物检测系统及方法
CN113705359B (zh) * 2021-08-03 2024-05-03 江南大学 一种基于洗衣机滚筒图像的多尺度衣物检测系统及方法

Also Published As

Publication number Publication date
CN110895707B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
Bai et al. A fuzzy clustering segmentation method based on neighborhood grayscale information for defining cucumber leaf spot disease images
CN104978762B (zh) 服装三维模型生成方法及系统
CN105335725B (zh) 一种基于特征融合的步态识别身份认证方法
Xian et al. A benchmark for breast ultrasound image segmentation (BUSIS)
CN106446894B (zh) 一种基于轮廓识别球型目标物位置的方法
CN107424142A (zh) 一种基于图像显著性检测的焊缝识别方法
CN111882546B (zh) 基于弱监督学习的三分支卷积网络织物疵点检测方法
CN107230203A (zh) 基于人眼视觉注意机制的铸件缺陷识别方法
CN108648211A (zh) 一种基于深度学习的小目标检测方法、装置、设备和介质
CN110647906A (zh) 基于Faster R-CNN方法的服饰目标检测方法
CN110895707B (zh) 一种强遮挡条件下洗衣机内衣物类型的深度判别方法
CN102663733B (zh) 基于特征组对的特征点匹配方法
Song et al. Automatic lung nodule segmentation and intra-nodular heterogeneity image generation
CN108664986A (zh) 基于lp范数正则化的多任务学习图像分类方法及系统
Wang et al. A contour self-compensated network for salient object detection
CN104866853A (zh) 一种足球比赛视频中的多运动员的行为特征提取方法
CN109857878A (zh) 物品标注方法及装置、电子设备及存储介质
US11157765B2 (en) Method and system for determining physical characteristics of objects
EP3997670A1 (en) Methods of estimating a bare body shape from a concealed scan of the body
Guo et al. Multi-scale pulmonary nodule detection by fusion of cascade R-CNN and FPN
Kulwa et al. Segmentation of weakly visible environmental microorganism images using pair-wise deep learning features
CN107358244B (zh) 一种快速局部不变特征提取与描述方法
CN111861984A (zh) 一种确定肺部区域的方法及装置、计算机设备及存储介质
Taghizadeh et al. The fast and accurate approach to detection and segmentation of melanoma skin cancer using fine-tuned YOLOV3 and SegNet based on deep transfer learning
CN107862701B (zh) 基于马尔科夫随机场和混合核函数的遥感图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant