CN110378231A - 基于深度学习的螺母识别定位方法 - Google Patents
基于深度学习的螺母识别定位方法 Download PDFInfo
- Publication number
- CN110378231A CN110378231A CN201910532992.5A CN201910532992A CN110378231A CN 110378231 A CN110378231 A CN 110378231A CN 201910532992 A CN201910532992 A CN 201910532992A CN 110378231 A CN110378231 A CN 110378231A
- Authority
- CN
- China
- Prior art keywords
- characteristic pattern
- nut
- anchor frame
- deep learning
- positioning method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 10
- 230000004807 localization Effects 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 4
- 244000138939 Ricinodendron heudelotii Species 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及机械制造技术领域,具体涉及一种基于深度学习的螺母识别定位方法;本发明利用卷积神经网络、区域生成网络与全卷积网络相结合的螺母定位方法。通过对传入图像进行卷积操作得到特征图,通过区域生成网络产生的锚框与原来的特征图结合得到区域的特征图,接着将特征图传入全连接层,得到预测的螺母位置。将区域卷积网络应用于螺母的识别定位,增加特征提取的自适应性以及抗干扰能力,减少识别时间,具有很强的创造性。
Description
技术领域
本发明涉及机械制造技术领域,具体涉及一种基于深度学习的螺母识别定位方法。
背景技术
在现代机械制造业中,零件的识别和测量已成为保证产品质量的一项关键性技术工作。随着自动化程度的提高,传统的人工检测手段已无法满足要求,不仅要耗费大量的人工,效率低下,同时还会增加人为的不可靠因素。有学者提出了一些机器视觉技术尝试解决这些问题,比如综合应用哈夫变换实现螺母识别的算法,该方法以六角螺母的内孔和外部六边形为特征,首先通过目标边缘像素点提取内边界“圆”特征,然后再以内孔定位螺母外部六边形轮廓从而达到识别螺母的目的。然而,此类方法仍有其不足之处。例如,单一的几何特征提取可能导致复杂环境下识别率下降;检测直线或圆的时候对图像的每个像素进行计算,从而增加了计算时间。本发明通过改进区域卷积神经网络,既能增加特征提取的自适应性以及抗干扰能力,又能减少识别时间。
发明内容
针对现有技术的不足,本发明公开了一种基于深度学习的螺母识别定位方法,本发明通过卷积神经网络提取具有广泛学习能力的多层次特征从而能增加特征提取的自适应性以及抗干扰能力。并且通过区域提案网络对螺母进行初次定位,减少识别时间。
本发明通过以下技术方案予以实现:
基于深度学习的螺母识别定位方法,其特征在于,所述定位方法包括以下步骤:
S1用摄像头采集螺母图片作为训练样本,并对螺母的位置进行标注;
S2将采集的螺母图输入图片传入VGG网络中;
S3将训练样本通过卷积核和最大池化操作,得到特征图Ⅴ;
S4将特征图Ⅴ输入到区域提案网络,取分数大于60分的目标结果作为网络输出;
S5将区域提案网络生成的锚框输入到兴趣区域池化层,得到特征图Ⅶ;
S6将特征图Ⅶ经过经过全链接层,生成大小为4的回归框位置的回归特征,由回归特征得到的方框即螺母位置。
优选的,所述S3中包括以下子步骤:
T1使训练样本通过64个3×3×3的卷积核,2×2的最大池化操作,得到64个448×448的特征图Ⅰ;
T2通过128个3×3×64的卷积核,2×2的最大池化操作,生成128个224×224的特征图Ⅱ;
T3特征图Ⅱ先通过256个3×3×128的卷积核,2×2的最大池化操作得到256个112×112的特征图Ⅲ;
T4特征图Ⅲ通过512个3×3×256的卷积核,2×2的最大池化操作得到512个56×56的特征图Ⅳ;
T5特征图Ⅳ通过512个3×3×512的卷积核,2×2的最大池化操作,生成512个28×28的特征图Ⅴ。
优选的,所述S4中,将特征图Ⅴ通过一个3×3×256×256的四维卷积核,得到28×28×256的特征图Ⅵ,设置不同的面积以及长宽比,对特征图Ⅵ的每个像素产生9个不同的锚框。
优选的,再使特征图Ⅵ经过两次1×1的卷积,分别得到18×28×28的特征图和36×28×28的特征图,就是9个结果,每个结果包含2个分数以及4个变换。
优选的,所述的2个分数是我们预测出来的9个锚框的前景、背景概率,在计算损失时,为每个锚框分配一个二值类别标签,给两种锚框分配一个正标签,(i)具有与实际螺母边界框的重叠最高交并比的锚框,(ii)具有与实际螺母边界框的重叠超过0.7的锚框。
优选的,在最后区域卷积神经网络的训练时,使所有锚框的参与训练,利用归一化指数函数得到该锚框的前、背景概率。
优选的,将前景得分较高的锚框作边框回归得到4个变换,记为dx(P),dy(P),dw(P),dh(P),根据公式计算出锚框的平移,再根据公式得到锚框的尺度缩放,并对锚框进行微调,最后对类别分数采用阈值为0.3的非极大值抑制,并仅取分数大于60分的目标结果作为网络输出。
优选的,所述S5中将区域提案网络生成的锚框输入到兴趣区域池化层,根据输入的锚框,将其各个坐标除以输入图片与特征图Ⅴ的大小的比值,得到特征图Ⅴ上的锚框坐标,并将其进行一次量化,得到整数的坐标,最后将锚框映射到特征图Ⅴ的区域分割成数个49相同大小的小区域,取其中最大的像素值输出,得到7×7的特征图Ⅶ。
本发明的有益效果为:
本发明解决现有技术只对单一的几何特征进行提取,导致复杂环境下识别率可能下降;检测直线或圆的时候对图像的每个像素进行计算,从而增加了计算时间的问题。通过卷积神经网络提取具有广泛学习能力的多层次特征从而能增加特征提取的自适应性以及抗干扰能力。并且通过区域提案网络对螺母进行初次定位,减少识别时间,具有很强的创造性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的整体技术方案框架图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例公开了如图1所示的一种基于深度学习的螺母识别定位方法,我们用摄像头采集了200张448×448的螺母图片作为训练样本,并对螺母的位置进行了标注。由于单一类型的图像训练出来的网络模型不能够准确的从复杂图像中分割出螺母位置,我们对图像翻转变换、平移变换等增强方法将数据扩充到1000张,从而让模型减轻对物体出现位置等属性的依赖性。
我们将尺寸为448×448×3的输入图片传入VGG网络中。VGG网络是一个卷积神经网络。卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现。我们使训练样本通过64个3×3×3的卷积核,2×2的最大池化操作,得到64个448×448的特征图Ⅰ。接着通过128个3×3×64的卷积核,2×2的最大池化操作,生成128个224×224的特征图Ⅱ。接着特征图Ⅱ先通过256个3×3×128的卷积核,2×2的最大池化操作得到256个112×112的特征图Ⅲ。特征图Ⅲ通过512个3×3×256的卷积核,2×2的最大池化操作得到512个56×56的特征图Ⅳ,最后特征图Ⅳ通过512个3×3×512的卷积核,2×2的最大池化操作,生成512个28×28的特征图Ⅴ。
将特征图Ⅴ输入到区域提案网络。区域提案网络将任意大小的图像作为输入,并输出一组矩形对象提案,每个提案都有一个对象性得分。我们将特征图Ⅴ通过一个3×3×256×256的四维卷积核,可以得到一个28×28×256的特征图Ⅵ。我们通过设置不同的面积以及长宽比,对特征图Ⅵ的每个像素产生9个不同的锚框,总共产生了7056个锚框,这些操作利用GPU的并行计算能力能够十分省力地完成。我们再使特征图Ⅵ经过两次1×1的卷积,分别得到一个18×28×28的特征图,跟一个36×28×28的特征图,就是9个结果,每个结果包含2个分数以及4个变换。
这2个分数是我们预测出来的9个锚框的前景、背景概率。在计算损失时,我们为每个锚框分配一个二值类别标签,我们给两种锚框分配一个正标签,(i)具有与实际螺母边界框的重叠最高交并比的锚框,或者(ii)具有与实际螺母边界框的重叠超过0.7的锚框,但在最后区域卷积神经网络的训练时,我们使所有锚框的参与训练,最后利用归一化指数函数得到该锚框的前、背景概率。在本申请中,前景即我们的螺母,故而后面不再需要作分类的回归任务。
我们将前景得分较高的锚框作边框回归得到4个变换,我们记为dx(P),dy(P),dw(P),dh(P),根据公式可以计算出锚框的平移,再根据公式得到锚框的尺度缩放,从而我们可以对锚框进行微调。在此之后,我们对类别分数采用阈值为0.3的非极大值抑制,并仅取分数大于60分的目标结果作为网络输出。
将区域提案网络生成的锚框输入到兴趣区域池化层。兴趣区域池化层的作用是为了将锚框映射回原来的特征图,并且池化到统一的大小。我们根据输入的锚框,将其各个坐标除以输入图片与特征图Ⅴ的大小的比值,得到特征图Ⅴ上的锚框坐标。在映射的过程中,得到的坐标往往是浮点数,我们将其进行一次量化,得到整数的坐标。我们将锚框映射到特征图Ⅴ的区域分割成数个49相同大小的小区域,取其中最大的像素值输出,从而得到7×7的特征图Ⅶ。
将特征图Ⅶ经过经过4096大小的全连接层,再经过257大小的全链接层,最后生成大小为4的回归框位置的回归特征,由这四个回归特征得到的方框即螺母位置。
本实施例的技术方案利用卷积神经网络、区域生成网络与全卷积网络相结合的螺母定位方法。通过对传入图像进行卷积操作得到特征图,通过区域生成网络产生的锚框与原来的特征图结合得到区域的特征图,接着将特征图传入全连接层,得到预测的螺母位置。将区域卷积网络应用于螺母的识别定位,增加特征提取的自适应性以及抗干扰能力,减少识别时间。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.基于深度学习的螺母识别定位方法,其特征在于,所述定位方法包括以下步骤:
S1用摄像头采集螺母图片作为训练样本,并对螺母的位置进行标注;
S2将采集的螺母图输入图片传入VGG网络中;
S3将训练样本通过卷积核和最大池化操作,得到特征图Ⅴ;
S4将特征图Ⅴ输入到区域提案网络,取分数大于60分的目标结果作为网络输出;
S5将区域提案网络生成的锚框输入到兴趣区域池化层,得到特征图Ⅶ;
S6将特征图Ⅶ经过经过全链接层,生成大小为4的回归框位置的回归特征,由回归特征得到的方框即螺母位置。
2.根据权利要求1所述的基于深度学习的螺母识别定位方法,其特征在于,所述S3中包括以下子步骤:
T1使训练样本通过64个3×3×3的卷积核,2×2的最大池化操作,得到64个448×448的特征图Ⅰ;
T2通过128个3×3×64的卷积核,2×2的最大池化操作,生成128个224×224的特征图Ⅱ;
T3特征图Ⅱ先通过256个3×3×128的卷积核,2×2的最大池化操作得到256个112×112的特征图Ⅲ;
T4特征图Ⅲ通过512个3×3×256的卷积核,2×2的最大池化操作得到512个56×56的特征图Ⅳ;
T5特征图Ⅳ通过512个3×3×512的卷积核,2×2的最大池化操作,生成512个28×28的特征图Ⅴ。
3.根据权利要求1所述的基于深度学习的螺母识别定位方法,其特征在于,所述S4中,将特征图Ⅴ通过一个3×3×256×256的四维卷积核,得到28×28×256的特征图Ⅵ,设置不同的面积以及长宽比,对特征图Ⅵ的每个像素产生9个不同的锚框。
4.根据权利要求3所述的基于深度学习的螺母识别定位方法,其特征在于,再使特征图Ⅵ经过两次1×1的卷积,分别得到18×28×28的特征图和36×28×28的特征图,就是9个结果,每个结果包含2个分数以及4个变换。
5.根据权利要求4所述的基于深度学习的螺母识别定位方法,其特征在于,所述的2个分数是我们预测出来的9个锚框的前景、背景概率,在计算损失时,为每个锚框分配一个二值类别标签,给两种锚框分配一个正标签,(i)具有与实际螺母边界框的重叠最高交并比的锚框,(ii)具有与实际螺母边界框的重叠超过0.7的锚框。
6.根据权利要求5所述的基于深度学习的螺母识别定位方法,其特征在于,在最后区域卷积神经网络的训练时,使所有锚框的参与训练,利用归一化指数函数得到该锚框的前、背景概率。
7.根据权利要求5所述的基于深度学习的螺母识别定位方法,其特征在于,将前景得分较高的锚框作边框回归得到4个变换,记为dx(P),dy(P),dw(P),dh(P),根据公式计算出锚框的平移,再根据公式得到锚框的尺度缩放,并对锚框进行微调,最后对类别分数采用阈值为0.3的非极大值抑制,并仅取分数大于60分的目标结果作为网络输出。
8.根据权利要求1所述的基于深度学习的螺母识别定位方法,其特征在于,所述S5中将区域提案网络生成的锚框输入到兴趣区域池化层,根据输入的锚框,将其各个坐标除以输入图片与特征图Ⅴ的大小的比值,得到特征图Ⅴ上的锚框坐标,并将其进行一次量化,得到整数的坐标,最后将锚框映射到特征图Ⅴ的区域分割成数个49相同大小的小区域,取其中最大的像素值输出,得到7×7的特征图Ⅶ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910532992.5A CN110378231A (zh) | 2019-06-19 | 2019-06-19 | 基于深度学习的螺母识别定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910532992.5A CN110378231A (zh) | 2019-06-19 | 2019-06-19 | 基于深度学习的螺母识别定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110378231A true CN110378231A (zh) | 2019-10-25 |
Family
ID=68249322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910532992.5A Pending CN110378231A (zh) | 2019-06-19 | 2019-06-19 | 基于深度学习的螺母识别定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110378231A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008503A (zh) * | 2019-12-17 | 2020-04-14 | 中南大学 | 基于rnn序列模型的转向管柱螺母调节角度预测方法 |
CN111127442A (zh) * | 2019-12-26 | 2020-05-08 | 内蒙古科技大学 | 台车轮轴缺陷检测方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596030A (zh) * | 2018-03-20 | 2018-09-28 | 杭州电子科技大学 | 基于Faster R-CNN的声呐目标检测方法 |
CN108614996A (zh) * | 2018-04-04 | 2018-10-02 | 杭州电子科技大学 | 一种基于深度学习的军船、民船自动识别方法 |
CN108647573A (zh) * | 2018-04-04 | 2018-10-12 | 杭州电子科技大学 | 一种基于深度学习的军事目标识别方法 |
CN108805064A (zh) * | 2018-05-31 | 2018-11-13 | 中国农业大学 | 一种基于深度学习的鱼类定位检测和识别方法及系统 |
CN109064514A (zh) * | 2018-07-03 | 2018-12-21 | 北京航空航天大学 | 一种基于投影点坐标回归的六自由度位姿估计算法 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现系统 |
CN109785337A (zh) * | 2018-12-25 | 2019-05-21 | 哈尔滨工程大学 | 一种基于实例分割算法的栏内哺乳动物清点方法 |
-
2019
- 2019-06-19 CN CN201910532992.5A patent/CN110378231A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596030A (zh) * | 2018-03-20 | 2018-09-28 | 杭州电子科技大学 | 基于Faster R-CNN的声呐目标检测方法 |
CN108614996A (zh) * | 2018-04-04 | 2018-10-02 | 杭州电子科技大学 | 一种基于深度学习的军船、民船自动识别方法 |
CN108647573A (zh) * | 2018-04-04 | 2018-10-12 | 杭州电子科技大学 | 一种基于深度学习的军事目标识别方法 |
CN108805064A (zh) * | 2018-05-31 | 2018-11-13 | 中国农业大学 | 一种基于深度学习的鱼类定位检测和识别方法及系统 |
CN109064514A (zh) * | 2018-07-03 | 2018-12-21 | 北京航空航天大学 | 一种基于投影点坐标回归的六自由度位姿估计算法 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现系统 |
CN109785337A (zh) * | 2018-12-25 | 2019-05-21 | 哈尔滨工程大学 | 一种基于实例分割算法的栏内哺乳动物清点方法 |
Non-Patent Citations (4)
Title |
---|
晋博: "基于卷积神经网络的工业生产线零部件检测", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
晋博: "基于卷积神经网络的工业生产线零部件检测", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 01, 15 January 2019 (2019-01-15), pages 138 - 4070 * |
杜学丹等: "一种基于深度学习的机械臂抓取方法", 《机器人》, vol. 39, no. 6, pages 821 - 837 * |
郭之先: "基于深度卷积神经网络的小目标检测", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 08, pages 138 - 849 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008503A (zh) * | 2019-12-17 | 2020-04-14 | 中南大学 | 基于rnn序列模型的转向管柱螺母调节角度预测方法 |
CN111008503B (zh) * | 2019-12-17 | 2022-05-17 | 中南大学 | 基于rnn序列模型的转向管柱螺母调节角度预测方法 |
CN111127442A (zh) * | 2019-12-26 | 2020-05-08 | 内蒙古科技大学 | 台车轮轴缺陷检测方法和装置 |
CN111127442B (zh) * | 2019-12-26 | 2023-05-02 | 内蒙古科技大学 | 台车轮轴缺陷检测方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tao et al. | Smoke detection based on deep convolutional neural networks | |
CN109840521B (zh) | 一种基于深度学习的一体化车牌识别方法 | |
CN109145872B (zh) | 一种基于CFAR与Fast-RCNN融合的SAR图像舰船目标检测方法 | |
WO2019101221A1 (zh) | 一种基于场景多维特征的船只检测方法及系统 | |
CN104392463B (zh) | 一种基于联合稀疏多尺度融合的图像显著区域检测方法 | |
CN110717896B (zh) | 基于显著性标签信息传播模型的板带钢表面缺陷检测方法 | |
Duan et al. | Detecting small objects using a channel-aware deconvolutional network | |
CN102496023B (zh) | 像素层面的感兴趣区域提取方法 | |
CN108268859A (zh) | 一种基于深度学习的人脸表情识别方法 | |
CN107808376B (zh) | 一种基于深度学习的举手检测方法 | |
CN108171752A (zh) | 一种基于深度学习的海面船只视频检测与跟踪方法 | |
CN106529578A (zh) | 一种基于深度学习的车辆品牌型号精细识别方法与系统 | |
CN107680090A (zh) | 基于改进全卷积神经网络的输电线路绝缘子状态识别方法 | |
CN105740891B (zh) | 基于多层次特征提取和上下文模型的目标检测 | |
CN106127196A (zh) | 基于动态纹理特征的人脸表情的分类与识别方法 | |
CN111553837A (zh) | 一种基于神经风格迁移的艺术文本图像生成方法 | |
CN113255837A (zh) | 工业环境下基于改进的CenterNet网络目标检测方法 | |
CN110378231A (zh) | 基于深度学习的螺母识别定位方法 | |
CN108664994A (zh) | 一种遥感图像处理模型构建系统和方法 | |
CN113705371A (zh) | 一种水上视觉场景分割方法及装置 | |
CN106650798A (zh) | 一种结合深度学习与稀疏表示的室内场景识别方法 | |
Ueda et al. | AR food changer using deep learning and cross-modal effects | |
CN112800968B (zh) | 一种基于hog分块的特征直方图融合对饮水区域猪的身份识别办法 | |
CN110852335B (zh) | 一种基于多颜色特征融合与深度网络的目标跟踪系统 | |
CN117079125A (zh) | 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20191025 |
|
WD01 | Invention patent application deemed withdrawn after publication |