CN113780199A - 一种双视成像装置和皮带运输异物目标智能识别方法 - Google Patents
一种双视成像装置和皮带运输异物目标智能识别方法 Download PDFInfo
- Publication number
- CN113780199A CN113780199A CN202111080571.7A CN202111080571A CN113780199A CN 113780199 A CN113780199 A CN 113780199A CN 202111080571 A CN202111080571 A CN 202111080571A CN 113780199 A CN113780199 A CN 113780199A
- Authority
- CN
- China
- Prior art keywords
- view
- belt
- imaging
- image
- foreign object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 158
- 208000003164 Diplopia Diseases 0.000 title claims abstract description 19
- 208000029444 double vision Diseases 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000003287 optical effect Effects 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000002329 infrared spectrum Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000002211 ultraviolet spectrum Methods 0.000 claims description 3
- 230000009977 dual effect Effects 0.000 claims 5
- 238000000701 chemical imaging Methods 0.000 abstract description 4
- 238000013136 deep learning model Methods 0.000 abstract description 2
- 230000015572 biosynthetic process Effects 0.000 description 16
- 230000003595 spectral effect Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 239000003245 coal Substances 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000003333 near-infrared imaging Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009776 industrial production Methods 0.000 description 2
- 238000003331 infrared imaging Methods 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000012634 optical imaging Methods 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
本发明公开一种双视成像装置和皮带运输异物目标智能识别方法,通过双视成像技术检出并识别皮带上运输异物,避免因异物运输导致的皮带运输设备故障,保障设备和生产安全。研发了一种适用于皮带运输目标物成像的双视成像装置:包括一组俯视、侧视光谱成像单元,在此基础上提出了俯视‑侧视成像重叠域标定方法,标定俯视‑侧视成像重叠区域。建立双流深度学习模型,对俯视图和侧视图重叠区域中的目标进行识别,检测出异物。
Description
技术领域
本发明涉及一种双视成像装置、皮带运输异物目标智能识别方法,属于机器视觉和模式识别技术领域。
背景技术
目前,皮带运输在工业生产和煤炭、非煤矿业开采中应用极为广泛。需要长时间的连续运行,皮带作为其动力传输和实际接触煤的介质,作用非常大。因此为确保皮带机正常运行,煤矿大都选用价格高昂更高标准的高质量皮带。然而,由于各类生产环节的复杂性,运输物中常掺杂着的自然及非自然的异物,如矸石、钎子、工字钢等,不仅会造成皮带划伤、撕裂,还会严重影响生产效率、产品质量和生产安全。
皮带撕裂、破损现象主要是指由于在主皮带的局部受到一个极度不均匀的作用力,导致皮带纵向撕裂。其主要原因在于:皮带运输过程中存在着一些边角锋利的异物,在运输过程中由于相应的晃动,锋利的边角正对着主皮带发生洞穿和划破从而导致整个皮带的撕裂。
目前,对于金属类的皮带运输异物分拣主要采用加装磁性设备予以实现,设备安装复杂且会增加设备的维护负担。而对于非金属类的异物主要采用人眼观测的方式,人力物力耗费巨大且准确率低。
随着人工智能及机器视觉技术的发展,基于机器视觉的皮带运输异物目标智能识别成为了一种可能。现有的研究业已证明该项技术的可行性。然而,工业生产和煤炭、非煤矿业开采极为复杂的应用场景,如严重的光学衰减和光学噪声,导致现有机器视觉在皮带运输异物目标识别时的准确率低下,难以满足实际应用需要。其本质原因在于:现有机器视觉技术多采用单一视角的光学成像技术,常面临目标遮挡,目标局部信息缺失,目标特征受噪声污染严重等问题,难以获得足够的异物识别特征信息。
发明内容
发明目的:针对现有技术中存在的问题与不足,本发明提供一种双视成像装置和皮带运输异物目标智能识别方法,解决了现有技术中皮带运输异物目标特征不足的问题。首先,通过双视成像技术能够获取俯视和侧视皮带运输目标物成像,以完整获取皮带运输目标物的结构特征。其次,通过俯视红外光谱成像和侧视近紫外光谱成像,能够获取皮带运输目标物的光谱信息,以完整获取皮带运输目标物的光谱特征。通过双流深度学习模型表征并融合皮带运输异物目标的深度特征,充分表征皮带运输异物目标。有效提高了异物目标智能识别的准确率。
技术方案:一种适用于皮带运输目标物成像的双视成像装置,双视成像装置设在皮带的上方包括俯视成像相机和侧视成像相机,俯视成像相机镜头前部安装有近红外滤波片,俯视成像相机和近红外滤波片组成近红外俯视成像相机,侧视成像相机镜头前部安装有近紫外滤波片,侧视成像相机和近紫外滤波片组成近紫外侧视成像相机,近红外俯视成像相机主光轴垂直于皮带平面;近紫外侧视成像相机主光轴正对于皮带,平行于皮带平面,能够同时实现近红外俯视和近紫外侧视成像。其中,俯视成像的主光轴与皮带平面垂直,侧视成像的主光轴与皮带平面平行,俯视成像与侧视成像的主光轴间相互垂直。
双视成像装置布设于传动滚筒一端的皮带位置,近红外俯视成像相机通过三角架焊接至皮带运输机上方,相机主光轴垂直于皮带平面;近紫外侧视成像相机焊接至皮带运输机一侧方,相机主光轴正对于皮带,平行于皮带平面。
这种红外成像与近紫外成像的组合能够有效防止俯视成像信息与侧视成像信息间的互扰:俯视成像采用近红外波段光源、俯视成像相机安装有近红外滤波片;侧视成像采用近紫外波段光源、侧视成像相机安装有近紫外滤波片。俯视、侧视成像光学信息的光谱段具有明显差异,如此,保证俯视成像的光学信息不会被侧视成像传感器捕获,反之侧视成像的光学信息不会被俯视成像传感器捕获。这样保证了光学成像的准确性,有效降低了光学噪声的互扰。此外,多个光谱波段成像设计能够捕获更加丰富的目标光谱信息,有助于提高异物目标识别的准确性。
俯视成像采用近红外成像技术,近红外滤波片的成像波段780nm~1100nm,侧视成像采用近紫外成像技术,近紫外滤波片成像波段300nm-400nm,两个光谱成像装置的主光轴相互垂直。俯视成像装置(镜头最前端)与皮带平面的垂直距离为1m,侧视成像装置(镜头最前端)与皮带外沿的水平距离为1m。
所述皮带上还设有用于对双视成像装置的重叠视域进行标定的平面标定物,标定近红外俯视成像相机和近紫外侧视成像相机成像的重叠部分,称为俯视-侧视成像重叠域。将标定物置于皮带上运输,标定物长度与皮带宽度相同,当标定物同时在双视觉成像视域(近红外俯视成像相机和近紫外侧视成像相机成像的成像视域)中出现时,相应的俯视、侧视视域为俯视-侧视成像重叠域。因仅有俯视-侧视成像重叠域中的目标物能够同时捕获其近红外俯视图和近紫外侧视图。后续识别模型仅识别俯视-侧视成像重叠域中的异物目标。
所述标定物为白色标定物。
一种皮带运输异物目标智能识别方法,基于俯视图和侧视图融合进行皮带运输异物的智能识别,利用学习得到的双流深度网络模型,输入当前俯视-侧视成像重叠域图像,对俯视-侧视成像重叠域图像中的俯视图像和侧视图像进行目标识别,判断是否存在异物目标。
布设双视成像装置获取皮带运输目标近红外俯视、近紫外侧视图像,标定俯视-侧视成像重叠域。以俯视-侧视成像重叠域中的目标为识别对象。
建立双流深度网络模型:所述双流深度网络模型的输入端主要包括两个并行的信息流,上部信息流为俯视-侧视成像重叠域图像中的俯视图像输入信息流,下部信息流为俯视-侧视成像重叠域图像中的侧视图像输入信息流;后经过多层二维深度卷积神经网络(2D-CNN)分别提取俯视图、侧视图的深度特征,所述二维深度卷积神经网络包括三级卷积层(Conv),其中第一、二级卷积层卷积核的大小为3×3,第三级卷积层并行排列1×1、3×3、5×5、7×7大小的四个卷积核,对四个卷积核的输出特征进行拼接(Concatenate)和重构(Reshape),分别提取得到俯视图像和侧视图像的深度特征。采用基于压缩-拼接-激励(SCE)模型对俯视图和侧视图的深度特征进行融合,形成融合特征。随后,由两层全连接层和softmax函数组成分类器,对融合特征进行分类,实现对异物目标进行识别。
双流深度网络模型训练:根据领域应用的需要布置典型异物样本,获取典型异物的俯视-侧视成像重叠域图像中的俯视图像和侧视图像构造面向领域应用的异物样本库,用于双流深度网络模型的训练。每种典型异物获取1000组图像样本,每一组图像样本包含同时获取的一个异物目标的俯视图像和侧视图像,其中异物目标的俯视图像能够表征异物目标近红外光谱信息在垂直方向上的投影信息,其中异物目标的侧视图像能够表征异物目标近紫外光谱信息在水平方向上的投影信息。在模型学习时,学习率采用Adam自适应优化算法实现动态调整,初始值为0.001,当双流深度学习网络模型达到收敛时,训练完毕。
利用学习得到的双流深度网络模型,输入当前俯视-侧视成像重叠域中的目标样本,包括其俯视和侧视图像,对该目标进行识别,若为异物目标输出1,否则输出为0。
附图说明
图1为本发明实施例中成像装置的布设方式;
图2为本发明实施例中双流深度网络模型的结构;
图3为本发明实施例中多层二维深度卷积神经网络结构。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
如图1所示,适用于皮带运输目标物成像的双视成像装置,能够同时实现近红外俯视和近紫外侧视成像。双视成像装置包括俯视成像相机和侧视成像相机,双视成像装置布设于传动滚筒一端的皮带位置,近红外俯视成像相机通过三角架焊接至皮带运输机上方,相机主光轴垂直于皮带平面;近紫外侧视成像相机焊接至皮带运输机一侧方,相机主光轴正对于皮带,平行于皮带;俯视成像相机镜头前部安装有近红外滤波片安装于俯视成像相机镜头前部,俯视成像相机和近红外滤波片组成近红外俯视成像相机,侧视成像相机镜头前部安装有近紫外滤波片安装于侧视成像相机镜头前部,侧视成像相机和近紫外滤波片组成近紫外侧视成像相机,其中,俯视成像的主光轴与皮带平面垂直,侧视成像的主光轴与皮带平面成10°夹角,俯视成像与侧视成像的主光轴间相互垂直。其中俯视成像采用近红外成像技术,侧视成像采用近紫外成像技术,这种红外成像与近紫外成像的组合能够有效防止俯视成像信息与侧视成像信息间的互扰,并且能够获得更加丰富的目标光谱信息。
俯视成像采用近红外成像技术,近红外滤波片的成像波段780nm~1100nm,近紫外滤波片侧视成像采用近紫外成像技术300nm-400nm,两个光谱成像装置的主光轴相互垂直。俯视成像装置(镜头最前端)与皮带平面的垂直距离为1m,侧视成像装置(镜头最前端)与皮带外沿的水平距离为1m。
皮带上还设有用于对双视成像装置的重叠视域进行标定的白色平面标定物,标定近红外俯视成像相机和近紫外侧视成像相机成像的重叠部分,称为俯视-侧视成像重叠域。将白色标定物置于皮带上运输,标定物长度与皮带宽度相同,白色标定物的大小与俯视-侧视成像重叠域的大小相同,当标定物同时在双视觉成像视域(近红外俯视成像相机和近紫外侧视成像相机成像的成像视域)中出现时,相应的俯视、侧视视域为俯视-侧视成像重叠域。因仅有俯视-侧视成像重叠域中的目标物能够同时捕获其近红外俯视图和近紫外侧视图。后续识别模型仅识别俯视-侧视成像重叠域中的异物目标。
如图2所示,应用于双视成像的皮带运输异物目标智能识别的双流深度网络模型。输入端主要包括两个并行的信息流,上部信息流为俯视-侧视成像重叠域图像中的俯视图输入信息流,下部信息流为俯视-侧视成像重叠域图像中的侧视图输入信息流;后经过多层二维深度卷积神经网络分别提取俯视图、侧视图的深度特征,结构如图3所示,具体:该二维深度卷积神经网络包括三级卷积层,其中第一二级卷积层卷积核大小为3×3,第三级卷积层并行排列1×1、3×3、5×5、7×7大小的四个卷积核,对四个卷积核的输出特征进行拼接和重构,分别提取得到俯视图像和侧视图像的深度特征。采用基于压缩-拼接-激励模型对俯视图和侧视图的深度特征进行融合,形成融合特征。随后,由两层全连接层和softmax函数组成分类器,对融合特征进行分类,实现对异物目标进行识别。
皮带运输异物目标智能识别方法,基于俯视图和侧视图融合进行皮带运输异物的智能识别,包括:
一、对双视成像装置的重叠视域标定:标定俯视-侧视成像重叠域。将白色标定物置于皮带上运输,标定物长度与皮带宽度相同,当标定物同时在双视觉成像视域中出现时,近红外俯视成像相机和近紫外侧视成像相机成像的成像视域中相应的俯视、侧视视域为俯视-侧视成像重叠域。获取俯视-侧视成像重叠域的俯视图像和侧视图像,后续识别模型仅识别俯视-侧视成像重叠域中的异物目标。
二、皮带运输目标物体俯视-侧视同时成像:利用近红外俯视成像设备与近紫外侧视成像设备对皮带传输中的目标物同时成像,捕获俯视-侧视成像重叠域中的目标物光谱图像信息。
三、双流深度网络模型训练:根据领域应用的需要布置典型异物样本,获取典型异物的俯视-侧视成像重叠域的俯视图像和侧视图像,构造面向领域应用的异物样本库,用于双流深度网络模型的训练。每种典型异物获取1000组图像样本,每一组图像样本包含同时获取的一个异物目标的俯视图像和侧视图像,其中异物的俯视图像能够表征异物目标近红外光谱信息在垂直方向上的投影信息,其中异物的侧视图像能够表征异物目标近紫外光谱信息在水平方向上的投影信息。在模型学习时,学习率采用Adam自适应优化算法实现动态调整,初始值为0.001,当双流深度学习网络模型达到收敛时,训练完毕。
四、利用学习得到的双流深度网络模型,输入当前俯视-侧视成像重叠域中的目标样本,包括俯视-侧视成像重叠域中目标样本的俯视图像和侧视图像,对该目标进行识别,若为异物目标输出1,否则输出为0。
Claims (9)
1.一种双视成像装置,其特征在于,适用于皮带运输目标物成像;双视成像装置设在皮带的上方,包括俯视成像相机和侧视成像相机;所述俯视成像相机镜头前部安装有近红外滤波片,俯视成像相机和近红外滤波片组成近红外俯视成像相机;所述侧视成像相机镜头前部安装有近紫外滤波片,侧视成像相机和近紫外滤波片组成近紫外侧视成像相机;所述近红外俯视成像相机主光轴垂直于皮带平面;所述近紫外侧视成像相机主光轴正对于皮带,平行于皮带平面,近红外俯视成像相机主光轴与近紫外侧视成像相机主光轴相互垂直。
2.如权利要求1所述的双视成像装置,其特征在于,所述双视成像装置布设于传动滚筒一端的皮带位置,近红外俯视成像相机通过三角架焊接至皮带运输机上方,相机主光轴垂直于皮带平面;近紫外侧视成像相机焊接至皮带运输机一侧方,相机主光轴正对于皮带,平行于皮带平面。
3.如权利要求1所述的双视成像装置,其特征在于,俯视成像相机与皮带平面的垂直距离为1m,侧视成像相机与皮带外沿的水平距离为1m。
4.如权利要求1所述的双视成像装置,其特征在于,所述皮带上还设有用于对双视成像装置的重叠视域进行标定的平面标定物,标定近红外俯视成像相机和近紫外侧视成像相机成像的重叠部分,称为俯视-侧视成像重叠域。
5.如权利要求4所述的双视成像装置,其特征在于,所述标定物长度与皮带宽度相同。
6.如权利要求4所述的双视成像装置,其特征在于,所述标定物为白色标定物。
7.一种皮带运输异物目标智能识别方法,其特征在于,基于俯视图和侧视图融合进行皮带运输异物的智能识别,利用学习得到的双流深度网络模型,输入当前俯视-侧视成像重叠域图像,对俯视-侧视成像重叠域图像中的俯视图像和侧视图像进行目标识别,判断是否存在异物目标。
8.根据权利要求7所述的皮带运输异物目标智能识别方法,其特征在于,所述双流深度网络模型的输入端主要包括两个并行的信息流,上部信息流为俯视-侧视成像重叠域图像中的俯视图像输入信息流,下部信息流为俯视-侧视成像重叠域图像中的侧视图像输入信息流;后经过多层二维深度卷积神经网络分别提取俯视图、侧视图的深度特征,所述二维深度卷积神经网络包括三级卷积层,其中第一、二级卷积层卷积核的大小为3×3,第三级卷积层并行排列1×1、3×3、5×5、7×7大小的四个卷积核,对四个卷积核的输出特征进行拼接和重构,分别提取得到俯视图像和侧视图像的深度特征;采用基于压缩-拼接-激励模型对俯视图和侧视图的深度特征进行融合,形成融合特征;随后,由两层全连接层和softmax函数组成分类器,对融合特征进行分类,实现对异物目标进行识别。
9.根据权利要求7所述的皮带运输异物目标智能识别方法,其特征在于,所述双流深度网络模型训练过程中:根据领域应用的需要布置典型异物样本,获取典型异物的俯视-侧视成像重叠域图像中的俯视图像和侧视图像构造面向领域应用的异物样本库,用于双流深度网络模型的训练;每种典型异物获取多组图像样本,每一组图像样本包含同时获取的一个异物目标的俯视图像和侧视图像,其中异物目标的俯视图像能够表征异物目标近红外光谱信息在垂直方向上的投影信息,其中异物目标的侧视图像能够表征异物目标近紫外光谱信息在水平方向上的投影信息;在模型学习时,学习率采用Adam自适应优化算法实现动态调整,当双流深度学习网络模型达到收敛时,训练完毕;
利用学习得到的双流深度网络模型,输入当前俯视-侧视成像重叠域中的目标样本,包括其俯视和侧视图像,对该目标进行识别,若为异物目标输出1,否则输出为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111080571.7A CN113780199A (zh) | 2021-09-15 | 2021-09-15 | 一种双视成像装置和皮带运输异物目标智能识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111080571.7A CN113780199A (zh) | 2021-09-15 | 2021-09-15 | 一种双视成像装置和皮带运输异物目标智能识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113780199A true CN113780199A (zh) | 2021-12-10 |
Family
ID=78843980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111080571.7A Pending CN113780199A (zh) | 2021-09-15 | 2021-09-15 | 一种双视成像装置和皮带运输异物目标智能识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780199A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101763640A (zh) * | 2009-12-31 | 2010-06-30 | 无锡易斯科电子技术有限公司 | 车载多目摄像机环视系统的在线标定处理方法 |
CN104101608A (zh) * | 2014-07-01 | 2014-10-15 | 南京航空航天大学 | 可对多型号不规则形状产品进行缺陷检测的智能检测装置 |
CN106990109A (zh) * | 2017-03-23 | 2017-07-28 | 中国矿业大学 | 一种基于多摄像头判定的井下皮带异物检测系统及方法 |
CN207908384U (zh) * | 2017-10-13 | 2018-09-25 | 成都精工华耀科技有限公司 | 一种双光谱成像铁轨及扣件异常检测装置 |
CN109230351A (zh) * | 2018-08-30 | 2019-01-18 | 山西精英科技股份有限公司 | 一种皮带输送机运行异常的识别方法 |
CN109271921A (zh) * | 2018-09-12 | 2019-01-25 | 合刃科技(武汉)有限公司 | 一种多光谱成像的智能识别方法及系统 |
CN110110793A (zh) * | 2019-05-10 | 2019-08-09 | 中山大学 | 基于双流卷积神经网络的双目图像快速目标检测方法 |
CN110866505A (zh) * | 2019-11-20 | 2020-03-06 | 沈阳民航东北凯亚有限公司 | 一种行李托运入侵检测方法及装置 |
CN112184553A (zh) * | 2020-09-25 | 2021-01-05 | 西北工业大学 | 一种基于深度先验信息的高光谱图像超分辨率方法 |
CN112712055A (zh) * | 2021-01-14 | 2021-04-27 | 陕西陕煤曹家滩矿业有限公司 | 一种双路可变形cnn煤矿顺槽皮带运输异物监测方法 |
-
2021
- 2021-09-15 CN CN202111080571.7A patent/CN113780199A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101763640A (zh) * | 2009-12-31 | 2010-06-30 | 无锡易斯科电子技术有限公司 | 车载多目摄像机环视系统的在线标定处理方法 |
CN104101608A (zh) * | 2014-07-01 | 2014-10-15 | 南京航空航天大学 | 可对多型号不规则形状产品进行缺陷检测的智能检测装置 |
CN106990109A (zh) * | 2017-03-23 | 2017-07-28 | 中国矿业大学 | 一种基于多摄像头判定的井下皮带异物检测系统及方法 |
CN207908384U (zh) * | 2017-10-13 | 2018-09-25 | 成都精工华耀科技有限公司 | 一种双光谱成像铁轨及扣件异常检测装置 |
CN109230351A (zh) * | 2018-08-30 | 2019-01-18 | 山西精英科技股份有限公司 | 一种皮带输送机运行异常的识别方法 |
CN109271921A (zh) * | 2018-09-12 | 2019-01-25 | 合刃科技(武汉)有限公司 | 一种多光谱成像的智能识别方法及系统 |
CN110110793A (zh) * | 2019-05-10 | 2019-08-09 | 中山大学 | 基于双流卷积神经网络的双目图像快速目标检测方法 |
CN110866505A (zh) * | 2019-11-20 | 2020-03-06 | 沈阳民航东北凯亚有限公司 | 一种行李托运入侵检测方法及装置 |
CN112184553A (zh) * | 2020-09-25 | 2021-01-05 | 西北工业大学 | 一种基于深度先验信息的高光谱图像超分辨率方法 |
CN112712055A (zh) * | 2021-01-14 | 2021-04-27 | 陕西陕煤曹家滩矿业有限公司 | 一种双路可变形cnn煤矿顺槽皮带运输异物监测方法 |
Non-Patent Citations (1)
Title |
---|
高小强;: "智能巡检机器人视频监测皮带异物自动识别报警技术研究", 电子技术与软件工程, no. 11 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ren et al. | State of the art in defect detection based on machine vision | |
Cha et al. | Deep learning‐based crack damage detection using convolutional neural networks | |
Wan et al. | Ceramic tile surface defect detection based on deep learning | |
RU2694021C1 (ru) | Способ и устройство идентификации частей фрагментированного материала в пределах изображения | |
CN111784633B (zh) | 一种面向电力巡检视频的绝缘子缺损自动检测算法 | |
CN113658136B (zh) | 一种基于深度学习的传送带缺陷检测方法 | |
CN111415329A (zh) | 一种基于深度学习的工件表面缺陷检测方法 | |
CN103279765B (zh) | 基于图像匹配的钢丝绳表面损伤检测方法 | |
CN105139397B (zh) | 一种pcb板检测方法及装置 | |
Liu et al. | A computer vision system for automatic steel surface inspection | |
CN109544527B (zh) | 一种基于硬卡编程的玻璃表面缺陷的检测方法及装置 | |
CN109166125A (zh) | 一种基于多边缘融合机制的三维深度图像分割算法 | |
CN104636760A (zh) | 一种焊缝的定位方法 | |
KR102704880B1 (ko) | 딥 러닝 모델에 기반하여 제품의 결함 여부를 유형별로 검사하기 위한 시스템 | |
CN102175692A (zh) | 织物坯布疵点快速检测系统及方法 | |
CN112730454B (zh) | 基于光学、红外热波与超声波融合的复合材料的损伤智能检测方法 | |
CN112977974A (zh) | 烟包外观质量检测装置及其方法、烟包包装机 | |
CN116168270A (zh) | 基于并行深度残差网络的轻量化煤矸石检测模型及方法 | |
KR101822963B1 (ko) | 이진 영상을 이용한 결함 탐지장치 및 방법 | |
CN115908354A (zh) | 一种基于双尺度策略和改进的yolov5网络的光伏面板缺陷检测方法 | |
Chen et al. | SwinTD: Transformer-based detection network for foreign objects in the cut section of tobacco packets | |
KR20230122916A (ko) | 3차원 형태 제품의 표면에 대한 결함을 검출하기 위한 딥 러닝 모델을 생성하기 위한 방법 및 장치 | |
CN111738338A (zh) | 基于级联膨胀fcn网络应用于马达线圈的缺陷检测方法 | |
CN113780199A (zh) | 一种双视成像装置和皮带运输异物目标智能识别方法 | |
CN111915565B (zh) | 一种基于yolact算法对输变电线路瓷瓶裂缝实时分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211210 |
|
RJ01 | Rejection of invention patent application after publication |