CN114722914A - 基于双目视觉和语义分割网络的大田环境障碍物检测方法 - Google Patents
基于双目视觉和语义分割网络的大田环境障碍物检测方法 Download PDFInfo
- Publication number
- CN114722914A CN114722914A CN202210266564.4A CN202210266564A CN114722914A CN 114722914 A CN114722914 A CN 114722914A CN 202210266564 A CN202210266564 A CN 202210266564A CN 114722914 A CN114722914 A CN 114722914A
- Authority
- CN
- China
- Prior art keywords
- obstacle
- semantic segmentation
- image
- key information
- binocular vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 43
- 230000007613 environmental effect Effects 0.000 title claims abstract description 16
- 238000000034 method Methods 0.000 title claims abstract description 12
- 230000004888 barrier function Effects 0.000 title claims description 18
- 238000001514 detection method Methods 0.000 claims abstract description 26
- 238000011176 pooling Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 17
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 1
- 239000011800 void material Substances 0.000 abstract description 3
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于双目视觉和语义分割网络的大田环境障碍物检测方法,其特征在于,首先构建一种基于DeepLabV3+模型的改进模型,使用轻量化网络MobileNetV2作为网络主干,用来提取图像特征,可以减少语义分割网络的计算量和运算时间;采用改进的ASPP(空洞空间卷积金字塔池化)代替原有的ASPP。利用改进的DeepLabV3+网络对障碍物进行识别检测,精准地分割出障碍物在图像中的像素区域,再利用水平扫描法找到障碍物轮廓关键信息点。将关键信息点在图像中的二维坐标结合双目视觉相机提供的深度图,得到关键信息点的深度信息,对关键信息点的深度信息进行加权平均得到障碍物的距离。该方法可以检测出障碍物轮廓边缘关键信息点与双目视觉传感器之间的距离,提高障碍物的检测精度。
Description
技术领域
本发明属于障碍物检测技术领域,具体涉及基于双目视觉和语义分割网络的大田环境障碍物检测方法。
背景技术
现今,我国正面临着传统农业的生产与现代化机械农业相互转化的重要阶段,为了加速农业机械化的不断深化转型,要求切实依据我国农业机械化现阶段的情况,积极提高农业的发展水平,加深基础性农作物的机械化生产。随着对农业相关领域的不断重视,如今我国的农业机械化的成绩十分显著,但是由于农业机械制造能力和农业部分不匹配的情况出现,使得农业机械化程度未曾达到预期目标。农业机械的生产与制造的完备性与发达国家还存有一定的差距,所以当前我国农业机械制造还需要不断结合农业的实际情况,做出调整与改革。
在科技高速发展的今天,农业机械化已向着农业机械自动化转型,不可避免的自然涉及到农田障碍物的识别检测;现目前的障碍物检测技术多存在以下不足:
超声波检测技术受障碍物表面情况影响导致障碍是准确率下降,激光雷达检测技术成本太高暂时无法普及应用,传统的极其视觉和图像处理算法,在大田环境中容易受到环境光干扰,导致障碍物检测不准。
因此,需要一种障碍物检测稳定性更高、适应性更强的图像处理算法。
发明内容
为了解决上述技术问题,本发明提供了基于双目视觉和语义分割网络的大田环境障碍物检测方法。
为了达到解决上述技术问题的技术效果,本发明是通过以下技术方案实现的:基于双目视觉和语义分割网络的大田环境障碍物检测方法,其特征在于,包括以下步骤:
S1:构建大田环境下的多种障碍物类别的数据集;
S2:在PyTorch深度学习框架上搭建DeeplabV3+语义分割模型,其中主干网络使用裁剪后的MobilenetV2:保留MobilenetV2的第一个卷积层和前14个倒置残差模块(Block),将第3个Block后输出的特征图作为浅层特征,将第14个Block后输出的特征图作为深层特征,去除MobilenetV2之后的Block模块、池化层、卷积层;同时将ASPP模块的其中3个3*3空洞卷积改为深度可分离空洞卷积,将原来的扩张率6、12、18,改为6、10、14。
S3:通过步骤1中的数据集对S2中建立的DeepLabV3+语义分割模型进行训练;
S4:采用双目立体摄像头拍摄大田场景图像,并将该图像输入至DeepLabV3+的语义分割模型进行识别,得到障碍物的分割图像,其中该背景的像素值为0,障碍物的区域像素值为非零区域,扫描分割图像,识别像素值,得到障碍物在图像中轮廓关键信息点坐标;
S5:使用张正友标定法对S4中的双目立体摄像头的左摄像头和右摄像头分别进行标定,并借助Matlab工具箱中CameraCalibration工具采集左右摄像头分别拍摄的标定板图片,获取经标定后的双目摄像头的左摄像头图像和右摄像头图像,再通过SGBM立体匹配算法得到左摄像头的视差图,通过视差与深度的转换公式计算出左摄像头的深度图像,于深度图像中轮廓关键信息点坐标的深度值的加权平均值作为障碍物的距离,从而获得障碍物的距离信息。
进一步的,所述S1采用双目立体摄像头拍摄并存储不同环境场景下的农业作业场景视频图像,按照特定的帧数抽取图片,按照4:1:1的比例划分为训练集、测试集和验证集;对干扰农机正常作业的障碍物进行标注,并制作成数据集;
进一步的,所述干扰农机的障碍物包括人、机;
进一步的,所述S3中采取多分类交叉熵损失函数对建立的模型进行训练,其函数如下:
M——类别数量
yic——指示变量(0或1),如果该类别和样本i的类别相同就是1,否则是0
pic——对于观测样本i属于类别c的预测概率
进一步的,所述S4分割后的图像中,背景的像素值为0,障碍物的区域像素值为非零区域;对该图像进行扫描,分割出的障碍物区域分为轮廓左侧关键信息点和轮廓右侧关键信息点;
如果某两个相邻的位置的像素从0变化为非零值,为障碍物的左侧轮廓关键信息点,像素值由非零值变化为0,为障碍物的右侧轮廓关键信息点,其计算函数如下:
m——障碍物轮廓关键信息点数量
k——分割障碍物区域在图像中占据的像素行数
l——行扫描间隔的像素行数
进一步的,所述S5中的视差与深度的公式转换:
z--深度图
f--归一化的焦距
b--左摄像头光心和右摄像头光心之间的距离
d--视差值
本发明的有益效果是:
1、本法发明将构建的DeepLabV3+语义分割模型在Pascal VOC2012数据集上进行分类训练以得到预训练模型,对得到的预训练模型进行迁移学习可以减少在大田环境下障碍分类的数据集下训练消耗的时间;
2、本发明将DeepLaV3+模型中的主干网络替换为轻量化网络MobileNetV2网络用来特征提取,采用改进的ASPP,在保证分割效果的基础上,大量减少了模型的参数量,降低了模型对显存的要求;
3、本发明改进后的DeeplabV3+模型更利于在移动设备或嵌入式上部署,能够部署在农业机械上,通过双目摄像头在大田环境下对行人等障碍物进行检测并分割,达到实时性要求。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是基于双目视觉和语义分割网络的大田环境障碍物检测方法的流程图;
图2是基于双目视觉和语义分割网络的大田环境障碍物检测方法改进后的DeeplabV3+网络结构图。
图3是基于双目视觉和语义分割网络的大田环境障碍物检测方法的MobileNetV2主干网络结构图;
图4是基于双目视觉和语义分割网络的大田环境障碍物检测方法改进后的ASPP.
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
参阅图1至图2所示,基于双目视觉和语义分割网络的大田环境障碍物检测方法,其特征在于,包括以下步骤:
步骤1:构建大田环境下的多种障碍物类别的数据集;采用zed摄像头拍摄并存储不同环境场景下的农业作业场景视频图像,按照特定的帧数抽取图片,按照4:1:1的比例划分为训练集、测试集和验证集;对干扰农机正常作业的障碍物人、机等进行标注,并制作成数据集;
步骤2:在PyTorch深度学习框架上,搭建基于改进的DeepLabV3+的语义分割模型;改进的DeepLabV3+网络如图2;
本文使用基于DeepLabV3+架构的深度图像语义分割模型,结合MobileNetV2特征提取网络网络作为主干网络。当图片输入MobileNetV2中后首先经过一个3*3的普通卷积,接下来图片将经过14个MobileNetV2特有的线性瓶颈层卷积模块(Block)。将经过的第二个Block命名为Block2,经过Block2输出的为浅层特征层输入至解码器中进行1*1卷积操作。经过Block14的输出作为深层特征层输入改进的空洞空间卷积池化金塔(ASPP)中,利用空洞卷积进行进一步的特征提取。MobileNetV2做主干络结构特征,图3所示;
解码器将进行1*1卷积的浅层语义特征层和进行空洞卷积后的有效特征层上采样结果进行特征融合后,进行两个3*3卷积细化特征再使用双线性插值4倍上采样将特征图尺寸恢复到原始图像大小,由此得到障碍物特征的分割图,模型结构如图2所示;
ASPP模块中的3*3卷积在训练过程会占用大量的计算资源。深度可分离卷积已被证明比普通卷积的参数量少,训练速度快。将ASPP中的3*3卷积替换成深度可分离卷积。较小的扩张率(rate)有利于提取小分辨率的特征图信息,把原ASPP中3*3的卷积扩张率组合6、12、18改为6、10、14,改进后ASPP如图4所示;
步骤3:通过步骤1中的数据集对所建立的模型进行训练,通过步骤1中的数据集对所建立的模型进行训练;
训练所采取的多分类交叉熵损失函数
M——类别数量;
yic——指示变量(0或1),如果该类别和样本i的类别相同就是1,否则是0;
pic——对于观测样本i属于类别c的预测概率。
其中,总训练周期为500,学习率初始值设置为0.001,学习率衰减系数为0.1,单次迭代样本数为16,为缩短模型训练时长,加速模型收敛,使用Adam自适应学习率优化器;
步骤4:采用zed双目立体相机拍新的大田环境场景图像,提取zed双目相机的左摄像头的图像输入至DeepLabV3+的语义分割模型进行识别,得到障碍物的分割图像,扫描分割图像,得到障碍物在图像中轮廓关键信息点坐标;
其中,分割后的图像中,背景的像素值为0,障碍物的区域像素值为非零区域;对该图像进行扫描,分割出的障碍物区域分为轮廓左侧关键信息点和轮廓右侧关键信息点;
如果某两个相邻的位置的像素从0变化为非零值,为障碍物的左侧轮廓关键信息点,像素值由非零值变化为0,为障碍物的右侧轮廓关键信息点,其计算函数如下:
m——障碍物轮廓关键信息点数量
k——分割障碍物区域在图像中占据的像素行数
l——行扫描间隔的像素行数
步骤5:先使用张正友标定法对zed双目摄像头的左摄像头和右摄像头分别进行标定,借助Matlab工具箱中CameraCalibration工具采集左右摄像头分别拍摄标定板的图片,输入棋盘格每格的尺寸大小,进行标定。以此可以得到相机的内部参数、外部参数、畸变参数;
而后,获取经标定后的双目摄像头的左摄像头图像和右摄像头图像;再通过SGBM立体匹配算法得到左摄像头的视差图;再根据平行双目视觉的几何关系,得到如下视差与深度的转换公式:
z--深度图
f--归一化的焦距
b--左摄像头光心和右摄像头光心之间的距离,称作基线距离;
d--视差值;
最后通过视差与深度的转换公式计算出左摄像头的深度图像。在步骤4中,得到m个关键信息点,设关键信息点坐标为(xi,yi),i=0,1,2…m,关键信息点坐标(xi,yi)在深度图中对应的距离为zi。
则x为障碍物距离。
综上所述,1、本法发明将构建的DeepLabV3+语义分割模型在PascalVOC2012数据集上进行分类训练以得到预训练模型,对得到的预训练模型进行迁移学习可以减少在大田环境下障碍分类的数据集下训练消耗的时间;
2、本发明将DeepLaV3+模型中的主干网络替换为轻量化网络MobileNetV2网络用来特征提取,采用改进的ASPP,在保证分割效果的基础上,大量减少了模型的参数量,降低了模型对显存的要求;
3、本发明改进后的DeeplabV3+模型更利于在移动设备或嵌入式上部署,能够部署在农业机械上,通过双目摄像头在大田环境下对行人等障碍物进行检测并分割,达到实时性要求。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (8)
1.基于双目视觉和语义分割网络的大田环境障碍物检测方法,其特征在于,包括以下步骤:
S1:构建大田环境下的多种障碍物类别的数据集;
S2:在PyTorch深度学习框架上搭建DeeplabV3+语义分割模型,其中主干网络使用裁剪后的MobilenetV2:保留MobilenetV2的第一个卷积层和前14个倒置残差模块(Block),将第3个Block后输出的特征图作为浅层特征,将第14个Block后输出的特征图作为深层特征,去除MobilenetV2之后的Block模块、池化层、卷积层;同时将ASPP模块的其中3个3*3空洞卷积改为深度可分离空洞卷积,将原来的扩张率6、12、18,改为6、10、14;
S3:通过步骤1中的数据集对S2中建立的DeepLabV3+语义分割模型进行训练;
S4:采用双目立体摄像头拍摄大田场景图像,并将该图像输入至DeepLabV3+的语义分割模型进行识别,得到障碍物的分割图像,其中该背景的像素值为0,障碍物的区域像素值为非零区域,扫描分割图像,识别像素值,得到障碍物在图像中轮廓关键信息点坐标;
S5:使用张正友标定法对S4中的双目立体摄像头的左摄像头和右摄像头分别进行标定,并借助Matlab工具箱中Camera Calibration工具采集左右摄像头分别拍摄的标定板图片,获取经标定后的双目摄像头的左摄像头图像和右摄像头图像,再通过SGBM立体匹配算法得到左摄像头的视差图,通过视差与深度的转换公式计算出左摄像头的深度图像,于深度图像中轮廓关键信息点坐标的深度值的加权平均值作为障碍物的距离,从而获得障碍物的距离信息。
2.根据权利要求1所述基于双目视觉和语义分割网络的大田环境障碍物检测方法,其特征在于,所述S1采用zed摄像头拍摄并存储不同环境场景下的农业作业场景视频图像,按照特定的帧数抽取图片,按照4:1:1的比例划分为训练集、测试集和验证集;对干扰农机正常作业的障碍物进行标注,并制作成数据集。
3.根据权利要求2所述基于双目视觉和语义分割网络的大田环境障碍物检测方法,其特征在于,所述干扰农机的障碍物包括人、机。
5.根据权利要求1所述基于双目视觉和语义分割网络的大田环境障碍物检测方法,其特征在于,所述S4对分割图像进行扫描,分割出的障碍物区域分为轮廓左侧关键信息点和轮廓右侧关键信息点。
8.根据权利要求1至7所述基于双目视觉和语义分割网络的大田环境障碍物检测方法,其公开了基于双目视觉和语义分割网络的大田环境障碍物检测方法在障碍物检测中的应用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210266564.4A CN114722914A (zh) | 2022-03-17 | 2022-03-17 | 基于双目视觉和语义分割网络的大田环境障碍物检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210266564.4A CN114722914A (zh) | 2022-03-17 | 2022-03-17 | 基于双目视觉和语义分割网络的大田环境障碍物检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114722914A true CN114722914A (zh) | 2022-07-08 |
Family
ID=82237362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210266564.4A Pending CN114722914A (zh) | 2022-03-17 | 2022-03-17 | 基于双目视觉和语义分割网络的大田环境障碍物检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114722914A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115390572A (zh) * | 2022-10-28 | 2022-11-25 | 潍柴雷沃智慧农业科技股份有限公司 | 一种无人收获机的避障控制方法和系统 |
CN116167991A (zh) * | 2023-02-15 | 2023-05-26 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
-
2022
- 2022-03-17 CN CN202210266564.4A patent/CN114722914A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115390572A (zh) * | 2022-10-28 | 2022-11-25 | 潍柴雷沃智慧农业科技股份有限公司 | 一种无人收获机的避障控制方法和系统 |
CN116167991A (zh) * | 2023-02-15 | 2023-05-26 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
CN116167991B (zh) * | 2023-02-15 | 2023-09-08 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN111223088B (zh) | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 | |
CN112766274B (zh) | 一种基于Mask RCNN算法的水尺图像水位自动读数方法及系统 | |
CN110378308B (zh) | 改进的基于Faster R-CNN的港口SAR图像近岸舰船检测方法 | |
CN109657581B (zh) | 基于双目相机行为检测的城市轨道交通闸机通行控制方法 | |
CN112288008B (zh) | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 | |
CN114722914A (zh) | 基于双目视觉和语义分割网络的大田环境障碍物检测方法 | |
CN112183788A (zh) | 一种域自适应设备运检系统和方法 | |
CN110163213B (zh) | 基于视差图和多尺度深度网络模型的遥感图像分割方法 | |
CN112233067A (zh) | 一种热轧钢卷端面质量检测方法及系统 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
JP2013058112A (ja) | 補間画像生成装置、再構成画像生成装置、補間画像生成方法及びプログラム | |
CN111986240A (zh) | 基于可见光和热成像数据融合的落水人员检测方法及系统 | |
CN110399820B (zh) | 一种公路路边景物视觉识别分析方法 | |
CN114693661A (zh) | 一种基于深度学习的快速分拣方法 | |
CN111797920B (zh) | 门控特征融合的深度网络不透水面遥感提取方法及系统 | |
CN113642463B (zh) | 一种视频监控和遥感图像的天地多视图对齐方法 | |
CN114089329A (zh) | 一种基于长短焦相机与毫米波雷达融合的目标检测方法 | |
CN115082450A (zh) | 基于深度学习网络的路面裂缝检测方法和系统 | |
CN115661777A (zh) | 一种联合语义的雾天道路目标检测算法 | |
CN113408550B (zh) | 基于图像处理的智能称重管理系统 | |
CN113936047A (zh) | 稠密深度图生成方法及系统 | |
CN113989612A (zh) | 基于注意力及生成对抗网络的遥感影像目标检测方法 | |
CN117197682A (zh) | 一种长波红外遥感影像进行盲元检测与去除的方法 | |
CN112233079B (zh) | 多传感器图像融合的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |