CN111898702A - 一种基于深度学习的无人艇环境智能感知方法 - Google Patents
一种基于深度学习的无人艇环境智能感知方法 Download PDFInfo
- Publication number
- CN111898702A CN111898702A CN202010818791.4A CN202010818791A CN111898702A CN 111898702 A CN111898702 A CN 111898702A CN 202010818791 A CN202010818791 A CN 202010818791A CN 111898702 A CN111898702 A CN 111898702A
- Authority
- CN
- China
- Prior art keywords
- layer
- unmanned ship
- pooling layer
- convolution
- ship environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的无人艇环境智能感知方法,包括:步骤1:获取训练图像数据集和测试图像数据集;步骤2:构建无人艇环境感知模型;步骤3:使用训练图像数据集训练无人艇环境感知模型;步骤4:使用测试图像数据集测试无人艇环境感知模型的精度,判断无人艇环境感知模型是否达到预设精度,若是,则执行步骤5,否则,返回步骤3;步骤5:获取无人艇视线范围内实时图像,输入无人艇环境感知模型对无人艇周围环境进行实时的目标识别、定位以及前方可行方向的分割。与现有技术相比,本发明具有同时实现目标识别和可行航道分割、输入图像大小不受约束、兼顾实时性和精确度等优点。
Description
技术领域
本发明涉及无人艇环境感知技术领域,尤其是涉及一种基于深度学习的无人艇环境智能感知方法。
背景技术
海上无人系统作为一种颠覆性技术,将在未来社会中占有重要地位,是当前产业界和学术界的热点。目前,海上智能无人系统已成为产业发展的必然趋势,将重新定义船舶装备产业规则。传统船舶行业,手动遥控占比或70%以上,需要人工根据传感器信息实时操控。此外由于船舶控制的滞后性以及海况的复杂性,往往需要具备一定的航行经验才能胜任船长一职,在某些需要精准操控的动力定位场景,需要有经验、受过专业训练的DPO方可操控。传统船舶智能化、无人化应用场景广泛,可大大提升传统船舶行业的精准性、安全性,提升生产效率。
目前针对无人艇的目标识别技术的研究不断进行,例如中国专利CN107609601A中公开了一种基于多层卷积神经网络的舰船目标识别方法,该方法仅适用多层卷积神经网络实现舰船目标的识别,该方法虽然目标识别的精度较高,但该方法仅能对舰船目标进行识别,无法实现对航行方向上的可行航道分割。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种同时实现目标识别和可行航道分割、输入图像大小不受约束、兼顾实时性和精确度的基于深度学习的无人艇环境智能感知方法。
本发明的目的可以通过以下技术方案来实现:
一种基于深度学习的无人艇环境智能感知方法,用于实现无人艇周围环境目标识别与定位以及前方可行方向的分割,包括:
步骤1:获取训练图像数据集和测试图像数据集;
步骤2:构建无人艇环境感知模型;
步骤3:使用训练图像数据集训练无人艇环境感知模型;
步骤4:使用测试图像数据集测试无人艇环境感知模型的精度,判断无人艇环境感知模型是否达到预设精度,若是,则执行步骤5,否则,返回步骤3;
步骤5:获取无人艇视线范围内实时图像,输入无人艇环境感知模型对无人艇周围环境进行实时的目标识别、定位以及前方可行方向的分割。
优选地,所述的无人艇环境感知模型包括编码器结构和解码器结构;
所述的编码器结构和解码器结构相连;
所述的编码器结构的输入信号为训练图像数据集中的训练图像、测试图像数据集中的测试图像或无人艇视线范围内实时图像。
更加优选地,所述的编码器结构具体为深度卷积神经网络;所述的编码器结构包括依次相连的第一卷积层、第一池化层、第二池化层、第三池化层、第四池化层和第五池化层;所述的第一池化层、第二池化层、第三池化层、第四池化层和第五池化层均为2×2池化层。
更加优选地,所述的解码器结构包括检测解码单元、分类解码单元和分割解码单元;
所述的检测解码单元的输入信号包括第四池化层的输出信号和第五池化层的输出信号;
所述的分类解码单元的输入信号为第五池化层的输出信号;
所述的分割解码单元的输入信号包括第三池化层的输出信号经过上采样后获得的信号、第四池化层的输出信号经过上采样后获得的信号和第五池化层的输出信号。
更加优选地,所述的无人艇环境感知模型设有ROI-align层;所述的编码器结构通过ROI-align层与检测解码单元相连。
更加优选地,所述的检测解码单元包括第二卷积层、拼接模块、第一卷积核和第二卷积核;
所述的第二卷积层的输入端与第五池化层输出端相连;所述的第二卷积层的输出端分别与拼接模块的输入端和第一卷积核的输入端相连;所述的第一卷积核的输出端与拼接模块的输入端相连;所述的拼接模块的输入端还与ROI-align层的输出端相连;所述的拼接模块的输出端与第二卷积核相连;所述的第二卷积核的输出信号为目标边界框的预测结果数据。
更加优选地,所述的第一卷积核和第二卷积核均为1*1卷积核。
更加优选地,所述的分类解码单元包括依次相连的第三卷积层、瓶颈层和全连接层;所述的第三卷积层的输入端与第五池化层相连;所述的全连接层的输出信号为环境分类结果数据。
更加优选地,所述的分割解码单元包括依次相连的第四卷积层、第一反卷积层、第五卷积层、第二反卷积层、第六卷积层和第三反卷积层;
所述的第四卷积层的输入端与第五池化层相连;
所述的第五卷积层的输入信号包括第一反卷积层的输出信号以及第四池化层的输出信号经过上采样处理后的信号;
所述的第六卷积层的输入信号包括第二反卷积层的输出信号以及第三池化层的输出信号经过上采样处理后的信号。
优选地,所述的步骤5具体为:
通过安装在无人艇上的摄像头获取航行前方实现的实时图像,将图像输入训练好的无人艇环境感知模型,每隔10帧进行一次识别,实时获取实现中物体的识别结果与定位以及前方可行航道的分割。
与现有技术相比,本发明具有以下优点:
一、同时实现目标识别和可行航道分割:本发明中的无人艇环境感知模型中设有用于获取目标边界框信息的检测解码单元以及用于获取可行航道分割信息的分割解码单元,能够同时实现目标识别和可行航道的分割。
二、输入图像大小不受约束:本发明中的无人艇环境感知模型使用1×1卷积核代替传统神经网络中的全连接层,这样输入图像的大小不受224×224的VGG约束。
三、兼顾实时性和精确度:相较于现有技术,本发明中的无人艇环境感知模型省略了RPN网络,通过增加ROI-align层来达到实时性与精确度的结合。
附图说明
图1为本发明中无人艇环境智能感知方法的流程示意图;
图2为本发明中无人艇环境只能感知模型的结构示意图。
图中标号所示:
1、编码器结构,2、解码器结构,3、ROI-align层,21、检测解码单元,22、分类解码单元,23、分割解码单元,101、第一卷积层,102、第一池化层,103、第二池化层,104、第三池化层,105、第四池化层,106、第五池化层,211、第二卷积层,212、拼接模块,213、第一卷积核,214、第二卷积核,221、第三卷积层,222、瓶颈层,223、全连接层,231、第四卷积层,232、第一反卷积层,233、第五卷积层,234、第二反卷积层,235、第六卷积层,236、第三反卷积层。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
一种基于深度学习的无人艇环境智能感知方法,其流程如图1所示,包括:
步骤1:获取训练图像数据集和测试图像数据集;
步骤2:构建无人艇环境感知模型;
步骤3:使用训练图像数据集训练无人艇环境感知模型;
步骤4:使用测试图像数据集测试无人艇环境感知模型的精度,判断无人艇环境感知模型是否达到预设精度,若是,则执行步骤5,否则,返回步骤3;
步骤5:获取无人艇视线范围内实时图像,输入无人艇环境感知模型对无人艇周围环境进行实时的目标识别、定位以及前方可行方向的分割。
本实施例中的无人艇环境感知模型包括编码器结构1和解码器结构2,编码器结构1和解码器结构2相连,编码器结构1的输入信号为训练图像数据集中的训练图像、测试图像数据集中的测试图像或无人艇视线范围内实时图像。
编码器结构1具体为深度卷积神经网络,编码器结构1包括依次相连的第一卷积层101、第一池化层102、第二池化层103、第三池化层104、第四池化层105和第五池化层106,第一池化层102、第二池化层103、第三池化层104、第四池化层105和第五池化层106均为2×2池化层。
解码器结构2包括检测解码单元21、分类解码单元22和分割解码单元23,检测解码单元21的输入信号包括第四池化层105的输出信号和第五池化层106的输出信号;分类解码单元22的输入信号为第五池化层106的输出信号;分割解码单元23的输入信号包括第三池化层104的输出信号经过上采样后获得的信号、第四池化层105的输出信号经过上采样后获得的信号和第五池化层106的输出信号。
无人艇环境感知模型设有ROI-align层3,编码器结构1通过ROI-align层3与检测解码单元21相连。
检测解码单元21包括第二卷积层211、拼接模块212、第一卷积核213和第二卷积核214,第二卷积层211的输入端与第五池化层106输出端相连,第二卷积层211的输出端分别与拼接模块212的输入端和第一卷积核213的输入端相连,第一卷积核213的输出端与拼接模块212的输入端相连,拼接模块212的输入端还与ROI-align层3的输出端相连,拼接模块212的输出端与第二卷积核214相连,第二卷积核214的输出信号为目标边界框的预测结果数据。本实施例中的第一卷积核213和第二卷积核214均为1*1卷积核。
分割解码单元23包括依次相连的第四卷积层231、第一反卷积层232、第五卷积层233、第二反卷积层234、第六卷积层235和第三反卷积层236,第四卷积层231的输入端与第五池化层106相连,第五卷积层233的输入信号包括第一反卷积层232的输出信号以及第四池化层105的输出信号经过上采样处理后的信号,第六卷积层235的输入信号包括第二反卷积层234的输出信号以及第三池化层104的输出信号经过上采样处理后的信号。
本实施例中的步骤5具体为:
通过安装在无人艇上的摄像头获取航行前方实现的实时图像,将图像输入训练好的无人艇环境感知模型,每隔10帧进行一次识别,实时获取实现中物体的识别结果与定位以及前方可行航道的分割,识别结果也可以用于后续的路径规划算法中。
下面对上述结构进行进一步说明:
首先输入大小为1248×384×3的图像,编码器的第一卷积层101均采用3×3卷积核,padding=1,然后经过五个2×2池化层,即第一池化层102到第五池化层106,分别得到大小为624×192×64、312×96×128、156×48×128、78×24×256和39×12×512的特征图,其中大小为39×12×512的特征图同时提供给三个解码器单元;大小为78×24×256的特征图配合检测解码器单元21的初预测进行ROI-align提供给检测解码单元21进行增量预测;大小为78×24×256和156×48×128的特征图还未分割解码单元23使用FCN-8s方法提供两层特征图。
分类解码单元22处理来自编码器提供大小为39×12×512的特征图,将其通过30个3×3×512的卷积层得到37×10×30的瓶颈层,可大大减少后接全连接层的参数,通过全连接层对视野内环境进行分类,一共分为两类:广域环境和非广域环境,得到分类预测1×2即为分别被预测为这两类的概率,概率大的为分类输出信号。
检测解码单元21处理来自编码器的大小为39×12×512的特征图,使其通过500个1×1×512的卷积层,得到一个39×12×500的张量,再通过1×1的卷积核得到39×12×6的初预测,其中前两个通道形成图像粗分割,表示置信度,后四个通道表示以该单元为中心的边界框的坐标的预测,从而得到边界框的初预测,然后将初预测返回到编码器结构1产生的大小为78×24×256的特征图上,即第四池化层105的输出信号上,根据Mask R-CNN中提出的ROI-align方法提出ROI区域,并将对应的特征图与产生初预测的39×12×500的张量联合产生增量预测,并将其作为偏移添加到初预测中得到最终预测结果。
分割解码单元23首先处理编码器产生的大小为39×12×512的特征图,使其通过两个1×1×512的卷积层,得到大小为39×12×2的scale1,两个通道分别为可行驶区域与非行驶区域在大小为图像上像素点的分布。将大小为39×12×2的scale1进行一次反卷积得到大小为39×12的张量,结合编码器结构1产生的大小为78×24×256的特征图通过两个1×1×256的卷积层得到的Prediction scale2大小为78×24×2,即更高分辨率下可行驶区域与非行驶区域在图像上像素点的分布,得到scale2后,进行一次反卷积得到大小为156×48×2的张量,再结合编码器结构1产生的大小为156×48×128的特征图通过两个1×1×128的卷积层得到的Prediction scale,大小为156×48×2,同理为更高分辨率下可行驶区域与非行驶区域在图像上像素点的分布,得到scale3后,再进行反卷积得到1248×384×2的与原图大小一样的分割图,将原图每个像素点都分为了可行驶区域与非行驶区域,最后输出分割结果。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于深度学习的无人艇环境智能感知方法,用于实现无人艇周围环境目标识别与定位以及前方可行方向的分割,其特征在于,包括:
步骤1:获取训练图像数据集和测试图像数据集;
步骤2:构建无人艇环境感知模型;
步骤3:使用训练图像数据集训练无人艇环境感知模型;
步骤4:使用测试图像数据集测试无人艇环境感知模型的精度,判断无人艇环境感知模型是否达到预设精度,若是,则执行步骤5,否则,返回步骤3;
步骤5:获取无人艇视线范围内实时图像,输入无人艇环境感知模型对无人艇周围环境进行实时的目标识别、定位以及前方可行方向的分割。
2.根据权利要求1所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的无人艇环境感知模型包括编码器结构(1)和解码器结构(2);
所述的编码器结构(1)和解码器结构(2)相连;
所述的编码器结构(1)的输入信号为训练图像数据集中的训练图像、测试图像数据集中的测试图像或无人艇视线范围内实时图像。
3.根据权利要求2所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的编码器结构(1)具体为深度卷积神经网络;所述的编码器结构(1)包括依次相连的第一卷积层(101)、第一池化层(102)、第二池化层(103)、第三池化层(104)、第四池化层(105)和第五池化层(106);所述的第一池化层(102)、第二池化层(103)、第三池化层(104)、第四池化层(105)和第五池化层(106)均为2×2池化层。
4.根据权利要求3所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的解码器结构(2)包括检测解码单元(21)、分类解码单元(22)和分割解码单元(23);
所述的检测解码单元(21)的输入信号包括第四池化层(105)的输出信号和第五池化层(106)的输出信号;
所述的分类解码单元(22)的输入信号为第五池化层(106)的输出信号;
所述的分割解码单元(23)的输入信号包括第三池化层(104)的输出信号经过上采样后获得的信号、第四池化层(105)的输出信号经过上采样后获得的信号和第五池化层(106)的输出信号。
5.根据权利要求4所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的无人艇环境感知模型设有ROI-align层(3);所述的编码器结构(1)通过ROI-align层(3)与检测解码单元(21)相连。
6.根据权利要求5所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的检测解码单元(21)包括第二卷积层(211)、拼接模块(212)、第一卷积核(213)和第二卷积核(214);
所述的第二卷积层(211)的输入端与第五池化层(106)输出端相连;所述的第二卷积层(211)的输出端分别与拼接模块(212)的输入端和第一卷积核(213)的输入端相连;所述的第一卷积核(213)的输出端与拼接模块(212)的输入端相连;所述的拼接模块(212)的输入端还与ROI-align层(3)的输出端相连;所述的拼接模块(212)的输出端与第二卷积核(214)相连;所述的第二卷积核(214)的输出信号为目标边界框的预测结果数据。
7.根据权利要求6所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的第一卷积核(213)和第二卷积核(214)均为1*1卷积核。
8.根据权利要求5所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的分类解码单元(22)包括依次相连的第三卷积层(221)、瓶颈层(222)和全连接层(223);所述的第三卷积层(221)的输入端与第五池化层(106)相连;所述的全连接层的输出信号为环境分类结果数据。
9.根据权利要求5所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的分割解码单元(23)包括依次相连的第四卷积层(231)、第一反卷积层(232)、第五卷积层(233)、第二反卷积层(234)、第六卷积层(235)和第三反卷积层(236);
所述的第四卷积层(231)的输入端与第五池化层(106)相连;
所述的第五卷积层(233)的输入信号包括第一反卷积层(232)的输出信号以及第四池化层(105)的输出信号经过上采样处理后的信号;
所述的第六卷积层(235)的输入信号包括第二反卷积层(234)的输出信号以及第三池化层(104)的输出信号经过上采样处理后的信号。
10.根据权利要求1所述的一种基于深度学习的无人艇环境智能感知方法,其特征在于,所述的步骤5具体为:
通过安装在无人艇上的摄像头获取航行前方实现的实时图像,将图像输入训练好的无人艇环境感知模型,每隔10帧进行一次识别,实时获取实现中物体的识别结果与定位以及前方可行航道的分割。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010818791.4A CN111898702A (zh) | 2020-08-14 | 2020-08-14 | 一种基于深度学习的无人艇环境智能感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010818791.4A CN111898702A (zh) | 2020-08-14 | 2020-08-14 | 一种基于深度学习的无人艇环境智能感知方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111898702A true CN111898702A (zh) | 2020-11-06 |
Family
ID=73229016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010818791.4A Pending CN111898702A (zh) | 2020-08-14 | 2020-08-14 | 一种基于深度学习的无人艇环境智能感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111898702A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107226087A (zh) * | 2017-05-26 | 2017-10-03 | 西安电子科技大学 | 一种结构化道路自动驾驶运输车及控制方法 |
CN107609601A (zh) * | 2017-09-28 | 2018-01-19 | 北京计算机技术及应用研究所 | 一种基于多层卷积神经网络的舰船目标识别方法 |
CN109117838A (zh) * | 2018-08-08 | 2019-01-01 | 哈尔滨工业大学 | 应用于无人船感知系统的目标检测方法及装置 |
CN109886152A (zh) * | 2019-01-30 | 2019-06-14 | 天津大学 | 一种基于多传感器协作的无人驾驶路径选择方法 |
CN109919026A (zh) * | 2019-01-30 | 2019-06-21 | 华南理工大学 | 一种水面无人艇局部路径规划方法 |
CN109993082A (zh) * | 2019-03-20 | 2019-07-09 | 上海理工大学 | 卷积神经网络道路场景分类与道路分割方法 |
CN110263706A (zh) * | 2019-06-19 | 2019-09-20 | 南京邮电大学 | 一种雾霾天气车载视频动态目标检测和识别的方法 |
-
2020
- 2020-08-14 CN CN202010818791.4A patent/CN111898702A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107226087A (zh) * | 2017-05-26 | 2017-10-03 | 西安电子科技大学 | 一种结构化道路自动驾驶运输车及控制方法 |
CN107609601A (zh) * | 2017-09-28 | 2018-01-19 | 北京计算机技术及应用研究所 | 一种基于多层卷积神经网络的舰船目标识别方法 |
CN109117838A (zh) * | 2018-08-08 | 2019-01-01 | 哈尔滨工业大学 | 应用于无人船感知系统的目标检测方法及装置 |
CN109886152A (zh) * | 2019-01-30 | 2019-06-14 | 天津大学 | 一种基于多传感器协作的无人驾驶路径选择方法 |
CN109919026A (zh) * | 2019-01-30 | 2019-06-21 | 华南理工大学 | 一种水面无人艇局部路径规划方法 |
CN109993082A (zh) * | 2019-03-20 | 2019-07-09 | 上海理工大学 | 卷积神经网络道路场景分类与道路分割方法 |
CN110263706A (zh) * | 2019-06-19 | 2019-09-20 | 南京邮电大学 | 一种雾霾天气车载视频动态目标检测和识别的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111898507B (zh) | 一种预测无标签遥感影像地表覆盖类别的深度学习方法 | |
CN108647585B (zh) | 一种基于多尺度循环注意力网络的交通标识符检测方法 | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN110738697B (zh) | 基于深度学习的单目深度估计方法 | |
CN110163187B (zh) | 基于f-rcnn的远距离交通标志检测识别方法 | |
CN107545263B (zh) | 一种物体检测方法及装置 | |
CN112464912B (zh) | 基于YOLO-RGGNet的机器人端人脸检测方法 | |
CN115830471B (zh) | 一种多尺度特征融合和对齐的域自适应云检测方法 | |
CN110674674A (zh) | 一种基于yolo v3的旋转目标检测方法 | |
CN113657409A (zh) | 车辆损失检测方法、装置、电子设备及存储介质 | |
CN110310305A (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN111239684A (zh) | 一种基于YoloV3深度学习的双目快速距离测量方法 | |
CN114782798A (zh) | 一种基于注意力融合的水下目标检测方法 | |
CN115731545A (zh) | 一种基于融合感知的电缆隧道巡检方法及装置 | |
CN115861756A (zh) | 基于级联组合网络的大地背景小目标识别方法 | |
CN117111055A (zh) | 一种基于雷视融合的车辆状态感知方法 | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
CN115861922B (zh) | 一种稀疏烟火检测方法、装置、计算机设备及存储介质 | |
CN114550016B (zh) | 一种基于上下文信息感知的无人机定位方法及系统 | |
CN116434230A (zh) | 一种复杂环境下的船舶水尺读数方法 | |
CN111898702A (zh) | 一种基于深度学习的无人艇环境智能感知方法 | |
CN114219989A (zh) | 一种基于干扰抑制和动态轮廓的雾天场景船舶实例分割方法 | |
CN115719368B (zh) | 一种多目标船舶跟踪方法及系统 | |
CN113537397B (zh) | 基于多尺度特征融合的目标检测与图像清晰联合学习方法 | |
CN117557775B (zh) | 基于红外和可见光融合的变电站电力设备检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |