CN116434081A - 一种基于5g+云边端水下机器人控制管理方法及系统 - Google Patents
一种基于5g+云边端水下机器人控制管理方法及系统 Download PDFInfo
- Publication number
- CN116434081A CN116434081A CN202310457781.6A CN202310457781A CN116434081A CN 116434081 A CN116434081 A CN 116434081A CN 202310457781 A CN202310457781 A CN 202310457781A CN 116434081 A CN116434081 A CN 116434081A
- Authority
- CN
- China
- Prior art keywords
- image
- model
- underwater robot
- deep sea
- channels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007726 management method Methods 0.000 title claims abstract description 22
- 230000005540 biological transmission Effects 0.000 claims abstract description 93
- 238000012549 training Methods 0.000 claims abstract description 73
- 238000004891 communication Methods 0.000 claims abstract description 40
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 238000005516 engineering process Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 17
- 230000004888 barrier function Effects 0.000 claims abstract description 7
- 238000011156 evaluation Methods 0.000 claims description 56
- 238000004364 calculation method Methods 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 27
- 238000001914 filtration Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 9
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 9
- 230000007547 defect Effects 0.000 description 3
- 238000005299 abrasion Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 2
- 239000010802 sludge Substances 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于5G+云边端水下机器人控制管理方法及系统,该方法包括采集水下机器人的视频与图像传输数据,以及水下机器人中各设备的数据,并通过5G通讯网络和水声通讯技术传输至中心云节点;在中心云节点构建改进MaskR‑CNN算法模型;对改进MaskR‑CNN算法模型进行训练,得到训练后改进MaskR‑CNN算法模型;将其部署至边缘云节点,通过训练后改进MaskR‑CNN算法模型检测水下机器人中各个设备表面是否存在障碍物或损坏,得到检测结果;将检测结果通过5G通讯网络和水声通讯技术传输至中心云节点,得到相应的水下机器人控制指令。本发明解决了使用传统的云端控制水下机器人,水下机器人的控制效率低,自我决策能力低,反应慢,难以应对复杂的水下环境的问题。
Description
技术领域
本发明涉及水下机器人技术领域,特别是一种基于5G+云边端水下机器人控制管理方法及系统。
背景技术
水下机器人(Autonomous Underwater Vehicle,简称AUV),是无人智能化的水下潜航器。主要可用于在危险、复杂和未知水域中执行任务。可以执行海域的水质检测、军事侦察、救援搜索和海底探测等任务,应用前景十分广泛且优秀。而目前水下机器人的控制是通过缆控和水声,通过这两种方式对水下机器人进行遥控,缆控方式对于水下机器人来说缺乏灵活性,不利于开展复杂的水下活动,而水声控制没有了绳缆的限制,故而水下机器人的自由度比较高,适合开展各项水下任务,因此,水声控制更具优势。一般在进行作业时,用户需要长时间使用遥控器或者客户端遥控水下机器人,在长时间作业后,用户往往出现疲劳,无法有效控制水下机器人。
另外传统的水下机器人控制系统单纯依靠操作人员进行操纵,智能化程度不高。使用传统的云端控制水下机器人,水下机器人的控制效率低,自我决策能力低,反应慢,难以应对复杂的水下环境。
发明内容
针对上述缺陷,本发明提出了一种基于5G+云边端水下机器人控制管理方法及系统,其目的在于解决了使用传统的云端控制水下机器人,水下机器人的控制效率低,自我决策能力低,反应慢,难以应对复杂的水下环境的问题。
为达此目的,本发明采用以下技术方案:
一种基于5G+云边端水下机器人控制管理方法,包括以下步骤:
步骤S1:采集水下机器人的视频与图像传输数据,以及水下机器人中各设备的数据,并将水下机器人的视频与图像传输数据和水下机器人中各设备的数据通过5G通讯网络和水声通讯技术传输至中心云节点;
步骤S2:在中心云节点构建改进Mask R-CNN算法模型;
步骤S3:使用水下机器人的视频与图像传输数据和水下机器人中各设备的数据对改进Mask R-CNN算法模型进行训练,得到训练后改进Mask R-CNN算法模型;
步骤S4:将训练后改进Mask R-CNN算法模型部署至边缘云节点,通过训练后改进Mask R-CNN算法模型检测水下机器人中各个设备表面是否存在障碍物或损坏,得到检测结果;
步骤S5:将检测结果通过5G通讯网络和水声通讯技术传输至中心云节点,得到相应的水下机器人控制指令。
优选地,在步骤S3中,改进Mask R-CNN算法模型包括线性深景模型,水下机器人的视频与图像传输数据包括原始深海图像的数据,在改进Mask R-CNN算法模型训练过程中,使用线性景深模型对原始深海图像进行处理,具体的处理步骤如下:
步骤S31:基于线性景深模型图公式,以及通过调试确定的景深模型系数将原始深海图像转化为景深图;
其中,线性景深模型图公式如下:
sd(x)=u0+u1S(x)+u2V(x)+u3M(x)
其中,sd(x)表示线性景深模型图;S(x)表示图像的饱和度;V(x)表示图像的亮度;M(x)表示图像中红色通道与蓝绿色通道差异值;u0、u1、u2和u3均表示景深模型系数;
步骤S32:通过景深图上像素的明暗程度来确定深海场景的远近关系;
步骤S33:通过景深图映射在原始深海图像上获得估计的背景光候选范围,并选择候选范围中像素最大的像素点作为背景光位置,以获得原始深海图像三个通道的背景光,具体计算公式如下:
步骤S34:通过景深图分别计算出原始深海图像三个通道的传输地图;
步骤S35:对原始深海图像三个通道的传输地图均使用导向滤波函数进行处理,得到滤波后原始深海图像三个通道的传输地图;
其中,滤波后原始深海图像三个通道的传输地图的计算公式如下:
其中,tR(x)表示滤波后原始深海图像R通道的传输地图;tG(x)表示滤波后原始深海图像G通道的传输地图;tB(x)表示原始深海图像B通道的传输地图;G(x)表示导向滤波函数;df(x)表示实际水下场景与相机之间的距离;0.825、0.950和0.970分别表示原始深海图像RGB三个通道标准化残留能量比;
步骤S36:将原始深海图像三个通道的背景光和滤波后原始深海图像三个通道的传输地图代入深海复原图像计算公式,得到深海复原图像;
其中,深海复原图像计算公式的如下:
优选地,在步骤S3中,改进Mask R-CNN算法模型还包括障碍物或损坏特征提取模型,障碍物或损坏特征提取模型的训练步骤如下:
步骤S37:采集障碍物图像或损坏图像作为数据集,并且对障碍物图像或损坏图像进行标注,得到障碍物图像或损坏图像对应的目标区域标签;
步骤S38:设置模型训练参数,将障碍物图像或损坏图像对应的目标区域标签输入障碍物或损坏特征提取模型进行训练,得到最优的障碍物或损坏特征提取模型。
优选地,在步骤S3中,还包括以下步骤:
将训练后改进Mask R-CNN算法模型进行模型评估,若训练后改进Mask R-CNN算法模型达到模型评估指标要求,则输出训练后改进Mask R-CNN算法模型;若训练后改进MaskR-CNN算法模型达不到模型评估指标指标要求,则对训练后改进Mask R-CNN算法模型重新进行训练,其中,模型评估指标包括平均精度均值(mAP)评估指标和交并比(IoU)评估指标。
本申请的另一方面提供了一种基于5G+云边端水下机器人控制管理系统,所述系统包括:
采集模块,用于采集水下机器人的视频与图像传输数据,以及水下机器人中各设备的数据;
第一传输模块,用于将水下机器人的视频与图像传输数据和水下机器人中各设备的数据通过5G通讯网络和水声通讯技术传输至中心云节点;
模型构建模块,用于在中心云节点构建改进Mask R-CNN算法模型;
模型训练模块,用于使用水下机器人的视频与图像传输数据和水下机器人中各设备的数据对改进Mask R-CNN算法模型进行训练,得到训练后改进Mask R-CNN算法模型;
模型部署模块,用于将训练后改进Mask R-CNN算法模型部署至边缘云节点;
检测模块,用于通过训练后改进Mask R-CNN算法模型检测水下机器人中各个设备表面是否存在障碍物或损坏,得到检测结果;
第二传输模块,用于将检测结果通过5G通讯网络和水声通讯技术传输至中心云节点;
获得模块,用于得到相应的水下机器人控制指令。
优选地,所述模型训练模块包括原始深海图像处理子模块,所述原始深海图像处理子模块包括:
转化子单元,用于基于线性景深模型图公式,以及通过调试确定的景深模型系数将原始深海图像转化为景深图;
其中,线性景深模型图公式如下:
sd(x)=u0+u1S(x)+u2V(x)+u3M(x)
其中,sd(x)表示线性景深模型图;S(x)表示图像的饱和度;V(x)表示图像的亮度;M(x)表示图像中红色通道与蓝绿色通道差异值;u0、u1、u2和u3均表示景深模型系数;
确定子单元,用于通过景深图上像素的明暗程度来确定深海场景的远近关系;
获取子单元,用于通过景深图映射在原始深海图像上获得估计的背景光候选范围,并选择候选范围中像素最大的像素点作为背景光位置,以获得原始深海图像三个通道的背景光,具体计算公式如下:
第一计算子单元,用于通过景深图分别计算出原始深海图像三个通道的传输地图;
导向滤波子单元,用于对原始深海图像三个通道的传输地图均使用导向滤波函数进行处理,得到滤波后原始深海图像三个通道的传输地图;
其中,滤波后原始深海图像三个通道的传输地图的计算公式如下:
其中,tR(x)表示滤波后原始深海图像R通道的传输地图;tG(x)表示滤波后原始深海图像G通道的传输地图;tB(x)表示原始深海图像B通道的传输地图;G(x)表示导向滤波函数;df(x)表示实际水下场景与相机之间的距离;0.825、0.950和0.970分别表示原始深海图像RGB三个通道标准化残留能量比;
第二计算子单元,用于将原始深海图像三个通道的背景光和滤波后原始深海图像三个通道的传输地图代入深海复原图像计算公式,得到深海复原图像;
其中,深海复原图像计算公式的如下:
优选地,所述模型训练模块还包括障碍物或损坏特征提取模型训练子模块,所述障碍物或损坏特征提取模型训练子模块包括:
采集子单元,用于采集障碍物图像或损坏图像作为数据集;
标注子单元,用于对障碍物图像或损坏图像进行标注,得到障碍物图像或损坏图像对应的目标区域标签;
设置子单元,用于设置模型训练参数;
输入子单元,用于将障碍物图像或损坏图像对应的目标区域标签输入障碍物或损坏特征提取模型进行训练;
获得子单元,用于得到最优的障碍物或损坏特征提取模型。
优选地,还包括模型评估模块,所述模型评估模块用于将训练后改进Mask R-CNN算法模型进行模型评估,若训练后改进Mask R-CNN算法模型达到模型评估指标要求,则输出训练后改进Mask R-CNN算法模型;若训练后改进Mask R-CNN算法模型达不到模型评估指标指标要求,则对训练后改进Mask R-CNN算法模型重新进行训练,其中,模型评估指标包括平均精度均值(mAP)评估指标和交并比(IoU)评估指标。
本申请实施例提供的技术方案可以包括以下有益效果:
1、本方案使用了云边端控制框架,相比于传统的云端控制,由于中心云节点与边缘云节点的相互配合,中心云节点负责改进Mask R-CNN算法模型的训练,利用其硬件的优越性,分担了大部分的消耗功率,能够提高水下机器人的控制效率,使水下机器人的自我决策能力提升,反应更加迅速,更加有效地应对复杂的水下环境。
2、本方案使用了改进Mask R-CNN算法模型,该算法模型能够更好的处理海下作业所采集到的图像,对水下机器人中各个设备表面障碍物或损坏的检测会更加精确。
3、本方案中通过检测障碍物,并更加障碍物的厚度,合理调整水下机器人的电力资源,使得高压水枪获得合适的电力,提高了能源的利用率。
附图说明
图1是一种基于5G+的云边端水下机器人控制管理方法的步骤流程图。
具体实施方式
下面详细描述本发明的实施方式,实施方式的示例在附图中示出,其中,相同或类似的标号自始至终表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
一种基于5G+云边端水下机器人控制管理方法,包括以下步骤:
步骤S1:采集水下机器人的视频与图像传输数据,以及水下机器人中各设备的数据,并将水下机器人的视频与图像传输数据和水下机器人中各设备的数据通过5G通讯网络和水声通讯技术传输至中心云节点;
步骤S2:在中心云节点构建改进Mask R-CNN算法模型;
步骤S3:使用水下机器人的视频与图像传输数据和水下机器人中各设备的数据对改进Mask R-CNN算法模型进行训练,得到训练后改进Mask R-CNN算法模型;
步骤S4:将训练后改进Mask R-CNN算法模型部署至边缘云节点,通过训练后改进Mask R-CNN算法模型检测水下机器人中各个设备表面是否存在障碍物或损坏,得到检测结果;
步骤S5:将检测结果通过5G通讯网络和水声通讯技术传输至中心云节点,得到相应的水下机器人控制指令。
本方案的一种基于5G+的云边端水下机器人控制管理方法,如图1所示,第一步是采集水下机器人的视频与图像传输数据,以及水下机器人中各设备的数据,并将水下机器人的视频与图像传输数据和水下机器人中各设备的数据通过5G通讯网络和水声通讯技术传输至中心云节点。具体地,将采集的水下机器人的视频与图像传输数据和水下机器人中各设备的数据先通过水声通讯技术在水下传输至水面,由于水下无线通信中,声波在水下可达到1500米/秒,传输距离可达到几百里,是良好的通讯载体,因此利用水声通讯可以打造一个高速水下通信网络,实现水下机器人的无线水下控制。再通过5G通讯网络传输至中心云节点,利用5G通讯网络具有较大的传输带宽,传输时延低等特点,实现水下机器人的综合管理控制。第二步是在中心云节点构建改进Mask R-CNN算法模型,具体地,改进Mask R-CNN算法模型的建立有利于后续能够精准地识别和检测水下机器人中各个设备表面是否存在障碍物或损坏。第三步是使用水下机器人的视频与图像传输数据和水下机器人中各设备的数据对改进Mask R-CNN算法模型进行训练,得到训练后改进Mask R-CNN算法模型,具体地,中心云节点负责改进Mask R-CNN算法模型的训练,利用其硬件的优越性,分担了大部分的消耗功率,可以使控制水下机器人的效率大幅度提高。第四步是将训练后改进Mask R-CNN算法模型部署至边缘云节点,通过训练后改进Mask R-CNN算法模型检测水下机器人中各个设备表面是否存在障碍物或损坏,得到检测结果,具体地,当部署至边缘云节点的训练后改进Mask R-CNN算法模型检测到水下机器人中各个设备表面存在障碍物或损坏时,边缘云节点在控制水下机器人时可以快速地作出响应。第五步是将检测结果通过5G通讯网络和水声通讯技术传输至中心云节点,得到相应的水下机器人控制指令。具体地,边缘云节点能够自动将检测结果赋予不同特征的提取框,传输至客户端,待用户自行判断是否需要使用高压水枪清理以及维修。得到的水下机器人控制指令具体指水下机器人清洗障碍物或者维修指令。
本方案使用了云边端控制框架,相比于传统的云端控制,由于中心云节点与边缘云节点的相互配合,中心云节点负责改进Mask R-CNN算法模型的训练,利用其硬件的优越性,分担了大部分的消耗功率,能够提高水下机器人的控制效率,使水下机器人的自我决策能力提升,反应更加迅速,更加有效地应对复杂的水下环境。本方案使用了改进Mask R-CNN算法模型,该算法模型能够更好的处理海下作业所采集到的图像,对水下机器人中各个设备表面障碍物或损坏的检测会更加精确。本方案中通过检测障碍物,并更加障碍物的厚度,合理调整水下机器人的电力资源,使得高压水枪获得合适的电力,提高了能源的利用率。
优选的,在步骤S3中,改进Mask R-CNN算法模型包括线性深景模型,水下机器人的视频与图像传输数据包括原始深海图像的数据,在改进Mask R-CNN算法模型训练过程中,使用线性景深模型对原始深海图像进行处理,具体的处理步骤如下:
步骤S31:基于线性景深模型图公式,以及通过调试确定的景深模型系数将原始深海图像转化为景深图;
其中,线性景深模型图公式如下:
sd(x)=u0+u1S(x)+u2V(x)+u3M(x)
其中,sd(x)表示线性景深模型图;S(x)表示图像的饱和度;V(x)表示图像的亮度;M(x)表示图像中红色通道与蓝绿色通道差异值;u0、u1、u2和u3均表示景深模型系数;
步骤S32:通过景深图上像素的明暗程度来确定深海场景的远近关系;
步骤S33:通过景深图映射在原始深海图像上获得估计的背景光候选范围,并选择候选范围中像素最大的像素点作为背景光位置,以获得原始深海图像三个通道的背景光,具体计算公式如下:
步骤S34:通过景深图分别计算出原始深海图像三个通道的传输地图;
步骤S35:对原始深海图像三个通道的传输地图均使用导向滤波函数进行处理,得到滤波后原始深海图像三个通道的传输地图;
其中,滤波后原始深海图像三个通道的传输地图的计算公式如下:
其中,tR(x)表示滤波后原始深海图像R通道的传输地图;tG(x)表示滤波后原始深海图像G通道的传输地图;tB(x)表示原始深海图像B通道的传输地图;G(x)表示导向滤波函数;df(x)表示实际水下场景与相机之间的距离;0.825、0.950和0.970分别表示原始深海图像RGB三个通道标准化残留能量比;
步骤S36:将原始深海图像三个通道的背景光和滤波后原始深海图像三个通道的传输地图代入深海复原图像计算公式,得到深海复原图像;
其中,深海复原图像计算公式的如下:
本实施例中,由线性景深模型快速求出深海图像的景深,结合水下成像模型可以有效纠正图像色偏以去除模糊,还原水下场景中物体的原有色彩,使得图像清晰化。可达到快速复原图像的需求,基于线性景深模型进行快速的深海图像复原。进一步说明,对原始深海图像三个通道的传输地图进行导向滤波保边处理,有利于使传输地图更加准确地反映出深海场景特征。
优选的,在步骤S3中,改进Mask R-CNN算法模型还包括障碍物或损坏特征提取模型,障碍物或损坏特征提取模型的训练步骤如下:
步骤S37:采集障碍物图像或损坏图像作为数据集,并且对障碍物图像或损坏图像进行标注,得到障碍物图像或损坏图像对应的目标区域标签;
步骤S38:设置模型训练参数,将障碍物图像或损坏图像对应的目标区域标签输入障碍物或损坏特征提取模型进行训练,得到最优的障碍物或损坏特征提取模型。
本实施例中,障碍物图像或损坏图像的尺寸大小为227×227大小并带有RGB通道。对障碍物图像或损坏图像进行标注具体是标记障碍物图像或损坏图像的目标区域,即设备表面障碍物区域或者设备损坏区域,当所有障碍物图像或损坏图像标记完成后,可导出障碍物图像或损坏图像对应的目标区域标签,其中,障碍物图像对应的目标区域标签有海洋生物、淤泥和水下垃圾,损坏图像对应的目标区域标签有裂缝、生锈、磨损、破损、脏污和小孔。障碍物图像或损坏图像标注完成后,再进一步完成数据集特征的训练和学习。
设置模型训练参数,具体有处理图片的个数设置为2,训练数据集的轮数设置为200,学习率设置为0.004,权重衰减系数设置为0.0001,设置合适的模型系数,设置模型迭代轮数为800。在模型训练过程中,通过不断学习特征,loss损失随着模型学习特征而下降,最终达到收敛,即得到最优的模型。
优选的,在步骤S3中,还包括以下步骤:
将训练后改进Mask R-CNN算法模型进行模型评估,若训练后改进Mask R-CNN算法模型达到模型评估指标要求,则输出训练后改进Mask R-CNN算法模型;若训练后改进MaskR-CNN算法模型达不到模型评估指标指标要求,则对训练后改进Mask R-CNN算法模型重新进行训练,其中,模型评估指标包括平均精度均值(mAP)评估指标和交并比(IoU)评估指标。
本实施例中,通过对训练后改进Mask R-CNN算法模型进行模型评估,并且判断该模型是否达到模型评估指标的要求,模型评估指标包括平均精度均值(mAP)评估指标和交并比(IoU)评估指标,平均精度均值(mAP)评估指标和交并比(IoU)评估指标都为现有的评估指标,这样能够进一步对改进Mask R-CNN算法模型进行优化,从而提高改进Mask R-CNN算法模型识别的精准度。改进Mask R-CNN算法模型弥补原始Mask R-CNN算法模型的不足,使得改进后的算法模型能够适应于深海设备检测任务。
本申请的另一方面提供了一种基于5G+云边端水下机器人控制管理系统,所述系统包括:
采集模块,用于采集水下机器人的视频与图像传输数据,以及水下机器人中各设备的数据;
第一传输模块,用于将水下机器人的视频与图像传输数据和水下机器人中各设备的数据通过5G通讯网络和水声通讯技术传输至中心云节点;
模型构建模块,用于在中心云节点构建改进Mask R-CNN算法模型;
模型训练模块,用于使用水下机器人的视频与图像传输数据和水下机器人中各设备的数据对改进Mask R-CNN算法模型进行训练,得到训练后改进Mask R-CNN算法模型;
模型部署模块,用于将训练后改进Mask R-CNN算法模型部署至边缘云节点;
检测模块,用于通过训练后改进Mask R-CNN算法模型检测水下机器人中各个设备表面是否存在障碍物或损坏,得到检测结果;
第二传输模块,用于将检测结果通过5G通讯网络和水声通讯技术传输至中心云节点;
获得模块,用于得到相应的水下机器人控制指令。
本方案的一种基于5G+云边端水下机器人控制管理系统,通过采集模块、第一传输模块、模型构建模块、模型训练模块、模型部署模块、检测模块、第二传输模块和获得模块的相互配合,实现快速响应和控制水下机器人。
本方案使用了云边端控制框架,相比于传统的云端控制,由于中心云节点与边缘云节点的相互配合,中心云节点负责改进Mask R-CNN算法模型的训练,利用其硬件的优越性,分担了大部分的消耗功率,能够提高水下机器人的控制效率,使水下机器人的自我决策能力提升,反应更加迅速,更加有效地应对复杂的水下环境。本方案使用了改进Mask R-CNN算法模型,该算法模型能够更好的处理海下作业所采集到的图像,对水下机器人中各个设备表面障碍物或损坏的检测会更加精确。本方案中通过检测障碍物,并更加障碍物的厚度,合理调整水下机器人的电力资源,使得高压水枪获得合适的电力,提高了能源的利用率。
优选的,所述模型训练模块包括原始深海图像处理子模块,所述原始深海图像处理子模块包括:
转化子单元,用于基于线性景深模型图公式,以及通过调试确定的景深模型系数将原始深海图像转化为景深图;
其中,线性景深模型图公式如下:
sd(x)=u0+u1S(x)+u2V(x)+u3M(x)
其中,sd(x)表示线性景深模型图;S(x)表示图像的饱和度;V(x)表示图像的亮度;M(x)表示图像中红色通道与蓝绿色通道差异值;u0、u1、u2和u3均表示景深模型系数;
确定子单元,用于通过景深图上像素的明暗程度来确定深海场景的远近关系;
获取子单元,用于通过景深图映射在原始深海图像上获得估计的背景光候选范围,并选择候选范围中像素最大的像素点作为背景光位置,以获得原始深海图像三个通道的背景光,具体计算公式如下:
第一计算子单元,用于通过景深图分别计算出原始深海图像三个通道的传输地图;
导向滤波子单元,用于对原始深海图像三个通道的传输地图均使用导向滤波函数进行处理,得到滤波后原始深海图像三个通道的传输地图;
其中,滤波后原始深海图像三个通道的传输地图的计算公式如下:
其中,tR(x)表示滤波后原始深海图像R通道的传输地图;tG(x)表示滤波后原始深海图像G通道的传输地图;tB(x)表示原始深海图像B通道的传输地图;G(x)表示导向滤波函数;df(x)表示实际水下场景与相机之间的距离;0.825、0.950和0.970分别表示原始深海图像RGB三个通道标准化残留能量比;
第二计算子单元,用于将原始深海图像三个通道的背景光和滤波后原始深海图像三个通道的传输地图代入深海复原图像计算公式,得到深海复原图像;
其中,深海复原图像计算公式的如下:
本实施例中,通过转化子单元、确定子单元、获取子单元、第一计算子单元、导向滤波子单元和第二计算子单元的相互配合,实现线性景深模型对原始深海图像的处理,能够快速复原深海图像,使深海图像更加清晰化。
优选的,所述模型训练模块还包括障碍物或损坏特征提取模型训练子模块,所述障碍物或损坏特征提取模型训练子模块包括:
采集子单元,用于采集障碍物图像或损坏图像作为数据集;
标注子单元,用于对障碍物图像或损坏图像进行标注,得到障碍物图像或损坏图像对应的目标区域标签;
设置子单元,用于设置模型训练参数;
输入子单元,用于将障碍物图像或损坏图像对应的目标区域标签输入障碍物或损坏特征提取模型进行训练;
获得子单元,用于得到最优的障碍物或损坏特征提取模型。
本实施例中,通过采集子单元、标注子单元、设置子单元、输入子单元和获得子单元的相互配合,实现障碍物或损坏特征提取模型的训练。通过障碍物或损坏特征提取模型能够有效识别水下机器人中各设备表面障碍物或损坏。
进一步说明,障碍物图像或损坏图像的尺寸大小为227×227大小并带有RGB通道。对障碍物图像或损坏图像进行标注具体是标记障碍物图像或损坏图像的目标区域,即设备表面障碍物区域或者设备损坏区域,当所有障碍物图像或损坏图像标记完成后,可导出障碍物图像或损坏图像对应的目标区域标签,其中,障碍物图像对应的目标区域标签有海洋生物、淤泥和水下垃圾,损坏图像对应的目标区域标签有裂缝、生锈、磨损、破损、脏污和小孔。障碍物图像或损坏图像标注完成后,再进一步完成数据集特征的训练和学习。
设置模型训练参数,具体有处理图片的个数设置为2,训练数据集的轮数设置为200,学习率设置为0.004,权重衰减系数设置为0.0001,设置合适的模型系数,设置模型迭代轮数为800。在模型训练过程中,通过不断学习特征,loss损失随着模型学习特征而下降,最终达到收敛,即得到最优的模型。
优选的,还包括模型评估模块,所述模型评估模块用于将训练后改进Mask R-CNN算法模型进行模型评估,若训练后改进Mask R-CNN算法模型达到模型评估指标要求,则输出训练后改进Mask R-CNN算法模型;若训练后改进Mask R-CNN算法模型达不到模型评估指标指标要求,则对训练后改进Mask R-CNN算法模型重新进行训练,其中,模型评估指标包括平均精度均值(mAP)评估指标和交并比(IoU)评估指标。
本方案通过设置模型评估模块,能够对训练后改进Mask R-CNN算法模型进行评估,模型评估指标包括平均精度均值(mAP)评估指标和交并比(IoU)评估指标,平均精度均值(mAP)评估指标和交并比(IoU)评估指标都为现有的评估指标,这样能够进一步对改进Mask R-CNN算法模型进行优化,从而提高改进Mask R-CNN算法模型识别的精准度。改进Mask R-CNN算法模型弥补原始Mask R-CNN算法模型的不足,使得改进后的算法模型能够适应于深海设备检测任务。
此外,在本发明的各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
尽管上面已经示出和描述了本发明的实施方式,可以理解的是,上述实施方式是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种基于5G+云边端水下机器人控制管理方法,其特征在于:包括以下步骤:
步骤S1:采集水下机器人的视频与图像传输数据,以及水下机器人中各设备的数据,并将水下机器人的视频与图像传输数据和水下机器人中各设备的数据通过5G通讯网络和水声通讯技术传输至中心云节点;
步骤S2:在中心云节点构建改进Mask R-CNN算法模型;
步骤S3:使用水下机器人的视频与图像传输数据和水下机器人中各设备的数据对改进Mask R-CNN算法模型进行训练,得到训练后改进Mask R-CNN算法模型;
步骤S4:将训练后改进Mask R-CNN算法模型部署至边缘云节点,通过训练后改进MaskR-CNN算法模型检测水下机器人中各个设备表面是否存在障碍物或损坏,得到检测结果;
步骤S5:将检测结果通过5G通讯网络和水声通讯技术传输至中心云节点,得到相应的水下机器人控制指令。
2.根据权利要求1所述的一种基于5G+云边端水下机器人控制管理方法,其特征在于:在步骤S3中,改进Mask R-CNN算法模型包括线性深景模型,水下机器人的视频与图像传输数据包括原始深海图像的数据,在改进Mask R-CNN算法模型训练过程中,使用线性景深模型对原始深海图像进行处理,具体的处理步骤如下:
步骤S31:基于线性景深模型图公式,以及通过调试确定的景深模型系数将原始深海图像转化为景深图;
其中,线性景深模型图公式如下:
sd(x)=u0+u1S(x)+u2V(x)+u3M(x)
其中,sd(x)表示线性景深模型图;S(x)表示图像的饱和度;V(x)表示图像的亮度;M(x)表示图像中红色通道与蓝绿色通道差异值;u0、u1、u2和u3均表示景深模型系数;
步骤S32:通过景深图上像素的明暗程度来确定深海场景的远近关系;
步骤S33:通过景深图映射在原始深海图像上获得估计的背景光候选范围,并选择候选范围中像素最大的像素点作为背景光位置,以获得原始深海图像三个通道的背景光,具体计算公式如下:
步骤S34:通过景深图分别计算出原始深海图像三个通道的传输地图;
步骤S35:对原始深海图像三个通道的传输地图均使用导向滤波函数进行处理,得到滤波后原始深海图像三个通道的传输地图;
其中,滤波后原始深海图像三个通道的传输地图的计算公式如下:
其中,tR(x)表示滤波后原始深海图像R通道的传输地图;tG(x)表示滤波后原始深海图像G通道的传输地图;tB(x)表示原始深海图像B通道的传输地图;G(x)表示导向滤波函数;df(x)表示实际水下场景与相机之间的距离;0.825、0.950和0.970分别表示原始深海图像RGB三个通道标准化残留能量比;
步骤S36:将原始深海图像三个通道的背景光和滤波后原始深海图像三个通道的传输地图代入深海复原图像计算公式,得到深海复原图像;
其中,深海复原图像计算公式的如下:
3.根据权利要求2所述的一种基于5G+云边端水下机器人控制管理方法,其特征在于:在步骤S3中,改进Mask R-CNN算法模型还包括障碍物或损坏特征提取模型,障碍物或损坏特征提取模型的训练步骤如下:
步骤S37:采集障碍物图像或损坏图像作为数据集,并且对障碍物图像或损坏图像进行标注,得到障碍物图像或损坏图像对应的目标区域标签;
步骤S38:设置模型训练参数,将障碍物图像或损坏图像对应的目标区域标签输入障碍物或损坏特征提取模型进行训练,得到最优的障碍物或损坏特征提取模型。
4.根据权利要求1所述的一种基于5G+云边端水下机器人控制管理方法,其特征在于:在步骤S3中,还包括以下步骤:
将训练后改进Mask R-CNN算法模型进行模型评估,若训练后改进Mask R-CNN算法模型达到模型评估指标要求,则输出训练后改进Mask R-CNN算法模型;若训练后改进Mask R-CNN算法模型达不到模型评估指标指标要求,则对训练后改进Mask R-CNN算法模型重新进行训练,其中,模型评估指标包括平均精度均值(mAP)评估指标和交并比(IoU)评估指标。
5.一种基于5G+云边端水下机器人控制管理系统,其特征在于:使用如权利要求1-4任意一项所述基于5G+云边端水下机器人控制管理方法,所述系统包括:
采集模块,用于采集水下机器人的视频与图像传输数据,以及水下机器人中各设备的数据;
第一传输模块,用于将水下机器人的视频与图像传输数据和水下机器人中各设备的数据通过5G通讯网络和水声通讯技术传输至中心云节点;
模型构建模块,用于在中心云节点构建改进Mask R-CNN算法模型;
模型训练模块,用于使用水下机器人的视频与图像传输数据和水下机器人中各设备的数据对改进Mask R-CNN算法模型进行训练,得到训练后改进Mask R-CNN算法模型;
模型部署模块,用于将训练后改进Mask R-CNN算法模型部署至边缘云节点;
检测模块,用于通过训练后改进Mask R-CNN算法模型检测水下机器人中各个设备表面是否存在障碍物或损坏,得到检测结果;
第二传输模块,用于将检测结果通过5G通讯网络和水声通讯技术传输至中心云节点;
获得模块,用于得到相应的水下机器人控制指令。
6.根据权利要求5所述的一种基于5G+云边端水下机器人控制管理系统,其特征在于:所述模型训练模块包括原始深海图像处理子模块,所述原始深海图像处理子模块包括:
转化子单元,用于基于线性景深模型图公式,以及通过调试确定的景深模型系数将原始深海图像转化为景深图;
其中,线性景深模型图公式如下:
sd(x)=u0+u1S(x)+u2V(x)+u3M(x)
其中,sd(x)表示线性景深模型图;S(x)表示图像的饱和度;V(x)表示图像的亮度;M(x)表示图像中红色通道与蓝绿色通道差异值;u0、u1、u2和u3均表示景深模型系数;
确定子单元,用于通过景深图上像素的明暗程度来确定深海场景的远近关系;
获取子单元,用于通过景深图映射在原始深海图像上获得估计的背景光候选范围,并选择候选范围中像素最大的像素点作为背景光位置,以获得原始深海图像三个通道的背景光,具体计算公式如下:
第一计算子单元,用于通过景深图分别计算出原始深海图像三个通道的传输地图;
导向滤波子单元,用于对原始深海图像三个通道的传输地图均使用导向滤波函数进行处理,得到滤波后原始深海图像三个通道的传输地图;
其中,滤波后原始深海图像三个通道的传输地图的计算公式如下:
其中,tR(x)表示滤波后原始深海图像R通道的传输地图;tG(x)表示滤波后原始深海图像G通道的传输地图;tB(x)表示原始深海图像B通道的传输地图;G(x)表示导向滤波函数;df(x)表示实际水下场景与相机之间的距离;0.825、0.950和0.970分别表示原始深海图像RGB三个通道标准化残留能量比;
第二计算子单元,用于将原始深海图像三个通道的背景光和滤波后原始深海图像三个通道的传输地图代入深海复原图像计算公式,得到深海复原图像;
其中,深海复原图像计算公式的如下:
7.根据权利要求6所述的一种基于5G+云边端水下机器人控制管理系统,其特征在于:所述模型训练模块还包括障碍物或损坏特征提取模型训练子模块,所述障碍物或损坏特征提取模型训练子模块包括:
采集子单元,用于采集障碍物图像或损坏图像作为数据集;
标注子单元,用于对障碍物图像或损坏图像进行标注,得到障碍物图像或损坏图像对应的目标区域标签;
设置子单元,用于设置模型训练参数;
输入子单元,用于将障碍物图像或损坏图像对应的目标区域标签输入障碍物或损坏特征提取模型进行训练;
获得子单元,用于得到最优的障碍物或损坏特征提取模型。
8.根据权利要求5所述的一种基于5G+云边端水下机器人控制管理系统,其特征在于:还包括模型评估模块,所述模型评估模块用于将训练后改进Mask R-CNN算法模型进行模型评估,若训练后改进Mask R-CNN算法模型达到模型评估指标要求,则输出训练后改进MaskR-CNN算法模型;若训练后改进Mask R-CNN算法模型达不到模型评估指标指标要求,则对训练后改进Mask R-CNN算法模型重新进行训练,其中,模型评估指标包括平均精度均值(mAP)评估指标和交并比(IoU)评估指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310457781.6A CN116434081A (zh) | 2023-04-25 | 2023-04-25 | 一种基于5g+云边端水下机器人控制管理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310457781.6A CN116434081A (zh) | 2023-04-25 | 2023-04-25 | 一种基于5g+云边端水下机器人控制管理方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116434081A true CN116434081A (zh) | 2023-07-14 |
Family
ID=87088913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310457781.6A Pending CN116434081A (zh) | 2023-04-25 | 2023-04-25 | 一种基于5g+云边端水下机器人控制管理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116434081A (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038459A (zh) * | 2017-12-20 | 2018-05-15 | 深圳先进技术研究院 | 一种水下生物的检测识别方法、终端设备及存储介质 |
CN108596853A (zh) * | 2018-04-28 | 2018-09-28 | 上海海洋大学 | 基于背景光统计模型和传输地图优化的水下图像增强方法 |
CN111080537A (zh) * | 2019-11-25 | 2020-04-28 | 厦门大学 | 水下机器人智能控制方法、介质、设备及系统 |
CN112085728A (zh) * | 2020-09-17 | 2020-12-15 | 哈尔滨工程大学 | 一种海底管道及泄漏点检测方法 |
CN112862876A (zh) * | 2021-01-29 | 2021-05-28 | 中国科学院深海科学与工程研究所 | 一种用于水下机器人的实时深海视频图像增强方法 |
CN112926645A (zh) * | 2021-02-22 | 2021-06-08 | 国网四川省电力公司营销服务中心 | 一种基于边缘计算的窃电检测方法 |
CN113139497A (zh) * | 2021-05-08 | 2021-07-20 | 广东工业大学 | 一种水面物体识别的系统、方法及基于5g mec的应用 |
CN114560059A (zh) * | 2022-03-08 | 2022-05-31 | 三峡大学 | 水下救生机器人及救援方法 |
CN115185287A (zh) * | 2022-07-29 | 2022-10-14 | 安徽科技学院 | 一种智能多水下机器人动态避障及围捕控制系统 |
CN115933868A (zh) * | 2022-10-24 | 2023-04-07 | 华中师范大学 | 翻转讲台的立体综合教学场系统及其工作方法 |
CN116360996A (zh) * | 2023-03-31 | 2023-06-30 | 重庆大学 | 一种车联网环境下的可靠边缘加速推理任务分配方法 |
-
2023
- 2023-04-25 CN CN202310457781.6A patent/CN116434081A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038459A (zh) * | 2017-12-20 | 2018-05-15 | 深圳先进技术研究院 | 一种水下生物的检测识别方法、终端设备及存储介质 |
CN108596853A (zh) * | 2018-04-28 | 2018-09-28 | 上海海洋大学 | 基于背景光统计模型和传输地图优化的水下图像增强方法 |
CN111080537A (zh) * | 2019-11-25 | 2020-04-28 | 厦门大学 | 水下机器人智能控制方法、介质、设备及系统 |
CN112085728A (zh) * | 2020-09-17 | 2020-12-15 | 哈尔滨工程大学 | 一种海底管道及泄漏点检测方法 |
CN112862876A (zh) * | 2021-01-29 | 2021-05-28 | 中国科学院深海科学与工程研究所 | 一种用于水下机器人的实时深海视频图像增强方法 |
CN112926645A (zh) * | 2021-02-22 | 2021-06-08 | 国网四川省电力公司营销服务中心 | 一种基于边缘计算的窃电检测方法 |
CN113139497A (zh) * | 2021-05-08 | 2021-07-20 | 广东工业大学 | 一种水面物体识别的系统、方法及基于5g mec的应用 |
CN114560059A (zh) * | 2022-03-08 | 2022-05-31 | 三峡大学 | 水下救生机器人及救援方法 |
CN115185287A (zh) * | 2022-07-29 | 2022-10-14 | 安徽科技学院 | 一种智能多水下机器人动态避障及围捕控制系统 |
CN115933868A (zh) * | 2022-10-24 | 2023-04-07 | 华中师范大学 | 翻转讲台的立体综合教学场系统及其工作方法 |
CN116360996A (zh) * | 2023-03-31 | 2023-06-30 | 重庆大学 | 一种车联网环境下的可靠边缘加速推理任务分配方法 |
Non-Patent Citations (1)
Title |
---|
郭威等: "应用于水下机器人的快速深海图像复原算法", 光学学报, vol. 42, no. 4, pages 2 - 3 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109375633A (zh) | 基于全局状态信息的河道清理路径规划系统及方法 | |
CN110717532A (zh) | 基于SE-RetinaGrasp模型的机器人目标抓取区域实时检测方法 | |
CN112588764A (zh) | 基于人工智能的光伏组件上多机器人协同清洁方法及装置 | |
CN104504658A (zh) | 基于bp神经网络的单一图像去雾方法及装置 | |
CN112083437A (zh) | 一种船用激光雷达与视频联合目标捕捉系统及方法 | |
CN107038718B (zh) | 雾霾环境下的深度计算方法 | |
CN101330595A (zh) | 超远程雷达与视频联动控制系统 | |
CN111242080A (zh) | 一种基于双目相机与深度相机的输电线识别与定位方法 | |
CN112395961A (zh) | 一种洒水车的视觉主动行人避让及水压自适应控制方法 | |
CN110246151A (zh) | 一种基于深度学习和单目视觉的水下机器人目标跟踪方法 | |
KR20170101455A (ko) | 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3d 카메라를 장착한 로봇의 트레이닝 방법 | |
CN108415441A (zh) | 基于单目视觉的水下机器人目标跟随系统及其方法 | |
CN113538702A (zh) | 一种海洋养殖区水下场景全景图生成方法 | |
CN104240229A (zh) | 一种红外双目相机自适应极线校正方法 | |
CN112561996A (zh) | 一种自主水下机器人回收对接中目标检测方法 | |
CN111263044A (zh) | 一种水下拍摄及图像处理装置及方法 | |
CN116434081A (zh) | 一种基于5g+云边端水下机器人控制管理方法及系统 | |
CN112862876B (zh) | 一种用于水下机器人的实时深海视频图像增强方法 | |
CN109911153B (zh) | 一种可固定式切换摄像角度的无人设备 | |
Wang et al. | Design of HD video surveillance system for deep-sea biological exploration | |
CN110532892B (zh) | 一种非结构化道路单幅图像道路消失点检测方法 | |
CN114720989A (zh) | 一种双目视觉与声呐协同探测方法及一体化跨域探测系统 | |
CN113942623A (zh) | 一种智慧航行平台和航行方法 | |
CN209541789U (zh) | 一种用于桥梁水下结构检测的水下机器人检测系统 | |
CN112966594A (zh) | 一种环境感知方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |