CN106843242A - 一种水下船体清洁的群体机器人系统 - Google Patents
一种水下船体清洁的群体机器人系统 Download PDFInfo
- Publication number
- CN106843242A CN106843242A CN201710169499.2A CN201710169499A CN106843242A CN 106843242 A CN106843242 A CN 106843242A CN 201710169499 A CN201710169499 A CN 201710169499A CN 106843242 A CN106843242 A CN 106843242A
- Authority
- CN
- China
- Prior art keywords
- robot
- cleaning
- unmanned boat
- under
- robots
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004140 cleaning Methods 0.000 title claims abstract description 94
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 64
- 238000005520 cutting process Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 25
- 238000004458 analytical method Methods 0.000 claims abstract description 8
- 238000005498 polishing Methods 0.000 claims abstract description 7
- 239000007787 solid Substances 0.000 claims abstract description 4
- 210000002569 neuron Anatomy 0.000 claims description 44
- 230000006870 function Effects 0.000 claims description 23
- 230000004888 barrier function Effects 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 11
- 230000005284 excitation Effects 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 5
- 238000013500 data storage Methods 0.000 claims description 5
- 239000012535 impurity Substances 0.000 claims description 5
- 230000005888 antibody-dependent cellular phagocytosis Effects 0.000 claims description 4
- 229910052736 halogen Inorganic materials 0.000 claims description 4
- 150000002367 halogens Chemical class 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims description 4
- 239000000463 material Substances 0.000 claims description 4
- 230000001537 neural effect Effects 0.000 claims description 4
- 230000000274 adsorptive effect Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 230000003749 cleanliness Effects 0.000 claims description 3
- 230000007423 decrease Effects 0.000 claims description 3
- 239000002689 soil Substances 0.000 claims description 3
- 238000009987 spinning Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000010365 information processing Effects 0.000 claims description 2
- 239000004575 stone Substances 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 13
- 230000001276 controlling effect Effects 0.000 description 9
- 230000007935 neutral effect Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 4
- 230000006641 stabilisation Effects 0.000 description 4
- 238000011105 stabilization Methods 0.000 description 4
- 241000195493 Cryptophyta Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 229910003460 diamond Inorganic materials 0.000 description 2
- 239000010432 diamond Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 239000003643 water by type Substances 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 210000000170 cell membrane Anatomy 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 239000000295 fuel oil Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000036403 neuro physiology Effects 0.000 description 1
- 239000003921 oil Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/04—Control of altitude or depth
- G05D1/06—Rate of change of altitude or depth
- G05D1/0692—Rate of change of altitude or depth specially adapted for under-water vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种水下船体清洁的群体机器人系统方法,该方法内容包括如下步骤:通过母船上控制台操控无人船到达预清理位置附近并释放侦察型机器人,侦察型机器人通过双目立体摄像头所获得水下船体表面的深度立体图像和详细位置数据传给无人船工作站;无人船工作站通过对侦察机器人传回的数据进行初步分析判断给出水下清理污垢分类和清理模式并将详细数据传到母船控制台上;母船操作人员可以通过数据回放功能,观察水下画面信息确认采用并联还是串联或者单独清理模式,通常是先由破坚机器人或者切割机器人对大面积附着物进行初步清理,然后清除机器人采取跟随策略完成剩下的局部的难以清除区域,最后由清理机器人进行最后的抛光处理工作。
Description
技术领域
本发明涉及一种水下船体清洁的群体机器人系统。
背景技术
船体在海上长期航行或者进行作业时,吃水线以下的船体外壳部分含有大量需要清理的由污渍、贝壳、藻类等附着物构成的垢层,大大增加了船舶阻力,不利于航行,意味着保持一定航速必然导致油耗的增加,为合理利用和节省燃油,保证船舶的正常航行和延长其使用寿命需要定期的对船舶水下船体附着物进行清洗。目前,船体的清洗主要通过人工潜水或船坞清洗来实现,因垢层致密且面积大,船体的水下清洗工作往往较为复杂,手工操作不能满足高效率和质量上的要求,同时由于潜水员水下作业时,能见度低,作业强度和难度较大,潜水员易疲劳,作业质量和效率难以保证。
发明内容
本发明的目的是为了克服以上的不足,本发明的目的是提供一种通用性强、可扩展性强、具有图形化的用户界面、对动态过程进行模拟并提供记录和回放的多水下机器人集群控制系统。一种水下船体清洗的群体机器人,能够完成船体的水下清洗工作,减轻人员的工作量,降低成本,提高工作效率,并且可进行实时操控、克服盲区作业。
本发明是通过以下技术方案实现的:一种水下船体清洁的群体机器人系统,包括侦察型机器人、清除型机器人、破坚型机器人、切割型机器人、清理型机器人、无人船工作站;所述水下船体清洁的群体机器人系统以无人船为载体,集成北斗导航系统、陀螺仪、ADCP、声纳系统等多种高精度传感设备,利用导航、通讯和自动控制等软件和设备,在母船上实时接收、处理和分析无人船系统所采集的数据并以自控和遥控方式对无人船和其他机器人进行操作和控制,同时具有为群体机器人无线充电和巡检功能;母船上的控制台装有图像显示器、全方位操纵杆、控制按钮,数据接收器,具有显示采集的实时图像和数据存储功能,从而实现精准控制群体机器人。
一种水下船体清洁的群体机器人系统方法,该方法内容包括如下步骤:
通过母船上控制台操控无人船到达预清理位置的附近位置;释放侦察型机器人进行水下船体全方位立体侦察,侦察型机器人通过双目立体摄像头所获得水下船体表面的深度立体图像、被清除物面积大小和详细位置数据传给无人船工作站;无人船工作站通过对侦察机器人传回的数据进行初步分析判断出水下清理分类,以及所需何种机器人进行清理,然后将立体图像、被清除物面积大小和详细位置数据传到母船控制台上显示器复现以及给出的判断信息;母船操作人员可以通过数据回放功能,观察水下画面信息进一步确认由哪种机器人出动清理,若操作人员确认无人船给出的判断信息,则无人船会对相应的机器人规划到达清理区域的最佳路径并发出控制指令;否则操作人员给出所选择的出动清理机器人类型,才能进行下一步的清理工作。对于需要整体清洗类型(表示清除整个水下船体所有油漆表面和附件)采用并联的连接方式进行清理。对于局部清洗(指对船体某一部分进行清洗,如船体的前1/3或2/3、附件)可以采用串联连接方式或者单独方式进行清理,不同类型机器人需要通过协议模式协作完成清理工作;对于大型复杂的杂质污垢,例如像贝壳之类坚硬的污垢先由破坚机器人作业,对于船体的复杂部位,母船通过无人船向破坚机器人发出到达指定清理区域指令进行清理工作,前端钻头部分可以根据环境需要进行-90°~+90°旋转;而对于面积较大的杂质污垢区域(例如藻类堆积之类),母船通过无人船向切割机器人发出到达指定清理区域指令进行清理工作,而清除机器人通过队友模式获取其他机器人的状态及位置信息,采取跟随策略完成剩下的局部的难以清除区域,最后由清理机器人通过队友模式获取其他机器人运动停止状态后进行最后的抛光处理。
所述群体机器人系统由无人船系统和母船控制系统两部分混合控制系统组成,其技术特点:(1)无舵自动走航及其精准控制系统设计(2)基于无线局域网的远距离通讯与实时多模控制;(3)双浮筒式的浮力供给和姿态稳定技术;所述船体上还设有全方位避障设备,包括数字雷达、激光雷达和前视声纳,全方位避障设备用于多重扫描保障无人船全方位安全避障。
所述混合系统控制无人船与水下机器人协同作业,形成水面上下立体化操作系统;无人船能搭载水下机器人快速自动导航到指定水域,并通过数字雷达、激光雷达和前视声纳完成全方位自动避障;水下机器人通过通讯线缆与无人船通讯互动,在接受无人船的控制指令后完成操作任务,同时返回水下机器人状态和监测数据。船载可编程控制器具备数据存储、录波回放功能,能记录系统作业过程各项数据,通过船载通讯设备与母船测控中心形成联动。通过船载图传电台完成系统实地作业的大数据远距离传输。水下机器人能在暂停作业时自动挂靠到无人船上,由无人船快速运载到下一个作业区域或返航。
所述无人船可为水下机器人提供停靠平台,并通过柴油发动机内置发电机给船载电池组供电,并通过无线充电给水下机器人充电;混合系统可以监视整个系统电量状况,并分析使用趋势,判断电量不足或整个任务完成后,无人船携带水下机器人自动返航。
所述无人船控制模块采用分层分布协作控制结构,包括作为主线程的全场信息处理智能体,在所述主线程下设置有协作层、规划层、动作层和执行层;所述主线程通过多个线程控制各所述水下机器人,各所述机器人的控制模块和与其对应的所述协作控制子模块构成一个线程;所述协作层包括各线程中的通信子模块和协作子模块,所述规划层包括各所述线程中的规划推理子模块,所述动作层包括各所述线程中的动作子模块,所述执行层包括各所述水下机器人的控制模块。
所述无人船路径规划是基于生物激励的神经网络用于清刷机器人的工作环境建模,动态神经元激励场景代表动态变化环境,动态神经元激励场景中的波峰代表目标,波谷代表障碍物。对应到遍历路径规划中,波峰代表未遍历区域,波谷代表障碍物,介于两者之间的部分代表遍历过的区域。设清刷机器人工作空间为二维结构化空间,障碍物的大小和位置在机器人清刷过程中都不发生变化,并把机器人工作空间划分为大小相同的栅。并用栅格数组表示环境。栅格对角线与机器人的清刷直径相等,这样当机器人通过栅格中心点时,就可以完成该栅格的清刷工作,即当机器人通过离散的中心点就可视为完成该区域的清刷工作。如果机器人走过环境中的所有点,即视为机器人完成了工作空间的全区域覆盖。
所述侦察型机器人采用水下全封闭250瓦高效卤素灯照明设备,同时采用水下全封闭的高分辨率的双目摄像头,从而建立双目立体视觉自主导航定位系统,具有照明,视觉识别和标定,可定位和里程计算等功能,从而对水下清理位置进行精准识别定位。
所述双目视觉识别系统采用神经网络识别算法,对被清除物面积进行识别,根据被清除物的大小而采取相应机器人进行清理工作。
所述破坚机器人可对坚硬物质进行清除,且钻头可进行-90°~+90°度旋转控制。
所述切割机器人可对面积较大区域的杂物进行清除方便其他机器人的进一步清除工作,六自由度切割机器人机械结构主要由自旋转卡盘、割炬升降机构、割炬轴向摆动机构和旋转机构、割炬径向移动机构、切割系统等组成。割炬可以实现升降、左右摆动以及360度旋转。机器人各轴采用伺服电机控制的闭环系统,控制精度高。所述切割片厚度为2~3.5mm的薄钢片,其外缘嵌有细微金刚石磨料。
所述清理机器人两侧设置圆形刷盘,可进行最后部分简单的污渍清除,抛光处理工作。
所述群体机器人是自适应电磁吸引方式吸附在船体上,通过增加电磁铁的个数来增加磁性吸附力,双履带式结构驱动运动,通过接口相互组合一起。并且后驱动方式更为重要的优点在于提高了清刷机器人对船体表面的适应性。当履带经过船体表面的突起时,位于前面的从动轮在主动轮的驱使下,会更好地将履带移至与船体表面接触,这样清刷机器人与船体表面贴合的磁性履带加长,使得履带能更好地适应船体表面所述群体机器人可进行两种合作方式:并联和串联。这两种连接方法能够应对需要在短时间内及时清除船体的污垢的突发情况;为了有效侦察水下情况,两种方式都由侦察型开始和结束保证清洁效率和洁净度。
本发明与现有技术相比的有益效果是:工作人员可在工作母船上的清除水下船体附着物机器人控制台上,通过操纵专用操纵手柄的简单动作达到遥控清除水下船体附着物机器人在水下沿船体进行一系列的高效作业动作。本系统采用由多个成员组成的集群空间机器人进行协同操作,完成此类清理任务。多机器人展现出协调的行为可以极大程度地提高整个系统的效用。相对于单机器人系统,多机器人系统在空间、资源、功能上的分布性,使之具有更高的工作效率和更广阔的任务领域;其次,多机器人系统较高的冗余性使之具有更强的容错能力和更高的鲁棒性。
附图说明
图1是本发明方法的集群机器人工作流程示意图;
图2是双目视觉系统构成图;
图3是双目视觉系统工作原理图;
图4是无人船控制系统的组成;
图5是无人船控制系统工作流程示意图。
具体实施方式
以下结合附图与具体实施方式对本发明做更为详细的说明:
本发明的一种水下船体清洁的群体机器人系统,如图1所示,其内容包括如下步骤:一种水下船体清洁的群体机器人系统,主要由侦察型机器人、清除型机器人、破坚型机器人、切割型机器人、清理型机器人、无人船工作站六部分组成。所述水下船体清洁的群体机器人系统以无人船为载体,集成北斗导航系统、陀螺仪、ADCP、声纳系统等多种高精度传感设备,利用导航、通讯和自动控制等软件和设备,在母船上实时接收、处理和分析无人船系统所采集的数据并以自控和遥控方式对无人船和其他机器人进行操作和控制,同时具有为群体机器人无线充电和巡检功能。母船上的控制台装有图像显示器、全方位操纵杆、控制按钮,数据接收器,具有显示采集的实时图像和数据存储功能,从而实现精准控制群体机器人。
图1示出了本发明水下船体清洁的群体机器人系统的实施过程,通过母船上控制台操控无人船到达预清理位置的附近位置;释放侦察型机器人进行水下船体全方位立体侦察,侦察型机器人通过双目立体摄像头所获得水下船体表面的深度立体图像、被清除物面积大小和详细位置数据传给无人船工作站;无人船工作站通过对侦察机器人传回的数据进行初步分析判断出水下清理分类,以及所需何种机器人进行清理,然后将立体图像、被清除物面积大小和详细位置数据传到母船控制台上显示器复现以及给出的判断信息;母船操作人员可以通过数据回放功能,观察水下画面信息进一步确认由哪种机器人出动清理,若操作人员确认无人船给出的判断信息,则无人船会根据相应的清理模式对相应的机器人发出控制指令并规划到达清理区域的最佳路径;否则操作人员自定义清理模式类型,才能进行下一步的清理工作。不同类型的机器人可以进行相互通信,获取彼此之间的工作状态,从而确保有效实施串并联方式的组合,两种方式都由侦察型开始和结束保证清洁效率和洁净度。
所述的清理模式类型分为整体清洁模式和局部清洁模式。对于需要整体清洗类型(表示清除整个水下船体所有油漆表面和附着物)采用并联的连接方式进行清理,即根据预清理面积,侦察机器人、清除型机器人、破坚型机器人、切割型机器人、清理型机器人通过接口相互并成一排,开始和结束都是以侦察机器人结束。对于局部清洗(指对船体某一部分进行清洗,如船体的前1/3或2/3、附着物)可以采用串联连接方式或者单独方式进行清理,从而在有限的时间和资源下获得最大的效益。
所述局部清洗模式时,不同类型机器人需要通过协议模式协作完成清理工作。对于大型复杂的杂质污垢,例如像贝壳之类坚硬的污垢先由破坚机器人作业,对于船体的复杂部位,母船通过无人船向破坚机器人发出到达指定清理区域指令进行清理工作,前端钻头部分可以根据环境需要进行-90°~+90°旋转;而对于面积较大的杂质污垢区域(例如藻类堆积之类),母船通过无人船向切割机器人发出到达指定清理区域指令进行清理工作,而清除机器人通过队友模式获取其他机器人的状态及位置信息,采取跟随策略完成剩下的局部的难以清除区域,最后由清理机器人通过队友模式获取其他机器人运动停止状态后进行最后的抛光处理。
一种水下船体清洁的群体机器人系统,由无人船系统和母船控制系统两部分组成混合控制系统,无人船系统包括侦察型机器人、清除型机器人、破坚型机器人、切割型机器人、清理型机器人、无人船工作站;所述水下船体清洁的群体机器人系统以无人船为载体,集成北斗导航系统、陀螺仪、ADCP、声纳系统,利用导航、通讯和母船控制系统,在母船上实时接收、处理和分析无人船系统所采集的数据并以自控和遥控方式对无人船和其他机器人进行操作和控制,无人船工作站具有为群体机器人无线充电和巡检功能;母船上的控制台装有图像显示器、全方位操纵杆、控制按钮,数据接收器,具有显示采集的实时图像和数据存储功能,从而实现精准控制群体机器人
所述群体机器人系统由无人船系统和母船控制系统两部分组成混合控制系统,其技术特点:(1)无舵自动走航及其精准控制系统设计(2)基于无线局域网的远距离通讯与实时多模控制;(3)双浮筒式的浮力供给和姿态稳定技术。所述船体上还设有全方位避障设备,包括数字雷达、激光雷达和前视声纳,全方位避障设备用于多重扫描保障无人船全方位安全避障。
所述混合系统控制无人船与水下机器人协同作业,形成水面上下立体化操作系统;无人船能搭载水下机器人快速自动导航到指定水域,并通过数字雷达、激光雷达和前视声纳完成全方位自动避障;水下机器人通过通讯线缆与无人船通讯互动,在接受无人船的控制指令后完成操作任务,同时返回水下机器人状态和监测数据。船载可编程控制器具备数据存储、录波回放功能,能记录系统作业过程各项数据,通过船载通讯设备与母船测控中心形成联动。通过船载图传电台完成系统实地作业的大数据远距离传输。水下机器人能在暂停作业时自动挂靠到无人船上,由无人船快速运载到下一个作业区域或返航。
所述无人船可为水下机器人提供停靠平台,并通过柴油发动机内置发电机给船载电池组供电,并通过无线充电给水下机器人充电;混合系统可以监视整个系统电量状况,并分析使用趋势,判断电量不足或整个任务完成后,无人船携带水下机器人自动返航。
所述混合控制系统包括无人船控制模块,采用分层分布协作控制结构,包括作为主线程的全场信息处理智能体,在所述主线程下设置有协作层、规划层、动作层和执行层;所述主线程通过多个线程控制各所述水下机器人,各所述机器人的控制模块和与其对应的所述协作控制子模块构成一个线程;所述协作层包括各线程中的通信子模块和协作子模块,所述规划层包括各所述线程中的规划推理子模块,所述动作层包括各所述线程中的动作子模块,所述执行层包括各所述水下机器人的控制模块。
所述协作层中,各所述协作子模块对应协议模型、队友模型,各所述协议模型与对应的所述水下机器人通讯,并在所述协作层中各所述线程的协作子模块之间接收和发送信息;所述队友模型反映队友的状态及队友所处的状态。
所述动作层中,所述动作子模块对应动作模型,用于控制对应的所述水下机器人的基本动作。
所述执行层中,所述机器人控制模块对应对象模型和控制规则;所述对象模型反映电机运动状态的变化,记录电机转速、偏差的参数;所述控制规则控制对应的所述水下机器人的动作。
所述规划层中,所述规划推理子模块对应自身模型、对手模型;所述自身模型记录对应的所述水下机器人的自身状态并反映所述水下机器人所处的意识状态;所述对手模型反映对手的状态及对手所处的状态。
所述无人船路径规划是基于生物激励的神经网络用于清刷机器人的工作环境建模,动态神经元激励场景代表动态变化环境,动态神经元激励场景中的波峰代表目标,波谷代表障碍物。对应到遍历路径规划中,波峰代表未遍历区域,波谷代表障碍物,介于两者之间的部分代表遍历过的区域。设清刷机器人工作空间为二维结构化空间,障碍物的大小和位置在机器人清刷过程中都不发生变化,并把机器人工作空间划分为大小相同的栅。并用栅格数组表示环境。栅格对角线与机器人的清刷直径相等,这样当机器人通过栅格中心点时,就可以完成该栅格的清刷工作,即当机器人通过离散的中心点就可视为完成该区域的清刷工作。如果机器人走过环境中的所有点,即视为机器人完成了工作空间的全区域覆盖。基于神经细胞膜的电路模型和描述细胞膜跨模电压Vm动力学学方程(H-H模型)得到:
式中:xi—第i个神经元的状态;
A—衰减速度,为非负数;
B、D—分别为神经元活动的上下限,均为非负数;
—分别为神经元的兴奋和抑制输入。
所述生物激励神经网络模型就是通过拓扑的方面把机器人工作空间A离散化.第i个神经元在神经网络空间S中的位置通过矢量qi∈R2,表示机器人在工作空间A中的唯一位置。未清刷区域和与该神经元互连的神经元作为兴奋的阈值,用障碍物作为抵制的阈值。设有n个神经元互连,以第i个神经元作为对象,它从其它所有神经元j(j=1,2,3……,n)输入信息,它们组成了神经网络空间S中的子集Ri。子集Ri在神经生理学中叫作第i个神经元的邻域。神经元仅对邻域的刺激做出反应。从而,第i个神经元在神经网络中的动力学方程可通过以下分流方程((shunting equation)表示:
其中k是与第i个神经元互连的神经元个数,几为第i个神经元的外部输入。如果该模型用来描述清刷机器人全区域覆盖运动的工作环境信息,则1i可定义为
其中,E>>B,是一个很大的正常数,[Ii]-代表第i个神经元的抑制输入信号,代表第i个神经元的激励输入信号和其互连的神经元状态的作用。非线性门限值函数定义为[a]+=max{a,0};[a]-=max{-a,0}。第i个神经元和第j个神经元之间的连接值可以定义为wij=f(|qi-qj|),|qi-qj|代表状态空间上的向量qi和qj之间的欧氏距离。f(a)可以是任意单调递减的函数,例如可以定义为
μ和r0都是正常数。如果以某个神经元为圆心,作一个半径为r0的圆,则该神经元仅与该圆内的神经元有直接联系,权系数wij是对称的,即wij=wji。取r0=2,半径为r0的圆代表第i个神经元的邻域,邻域内有8个神经元与其互连。当C代表当前神经元,1,2……,8分别代表在神经元C的邻域内与其互连的神经元1,神经元2,……神经元8。与当前神经元接近的障碍,可以通过神经网络激励场景得到。当前神经元C接受其与其互连的8个神经元的刺激,如果用xi代表第i个神经元的状态,那么如果神经元xi代表障碍物时,其处部输入Ii可定义为Ii=-E。由上式可知,x3,x5,x6,x7,x8对神经元C的输入为抑制信号,其他邻域的神经元为激励信号。由于上式表示的神经网络中的激励神经元具有全局影响作用,而抑制神经元只有局部影响作用,所以经过神经网络动力学分析,当机器人到达位置C后,机器人就会自动从位置C移动到位置D。具体方法按下式实现
其中,c是一个正常数,k是邻域的神经元的总数,yj是一个关于机器人上一步所在位置pp和当前位置pc及下一步可能所在位置pj的函数,函数定义为
其中,Δθj∈[0,π]表示当前移动向与下一步称动方向之间的夹角,可表示为
机器人由当前位置到达下一位置后,下一位置成为新的当前位置,再由同样方法到达下一位置。如果机器人走过环境中的所有点,即视为机器人完成了工作空间的全区域覆盖。
所述侦察型机器人(1)采用水下全封闭250瓦高效卤素灯照明设备,同时采用水下全封闭的高分辨率的双目摄像头,从而建立双目立体视觉自主导航定位系统,具有照明,视觉识别和标定,可定位和里程计算等功能,从而对水下清理位置进行精准识别定位。
所述侦察型机器人采用水下全封闭的高分辨率的双目摄像头,并配有水下全封闭250瓦高效卤素灯照明设备,从而建立双目立体视觉自主导航定位系统,具有照明,视觉识别和标定,可对水下清理位置进行三维精准识别定位并实现里程计算等功能。
所述双目视觉识别系统采用神经网络识别算法,对被清除物面积进行识别,根据被清除物的面积大小而采取相应机器人进行清理工作。目标神经网络识别算法是以边缘特征匹配法为基础的三维目标识别的算法,是从二维图象恢复物体的三维坐标,获的深度消息,提取三维目标特征参数为前提的神经网络识别算法。神经网络由输入层、一层或多层隐含层、输出层三部分组成。本文采用的反向传播算法。即BP算法,是将非线性多层感知器系统的判别能力与最小均方学习算法相结合而使均方误差函数梯度极小化的运算过程,BP学习算法步骤如下:
(1)将全部权值与结点的阈值预置为一个小的随机值
(2)加载输入输出
在n个输入结点上加载一个n维输入向量x,并指出每一个输出结点的期望值t。除了表征与输入相应模式类的输出结点期望值为1外,其余的输出结点的期望值均为指定的0.每次训练可从样本集中选取新的同类或异类样本,直到权值对各类样本均达到稳定。为保证好的分类效果,准备足够数量的各类样本。
(3)计算实际的输出y1,y2,y3……yn,式中θ为阈值
(4)修正权值
权值修正采用LMS算法的思想,其过程是从输入结点开始,反向地向第一隐含层(存在多层隐含时最接近输入层的隐含层)传播由总误差诱发的权值修正,下一时刻的互联权值wij(t+1)由下式给出
wij(t+1)=wij(t)+ηδjxi'
式中,j为本节点的序号,i则是隐含层或输入层结点的序号,x′i是结点的输出,η为增益项,δj为误差项,取值有两种情况:
若j为输出结点,则
δj=yj(1-yj)(lj-yj)
式中,lj为输出结点的期望值,yj为该结点的实际输出值;
若j为内部隐含结点,则
δj=xj(1-xj)kΣδkwjk
其中k为结点所在层之上各层的全部结点。
(5)在达到预定误差精度或循环次数后退出,否则转步骤(2)。
采用BP算法实现分类时,用了一层隐含层。由特征向量构成了输入层,输出的四类模式分别为正方体、球、三梭柱和椭球。通过试脸,得到上千个教据作为样本进行脱机训练,构造并生成了一组稳定的权值向量,使联机识别率达到百分之百。
双目立体视觉系统和自主定位系统,包括数字图像的获取、摄像机标定、图像预处理与特征提取、立体匹配、深度信息提取及三维重建等六个部分。本系统采用视觉模型为平行双目立体视觉模型,将摄像机C的坐标系作为坐标系,当两个摄像机从不同角度观察同一物体,得到该物体在不同视角下的图像对,通过图像的预处理以及立体匹配算法找出该物体上同一点在两幅图像中的相应像点,计算出视差,最后采用三角测量的方法恢复出物体的深度信息。图像预处理与分割图像预处理与分割是立体匹配和三维重建的基础,采用了改进的阈值分割法,通过图像分割,将包含有大量各式各样景物信息的图像分解成一些具有某种特征的最小成分即图像的基元,可以提高图像数据中的信噪比,以减轻后续数据处理的压力。而体匹配算法,通过考察模板与窗口间灰度分布的相关系数来搜索匹配点,在匹配过程中通过记录和跟踪已匹配对,不断剔除误匹配,并加入唯一性约束和互对应约束来提高匹配的精度,同时加入外极线约束和视差范围约束来减小模板的搜索范围,提高算法的效率。在这种模型下可以通过投影变换矩阵,利用最小二乘法求解计算目标点的三维坐标。相关测度函数是在图像对中统计度量大量像素点对的相似性最大处被确定为匹配位置的函数。
假设己经确定了空间点P在左右两个摄像机成像平面上的图像坐标分别为p1(ul,vl)p2(ur,vr),那么,可得:
其中,Ml Mr为左右两个摄像机的投影矩阵,Zl Zr为非零比例因子。(x,y,z)为欲求的P点的三维坐标。展开式(3-25)和式(3-26)并消去Zl Zr之后,可以得到
因为本文所采用视觉模型为平行双目立体视觉模型,我们将摄像机Cl的坐标系作为世界坐标系,由以上数学公式可得:
其中,u0、v0、αx、αy为摄像机内部参数,b为基线长度,u1-u2为视觉差。从以上的分析可知,如果知道了两个摄像机的投影矩阵和空间点在两个图像中的投影点坐标,就可以确定出空间点在世界坐标系中的三维坐标位置信息。
所述破坚机器人可对坚硬物质进行清除,且钻头可进行-90°~+90°度旋转控制。
所述切割机器人可对面积较大区域的杂物进行清除方便其他机器人的进一步清除工作,六自由度切割机器人机械结构主要由自旋转卡盘、割炬升降机构、割炬轴向摆动机构和旋转机构、割炬径向移动机构、切割系统等组成。割炬可以实现升降、左右摆动以及360度旋转。机器人各轴采用伺服电机控制的闭环系统,控制精度高。所述切割片厚度为2~3.5mm的薄钢片,其外缘嵌有细微金刚石磨料。
所述清理机器人两侧设置圆形刷盘,可进行最后部分简单的污渍清除,抛光处理工作。
所述群体机器人是自适应电磁吸引方式吸附在船体上,通过增加电磁铁的个数来增加磁性吸附力,双履带式结构驱动运动,通过接口相互组合一起。并且后驱动方式更为重要的优点在于提高了清刷机器人对船体表面的适应性。当履带经过船体表面的突起时,位于前面的从动轮在主动轮的驱使下,会更好地将履带移至与船体表面接触,这样清刷机器人与船体表面贴合的磁性履带加长,使得履带能更好地适应船体表面
所述群体机器人可进行两种合作方式:并联和串联。这两种连接方法能够应对需要在短时间内及时清除船体的污垢的突发情况;为了有效侦察水下情况,两种方式都由侦察型开始和结束保证清洁效率和洁净度。
Claims (10)
1.一种水下船体清洁的群体机器人系统,该运行时包括如下流程:通过母船上控制台操控无人船到达预清理位置的附近位置;释放侦察型机器人进行水下船体全方位立体侦察,侦察型机器人通过双目立体摄像头所获得水下船体表面的深度立体图像、被清除物面积大小和详细位置数据传给无人船工作站;无人船工作站通过对侦察机器人传回的数据进行初步分析判断出水下清理分类,以及所需何种机器人进行清理,然后将立体图像、被清除物面积大小和详细位置数据传到母船控制台上显示器复现以及给出的判断信息;母船操作人员可以通过数据回放功能,观察水下画面信息进一步确认由哪种机器人出动清理,若操作人员确认无人船给出的判断信息,则无人船会对相应的机器人规划到达清理区域的最佳路径并发出控制指令;否则操作人员给出所选择的出动清理机器人类型,才能进行下一步的清理工作;对于需要整体清洗类型采用并联的连接方式进行清理;对于局部清洗可以采用串联连接方式或者单独方式进行清理;而对于面积较大复杂的杂质污垢区域,先由破坚机器人或者切割机器人进行清理工作,然后清除机器人通过队友模式获取其他机器人的状态及位置信息,采取跟随策略完成剩下的局部的难以清除区域,最后由清理机器人通过队友模式获取其他机器人运动停止状态后进行最后的抛光处理工作。
2.一种水下船体清洁的群体机器人系统,由无人船系统和母船控制系统两部分组成混合控制系统,无人船系统包括侦察型机器人、清除型机器人、破坚型机器人、切割型机器人、清理型机器人、无人船工作站;所述水下船体清洁的群体机器人系统以无人船为载体,集成北斗导航系统、陀螺仪、ADCP、声纳系统,利用导航、通讯和母船控制系统,在母船上实时接收、处理和分析无人船系统所采集的数据并以自控和遥控方式对无人船和其他机器人进行操作和控制,无人船工作站具有为群体机器人无线充电和巡检功能;母船上的控制台装有图像显示器、全方位操纵杆、控制按钮,数据接收器,具有显示采集的实时图像和数据存储功能,从而实现精准控制群体机器人。
3.根据权利要求2所述水下船体清洁的群体机器人系统,其特征在于:所述无人船上还设有全方位避障设备,包括数字雷达、激光雷达和前视声纳。
4.根据权利要求2所述水下船体清洁的群体机器人系统,其特征在于:所述的混合控制系统包括无人船控制模块,无人船控制模块采用分层分布协作控制结构,包括作为主线程的全场信息处理智能体,在所述主线程下设置有协作层、规划层、动作层和执行层。
5.根据权利要求1或2所述水下船体清洁的群体机器人系统,其特征在于:无人船的路径规划是基于生物激励的神经网络建模的方法,动态神经元激励场景代表动态变化环境,动态神经元激励场景中的波峰代表目标,波谷代表障碍物;对应到遍历路径规划中,波峰代表未遍历区域,波谷代表障碍物,介于两者之间的部分代表遍历过的区域;设清理机器人工作空间为二维结构化空间,障碍物的大小和位置在机器人清理过程中都不发生变化,并把机器人工作空间划分为大小相同的栅;并用栅格数组表示环境;栅格对角线与机器人的清理直径相等,这样当机器人通过栅格中心点时,就可以完成该栅格的清理工作,即当机器人通过离散的中心点就可视为完成该区域的清理工作;如果机器人走过环境中的所有点,即视为机器人完成了工作空间的全区域覆盖。
6.根据权利要求2所述水下船体清洁的群体机器人系统,其特征在于:所述侦察型机器人采用水下全封闭250瓦高效卤素灯照明设备,同时采用水下全封闭的高分辨率的双目摄像头,从而建立双目立体视觉自主导航定位系统,具有照明,视觉识别和标定,可定位和里程计算功能,从而对水下清理位置进行精准识别定位。
7.根据权利要求6所述水下船体清洁的群体机器人系统,其特征在于:所述双目立体视觉自主导航定位系统采用神经网络识别算法,对被清除物面积进行识别,根据被清除物的大小而采取相应机器人进行清理工作。
8.根据权利要求2所述水下船体清洁的群体机器人系统,其特征在于:所述破坚机器人可对坚硬物质进行清除,且钻头可进行-90°~+90°度旋转控制;所述切割机器人可对面积较大区域的杂物进行清除方便其他机器人的进一步清除工作,六自由度切割机器人机械结构主要由自旋转卡盘、割炬升降机构、割炬轴向摆动机构和旋转机构、割炬径向移动机构、切割系统等组成;割炬可以实现升降、左右摆动以及360度旋转;机器人各轴采用伺服电机控制的闭环系统,控制精度高;所述切割片厚度为2~3.5mm的薄钢片,其外缘嵌有细微金刚石磨料。所述清理机器人两侧设置圆形刷盘,可进行最后部分简单的污渍清除,抛光处理工作。
9.根据权利要求2所述水下船体清洁的群体机器人系统,其特征在于:所述群体机器人是自适应电磁吸引方式吸附在船体上,通过增加电磁铁的个数来增加磁性吸附力,采用后驱的双履带式结构驱动运动,通过接口相互组合一起。
10.根据权利要求2所述水下船体清洁的群体机器人系统,其特征在于:所述群体机器人可进行两种合作方式:并联和串联,这两种连接方法能够应对需要在短时间内及时清除船体的污垢的突发情况;为了有效侦察水下情况,两种方式都由侦察型开始和结束保证清洁效率和洁净度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710169499.2A CN106843242B (zh) | 2017-03-21 | 2017-03-21 | 一种水下船体清洁的群体机器人系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710169499.2A CN106843242B (zh) | 2017-03-21 | 2017-03-21 | 一种水下船体清洁的群体机器人系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106843242A true CN106843242A (zh) | 2017-06-13 |
CN106843242B CN106843242B (zh) | 2019-08-16 |
Family
ID=59130748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710169499.2A Active CN106843242B (zh) | 2017-03-21 | 2017-03-21 | 一种水下船体清洁的群体机器人系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106843242B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301689A (zh) * | 2017-06-16 | 2017-10-27 | 中国人民解放军海军工程大学 | 一种基于无人船的网箱巡检装置及其方法 |
CN107792317A (zh) * | 2017-10-25 | 2018-03-13 | 德清海德游艇有限公司 | 一种游艇艇底除垢装置 |
CN107918396A (zh) * | 2017-11-30 | 2018-04-17 | 深圳市智能机器人研究院 | 一种基于船体模型的水下清洗机器人路径规划方法及系统 |
CN107942983A (zh) * | 2017-12-05 | 2018-04-20 | 常州大学怀德学院 | 一种教学楼无人环境管理系统 |
CN108082405A (zh) * | 2018-01-22 | 2018-05-29 | 南通理工学院 | 一种垃圾清理船 |
CN108898171A (zh) * | 2018-06-20 | 2018-11-27 | 深圳市易成自动驾驶技术有限公司 | 图像识别处理方法、系统及计算机可读存储介质 |
CN110825088A (zh) * | 2019-11-29 | 2020-02-21 | 燕山大学 | 一种多目视觉导引船体清洁机器人系统及清洁方法 |
CN111007071A (zh) * | 2019-12-20 | 2020-04-14 | 清华四川能源互联网研究院 | 一种水下巡检控制方法和水下巡检系统 |
CN111275112A (zh) * | 2020-01-20 | 2020-06-12 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
CN111290343A (zh) * | 2018-12-07 | 2020-06-16 | 中国科学院沈阳自动化研究所 | 水下机器人舱内总线式电气控制系统及方法 |
CN111745643A (zh) * | 2020-05-28 | 2020-10-09 | 西华大学 | 主机器人和从机器人遥操作系统位置控制方法 |
CN112439753A (zh) * | 2019-09-02 | 2021-03-05 | 涩谷机器株式会社 | 清洗装置及其动作设定方法 |
CN112526870A (zh) * | 2020-12-02 | 2021-03-19 | 电子科技大学 | 一种基于逆集群算法的道路清洁编队规划方法 |
CN112630795A (zh) * | 2020-12-24 | 2021-04-09 | 浙江大学滨海产业技术研究院 | 一种基于2d激光雷达的三维点云数据合成系统 |
CN113050665A (zh) * | 2021-03-24 | 2021-06-29 | 河海大学 | 一种基于slam架构的节能型水下机器人探测方法及系统 |
CN113359568A (zh) * | 2021-06-28 | 2021-09-07 | 飞马滨(青岛)智能科技有限公司 | 一种水下作业综合运营系统及作业远程控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102224067B (zh) * | 2008-11-21 | 2014-10-08 | 雷斯昂公司 | 船体用机器人 |
CN205206406U (zh) * | 2015-12-15 | 2016-05-04 | 南京信息工程大学 | 水下清扫机器人 |
CN106184650A (zh) * | 2016-08-16 | 2016-12-07 | 江苏科技大学 | 一种柔性贴合清扫表面的曲柄连杆清扫装置 |
CN106218836A (zh) * | 2016-09-06 | 2016-12-14 | 吉林大学 | 一种多段履带式水下智能清理机器人 |
CN206087224U (zh) * | 2016-08-23 | 2017-04-12 | 白晗 | 水下船体清洗机器人 |
-
2017
- 2017-03-21 CN CN201710169499.2A patent/CN106843242B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102224067B (zh) * | 2008-11-21 | 2014-10-08 | 雷斯昂公司 | 船体用机器人 |
CN205206406U (zh) * | 2015-12-15 | 2016-05-04 | 南京信息工程大学 | 水下清扫机器人 |
CN106184650A (zh) * | 2016-08-16 | 2016-12-07 | 江苏科技大学 | 一种柔性贴合清扫表面的曲柄连杆清扫装置 |
CN206087224U (zh) * | 2016-08-23 | 2017-04-12 | 白晗 | 水下船体清洗机器人 |
CN106218836A (zh) * | 2016-09-06 | 2016-12-14 | 吉林大学 | 一种多段履带式水下智能清理机器人 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301689B (zh) * | 2017-06-16 | 2020-01-17 | 中国人民解放军海军工程大学 | 一种基于无人船的网箱巡检装置及其方法 |
CN107301689A (zh) * | 2017-06-16 | 2017-10-27 | 中国人民解放军海军工程大学 | 一种基于无人船的网箱巡检装置及其方法 |
CN107792317A (zh) * | 2017-10-25 | 2018-03-13 | 德清海德游艇有限公司 | 一种游艇艇底除垢装置 |
CN107918396A (zh) * | 2017-11-30 | 2018-04-17 | 深圳市智能机器人研究院 | 一种基于船体模型的水下清洗机器人路径规划方法及系统 |
CN107942983A (zh) * | 2017-12-05 | 2018-04-20 | 常州大学怀德学院 | 一种教学楼无人环境管理系统 |
CN108082405A (zh) * | 2018-01-22 | 2018-05-29 | 南通理工学院 | 一种垃圾清理船 |
CN108082405B (zh) * | 2018-01-22 | 2023-04-14 | 南通理工学院 | 一种垃圾清理船 |
CN108898171A (zh) * | 2018-06-20 | 2018-11-27 | 深圳市易成自动驾驶技术有限公司 | 图像识别处理方法、系统及计算机可读存储介质 |
CN108898171B (zh) * | 2018-06-20 | 2022-07-22 | 深圳市易成自动驾驶技术有限公司 | 图像识别处理方法、系统及计算机可读存储介质 |
CN111290343A (zh) * | 2018-12-07 | 2020-06-16 | 中国科学院沈阳自动化研究所 | 水下机器人舱内总线式电气控制系统及方法 |
CN112439753A (zh) * | 2019-09-02 | 2021-03-05 | 涩谷机器株式会社 | 清洗装置及其动作设定方法 |
CN112439753B (zh) * | 2019-09-02 | 2024-05-28 | 涩谷机器株式会社 | 清洗装置及其动作设定方法 |
CN110825088B (zh) * | 2019-11-29 | 2021-10-01 | 燕山大学 | 一种多目视觉导引船体清洁机器人系统及清洁方法 |
CN110825088A (zh) * | 2019-11-29 | 2020-02-21 | 燕山大学 | 一种多目视觉导引船体清洁机器人系统及清洁方法 |
CN111007071A (zh) * | 2019-12-20 | 2020-04-14 | 清华四川能源互联网研究院 | 一种水下巡检控制方法和水下巡检系统 |
CN111275112A (zh) * | 2020-01-20 | 2020-06-12 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
CN111745643A (zh) * | 2020-05-28 | 2020-10-09 | 西华大学 | 主机器人和从机器人遥操作系统位置控制方法 |
CN112526870B (zh) * | 2020-12-02 | 2022-02-01 | 电子科技大学 | 一种基于逆集群算法的道路清洁编队规划方法 |
CN112526870A (zh) * | 2020-12-02 | 2021-03-19 | 电子科技大学 | 一种基于逆集群算法的道路清洁编队规划方法 |
CN112630795A (zh) * | 2020-12-24 | 2021-04-09 | 浙江大学滨海产业技术研究院 | 一种基于2d激光雷达的三维点云数据合成系统 |
CN112630795B (zh) * | 2020-12-24 | 2023-05-26 | 浙江大学滨海产业技术研究院 | 一种基于2d激光雷达的三维点云数据合成系统 |
CN113050665A (zh) * | 2021-03-24 | 2021-06-29 | 河海大学 | 一种基于slam架构的节能型水下机器人探测方法及系统 |
CN113050665B (zh) * | 2021-03-24 | 2022-04-19 | 河海大学 | 一种基于slam架构的节能型水下机器人探测方法及系统 |
CN113359568A (zh) * | 2021-06-28 | 2021-09-07 | 飞马滨(青岛)智能科技有限公司 | 一种水下作业综合运营系统及作业远程控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106843242B (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106843242B (zh) | 一种水下船体清洁的群体机器人系统 | |
CN103057678B (zh) | 海底生物捕捞机器人的自主导航和人机协同捕捞作业系统 | |
Rosenblatt et al. | A behavior-based architecture for autonomous underwater exploration | |
CN108045531A (zh) | 用于海底电缆巡检的水下机器人控制系统及方法 | |
CN108681321A (zh) | 一种无人船协同编队的水下探测方法 | |
CN209426501U (zh) | 海洋探测机器人 | |
CN109515086A (zh) | 海洋探测机器人及其作业方法 | |
CN111348161B (zh) | 一种应用于海洋牧场的资源环境监测系统及其操作方法 | |
Prabakaran et al. | Hornbill: A self-evaluating hydro-blasting reconfigurable robot for ship hull maintenance | |
CN107065860A (zh) | 一种面向渔业捕捞的无人船群协同自组织作业系统及方法 | |
CN114005021B (zh) | 基于激光视觉融合的水产养殖车间无人巡检系统和方法 | |
Le et al. | Towards optimal hydro-blasting in reconfigurable climbing system for corroded ship hull cleaning and maintenance | |
CN113671994A (zh) | 基于强化学习的多无人机与多无人船巡检控制系统 | |
JP5777188B1 (ja) | 水中航走体制御システム | |
Lee et al. | Artificial intelligence and Internet of Things for robotic disaster response | |
CN110199961A (zh) | 一种自主避障寻迹识别的多功能智能捕鱼船 | |
CN209728169U (zh) | 江河湖泊探测机器人 | |
Cheng et al. | A neural network based mobile robot navigation approach using reinforcement learning parameter tuning mechanism | |
CN109541609A (zh) | 江河湖泊探测机器人及其作业方法 | |
CN117612135A (zh) | 一种基于transform的点云和图像融合的行驶区域判断方法 | |
Billings et al. | Towards automated sample collection and return in extreme underwater environments | |
CN112124537B (zh) | 一种海底生物自主吸取捕捞的水下机器人智能控制方法 | |
Ren | Path Avoidance System of Intelligent Robot Based on Computer Vision | |
Basu et al. | Hydrone: Iot enabled autonomous underwater vehicle for aquatic ecosystem monitoring | |
Akram et al. | Autonomous Underwater Robotic System for Aquaculture Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |