CN115031627B - 一种实现水下集群内个体之间视觉感知的方法 - Google Patents
一种实现水下集群内个体之间视觉感知的方法 Download PDFInfo
- Publication number
- CN115031627B CN115031627B CN202210492615.5A CN202210492615A CN115031627B CN 115031627 B CN115031627 B CN 115031627B CN 202210492615 A CN202210492615 A CN 202210492615A CN 115031627 B CN115031627 B CN 115031627B
- Authority
- CN
- China
- Prior art keywords
- image
- led
- signal source
- led signal
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000016776 visual perception Effects 0.000 title claims abstract description 9
- 230000000007 visual effect Effects 0.000 claims abstract description 38
- 238000004891 communication Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims description 2
- 230000004438 eyesight Effects 0.000 abstract description 7
- 238000004422 calculation algorithm Methods 0.000 abstract description 4
- 230000008859 change Effects 0.000 abstract description 4
- 238000003384 imaging method Methods 0.000 abstract description 3
- 239000003086 colorant Substances 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 8
- 230000008447 perception Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P13/00—Indicating or recording presence, absence, or direction, of movement
- G01P13/02—Indicating direction only, e.g. by weather vane
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种实现水下集群内个体之间视觉感知的方法,通过视觉对目标进行位置关系检测和速度方向检测的方法,用于水下集群中通过视觉对个体进行信息检测。首先通过传统视觉方法对特定布局下的LED信号源进行识别,包括不同颜色的LED以及垂直布局的一对LED灯。再通过使用小孔成像原理对LED灯进行垂直平面距离的测量,水平和垂直方向的视角差,进而计算出相对于观测个体的三维位置坐标。最后,针对BlueROV在水下运动的特性,即BlueROV只有偏航角度的变化,设计了一种检测BlueROV速度方向的算法,该算法同时也需要BlueROV身上布置相应的LED信号源,进而得到观测个体与目标个体的速度方向之间的夹角。
Description
技术领域
本发明属于水下集群领域,具体涉及以BlueROV作为集群中的个体来通过视觉感知集群内邻居的方法。
背景技术
集群运动是一种通过定义个体之间简单的交互规则,在宏观上表现出一系列具备优良性能的运动形式,如大范围搜索覆盖、目标围捕。集群的形成需要个体之间不断的信息交流,在陆地和空中,得益于无线电通信组网的便利,集群内部之间的信息交流很方便实现。在水下环境中,由于电磁波衰减严重且声纳信号通信频率上限低,导致水下集群内部的信息交流受到限制,集群实现难。近年来,一种不依赖主动通信而是通过非显式通信的信息交流方法开始出现在水下集群领域,这种非显式通信方法核心特征为不主动向集群内其他个体发送自己的位置、速度信息,而是通过被动的感知来得到其他个体的位置、速度信息,例如通过视觉的方法对集群内其他个体的位置和速度信息进行识别。
相比于陆地和空中环境,水下尤其是海洋环境感知面临着诸多挑战,例如密度、水流、水压等因素。目前根据在水下环境使用的传感器,将水下环境感知的方法分为两大类,一个是水下声学环境感知,另一个是水下视觉环境感知。其中水下声学环境感知主要利用声纳等传感器,对水下声波信息进行处理,进而生成声纳图像,实现水下远距离目标的定位与探测,但依靠声纳会受到海浪杂波以及声信号在不同密度的水层传播速率不同的影响。并且在水下集群领域,个体更关心的是近距离环境的感知,以及实时对周围环境进行感知,而声纳更适合远距离环境感知以及对感知实时性要求不高的场合。所以针对水下集群的应用场合下,声纳更适合作为一种辅助感知的手段。
另一方面,水下视觉感知可以实时感知近距离的环境,相比于其他水下常用的感知手段,如压力传感器、侧线传感器、声纳等,其天然适合作为水下集群中个体的主要感知手段。
水下视觉主要有着感知反馈迅速、部署成本低廉、视觉信息精细等优点。感知反馈迅速得益于光传播速度远远高于声波,这就带来了实时性高的好处;一般的视觉传感设备,如摄像头,其价格低廉,且能够很方便的部署在集群个体上;与其他传感器相比,视觉传感器不受反射噪声的干扰,图像的细节丰富,且得益于陆地和空中使用视觉感知的广泛,其研究领域与技术储备都有着巨大优势,有着能够向水下环境应用迁移的有利条件。
BlueROV为一款开源的水下遥控式无人潜航器(Remote Operated Vehicle,ROV)。由于BlueROV拥有矢量推进器布局,在水下拥有6自由度。在水下环境运动时,BlueROV的横滚角(Roll)和俯仰角(Pitch)变化较小,只有通过改变偏航角(Yaw)实现航向的变化,并配合其直上直下的深度控制,可以实现相比较传统水下无人航向器更为精细的运动。
发明内容
要解决的技术问题
为了实现以视觉为主要感知手段的水下集群,本发明提供了一种通过视觉对视野内出现的邻居个体的位置信息和速度方向信息进行检测的方法。检测得到的位置信息和速度方向信息都是相对于观测个体的。相对位置信息以三维空间坐标的形式给出,且该空间坐标以观测个体自身摄像头的光心为坐标原点;相对速度方向信息以一个角度差给出,该角度差描述了观测个体和目标个体在水平面上的角度关系。
技术方案
一种实现水下集群内个体之间视觉感知的方法,其特征在于步骤如下:
步骤1:对摄像头读取的图像进行处理得到二值图;
步骤2:得到所有LED灯在图像上投影的图像坐标;
经过上一步得到的二值图上只包含了LED灯在图像上投影的白色连通区域,对该二值图进行轮廓查找,找到所有白色连通区域的轮廓点集,并对每一个轮廓点集求平均,得到的平均图像坐标为该白色连通区域的中心点,将此点当做LED信号源的图像坐标;
步骤3:寻找匹配的有效LED信号源;
遍历每一个LED图像坐标,找到x坐标之差的绝对值小于给定阈值的两个LED图像,将这两个LED图像坐标视作一个有效的LED信号源;
步骤4:计算每个有效LED信号源到观测个体摄像头的垂直平面距离;
其中,D为计算得到的观测个体到LED信号源的垂直平面距离,f为摄像头的焦距,H为LED信号源在实际布置中的垂直距离,h为LED信号源投影到图像上的像素高度,即为一个有效LED信号源内两个LED图像坐标的y坐标的差值;
步骤5:计算每个有效LED信号源的水平视角差和垂直视角差;
以每个有效LED信号源内的两个LED图像坐标的均值点参与计算,水平视角差为该均值点x坐标相对于图像中心像素点的x坐标的视角差;垂直视角差为该均值点y坐标相对与图像中心像素点的y坐标的视角差,使用下式进行计算:
其中,α、β分别为计算得到的水平视角差或垂直视角差,h为LED平均坐标的x值与图像中心坐标的x值的差值;h′为LED平均坐标的y值与图像中心坐标的y值的差值;
步骤6:计算每个有效LED信号源的相对位置坐标;
计算每个有效LED信号源相对于观测个体摄像头光心的位置关系:
X=D
Y=Dtan(α)
Z=Dtan(β)
步骤7:计算目标个体的位置坐标;
由上一步得到所有有效LED信号源的三维坐标,对这些坐标求均值,得到最终表示目标个体位置的坐标:
(X,Y,Z)=(∑Xi,∑Yi,∑Zi) (4)
其中,Xi、Yi、Zi为上一步计算得到的所有垂直分布LED灯的三维坐标;
步骤8:计算目标个体的速度方向;
首先选取由B通道得到的所有有效LED信号源里垂直平面距离最小的那个蓝色LED信号源;再选取R通道得到的所有有效LED信号源里垂直平面距离最小的那个红色LED信号源;
计算选出来的这两个LED信号源的垂直平面距离之差:
Ddiff=Db-Dr (5)
其中,Dr为红色LED灯的垂直平面距离,Db为蓝色LED灯的垂直平面距离;
再计算这两个有效LED信号的水下视角差α1、α2,由得到的水平视角差可以计算每个LED信号源的水平偏移距离,最后得到水平偏移距离差:
Hdiff=Dbtan(α1)-Drtan(α2) (6)
最后计算得到观测个体与目标个体的速度方向角度差:
本发明进一步的技术方案:步骤1具体如下:首先对摄像头读取的原始图像进行BGR三通道分离,得到各自通道的灰度图;再对B通道灰度图和R通道灰度图阈值化,进而得到二值图;对得到的二值图进行图像形态学开操作,消除白色小噪点。
一种计算机系统,其特征在于包括:一个或多个处理器,计算机可读存储介质,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现上述的方法。
一种计算机可读存储介质,其特征在于存储有计算机可执行指令,所述指令在被执行时用于实现上述的方法。
一种计算机程序,其特征在于包括计算机可执行指令,所述指令在被执行时用于实现上述的方法。
有益效果
本发明提出的一种通过视觉感知目标的位置信息和速度方向信息,通过视觉对目标进行位置关系检测和速度方向检测的方法,用于水下集群中通过视觉对个体进行信息检测。首先通过传统视觉方法对特定布局下的LED信号源进行识别,包括不同颜色的LED以及垂直布局的一对LED灯。再通过使用小孔成像原理对LED灯进行垂直平面距离的测量,水平和垂直方向的视角差,进而计算出相对于观测个体的三维位置坐标。最后,针对BlueROV在水下运动的特性,即BlueROV只有偏航角度的变化,设计了一种检测BlueROV速度方向的算法,该算法同时也需要BlueROV身上布置相应的LED信号源,进而得到观测个体与目标个体的速度方向之间的夹角。带来了如下有益效果:
1、观测个体可以感知目标个体相对于自己的位置关系;
2、观测个体可以感知目标个体与自身的速度方向角度差;
3、与无线通信模式相比拥有不受带宽限制的信息流交互。
4、与水声通信相比拥有更高的实时性。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为本发明方法BlueROV上LED的布置方式。
图2为本发明方法测距原理图。
图3为本发明方法速度方向检测原理图。
图4为本发明方法位置检测流程图。
图5为本发明方法速度检测流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明检测位置信息和速度信息的方法适用于搭载特定LED信号源的BlueROV水下航行器或类似BlueROV运动方式的其他航向器。
步骤1:对摄像头读取的图像进行处理;
对摄像头读取的图像分离BGR通道并对B、R通道进行阈值化处理得到对应的二值图。再对二值图进行图像形态学开操作:对图像进行卷积操作,先用一个正方形块依次滑过二值图,将该正方形块与二值图重叠的部分的中心像素点替换为重叠部分下的最大像素值;再用一个正方形块依次滑过二值图,将该正方形块与二值图重叠的部分的中心像素点替换为重叠区域下的最小像素值,这一步会将中心像素点替换为重叠部分下的最小像素值。经过这一步骤即可消除二值图上的一些白色小噪点。
步骤2:得到所有LED灯在图像上投影的图像坐标;
对得到的B、R通道的二值图寻找轮廓得到轮廓点集,每个轮廓点集对应一个LED灯,对每个轮廓点集求均值来得到最终LED的图像坐标:
(X,Y)=(∑Xi,∑Yi) (8)
其中,、Y为最终的LED图像坐标,Xi和Yi为轮廓点集里的点。
步骤3:寻找匹配的有效LED信号源;
有效的LED信号源为一对垂直分布的信号源,表现在图像上为其对应图像坐标的x分量接近。遍历上一步得到的LED灯图像坐标,找到另一个LED灯,具体方法是检测两LED灯图像坐标的x坐标差值是否小于2,若x坐标差值小于2则标定这两个LED信号源为有效匹配。
步骤4:计算每个有效LED信号源到观测个体摄像头的垂直平面距离;
通过上一步得到了所有垂直分布的LED信号源图像坐标。通过小孔成像原理得到每对垂直分布的LED灯到观测个体的垂直平面距离D,如图2所示,使用下式计算:
其中,D为计算得到的观测个体到LED信号源的垂直平面距离,f为摄像头的焦距,H为LED信号源在实际布置中的垂直距离,h为LED信号源投影到图像上的像素高度,即为一个有效LED信号源内两个LED图像坐标的y坐标的差值。
步骤5:计算每个有效LED信号源的水平视角差和垂直视角差;
将垂直分布的两个LED灯图像坐标取平均得到一个位于这两个LED灯之间的坐标点,通过下面公式分别计算该点相对于图像中心的水平视角差和垂直视角差:
其中,α为计算得到的水平视角差或垂直视角差,h为一个有效LED信号源内两LED坐标值平均得到的坐标值相对于图像中心坐标的偏移,若计算水平视角差,则h为LED平均坐标的x值与图像中心坐标的x值的差值;若计算垂直视角差,则h为LED平均坐标的y值与图像中心坐标的y值的差值,f为摄像头焦距。
步骤6:计算每个有效LED信号源的相对位置坐标;
由前面步骤得到的垂直距离D和视角差α,可以使用下面公式计算每对垂直分布的LED灯在当前观测个体视野内的三维位置坐标:
其中,α为上一步得到的水平视角差,β为上一步得到的垂直视角差。
步骤7:计算目标个体的位置坐标;
按照上述方法可以得到所有垂直分布LED灯的三维坐标,对这些三维坐标取均值即可得到视野内目标个体的三维位置坐标,此三维位置坐标是以观测个体的摄像头光心为坐标原点:
(X,Y,Z)=(∑Xi,∑Yi,∑Zi) (4)
其中,Xi、Yi、Zi为上一步计算得到的所有垂直分布LED灯的三维坐标。位置信息检测流程如图4。
步骤8:计算目标个体的速度方向;
速度方向检测方法适用于只沿中心轴线的方向运动且符合图1所示LED信号源布局的个体:图1中左侧朝向的为航行器的头部,右侧朝向为航行器的尾部,头部方向的四个顶点位置布置4个红色LED灯;尾部方向的四个顶点位置布置4个蓝色LED灯。
由位置检测方法中得到了B、R通道下成对且垂直出现的LED灯,并且得到了每一对这样的LED灯到观测个体的垂直平面距离D,在B通道里选择垂直距离最短的LED蓝色信号源,在R通道里选择垂直距离最短的LED红色信号源,选取这两对灯参与速度方向检测。
先计算蓝色LED信号源与红色LED信号源的垂直平面距离之差。图3中A圆为目标个体身上参与计算的成对且垂直分布的红色LED灯,位于个体的头部;B圆为目标个体身上参与计算的成对且垂直分布的蓝色LED灯,位于个体的尾部。C圆为观测个体。与A圆、B圆相交的黑色虚线为从观测个体检测到的垂直平面距离,这个值由上述方法已经得到。这两个垂直平面距离有差值即为垂直平面距离差Ddiff:
Ddiff=Db-Dr (5)
其中,Dr为红色LED灯的垂直平面距离,Db为蓝色LED灯的垂直平面距离。采用公式1计算得到。
再由式(2)计算红LED灯和蓝LED灯的水平视角差,从而计算得到水平距离差Hdiff:
Hdiff=Dbtan(α1)-Drtan(α2) (6)
其中α1为蓝色LED灯的水平视角差,α2为红色LED灯的水平视角差。
接下来可计算图3中所示的φ角,由图3所示几何关系可以得到φ角与观测个体和目标个体的速度方向角度差为互余关系,所以可由下式得到两者的速度方向差
从而得到观测个体自身与目标个体之间的速度方向关系。速度方向检测流程如图5。
此速度检测方法适用于运动方向沿个体中心轴线且在运动中只产生偏航角度差(Yaw)的个体,如BlueROV在运动过程中其横滚角度(Roll)和俯仰角度(Pitch)不产生变化,只有偏航角度会发生变化。同时需要在个体上布置满足图1所示位置关系的LED信号源。
在速度方向检测中当目标个体速度方向与观测个体速度方向垂直时,表现为计算得到的LED红灯和LED蓝灯到观测个体垂直平面距离相等;当目标个体速度方向与观测个体速度方向角度差为0或180度时,表现为蓝灯或红灯无法检测到,这是因为遮挡的原因,此时若红色灯被识别到说明两者速度方向角度差为180度;若蓝色灯被识别到说明两者速度方向角度差为0度。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明公开的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。
Claims (5)
1.一种实现水下集群内个体之间视觉感知的方法,其特征在于步骤如下:
步骤1:对摄像头读取的图像进行处理得到二值图;
步骤2:得到所有LED灯在图像上投影的图像坐标;
经过上一步得到的二值图上只包含了LED灯在图像上投影的白色连通区域,对该二值图进行轮廓查找,找到所有白色连通区域的轮廓点集,并对每一个轮廓点集求平均,得到的平均图像坐标为该白色连通区域的中心点,将此点当做LED信号源的图像坐标;
步骤3:寻找匹配的有效LED信号源;
遍历每一个LED图像坐标,找到x坐标之差的绝对值小于给定阈值的两个LED图像,将这两个LED图像坐标视作一个有效的LED信号源;
步骤4:计算每个有效LED信号源到观测个体摄像头的垂直平面距离;
其中,D为计算得到的观测个体到LED信号源的垂直平面距离,f为摄像头的焦距,H为LED信号源在实际布置中的垂直距离,h为LED信号源投影到图像上的像素高度,即为一个有效LED信号源内两个LED图像坐标的y坐标的差值;
步骤5:计算每个有效LED信号源的水平视角差和垂直视角差;
以每个有效LED信号源内的两个LED图像坐标的均值点参与计算,水平视角差为该均值点x坐标相对于图像中心像素点的x坐标的视角差;垂直视角差为该均值点y坐标相对与图像中心像素点的y坐标的视角差,使用下式进行计算:
其中,α、β分别为计算得到的水平视角差或垂直视角差,h为LED平均坐标的x值与图像中心坐标的x值的差值;h′为LED平均坐标的y值与图像中心坐标的y值的差值;
步骤6:计算每个有效LED信号源的相对位置坐标;
计算每个有效LED信号源相对于观测个体摄像头光心的位置关系:
X=D
Y=Dtan(α)
Z=Dtan(β)
步骤7:计算目标个体的位置坐标;
由上一步得到所有有效LED信号源的三维坐标,对这些坐标求均值,得到最终表示目标个体位置的坐标:
(X,Y,Z)=(∑Xi,∑Yi,∑Zi) (4)
其中,Xi、Yi、Zi为上一步计算得到的所有垂直分布LED灯的三维坐标;
步骤8:计算目标个体的速度方向;
首先选取由B通道得到的所有有效LED信号源里垂直平面距离最小的那个蓝色LED信号源;再选取R通道得到的所有有效LED信号源里垂直平面距离最小的那个红色LED信号源;
计算选出来的这两个LED信号源的垂直平面距离之差:
Ddiff=Db-Dr (5)
其中,Dr为红色LED灯的垂直平面距离,Db为蓝色LED灯的垂直平面距离;
再计算这两个有效LED信号的水下视角差α1、α2,由得到的水平视角差可以计算每个LED信号源的水平偏移距离,最后得到水平偏移距离差:
Hdiff=Dbtan(α1)-Drtan(α2) (6)
最后计算得到观测个体与目标个体的速度方向角度差:
2.根据权利要求1所述实现水下集群内个体之间视觉感知的方法,其特征在于步骤1具体如下:首先对摄像头读取的原始图像进行BGR三通道分离,得到各自通道的灰度图;再对B通道灰度图和R通道灰度图阈值化,进而得到二值图;对得到的二值图进行图像形态学开操作,消除白色小噪点。
3.一种计算机系统,其特征在于包括:一个或多个处理器,计算机可读存储介质,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1所述的方法。
4.一种计算机可读存储介质,其特征在于存储有计算机可执行指令,所述指令在被执行时用于实现权利要求1所述的方法。
5.一种计算机程序产品,其特征在于包括计算机可执行指令,所述指令在被执行时用于实现权利要求1所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210492615.5A CN115031627B (zh) | 2022-05-07 | 2022-05-07 | 一种实现水下集群内个体之间视觉感知的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210492615.5A CN115031627B (zh) | 2022-05-07 | 2022-05-07 | 一种实现水下集群内个体之间视觉感知的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115031627A CN115031627A (zh) | 2022-09-09 |
CN115031627B true CN115031627B (zh) | 2024-04-30 |
Family
ID=83119069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210492615.5A Active CN115031627B (zh) | 2022-05-07 | 2022-05-07 | 一种实现水下集群内个体之间视觉感知的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115031627B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113240712A (zh) * | 2021-05-11 | 2021-08-10 | 西北工业大学 | 一种基于视觉的水下集群邻居跟踪测量方法 |
CN113313116A (zh) * | 2021-06-20 | 2021-08-27 | 西北工业大学 | 一种基于视觉的水下人工目标准确检测与定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10339389B2 (en) * | 2014-09-03 | 2019-07-02 | Sharp Laboratories Of America, Inc. | Methods and systems for vision-based motion estimation |
-
2022
- 2022-05-07 CN CN202210492615.5A patent/CN115031627B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113240712A (zh) * | 2021-05-11 | 2021-08-10 | 西北工业大学 | 一种基于视觉的水下集群邻居跟踪测量方法 |
CN113313116A (zh) * | 2021-06-20 | 2021-08-27 | 西北工业大学 | 一种基于视觉的水下人工目标准确检测与定位方法 |
Non-Patent Citations (1)
Title |
---|
张勋 ; 肖遥 ; 李凡贡 ; .基于测距声纳与光视觉的水下目标定位方法研究.船舶工程.2016,(05),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN115031627A (zh) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110275153B (zh) | 一种基于激光雷达的水面目标检测与跟踪方法 | |
KR20220155559A (ko) | 이미지 세그멘테이션을 이용한 자율 운항 방법 | |
US11187790B2 (en) | Laser scanning system, laser scanning method, movable laser scanning system, and program | |
CN111324126B (zh) | 一种视觉无人船 | |
CN113985419A (zh) | 水面机器人协同障碍物检测及避障方法及系统 | |
Katija et al. | Visual tracking of deepwater animals using machine learning-controlled robotic underwater vehicles | |
CN113050121A (zh) | 一种船舶导航系统和船舶导航方法 | |
CN113624225B (zh) | 一种用于发动机定位销安装的位姿解算方法 | |
CN116087982A (zh) | 一种融合视觉和雷达系统的海上落水人员识别及定位方法 | |
Nomura et al. | Study of 3D measurement of ships using dense stereo vision: towards application in automatic berthing systems | |
Zhou et al. | Verification of AIS data by using video images taken by a UAV | |
Zhang et al. | Vessel detection and classification fusing radar and vision data | |
CN115031627B (zh) | 一种实现水下集群内个体之间视觉感知的方法 | |
CN109202911B (zh) | 一种基于全景视觉的集群两栖机器人三维定位方法 | |
CN112862862B (zh) | 基于人工智能视觉跟踪的飞机自主受油装置及应用方法 | |
CN114740493A (zh) | 一种基于多线激光雷达的路沿检测方法 | |
KR102261665B1 (ko) | 자동 탐색 장치, 자동 탐색 방법 및 이를 구비하는 잠수정 | |
CN117406234A (zh) | 基于单线激光雷达与视觉融合的目标测距和追踪的方法 | |
CN113792593A (zh) | 一种基于深度融合的水下近距离目标识别跟踪方法及系统 | |
Zhang et al. | Terminal stage guidance method for underwater moving rendezvous and docking based on monocular vision | |
CN111798496B (zh) | 一种视觉锁定方法和装置 | |
CN113589314A (zh) | 一种基于激光视觉的水面目标检测增稳系统及增稳方法 | |
US20210302576A1 (en) | Position correction using towed sensor | |
CN113034590A (zh) | 基于视觉融合的auv动态对接定位方法 | |
CN113109762A (zh) | 一种用于auv对接回收的光视觉引导方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |