CN111784655A - 一种水下机器人回收定位方法 - Google Patents
一种水下机器人回收定位方法 Download PDFInfo
- Publication number
- CN111784655A CN111784655A CN202010595066.5A CN202010595066A CN111784655A CN 111784655 A CN111784655 A CN 111784655A CN 202010595066 A CN202010595066 A CN 202010595066A CN 111784655 A CN111784655 A CN 111784655A
- Authority
- CN
- China
- Prior art keywords
- image
- underwater
- light source
- pixel
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000011084 recovery Methods 0.000 title claims abstract description 17
- 239000011159 matrix material Substances 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 238000003032 molecular docking Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims abstract description 9
- 230000000877 morphologic effect Effects 0.000 claims abstract description 8
- 238000013519 translation Methods 0.000 claims abstract description 6
- 238000007476 Maximum Likelihood Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000004064 recycling Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 3
- 238000007639 printing Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000007704 transition Effects 0.000 claims description 2
- 238000012935 Averaging Methods 0.000 claims 1
- 230000003044 adaptive effect Effects 0.000 claims 1
- 230000010339 dilation Effects 0.000 claims 1
- 230000003628 erosive effect Effects 0.000 claims 1
- 238000011160 research Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000007797 corrosion Effects 0.000 description 2
- 238000005260 corrosion Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种水下机器人回收定位方法,利用两台水下CCD相机拍摄标定板,获取双目相机的参数,包括内、外参矩阵,畸变系数和相机之间的旋转、平移矩阵;获取水下双目相机拍摄的视觉图像,作为待分析的输入图像;灰度化与二值化处理输入图像,判断图像中的连通域;光源匹配,对水下图像进行形态学上的处理,获取最终光源中心点坐标;解算AUV与对接坞的相对位置。该方法将短距离高精度的双目视觉定位运用到水下AUV回收的自主对接过程中,利用质心检测算法、连通域检测算法替换Hough圆形检测法以提高计算AUV与对接坞的相对位置信息的实时性,提高了定位的实时性与稳定性,保障了AUV对接成功率。
Description
技术领域
本发明涉及一种基于双目视觉的自主式水下机器人回收对接末端的定位及姿态识别的方法,属于水下机器人回收技术领域。
背景技术
自主式水下机器人(AUV:Autonomous Underwater Vehicle)无人无缆工作在海洋环境中,对于AUV的回收再利用工作是AUV研究及便捷化的重要研究内容之一。近年来,水下光视觉取得了丰富的研究成果,但由于水中环境的光线较暗、悬浮生物较多等干扰因素,使得采集到的图像噪声严重、颜色失真,这些都对水下景物的描述和目标定位产生很大的影响,从而影响水下机器人作业任务和水下机器人的回收工作。
因此,研究水下光视觉目标检测与定位系统,以保证系统测量精度、实时性和稳定性为目标,为水下机器人提供姿态信息和位置信息以便AUV的回收利用。所以水下视觉检测与目标定位技术对于短距离内的AUV回收定位具有重要的研究意义和使用价值。
发明内容
本发明的目的是为了提供一种水下机器人回收定位方法。本发明专利能为AUV提供精确的位置信息,以便AUV的回收,保障AUV的再次利用。
本发明的目的是这样实现的:这步骤如下:
步骤一:利用两台水下CCD相机拍摄标定板,获取双目相机的参数,包括内、外参矩阵,畸变系数和相机之间的旋转、平移矩阵;
步骤二:获取水下双目相机拍摄的视觉图像,作为待分析的输入图像;
步骤三:灰度化与二值化处理输入图像,判断图像中的连通域;
步骤四:光源匹配,对水下图像进行形态学上的处理,获取最终光源中心点坐标;
步骤五:解算AUV与对接坞的相对位置;
步骤六:将双目视觉得到的位置数据与航位推算得到位置数据融合。
综上,本发明主要用于自主式水下机器人在完成相应的水下任务后,对其进行回收过程中,准确获取对接坞的位置信息。这样的过程包含以下步骤:水下双目相机的标定:计算出双目相机的内外参数;双目图像的矫正:畸变校正与立体矫正;双目图像的特征点匹配:形态学处理获取光源信息,质心检测获取光源中心的图像坐标,中心点匹配,去除误匹配;计算对接坞相对自主式水下机器人的位置信息;信息融合:利用卡尔曼滤波融合视觉定位与航位推算定位数据用以优势互补。
航位推算定位的优点在于数据更新频率高。具有较高的系统频带,导航数据输出平稳,短期性较好。能够提供AUV与对接装置的相对位置姿态,这是对接过程一切行为的基础。采用此方法,将很大程度上弥补光视觉定位效率低,稳定性差缺点。
本发明与现有技术相比,具有一下优点:
(1)本发明结合计算机视觉技术与信息融合技术,实现AUV水下对接过程中的实时定位,提高其定位精度,弥补了单一视觉定位的更新周期长,鲁棒性差等缺点。
(2)传统的水下光源检测中运用Hough圆形检测,该方法计算量大,耗时长,本发明改用质心检测算法,计算速度快,实时响应高,提高定位的快速性。
(3)对于水下的特殊环境以及水质对光源的影响,本发明采用形态学上的腐蚀、膨胀处理,消除光源边缘的不规则细小噪声,平滑光源轮廓,提高下一步质心检测的正确率,同时提高计算光源中心坐标的精度。
(4)在水下图像的二值化阶段,采用wallner快速自适应二值化算法,摒除传统水下图像二值化处理亮度不均问题,即减少或不会造成光源的遗漏。
附图说明
图1是本发明一种水下机器人回收定位方法的整体流程图;
图2是本发明基于张正友标定法制定的水下双目相机的标定的流程图;
图3是本发明光源中心坐标分类方法;
图4是本发明建立的双目视觉的一般模型;
图5是本发明视觉定位信息与航位推算定位信息融合处理流程图;
图6是本发明步骤三中计算连通域的方法的流程图。
具体实施方式
下面结合说明书附图对本发明作进一步阐述。
如图1至6所示,本发明一种水下机器人回收定位方法,具体包括如下步骤:
步骤一:利用两台水下CCD相机拍摄标定板,获取双目相机的参数,包括内、外参矩阵,畸变系数和相机之间的旋转、平移矩阵;
应用张正友平面标定法对摄像机基本参数进行标定,首先打印一张7*10黑白格相间的标定板并在水下从不同角度拍摄若干张标定板图像;检测出图像中的特征点以求解理想无畸变情况下的摄像机内外参数并用最大似然估计提升精度;应用最小二乘法求出实际的径向畸变系数;之后综合内外参数、畸变系数使用极大似然法,优化估计,提升估计精度;最后得出精确的相机内外参数和畸变系数。
步骤二:获取水下双目相机拍摄的视觉图像,作为待分析的输入图像;
步骤三:灰度化与二值化处理输入图像,判断图像中的连通域;
采用wallner自适应阈值二值化处理图像,得到较为明显的水下光源黑白图像,
其中wallner算法具体为:
其中p(n)表示第n个像素点的灰度值,gs(n)表示二值化后的值,s表示第n个之前的像素数量,取s为图像宽度的八分之一,该算法的优点在于可以解决因光照角度而出现的亮暗不均问题;
利用连通域检测算法判断图像中白色区域的数量,该算法步骤如下:
(1)对图像进行逐像素扫描,若当前的像素值为0则移动到下一个扫描的位置;
(2)若当前像素值为1,则检查该像素左边与上边的两个邻接像素;
(3)考虑这两个像素的组合情况,若它们的像素都为0,则给予该像素新的标记用以表示一个新的连通域的开始;
(4)它们中间只有一个像素为1,则当前的像素标记为它们中为1的像素标记值;
(5)它们的像素值都为1且标记相同,则当前像素的标记为该标记;
(6)它们的像素值都为1但是标记不同,则将较小的值赋给当前像素;
(7)以上述为循环,找出所有的连通域,得到连通域的数量;
步骤四:光源匹配,在得到连通域的基础上,对二值化的光源图像进行平滑处理,获取最终光源中心点坐标;具体包括如下步骤:
(1)利用形态学的腐蚀算法消除光源附近的噪声,将光源的连通域完全凸显出来;
(2)利用形态学的膨胀算法,平滑光源连通域的边缘;
(4)标记光源坐标,将横坐标最大、最小分别标记为左与右,将纵坐标最小、最大分别标记为上与下;
(5)最后将双目相机中相同标记的光源坐标配对,即双目相机中获取的两幅图中的光源坐标进行配对;
步骤五:解算AUV与对接坞的相对位置;
假设摄像机的所在坐标系与世界坐标系重合,O1-X1Y1构成左摄像机的图像坐标系,焦距为f1。坐标系OC2-XC2YC2构成右摄像机的坐标系,其成像平面对应的坐标系为O2-X2Y2,焦距为fr,其在左右成像平面上的投影点Pl(Xl,Yl)和Pr(Xr,Yr),则左右摄像机的投影模型分别是:
将上式联立可以得到点P(x,y,z)与Pl(x,y,z)和Pr(x,y,z)的数学表达式:
将标定所得的左右摄像机的内外参数和匹配后的Pl(Xl,Yl)和Pr(Xr,Yr)就可以求得AUV的三维位置信息;
步骤六:将双目视觉得到的位置数据与航位推算得到位置数据融合;具体包括如下步骤:
(1)选择对接过程中的位姿信息作为卡尔曼滤波的状态变量:X=[ξ η ζ Ψ]T
状态转移矩阵φ(k+1,k)=diag{φξ,φη,φζ,φΨ},其中:
φη、ψζ、φψ与φξ相同,只是相对应的替换即可;
控制矩阵U(k)=diag{Uξ,Uη,Uζ,UΨ},其中:
Uη、Uζ、UΨ与Uξ相同,只是将相对应的替换即可。上两式中,T为采样时间,τaξ、τaξ、τaζ、τaΨ分别是四个自由度加速度变化率相关事件常数;a=[aξ aη aζ aΨ]为各自由度加速度;
(3)建立观测方程:将视觉导航给出的信息看作对系统的观测量,包含位置信息和姿态信息,得到系统的观测方程:Z(k)=HX(k)+V(k)
上面结合附图对本发明的实施方式做了详细说明,但是本发明并不限于上述实施方式,在所属领域的技术人员所具备的知识范围内,在不脱离本发明宗旨的前提下可以做出各种变化。
Claims (8)
1.一种水下机器人回收定位方法,其特征在于,包括以下步骤:
步骤一:利用两台水下CCD相机拍摄标定板,获取双目相机的参数,包括内、外参矩阵,畸变系数和相机之间的旋转、平移矩阵;
步骤二:获取水下双目相机拍摄的视觉图像,作为待分析的输入图像;
步骤三:灰度化与二值化处理输入图像,判断图像中的连通域;
步骤四:光源匹配,对水下图像进行形态学上的处理,获取最终光源中心点坐标;
步骤五:解算AUV与对接坞的相对位置;
步骤六:将双目视觉得到的位置数据与航位推算得到位置数据融合。
2.根据权利要求1所述的水下机器人回收定位方法,其中,步骤一中使用的张正友标定法获取相机的各项参数,具体步骤为:
打印一张7*10黑白格相间的标定板并在水下从不同角度拍摄若干张标定板图像;
检测出图像中的特征点以求解理想无畸变情况下的摄像机内外参数并用最大似然估计提升精度;
应用最小二乘法求出实际的径向畸变系数;
综合内外参数、畸变系数使用极大似然法,优化估计,提升估计精度,最后得出精确的相机内外参数和畸变系数。
4.根据权利要求3所述的水下机器人回收定位方法,其中,步骤三中使用连通域判断算法获取图像中连通域的数量即光源数量,该算法步骤如下:
对图像进行逐像素扫描,若当前的像素值为0则移动到下一个扫描的位置;
若当前像素值为1,则检查该像素左边与上边的两个邻接像素;
考虑这两个像素的组合情况,若它们的像素都为0,则给予该像素新的标记用以表示一个新的连通域的开始;
它们中间只有一个像素为1,则当前的像素标记为它们中为1的像素标记值;
它们的像素值都为1且标记相同,则当前像素的标记为该标记;
它们的像素值都为1但是标记不同,则将较小的值赋给当前像素;
以上述为循环,找出所有的连通域,得到连通域的数量。
5.根据权利要求1所述的水下机器人回收定位方法,其中,步骤四中在得到连通域的基础上,对二值化的光源图像进行平滑处理,利用图像处理中形态学上的腐蚀、膨胀操作,消除光源所在的连通域周围的像素噪声,凸显光源所在连通域并平滑光源边缘。
7.根据权利要求1所述的水下机器人回收定位方法,其中,步骤五中,假设做摄像机的所在坐标系与世界坐标系重合,O1-X1Y1构成左摄像机的图像坐标系,焦距为f1。坐标系OC2-XC2YC2构成右摄像机的坐标系,其成像平面对应的坐标系为O2-X2Y2,焦距为fr,其在左右成像平面上的投影点Pl(Xl,Yl)和Pr(Xr,Yr),则左右摄像机的投影模型分别是:
将上式联立可以得到点P(x,y,z)与Pl(x,y,z)和Pr(x,y,z)的数学表达式:
将标定所得的左右摄像机的内外参数和匹配后的Pl(Xl,Yl)和Pr(Xr,Yr)就可以求得AUV的三维位置信息。
8.根据权利要求1所述的水下机器人回收定位方法,其中,步骤六中,利用卡尔曼滤波方法将双目光视觉定位信息与航位推算点位信息两者融合,以获得更加精确的位置信息,具体包括如下步骤:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010595066.5A CN111784655B (zh) | 2020-06-24 | 2020-06-24 | 一种水下机器人回收定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010595066.5A CN111784655B (zh) | 2020-06-24 | 2020-06-24 | 一种水下机器人回收定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111784655A true CN111784655A (zh) | 2020-10-16 |
CN111784655B CN111784655B (zh) | 2023-11-24 |
Family
ID=72760078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010595066.5A Active CN111784655B (zh) | 2020-06-24 | 2020-06-24 | 一种水下机器人回收定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111784655B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034399A (zh) * | 2021-04-01 | 2021-06-25 | 江苏科技大学 | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 |
CN113109762A (zh) * | 2021-04-07 | 2021-07-13 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
CN113592958A (zh) * | 2021-08-13 | 2021-11-02 | 大连海事大学 | 一种基于单目视觉的auv对接坞站光学引导方法 |
CN115147496A (zh) * | 2022-06-29 | 2022-10-04 | 中国航天空气动力技术研究院 | 一种基于深度学习的水下视觉导引实时检测方法及装置 |
CN115258106A (zh) * | 2022-08-08 | 2022-11-01 | 中国舰船研究设计中心 | 一种船载无人潜器回收方法 |
CN117647244A (zh) * | 2023-10-19 | 2024-03-05 | 哈尔滨工程大学 | 一种水下机器人对接过程中的导航定位方法及装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
CN103413313A (zh) * | 2013-08-19 | 2013-11-27 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
WO2017092631A1 (zh) * | 2015-11-30 | 2017-06-08 | 宁波舜宇光电信息有限公司 | 鱼眼图像的畸变图像校正方法及鱼眼相机的标定方法 |
WO2018077164A1 (zh) * | 2016-10-28 | 2018-05-03 | 北京进化者机器人科技有限公司 | 机器人自动回位充电方法和系统 |
CN108171713A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 基于视觉的机器人快速识别与三维视觉定位方法 |
CN108171753A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 基于形心特征点与邻域灰度互相关性的立体视觉定位方法 |
CN109035200A (zh) * | 2018-06-21 | 2018-12-18 | 北京工业大学 | 一种基于单双目视觉协同的螺栓定位及位姿检测方法 |
CN109242908A (zh) * | 2018-07-12 | 2019-01-18 | 中国科学院自动化研究所 | 用于水下双目视觉测量系统的标定方法 |
CN110543859A (zh) * | 2019-09-05 | 2019-12-06 | 大连海事大学 | 一种基于深度学习和双目定位的海参自主识别和抓取方法 |
CN110648367A (zh) * | 2019-08-15 | 2020-01-03 | 大连理工江苏研究院有限公司 | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 |
CN111062990A (zh) * | 2019-12-13 | 2020-04-24 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
CN111721259A (zh) * | 2020-06-24 | 2020-09-29 | 江苏科技大学 | 基于双目视觉的水下机器人回收定位方法 |
-
2020
- 2020-06-24 CN CN202010595066.5A patent/CN111784655B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
CN103413313A (zh) * | 2013-08-19 | 2013-11-27 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
WO2017092631A1 (zh) * | 2015-11-30 | 2017-06-08 | 宁波舜宇光电信息有限公司 | 鱼眼图像的畸变图像校正方法及鱼眼相机的标定方法 |
WO2018077164A1 (zh) * | 2016-10-28 | 2018-05-03 | 北京进化者机器人科技有限公司 | 机器人自动回位充电方法和系统 |
CN108171713A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 基于视觉的机器人快速识别与三维视觉定位方法 |
CN108171753A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 基于形心特征点与邻域灰度互相关性的立体视觉定位方法 |
CN109035200A (zh) * | 2018-06-21 | 2018-12-18 | 北京工业大学 | 一种基于单双目视觉协同的螺栓定位及位姿检测方法 |
CN109242908A (zh) * | 2018-07-12 | 2019-01-18 | 中国科学院自动化研究所 | 用于水下双目视觉测量系统的标定方法 |
CN110648367A (zh) * | 2019-08-15 | 2020-01-03 | 大连理工江苏研究院有限公司 | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 |
CN110543859A (zh) * | 2019-09-05 | 2019-12-06 | 大连海事大学 | 一种基于深度学习和双目定位的海参自主识别和抓取方法 |
CN111062990A (zh) * | 2019-12-13 | 2020-04-24 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
CN111721259A (zh) * | 2020-06-24 | 2020-09-29 | 江苏科技大学 | 基于双目视觉的水下机器人回收定位方法 |
Non-Patent Citations (8)
Title |
---|
MIN YOUNG KIM ETC.: "An active trinocular vision system of sensing indoor navigation environment for mobile robots", SENSORS AND ACTUATORS A: PHYSICAL * |
YINGHAO WU ETC.: "《Applied Ocean Research》", SURVEY OF UNDERWATER ROBOT POSITIONING NAVIGATION * |
万媛媛: "水下光视觉目标检测与定位系统关键技术研究", 中国优秀硕士学位论文全文数据库 * |
刘振宇;姜楠;张令涛;: "基于人工路标和立体视觉的移动机器人自定位", 计算机工程与应用, no. 09 * |
刘胤伯;高军伟;陈晏鹏;李冰;: "一种简便的计算机视觉定位方法", 中国制造业信息化, no. 11 * |
谷凤伟;高宏伟;姜月秋;: "一种简易的单目视觉位姿测量方法研究", 光电技术应用, no. 04 * |
韩冲;苏涛;谢基榕;: "基于OpenCV的水下机器人单目定位技术研究与仿真", 计算机测量与控制, no. 12 * |
高茂源;王好臣;赵锦泽;于跃华;李家鹏;: "双目视觉引导机器人码垛定位技术的研究", 计算机测量与控制, no. 01 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034399A (zh) * | 2021-04-01 | 2021-06-25 | 江苏科技大学 | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 |
WO2022205525A1 (zh) * | 2021-04-01 | 2022-10-06 | 江苏科技大学 | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 |
CN113109762A (zh) * | 2021-04-07 | 2021-07-13 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
CN113109762B (zh) * | 2021-04-07 | 2022-08-02 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
CN113592958A (zh) * | 2021-08-13 | 2021-11-02 | 大连海事大学 | 一种基于单目视觉的auv对接坞站光学引导方法 |
CN115147496A (zh) * | 2022-06-29 | 2022-10-04 | 中国航天空气动力技术研究院 | 一种基于深度学习的水下视觉导引实时检测方法及装置 |
CN115258106A (zh) * | 2022-08-08 | 2022-11-01 | 中国舰船研究设计中心 | 一种船载无人潜器回收方法 |
CN117647244A (zh) * | 2023-10-19 | 2024-03-05 | 哈尔滨工程大学 | 一种水下机器人对接过程中的导航定位方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111784655B (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111721259B (zh) | 基于双目视觉的水下机器人回收定位方法 | |
CN111784655B (zh) | 一种水下机器人回收定位方法 | |
CN109255813B (zh) | 一种面向人机协作的手持物体位姿实时检测方法 | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN104484648B (zh) | 基于轮廓识别的机器人可变视角障碍物检测方法 | |
CN108597009B (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN109211207B (zh) | 一种基于机器视觉的螺钉识别与定位装置 | |
CN111897349A (zh) | 一种基于双目视觉的水下机器人自主避障方法 | |
CN111862201A (zh) | 一种基于深度学习的空间非合作目标相对位姿估计方法 | |
CN114029946A (zh) | 一种基于3d光栅引导机器人定位抓取的方法、装置及设备 | |
CN112132874B (zh) | 无标定板异源图像配准方法、装置、电子设备及存储介质 | |
CN106996748A (zh) | 一种基于双目视觉的轮径测量方法 | |
CN113324478A (zh) | 一种线结构光的中心提取方法及锻件三维测量方法 | |
CN110084830B (zh) | 一种视频运动目标检测与跟踪方法 | |
CN115830018B (zh) | 基于深度学习与双目视觉的碳素块检测方法及系统 | |
CN107527368B (zh) | 基于二维码的三维空间姿态定位方法与装置 | |
CN114140439A (zh) | 基于深度学习的激光焊接焊缝特征点识别方法及装置 | |
CN113393524B (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN112184765A (zh) | 一种基于视觉的水下航行器自主跟踪方法 | |
CN115830070A (zh) | 一种牵引变电所巡检机器人红外激光融合定位方法 | |
Li et al. | Vision-based target detection and positioning approach for underwater robots | |
CN115629066A (zh) | 一种基于视觉引导的面向自动配线的方法及装置 | |
CN111583342A (zh) | 一种基于双目视觉的目标快速定位方法及装置 | |
CN116594351A (zh) | 一种基于机器视觉的数控加工单元系统 | |
CN114200954B (zh) | 基于Apriltag的无人机降落方法、装置、介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |