CN111784655B - 一种水下机器人回收定位方法 - Google Patents
一种水下机器人回收定位方法 Download PDFInfo
- Publication number
- CN111784655B CN111784655B CN202010595066.5A CN202010595066A CN111784655B CN 111784655 B CN111784655 B CN 111784655B CN 202010595066 A CN202010595066 A CN 202010595066A CN 111784655 B CN111784655 B CN 111784655B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- underwater
- light source
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004064 recycling Methods 0.000 title claims description 5
- 239000011159 matrix material Substances 0.000 claims abstract description 18
- 238000011084 recovery Methods 0.000 claims abstract description 12
- 238000003032 molecular docking Methods 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims abstract description 9
- 230000000877 morphologic effect Effects 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000013519 translation Methods 0.000 claims abstract description 6
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000007476 Maximum Likelihood Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 4
- 230000007797 corrosion Effects 0.000 claims description 3
- 238000005260 corrosion Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 3
- 238000007639 printing Methods 0.000 claims description 2
- 238000000105 evaporative light scattering detection Methods 0.000 claims 2
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 12
- 230000008569 process Effects 0.000 abstract description 5
- 230000008901 benefit Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Abstract
本发明提供一种水下机器人回收定位方法,利用两台水下CCD相机拍摄标定板,获取双目相机的参数,包括内、外参矩阵,畸变系数和相机之间的旋转、平移矩阵;获取水下双目相机拍摄的视觉图像,作为待分析的输入图像;灰度化与二值化处理输入图像,判断图像中的连通域;光源匹配,对水下图像进行形态学上的处理,获取最终光源中心点坐标;解算AUV与对接坞的相对位置。该方法将短距离高精度的双目视觉定位运用到水下AUV回收的自主对接过程中,利用质心检测算法、连通域检测算法替换Hough圆形检测法以提高计算AUV与对接坞的相对位置信息的实时性,提高了定位的实时性与稳定性,保障了AUV对接成功率。
Description
技术领域
本发明涉及一种基于双目视觉的自主式水下机器人回收对接末端的定位及姿态识别的方法,属于水下机器人回收技术领域。
背景技术
自主式水下机器人(AUV:Autonomous Underwater Vehicle)无人无缆工作在海洋环境中,对于AUV的回收再利用工作是AUV研究及便捷化的重要研究内容之一。近年来,水下光视觉取得了丰富的研究成果,但由于水中环境的光线较暗、悬浮生物较多等干扰因素,使得采集到的图像噪声严重、颜色失真,这些都对水下景物的描述和目标定位产生很大的影响,从而影响水下机器人作业任务和水下机器人的回收工作。
因此,研究水下光视觉目标检测与定位系统,以保证系统测量精度、实时性和稳定性为目标,为水下机器人提供姿态信息和位置信息以便AUV的回收利用。所以水下视觉检测与目标定位技术对于短距离内的AUV回收定位具有重要的研究意义和使用价值。
发明内容
本发明的目的是为了提供一种水下机器人回收定位方法。本发明专利能为AUV提供精确的位置信息,以便AUV的回收,保障AUV的再次利用。
本发明的目的是这样实现的:这步骤如下:
步骤一:利用两台水下CCD相机拍摄标定板,获取双目相机的参数,包括内、外参矩阵,畸变系数和相机之间的旋转、平移矩阵;
步骤二:获取水下双目相机拍摄的视觉图像,作为待分析的输入图像;
步骤三:灰度化与二值化处理输入图像,判断图像中的连通域;
步骤四:光源匹配,对水下图像进行形态学上的处理,获取最终光源中心点坐标;
步骤五:解算AUV与对接坞的相对位置;
步骤六:将双目视觉得到的位置数据与航位推算得到位置数据融合。
综上,本发明主要用于自主式水下机器人在完成相应的水下任务后,对其进行回收过程中,准确获取对接坞的位置信息。这样的过程包含以下步骤:水下双目相机的标定:计算出双目相机的内外参数;双目图像的矫正:畸变校正与立体矫正;双目图像的特征点匹配:形态学处理获取光源信息,质心检测获取光源中心的图像坐标,中心点匹配,去除误匹配;计算对接坞相对自主式水下机器人的位置信息;信息融合:利用卡尔曼滤波融合视觉定位与航位推算定位数据用以优势互补。
航位推算定位的优点在于数据更新频率高。具有较高的系统频带,导航数据输出平稳,短期性较好。能够提供AUV与对接装置的相对位置姿态,这是对接过程一切行为的基础。采用此方法,将很大程度上弥补光视觉定位效率低,稳定性差缺点。
本发明与现有技术相比,具有一下优点:
(1)本发明结合计算机视觉技术与信息融合技术,实现AUV水下对接过程中的实时定位,提高其定位精度,弥补了单一视觉定位的更新周期长,鲁棒性差等缺点。
(2)传统的水下光源检测中运用Hough圆形检测,该方法计算量大,耗时长,本发明改用质心检测算法,计算速度快,实时响应高,提高定位的快速性。
(3)对于水下的特殊环境以及水质对光源的影响,本发明采用形态学上的腐蚀、膨胀处理,消除光源边缘的不规则细小噪声,平滑光源轮廓,提高下一步质心检测的正确率,同时提高计算光源中心坐标的精度。
(4)在水下图像的二值化阶段,采用wallner快速自适应二值化算法,摒除传统水下图像二值化处理亮度不均问题,即减少或不会造成光源的遗漏。
附图说明
图1是本发明一种水下机器人回收定位方法的整体流程图;
图2是本发明基于张正友标定法制定的水下双目相机的标定的流程图;
图3是本发明光源中心坐标分类方法;
图4是本发明建立的双目视觉的一般模型;
图5是本发明视觉定位信息与航位推算定位信息融合处理流程图;
图6是本发明步骤三中计算连通域的方法的流程图。
具体实施方式
下面结合说明书附图对本发明作进一步阐述。
如图1至6所示,本发明一种水下机器人回收定位方法,具体包括如下步骤:
步骤一:利用两台水下CCD相机拍摄标定板,获取双目相机的参数,包括内、外参矩阵,畸变系数和相机之间的旋转、平移矩阵;
应用张正友平面标定法对摄像机基本参数进行标定,首先打印一张7*10黑白格相间的标定板并在水下从不同角度拍摄若干张标定板图像;检测出图像中的特征点以求解理想无畸变情况下的摄像机内外参数并用最大似然估计提升精度;应用最小二乘法求出实际的径向畸变系数;之后综合内外参数、畸变系数使用极大似然法,优化估计,提升估计精度;最后得出精确的相机内外参数和畸变系数。
步骤二:获取水下双目相机拍摄的视觉图像,作为待分析的输入图像;
步骤三:灰度化与二值化处理输入图像,判断图像中的连通域;
采用wallner自适应阈值二值化处理图像,得到较为明显的水下光源黑白图像,
其中wallner算法具体为:
其中p(n)表示第n个像素点的灰度值,gs(n)表示二值化后的值,s表示第n个之前的像素数量,取s为图像宽度的八分之一,该算法的优点在于可以解决因光照角度而出现的亮暗不均问题;
利用连通域检测算法判断图像中白色区域的数量,该算法步骤如下:
(1)对图像进行逐像素扫描,若当前的像素值为0则移动到下一个扫描的位置;
(2)若当前像素值为1,则检查该像素左边与上边的两个邻接像素;
(3)考虑这两个像素的组合情况,若它们的像素都为0,则给予该像素新的标记用以表示一个新的连通域的开始;
(4)它们中间只有一个像素为1,则当前的像素标记为它们中为1的像素标记值;
(5)它们的像素值都为1且标记相同,则当前像素的标记为该标记;
(6)它们的像素值都为1但是标记不同,则将较小的值赋给当前像素;
(7)以上述为循环,找出所有的连通域,得到连通域的数量;
步骤四:光源匹配,在得到连通域的基础上,对二值化的光源图像进行平滑处理,获取最终光源中心点坐标;具体包括如下步骤:
(1)利用形态学的腐蚀算法消除光源附近的噪声,将光源的连通域完全凸显出来;
(2)利用形态学的膨胀算法,平滑光源连通域的边缘;
(3)使用质心检测算法用以获取光源的中心坐标;其中,Iij为图像上每个像素点所接收的光强,xc,yc为中心点坐标;
(4)标记光源坐标,将横坐标最大、最小分别标记为左与右,将纵坐标最小、最大分别标记为上与下;
(5)最后将双目相机中相同标记的光源坐标配对,即双目相机中获取的两幅图中的光源坐标进行配对;
步骤五:解算AUV与对接坞的相对位置;
假设摄像机的所在坐标系与世界坐标系重合,O1-X1Y1构成左摄像机的图像坐标系,焦距为f1。坐标系OC2-XC2YC2构成右摄像机的坐标系,其成像平面对应的坐标系为O2-X2Y2,焦距为fr,其在左右成像平面上的投影点Pl(Xl,Yl)和Pr(Xr,Yr),则左右摄像机的投影模型分别是:
两个摄像机间存在对应关系,即右摄像机经过平移矩阵T=[TX TY YZ]T和旋转矩阵可以和左摄像机完全重合,其对应关系可以表示为:
将上式联立可以得到点P(x,y,z)与Pl(x,y,z)和Pr(x,y,z)的数学表达式:
将标定所得的左右摄像机的内外参数和匹配后的Pl(Xl,Yl)和Pr(Xr,Yr)就可以求得AUV的三维位置信息;
步骤六:将双目视觉得到的位置数据与航位推算得到位置数据融合;具体包括如下步骤:
(1)选择对接过程中的位姿信息作为卡尔曼滤波的状态变量:X=[ξ η ζ Ψ]T
(2)离散化状态方程为:
状态转移矩阵φ(k+1,k)=diag{φξ,φη,φζ,φΨ},其中:
φη、ψζ、φψ与φξ相同,只是相对应的替换即可;
控制矩阵U(k)=diag{Uξ,Uη,Uζ,UΨ},其中:
Uη、Uζ、UΨ与Uξ相同,只是将相对应的替换即可。上两式中,T为采样时间,τaξ、τaξ、τaζ、τaΨ分别是四个自由度加速度变化率相关事件常数;a=[aξ aη aζ aΨ]为各自由度加速度;
(3)建立观测方程:将视觉导航给出的信息看作对系统的观测量,包含位置信息和姿态信息,得到系统的观测方程:Z(k)=HX(k)+V(k)
其中,
上面结合附图对本发明的实施方式做了详细说明,但是本发明并不限于上述实施方式,在所属领域的技术人员所具备的知识范围内,在不脱离本发明宗旨的前提下可以做出各种变化。
Claims (3)
1.一种水下机器人回收定位方法,其特征在于,包括以下步骤:
步骤一:利用两台水下CCD相机拍摄标定板,获取双目相机的参数,包括内、外参矩阵,畸变系数和相机之间的旋转和平移矩阵;
步骤二:获取水下双目相机拍摄的视觉图像,作为待分析的输入图像;
步骤三:灰度化与二值化处理输入图像,判断图像中的连通域;
步骤四:光源匹配,对水下图像进行形态学上的处理,获取最终光源中心点坐标;
步骤五:解算AUV与对接坞的相对位置;
步骤六:将双目视觉得到的位置数据与航位推算得到位置数据融合;
步骤三中采用wallner自适应阈值二值化处理图像,得到水下光源黑白图像,其中wallner算法具体为:
其中p(n)表示第n个像素点的灰度值,gs(n)表示二值化后的值,s表示第n个之前的像素数量,取s为图像宽度的八分之一;
步骤三中使用连通域判断算法获取图像中连通域的数量即光源数量,该算法步骤如下:
对图像进行逐像素扫描,若当前的像素值为0则移动到下一个扫描的位置;
若当前像素值为1,则检查该像素左边与上边的两个邻接像素;
考虑这两个像素的组合情况,若它们的像素都为0,则给予该像素新的标记用以表示一个新的连通域的开始;
它们中间只有一个像素为1,则当前的像素标记为它们中为1的像素标记值;
它们的像素值都为1且标记相同,则当前像素的标记为该标记;
它们的像素值都为1但是标记不同,则将小的标记赋给当前像素;以上述步骤三中算法步骤为循环,找出所有的连通域,得到连通域的数量;
步骤三中在得到连通域的基础上,对二值化的光源图像进行平滑处理,利用图像处理中形态学上的腐蚀和膨胀操作,消除光源所在的连通域周围的像素噪声,凸显光源所在连通域并平滑光源边缘;
步骤四中应用质心检测算法,其核心在于统计连通域中所有的横坐标、纵坐标之和,并计数连通域中像素的数目,求取平均值获得连通域中心坐标;然后依次标记每个光源的中心坐标,标记方法为分别以横坐标最大、最小依据,标记左右光源,同理以纵坐标最大最小为依据,标记为上下光源,
其中,Iij为图像上每个像素点所接收的光强,xc,yc为中心点坐标;
最后将双目相机中相同标记的光源坐标配对。
2.根据权利要求1所述的水下机器人回收定位方法,其中,步骤一中使用的张正友标定法获取相机的各项参数,具体步骤为:
打印一张7*10黑白格相间的标定板并在水下从不同角度拍摄若干张标定板图像;
检测出图像中的特征点以求解理想无畸变情况下的摄像机内外参数并用最大似然估计提升精度;
应用最小二乘法求出实际的径向畸变系数;
综合内外参数和畸变系数,使用极大似然法,优化估计,提升估计精度,最后得出精确的相机内外参数和畸变系数。
3.根据权利要求1所述的水下机器人回收定位方法,其中,步骤五中,假设左摄像机的所在坐标系与世界坐标系重合,O1-X1Y1构成左摄像机成像平面对应的图像坐标系,左摄像机焦距为f1;坐标系OC2-XC2YC2构成右摄像机的坐标系,其成像平面对应的坐标系为O2-X2Y2,右摄像机焦距为fr,其在左右成像平面上的投影点Pl(Xl,Yl)和Pr(Xr,Yr),则左右摄像机的投影模型分别是:
两个摄像机间存在某种对应关系,即右摄像机经过平移矩阵T=[tx ty tz]T和旋转矩阵和左摄像机完全重合,其对应关系表示为:
将上式联立得到点P(X,Y,Z)与Pl(Xl,Yl)和Pr(Xr,Yr)的数学表达式:
将标定所得的左右摄像机的内外参数和匹配后的Pl(Xl,Yl)和Pr(Xr,Yr)就求得AUV的三维位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010595066.5A CN111784655B (zh) | 2020-06-24 | 2020-06-24 | 一种水下机器人回收定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010595066.5A CN111784655B (zh) | 2020-06-24 | 2020-06-24 | 一种水下机器人回收定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111784655A CN111784655A (zh) | 2020-10-16 |
CN111784655B true CN111784655B (zh) | 2023-11-24 |
Family
ID=72760078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010595066.5A Active CN111784655B (zh) | 2020-06-24 | 2020-06-24 | 一种水下机器人回收定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111784655B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034399A (zh) * | 2021-04-01 | 2021-06-25 | 江苏科技大学 | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 |
CN113109762B (zh) * | 2021-04-07 | 2022-08-02 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
CN113592958A (zh) * | 2021-08-13 | 2021-11-02 | 大连海事大学 | 一种基于单目视觉的auv对接坞站光学引导方法 |
CN115258106A (zh) * | 2022-08-08 | 2022-11-01 | 中国舰船研究设计中心 | 一种船载无人潜器回收方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
CN103413313A (zh) * | 2013-08-19 | 2013-11-27 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
WO2017092631A1 (zh) * | 2015-11-30 | 2017-06-08 | 宁波舜宇光电信息有限公司 | 鱼眼图像的畸变图像校正方法及鱼眼相机的标定方法 |
WO2018077164A1 (zh) * | 2016-10-28 | 2018-05-03 | 北京进化者机器人科技有限公司 | 机器人自动回位充电方法和系统 |
CN108171753A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 基于形心特征点与邻域灰度互相关性的立体视觉定位方法 |
CN108171713A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 基于视觉的机器人快速识别与三维视觉定位方法 |
CN109035200A (zh) * | 2018-06-21 | 2018-12-18 | 北京工业大学 | 一种基于单双目视觉协同的螺栓定位及位姿检测方法 |
CN109242908A (zh) * | 2018-07-12 | 2019-01-18 | 中国科学院自动化研究所 | 用于水下双目视觉测量系统的标定方法 |
CN110543859A (zh) * | 2019-09-05 | 2019-12-06 | 大连海事大学 | 一种基于深度学习和双目定位的海参自主识别和抓取方法 |
CN110648367A (zh) * | 2019-08-15 | 2020-01-03 | 大连理工江苏研究院有限公司 | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 |
CN111062990A (zh) * | 2019-12-13 | 2020-04-24 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111721259B (zh) * | 2020-06-24 | 2022-05-03 | 江苏科技大学 | 基于双目视觉的水下机器人回收定位方法 |
-
2020
- 2020-06-24 CN CN202010595066.5A patent/CN111784655B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
CN103413313A (zh) * | 2013-08-19 | 2013-11-27 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
WO2017092631A1 (zh) * | 2015-11-30 | 2017-06-08 | 宁波舜宇光电信息有限公司 | 鱼眼图像的畸变图像校正方法及鱼眼相机的标定方法 |
WO2018077164A1 (zh) * | 2016-10-28 | 2018-05-03 | 北京进化者机器人科技有限公司 | 机器人自动回位充电方法和系统 |
CN108171753A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 基于形心特征点与邻域灰度互相关性的立体视觉定位方法 |
CN108171713A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 基于视觉的机器人快速识别与三维视觉定位方法 |
CN109035200A (zh) * | 2018-06-21 | 2018-12-18 | 北京工业大学 | 一种基于单双目视觉协同的螺栓定位及位姿检测方法 |
CN109242908A (zh) * | 2018-07-12 | 2019-01-18 | 中国科学院自动化研究所 | 用于水下双目视觉测量系统的标定方法 |
CN110648367A (zh) * | 2019-08-15 | 2020-01-03 | 大连理工江苏研究院有限公司 | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 |
CN110543859A (zh) * | 2019-09-05 | 2019-12-06 | 大连海事大学 | 一种基于深度学习和双目定位的海参自主识别和抓取方法 |
CN111062990A (zh) * | 2019-12-13 | 2020-04-24 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
Non-Patent Citations (9)
Title |
---|
《Applied Ocean Research》;Yinghao Wu etc.;Survey of underwater robot positioning navigation;全文 * |
An active trinocular vision system of sensing indoor navigation environment for mobile robots;Min Young Kim etc.;Sensors and Actuators A: Physical;全文 * |
一种简便的计算机视觉定位方法;刘胤伯;高军伟;陈晏鹏;李冰;;中国制造业信息化(第11期);全文 * |
一种简易的单目视觉位姿测量方法研究;谷凤伟;高宏伟;姜月秋;;光电技术应用(第04期);全文 * |
刘振宇 ; 姜楠 ; 张令涛 ; .基于人工路标和立体视觉的移动机器人自定位.计算机工程与应用.2010,(第09期),全文. * |
双目视觉引导机器人码垛定位技术的研究;高茂源;王好臣;赵锦泽;于跃华;李家鹏;;计算机测量与控制(第01期);全文 * |
基于OpenCV的水下机器人单目定位技术研究与仿真;韩冲;苏涛;谢基榕;;计算机测量与控制(第12期);全文 * |
基于人工路标和立体视觉的移动机器人自定位;刘振宇;姜楠;张令涛;;计算机工程与应用(第09期);全文 * |
水下光视觉目标检测与定位系统关键技术研究;万媛媛;中国优秀硕士学位论文全文数据库;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111784655A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111721259B (zh) | 基于双目视觉的水下机器人回收定位方法 | |
CN111784655B (zh) | 一种水下机器人回收定位方法 | |
CN107844750B (zh) | 一种水面全景图像目标检测识别方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN108597009B (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN111856448A (zh) | 基于双目视觉和雷达的海上障碍物识别方法及系统 | |
CN109903313B (zh) | 一种基于目标三维模型的实时位姿跟踪方法 | |
CN111311679B (zh) | 一种基于深度相机的自由漂浮目标位姿估计方法 | |
CN111897349A (zh) | 一种基于双目视觉的水下机器人自主避障方法 | |
CN110930459A (zh) | 灭点提取方法、相机标定方法以及存储介质 | |
CN111862201A (zh) | 一种基于深度学习的空间非合作目标相对位姿估计方法 | |
CN107527368B (zh) | 基于二维码的三维空间姿态定位方法与装置 | |
CN110021029B (zh) | 一种适用于rgbd-slam的实时动态配准方法及存储介质 | |
CN114140439A (zh) | 基于深度学习的激光焊接焊缝特征点识别方法及装置 | |
CN114029946A (zh) | 一种基于3d光栅引导机器人定位抓取的方法、装置及设备 | |
CN113034399A (zh) | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 | |
CN108109154A (zh) | 一种工件的新型定位及数据获取方法 | |
CN114241438B (zh) | 一种基于先验信息的交通信号灯快速精确的识别方法 | |
Stević et al. | Vision-based extrapolation of road lane lines in controlled conditions | |
CN115629066A (zh) | 一种基于视觉引导的面向自动配线的方法及装置 | |
CN115830018B (zh) | 基于深度学习与双目视觉的碳素块检测方法及系统 | |
CN112588621A (zh) | 一种基于视觉伺服的农产品分拣方法及系统 | |
Li et al. | Vision-based target detection and positioning approach for underwater robots | |
CN110751690A (zh) | 铣床刀头视觉定位方法 | |
CN113689365B (zh) | 一种基于Azure Kinect的目标跟踪定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |