CN114202587A - 基于船载单目相机的视觉特征提取方法 - Google Patents
基于船载单目相机的视觉特征提取方法 Download PDFInfo
- Publication number
- CN114202587A CN114202587A CN202111337172.4A CN202111337172A CN114202587A CN 114202587 A CN114202587 A CN 114202587A CN 202111337172 A CN202111337172 A CN 202111337172A CN 114202587 A CN114202587 A CN 114202587A
- Authority
- CN
- China
- Prior art keywords
- point
- points
- pixel
- visual
- clustering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及环境感知领域,特别是一种基于船载单目相机的视觉特征提取方法,包括以下步骤:步骤一、基于HSV颜色空间的图像预处理,通过设置阈值的方式对转变为HSV颜色空间的像素进行筛选;步骤二、基于自适应K‑means的像素点聚类分割;步骤三、进ORB算法提取特征点;步骤四、RANSAC算法提纯匹配特征点;步骤五、视觉里程计解算转换矩阵;步骤六、运动位姿图构建;步骤七、构建感知环境点云图与深度图。采用基于HSV颜色空间的水域环境图像聚类分割,能够有效地降低水面光照影响视觉感知效果的问题,增加对整体环境感知的效果。
Description
技术领域
本发明涉及环境感知领域,特别是一种基于船载单目相机的视觉特征提取方法。
背景技术
上航行环境感知研究之中。实现船舶感知效果是通过感知设备对所处环境中动态、静态物体深度、角度的获取完成对周围环境和自身运动状态的记录。如果将智能化交通设施比作人类,那么环境感知技术就是通过感知设备的“嗅觉”、“视觉”及“听觉”来实现对环境的“闻”“看”和“听”。在航行过程中,实时掌握船舶自身航行轨迹与船体姿态变化,可以对驾驶决策更具有可靠性,有效地降低危险发生的概率。对周围环境的感知构建,有助于实现在计算机三维空间构建物标模型并且对物标进行识别。
所以采用视觉感知设备对近岸航行环境进行感知是需要进行深入研究的问题。视觉感知设备是通过摄像头记录物体光照反射来获取图像信息来进行工作的,摄像头分为单目相机、双目相机与深度相机等。
HSV(Hue Saturation Value)颜色通道更接近于人类眼睛对生活中色彩的感知形式,在计算机图像处理方面也较多地采用了HSV空间。HSV空间表达的色彩由三个部分所组成:Hue(色调、色相)、Saturation(饱和度、色彩纯净度)、Value(明度)。
HSV颜色空间受光照变化影响较小。同时定位与地图构建(SimultaneousLocalization and Mapping,SLAM)算法是将携带传设备的运转主体,当对周围环境没有进行先行验证的情况下,在运动过程中建立周围环境的模型,同时估计自己的运动。目前视觉SLAM技术的研究主要集中在机器人与无人驾驶车辆等领域。造成海上航行环境视觉感知研究相对较少的原因,主要集中于水面的光照反射严重影响视觉感知的准确性,海上环境缺少支撑视觉感知的参照物等。
目前,国内外一些学者对环境感知做了一定研究。
武汉理工大学,航海学院的邹雄在杂志《中国航海》当中,依据船舶靠泊时水域环境,提出水岸线检测,将该水岸线检测方法与视觉里程计(Visual Odometry,VO)方法相结合,提出一种泊位水域环境中的船舶航迹估计方法。
上海海事大学,航运技术与控制工程交通行业重点实验室的赵明绘在杂志《传感器与微系统》当中,提出一种相机高度和俯仰角的标定方法,在此基础上提出一种水面目标的单目测距方法,通过相机标定,获得与水面共面的标定板上的网格坐标系到相机坐标系的外参,计算相机高度和俯仰角;识别出图像中水面目标所在区域。
佐治亚理工学院的Cedric Pradalier等人将室外建模构图作为核心提出了一种室外水面视觉SLAM算法,用来抵抗水面环境光照的不断变化,并在实验中采用无人船实验平台观察法国梅斯湖岸环境在季节中的变化。
里斯本科技大学的Lokukaluge P.Perera在IEEE TRANSACTIONS ON INTELLIGENTTRANSPORTATION SYSTEMS,发表的论文中提出先分析追踪多船情况,将船舶轨迹检测跟踪与船舶状态估计结合在一起,对船舶轨迹进行仿真验证。
邹雄利用图片下层灰度明显小于上层,依据梯度变化较大的连线,对水岸线进行检测。在完成水岸分离的基础上,采用视觉里程计VO对船舶运动位姿进行估计,进而求解船舶运动轨迹。该算法对岸线复杂的地区难以更换地选取岸线范围,并且当水面光照反射强烈时,水面的灰度要大于图片上层,使得岸线的检测误差较大。在选取特征点时,其特征点选取方法运行速度较慢,影响实时计算效果。
赵明绘提出一种相机高度和俯仰角的标定方法,在此基础上提出一种水面目标的单目测距方法。通过相机标定,获得与水面共面的标定板上的网格坐标系到相机坐标系的外参,计算相机高度和俯仰角;计算该区域像素纵坐标最大值,及其对应的横坐标的平均值,最终计算观测点的距离。该方法在水面波浪较大以及水面平静光照反射较强时,会出现错误目标识别或物标识别遗漏的情况。抗光照以及环境变化的鲁棒性不够强。
大多数视觉传感设备在水面上使用都会因水面光照反射对感知效果造成影响,只能在特定情况下识别岸线,或者识别水面上的物标,抗干扰性较差。
发明内容
本发明为了有效的解决上述背景技术中的问题,提出了一种基于船载单目相机的视觉特征提取方法。
具体技术方案如下;
一种基于船载单目相机的视觉特征提取方法,包括以下步骤:步骤一、基于HSV颜色空间的图像预处理,通过设置阈值的方式对转变为HSV颜色空间的像素进行筛选;
步骤二、基于自适应K-means的像素点聚类分割;
步骤三、进ORB算法提取特征点;
步骤四、RANSAC算法提纯匹配特征点;
步骤五、视觉里程计解算转换矩阵;
步骤六、运动位姿图构建,在单目相机随船运动过程中,从连续拍摄的视频中,抽取几帧画面作为关键帧,构造关键帧与相机的位姿图,而非关键帧则用于在运动过程定位,不参与构建位姿图。
步骤七、构建感知环境点云图与深度图,传感器获取一序列的视频图像后,由视觉里程计对帧与帧之间对应的变换矩阵进行估计,计算像素深度采用三角测量的方式,三角测量是通过不同位置对同一路标点进行观察,从观察位置推断对路标点深度的计算。
优选地,步骤一中,在阈值范围的选择方面,可以依据水面颜色来设置初步筛选阈值,水面的颜色通常表现为蓝色或绿色,蓝色区域对应的HSV数值范围为H:100~124,S:43~255,V:43~255;绿色区域对应的HSV数值范围为:H:35~77,S:43~255,V:46~255。在实际使用过程中,可以根据实际水域颜色来实时调整HSV数值范围,进而排除图像中水面区域特征点,提髙聚类分割区域划分精确度。
优选地,步骤二中,首先将被筛选出的像素点作为聚类样本数据集,两个像素点之间的相似程度用像素点之间的欧式距离;以每个像素点为中心,设置临界距离对所有像素点分组,得出每组像素点的数量;设包含像素点最多的组的中心像素点为第一聚类中心;选择误差平方和作为准则函数评价聚类收敛性;计算数据样本与选取的各聚类中心的距离,将数据分配到距离其最近的聚类簇中;子集中的均值为新的聚类簇中心,重新计算样本数据与各聚类簇中心的距离,对样本数据进行新一轮的聚类,直到新的聚类中心趋于稳定;当准则函数值与上一轮迭代准则函数值相差设定阈值时迭代过程完成。
优选地,步骤三中,将对比16个点改为对比4个点,分别以像素中心点P做圆心做半径为4个像素与5个像素的圆,得到8个像素点,当P点为特征点时,那么P点与周边的像素点存在一定的差值,且周边的像素点的灰度值有着相对的延展性,当像素点A的灰度值小于中心点P的灰度值时,如果P点为特征点,则点E的像素值大小应该同样低于像素点P,依据这种像素灰度的延展性,如果E点的灰度值比P点的高,那么P点就是错误点,也就是噪点。
优选地,步骤五中,视觉里程计(Visual Odometry)是一个仅利用单个或多个相机的输入信息估计物体运动信息的过程。临近两帧的图像特征点在完成匹配之后,说明这两点就是同一空间坐标系中的同一个点在两个成像平面上的所形成的投影,该点的连线与成像平面相交的两点设为p1,p2。选择配对成功的8对点进行本质矩阵解算,根据已经估得的本质矩阵E,恢复出相机在运动过程的旋转矩阵R与平移矩阵T。
优选地,步骤六中,对整个记录过程采用滑动窗口法,建立位姿图将被固定于一个时间窗口内,离开这个窗口的关键帧被舍弃。
与现有技术相比,本发明的有益效果是:采用基于HSV颜色空间的水域环境图像聚类分割,能够有效地降低水面光照影响视觉感知效果的问题,增加对整体环境感知的效果。
在采用SLAM算法过程中,为了降低运行程序时长的影响,引入了改进ORB算法,分别以像素中心点P做圆心做半径为4个像素与5个像素的圆,得到8个像素点。减少每次像素值对比的点数,并且在比较下一点时,可重新选择边缘点进行比较,更大程度地减少噪声的干扰。
组合算法能够实时构建三维点云图像。对于在复杂的水域环境,这种组合算法,能够实时掌握船舶的运动姿态情况并对周边水域进行感知记录。为未来研究海上未知领域探索和海上空间信息基础设施构建提供理论基础。
附图说明
图1是本发明整体流程图;
图2是本发明中聚类分割示意图;
图3a是本发明改进ORB算法中特征点示例图;
图3b是本发明改进ORB算法中的原始特征点判断方式图;
图3c是本发明改进ORB算法中的改进特征点判断方式图;
图3d是本发明改进ORB算法中的噪点情况图;
图4是本发明中本发明中改进ORB算法的流程图。
具体实施方式
为了便于描述,在这里可以使用空间相对术语,如“在……之上”、“在……上方”、“在……上表面”、“上面的”等,用来描述如在图中所示的一个器件或特征与其他器件或特征的空间位置关系。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其他器件或构造之下”。因而,示例性术语“在……上方”可以包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位旋转90度或处于其他方位,并且对这里所使用的空间相对描述作出相应解释。
下面结合附图及较佳实施例详细说明本发明的具体实施方式。
一种基于船载单目相机的视觉特征提取方法,步骤如图1所示:
步骤一、基于HSV颜色空间的图像预处理,通过设置阈值的方式对转变为HSV颜色空间的像素进行筛选。在阈值范围的选择方面,可以依据水面颜色来设置初步筛选阈值,水面的颜色通常表现为蓝色或绿色。蓝色区域对应的HSV数值范围为H:100~124,S:43~255,V:43~255;绿色区域对应的HSV数值范围为:H:35~77,S:43~255,V:46~255。在实际使用过程中,可以根据实际水域颜色来实时调整HSV数值范围,进而排除图像中水面区域特征点,提髙聚类分割区域划分精确度。
步骤二、基于自适应K-means的像素点聚类分割,如图2所示,首先将被筛选出的像素点作为聚类样本数据集,两个像素点之间的相似程度用像素点之间的欧式距离。以每个像素点为中心,设置临界距离对所有像素点分组,得出每组像素点的数量。设包含像素点最多的组的中心像素点为第一聚类中心。选择误差平方和作为准则函数评价聚类收敛性。计算数据样本与选取的各聚类中心的距离,将数据分配到距离其最近的聚类簇中。子集中的均值为新的聚类簇中心,重新计算样本数据与各聚类簇中心的距离,对样本数据进行新一轮的聚类,直到新的聚类中心趋于稳定。当准则函数值与上一轮迭代准则函数值相差设定阈值时迭代过程完成。
步骤三、改进ORB算法提取特征点,如图3所示,将对比16个点改为对比4个点,大大提升了计算的效率,但是得到噪点的概率也大大增加了,本文提出了一种新的方法来减少噪点的产生,分别以像素中心点P做圆心做半径为4个像素与5个像素的圆,得到8个像素点。当P点为特征点时,那么P点与周边的像素点存在一定的差值,且周边的像素点的灰度值有着相对的延展性,当像素点A的灰度值小于中心点P的灰度值时,如果P点为特征点,则点E的像素值大小应该同样低于像素点P,依据这种像素灰度的延展性,如果E点的灰度值比P点的高,那么P点就是错误点,也就是噪点。
步骤四、RANSAC算法提纯匹配特征点,采用基于K最近邻近算法快速对特征点进行匹配,结果会有大量的错误。基于欧式距离对特征点进行粗匹配,也会存在许多误匹配。就需要通过RANSAC算法进行提纯,并求得变换矩阵。RANSAC算法的迭代总次数是根据内点比例动态变化的。内点占比例越高,就能越快计算出参数模型估计,迭代次数也就越少
步骤五、视觉里程计解算转换矩阵,视觉里程计(Visual Odometry)是一个仅利用单个或多个相机的输入信息估计物体运动信息的过程。临近两帧的图像特征点在完成匹配之后,说明这两点就是同一空间坐标系中的同一个点在两个成像平面上的所形成的投影,该点的连线与成像平面相交的两点设为p1,p2。选择配对成功的8对点进行本质矩阵解算,根据已经估得的本质矩阵E,恢复出相机在运动过程的旋转矩阵R与平移矩阵T。
步骤六、运动位姿图构建,在单目相机随船运动过程中,从连续拍摄的视频中,抽取几帧画面作为关键帧,构造关键帧与相机的位姿图。而非关键帧则用于在运动过程定位,不参与构建位姿图。由于关键帧数量的随着时间而逐渐增加,整体的记录过程会越来越大。为了避免数据量过大,对整个记录过程采用滑动窗口法。建立位姿图将被固定于一个时间窗口内,离开这个窗口的关键帧被舍弃。
步骤七、构建感知环境点云图与深度图,传感器获取一序列的视频图像后,由视觉里程计对帧与帧之间对应的变换矩阵进行估计,计算像素深度采用三角测量的方式,三角测量是通过不同位置对同一路标点进行观察,从观察位置推断对路标点深度的计算。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.一种基于船载单目相机的视觉特征提取方法,其特征在于:包括以下步骤:步骤一、基于HSV颜色空间的图像预处理,通过设置阈值的方式对转变为HSV颜色空间的像素进行筛选;
步骤二、基于自适应K-means的像素点聚类分割;
步骤三、进ORB算法提取特征点;
步骤四、RANSAC算法提纯匹配特征点;
步骤五、视觉里程计解算转换矩阵;
步骤六、运动位姿图构建,在单目相机随船运动过程中,从连续拍摄的视频中,抽取几帧画面作为关键帧,构造关键帧与相机的位姿图,而非关键帧则用于在运动过程定位,不参与构建位姿图;
步骤七、构建感知环境点云图与深度图,传感器获取一序列的视频图像后,由视觉里程计对帧与帧之间对应的变换矩阵进行估计,计算像素深度采用三角测量的方式,三角测量是通过不同位置对同一路标点进行观察,从观察位置推断对路标点深度的计算。
2.根据权利要求1所述的基于船载单目相机的视觉特征提取方法,其特征在于,步骤一中,在阈值范围的选择方面,可以依据水面颜色来设置初步筛选阈值,水面的颜色通常表现为蓝色或绿色,蓝色区域对应的HSV数值范围为H:100~124,S:43~255,V:43~255;绿色区域对应的HSV数值范围为:H:35~77,S:43~255,V:46~255,在实际使用过程中,可以根据实际水域颜色来实时调整HSV数值范围,进而排除图像中水面区域特征点,提髙聚类分割区域划分精确度。
3.根据权利要求1所述的基于船载单目相机的视觉特征提取方法,其特征在于,步骤二中,首先将被筛选出的像素点作为聚类样本数据集,两个像素点之间的相似程度用像素点之间的欧式距离;以每个像素点为中心,设置临界距离对所有像素点分组,得出每组像素点的数量;设包含像素点最多的组的中心像素点为第一聚类中心;选择误差平方和作为准则函数评价聚类收敛性;计算数据样本与选取的各聚类中心的距离,将数据分配到距离其最近的聚类簇中;子集中的均值为新的聚类簇中心,重新计算样本数据与各聚类簇中心的距离,对样本数据进行新一轮的聚类,直到新的聚类中心趋于稳定;当准则函数值与上一轮迭代准则函数值相差设定阈值时迭代过程完成。
4.根据权利要求1所述的基于船载单目相机的视觉特征提取方法,其特征在于,步骤三中,将对比16个点改为对比4个点,分别以像素中心点P做圆心做半径为4个像素与5个像素的圆,得到8个像素点,当P点为特征点时,那么P点与周边的像素点存在一定的差值,且周边的像素点的灰度值有着相对的延展性,当像素点A的灰度值小于中心点P的灰度值时,如果P点为特征点,则点E的像素值大小应该同样低于像素点P,依据这种像素灰度的延展性,如果E点的灰度值比P点的高,那么P点就是错误点,也就是噪点。
5.根据权利要求1所述的基于船载单目相机的视觉特征提取方法,其特征在于,步骤五中,视觉里程计(Visual Odometry)是一个仅利用单个或多个相机的输入信息估计物体运动信息的过程,临近两帧的图像特征点在完成匹配之后,说明这两点就是同一空间坐标系中的同一个点在两个成像平面上的所形成的投影,该点的连线与成像平面相交的两点设为p1,p2,选择配对成功的8对点进行本质矩阵解算,根据已经估得的本质矩阵E,恢复出相机在运动过程的旋转矩阵R与平移矩阵T。
6.根据权利要求1所述的基于船载单目相机的视觉特征提取方法,其特征在于,步骤六中,对整个记录过程采用滑动窗口法,建立位姿图将被固定于一个时间窗口内,离开这个窗口的关键帧被舍弃。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111337172.4A CN114202587A (zh) | 2021-11-12 | 2021-11-12 | 基于船载单目相机的视觉特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111337172.4A CN114202587A (zh) | 2021-11-12 | 2021-11-12 | 基于船载单目相机的视觉特征提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114202587A true CN114202587A (zh) | 2022-03-18 |
Family
ID=80647424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111337172.4A Pending CN114202587A (zh) | 2021-11-12 | 2021-11-12 | 基于船载单目相机的视觉特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114202587A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611752A (zh) * | 2024-01-22 | 2024-02-27 | 卓世未来(成都)科技有限公司 | 一种数字人的3d模型生成方法及系统 |
-
2021
- 2021-11-12 CN CN202111337172.4A patent/CN114202587A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611752A (zh) * | 2024-01-22 | 2024-02-27 | 卓世未来(成都)科技有限公司 | 一种数字人的3d模型生成方法及系统 |
CN117611752B (zh) * | 2024-01-22 | 2024-04-02 | 卓世未来(成都)科技有限公司 | 一种数字人的3d模型生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107818326B (zh) | 一种基于场景多维特征的船只检测方法及系统 | |
CN111325794B (zh) | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 | |
CN107818571B (zh) | 基于深度学习网络和均值漂移的船只自动跟踪方法及系统 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
CN108805904B (zh) | 一种基于卫星序列图像的运动舰船检测与跟踪方法 | |
CN109034018A (zh) | 一种基于双目视觉的低空小型无人机障碍物感知方法 | |
CN110490158B (zh) | 一种基于多级模型的鲁棒人脸对齐方法 | |
Liu et al. | Detection and pose estimation for short-range vision-based underwater docking | |
CN110246151B (zh) | 一种基于深度学习和单目视觉的水下机器人目标跟踪方法 | |
CN113850865A (zh) | 一种基于双目视觉的人体姿态定位方法、系统和存储介质 | |
Aykin et al. | On feature extraction and region matching for forward scan sonar imaging | |
CN104794737A (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN110889844A (zh) | 一种基于深度聚类分析的珊瑚分布及健康状况评估方法 | |
Hu et al. | Robust driver head pose estimation in naturalistic conditions from point-cloud data | |
CN111126116A (zh) | 无人船河道垃圾识别方法及系统 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN107045630B (zh) | 一种基于rgbd的行人检测和身份识别方法及系统 | |
CN112329764A (zh) | 一种基于tv-l1模型的红外弱小目标检测方法 | |
CN109202911B (zh) | 一种基于全景视觉的集群两栖机器人三维定位方法 | |
CN113011359B (zh) | 一种基于图像的同时检测平面结构和生成平面描述的方法及应用 | |
CN114202587A (zh) | 基于船载单目相机的视觉特征提取方法 | |
Li et al. | Vision-based target detection and positioning approach for underwater robots | |
CN113837924A (zh) | 一种基于无人艇感知系统的水岸线检测方法 | |
CN113792593A (zh) | 一种基于深度融合的水下近距离目标识别跟踪方法及系统 | |
CN112132880A (zh) | 一种基于稀疏测量和单目rgb图像的实时稠密深度估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |