CN108492323B - 融合机器视觉与听觉的水下运动物体检测与识别方法 - Google Patents

融合机器视觉与听觉的水下运动物体检测与识别方法 Download PDF

Info

Publication number
CN108492323B
CN108492323B CN201810049793.4A CN201810049793A CN108492323B CN 108492323 B CN108492323 B CN 108492323B CN 201810049793 A CN201810049793 A CN 201810049793A CN 108492323 B CN108492323 B CN 108492323B
Authority
CN
China
Prior art keywords
underwater
optical
image
vision
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810049793.4A
Other languages
English (en)
Other versions
CN108492323A (zh
Inventor
张翠翠
刘志磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201810049793.4A priority Critical patent/CN108492323B/zh
Publication of CN108492323A publication Critical patent/CN108492323A/zh
Application granted granted Critical
Publication of CN108492323B publication Critical patent/CN108492323B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及水下运动物体检测与识别领域,为解决水下光学与水下声学两种方法单独进行水下运动物体检测与识别的缺陷,能够及时准确的互通信息,使得水下目标的追踪与识别能够及时准确的实行。为此,本发明,融合机器视觉与听觉的水下运动物体检测与识别方法,步骤如下:第一步:声视觉系统与光视觉系统的搭建第二步:基于声视觉系统的预处理第三步:基于光视觉系统的目标检测与特征提取第四步基于贝叶斯网络的声与光视觉系统的融合。本发明主要应用于水下运动物体检测与识别。

Description

融合机器视觉与听觉的水下运动物体检测与识别方法
技术领域
本发明涉及水下运动物体检测与识别领域(underwater moving objectdetection and recognition),尤其涉及利用机器视觉与听觉融合的方法进行水下运动物体检测与识别,具体讲,涉及利用稀疏动态贝叶斯网络来融合水下视觉与水下声觉两种物体检测方法对不同运动物体的视觉图像与声学信号进行分类从而实现对水下运动物体的自动识别。
背景技术
水下运动物体追踪与识别一直是海洋科学与计算机科学与技术的共同难题。水下机器人(Autonomous Underwater Vehicle,简称AUV)是认识海洋的重要载体。AUV对于海洋数据的采集,海底资源勘探,海洋环境观测,信息搜集和水下工程建设都具有非常重要的作用。AUV的终极目标是实现真正的自主感知环境的能力,这就需要AUV能自主的检测水下环境,追踪并识别目标,从而制定决策并开展作业。虽然AUV在硬件及控制系统方面已经具有了非常大的进步,但是由于海洋环境的复杂和感知手段的有限,其自助感知环境的能力仍然不强,追踪与识别水下运动物体的能力很有限。
基于水下声学视觉(Acoustic Vision)的声纳系统(包括前视声纳、侧扫声纳、单波束声纳、多波束声纳、成像声纳等)和基于水下机器视觉(Aqua Vision)的光学摄像头是AUV感知周围环境的基本工具。声纳成像是一项广而粗的技术,它的探测距离广而深,但是由于受到海底暗流,水体的不均匀引起的声波反射和折射,海底不均匀导致的散射,各种水下生物的干扰,使得声纳成像具有非常强烈的斑块噪声,并且声纳图像没有颜色,不能提供纹理和形状信息,给水下物体追踪和识别造成巨大的困扰。最近,基于光学成像的单目或双目视觉技术已经开始应用到AUV上,虽然光学图像可以提供颜色,纹理和形状信息,但是由于光线在水中的传播距离非常有限,使得该技术只适用于于浅海区域,又由于浅海区域的水质比较浑浊,导致其目标检测和识别的能力没有得到相应的改善。为了克服单纯用声学视觉或光学视觉在水下物体检追踪与识别的难点,本发明旨在开发一种融合水下声学与光学视觉的一种新方法用于水下目标(包括沉船、鱼群、海底沉物、地貌底质等)的自动检测与识别,从而使得AUV在自主感知周围环境上有实质性的进步。
发明内容
为克服现有技术的不足,解决水下光学与水下声学两种方法单独进行水下运动物体检测与识别的缺陷,本发明旨在开发一种融合水下光学与声学技术的整体框架用于水下运动物体的检测与识别。该融合框架不但能够在水声和光学图像各自层面上进行有效的信息处理,而且通过设置前馈和反馈机制使得基于水声的预处理与基于光学的精细处理能够及时准确的互通信息,使得水下目标的追踪与识别能够及时准确的实行。为此,本发明采用的技术方案是,融合机器视觉与听觉的水下运动物体检测与识别方法,步骤如下:
第一步:声视觉系统与光视觉系统的搭建。
光视觉系统包括水下摄像机、照明设备用来满足获取光学图像和视频信息的要求;利用多波束声纳系统采集目标定位;
第二步:基于声视觉系统的预处理
基于声纳图像的图像处理和目标预测:
第三步:基于光视觉系统的目标检测与特征提取
当基于声纳图像的图像处理和目标预测检测到有目标位置时,将通过通讯系统输给AUV(Autonomous Underwater Vehicle),并命令AUV到该位置处进行搜索,此时启动AUV的光视觉系统,采集视频视觉,光视觉系统利用计算机视觉技术,将运动物体的视频数据利用光流计算视频中每一帧的运动信息,并且利用运动分割技术将AUV的运动信息与实际目标物体的运动信息进行分割与特征提取,为下一步基于贝叶斯网络的追踪与识别提供特征信息;
第四步:基于贝叶斯网络的声与光视觉系统的融合
该部分基于稀疏动态贝叶斯网络的框架将声视觉系统与光视觉系统融合起来,利用声学视觉系统获取的预判信息作为先验知识,将光视觉系统得到的运动信息作和三维信息作为主要特征,通过贝叶斯网络的前馈和反馈机制对水下运动进行追踪,并利用贝叶斯分类技术进行目标识别。
第二步具体细化为:(1)图像增强;(2)图像恢复;(3)图像编码;(4)图像重建;(5)图像分析,其中,图像分析具体采用四叉树进行图像结构分解。
所述光视觉系统包括单目视觉系统,具体地:单目光视觉系统主要分为三大块:(1)视频采集,通过一个专用水下CCD感光摄像头和图像采集卡采集视频图像;(2)运动估计与分割,通过Optical flow计算视频中帧与帧之间的运动信息,并且利用AUV的惯导信息和运动分割算法,得到目标物体的运动信息;(3)特征提取,基于Sparse-coding的方法对运动信息进行特征提取从而得到贝叶斯框架中的目标观测部分的信息;
所述光视觉系统还包括双目目视觉系统,具体地,双目光视觉系统也分为三大块:(1)视频采集,该部分利用2个专用水下CCD感光摄像头同时采集左右两幅图像;(2)三维重建,利用双目视觉的原理,对于每一帧的左右摄像头采集到的图像进行三维重建从而得到运动物体的深度信息;(3)特征提取,该部分与单目光视觉系统一样基于Sparse-coding的方法对运动信息进行特征提取从而得到贝叶斯框架中的目标观测部分的信息。
所述贝叶斯网络为稀疏的贝叶斯网络。
本发明的特点及有益效果是:
本项目创新与特色之处主要表现在采用了一种基于稀疏动态贝叶斯网络的融合框架进行水下声学与光学系统的融合从而可以更加准确的进行水下运动目标的检测与识别。以往的研究中只是将声视觉系统的判断结果和光视觉系统的判断结果做了一个简单的融合,这属于决策层的融合,并未做到真正意义特征层的融合,在我们设计的融合框架中。我们真正意义实现了特征层与决策层的双向融合。
本发明可以广泛用于水下静态与运动目标(包括沉船、鱼群、海底沉物、地貌底质等)的自动检测与识别,从而使得AUV在自主感知周围环境上有实质性的进步。
附图说明:
图1:本发明的技术路线图。
图2:声视觉系统的预处理之四叉树结构。
图3:光视觉系统框架。
图4:贝叶斯框架的主要思想。
图5:两种贝叶斯网络,(a)传统贝叶斯网络,(b)动态贝叶斯网络。
图6:贝叶斯网络在t时刻追踪实现。
具体实施方式
贝叶斯框架是一种比较传统的用于目标跟踪与信息融合的有效方法,近期由于神经网络的发展尤其是深度学习的发展,使得贝叶斯网络有了更进一步的发展。本研究旨在利用开发一种分块稀疏动态的贝叶斯网络从而使得两种信息能够更好的融合在一起实现水下运动目标快速且准确的跟踪与识别。
主要的技术路线分为以下几个部分:
第一步:声视觉系统与光视觉系统的搭建。
光视觉系统包括水下摄像机、照明等设备用来满足获取光学图像和视频信息等基本的要求。声视觉系统要完成的任务是目标的自动定位,目前较常用的是多波束声纳系统。
第二步:基于声视觉系统的预处理。
由于采集到的声纳图像具有不连续,且有斑点噪声的影响,我们开发了一系列基于声纳图像的图像处理技术和目标预测技术。
基于声纳图像的处理技术主要包括:(1)图像增强;(2)图像恢复;(3)图像编码;(4)图像重建;(5)图像分析等。由于声纳图像本身分辨率不高且具有严重的斑块噪声给水下目标探测带来了很大的困难。为了解决这一问题我们引入了四叉树(Quad-Tree)这一图像结构分解的方法,从而将目标在模糊图像中检测出来。四叉树是一个典型的图像分解算法,它的基本思想是将图像空间递归性划分为四个相等的子区域,直至划分的层次达到一定深度或者满足某种要求后停止划分。四叉树的结构简单,具有比较高的空间数据分化和查询效率,这一方法可以在背景模糊的条件下快速的将目标从图像中检测出来。
第三步:基于光视觉系统的目标检测与特征提取。
当声纳图像检测到有目标位置时,将通过通讯系统输给AUV,并命令AUV到该位置处进行搜索。此时启动AUV的光视觉系统,采集视频视觉。光视觉系统利用计算机视觉技术,将运动物体的视频数据利用光流(Optical flow)等手段计算视频中每一帧的运动信息,并且利用运动分割技术将AUV的运动信息与实际目标物体的运动信息进行分割与特征提取,为下一步基于贝叶斯网络的追踪与识别提供特征信息。
光视觉系统需要具备获取图像和视频信息,对图像和视频进行处理,特征提取及分类识别的功能,使得AUV能够快速、准确进行水下目标观测,并且将观测信息传递给后面的贝叶斯框架用于实时跟踪与识别。在此项目中光视觉系统分为单目视觉系统和双目视觉系统,其中单目视觉系统用于摄取视频并估计目标的运动信息,双目视觉系统用于三维重建并计算目标的深度信息。此两种信息通过Sparse Coding特征提取传输到贝叶斯框架中。该部分的框架图如图3所示。
单目光视觉系统
单目光视觉系统主要分为三大块:(1)视频采集模块,通过一个专用水下CCD感光摄像头和图像采集卡采集视频图像;(2)运动估计与分割,通过Optical flow计算视频中帧与帧之间的运动信息,并且AUV的惯导信息和运动分割算法,得到目标物体的运动信息。(3)特征提取,基于Sparse-coding的方法对运动信息进行特征提取从而得到贝叶斯框架中的目标观测部分的信息。
双目光视觉系统
双目光视觉系统也分为三大块:(1)视频采集模块,该部分利用2个专用水下CCD感光摄像头同时采集左右两幅图像;(2)三维重建,利用双目视觉的原理,对于每一帧的左右摄像头采集到的图像进行三维重建从而得到运动物体的深度信息。(3)特征提取,该部分与单目光视觉系统一样基于Sparse-coding的方法对运动信息进行特征提取从而得到贝叶斯框架中的目标观测部分的信息。由于三维重建部分时间复杂度比较高,对于要求实时水下目标跟踪的应用,此部分可作为备选部分。如果对于时间要求不是很严格,而对于准确度要求比较严格的情况下可以考虑将此部分考虑进去。
第四步:基于贝叶斯网络的声与光视觉系统的融合。
该部分基于稀疏动态贝叶斯网络的框架将声视觉系统与光视觉系统融合起来。利用声学视觉系统获取的预判信息作为先验知识,将光视觉系统得到的运动信息作和三维信息作为主要特征,通过贝叶斯网络的前馈和反馈机制对水下运动进行追踪,并利用贝叶斯分类技术进行目标识别。
对于如何融合声视觉系统与光视觉系统是这一研究的关键。我们选择使用贝叶斯框架正是因为贝叶斯框架本身的设计思想正好符合我们想法的初衷。一个典型的贝叶斯网络大致上分为两个部分:预测模型和观测模型。其中预测模型是给与一个先验知识,观测模型是当前时刻下对于观测信息的状态描述,正好符合我们系统设计里面的两个方面:声视觉系统提供目标位置的预定位,光视觉系统利用更加丰富的颜色信息提供观测状态的描述。为了使得贝叶斯框架能够完美的满足我们的需要,我们选择建立一个分块稀疏动态贝叶斯网络来实现我们的算法。正如在算法创新性里面已经提到的我们之所以采用分块的贝叶斯框架是因为在我们已经利用Quad-Tree这样一种区域划分的方法来找到物体的大致位置,这种分块的思想能够让算法更加的快速完成预测过程。采用稀疏的贝叶斯网络是因为我们在基于光视觉系统的特征提取部分采用Sparse-Coding的思想来完成,我们只是需要利用比较稀疏的一组特征信息(比如轮廓信息)就可以完成对于物体的描述,这样对于在水下环境下采集到的模糊图像具有比较高的鲁棒性。之所以采用动态的贝叶斯网络是因为基于声视觉的预判与基于视觉的准确判断之间存在一个时间间隔。图5显示了传统贝叶斯网络和动态贝叶斯网络的区别,我们可以发现在动态贝叶斯网络中对于不同时刻的贝叶斯估计的之间增加了一些连接符号,此处我们可以增加一些在声视觉系统预判到AUV启动光视觉系统目标观测之间的中间可能状态,从而使得观察能够连续准确的进行。
水下运动物体追踪
水下运动物体的跟踪是一个连续的过程,在每一个时刻声视觉系统提供预测模型包括(上一时刻的后验概率和状态转移模型),光视觉系统基于运动信息和深度信息的观测模型,然后利用贝叶斯公式来对下一时刻进行估计。图6正是图5(b)中一个时刻的具体显示。
水下运动物体识别
水下运动识别,我们可以利用空间特征或者时空特征来实现。空间特征是选择某一时刻的光视觉系统里面得到运动信息和深度信息然后利用贝叶斯分类器来进行分类。时空特征是我们可以将空间特征在时间维度上利用时空特征提取的方法生成时间信号,然后利用贝叶斯分类器进行识别。

Claims (5)

1.一种融合机器视觉与听觉的水下运动物体检测与识别方法,其特征是,步骤如下:
第一步:声视觉系统与光视觉系统的搭建
光视觉系统包括水下摄像机、照明设备用来满足获取光学图像和视频信息的要求;利用多波束声纳系统采集目标定位;
第二步:基于声视觉系统的预处理
基于声纳图像的图像处理和目标预测;
第三步:基于光视觉系统的目标检测与特征提取
当基于声纳图像的图像处理和目标预测检测到有目标位置时,将通过通讯系统输给水下机器人,并命令水下机器人到该位置处进行搜索,此时启动水下机器人的光视觉系统,采集视频视觉,光视觉系统利用计算机视觉技术,将运动物体的视频数据利用光流计算视频中每一帧的运动信息,并且利用运动分割技术将水下机器人的运动信息与实际目标物体的运动信息进行分割与特征提取,为下一步基于贝叶斯网络的追踪与识别提供特征信息;
第四步:基于贝叶斯网络的声与光视觉系统的融合
基于稀疏动态贝叶斯网络的框架将声视觉系统与光视觉系统融合起来,利用声学视觉系统获取的预判信息作为先验知识,将光视觉系统得到的运动信息和三维信息作为主要特征,通过贝叶斯网络的前馈和反馈机制对水下运动进行追踪,并利用贝叶斯分类技术进行目标识别。
2.如权利要求1所述的融合机器视觉与听觉的水下运动物体检测与识别方法,其特征是,第二步具体细化为:(1)图像增强;(2)图像恢复;(3)图像编码;(4)图像重建;(5)图像分析,其中,图像分析具体采用四叉树进行图像结构分解。
3.如权利要求1所述的融合机器视觉与听觉的水下运动物体检测与识别方法,其特征是,所述光视觉系统包括单目视觉系统,具体地:单目光视觉系统主要分为三大块:(1)视频采集,通过一个专用水下CCD感光摄像头和图像采集卡采集视频图像;(2)运动估计与分割,通过Optical flow计算视频中帧与帧之间的运动信息,并且利用水下机器人的惯导信息和运动分割算法,得到目标物体的运动信息;(3)特征提取,基于Sparse-coding的方法对运动信息进行特征提取从而得到贝叶斯框架中的目标观测部分的信息。
4.如权利要求1所述的融合机器视觉与听觉的水下运动物体检测与识别方法,其特征是,所述光视觉系统还包括双目光视觉系统,具体地,双目光视觉系统分为三大块:(1) 视频采集,利用2个专用水下CCD感光摄像头同时采集左右两幅图像;(2)三维重建,利用双目视觉的原理,对于每一帧的左右摄像头采集到的图像进行三维重建从而得到运动物体的深度信息; (3) 特征提取,与单目光视觉系统一样基于Sparse-coding的方法对运动信息进行特征提取从而得到贝叶斯框架中的目标观测部分的信息。
5.如权利要求1所述的融合机器视觉与听觉的水下运动物体检测与识别方法,其特征是,所述贝叶斯网络为稀疏的贝叶斯网络。
CN201810049793.4A 2018-01-18 2018-01-18 融合机器视觉与听觉的水下运动物体检测与识别方法 Active CN108492323B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810049793.4A CN108492323B (zh) 2018-01-18 2018-01-18 融合机器视觉与听觉的水下运动物体检测与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810049793.4A CN108492323B (zh) 2018-01-18 2018-01-18 融合机器视觉与听觉的水下运动物体检测与识别方法

Publications (2)

Publication Number Publication Date
CN108492323A CN108492323A (zh) 2018-09-04
CN108492323B true CN108492323B (zh) 2022-01-28

Family

ID=63344190

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810049793.4A Active CN108492323B (zh) 2018-01-18 2018-01-18 融合机器视觉与听觉的水下运动物体检测与识别方法

Country Status (1)

Country Link
CN (1) CN108492323B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109884642B (zh) * 2019-03-26 2022-12-13 南京砺剑光电技术研究院有限公司 采用多波束声纳和激光辅助照明成像设备的融合成像方法
CN110053743A (zh) * 2019-04-27 2019-07-26 扆亮海 一种用于水下精准测量的遥控机器人
CN110222227B (zh) * 2019-05-13 2021-03-23 西安交通大学 一种融合听觉感知特征和视觉特征的中国民歌地域分类方法
CN110348356A (zh) * 2019-07-03 2019-10-18 北京遥感设备研究所 一种基于深度光流网络的连续帧rd图像目标识别方法
CN110456357B (zh) * 2019-08-27 2023-04-07 吉林大学 一种导航定位方法、装置、设备及介质
CN111638523A (zh) * 2020-05-08 2020-09-08 哈尔滨工程大学 一种水下机器人对失踪者的搜寻和定位系统及方法
CN112526524B (zh) * 2020-12-09 2022-06-17 青岛澎湃海洋探索技术有限公司 一种基于前视声纳图像和auv平台的水下渔网检测方法
CN112967302B (zh) * 2021-02-26 2024-04-05 岭澳核电有限公司 核电厂水下安保入侵目标的监测方法
CN113109762B (zh) * 2021-04-07 2022-08-02 哈尔滨工程大学 一种用于auv对接回收的光视觉引导方法
CN115170942B (zh) * 2022-07-25 2023-10-17 大连海洋大学 一种声音与视觉多级融合的鱼类行为识别方法
CN117235661B (zh) * 2023-08-30 2024-04-12 广州怡水水务科技有限公司 基于ai的直饮水质量监测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1724225A (zh) * 2005-07-15 2006-01-25 中国船舶重工集团公司第七○九研究所 高性能水下机器人智能控制计算机系统
CN102833020A (zh) * 2012-09-10 2012-12-19 杭州电子科技大学 认知无线网络中基于自适应测量的贝叶斯压缩宽带频谱检测方法
CN103700087A (zh) * 2013-11-28 2014-04-02 深圳市智美达科技有限公司 移动侦测方法和装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298877B1 (en) * 2001-11-20 2007-11-20 Icad, Inc. Information fusion with Bayes networks in computer-aided detection systems
CN102042835B (zh) * 2010-11-05 2012-10-24 中国海洋大学 自主式水下机器人组合导航系统
CN102750711B (zh) * 2012-06-04 2015-07-29 清华大学 一种基于图像分割和运动估计的双目视频深度图求取方法
CN103576164A (zh) * 2012-07-20 2014-02-12 上海莱凯数码科技有限公司 基于线性贝叶斯估计的高分辨率遥感图像融合方法
CN103500456B (zh) * 2013-10-22 2016-06-15 北京大学 一种基于动态贝叶斯模型网络的对象跟踪方法和设备
CN103605121B (zh) * 2013-11-18 2016-08-31 南京理工大学 基于快速稀疏贝叶斯学习算法的宽带雷达数据融合方法
CN105590327A (zh) * 2014-10-24 2016-05-18 华为技术有限公司 运动估计方法及装置
CN104808210B (zh) * 2015-04-16 2017-07-18 深圳大学 一种声纳和双目视觉成像系统的融合成像装置及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1724225A (zh) * 2005-07-15 2006-01-25 中国船舶重工集团公司第七○九研究所 高性能水下机器人智能控制计算机系统
CN102833020A (zh) * 2012-09-10 2012-12-19 杭州电子科技大学 认知无线网络中基于自适应测量的贝叶斯压缩宽带频谱检测方法
CN103700087A (zh) * 2013-11-28 2014-04-02 深圳市智美达科技有限公司 移动侦测方法和装置

Also Published As

Publication number Publication date
CN108492323A (zh) 2018-09-04

Similar Documents

Publication Publication Date Title
CN108492323B (zh) 融合机器视觉与听觉的水下运动物体检测与识别方法
Lee et al. Vision-based object detection and tracking for autonomous navigation of underwater robots
CN111856448A (zh) 基于双目视觉和雷达的海上障碍物识别方法及系统
Foresti et al. A vision based system for object detection in underwater images
Lane et al. Robust tracking of multiple objects in sector-scan sonar image sequences using optical flow motion estimation
Lu et al. Depth map reconstruction for underwater Kinect camera using inpainting and local image mode filtering
Katija et al. Visual tracking of deepwater animals using machine learning-controlled robotic underwater vehicles
Shreyas et al. 3D object detection and tracking methods using deep learning for computer vision applications
CN112561996A (zh) 一种自主水下机器人回收对接中目标检测方法
Wang et al. Monocular visual SLAM algorithm for autonomous vessel sailing in harbor area
US11503269B2 (en) Hybrid imaging system for underwater robotic applications
Sorial et al. Towards a real time obstacle detection system for unmanned surface vehicles
Alla et al. Vision-based Deep Learning algorithm for Underwater Object Detection and Tracking
Zhou et al. Autonomous fish tracking by rov using monocular camera
Ruiz et al. A comparison of inter-frame feature measures for robust object classification in sector scan sonar image sequences
CN113792593A (zh) 一种基于深度融合的水下近距离目标识别跟踪方法及系统
Liu et al. Deep underwater monocular depth estimation with single-beam echosounder
Nakagawa et al. Super resolving of the depth map for 3D reconstruction of underwater terrain using kinect
Quintana et al. Towards automatic recognition of mining targets using an autonomous robot
Xanthidis et al. Towards Mapping of Underwater Structures by a Team of Autonomous Underwater Vehicles
CN111798496B (zh) 一种视觉锁定方法和装置
Peralta et al. Real-time hash-based loop closure detection in underwater multi-session visual slam
CN114152955A (zh) 一种基于slam技术的障碍物高精度识别系统
Sadhu et al. Obstacle detection for image-guided surface water navigation
Chen et al. The obstacles detection for outdoor robot based on computer vision in deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant