CN116358561B - 基于贝叶斯多源数据融合的无人船障碍物场景重构方法 - Google Patents

基于贝叶斯多源数据融合的无人船障碍物场景重构方法 Download PDF

Info

Publication number
CN116358561B
CN116358561B CN202310626160.6A CN202310626160A CN116358561B CN 116358561 B CN116358561 B CN 116358561B CN 202310626160 A CN202310626160 A CN 202310626160A CN 116358561 B CN116358561 B CN 116358561B
Authority
CN
China
Prior art keywords
grid
obstacle
decision information
unmanned ship
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310626160.6A
Other languages
English (en)
Other versions
CN116358561A (zh
Inventor
刘德庆
张�杰
金久才
马毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
First Institute of Oceanography MNR
Original Assignee
First Institute of Oceanography MNR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by First Institute of Oceanography MNR filed Critical First Institute of Oceanography MNR
Priority to CN202310626160.6A priority Critical patent/CN116358561B/zh
Publication of CN116358561A publication Critical patent/CN116358561A/zh
Application granted granted Critical
Publication of CN116358561B publication Critical patent/CN116358561B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/203Specially adapted for sailing ships
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明属于无人船导航技术领域,公开了基于贝叶斯多源数据融合的无人船障碍物场景重构方法。在无人船上配备n个不同类型的用于检测障碍物的传感器,n为大于或等于2的整数,利用多传感器数据融合,得到无人船所在区域的障碍物场景情况。本发明提供的基于贝叶斯多源数据融合的无人船障碍物场景重构方法能够充分发挥不同的障碍物传感器之间的互补性,丰富无人船的障碍物检测信息,降低误检和漏检,提高无人船障碍物表达的准确性和可靠性,为实现无人船安全航行中的障碍物自主避碰提供重要支撑,可提升无人船产品的避障导航能力,在无人船避障导航领域具有良好的应用前景。

Description

基于贝叶斯多源数据融合的无人船障碍物场景重构方法
技术领域
本发明属于无人船导航技术领域,尤其涉及基于贝叶斯多源数据融合的无人船障碍物场景重构方法。
背景技术
无人船在海洋调查、环境监测和海上监视等领域发挥越来越重要的作用,然而,海上存在船只、礁石等障碍物,危及其航行安全。无人船障碍物场景重构是无人船安全自主导航的重要保障,其通过检测技术获取周边环境的障碍物信息,构建无人船障碍物环境模型。目前,针对无人船障碍物检测的主要分为被动检测和主动检测两大类。被动检测手段主要采用视觉相机,包括单目视觉和双目视觉,其中,单目视觉的优点是可以获取目标的轮廓和纹理特征,但容易受到环境光照条件的影响,且测距能力不足;双目视觉相比单目视觉的优势是能够测得目标的距离和方位信息,但测距精度受限于基线长度。主动检测手段主要包括航海雷达、激光雷达等,其中,航海雷达用于海上远距离目标检测,在近距离有一定的盲区,且对小目标检测能力有限;激光雷达具有高的测距精度,适用于近距离目标检测,但对无人船平台晃动等影响因素比较敏感。从以上无人船障碍物检测手段的分析可以看出,不同检测手段各有优缺,难以满足复杂海上环境中无人船海上自主避碰需求。近年来,开展无人船障碍物多传感器融合检测研究是发展趋势。
通过上述分析,现有技术存在的问题及缺陷为:现有技术中无人船的障碍物检测中,误检和漏检率比较高,对无人船障碍物表达的准确性和可靠性效果差。
发明内容
为克服相关技术中存在的问题,本发明公开实施例提供了一种基于贝叶斯多源数据融合的无人船障碍物场景重构方法。
所述技术方案如下:一种基于贝叶斯多源数据融合的无人船障碍物场景重构方法,在无人船上配备n个不同类型的用于检测障碍物的传感器,n为大于或等于2的整数,利用多传感器数据融合,得到无人船所在区域的障碍物场景情况,具体包括如下步骤:
S1:构建二维栅格地图,作为无人船的障碍物环境模型;
S2:无人船配备n个障碍物检测传感器,将n个障碍物检测传感器数据作为确定二维栅格地图中每个栅格属性的决策信息;
S3:针对二维栅格地图中的每个栅格,确定栅格属性的先验概率;
S4:根据各障碍物传感器在不同感知区域的检测性能差异性,分区域确定各决策信息在栅格属性条件下的条件概率分布;
S5:利用贝叶斯公式计算栅格属性的后验概率;
S6:根据最大后验概率栅格属性判定准则确定栅格属性;
S7:如果不是最后一个栅格,则转步骤S3,如果是最后一个栅格,遍历二维栅格地图,获得完整的无人船障碍物场景构建结果。
在步骤S1中,以二维栅格地图为无人船的障碍物环境模型,地图中的栅格属性包括障碍物区域和可通行区域/>;二维栅格地图的范围根据各传感器的海上最大有效测距范围设置。
在步骤S2中,n个障碍物检测传感器的决策信息分别用表示;
障碍物检测传感器包括双目视觉和三维激光雷达,将双目视觉和三维激光雷达的检测数据作为确定二维栅格地图中每个栅格属性的决策信息,双目视觉决策信息用表示,三维激光雷达决策信息分别用/>表示。
在步骤S3中,栅格属性的先验概率包括栅格属性为障碍物区域的先验概率和栅格属性为可通行区域的先验概率/>,满足以下公式条件:
式中,为栅格属性为障碍物区域的先验概率,/>为栅格属性为可通行区域的先验概率。
在步骤S4中,障碍物传感器的决策信息在栅格属性/>条件下的条件概率用表示,其中,/>
在步骤S4中,所述分区域确定各决策信息在栅格属性条件下的条件概率分布包括:在以无人船为中心的某一范围内,划分双目视觉、三维激光雷达单独或组合能感知到的区域,以及没有感知数据的区域。
在一个实施例中,双目视觉、三维激光雷达单独或组合能感知到的区域包括区域、/>区域、/>区域、/>区域;
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:和/>;如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>;如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>和/>
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:和/>,如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:和/>,如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:和/>;在该区域的栅格中,不管是否有激光雷达检测数据,三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>
区域的栅格中,不管是否有双目视觉的检测数据,双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>
根据各决策信息在不同栅格属性条件下的条件概率分配,获得区域、/>区域、区域、/>区域各决策信息在栅格属性条件下的条件概率分布。
在步骤S5中,栅格属性的后验概率为:,利用栅格属性的先验概率/>和各决策信息在栅格属性条件下的条件概率,输入如下所示的贝叶斯公式计算得到;
式中,表示累乘,/>表示累加,/>,/>
所述步骤S6中,最大后验概率栅格属性判定准则为:如果,则为障碍物区域,否则为可通行区域;
其中,分别为双目视觉和三维激光雷达两种决策信息条件下栅格属性为障碍物区域的后验概率和栅格属性为可通行区域的后验概率。
所述步骤S7中,遍历二维栅格地图,判断每一个栅格中双目视觉和三维激光雷达两种决策信息,并以此为依据确定上述两种决策信息在栅格属性条件下的条件概率,利用贝叶斯公式计算栅格属性的后验概率,根据最大后验概率栅格属性判定准则确定栅格属性,获得完整的无人船障碍物场景构建结果。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明提供的基于贝叶斯多源数据融合的无人船障碍物场景重构方法能够充分发挥不同的障碍物传感器之间的互补性,丰富无人船的障碍物检测信息,降低误检和漏检,提高无人船障碍物表达的准确性和可靠性,为实现无人船安全航行中的障碍物自主避碰提供重要支撑,可提升无人船产品的避障导航能力,在无人船避障导航领域具有良好的应用前景。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理;
图1是本发明实施例提供的基于贝叶斯多源数据融合的无人船障碍物场景重构方法流程图;
图2是本发明实施例提供的障碍物场景双目视觉的和三维激光雷达检测数据图;
图3是本发明实施例提供的双目视觉的和三维激光雷达的检测区域示划分意图;
图4是本发明实施例提供的基于贝叶斯多源信息融合的无人船海上障碍物场景重构结果图;
图5是本发明实施例提供的基于贝叶斯多源数据融合的无人船障碍物场景重构系统图;
图6是本发明实施例提供基于双目视觉的无人船障碍物场景重构图;
图7是本发明实施例提供的基于三维激光雷达的无人船障碍物场景重构图;
图中:1、二维栅格地图构建模块;2、检测传感器组;3、先验概率确定模块;4、条件概率分布模块;5、后验概率计算模块;6、无人船障碍物融合检测模块;7、无人船障碍物场景构建模块。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其他方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施的限制。
实施例1,本发明提供了一种基于贝叶斯多源数据融合的无人船障碍物场景重构方法,无人船上配备n个不同类型的用于检测障碍物的传感器,n为大于或等于2的整数,利用多传感器数据融合,得到无人船所在区域的障碍物场景情况,具体地,如图1所示,该方法包括如下步骤:
S1:构建二维栅格地图,作为无人船的障碍物环境模型;
S2:无人船配备n个障碍物检测传感器,将n个障碍物检测传感器数据作为确定二维栅格地图中每个栅格属性的决策信息;
S3:针对二维栅格地图中的每个栅格,确定栅格属性的先验概率;
S4:根据各障碍物传感器在不同感知区域的检测性能差异性,分区域确定各决策信息在栅格属性条件下的条件概率分布;
S5:利用贝叶斯公式计算栅格属性的后验概率;
S6:根据最大后验概率栅格属性判定准则确定栅格属性,实现无人船障碍物融合检测;
S7:如果不是最后一个栅格,则转步骤3,如果是最后一个栅格,遍历二维栅格地图,从而获得完整的无人船障碍物场景构建结果。
进一步的,所述步骤S1中,以二维栅格地图为无人船的障碍物环境模型,地图中的栅格属性包括障碍物区域(用表示)和可通行区域(用/>表示)。二维栅格地图的范围可根据各传感器的海上最大有效测距范围设置,例如,当传感器为双目视觉和三维激光雷达时,其中,双目视觉的有效测距范围约200m,三维激光雷达的有效测距范围为100m,据此以无人船坐标点为中心构建的二维栅格地图大小为400m×400m,地图分辨率(栅格大小)优选设置为8m。
进一步的,所述步骤S2中,障碍物检测传感器包括双目视觉和三维激光雷达等,但本实施例中不限于上述两种传感器,将双目视觉和三维激光雷达的检测数据作为确定二维栅格地图中每个栅格属性的决策信息。为了后续表述方便,双目视觉决策信息用表示,三维激光雷达决策信息用表示。
本发明的方法可应用于典型海上障碍物场景。图2为该障碍物场景中的双目视觉和三维激光雷达检测数据。从图2可以看到,双目视觉和三维激光雷达均能够获取障碍物的距离和方位信息,但存在差异,两者之间获取的障碍物信息具有互补性,并且存在误检或漏检。
进一步的,所述步骤S3中,栅格属性的先验概率包括栅格属性为障碍物区域的先验概率和栅格属性为可通行区域的先验概率/>,满足以下公式条件:
(1)
式中,为栅格属性为障碍物区域的先验概率,/>为栅格属性为可通行区域的先验概率。
进一步的,所述步骤S4中,各决策信息在栅格属性条件下的条件概率分布是贝叶斯理论用于无人船障碍物融合检测的关键。其中,传感器决策信息在栅格属性/>条件下的条件概率用/>表示;其中,/>
考虑到双目视觉和三维激光雷达的检测范围、检测准确性不同,本发明提出了分区域确定决各决策信息在栅格属性条件下的条件概率分布的方法。图3是所用双目视觉和三维激光雷达的检测区域划分示意图。在以无人船为中心的400m×400m范围内,是双目视觉和三维激光雷达都能感知到的区域,在该区域三维激光雷达比双目视觉的检测准确性高;/>也是双目视觉和三维激光雷达都能感知到的区域,但在该区域双目视觉比三维激光雷达的检测准确性高;/>是仅有双目视觉感知到的区域,/>是仅有三维激光雷达感知到的区域,/>为没有感知数据的区域。
不同区域中各决策信息在栅格属性条件下的条件概率则根据各障碍物传感器检测准确性的先验知识确定。其中,在区域,由于激光雷达的测距精度更高,其对栅格属性的决定作用更大,因此,在该区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为和/>,如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>和/>;如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>可通行区域的条件下的概率分配分别为/>和/>
仍然是三维激光雷达和双目视觉都能感知到的区域,但三维激光雷达出现漏检的可能性增大,因此,在该区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为和/>,如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>和/>,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>和/>
区域,已经超出了所用三维激光雷达有效检测范围,栅格属性仅由双目视觉确定,因此,在该区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为和/>,如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为和/>;在该区域的栅格中,不管是否有激光雷达检测数据,三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>和/>
区域,栅格属性仅由三维激光雷达确定,因此,在该区域的栅格中,不管是否有双目视觉的检测数据,双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为和/>
根据各决策信息在不同栅格属性条件下的条件概率分配,获得区域、/>区域、区域、/>区域各决策信息在栅格属性条件下的条件概率分布。
进一步的,所述步骤S5中,栅格属性的后验概率为:,利用栅格属性的先验概率/>和各决策信息在栅格属性条件下的条件概率,输入如下所示的贝叶斯公式计算得到;
(2)
式中,表示累乘,/>表示累加,/>,/>
所述步骤S6中,最大后验概率栅格属性判定准则为:如果,则为障碍物区域,否则为可通行区域;
其中,分别为双目视觉和三维激光雷达两种决策信息条件下栅格属性为障碍物区域的后验概率和栅格属性为可通行区域的后验概率。
实施例2,通过一个举例说明基于贝叶斯多源数据融合的无人船障碍物栅格场景构建过程。
假设在区域的某个栅格中没有双目视觉检测数据,但有三维激光雷达检测数据,那么,双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>和/>,三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为和/>。该栅格属性的后验概率的计算过程如下:
(1)根据贝叶斯公式计算在双目视觉和三维激光雷达两种决策信息条件下的栅格属性为障碍物区域的后验概率为:/>
(3)
(2)根据贝叶斯公式计算在双目视觉和三维激光雷达两种决策信息条件下的栅格属性为可通行区域的后验概率为:/>
(4)
由于,因此该栅格为障碍物区域。
进一步的,所述步骤S7中,遍历二维栅格地图,判断每一个栅格中双目视觉和三维激光雷达两种决策信息,并以此为依据确定上述两种决策信息在栅格属性条件下的条件概率,利用贝叶斯公式计算栅格属性的后验概率,根据最大后验概率栅格属性判定准则确定栅格属性,从而获得完整的无人船障碍物场景构建结果。图4为障碍物场景构建结果,结果显示,对于场景中的目标基本超出了三维激光雷达的测距范围,通过传感器信息融合,能够对前方更远距离(约100m-200m)的目标实现感知,同时避免了双目视觉的误检。
综上,基于贝叶斯多源数据融合的无人船障碍物场景重构方法,能够充分发挥各传感器之间的互补性,丰富了无人船的障碍物检测信息,降低了误检和漏检,提高了无人船障碍物场景构建的准确性和可靠性。
实施例3,如图5所示,本发明提供了一种基于贝叶斯多源数据融合的无人船障碍物场景重构系统,包括:
二维栅格地图构建模块1,用于构建二维栅格地图,作为无人船的障碍物环境模型;
检测传感器组2,用于无人船配备n个障碍物检测传感器,将n个障碍物检测传感器数据作为确定二维栅格地图中每个栅格属性的决策信息;
先验概率确定模块3,用于针对二维栅格地图中的每个栅格,确定栅格属性的先验概率;
条件概率分布模块4,用于根据各障碍物传感器在不同感知区域的检测性能差异性,分区域确定各决策信息在栅格属性条件下的条件概率分布;
后验概率计算模块5,用于利用贝叶斯公式计算栅格属性的后验概率;
无人船障碍物融合检测模块6,用于根据最大后验概率栅格属性判定准则确定栅格属性,实现无人船障碍物融合检测;
无人船障碍物场景构建模块7,用于如果不是最后一个栅格,则遍历二维栅格地图,从而获得完整的无人船障碍物场景构建结果。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
上述装置/单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程。
基于上述本发明实施例记载的技术方案,进一步的可提出以下应用例。
根据本申请的实施例,本发明还提供了一种计算机设备,该计算机设备包括:至少一个处理器、存储器以及存储在所述存储器中并可在所述至少一个处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意各个方法实施例中的步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现上述各个方法实施例中的步骤。
本发明实施例还提供了一种信息数据处理终端,所述信息数据处理终端用于实现于电子装置上执行时,提供用户输入接口以实施如上述各方法实施例中的步骤,所述信息数据处理终端不限于手机、电脑、交换机。
本发明实施例还提供了一种服务器,所述服务器用于实现于电子装置上执行时,提供用户输入接口以实施如上述各方法实施例中的步骤。
本发明实施例还提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行时可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。
为进一步证明上述实施例的积极效果,本发明基于上述技术方案进行如下对比实验。
图6是基于双目视觉的无人船障碍物场景重构图,图7是基于三维激光雷达的无人船障碍物场景重构图;可以明显看到,三维激光雷达仅能检测到场景中目标的很小部分,几乎到达检测极限;双目视觉比三维激光雷达的探测距离更远,获取了更丰富的目标信息,但在海面上出现了误检点。这与图4所示的基于贝叶斯多源信息融合的无人船海上障碍物场景重构结果图对比可知,本发明提供的基于贝叶斯多源数据融合的无人船障碍物场景重构方法能够充分发挥不同的障碍物传感器之间的互补性,丰富无人船的障碍物检测信息,降低误检和漏检,提高无人船障碍物表达的准确性和可靠性。
以上所述,仅为本发明较优的具体的实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。

Claims (5)

1.一种基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,该方法在无人船上配备n个不同类型的用于检测障碍物的传感器,n为大于或等于2的整数,利用多传感器数据融合,得到无人船所在区域的障碍物场景情况,具体包括如下步骤:
S1:构建二维栅格地图,作为无人船的障碍物环境模型;
S2:无人船配备n个障碍物检测传感器,将n个障碍物检测传感器数据作为确定二维栅格地图中每个栅格属性的决策信息;
S3:针对二维栅格地图中的每个栅格,确定栅格属性的先验概率;
S4:根据各障碍物传感器在不同感知区域的检测性能差异性,分区域确定各决策信息在栅格属性条件下的条件概率分布;
S5:利用贝叶斯公式计算栅格属性的后验概率;
S6:根据最大后验概率栅格属性判定准则确定栅格属性;
S7:如果不是最后一个栅格,则转步骤S3;如果是最后一个栅格,遍历二维栅格地图,获得完整的无人船障碍物场景构建结果;
在步骤S2中,障碍物检测传感器包括双目视觉和三维激光雷达,将双目视觉和三维激光雷达的检测数据作为确定二维栅格地图中每个栅格属性的决策信息,双目视觉决策信息为,三维激光雷达决策信息为/>,第n个障碍物检测传感器的决策信息为/>
在步骤S4中,障碍物传感器的决策信息在栅格属性/>条件下的条件概率用表示,其中,/>
在步骤S4中,所述分区域确定各决策信息在栅格属性条件下的条件概率分布包括:在以无人船为中心的某一范围内,划分双目视觉、三维激光雷达单独或组合能感知到的区域,以及没有感知数据的区域;
双目视觉、三维激光雷达单独或组合能感知到的区域包括区域、/>区域、/>区域、区域;
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>;如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>;如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为/>和/>
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>,如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>,如果没有双目视觉检测数据,那么双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>;在该区域的栅格中,不管是否有激光雷达检测数据,三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>
区域的栅格中,不管是否有双目视觉的检测数据,双目视觉决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:和/>;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>在此栅格属性判断为障碍物区域/>和可通行区域/>的条件下的概率分配分别为:/>和/>
根据各决策信息在不同栅格属性条件下的条件概率分配,获得区域、/>区域、/>区域、/>区域各决策信息在栅格属性条件下的条件概率分布;所述步骤S7中,遍历二维栅格地图,判断每一个栅格中双目视觉和三维激光雷达两种决策信息,并以此为依据确定上述两种决策信息在栅格属性条件下的条件概率,利用贝叶斯公式计算栅格属性的后验概率,根据最大后验概率栅格属性判定准则确定栅格属性,获得完整的无人船障碍物场景构建结果。
2.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S1中,以二维栅格地图为无人船的障碍物环境模型,地图中的栅格属性包括障碍物区域和可通行区域/>;二维栅格地图的范围根据各传感器的海上最大有效测距范围设置。
3.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S3中,栅格属性的先验概率包括栅格属性为障碍物区域的先验概率和栅格属性为可通行区域的先验概率/>,满足以下公式条件:
式中,为栅格属性为障碍物区域的先验概率,/>为栅格属性为可通行区域的先验概率。
4.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S5中,栅格属性的后验概率为:,利用栅格属性的先验概率/>和各决策信息在栅格属性条件下的条件概率,输入如下所示的贝叶斯公式计算得到;
式中,表示累乘,/>表示累加,/>,/>
5.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,所述步骤S6中,最大后验概率栅格属性判定准则为:如果,则为障碍物区域,否则为可通行区域;
其中,分别为双目视觉和三维激光雷达两种决策信息条件下栅格属性为障碍物区域的后验概率和栅格属性为可通行区域的后验概率。
CN202310626160.6A 2023-05-31 2023-05-31 基于贝叶斯多源数据融合的无人船障碍物场景重构方法 Active CN116358561B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310626160.6A CN116358561B (zh) 2023-05-31 2023-05-31 基于贝叶斯多源数据融合的无人船障碍物场景重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310626160.6A CN116358561B (zh) 2023-05-31 2023-05-31 基于贝叶斯多源数据融合的无人船障碍物场景重构方法

Publications (2)

Publication Number Publication Date
CN116358561A CN116358561A (zh) 2023-06-30
CN116358561B true CN116358561B (zh) 2023-08-15

Family

ID=86938873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310626160.6A Active CN116358561B (zh) 2023-05-31 2023-05-31 基于贝叶斯多源数据融合的无人船障碍物场景重构方法

Country Status (1)

Country Link
CN (1) CN116358561B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105892489A (zh) * 2016-05-24 2016-08-24 国网山东省电力公司电力科学研究院 一种基于多传感器融合的自主避障无人机系统及控制方法
CN110850403A (zh) * 2019-11-18 2020-02-28 中国船舶重工集团公司第七0七研究所 一种多传感器决策级融合的智能船水面目标感知识别方法
CN112394726A (zh) * 2020-10-20 2021-02-23 自然资源部第一海洋研究所 一种基于证据理论的无人船障碍物融合检测方法
CN112525202A (zh) * 2020-12-21 2021-03-19 北京工商大学 一种基于多传感器融合的slam定位导航方法及系统
WO2021098082A1 (zh) * 2019-11-21 2021-05-27 大连理工大学 一种融合概率和高度信息的栅格地图障碍物检测方法
CN113689502A (zh) * 2021-09-01 2021-11-23 南京信息工程大学 一种多信息融合的障碍物测量方法
CN114758063A (zh) * 2022-03-18 2022-07-15 中国科学院计算技术研究所 基于八叉树结构的局部障碍物栅格地图构建方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8475050B2 (en) * 2009-12-07 2013-07-02 Honeywell International Inc. System and method for obstacle detection using fusion of color space information
KR20210135389A (ko) * 2020-05-04 2021-11-15 현대자동차주식회사 장애물 인식 장치, 그를 포함하는 차량 시스템 및 그 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105892489A (zh) * 2016-05-24 2016-08-24 国网山东省电力公司电力科学研究院 一种基于多传感器融合的自主避障无人机系统及控制方法
CN110850403A (zh) * 2019-11-18 2020-02-28 中国船舶重工集团公司第七0七研究所 一种多传感器决策级融合的智能船水面目标感知识别方法
WO2021098082A1 (zh) * 2019-11-21 2021-05-27 大连理工大学 一种融合概率和高度信息的栅格地图障碍物检测方法
CN112394726A (zh) * 2020-10-20 2021-02-23 自然资源部第一海洋研究所 一种基于证据理论的无人船障碍物融合检测方法
CN112525202A (zh) * 2020-12-21 2021-03-19 北京工商大学 一种基于多传感器融合的slam定位导航方法及系统
CN113689502A (zh) * 2021-09-01 2021-11-23 南京信息工程大学 一种多信息融合的障碍物测量方法
CN114758063A (zh) * 2022-03-18 2022-07-15 中国科学院计算技术研究所 基于八叉树结构的局部障碍物栅格地图构建方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
改进贝叶斯推理的栅格地图更新与障碍物检测;段建民;王昶人;任璐;刘丹;;激光杂志(08);全文 *

Also Published As

Publication number Publication date
CN116358561A (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
CN109271944B (zh) 障碍物检测方法、装置、电子设备、车辆及存储介质
US10160448B2 (en) Object tracking using sensor fusion within a probabilistic framework
CN108629231B (zh) 障碍物检测方法、装置、设备及存储介质
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
CN112967283B (zh) 基于双目摄像头的目标识别方法、系统、设备及存储介质
CN112394726B (zh) 一种基于证据理论的无人船障碍物融合检测方法
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
US20180300560A1 (en) Method and a device for generating an occupancy map of an environment of a vehicle
TWI595450B (zh) 物件偵測系統
CN108535727B (zh) 跟踪主车辆附近的多个对象的方法
CN111308500B (zh) 基于单线激光雷达的障碍物感知方法、装置和计算机终端
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
CN113432533B (zh) 一种机器人定位方法、装置、机器人及存储介质
JP2009229226A (ja) 物体検出装置及び物体検出方法
CN111497741B (zh) 碰撞预警方法及装置
CN116310673A (zh) 一种基于点云与图像特征融合的三维目标检测方法
Yao et al. LiDAR-based simultaneous multi-object tracking and static mapping in nearshore scenario
CN114077252B (zh) 机器人碰撞障碍区分装置及方法
CN112364751B (zh) 一种障碍物状态判断方法、装置、设备及存储介质
CN116358561B (zh) 基于贝叶斯多源数据融合的无人船障碍物场景重构方法
CN114241448A (zh) 障碍物航向角的获取方法、装置、电子设备及车辆
CN117518189A (zh) 基于激光雷达的相机处理方法、装置、电子设备以及介质
CN112633228A (zh) 停车检测方法、装置、设备及存储介质
CN112835063B (zh) 物体动静属性的确定方法、装置、设备及存储介质
Zhou et al. Extraction of pedestrian position and attribute information based on the integration of LiDAR and smartphone sensors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant