CN116358561A - 基于贝叶斯多源数据融合的无人船障碍物场景重构方法 - Google Patents

基于贝叶斯多源数据融合的无人船障碍物场景重构方法 Download PDF

Info

Publication number
CN116358561A
CN116358561A CN202310626160.6A CN202310626160A CN116358561A CN 116358561 A CN116358561 A CN 116358561A CN 202310626160 A CN202310626160 A CN 202310626160A CN 116358561 A CN116358561 A CN 116358561A
Authority
CN
China
Prior art keywords
grid
obstacle
unmanned ship
decision information
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310626160.6A
Other languages
English (en)
Other versions
CN116358561B (zh
Inventor
刘德庆
张�杰
金久才
马毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
First Institute of Oceanography MNR
Original Assignee
First Institute of Oceanography MNR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by First Institute of Oceanography MNR filed Critical First Institute of Oceanography MNR
Priority to CN202310626160.6A priority Critical patent/CN116358561B/zh
Publication of CN116358561A publication Critical patent/CN116358561A/zh
Application granted granted Critical
Publication of CN116358561B publication Critical patent/CN116358561B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/203Specially adapted for sailing ships
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Navigation (AREA)

Abstract

本发明属于无人船导航技术领域,公开了基于贝叶斯多源数据融合的无人船障碍物场景重构方法。在无人船上配备n个不同类型的用于检测障碍物的传感器,n为大于或等于2的整数,利用多传感器数据融合,得到无人船所在区域的障碍物场景情况。本发明提供的基于贝叶斯多源数据融合的无人船障碍物场景重构方法能够充分发挥不同的障碍物传感器之间的互补性,丰富无人船的障碍物检测信息,降低误检和漏检,提高无人船障碍物表达的准确性和可靠性,为实现无人船安全航行中的障碍物自主避碰提供重要支撑,可提升无人船产品的避障导航能力,在无人船避障导航领域具有良好的应用前景。

Description

基于贝叶斯多源数据融合的无人船障碍物场景重构方法
技术领域
本发明属于无人船导航技术领域,尤其涉及基于贝叶斯多源数据融合的无人船障碍物场景重构方法。
背景技术
无人船在海洋调查、环境监测和海上监视等领域发挥越来越重要的作用,然而,海上存在船只、礁石等障碍物,危及其航行安全。无人船障碍物场景重构是无人船安全自主导航的重要保障,其通过检测技术获取周边环境的障碍物信息,构建无人船障碍物环境模型。目前,针对无人船障碍物检测的主要分为被动检测和主动检测两大类。被动检测手段主要采用视觉相机,包括单目视觉和双目视觉,其中,单目视觉的优点是可以获取目标的轮廓和纹理特征,但容易受到环境光照条件的影响,且测距能力不足;双目视觉相比单目视觉的优势是能够测得目标的距离和方位信息,但测距精度受限于基线长度。主动检测手段主要包括航海雷达、激光雷达等,其中,航海雷达用于海上远距离目标检测,在近距离有一定的盲区,且对小目标检测能力有限;激光雷达具有高的测距精度,适用于近距离目标检测,但对无人船平台晃动等影响因素比较敏感。从以上无人船障碍物检测手段的分析可以看出,不同检测手段各有优缺,难以满足复杂海上环境中无人船海上自主避碰需求。近年来,开展无人船障碍物多传感器融合检测研究是发展趋势。
通过上述分析,现有技术存在的问题及缺陷为:现有技术中无人船的障碍物检测中,误检和漏检率比较高,对无人船障碍物表达的准确性和可靠性效果差。
发明内容
为克服相关技术中存在的问题,本发明公开实施例提供了一种基于贝叶斯多源数据融合的无人船障碍物场景重构方法。
所述技术方案如下:一种基于贝叶斯多源数据融合的无人船障碍物场景重构方法,在无人船上配备n个不同类型的用于检测障碍物的传感器,n为大于或等于2的整数,利用多传感器数据融合,得到无人船所在区域的障碍物场景情况,具体包括如下步骤:
S1:构建二维栅格地图,作为无人船的障碍物环境模型;
S2:无人船配备n个障碍物检测传感器,将n个障碍物检测传感器数据作为确定二维栅格地图中每个栅格属性的决策信息;
S3:针对二维栅格地图中的每个栅格,确定栅格属性的先验概率;
S4:根据各障碍物传感器在不同感知区域的检测性能差异性,分区域确定各决策信息在栅格属性条件下的条件概率分布;
S5:利用贝叶斯公式计算栅格属性的后验概率;
S6:根据最大后验概率栅格属性判定准则确定栅格属性;
S7:如果不是最后一个栅格,则转步骤S3,如果是最后一个栅格,遍历二维栅格地图,获得完整的无人船障碍物场景构建结果。
在步骤S1中,以二维栅格地图为无人船的障碍物环境模型,地图中的栅格属性包括障碍物区域
Figure SMS_1
和可通行区域/>
Figure SMS_2
;二维栅格地图的范围根据各传感器的海上最大有效测距范围设置。
在步骤S2中,n个障碍物检测传感器的决策信息分别用
Figure SMS_3
表示;
障碍物检测传感器包括双目视觉和三维激光雷达,将双目视觉和三维激光雷达的检测数据作为确定二维栅格地图中每个栅格属性的决策信息,双目视觉决策信息用
Figure SMS_4
表示,三维激光雷达决策信息分别用/>
Figure SMS_5
表示。
在步骤S3中,栅格属性的先验概率包括栅格属性为障碍物区域的先验概率
Figure SMS_6
和栅格属性为可通行区域的先验概率/>
Figure SMS_7
,满足以下公式条件:
Figure SMS_8
式中,
Figure SMS_9
为栅格属性为障碍物区域的先验概率,/>
Figure SMS_10
为栅格属性为可通行区域的先验概率。
在步骤S4中,障碍物传感器的决策信息
Figure SMS_11
在栅格属性/>
Figure SMS_12
条件下的条件概率用
Figure SMS_13
表示,其中,/>
Figure SMS_14
在步骤S4中,所述分区域确定各决策信息在栅格属性条件下的条件概率分布包括:在以无人船为中心的某一范围内,划分双目视觉、三维激光雷达单独或组合能感知到的区域,以及没有感知数据的区域。
在一个实施例中,双目视觉、三维激光雷达单独或组合能感知到的区域包括
Figure SMS_15
区域、/>
Figure SMS_16
区域、/>
Figure SMS_17
区域、/>
Figure SMS_18
区域;
Figure SMS_30
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_22
在此栅格属性判断为障碍物区域/>
Figure SMS_26
和可通行区域/>
Figure SMS_21
的条件下的概率分配分别为:
Figure SMS_25
和/>
Figure SMS_29
;如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_33
在此栅格属性判断为障碍物区域/>
Figure SMS_27
和可通行区域/>
Figure SMS_31
的条件下的概率分配分别为:
Figure SMS_19
和/>
Figure SMS_23
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_34
在此栅格属性判断为障碍物区域/>
Figure SMS_38
和可通行区域/>
Figure SMS_36
的条件下的概率分配分别为:/>
Figure SMS_39
和/>
Figure SMS_28
;如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_32
在此栅格属性判断为障碍物区域/>
Figure SMS_35
和可通行区域/>
Figure SMS_37
的条件下的概率分配分别为/>
Figure SMS_20
和/>
Figure SMS_24
Figure SMS_50
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_41
在此栅格属性判断为障碍物区域/>
Figure SMS_46
和可通行区域/>
Figure SMS_43
的条件下的概率分配分别为:
Figure SMS_45
和/>
Figure SMS_49
,如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_53
在此栅格属性判断为障碍物区域/>
Figure SMS_48
和可通行区域/>
Figure SMS_52
的条件下的概率分配分别为:
Figure SMS_40
和/>
Figure SMS_44
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_54
在此栅格属性判断为障碍物区域/>
Figure SMS_58
和可通行区域/>
Figure SMS_56
的条件下的概率分配分别为:/>
Figure SMS_59
和/>
Figure SMS_51
,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_55
在此栅格属性判断为障碍物区域/>
Figure SMS_57
和可通行区域/>
Figure SMS_60
的条件下的概率分配分别为:/>
Figure SMS_42
和/>
Figure SMS_47
Figure SMS_73
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_63
在此栅格属性判断为障碍物区域/>
Figure SMS_69
和可通行区域/>
Figure SMS_70
的条件下的概率分配分别为:
Figure SMS_74
和/>
Figure SMS_72
,如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_75
在此栅格属性判断为障碍物区域/>
Figure SMS_65
和可通行区域/>
Figure SMS_68
的条件下的概率分配分别为:
Figure SMS_61
和/>
Figure SMS_67
;在该区域的栅格中,不管是否有激光雷达检测数据,三维激光雷达决策信息/>
Figure SMS_64
在此栅格属性判断为障碍物区域/>
Figure SMS_66
和可通行区域/>
Figure SMS_71
的条件下的概率分配分别为:/>
Figure SMS_76
和/>
Figure SMS_62
Figure SMS_85
区域的栅格中,不管是否有双目视觉的检测数据,双目视觉决策信息/>
Figure SMS_79
在此栅格属性判断为障碍物区域/>
Figure SMS_81
和可通行区域/>
Figure SMS_80
的条件下的概率分配分别为:
Figure SMS_82
和/>
Figure SMS_86
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_90
在此栅格属性判断为障碍物区域/>
Figure SMS_88
和可通行区域/>
Figure SMS_91
的条件下的概率分配分别为:/>
Figure SMS_77
和/>
Figure SMS_84
,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_83
在此栅格属性判断为障碍物区域/>
Figure SMS_87
和可通行区域/>
Figure SMS_89
的条件下的概率分配分别为:/>
Figure SMS_92
和/>
Figure SMS_78
根据各决策信息在不同栅格属性条件下的条件概率分配,获得
Figure SMS_93
区域、/>
Figure SMS_94
区域、
Figure SMS_95
区域、/>
Figure SMS_96
区域各决策信息在栅格属性条件下的条件概率分布。
在步骤S5中,栅格属性的后验概率为:
Figure SMS_97
,利用栅格属性的先验概率/>
Figure SMS_98
和各决策信息在栅格属性条件下的条件概率
Figure SMS_99
,输入如下所示的贝叶斯公式计算得到;
Figure SMS_100
式中,
Figure SMS_101
表示累乘,/>
Figure SMS_102
表示累加,/>
Figure SMS_103
,/>
Figure SMS_104
所述步骤S6中,最大后验概率栅格属性判定准则为:如果
Figure SMS_105
,则为障碍物区域,否则为可通行区域;
其中,
Figure SMS_106
分别为双目视觉和三维激光雷达两种决策信息条件下栅格属性为障碍物区域的后验概率和栅格属性为可通行区域的后验概率。
所述步骤S7中,遍历二维栅格地图,判断每一个栅格中双目视觉和三维激光雷达两种决策信息,并以此为依据确定上述两种决策信息在栅格属性条件下的条件概率,利用贝叶斯公式计算栅格属性的后验概率,根据最大后验概率栅格属性判定准则确定栅格属性,获得完整的无人船障碍物场景构建结果。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明提供的基于贝叶斯多源数据融合的无人船障碍物场景重构方法能够充分发挥不同的障碍物传感器之间的互补性,丰富无人船的障碍物检测信息,降低误检和漏检,提高无人船障碍物表达的准确性和可靠性,为实现无人船安全航行中的障碍物自主避碰提供重要支撑,可提升无人船产品的避障导航能力,在无人船避障导航领域具有良好的应用前景。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理;
图1是本发明实施例提供的基于贝叶斯多源数据融合的无人船障碍物场景重构方法流程图;
图2是本发明实施例提供的障碍物场景双目视觉的和三维激光雷达检测数据图;
图3是本发明实施例提供的双目视觉的和三维激光雷达的检测区域示划分意图;
图4是本发明实施例提供的基于贝叶斯多源信息融合的无人船海上障碍物场景重构结果图;
图5是本发明实施例提供的基于贝叶斯多源数据融合的无人船障碍物场景重构系统图;
图6是本发明实施例提供基于双目视觉的无人船障碍物场景重构图;
图7是本发明实施例提供的基于三维激光雷达的无人船障碍物场景重构图;
图中:1、二维栅格地图构建模块;2、检测传感器组;3、先验概率确定模块;4、条件概率分布模块;5、后验概率计算模块;6、无人船障碍物融合检测模块;7、无人船障碍物场景构建模块。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其他方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施的限制。
实施例1,本发明提供了一种基于贝叶斯多源数据融合的无人船障碍物场景重构方法,无人船上配备n个不同类型的用于检测障碍物的传感器,n为大于或等于2的整数,利用多传感器数据融合,得到无人船所在区域的障碍物场景情况,具体地,如图1所示,该方法包括如下步骤:
S1:构建二维栅格地图,作为无人船的障碍物环境模型;
S2:无人船配备n个障碍物检测传感器,将n个障碍物检测传感器数据作为确定二维栅格地图中每个栅格属性的决策信息;
S3:针对二维栅格地图中的每个栅格,确定栅格属性的先验概率;
S4:根据各障碍物传感器在不同感知区域的检测性能差异性,分区域确定各决策信息在栅格属性条件下的条件概率分布;
S5:利用贝叶斯公式计算栅格属性的后验概率;
S6:根据最大后验概率栅格属性判定准则确定栅格属性,实现无人船障碍物融合检测;
S7:如果不是最后一个栅格,则转步骤3,如果是最后一个栅格,遍历二维栅格地图,从而获得完整的无人船障碍物场景构建结果。
进一步的,所述步骤S1中,以二维栅格地图为无人船的障碍物环境模型,地图中的栅格属性包括障碍物区域(用
Figure SMS_107
表示)和可通行区域(用/>
Figure SMS_108
表示)。二维栅格地图的范围可根据各传感器的海上最大有效测距范围设置,例如,当传感器为双目视觉和三维激光雷达时,其中,双目视觉的有效测距范围约200m,三维激光雷达的有效测距范围为100m,据此以无人船坐标点为中心构建的二维栅格地图大小为400m×400m,地图分辨率(栅格大小)优选设置为8m。
进一步的,所述步骤S2中,障碍物检测传感器包括双目视觉和三维激光雷达等,但本实施例中不限于上述两种传感器,将双目视觉和三维激光雷达的检测数据作为确定二维栅格地图中每个栅格属性的决策信息。为了后续表述方便,双目视觉决策信息用表示,三维激光雷达决策信息用
Figure SMS_109
表示。
本发明的方法可应用于典型海上障碍物场景。图2为该障碍物场景中的双目视觉和三维激光雷达检测数据。从图2可以看到,双目视觉和三维激光雷达均能够获取障碍物的距离和方位信息,但存在差异,两者之间获取的障碍物信息具有互补性,并且存在误检或漏检。
进一步的,所述步骤S3中,栅格属性的先验概率包括栅格属性为障碍物区域的先验概率
Figure SMS_110
和栅格属性为可通行区域的先验概率/>
Figure SMS_111
,满足以下公式条件:
Figure SMS_112
(1)
式中,
Figure SMS_113
为栅格属性为障碍物区域的先验概率,/>
Figure SMS_114
为栅格属性为可通行区域的先验概率。
进一步的,所述步骤S4中,各决策信息在栅格属性条件下的条件概率分布是贝叶斯理论用于无人船障碍物融合检测的关键。其中,传感器决策信息
Figure SMS_115
在栅格属性/>
Figure SMS_116
条件下的条件概率用/>
Figure SMS_117
表示;其中,/>
Figure SMS_118
考虑到双目视觉和三维激光雷达的检测范围、检测准确性不同,本发明提出了分区域确定决各决策信息在栅格属性条件下的条件概率分布的方法。图3是所用双目视觉和三维激光雷达的检测区域划分示意图。在以无人船为中心的400m×400m范围内,
Figure SMS_119
是双目视觉和三维激光雷达都能感知到的区域,在该区域三维激光雷达比双目视觉的检测准确性高;/>
Figure SMS_120
也是双目视觉和三维激光雷达都能感知到的区域,但在该区域双目视觉比三维激光雷达的检测准确性高;/>
Figure SMS_121
是仅有双目视觉感知到的区域,/>
Figure SMS_122
是仅有三维激光雷达感知到的区域,/>
Figure SMS_123
为没有感知数据的区域。
不同区域中各决策信息在栅格属性条件下的条件概率则根据各障碍物传感器检测准确性的先验知识确定。其中,在
Figure SMS_134
区域,由于激光雷达的测距精度更高,其对栅格属性的决定作用更大,因此,在该区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_125
在此栅格属性判断为障碍物区域/>
Figure SMS_128
和可通行区域/>
Figure SMS_127
的条件下的概率分配分别为
Figure SMS_130
和/>
Figure SMS_133
,如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_137
在此栅格属性判断为障碍物区域/>
Figure SMS_132
和可通行区域/>
Figure SMS_139
的条件下的概率分配分别为
Figure SMS_124
和/>
Figure SMS_131
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_140
在此栅格属性判断为障碍物区域/>
Figure SMS_143
和可通行区域/>
Figure SMS_141
的条件下的概率分配分别为/>
Figure SMS_144
和/>
Figure SMS_135
;如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_136
在此栅格属性判断为障碍物区域/>
Figure SMS_138
可通行区域
Figure SMS_142
的条件下的概率分配分别为/>
Figure SMS_126
和/>
Figure SMS_129
Figure SMS_154
仍然是三维激光雷达和双目视觉都能感知到的区域,但三维激光雷达出现漏检的可能性增大,因此,在该区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_148
在此栅格属性判断为障碍物区域/>
Figure SMS_150
和可通行区域/>
Figure SMS_158
的条件下的概率分配分别为
Figure SMS_162
和/>
Figure SMS_163
,如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_165
在此栅格属性判断为障碍物区域/>
Figure SMS_155
和可通行区域/>
Figure SMS_159
的条件下的概率分配分别为
Figure SMS_145
和/>
Figure SMS_151
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_146
在此栅格属性判断为障碍物区域/>
Figure SMS_149
和可通行区域/>
Figure SMS_153
的条件下的概率分配分别为/>
Figure SMS_157
和/>
Figure SMS_156
,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_160
在此栅格属性判断为障碍物区域/>
Figure SMS_161
和可通行区域/>
Figure SMS_164
的条件下的概率分配分别为/>
Figure SMS_147
和/>
Figure SMS_152
Figure SMS_177
区域,已经超出了所用三维激光雷达有效检测范围,栅格属性仅由双目视觉确定,因此,在该区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_168
在此栅格属性判断为障碍物区域/>
Figure SMS_173
和可通行区域/>
Figure SMS_174
的条件下的概率分配分别为
Figure SMS_178
和/>
Figure SMS_179
,如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure SMS_181
在此栅格属性判断为障碍物区域/>
Figure SMS_171
和可通行区域/>
Figure SMS_175
的条件下的概率分配分别为
Figure SMS_166
和/>
Figure SMS_170
;在该区域的栅格中,不管是否有激光雷达检测数据,三维激光雷达决策信息/>
Figure SMS_169
在此栅格属性判断为障碍物区域/>
Figure SMS_172
和可通行区域/>
Figure SMS_176
的条件下的概率分配分别为/>
Figure SMS_180
和/>
Figure SMS_167
Figure SMS_192
区域,栅格属性仅由三维激光雷达确定,因此,在该区域的栅格中,不管是否有双目视觉的检测数据,双目视觉决策信息/>
Figure SMS_183
在此栅格属性判断为障碍物区域/>
Figure SMS_188
和可通行区域/>
Figure SMS_193
的条件下的概率分配分别为/>
Figure SMS_196
和/>
Figure SMS_195
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_197
在此栅格属性判断为障碍物区域/>
Figure SMS_187
和可通行区域/>
Figure SMS_191
的条件下的概率分配分别为/>
Figure SMS_182
Figure SMS_189
,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure SMS_184
在此栅格属性判断为障碍物区域/>
Figure SMS_186
和可通行区域/>
Figure SMS_190
的条件下的概率分配分别为
Figure SMS_194
和/>
Figure SMS_185
根据各决策信息在不同栅格属性条件下的条件概率分配,获得
Figure SMS_198
区域、/>
Figure SMS_199
区域、
Figure SMS_200
区域、/>
Figure SMS_201
区域各决策信息在栅格属性条件下的条件概率分布。
进一步的,所述步骤S5中,栅格属性的后验概率为:
Figure SMS_202
,利用栅格属性的先验概率/>
Figure SMS_203
和各决策信息在栅格属性条件下的条件概率
Figure SMS_204
,输入如下所示的贝叶斯公式计算得到;
Figure SMS_205
(2)
式中,
Figure SMS_206
表示累乘,/>
Figure SMS_207
表示累加,/>
Figure SMS_208
,/>
Figure SMS_209
所述步骤S6中,最大后验概率栅格属性判定准则为:如果
Figure SMS_210
,则为障碍物区域,否则为可通行区域;
其中,
Figure SMS_211
分别为双目视觉和三维激光雷达两种决策信息条件下栅格属性为障碍物区域的后验概率和栅格属性为可通行区域的后验概率。
实施例2,通过一个举例说明基于贝叶斯多源数据融合的无人船障碍物栅格场景构建过程。
假设在
Figure SMS_213
区域的某个栅格中没有双目视觉检测数据,但有三维激光雷达检测数据,那么,双目视觉决策信息/>
Figure SMS_216
在此栅格属性判断为障碍物区域/>
Figure SMS_219
和可通行区域/>
Figure SMS_212
的条件下的概率分配分别为/>
Figure SMS_215
和/>
Figure SMS_218
,三维激光雷达决策信息/>
Figure SMS_221
在此栅格属性判断为障碍物区域/>
Figure SMS_214
和可通行区域/>
Figure SMS_217
的条件下的概率分配分别为
Figure SMS_220
和/>
Figure SMS_222
。该栅格属性的后验概率的计算过程如下:
(1)根据贝叶斯公式计算在双目视觉和三维激光雷达两种决策信息条件下的栅格属性为障碍物区域
Figure SMS_223
的后验概率为:/>
Figure SMS_224
Figure SMS_225
Figure SMS_226
(3)
(2)根据贝叶斯公式计算在双目视觉和三维激光雷达两种决策信息条件下的栅格属性为可通行区域
Figure SMS_227
的后验概率为:/>
Figure SMS_228
Figure SMS_229
Figure SMS_230
(4)
由于
Figure SMS_231
,因此该栅格为障碍物区域。
进一步的,所述步骤S7中,遍历二维栅格地图,判断每一个栅格中双目视觉和三维激光雷达两种决策信息,并以此为依据确定上述两种决策信息在栅格属性条件下的条件概率,利用贝叶斯公式计算栅格属性的后验概率,根据最大后验概率栅格属性判定准则确定栅格属性,从而获得完整的无人船障碍物场景构建结果。图4为障碍物场景构建结果,结果显示,对于场景中的目标基本超出了三维激光雷达的测距范围,通过传感器信息融合,能够对前方更远距离(约100m-200m)的目标实现感知,同时避免了双目视觉的误检。
综上,基于贝叶斯多源数据融合的无人船障碍物场景重构方法,能够充分发挥各传感器之间的互补性,丰富了无人船的障碍物检测信息,降低了误检和漏检,提高了无人船障碍物场景构建的准确性和可靠性。
实施例3,如图5所示,本发明提供了一种基于贝叶斯多源数据融合的无人船障碍物场景重构系统,包括:
二维栅格地图构建模块1,用于构建二维栅格地图,作为无人船的障碍物环境模型;
检测传感器组2,用于无人船配备n个障碍物检测传感器,将n个障碍物检测传感器数据作为确定二维栅格地图中每个栅格属性的决策信息;
先验概率确定模块3,用于针对二维栅格地图中的每个栅格,确定栅格属性的先验概率;
条件概率分布模块4,用于根据各障碍物传感器在不同感知区域的检测性能差异性,分区域确定各决策信息在栅格属性条件下的条件概率分布;
后验概率计算模块5,用于利用贝叶斯公式计算栅格属性的后验概率;
无人船障碍物融合检测模块6,用于根据最大后验概率栅格属性判定准则确定栅格属性,实现无人船障碍物融合检测;
无人船障碍物场景构建模块7,用于如果不是最后一个栅格,则遍历二维栅格地图,从而获得完整的无人船障碍物场景构建结果。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
上述装置/单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程。
基于上述本发明实施例记载的技术方案,进一步的可提出以下应用例。
根据本申请的实施例,本发明还提供了一种计算机设备,该计算机设备包括:至少一个处理器、存储器以及存储在所述存储器中并可在所述至少一个处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意各个方法实施例中的步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现上述各个方法实施例中的步骤。
本发明实施例还提供了一种信息数据处理终端,所述信息数据处理终端用于实现于电子装置上执行时,提供用户输入接口以实施如上述各方法实施例中的步骤,所述信息数据处理终端不限于手机、电脑、交换机。
本发明实施例还提供了一种服务器,所述服务器用于实现于电子装置上执行时,提供用户输入接口以实施如上述各方法实施例中的步骤。
本发明实施例还提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行时可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。
为进一步证明上述实施例的积极效果,本发明基于上述技术方案进行如下对比实验。
图6是基于双目视觉的无人船障碍物场景重构图,图7是基于三维激光雷达的无人船障碍物场景重构图;可以明显看到,三维激光雷达仅能检测到场景中目标的很小部分,几乎到达检测极限;双目视觉比三维激光雷达的探测距离更远,获取了更丰富的目标信息,但在海面上出现了误检点。这与图4所示的基于贝叶斯多源信息融合的无人船海上障碍物场景重构结果图对比可知,本发明提供的基于贝叶斯多源数据融合的无人船障碍物场景重构方法能够充分发挥不同的障碍物传感器之间的互补性,丰富无人船的障碍物检测信息,降低误检和漏检,提高无人船障碍物表达的准确性和可靠性。
以上所述,仅为本发明较优的具体的实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,该方法在无人船上配备n个不同类型的用于检测障碍物的传感器,n为大于或等于2的整数,利用多传感器数据融合,得到无人船所在区域的障碍物场景情况,具体包括如下步骤:
S1:构建二维栅格地图,作为无人船的障碍物环境模型;
S2:无人船配备n个障碍物检测传感器,将n个障碍物检测传感器数据作为确定二维栅格地图中每个栅格属性的决策信息;
S3:针对二维栅格地图中的每个栅格,确定栅格属性的先验概率;
S4:根据各障碍物传感器在不同感知区域的检测性能差异性,分区域确定各决策信息在栅格属性条件下的条件概率分布;
S5:利用贝叶斯公式计算栅格属性的后验概率;
S6:根据最大后验概率栅格属性判定准则确定栅格属性;
S7:如果不是最后一个栅格,则转步骤S3;如果是最后一个栅格,遍历二维栅格地图,获得完整的无人船障碍物场景构建结果。
2.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S1中,以二维栅格地图为无人船的障碍物环境模型,地图中的栅格属性包括障碍物区域和可通行区域;二维栅格地图的范围根据各传感器的海上最大有效测距范围设置。
3.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S2中,n个障碍物检测传感器的决策信息分别用表示;
障碍物检测传感器包括双目视觉和三维激光雷达,将双目视觉和三维激光雷达的检测数据作为确定二维栅格地图中每个栅格属性的决策信息,双目视觉决策信息用表示,三维激光雷达决策信息分别用表示。
4.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S3中,栅格属性的先验概率包括栅格属性为障碍物区域的先验概率和栅格属性为可通行区域的先验概率,满足以下公式条件:
Figure QLYQS_1
式中,
Figure QLYQS_2
为栅格属性为障碍物区域的先验概率,/>
Figure QLYQS_3
为栅格属性为可通行区域的先验概率。
5.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S4中,障碍物传感器的决策信息在栅格属性条件下的条件概率用
Figure QLYQS_4
表示,其中,/>
Figure QLYQS_5
6.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S4中,所述分区域确定各决策信息在栅格属性条件下的条件概率分布包括:在以无人船为中心的某一范围内,划分双目视觉、三维激光雷达单独或组合能感知到的区域,以及没有感知数据的区域。
7.根据权利要求6所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,双目视觉、三维激光雷达单独或组合能感知到的区域包括
Figure QLYQS_6
区域、/>
Figure QLYQS_7
区域、/>
Figure QLYQS_8
区域、/>
Figure QLYQS_9
区域;
Figure QLYQS_20
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure QLYQS_12
在此栅格属性判断为障碍物区域/>
Figure QLYQS_16
和可通行区域/>
Figure QLYQS_24
的条件下的概率分配分别为:/>
Figure QLYQS_28
Figure QLYQS_26
;如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure QLYQS_29
在此栅格属性判断为障碍物区域/>
Figure QLYQS_19
和可通行区域/>
Figure QLYQS_23
的条件下的概率分配分别为:/>
Figure QLYQS_11
Figure QLYQS_15
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure QLYQS_13
在此栅格属性判断为障碍物区域/>
Figure QLYQS_17
和可通行区域/>
Figure QLYQS_21
的条件下的概率分配分别为:/>
Figure QLYQS_25
和/>
Figure QLYQS_18
;如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure QLYQS_22
在此栅格属性判断为障碍物区域/>
Figure QLYQS_27
和可通行区域/>
Figure QLYQS_30
的条件下的概率分配分别为/>
Figure QLYQS_10
和/>
Figure QLYQS_14
Figure QLYQS_39
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure QLYQS_31
在此栅格属性判断为障碍物区域/>
Figure QLYQS_35
和可通行区域/>
Figure QLYQS_43
的条件下的概率分配分别为:/>
Figure QLYQS_47
Figure QLYQS_48
,如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure QLYQS_50
在此栅格属性判断为障碍物区域/>
Figure QLYQS_41
和可通行区域/>
Figure QLYQS_45
的条件下的概率分配分别为:/>
Figure QLYQS_33
Figure QLYQS_37
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure QLYQS_32
在此栅格属性判断为障碍物区域/>
Figure QLYQS_36
和可通行区域/>
Figure QLYQS_40
的条件下的概率分配分别为:/>
Figure QLYQS_44
和/>
Figure QLYQS_42
,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure QLYQS_46
在此栅格属性判断为障碍物区域/>
Figure QLYQS_49
和可通行区域/>
Figure QLYQS_51
的条件下的概率分配分别为:/>
Figure QLYQS_34
和/>
Figure QLYQS_38
Figure QLYQS_61
区域的栅格中,如果有双目视觉检测数据,那么双目视觉决策信息/>
Figure QLYQS_54
在此栅格属性判断为障碍物区域/>
Figure QLYQS_57
和可通行区域/>
Figure QLYQS_53
的条件下的概率分配分别为:/>
Figure QLYQS_56
Figure QLYQS_60
,如果没有双目视觉检测数据,那么双目视觉决策信息/>
Figure QLYQS_64
在此栅格属性判断为障碍物区域/>
Figure QLYQS_63
和可通行区域/>
Figure QLYQS_66
的条件下的概率分配分别为:/>
Figure QLYQS_52
Figure QLYQS_59
;在该区域的栅格中,不管是否有激光雷达检测数据,三维激光雷达决策信息/>
Figure QLYQS_58
在此栅格属性判断为障碍物区域/>
Figure QLYQS_62
和可通行区域/>
Figure QLYQS_65
的条件下的概率分配分别为:
Figure QLYQS_67
和/>
Figure QLYQS_55
Figure QLYQS_79
区域的栅格中,不管是否有双目视觉的检测数据,双目视觉决策信息/>
Figure QLYQS_70
在此栅格属性判断为障碍物区域/>
Figure QLYQS_75
和可通行区域/>
Figure QLYQS_74
的条件下的概率分配分别为:/>
Figure QLYQS_78
和/>
Figure QLYQS_82
;在该区域的栅格中,如果有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure QLYQS_83
在此栅格属性判断为障碍物区域/>
Figure QLYQS_77
和可通行区域/>
Figure QLYQS_81
的条件下的概率分配分别为:/>
Figure QLYQS_68
和/>
Figure QLYQS_73
,如果没有三维激光雷达检测数据,那么三维激光雷达决策信息/>
Figure QLYQS_71
在此栅格属性判断为障碍物区域/>
Figure QLYQS_72
和可通行区域/>
Figure QLYQS_76
的条件下的概率分配分别为:/>
Figure QLYQS_80
和/>
Figure QLYQS_69
根据各决策信息在不同栅格属性条件下的条件概率分配,获得
Figure QLYQS_84
区域、/>
Figure QLYQS_85
区域、/>
Figure QLYQS_86
区域、/>
Figure QLYQS_87
区域各决策信息在栅格属性条件下的条件概率分布。
8.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,在步骤S5中,栅格属性的后验概率为:
Figure QLYQS_88
,利用栅格属性的先验概率/>
Figure QLYQS_89
和各决策信息在栅格属性条件下的条件概率
Figure QLYQS_90
,输入如下所示的贝叶斯公式计算得到;
Figure QLYQS_91
式中,
Figure QLYQS_92
表示累乘,/>
Figure QLYQS_93
表示累加,/>
Figure QLYQS_94
,/>
Figure QLYQS_95
9.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,所述步骤S6中,最大后验概率栅格属性判定准则为:如果
Figure QLYQS_96
,则为障碍物区域,否则为可通行区域;
其中,
Figure QLYQS_97
分别为双目视觉和三维激光雷达两种决策信息条件下栅格属性为障碍物区域的后验概率和栅格属性为可通行区域的后验概率。
10.根据权利要求1所述的基于贝叶斯多源数据融合的无人船障碍物场景重构方法,其特征在于,所述步骤S7中,遍历二维栅格地图,判断每一个栅格中双目视觉和三维激光雷达两种决策信息,并以此为依据确定上述两种决策信息在栅格属性条件下的条件概率,利用贝叶斯公式计算栅格属性的后验概率,根据最大后验概率栅格属性判定准则确定栅格属性,获得完整的无人船障碍物场景构建结果。
CN202310626160.6A 2023-05-31 2023-05-31 基于贝叶斯多源数据融合的无人船障碍物场景重构方法 Active CN116358561B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310626160.6A CN116358561B (zh) 2023-05-31 2023-05-31 基于贝叶斯多源数据融合的无人船障碍物场景重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310626160.6A CN116358561B (zh) 2023-05-31 2023-05-31 基于贝叶斯多源数据融合的无人船障碍物场景重构方法

Publications (2)

Publication Number Publication Date
CN116358561A true CN116358561A (zh) 2023-06-30
CN116358561B CN116358561B (zh) 2023-08-15

Family

ID=86938873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310626160.6A Active CN116358561B (zh) 2023-05-31 2023-05-31 基于贝叶斯多源数据融合的无人船障碍物场景重构方法

Country Status (1)

Country Link
CN (1) CN116358561B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110135147A1 (en) * 2009-12-07 2011-06-09 Honeywell International Inc. System and method for obstacle detection using fusion of color space information
CN105892489A (zh) * 2016-05-24 2016-08-24 国网山东省电力公司电力科学研究院 一种基于多传感器融合的自主避障无人机系统及控制方法
CN110850403A (zh) * 2019-11-18 2020-02-28 中国船舶重工集团公司第七0七研究所 一种多传感器决策级融合的智能船水面目标感知识别方法
CN112394726A (zh) * 2020-10-20 2021-02-23 自然资源部第一海洋研究所 一种基于证据理论的无人船障碍物融合检测方法
CN112525202A (zh) * 2020-12-21 2021-03-19 北京工商大学 一种基于多传感器融合的slam定位导航方法及系统
WO2021098082A1 (zh) * 2019-11-21 2021-05-27 大连理工大学 一种融合概率和高度信息的栅格地图障碍物检测方法
US20210341603A1 (en) * 2020-05-04 2021-11-04 Hyundai Motor Company Obstacle recognition device, vehicle system including the same, and method thereof
CN113689502A (zh) * 2021-09-01 2021-11-23 南京信息工程大学 一种多信息融合的障碍物测量方法
CN114758063A (zh) * 2022-03-18 2022-07-15 中国科学院计算技术研究所 基于八叉树结构的局部障碍物栅格地图构建方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110135147A1 (en) * 2009-12-07 2011-06-09 Honeywell International Inc. System and method for obstacle detection using fusion of color space information
CN105892489A (zh) * 2016-05-24 2016-08-24 国网山东省电力公司电力科学研究院 一种基于多传感器融合的自主避障无人机系统及控制方法
CN110850403A (zh) * 2019-11-18 2020-02-28 中国船舶重工集团公司第七0七研究所 一种多传感器决策级融合的智能船水面目标感知识别方法
WO2021098082A1 (zh) * 2019-11-21 2021-05-27 大连理工大学 一种融合概率和高度信息的栅格地图障碍物检测方法
US20210341603A1 (en) * 2020-05-04 2021-11-04 Hyundai Motor Company Obstacle recognition device, vehicle system including the same, and method thereof
CN112394726A (zh) * 2020-10-20 2021-02-23 自然资源部第一海洋研究所 一种基于证据理论的无人船障碍物融合检测方法
CN112525202A (zh) * 2020-12-21 2021-03-19 北京工商大学 一种基于多传感器融合的slam定位导航方法及系统
CN113689502A (zh) * 2021-09-01 2021-11-23 南京信息工程大学 一种多信息融合的障碍物测量方法
CN114758063A (zh) * 2022-03-18 2022-07-15 中国科学院计算技术研究所 基于八叉树结构的局部障碍物栅格地图构建方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
何勇;蒋浩;方慧;王宇;刘羽飞;: "车辆智能障碍物检测方法及其农业应用研究进展", 农业工程学报, no. 09 *
段建民;王昶人;任璐;刘丹;: "改进贝叶斯推理的栅格地图更新与障碍物检测", 激光杂志, no. 08 *
邬永革, 黄炯, 杨静宇: "基于多传感器信息融合的机器人障碍检测和环境建模", 自动化学报, no. 05 *

Also Published As

Publication number Publication date
CN116358561B (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
US10634793B1 (en) Lidar detection device of detecting close-distance obstacle and method thereof
CN109271944B (zh) 障碍物检测方法、装置、电子设备、车辆及存储介质
EP2948927B1 (en) A method of detecting structural parts of a scene
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
CN112394726B (zh) 一种基于证据理论的无人船障碍物融合检测方法
JP4660569B2 (ja) 物体検出装置及び物体検出方法
TWI595450B (zh) 物件偵測系統
CN106548659B (zh) 一种前向碰撞预警方法及装置、终端及计算机存储介质
CN111308500B (zh) 基于单线激光雷达的障碍物感知方法、装置和计算机终端
CN113432533B (zh) 一种机器人定位方法、装置、机器人及存储介质
CN110866544B (zh) 传感器数据的融合方法、装置及存储介质
CN111497741B (zh) 碰撞预警方法及装置
Tanaka et al. Vehicle Detection Based on Perspective Transformation Using Rear‐View Camera
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
US6956959B2 (en) Apparatus for recognizing environment
CN116310673A (zh) 一种基于点云与图像特征融合的三维目标检测方法
CN114077252B (zh) 机器人碰撞障碍区分装置及方法
CN112364751B (zh) 一种障碍物状态判断方法、装置、设备及存储介质
Yao et al. LiDAR-based simultaneous multi-object tracking and static mapping in nearshore scenario
CN116358561B (zh) 基于贝叶斯多源数据融合的无人船障碍物场景重构方法
CN114241448A (zh) 障碍物航向角的获取方法、装置、电子设备及车辆
CN117518189A (zh) 基于激光雷达的相机处理方法、装置、电子设备以及介质
JP7418476B2 (ja) 運転可能な領域情報を決定するための方法及び装置
Zhou et al. Extraction of pedestrian position and attribute information based on the integration of LiDAR and smartphone sensors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant