CN111061273B - 一种无人艇用自主避障融合方法和系统 - Google Patents
一种无人艇用自主避障融合方法和系统 Download PDFInfo
- Publication number
- CN111061273B CN111061273B CN201911368924.6A CN201911368924A CN111061273B CN 111061273 B CN111061273 B CN 111061273B CN 201911368924 A CN201911368924 A CN 201911368924A CN 111061273 B CN111061273 B CN 111061273B
- Authority
- CN
- China
- Prior art keywords
- grid map
- axis
- representing
- sensor
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 16
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims description 12
- 238000010276 construction Methods 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims description 3
- 230000003068 static effect Effects 0.000 abstract description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/0206—Control of position or course in two dimensions specially adapted to water vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种无人艇用自主避障融合方法和系统,该方法包括:获取多个不同传感器的检测结果;确定每个传感器检测到的所有目标的预测位置、伴随点和强度;根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;根据构建出的环境栅格地图,选用Field D*算法进行路径规划。本发明解决了对复杂水域静态和动态目标地图的构建,具有兼容不同传感器的灵活性。
Description
技术领域
本发明属于无人艇智能技术领域,尤其涉及一种无人艇用自主避障融合方法和系统。
背景技术
近年来无人智能领域迅速发展,无人艇的价值逐步被军方和民用市场所看重。目前,无人艇自主驾驶技术已经突破特定场景下的自主作业能力,但在复杂和多变环境中作业问题的成熟解决方案中,仍在积极的探索之中。其中重要的难点在无人艇对周围环境的感知能力。
多传感器组合使用,提高探测精度技术已经广泛应用于各个探测技术中,但针对多目标复杂地形的探测的构建,仍是存在技术瓶颈。目前,主要的融合算法,采用航海雷达与电子海图融合,或毫米波雷达与可见光视觉融合等少数设备间的融合,更多的精力放在对目标的精确测量上,而忽视了实际避障中周围环境的复杂性,导致难以精确测量所有目标,和多设备信息数据融合的灵活性。
发明内容
本发明的技术解决问题:克服现有技术的不足,提供一种无人艇用自主避障融合方法和系统,解决了对复杂水域静态和动态目标地图的构建,具有兼容不同传感器的灵活性。
为了解决上述技术问题,本发明公开了一种无人艇用自主避障融合方法,包括:
确定每个传感器检测到的所有目标的预测位置、伴随点和强度;
根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;
根据构建出的环境栅格地图,选用Field D*算法进行路径规划。
其中,表示第k个传感器探测到的第i个目标距无人艇的距离,tmax表示融合算法的最大预测时间,ct表示预测时间衰减因子,/>和/>分别表示目标在东北天坐标系中的x轴和y轴的坐标位置,/>和/>分别表示目标在东北天坐标系中的x轴和y轴上的速度分量,/>表示目标的测量精度,x轴指向东方向,y轴指向北方向。
其中,fmax表示探测强度的最大值,cf表示强度衰减因子。
在上述无人艇用自主避障融合方法中,根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图,包括:
创建空白栅格地图;其中,空白栅格地图的行数为h像素,列数为w像素,每个像素宽对应于实际距离为a米,最大高强度为fmax,每个像素的初始值为0;
将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图。
在上述无人艇用自主避障融合方法中,将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图,包括:
空白栅格地图采用OMN坐标系;其中,OMN坐标系的原点位于空白栅格地图的左上角,坐标为(0,0),向左表示M轴正方向,向下表示N轴正方向,pm,n=(m,n)为OMN坐标系中的任一点,m的取值范围为[0,w),n的取值范围为[0,h);
有:
其中,
计算出空白栅格地图中每一点的像素值,完成环境栅格地图的构建。
本发明还公开了一种无人艇用自主避障融合系统,包括:
解算模块,用于确定每个传感器检测到的所有目标的预测位置、伴随点和强度;
环境栅格地图构建模块,用于根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;
路径规划模块,用于根据构建出的环境栅格地图,选用Field D*算法进行路径规划。
本发明具有以下优点:
本发明公开了一种无人艇用自主避障融合方案,图中像素值越高表明该区域存在目标的置信度越高,在后续避障算法中应当避免从该区域航行。该方案不受信息源类型限制,可以融合多种传感器信息,解决了对复杂水域静态和动态目标地图的构建,具有兼容不同传感器的灵活性。
附图说明
图1是本发明实施例中一种无人艇用自主避障融合方法的步骤流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明公开的实施方式作进一步详细描述。
实施例1
如图1,在本实施例中,该无人艇用自主避障融合方法,包括:
步骤101,获取多个不同传感器的检测结果。
步骤102,确定每个传感器检测到的所有目标的预测位置、伴随点和强度。
其中,表示第k个传感器探测到的第i个目标距无人艇的距离,tmax表示融合算法的最大预测时间,ct表示预测时间衰减因子,/>和/>分别表示目标在东北天坐标系中的x轴和y轴的坐标位置,/>和/>分别表示目标在东北天坐标系中的x轴和y轴上的速度分量,表示目标的测量精度,x轴指向东方向,y轴指向北方向。
其中,fmax表示探测强度的最大值,cf表示强度衰减因子。
步骤103,根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图。
在本实施例中,可以先创建空白栅格地图;然后,将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图。其中,空白栅格地图的行数为h像素,列数为w像素,每个像素宽对应于实际距离为a米,最大高强度为fmax,每个像素的初始值为0。
优选的,将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中的具体流程如下:
空白栅格地图采用OMN坐标系;其中,OMN坐标系的原点位于空白栅格地图的左上角,坐标为(0,0),向左表示M轴正方向,向下表示N轴正方向,pm,n=(m,n)为OMN坐标系中的任一点,m的取值范围为[0,w),n的取值范围为[0,h);
有:
其中,
计算出空白栅格地图中每一点的像素值,完成环境栅格地图的构建。
步骤104,根据构建出的环境栅格地图,选用Field D*算法进行路径规划。
在本实施例中,Field D*算法对本领域技术人员为一种常用手段,在此不再赘述。
实施例2
在上述实施例的基础上,本发明还公开了一种无人艇用自主避障融合系统,包括:获取模块,用于获取多个不同传感器的检测结果;解算模块,用于确定每个传感器检测到的所有目标的预测位置、伴随点和强度;环境栅格地图构建模块,用于根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;路径规划模块,用于根据构建出的环境栅格地图,选用Field D*算法进行路径规划。
对于系统实施例而言,由于其与方法实施例相对应,所以描述的比较简单,相关之处参见方法实施例部分的说明即可。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
本发明说明书中未作详细描述的内容属于本领域专业技术人员的公知技术。
Claims (3)
1.一种无人艇用自主避障融合方法,其特征在于,包括:
确定每个传感器检测到的所有目标的预测位置、伴随点和强度;
根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;
根据构建出的环境栅格地图,选用Field D*算法进行路径规划;
其中:
其中,表示第k个传感器探测到的第i个目标距无人艇的距离,tmax表示融合算法的最大预测时间,ct表示预测时间衰减因子,/>和/>分别表示目标在东北天坐标系中的x轴和y轴的坐标位置,/>和/>分别表示目标在东北天坐标系中的x轴和y轴上的速度分量,/>表示目标的测量精度,x轴指向东方向,y轴指向北方向;
其中,fmax表示探测强度的最大值,cf表示强度衰减因子;
根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图,包括:
创建空白栅格地图;其中,空白栅格地图的行数为h像素,列数为w像素,每个像素宽对应于实际距离为a米,最大高强度为fmax,每个像素的初始值为0;
将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图,包括:
空白栅格地图采用OMN坐标系;其中,OMN坐标系的原点位于空白栅格地图的左上角,坐标为(0,0),向左表示M轴正方向,向下表示N轴正方向,pm,n=(m,n)为OMN坐标系中的任一点,m的取值范围为[0,w),n的取值范围为[0,h);
有:
其中,
计算出空白栅格地图中每一点的像素值,完成环境栅格地图的构建。
3.一种无人艇用自主避障融合系统,其特征在于,包括:
解算模块,用于确定每个传感器检测到的所有目标的预测位置、伴随点和强度;
环境栅格地图构建模块,用于根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;
路径规划模块,用于根据构建出的环境栅格地图,选用Field D*算法进行路径规划;
其中:
其中,表示第k个传感器探测到的第i个目标距无人艇的距离,tmax表示融合算法的最大预测时间,ct表示预测时间衰减因子,/>和/>分别表示目标在东北天坐标系中的x轴和y轴的坐标位置,/>和/>分别表示目标在东北天坐标系中的x轴和y轴上的速度分量,/>表示目标的测量精度,x轴指向东方向,y轴指向北方向;
其中,fmax表示探测强度的最大值,cf表示强度衰减因子;
环境栅格地图构建模块,具体用于:
创建空白栅格地图;其中,空白栅格地图的行数为h像素,列数为w像素,每个像素宽对应于实际距离为a米,最大高强度为fmax,每个像素的初始值为0;
将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图,包括:
空白栅格地图采用OMN坐标系;其中,OMN坐标系的原点位于空白栅格地图的左上角,坐标为(0,0),向左表示M轴正方向,向下表示N轴正方向,pm,n=(m,n)为OMN坐标系中的任一点,m的取值范围为[0,w),n的取值范围为[0,h);
有:
其中,
计算出空白栅格地图中每一点的像素值,完成环境栅格地图的构建。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911368924.6A CN111061273B (zh) | 2019-12-26 | 2019-12-26 | 一种无人艇用自主避障融合方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911368924.6A CN111061273B (zh) | 2019-12-26 | 2019-12-26 | 一种无人艇用自主避障融合方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111061273A CN111061273A (zh) | 2020-04-24 |
CN111061273B true CN111061273B (zh) | 2023-06-06 |
Family
ID=70303945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911368924.6A Active CN111061273B (zh) | 2019-12-26 | 2019-12-26 | 一种无人艇用自主避障融合方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111061273B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111457927B (zh) * | 2020-04-26 | 2021-03-05 | 北京工商大学 | 动态障碍物下的无人巡航船多目标路径规划方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101157103B1 (ko) * | 2009-09-16 | 2012-06-22 | 동국대학교 산학협력단 | 자기 조직화에 기반한 위치 측정 장치, 그 방법 및 기록매체 |
US9081383B1 (en) * | 2014-01-22 | 2015-07-14 | Google Inc. | Enhancing basic roadway-intersection models using high intensity image data |
JP6754518B2 (ja) * | 2014-12-08 | 2020-09-16 | 国立大学法人 筑波大学 | 位置推定システム |
US9710714B2 (en) * | 2015-08-03 | 2017-07-18 | Nokia Technologies Oy | Fusion of RGB images and LiDAR data for lane classification |
CN105043396B (zh) * | 2015-08-14 | 2018-02-02 | 北京进化者机器人科技有限公司 | 一种移动机器人室内自建地图的方法和系统 |
RU2642167C2 (ru) * | 2015-08-14 | 2018-01-24 | Самсунг Электроникс Ко., Лтд. | Устройство, способ и система для реконструкции 3d-модели объекта |
JP2017086172A (ja) * | 2015-11-02 | 2017-05-25 | キヤノン株式会社 | 被検体情報取得装置およびその制御方法 |
US10813029B2 (en) * | 2017-07-21 | 2020-10-20 | Perspecta Labs Inc. | Directed handovers in a cellular network for airborne mobile telemetry |
CN110262492B (zh) * | 2019-06-25 | 2022-04-08 | 北京航天控制仪器研究所 | 一种无人艇的实时避碰和目标跟踪方法 |
-
2019
- 2019-12-26 CN CN201911368924.6A patent/CN111061273B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111061273A (zh) | 2020-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110414396B (zh) | 一种基于深度学习的无人艇感知融合算法 | |
CN109828592B (zh) | 一种障碍物检测的方法及设备 | |
CN110531376B (zh) | 用于港口无人驾驶车辆的障碍物检测和跟踪方法 | |
Levinson et al. | Traffic light mapping, localization, and state detection for autonomous vehicles | |
CN110889808B (zh) | 一种定位的方法、装置、设备及存储介质 | |
CN110850403A (zh) | 一种多传感器决策级融合的智能船水面目标感知识别方法 | |
RU2720140C1 (ru) | Способ оценки собственной позиции и устройство оценки собственной позиции | |
Carreras et al. | Vision-based localization of an underwater robot in a structured environment | |
CN207752371U (zh) | 一种机器人自主导航装置及机器人 | |
US11538241B2 (en) | Position estimating device | |
CN108089586A (zh) | 一种机器人自主导航装置、方法及机器人 | |
EP2597485A2 (en) | Rapid lidar image correlation for ground navigation | |
CN112346463B (zh) | 一种基于速度采样的无人车路径规划方法 | |
US20220035036A1 (en) | Method and apparatus for positioning movable device, and movable device | |
CN112904358B (zh) | 基于几何信息的激光定位方法 | |
CN112781599A (zh) | 确定车辆的位置的方法 | |
CN113124864A (zh) | 一种采用机器视觉和惯导融合的水面导航方法 | |
CN114442101A (zh) | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 | |
CN111061273B (zh) | 一种无人艇用自主避障融合方法和系统 | |
CN114061565B (zh) | 一种无人船舶slam及其应用方法 | |
CN115151954A (zh) | 可行驶区域检测的方法和装置 | |
CN113376643A (zh) | 距离检测方法、装置及电子设备 | |
Hebel et al. | Change detection in urban areas by direct comparison of multi-view and multi-temporal ALS data | |
CN114488026A (zh) | 基于4d毫米波雷达的地下停车库可通行空间检测方法 | |
Zhong et al. | Dynamic obstacle detection and tracking based on 3D lidar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220412 Address after: 266200 aoshanwei sub district office, Jimo District, Qingdao City, Shandong Province Applicant after: Aerospace Times (Qingdao) marine equipment technology development Co.,Ltd. Address before: 142 box 403, box 100854, Beijing, Beijing, Haidian District Applicant before: BEIJIGN INSTITUTE OF AEROSPACE CONTROL DEVICES |
|
GR01 | Patent grant | ||
GR01 | Patent grant |