CN111061273B - 一种无人艇用自主避障融合方法和系统 - Google Patents

一种无人艇用自主避障融合方法和系统 Download PDF

Info

Publication number
CN111061273B
CN111061273B CN201911368924.6A CN201911368924A CN111061273B CN 111061273 B CN111061273 B CN 111061273B CN 201911368924 A CN201911368924 A CN 201911368924A CN 111061273 B CN111061273 B CN 111061273B
Authority
CN
China
Prior art keywords
grid map
axis
representing
sensor
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911368924.6A
Other languages
English (en)
Other versions
CN111061273A (zh
Inventor
吕腾
刘友
刘柳
李清洲
胡常青
唐军武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aerospace Times Qingdao Marine Equipment Technology Development Co ltd
Original Assignee
Aerospace Times Qingdao Marine Equipment Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aerospace Times Qingdao Marine Equipment Technology Development Co ltd filed Critical Aerospace Times Qingdao Marine Equipment Technology Development Co ltd
Priority to CN201911368924.6A priority Critical patent/CN111061273B/zh
Publication of CN111061273A publication Critical patent/CN111061273A/zh
Application granted granted Critical
Publication of CN111061273B publication Critical patent/CN111061273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0206Control of position or course in two dimensions specially adapted to water vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种无人艇用自主避障融合方法和系统,该方法包括:获取多个不同传感器的检测结果;确定每个传感器检测到的所有目标的预测位置、伴随点和强度;根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;根据构建出的环境栅格地图,选用Field D*算法进行路径规划。本发明解决了对复杂水域静态和动态目标地图的构建,具有兼容不同传感器的灵活性。

Description

一种无人艇用自主避障融合方法和系统
技术领域
本发明属于无人艇智能技术领域,尤其涉及一种无人艇用自主避障融合方法和系统。
背景技术
近年来无人智能领域迅速发展,无人艇的价值逐步被军方和民用市场所看重。目前,无人艇自主驾驶技术已经突破特定场景下的自主作业能力,但在复杂和多变环境中作业问题的成熟解决方案中,仍在积极的探索之中。其中重要的难点在无人艇对周围环境的感知能力。
多传感器组合使用,提高探测精度技术已经广泛应用于各个探测技术中,但针对多目标复杂地形的探测的构建,仍是存在技术瓶颈。目前,主要的融合算法,采用航海雷达与电子海图融合,或毫米波雷达与可见光视觉融合等少数设备间的融合,更多的精力放在对目标的精确测量上,而忽视了实际避障中周围环境的复杂性,导致难以精确测量所有目标,和多设备信息数据融合的灵活性。
发明内容
本发明的技术解决问题:克服现有技术的不足,提供一种无人艇用自主避障融合方法和系统,解决了对复杂水域静态和动态目标地图的构建,具有兼容不同传感器的灵活性。
为了解决上述技术问题,本发明公开了一种无人艇用自主避障融合方法,包括:
获取多个不同传感器的检测结果,将各传感器的检测结果记作:
Figure BDA0002339160920000011
其中,K表示传感器的数量,N(k)表示第k个传感器检测到目标的数量,/>
Figure BDA0002339160920000012
表示第k个传感器探测到的第i个目标;
确定每个传感器检测到的所有目标的预测位置、伴随点和强度;
根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;
根据构建出的环境栅格地图,选用Field D*算法进行路径规划。
在上述无人艇用自主避障融合方法中,目标
Figure BDA0002339160920000021
的预测位置通过如下公式解算得到:
Figure BDA0002339160920000022
Figure BDA0002339160920000023
其中,
Figure BDA0002339160920000024
表示第k个传感器探测到的第i个目标距无人艇的距离,tmax表示融合算法的最大预测时间,ct表示预测时间衰减因子,/>
Figure BDA0002339160920000025
和/>
Figure BDA0002339160920000026
分别表示目标在东北天坐标系中的x轴和y轴的坐标位置,/>
Figure BDA0002339160920000027
和/>
Figure BDA0002339160920000028
分别表示目标在东北天坐标系中的x轴和y轴上的速度分量,/>
Figure BDA0002339160920000029
表示目标的测量精度,x轴指向东方向,y轴指向北方向。
在上述无人艇用自主避障融合方法中,目标
Figure BDA00023391609200000210
的强度/>
Figure BDA00023391609200000211
通过如下公式解算得到:
Figure BDA00023391609200000212
其中,fmax表示探测强度的最大值,cf表示强度衰减因子。
在上述无人艇用自主避障融合方法中,目标
Figure BDA00023391609200000213
的伴随点/>
Figure BDA00023391609200000214
通过如下公式解算得到:
Figure BDA00023391609200000215
Figure BDA00023391609200000216
Figure BDA00023391609200000217
其中,cv为预测常数表示,
Figure BDA00023391609200000218
和/>
Figure BDA00023391609200000219
分别表示伴随点/>
Figure BDA00023391609200000220
在东北天坐标系中的x轴和y轴的坐标位置。
在上述无人艇用自主避障融合方法中,根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图,包括:
创建空白栅格地图;其中,空白栅格地图的行数为h像素,列数为w像素,每个像素宽对应于实际距离为a米,最大高强度为fmax,每个像素的初始值为0;
将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图。
在上述无人艇用自主避障融合方法中,将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图,包括:
空白栅格地图采用OMN坐标系;其中,OMN坐标系的原点位于空白栅格地图的左上角,坐标为(0,0),向左表示M轴正方向,向下表示N轴正方向,pm,n=(m,n)为OMN坐标系中的任一点,m的取值范围为[0,w),n的取值范围为[0,h);
有:
Figure BDA0002339160920000031
其中,
Figure BDA0002339160920000032
/>
Figure BDA0002339160920000033
Figure BDA0002339160920000034
其中,
Figure BDA0002339160920000035
表示目标的威胁半径;
计算出空白栅格地图中每一点的像素值,完成环境栅格地图的构建。
在上述无人艇用自主避障融合方法中,目标
Figure BDA0002339160920000036
的分量形式为:
Figure BDA0002339160920000041
本发明还公开了一种无人艇用自主避障融合系统,包括:
获取模块,用于获取多个不同传感器的检测结果,将各传感器的检测结果记作:
Figure BDA0002339160920000042
其中,K表示传感器的数量,N(k)表示第k个传感器检测到目标的数量,/>
Figure BDA0002339160920000043
表示第k个传感器探测到的第i个目标;
解算模块,用于确定每个传感器检测到的所有目标的预测位置、伴随点和强度;
环境栅格地图构建模块,用于根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;
路径规划模块,用于根据构建出的环境栅格地图,选用Field D*算法进行路径规划。
本发明具有以下优点:
本发明公开了一种无人艇用自主避障融合方案,图中像素值越高表明该区域存在目标的置信度越高,在后续避障算法中应当避免从该区域航行。该方案不受信息源类型限制,可以融合多种传感器信息,解决了对复杂水域静态和动态目标地图的构建,具有兼容不同传感器的灵活性。
附图说明
图1是本发明实施例中一种无人艇用自主避障融合方法的步骤流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明公开的实施方式作进一步详细描述。
实施例1
如图1,在本实施例中,该无人艇用自主避障融合方法,包括:
步骤101,获取多个不同传感器的检测结果。
在本实施例中,为了描述方便,将各传感器的检测结果记作:
Figure BDA0002339160920000051
Figure BDA0002339160920000052
其中,K表示传感器的数量,N(k)表示第k个传感器检测到目标的数量,
Figure BDA0002339160920000053
表示第k个传感器探测到的第i个目标。
步骤102,确定每个传感器检测到的所有目标的预测位置、伴随点和强度。
优选的,目标
Figure BDA0002339160920000054
的预测位置可以通过如下公式解算得到:
Figure BDA0002339160920000055
Figure BDA0002339160920000056
其中,
Figure BDA0002339160920000057
表示第k个传感器探测到的第i个目标距无人艇的距离,tmax表示融合算法的最大预测时间,ct表示预测时间衰减因子,/>
Figure BDA0002339160920000058
和/>
Figure BDA0002339160920000059
分别表示目标在东北天坐标系中的x轴和y轴的坐标位置,/>
Figure BDA00023391609200000510
和/>
Figure BDA00023391609200000511
分别表示目标在东北天坐标系中的x轴和y轴上的速度分量,
Figure BDA00023391609200000512
表示目标的测量精度,x轴指向东方向,y轴指向北方向。
优选的,目标
Figure BDA00023391609200000513
的强度/>
Figure BDA00023391609200000514
可以通过如下公式解算得到:
Figure BDA00023391609200000515
其中,fmax表示探测强度的最大值,cf表示强度衰减因子。
优选的,目标
Figure BDA00023391609200000516
的伴随点/>
Figure BDA00023391609200000517
可以通过如下公式解算得到:
Figure BDA00023391609200000518
Figure BDA00023391609200000519
Figure BDA00023391609200000520
其中,cv为预测常数表示,
Figure BDA00023391609200000521
和/>
Figure BDA00023391609200000522
分别表示伴随点/>
Figure BDA00023391609200000523
在东北天坐标系中的x轴和y轴的坐标位置。
在本实施例中,目标
Figure BDA00023391609200000524
的分量形式可以写为:/>
Figure BDA0002339160920000061
步骤103,根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图。
在本实施例中,可以先创建空白栅格地图;然后,将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图。其中,空白栅格地图的行数为h像素,列数为w像素,每个像素宽对应于实际距离为a米,最大高强度为fmax,每个像素的初始值为0。
优选的,将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中的具体流程如下:
空白栅格地图采用OMN坐标系;其中,OMN坐标系的原点位于空白栅格地图的左上角,坐标为(0,0),向左表示M轴正方向,向下表示N轴正方向,pm,n=(m,n)为OMN坐标系中的任一点,m的取值范围为[0,w),n的取值范围为[0,h);
有:
Figure BDA0002339160920000062
其中,
Figure BDA0002339160920000063
Figure BDA0002339160920000064
Figure BDA0002339160920000065
其中,
Figure BDA0002339160920000066
表示目标的威胁半径。
计算出空白栅格地图中每一点的像素值,完成环境栅格地图的构建。
步骤104,根据构建出的环境栅格地图,选用Field D*算法进行路径规划。
在本实施例中,Field D*算法对本领域技术人员为一种常用手段,在此不再赘述。
实施例2
在上述实施例的基础上,本发明还公开了一种无人艇用自主避障融合系统,包括:获取模块,用于获取多个不同传感器的检测结果;解算模块,用于确定每个传感器检测到的所有目标的预测位置、伴随点和强度;环境栅格地图构建模块,用于根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;路径规划模块,用于根据构建出的环境栅格地图,选用Field D*算法进行路径规划。
对于系统实施例而言,由于其与方法实施例相对应,所以描述的比较简单,相关之处参见方法实施例部分的说明即可。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
本发明说明书中未作详细描述的内容属于本领域专业技术人员的公知技术。

Claims (3)

1.一种无人艇用自主避障融合方法,其特征在于,包括:
获取多个不同传感器的检测结果,将各传感器的检测结果记作:
Figure FDA0004162351510000011
其中,K表示传感器的数量,N(k)表示第k个传感器检测到目标的数量,/>
Figure FDA0004162351510000012
表示第k个传感器探测到的第i个目标;
确定每个传感器检测到的所有目标的预测位置、伴随点和强度;
根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;
根据构建出的环境栅格地图,选用Field D*算法进行路径规划;
其中:
目标
Figure FDA0004162351510000013
的预测位置通过如下公式解算得到:
Figure FDA0004162351510000014
Figure FDA0004162351510000015
其中,
Figure FDA0004162351510000016
表示第k个传感器探测到的第i个目标距无人艇的距离,tmax表示融合算法的最大预测时间,ct表示预测时间衰减因子,/>
Figure FDA0004162351510000017
和/>
Figure FDA0004162351510000018
分别表示目标在东北天坐标系中的x轴和y轴的坐标位置,/>
Figure FDA0004162351510000019
和/>
Figure FDA00041623515100000110
分别表示目标在东北天坐标系中的x轴和y轴上的速度分量,/>
Figure FDA00041623515100000111
表示目标的测量精度,x轴指向东方向,y轴指向北方向;
目标
Figure FDA00041623515100000112
的强度fi k通过如下公式解算得到:
Figure FDA00041623515100000113
其中,fmax表示探测强度的最大值,cf表示强度衰减因子;
目标
Figure FDA00041623515100000114
的伴随点/>
Figure FDA00041623515100000115
通过如下公式解算得到:
Figure FDA00041623515100000116
Figure FDA00041623515100000117
Figure FDA00041623515100000118
其中,cv为预测常数表示,
Figure FDA00041623515100000119
和/>
Figure FDA00041623515100000120
分别表示伴随点/>
Figure FDA00041623515100000121
在东北天坐标系中的x轴和y轴的坐标位置,ri k表示目标的威胁半径;
根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图,包括:
创建空白栅格地图;其中,空白栅格地图的行数为h像素,列数为w像素,每个像素宽对应于实际距离为a米,最大高强度为fmax,每个像素的初始值为0;
将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图,包括:
空白栅格地图采用OMN坐标系;其中,OMN坐标系的原点位于空白栅格地图的左上角,坐标为(0,0),向左表示M轴正方向,向下表示N轴正方向,pm,n=(m,n)为OMN坐标系中的任一点,m的取值范围为[0,w),n的取值范围为[0,h);
有:
Figure FDA0004162351510000021
其中,
Figure FDA0004162351510000022
Figure FDA0004162351510000023
Figure FDA0004162351510000024
计算出空白栅格地图中每一点的像素值,完成环境栅格地图的构建。
2.根据权利要求1所述的无人艇用自主避障融合方法,其特征在于,目标
Figure FDA0004162351510000025
的分量形式为:
Figure FDA0004162351510000031
3.一种无人艇用自主避障融合系统,其特征在于,包括:
获取模块,用于获取多个不同传感器的检测结果,将各传感器的检测结果记作:
Figure FDA0004162351510000032
其中,K表示传感器的数量,N(k)表示第k个传感器检测到目标的数量,/>
Figure FDA0004162351510000033
表示第k个传感器探测到的第i个目标;
解算模块,用于确定每个传感器检测到的所有目标的预测位置、伴随点和强度;
环境栅格地图构建模块,用于根据确定的每个传感器检测到的所有目标的预测位置、伴随点和强度,构建环境栅格地图;
路径规划模块,用于根据构建出的环境栅格地图,选用Field D*算法进行路径规划;
其中:
目标
Figure FDA0004162351510000034
的预测位置通过如下公式解算得到:/>
Figure FDA0004162351510000035
Figure FDA0004162351510000036
其中,
Figure FDA0004162351510000037
表示第k个传感器探测到的第i个目标距无人艇的距离,tmax表示融合算法的最大预测时间,ct表示预测时间衰减因子,/>
Figure FDA0004162351510000038
和/>
Figure FDA0004162351510000039
分别表示目标在东北天坐标系中的x轴和y轴的坐标位置,/>
Figure FDA00041623515100000310
和/>
Figure FDA00041623515100000311
分别表示目标在东北天坐标系中的x轴和y轴上的速度分量,/>
Figure FDA00041623515100000312
表示目标的测量精度,x轴指向东方向,y轴指向北方向;
目标
Figure FDA00041623515100000313
的强度fi k通过如下公式解算得到:
Figure FDA00041623515100000314
其中,fmax表示探测强度的最大值,cf表示强度衰减因子;
目标
Figure FDA0004162351510000041
的伴随点/>
Figure FDA0004162351510000042
通过如下公式解算得到:
Figure FDA0004162351510000043
Figure FDA0004162351510000044
Figure FDA0004162351510000045
其中,cv为预测常数表示,
Figure FDA0004162351510000046
和/>
Figure FDA0004162351510000047
分别表示伴随点/>
Figure FDA0004162351510000048
在东北天坐标系中的x轴和y轴的坐标位置,ri k表示目标的威胁半径;
环境栅格地图构建模块,具体用于:
创建空白栅格地图;其中,空白栅格地图的行数为h像素,列数为w像素,每个像素宽对应于实际距离为a米,最大高强度为fmax,每个像素的初始值为0;
将确定的每个传感器检测到的所有目标的预测位置、伴随点和强度叠加到空白栅格地图中,得到环境栅格地图,包括:
空白栅格地图采用OMN坐标系;其中,OMN坐标系的原点位于空白栅格地图的左上角,坐标为(0,0),向左表示M轴正方向,向下表示N轴正方向,pm,n=(m,n)为OMN坐标系中的任一点,m的取值范围为[0,w),n的取值范围为[0,h);
有:
Figure FDA0004162351510000049
其中,
Figure FDA00041623515100000410
/>
Figure FDA00041623515100000411
Figure FDA00041623515100000412
计算出空白栅格地图中每一点的像素值,完成环境栅格地图的构建。
CN201911368924.6A 2019-12-26 2019-12-26 一种无人艇用自主避障融合方法和系统 Active CN111061273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911368924.6A CN111061273B (zh) 2019-12-26 2019-12-26 一种无人艇用自主避障融合方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911368924.6A CN111061273B (zh) 2019-12-26 2019-12-26 一种无人艇用自主避障融合方法和系统

Publications (2)

Publication Number Publication Date
CN111061273A CN111061273A (zh) 2020-04-24
CN111061273B true CN111061273B (zh) 2023-06-06

Family

ID=70303945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911368924.6A Active CN111061273B (zh) 2019-12-26 2019-12-26 一种无人艇用自主避障融合方法和系统

Country Status (1)

Country Link
CN (1) CN111061273B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111457927B (zh) * 2020-04-26 2021-03-05 北京工商大学 动态障碍物下的无人巡航船多目标路径规划方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157103B1 (ko) * 2009-09-16 2012-06-22 동국대학교 산학협력단 자기 조직화에 기반한 위치 측정 장치, 그 방법 및 기록매체
US9081383B1 (en) * 2014-01-22 2015-07-14 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
JP6754518B2 (ja) * 2014-12-08 2020-09-16 国立大学法人 筑波大学 位置推定システム
US9710714B2 (en) * 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
CN105043396B (zh) * 2015-08-14 2018-02-02 北京进化者机器人科技有限公司 一种移动机器人室内自建地图的方法和系统
RU2642167C2 (ru) * 2015-08-14 2018-01-24 Самсунг Электроникс Ко., Лтд. Устройство, способ и система для реконструкции 3d-модели объекта
JP2017086172A (ja) * 2015-11-02 2017-05-25 キヤノン株式会社 被検体情報取得装置およびその制御方法
US10813029B2 (en) * 2017-07-21 2020-10-20 Perspecta Labs Inc. Directed handovers in a cellular network for airborne mobile telemetry
CN110262492B (zh) * 2019-06-25 2022-04-08 北京航天控制仪器研究所 一种无人艇的实时避碰和目标跟踪方法

Also Published As

Publication number Publication date
CN111061273A (zh) 2020-04-24

Similar Documents

Publication Publication Date Title
CN110414396B (zh) 一种基于深度学习的无人艇感知融合算法
CN109828592B (zh) 一种障碍物检测的方法及设备
CN110531376B (zh) 用于港口无人驾驶车辆的障碍物检测和跟踪方法
Levinson et al. Traffic light mapping, localization, and state detection for autonomous vehicles
CN110889808B (zh) 一种定位的方法、装置、设备及存储介质
CN110850403A (zh) 一种多传感器决策级融合的智能船水面目标感知识别方法
RU2720140C1 (ru) Способ оценки собственной позиции и устройство оценки собственной позиции
Carreras et al. Vision-based localization of an underwater robot in a structured environment
CN207752371U (zh) 一种机器人自主导航装置及机器人
US11538241B2 (en) Position estimating device
CN108089586A (zh) 一种机器人自主导航装置、方法及机器人
EP2597485A2 (en) Rapid lidar image correlation for ground navigation
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
US20220035036A1 (en) Method and apparatus for positioning movable device, and movable device
CN112904358B (zh) 基于几何信息的激光定位方法
CN112781599A (zh) 确定车辆的位置的方法
CN113124864A (zh) 一种采用机器视觉和惯导融合的水面导航方法
CN114442101A (zh) 基于成像毫米波雷达的车辆导航方法、装置、设备及介质
CN111061273B (zh) 一种无人艇用自主避障融合方法和系统
CN114061565B (zh) 一种无人船舶slam及其应用方法
CN115151954A (zh) 可行驶区域检测的方法和装置
CN113376643A (zh) 距离检测方法、装置及电子设备
Hebel et al. Change detection in urban areas by direct comparison of multi-view and multi-temporal ALS data
CN114488026A (zh) 基于4d毫米波雷达的地下停车库可通行空间检测方法
Zhong et al. Dynamic obstacle detection and tracking based on 3D lidar

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220412

Address after: 266200 aoshanwei sub district office, Jimo District, Qingdao City, Shandong Province

Applicant after: Aerospace Times (Qingdao) marine equipment technology development Co.,Ltd.

Address before: 142 box 403, box 100854, Beijing, Beijing, Haidian District

Applicant before: BEIJIGN INSTITUTE OF AEROSPACE CONTROL DEVICES

GR01 Patent grant
GR01 Patent grant