CN113312992A - 一种基于多源传感器信息融合的动态物体感知及预测方法 - Google Patents
一种基于多源传感器信息融合的动态物体感知及预测方法 Download PDFInfo
- Publication number
- CN113312992A CN113312992A CN202110537662.2A CN202110537662A CN113312992A CN 113312992 A CN113312992 A CN 113312992A CN 202110537662 A CN202110537662 A CN 202110537662A CN 113312992 A CN113312992 A CN 113312992A
- Authority
- CN
- China
- Prior art keywords
- target object
- source sensor
- prediction
- perception
- information fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多源传感器信息融合的动态物体感知及预测方法,包括以下步骤:通过多源传感器对目标物体类型进行检测,得到彩色点云数据。通过多源传感器对目标物体进行位置估计:多源传感器的标定模块通过标定法对目标物体进行准确的内参和外参标定。计算目标物体位于三维坐标系中的位置。多源传感器给上述步骤的信息附上时间戳。通过目标物体其位置的时序变化得出目标物体的运动方向和速度。根据位置和速度的变化,做出发生碰撞可能性的预测。与现有的技术相比,本发明具有如下优点:通过感知预测获得的场景中动态物体类型、位置、速度、运动轨迹等信息可为无人驾驶车辆或自主机器人提供广域的感知信息,从而提高作业的安全性和效率。
Description
技术领域
本发明涉及线计算机视觉和智能交通技术领域,特别是涉及一种基于多源传感器信息融合的动态物体感知及预测方法。
背景技术
随着汽车作为代步工具在日常生活中的广泛普及的快速发展,自动驾驶和辅助驾驶功能已成为新型智能车的发展趋势。然而近期由于自动驾驶和辅助驾驶导致的事故频发,这对无人驾驶或辅助驾驶的安全性提出新的挑战。受到视野盲区的限制,为了防止无人驾驶车辆和行进时与临近障碍物发生碰撞,现有方案常采用红外激光方案,通过测距保证车辆行进过程中的安全。然而,目前这种方案存在如下两个问题:(1)红外激光传感器的局限性:红外激光测距能较准确提供最近障碍物的距离信息,但是对被测物体所属类别,是否为动态物体,是否对当前驾驶器产生潜在威胁没有进一步的感知能力。(2)单一传感器的局限性:单一红外传感器仅能测量距离信息,可提供的信息有限,而相机常常受到视野和气候天气变化的影响较大,雷达受限于有限的感受野,热感可提供的温度信息有助于判别临近动态物体是否为具有热源的车辆或者行人但目前为止并没有被应用于车辆的感知。因此目前需要一种能够集成多源传感器,利用标定和信息整合各种传感器的优势规避和互相弥补各自缺陷,实时对场景内车辆行人等动态物体进行检测、识别和位置估计的方法,进而提高无人驾驶车辆及自主机器人运行时的感知能力和安全性的。
发明内容
本发明的目的是克服了现有技术的问题,提供了一种基于多源传感器信息融合的动态物体感知及预测方法。
为了达到上述目的,本发明采用以下方案:
一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,包括以下步骤:
S01通过多源传感器对目标物体类型进行检测,得到彩色点云数据;
S02通过多源传感器对目标物体进行位置估计:
S03多源传感器的标定模块通过标定法对目标物体进行准确的内参和外参标定;
S04通过坐标转换的数学模型计算目标物体位于三维坐标系中的位置;
S05多源传感器跟踪目标物体并给上述S01-S04步骤的信息附上时间戳;
S06通过目标物体其位置的时序变化得出目标物体的运动方向和速度;
S07根据位置和速度的变化,对目标物体的运动轨迹通过数据拟合做出与临近物体发生碰撞可能性的预测。
进一步的,多源传感器通过3CCD彩色相机与热感相机对目标物体类型进行检测。
进一步的,S01步骤还包括通过视觉算法对动态物体进行分类。
进一步的,通过多源传感器通过深度相机对目标物体进行位置估计。
进一步的,所述深度相机为结构光深度相机。
进一步的,深度相机为TOF。
进一步的,标定法为圆孔标定法。
进一步的,标定法为张氏标定法。
与现有的技术相比,本发明具有如下优点:通过多源传感器标定和信息融合,可以整合各种传感器的优势并规避和互相弥补各自的缺陷。通过基于深度学习的感知技术可以对环境中动态物体所属类别是否为动态物体,是否对当前驾驶器产生潜在威胁没有进一步的感知能力。因此本发明通过感知预测获得的场景中动态物体类型、位置、速度、运动轨迹等信息可为无人驾驶车辆或自主机器人提供广域的感知信息,从而提高作业的安全性和效率。
附图说明
下面结合附图和具体实施方式对本申请作进一步详细的说明。
图1是本发明的一种基于多源传感器信息融合的动态物体感知及预测方法检测步骤示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
实施例一
一种基于多源传感器信息融合的动态物体感知及预测方法,包括以下步骤:
S01通过多源传感器对目标物体类型进行检测,得到彩色点云数据;
S02通过多源传感器对目标物体进行位置估计:
S03多源传感器的标定模块通过标定法对目标物体进行准确的内参和外参标定;
S04通过坐标转换的数学模型计算目标物体位于三维坐标系中的位置;
S05多源传感器跟踪目标物体并给上述步骤收集的信息附上时间戳;
S06通过目标物体其位置的时序变化得出目标物体的运动方向和速度;
S07根据位置和速度的变化,对目标物体的运动轨迹通过数据拟合做出与临近物体发生碰撞可能性的预测。
优选的,多源传感器通过3CCD彩色相机对目标物体类型进行检测。电荷藕合器件图像传感器CCD芯片使用一种高感光度的半导体材料制成,能把光线转变成电荷,通过模数转换器芯片转换成数字信号。数字信号经过压缩以后由相机内部的闪速存储器或内置硬盘卡保存,因而可以把数据传输给计算机,并借助于计算机的处理手段,根据需要和想像来修改图像。CCD芯片由许多感光单位组成,通常以百万像素为单位。当CCD表面受到光线照射时,每个感光单位会将电荷反映在组件上,所有的感光单位所产生的信号加在一起,就构成了一幅完整的画面。3CCD彩色相机为采用了3个CCD芯片的彩色相机,性能优良,提高检测的精准度。
优选的,S01步骤还包括通过视觉算法对动态物体进行分类。如卷积神经网络(CNN)的图像分类架构。
优选的,通过多源传感器通过深度相机对目标物体进行位置估计。
优选的,所述深度相机为结构光深度相机。结构光英文叫做Structured light。其基本原理是,通过近红外激光器将具有一定结构特征的光线投射到被拍摄物体上,再由专门的红外摄像头进行采集。这种具备一定结构的光线,会因被摄物体的不同深度区域,而采集不同的图像相位信息,然后通过运算单元将这种结构的变化换算成深度信息,以此来获得三维结构。简单来说就是,通过光学手段获取被拍摄物体的三维结构,再将获取到的信息进行更深入的应用。通常采用特定波长的不可见的红外激光作为光源,它发射出来的光经过一定的编码投影在物体上,通过一定算法来计算返回的编码图案的畸变来得到物体的位置和深度信息。根据编码图案不同一般有:条纹结构光,代表传感器enshape;编码结构光,代表传感器Mantis Vision,Realsense(F200);散斑结构光,代表传感器apple(primesense),奥比中光。
优选的,标定法为圆孔标定法。目前圆孔标定法在三维扫描仪中应用非常广泛。在针对相机的标定过程中,需要知道特征点中心的投影仪投射的光的信息(如相移法)。但是我们的棋盘格由于是特征点是角点,所以不容易获得特征点中心的光信息。这是圆点靶标相对于棋盘格的一个优势。华中科技大学的一篇关于相机标定文章《Accuratecalibration method for a structured light system》对圆孔标定法有详细描述,因此不再详述。
实施例二
一种基于多源传感器信息融合的动态物体感知及预测方法,包括以下步骤:
S01通过多源传感器对目标物体类型进行检测,得到彩色点云数据;
S02通过多源传感器对目标物体进行位置估计:
S03多源传感器的标定模块通过标定法对目标物体进行准确的内参和外参标定;
S04通过坐标转换的数学模型计算目标物体位于三维坐标系中的位置;
S05多源传感器跟踪目标物体并给上述步骤收集的信息附上时间戳;
S06通过目标物体其位置的时序变化得出目标物体的运动方向和速度;
S07根据位置和速度的变化,对目标物体的运动轨迹通过数据拟合做出与临近物体发生碰撞可能性的预测。
优选的,多源传感器通过3CCD彩色相机对目标物体类型进行检测。电荷藕合器件图像传感器CCD芯片使用一种高感光度的半导体材料制成,能把光线转变成电荷,通过模数转换器芯片转换成数字信号。数字信号经过压缩以后由相机内部的闪速存储器或内置硬盘卡保存,因而可以把数据传输给计算机,并借助于计算机的处理手段,根据需要和想像来修改图像。CCD芯片由许多感光单位组成,通常以百万像素为单位。当CCD表面受到光线照射时,每个感光单位会将电荷反映在组件上,所有的感光单位所产生的信号加在一起,就构成了一幅完整的画面。3CCD彩色相机为采用了3个CCD芯片的彩色相机,性能优良,提高检测的精准度。
优选的,S01步骤还包括通过视觉算法对动态物体进行分类。如卷积神经网络(CNN)的图像分类架构。
优选的,通过多源传感器通过深度相机对目标物体进行位置估计。
优选的,深度相机为TOF。TOF是测量光飞行时间来取得距离,具体而言就是通过给目标连续发射激光脉冲,然后用传感器接收从反射光线,通过探测光脉冲的飞行往返时间来得到确切的目标物距离。因为光速激光通过直接测光飞行时间实际不可行,一般通过检测通过一定手段调制后的光波的相位偏移来实现。在本实施例中,采用脉冲调制(PulsedModulation)。脉冲调制通过高精度时钟进行测量,发出高频高强度激光。TOF并非基于特征匹配,在测试距离变远时,精度也不会下降很快。因此本实施例中的深度相机具有检测距离远在激光能量够的情况下可达几十米以及受环境光干扰比较小等优点。
优选的,标定法为张氏标定法。“张氏标定”又称“张正友标定”,是指张正友教授于1998年提出的单平面棋盘格的摄像机标定方法。张氏标定法已经作为工具箱或封装好的函数被广泛应用。张氏标定的原文为“A Flexible New Technique forCameraCalibration”。此文中所提到的方法,为相机标定提供了很大便利,并且具有很高的精度。张氏标定法可以不需要特殊的标定物,只需要一张打印出来的棋盘格。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请技术原理的前提下,还可以做出若干改进和替换,这些改进和替换也应视为本申请的保护范围。
Claims (8)
1.一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,包括以下步骤:
S01通过多源传感器对目标物体类型进行检测,得到彩色点云数据;
S02通过多源传感器对目标物体进行位置估计:
S03多源传感器的标定模块通过标定法对目标物体进行准确的内参和外参标定;
S04通过坐标转换的数学模型计算目标物体位于三维坐标系中的位置;
S05多源传感器跟踪目标物体并给上述S01-S04步骤的信息附上时间戳;
S06通过目标物体其位置的时序变化得出目标物体的运动方向和速度;
S07根据位置和速度的变化,对目标物体的运动轨迹通过数据拟合做出与临近物体发生碰撞可能性的预测。
2.根据权利要求1所述的一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,所述多源传感器通过3CCD彩色相机与热感相机对目标物体类型进行检测。
3.根据权利要求1所述的一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,所述S01步骤还包括通过视觉算法对动态物体进行分类。
4.根据权利要求1所述的一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,通过多源传感器通过深度相机对目标物体进行位置估计。
5.根据权利要求1所述的一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,所述深度相机为结构光深度相机。
6.根据权利要求1所述的一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,所述深度相机为TOF。
7.根据权利要求1所述的一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,所述标定法为圆孔标定法。
8.根据权利要求1所述的一种基于多源传感器信息融合的动态物体感知及预测方法,其特征在于,所述标定法为张氏标定法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110537662.2A CN113312992A (zh) | 2021-05-18 | 2021-05-18 | 一种基于多源传感器信息融合的动态物体感知及预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110537662.2A CN113312992A (zh) | 2021-05-18 | 2021-05-18 | 一种基于多源传感器信息融合的动态物体感知及预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113312992A true CN113312992A (zh) | 2021-08-27 |
Family
ID=77373650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110537662.2A Pending CN113312992A (zh) | 2021-05-18 | 2021-05-18 | 一种基于多源传感器信息融合的动态物体感知及预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113312992A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114065876A (zh) * | 2022-01-11 | 2022-02-18 | 华砺智行(武汉)科技有限公司 | 基于路侧多传感器的数据融合方法、装置、系统及介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104723350A (zh) * | 2015-03-16 | 2015-06-24 | 珠海格力电器股份有限公司 | 工业机器人安全防护智能控制方法及系统 |
CN106780618A (zh) * | 2016-11-24 | 2017-05-31 | 周超艳 | 基于异构深度摄像机的三维信息获取方法及其装置 |
CN108214487A (zh) * | 2017-12-16 | 2018-06-29 | 广西电网有限责任公司电力科学研究院 | 基于双目视觉和激光雷达的机器人目标定位和抓取方法 |
CN108399610A (zh) * | 2018-03-20 | 2018-08-14 | 上海应用技术大学 | 一种融合rgb图像信息的深度图像增强方法 |
CN108568868A (zh) * | 2018-03-08 | 2018-09-25 | 贵州电网有限责任公司 | 一种自动避障的树障清理空中机器人和避障方法 |
CN108830216A (zh) * | 2018-06-11 | 2018-11-16 | 北京理工大学 | 一种视场可调的连续变焦目标识别系统及方法 |
CN109448058A (zh) * | 2018-11-12 | 2019-03-08 | 北京拓疆者智能科技有限公司 | 装载位置三维坐标获取方法、系统及图像识别设备 |
CN109634279A (zh) * | 2018-12-17 | 2019-04-16 | 武汉科技大学 | 基于激光雷达与单目视觉的物体定位方法 |
CN110244322A (zh) * | 2019-06-28 | 2019-09-17 | 东南大学 | 基于多源传感器的路面施工机器人环境感知系统及方法 |
US20190317519A1 (en) * | 2018-04-17 | 2019-10-17 | Baidu Usa Llc | Method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs) |
CN110658531A (zh) * | 2019-08-23 | 2020-01-07 | 畅加风行(苏州)智能科技有限公司 | 一种用于港口自动驾驶车辆的动态目标追踪方法 |
CN110723079A (zh) * | 2019-10-31 | 2020-01-24 | 北京百度网讯科技有限公司 | 车载传感器的位姿调整方法、装置、设备和介质 |
CN111247557A (zh) * | 2019-04-23 | 2020-06-05 | 深圳市大疆创新科技有限公司 | 用于移动目标物体检测的方法、系统以及可移动平台 |
CN111908342A (zh) * | 2019-05-07 | 2020-11-10 | 重庆好德译信息技术有限公司 | 一种适用于塔机吊臂的辅助防碰撞方法和系统 |
CN111951305A (zh) * | 2020-08-20 | 2020-11-17 | 重庆邮电大学 | 一种基于视觉和激光雷达的目标检测和运动状态估计方法 |
CN112325795A (zh) * | 2020-10-16 | 2021-02-05 | 华中科技大学鄂州工业技术研究院 | 一种基于机器视觉引导的三维目标飞行时间测量方法、系统和装置 |
CN112378397A (zh) * | 2020-11-02 | 2021-02-19 | 中国兵器工业计算机应用技术研究所 | 无人机跟踪目标的方法、装置及无人机 |
-
2021
- 2021-05-18 CN CN202110537662.2A patent/CN113312992A/zh active Pending
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104723350A (zh) * | 2015-03-16 | 2015-06-24 | 珠海格力电器股份有限公司 | 工业机器人安全防护智能控制方法及系统 |
CN106780618A (zh) * | 2016-11-24 | 2017-05-31 | 周超艳 | 基于异构深度摄像机的三维信息获取方法及其装置 |
CN108214487A (zh) * | 2017-12-16 | 2018-06-29 | 广西电网有限责任公司电力科学研究院 | 基于双目视觉和激光雷达的机器人目标定位和抓取方法 |
CN108568868A (zh) * | 2018-03-08 | 2018-09-25 | 贵州电网有限责任公司 | 一种自动避障的树障清理空中机器人和避障方法 |
CN108399610A (zh) * | 2018-03-20 | 2018-08-14 | 上海应用技术大学 | 一种融合rgb图像信息的深度图像增强方法 |
US20190317519A1 (en) * | 2018-04-17 | 2019-10-17 | Baidu Usa Llc | Method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs) |
CN108830216A (zh) * | 2018-06-11 | 2018-11-16 | 北京理工大学 | 一种视场可调的连续变焦目标识别系统及方法 |
CN109448058A (zh) * | 2018-11-12 | 2019-03-08 | 北京拓疆者智能科技有限公司 | 装载位置三维坐标获取方法、系统及图像识别设备 |
CN109634279A (zh) * | 2018-12-17 | 2019-04-16 | 武汉科技大学 | 基于激光雷达与单目视觉的物体定位方法 |
CN111247557A (zh) * | 2019-04-23 | 2020-06-05 | 深圳市大疆创新科技有限公司 | 用于移动目标物体检测的方法、系统以及可移动平台 |
CN111908342A (zh) * | 2019-05-07 | 2020-11-10 | 重庆好德译信息技术有限公司 | 一种适用于塔机吊臂的辅助防碰撞方法和系统 |
CN110244322A (zh) * | 2019-06-28 | 2019-09-17 | 东南大学 | 基于多源传感器的路面施工机器人环境感知系统及方法 |
CN110658531A (zh) * | 2019-08-23 | 2020-01-07 | 畅加风行(苏州)智能科技有限公司 | 一种用于港口自动驾驶车辆的动态目标追踪方法 |
CN110723079A (zh) * | 2019-10-31 | 2020-01-24 | 北京百度网讯科技有限公司 | 车载传感器的位姿调整方法、装置、设备和介质 |
CN111951305A (zh) * | 2020-08-20 | 2020-11-17 | 重庆邮电大学 | 一种基于视觉和激光雷达的目标检测和运动状态估计方法 |
CN112325795A (zh) * | 2020-10-16 | 2021-02-05 | 华中科技大学鄂州工业技术研究院 | 一种基于机器视觉引导的三维目标飞行时间测量方法、系统和装置 |
CN112378397A (zh) * | 2020-11-02 | 2021-02-19 | 中国兵器工业计算机应用技术研究所 | 无人机跟踪目标的方法、装置及无人机 |
Non-Patent Citations (4)
Title |
---|
YALI YUAN ET AL: "RACE: Reinforced Cooperative Autonomous Vehicle Collision Avoidance", 《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》 * |
刘国华编著: "《HALCON数字图像处理》", 30 June 2018 * |
梁嘉俊: "室内移动机器人的鲁棒定位与三维避障方法研究", 《万方数据库》 * |
秦玉鑫等: "针对复杂环境的模块化栅格地图构建算法", 《控制工程》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114065876A (zh) * | 2022-01-11 | 2022-02-18 | 华砺智行(武汉)科技有限公司 | 基于路侧多传感器的数据融合方法、装置、系统及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7203217B2 (ja) | 構造化光照明付き飛行時間型センサ | |
KR101980697B1 (ko) | 객체 정보 획득 장치 및 방법 | |
Taraba et al. | Utilization of modern sensors in autonomous vehicles | |
RU151809U1 (ru) | Видеосистема для обеспечения безопасности транспортных средств | |
AU2023201028B2 (en) | Hybrid time-of-flight and imager module | |
JP2020003236A (ja) | 測距装置、移動体、測距方法、測距システム | |
CN111712828A (zh) | 物体检测方法、电子设备和可移动平台 | |
US11454723B2 (en) | Distance measuring device and distance measuring device control method | |
JP7131180B2 (ja) | 測距装置、測距方法、プログラム、移動体 | |
EP3712642B1 (en) | Light signal detection device, range finding device, and detection method | |
CN113312992A (zh) | 一种基于多源传感器信息融合的动态物体感知及预测方法 | |
Steinbaeck et al. | Occupancy grid fusion of low-level radar and time-of-flight sensor data | |
CN114365003A (zh) | 调节设备和激光雷达测量设备 | |
US20190056217A1 (en) | Three dimensional image measurement system | |
US11815626B2 (en) | Method for detecting intensity peaks of a specularly reflected light beam | |
US20240142628A1 (en) | Object detection device and object detection method | |
WO2023149335A1 (ja) | 測距装置及び測距方法 | |
JP7103324B2 (ja) | 物体認識用異常検出装置及び物体認識用異常検出プログラム | |
WO2023281825A1 (ja) | 光源装置、測距装置及び測距方法 | |
US20230184950A1 (en) | Non-Contiguous 3D LIDAR Imaging Of Targets With Complex Motion | |
Scholes et al. | Drone orientation detection at a distance of 50 m using a SPAD array camera | |
Jiménez et al. | System architecture and algorithms for detection, tracking and classification of vehicles in a free flow toll gantry using LiDARs | |
JP2023519061A (ja) | 少なくとも1つの交通参加者を検出する方法 | |
TWI436038B (zh) | Light intensity image detection system and its detection method | |
CN117850412A (zh) | 一种基于多传感器云融合的室内agv机器人避障方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210827 |
|
RJ01 | Rejection of invention patent application after publication |