CN110873879A - 一种多源异构传感器特征深度融合的装置及方法 - Google Patents
一种多源异构传感器特征深度融合的装置及方法 Download PDFInfo
- Publication number
- CN110873879A CN110873879A CN201811004984.5A CN201811004984A CN110873879A CN 110873879 A CN110873879 A CN 110873879A CN 201811004984 A CN201811004984 A CN 201811004984A CN 110873879 A CN110873879 A CN 110873879A
- Authority
- CN
- China
- Prior art keywords
- target
- machine vision
- fusion
- source heterogeneous
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Abstract
本发明提供一种多源异构传感器特征深度融合的装置及方法,涉及人工智能技术领域。其装置包括N个激光雷达及机器视觉的多源异构传感器阵列、ZYNQ‑7000平台、FLASH大型存储芯片。通过多源异构多种传感器获取目标的多维数据特征,在ZYNQ‑7000平台,通过不同的多源异构传感器的坐标特征变换,形成具有统一维度的特征空间,通过建立深度学习网络,将多源异构传感器进行融合,实现机器视觉与激光雷达目标捕获、信息提取与特征分类及融合。本发明为无人机器目标特征识别及决策控制提供准确、可靠、具有鲁棒性的环境数据,对提高主动避撞识别系统性能、减少碰撞事故发生具有重要意义。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种多源异构传感器特征深度融合的装置及方法。
背景技术
当前,无人机器数量的持续增加使得各种事故频繁发生,造成严重的生命财产损失。其原因是无人机器所采用的单一传感器,如雷达、视觉等,并不能完整获取目标信息。针对信息的运动状态、距离状态、位置状态等特征状态,无法进行全面感知。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种多源异构传感器特征深度融合的装置及方法,基于深度学习技术,通过深度学习模型完成空间、时间特征信息融合算法,为无人机器目标特征识别及决策控制提供准确、可靠、具有鲁棒性的环境数据,对提高主动避撞识别系统性能、减少碰撞事故发生具有重要意义。
为解决上述技术问题,本发明所采取的技术方案是:
一方面,本发明提供一种多源异构传感器特征深度融合的装置,包括N个激光雷达及机器视觉的多源异构传感器阵列、ZYNQ-7000平台、FLASH大型存储芯片;ZYNQ-7000平台包括ARM Cortex A9双核、FPGA逻辑计算单元;N个激光雷达及机器视觉的多元传感器阵列通过光口或者网口与ARM Cortex A9双核实现连接;FPGA逻辑计算单元外接FLASH大型存储芯片;
多源异构传感器阵列用于获取目标的多维数据特征;FPGA逻辑计算单元,用于实现机器视觉与激光雷达目标捕获、信息提取与特征分类及融合,包括目标识别及分类模块、空间坐标变换模块、信息融合模块、行为决策模块;目标识别及分类模块用于配合FLASH大型存储芯片实现目标识别以及特征库匹配建立及学习;空间坐标变换模块用于实现激光雷达通过坐标映射形成统一的信息平面,并实现机器视觉模块坐标系和像素坐标系之间的转换关系;信息融合模块用于建立深度神经网络,构建雷达捕获目标特征空间融合模型,同时多源传感器进行特征校正,构建多传感器数据时间融合模型,将多源异构传感器数据进行融合,并且通过空间模型校正;行为决策模块用于利用时间及空间融合模型计算出探测目标在特征空间上的投影点,同时将投影点中建立包含机器视觉目标图像的感兴趣区域,利用深度神经网络在感兴趣区域内进行搜索完成目标识别对象的检测,并当确定前方障碍物的情况下,将该障碍物的运动状态信息提交给基于深度学习网络的中央控制系统进行避撞预警决策。
进一步地,所述多源异构传感器阵列中的激光雷达采用固态激光雷达Leddar Vu,实现8线光束数量,可实现的最大探测距离为185米;所述多源异构传感器阵列中的机器视觉采用红外高清网络摄像机海康威视DS-2CD3T25-I3。
另一方面,本发明还提供一种多源异构传感器特征深度融合的方法,采用上述的多源异构传感器特征深度融合的装置实现,该方法具体如下:
通过多源异构多种传感器获取环境信息,即获取目标的多维数据特征,具体通过激光雷达获取目标距离、轮廓特征,这些数据特征位于雷达二维扫描平面坐标系中,通过雷达二维成像空间,给出目标障碍物相对空间位置;通过机器视觉获取目标像素特征;
根据激光雷达与机器视觉相对固定位置,通过距离建立的先验知识,通过贝叶斯网络的先验模型,形成训练深度学习网络,通过训练完成的深度学习网络,建立激光雷达坐标系和机器视觉坐标系间的转换关系,进而构建雷达捕获目标特征空间融合模型;将机器视觉的二维识别目标像素点,在雷达二维平面进行映射,根据计算机机器视觉环境相关识别算法及机器视觉成像原理,通过深度融合网络,建立机器视觉坐标系与像素坐标系间的线性转换关系;同时考虑到机器视觉对目标成像的畸变现象,通过先验的机器视觉训练库进行非线性畸变校正;结合以上两种转换关系,实现激光雷达坐标系和机器视觉图像像素坐标之间的转换;
结合其他多源传感器,形成特定场景的目标特征获取,进行特征校正,构建多传感器数据时间融合模型,并且通过空间模型校正;其他多源传感器包括声学传感器、红外传感器、热成像传感器、GPS;
利用时间及空间融合模型计算出探测目标在特征空间上的投影点,同时将投影点中建立包含机器视觉目标图像的感兴趣区域,利用深度学习网络在感兴趣区域内进行搜索完成目标识别对象的检测;当确定前方障碍物的情况下,将该障碍物的运动状态信息提交给基于深度学习网络的中央控制系统进行避撞预警决策。
采用上述技术方案所产生的有益效果在于:本发明提供的多源异构传感器特征深度融合的装置及方法,通过安装于无人机、汽车、飞艇、卫星等装备的多源异构多种传感器,获取环境信息,通过激光雷达获取目标距离、轮廓特征,以及机器视觉获取目标像素特征,通过不同的多源异构传感器的坐标特征变换,形成具有统一维度的特征空间,通过建立深度学习网络,将多源异构传感器进行融合,实现机器视觉与激光雷达目标捕获、信息提取与特征分类及融合,为装备的自主决策提供准确、可靠、具有鲁棒性的决策判决性能。本发明由于通过训练特征库加载校正,使得多传感器测量数据在时间上、空间上达到同步;利用深度学习网络在感兴趣区域内进行搜索完成目标识别对象的检测,能有效提高目标的识别速度,减小了图像检测、模式识别搜索范围,避免在整幅图像上进行遍历性搜索,提高检测系统的实时性;利用图像对障碍物进行存在性验证,增加了检测系统的准确性和鲁棒性。
附图说明
图1为本发明实施例提供的多源异构传感器特征深度融合的装置结构框图;
图2为本发明实施例提供的多源异构传感器特征深度融合的方法的逻辑单元连接图;
图3为本发明实施例提供的基于深度学习算法的机器视觉与激光融合决策网络示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
一种多源异构传感器特征深度融合的装置,包括N个激光雷达及机器视觉的多源异构传感器阵列、ZYNQ-7000平台、FLASH大型存储芯片;ZYNQ-7000平台是一款全可编程片上系统(All Programmable SoC),该芯片集成了ARM Cortex A9双核、FPGA逻辑计算单元;N个激光雷达及机器视觉的多元传感器阵列通过光口或者网口与ARM Cortex A9双核实现连接;FPGA逻辑计算单元外接FLASH大型存储芯片。
多源异构传感器阵列用于获取目标的多维数据特征,包括激光雷达的点云数据,以及机器视觉的像素数据。
FPGA逻辑计算单元,用于实现机器视觉与激光雷达目标捕获、信息提取与特征分类及融合,包括目标识别及分类模块、空间坐标变换模块、信息融合模块、行为决策模块,目标识别及分类模块用于实现目标识别以及特征库匹配建立,空间坐标变换模块用于实现激光雷达通过坐标映射形成统一的信息平面,并实现机器视觉模块坐标系和像素坐标系之间的转换关系,信息融合模块用于建立深度神经网络,构建雷达捕获目标特征空间融合模型,同时多源传感器进行特征校正,构建多传感器数据时间融合模型,将多源异构传感器数据进行融合,并且通过空间模型校正;行为决策模块用于利用时间及空间融合模型计算出探测目标在特征空间上的投影点,同时将投影点中建立包含机器视觉目标图像的感兴趣区域,利用深度神经网络在感兴趣区域内进行搜索完成目标识别对象的检测,并当确定前方障碍物的情况下,将该障碍物的运动状态信息提交给基于深度学习网络的中央控制系统进行避撞预警决策。
本实施例中,多源异构传感器阵列中的激光雷达采用固态激光雷达Leddar Vu,实现8线光束数量,可实现的最大探测距离为185米。多源异构传感器阵列中的机器视觉采用红外高清网络摄像机海康威视DS-2CD3T25-I3。
采用上述的多源异构传感器特征深度融合的装置实现多源异构传感器特征深度融合的方法,该方法具体如下:
通过多源异构多种传感器获取环境信息,即获取目标的多维数据特征,具体通过激光雷达获取目标距离、轮廓特征,这些数据特征位于雷达二维扫描平面坐标系中,通过雷达二维成像空间,给出目标障碍物相对空间位置;通过机器视觉获取目标像素特征;
根据激光雷达与机器视觉相对固定位置,通过距离建立的先验知识,通过贝叶斯网络的先验模型,形成训练深度学习网络,通过训练完成的深度学习网络,建立激光雷达坐标系和机器视觉坐标系间的转换关系,进而构建雷达捕获目标特征空间融合模型;将机器视觉的二维识别目标像素点,在雷达二维平面进行映射,根据计算机机器视觉环境相关识别算法及机器视觉成像原理,通过深度融合网络,建立机器视觉坐标系与像素坐标系间的线性转换关系;同时考虑到机器视觉对目标成像的畸变现象,通过先验的机器视觉训练库进行非线性畸变校正;结合以上两种转换关系,实现激光雷达坐标系和机器视觉图像像素坐标之间的转换;
结合声学、红外、热成像、GPS等多源传感器,形成特定场景的目标特征获取,进行特征校正,构建多传感器数据时间融合模型,并且通过空间模型校正;
利用时间及空间融合模型计算出探测目标在特征空间上的投影点,同时将投影点中建立包含机器视觉目标图像的感兴趣区域,利用深度学习网络在感兴趣区域内进行搜索完成目标识别对象的检测;当确定前方障碍物的情况下,将该障碍物的运动状态信息提交给基于深度学习网络的中央控制系统进行避撞预警决策。
基于雷达、机器视觉、声学、红外、GPS等多源传感器的数据特征深度融合方法是通过机器机器视觉检测验证模块,可以用于对激光雷达初选的目标进行存在性验证,排除地面、天空等不构成危险的障碍物目标,区分侧向障碍物等。机器机器视觉应用于环境检测系统必须考虑数据处理的准确性和实时性。本实施例提供的方法,其深度融合过程是将多源异构传感器数据在时间、空间上进行信息互补和优化组合处理,弥补了单一传感器测量信息不全面的缺陷。根据不同传感器在本身的二维成像空间进行叠加,通过相关先验知识,形成融合网络。该训练网络针对多源异构传感器的融合过程的准确与否,直接影响雷达数据和机器机器视觉图像数据,包括声学传感器,红外传感器,以及GPS信号在时间、空间上的统一性,关系到最终有效目标正确与否。当完成多传感器数据空间融合。需要先验通过训练特征库加载校正,使得多源异构传感器测量数据在时间上、空间上的同步。
如图1所示,为本实施例提供的多源异构传感器特征深度融合的方法的逻辑单元连接图。实现方案由激光雷达和机器视觉两部分组成。机器视觉通过坐标变换体系与激光雷达连接,通过坐标映射形成统一的信息平面。机器视觉通过目标识别及分类和目标特征库,进行目标识别以及特征库匹配建立。激光雷达通过目标识别及运动信息捕获模块进行目标识别。激光雷达以及机器视觉通过数据融合模块,进行信息综合决策,进而完成多源传感器融合,形成综合防碰撞。
如图2所示,为基于深度学习算法的机器机器视觉与激光雷达融合决策网络,通过前端雷达的目标特征数据模块与机器视觉的目标特征数据模块的综合提取、融合,完成信息的深度决策。前端数据特征接口通过深度学习网络进行判决及共享。
该方法的工作原理如下:
首先针对前向、侧向的障碍物位置信息,通过雷达、声学进行距离探测。为了获取精确距离信息,系统针对自身位置进行获取,所采用的自身GPS传感器实时获取。当获得精确位置信息后,通过机器视觉传感器,获得目标特征。雷达、声学传感器作为前方系统最重要的信息位置获取部件,用于实时获取前方环境目标的运动状态信息,其工作的鲁棒性、精度直接影响检测系统的功能实现与否。实际环境中激光雷达的测量环境较为复杂,雷达数据处理模块需能完成各种工况下的障碍物检测,并向中央控制系统提供稳定可靠、准确、符合实际情况的障碍物信息。为实现前方障碍物检测功能,需要从实际交通环境中有效的识别出需要避让的目标,并获得其准确的运动信息。进而通过机器视觉传感器建立感兴趣区域的定位,减小了图像检测、模式识别搜索范围,避免在整幅图像上进行遍历性搜索,提高检测系统的实时性。利用图像对障碍物进行存在性验证,增加了检测系统的准确性和鲁棒性。当确定前方障碍物的情况下,将该障碍物的运动状态信息提交给基于深度学习网络的中央控制系统进行避撞预警决策。
本发明通过深度学习模型完成空间、时间特征信息融合算法,为无人机器目标特征识别及决策控制提供准确、可靠、具有鲁棒性的环境数据,对提高主动避撞识别系统性能、减少碰撞事故发生具有重要意义。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (3)
1.一种多源异构传感器特征深度融合的装置,其特征在于:包括N个激光雷达及机器视觉的多源异构传感器阵列、ZYNQ-7000平台、FLASH大型存储芯片;ZYNQ-7000平台包括ARMCortex A9双核、FPGA逻辑计算单元;N个激光雷达及机器视觉的多元传感器阵列通过光口或者网口与ARM Cortex A9双核实现连接;FPGA逻辑计算单元外接FLASH大型存储芯片;
多源异构传感器阵列用于获取目标的多维数据特征;FPGA逻辑计算单元,用于实现机器视觉与激光雷达目标的捕获、以及信息提取与特征分类及融合,包括特征的目标识别及分类模块、空间坐标变换模块、信息融合模块、行为决策模块,目标识别及分类模块用于实现目标识别以及特征库匹配建立,空间坐标变换模块用于实现激光雷达通过坐标映射形成统一的信息平面,并实现机器视觉模块坐标系和像素坐标系之间的转换关系,信息融合模块用于建立深度神经网络,构建雷达捕获目标特征空间融合模型,同时多源传感器进行特征校正,构建多传感器数据时间融合模型,将多源异构传感器数据进行融合,并且通过空间模型校正;行为决策模块用于利用时间及空间融合模型计算出探测目标在特征空间上的投影点,同时将投影点中建立包含机器视觉目标图像的感兴趣区域,利用深度神经网络在感兴趣区域内进行搜索完成目标识别对象的检测,并当确定前方障碍物的情况下,将该障碍物的运动状态信息提交给基于深度学习网络的中央控制系统进行避撞预警决策。
2.根据权利要求1所述的多源异构传感器特征深度融合的装置,其特征在于:所述多源异构传感器阵列中的激光雷达采用固态激光雷达Leddar Vu,实现8线光束数量,可实现的最大探测距离为185米;所述多源异构传感器阵列中的机器视觉采用红外高清网络摄像机海康威视DS-2CD3T25-I3。
3.一种多源异构传感器特征深度融合的方法,其特征在于:采用权利要求1述的多源异构传感器特征深度融合的装置实现,该方法具体如下:
通过多源异构多种传感器获取环境信息,即获取目标的多维数据特征,具体通过激光雷达获取目标距离、轮廓特征,这些数据特征位于雷达二维扫描平面坐标系中,通过雷达二维成像空间,给出目标障碍物相对空间位置;通过机器视觉获取目标像素特征;
根据激光雷达与机器视觉相对固定位置,通过距离建立的先验知识,通过贝叶斯网络的先验模型,形成训练深度学习网络,通过训练完成的深度学习网络,建立激光雷达坐标系和机器视觉坐标系间的转换关系,进而构建雷达捕获目标特征空间融合模型;将机器视觉的二维识别目标像素点,在雷达二维平面进行映射,根据计算机机器视觉环境相关识别算法及机器视觉成像原理,通过深度融合网络,建立机器视觉坐标系与像素坐标系间的线性转换关系;同时考虑到机器视觉对目标成像的畸变现象,通过先验的机器视觉训练库进行非线性畸变校正;结合以上两种转换关系,实现激光雷达坐标系和机器视觉图像像素坐标之间的转换;
结合其他多源传感器,形成特定场景的目标特征获取,进行特征校正,构建多传感器数据时间融合模型,并且通过空间模型校正;其他多源传感器包括声学传感器、红外传感器、热成像传感器、GPS;
利用时间及空间融合模型计算出探测目标在特征空间上的投影点,同时将投影点中建立包含机器视觉目标图像的感兴趣区域,利用深度学习网络在感兴趣区域内进行搜索完成目标识别对象的检测;当确定前方障碍物的情况下,将该障碍物的运动状态信息提交给基于深度学习网络的中央控制系统进行避撞预警决策。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811004984.5A CN110873879A (zh) | 2018-08-30 | 2018-08-30 | 一种多源异构传感器特征深度融合的装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811004984.5A CN110873879A (zh) | 2018-08-30 | 2018-08-30 | 一种多源异构传感器特征深度融合的装置及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110873879A true CN110873879A (zh) | 2020-03-10 |
Family
ID=69715056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811004984.5A Pending CN110873879A (zh) | 2018-08-30 | 2018-08-30 | 一种多源异构传感器特征深度融合的装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110873879A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860604A (zh) * | 2020-06-24 | 2020-10-30 | 国汽(北京)智能网联汽车研究院有限公司 | 数据融合方法、系统及计算机存储介质 |
CN112285709A (zh) * | 2020-05-19 | 2021-01-29 | 陕西理工大学 | 基于深度学习的大气臭氧遥感激光雷达数据融合方法 |
CN112925002A (zh) * | 2021-02-07 | 2021-06-08 | 沈阳航空航天大学 | 空中非合作目标分布式视觉定位方法 |
CN113221852A (zh) * | 2021-06-09 | 2021-08-06 | 中国人民解放军91977部队 | 一种目标识别方法及装置 |
CN113255779A (zh) * | 2021-05-28 | 2021-08-13 | 中国航天科工集团第二研究院 | 多源感知数据融合识别方法、系统及计算机可读存储介质 |
CN113408625A (zh) * | 2021-06-22 | 2021-09-17 | 之江实验室 | 应用于无人系统的多源异构数据单帧融合与一致表征方法 |
CN114067353A (zh) * | 2021-10-12 | 2022-02-18 | 北京控制与电子技术研究所 | 一种采用多功能加固处理机实现多源数据融合的方法 |
CN115454646A (zh) * | 2022-09-29 | 2022-12-09 | 电子科技大学 | 一种面向集群无人机决策的多智能体强化学习加速方法 |
WO2023159517A1 (en) * | 2022-02-25 | 2023-08-31 | Xiamen University | System and method of capturing three-dimensional human motion capture with lidar |
-
2018
- 2018-08-30 CN CN201811004984.5A patent/CN110873879A/zh active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112285709A (zh) * | 2020-05-19 | 2021-01-29 | 陕西理工大学 | 基于深度学习的大气臭氧遥感激光雷达数据融合方法 |
CN112285709B (zh) * | 2020-05-19 | 2022-07-26 | 陕西理工大学 | 基于深度学习的大气臭氧遥感激光雷达数据融合方法 |
CN111860604B (zh) * | 2020-06-24 | 2024-02-02 | 国汽(北京)智能网联汽车研究院有限公司 | 数据融合方法、系统及计算机存储介质 |
CN111860604A (zh) * | 2020-06-24 | 2020-10-30 | 国汽(北京)智能网联汽车研究院有限公司 | 数据融合方法、系统及计算机存储介质 |
CN112925002A (zh) * | 2021-02-07 | 2021-06-08 | 沈阳航空航天大学 | 空中非合作目标分布式视觉定位方法 |
CN112925002B (zh) * | 2021-02-07 | 2023-09-26 | 沈阳航空航天大学 | 空中非合作目标分布式视觉定位方法 |
CN113255779B (zh) * | 2021-05-28 | 2023-08-18 | 中国航天科工集团第二研究院 | 多源感知数据融合识别方法、系统及计算机可读存储介质 |
CN113255779A (zh) * | 2021-05-28 | 2021-08-13 | 中国航天科工集团第二研究院 | 多源感知数据融合识别方法、系统及计算机可读存储介质 |
CN113221852A (zh) * | 2021-06-09 | 2021-08-06 | 中国人民解放军91977部队 | 一种目标识别方法及装置 |
CN113408625B (zh) * | 2021-06-22 | 2022-08-09 | 之江实验室 | 应用于无人系统的多源异构数据单帧融合与一致表征方法 |
CN113408625A (zh) * | 2021-06-22 | 2021-09-17 | 之江实验室 | 应用于无人系统的多源异构数据单帧融合与一致表征方法 |
CN114067353A (zh) * | 2021-10-12 | 2022-02-18 | 北京控制与电子技术研究所 | 一种采用多功能加固处理机实现多源数据融合的方法 |
CN114067353B (zh) * | 2021-10-12 | 2024-04-02 | 北京控制与电子技术研究所 | 一种采用多功能加固处理机实现多源数据融合的方法 |
WO2023159517A1 (en) * | 2022-02-25 | 2023-08-31 | Xiamen University | System and method of capturing three-dimensional human motion capture with lidar |
CN115454646A (zh) * | 2022-09-29 | 2022-12-09 | 电子科技大学 | 一种面向集群无人机决策的多智能体强化学习加速方法 |
CN115454646B (zh) * | 2022-09-29 | 2023-08-25 | 电子科技大学 | 一种面向集群无人机决策的多智能体强化学习加速方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110873879A (zh) | 一种多源异构传感器特征深度融合的装置及方法 | |
WO2022022694A1 (zh) | 自动驾驶环境感知方法及系统 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
CN108764187B (zh) | 提取车道线的方法、装置、设备、存储介质以及采集实体 | |
CA3027921C (en) | Integrated sensor calibration in natural scenes | |
CN105678689B (zh) | 高精地图数据配准关系确定方法及装置 | |
Zhu et al. | Online camera-lidar calibration with sensor semantic information | |
CN104035071B (zh) | 融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置 | |
CN112149550B (zh) | 一种基于多传感器融合的自动驾驶车辆3d目标检测方法 | |
EP3792660B1 (en) | Method, apparatus and system for measuring distance | |
WO2020097840A1 (en) | Systems and methods for correcting a high-definition map based on detection of obstructing objects | |
JP2020525809A (ja) | 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法 | |
CA3028653A1 (en) | Methods and systems for color point cloud generation | |
CN113111887B (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
CN112698306A (zh) | 一种多激光雷达结合相机解决地图构建盲区的系统和方法 | |
CN112693466A (zh) | 一种车辆环境感知传感器性能测评系统及方法 | |
CN111257892A (zh) | 一种用于车辆自动驾驶的障碍物检测方法 | |
CN107796373B (zh) | 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法 | |
CN113160327A (zh) | 一种点云补全的实现方法和系统 | |
Sehestedt et al. | Robust lane detection in urban environments | |
US20200341150A1 (en) | Systems and methods for constructing a high-definition map based on landmarks | |
CN111413983A (zh) | 一种无人驾驶车辆的环境感知方法及控制端 | |
CN112949782A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN112683228A (zh) | 单目相机测距方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |