CN110363820A - 一种基于激光雷达、图像前融合的目标检测方法 - Google Patents
一种基于激光雷达、图像前融合的目标检测方法 Download PDFInfo
- Publication number
- CN110363820A CN110363820A CN201910575104.8A CN201910575104A CN110363820A CN 110363820 A CN110363820 A CN 110363820A CN 201910575104 A CN201910575104 A CN 201910575104A CN 110363820 A CN110363820 A CN 110363820A
- Authority
- CN
- China
- Prior art keywords
- laser radar
- image
- camera
- point cloud
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 24
- 238000013480 data collection Methods 0.000 claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 14
- 230000004927 fusion Effects 0.000 claims abstract description 12
- 230000000007 visual effect Effects 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 14
- 230000004888 barrier function Effects 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 6
- 230000002902 bimodal effect Effects 0.000 claims description 5
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000012141 concentrate Substances 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims 1
- 238000005267 amalgamation Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于激光雷达、图像前融合的目标检测方法,通过激光雷达和摄像头联合校准,得到摄像头视角的激光雷达点云数据,然后在将数据输入到神经网络之前,首先对激光雷达数据集进行球面投影,从而到一个稠密的、二维的数据,之后将激光雷达投影得到的图像和摄像头图像分别作为网络的两个输入,分别学习彩色和三维特征,最后通过一个1×1的卷积块,将两个模态的特征融合,实现基于雷达和视觉前融合的目标检测;该方法不同于传统视觉和雷达分别检测,最后采取加权的后融合方式,采用激光雷达和图像两个对应的输入,分别学习特征,最后融合,可以提高目标识别的准确性,同时获取目标的类别以及三维信息。
Description
技术领域
本发明涉及一种基于激光雷达、图像前融合的目标检测方法,属于传感器融合、人工智能和自动驾驶技术领域。
背景技术
无人车的环境感知技术主要是借助外在传感器,例如激光雷达、摄像头、毫米波雷达等实现对周围环境的探测,保障无人车可以及时地、精准地感知路面环境中存在的安全隐患,快速采取措施,避免发生交通事故;环境感知相当于无人车的眼睛,对于保障无人驾驶汽车安全行驶具有不可替代的作用。
目前无人车环境感知有两种主流方法:视觉和激光雷达。视觉是基于机器视觉获取车辆周边环境的图像信息,通过图像处理等方式对周围环境进行感知;它能直接获取色彩信息,并且摄像机具有安装方便、体积小、能耗低的优点,它的缺点就是容易受到光线的干扰、同时没有三维信息。激光传感是通过雷达扫描车辆周围环境来获得三维距离信息,通过距离分析识别技术对行驶路况进行感知;它能够直接获取物体三维距离信息,具有很高的测量精度并且对光线明暗变化不敏感,但是它无法获得环境的色彩信息,同时目前激光雷达价格昂贵,难以在家用轿车上装备。
因此产生了研究产生一种将激光雷达与摄像头进行融合的检测方法,相当于融合激光雷达的三维信息以及图像的色彩信息,实现两个传感器优势互补。目前融合方案有前融合和后融合两种;前融合是指每个传感器各自独立处理生成的目标数据,当所有传感器完成目标数据生成后,再由主处理器进行数据融合;后融合只有一个感知的算法,在原始层把数据都融合在一起,对所有数据进行感知算法应用;前面两种融合方法,无法真正做到提高目标识别的准确性,也就是说如何更好的实现激光雷达与摄像头的融合,仍是亟需待解决的问题。
发明内容
本发明提供一种基于激光雷达、图像前融合的目标检测方法,同时针对三维点云和二维图像特征不一致的特点,利用两个输入通道,分别学习目标特征,在最后一个卷积层进行融合,充分学习二维和三维的特征,提高了目标识别的准确性。
本发明解决其技术问题所采用的技术方案是:
一种基于激光雷达、图像前融合的目标检测方法,包括以下步骤:
第一步:在离线状态下,标定激光雷达以及摄像头的内参数和外参数,对摄像头获取的图片去畸变,实现激光雷达、摄像头的精确配准,即完成空间同步:
第二步:激光雷达、摄像头同时实时对车辆在行车过程中的环境进行采集,获取同步时间戳的激光雷达数据、同步时间戳的且去畸变的图像数据,形成激光雷达点云数据集、图像数据集,即获取完成时间同步的数据;
第三步:将前述获得的激光雷达数据集和图像数据集匹配,只保留摄像头视角的激光雷达点云数据集,然后将图像数据集、激光雷达点云数据集分别进行标签标注;
第四步:将完成标签标注的激光雷达点云数据集进行球面投影,图像数据集不改变,将球面投影后得到的激光雷达点云数据集、图像数据集作为两个输入,分别学习彩色和三维特征,通过一个1*1卷积块将两个模态的特征融合,最终输出一个训练完成的双模态深度卷积网络模型;;
第五步:在车辆实时运行过程中,激光雷达、摄像头实时捕获车辆道路场景信息,将球面投影后的激光雷达点云数据集、去畸变的摄像头图像数据同时输入至训练完成的深度卷积网络模型,实时获取当前帧内的环境目标障碍物的位置和类别;
作为本发明的进一步优选,在第一步中,采用张正友标定法获取摄像头的内参数,采用手动提取特征点求解旋转偏移矩阵的方法获取激光雷达、摄像头的外参数;
作为本发明的进一步优选,在第四步中,对完成标签标注的激光雷达点云数据集进行球面投影包括以下步骤:首先将激光雷达点云数据集进行球面投影,φ代表点和车正前方夹角,θ代表点和水平夹角,φ和θ的计算公式为:
再将得到的角度进行微分,从而得到一个二维的直角坐标系,δθ和δφ指角度微分的分辨率
提取激光雷达点云数据集中每一个点的五个特征:(x,y,z,intensity,range),放入(i,j)中,其中(x,y,z)为点坐标,intensity为雷达反射强度,range为到原点距离
点云在高度方向根据雷达线束进行采样,水平方向进行512等分采样,高度反向采样数量由激光雷达线束决定,最终获取尺寸为(H,W,C)张量,并将其输入至神经网络进行训练;
图像数据集采用rgb3通道,图像数据集中的障碍物采用x,y二维坐标,并将其输入至神经网络进行训练;
作为本发明的进一步优选,前述第四步中神经网络的训练步骤,具体包括以下步骤:
第41步:从激光雷达点云数据集、图像数据集中抽取两个子数据集,其中两个子数据集中的目标清晰可辨认;
第42步,用以上两个子数据集分别训练图像和点云神经网络,使得卷积层充分学习点云障碍物特征和图像障碍物特征,形成单模态检测网络的卷积层参数;
第43步,将第42步训练出的单模态检测网络的卷积层参数作为激光雷达点云数据和图像数据的特征,不再训练,在后面加上一个1×1的卷积块,然后使用全部数据集进行训练,训练过程中,保持前面训练好的单模态卷积层参数不变,微调卷积层后面其他参数,最终形成训练完成的双模态深度卷积网络模型。
通过以上技术方案,相对于现有技术,本发明具有以下有益效果:
本发明通过激光雷达和摄像头联合校准,得到摄像头视角的激光雷达点云数据集,然后在将数据输入到神经网络之前,首先对激光雷达点云数据集进行球面投影,从而到一个稠密的、二维的数据,然后将激光雷达投影得到的激光雷达点云数据集和摄像头图像分别作为网络的两个输入,分别学习彩色和三维特征,最后通过一个1*1卷积块将两个模态的特征融合,实现基于雷达和视觉前融合的目标检测;该方法不同于传统视觉和雷达分别检测,最后采取加权的后融合方式,采用激光雷达和图像两个对应的输入,分别学习特征,最后融合,可以提高目标识别的准确性,同时获取目标的三维信息。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明的优选实施例摄像头拍摄的原始彩色图像图;
图2是本发明的优选实施例的摄像头视角的激光雷达点云图;
图3是本发明的优选实施例的激光雷达数据集进行球面投影;
图4是本发明的优选实施例的基于激光雷达、图像前融合的目标检测方法的总体框架图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
图4所示,本发明的一种基于激光雷达、图像前融合的目标检测方法,包括以下步骤:
第一步:在离线状态下,标定激光雷达以及摄像头的内参数和外参数,对摄像头获取的图片去畸变,实现激光雷达、摄像头的精确配准,即完成空间同步:
图1为摄像头拍摄的原始彩色图像图,图2为摄像头视角的激光雷达点云图。
第二步:激光雷达、摄像头同时实时对车辆在行车过程中的环境进行采集,获取同步时间戳的激光雷达数据、去畸变的图像数据,形成激光雷达点云数据集、图像数据集,即获取完成时间同步的数据;
第三步:将前述获得的激光雷达数据集和图像数据集匹配,只保留摄像头视角的激光雷达点云数据集,然后将图像数据集、激光雷达点云数据集分别进行标签标注;
第四步:将完成标签标注的激光雷达点云数据集进行球面投影,图像数据集不改变,将球面投影后得到的激光雷达点云数据集、图像数据集作为两个输入,分别学习彩色和三维特征,通过一个1×1卷积块将两个模态的特征融合,最终输出一个训练完成的双模态深度卷积网络模型;;
图3是激光雷达数据进行球面投影的示意图;
第五步:在车辆实时运行过程中,激光雷达、摄像头实时捕获车辆道路场景信息,激光雷达点云数据,将球面投影后的激光雷达点云数据集、去畸变的摄像头图像数据同时输入至训练完成的深度卷积网络模型,实时获取当前帧内的环境目标障碍物的位置和类别;
实施例1:
在第一步中,采用张正友标定法获取摄像头的内参数,采用手动提取特征点求解旋转偏移矩阵的方法获取激光雷达、摄像头的外参数;
实施例2:
在第四步中,对完成标签标注的激光雷达点云数据集进行球面投影包括以下步骤:首先将激光雷达点云数据集进行球面投影,φ代表点和车正前方夹角,θ代表点和水平夹角,φ和θ的计算公式为:
再将得到的角度进行微分,从而得到一个二维的直角坐标系,δθ和δφ指角度微分的分辨率
提取激光雷达点云数据集中每一个点的五个特征:(x,y,z,intensity,range),放入(i,j)中,其中(x,y,z)为点坐标,intensity为雷达反射强度,range为到原点距离
点云在高度方向根据雷达线束进行采样,水平方向进行512等分采样,高度反向采样数量由激光雷达线束决定,最终获取尺寸为(H,W,C)张量,如40线激光雷达,则为(40*512*5),并将其输入至神经网络进行训练;
图像数据集采用rgb3通道,图像数据集中的障碍物采用x,y二维坐标,并将其输入至神经网络进行训练;
传统的CNN设计多用于二维的图像模式识别(宽×高×通道数),三维的激光雷达点云数据格式不符合该模式,而且激光雷达点云数据稀疏无规律,这对特征提取都是不利的,因此,在将数据输入到CNN之前,首先对激光雷达数据集进行球面投影。
实施例3:
作为本发明的进一步优选,前述第四步中神经网络的训练步骤,具体包括以下步骤:
第41步:从激光雷达点云数据集、图像数据集中抽取两个子数据集,其中两个子数据集中的目标清晰可辨认;
第42步,用以上两个子数据集分别训练图像和点云神经网络,使得卷积层充分学习点云障碍物特征和图像障碍物特征,形成单模态检测网络的卷积层参数;
第43步,将第42步训练出的单模态检测网络的卷积层参数作为激光雷达点云数据和图像数据的特征,不再训练,在后面加上一个1×1的卷积块,然后使用全部数据集进行训练,训练过程中,保持前面训练好的单模态卷积层参数不变,微调卷积层后面其他参数,最终形成训练完成的双模态深度卷积网络模型。
本发明首先通过激光雷达和摄像头联合校准,得到摄像头视角的激光雷达点云数据,然后在将数据输入到神经网络之前,首先对激光雷达数据集进行球面投影,从而到一个稠密的、二维的数据,之后将激光雷达投影得到的图像和摄像头图像分别作为网络的两个输入,分别学习彩色和三维特征,在最后一个卷积块将两个模态的特征图融合,实现基于雷达和视觉前融合的目标检测;该方法不同于传统视觉和雷达分别检测,最后采取加权的后融合方式,采用激光雷达和图像两个对应的输入,分别学习特征,最后融合,可以提高目标识别的准确性,同时获取目标的类别以及三维信息。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本申请中所述的“和/或”的含义指的是各自单独存在或两者同时存在的情况均包括在内。
本申请中所述的“连接”的含义可以是部件之间的直接连接也可以是部件间通过其它部件的间接连接。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (4)
1.一种基于激光雷达、图像前融合的目标检测方法,其特征在于:包括以下步骤:
第一步:在离线状态下,标定激光雷达以及摄像头的内参数和外参数,对摄像头获取的图片去畸变,实现激光雷达、摄像头的精确配准,即完成空间同步:
第二步:激光雷达、摄像头同时实时对车辆在行车过程中的环境进行采集,获取同步时间戳的激光雷达数据、同步时间戳的且去畸变的图像数据,形成激光雷达点云数据集、图像数据集,即获取完成时间同步的数据;
第三步:将前述获得的激光雷达数据集和图像数据集匹配,只保留摄像头视角的激光雷达点云数据集,然后将图像数据集、激光雷达点云数据集分别进行标签标注;
第四步:将完成标签标注的激光雷达点云数据集进行球面投影,图像数据集不改变,将球面投影后得到的激光雷达点云数据集、图像数据集作为两个输入,分别学习彩色和三维特征,通过一个1×1卷积块将两个模态的特征融合,最终输出一个训练完成的深度卷积网络模型;
第五步:在车辆实时运行过程中,激光雷达、摄像头实时捕获车辆道路场景信息,将球面投影后的激光雷达点云数据、去畸变的摄像头图像数据同时输入至训练完成的深度卷积网络模型,实时获取当前帧内的环境目标障碍物的位置和类别。
2.根据权利要求1所述的基于激光雷达、图像前融合的目标检测方法,其特征在于:在第一步中,采用张正友标定法获取摄像头的内参数,采用手动提取特征点求解旋转偏移矩阵的方法获取激光雷达、摄像头的外参数。
3.根据权利要求1所述的基于激光雷达、图像前融合的目标检测方法,其特征在于:在第四步中,对完成标签标注的激光雷达点云数据集进行球面投影包括以下步骤:首先将激光雷达点云数据集进行球面投影,φ代表点和车正前方夹角,θ代表点和水平夹角,φ和θ的计算公式为:
再将得到的角度进行微分,从而得到一个二维的直角坐标系,δθ和δφ指角度微分的分辨率
提取激光雷达点云数据集中每一个点的五个特征:(x,y,z,intensity,range),放入(i,j)中,其中(x,y,z)为点坐标,intensity为雷达反射强度,range为到原点距离
点云在高度方向根据雷达线束进行采样,水平方向进行512等分采样,高度反向采样数量由激光雷达线束决定,最终获取尺寸为(H,W,C)张量,并将其输入至神经网络进行训练;
图像数据集采用rgb3通道,图像数据集中的障碍物采用x,y二维坐标,并将其输入至神经网络进行训练。
4.根据权利要求3所述的基于激光雷达、图像前融合的目标检测方法,其特征在于:前述第四步中神经网络的训练步骤,具体包括以下步骤:
第41步:从激光雷达点云数据集、图像数据集中抽取两个子数据集,其中两个子数据集中的目标清晰可辨认;
第42步,用以上两个子数据集分别训练图像和点云神经网络,使得卷积层充分学习点云障碍物特征和图像障碍物特征,形成单模态检测网络的卷积层参数;
第43步,将第42步训练出的单模态检测网络的卷积层参数作为激光雷达点云数据和图像数据的特征,不再训练,在后面加上一个1*1的卷积块,然后使用全部数据集进行训练,训练过程中,保持前面训练好的单模态卷积层参数不变,微调卷积层后面其他参数,最终形成训练完成的双模态深度卷积网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910575104.8A CN110363820B (zh) | 2019-06-28 | 2019-06-28 | 一种基于激光雷达、图像前融合的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910575104.8A CN110363820B (zh) | 2019-06-28 | 2019-06-28 | 一种基于激光雷达、图像前融合的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110363820A true CN110363820A (zh) | 2019-10-22 |
CN110363820B CN110363820B (zh) | 2023-05-16 |
Family
ID=68215964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910575104.8A Active CN110363820B (zh) | 2019-06-28 | 2019-06-28 | 一种基于激光雷达、图像前融合的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110363820B (zh) |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110827202A (zh) * | 2019-11-07 | 2020-02-21 | 上海眼控科技股份有限公司 | 目标检测方法、装置、计算机设备和存储介质 |
CN110888144A (zh) * | 2019-12-04 | 2020-03-17 | 吉林大学 | 一种基于滑动窗口的激光雷达数据合成方法 |
CN110910382A (zh) * | 2019-11-29 | 2020-03-24 | 添维信息科技(天津)有限公司 | 一种集装箱检测系统 |
CN110967679A (zh) * | 2019-12-04 | 2020-04-07 | 吉林大学 | 一种低线束激光雷达数据匹配多线束激光雷达模型的方法 |
CN111105465A (zh) * | 2019-11-06 | 2020-05-05 | 京东数字科技控股有限公司 | 一种摄像装置校准方法、装置、系统电子设备及存储介质 |
CN111179331A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 深度估计方法、装置、电子设备及计算机可读存储介质 |
CN111179329A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 三维目标检测方法、装置及电子设备 |
CN111242041A (zh) * | 2020-01-15 | 2020-06-05 | 江苏大学 | 基于伪图像技术的激光雷达三维目标快速检测方法 |
CN111382683A (zh) * | 2020-03-02 | 2020-07-07 | 东南大学 | 一种基于彩色相机与红外热成像仪特征融合的目标检测方法 |
CN111429521A (zh) * | 2020-03-05 | 2020-07-17 | 深圳市镭神智能系统有限公司 | 相机与激光雷达的外参标定方法、装置、介质及电子设备 |
CN111427374A (zh) * | 2020-02-25 | 2020-07-17 | 深圳市镭神智能系统有限公司 | 飞机泊位引导方法、装置及设备 |
CN111476242A (zh) * | 2020-03-31 | 2020-07-31 | 北京经纬恒润科技有限公司 | 一种激光点云语义分割方法及装置 |
CN111583337A (zh) * | 2020-04-25 | 2020-08-25 | 华南理工大学 | 一种基于多传感器融合的全方位障碍物检测方法 |
CN111627072A (zh) * | 2020-04-30 | 2020-09-04 | 贝壳技术有限公司 | 一种对多传感器进行标定的方法、装置和存储介质 |
CN111652050A (zh) * | 2020-04-20 | 2020-09-11 | 宁波吉利汽车研究开发有限公司 | 一种交通标志的定位方法、装置、设备和介质 |
CN111667522A (zh) * | 2020-06-04 | 2020-09-15 | 上海眼控科技股份有限公司 | 三维激光点云密集化方法及设备 |
CN111797915A (zh) * | 2020-06-24 | 2020-10-20 | 奇点汽车研发中心有限公司 | 目标检测方法、装置、电子设备及计算机可读存储介质 |
CN111891124A (zh) * | 2020-06-08 | 2020-11-06 | 福瑞泰克智能系统有限公司 | 目标信息融合的方法、系统、计算机设备和可读存储介质 |
CN112015178A (zh) * | 2020-08-20 | 2020-12-01 | 中国第一汽车股份有限公司 | 一种控制方法、装置、设备及存储介质 |
CN112085801A (zh) * | 2020-09-08 | 2020-12-15 | 清华大学苏州汽车研究院(吴江) | 基于神经网络的三维点云和二维图像融合的校准方法 |
CN112288667A (zh) * | 2020-11-02 | 2021-01-29 | 上海智驾汽车科技有限公司 | 一种基于激光雷达与摄像头融合的三维目标检测方法 |
CN112381792A (zh) * | 2020-11-13 | 2021-02-19 | 中国人民解放军空军工程大学 | 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法 |
CN112488022A (zh) * | 2020-12-11 | 2021-03-12 | 武汉理工大学 | 一种环视全景监控方法、装置及系统 |
CN112766233A (zh) * | 2021-02-19 | 2021-05-07 | 南京邮电大学 | 一种基于激光雷达和rfid的人体行为识别方法 |
CN112883789A (zh) * | 2021-01-15 | 2021-06-01 | 福建电子口岸股份有限公司 | 一种基于激光视觉融合和深度学习的防打保龄方法、系统 |
CN112965062A (zh) * | 2021-02-09 | 2021-06-15 | 西安电子科技大学 | 基于lstm-dam网络的雷达距离像目标识别方法 |
CN113111978A (zh) * | 2021-06-11 | 2021-07-13 | 之江实验室 | 一种基于点云和图像数据的三维目标检测系统和方法 |
CN113173502A (zh) * | 2021-01-15 | 2021-07-27 | 福建电子口岸股份有限公司 | 一种基于激光视觉融合和深度学习的防撞方法、系统 |
CN113192182A (zh) * | 2021-04-29 | 2021-07-30 | 山东产研信息与人工智能融合研究院有限公司 | 一种基于多传感器的实景重建方法及系统 |
CN113379732A (zh) * | 2021-07-07 | 2021-09-10 | 群周科技(上海)有限公司 | 一种基于机载激光雷达的线缆目标检测方法 |
CN113420687A (zh) * | 2021-06-29 | 2021-09-21 | 三一专用汽车有限责任公司 | 可行驶区域的获取方法、装置和车辆 |
CN113436258A (zh) * | 2021-06-17 | 2021-09-24 | 中国船舶重工集团公司第七0七研究所九江分部 | 基于视觉与激光雷达融合的海上浮码头检测方法及系统 |
CN113496249A (zh) * | 2020-03-18 | 2021-10-12 | 通用汽车环球科技运作有限责任公司 | 使用低水平相机雷达融合的物体检测 |
CN113678136A (zh) * | 2019-12-30 | 2021-11-19 | 深圳元戎启行科技有限公司 | 基于无人驾驶技术的障碍物检测方法、装置和计算机设备 |
WO2022000857A1 (zh) * | 2020-06-30 | 2022-01-06 | 广东小鹏汽车科技有限公司 | 数据集的建立方法、车辆和存储介质 |
CN113903029A (zh) * | 2021-12-10 | 2022-01-07 | 智道网联科技(北京)有限公司 | 一种点云数据中3d框的标注方法和装置 |
CN113962875A (zh) * | 2020-07-20 | 2022-01-21 | 赫克斯冈技术中心 | 使用机器学习增强图像的方法和系统 |
CN114114178A (zh) * | 2021-12-10 | 2022-03-01 | 南京邮电大学 | 一种雷达和视频图像的校准装置 |
CN114359181A (zh) * | 2021-12-17 | 2022-04-15 | 上海应用技术大学 | 一种基于图像和点云的智慧交通目标融合检测方法及系统 |
CN114648686A (zh) * | 2022-03-10 | 2022-06-21 | 哈尔滨工程大学 | 一种融合激光点云与rgb图像数据的逆光水面目标识别方法、系统及装置 |
CN115034257A (zh) * | 2022-05-09 | 2022-09-09 | 西北工业大学 | 一种基于特征融合的跨模态信息目标识别方法及装置 |
CN115240093A (zh) * | 2022-09-22 | 2022-10-25 | 山东大学 | 基于可见光和激光雷达点云融合的输电通道自动巡检方法 |
CN116168366A (zh) * | 2023-01-19 | 2023-05-26 | 北京百度网讯科技有限公司 | 点云数据生成方法、模型训练方法、目标检测方法和装置 |
CN116902003A (zh) * | 2023-07-31 | 2023-10-20 | 合肥海普微电子有限公司 | 基于激光雷达与摄像头混合模态的无人驾驶方法 |
CN117475397A (zh) * | 2023-12-26 | 2024-01-30 | 安徽蔚来智驾科技有限公司 | 基于多模态传感器的目标标注数据获取方法、介质及设备 |
CN117611592A (zh) * | 2024-01-24 | 2024-02-27 | 长沙隼眼软件科技有限公司 | 一种异物检测方法、装置、电子设备以及存储介质 |
WO2024044887A1 (en) * | 2022-08-29 | 2024-03-07 | Huawei Technologies Co., Ltd. | Vision-based perception system |
CN117907970A (zh) * | 2024-03-19 | 2024-04-19 | 清华大学苏州汽车研究院(相城) | 激光雷达的目标检测模型的生成、目标检测方法及其装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105139416A (zh) * | 2015-10-10 | 2015-12-09 | 北京微尘嘉业科技有限公司 | 一种基于图像信息和深度信息的物体识别方法 |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN109146929A (zh) * | 2018-07-05 | 2019-01-04 | 中山大学 | 一种基于事件触发相机与三维激光雷达融合系统下的物体识别与配准方法 |
-
2019
- 2019-06-28 CN CN201910575104.8A patent/CN110363820B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105139416A (zh) * | 2015-10-10 | 2015-12-09 | 北京微尘嘉业科技有限公司 | 一种基于图像信息和深度信息的物体识别方法 |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN109146929A (zh) * | 2018-07-05 | 2019-01-04 | 中山大学 | 一种基于事件触发相机与三维激光雷达融合系统下的物体识别与配准方法 |
Cited By (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105465A (zh) * | 2019-11-06 | 2020-05-05 | 京东数字科技控股有限公司 | 一种摄像装置校准方法、装置、系统电子设备及存储介质 |
CN111105465B (zh) * | 2019-11-06 | 2022-04-12 | 京东科技控股股份有限公司 | 一种摄像装置校准方法、装置、系统电子设备及存储介质 |
CN110827202A (zh) * | 2019-11-07 | 2020-02-21 | 上海眼控科技股份有限公司 | 目标检测方法、装置、计算机设备和存储介质 |
CN110910382A (zh) * | 2019-11-29 | 2020-03-24 | 添维信息科技(天津)有限公司 | 一种集装箱检测系统 |
CN110967679A (zh) * | 2019-12-04 | 2020-04-07 | 吉林大学 | 一种低线束激光雷达数据匹配多线束激光雷达模型的方法 |
CN110888144A (zh) * | 2019-12-04 | 2020-03-17 | 吉林大学 | 一种基于滑动窗口的激光雷达数据合成方法 |
CN110967679B (zh) * | 2019-12-04 | 2023-03-31 | 吉林大学 | 一种低线束激光雷达数据匹配多线束激光雷达模型的方法 |
CN110888144B (zh) * | 2019-12-04 | 2023-04-07 | 吉林大学 | 一种基于滑动窗口的激光雷达数据合成方法 |
CN113678136A (zh) * | 2019-12-30 | 2021-11-19 | 深圳元戎启行科技有限公司 | 基于无人驾驶技术的障碍物检测方法、装置和计算机设备 |
CN111179331A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 深度估计方法、装置、电子设备及计算机可读存储介质 |
CN111179329A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 三维目标检测方法、装置及电子设备 |
CN111179331B (zh) * | 2019-12-31 | 2023-09-08 | 智车优行科技(上海)有限公司 | 深度估计方法、装置、电子设备及计算机可读存储介质 |
CN111179329B (zh) * | 2019-12-31 | 2023-09-08 | 智车优行科技(上海)有限公司 | 三维目标检测方法、装置及电子设备 |
CN111242041A (zh) * | 2020-01-15 | 2020-06-05 | 江苏大学 | 基于伪图像技术的激光雷达三维目标快速检测方法 |
CN111427374A (zh) * | 2020-02-25 | 2020-07-17 | 深圳市镭神智能系统有限公司 | 飞机泊位引导方法、装置及设备 |
CN111382683B (zh) * | 2020-03-02 | 2023-05-23 | 东南大学 | 一种基于彩色相机与红外热成像仪特征融合的目标检测方法 |
CN111382683A (zh) * | 2020-03-02 | 2020-07-07 | 东南大学 | 一种基于彩色相机与红外热成像仪特征融合的目标检测方法 |
CN111429521A (zh) * | 2020-03-05 | 2020-07-17 | 深圳市镭神智能系统有限公司 | 相机与激光雷达的外参标定方法、装置、介质及电子设备 |
CN113496249A (zh) * | 2020-03-18 | 2021-10-12 | 通用汽车环球科技运作有限责任公司 | 使用低水平相机雷达融合的物体检测 |
CN113496249B (zh) * | 2020-03-18 | 2024-04-05 | 通用汽车环球科技运作有限责任公司 | 使用低水平相机雷达融合的物体检测 |
CN111476242A (zh) * | 2020-03-31 | 2020-07-31 | 北京经纬恒润科技有限公司 | 一种激光点云语义分割方法及装置 |
CN111476242B (zh) * | 2020-03-31 | 2023-10-20 | 北京经纬恒润科技股份有限公司 | 一种激光点云语义分割方法及装置 |
CN111652050A (zh) * | 2020-04-20 | 2020-09-11 | 宁波吉利汽车研究开发有限公司 | 一种交通标志的定位方法、装置、设备和介质 |
CN111652050B (zh) * | 2020-04-20 | 2024-04-02 | 宁波吉利汽车研究开发有限公司 | 一种交通标志的定位方法、装置、设备和介质 |
CN111583337A (zh) * | 2020-04-25 | 2020-08-25 | 华南理工大学 | 一种基于多传感器融合的全方位障碍物检测方法 |
CN111583337B (zh) * | 2020-04-25 | 2023-03-21 | 华南理工大学 | 一种基于多传感器融合的全方位障碍物检测方法 |
CN111627072B (zh) * | 2020-04-30 | 2023-10-24 | 贝壳技术有限公司 | 一种对多传感器进行标定的方法、装置和存储介质 |
CN111627072A (zh) * | 2020-04-30 | 2020-09-04 | 贝壳技术有限公司 | 一种对多传感器进行标定的方法、装置和存储介质 |
CN111667522A (zh) * | 2020-06-04 | 2020-09-15 | 上海眼控科技股份有限公司 | 三维激光点云密集化方法及设备 |
CN111891124B (zh) * | 2020-06-08 | 2021-08-24 | 福瑞泰克智能系统有限公司 | 目标信息融合的方法、系统、计算机设备和可读存储介质 |
CN111891124A (zh) * | 2020-06-08 | 2020-11-06 | 福瑞泰克智能系统有限公司 | 目标信息融合的方法、系统、计算机设备和可读存储介质 |
CN111797915A (zh) * | 2020-06-24 | 2020-10-20 | 奇点汽车研发中心有限公司 | 目标检测方法、装置、电子设备及计算机可读存储介质 |
WO2022000857A1 (zh) * | 2020-06-30 | 2022-01-06 | 广东小鹏汽车科技有限公司 | 数据集的建立方法、车辆和存储介质 |
CN113962875A (zh) * | 2020-07-20 | 2022-01-21 | 赫克斯冈技术中心 | 使用机器学习增强图像的方法和系统 |
CN112015178A (zh) * | 2020-08-20 | 2020-12-01 | 中国第一汽车股份有限公司 | 一种控制方法、装置、设备及存储介质 |
CN112085801B (zh) * | 2020-09-08 | 2024-03-19 | 清华大学苏州汽车研究院(吴江) | 基于神经网络的三维点云和二维图像融合的校准方法 |
CN112085801A (zh) * | 2020-09-08 | 2020-12-15 | 清华大学苏州汽车研究院(吴江) | 基于神经网络的三维点云和二维图像融合的校准方法 |
CN112288667B (zh) * | 2020-11-02 | 2024-06-07 | 智驾汽车科技(宁波)有限公司 | 一种基于激光雷达与摄像头融合的三维目标检测方法 |
CN112288667A (zh) * | 2020-11-02 | 2021-01-29 | 上海智驾汽车科技有限公司 | 一种基于激光雷达与摄像头融合的三维目标检测方法 |
CN112381792A (zh) * | 2020-11-13 | 2021-02-19 | 中国人民解放军空军工程大学 | 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法 |
CN112488022A (zh) * | 2020-12-11 | 2021-03-12 | 武汉理工大学 | 一种环视全景监控方法、装置及系统 |
CN112488022B (zh) * | 2020-12-11 | 2024-05-10 | 武汉理工大学 | 一种环视全景监控方法、装置及系统 |
CN113173502B (zh) * | 2021-01-15 | 2023-06-06 | 福建电子口岸股份有限公司 | 一种基于激光视觉融合和深度学习的防撞方法、系统 |
CN112883789A (zh) * | 2021-01-15 | 2021-06-01 | 福建电子口岸股份有限公司 | 一种基于激光视觉融合和深度学习的防打保龄方法、系统 |
CN113173502A (zh) * | 2021-01-15 | 2021-07-27 | 福建电子口岸股份有限公司 | 一种基于激光视觉融合和深度学习的防撞方法、系统 |
CN112965062B (zh) * | 2021-02-09 | 2024-02-20 | 西安电子科技大学 | 基于lstm-dam网络的雷达距离像目标识别方法 |
CN112965062A (zh) * | 2021-02-09 | 2021-06-15 | 西安电子科技大学 | 基于lstm-dam网络的雷达距离像目标识别方法 |
CN112766233A (zh) * | 2021-02-19 | 2021-05-07 | 南京邮电大学 | 一种基于激光雷达和rfid的人体行为识别方法 |
CN112766233B (zh) * | 2021-02-19 | 2022-07-26 | 南京邮电大学 | 一种基于激光雷达和rfid的人体行为识别方法 |
CN113192182A (zh) * | 2021-04-29 | 2021-07-30 | 山东产研信息与人工智能融合研究院有限公司 | 一种基于多传感器的实景重建方法及系统 |
CN113111978A (zh) * | 2021-06-11 | 2021-07-13 | 之江实验室 | 一种基于点云和图像数据的三维目标检测系统和方法 |
CN113436258B (zh) * | 2021-06-17 | 2023-09-12 | 中国船舶重工集团公司第七0七研究所九江分部 | 基于视觉与激光雷达融合的海上浮码头检测方法及系统 |
CN113436258A (zh) * | 2021-06-17 | 2021-09-24 | 中国船舶重工集团公司第七0七研究所九江分部 | 基于视觉与激光雷达融合的海上浮码头检测方法及系统 |
CN113420687A (zh) * | 2021-06-29 | 2021-09-21 | 三一专用汽车有限责任公司 | 可行驶区域的获取方法、装置和车辆 |
CN113379732B (zh) * | 2021-07-07 | 2022-12-02 | 群周科技(上海)有限公司 | 一种基于机载激光雷达的线缆目标检测方法 |
CN113379732A (zh) * | 2021-07-07 | 2021-09-10 | 群周科技(上海)有限公司 | 一种基于机载激光雷达的线缆目标检测方法 |
CN114114178A (zh) * | 2021-12-10 | 2022-03-01 | 南京邮电大学 | 一种雷达和视频图像的校准装置 |
CN113903029A (zh) * | 2021-12-10 | 2022-01-07 | 智道网联科技(北京)有限公司 | 一种点云数据中3d框的标注方法和装置 |
CN114359181A (zh) * | 2021-12-17 | 2022-04-15 | 上海应用技术大学 | 一种基于图像和点云的智慧交通目标融合检测方法及系统 |
CN114359181B (zh) * | 2021-12-17 | 2024-01-26 | 上海应用技术大学 | 一种基于图像和点云的智慧交通目标融合检测方法及系统 |
CN114648686A (zh) * | 2022-03-10 | 2022-06-21 | 哈尔滨工程大学 | 一种融合激光点云与rgb图像数据的逆光水面目标识别方法、系统及装置 |
CN115034257A (zh) * | 2022-05-09 | 2022-09-09 | 西北工业大学 | 一种基于特征融合的跨模态信息目标识别方法及装置 |
WO2024044887A1 (en) * | 2022-08-29 | 2024-03-07 | Huawei Technologies Co., Ltd. | Vision-based perception system |
CN115240093A (zh) * | 2022-09-22 | 2022-10-25 | 山东大学 | 基于可见光和激光雷达点云融合的输电通道自动巡检方法 |
CN115240093B (zh) * | 2022-09-22 | 2022-12-23 | 山东大学 | 基于可见光和激光雷达点云融合的输电通道自动巡检方法 |
CN116168366B (zh) * | 2023-01-19 | 2023-12-05 | 北京百度网讯科技有限公司 | 点云数据生成方法、模型训练方法、目标检测方法和装置 |
CN116168366A (zh) * | 2023-01-19 | 2023-05-26 | 北京百度网讯科技有限公司 | 点云数据生成方法、模型训练方法、目标检测方法和装置 |
CN116902003B (zh) * | 2023-07-31 | 2024-02-06 | 合肥海普微电子有限公司 | 基于激光雷达与摄像头混合模态的无人驾驶方法 |
CN116902003A (zh) * | 2023-07-31 | 2023-10-20 | 合肥海普微电子有限公司 | 基于激光雷达与摄像头混合模态的无人驾驶方法 |
CN117475397A (zh) * | 2023-12-26 | 2024-01-30 | 安徽蔚来智驾科技有限公司 | 基于多模态传感器的目标标注数据获取方法、介质及设备 |
CN117475397B (zh) * | 2023-12-26 | 2024-03-22 | 安徽蔚来智驾科技有限公司 | 基于多模态传感器的目标标注数据获取方法、介质及设备 |
CN117611592A (zh) * | 2024-01-24 | 2024-02-27 | 长沙隼眼软件科技有限公司 | 一种异物检测方法、装置、电子设备以及存储介质 |
CN117611592B (zh) * | 2024-01-24 | 2024-04-05 | 长沙隼眼软件科技有限公司 | 一种异物检测方法、装置、电子设备以及存储介质 |
CN117907970A (zh) * | 2024-03-19 | 2024-04-19 | 清华大学苏州汽车研究院(相城) | 激光雷达的目标检测模型的生成、目标检测方法及其装置 |
CN117907970B (zh) * | 2024-03-19 | 2024-05-28 | 清华大学苏州汽车研究院(相城) | 激光雷达的目标检测模型的生成、目标检测方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110363820B (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363820A (zh) | 一种基于激光雷达、图像前融合的目标检测方法 | |
CN107202982B (zh) | 一种基于无人机位姿计算的信标布置及图像处理方法 | |
CN108229366B (zh) | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 | |
CN108731587A (zh) | 一种基于视觉的无人机动态目标跟踪与定位方法 | |
CN110390695A (zh) | 一种基于ros的激光雷达、摄像头的融合标定系统及标定方法 | |
CN109472831A (zh) | 面向压路机施工过程的障碍物识别测距系统及方法 | |
CN109509230A (zh) | 一种应用于多镜头组合式全景相机的slam方法 | |
CN109143241A (zh) | 雷达数据和图像数据的融合方法及系统 | |
CN103473554B (zh) | 人流统计系统及方法 | |
CN105469389B (zh) | 一种用于视觉传感器标定的网格球靶标及相应标定方法 | |
CN102081296B (zh) | 仿复眼视觉动目标快速定位及全景图同步获取装置及方法 | |
CN105184857A (zh) | 基于点结构光测距的单目视觉重建中尺度因子确定方法 | |
CN114254696A (zh) | 基于深度学习的可见光、红外和雷达融合目标检测方法 | |
CN110705485A (zh) | 一种交通信号灯识别方法及装置 | |
CN104331901A (zh) | 一种基于tld的多视角目标跟踪装置及方法 | |
CN110427797A (zh) | 一种基于几何条件限制的三维车辆检测方法 | |
CN116630394B (zh) | 一种三维建模约束的多模态目标物体姿态估计方法及系统 | |
CN107453811B (zh) | 一种基于可见光视觉通信的无人机协同slam的方法 | |
CN206833463U (zh) | 用于物体定位与姿态分析的多色主动光源 | |
CN106446785A (zh) | 基于双目视觉的可行道路检测方法 | |
CN112053392A (zh) | 一种红外与可见光图像的快速配准与融合方法 | |
CN110349249A (zh) | 基于rgb-d数据的实时稠密重建方法及系统 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
Chiu et al. | Vision-only automatic flight control for small UAVs | |
CN115273005A (zh) | 一种基于改进yolo算法的视觉导航车环境感知方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |