CN114387202B - 一种基于车端点云与图像融合的3d目标检测方法 - Google Patents
一种基于车端点云与图像融合的3d目标检测方法 Download PDFInfo
- Publication number
- CN114387202B CN114387202B CN202110714862.0A CN202110714862A CN114387202B CN 114387202 B CN114387202 B CN 114387202B CN 202110714862 A CN202110714862 A CN 202110714862A CN 114387202 B CN114387202 B CN 114387202B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- dimensional
- feature
- target
- target detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 230000004927 fusion Effects 0.000 title claims abstract description 12
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 230000006872 improvement Effects 0.000 claims abstract description 17
- 230000007246 mechanism Effects 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims abstract description 10
- 230000002776 aggregation Effects 0.000 claims abstract description 8
- 238000004220 aggregation Methods 0.000 claims abstract description 8
- 230000000694 effects Effects 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims description 2
- 230000002401 inhibitory effect Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000003062 neural network model Methods 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003238 somatosensory effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于车端点云与图像融合的3D目标检测方法。此方法由基于注意力机制改进的RetinaNet二维目标检测算法和基于特征金字塔改进的DGCNN点云特征提取算法组成,使用一种基于视锥的提取方法将点云特征投影到图像上,然后将两种算法串联融合,实现3D目标检测。其中,改进的RetinaNet二维目标检测算法中,在后端的特征提取中加入通道过滤器来抑制背景特征、突出目标特征,以加强检测效果;改进的点云特征提取算法中,在DGCNN主干网络中构建自上而下的特征金字塔聚合特征,以进行多尺度的特征提取。本发明能够综合利用丰富的多模态信息,准确识别道路场景下的各类感兴趣目标,给出目标类别以及三维包围盒,在保证高平均检测精度的同时极大程度降低漏检率。
Description
技术领域
本发明涉及目标检测领域,尤其是一种基于车端点云与图像融合的3D目标检测方法
背景技术
近年来,人工智能相关产业迅猛发展,作为综合运用多种模式识别技术的代表行业之一,自动驾驶成为我国近年来最火热发展行业之一。在物流配送、无人出租、自动化环卫作业以及港口码头自动装卸等场景下,发展势头尤为迅猛,已经有大量技术落地实施,创造了极大的社会价值。
作为场景理解任务中的关键技术,3D目标检测在自动驾驶领域中发挥着至关重要的作用。相比于分类任务,除提供目标类别信息外,3D目标检测还提供目标三维空间内的定位信息。其技术目的是找出应用场景下所有感兴趣目标,确定其所属类别以及各自的三维包围盒。
激光雷达和RGB-D相机是应用最广泛的3D目标检测传感器,随着近年来传感器制造技术的进步以及成本的下降,对应的三维目标检测技术落地应用也愈发广泛,三维数据的爆发式增长、数据场景的多元化进一步推动了3D目标检测应用技术的发展,并且极大地提升了检测效果。
除了与无人驾驶领域的发展息息相关外,3D目标检测在其他领域也有非常广阔的应用前景,例如在增强现实领域中,在对现实场景中的目标加上虚拟效果之前,需要先对其进行空间上的位置确认,定位越准确,现实场景中的目标于虚拟场景结合地才能更紧密;再如Kinect体感应用中的三维人机交互,通过深度传感器收集深度流信息,可以完成以骨骼跟踪为代表的3D目标检测相关任务,以此为基础开发的体感试衣镜,可以让客户便捷得试穿衣服,快速得到上身效果,具有巨大的应用价值。
近年来深度学习在人工智能领域发展迅猛,以其精准的识别率和高效的计算速度使得众多计算机视觉问题的瓶颈得以突破,它能够实时地对二维图像和三维点云等多模态数据进行检测,已经在很多工业领域得以应用。而基于深度学习的3D目标检测方法也已经发展成为业界的主流方法,通过借鉴在二维目标检测中应用的成熟思路,仍有广阔的应用前景。
发明内容
本发明的目的在于提供一种基于车端点云与图像融合的3D目标检测方法,为多场景下3D目标检测提供可靠参考。
实现本发明目的的技术解决方案为:一种基于车端点云与图像融合的3D目标检测方法,由基于注意力机制改进的RetinaNet二维目标检测算法和基于特征金字塔改进的DGCNN点云特征提取算法组成,使用一种基于视锥的提取方法将点云特征投影到图像上,然后将两种算法串联融合,实现3D目标检测;
基于注意力机制改进的RetinaNet二维目标检测算法,在图像中检测二维目标,得到目标的类别、二维包围框、特征图输出等信息;
基于特征金字塔改进的DGCNN点云特征提取算法,在二维目标存在的情况下,分类并回归对应的三维包围盒;
基于视锥的提取方法将处于视锥区域内的点云信息提取出,用于对目标的三维包围盒的回归。
进一步地,所述的基于注意力机制改进的RetinaNet二维目标检测算法,由以下步骤组成:
1)以ResNet、VGG等经典卷积神经网络模型作为后端骨干网络,通过一系列卷积、池化、激活层得到输入图像不同层次的特征图;
2)每个特征图都后接一个注意力机制模块,根据网络学习到的权值,自适应地对不同通道进行加权,突出目标特征,抑制背景特征;
3)对每个经自适应加权的特征图,在经特征金字塔框架得到多尺度特征图的基础上,利用anchor生成候选区域;
4)使用检测头对候选anchor进行分类和回归,得到目标类别和二维包围框;
5)损失函数使用focal loss,针对不同类别的样本比例做出平衡,有效降低样本量大的类别在损失函数中的比重。
进一步地,所述的基于特征金字塔改进的DGCNN点云特征提取算法,由以下步骤组成:
1)对输入点云作空间变换,具体作用是:保证在旋转、平移等刚性变换下,点云识别结果唯一;
2)基于Edge Convolution构建网络结构,提取点云特征;
3)对所有特征点云进行层层聚合,得到自底向上逐渐抽象的金字塔聚合特征;
4)使用mlp对聚合特征进行分类,得到目标类别信息。。
进一步地,所述的基于视锥的提取方法,其具体提取方式是:基于标定好的传感器内参数,将点云坐标以及转换矩阵转换到相机坐标系下,若转换后的点云位于视锥区域内,则提取此部分点云用于三维包围盒的回归,否则过滤掉。
进一步地,所述的基于注意力机制改进的RetinaNet二维目标检测算法中,步骤2)中注意力机制的具体作用是:对于每个特征图的channel维度,自适应地学习一个权重系数,利用学习到的权重对channel进行加权,让网络在学习过程中自行决定对哪一部分特别关注,由此达到突出目标特征、抑制背景特征的目的
所述的步骤5)中focal loss的公式如下:
focal loss(p t)=-μt(1-p t)λlog p t
其中,μt为与各类样本比例成反比的系数,其能在一定程度上抵抗类别不平衡,λ为聚焦参数,(1-p t)λ代表调整因子,通过聚焦参数可以平滑地调整易于训练样本的权重。。
进一步地,所述的基于特征金字塔改进的DGCNN点云特征提取算法中,步骤2)中Edge Convolution的具体步骤是:
1)将一个含有n个点的F维点云定义为:X=x 1,…,x n∈R F,简单表示时,F=3,代表三维坐标,更一般情况下,维度F代表某一层的特征维度;
2)使用有向图G=(v,e)表示点云局部结构,其中顶点v={1,…,n},边e∈v×v,定义边缘特征如下:
e ij=hθ(x i,x j)
其中hθ:R F×R F→R F′,是由可学习的参数θ构成的非线性函数;
3)为同时结合全局形状信息和局部邻域信息,采用以下公式对边缘特征进行扩展:
hθ(x i,x j)=hθ(x i,x i-x j)
4)将不同层次的边缘特征进行聚合拼接,使得特征金字塔中既包括低层次的普遍特征,又包含高层次的抽象特征。
本方法中对二维、三维数据的综合应用时经过实践检验并被工业界认可的配置方法,既能利用图像数据中的颜色、纹理等信息,又能发挥点云中空间结构信息的作用,是一种高效准确的3D目标检测方法,具有如下有益效果:能够综合利用丰富的多模态信息,准确识别道路场景下的各类感兴趣目标,给出目标类别以及三维包围盒,在保证高平均检测精度的同时极大程度降低漏检率。
附图说明
图1是本发明基于车端点云与图像融合的3D目标检测方法的实现流程图。
图2是图1中基于车端点云与图像融合的3D目标检测方法中基于注意力机制改进的RetinaNet二维目标检测算法的网络结构示意图。
图3是图1中基于车端点云与图像融合的3D目标检测方法中基于特征金字塔改进的DGCNN点云特征提取算法的网络结构示意图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的属于仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
本发明一种基于车端点云与图像融合的3D目标检测方法,基于注意力机制改进的RetinaNet二维目标检测算法在图像中检测二维目标,得到目标的类别、二维包围框、特征图输出等信息;基于特征金字塔改进的DGCNN点云特征提取算法,在二维目标存在的情况下,分类并回归对应的三维包围盒;然后使用一种基于视锥的提取方法将点云特征投影到图像上,将两种算法串联融合,实现3D目标检测,本方法能够综合利用丰富的多模态信息,准确识别道路场景下的各类感兴趣目标,给出目标类别以及三维包围盒,在保证高平均检测精度的同时极大程度降低漏检率。
参照图1,进一步地,对于二维图像数据源,经基于注意力机制改进的RetinaNet二维目标检测算法,得到目标类别、二维包围框、特征图等信息;
进一步地,对于三维点云数据源,经视锥点云提取算法,得到对应二维包围框内的点云数据;
进一步地,根据二维包围框相对应的点云数据,使用基于特征金字塔改进的DGCNN点云特征提取算法提取点云特征;
进一步地,使用提取的点云特征进行三维目标框的回归;
进一步地,结合二维目标检测的结果,给出感兴趣目标的类别和三维包围盒信息。
Claims (3)
1.一种基于车端点云与图像融合的3D目标检测方法,其特征在于,该方法由基于注意力机制改进的RetinaNet二维目标检测算法和基于特征金字塔改进的DGCNN点云特征提取算法组成,使用一种基于视锥的提取方法将点云特征投影到图像上,然后将两种算法串联融合,实现3D目标检测;
基于注意力机制改进的RetinaNet二维目标检测算法,在图像中检测二维目标,得到目标的类别、二维包围框、特征图输出信息基于特征金字塔改进的DGCNN点云特征提取算法,在二维目标存在的情况下,分类并回归对应的三维包围盒;
基于视锥的提取方法将处于视锥区域内的点云信息提取出,用于对目标的三维包围盒的回归;
所述的基于注意力机制改进的RetinaNet二维目标检测算法,由以下步骤组成:
1)以ResNet、VGG经典卷积神经网络模型作为后端骨干网络,通过一系列卷积、池化、激活层得到输入图像不同层次的特征图;
2)每个特征图都后接一个注意力机制模块,根据网络学习到的权值,自适应地对不同通道进行加权,突出目标特征,抑制背景特征;
3)对每个经自适应加权的特征图,在经特征金字塔框架得到多尺度特征图的基础上,利用anchor生成候选区域;
4)使用检测头对候选anchor进行分类和回归,得到目标类别和二维包围框;
5)损失函数使用focalloss,针对不同类别的样本比例做出平衡,有效降低样本量大的类别在损失函数中的比重;
所述的基于特征金字塔改进的DGCNN点云特征提取算法,由以下步骤组成:
1)对输入点云作空间变换,具体作用是:保证在旋转、平移刚性变换下,点云识别结果唯一;
2)基于EdgeConvolution构建网络结构,提取点云特征;
3)对所有特征点云进行层层聚合,得到自底向上逐渐抽象的金字塔聚合特征;
4)使用mlp对聚合特征进行分类,得到目标类别信息;
基于注意力机制改进的RetinaNet二维目标检测算法,所述的步骤5)中的focalloss,其公式如下:
focalloss(pt)=-μt(1-pt)λlogpt
其中,μt为与各类样本比例成反比的系数,其能在一定程度上抵抗类别不平衡,λ为聚焦参数,(1-pt)λ代表调整因子,通过聚焦参数可以平滑地调整易于训练样本的权重;
基于特征金字塔改进的DGCNN点云特征提取算法,所述的步骤2)中的EdgeConvolution,具体步骤是:
1)将一个含有n个点的F维点云定义为:X=x1,…,xn∈RF,简单表示时,F=3,代表三维坐标,更一般情况下,维度F代表某一层的特征维度;
2)使用有向图G=(v,e)表示点云局部结构,其中顶点v={1,…,n},边e∈v×v,定义边缘特征如下:eij=hθ(xi,xj)其中hθ:RF×RF→RF′,是由可学习的参数θ构成的非线性函数;
3)为同时结合全局形状信息和局部邻域信息,采用以下公式对边缘特征进行扩展:hθ(xi,xj)=hθ(xi,xi-xj);
4)将不同层次的边缘特征进行聚合拼接,使得特征金字塔中既包括低层次的普遍特征,又包含高层次的抽象特征。
2.根据权利要求1所述的车端点云与图像融合的3D目标检测方法,其特征在于,所述的基于视锥的提取方法,其具体提取方式是:基于标定好的传感器内参数,将点云坐标以及转换矩阵转换到相机坐标系下,若转换后的点云位于视锥区域内,则提取此部分点云用于三维包围盒的回归,否则过滤掉。
3.根据权利要求1所述的车端点云与图像融合的3D目标检测方法,基于注意力机制改进的RetinaNet二维目标检测算法,其特征在于,所述的步骤2)中的注意力机制,具体作用是:对于每个特征图的channel维度,自适应地学习一个权重系数,利用学习到的权重对channel进行加权,让网络在学习过程中自行决定对哪一部分特别关注,由此达到突出目标特征、抑制背景特征的目的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110714862.0A CN114387202B (zh) | 2021-06-25 | 2021-06-25 | 一种基于车端点云与图像融合的3d目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110714862.0A CN114387202B (zh) | 2021-06-25 | 2021-06-25 | 一种基于车端点云与图像融合的3d目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114387202A CN114387202A (zh) | 2022-04-22 |
CN114387202B true CN114387202B (zh) | 2023-05-02 |
Family
ID=81194990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110714862.0A Active CN114387202B (zh) | 2021-06-25 | 2021-06-25 | 一种基于车端点云与图像融合的3d目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114387202B (zh) |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11906625B2 (en) * | 2018-01-08 | 2024-02-20 | The Regents Of The University Of California | Surround vehicle tracking and motion prediction |
CN109523552B (zh) * | 2018-10-24 | 2021-11-02 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
US11670001B2 (en) * | 2019-05-17 | 2023-06-06 | Nvidia Corporation | Object pose estimation |
CN110390302A (zh) * | 2019-07-24 | 2019-10-29 | 厦门大学 | 一种三维目标检测方法 |
CN110517349A (zh) * | 2019-07-26 | 2019-11-29 | 电子科技大学 | 一种基于单目视觉和几何约束的3d车辆目标检测方法 |
CN111027401B (zh) * | 2019-11-15 | 2022-05-03 | 电子科技大学 | 一种摄像头和激光雷达融合的端到端目标检测方法 |
CN111832655B (zh) * | 2020-07-16 | 2022-10-14 | 四川大学 | 一种基于特征金字塔网络的多尺度三维目标检测方法 |
CN111914917A (zh) * | 2020-07-22 | 2020-11-10 | 西安建筑科技大学 | 一种基于特征金字塔网络和注意力机制的目标检测改进算法 |
CN111860666A (zh) * | 2020-07-27 | 2020-10-30 | 湖南工程学院 | 一种基于点云与图像自注意力机制融合的3d目标检测方法 |
CN112597796A (zh) * | 2020-11-18 | 2021-04-02 | 中国石油大学(华东) | 一种鲁棒的基于图卷积的点云表征学习方法 |
CN112733944A (zh) * | 2021-01-13 | 2021-04-30 | 中国传媒大学 | 基于图像和类别的注意力的目标检测方法、装置及介质 |
-
2021
- 2021-06-25 CN CN202110714862.0A patent/CN114387202B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114387202A (zh) | 2022-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10817731B2 (en) | Image-based pedestrian detection | |
Guerry et al. | Snapnet-r: Consistent 3d multi-view semantic labeling for robotics | |
CN111429514A (zh) | 一种融合多帧时序点云的激光雷达3d实时目标检测方法 | |
Qiu et al. | RGB-DI images and full convolution neural network-based outdoor scene understanding for mobile robots | |
CN110335337A (zh) | 一种基于端到端半监督生成对抗网络的视觉里程计的方法 | |
Balaska et al. | Enhancing satellite semantic maps with ground-level imagery | |
Mseddi et al. | YOLOv5 based visual localization for autonomous vehicles | |
KR20230026130A (ko) | 자율 주행을 위한 단일 계층 3차원 다중 객체 검출 장치 및 방법 | |
CN108288038A (zh) | 基于场景分割的夜间机器人运动决策方法 | |
Yan et al. | Sparse semantic map building and relocalization for UGV using 3D point clouds in outdoor environments | |
Sakib | Sensor Fusion for Intelligent Road Transportation | |
CN114463713A (zh) | 一种车辆在3d空间的信息检测方法、装置及电子设备 | |
Bakirci | Enhancing vehicle detection in intelligent transportation systems via autonomous UAV platform and YOLOv8 integration | |
Gao et al. | Research on multitask model of object detection and road segmentation in unstructured road scenes | |
Machkour et al. | Monocular based navigation system for autonomous ground robots using multiple deep learning models | |
Wang et al. | Target detection for construction machinery based on deep learning and multisource data fusion | |
Tsiourva et al. | LiDAR imaging-based attentive perception | |
Zhao et al. | DHA: Lidar and vision data fusion-based on road object classifier | |
CN114387202B (zh) | 一种基于车端点云与图像融合的3d目标检测方法 | |
Tang et al. | Environmental perception for intelligent vehicles | |
CN116071442A (zh) | 三维点云数据的处理方法、装置和无人车 | |
Yildiz et al. | CNN based sensor fusion method for real-time autonomous robotics systems | |
Zheng et al. | 3D Point Cloud Mapping Based on Intensity Feature | |
Yeboah et al. | Autonomous indoor robot navigation via siamese deep convolutional neural network | |
CN112651986B (zh) | 环境识别方法、识别装置、识别系统、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |