CN113780078A - 无人驾驶视觉导航中故障物快速精准识别方法 - Google Patents

无人驾驶视觉导航中故障物快速精准识别方法 Download PDF

Info

Publication number
CN113780078A
CN113780078A CN202110897874.1A CN202110897874A CN113780078A CN 113780078 A CN113780078 A CN 113780078A CN 202110897874 A CN202110897874 A CN 202110897874A CN 113780078 A CN113780078 A CN 113780078A
Authority
CN
China
Prior art keywords
frame
frames
image
key
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110897874.1A
Other languages
English (en)
Other versions
CN113780078B (zh
Inventor
彭松璧
占善华
周晓霞
刘加强
张秀英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Xiweike Intelligent Technology Co ltd
Original Assignee
Guangzhou Xiweike Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Xiweike Intelligent Technology Co ltd filed Critical Guangzhou Xiweike Intelligent Technology Co ltd
Priority to CN202110897874.1A priority Critical patent/CN113780078B/zh
Publication of CN113780078A publication Critical patent/CN113780078A/zh
Application granted granted Critical
Publication of CN113780078B publication Critical patent/CN113780078B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种无人驾驶视觉导航中故障物快速精准识别方法,是针对现有同类方法的障碍物观测角度差异,导致图像数据精准性较低的技术问题而设计。其要点是该方法的步骤(1)关键帧的提取:采用深度相机获取道路上的深度图像,基于深度图像获取各物体的像素深度距离和物体索引值;针对每一帧的重点关注点,采用运动插值法重建帧与帧之间的物体运动特征,重建误差的大小来逐帧删除相似度较大的图像帧并实现消减;步骤(2)尺寸不固定的障碍物识别:在完成关键帧提取之后,会出现障碍物的大小随着关键帧选取的过程,而呈现尺寸不一的现象;障碍物的尺寸过小被剔除,采用深浅层特征图,然后结合注意力机制,实现障碍物的识别,提升物体识别的概率。

Description

无人驾驶视觉导航中故障物快速精准识别方法
技术领域
本发明涉及无人驾驶视觉导航技术,是一种无人驾驶视觉导航中故障物快速精准识别方法。
背景技术
目前在无人驾驶中,由于背景噪音较大和无人车在移动过程中产生的障碍物观测角度差异、以及图像数据不够精准等的问题,这些问题对障碍物的分析和识别产生很大的干扰。如中国专利文献中披露的申请号202110444245.3,申请公布日2021.07.06,发明名称“无人驾驶车辆的控制方法及控制装置、无人驾驶车辆”;该控制方法包括:在第一驾驶环境下,采用红外扫描设备扫描无人驾驶车辆所处的道路区域,以构建红外三维地图;采用红外三维地图、无人驾驶车辆的车辆定位信息和车身信息,分析无人驾驶车辆与周围其它车辆、障碍物的距离值;若距离值未处于安全距离范围内,则调整避碰策略;控制无人驾驶车辆按照调整后的避碰策略行驶。
发明内容
为克服上述不足,本发明的目的是向本领域提供一种无人驾驶视觉导航中故障物快速精准识别方法,使其主要解决现有无人驾驶中由于背景噪音较大和无人车在移动过程中产生的障碍物观测角度差异、以及图像数据不够精准的技术问题。其目的是通过如下技术方案实现的。
一种无人驾驶视觉导航中故障物快速精准识别方法,该方法融合视觉注意力的关键序列帧提取方法和基于深度学习的障碍物识别,实现障碍物的分析和识别;其特征在于该方法的步骤(1)关键帧的提取:采用深度相机获取道路上的深度图像,基于深度图像获取各物体的像素深度距离和物体索引值;针对每一帧的重点关注点,采用运动插值法重建帧与帧之间的物体运动特征,并以重建误差的大小来逐帧删除相似度较大的图像帧,实现图像帧的消减;步骤(2)尺寸不固定的障碍物识别:在完成关键帧提取之后,会出现障碍物的大小随着关键帧选取的过程,而呈现尺寸不一的现象;当障碍物在某一帧的尺寸过小,会在物体检测节点就会被剔除,因此采用深浅层特征图,处理尺寸不固定的障碍物的检测问题,然后结合注意力机制,实现障碍物的识别,提升物体识别的概率。
所述步骤(1)中具体图像帧的计算过程如下:
①假设时间序列t1和t2时刻的图像帧为f(t1)和f(t2),采用运动插值法对时间序列t1和t2时刻之间的时刻t的图像帧表示为:
Figure BDA0003198583860000021
②假设
Figure BDA0003198583860000022
关键物体在第f帧中特征点i的位置信息,那么定义该特征点i在两帧之间的最大距离为:
Figure BDA0003198583860000023
公式2是基于特征点做i坐标向量的欧拉距离,因为特征点在不同帧的位置坐标是通过无人车的坐标以及世界坐标反推出来的,那么基于运动插值法的不同帧之间的位置误差为:
Figure BDA0003198583860000024
③如果相邻帧的误差小于设定的误差阈值e,那么删去后一帧图像;由于删除一帧图像后,其前后帧需要重新计算,直至相邻帧的误差大于误差阈值e,算法停止;
④无人车在道路上驾驶时,由于路面来回穿梭的车辆太多,因此仅仅用重建误差的大小来提取关键帧的方法还是存在关键帧过多的问题,因此还需要进一步优化关键帧的算法,采用视觉显著性的方法,实现运动目标位置、运动方向的视觉特征显著度评价,并计算位置优先、以运动方向为辅的视觉注意度,并以关键帧在时间序列上生成一条视觉显著度曲线,并通过选取一个时间周期内视觉显著度最高的若干图像作为关键帧。
所述步骤(1)中④的视觉显著性的方法具体如下:
首先,将深度图像转化为二维图像;
假设相机坐标(x,y)和图像坐标(u,v),图像中心点坐标(x0,y0),zc表示相机坐标Z轴值,f为相机的焦距,dx和dy分别时尺度因子;上述的参数都是已知的;
基于上述的数据,计算各个物体的在某一帧世界坐标为:
Figure BDA0003198583860000025
那么基于某一帧的世界坐标,求出不同帧之间的位置偏移量和运动方向:
Figure BDA0003198583860000026
假设a=(xw,yw,zw),b=(xw',yw',zw'),那么其运动方向:
Figure BDA0003198583860000027
那么某一帧图像中的视觉显著度表示为:
Figure BDA0003198583860000031
其中w1+w2=1,并且w1>0.5;
将视觉显著度按照时间序列上生成一条视觉显著度曲线,通过选取显著度曲线极大值附近的若干帧,完成关键帧精细化的提取。
所述步骤(2)中深浅层特征图的步骤如下:①基于TinyYOLO 3网络获取图像的深浅层特征提取:Tiny YOLO 3作为YOLO 3模型的简化版本,并融合了特征金字塔网络(FPN)全卷积网络技术,快速将特定尺寸大小的图片输出成一个向量,采用Tiny YOLO 3对某些卷积层进行了上采样操作与特征图在通道维度上的连接,利用浅层的卷积特征优势对小尺寸的目标进行识别,使得小障碍物被识别出来;②在提取特征之后,考虑到不同关键帧的时间序列,采用注意力机制的方式,即采用改进深度卷积神经网络算法对图片中不同物体特征施加不同的权重,实现对障碍物的特征有效提取,在结合识别器对障碍物识别。
所述步骤(2)中②的改进深度卷积神经网络算法如下:首先,将第一帧到第k关键帧的深浅层特征进行拼接放进去CNN中,对拼接后的深浅层特征进行深度学习后;得到P维的特征向量Cr;同理,将第一帧到第k帧的关键帧分别放进去LSTM中学习,得到P×m维特征向量
Figure BDA0003198583860000032
然后结合注意力机制,采用公式
Figure BDA0003198583860000033
实现时间序列和空间序列特征的融合;再次,融合后的m×p维特征向量表示为:
Figure BDA0003198583860000034
其中αi是基于注意力机制对每一个特征向量的权重,
Figure BDA0003198583860000035
是经过LSTM获得的隐含特征;最后采用SVM识别器实现障碍物识别。
本发明融合视觉注意力的关键序列帧提取方法和基于深度学习的障碍物识别,有效地实现障碍物的分析与识别;其适用于无人驾驶视觉导航中故障物的快速精准识别,以及同类无人驾驶技术上的应用。
附图说明
图1是本发明的基于Tiny YOLO 3网络获取图像的深浅层特征提取工作原理图。
图2是本发明的工作原理图。
具体实施方式
现结合附图,对本发明的具体实施步骤进行进一步的具体描述。如图1和图2所示,该方法对于技术目的拆解为两个子问题解决来提出技术方案:(1)关键序列帧提取,该方法首先通过多帧的时空关系,基于深度相机获取深度图中每一个像素的距离和物体索引值,并结合深度阈值,保留一定深度阈值(在无人车速度在1-3米/秒的情况下,阈值一般取5-10米)范围内的物体;然后对保留物体的图片采用重建误差的方法,逐帧删除误差很小的视频帧,直到误差满足一定的范围;然后,采用视觉注意力模型对每一帧的图像计算视觉显著度,然后在时间方向上生成视觉显著度曲线,然后获取一个时间周期内注意力最高的若干图像作为关键帧。获取关键帧的原因是,如果对每一帧都要识别,则需要消耗大量的计算机内存,而部署到无人车内部或者道路旁边的边缘计算器的计算能力有限,因此需要通过关键帧的甄别来降低数据的计算量。(2)基于关键帧的分析与处理,关键帧分析的关键是将上一步骤的深度图像进行二值化处理;在此基础上,针对视觉图像多尺度场景下出现的物体大小不一而导致物体识别精度低下的现象,首先基于Tiny YOLO 3网络获取图像的深浅层特征提取;然后基于注意力机制采用改进深度卷积神经网络算法,该算法有效提取图像的整体特征,从而保证障碍物识别的精度。
该方法具体如下:步骤(1)关键帧的提取,采用深度相机获取道路上的深度图像,基于深度图像获取各物体的像素深度距离和物体索引值。考虑到背景的干扰问题,该方法保留与深度相机具有一定深度阈值范围内的物体,这是因为与深度相机近距离的物体才是深度相机关注的点(也称为关键物体),其他范围的物体会被视为噪音点,应该将其剔除,以达到数据将为、减少无关数据量计算的目的。针对每一帧的重点关注点(关键物体),采用运动插值法重建帧与帧之间的物体运动特征,并以重建误差的大小来逐帧删除相似度较大的图像帧,实现图像帧的消减。
具体图像帧的计算过程如下:
①假设时间序列t1和t2时刻的图像帧为f(t1)和f(t2),采用运动插值法对时间序列t1和t2时刻之间的时刻t的图像帧表示为:
Figure BDA0003198583860000041
②假设
Figure BDA0003198583860000042
关键物体在第f帧中特征点i的位置信息,那么定义该特征点i在两帧之间的最大距离为:
Figure BDA0003198583860000043
公式2是基于特征点做i坐标向量的欧拉距离,因为特征点在不同帧的位置坐标是通过无人车的坐标(又称为移动坐标,因为无人车是运动的)以及世界坐标(又称为固定坐标)反推出来的,在这里不进行阐述。那么基于运动插值法的不同帧之间的位置误差为:
Figure BDA0003198583860000044
③如果相邻帧的误差小于设定的误差阈值e,那么删去后一帧图像;由于删除一帧图像后,其前后帧需要重新计算,直至相邻帧的误差大于误差阈值e,算法停止。这步骤看作为关键帧的初提取阶段,仅仅是通过重建误差的大小来实现相似帧的剔除,从而在一定程度上降低算法的计算复杂度。
④无人车在道路上驾驶时,由于路面来回穿梭的车辆太多,因此仅仅用重建误差的大小来提取关键帧的方法还是存在关键帧过多的问题,因此还需要进一步优化关键帧的算法,采用视觉显著性的方法,实现运动目标位置、运动方向的视觉特征显著度评价,并计算位置优先、以运动方向为辅的视觉注意度,并以关键帧在时间序列上生成一条视觉显著度曲线,并通过选取一个时间周期内视觉显著度最高的若干图像作为关键帧。
首先,将深度图像转化为二维图像;
假设相机坐标(x,y)和图像坐标(u,v),图像中心点坐标(x0,y0),zc表示相机坐标Z轴值,f为相机的焦距,dx和dy分别时尺度因子;上述的参数都是已知的;
基于上述的数据,计算各个物体的在某一帧世界坐标为:
Figure BDA0003198583860000051
那么基于某一帧的世界坐标,求出不同帧之间的位置偏移量和运动方向:
Figure BDA0003198583860000052
假设a=(xw,yw,zw),b=(xw',yw',zw'),那么其运动方向:
Figure BDA0003198583860000053
那么某一帧图像中的视觉显著度表示为:
Figure BDA0003198583860000054
其中w1+w2=1,并且w1>0.5;
将视觉显著度按照时间序列上生成一条视觉显著度曲线,通过选取显著度曲线极大值附近的若干帧,完成关键帧精细化的提取。
步骤(2)尺寸不固定的障碍物识别:在完成关键帧提取之后,会出现障碍物的大小随着关键帧选取的过程,而呈现尺寸不一的现象;当障碍物在某一帧的尺寸过小,会在物体检测节点就会被剔除,因此采用深浅层特征图,处理尺寸不固定的障碍物的检测问题,然后结合注意力机制,实现障碍物的识别,提升物体识别的概率。
所述步骤(2)中深浅层特征图的步骤如下:①基于TinyYOLO 3网络获取图像的深浅层特征提取:Tiny YOLO 3作为YOLO 3模型的简化版本,并融合了特征金字塔网络(FPN)全卷积网络技术,快速将特定尺寸大小的图片输出成一个向量,采用Tiny YOLO 3对某些卷积层进行了上采样操作与特征图在通道维度上的连接,利用浅层的卷积特征优势对小尺寸的目标进行识别,使得小障碍物被识别出来。如图1所示。②在提取特征之后,考虑到不同关键帧的时间序列,采用注意力机制的方式,即采用改进深度卷积神经网络算法对图片中不同物体特征施加不同的权重,实现对障碍物的特征有效提取,在结合识别器对障碍物识别。
所述改进深度卷积神经网络算法如下:首先,将第一帧到第k关键帧的深浅层特征进行拼接放进去CNN中,对拼接后的深浅层特征进行深度学习后;得到P维的特征向量Cr;同理,将第一帧到第k帧的关键帧分别放进去LSTM中学习,得到P×m维特征向量
Figure BDA0003198583860000061
然后结合注意力机制,采用公式
Figure BDA0003198583860000062
实现时间序列和空间序列特征的融合;再次,融合后的m×p维特征向量表示为:
Figure BDA0003198583860000063
其中αi是基于注意力机制对每一个特征向量的权重,
Figure BDA0003198583860000064
是经过LSTM获得的隐含特征;最后采用SVM识别器实现障碍物识别。
该方法的创新点如下:(1)关键帧的提取,在关键帧提取上采用由粗到细的方法逐帧删减,得到有用的关键帧,通过重建误差的大小来逐帧删除相似度较大的图像帧,实现图像帧的消减,这是一种粗筛选的行为;通过运动目标位置、运动方向的视觉特征显著度评价图像的视觉显著度,进一步细化关键帧的筛选过程;大大降低无人驾驶中对图片分析的内存和计算时间,提升了算法的计算速度。(2)尺寸不固定的障碍物识别方法,由于无人驾驶的时候,车是移动的,因此对检测周期内物体的尺寸会发生较大范围的变化;因此,采用Tiny YOLO 3对图像的深浅层特征进行提取,避免小尺寸障碍物被忽略的现象;然后,针对不同关键帧在时间序列上应该对障碍物施加较高的权重的问题,采用注意力机制对关键帧图像的时空特征进行融合,对关键帧不同物体的权重进行自适应计算(权重无需人工定义,仅根据拼接深浅层特征的深度学习结果和LSTM的结果进行自适应计算即可),从而较高精度实现障碍物的识别,提升无人驾驶障碍物的识别精度,提升行驶安全。

Claims (5)

1.一种无人驾驶视觉导航中故障物快速精准识别方法,该方法融合视觉注意力的关键序列帧提取方法和基于深度学习的障碍物识别,实现障碍物的分析和识别;其特征在于该方法的步骤(1)关键帧的提取:采用深度相机获取道路上的深度图像,基于深度图像获取各物体的像素深度距离和物体索引值;针对每一帧的重点关注点,采用运动插值法重建帧与帧之间的物体运动特征,并以重建误差的大小来逐帧删除相似度较大的图像帧,实现图像帧的消减;步骤(2)尺寸不固定的障碍物识别:在完成关键帧提取之后,会出现障碍物的大小随着关键帧选取的过程,而呈现尺寸不一的现象;当障碍物在某一帧的尺寸过小,会在物体检测节点就会被剔除,因此采用深浅层特征图,处理尺寸不固定的障碍物的检测问题,然后结合注意力机制,实现障碍物的识别,提升物体识别的概率。
2.根据权利要求1所述的无人驾驶视觉导航中故障物快速精准识别方法,其特征在于所述步骤(1)中具体图像帧的计算过程如下:
①假设时间序列t1和t2时刻的图像帧为f(t1)和f(t2),采用运动插值法对时间序列t1和t2时刻之间的时刻t的图像帧表示为:
Figure FDA0003198583850000011
②假设
Figure FDA0003198583850000012
关键物体在第f帧中特征点i的位置信息,那么定义该特征点i在两帧之间的最大距离为:
Figure FDA0003198583850000013
公式2是基于特征点做i坐标向量的欧拉距离,因为特征点在不同帧的位置坐标是通过无人车的坐标以及世界坐标反推出来的,那么基于运动插值法的不同帧之间的位置误差为:
Figure FDA0003198583850000014
③如果相邻帧的误差小于设定的误差阈值e,那么删去后一帧图像;由于删除一帧图像后,其前后帧需要重新计算,直至相邻帧的误差大于误差阈值e,算法停止;
④无人车在道路上驾驶时,由于路面来回穿梭的车辆太多,因此仅仅用重建误差的大小来提取关键帧的方法还是存在关键帧过多的问题,因此还需要进一步优化关键帧的算法,采用视觉显著性的方法,实现运动目标位置、运动方向的视觉特征显著度评价,并计算位置优先、以运动方向为辅的视觉注意度,并以关键帧在时间序列上生成一条视觉显著度曲线,并通过选取一个时间周期内视觉显著度最高的若干图像作为关键帧。
3.根据权利要求2所述的无人驾驶视觉导航中故障物快速精准识别方法,其特征在于所述步骤(1)中④的视觉显著性的方法具体如下:
首先,将深度图像转化为二维图像;
假设相机坐标(x,y)和图像坐标(u,v),图像中心点坐标(x0,y0),zc表示相机坐标Z轴值,f为相机的焦距,dx和dy分别时尺度因子;上述的参数都是已知的;
基于上述的数据,计算各个物体的在某一帧世界坐标为:
Figure FDA0003198583850000021
那么基于某一帧的世界坐标,求出不同帧之间的位置偏移量和运动方向:
Figure FDA0003198583850000022
假设a=(xw,yw,zw),b=(xw',yw',zw'),那么其运动方向:
Figure FDA0003198583850000023
那么某一帧图像中的视觉显著度表示为:
Figure FDA0003198583850000024
其中w1+w2=1,并且w1>0.5;
将视觉显著度按照时间序列上生成一条视觉显著度曲线,通过选取显著度曲线极大值附近的若干帧,完成关键帧精细化的提取。
4.根据权利要求2所述的无人驾驶视觉导航中故障物快速精准识别方法,其特征在于所述步骤(2)中深浅层特征图的步骤如下:①基于TinyYOLO 3网络获取图像的深浅层特征提取:Tiny YOLO 3作为YOLO 3模型的简化版本,并融合了特征金字塔网络(FPN)全卷积网络技术,快速将特定尺寸大小的图片输出成一个向量,采用Tiny YOLO 3对某些卷积层进行了上采样操作与特征图在通道维度上的连接,利用浅层的卷积特征优势对小尺寸的目标进行识别,使得小障碍物被识别出来;②在提取特征之后,考虑到不同关键帧的时间序列,采用注意力机制的方式,即采用改进深度卷积神经网络算法对图片中不同物体特征施加不同的权重,实现对障碍物的特征有效提取,在结合识别器对障碍物识别。
5.根据权利要求2所述的无人驾驶视觉导航中故障物快速精准识别方法,其特征在于所述步骤(2)中②的改进深度卷积神经网络算法如下:首先,将第一帧到第k关键帧的深浅层特征进行拼接放进去CNN中,对拼接后的深浅层特征进行深度学习后;得到P维的特征向量Cr;同理,将第一帧到第k帧的关键帧分别放进去LSTM中学习,得到P×m维特征向量
Figure FDA0003198583850000025
然后结合注意力机制,采用公式
Figure FDA0003198583850000031
实现时间序列和空间序列特征的融合;再次,融合后的m×p维特征向量表示为:
Figure FDA0003198583850000032
其中αi是基于注意力机制对每一个特征向量的权重,
Figure FDA0003198583850000033
是经过LSTM获得的隐含特征;最后采用SVM识别器实现障碍物识别。
CN202110897874.1A 2021-08-05 2021-08-05 无人驾驶视觉导航中故障物快速精准识别方法 Active CN113780078B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110897874.1A CN113780078B (zh) 2021-08-05 2021-08-05 无人驾驶视觉导航中故障物快速精准识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110897874.1A CN113780078B (zh) 2021-08-05 2021-08-05 无人驾驶视觉导航中故障物快速精准识别方法

Publications (2)

Publication Number Publication Date
CN113780078A true CN113780078A (zh) 2021-12-10
CN113780078B CN113780078B (zh) 2024-03-19

Family

ID=78836965

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110897874.1A Active CN113780078B (zh) 2021-08-05 2021-08-05 无人驾驶视觉导航中故障物快速精准识别方法

Country Status (1)

Country Link
CN (1) CN113780078B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154147A (zh) * 2018-01-15 2018-06-12 中国人民解放军陆军装甲兵学院 基于视觉注意模型的感兴趣区域检测方法
CN109034018A (zh) * 2018-07-12 2018-12-18 北京航空航天大学 一种基于双目视觉的低空小型无人机障碍物感知方法
US20190096086A1 (en) * 2017-09-22 2019-03-28 Zoox, Inc. Three-Dimensional Bounding Box From Two-Dimensional Image and Point Cloud Data
CN110147763A (zh) * 2019-05-20 2019-08-20 哈尔滨工业大学 基于卷积神经网络的视频语义分割方法
CN110378349A (zh) * 2019-07-16 2019-10-25 北京航空航天大学青岛研究院 Android移动端室内场景三维重建及语义分割方法
CN111259809A (zh) * 2020-01-17 2020-06-09 五邑大学 基于DANet的无人机海岸线漂浮垃圾巡检系统
CN111860693A (zh) * 2020-07-31 2020-10-30 元神科技(杭州)有限公司 一种轻量级视觉目标检测方法及系统
CN112052802A (zh) * 2020-09-09 2020-12-08 上海工程技术大学 一种基于机器视觉的前方车辆行为识别方法
CN112364865A (zh) * 2020-11-12 2021-02-12 郑州大学 一种复杂场景中运动小目标的检测方法
WO2021056516A1 (zh) * 2019-09-29 2021-04-01 深圳市大疆创新科技有限公司 目标检测方法、设备及可移动平台

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190096086A1 (en) * 2017-09-22 2019-03-28 Zoox, Inc. Three-Dimensional Bounding Box From Two-Dimensional Image and Point Cloud Data
CN108154147A (zh) * 2018-01-15 2018-06-12 中国人民解放军陆军装甲兵学院 基于视觉注意模型的感兴趣区域检测方法
CN109034018A (zh) * 2018-07-12 2018-12-18 北京航空航天大学 一种基于双目视觉的低空小型无人机障碍物感知方法
CN110147763A (zh) * 2019-05-20 2019-08-20 哈尔滨工业大学 基于卷积神经网络的视频语义分割方法
CN110378349A (zh) * 2019-07-16 2019-10-25 北京航空航天大学青岛研究院 Android移动端室内场景三维重建及语义分割方法
WO2021056516A1 (zh) * 2019-09-29 2021-04-01 深圳市大疆创新科技有限公司 目标检测方法、设备及可移动平台
CN111259809A (zh) * 2020-01-17 2020-06-09 五邑大学 基于DANet的无人机海岸线漂浮垃圾巡检系统
CN111860693A (zh) * 2020-07-31 2020-10-30 元神科技(杭州)有限公司 一种轻量级视觉目标检测方法及系统
CN112052802A (zh) * 2020-09-09 2020-12-08 上海工程技术大学 一种基于机器视觉的前方车辆行为识别方法
CN112364865A (zh) * 2020-11-12 2021-02-12 郑州大学 一种复杂场景中运动小目标的检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BABAK NAMAZI: ""Attention-Based Surgical Phase Boundaries Detection in Laparoscopic Videos"", 《2019 INTERNATIONAL CONFERENCE ONCOMPUTATIONAL SCIENCE AND COMPUTATIONAL INTELLIGENCE(CSCI)》, pages 577 - 583 *
DDMM: ""深刻理解YOLO目标检测"", Retrieved from the Internet <URL:《https://zhuanlan.zhihu.com/p/360577585》> *
占善华: ""基于聚类分割和特征点的显著区域检测算法"", 《计算机系统应用》, vol. 27, no. 06, pages 95 - 102 *
吉协福: ""基于视觉的建筑垃圾机器人分拣系统研究"", 《中国优秀硕士学位论文全文数据库 工程科技I辑》, no. 2021, pages 027 - 1844 *

Also Published As

Publication number Publication date
CN113780078B (zh) 2024-03-19

Similar Documents

Publication Publication Date Title
CN111201451B (zh) 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置
WO2020094033A1 (en) Method and system for converting point cloud data for use with 2d convolutional neural networks
Huang et al. Robust inter-vehicle distance estimation method based on monocular vision
CN112287860B (zh) 物体识别模型的训练方法及装置、物体识别方法及系统
CN111666921A (zh) 车辆控制方法、装置、计算机设备和计算机可读存储介质
EP3686775B1 (en) Method for detecting pseudo-3d bounding box based on cnn capable of converting modes according to poses of objects using instance segmentation
CN114565655B (zh) 一种基于金字塔分割注意力的深度估计方法及装置
CN117058646B (zh) 基于多模态融合鸟瞰图的复杂道路目标检测方法
KR102546206B1 (ko) 멀티 스케일 특징들의 상관관계 및 지역적 연관성을 활용한 시맨틱 세그멘테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
CN113267761B (zh) 激光雷达目标检测识别方法、系统及计算机可读存储介质
EP3686776B1 (en) Method for detecting pseudo-3d bounding box to be used for military purpose, smart phone or virtual driving based on cnn capable of converting modes according to conditions of objects
CN112287859A (zh) 物体识别方法、装置和系统,计算机可读存储介质
Zelener et al. Cnn-based object segmentation in urban lidar with missing points
CN112395962A (zh) 数据增广方法及装置、物体识别方法及系统
CN115620393A (zh) 一种面向自动驾驶的细粒度行人行为识别方法及系统
Al Noman et al. A computer vision-based lane detection technique using gradient threshold and hue-lightness-saturation value for an autonomous vehicle
CN116778262B (zh) 一种基于虚拟点云的三维目标检测方法和系统
Danapal et al. Sensor fusion of camera and LiDAR raw data for vehicle detection
CN117392629A (zh) 基于相机与雷达融合的多模态描述符地点识别方法及系统
CN116664851A (zh) 一种基于人工智能的自动驾驶数据提取方法
CN115937520A (zh) 基于语义信息引导的点云运动目标分割方法
CN113780078A (zh) 无人驾驶视觉导航中故障物快速精准识别方法
KR101437228B1 (ko) 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치 및 방법
Esfahani et al. Towards utilizing deep uncertainty in traditional slam
Aswini et al. Drone Object Detection Using Deep Learning Algorithms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant