CN112949595A - 一种基于YOLOv5改进行人车辆安全距离检测算法 - Google Patents
一种基于YOLOv5改进行人车辆安全距离检测算法 Download PDFInfo
- Publication number
- CN112949595A CN112949595A CN202110359052.8A CN202110359052A CN112949595A CN 112949595 A CN112949595 A CN 112949595A CN 202110359052 A CN202110359052 A CN 202110359052A CN 112949595 A CN112949595 A CN 112949595A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- vehicles
- pedestrian
- yolov5
- safety distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
本发明公开了一种基于YOLOv5改进行人车辆安全距离检测算法,设及人工智能领域,包括以下步骤:(1)车辆行人图像信息的获取;(2)车辆行人图像样本的划分;(3)车辆行人图像的特征提取;(4)PANet车辆行人安全距离检测模型的构建。本发明采用PANet进行马路上车辆检测模型的构建,引入利用像素坐标以及世界坐标进行测速,避免了逆透视变换中大量重复的计算过程且将测距范围扩展到整个原始图像,从而获取更多、更有效的图像信息,有利于快速、准确检测出与被测车辆的距离,非常适合车辆驾驶防碰撞预警。
Description
技术领域
本发明设及一种基于YOLOv5改进行人车辆安全距离检测算法,属于人工智能的领域。
背景技术
随着我国经济的发展,汽车保有量飞速增长。汽车给人们出行带来便捷的同时,潜在的交通事故也威胁着驾乘人员的安全,因此很多学者开始对车辆辅助驾驶技术进行研究。车辆辅助驾驶系统的任务就是对周围环境进行感知,并对潜在的威胁源进行检测和预警。行车时前方车辆作为潜在的碰撞发生对象,对其检测和测距方法的研究具有重要意义。
因此本文提出一种新型的“行驶车辆与前车距离的快速检测系统”--基于YOLOv5的检测系统,主要针对是“行驶车辆与前车距离检测”,该系统能检测与标记行驶车辆与前车和行人距离,并在检测出行驶车辆与前车距离较近时给出提示,在不影响车主正常行驶的情况下快速检测,更好的保障驾驶安全。
发明内容
针对上述问题,本发明提出一种快速简单的行驶车辆与前车距离识别方法。
为实现上述目的,本发明发采用的技术方案为:一种基于YOLOv5改进行人车辆安全距离检测算法,包括以下步骤:
(1)车辆行人图像信息的获取;
(2)车辆行人图像样本的划分;
(3)车辆行人图像的特征提取;
(4)PANet车辆行人安全距离检测模型的构建。
作为优选,所述步骤(1)中,获取车辆行人图像信息,得到车辆行驶的图像数据集。
作为优选,所述步骤(2)中,采用随机抽样的方式将所采集的车辆行人图像数据按一定比例划分为独立不重复的验证集和测试集。
作为优选,所述步骤(3)中,用于提取车辆行人图像信息特征的路径聚合网络PANet,其中PANet,其中PANet包括四个部分,分别为:FPN特征金字塔;自底向上路径扩充;自适应池化特征层;全连接层等。
作为优选,所述步骤(4)中,在训练和测试阶段,加入世界坐标和像素坐标进行测速。利用PANet提取马路上车辆行人图像特征在验证集上构建马路上车辆测速模块,确定测速模块的参数,然后利用测试集来检测识别效果,验证模块性能。
通过上述技术方案,本发明的有益效果是:提出一种新的基于路径聚合网路PANet模型,引入世界坐标和像素坐标,避免了逆透视变换中大量重复的计算过程且将测距范围扩展到整个原始图像,从而获取更多、更有效的图像信息,有利于快速、准确检测出与被测车辆的距离。与现有技术相比,本发明的优点是:(1)由PANet网络对数据集进行训练,得到一个高效的训练结果,由此可以对车辆行驶中与前车距离的快速测算,比起以往的方法更高效;(2)加入世界坐标和像素坐标,避免了逆透视变换中大量重复的计算过程且将测距范围扩展到整个原始图像。
YOLOv5较之前的版本有以下几个改进:
DataAugmentation:图像增强是从现有的训练数据中创建新的训练样本。实验中不可能为每一个现实世界场景捕捉一个图像,因需要调整现有的训练数据以推广到其他情况,从而允许模型适应更广泛的情况。
多样化的先进数据增强技术是最大限度地利用数据集,使对象检测框架取得性能突破的关键。通过一系列图像增强技术步骤,可以在不增加推理时延的情况下提高模型的性能。
YOLOv5通过数据加载器传递每一批训练数据,并同时增强训练数据。
数据加载器进行三种数据增强:缩放,色彩空间调整和马赛克增强。马赛克数据增强确实能有效解决模型训练中最头疼的“小对象问题”,即小对象不如大对象那样准确地被检测到。
Auto Learning Bounding BoxAnchors:自适应锚框,在YOLOv5之前,主流是采用K均值和遗传学习算法对自定义数据集进行分析,获得适合自定义数据集中对象边界框预测的预设锚框。
在YOLOv5中锚框是基于训练数据自动学习的。不仅适用于标准数据集(例如COCO,PASCALVOC等),同时也适用于自定义数据集;由于目标识别框架往往需要缩放原始图片尺寸,并且数据集中目标对象的大小可能不同,因此YOLOv5会重新自动学习锚框的尺寸。
Backbone:跨阶段局部网络(CSPDarket),从输入图像中提取丰富的信息特征。CSPNet解决了其他大型卷积神经网络框架Backbone中网络优化的梯度信息重复问题,将梯度的变化从头到尾地集成到特征图中,因此减少了模型的参数量和FLOPS数值,既保证了推理速度和准确率,又减小了模型尺寸。
Neck:路径聚合网络(PANet),用于生成特征金字塔,其会增强模型对于不同缩放尺度对象的检测,从而能够识别不同大小和尺度的同一个物体。
Head:YOLO通用检测层,用于最终检测部分,在特征图上应用锚框,并生成带有类概率、对象得分和包围框的最终输出向量。
Activation Function:激活函数的选择对于深度学习网络是至关重要的。YOLOv5在中间/隐藏层使用了Leaky ReLU和最后的检测层使用了Sigmoid激活函数。
Optimization Function:提供了两个优化函数Adam和SGD,并都预设了与之匹配的训练超参数。默认为SGD。如果需要训练较小的自定义数据集,Adam是更合适的选择,尽管Adam的学习率通常比SGD低;但是如果训练大型数据集,对于YOLOv5来说SGD效果比Adam好。
Cost Function:损失计算是基于目标得分、类得分和框回归得分,使用GIoU损失作为框损失计算,另外再采用二进制交叉熵和Logistic损失函数计算类概率和目标得分的损失。
附图说明
图1本发明实施车辆测速方法的训练流程图。
图2本发明实施用于同车道被检测车辆视角定义图。
图3本发明实施异车道被检测车辆视角定义图。
图4本发明实施用于提取图像特征的网络结构简图。
图5本发明实施用于世界坐标与像素坐标转换摄像头坐标系图。
图6本发明实施用于世界坐标与像素坐标转换的线性关系图。
图7本发明实施用于车辆危险行驶区域划分示意图。
图8本发明实施用于获取车辆图像信息的摄像头安装示意图。
图9本发明实施检测效果图。
具体实施方式
下面结合说明书附图,对本发明作进一步说明,以让本领域技术人员参照说明书文字能够具体实施。
本发明在Ubuntu16.04.4LTS环境下工作,采用PyTorch为框架进行搭建,主要参数有:初始学习率为0.001,动量参数为0.937,权重系数为0.0005,训练阈值为0.65,imagesize为896×896,epoch为400等,此外,为了提高数据的多样性,对图片进行数据增强,每个步骤均以0.5的概率选择是否使用。
本发明采用的技术方案为:一种基于YOLOv5改进行人车辆安全距离检测算法,包括以下步骤:
(1)车辆行人图像信息的获取;
(2)车辆行人图像样本的划分;
(3)车辆行人图像的特征提取;
(4)PANet车辆行人安全距离检测模型的构建。
下面结合附图,对发明作进一步详细说明,本发明提供一种基于YOLOv5改进行人车辆安全距离检测算法,训练步骤如图1所示:
车辆行人图像信息的获取:获取马路上车辆行驶的图像信息,得到车辆行驶的图像数据集,为了提高本发明在实际场景中的应用能力,所收集的数据集图片均来自于现实生活中的场景,然后利用目标检测标注工具进行标注,将图片格式化为一定的图片尺寸,进而获得马路上车辆图像信息。根据被检测车辆相对于自身车辆的视角情况,将被检测车辆进一步细分为车辆前部,车辆后部和车辆侧部。如果被检测车辆与自身车辆同向行驶时,若自车行驶方向与被检测车辆行驶的方向夹角小于30°,则将被检测车辆的视角定义为车辆后部,如图2(a)所示;当被检测车辆与自身车辆相向行驶,若自车行驶方向与被检测车辆行驶方向的夹角小于30°,则将被检测车辆的视角定义为车辆前部,如图2(b)所示;其他视角的被检测车辆定义为车辆侧部,如图2(c)所示;依照同车道车辆与异车道车辆两种情况对被检测车辆进行测距检测。当被检测车辆与自身车辆同向行驶时,在车载摄像头获取的实时图像中,以能否观察到被检测车辆的后轮作为判断依据,若能观察到被检测车辆的后轮,则将被检测车辆的视角定义为车辆后部,否则将被检测车辆的视角定义为车辆侧部,如图3(a)所示;当被检测车辆与自身车辆相向行驶时,在车载摄像头获取的实时图像中,以能否观察到被检测车辆的前轮作为判断依据,若能观察到被检测车辆的前轮,则将被检测车辆的视角定义为车辆前部,否则将被检测车辆的视角定义为车辆侧部,如图3(b)所示。
车辆行人图像样本的划分:本发明采用随机抽样的方式对马路上行驶车辆的图像数据按照验证集80%,测试集20%的比例将马路上行驶车辆图像数据划分为独立的验证集和测试集。
PANet车辆行人图像的特征提取,如附图4中展示了网络的结构图,该网络主要包括四个部分:(1)FPN特征金字塔,主要作用是通过融合高低层特征提升目标检测的效果,尤其是可以提高小尺寸目标的检测,例如在店面排列拥挤,广告牌尺寸较小,选择FPN可以显著提升效果;(2)自底向上路径扩充,主要考虑到网络浅层特征信息对于实例分割非常重要,浅层特征多是边缘形状等特征,而实例分割是像素级别的分类;(3)自适应池化特征层,主要目的是特征融合,将单层特征换成多层特征,使得提取到的ROI特征更加丰富;(4)全连接层是针对原有的分割支路引入一个前背景二分类的全连接支路,通过融合这两条支路的输出得到更加精确。
PANet车辆行人安全距离检测模型的构建,采用信息融合的方法对车辆碰撞预警模型进行构建,加入世界坐标和像素坐标,以保证快速准确的测量自身车辆与被测车辆的距离。车辆碰撞预警模型由危险行驶区域子模型和车辆视角检测子模型组合而成,并将车辆视角检测子模型中的车辆位置信息、车辆视角信息和危险行驶区域子模型中的危险行驶区域信息在模型中进行融合,目的是在复杂行驶环境下为驾驶员提供预警信息,降低驾驶员分心程度,辅助驾驶员更加方便、安全地行驶在复杂的非结构化道路上。
世界坐标与像素坐标转换如下所示:
摄像头坐标系如图5所示,假设世界坐标系中有一点P,坐标为(Xw,Yw,Zw),其中摄像头坐标系下的坐标为(Xc,Yc,Zc),在图像坐标系下的投影点为P'(x,y),摄像头焦距为f,由透视几何关系可得:
表示为矩阵关系为:
图像坐标系xy和像素坐标系uv在同一个平面内。如图6所示,两坐标系之间存在着线性关系。图中O1表示图像坐标系的原点,其在像素坐标系中的坐标为(u0,v0).两坐标系间的转换关系如下所示:
其中,dx、dy分别表示单位像素在图像坐标系x、y轴方向上的物理尺寸。点P的世界坐标与摄像头坐标之间的转化关系为:
其中,R为单位正交旋转矩阵;T为平移向量;这两个参数是摄像头外参数,他们决定了摄像头和世界坐标之间的空间位置关系。
下面求出点P的世界坐标与其投影点的像素坐标之间的转换关系:
其中,M1为摄像头内参数模型,它仅与摄像头自身结构有关,可以通过摄像头标定获得。M2为摄像头外参数;fx=f/dx,fy=f/dy。
利用世界坐标和像素坐标构建车辆危险行驶区域子模型,根据行驶到某一区域所需时间长短将部分未来行驶区域确定为危险行驶区域,并将该部分区域具体划分为三个区域,如图7所示:
在图中,WL为车道宽度,危险行驶区域的横向距离以自身车辆宽度WV为标准,纵向距离根据三块区域的作用分别作出解释。
区域一为目标车辆提醒区域,用于提醒驾驶员前方存在障碍车辆的区域。此区域纵向距离D1通过两个参数获取,分别是驾驶员对提醒的反应时间T和自车计算车速V。D1单位为m,T单位为s,V单位为m/s,区域纵向距离D1计算公式为:
D1=v*T
区域二为减速提醒区域,用于警告驾驶员需要减速行驶的区域。此区域纵向距离D2通过两个参数获取,分别是自身车辆制动减速度a和自车计算车速v。D2单位为m,v单位为m/s,a单位为m/s2,区域纵向距离D2计算公式为:
区域三为停车安全区域,用于表示车辆安全停车后与前方目标车辆保持安全距离的区域。通常停车安全距离设定为2~5米,为提高车辆预警安全性,本发明选择5米作为停车安全距离,因此区域三的纵向距离D3为5米。
获得危险行驶区域横向距离值和纵向距离值之后,需要将实际道路里的危险行驶区域在摄像头获取的图像中显示出来,给驾驶员以直观的视觉感受。本文采用基于摄像头模型的转换方法。获取摄像头相关内部参数和摄像头安装位置参数,根据摄像头几何模型确定实际位置坐标与图像坐标之间的转换关系。车载摄像头安装位置示意图如图8所示。
图中θ是摄像头的俯仰角,即摄像头光轴与水平线之间的角度,α为路面上的点P与摄像头光轴之间的角度,f为摄像头焦距,h为摄像头与地面之间的距离,D为点P到摄像头的横向距离。点(x0,y0)是摄像头光轴与图像平面的交点,点(xp,yp)是点P在图像平面的投影点。图中几何关系如式所示:
由于参数θ、h、y0、f已知,通过危险行驶区域纵向距离值确定D之后,就可以由公式计算得到yp,即得到实际位置坐标与图像坐标的对应关系。
图9展示了本发明的测试后的效果图,共挑选了四张图片。本文挑选了车辆驾驶过程中的行车影像作为样本进行研究。实验结果表明,本发明提出的一种基于YOLOv5改进行人车辆安全距离检测算法能够有效测量纵向55m、横向4.5m以内的目标距离,测量误差在5%以内。因此,本发明设计的测距算法精度较高,可以满足前方防碰撞预警系统的要求。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例的技术方案也可以经适当的组合,形成本领域技术人员可以理解的其他实施方式。
Claims (5)
1.一种基于YOLOv5改进行人车辆安全距离检测算法,包括以下步骤:
(1)车辆行人图像信息的获取;
(2)车辆行人图像样本的划分;
(3)车辆行人图像的特征提取;
(4)PANet车辆行人安全距离检测模型的构建。
2.根据权利要求1所描述的一种基于YOLOv5改进行人车辆安全距离检测算法,其特征在于:所描述步骤(1)中,获取车辆行人的图像信息,得到车辆的图像数据集,为了提高本发明在实际场景中的应用能力,所收集的数据集图片均来自于现实生活中的场景,然后利用目标检测标注工具进行标注,将图片格式化为一定的图片尺寸,进而获得车辆图像信息。根据被检测车辆相对于自身车辆的视角情况,将被检测车辆进一步细分为车辆前部,车辆后部和车辆侧部,依照同车道车辆与异车道车辆两种情况对被检测车辆进行测距检测,当自身车辆和被测车辆之间距离过近时,给出报警提示。
3.根据权利要求1所描述的一种基于YOLOv5改进行人车辆安全距离检测算法,其特征在于:所描述步骤(2)中,采取随机抽样的方式将所采集的车辆行人图像数据按一定的比例划分为独立不重复的验证集和测试集。
4.根据权利要求1所描述的一种基于YOLOv5改进行人车辆安全距离检测算法,其特征在于所描述步骤(3)中用于提取车辆图像信息特征的路径聚合网络(Path AggregationNetworks,PANet),是一种实例分割框架下的网络,目的在于提高提高基于提议的实例分割框架的信息流。具体而言,通过自上而下的路径增强在较低层使用精确定位信号来增强整个要素层次结构,缩短了较低层和最顶层功能之间的信息路径。PANet主要包括以下四个部分:
(1)FPN(Feature Pyramid Networks):通过融合高低层特征提升目标检测的效果;
(2)自底向上路径扩充(bottom-up path augmentation):主要考虑网络浅层特征信息对于实例分割的重要性;
(3)自适应池化特征层(Adaptive Feature Pooling):每个proposal利用金字塔所有层的特征,避免proposal的随意分配;
(4)全连接层(Fully-connected Fusion):给掩码预测增加信息来源,并在输出检测头加入空洞卷积网络,提供更大的感受野,使得融合输出的分支结果更加精确。
5.根据权利要求1所描述的一种基于YOLOv5改进行人车辆安全距离检测算法,其特征在于所描述步骤(4)中,在训练和测试阶段,加入世界坐标和像素坐标进行测速。利用PANet提取马路上车辆行人图像特征在验证集上构建马路上车辆测速模块,确定测速模块的参数,然后利用测试集来检测识别效果,验证模块性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110359052.8A CN112949595A (zh) | 2021-04-01 | 2021-04-01 | 一种基于YOLOv5改进行人车辆安全距离检测算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110359052.8A CN112949595A (zh) | 2021-04-01 | 2021-04-01 | 一种基于YOLOv5改进行人车辆安全距离检测算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112949595A true CN112949595A (zh) | 2021-06-11 |
Family
ID=76232154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110359052.8A Pending CN112949595A (zh) | 2021-04-01 | 2021-04-01 | 一种基于YOLOv5改进行人车辆安全距离检测算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112949595A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114463430A (zh) * | 2022-04-13 | 2022-05-10 | 威海经济技术开发区天智创新技术研究院 | 一种基于图像处理的海洋搜救系统和方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914715A (zh) * | 2020-07-24 | 2020-11-10 | 廊坊和易生活网络科技股份有限公司 | 一种基于仿生视觉的智能车目标实时检测与定位方法 |
CN112232314A (zh) * | 2020-12-11 | 2021-01-15 | 智道网联科技(北京)有限公司 | 一种基于深度学习进行目标检测的车辆控制方法和装置 |
CN112233092A (zh) * | 2020-10-16 | 2021-01-15 | 广东技术师范大学 | 一种用于无人机电力巡检智能缺陷检测的深度学习方法 |
CN112287899A (zh) * | 2020-11-26 | 2021-01-29 | 山东捷讯通信技术有限公司 | 基于yolo v5的无人机航拍图像河流排污口检测方法及系统 |
US20210042532A1 (en) * | 2019-08-06 | 2021-02-11 | Cisco Technology, Inc. | Video analysis using a deep fusion reasoning engine (dfre) |
-
2021
- 2021-04-01 CN CN202110359052.8A patent/CN112949595A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210042532A1 (en) * | 2019-08-06 | 2021-02-11 | Cisco Technology, Inc. | Video analysis using a deep fusion reasoning engine (dfre) |
CN111914715A (zh) * | 2020-07-24 | 2020-11-10 | 廊坊和易生活网络科技股份有限公司 | 一种基于仿生视觉的智能车目标实时检测与定位方法 |
CN112233092A (zh) * | 2020-10-16 | 2021-01-15 | 广东技术师范大学 | 一种用于无人机电力巡检智能缺陷检测的深度学习方法 |
CN112287899A (zh) * | 2020-11-26 | 2021-01-29 | 山东捷讯通信技术有限公司 | 基于yolo v5的无人机航拍图像河流排污口检测方法及系统 |
CN112232314A (zh) * | 2020-12-11 | 2021-01-15 | 智道网联科技(北京)有限公司 | 一种基于深度学习进行目标检测的车辆控制方法和装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114463430A (zh) * | 2022-04-13 | 2022-05-10 | 威海经济技术开发区天智创新技术研究院 | 一种基于图像处理的海洋搜救系统和方法 |
CN114463430B (zh) * | 2022-04-13 | 2022-07-01 | 威海经济技术开发区天智创新技术研究院 | 一种基于图像处理的海洋搜救系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cui et al. | Vehicle localisation using a single camera | |
CN111460919B (zh) | 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法 | |
CN107031623A (zh) | 一种基于车载盲区相机的道路预警方法 | |
Cai et al. | Night-time vehicle detection algorithm based on visual saliency and deep learning | |
US11688179B2 (en) | Inferring intent using computer vision | |
Mahaur et al. | Road object detection: a comparative study of deep learning-based algorithms | |
KR20120032897A (ko) | 개체 검출 방법 및 시스템 | |
CN107985189A (zh) | 面向高速驾驶环境下的驾驶员变道深度预警方法 | |
Hechri et al. | Robust road lanes and traffic signs recognition for driver assistance system | |
CN107031661A (zh) | 一种基于盲区相机输入的变道预警方法及系统 | |
Zhang et al. | A framework for turning behavior classification at intersections using 3D LIDAR | |
Kavitha et al. | Pothole and object detection for an autonomous vehicle using yolo | |
CN114973199A (zh) | 一种基于卷积神经网络的轨道交通列车障碍物检测方法 | |
Arthi et al. | Object detection of autonomous vehicles under adverse weather conditions | |
CN112949595A (zh) | 一种基于YOLOv5改进行人车辆安全距离检测算法 | |
CN117115690A (zh) | 一种基于深度学习和浅层特征增强的无人机交通目标检测方法及系统 | |
Álvarez et al. | Perception advances in outdoor vehicle detection for automatic cruise control | |
CN116630702A (zh) | 一种基于语义分割网络的路面附着系数预测方法 | |
KR102423218B1 (ko) | 심층 신경망을 이용한 도로 노면 손상 및 장애물 동시 탐지 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체. | |
CN114882205A (zh) | 基于注意力机制的目标检测方法 | |
Juyal et al. | Object Classification Using A rtificial I ntelligence Technique sin Autonomous Vehicles | |
Al Khafaji et al. | Traffic Signs Detection and Recognition Using A combination of YOLO and CNN | |
Zhang | MASFF: Multiscale Adaptive Spatial Feature Fusion Method for vehicle recognition | |
CN111611942B (zh) | 一种透视自适应车道骨架提取建库的方法 | |
Jiang et al. | The Researches Detection Method of Illegal Parking Based on Convolutional Neural Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210611 |