CN109508710A - 基于改进YOLOv3网络的无人车夜间环境感知方法 - Google Patents
基于改进YOLOv3网络的无人车夜间环境感知方法 Download PDFInfo
- Publication number
- CN109508710A CN109508710A CN201811235933.3A CN201811235933A CN109508710A CN 109508710 A CN109508710 A CN 109508710A CN 201811235933 A CN201811235933 A CN 201811235933A CN 109508710 A CN109508710 A CN 109508710A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- bounding box
- network
- yolov3 network
- night
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Abstract
本发明涉及一种基于改进YOLOv3网络的无人车夜间环境感知方法。本发明应用于无人车领域,将YOLOv3网络应用于夜间红外图像,改进后的YOLOv3网络具有端到端的特点,将红外图像中周边车辆角度信息加入到YOLOv3网络边界框位置信息中,对周边车辆行驶意图做出判断,实现周边车辆角度预测,输入一张图像直接可以预测出目标信息,大幅提升速度的同时加强了对小目标物体的检测,有效的保证了预测的正确性和实时性。
Description
技术领域
本发明涉及一种改进YOLOv3网络的无人车夜间环境感知方法,属于夜视红 外图像处理领域。
背景技术
无人车在行驶过程中需要对环境信息进行实时获取并处理。近年来无人车夜 视场景的环境感知研究受到广泛关注,从目前的大多数技术方案来看,多数采用 激光雷达对周围环境三维空间感知来获取环境信息,其次是相机获取的图像信息, 以及毫米波雷达获取的定向目标距离信息。但激光雷达价格昂贵,相较于可见光 图像,红外图像能够在夜间提供更丰富的视觉信息,为无人车安全驾驶提供保障。 因此采用夜间拍摄的红外图像进行环境感知具有重要的研究意义。
无人车的环境感知目前多应用于可见光领域,夜视图像研究较少。夜视图像 环境感知能够扩展无人车在夜间的识别能力。夜间拍摄的红外图像纹理信息少, 图像成像模糊,相比可见光条件下的无人车环境感知难度更大。
夜间环境感知中的核心问题之一是无人车周边行人以及车辆的检测,夜间道 路能见度低,采用夜间无人车获取的单目红外图像对夜间行人,车辆进行目标检 测,可以有效帮助无人车对障碍物及时作出合理决策。
在计算机视觉领域,目标检测主要解决两个问题:图像上多个目标在哪里(位 置)以及是什么(类别)。其发展历程分为3个阶段:
第一阶段、传统的目标检测方法。大致思想为,首先在给定的图像上选择一 些候选的区域,然后对这些区域提取特征,最后使用训练的分类器进行分类。
第二阶段、以R-CNN为代表的结合候选区域(Region proposal)和CNN分类 的目标检测框架(如R-CNN,SPP-NET,Fast R-CNN,Faster R-CNN,R-FCN)。
第三阶段、以YOLO为代表的将目标检测转换为回归问题的端到端 (End-to-End)的目标检测框架(如YOLO,SSD)。
目标检测算法可以让无人车在不使用昂贵的雷达传感器情况下传达实时的 场景信息,帮助无人车快速做出相应决策。YOLO网络改进了Faster R-CNN使用 区域建议网络(RPN)生成候选区域,再用分类算法对候选区域分类后得到目标 边界的方法,改用整张图作为网络的输入,直接在输出层回归边界框的位置和边 界框所属的类别。YOLO网络遵循端到端训练和实时检测,检测速度较Faster R-CNN大幅提升,解决了目前基于深度学习检测中的速度问题,真正实现实时性。
周边车辆的行驶方向对帮助无人车感知周边环境变化具有重要意义。如果将 目标检测与车辆行驶方向信息结合,可以帮助无人车根据车辆行驶方向判断周边 车辆的行驶意图,辅助无人车进行决策。如何获取周边车辆的方向信息,判断车 辆行驶意图,帮助无人车对目标车辆及时作出决策是难点。
目前国内外对于夜间红外图像的环境感知研究还不够深入,尚无成熟的解决 方案。
发明内容
本发明的目的是:结合在彩色可见光图像处理领域较为成功的YOLOv3网络 进行夜间红外图像的目标检测,并提出改进的YOLOv3网络对识别的车辆进行方 向判断,为无人车在恶劣视觉条件下提供丰富且直观的环境信息。
为了达到上述目的,本发明的技术方案是提供了一种基于改进YOLOv3网络 的无人车夜间环境感知方法,其特征在于,包括以下步骤:
步骤1、构建夜视图像数据集,挑选无人车采集的红外图像,对这些红外图 像中包含的行人及车辆进行真实目标位置标注,得到样本文件;
步骤2、对原始红外图像中目标车辆的角度进行人工标定,构成车辆角度样 本文件,与步骤1得到的样本文件组成夜视图像目标与车辆角度样本文件;
步骤3、构建改进的YOLOv3网络,该改进的YOLOv3网络为加入车辆角度 预测的YOLOv3网络,利用步骤2得到的夜视图像目标与车辆角度样本文件训练 改进的YOLOv3网络,通过改进的YOLOv3网络提取特征,从而得到特征图;
步骤4、将整幅特征图划分成S×S个网格,每个网格生成B个边界框,每个 边界框预测6个值,分别为:位置信息(x,y,w,h)、置信度和角度,(x,y)表示边界 框相对于网格中心的的坐标,(w,h)是边界框相对于整张图片的高度和宽度,将 每个边界框根据类别置信度预测一个类别信息,类别分为行人及车辆;
步骤5、根据步骤4得到的类别信息,当类别为车辆时,给出预测车辆的角 度信息和车辆边界框,当类别为行人时,给出目标行人边界框;
步骤6:根据设定的阈值筛选出对于特定类别的置信度得分高的边界框,并 用非极大抑制算法删除重叠的边界框,得到最终目标边界框和车辆角度预测结果。
优选地,步骤1中,进行真实目标位置标注的方法为:将红外图像中包含的 所有行人和车辆目标用框标出,将图像中车辆、行人的数目以及车辆、行人的边 界框的左上右下4个坐标信息记录到样本文件中。
优选地,步骤3中,所述改进的YOLOv3网络中,采用Darknet-53网络作 为特征提取网络,经过一系列的卷积、下采样后将卷积的通道数翻倍,提取特征 后再使用1×1和3×3的卷积和交替操作,最后使用平均-池化进行预测。
优选地,步骤4中,基于目标anchor boxes的思想,使每个所述网格的周 围生成几个固定比例的边框,通过设定anchor的个数,采用K-Means聚类方法 得出anchor的大小。
优选地,目标车辆的周边车辆的车辆角度是以车辆边界框中心水平向右为零 度,逆时针角度变大,旋转一圈为360度。
本发明的优点是:
本发明应用于无人车领域,将YOLOv3网络应用于夜间红外图像,改进后的 YOLOv3网络具有端到端的特点,将红外图像中周边车辆角度信息加入到YOLOv3 网络边界框位置信息中,对周边车辆行驶意图做出判断,实现周边车辆角度预测, 输入一张图像直接可以预测出目标信息,大幅提升速度的同时加强了对小目标物 体的检测,有效的保证了预测的正确性和实时性。
附图说明
图1为改进YOLOv3网络的夜间红外图像环境感知流程图。首先需要对夜视 图像进行人工标记,得到夜视图像真实目标位置及车辆角度信息。然后构建改进 的YOLOv3网络,将训练图像和对应的标注信息放入构建的网络中进行迭代学习, 得到网络的模型参数。接着输入测试图像,改进的YOLOv3网络会根据前面训练 得到的模型参数对测试图像进行目标检测和车辆角度预测,最终得到红外图像环 境感知结果。
图2为改进的YOLOv3网络结构图。在分类网络的基础上增加多尺度预测, 采用三个尺度分别负责预测不同大小的物体,使用聚类方法得到9个聚类中心, 将其按照大小均分给3种尺度。
图3为本发明的夜间环境感知实验结果。第一行为测试图像,第二行为人工 标记的图像,第三行为测试结果。实验结果表明,本发明构建的改进的YOLOv3 网络对夜间无人车环境感知有非常好的检测效果。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明 本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之 后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本 申请所附权利要求书所限定的范围。
如图1所示,基于改进YOLOv3网络的无人车夜间环境感知的具体实施如下:
步骤1:采用实验室夜晚采集的雪天红外数据构建夜视图像数据集。通过标 记工具Labellmg对样本图像进行人工标注。类别分为两类——行人和车辆。将 图片中车辆、行人的数目以及车辆、行人的边界框的左上右下4个坐标信息记 录到样本文件中。数据集包含训练图片8000张,测试图片800张,图片尺寸为 768*576。
步骤2:对步骤1中标记的车辆用python进行角度标定,以车辆边界框中 心水平向右为零度,逆时针角度变大,旋转一圈为360度。构成车辆角度样本 文件,与步骤1得到的样本文件组成夜视图像目标与车辆角度样本文件。
步骤3:构建改进的YOLOv3网络,利用步骤1和步骤2得到的夜视图像目 标与车辆角度样本文件训练该改进的YOLOv3网络,其中:改进的YOLOv3网络 为加入车辆角度预测的YOLOv3网络,通过改进的YOLOv3网络提取输入的原始 图像的特征,从而得到特征图。
本发明的算法采用在VGG-16网络结构上修改的Darknet-53网络作为特征提 取网络。VGG-16是常用的特征提取网络,作为分类网络,它准确率高,但十分 复杂,计算量十分庞大。Darknet-53网络共有53个卷积层,下采样后将卷积的 通道数翻倍,提取特征后再使用1×1和3×3的卷积和交替操作,其中,3×3的 卷积增加通道数,1×1的卷积用于压缩3×3卷积后的特征表示,最后使用平均- 池化进行预测,有效减少计算次数,增加了网络的实用性。
假设深度卷积神经网络f,参数θ,则f的数学表达式为:
f(x;θ)=WLHL-1
HL=pool(relu(WLHL-1+bL))
式中,X为红外图像;HL为L层隐层单元的输出;bL为L层的偏差值;WL为L层 的权值,且bL和WL组成可训练的参数θ;pool()表示池化操作,即将小邻域内 的特征点整合得到新特征,使得特征减少,参数减少,且池化单元具有平移不变 性,池化的方法主要包括平均-池化和最大值-池化,本发明在最后一层使用平均 -池化;relu()表示对特征图作一个非线性变换,使得想要的信息通过而过滤掉 不想要的信息;L为不小于.1的整数。Darknet-53网络的详细配置如表1所示
表1 Darknet-53网络的详细配置
YOLO网络在原理上仅对最后一层卷积输出层进行检测,但小物体像素少, 经过层层卷积,在这一层上的信息几乎体现不出来,导致难以识别。YOLOv3网 络针对这个问题,加入了FPN(特征金字塔网络),使网络在小物体的识别上性 能大幅提升。FPN工作原理为:图片经过Darknet-53网络第K次卷积操作后得 到尺寸为32×32的特征图,接着进行M次卷积操作,得到尺寸为16×16的特 征图,接着进行N次卷积操作,得到第一个输出层,尺寸为8×8,用来检测大 物体。将第一个输出层得到的尺寸为8×8特征图进行上采样操作后,与Darknet-53网络得到的尺寸为16×16的特征图融合,再经过卷积操作得到第二 个输出层,尺寸为16×16,用来检测中物体。将第二个输出层得到的尺寸为 16×16特征图进行上采样操作后,与Darknet--53网络得到的尺寸为32×32的 特征图融合,再经过卷积操作得到第三个输出层,尺寸为32×32,用来检测小 物体。具体网络结构如图2所示。
步骤4:将整幅图片划分成S×S个网格,当目标的中心落入某个网格中,这 个网格就负责预测这个目标。采用目标anchor boxes的思想,使每个网格的周 围生成几个固定比例的边框。通过设定anchor的个数,采用K-Means聚类方法 得出anchor的大小,计算公式为:
bx=σ(x)+cx
by=σ(y)+cy
bw=pwew
bh=pheh
式中,bx为边界框中的偏移量;σ(x)、σ(y)为某个网格左上角的偏移量经过 σ函数转化为[0,1]区间的值;cx、cy为网格左上角的坐标,其均是单位为1的值; by为边界框中的偏移量;bw为边界框的宽度,pw、ph分别为Anchor Boxes的宽 和高;ew为网络输出值w的指数运算;bh为边界框的高度;eh为网络输出值h 的指数运算。
每个边界框预测6个值,包括:自身的位置信息(x,y,w,h)、置信度(Confidence)和角度(Angle)。(x,y)表示边界框相对于网格中心的的坐标,(w,h)是边界框相 对于整张图片的高度和宽度。边界框位置信息(x,y,w,h)根据网络预测结果得到, 将公式得到的bx、by,bw、bh归一化,得到新的边界框位置信息。
置信度(Confidence)包含两个维度:一个是预测的边界框中含有目标的置 信度,另一个是衡量预测的边界框是否准确,公式为:
式中,Pr(object)用来衡量目标是否落在网格中,如果目标落在网格中 Pr(object)=1,否则Pr(object)=0。表示预测的边界框与实际边界框的交 并比。每个边界框预测一个类别信息C与边界框预测的置信度相乘,得到每个 边界框对于特定类别的置信度得分:
其中,Pr(Classi|obiect)代表物体属于第i类的概率,Pr(Classi)代表第i类 的概率。
根据概率最终得到物体类别信息(行人,车辆)。
步骤5:根据步骤4得到的类别信息,当类别为车时,给出预测车辆的角度 信息和车辆边界框,当类别为行人时,给出目标行人边界框。具体表示为
C=car,angle=[0,1]
C=person,angle=-1
当类别C判定为车car时,上式中的角度值angle根据车辆角度预测的定义, 将预测得到的0~1之间的值转换为角度值α,计算公式为:
α=angle×360°
当类别C判定为行人person时,角度值angle预测一个-1值。
步骤6:根据步骤4得到的每个边界框对于特定类别的置信度得分值,设置 相应阈值筛选出对于特定类别的置信度得分高的边界框,并用非极大抑制算法 (NMS)删除重叠的边界框,结合步骤5得到最终目标边界框和车辆角度预测结 果。结果如图3所示。
实验表明,本发明中使用的改进的YOLOv3网络应用于无人车夜间采集的红 外图像环境感知有非常好的效果,准确率高,实时性好。
Claims (5)
1.一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,包括以下步骤:
步骤1、构建夜视图像数据集,挑选无人车采集的红外图像,对这些红外图像中包含的行人及车辆进行真实目标位置标注,得到样本文件;
步骤2、对原始红外图像中目标车辆的角度进行人工标定,构成车辆角度样本文件,与步骤1得到的样本文件组成夜视图像目标与车辆角度样本文件;
步骤3、构建改进的YOLOv3网络,该改进的YOLOv3网络为加入车辆角度预测的YOLOv3网络,利用步骤2得到的夜视图像目标与车辆角度样本文件训练改进的YOLOv3网络,通过改进的YOLOv3网络提取特征,从而得到特征图;
步骤4、将整幅特征图划分成S×S个网格,每个网格生成B个边界框,每个边界框预测6个值,分别为:位置信息(x,y,w,h)、置信度和角度,(x,y)表示边界框相对于网格中心的的坐标,(w,h)是边界框相对于整张图片的高度和宽度,将每个边界框根据类别置信度预测一个类别信息,类别分为行人及车辆;
步骤5、根据步骤4得到的类别信息,当类别为车辆时,给出预测车辆的角度信息和车辆边界框,当类别为行人时,给出目标行人边界框;
步骤6:根据设定的阈值筛选出对于特定类别的置信度得分高的边界框,并用非极大抑制算法删除重叠的边界框,得到最终目标边界框和车辆角度预测结果。
2.如权利要求1所述的一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,步骤1中,进行真实目标位置标注的方法为:将红外图像中包含的所有行人和车辆目标用框标出,将图像中车辆、行人的数目以及车辆、行人的边界框的左上右下4个坐标信息记录到样本文件中。
3.如权利要求1所述的一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,步骤3中,所述改进的YOLOv3网络中,采用Darknet-53网络作为特征提取网络,经过一系列的卷积、下采样后将卷积的通道数翻倍,提取特征后再使用1×1和3×3的卷积和交替操作,最后使用平均-池化进行预测。
4.如权利要求1所述的一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,步骤4中,基于目标anchor boxes的思想,使每个所述网格的周围生成几个固定比例的边框,通过设定anchor的个数,采用K-Means聚类方法得出anchor的大小。
5.如权利要求1所述的一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,目标车辆的周边车辆的车辆角度是以车辆边界框中心水平向右为零度,逆时针角度变大,旋转一圈为360度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811235933.3A CN109508710A (zh) | 2018-10-23 | 2018-10-23 | 基于改进YOLOv3网络的无人车夜间环境感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811235933.3A CN109508710A (zh) | 2018-10-23 | 2018-10-23 | 基于改进YOLOv3网络的无人车夜间环境感知方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109508710A true CN109508710A (zh) | 2019-03-22 |
Family
ID=65746078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811235933.3A Pending CN109508710A (zh) | 2018-10-23 | 2018-10-23 | 基于改进YOLOv3网络的无人车夜间环境感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109508710A (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119726A (zh) * | 2019-05-20 | 2019-08-13 | 四川九洲视讯科技有限责任公司 | 一种基于YOLOv3模型的车辆品牌多角度识别方法 |
CN110287747A (zh) * | 2019-07-01 | 2019-09-27 | 深圳江行联加智能科技有限公司 | 一种基于端到端深度网络的条形码检测方法 |
CN110363100A (zh) * | 2019-06-24 | 2019-10-22 | 昆明理工大学 | 一种基于YOLOv3的视频目标检测方法 |
CN110503070A (zh) * | 2019-08-29 | 2019-11-26 | 电子科技大学 | 基于航拍图像目标检测处理技术的交通自动化监测方法 |
CN110910378A (zh) * | 2019-11-29 | 2020-03-24 | 南通大学 | 一种基于深度融合网络的双模态图像能见度检测方法 |
CN111027493A (zh) * | 2019-12-13 | 2020-04-17 | 电子科技大学 | 一种基于深度学习多网络软融合的行人检测方法 |
CN111160368A (zh) * | 2019-12-24 | 2020-05-15 | 中国建设银行股份有限公司 | 图像中目标检测方法、装置、设备及存储介质 |
CN111353393A (zh) * | 2020-02-19 | 2020-06-30 | 桂林电子科技大学 | 一种基于神经网络的犬只检测与预警系统 |
CN111353481A (zh) * | 2019-12-31 | 2020-06-30 | 成都理工大学 | 基于激光点云与视频图像的道路障碍物识别方法 |
CN111444801A (zh) * | 2020-03-18 | 2020-07-24 | 成都理工大学 | 一种无人机红外目标实时检测方法 |
CN111709381A (zh) * | 2020-06-19 | 2020-09-25 | 桂林电子科技大学 | 基于YOLOv3-SPP的道路环境目标检测方法 |
CN111746521A (zh) * | 2020-06-29 | 2020-10-09 | 芜湖雄狮汽车科技有限公司 | 泊车路线的规划方法、装置、设备及存储介质 |
CN111753666A (zh) * | 2020-05-21 | 2020-10-09 | 西安科技大学 | 输电线路中小目标故障检测方法、检测系统及存储介质 |
CN111832422A (zh) * | 2020-06-18 | 2020-10-27 | 五邑大学 | 用于智能农业器械的夜间图像识别方法、装置和存储介质 |
CN112183255A (zh) * | 2020-09-15 | 2021-01-05 | 西北工业大学 | 一种基于深度学习的水下目标视觉识别与姿态估计方法 |
CN112257527A (zh) * | 2020-10-10 | 2021-01-22 | 西南交通大学 | 基于多目标融合与时空视频序列的手机检测方法 |
CN112308154A (zh) * | 2020-11-03 | 2021-02-02 | 湖南师范大学 | 一种基于yolov3-tiny的航拍车辆检测方法 |
CN112487911A (zh) * | 2020-11-24 | 2021-03-12 | 中国信息通信科技集团有限公司 | 智能监控环境下基于改进yolov3的实时行人检测方法及装置 |
CN112508076A (zh) * | 2020-12-02 | 2021-03-16 | 国网江西省电力有限公司建设分公司 | 电力工程异常状态的智能识别方法及识别系统 |
CN112560852A (zh) * | 2020-12-15 | 2021-03-26 | 三峡大学 | 基于YOLOv3网络具有旋转适应能力的单阶段目标检测方法 |
CN114565597A (zh) * | 2022-03-04 | 2022-05-31 | 昆明理工大学 | 一种基于YOLOv3-tiny-DB和迁移学习的夜间道路行人检测方法 |
US11386637B2 (en) | 2019-07-16 | 2022-07-12 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting object |
CN115457783A (zh) * | 2022-08-30 | 2022-12-09 | 重庆长安汽车股份有限公司 | 无信号灯交叉口通行、协同、协作通行方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845547A (zh) * | 2017-01-23 | 2017-06-13 | 重庆邮电大学 | 一种基于摄像头的智能汽车定位与道路标识识别系统及方法 |
CN107368890A (zh) * | 2016-05-11 | 2017-11-21 | Tcl集团股份有限公司 | 一种以视觉为中心的基于深度学习的路况分析方法及系统 |
CN107563381A (zh) * | 2017-09-12 | 2018-01-09 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN107862287A (zh) * | 2017-11-08 | 2018-03-30 | 吉林大学 | 一种前方小区域物体识别及车辆预警方法 |
US20180150704A1 (en) * | 2016-11-28 | 2018-05-31 | Kwangwoon University Industry-Academic Collaboration Foundation | Method of detecting pedestrian and vehicle based on convolutional neural network by using stereo camera |
CN108197610A (zh) * | 2018-02-02 | 2018-06-22 | 北京华纵科技有限公司 | 一种基于深度学习的轨道异物检测系统 |
CN108256554A (zh) * | 2017-12-20 | 2018-07-06 | 深圳市金溢科技股份有限公司 | 基于深度学习的车辆逆向停车判断方法、服务器及系统 |
CN108427950A (zh) * | 2018-02-01 | 2018-08-21 | 北京捷通华声科技股份有限公司 | 一种文字行检测方法及装置 |
CN108549880A (zh) * | 2018-04-28 | 2018-09-18 | 深圳市商汤科技有限公司 | 碰撞控制方法及装置、电子设备和存储介质 |
-
2018
- 2018-10-23 CN CN201811235933.3A patent/CN109508710A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368890A (zh) * | 2016-05-11 | 2017-11-21 | Tcl集团股份有限公司 | 一种以视觉为中心的基于深度学习的路况分析方法及系统 |
US20180150704A1 (en) * | 2016-11-28 | 2018-05-31 | Kwangwoon University Industry-Academic Collaboration Foundation | Method of detecting pedestrian and vehicle based on convolutional neural network by using stereo camera |
CN106845547A (zh) * | 2017-01-23 | 2017-06-13 | 重庆邮电大学 | 一种基于摄像头的智能汽车定位与道路标识识别系统及方法 |
CN107563381A (zh) * | 2017-09-12 | 2018-01-09 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN107862287A (zh) * | 2017-11-08 | 2018-03-30 | 吉林大学 | 一种前方小区域物体识别及车辆预警方法 |
CN108256554A (zh) * | 2017-12-20 | 2018-07-06 | 深圳市金溢科技股份有限公司 | 基于深度学习的车辆逆向停车判断方法、服务器及系统 |
CN108427950A (zh) * | 2018-02-01 | 2018-08-21 | 北京捷通华声科技股份有限公司 | 一种文字行检测方法及装置 |
CN108197610A (zh) * | 2018-02-02 | 2018-06-22 | 北京华纵科技有限公司 | 一种基于深度学习的轨道异物检测系统 |
CN108549880A (zh) * | 2018-04-28 | 2018-09-18 | 深圳市商汤科技有限公司 | 碰撞控制方法及装置、电子设备和存储介质 |
Non-Patent Citations (5)
Title |
---|
JING TAO 等: "An Object Detection System Based on YOLO in Traffic Scene", 《2017 6TH INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND NETWORK TECHNOLOGY》 * |
JOSEPH REDMON 等: "YOLOv3: An Incremental Improvement", 《ARXIV》 * |
JOSEPH REDMON 等: "You Only Look Once:Unified, Real-Time Object Detection", 《ARXIV》 * |
明也无涯: "目标检测网络之YOLOv3", 《HTTPS://WWW.CNBLOGS.COM/MAKEFILE/P/YOLOV3.HTML》 * |
陈琪: "面向无人驾驶的环境感知技术研究", 《科技经济导刊》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119726A (zh) * | 2019-05-20 | 2019-08-13 | 四川九洲视讯科技有限责任公司 | 一种基于YOLOv3模型的车辆品牌多角度识别方法 |
CN110119726B (zh) * | 2019-05-20 | 2023-04-25 | 四川九洲视讯科技有限责任公司 | 一种基于YOLOv3模型的车辆品牌多角度识别方法 |
CN110363100A (zh) * | 2019-06-24 | 2019-10-22 | 昆明理工大学 | 一种基于YOLOv3的视频目标检测方法 |
CN110287747A (zh) * | 2019-07-01 | 2019-09-27 | 深圳江行联加智能科技有限公司 | 一种基于端到端深度网络的条形码检测方法 |
US11386637B2 (en) | 2019-07-16 | 2022-07-12 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting object |
CN110503070A (zh) * | 2019-08-29 | 2019-11-26 | 电子科技大学 | 基于航拍图像目标检测处理技术的交通自动化监测方法 |
CN110910378B (zh) * | 2019-11-29 | 2021-11-02 | 南通大学 | 一种基于深度融合网络的双模态图像能见度检测方法 |
CN110910378A (zh) * | 2019-11-29 | 2020-03-24 | 南通大学 | 一种基于深度融合网络的双模态图像能见度检测方法 |
CN111027493A (zh) * | 2019-12-13 | 2020-04-17 | 电子科技大学 | 一种基于深度学习多网络软融合的行人检测方法 |
CN111027493B (zh) * | 2019-12-13 | 2022-05-20 | 电子科技大学 | 一种基于深度学习多网络软融合的行人检测方法 |
CN111160368A (zh) * | 2019-12-24 | 2020-05-15 | 中国建设银行股份有限公司 | 图像中目标检测方法、装置、设备及存储介质 |
CN111353481A (zh) * | 2019-12-31 | 2020-06-30 | 成都理工大学 | 基于激光点云与视频图像的道路障碍物识别方法 |
CN111353393A (zh) * | 2020-02-19 | 2020-06-30 | 桂林电子科技大学 | 一种基于神经网络的犬只检测与预警系统 |
CN111444801A (zh) * | 2020-03-18 | 2020-07-24 | 成都理工大学 | 一种无人机红外目标实时检测方法 |
CN111753666B (zh) * | 2020-05-21 | 2024-01-23 | 西安科技大学 | 输电线路中小目标故障检测方法、检测系统及存储介质 |
CN111753666A (zh) * | 2020-05-21 | 2020-10-09 | 西安科技大学 | 输电线路中小目标故障检测方法、检测系统及存储介质 |
CN111832422A (zh) * | 2020-06-18 | 2020-10-27 | 五邑大学 | 用于智能农业器械的夜间图像识别方法、装置和存储介质 |
CN111709381A (zh) * | 2020-06-19 | 2020-09-25 | 桂林电子科技大学 | 基于YOLOv3-SPP的道路环境目标检测方法 |
CN111746521A (zh) * | 2020-06-29 | 2020-10-09 | 芜湖雄狮汽车科技有限公司 | 泊车路线的规划方法、装置、设备及存储介质 |
CN112183255A (zh) * | 2020-09-15 | 2021-01-05 | 西北工业大学 | 一种基于深度学习的水下目标视觉识别与姿态估计方法 |
CN112257527A (zh) * | 2020-10-10 | 2021-01-22 | 西南交通大学 | 基于多目标融合与时空视频序列的手机检测方法 |
CN112257527B (zh) * | 2020-10-10 | 2022-09-02 | 西南交通大学 | 基于多目标融合与时空视频序列的手机检测方法 |
CN112308154A (zh) * | 2020-11-03 | 2021-02-02 | 湖南师范大学 | 一种基于yolov3-tiny的航拍车辆检测方法 |
CN112487911A (zh) * | 2020-11-24 | 2021-03-12 | 中国信息通信科技集团有限公司 | 智能监控环境下基于改进yolov3的实时行人检测方法及装置 |
CN112508076A (zh) * | 2020-12-02 | 2021-03-16 | 国网江西省电力有限公司建设分公司 | 电力工程异常状态的智能识别方法及识别系统 |
CN112560852A (zh) * | 2020-12-15 | 2021-03-26 | 三峡大学 | 基于YOLOv3网络具有旋转适应能力的单阶段目标检测方法 |
CN114565597A (zh) * | 2022-03-04 | 2022-05-31 | 昆明理工大学 | 一种基于YOLOv3-tiny-DB和迁移学习的夜间道路行人检测方法 |
CN115457783A (zh) * | 2022-08-30 | 2022-12-09 | 重庆长安汽车股份有限公司 | 无信号灯交叉口通行、协同、协作通行方法及系统 |
CN115457783B (zh) * | 2022-08-30 | 2023-08-11 | 重庆长安汽车股份有限公司 | 无信号灯交叉口通行、协同、协作通行方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508710A (zh) | 基于改进YOLOv3网络的无人车夜间环境感知方法 | |
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
CN106910186B (zh) | 一种基于cnn深度学习的桥梁裂缝检测定位方法 | |
CN106127204B (zh) | 一种全卷积神经网络的多方向水表读数区域检测算法 | |
CN108038846A (zh) | 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及系统 | |
CN106228125B (zh) | 基于集成学习级联分类器的车道线检测方法 | |
CN109284669A (zh) | 基于Mask RCNN的行人检测方法 | |
WO2017190574A1 (zh) | 一种基于聚合通道特征的快速行人检测方法 | |
CN110175576A (zh) | 一种结合激光点云数据的行驶车辆视觉检测方法 | |
CN112001339A (zh) | 一种基于YOLO v4的行人社交距离实时监测方法 | |
CN105335966B (zh) | 基于局域同质性指标的多尺度遥感影像分割方法 | |
CN110223302A (zh) | 一种基于旋转区域提取的舰船多目标检测方法 | |
CN107871119A (zh) | 一种基于目标空间知识和两阶段预测学习的目标检测方法 | |
CN105894701B (zh) | 输电线路防外破大型施工车辆的识别报警方法 | |
CN107909015A (zh) | 基于卷积神经网络及空谱信息融合的高光谱图像分类方法 | |
CN103942557B (zh) | 一种煤矿井下图像预处理方法 | |
CN103390164A (zh) | 基于深度图像的对象检测方法及其实现装置 | |
CN110533695A (zh) | 一种基于ds证据理论的轨迹预测装置及方法 | |
CN106023257A (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
CN105046206B (zh) | 基于视频中运动先验信息的行人检测方法及装置 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN104573685A (zh) | 一种基于线性结构提取的自然场景文本检测方法 | |
CN106373146A (zh) | 一种基于模糊学习的目标跟踪方法 | |
CN107301378A (zh) | 图像中多分类器集成的行人检测方法和系统 | |
CN110096981A (zh) | 一种基于深度学习的视频大数据交通场景分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190322 |