CN110728178B - 一种基于深度学习的事件相机车道线提取方法 - Google Patents

一种基于深度学习的事件相机车道线提取方法 Download PDF

Info

Publication number
CN110728178B
CN110728178B CN201910823262.0A CN201910823262A CN110728178B CN 110728178 B CN110728178 B CN 110728178B CN 201910823262 A CN201910823262 A CN 201910823262A CN 110728178 B CN110728178 B CN 110728178B
Authority
CN
China
Prior art keywords
slice
feature
convolution
result
lane line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910823262.0A
Other languages
English (en)
Other versions
CN110728178A (zh
Inventor
杨文�
罗豪
程文胜
余磊
徐芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201910823262.0A priority Critical patent/CN110728178B/zh
Publication of CN110728178A publication Critical patent/CN110728178A/zh
Application granted granted Critical
Publication of CN110728178B publication Critical patent/CN110728178B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供的是一种基于深度学习的事件相机车道线提取方法。本发明提出了一种基于结构先验的网络,该网络通过利用全向切片卷积模块能够很好的捕获像素间的空间关系,特别是表现为细长形状的目标的空间关系。为了进一步提高车道线提取的精度,该发明引入了一种基于模特卡罗采样和最小二乘的多项式拟合的后处理方法,对车道线进行拟合,并最终完成车道线提取任务。

Description

一种基于深度学习的事件相机车道线提取方法
技术领域
本发明属于图像处理技术领域,特别涉及基于深度学习的事件相机车道线提取方法。
背景技术
车道线提取是自动驾驶领域里的基础而重要的任务。近年来,先进的车道线提取方法都利用了深度学习模型,这些深度学习的方法通常利用的数据为RGB图像,即普通光学相机图像。然而普通光学图像由于成像机制天然地存在运动模糊,动态范围较小的缺点。为了解决这些问题,该发明引入具有低延时,动态范围高的优点的动态视觉传感器(DVS,一种事件相机),并构建数据集来进行车道线提取任务。为了在DVS图像上很好的提取车道线,本发明提出了一种基于结构先验的网络。该网络通过利用全向切片卷积模块能够很好的捕获像素间的空间关系,特别是表现为细长形状的目标的空间关系。为了进一步提高车道线提取的精度,该发明引入了一种基于模特卡罗采样和最小二乘的多项式拟合的后处理方法,对车道线进行拟合,并最终完成车道线提取任务。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于深度学习的事件相机车道线提取方法,该方法能够更好地解决由于普通光学相机在一些恶劣环境(如隧道出入口)成像质量差导致车道线提取困难的问题,提出的基于结构先验的网络能够对DVS图像上的车道线进行高精度提取。
本发明的原理是:将DVS产生的事件流建立图像帧,将图像帧送入神经网络进行语义信息提取。网络的特征提取部分由基网络和全向切片卷积模块组成,基网络通过卷积和池化来进行语义信息的提取,全向切片卷积模块利用了一种多方向的消息传递机制来捕获像素间上下文关系。将网络输出结果进行后处理,得到最终的车道线提取结果。
本发明采用的技术方案是一种基于深度学习的事件相机车道线提取方法,包括以下具体步骤:
步骤1,将DVS产生的事件流建立图像帧;
步骤2,将生成的DVS图像和对应的语义标签送入基于结构先验的网络里进行监督训练:所述基于结构先验的网络包括依次连接的基网络和全向切片卷积模块,其中所述基网络通过卷积和池化来进行语义特征的提取,全向切片卷积模块通过建立像素在图像平面上垂直、水平、对角线、反对角线方向上的空间上下文关系,得到更加精细的车道线结构特征;然后对全向切片卷积模块输出的车道线结构特征进行上采样处理得到和原图像大小相同的概率图,训练过程中采用交叉熵损失函数来使网络的输出和标签的分布尽可能一致;
步骤3,利用训练完成的权重进行前向传播得到基于结构先验的网络的输出,通过对网络输出结果进行模特卡罗采样,然后进行最小二乘多项式拟合,得到最终的车道线检测结果。
进一步的,所述基网络是largeFOV。
进一步的,所述全向切片卷积模块的处理过程如下,
设输入的3D特征张量的大小是C*H*W,其中3D特征张量即基网络的输出,C、H、W分别代表特征的通道数,行数和列数;
(1)通过消息沿着列方向传播构建像素在图像平面行与行之间的空间关系:首先将输入特征分成H切片,那么每一个切片的大小是C*1*W,然后用一个大小为C*1*w的滤波器进行卷积,w是滤波器的宽度;按照从上到下的方向,依次将上一个切片卷积后的结果与当前切片相加,形成新的特征切片组一;按照从下到上的方向,依次将特征切片组一中的上一个切片卷积后的结果与当前切片相加,形成新的特征切片组二,将特征切片组二进行合并操作得到新的特征一;
(2)通过消息沿着行方向传播构建像素在图像平面列与列之间的空间关系:首先将特征一分成W切片,那么每一个切片的大小是C*H*1,然后用一个大小为C*1*h的滤波器进行卷积,h是滤波器的高度;按照从左到右的方向,依次将上一个切片卷积后的结果与当前切片相加,形成新的特征切片组三;按照从右到左的方向,依次将特征切片组三中的上一个切片卷积后的结果与当前切片相加,形成新的特征切片组四,将特征切片组四进行合并操作得到新的特征二;
(3)通过消息沿着行与列的对角线方向传播构建像素在图像平面斜向的空间关系:首先将特征二分成H切片,那么每一个切片的大小是C*1*W,然后用一个大小为C*1*w的滤波器进行卷积;按照从上到下的方向,依次将上一个切片卷积后的结果右移指定像素单位后与当前切片相加,形成新的特征切片组五;按照从下到上的方向,依次将特征组五中的上一个切片卷积后的结果左移指定像素单位后与当前切片相加,形成新的特征切片组六;将新的特征切片组六进行合并操作得到新的特征三;
(4)通过消息沿着行与列的反对角线方向传播构建像素在图像平面斜向的空间关系:首先将特征三分成W切片,那么每一个切片的大小是C*H*1,然后用一个大小为C*h*1的滤波器进行卷积;按照从左到右的方向,依次将上一个切片卷积后的结果上移指定像素单位后与当前切片相加,形成新的特征切片组七;按照从右到左的方向,依次将上一个切片卷积后的结果下移指定像素单位后与当前切片相加,形成新的特征切片组八;将新的特征切片组八进行合并操作得到新的特征四。
与现有技术相比,本发明具有如下优点和有益效果:
(1)将事件相机引入车道线检测领域:利用事件相机动态范围高,低延迟的优点,使得车道线提取任务能够适应更加恶劣的环境。比如隧道进出口(通常强曝光导致普通光学相机成像质量差)
(2)提出了一种基于结构先验的网络:该网络通过利用全向切片卷积模块能够很好的捕获像素间的空间关系,特别是表现为细长形状的目标的空间关系。车道线提取精度优于目前先进水平。
(3)简单有效的后处理方式:利用一种基于模特卡罗采样和最小二乘的多项式拟合的后处理方法,实现快速精确的车道线曲线拟合。
附图说明
图1为DVS事件流和建帧示意图。
图2为DVS图像和可见光图像在隧道出口时成像效果对比,T1~T5分别为不同。
图3为本发明实施例处理流程图。
图4为本发明实施例全向切片卷积模块中,水平的切片卷积流程图(a)和垂直方向上的切片卷积流程图(b)。
图5为本发明实施例全向切片卷积模块中:主对角线的切片卷积流程图(a)和反对角线上的切片卷积流程图(b)。
图6为本发明实施例可视化实验结果对比,其中(a)列为输入图像,(b)列为标签,(c-g)列分别是FCN,DeepLabv3,RefineNet,SCNN算法和本发明算法的实验结果。
图7为本发明实施例通过后处理方法拟合得到的最终车道线提取结果,其中(a)列为标签,(b)列为后处理前本发明方法的输出结果,(c)列为没有利用蒙特卡罗采样直接最小二乘拟合的结果,(d)-(g)列为采样点分别为500,1000,3000,5000拟合的结果。
具体实施方式
为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图对本发明进一步详细说明。
本发明提供一种基于深度学习的事件相机车道线提取方法,包括如下步骤:
步骤1:将DVS产生的事件流建立图像帧,建帧的方法一般是通过将一段时间里的相应的事件累积起来,最终以二进制图像进行表达,如图1所示。
步骤2:将生成的DVS图像和对应的语义标签送入基于结构先验的网络里进行监督训练:所述基于结构先验的网络由基网络和全向切片卷积模块组成,基网络通过卷积和池化来进行语义信息的提取,本实施例采用的基网络是largeFOV,即DeepLab1的编码层;全向切片卷积模块利用了一种多方向的消息传递机制来捕获像素间上下文关系,如图3所示。
设输入的3D特征张量(即基网络的输出)的大小是C*H*W,C、H、W分别代表特征的通道数,行数和列数。
(1)通过消息沿着列方向(上下方向)传播可以构建像素在图像平面行与行之间的空间关系:首先将输入特征分成H切片,那么每一个切片的大小是C*1*W,然后用一个大小为C*1*w的滤波器进行卷积(w是滤波器的宽度);按照从上到下的方向,依次将上一个切片卷积后的结果与当前切片相加,形成新的特征切片组一(H个C*1*W)。按照从下到上的方向,依次将特征切片组一中的上一个切片卷积后的结果与当前切片相加,形成新的特征切片组二(H个C*1*W),将特征切片组二进行合并操作得到新的特征一(C*H*W),如图4(a)所示。
(2)通过消息沿着行方向(左右方向)传播可以构建像素在图像平面列与列之间的空间关系:首先将特征一分成W切片,那么每一个切片的大小是C*H*1,然后用一个大小为C*1*h的滤波器进行卷积(h是滤波器的高度);按照从左到右的方向,依次将上一个切片卷积后的结果与当前切片相加,形成新的特征切片组三(W个C*H*1)。按照从右到左的方向,依次将特征切片组三中的上一个切片卷积后的结果与当前切片相加,形成新的特征切片组四(W个C*H*1),将特征切片组四进行合并操作得到新的特征二(C*H*W),如图4(b)所示。
(3)通过消息沿着行与列的对角线方向传播(左上<->右下)可以构建像素在图像平面斜向的空间关系:首先将特征二分成H切片,那么每一个切片的大小是C*1*W,然后用一个大小为C*1*w的滤波器进行卷积;按照从上到下的方向,依次将上一个切片卷积后的结果右移指定像素单位后与当前切片相加,形成新的特征切片组五(H个C*1*W);按照从下到上的方向,依次将特征组五中的上一个切片卷积后的结果左移指定像素单位后与当前切片相加,形成新的特征切片组六(H个C*1*W);将新的特征切片组六进行合并操作得到新的特征三(C*H*W),如图5(a)所示。
(4)通过消息沿着行与列的反对角线方向传播(右上<->左下)可以构建像素在图像平面斜向的空间关系:首先将特征三分成W切片,那么每一个切片的大小是C*H*1,然后用一个大小为C*h*1的滤波器进行卷积;按照从左到右的方向,依次将上一个切片卷积后的结果上移指定像素单位后与当前切片相加,形成新的特征切片组七(W个C*H*1);按照从右到左的方向,依次将上一个切片卷积后的结果下移指定像素单位后与当前切片相加,形成新的特征切片组八(W个C*H*1);将新的特征切片组八进行合并操作得到新的特征四(C*H*W),如图5(b)所示。
最后对全向切片卷积模块的输出(即新的特征四)进行简单的上采样处理得到和原图像大小相同的概率图,通过交叉熵损失函数来使网络的输出和标签的分布尽可能一致。
步骤3:利用训练完成的权重进行网络的前向传播可以得到结构化网络的输出,将输出结果进行后处理,得到最终的车道线提取结果。通过对网络输出结果进行模特卡罗采样,然后进行最小二乘多项式拟合可以得到最终的车道线检测结果。
在实验过程中,选用一种高分辨率的DVS车道线数据集DET进行试验。实验结果如图6和图7所示,包括对比当前主流的车道线提取算法,图6中,(a)列为输入图像,(b)列为标签,(c-g)列分别是FCN,DeepLabv3,RefineNet,SCNN算法和本发明算法的实验结果,根据图6中分割的车道线对比可知,可以明显看出本发明算法分割的车道线更完整和准确,而其他算法分割出的结果都有明显的缺陷。图7中,(a)列为标签,(b)列为后处理前本发明方法的输出结果,(c)列为没有利用蒙特卡罗采样直接最小二乘拟合的结果,(d)-(g)列为采样点分别为500,1000,3000,5000拟合的结果,由此可知,当采样越多时,曲线拟合越好,采样点足够多时,继续增加采样点,曲线拟合基本不变。
对车道线提取精度的测量,本方法采用的分析指标为:平均交并比(Mean IoU)和平均F1得分(Mean F1)实验结果如表1所示。由车道线提取精度的定量分析和定性分析可知,本方法在DET上的检测精度已经达到行业领先水平。
表1 DET数据集上车道线提取方法的实验结果
Figure BDA0002188214850000061
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (2)

1.一种基于深度学习的事件相机车道线提取方法,其特征在于,包括如下步骤:
步骤1,将DVS产生的事件流建立图像帧;
步骤2,将生成的DVS图像和对应的语义标签送入基于结构先验的网络里进行监督训练:所述基于结构先验的网络包括依次连接的基网络和全向切片卷积模块,其中所述基网络通过卷积和池化来进行语义特征的提取,全向切片卷积模块通过建立像素在图像平面上垂直、水平、对角线、反对角线多种方向上的空间上下文关系,得到更加精细的车道线结构特征;然后对全向切片卷积模块输出的车道线结构特征进行上采样处理得到和原图像大小相同的概率图,训练过程中采用交叉熵损失函数来使网络的输出和标签的分布保持一致;
所述全向切片卷积模块的处理过程如下,
设输入的3D特征张量的大小是C*H*W,其中3D特征张量即基网络的输出,C、H、W分别代表特征的通道数,行数和列数;
(1)通过消息沿着列方向传播构建像素在图像平面行与行之间的空间关系:首先将输入特征分成H切片,那么每一个切片的大小是C*1*W,然后用一个大小为C*1*w的滤波器进行卷积,w是滤波器的宽度;按照从上到下的方向,依次将上一个切片卷积后的结果与当前切片相加,形成新的特征切片组一;按照从下到上的方向,依次将特征切片组一中的上一个切片卷积后的结果与当前切片相加,形成新的特征切片组二,将特征切片组二进行合并操作得到新的特征一;
(2)通过消息沿着行方向传播构建像素在图像平面列与列之间的空间关系:首先将特征一分成W切片,那么每一个切片的大小是C*H*1,然后用一个大小为C*1*h的滤波器进行卷积,h是滤波器的高度;按照从左到右的方向,依次将上一个切片卷积后的结果与当前切片相加,形成新的特征切片组三;按照从右到左的方向,依次将特征切片组三中的上一个切片卷积后的结果与当前切片相加,形成新的特征切片组四,将特征切片组四进行合并操作得到新的特征二;
(3)通过消息沿着行与列的对角线方向传播构建像素在图像平面斜向的空间关系:首先将特征二分成H切片,那么每一个切片的大小是C*1*W,然后用一个大小为C*1*w的滤波器进行卷积;按照从上到下的方向,依次将上一个切片卷积后的结果右移指定像素单位后与当前切片相加,形成新的特征切片组五;按照从下到上的方向,依次将特征组五中的上一个切片卷积后的结果左移指定像素单位后与当前切片相加,形成新的特征切片组六;将新的特征切片组六进行合并操作得到新的特征三;
(4)通过消息沿着行与列的反对角线方向传播构建像素在图像平面斜向的空间关系:首先将特征三分成W切片,那么每一个切片的大小是C*H*1,然后用一个大小为C*h*1的滤波器进行卷积;按照从左到右的方向,依次将上一个切片卷积后的结果上移指定像素单位后与当前切片相加,形成新的特征切片组七;按照从右到左的方向,依次将上一个切片卷积后的结果下移指定像素单位后与当前切片相加,形成新的特征切片组八;将新的特征切片组八进行合并操作得到新的特征四;
步骤3,利用训练完成的权重进行前向传播得到基于结构先验的网络的输出,通过对网络输出结果进行模特卡罗采样,然后进行最小二乘多项式拟合,得到最终的车道线检测结果。
2.如权利要求1所述的一种基于深度学习的事件相机车道线提取方法,其特征在于:所述基网络是largeFOV。
CN201910823262.0A 2019-09-02 2019-09-02 一种基于深度学习的事件相机车道线提取方法 Active CN110728178B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910823262.0A CN110728178B (zh) 2019-09-02 2019-09-02 一种基于深度学习的事件相机车道线提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910823262.0A CN110728178B (zh) 2019-09-02 2019-09-02 一种基于深度学习的事件相机车道线提取方法

Publications (2)

Publication Number Publication Date
CN110728178A CN110728178A (zh) 2020-01-24
CN110728178B true CN110728178B (zh) 2022-03-15

Family

ID=69218829

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910823262.0A Active CN110728178B (zh) 2019-09-02 2019-09-02 一种基于深度学习的事件相机车道线提取方法

Country Status (1)

Country Link
CN (1) CN110728178B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036231B (zh) * 2020-07-10 2022-10-21 武汉大学 一种基于车载视频的车道线和路面指示标志检测与识别方法
CN113205131A (zh) * 2021-04-28 2021-08-03 阿波罗智联(北京)科技有限公司 图像数据的处理方法、装置、路侧设备和云控平台
CN115129705B (zh) * 2022-08-31 2022-11-29 高德软件有限公司 车道连通关系的确定方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839233A (zh) * 2014-01-20 2014-06-04 左旺孟 一种相机抖动造成的模糊图像复原方法
CN105760812A (zh) * 2016-01-15 2016-07-13 北京工业大学 一种基于Hough变换的车道线检测方法
WO2017055412A1 (en) * 2015-09-30 2017-04-06 Siemens Healthcare Gmbh Method and system for classification of endoscopic images using deep decision networks
CN106846349A (zh) * 2017-02-26 2017-06-13 哈尔滨理工大学 一种基于水平集的前列腺磁共振图像分割方法
CN107203989A (zh) * 2017-04-01 2017-09-26 南京邮电大学 基于全卷积神经网络的端对端胸部ct图像分割方法
CN107656545A (zh) * 2017-09-12 2018-02-02 武汉大学 一种面向无人机野外搜救的自主避障与导航方法
CN109492609A (zh) * 2018-11-27 2019-03-19 上海芯仑光电科技有限公司 一种检测车道线的方法和车辆、及计算设备
CN109598727A (zh) * 2018-11-28 2019-04-09 北京工业大学 一种基于深度神经网络的ct图像肺实质三维语义分割方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839233A (zh) * 2014-01-20 2014-06-04 左旺孟 一种相机抖动造成的模糊图像复原方法
WO2017055412A1 (en) * 2015-09-30 2017-04-06 Siemens Healthcare Gmbh Method and system for classification of endoscopic images using deep decision networks
CN105760812A (zh) * 2016-01-15 2016-07-13 北京工业大学 一种基于Hough变换的车道线检测方法
CN106846349A (zh) * 2017-02-26 2017-06-13 哈尔滨理工大学 一种基于水平集的前列腺磁共振图像分割方法
CN107203989A (zh) * 2017-04-01 2017-09-26 南京邮电大学 基于全卷积神经网络的端对端胸部ct图像分割方法
CN107656545A (zh) * 2017-09-12 2018-02-02 武汉大学 一种面向无人机野外搜救的自主避障与导航方法
CN109492609A (zh) * 2018-11-27 2019-03-19 上海芯仑光电科技有限公司 一种检测车道线的方法和车辆、及计算设备
CN109598727A (zh) * 2018-11-28 2019-04-09 北京工业大学 一种基于深度神经网络的ct图像肺实质三维语义分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Convolutional neural network on three orthogonal planes for dynamic texture classification;VincentAndrearczyk等;《Pattern Recognition》;20180430;第36-49页 *
基于并行和切片的深度卷积网络设计研究;杨远飞等;《微电子学与计算机》;20180331;第35卷(第3期);第120-124页 *

Also Published As

Publication number Publication date
CN110728178A (zh) 2020-01-24

Similar Documents

Publication Publication Date Title
CN111209810B (zh) 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构
CN110728178B (zh) 一种基于深度学习的事件相机车道线提取方法
CN108665496B (zh) 一种基于深度学习的端到端的语义即时定位与建图方法
CN112084901B (zh) 基于gcam的高分辨率sar图像机场跑道区自动检测方法及系统
CN111066063B (zh) 利用卷积空间传播网络学习的亲和度进行深度估计的系统和方法
CN113591795B (zh) 一种基于混合注意力特征金字塔结构的轻量化人脸检测方法和系统
CN111597920B (zh) 一种自然场景下的全卷积单阶段的人体实例分割方法
CN109523470A (zh) 一种深度图像超分辨率重建方法及系统
US20220366682A1 (en) Computer-implemented arrangements for processing image having article of interest
CN112862849B (zh) 一种基于图像分割和全卷积神经网络的田间稻穗计数方法
CN113436210B (zh) 一种融合上下文逐级采样的道路图像分割方法
CN109977834B (zh) 从深度图像中分割人手与交互物体的方法和装置
CN114898284B (zh) 一种基于特征金字塔局部差异注意力机制的人群计数方法
CN109657538B (zh) 基于上下文信息指导的场景分割方法和系统
CN116189180A (zh) 一种城市街景广告图像分割方法
CN115331183A (zh) 改进YOLOv5s的红外目标检测方法
CN111666852A (zh) 一种基于卷积神经网络的微表情双流网络识别方法
CN114550135B (zh) 一种基于注意力机制和特征聚合的车道线检测方法
CN110751271B (zh) 一种基于深度神经网络的图像溯源特征表征方法
CN111062381B (zh) 一种基于深度学习的车牌位置检测方法
CN113361528B (zh) 一种多尺度目标检测方法及系统
CN112036300A (zh) 一种基于多尺度时空传播层的运动目标检测方法
CN111881914B (zh) 一种基于自学习阈值的车牌字符分割方法及系统
CN111612803A (zh) 一种基于图像清晰度的车辆图像语义分割方法
CN117079125A (zh) 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant