CN111160282A - 一种基于二值化Yolov3网络的红绿灯检测方法 - Google Patents

一种基于二值化Yolov3网络的红绿灯检测方法 Download PDF

Info

Publication number
CN111160282A
CN111160282A CN201911410207.5A CN201911410207A CN111160282A CN 111160282 A CN111160282 A CN 111160282A CN 201911410207 A CN201911410207 A CN 201911410207A CN 111160282 A CN111160282 A CN 111160282A
Authority
CN
China
Prior art keywords
binarization
yolov3 network
prediction frame
network
binary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911410207.5A
Other languages
English (en)
Other versions
CN111160282B (zh
Inventor
张中
李安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Zhanda Intelligent Technology Co ltd
Original Assignee
Hefei Zhanda Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Zhanda Intelligent Technology Co ltd filed Critical Hefei Zhanda Intelligent Technology Co ltd
Priority to CN201911410207.5A priority Critical patent/CN111160282B/zh
Publication of CN111160282A publication Critical patent/CN111160282A/zh
Application granted granted Critical
Publication of CN111160282B publication Critical patent/CN111160282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于二值化Yolov3网络的红绿灯检测方法,通过将Yolov3网络二值化,缩减了网络运算量和权重存储空间,在保证精度的同时提高了网络检测速度,更适合在嵌入式平台上;与此同时,在光线复杂的场景中也具有良好的检测,增强了系统的鲁棒性,解决了传统红绿灯检测中存在的容易受干扰识别率较低等问题。

Description

一种基于二值化Yolov3网络的红绿灯检测方法
技术领域
本发明涉及图像识别技术领域,尤其是一种基于二值化Yolov3网络的红绿灯检测方法。
背景技术
无论是在高级辅助驾驶或、无人驾驶,还是在智能交通中,交通信号灯的识别都是重要检测项目之一。运动模糊和光照变化效应一直是信号灯检测技术在实际城市驾驶环境中面临的主要问题。传统数字图像处理技术对于红绿灯检测主要采用边缘分割、直方图变换等方式,在光照环境复杂、强光或逆光等情况下,识别率较低。
随着人工智能的快速发展,深度学习技术广泛应用于计算机视觉的诸多方面,在图片分类、目标定位、图像分割、图像增强等领域发展迅速。基于深度学习的目标识别算法主要分为两阶段网络算法和单阶段网络算法。两阶段网络首先从一张图像中生成稀疏的候选区域,并对候选区域进行二分类和初步定位,再将稀疏的候选区域送入分类和回归网络中进一步分类和定位得到最后的检测结果。单阶段网络不生成候选区域,直接对图片上固定位置的锚点框进行分类和定位。Yolov3目标识别网络作为单阶段网络,速度上比两阶段网络更快,精度也更高。然而,传统Yolov3网络层数多,计算量大,不适用于计算资源有限的小型嵌入式平台。
发明内容
本发明提供一种基于二值化Yolov3网络的红绿灯检测方法,将Yolov3网络二值化,以解决现有Yolov3目标识别网络难以运行在嵌入式终端上的问题。
一种基于二值化Yolov3网络的红绿灯检测方法,先构建并训练网络模型,然后通过训练好的网络模型对公路车道进行检测,主要包括以下步骤:
1、收集大量汽车行驶过程中行车记录仪拍摄到的包含红绿灯的图片,方框标记出图片中红绿灯部分并按照颜色和指示方向对图片进行分类标注作为数据集,将数据集从数量上分为训练集、验证集和测试集三部分;
2、构建Yolov3网络,并对其进行二值化,形成二值化Yolov3网络;二值化操作具体为,将输入图像利用符号函数二值化,将权重利用符号函数二值化,激活函数采用HardSigmoid函数,卷积操作为
Figure BDA0002349772840000021
其中I表示输入矩阵,W表示未二值化的权重,K和α为调整参数;层叠模式改为批标准化→二值化激活→二值化卷积→池化;
3、利用训练集对二值化Yolov3网络进行训练,并更新权重,具体包为,权重初始化为浮点,前向传播过程中利用通过符号函数将权重量化为+1/-1,由二值权重与二值输入进行卷积运算,获得卷积层输出;在反向传播过程中,放松符号函数,计算相应梯度值,并根据梯度值对权重进行参数更新,参数更新完成后再权重量化为+1/-1,以便后期推断使用;
4、将测试集输入训练好的二值化Yolov3网络,输出三路大小分别为13*13、26*26和52*52的特征图,每张特征图的每个特征点上都带有3种不同尺寸的候选框,对每个候选框进行回归和分类并计算总损失,获取最优预测框位置输出及其对应的类别输出。
进一步的,所述前向传播过程为,将训练集每个标记方框的宽和高相对整张图片的比例进行K-Means聚类,设置簇数为3,生成3种不同尺寸的候选框,将构建好的二值化Yolov3网络在ImageNet数据集上进行预训练,再将预训练完成的二值化Yolov3网络的基础上利用训练集进行迁移训练。
进一步的,所述步骤4中获取最优预测框位置输出具体为,将测试集输入训练好的二值化Yolov3网络,获取相对于候选区域的预测框偏移量和预测类别,利用预设的预测框置信度阈值对输出的预测框进行初步筛选,去除置信度小于阈值的预测框,再对预测框进行NMS筛选去除重叠度高的预测框,得到最优预测框位置输出及其对应的类别输出;所述类别输出按照颜色和指示方向分别为绿灯前进、绿灯左转、绿灯右转、绿灯掉头、红灯前进、红灯左转、红灯右转、红灯掉头。
本发明通过将Yolov3网络二值化,缩减了网络运算量和权重存储空间,在保证精度的同时提高了网络检测速度,更适合在嵌入式平台上;与此同时,在光线复杂的场景中也具有良好的检测,增强了系统的鲁棒性,解决了传统红绿灯检测中存在的容易受干扰识别率较低等问题。
附图说明
图1为Yolov3网络结构图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。本发明的实施例是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显而易见的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。
实施例1
一种基于二值化Yolov3网络的红绿灯检测方法,先构建并训练网络模型,然后通过训练好的网络模型对公路车道进行检测,主要包括以下步骤:
1、收集集3万张汽车行驶过程中行车记录仪拍摄到的包含红绿灯的图片,根据Yolov3网络入口要求将图片缩放至416*416大小。由于车辆行驶过程中通常是通过行车记录仪实时拍摄红绿灯情况的,因此,收集图片的来源也最好来源于行车记录仪的视频截图,将行车记录仪拍摄视频按照固定频率进行分帧处理并保留包含行人的图片进行处理分析。
采用LabelImage软件进行图片标注,方框标记出图片中红绿灯部分并按照颜色和指示方向对图片进行分类标注为绿灯前进、绿灯左转、绿灯右转、绿灯掉头、红灯前进、红灯左转、红灯右转、红灯掉头,标注会生成XML格式的标注文件。方框标记后的图片和XML文件作为数据集,将数据集按照6:2:2的比例分为训练集、测试集和验证集三部分。
2、构建图1所示的Yolov3网络,并对其进行二值化,形成二值化Yolov3网络;二值化操作具体为,将输入图像利用符号函数二值化,将权重利用符号函数二值化,激活函数采用Hard Sigmoid函数,卷积操作为
Figure BDA0002349772840000051
其中I表示输入矩阵,W表示未二值化的权重,K和α为调整参数,其中
Figure BDA0002349772840000052
其中w、c、h分别表示卷积权重矩阵的宽、高和通道数;层叠模式改为批标准化→二值化激活→二值化卷积→池化。
3、利用训练集对二值化Yolov3网络进行训练,并更新权重,具体包括:
⑴权重初始化为浮点,将训练集每个标记方框的宽和高相对整张图片的比例进行K-Means聚类,设置簇数为3,生成3种不同尺寸的候选框;
⑵前向传播,利用通过符号函数将权重量化为+1/-1,由二值权重与二值输入进行卷积运算,获得卷积层输出;
将构建好的二值化Yolov3网络在ImageNet数据集上进行预训练,再将预训练完成的二值化Yolov3网络的基础上利用训练集进行迁移训练,迁移训练时采用大小为64的batch,最大迭代次数为500200,学习率变动步长为400000;
⑶反向传播,放松符号函数,计算相应梯度值,并根据梯度值对权重进行参数更新,训练时采用Adma策略进行梯度更新,初始学习率为0.001,冲量系数为0.9,学习率衰减为0.0005;
⑷参数更新完成后再权重量化为+1/-1,以便后期推断使用。
⑸每隔5-9次epoch迭代对输入图片尺寸进行调整,保证416*416大小。
4、将测试集输入训练好的二值化Yolov3网络,输出三路大小分别为13*13、26*26和52*52的特征图,每张特征图的每个特征点上都带有3种不同尺寸的候选框,对每个候选框进行回归和分类并计算总损失,获取最优预测框位置输出及其对应的类别输出,具体包括:
⑴去除原DarkNet-53网络最后的Convolutional层、Avgpool层和Softmax层并取网络第三个残差连接块的52*52输出特征图,第四个残差块的26*26输出特征图和第五个残差块的13*13输出特征图作为三路并行输出,对三路并行输出的特征图从小到大进行上采样连接(双线性插值法),上采样后对相同大小的特征图进行通道相加,最终输出三路大小分别为13*13、26*26和52*52的特征图,每张特征图的每个特征点上都带有3种不同尺寸的候选框,对每个候选框进行回归和分类并计算总损失;
⑵获取相对于候选区域的预测框偏移量,利用预设的预测框置信度阈值对输出的预测框进行初步筛选,去除置信度小于阈值的预测框,其中预测框置信度是根据预测框偏移量计算而来,预测框偏移量越大,其置信度越低;
⑶对预测框进行NMS筛选去除重叠度高的预测框,得到最优预测框位置输出及其对应的类别输出,最优预测框进一步筛选方法具体是对预测框检测到的目标概率按照从大到小的顺序进行排列,删除与检测到目标的概率最大的预测框的交叠率大于50%的预测框,再删除与检测到目标的概率次大的预测框的交叠率大于50%的预测框,以此类推,最后留下的预测框即为非极大值抑制方法进一步筛选得到的预测框。
这里需要说明的是,本发明未特殊强调部分,均属于本领域技术人员根据现有目标识别技术可以或容易知晓如何实现的。
显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域及相关领域的普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。

Claims (4)

1.一种基于二值化Yolov3网络的红绿灯检测方法,先构建并训练网络模型,然后通过训练好的网络模型对公路车道进行检测,其特征在于,网络模型的构建和训练主要包括以下步骤:
步骤1,收集大量汽车行驶过程中行车记录仪拍摄到的包含红绿灯的图片,方框标记出图片中红绿灯部分并按照颜色和指示方向对图片进行分类标注作为数据集,将数据集从数量上分为训练集、验证集和测试集三部分;
步骤2,构建Yolov3网络,并对其进行二值化,形成二值化Yolov3网络;二值化操作具体为,将输入图像利用符号函数二值化,将权重利用符号函数二值化,激活函数采用HardSigmoid函数,卷积操作为
Figure FDA0002349772830000011
其中I表示输入矩阵,W表示未二值化的权重,K和α为调整参数;层叠模式改为批标准化→二值化激活→二值化卷积→池化;
步骤3,利用训练集对二值化Yolov3网络进行训练,并更新权重,具体包为,权重初始化为浮点,前向传播过程中利用通过符号函数将权重量化为+1/-1,由二值权重与二值输入进行卷积运算,获得卷积层输出;在反向传播过程中,放松符号函数,计算相应梯度值,并根据梯度值对权重进行参数更新,参数更新完成后再权重量化为+1/-1,以便后期推断使用;
步骤4,将测试集输入训练好的二值化Yolov3网络,输出三路大小分别为13*13、26*26和52*52的特征图,每张特征图的每个特征点上都带有3种不同尺寸的候选框,对每个候选框进行回归和分类并计算总损失,获取最优预测框位置输出及其对应的类别输出。
2.根据权利要求1所述的基于二值化Yolov3网络的红绿灯检测方法,其特征在于,所述前向传播过程为,将训练集每个标记方框的宽和高相对整张图片的比例进行K-Means聚类,设置簇数为3,生成3种不同尺寸的候选框,将构建好的二值化Yolov3网络在ImageNet数据集上进行预训练,再将预训练完成的二值化Yolov3网络的基础上利用训练集进行迁移训练。
3.根据权利要求2所述的基于二值化Yolov3网络的红绿灯检测方法,其特征在于,所述步骤4中获取最优预测框位置输出具体为,将测试集输入训练好的二值化Yolov3网络,获取相对于候选区域的预测框偏移量和预测类别,利用预设的预测框置信度阈值对输出的预测框进行初步筛选,去除置信度小于阈值的预测框,再对预测框进行NMS筛选去除重叠度高的预测框,得到最优预测框位置输出及其对应的类别输出。
4.根据权利要求3所述的基于二值化Yolov3网络的红绿灯检测方法,其特征在于,所述类别输出按照颜色和指示方向分别为绿灯前进、绿灯左转、绿灯右转、绿灯掉头、红灯前进、红灯左转、红灯右转、红灯掉头。
CN201911410207.5A 2019-12-31 2019-12-31 一种基于二值化Yolov3网络的红绿灯检测方法 Active CN111160282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911410207.5A CN111160282B (zh) 2019-12-31 2019-12-31 一种基于二值化Yolov3网络的红绿灯检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911410207.5A CN111160282B (zh) 2019-12-31 2019-12-31 一种基于二值化Yolov3网络的红绿灯检测方法

Publications (2)

Publication Number Publication Date
CN111160282A true CN111160282A (zh) 2020-05-15
CN111160282B CN111160282B (zh) 2023-03-24

Family

ID=70559868

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911410207.5A Active CN111160282B (zh) 2019-12-31 2019-12-31 一种基于二值化Yolov3网络的红绿灯检测方法

Country Status (1)

Country Link
CN (1) CN111160282B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016510A (zh) * 2020-09-07 2020-12-01 平安国际智慧城市科技股份有限公司 基于深度学习的信号灯识别方法和装置、设备及存储介质
CN112863194A (zh) * 2021-01-20 2021-05-28 青岛以萨数据技术有限公司 一种图像处理方法、装置、终端及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194343A (zh) * 2017-05-16 2017-09-22 西北工业大学 基于位置相关的卷积与Fire模型的红绿灯检测方法
CN108875608A (zh) * 2018-06-05 2018-11-23 合肥湛达智能科技有限公司 一种基于深度学习的机动车交通信号识别方法
US20190087673A1 (en) * 2017-09-15 2019-03-21 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for identifying traffic light
CN110569792A (zh) * 2019-09-09 2019-12-13 吉林大学 一种基于卷积神经网络的自动驾驶汽车前方物体检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194343A (zh) * 2017-05-16 2017-09-22 西北工业大学 基于位置相关的卷积与Fire模型的红绿灯检测方法
US20190087673A1 (en) * 2017-09-15 2019-03-21 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for identifying traffic light
CN108875608A (zh) * 2018-06-05 2018-11-23 合肥湛达智能科技有限公司 一种基于深度学习的机动车交通信号识别方法
CN110569792A (zh) * 2019-09-09 2019-12-13 吉林大学 一种基于卷积神经网络的自动驾驶汽车前方物体检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
贾瑞明等: "基于卷积神经网络的交通灯识别", 《北方工业大学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016510A (zh) * 2020-09-07 2020-12-01 平安国际智慧城市科技股份有限公司 基于深度学习的信号灯识别方法和装置、设备及存储介质
CN112016510B (zh) * 2020-09-07 2024-04-16 平安国际智慧城市科技股份有限公司 基于深度学习的信号灯识别方法和装置、设备及存储介质
CN112863194A (zh) * 2021-01-20 2021-05-28 青岛以萨数据技术有限公司 一种图像处理方法、装置、终端及介质

Also Published As

Publication number Publication date
CN111160282B (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
CN109902806B (zh) 基于卷积神经网络的噪声图像目标边界框确定方法
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
CN109190752B (zh) 基于深度学习的全局特征和局部特征的图像语义分割方法
CN107368787B (zh) 一种面向深度智驾应用的交通标志识别方法
CN110163187B (zh) 基于f-rcnn的远距离交通标志检测识别方法
CN110263706B (zh) 一种雾霾天气车载视频动态目标检测和识别的方法
CN110263786B (zh) 一种基于特征维度融合的道路多目标识别系统及方法
CN111814621A (zh) 一种基于注意力机制的多尺度车辆行人检测方法及装置
CN112990065B (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
CN112990282B (zh) 一种细粒度小样本图像的分类方法及装置
CN113723377A (zh) 一种基于ld-ssd网络的交通标志检测方法
CN114693924A (zh) 一种基于多模型融合的道路场景语义分割方法
CN112633149A (zh) 一种域自适应雾天图像目标检测方法和装置
CN111160282B (zh) 一种基于二值化Yolov3网络的红绿灯检测方法
CN112084897A (zh) 一种gs-ssd的交通大场景车辆目标快速检测方法
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN117152513A (zh) 一种面向夜间场景的车辆边界定位方法
CN110909656A (zh) 一种雷达与摄像机融合的行人检测方法和系统
CN114596548A (zh) 目标检测方法、装置、计算机设备及计算机可读存储介质
CN112785610B (zh) 一种融合低层特征的车道线语义分割方法
CN114049532A (zh) 基于多阶段注意力深度学习的风险道路场景识别方法
CN111160274B (zh) 一种基于二值化Faster RCNN网络的行人检测方法
CN117576073A (zh) 一种基于改进YOLOv8模型的道路缺陷检测方法、装置和介质
CN116861262A (zh) 一种感知模型训练方法、装置及电子设备和存储介质
CN113869239A (zh) 一种交通信号灯倒计时识别系统及其构建方法、应用方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant