CN114821792A - 行人闯红灯意图预测方法及可读存储介质 - Google Patents
行人闯红灯意图预测方法及可读存储介质 Download PDFInfo
- Publication number
- CN114821792A CN114821792A CN202210467618.3A CN202210467618A CN114821792A CN 114821792 A CN114821792 A CN 114821792A CN 202210467618 A CN202210467618 A CN 202210467618A CN 114821792 A CN114821792 A CN 114821792A
- Authority
- CN
- China
- Prior art keywords
- red light
- pedestrian
- running
- intention
- light running
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000003860 storage Methods 0.000 title claims abstract description 11
- 238000012549 training Methods 0.000 claims description 25
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000007477 logistic regression Methods 0.000 claims description 5
- 238000007637 random forest analysis Methods 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 9
- 230000006399 behavior Effects 0.000 description 35
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
本发明涉及行人通行管理技术领域,具体涉及一种行人闯红灯意图预测方法及可读存储介质。方法包括:获取路口位置的待测图像信息;提取路口位置的待测图像信息中与行人闯红灯的条件因素相关的闯红灯行为特征;将闯红灯行为特征输入经过预先训练的闯红灯预测模型中,输出对应的闯红灯预测概率作为行人闯红灯意图预测的结果。本发明还公开了一种可读存储介质。本发明能够有效预测行人闯红灯行为意图,进而辅助车辆驾驶员规避碰撞风险,从而能够提高路口交通的管理效果和运行安全性。
Description
技术领域
本发明涉及行人通行管理技术领域,具体涉及行人闯红灯意图预测方法及可读存储介质。
背景技术
近年来,随着我国经济飞速发展,城市化进程的加快,机动车保有量保持较快增长。车辆快速增多加剧了城市道路交通拥堵,特别是关键路口位置,车辆、行人、非机动车的混合交通流在此汇合,相互干扰严重,冲突点多,延误率高。交通问题不再只是机动车单方面的责任因素,行人的违章行为也应得到重视,尤其是行人闯红灯的行为,严重干扰了交通秩序和道路的通行能力。
针对交通违法行为普遍及违规人数众多不易管理等问题,使用人脸和人体姿态识别,检测识别闯红灯的违规行人,能够起到警示作用。例如,公开号为CN113158853A的中国专利就公开了《一种结合人脸与人体姿态的闯红灯行人识别方法》,其根据抓拍中的行人闯红灯照片,使用深度学习卷积神经网络(CNN)实现人脸的检测,能够快速定位找到人脸位置,再从进行编码,与人脸库进行相似度匹配。同时,通过人体姿态识别的方法,对人体的躯干、手部、脚部的关键点进行识别,从而进行人体行为识别,确定违规行人。
上述现有方案主要应用于行人闯红灯行为的识别,但相比于行人闯红灯行为的识别,对行人闯红灯前的行为预测显得更为重要,因此,通过行为预测提前为车辆驾驶员提供预警信息,进而能够辅助车辆驾驶员避开闯红灯的行人。因此,如何设计一种能够有效预测行人闯红灯行为意图的方法,以辅助车辆驾驶员规避碰撞风险是亟需解决的技术问题。
发明内容
针对上述现有技术的不足,本发明所要解决的技术问题是:如何提供一种行人闯红灯意图预测方法,以能够有效预测行人闯红灯行为意图,进而辅助车辆驾驶员规避碰撞风险,从而能够提高路口交通的管理效果和运行安全性。
为了解决上述技术问题,本发明采用了如下的技术方案:
行人闯红灯意图预测方法,包括以下步骤:
S1:获取路口位置的待测图像信息;
S2:提取路口位置的待测图像信息中与行人闯红灯的条件因素相关的闯红灯行为特征;
S3:将闯红灯行为特征输入经过预先训练的闯红灯预测模型中,输出对应的闯红灯预测概率作为行人闯红灯意图预测的结果。
S4:当闯红灯预测概率大于设置的安全阈值时,生成对应的行人闯红灯预警信号。
优选的,步骤S1中,通过车端或路口位置的图像采集设备获取路口位置的待测图像信息。
优选的,步骤S2中,闯红灯行为特征包括但不限于信号灯灯色特征、信号灯显示时间特征、行人侧的行人数量特征、行人运动状态特征、行人等待状态特征、路侧的道路拥堵状态特征和交通指挥人员特征。
优选的,步骤S3中,闯红灯预测模型包括但不限于逻辑回归算法模型、随机森林算法模型、最邻近结点算法模型和全连接神经网络模型。
优选的,步骤S3中,通过如下步骤训练闯红灯预测模型:
S301:构建训练数据集,包括训练图像信息;
S302:提取训练图像信息中的闯红灯行为特征;
S303:将训练图像信息中的闯红灯行为特征输入闯红灯预测模型进行训练;
S304:对训练后的闯红灯预测模型进行过拟合能力测试和泛化能力评估;
S305:判断闯红灯预测模型的过拟合能力和泛化能力是否到达预设要求:若是,则完成训练;否则,返回步骤S302。
本发明还公开了一种可读存储介质,其上存储有计算机管理类程序,所述计算机管理类程序被处理器执行时实现本发明的行人闯红灯意图预测方法的步骤。
本发明中行人闯红灯意图预测方法与现有技术相比,具有如下有益效果:
本发明采集路口位置的待测图像信息,并提取路口位置的待测图像信息中的闯红灯行为特征,而闯红灯行为特征能够反映出与行人闯红灯行为相关的各种条件因素,进而能够基于闯红灯行为特征有效的预测行人闯红灯的概率,即能够预测行人闯红灯行为意图,从而能够提高路口交通的管理效果和运行安全性。
本发明能够在闯红灯预测概率大于设置的安全阈值时生成对应的行人闯红灯预警信号,用以提醒车辆的驾驶员规避相应的风险,从而能够进一步提高路口交通的管理效果和运行安全性。
本发明通过闯红灯行为特征能够从环境因素、行人主观因素和其他客观因素三个维度的条件因素来更全面的评估行人闯红灯意图,进而能够基于多维度的闯红灯行为特征准确的预测行人闯红灯行为意图,从而能够进一步提高路口交通的管理效果和运行安全性。
附图说明
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为行人闯红灯意图预测方法的逻辑框图。
具体实施方式
下面通过具体实施方式进一步详细的说明:
实施例一:
本实施例中公开了一种行人闯红灯意图预测方法。
如图1所示,行人闯红灯意图预测方法,包括以下步骤:
S1:获取路口位置的待测图像信息;本实施例中,通过车端或路口位置的图像采集设备获取路口位置的待测图像信息。
S2:提取路口位置的待测图像信息中与行人闯红灯的条件因素相关的闯红灯行为特征;
S3:将闯红灯行为特征输入经过预先训练的闯红灯预测模型中,输出对应的闯红灯预测概率作为行人闯红灯意图预测的结果。
S4:当闯红灯预测概率大于设置的安全阈值时,生成对应的行人闯红灯预警信号。
需要说明的是,本发明中行人闯红灯意图预测方法可通过程序编程的方式生对应的成软件代码或软件服务,进而能够在服务器和计算机上运行和实施。
本发明采集路口位置的待测图像信息,并提取路口位置的待测图像信息中的闯红灯行为特征,而闯红灯行为特征能够反映出与行人闯红灯行为相关的各种条件因素,进而能够基于闯红灯行为特征有效的预测行人闯红灯的概率,即能够预测行人闯红灯行为意图,从而能够提高路口交通的管理效果和运行安全性。同时,本发明能够在闯红灯预测概率大于设置的安全阈值时生成对应的行人闯红灯预警信号,用以提醒车辆的驾驶员规避相应的风险,从而能够进一步提高路口交通的管理效果和运行安全性。
具体实施过程中,闯红灯行为特征包括但不限于信号灯灯色特征、信号灯显示时间特征、行人侧的行人数量特征、行人运动状态特征、行人等待状态特征、路侧的道路拥堵状态特征和交通指挥人员特征。
申请人在研究中发现,信号灯灯色特征和信号灯显示时间特征,能够有效反映路口位置与行人闯红灯行为相关的环境因素;行人侧的行人数量特征、行人运动状态特征和行人等待状态特征,能够反映路口位置与行人闯红灯行为相关的行人主观因素;路侧的道路拥堵状态特征和交通指挥人员特征,能够反映路口位置与行人闯红灯行为相关的其他客观因素。
因此,本发明通过闯红灯行为特征能够从环境因素、行人主观因素和其他客观因素三个维度的条件因素来更全面的评估行人闯红灯意图,进而能够基于多维度的闯红灯行为特征准确的预测行人闯红灯行为意图,从而能够进一步提高路口交通的管理效果和运行安全性。
具体实施过程中,通过自动特征交叉和基于专家经验的特征提取模型提取闯红灯行为特征。本实施例中,自动特征交叉和基于专家经验特征提取模型的构建及其训练均采用的现有成熟手段实现,可参考专利号为CN201910145392.3和CN202210017323.6等专利中公开的技术方案,具体过程这里不再赘述。
其他优选实施例中,也可通过卷积神经网络模型或手动特征提取等方法来从路口位置的待测图像信息中提取闯红灯行为特征。
以提取行人行为特征为例,包括:
训练数据模块:利用放在车辆挡风玻璃后面的摄像机对路口位置视频进行采样,获得N组不同车辆驾驶环境道路情况的路口位置图像,联合构建起来训练数据;
模拟模块:对收集来的路口位置图像进行平移、裁剪、变更亮度操作,以模拟不同光照和天气的场景;
卷积神经网络构建模块:将经过处理后的路口位置图像作为输入,对应路口位置图像的操作数据作为标签值,进行训练,采用基于Nadam优化器的优化方法对均方误差损失求最优解来优化神经网络的权重参数;将训练完成后的卷积神经网络的网络结构和权值保存,以建立新的一个卷积神经网络,用以完成行人行为特征提取。
具体实施过程中,闯红灯预测模型包括但不限于逻辑回归算法模型、随机森林算法模型、最邻近结点算法模型和全连接神经网络模型。
其中,逻辑回归算法模型(Logistic Regression)是用于处理因变量为分类变量的回归问题,常见的是二分类或二项分布问题,也可以处理多分类问题,它实际上是属于一种分类方法。
随机森林算法模(Random Forest)是利用多棵树对样本进行训练并预测的一种分 类器。
最邻近结点算法模型(KNN)是数据挖掘分类技术中最简单的方法之一。K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。近邻算法是将数据集合中每一个记录进行分类的方法。
步骤S3中,通过如下步骤训练闯红灯预测模型:
S301:构建训练数据集,包括训练图像信息;
S302:提取训练图像信息中的闯红灯行为特征;
S303:将训练图像信息中的闯红灯行为特征输入闯红灯预测模型进行训练;
S304:对训练后的闯红灯预测模型进行过拟合能力测试和泛化能力评估;本实施例中,通过查准率、查全率、F分数和AUC值等指标进行过拟合能力测试和泛化能力评估。
S305:判断闯红灯预测模型的过拟合能力和泛化能力是否到达预设要求:若是,则完成训练;否则,返回步骤S302。
本实施例中,采用上述方法训练闯红灯预测模型的目的是,能够更好的保证模型的预测准确性。
其他优选实施例中,也可通过现有其他方法实现闯红灯预测模型的训练,可参考前述卷积神经网络模型的构建和训练方法。
实施例二:
本实施例中公开了一种可读存储介质。
一种可读存储介质,其上存储有计算机管理类程序,所述计算机管理类程序被处理器执行时实现本发明的行人闯红灯意图预测方法的步骤。可读存储介质可以是U盘或计算机等具有可读存储功能的设备。
最后需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制技术方案,本领域的普通技术人员应当理解,那些对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,均应涵盖在本发明的权利要求范围当中。
Claims (7)
1.行人闯红灯意图预测方法,其特征在于,包括以下步骤:
S1:获取路口位置的待测图像信息;
S2:提取路口位置的待测图像信息中与行人闯红灯的条件因素相关的闯红灯行为特征;
S3:将闯红灯行为特征输入经过预先训练的闯红灯预测模型中,输出对应的闯红灯预测概率作为行人闯红灯意图预测的结果。
2.如权利要求1所述的行人闯红灯意图预测方法,其特征在于:还包括:
S4:当闯红灯预测概率大于设置的安全阈值时,生成对应的行人闯红灯预警信号。
3.如权利要求1所述的行人闯红灯意图预测方法,其特征在于:步骤S1中,通过车端或路口位置的图像采集设备获取路口位置的待测图像信息。
4.如权利要求1所述的行人闯红灯意图预测方法,其特征在于:步骤S2中,闯红灯行为特征包括但不限于信号灯灯色特征、信号灯显示时间特征、行人侧的行人数量特征、行人运动状态特征、行人等待状态特征、路侧的道路拥堵状态特征和交通指挥人员特征。
5.如权利要求1所述的行人闯红灯意图预测方法,其特征在于:步骤S3中,闯红灯预测模型包括但不限于逻辑回归算法模型、随机森林算法模型、最邻近结点算法模型和全连接神经网络模型。
6.如权利要求5所述的行人闯红灯意图预测方法,其特征在于:步骤S3中,通过如下步骤训练闯红灯预测模型:
S301:构建训练数据集,包括训练图像信息;
S302:提取训练图像信息中的闯红灯行为特征;
S303:将训练图像信息中的闯红灯行为特征输入闯红灯预测模型进行训练;
S304:对训练后的闯红灯预测模型进行过拟合能力测试和泛化能力评估;
S305:判断闯红灯预测模型的过拟合能力和泛化能力是否到达预设要求:若是,则完成训练;否则,返回步骤S302。
7.一种可读存储介质,其特征在于,其上存储有计算机管理类程序,所述计算机管理类程序被处理器执行时实现如权利要求1-6任一项所述的行人闯红灯意图预测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210467618.3A CN114821792A (zh) | 2022-04-29 | 2022-04-29 | 行人闯红灯意图预测方法及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210467618.3A CN114821792A (zh) | 2022-04-29 | 2022-04-29 | 行人闯红灯意图预测方法及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821792A true CN114821792A (zh) | 2022-07-29 |
Family
ID=82509267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210467618.3A Pending CN114821792A (zh) | 2022-04-29 | 2022-04-29 | 行人闯红灯意图预测方法及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821792A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809964A (zh) * | 2016-05-18 | 2016-07-27 | 深圳中兴力维技术有限公司 | 交通预警方法和装置 |
CN109410603A (zh) * | 2018-12-18 | 2019-03-01 | 吉林化工学院 | 一种城市交通智能控制系统 |
CN109754602A (zh) * | 2019-01-15 | 2019-05-14 | 珠海格力电器股份有限公司 | 行人闯红灯防误判的方法和装置 |
CN109766756A (zh) * | 2018-12-10 | 2019-05-17 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 闯红灯数据处理方法、装置、计算机设备和存储介质 |
CN112489383A (zh) * | 2020-11-16 | 2021-03-12 | 山东理工大学 | 一种基于机器视觉的预防闯红灯事故预警系统、方法 |
CN114360224A (zh) * | 2021-12-28 | 2022-04-15 | 宁波大学 | 一种用于汽车闯红灯的危险判别预警系统、方法、装置 |
-
2022
- 2022-04-29 CN CN202210467618.3A patent/CN114821792A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809964A (zh) * | 2016-05-18 | 2016-07-27 | 深圳中兴力维技术有限公司 | 交通预警方法和装置 |
CN109766756A (zh) * | 2018-12-10 | 2019-05-17 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 闯红灯数据处理方法、装置、计算机设备和存储介质 |
CN109410603A (zh) * | 2018-12-18 | 2019-03-01 | 吉林化工学院 | 一种城市交通智能控制系统 |
CN109754602A (zh) * | 2019-01-15 | 2019-05-14 | 珠海格力电器股份有限公司 | 行人闯红灯防误判的方法和装置 |
CN112489383A (zh) * | 2020-11-16 | 2021-03-12 | 山东理工大学 | 一种基于机器视觉的预防闯红灯事故预警系统、方法 |
CN114360224A (zh) * | 2021-12-28 | 2022-04-15 | 宁波大学 | 一种用于汽车闯红灯的危险判别预警系统、方法、装置 |
Non-Patent Citations (2)
Title |
---|
曹慧娟;古仁华;姚舒仪;解宏伟;胡晔南;: ""中国式过马路"行为意向成因分析及预测", 中国安全科学学报, no. 11, 15 November 2014 (2014-11-15), pages 49 - 54 * |
李聪颖;朱彤;: "机动车闯红灯判别模型及评价研究", 中国安全科学学报, no. 02, 15 February 2011 (2011-02-15), pages 1 - 4 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI430212B (zh) | 利用多特徵自動集群法之異常行為偵測系統與方法 | |
Peng et al. | Uncertainty evaluation of object detection algorithms for autonomous vehicles | |
JP2016219004A (ja) | 一般物体提案を用いる複数物体の追跡 | |
Xue et al. | A context-aware framework for risky driving behavior evaluation based on trajectory data | |
CN114898297A (zh) | 基于目标检测和目标跟踪的非机动车违法行为判定的方法 | |
CN111274886A (zh) | 一种基于深度学习的行人闯红灯违法行为分析方法及系统 | |
CN113688760A (zh) | 自动驾驶的数据识别方法、装置、计算机设备和存储介质 | |
Patil | Applications of deep learning in traffic management: A review | |
Maye et al. | Bayesian on-line learning of driving behaviors | |
Peng et al. | Real-time illegal parking detection algorithm in urban environments | |
CN112949578B (zh) | 车灯状态识别方法、装置、设备及存储介质 | |
BARODI et al. | Improved deep learning performance for real-time traffic sign detection and recognition applicable to intelligent transportation systems | |
Rajalakshmi et al. | Traffic violation invigilation using transfer learning | |
CN111832463A (zh) | 一种基于深度学习的交通标志检测方法 | |
CN114821792A (zh) | 行人闯红灯意图预测方法及可读存储介质 | |
CN111553199A (zh) | 一种基于计算机视觉的机动车交通违法行为自动检测技术 | |
CN116361175A (zh) | 一种自动驾驶车辆在不同安全域的测试场景创建方法 | |
Venkatesh et al. | An intelligent traffic management system based on the Internet of Things for detecting rule violations | |
Grigoropoulos et al. | Detection and Classification of Bicyclist Group Behavior for Automated Vehicle Applications | |
Aysal et al. | Real-time application of traffic sign recognition algorithm with deep learning | |
CN113065428A (zh) | 基于特征选择的自动驾驶目标识别方法 | |
Tippannavar et al. | Real-time vehicle identi-fication for improving the traffic management system-a review | |
Triwibowo et al. | Analysis of Classification and Calculation of Vehicle Type at APILL Intersection Using YOLO Method and Kalman Filter | |
CN116541715B (zh) | 目标检测方法、模型的训练方法、目标检测系统及装置 | |
US20200310458A1 (en) | Estimating a movement of a hybrid-behavior vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |