CN110751829B - 一种基于图像自学习的车辆排队消散时间预测方法 - Google Patents
一种基于图像自学习的车辆排队消散时间预测方法 Download PDFInfo
- Publication number
- CN110751829B CN110751829B CN201910920292.3A CN201910920292A CN110751829B CN 110751829 B CN110751829 B CN 110751829B CN 201910920292 A CN201910920292 A CN 201910920292A CN 110751829 B CN110751829 B CN 110751829B
- Authority
- CN
- China
- Prior art keywords
- lane
- time
- image
- self
- dissipation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Strategic Management (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Signal Processing (AREA)
- Game Theory and Decision Science (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于图像自学习的车辆排队消散时间预测方法,包括:S1、预设进口道各个车道的分析区域;S2、采集进口道图像;S3、由进口道图像分割出车道图像;S4、自学习神经网络对车道图像进行分析,得到车辆排队消散预测时间;S5、获取车辆排队消散实际时间;S6、计算排队消散预测时间与实际时间之间的预测差值;S7、判断预测差值是否均小于第一预设阈值,若判断为是,则开始预测下一周期的车辆排队消散时间,否则执行步骤S8;S8、将车道图像和排队消散实际时间加入到样本关系库,重新训练并更新步骤S4的自学习神经网络。与现有技术相比,本发明通过图像自学习,实现预测模型进化,能够准确预测车辆排队消散时间。
Description
技术领域
本发明涉及智能交通技术领域,尤其是涉及一种基于图像自学习的车辆排队消散时间预测方法。
背景技术
信号动态配时的目的在于均衡各个方向的进口道流量比,从而确保在一个绿灯周期将排队等候车辆放行完毕,因此,需要准确地对车辆排队消散时间进行预测,以保证信号控制的有效性、提高交叉口通行效率,而车辆排队消散时间的预测,通常是基于交叉口的信号感知,其关键在于对各个进口道排队状态的感知。
传统的交叉口信号感知主要利用电磁感应线圈,由于线圈需要对路面进行切割,而雨水渗透和车辆碾压则容易导致线圈发生破损,因此,采用电磁感应线圈感知交叉口信号的方法存在可靠性差、难以维修的缺点,此外,线圈感应实质上是一种点式感知,其感知范围有限,无法获取交叉口的所有信号。
随着人工智能的发展,以图像分析为代表的视频采集技术得到广泛应用,有效地改变了以往视频图像仅做管理参考而无法提取有效信息的局面,且视频设备安装方式灵活,探测范围大,本发明考虑利用视频图像以获取交叉口信号,通过训练样本、修正模型,从而对车辆排队情况进行分析,最终实现准确预测车辆排队消散时间的目的。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于图像自学习的车辆排队消散时间预测方法。
本发明的目的可以通过以下技术方案来实现:一种基于图像自学习的车辆排队消散时间预测方法,包括以下步骤:
S1、预先设置进口道各个车道的分析区域;
S2、基于进口道各个车道的分析区域,在预设拍照时刻,通过布设在进口道的视频采集设备,采集进口道图像;
S3、对进口道图像进行图像分割,从进口道图像中划分出各个车道,得到各个车道对应的车道图像;
S4、建立自学习神经网络,由自学习神经网络对车道图像进行分析,得到车道的车辆排队消散预测时间;
S5、获取车道的车辆排队消散实际时间;
S6、将车道的车辆排队消散预测时间与对应的车辆排队消散实际时间进行作差计算,得到车道对应的预测差值;
S7、判断车道对应的预测差值是否均小于第一预设阈值,若判断为是,则不记录车道图像,返回步骤S2,开始预测下一周期的车辆排队消散时间,否则执行步骤S8;
S8、将车道图像和对应的车辆排队消散实际时间加入到对应的样本关系库,根据样本关系库,重新训练步骤S4的自学习神经网络,之后将步骤S4中自学习神经网络更新替换为训练好的自学习神经网络,以对车道图像进行分析,得到车道的车辆排队消散预测时间。
进一步地,所述步骤S1中分析区域具体为:
Lkn=3600αl(Gkn-lkn)Skn
式中,Lkn为进口道k的车道n的分析区域长度,α为二流理论系数,用于对分析区域长度进行修正,l为车头间距,Gkn为进口道k的车道n对应的绿灯显示时间,lkn为进口道k的车道n对应的车头损失时间,Skn为进口道k的车道n的饱和流率。
进一步地,所述步骤S2中预设拍照时刻为信号灯转换为绿灯的时刻。
进一步地,所述步骤S4具体包括以下步骤:
S41、建立包括最大值池化层、卷积层和全连接层的自学习神经网络;
S42、由最大值池化的矩阵窗口在车道图像中滑动,保留矩阵窗口中像素值最大的像素,对车道图像进行降维处理;
S43、利用卷积层的卷积核提取车道图像的特征;
S44、通过全连接层将提取的车道图像特征进行综合,以输出车道对应的车辆排队消散预测时间。
进一步地,所述步骤S5具体包括以下步骤:
S51、从车道对应信号灯的绿灯计时开始,判断剩余绿灯时间是否小于或等于第一预设时间,若判断为是,则执行步骤S52,否则执行步骤S53;
S52、结束车道此次车辆排队消散实际时间的获取;
S53、获取车道停车线位置的车头时距,并判断车头时距是否大于或等于第二预设时间,若判断为是,则执行步骤S54,否则返回步骤S51;
S54、将绿灯计时开始时刻至当前时刻的时间差作为车道的车辆排队消散实际时间。
进一步地,所述步骤S53中获取车道停车线位置的车头时距具体包括以下步骤:
S531、计算停车线上像素的灰度值A(x,y)与背景像素的灰度值B(x,y)之差,并进行二值化:
式中,H(x,y)为点(x,y)处二值化结果,取值为0或1,β为二值化阈值,取值范围(0,1);
之后计算灰度值之差超过β的比例M:
若比例M大于或等于第二预设阈值,则执行步骤S532,否则执行步骤S533;
S532、当前时刻没有车辆经过停车线,需要重新执行步骤S531;
S533、当前时刻有车辆经过停车线,执行步骤S534,以作进一步判断;
S534、判断前一时刻是否有车辆经过,如果有车辆经过,则执行步骤S531,否则执行步骤S535;
S535、记录当前时刻;
S536、将相邻车辆前后经过停车线的时间差作为车头时距。
进一步地,所述步骤S8中重新训练步骤S4的自学习神经网络具体是对自学习神经网络中的全连接层进行重新计算,包括以下步骤:
S81、将第i层向量ai和第i层第k组权重向量w(i,k)之间的点积,加上第i层第j个偏置b(i,j)的计算结果,输入Sigmoid激活函数f进行输出,得到a(i+1,j):
a(i+1,j)=f(ai·w(i,k)+b(i,j))
式中,a(i+1,j)为第i+1层第j个神经节点的取值;
S82、将最后一层、即第n层的计算结果向量an输入到Softmax函数,计算车辆排队消散预测时间:
式中,an为第n层神经节点的取值构成的向量,a(n,j)为第n层第j个神经节点的取值;
之后计算误差向量δn:
δn=y-aout
式中,y为车辆排队消散实际时间;
S83、计算第i层第j个神经节点的误差δ(i,j):
δ(i,j)=w(i,k,j)·δi+1
式中,w(i,k,j)为第i层k组中所有第j个权重组成的向量,δi+1为第i+1层中的误差向量;
S84、如果误差向量δn中取值错误的比例小于γ%,则训练结束,否则执行步骤S85;
S85、根据各个神经节点的误差δ(i,j),对权重元素w(i,k,j)进行修正,以得到修正后的权重元素w′(i,k,j):
式中,w(i,k,j)为w(i,k,j)中的一个权重元素,η为训练速度系数,a(i,j)为第i层第j个神经节点的取值;
S86、返回步骤S81,应用修正后的权重元素w′(i,k,j)进行重新计算。
进一步地,所述步骤S2中视频采集设备为电子警察或卡口设备或高空监控摄像头。
与现有技术相比,本发明具有以下优点:
一、本发明基于自学习神经网络,通过不断丰富训练样本库、对预测模型进行修正,能够有效提高车辆排队消散时间的预测精度,减小交叉口信号感知失效或者感知范围小带来的不利影响,有效解决车辆排队消散时间预测难题,根据设备实际的安装情况,自适应地更新训练样本,使模型获取自进化能力。
二、本发明通过设置车道的分析区域、对进口道图像进行车道划分,保证了从视频采集图像中获取车道信息的可靠性,有利于快速准确地预测车道的车辆排队消散时间,本发明方法简明,在不改变现有视频设备监控交叉口状态的基础上,通过算法改进,使视频设备能充分感知周围环境,并具备自学习神经网络算法的进化能力,提升车辆排队消散时间预测精度。
附图说明
图1为本发明的方法流程示意图;
图2为实施例中车道分析区域示意图;
图3为实施例中应用本发明方法的流程图;
图4为实施例中获取车辆排队消散实际时间的方法流程图;
图5为实施例中获取车头时距的方法流程图;
图6为实施例中自学习神经网络的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
如图1所示,一种基于图像自学习的车辆排队消散时间预测方法,包括以下步骤:
S1、预先设置进口道各个车道的分析区域;
S2、基于进口道各个车道的分析区域,在预设拍照时刻,通过布设在进口道的视频采集设备,采集进口道图像;
S3、对进口道图像进行图像分割,从进口道图像中划分出各个车道,得到各个车道对应的车道图像;
S4、建立自学习神经网络,由自学习神经网络对车道图像进行分析,得到车道的车辆排队消散预测时间;
S5、获取车道的车辆排队消散实际时间;
S6、将车道的车辆排队消散预测时间与对应的车辆排队消散实际时间进行作差计算,得到车道对应的预测差值;
S7、判断车道对应的预测差值是否均小于第一预设阈值,若判断为是,则不记录车道图像,返回步骤S2,开始预测下一周期的车辆排队消散时间,否则执行步骤S8;
S8、将车道图像和对应的车辆排队消散实际时间加入到对应的样本关系库,根据样本关系库,重新训练步骤S4的自学习神经网络,之后将步骤S4中自学习神经网络更新替换为训练好的自学习神经网络,以对车道图像进行分析,得到车道的车辆排队消散预测时间。
如图2所示,本实施例中,交叉口由4个进口道k1、k2、k3、k4组成,标号10为各个进口道对应的车道分析区域,即为视频采集设备采集图像划分区域,标号11为交叉口范围内的车辆。
上述方法在实施例中的应用过程如图3所示,包括:
B1、确定进口道k的车道n的最短分析区域长度;
B2、对布设在进口道的视频设备采集图像进行图像分割,以完成车道划分;
B3、拍摄进口道k车道n对应信号灯显示绿灯放行时排队图像;
B4、采用自学习神经网络对图像中各个车道的排队情况进行分析,得到车道的车辆排队消散预测时间;
B5、输出自学习神经网络计算的车辆排队消散预测时间;
B6、测量车道的车辆排队消散实际时间;
B7、计算步骤B4的排队消散预测时间和步骤B6的排队消散实际时间之差,如果超过a%,则执行步骤B9,否则执行步骤B8;
B8、不记录当前的排队图像,进行信号灯下一周期的预测、测量;
B9、将当前样本加入单车道车辆排队图像与车辆排队消散实际时间的样本关系库;
B10、对自学习神经网络的预测模型进行重新训练。
其中,视频设备可以为电子警察、卡口设备,或者高空监控摄像头,要求能完整采集从停车线开始到最短分析区域长度的范围,并和交叉口信号机连通,获取当前信号状态,在特定时刻进行图像分析;
图像分割是指对视频设备拍摄画面按车道进行分割,并在图像上的车道停车线位置,对每个分割区域设置虚拟线圈检测器。
步骤B1中确定进口道k的车道n的最短分析区域长度Lkn由以下公式确定:
Lkn=3600αl(Gkn-lkn)Skn (1)
式(1)中,α为二流理论系数,用于对最短分析区域长度进行修正,l为车头间距,单位米,Gkn为该车道对应的绿灯显示时间,单位为秒,lkn为该车道对应的车头损失时间,单位为秒,Skn为车道饱和流率,单位为辆/小时。
步骤B1确定了最短的图像分析长度;步骤B2确定了图像分析的区域;步骤B3确定了图像的拍摄时间,由此得到了进行分析的目标车道的单车道影像,供步骤B4中自学习神经网络对车道的车辆排队消散时间进行预测。
步骤B6中测量车道的实际排队消散时间测量方法,如图4所示,包括以下步骤:
B61、进口道k的车道n对应信号灯绿灯计时开始;
B62、剩余绿灯时间是否大于0,如果大于0,则执行步骤B63,否则执行步骤B64;
B64、忽略该次消散时间检测;
B63、判断停车线处车头时距是否大于5秒,如果大于5秒,则执行步骤B65,如果小于5秒,则执行步骤B62;
B65、记录绿灯开始到该时刻经历时间为实际排队消散时间。
步骤B63车头时距检测方法,如图5所示,包括以下步骤:
B631、计算停车线上像素的灰度值A(x,y)与背景像素的灰度值B(x,y)之差,并根据式(2)进行二值化:
并通过式(3)计算灰度值之差超过β的比例M:
如果比例大于b%,则执行步骤B632,否则执行步骤B633;
B632、当前时刻没有车辆经过停车线,需要重新执行步骤B631;
B633、当前时刻有车辆经过停车线,执行步骤B634作进一步判断;
B634、判断前一时刻是否有车辆经过,如果有车辆经过,则执行步骤B631,否则执行步骤B635;
B635、记录当前时刻;
B636、记相邻车辆前后经过虚拟检测器的时间差为车头时距。
如图6所示,自学习神经网络包括最大值池化、卷积和全连接部分组合,在自学习神经网络中输入车道划分后的图像进行训练,输出结果为预测排队消散时间,根据预测结果和步骤B6测量得到的实际排队消散时间,对单车道车辆排队消散时间关系库进行校正,校正结果用于自学习神经网络参数训练。
本实施例中,需要分析的图像大小为80×240,输出预测排队消散时间取值范围为1-128秒,步骤S4包含最大值池化、卷积、全连接操作,其中最大值池化的具体计算包括:
设置最大值池化的矩阵窗口大小,本例中分别选取4×4和2×8,以该矩阵窗口在图像上滑动,保留矩阵窗口中像素值最大的像素,对图像进行降维处理;
卷积的具体计算包括:
设置卷积核的数量和大小,本例中分别取3个大小为3×3的卷积核和256个大小为8×8的卷积核,在图像上滑动,提取图像特征;
全连接的具体计算包括:
B41、第i层向量ai和第i层第k组权重向量w(i,k)之间的点积,再加上第i层第j个偏置b(i,j)的计算结果,输入Sigmoid激活函数f进行输出,得到a(i+1,j),即有:
a(i+1,j)=f(ai·w(i,k)+b(i,j)) (4)
B42、将最后一层、即第n层的计算结果向量an输入到Softmax函数计算预测结果,计算如式(5)所示:
结合实际值y,通过式(6)计算得到误差向量δn:
δn=y-aout (6)
B43、第i层第j个神经节点的误差δ(i,j)通过式(7)进行计算:
δ(i,j)=w(i,k,j)·δi+1 (7)
B44、如果误差向量δn中取值错误的比例小于γ%,则训练结束,否则转置步骤B45;
B45、根据各个神经节点的误差计算结果δ(i,j),通过式(8)对权重元素w(i,k,j)进行修正,得到w′(i,k,j):
B46、转置步骤B41,应用修正后的权重元素w′(i,k,j)对结果进行重新计算。
综上所述,本专利提供了一种车辆排队消散时间预测方法,该方法基于卷积神经网络算法,增加了自学习的功能,通过更新学习训练的样本关系库,让卷积神经网络不断对新的样本关系库进行训练学习,从而实现自学习,此外,本发明利用视频设备安装方式灵活、探测范围大的优点,同时伴随自学习神经网络预测精度随着训练样本的扩大和优选不断提高,从而有效地对车辆排队情况进行分析,最终准确地预测车辆排队消散时间。
Claims (8)
1.一种基于图像自学习的车辆排队消散时间预测方法,其特征在于,包括以下步骤:
S1、预先设置进口道各个车道的分析区域;
S2、基于进口道各个车道的分析区域,在预设拍照时刻,通过布设在进口道的视频采集设备,采集进口道图像;
S3、对进口道图像进行图像分割,从进口道图像中划分出各个车道,得到各个车道对应的车道图像;
S4、建立自学习神经网络,由自学习神经网络对车道图像进行分析,得到车道的车辆排队消散预测时间;
S5、获取车道的车辆排队消散实际时间;
S6、将车道的车辆排队消散预测时间与对应的车辆排队消散实际时间进行作差计算,得到车道对应的预测差值;
S7、判断车道对应的预测差值是否均小于第一预设阈值,若判断为是,则不记录车道图像,返回步骤S2,开始预测下一周期的车辆排队消散时间,否则执行步骤S8;
S8、将车道图像和对应的车辆排队消散实际时间加入到对应的样本关系库,根据样本关系库,重新训练步骤S4的自学习神经网络,之后将步骤S4中自学习神经网络更新替换为训练好的自学习神经网络,以对车道图像进行分析,得到车道的车辆排队消散预测时间。
2.根据权利要求1所述的一种基于图像自学习的车辆排队消散时间预测方法,其特征在于,所述步骤S1中分析区域具体为:
Lkn=3600αl(Gkn-lkn)Skn
式中,Lkn为进口道k的车道n的分析区域长度,α为二流理论系数,用于对分析区域长度进行修正,l为车头间距,Gkn为进口道k的车道n对应的绿灯显示时间,lkn为进口道k的车道n对应的车头损失时间,Skn为进口道k的车道n的饱和流率。
3.根据权利要求1所述的一种基于图像自学习的车辆排队消散时间预测方法,其特征在于,所述步骤S2中预设拍照时刻为信号灯转换为绿灯的时刻。
4.根据权利要求1所述的一种基于图像自学习的车辆排队消散时间预测方法,其特征在于,所述步骤S4具体包括以下步骤:
S41、建立包括最大值池化层、卷积层和全连接层的自学习神经网络;
S42、由最大值池化的矩阵窗口在车道图像中滑动,保留矩阵窗口中像素值最大的像素,对车道图像进行降维处理;
S43、利用卷积层的卷积核提取车道图像的特征;
S44、通过全连接层将提取的车道图像特征进行综合,以输出车道对应的车辆排队消散预测时间。
5.根据权利要求1所述的一种基于图像自学习的车辆排队消散时间预测方法,其特征在于,所述步骤S5具体包括以下步骤:
S51、从车道对应信号灯的绿灯计时开始,判断剩余绿灯时间是否小于或等于第一预设时间,若判断为是,则执行步骤S52,否则执行步骤S53;
S52、结束车道此次车辆排队消散实际时间的获取;
S53、获取车道停车线位置的车头时距,并判断车头时距是否大于或等于第二预设时间,若判断为是,则执行步骤S54,否则返回步骤S51;
S54、将绿灯计时开始时刻至当前时刻的时间差作为车道的车辆排队消散实际时间。
6.根据权利要求5所述的一种基于图像自学习的车辆排队消散时间预测方法,其特征在于,所述步骤S53中获取车道停车线位置的车头时距具体包括以下步骤:
S531、计算停车线上像素的灰度值与背景像素的灰度值之差,并进行二值化:
式中,A(x,y)为停车线上点(x,y)像素的灰度值,B(x,y)为停车线上点(x,y)背景像素的灰度值,H(x,y)为点(x,y)处像素灰度值的二值化结果,取值为0或1,β为二值化阈值,取值范围(0,1);
之后计算灰度值之差超过β的比例M:
若比例M大于或等于第二预设阈值,则执行步骤S532,否则执行步骤S533;
S532、当前时刻没有车辆经过停车线,需要重新执行步骤S531;
S533、当前时刻有车辆经过停车线,执行步骤S534,以作进一步判断;
S534、判断前一时刻是否有车辆经过,如果有车辆经过,则执行步骤S531,否则执行步骤S535;
S535、记录当前时刻;
S536、将相邻车辆前后经过停车线的时间差作为车头时距。
7.根据权利要求1所述的一种基于图像自学习的车辆排队消散时间预测方法,其特征在于,所述步骤S8中重新训练步骤S4的自学习神经网络具体是对自学习神经网络中的全连接层进行重新计算,包括以下步骤:
S81、将第i层向量和第i层第k组权重向量进行点积运算,之后与第i层第j个偏置相加,最终输入Sigmoid激活函数f进行输出,得到a(i+1,j):
a(i+1,j)=f(ai·w(i,k)+b(i,j))
式中,a(i+1,j)为第i+1层第j个神经节点的取值,ai为第i层向量,w(i,k)为第i层第k组权重向量,b(i,j)为第i层第j个偏置;
S82、将最后一层的计算结果向量输入到Softmax函数,计算车辆排队消散预测时间:
式中,aout为车辆排队消散预测时间,n为最后一层,an为第n层神经节点的取值构成的向量,即为最后一层神经节点的取值构成的向量,a(n,j)为第n层第j个神经节点的取值;
之后计算误差向量:
δn=y-aout
式中,δn为第n层的误差向量,y为车辆排队消散实际时间;
S83、计算各个神经节点的误差:
δ(i,j)=w(i,k,j)·δi+1
式中,δ(i,j)为第i层第j个神经节点的误差,w(i,k,j)为第i层k组中所有第j个权重组成的向量,δi+1为第i+1层中的误差向量;
S84、如果误差向量δn中取值错误的比例小于γ%,则训练结束,否则执行步骤S85;
S85、根据各个神经节点的误差,对权重元素进行修正,以得到修正后的权重元素:
式中,w′(i,k,j)为修正后的权重元素,w(i,k,j)为w(i,k,j)中的一个权重元素,η为训练速度系数,a(i,j)为第i层第j个神经节点的取值;
S86、返回步骤S81,应用修正后的权重元素w′(i,k,j)进行重新计算。
8.根据权利要求1所述的一种基于图像自学习的车辆排队消散时间预测方法,其特征在于,所述步骤S2中视频采集设备为电子警察、卡口设备或高空监控摄像头。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910920292.3A CN110751829B (zh) | 2019-09-26 | 2019-09-26 | 一种基于图像自学习的车辆排队消散时间预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910920292.3A CN110751829B (zh) | 2019-09-26 | 2019-09-26 | 一种基于图像自学习的车辆排队消散时间预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110751829A CN110751829A (zh) | 2020-02-04 |
CN110751829B true CN110751829B (zh) | 2021-06-04 |
Family
ID=69277207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910920292.3A Active CN110751829B (zh) | 2019-09-26 | 2019-09-26 | 一种基于图像自学习的车辆排队消散时间预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110751829B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767631B (zh) * | 2019-02-28 | 2021-07-20 | 华南理工大学 | 一种基于二流理论的城市路网信号优化方法 |
CN112489456B (zh) * | 2020-12-01 | 2022-01-28 | 山东交通学院 | 基于城市主干线车辆排队长度的信号灯调控方法及系统 |
CN113177504B (zh) * | 2021-05-13 | 2022-07-29 | 中移(上海)信息通信科技有限公司 | 车辆排队信息检测方法、装置、电子设备以及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568210A (zh) * | 2012-03-10 | 2012-07-11 | 山东大学 | 基于视频反馈的交通溢流控制方法 |
CN102622897A (zh) * | 2012-04-07 | 2012-08-01 | 山东大学 | 基于视频的车辆排队长度动态估计方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6662141B2 (en) * | 1995-01-13 | 2003-12-09 | Alan R. Kaub | Traffic safety prediction model |
CN103927876B (zh) * | 2014-05-08 | 2016-01-20 | 山东大学 | 基于视频检测的交通溢流发生时间预测方法 |
CN106327881A (zh) * | 2016-10-19 | 2017-01-11 | 安徽四创电子股份有限公司 | 用于过渡路段的交通阻塞时间计算方法 |
CN108039044B (zh) * | 2017-12-05 | 2021-06-01 | 安徽大学 | 基于多尺度卷积神经网络的车辆智能排队的系统及方法 |
CN108399740B (zh) * | 2018-01-22 | 2020-04-28 | 华南理工大学 | 一种信号控制交叉口机动车冲突概率预测方法 |
CN108320537B (zh) * | 2018-04-04 | 2020-06-09 | 迈锐数据(北京)有限公司 | 车辆排队长度的计算方法及装置 |
CN109272756B (zh) * | 2018-11-07 | 2020-11-27 | 同济大学 | 一种信控交叉口排队长度估计方法 |
-
2019
- 2019-09-26 CN CN201910920292.3A patent/CN110751829B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568210A (zh) * | 2012-03-10 | 2012-07-11 | 山东大学 | 基于视频反馈的交通溢流控制方法 |
CN102622897A (zh) * | 2012-04-07 | 2012-08-01 | 山东大学 | 基于视频的车辆排队长度动态估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110751829A (zh) | 2020-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751829B (zh) | 一种基于图像自学习的车辆排队消散时间预测方法 | |
CN108319909B (zh) | 一种驾驶行为分析方法及系统 | |
CN114283469B (zh) | 一种基于改进YOLOv4-tiny的轻量型目标检测方法及系统 | |
CN110363770B (zh) | 一种边缘引导式红外语义分割模型的训练方法及装置 | |
Chebrolu et al. | Deep learning based pedestrian detection at all light conditions | |
CN114023062B (zh) | 一种基于深度学习和边缘计算的交通流信息监测方法 | |
CN109858327B (zh) | 一种基于深度学习的字符分割方法 | |
CN113160575A (zh) | 一种非机动车辆及驾驶人的交通违法行为检测方法及系统 | |
CN111382686A (zh) | 一种基于半监督生成对抗网络的车道线检测方法 | |
CN115147819A (zh) | 基于注视点预测模型的驾驶员注视点预测方法 | |
CN114170580A (zh) | 一种面向高速公路的异常事件检测方法 | |
US9947107B2 (en) | Method and system for tracking objects between cameras | |
CN116863274A (zh) | 一种基于半监督学习的钢板表面缺陷检测方法及系统 | |
CN103605960A (zh) | 一种基于不同焦距视频图像融合的交通状态识别方法 | |
CN112597996B (zh) | 基于任务驱动的自然场景中交通标志显著性检测方法 | |
CN113723322A (zh) | 一种基于单阶段无锚点框架的行人检测方法及系统 | |
CN117351702A (zh) | 一种基于车流量进行调节的智慧交通管理方法 | |
CN116110237B (zh) | 一种基于灰色马尔科夫链的信号灯控制方法及装置及介质 | |
CN116740657A (zh) | 一种基于相似三角形的目标检测以及测距方法 | |
CN114399910B (zh) | 交通控制方法及相关设备 | |
CN116091964A (zh) | 高位视频场景解析方法以及系统 | |
CN115909245A (zh) | 一种基于深度学习的视觉多任务处理方法 | |
Jiang et al. | A deep learning-assisted mathematical model for decongestion time prediction at railroad grade crossings | |
CN113569650A (zh) | 一种基于电力杆塔标牌识别的无人机自主巡检定位方法 | |
CN113239725A (zh) | 一种等待过街行人及过街方向识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |