CN114973166B - 一种交通信息追踪方法、系统及计算机设备 - Google Patents
一种交通信息追踪方法、系统及计算机设备 Download PDFInfo
- Publication number
- CN114973166B CN114973166B CN202210884030.8A CN202210884030A CN114973166B CN 114973166 B CN114973166 B CN 114973166B CN 202210884030 A CN202210884030 A CN 202210884030A CN 114973166 B CN114973166 B CN 114973166B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- tracked
- video
- frame
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Abstract
一种交通信息追踪方法、系统及计算机设备,涉及计算机技术领域,包括图像计算单元与CPU协作处理步骤:S100、接收用户确定的待追踪车辆的特征信息;S200、获取交通视频帧数据,确定待追踪车辆的首次出现的视频帧;S300、计算车辆运行速度并进行方向预测;S400、提取L个地理位置的摄像头视频数据;S500、根据运行速度和地理位置距离以及正切距离计算第C个地理位置时间段内的置信区间;S600、最后将命中的视频段提取并显示。本发明通过对待追踪车辆的视频图像处理,实现了位置预测,实现了冗余视频数据的去除,显著提高了追踪准确度以及效率,增强用户体验。
Description
技术领域
本发明涉及计算机技术领域,具体地涉及一种交通信息追踪方法、系统及计算机设备。
背景技术
目前,随着交通信息技术的快速发展,交通信息追踪相关技术迅猛发展,并加上相应图像和视频处理计算等与现实交通信息追踪场景相结合,大大提升了追踪的准确度以及时效性,是近年来计算机技术应用与交通领域备受关注的热点。
现有技术中,虽然存在交通信息追踪方法及系统,但实际应用中还是存在追钟主要靠人眼观察大量的视频,追踪准确度较低,追踪速率较慢,且不能够实现与历史数据的综合应用,对现有的对追踪的大量需求并不匹配;且现有技术中只是简单的对现有神经网络技术或距离的计算,没有考虑天气因素,以及没有考虑历史的追踪过程中的经验值应用,导致追踪准确效率大大降低。如何能够让追踪更加智能化,人性化,提高其运行效率及准确度,增强用户实用性成为新的研究课题,但是现有追踪准确性以及效率较低;且主要是针对现有追踪方法的应用,没有涉及考虑天气因素、视频冗余度、经验值的应用的方法,因此,一种交通信息追踪方法及系统技术成为了改进追踪效果的迫切需求,从而改善用户的体验。
发明内容
为解决上述技术问题,本发明提供一种交通信息追踪方法及系统,本发明的交通信息追踪方法及系统显著了提高交通追踪的准确度以及追踪效率,在实用率方面大大增强,增强用户体验;一种交通信息追踪方法,包括步骤:S100、图像计算单元从CPU接收用户确定的待追踪车辆的特征信息,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取;
S200、获取交通视频帧数据,确定待追踪车辆的首次出现的视频帧,提取视频关键帧并圈定关键信息区域;
S300、计算车辆运行速度并进行方向预测,所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离;
S400、提取与首次出现的视频帧摄像头位置欧氏距离最近的L个地理位置的摄像头视频数据,包括由近及远的L个摄像头或L个岔路方向的点;
S500、根据运行速度和地理位置距离以及正切距离计算第C个地理位置时间段内的置信区间,采用图像计算单元的并行计算模块将时间段内视频数据根据特征信息的类型进行特征化,在特征化以后的特征数据中进行检索和抽取,确定待追踪车辆,并将该确定的待追踪车辆出现的视频帧作为首次出现的视频帧;
S600、最后将命中的视频段提取并显示,并转至步骤S300进行下一步的再次预测;
其中,图像计算单元为专用于图像计算处理的至少一个处理器或专用于图像计算处理的至少一个处理器内核;CPU访问图像计算单元的方式采用MMIO接口和通过PCI总线相结合的方式:通过MMIO访问时CPU往显存写命令后,图像计算单元再以lockstep方式执行,CPU等待图像计算单元指令完成后,再次往显存写入新的命令;对于性能要求大于设定阈值的场景CPU通过PCI总线访问图像计算单元的基本IO接口、状态控制寄存器和显存,同时采用MMIO对PCI访问限制的显存进行写命令。
优选地,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取,其中改进的卷积神经网络包括采用改进的可调FReLU激活函数,改进的可调FReLU激活函数表示为y = max(x,*T(x))+δ,其中T()是二维空间条件空间视频图像特征提取器,是用于对视频图像进行特征提取的函数,即在视频图像x轴、y轴方向进行视频特征的提取,m为与视频图像通道相关的自定义值,为历史接收用户确定的待追踪车辆n维特征向量与待追踪车辆首次出现的视频帧图像的特征向量的夹角余弦经验值,δ为调节值,x为输入像素参数化池窗口。
优选地,所述所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离tan,
其中,为与天气相关的自定义系数值,a是待追踪车辆的预测目的地标记,b是待追踪车辆首次出现视频帧所在地址标记,k是待追踪车辆目前位置的标记,是视频帧图像中的车辆信息度,表示待追踪车辆首次出现视频帧所在地址与参考地址间的距离,表示待追踪车辆目前位置与参考地址间的距离,是待追踪车辆特征向量,包括位置横坐标信息、位置纵坐标信息、纵横比信息、高度信息,表示出现在预测目的地的车辆特征信息,是由卡尔曼滤波器预测得到的在当前时刻计算空间的协方差矩阵,T表示向量转置。
其中,表示第n帧与第n-1帧视频RGB 图像的R通道的R值矩阵之差,表示第n帧与第n-1帧视频RGB 图像的G通道的G值矩阵之差, 表示第n帧与第n-1帧视频RGB 图像的B通道的B值矩阵之差, 分别为 R通道、G通道、B通道的矩阵比例系数;
优选地,所述根据运行速度和地理位置距离以及正切距离计算时间段内的置信区间,将时间段内视频数据根据特征信息的类型进行特征化,包括运行速度由确定待追踪车辆的首次出现的视频帧与后一帧在图像中的位置进行实际映射计算获取;所述计算第C个地理位置时间段内的置信区间,包括根据运行速度以及首次视频帧摄像头位置与第C个地理位置的距离计算待追踪车辆出现在第C个地理位置的时间段的置信区间,以及通过正切距离实现对置信区间的确定。
本申请还提供一种交通信息追踪系统,包括接收模块:接收用户确定的待追踪车辆的特征信息,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取;检测模块:获取交通视频帧数据,确定待追踪车辆的首次出现的视频帧,提取视频关键帧并圈定关键信息区域;方向预测模块:计算车辆运行速度并进行方向预测,所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离;提取模块:提取与首次出现的视频帧摄像头位置欧氏距离最近的L个地理位置的摄像头视频数据,包括由近及远的L个摄像头或L个岔路方向的点;确定模块:根据运行速度和地理位置距离以及正切距离计算第C个地理位置时间段内的置信区间,将时间段内视频数据根据特征信息的类型进行特征化,在特征化以后的特征数据中进行检索和抽取,确定待追踪车辆,并将该确定的待追踪车辆出现的视频帧作为首次出现的视频帧;显示模块:最后将命中的视频段提取并显示,并转至步骤S300进行下一步的再次预测;其中,CPU访问GPU的方式采用MMIO接口和通过PCI总线相结合的方式:通过MMIO访问时CPU往显存写命令后,GPU再以lockstep方式执行,CPU等待GPU指令完成后,再次往显存写入新的命令;对于性能要求大于设定阈值的场景CPU通过PCI总线访问GPU的BIOS、状态/控制寄存器和显存,同时采用MMIO对PCI访问限制的显存进行写命令。
优选地,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取,其中改进的卷积神经网络包括采用改进的可调FReLU激活函数,改进的可调FReLU激活函数表示为y = max(x,*T(x))+δ,其中T()是二维空间条件空间视频图像特征提取器,m为与视频图像通道相关的自定义值,为历史接收用户确定的待追踪车辆n维特征向量与待追踪车辆首次出现的视频帧图像的特征向量的夹角余弦经验值,δ为调节值,x为输入像素参数化池窗口。
优选地,所述所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离tan,
其中,为与天气相关的自定义系数值,a是待追踪车辆的预测目的地标记,b是待追踪车辆首次出现视频帧所在地址标记,k是待追踪车辆目前位置的标记,是视频帧图像中的车辆信息度,表示待追踪车辆首次出现视频帧所在地址与参考地址间的距离,表示待追踪车辆目前位置与参考地址间的距离,是待追踪车辆特征向量,包括位置横坐标信息、位置纵坐标信息、纵横比信息、高度信息,表示出现在预测目的地的车辆特征信息,是由卡尔曼滤波器预测得到的在当前时刻计算空间的协方差矩阵,T表示向量转置。
其中,表示第n帧与第n-1帧视频RGB 图像的R通道的R值矩阵之差,表示第n帧与第n-1帧视频RGB 图像的G通道的G值矩阵之差, 表示第n帧与第n-1帧视频RGB 图像的B通道的B值矩阵之差, 分别为 R通道、G通道、B通道的矩阵比例系数;
优选地,所述根据运行速度和地理位置距离以及正切距离计算时间段内的置信区间,将时间段内视频数据根据特征信息的类型进行特征化,包括运行速度由确定待追踪车辆的首次出现的视频帧与后一帧在图像中的位置进行实际映射计算获取;所述计算第C个地理位置时间段内的置信区间,包括根据运行速度以及首次视频帧摄像头位置与第C个地理位置的距离计算待追踪车辆出现在第C个地理位置的时间段的置信区间,以及通过正切距离实现对置信区间的确定。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器处理执行时,使得所述处理器执行交通信息追踪方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行交通信息追踪方法的步骤。
与现有技术相比,本发明的技术方案具有以下有益效果:
解决了传统技术中且现有技术中只是简单的对现有神经网络技术或距离的计算,没有考虑天气因素,以及没有考虑历史的追踪过程中的经验值应用,导致追踪准确效率大大降低。本申请通过将加入到FReLU激活函数的调节,大大增强了特征提取准确度,即将历史接收用户确定的待追踪车辆n维特征向量与待追踪车辆首次出现的视频帧图像的特征向量的夹角正弦经验值作为特征提取的考虑因素;同时通过计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离tan进行方向预测,把为与天气相关的自定义系数值作为影响因素,考虑到了天气对追踪过程的影响;通过计算变化度矩阵,并对矩阵内的值进行二次方求和运算,实现冗余视频数据的去除,解决了现有技术中计算准确性低,追踪效率低的缺点,本发明的一种交通信息追踪方法及系统显著了提高了追踪准确度以及效率,在准确率方面大大增强,增强用户体验。
此外,本发明同时采用CPU访问GPU的方式采用MMIO接口和通过PCI总线相结合的方式;综合考虑任务对性能要求,对于性能要求大于设定阈值的场景CPU通过PCI总线访问GPU的BIOS、状态/控制寄存器和显存,同时采用MMIO对PCI访问限制的显存进行写命令,大大提升了任务处理效率。
附图说明
图1是本发明一种交通信息追踪系统图。
具体实施方式
本领域技术人员理解,如背景技术所言,传统的追踪准确度较低,速率较慢,且不能够实现与历史数据的综合应用,对现有的对追踪的大量需求并不匹配;且现有技术中只是简单的对现有神经网络技术或距离的计算,没有考虑天气因素,以及没有考虑历史的追踪过程中的经验值应用,导致追踪准确效率大大降低。如何能够让追踪更加智能化,人性化,提高其运行效率及准确度,增强用户实用性成为新的研究课题,但是现有追踪准确性以及效率较低;且主要是针对现有追踪方法的应用,没有涉及考虑天气因素、视频冗余度、经验值的应用的方法,因此,一种交通信息追踪方法及系统技术成为了改进追踪效果的迫切需求。为使本发明的上述目的、特征和有益效果能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
实施例1:
图1示出了本申请的一种交通信息追踪方法系统图,一种交通信息追踪方法,包括步骤:S100、图像计算单元从CPU接收用户确定的待追踪车辆的特征信息,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取;
S200、获取交通视频帧数据,确定待追踪车辆的首次出现的视频帧,提取视频关键帧并圈定关键信息区域;
S300、计算车辆运行速度并进行方向预测,所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离;
S400、提取与首次出现的视频帧摄像头位置欧氏距离最近的L个地理位置的摄像头视频数据,包括由近及远的L个摄像头或L个岔路方向的点;
S500、根据运行速度和地理位置距离以及正切距离计算第C个地理位置时间段内的置信区间,采用图像计算单元的并行计算模块将时间段内视频数据根据特征信息的类型进行特征化,在特征化以后的特征数据中进行检索和抽取,确定待追踪车辆,并将该确定的待追踪车辆出现的视频帧作为首次出现的视频帧;
S600、最后将命中的视频段提取并显示,并转至步骤S300进行下一步的再次预测;
其中,图像计算单元为专用于图像计算处理的至少一个处理器或专用于图像计算处理的至少一个处理器内核;CPU访问图像计算单元的方式采用MMIO接口和通过PCI总线相结合的方式:通过MMIO访问时CPU往显存写命令后,图像计算单元再以lockstep方式执行,CPU等待图像计算单元指令完成后,再次往显存写入新的命令;对于性能要求大于设定阈值的场景CPU通过PCI总线访问图像计算单元的基本IO接口、状态控制寄存器和显存,同时采用MMIO对PCI访问限制的显存进行写命令。
在一些实施例中,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取,其中改进的卷积神经网络包括采用改进的可调FReLU激活函数,改进的可调FReLU激活函数表示为y = max(x,*T(x))+δ,其中T()是二维空间条件空间视频图像特征提取器,m为与视频图像通道相关的自定义值,为历史接收用户确定的待追踪车辆n维特征向量与待追踪车辆首次出现的视频帧图像的特征向量的夹角余弦经验值,δ为调节值,x为输入像素参数化池窗口。
在一些实施例中,所述所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离tan,
其中,为与天气相关的自定义系数值,a是待追踪车辆的预测目的地标记,b是待追踪车辆首次出现视频帧所在地址标记,k是待追踪车辆目前位置的标记,是视频帧图像中的车辆信息度,表示待追踪车辆首次出现视频帧所在地址与参考地址间的距离,表示待追踪车辆目前位置与参考地址间的距离,是待追踪车辆特征向量,包括位置横坐标信息、位置纵坐标信息、纵横比信息、高度信息,表示出现在预测目的地的车辆特征信息,是由卡尔曼滤波器预测得到的在当前时刻计算空间的协方差矩阵,T表示向量转置。
其中,表示第n帧与第n-1帧视频RGB 图像的R通道的R值矩阵之差,表示第n帧与第n-1帧视频RGB 图像的G通道的G值矩阵之差, 表示第n帧与第n-1帧视频RGB 图像的B通道的B值矩阵之差, 分别为 R通道、G通道、B通道的矩阵比例系数;
在一些实施例中,所述根据运行速度和地理位置距离以及正切距离计算时间段内的置信区间,将时间段内视频数据根据特征信息的类型进行特征化,包括运行速度由确定待追踪车辆的首次出现的视频帧与后一帧在图像中的位置进行实际映射计算获取;所述计算第C个地理位置时间段内的置信区间,包括根据运行速度以及首次视频帧摄像头位置与第C个地理位置的距离计算待追踪车辆出现在第C个地理位置的时间段的置信区间,以及通过正切距离实现对置信区间的确定。
实施例2:
一种交通信息追踪系统,包括接收模块:接收用户确定的待追踪车辆的特征信息,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取;检测模块:获取交通视频帧数据,确定待追踪车辆的首次出现的视频帧,提取视频关键帧并圈定关键信息区域;方向预测模块:计算车辆运行速度并进行方向预测,所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离;提取模块:提取与首次出现的视频帧摄像头位置欧氏距离最近的L个地理位置的摄像头视频数据,包括由近及远的L个摄像头或L个岔路方向的点;确定模块:根据运行速度和地理位置距离以及正切距离计算第C个地理位置时间段内的置信区间,将时间段内视频数据根据特征信息的类型进行特征化,在特征化以后的特征数据中进行检索和抽取,确定待追踪车辆,并将该确定的待追踪车辆出现的视频帧作为首次出现的视频帧;显示模块:最后将命中的视频段提取并显示,并转至步骤S300进行下一步的再次预测;其中,CPU访问GPU的方式采用MMIO接口和通过PCI总线相结合的方式:通过MMIO访问时CPU往显存写命令后,GPU再以lockstep方式执行,CPU等待GPU指令完成后,再次往显存写入新的命令;对于性能要求大于设定阈值的场景CPU通过PCI总线访问GPU的BIOS、状态/控制寄存器和显存,同时采用MMIO对PCI访问限制的显存进行写命令。
在一些实施例中,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取,其中改进的卷积神经网络包括采用改进的可调FReLU激活函数,改进的可调FReLU激活函数表示为y = max(x,*T(x))+δ,其中T()是二维空间条件空间视频图像特征提取器,m为与视频图像通道相关的自定义值,为历史接收用户确定的待追踪车辆n维特征向量与待追踪车辆首次出现的视频帧图像的特征向量的夹角余弦经验值,δ为调节值,x为输入像素参数化池窗口。
优选地,所述所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离tan,
其中,为与天气相关的自定义系数值,a是待追踪车辆的预测目的地标记,b是待追踪车辆首次出现视频帧所在地址标记,k是待追踪车辆目前位置的标记,是视频帧图像中的车辆信息度,表示待追踪车辆首次出现视频帧所在地址与参考地址间的距离,表示待追踪车辆目前位置与参考地址间的距离,是待追踪车辆特征向量,包括位置横坐标信息、位置纵坐标信息、纵横比信息、高度信息,表示出现在预测目的地的车辆特征信息,是由卡尔曼滤波器预测得到的在当前时刻计算空间的协方差矩阵,T表示向量转置。
其中,表示第n帧与第n-1帧视频RGB 图像的R通道的R值矩阵之差,表示第n帧与第n-1帧视频RGB 图像的G通道的G值矩阵之差, 表示第n帧与第n-1帧视频RGB 图像的B通道的B值矩阵之差, 分别为 R通道、G通道、B通道的矩阵比例系数;
在一些实施例中,所述根据运行速度和地理位置距离以及正切距离计算时间段内的置信区间,将时间段内视频数据根据特征信息的类型进行特征化,包括运行速度由确定待追踪车辆的首次出现的视频帧与后一帧在图像中的位置进行实际映射计算获取;所述计算第C个地理位置时间段内的置信区间,包括根据运行速度以及首次视频帧摄像头位置与第C个地理位置的距离计算待追踪车辆出现在第C个地理位置的时间段的置信区间,以及通过正切距离实现对置信区间的确定。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器处理执行时,使得所述处理器执行交通信息追踪方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行交通信息追踪方法的步骤。
本发明的一种交通信息追踪方法和系统,解决了传统技术中且现有技术中只是简单的对现有神经网络技术或距离的计算,没有考虑天气因素,以及没有考虑历史的追踪过程中的经验值应用,导致追踪准确效率大大降低。本申请通过将加入到FReLU激活函数的调节,大大增强了特征提取准确度,即将历史接收用户确定的待追踪车辆n维特征向量与待追踪车辆首次出现的视频帧图像的特征向量的夹角余弦经验值作为特征提取的考虑因素;同时通过计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离tan进行方向预测,把为与天气相关的自定义系数值作为影响因素,考虑到了天气对追踪过程的影响;通过计算变化度矩阵,并对矩阵内的值进行二次方求和运算,实现冗余视频数据的去除,解决了现有技术中计算准确性低,追踪效率低的缺点,本发明的一种交通信息追踪方法及系统显著了提高了追踪准确度以及效率,在准确率方面大大增强,增强用户体验。
本领域技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品,因此本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (5)
1.一种交通信息追踪方法,其特征在于,包括步骤:
S100、图像计算单元从CPU接收用户确定的待追踪车辆的特征信息,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取;
S200、获取交通视频帧数据,确定待追踪车辆的首次出现的视频帧,提取视频关键帧并圈定关键信息区域;
S300、计算车辆运行速度并进行方向预测,所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离;
S400、提取与首次出现的视频帧摄像头位置欧氏距离最近的L个地理位置的摄像头视频数据,包括由近及远的L个摄像头或L个岔路方向的点;
S500、根据运行速度和地理位置距离以及正切距离计算第C个地理位置时间段内的置信区间,采用图像计算单元的并行计算模块将时间段内视频数据根据特征信息的类型进行特征化,在特征化以后的特征数据中进行检索和抽取,确定待追踪车辆,并将该确定的待追踪车辆出现的视频帧作为首次出现的视频帧;
S600、最后将命中的视频段提取并显示,并转至步骤S300进行下一步的再次预测;
其中,图像计算单元为专用于图像计算处理的至少一个处理器或专用于图像计算处理的至少一个处理器内核;CPU访问图像计算单元的方式采用MMIO接口和通过PCI总线相结合的方式:通过MMIO访问时CPU往显存写命令后,图像计算单元再以lockstep方式执行,CPU等待图像计算单元指令完成后,再次往显存写入新的命令;对于性能要求大于设定阈值的场景,CPU通过PCI总线访问图像计算单元的基本IO接口、状态控制寄存器和显存,同时采用MMIO对PCI访问限制的显存进行写命令;
所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取,其中改进的卷积神经网络包括采用改进的可调FReLU激活函数,改进的可调FReLU激活函数表示为,其中T(·)是二维空间条件空间视频图像特征提取器,m为与视频图像通道相关的自定义值,为历史接收用户确定的待追踪车辆n维特征向量与待追踪车辆首次出现的视频帧图像的特征向量的夹角余弦经验值,δ为调节值,x为输入像素参数化池窗口;
所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离tan,
其中,为与天气相关的自定义系数值,a是待追踪车辆的预测目的地标记,b是待追踪车辆首次出现视频帧所在地址标记,k是待追踪车辆目前位置的标记,是视频帧图像中的车辆信息度,表示待追踪车辆首次出现视频帧所在地址与参考地址间的距离,表示待追踪车辆目前位置与参考地址间的距离,是待追踪车辆特征向量,包括位置横坐标信息、位置纵坐标信息、纵横比信息、高度信息,表示出现在预测目的地的车辆特征信息,是由卡尔曼滤波器预测得到的在当前时刻计算空间的协方差矩阵,T表示向量转置;
其中,表示第n帧与第n-1帧视频RGB 图像的R通道的R值矩阵之差,表示第n帧与第n-1帧视频RGB 图像的G通道的G值矩阵之差, 表示第n帧与第n-1帧视频RGB 图像的B通道的B值矩阵之差, 分别为 R通道、G通道、B通道的矩阵比例系数;
2.根据权利要求1所述的一种交通信息追踪方法,其特征在于,所述根据运行速度和地理位置距离以及正切距离计算时间段内的置信区间,将时间段内视频数据根据特征信息的类型进行特征化,包括运行速度由确定待追踪车辆的首次出现的视频帧与后一帧在图像中的位置进行实际映射计算获取;所述计算第C个地理位置时间段内的置信区间,包括根据运行速度以及首次视频帧摄像头位置与第C个地理位置的距离计算待追踪车辆出现在第C个地理位置的时间段的置信区间,以及通过正切距离实现对置信区间的确定。
3.一种交通信息追踪系统,其特征在于,包括GPU并行计算接收模块:图像计算单元从CPU接收用户确定的待追踪车辆的特征信息,所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取;检测模块:获取交通视频帧数据,确定待追踪车辆的首次出现的视频帧,提取视频关键帧并圈定关键信息区域;方向预测模块:计算车辆运行速度并进行方向预测,所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离;提取模块:提取与首次出现的视频帧摄像头位置欧氏距离最近的L个地理位置的摄像头视频数据,包括由近及远的L个摄像头或L个岔路方向的点;确定模块:根据运行速度和地理位置距离以及正切距离计算第C个地理位置时间段内的置信区间,采用图像计算单元的并行计算模块将时间段内视频数据根据特征信息的类型进行特征化,在特征化以后的特征数据中进行检索和抽取,确定待追踪车辆,并将该确定的待追踪车辆出现的视频帧作为首次出现的视频帧;显示模块:最后将命中的视频段提取并显示,并转至步骤S300进行下一步的再次预测;其中,图像计算单元为专用于图像计算处理的至少一个处理器或专用于图像计算处理的至少一个处理器内核;CPU访问图像计算单元的方式采用MMIO接口和通过PCI总线相结合的方式:通过MMIO访问时CPU往显存写命令后,图像计算单元再以lockstep方式执行,CPU等待图像计算单元指令完成后,再次往显存写入新的命令;对于性能要求大于设定阈值的场景,CPU通过PCI总线访问图像计算单元的基本IO接口、状态控制寄存器和显存,同时采用MMIO对PCI访问限制的显存进行写命令;
所述待追踪车辆的特征信息由改进的卷积神经网络对待追踪车辆视频图像信息处理获取,其中改进的卷积神经网络包括采用改进的可调FReLU激活函数,改进的可调FReLU激活函数表示为,其中T(·)是二维空间条件空间视频图像特征提取器,m为与视频图像通道相关的自定义值,为历史接收用户确定的待追踪车辆n维特征向量与待追踪车辆首次出现的视频帧图像的特征向量的夹角余弦经验值,δ为调节值,x为输入像素参数化池窗口;
所述方向预测包括计算车辆首次出现的视频帧摄像头位置与临近的岔路方向点的正切距离tan,
其中,为与天气相关的自定义系数值,a是待追踪车辆的预测目的地标记,b是待追踪车辆首次出现视频帧所在地址标记,k是待追踪车辆目前位置的标记,是视频帧图像中的车辆信息度,表示待追踪车辆首次出现视频帧所在地址与参考地址间的距离,表示待追踪车辆目前位置与参考地址间的距离,是待追踪车辆特征向量,包括位置横坐标信息、位置纵坐标信息、纵横比信息、高度信息,表示出现在预测目的地的车辆特征信息, 是由卡尔曼滤波器预测得到的在当前时刻计算空间的协方差矩阵,T表示向量转置;
其中,表示第n帧与第n-1帧视频RGB 图像的R通道的R值矩阵之差,表示第n帧与第n-1帧视频RGB 图像的G通道的G值矩阵之差, 表示第n帧与第n-1帧视频RGB 图像的B通道的B值矩阵之差, 分别为 R通道、G通道、B通道的矩阵比例系数;
4.根据权利要求3所述的一种交通信息追踪系统,其特征在于,所述根据运行速度和地理位置距离以及正切距离计算时间段内的置信区间,将时间段内视频数据根据特征信息的类型进行特征化,包括运行速度由确定待追踪车辆的首次出现的视频帧与后一帧在图像中的位置进行实际映射计算获取;所述计算第C个地理位置时间段内的置信区间,包括根据运行速度以及首次视频帧摄像头位置与第C个地理位置的距离计算待追踪车辆出现在第C个地理位置的时间段的置信区间,以及通过正切距离实现对置信区间的确定。
5.一种计算机设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器处理执行时,使得所述处理器执行如权利要求1-2中任一项权利要求所述的交通信息追踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210884030.8A CN114973166B (zh) | 2022-07-26 | 2022-07-26 | 一种交通信息追踪方法、系统及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210884030.8A CN114973166B (zh) | 2022-07-26 | 2022-07-26 | 一种交通信息追踪方法、系统及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114973166A CN114973166A (zh) | 2022-08-30 |
CN114973166B true CN114973166B (zh) | 2022-10-25 |
Family
ID=82968742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210884030.8A Active CN114973166B (zh) | 2022-07-26 | 2022-07-26 | 一种交通信息追踪方法、系统及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114973166B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115472014B (zh) * | 2022-09-16 | 2023-10-10 | 苏州映赛智能科技有限公司 | 一种交通追溯方法、系统、服务器及计算机存储介质 |
CN116193085B (zh) * | 2023-04-24 | 2023-07-18 | 中汽信息科技(天津)有限公司 | 一种基于边缘计算技术的汽车追踪定位方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105659592A (zh) * | 2014-09-22 | 2016-06-08 | 三星电子株式会社 | 用于三维视频的相机系统 |
CN110717414A (zh) * | 2019-09-24 | 2020-01-21 | 青岛海信网络科技股份有限公司 | 一种目标检测追踪方法、装置及设备 |
CN110738690A (zh) * | 2019-09-16 | 2020-01-31 | 南京理工大学 | 一种基于多目标追踪框架的无人机视频中车速校正方法 |
CN111754816A (zh) * | 2020-06-04 | 2020-10-09 | 纵目科技(上海)股份有限公司 | 一种移动物体意图识别方法、系统、终端和存储介质 |
EP4030403A1 (en) * | 2020-03-04 | 2022-07-20 | Huawei Technologies Co., Ltd. | Method and device for predicting exit for vehicle |
-
2022
- 2022-07-26 CN CN202210884030.8A patent/CN114973166B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105659592A (zh) * | 2014-09-22 | 2016-06-08 | 三星电子株式会社 | 用于三维视频的相机系统 |
CN110738690A (zh) * | 2019-09-16 | 2020-01-31 | 南京理工大学 | 一种基于多目标追踪框架的无人机视频中车速校正方法 |
CN110717414A (zh) * | 2019-09-24 | 2020-01-21 | 青岛海信网络科技股份有限公司 | 一种目标检测追踪方法、装置及设备 |
EP4030403A1 (en) * | 2020-03-04 | 2022-07-20 | Huawei Technologies Co., Ltd. | Method and device for predicting exit for vehicle |
CN111754816A (zh) * | 2020-06-04 | 2020-10-09 | 纵目科技(上海)股份有限公司 | 一种移动物体意图识别方法、系统、终端和存储介质 |
Non-Patent Citations (1)
Title |
---|
A Review of Tracking and Trajectory;Florin Leon等;《mathematics》;20210319(第9期);第1-37页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114973166A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114973166B (zh) | 一种交通信息追踪方法、系统及计算机设备 | |
JP6999028B2 (ja) | 目標トラッキング方法及び装置、電子機器並びに記憶媒体 | |
WO2020199931A1 (zh) | 人脸关键点检测方法及装置、存储介质和电子设备 | |
CN110889863B (zh) | 一种基于目标感知相关滤波的目标跟踪方法 | |
CN112884816B (zh) | 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 | |
CN111523447B (zh) | 车辆跟踪方法、装置、电子设备及存储介质 | |
US20210097648A1 (en) | Multi-image-based image enhancement method and device | |
CN115797350B (zh) | 桥梁病害检测方法、装置、计算机设备和存储介质 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及系统 | |
CN110827320A (zh) | 基于时序预测的目标跟踪方法和装置 | |
CN107895162B (zh) | 基于物体先验的图像显著性目标检测算法 | |
CN116486250A (zh) | 一种基于嵌入式的多路图像采集与处理方法及系统 | |
CN103947192A (zh) | 视频分析编码 | |
CN111382647B (zh) | 一种图片处理方法、装置、设备及存储介质 | |
WO2021174688A1 (zh) | 人脸检测方法及系统 | |
WO2021184139A1 (zh) | 一种倾斜矩形范围框标注方式 | |
Shi et al. | RAOD: refined oriented detector with augmented feature in remote sensing images object detection | |
CN109361888B (zh) | 通话背景的调整方法和装置、视频通话设备及存储介质 | |
WO2022257778A1 (zh) | 拍摄装置状态识别方法、装置、计算机设备和存储介质 | |
KR102434969B1 (ko) | 얼굴 영역 딕셔너리의 적대적 증류를 이용한 얼굴 초해상화 방법 및 장치 | |
CN113869163B (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN113763468B (zh) | 一种定位方法、装置、系统及存储介质 | |
CN114820723A (zh) | 一种基于联合检测和关联的在线多目标跟踪方法 | |
CN110796680B (zh) | 一种基于相似模板更新的目标跟踪方法和装置 | |
CN114067359A (zh) | 融合人体关键点与可见部位注意力特征的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |