CN117031063A - 一种车辆的测速方法、装置、设备及存储介质 - Google Patents

一种车辆的测速方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117031063A
CN117031063A CN202310929043.7A CN202310929043A CN117031063A CN 117031063 A CN117031063 A CN 117031063A CN 202310929043 A CN202310929043 A CN 202310929043A CN 117031063 A CN117031063 A CN 117031063A
Authority
CN
China
Prior art keywords
vehicle
vehicles
driving vehicle
identifying
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310929043.7A
Other languages
English (en)
Inventor
胡函非
强小文
雷明星
胡晓浩
陈然
董庆大
万会平
罗静慧
颜聪
洪星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongfeng Automobile Co Ltd
Original Assignee
Dongfeng Automobile Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongfeng Automobile Co Ltd filed Critical Dongfeng Automobile Co Ltd
Priority to CN202310929043.7A priority Critical patent/CN117031063A/zh
Publication of CN117031063A publication Critical patent/CN117031063A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Power Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种车辆的测速方法、装置、设备及存储介质,其中该方法包括步骤:利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪;基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型;基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。本申请能够提高对目标车辆的检测、追踪和运行速度的准确性,并且还能提升对于自动驾驶车辆的交通安全,成本低廉且实时性能更好。

Description

一种车辆的测速方法、装置、设备及存储介质
技术领域
本发明涉及目标测速技术领域,尤其涉及一种车辆的测速方法、装置、设备及存储介质。
背景技术
随着自动化驾驶技术已经普及,绝大多数智能汽车都具备高级驾驶辅助功能(ADAS),自适应巡航系统和自动紧急制动系统使其中,而车载毫米波雷达应用系统为最常用的高级驾驶辅助功能车辆行驶状态传感器。雷达测速是基于多普勒效应(DopplerEffect)原理,当发射的电磁波与被探测目标有相对移动时,回波的频率和发射波的频率不同,通过这个频率差,可以测的目标相对于雷达的移动速度,也就是目标与雷达的相对速度。虽然毫米雷达的全天候工作特质使其成为辅助驾驶和自动驾驶的重要且必要的传感器,但是随着车载雷达渗透率的提升,汽车雷达之间相互干扰变得不可忽视,另外来自路边井盖路障的干扰以及一些恶意干扰也会影响雷达性能进而危及安全性,且雷达成本较高。
目前基于毫米波雷达和激光雷达等主动式传感器的测距方法价格昂贵,扫描范围和速度有限,同时易受外界信号干扰。而基于视觉类被动式传感器的测距方法,价格低廉,信息丰富,具有更广泛的应用范围。现有的视觉测距方法主要为单目视觉和立体视觉测距。但立体视觉测距需融合匹配多个摄像头的信息,计算量大,实现实时测距的成本相对较高,使其在汽车上的应用受到限制。而单目视觉的测距方法算法简单,计算量小,成本低廉且实时性能更好。
因此,如何利用单目摄像头提高车辆的测速性能,是目前亟需解决的技术问题。
发明内容
本发明主要目的在于提供一种车辆的测速方法、装置、设备及存储介质,能够提高对目标车辆的检测、追踪和运行速度的准确性,并且还能提升对于自动驾驶车辆的交通安全,成本低廉且实时性能更好。
第一方面,本申请提供了一种车辆的测速方法,其中该方法包括步骤:
利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪;
基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型;
基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。
结合上述第一方面,作为一种可选的实现方式,根据公式:D=(F*W)/P,分别确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中F为摄像头焦距,W为识别车辆的宽度或高度,P为识别到的车辆在图像中占据X方向像素或Y方向像素。
结合上述第一方面,作为一种可选的实现方式,确定所述第一真实距离与所述第二真实距离之间的差值;
根据所述差值与两帧之间的时间比值,计算前方所有车辆与驾驶车辆之间的相对速度。
结合上述第一方面,作为一种可选的实现方式,所述摄像头为单目摄像头。
结合上述第一方面,作为一种可选的实现方式,将采集的图像输入到YOLOv5目标检测模型,生成边界框以对前方车辆进行识别;
利用多目标计算机视觉跟踪算法DeepSORT,对识别到的车辆进行追踪。
结合上述第一方面,作为一种可选的实现方式,利用卷积神经网络CNN提取已识别车辆的特征,并将提取的特征保存;
将保存的特征与该车辆被遮挡后重新识别的特征进行相似度计算,并根据相似度判断是否为同一车辆;
当确认为同一车辆时,对该车辆再次进行追踪。
第二方面,本申请提供了一种车辆的测速装置,该装置包括:
采集单元,其用于利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪;
确定单元,其用于基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型;
计算单元,其用于基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。
结合上述第二方面,作为一种可选的实现方式,所述确定单元,还用于根据公式:D=(F*W)/P,分别确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中F为摄像头焦距,W为识别车辆的宽度或高度,P为识别到的车辆在图像中占据X方向像素或Y方向像素。
第三方面,本申请还提供了一种电子设备,所述电子设备包括:处理器;存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现第一方面任一项所述的方法。
第四方面,本申请还提供了一种计算机可读存储介质,其存储有计算机程序指令,当所述计算机程序指令被计算机执行时,使计算机执行第一方面任一项所述的方法。
本申请提供的一种车辆的测速方法、装置、设备及存储介质,其中该方法包括步骤:利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪;基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型;基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。本申请能够提高对目标车辆的检测、追踪和运行速度的准确性,并且还能提升对于自动驾驶车辆的交通安全,成本低廉且实时性能更好。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1为本申请实施例中提供的一种车辆的测速方法流程图;
图2为本申请实施例中提供的一种车辆的测速装置示意图;
图3为本申请实施例中提供的一种电子设备示意图;
图4为本申请实施例中提供的一种计算机可读程序介质示意图。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。附图所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
本申请实施例提供了一种车辆的测速方法、装置、设备及存储介质,能够提高对目标车辆的检测、追踪和运行速度的准确性,并且还能提升对于自动驾驶车辆的交通安全,成本低廉且实时性能更好。
为达到上述技术效果,本申请的总思路如下:
一种车辆的测速方法,该方法包括步骤:
S101:利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪。
S102:基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型。
S103:基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。
以下结合附图对本申请的实施例作进一步详细说明。
参照图1,图1所示为本发明提供的一种车辆的测速方法流程图,如图1所示,该方法包括步骤:
步骤S101:利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪。
根据安装在驾驶车辆上的单目摄像头采集前方车辆图像(视频),并对前方所有车辆进行识别和跟踪。
方便理解举例说明,将采集的图像输入到YOLOv5目标检测模型,生成边界框以对前方车辆进行识别,利用多目标计算机视觉跟踪算法DeepSORT,对识别到的车辆进行追踪。
需要说明的是,使用YOLOv5作为检测器,DeepSORT作为追踪器分别实现车辆的目标检测、跟踪。
YOLO是“You only look once”的首字母缩写,是一种开源软件工具,可有效用于实时检测给定图像中的物体。YOLO算法使用卷积神经网络(CNN)模型来检测图像中的物体。该算法只需要通过给定神经网络进行一次前向传播即可检测图像中的所有物体。这使得YOLO算法在速度上比其他算法更具优势,使其成为迄今为止最著名的检测算法之一。YOLO物体检测算法是一种能够检测给定帧中某些物体或形状的算法,可以检测图片中的复杂的物体,例如人、自行车、汽车等。YOLO算法不仅通过其单前向传播功能提供高检测速度和性能,而且还以极高的准确度和精度检测它们。本发明选择YOLO的第五个版本yolov5进行车辆的目标检测。yolov5将单个卷积神经网络(CNN)应用于整个图像,将图像分成网格,在图像中检测到给定物体后,在其周围绘制一个边界框。边界框具有中心点、高度、宽度和类(检测到的物体类型)等参数。
一实施例中,利用卷积神经网络CNN提取已识别车辆的特征,并将提取的特征保存;将保存的特征与该车辆被遮挡后重新识别的特征进行相似度计算,并根据相似度判断是否为同一车辆;当确认为同一车辆时,对该车辆再次进行追踪。
需要说明的是,DeepSORT是一种多目标计算机视觉跟踪算法,用于在为每个对象分配ID的同时跟踪对象。DeepSORT是SORT(简单在线实时跟踪)算法的扩展。DeepSORT将深度学习引入到SORT算法中,通过添加外观描述符来减少身份切换,从而提高跟踪效率。SORT算法利用卡尔曼滤波算法预测检测框在下一帧的状态,将该状态与下一帧的检测结果进行匹配,实现车辆的追踪。那么这样的话,一旦物体受到遮挡或者其他原因没有被检测到,卡尔曼滤波预测的状态信息将无法和检测结果进行匹配,该追踪片段将会提前结束。遮挡结束后,车辆检测可能又将被继续执行,那么SORT只能分配给该物体一个新的ID编号,代表一个新的追踪片段的开始。所以SORT的缺点是受遮挡等情况影响较大,会有大量的ID切换。而DeepSORT中采用了一个简单(运算量不大)的CNN来提取被检测物体(检测框物体中)的外观特征(低维向量表示),在每次(每帧)检测+追踪后,进行一次物体外观特征的提取并保存。后面每执行一步时,都要执行一次当前帧被检测物体外观特征与之前存储的外观特征的相似度计算,这个相似度将作为一个重要的判别依据,那么当物体收到遮挡后到遮挡结束,我们能够利用之前保存的外观特征分配该物体受遮挡前的ID编号,降低ID切换。
步骤S102:基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型。
具体而言,利用单目摄像头识前方所有车辆的焦距、中心点、高度、宽度、车辆在图像中占据X方向像素、Y方向像素和车辆类型,并根据公式:D=(F*W)/P,分别确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中F为摄像头焦距,W为识别车辆的宽度或高度,P为识别到的车辆在图像中占据X方向像素或Y方向像素。
可以理解的是,识别到前方车辆参数后,利用识别的参数,计算任意前后两帧图像与驾驶车辆之间的真实距离,即第一真实距离和第二真实距离。还需说明的是,任意两帧图像是通过单目摄像头采集的图像或视频,进而任意选取的前后两帧图像。
步骤S103:基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。
具体而言,确定所述第一真实距离与所述第二真实距离之间的差值,根据所述差值与两帧之间的时间比值,计算前方所有车辆与驾驶车辆之间的相对速度。
方便理解具体说明,通过YOLOv5和DeepSORT对前方所有车辆进行检测和追踪到目标后,利用检测和跟踪的结果实时计算车速。
其中具体为:首先需要设置好镜头焦距,该参数可以标定,然后分别设置好图像中可能会出现的自行车、汽车、摩托车、公交车和卡车的实际高度(单位为英寸),利用公式:D=(F*W)/P计算出前车距离(需要说明的是,该车距也可以采用透视公式计算,也就是计算出图像的x轴和y轴对应到真实世界的x轴和y轴的位移距离)。可以理解的是,就是通过车辆现实尺寸和像素尺寸实现了一个距离映射,分别计算出两帧画面中目标车辆与摄像机的距离D1和D2,用D1、D2的差除以两帧画面的时间就可以得到两辆车的相对速度。
需要说明的是,在智能车和高级驾驶辅助系统中,车辆检测和测距是对道路交通信息理解的关键内容,也是汽车避免危险而做出响应的前提条件。视觉机器学习方法被广泛运用在车辆检测任务上,而车辆测距技术是在车辆检测任务的基础上发展而成的一项技术。测量车辆的纵向距离和横向距离可以对车辆进行准确定位,而且还可以为汽车行驶过程中纵向、横向提供安全距离控制。
参照图2,图2所示为本发明提供的一种车辆的测速装置示意图,如图2所示,该装置包括:
采集单元201:其用于利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪。
确定单元202:其用于基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型。
计算单元203:其用于基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。
进一步地,一种可能的实施方式中,确定单元,还用于根据公式:D=(F*W)/P,分别确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中F为摄像头焦距,W为识别车辆的宽度或高度,P为识别到的车辆在图像中占据X方向像素或Y方向像素。
进一步地,一种可能的实施方式中,确定单元,还用于确定所述第一真实距离与所述第二真实距离之间的差值;
根据所述差值与两帧之间的时间比值,计算前方所有车辆与驾驶车辆之间的相对速度。
进一步地,一种可能的实施方式中,确定单元,其用于确定所述摄像头为单目摄像头。
进一步地,一种可能的实施方式中,采集单元,其用于将采集的图像输入到YOLOv5目标检测模型,生成边界框以对前方车辆进行识别;
识别单元,其用于利用多目标计算机视觉跟踪算法DeepSORT,对识别到的车辆进行追踪。
进一步地,一种可能的实施方式中,确定单元,还用于利用卷积神经网络CNN提取已识别车辆的特征,并将提取的特征保存;
将保存的特征与该车辆被遮挡后重新识别的特征进行相似度计算,并根据相似度判断是否为同一车辆;
当确认为同一车辆时,对该车辆再次进行追踪。
下面参照图3来描述根据本发明的这种实施方式的电子设备300。图3显示的电子设备300仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图3所示,电子设备300以通用计算设备的形式表现。电子设备300的组件可以包括但不限于:上述至少一个处理单元310、上述至少一个存储单元320、连接不同系统组件(包括存储单元320和处理单元310)的总线330。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元310执行,使得所述处理单元310执行本说明书上述“实施例方法”部分中描述的根据本发明各种示例性实施方式的步骤。
存储单元320可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)321和/或高速缓存存储单元322,还可以进一步包括只读存储单元(ROM)323。
存储单元320还可以包括具有一组(至少一个)程序模块325的程序/实用工具324,这样的程序模块325包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线330可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备300也可以与一个或多个外部设备(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备300交互的设备通信,和/或与使得该电子设备300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口350进行。并且,电子设备300还可以通过网络适配器360与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器360通过总线330与电子设备300的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
根据本公开的方案,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图4所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品400,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
本发明是参照根据本发明实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

Claims (10)

1.一种车辆的测速方法,其特征在于,包括:
利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪;
基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型;
基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。
2.根据权利要求1所述的方法,其特征在于,所述确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,包括:
根据公式:D=(F*W)/P,分别确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中F为摄像头焦距,W为识别车辆的宽度或高度,P为识别到的车辆在图像中占据X方向像素或Y方向像素。
3.根据权利要求1所述的方法,其特征在于,所述基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度,包括:
确定所述第一真实距离与所述第二真实距离之间的差值;
根据所述差值与两帧之间的时间比值,计算前方所有车辆与驾驶车辆之间的相对速度。
4.根据权利要求1所述的方法,其特征在于,包括:
所述摄像头为单目摄像头。
5.根据权利要求1所述的方法,其特征在于,所述对前方所有车辆进行识别和追踪,包括:
将采集的图像输入到YOLOv5目标检测模型,生成边界框以对前方车辆进行识别;
利用多目标计算机视觉跟踪算法DeepSORT,对识别到的车辆进行追踪。
6.根据权利要求5所述的方法,其特征在于,包括:
利用卷积神经网络CNN提取已识别车辆的特征,并将提取的特征保存;
将保存的特征与该车辆被遮挡后重新识别的特征进行相似度计算,并根据相似度判断是否为同一车辆;
当确认为同一车辆时,对该车辆再次进行追踪。
7.一种车辆的测速装置,其特征在于,包括:
采集单元,其用于利用安装在驾驶车辆上的摄像头采集前方车辆图像,并对前方所有车辆进行识别和追踪;
确定单元,其用于基于所有车辆的识别参数,确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中所述识别参数包括:摄像头的焦距、识别车辆的中心点、高度、宽度、识别车辆在图像中占据X方向像素、Y方向像素和车辆类型;
计算单元,其用于基于所述第一真实距离和第二真实距离,计算前方所有车辆与驾驶车辆之间相对速度。
8.根据权利要求7所述的装置,其特征在于:
所述确定单元,还用于根据公式:D=(F*W)/P,分别确定任意前后两帧画面中前方所有车辆到所述驾驶车辆的第一真实距离和第二真实距离,其中F为摄像头焦距,W为识别车辆的宽度或高度,P为识别到的车辆在图像中占据X方向像素或Y方向像素。
9.一种电子设备,其特征在于,所述电子设备,包括:
处理器;
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现如权利要求1至6任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,其存储有计算机程序指令,当所述计算机程序指令被计算机执行时,使计算机执行根据权利要求1至6中任一项所述的方法。
CN202310929043.7A 2023-07-26 2023-07-26 一种车辆的测速方法、装置、设备及存储介质 Pending CN117031063A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310929043.7A CN117031063A (zh) 2023-07-26 2023-07-26 一种车辆的测速方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310929043.7A CN117031063A (zh) 2023-07-26 2023-07-26 一种车辆的测速方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN117031063A true CN117031063A (zh) 2023-11-10

Family

ID=88642140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310929043.7A Pending CN117031063A (zh) 2023-07-26 2023-07-26 一种车辆的测速方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117031063A (zh)

Similar Documents

Publication Publication Date Title
CN112639821B (zh) 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆
CN109927719B (zh) 一种基于障碍物轨迹预测的辅助驾驶方法和系统
CN111712731B (zh) 目标检测方法、系统及可移动平台
CN106991389B (zh) 确定道路边沿的装置和方法
Zhao et al. A cooperative vehicle-infrastructure based urban driving environment perception method using a DS theory-based credibility map
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
Fossati et al. Real-time vehicle tracking for driving assistance
JP6583527B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN116685874A (zh) 摄像机-激光雷达融合对象检测系统和方法
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
CN110341621B (zh) 一种障碍物检测方法及装置
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
JP2015011619A (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
Liu et al. Vehicle detection and ranging using two different focal length cameras
CN112906777A (zh) 目标检测方法、装置、电子设备及存储介质
CN106570487A (zh) 物体间的碰撞预测方法和装置
CN107220632B (zh) 一种基于法向特征的路面图像分割方法
US20220171975A1 (en) Method for Determining a Semantic Free Space
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
Oniga et al. A fast ransac based approach for computing the orientation of obstacles in traffic scenes
CN115661014A (zh) 一种点云数据处理方法、装置和电子设备、存储介质
CN117031063A (zh) 一种车辆的测速方法、装置、设备及存储介质
CN112835063B (zh) 物体动静属性的确定方法、装置、设备及存储介质
CN116433715A (zh) 基于多传感器前融合结果的时序追踪方法、装置及介质
CN108416305B (zh) 连续型道路分割物的位姿估计方法、装置及终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination