CN112417953B - 道路状况检测和地图数据更新方法、装置、系统及设备 - Google Patents

道路状况检测和地图数据更新方法、装置、系统及设备 Download PDF

Info

Publication number
CN112417953B
CN112417953B CN202011086453.2A CN202011086453A CN112417953B CN 112417953 B CN112417953 B CN 112417953B CN 202011086453 A CN202011086453 A CN 202011086453A CN 112417953 B CN112417953 B CN 112417953B
Authority
CN
China
Prior art keywords
vehicle
target vehicle
road
scene image
vehicles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011086453.2A
Other languages
English (en)
Other versions
CN112417953A (zh
Inventor
陈克凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202011086453.2A priority Critical patent/CN112417953B/zh
Publication of CN112417953A publication Critical patent/CN112417953A/zh
Application granted granted Critical
Publication of CN112417953B publication Critical patent/CN112417953B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请实施例提供了一种道路状况检测和地图数据更新方法、装置、系统及设备,涉及计算机视觉领域。该方法包括:获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息;基于场景图像及其对应的车辆信息确定周边车辆与目标车辆之间的行驶参数;根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况,从而实现利用目标车辆的车载设备采集目标车辆周边的道路场景图像,根据场景图像的识别处理结果确定目标车辆所在道路的拥堵状况,提高了道路状况检测和地图数据更新的准确度。

Description

道路状况检测和地图数据更新方法、装置、系统及设备
技术领域
本申请涉及计算机视觉领域,具体而言,本申请涉及一种道路状况检测方法和装置,涉及一种地图数据更新方法、装置和系统,还涉及一种电子设备和计算机可读存储介质。
背景技术
近年来,随着交通车辆数量的高速增长,道路发生拥堵的情况越来越频繁,因此,及时准确地采集到交通拥堵状态信息,对于及时进行道路疏通和车辆分流控制等有着关键作用。
目前,在相关的道路拥堵状态检测技术中,常采用光流技术或GPS(GlobalPositioning System,全球定位系统)定位技术进行车辆运行状态的检测,从而得到道路拥堵状态。通过固定安装在道路上的监控摄像头所采集到的道路交通视频流检测来回车辆的光流信息,得到车辆的行进速度,判断出道路拥堵状态;或者通过安装有车载GPS的车辆的位置变化,估计车辆的行进速度,判断出道路拥堵状态。然而,上述基于光流技术的道路拥堵状态的检测依赖于道路上安装的摄像头,不能检测未安装摄像头的道路区域的拥堵状况,而且基于光流的道路状况检测准确率低,而基于车载GPS的道路拥堵状态的检测需要依赖于大量安装有车载GPS的用户进行检测,若对于用户量较少的地图导航应用程序,由于没有足够的车载GPS数据以进行道路状况检测,导致道路状况检测的结果准确率低。
发明内容
本申请的目的旨在至少能解决上述的技术缺陷之一,特别是道路拥堵状况检测精度较低的技术缺陷。
第一方面,提供了一种道路状况检测方法,包括:
获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息;
基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数;
根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况。
在一种可能的实现方式中,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息的步骤包括:
将场景图像输入到预先训练得到车辆检测模型中,通过车辆检测模型对场景图像进行识别,得到场景图像中的周边车辆的车辆数量以及至少一个周边车辆的位置信息。
在一种可能的实现方式中,基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数的步骤包括:
基于至少一个周边车辆的位置信息,确定至少一个周边车辆在场景图像上对应的车辆高度;其中,车辆高度为场景图像上的周边车辆的接地点相对场景图像的图像中心像素的垂直高度;
根据摄像设备拍摄场景图像时所用的相机焦距、安装高度、至少一个车辆高度以及场景图像的单位像素物理尺寸确定目标车辆与至少一个周边车辆之间的距离;
根据所述摄像设备的拍摄帧率、目标车辆与至少一个周边车辆之间的距离,确定目标车辆与至少一个周边车辆在单位时间内的距离变化量;
根据单位时间内的距离变化量以及目标车辆行驶速度,计算得到至少一个周边车辆的行驶速度。
在一种可能的实现方式中,根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况的步骤包括:
若行驶速度小于预设速度阈值的周边车辆的车辆数量大于第一预设数量阈值,则确定目标车辆所在的车辆道路的发生拥堵。
在一种可能的实现方式中,确定目标车辆所在的车辆道路的发生拥堵的步骤包括:
确定至少一个周边车辆的行驶速度所处于的速度区间,并统计周边车辆中位于同一速度区间的车辆数量;
基于预先设置的速度区间与拥堵等级之间的对应关系,查询速度区间对应的拥堵等级,将车辆数量符合预设条件的速度区间对应的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
在一种可能的实现方式中,根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况的步骤包括:
若周边车辆的车辆数量大于第二预设数量阈值、且周边车辆的平均行驶速度小于预设平均速度阈值,则确定目标车辆所在的车辆道路的发生拥堵。
在一种可能的实现方式中,确定所述目标车辆所在的车辆道路的发生拥堵的步骤包括:
确定周边车辆的平均行驶速度所处于的速度区间;
基于预先设置的速度区间与拥堵等级之间的对应关系,查询速度区间对应的拥堵等级,将拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
在一种可能的实现方式中,道路状况检测方法还包括:
获取预先标注的车辆道路场景图像作为训练样本集;
将训练样本集中的各个场景图像输入到卷积神经网络中进行训练,并对所述卷积神经网络的参数和结构进行调整,得到车辆检测模型。
在一种可能的实现方式中,对卷积神经网络的参数和结构进行调整包括以下至少一种实现方式:
将所述卷积神经网络中的标准的卷积层替换为深度可分离卷积层;
调整所述卷积神经网络的下采样倍数;
调整所述卷积神经网络中的预设卷积层的结构;
剪除所述卷积神经网络中的损失影响度低于预设阈值的卷积核参数;
将所述卷积神经网络中的卷积核参数的参数值由浮点型参数值修改为整型参数值。
第二方面,提供了一种地图数据更新方法,包括:
接收车机端上传的目标车辆所在的车辆道路的拥堵状况信息;其中,拥堵状况信息通过车机端获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息,基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况所得到;
根据道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至车机端,以更新呈现在车机端的显示屏上的道路状况画面。
第三方面,提供了一种道路状况检测装置,装置包括:
车辆信息输出模块,用于获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息;
行驶参数确定模块,用于基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数;
道路状况确定模块,用于根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况。
第四方面,提供了一种地图数据更新装置,装置包括:
状况信息接收模块,用于接收车机端上传的目标车辆所在的车辆道路的道路状况信息;其中,道路状况信息通过车机端获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息,基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况所得到;
地图数据更新模块,用于根据道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至车机端,以更新呈现在车机端的显示屏上的道路状况画面。
第五方面,提供了一种地图数据更新系统,包括服务端和车机端;
车机端,用于获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息,基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况,并将拥堵状况对应的道路状况信息上传至服务端;
服务端,用于根据道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至车机端,以更新呈现在车机端的显示屏上的道路状况画面。
第六方面,提供了一种电子设备,电子设备包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中一个或多个应用程序被存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序配置用于:执行所述道路状况检测方法或地图数据更新方法。
第七方面,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现所述的道路状况检测方法或所述地图数据更新方法。
本申请提供的技术方案带来的有益效果是:
通过获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息;基于场景图像及其对应的车辆信息确定周边车辆与目标车辆之间的行驶参数;根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况,从而实现利用目标车辆的车载设备采集目标车辆周边的道路场景图像,根据场景图像的识别处理结果确定目标车辆所在道路的拥堵状况,不需依赖于大量的GPS定位来做道路的拥堵状况作出判定,对道路状况的检测结果精度高,操作简单,提高了道路状况检测的准确度。
同时,车机端将利用车辆检测模型对所在道路的道路状况进行检测所得到的道路状况信息上传到服务端,以更新服务端上的地图数据,不需要依赖于大量的GPS定位数据,且直接通过周围车辆场景图像确定道路状况,提高了地图数据更新的准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1是本申请实施例提供的地图数据更新系统的框架示意图;
图2是本申请实施例提供的一种道路状况检测方法的流程图;
图3是本申请实施例提供的目标车辆的周边道路场景图像示意图;
图4是本实施例提供的目标车辆与周边车辆之间的距离测量原理图;
图5是本申请实施例提供的道路状况数据更新方法的流程图;
图6是本申请实施例提供的一种道路状况检测装置的结构示意图;
图7是本申请实施例提供的一种地图数据更新装置的结构示意图;
图8为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
下面对本申请涉及的几个名词进行介绍和解释:
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR(Optical Character Recognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
车机是指安装在汽车里面的车载信息娱乐产品的简称,车机在功能上要能够实现人与车以及车与外界(车与车)的信息通讯。车机端是指应用于车机侧的应用程序等产品和工具的统称。
本申请实施例提供的方案涉及道路状况检测和地图数据更新方法、装置、系统及设备,具体通过如下实施例进行说明:
下面对本申请实施例涉及的应用场景进行说明。
本申请实施例应用于对车辆道路状况进行监测的场景,具体可以应用于对车辆道路状况进行监测,并更新电子地图上呈现的道路状况。
例如,通过车机端采集周围的车辆道路场景图像,并对场景图像进行识别处理,得到周围的车辆道路的拥堵状况,并将拥堵状况上传到服务端,以通过服务端结合车机端发送的不同的拥堵状况信息,综合分析得到更加全面、覆盖面更加广的道路状况,以更新道路状况信息,将更新后的道路状况信息下发至车机端,向用户呈现当前道路的拥堵状况,比如,车机端有地图导航应用程序,如腾讯地图等,则利用更新后的道路状况信息更新地图数据,将拥堵情况在电子地图上及时进行更新,以便于用户进行查看和车流控制。
基于上述的应用场景,则需要对道路状况进行准确及时监控才能更好地为用户提供服务。当然,本申请实施例提供的技术方案还可以应用于其他的定位场景,在此不再一一列举。
为了更好地阐述本申请的技术方案,下面示出本方案的道路状况检测方法以及道路状况数据更新方法所可以适用的某一应用环境。图1是本申请实施例提供的地图数据更新系统的框架示意图,如图1所示,地图数据更新系统包括车机端101和服务端102。
车机端101处的终端设备包括安装在车辆上的电子设备,如车载摄像设备、车载定位设备、车载显示设备和车载播放设备等车载设备,车载设备可以是车辆自带的电子设备,也可以是外置第三方电子设备。可选的,车载设备101上可以安装有应用程序,如地图导航应用程序等,用于实时定位车辆当前所在位置,并提供导航功能。服务端102的终端设备包括用于为车载设备提供后台服务的服务器,可以用独立服务器或多个服务器组成的服务器集群来实现。车机端101与服务端102通过有线或无线的方式进行通信连接。
在本实施例中,车机端101,用于获取目标车辆周围的车辆道路场景图像,并将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息;基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数;根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况,并将拥堵状况对应的道路状况信息上传至服务端。服务端102,用于根据道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至车机端101,以更新呈现在车机端101的显示屏上的道路状况画面。
可选的,通过车载摄像头、行车记录仪或者其他视觉传感器等对目标车辆周围的车辆道路场景图像进行拍摄,得到目标车辆周围的车辆道路场景图像,车机端101获取场景图像并将该场景图像输入到预先训练得到的车辆检测模型中得到场景图像的车辆信息,如车辆数量以及至少一个周边车辆的位置等,并确定目标车辆与周边车辆之间的行驶参数,如行驶距离和行驶速度等,根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况。
在一实施例中,车机端101所获取到的车辆道路场景图像为目标车辆的前面道路的场景图像,还可以是目标车辆后面道路的场景图像。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图2是本申请实施例提供的一种道路状况检测方法的流程图,该道路状况检测方法执行于车机端,如车载设备等。当然在其他实施例中,还可以用于其他设备,如移动端等。
具体的,如图2所示,道路状况检测方法可以包括以下步骤:
S210、获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息。
目标车辆上安装有图像采集设备,如车载摄像头、行车记录仪、车载后视镜或者其他视觉传感器。图像采集设备对目标车辆周围的车辆道路场景进行拍摄,得到车辆道路场景图像。图像采集设备可以采集目标车辆行驶方向的前方场景作为车辆道路场景图像,也可以采集目标车辆行驶方向的后方场景作为车辆道路场景图像,也可以是同时采集前方场景和后方场景作为车辆道路场景图像。
车机端获取目标车辆周围的车辆道路场景图像,并输入到预先训练得到的车辆检测模型中,通过车辆检测模式获得场景图像所包括的车辆信息,如识别出场景图像的事物,判断这些事物为人、树、车辆或其他。
在一实施例中,将场景图像输入到预先训练得到车辆检测模型中,通过车辆检测模型对场景图像进行识别,得到场景图像中的周边车辆的车辆数量以及至少一个周边车辆的位置信息。
其中,车辆检测模型为经过训练得到的卷积神经网络模型,通过大量的训练样本的学习,当向车辆检测模型输入场景图像,车辆检测模型自动对场景图像进行识别,并统计出场景图像中所识别到的车辆数量以及至少一个周边车辆的位置。可选的,周边车辆的位置可以是通过场景图像上的像素点坐标来表示。
图3是本申请实施例提供的目标车辆的周边道路场景图像示意图,如图3所示,场景图像为目标车辆的前方道路场景,目标车辆位于中间车道(为了便于理解,目标车辆通过虚线框进行表示),周边车辆位于目标车辆的前方,参考图3,识别该场景图像得到该场景图像的车辆信息为周边车辆的数量和位置,包括位于左侧车道的周边车辆1和4、位于中间车道的周边车辆2以及位于右侧车道的周边车辆的3和5。
S220、基于场景图像及所述场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数。
其中,行驶参数包括周边车辆或目标车辆的行驶距离以及行驶速度、周边车辆与目标车辆之间的距离、行驶时间等。在本实施例中,周边车辆是指存在于该场景图像上的、且与目标车辆同方向行驶的其余车辆。其中,存在于该场景图像上可以理解为位于场景图像上的某一物体能够被机器或者人所识别出为车辆,与目标车辆同方向行驶可以理解为与目标车辆行驶于同一道路。
在一实施例中,可以通过连续多帧的场景图像中的车辆信息,确定连续多帧的场景图像之间的时间间隔,以及在该时间间隔内场景图像内的周边车辆的行驶距离。例如,可以通过单目摄像头对场景图像中的周边车辆与目标车辆的距离进行估算。
S230、根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况。
通常而言,当车辆道路发生拥堵时,目标车辆的周边车辆的数量越多,目标车辆与周边车辆保持较短距离,且周边车辆的行驶速度均较慢。在本实施例中,若行驶速度小于预设速度阈值的周边车辆的车辆数量大于第一预设数量阈值,则确定目标车辆所在的车辆道路的发生拥堵。例如,统计周边车辆中行驶速度小于预设速度阈值的车辆数量,如行驶速度小于3米/秒的周边车辆的数量为6辆,高于第一预设数量阈值(如3辆),则确定目标车辆所在的道路发生堵塞。
在另一实施例中,若周边车辆的车辆数量大于第二预设数量阈值、且周边车辆的平均行驶速度小于预设平均速度阈值,则确定目标车辆所在的车辆道路的发生拥堵。其中,第二预设数量阈值和预设平均速度阈值可以根据实际情况进行设定,例如,周边车辆的车辆数量大于10辆,且周边车辆的平均行驶速度小于4米/秒,则认为目标车辆所在的车辆道路发生了拥堵。
在本实施例中,根据车辆信息确定目标车辆的周边车辆的数量、目标车辆与周边车辆的距离,还可以根据目标车辆的行驶速度,周边车辆的行驶速度、目标车辆与周边车辆之间的距离变化量以及目标车辆与周边车辆之间的距离变化量的变化率等至少一个因素确定目标车辆所在的车辆道路的拥堵状况。
在一实施例中,还可以根据车辆道路的拥堵状况划分不同的拥堵等级,如:道路顺畅(不拥堵)、行驶缓慢(稍微拥堵)、行驶停滞(严重拥堵)。当然,在其他实施例中,还可以划分出其他级别的拥堵等级,在此不做限定。
在一实施例中,确定目标车辆所在的车辆道路的发生拥堵可以包括以下步骤:
S2301、确定至少一个周边车辆的行驶速度所处于的速度区间,并统计周边车辆中位于同一速度区间的车辆数量。
S2302、基于预先设置的速度区间与拥堵等级之间的对应关系,查询速度区间对应的拥堵等级,将车辆数量符合预设条件的速度区间对应的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
在本实施例中,预先设置不同速度区间与拥堵等级之间的对应关系,如速度区间为大于4m/s,则拥堵等级为道路顺畅,没有发生拥堵,速度区间为2m/s~4m/s,则拥堵等级为稍微拥堵,速度区间为小于2m/s,则拥堵等级为严重拥堵。
确定场景图像中的至少一个周边车辆的行驶速度所处于的速度区间,分别统计场景图像中的周边车辆中位于同一速度区间的车辆数量,比如,周边车辆中位于2m/s~4m/s速度区间的车辆数量为3,位于小于2m/s速度区间的车辆数量为2。
在一实施例中,比较不同速度区间中周边车辆的车辆数量,将车辆数量最多的速度区间对应的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。例如,大于4m/s的速度区间的车辆数量为2,位于2m/s~4m/s速度区间的车辆数量为3,位于小于2m/s速度区间的车辆数量为2,则将2m/s~4m/s速度区间对应的稍微拥堵的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
在一实施例中,还可以通过判定不同速度区间中周边车辆的车辆数量是否达到第一预设数量阈值,将达到第一预设数量阈值的速度区间对应的拥堵等级作为目标车辆所在的车辆道路的拥堵等级;若同时有至少两个速度区间内的周边车辆的车辆数量达到第一预设数量阈值,则将这两个速度区间对应的拥堵等级较高者作为目标车辆所在的车辆道路的拥堵等级。例如,第一预设数量阈值为3,若大于4m/s的速度区间的车辆数量为2,位于2m/s~4m/s速度区间的车辆数量为3,位于小于2m/s速度区间的车辆数量为2,则将2m/s~4m/s速度区间对应的稍微拥堵的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。若大于4m/s的速度区间的车辆数量为2,位于2m/s~4m/s速度区间的车辆数量为3,位于小于2m/s速度区间的车辆数量为3,则将小于2m/s速度区间对应的严重拥堵的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
可选的,另一实施例还可以提供以下方式以实现目标车辆所在的车辆道路的拥堵等级的判定:
例如,预先划分不同的周边车辆的数量区间,将不同的数量区间分别映射到对应的拥堵等级,根据目标车辆的周边车辆的数量所处的数量区间,确定目标车辆所在的车辆道路的拥堵等级。
又如,预先划分不同的速度区间,将不同的速度区间分别映射到对应的拥堵等级,根据目标车辆的行驶速度或周边车辆的平均行驶速度所处的速度区间,确定目标车辆所在的车辆道路的拥堵等级。其中,周边车辆的平均行驶速度可以通过对周边车辆的行驶速度进行加权平均所得到。在本实施例中,通过确定周边车辆的平均行驶速度所处于的速度区间;基于预先设置的速度区间与拥堵等级之间的对应关系,查询该速度区间对应的拥堵等级,将该拥堵等级作为目标车辆所在的车辆道路的拥堵等级。例如,预先设置不同速度区间与拥堵等级之间的对应关系,如速度区间为大于4m/s,则拥堵等级为道路顺畅,没有发生拥堵,速度区间为2m/s~4m/s,则拥堵等级为稍微拥堵,速度区间为小于2m/s,则拥堵等级为严重拥堵。周边车辆的平均行驶速度为3m/s,处于2m/s~4m/s的速度区间内,查询2m/s~4m/s的速度区间对应的拥堵等级为稍微拥堵,则确定目标车辆所在的车辆道路的拥堵等级为稍微拥堵。
还可以是,预先划分不同的距离变化量区间,将不同的距离变化量区间分别映射到对应的拥堵等级,根据目标车辆与周边车辆之间的距离变化量所处的距离变化量区间,确定目标车辆所在的车辆道路的拥堵等级。
再可以是,预先划分不同的距离变化量的变化率区间,将不同的距离变化量的变化率区间分别映射到对应的拥堵等级,根据目标车辆与周边车辆之间的距离变化量的变化率所处的变化率区间,确定车辆道路的拥堵等级。
本实施例提供的道路状况检测方法,通过获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息;基于场景图像及其对应的车辆信息确定周边车辆与目标车辆之间的行驶参数;根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况,从而实现利用目标车辆的车载设备采集目标车辆周边的道路场景图像,根据场景图像的识别处理结果确定目标车辆所在道路的拥堵状况,不需依赖于GPS定位来做道路的拥堵状况作出判定,对道路状况的检测结果精度高,操作简单。
在相关技术中,通过GPS定位对道路的拥堵状况作出判定,由于需要大量的车辆GPS定位数据,根据GPS定位数据的密集情况、定位的变化快慢和移动轨迹等综合作出判定,数据处理量大,且若无法获得大量的GPS定位数据,则判定的结果可能有误,影响道路状况识别的准确度。相对于GPS定位对道路的拥堵状况作出判定,本方案通过较少量的车辆采集周围的车辆道路场景图像,对场景图像进行识别,可以快速简便得检测出目标车辆所在道路的拥堵状况,而不需要依赖于大量的GPS定位数据,且直接通过周围车辆场景图像确定道路状况,对道路状况的识别和地图数据的更新准确度高。
为了更清楚的阐述本申请的技术方案,下面针对道路状况检测方法的多个步骤进行进一步说明。
在一实施例中,步骤S220的基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,可以包括以下步骤:
S2201、基于至少一个周边车辆的位置信息,确定周边车辆在场景图像上对应的车辆高度。
其中,车辆高度为场景图像上的周边车辆的接地点相对场景图像的图像中心像素点的垂直高度。
在本实施例中,通过确定周边车辆的接地点在场景图像上对应的像素点,以及确定场景图像的图像中心像素点,根据接地点对应的像素点和图像中心像素点之间的垂直高度的像素距离,确定周边车辆的车辆高度。
在一实施例中,通过车辆检测模型识别出场景图像中的周边车辆,并将周边车辆通过检测框圈定出来,根据检测框在场景图像上的位置,确定周边车辆在场景图像上的位置。获取场景图像的分辨率,确定场景图像的总像素高度和总像素宽度。基于场景图像的总像素高度和总像素宽度,确定至少一个周边车辆对应的检测框对应的宽度或高度。可选的,将检测框的高度确定为周边车辆对应的车辆高度,将检测框的宽度确定为周边车辆对应的车辆宽度。
通常而言,周边车辆离目标车辆越远,即周边车辆的位置距离在场景图像上越深,周边车辆在场景图像上的车辆高度越小。
S2202、根据摄像设备拍摄场景图像时所用的相机焦距、安装高度、至少一个车辆高度以及场景图像的单位像素物理尺寸确定目标车辆与至少一个周边车辆之间的距离。
由于摄像设备安装在目标车辆上,目标车辆与周边车辆之间的距离相当于摄像设备与周边车辆之间的距离。
图4是本实施例提供的目标车辆与周边车辆之间的距离测量原理图,如图4所示,在本实施例中,获取摄像设备拍摄场景图像时的焦距及拍摄高度(摄像设备相对于地面的安装高度),如1.5米。
参考图4,摄像设备P安装在目标车辆上,其距离地面的高度(即安装高度)为H,摄像设备的相机焦距为f,周边车辆1和周边车辆2的车辆高度,即周边车辆的接地点对应在场景图像上的像素点与图像中心像素点的垂直高度分别为y1和y2,其中,车辆高度与场景图像的单位像素物理尺寸的乘积为周边车辆的实际车辆高度Y1和Y2;其中,场景图像的单位像素物理尺寸是指场景图像上一个像素尺寸代表实际物理世界中的实际尺寸,如1像素代表实际尺寸1厘米等。
则根据相似三角形计算得:
Y1/H=f/Z1;
Y2/H=f/Z2;
转换得到:
目标车辆与周边车辆1之间的距离:Z1=H/Y1*f;
目标车辆与周边车辆2之间的距离:Z2=H/Y2*f;
其中,y1表示周边车辆1的实际车辆高度;y2表示周边车辆2的实际车辆高度;f表示摄像设备拍摄场景图像时的相机焦距;H表示摄像设备相对于地面的安装高度。
S2203、根据摄像设备的拍摄帧率、目标车辆与至少一个所述周边车辆之间的距离,确定目标车辆与至少一个周边车辆在单位时间内的距离变化量。
获取摄像设备拍摄场景图像的拍摄帧率,拍摄帧率是指摄影设备每秒所拍摄场景图像的数量。例如,摄像设备的拍摄帧率为20帧/s,即一秒内连续拍摄20帧场景图像。
在一实施例中,可以为每帧场景图像添加标识,根据该标识可以确定每帧图像的拍摄顺序和拍摄时间,获取任意两帧场景图像,根据场景图像的标识确定这两帧场景图像对应的拍摄时间,进而得到拍摄这两帧场景图像之间的时间间隔。
在另一实施例中,按照预设的帧数间隔获取连续拍摄的多帧场景图像中的任意两帧场景图像,确定任意两帧场景图像之间的时间间隔,如每间隔4帧获取下一帧场景图像,则计算得到这两帧场景图像之间的时间间隔为0.25秒。
在再一实施例中,按照预设时间间隔获取连续拍摄的多帧场景图像中的任意两帧场景图像,并获取这两帧场景图像之间的时间间隔。
进一步的,根据对这两帧场景图像进行识别,得到第一帧场景图像上的至少一个周边车辆与目标车辆之间的第一距离以及第二帧场景图像上的至少一个周边车辆与目标车辆的第二距离,根据第一距离和第二距离之差得到目标车辆与至少一个周边车辆之间的距离变化量,进而得到目标车辆与至少一个周边车辆在单位时间内的距离变化量。
S2204、根据时间间隔、单位时间内的距离变化量以及目标车辆行驶速度,计算得到周边车辆的行驶速度。
在本实施例中,通过单位时间内的距离变化量和时间间隔的比值,确定目标车辆和周边车辆之间的行驶速度变化量,该行驶速度变化量为目标车辆的行驶速度与周边车辆的行驶速度的差值。
车机端获取目标车辆的行驶速度,目标车辆的行驶速度可以通过安装在目标车辆上的速度传感器或者读取目标车辆的车速表的行驶速度的数值等方式得到。
根据行驶速度变化量以及目标车辆的行驶速度,即可计算得到至少一个周边车辆的行驶速度。需要说明的是,可以通过计算场景画面中所呈现的所有周边车辆的行驶速度,也可是计算场景画面中符合预设条件的部分周边车辆的行驶速度,预设条件可以为距离目标车辆最近的若干个周边车辆,当然,还可以根据实际情况设定其他预设条件。
本申请实施例提供一种道路状况数据更新方法,图5是本申请实施例提供的道路状况数据更新方法的流程图,该道路状况数据更新方法执行于服务端。
具体的,如图5所示,道路状况数据更新方法包括以下步骤:
S410、接收车机端上传的目标车辆所在的车辆道路的拥堵状况信息;其中,拥堵状况信息通过车机端获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息,基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况所得到。
其中,拥堵状况信息包括车辆道路的拥堵等级、拥堵时间以及目标车辆当前位置等信息中的一者或者多者。行驶参数包括至少一个周边车辆或目标车辆的行驶距离以及行驶速度、至少一个周边车辆与目标车辆之间的距离、行驶时间等。
目标车辆上安装有图像采集设备,如车载摄像头、行车记录仪、车载后视镜或者其他视觉传感器。图像采集设备对目标车辆周围的车辆道路场景进行拍摄,得到车辆道路场景图像。图像采集设备可以采集目标车辆行驶方向的前方场景作为车辆道路场景图像,也可以采集目标车辆行驶方向的后方场景作为车辆道路场景图像,也可以是同时采集前方场景和后方场景作为车辆道路场景图像。
车机端获取目标车辆周围的车辆道路场景图像,并输入到预先训练得到的车辆检测模型中,通过车辆检测模式获得场景图像所包括的车辆信息,如识别出场景图像的事物,判断这些事物为人、树、车辆或其他。
在一实施例中,将场景图像输入到预先训练得到车辆检测模型中,通过车辆检测模型对场景图像进行识别,得到场景图像中的周边车辆的车辆数量以及至少一个周边车辆的位置信息。
其中,车辆检测模型为经过训练得到的卷积神经网络模型,通过大量的训练样本的学习,当向车辆检测模型输入场景图像,车辆检测模型自动对场景图像进行识别,并统计出场景图像中所识别到的车辆数量以及至少一个车辆的位置。可选的,车辆的位置可以是通过场景图像上的像素点坐标来表示。
进一步的,在一实施例中,可以通过连续多帧的场景图像中的车辆信息,确定连续多帧的场景图像之间的时间间隔,以及在该时间间隔内场景图像内的周边车辆的行驶距离。例如,可以通过单目摄像头对场景图像中的周边车辆与目标车辆的距离进行估算。
在本实施例中,通过确定至少一个周边车辆的接地点在场景图像上对应的像素点,以及确定场景图像的图像中心像素点,根据接地点对应的像素点和图像中心像素点之间的垂直高度的像素距离,确定至少一个周边车辆的车辆高度。
在一实施例中,通过车辆检测模型识别出场景图像中的至少一个周边车辆,并将至少一个周边车辆通过检测框圈定出来,根据检测框在场景图像上的位置,确定至少一个周边车辆在场景图像上的位置。获取场景图像的分辨率,确定场景图像的总像素高度和总像素宽度。基于场景图像的总像素高度和总像素宽度,确定至少一个周边车辆对应的检测框对应的宽度或高度。可选的,将检测框的高度确定为至少一个周边车辆对应的车辆高度,将检测框的宽度确定为至少一个周边车辆对应的车辆宽度。
通常而言,周边车辆离目标车辆越远,即周边车辆的位置距离在场景图像上越深,周边车辆在场景图像上的车辆高度越小。
由于摄像设备安装在目标车辆上,目标车辆与周边车辆之间的距离相当于摄像设备与周边车辆之间的距离。
如图4所示,在本实施例中,获取摄像设备拍摄场景图像时的焦距及拍摄高度(摄像设备相对于地面的安装高度),如1.5米。
参考图4,摄像设备P安装在目标车辆上,其距离地面的高度(即安装高度)为H,摄像设备的相机焦距为f,周边车辆1和周边车辆2的车辆高度,即周边车辆的接地点对应在场景图像上的像素点与图像中心像素的垂直高度分别为y1和y2,其中,车辆高度y1和y2与场景图像的单位像素物理尺寸的乘积为周边车辆的实际车辆高度Y1和Y2;
则根据相似三角形计算得:
Y1/H=f/Z1;
Y2/H=f/Z2;
转换得到:
目标车辆与周边车辆1之间的距离:Z1=H/Y1*f;
目标车辆与周边车辆2之间的距离:Z2=H/Y2*f;
其中,y1表示周边车辆1的实际车辆高度;y2表示周边车辆2的实际车辆高度;f表示摄像设备拍摄场景图像时的相机焦距;H表示摄像设备相对于地面的安装高度。
获取摄像设备拍摄场景图像的拍摄帧率,拍摄帧率是指摄影设备每秒所拍摄场景图像的数量。例如,摄像设备的拍摄帧率为20帧/s,即一秒内连续拍摄20帧场景图像。
在一实施例中,可以为每帧场景图像添加标识,根据该标识可以确定每帧图像的拍摄顺序和拍摄时间,获取任意两帧场景图像,根据场景图像的标识确定这两帧场景图像对应的拍摄时间,进而得到拍摄这两帧场景图像之间的时间间隔。
在另一实施例中,按照预设的帧数间隔获取连续拍摄的多帧场景图像中的任意两帧场景图像,确定任意两帧场景图像之间的时间间隔,如每间隔4帧获取下一帧场景图像,则计算得到这两帧场景图像之间的时间间隔为0.25秒。
在再一实施例中,按照预设时间间隔获取连续拍摄的多帧场景图像中的任意两帧场景图像,并获取这两帧场景图像之间的时间间隔。
进一步的,根据对这两帧场景图像进行识别,得到第一帧场景图像上的周边车辆与目标车辆之间的第一距离以及第二帧场景图像上的周边车辆与目标车辆的第二距离,根据第一距离和第二距离得到目标车辆与周边车辆之间的距离变化量。
在本实施例中,通过距离变化量和时间间隔的比值,确定单位时间内目标车辆和至少一个周边车辆的行驶速度变化量,该行驶速度变化量为目标车辆的行驶速度与至少一个周边车辆的行驶速度的差值。
车机端获取目标车辆的行驶速度,目标车辆的行驶速度可以通过安装在目标车辆上的速度传感器或者读取目标车辆的车速表的行驶速度的数值等方式得到。
根据行驶速度变化量以及目标车辆的行驶速度,即可计算得到至少一个周边车辆的行驶速度。需要说明的是,可以通过计算场景画面中所呈现的所有周边车辆的行驶速度,也可是计算场景画面中符合预设条件的部分周边车辆的行驶速度,预设条件可以为距离目标车辆最近的若干个周边车辆,当然,还可以根据实际情况设定其他预设条件。
通常而言,当车辆道路发生拥堵时,目标车辆的周边车辆的数量越多,目标车辆与周边车辆保持较短距离,且周边车辆的行驶速度均较慢。在本实施例中,若行驶速度小于预设速度阈值的周边车辆的车辆数量大于第一预设数量阈值,则确定目标车辆所在的车辆道路的发生拥堵。例如,统计周边车辆中行驶速度小于预设速度阈值的车辆数量,如行驶速度小于3米/秒的周边车辆的数量为6辆,高于第一预设数量阈值(如5辆),则确定目标车辆所在的道路发生堵塞。
在另一实施例中,若周边车辆的车辆数量大于第二预设数量阈值、且周边车辆的平均行驶速度小于预设平均速度阈值,则确定目标车辆所在的车辆道路的发生拥堵。其中,第二预设数量阈值和预设平均速度阈值可以根据实际情况进行设定,例如,周边车辆的车辆数量大于10辆,且周边车辆的平均行驶速度小于1米/秒,则认为目标车辆所在的车辆道路发生了拥堵。
在本实施例中,根据车辆信息确定目标车辆的周边车辆的数量、目标车辆与至少一个周边车辆的距离,还可以根据目标车辆的行驶速度,至少一个周边车辆的行驶速度、目标车辆与至少一个周边车辆之间的距离变化量以及目标车辆与至少一个周边车辆之间的距离变化量的变化率等至少一个因素确定目标车辆所在的车辆道路的拥堵状况。
在一实施例中,还可以根据车辆道路的拥堵状况划分不同的拥堵等级,如:道路顺畅(不拥堵)、行驶缓慢(稍微拥堵)、行驶停滞(超级拥堵)。当然,在其他实施例中,还可以划分出其他级别的拥堵等级,在此不做限定。
在一实施例中,确定目标车辆所在的车辆道路的发生拥堵可以通过以下方式实现:
确定至少一个周边车辆的行驶速度所处于的速度区间,并统计周边车辆中位于同一所述速度区间的车辆数量;
基于预先设置的速度区间与拥堵等级之间的对应关系,查询速度区间对应的拥堵等级,将车辆数量符合预设条件的速度区间对应的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
在本实施例中,预先设置不同速度区间与拥堵等级之间的对应关系,如速度区间为大于4m/s,则拥堵等级为道路顺畅,没有发生拥堵,速度区间为2m/s~4m/s,则拥堵等级为稍微拥堵,速度区间为小于2m/s,则拥堵等级为严重拥堵。
确定场景图像中的至少一个周边车辆的行驶速度所处于的速度区间,分别统计场景图像中的周边车辆中位于同一速度区间的车辆数量,比如,周边车辆中位于2m/s~4m/s速度区间的车辆数量为3,位于小于2m/s速度区间的车辆数量为2。
在一实施例中,比较不同速度区间中周边车辆的车辆数量,将车辆数量最多的速度区间对应的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。例如,大于4m/s的速度区间的车辆数量为2,位于2m/s~4m/s速度区间的车辆数量为3,位于小于2m/s速度区间的车辆数量为2,则将2m/s~4m/s速度区间对应的稍微拥堵的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
在一实施例中,还可以通过判定不同速度区间中周边车辆的车辆数量是否达到第一预设数量阈值,将达到第一预设数量阈值的速度区间对应的拥堵等级作为目标车辆所在的车辆道路的拥堵等级;若同时有至少两个速度区间达到预设阈值,则将拥堵等级较高者作为目标车辆所在的车辆道路的拥堵等级。例如,第一预设数量阈值为3,若大于4m/s的速度区间的车辆数量为2,位于2m/s~4m/s速度区间的车辆数量为3,位于小于2m/s速度区间的车辆数量为2,则将2m/s~4m/s速度区间对应的稍微拥堵的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。若大于4m/s的速度区间的车辆数量为2,位于2m/s~4m/s速度区间的车辆数量为3,位于小于2m/s速度区间的车辆数量为3,则将小于2m/s速度区间对应的严重拥堵的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
可选的,另一实施例还可以提供以下方式以实现目标车辆所在的车辆道路的拥堵等级的判定:
例如,预先划分不同的周边车辆的数量区间,将不同的数量区间分别映射到对应的拥堵等级,根据目标车辆的周边车辆的数量所处的数量区间,确定目标车辆所在的车辆道路的拥堵等级。
又如,预先划分不同的速度区间,将不同的速度区间分别映射到对应的拥堵等级,根据目标车辆的行驶速度或周边车辆的平均行驶速度所处的速度区间,确定目标车辆所在的车辆道路的拥堵等级。其中,周边车辆的平均行驶速度可以通过对周边车辆的行驶速度进行加权平均所得到。在本实施例中,通过确定周边车辆的平均行驶速度所处于的速度区间;基于预先设置的速度区间与拥堵等级之间的对应关系,查询该速度区间对应的拥堵等级,将该拥堵等级作为目标车辆所在的车辆道路的拥堵等级。例如,预先设置不同速度区间与拥堵等级之间的对应关系,如速度区间为大于4m/s,则拥堵等级为道路顺畅,没有发生拥堵,速度区间为2m/s~4m/s,则拥堵等级为稍微拥堵,速度区间为小于2m/s,则拥堵等级为严重拥堵。周边车辆的平均行驶速度为3m/s,处于2m/s~4m/s的速度区间内,查询2m/s~4m/s的速度区间对应的拥堵等级为稍微拥堵,则确定目标车辆所在的车辆道路的拥堵等级为稍微拥堵。
还可以是,预先划分不同的距离变化量区间,将不同的距离变化量区间分别映射到对应的拥堵等级,根据目标车辆与周边车辆之间的距离变化量所处的距离变化量区间,确定目标车辆所在的车辆道路的拥堵等级。
再可以是,预先划分不同的距离变化量的变化率区间,将不同的距离变化量的变化率区间分别映射到对应的拥堵等级,根据目标车辆与周边车辆之间的距离变化量的变化率所处的变化率区间,确定车辆道路的拥堵等级。
车机端获取到目标车辆所在车辆道路的拥堵状况对应的道路状况信息,如拥堵等级、拥堵时间、拥堵位置等,上传到服务端。
S420、根据道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至车机端,以更新呈现在车机端的显示屏上的道路状况画面。
服务端接收到车机端上传的道路状况信息,将该道路状况信息替换保存的历史道路状况信息,以更新目标车辆所在的车辆道路对应的地图数据。例如,对于道路A,在1分前接收到目标车辆M上传的道路A处的道路状况信息P,且根据道路状况信息P得到道路A为中度拥堵,当前接收到目标车辆N上传的道路B处的道路状况信息P’,且根据道路状况信息P’得到道路A为严重拥堵,则将道路状况信息P’替换历史保存的道路状况P以更新道路A的地图数据,并将道路A的拥堵等级由中度拥堵修正为严重拥堵,并将更新后的地图数据下发至车机端,以将呈现在车机端的显示屏上的道路状况画面,如将道路A处的颜色从黄色修正为红色,其中黄色表示中度拥堵,红色表示严重拥堵。
本实施例提供的地图数据更新方法,通过接收车机端上传的根据拍摄目标车辆周围车辆场景图像所得到的道路状况信息,利用道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至车机端,以更新呈现在车机端的显示屏上的道路状况画面,从而通过利用少量的目标车辆所获得的道路状况信息实现地图数据的更新,而不需要依赖于大量的GPS定位数据,且直接通过周围车辆场景图像确定道路状况,提高了道路状况识别和地图数据更新的准确度。
在介绍本申请的道路状况检测方法和地图数据更新方法之后,为了便于理解本方案,现对车辆检测模型的建立进行介绍。
在本实施例中,车辆检测模型的建立可以包括以下步骤:
S101、获取预先标注的车辆道路场景图像作为训练样本集。
获取一定数量的车辆道路场景图像,对这些场景图像进行标注,并整合得到用来构建车辆检测模型的训练样本集。
S102、将训练样本集中的各个场景图像输入到卷积神经网络中进行训练,并对所述卷积神经网络的参数和结构进行调整,得到车辆检测模型。
在本实施例中,对训练样本集中的各个场景图像进行卷积运算等处理,提取场景图像的特征矩阵,将特征矩阵输入到神经网络模型中进行训练,得到车辆检测模型。需要说明的是,在对卷积神经网络进行训练的过程中,对卷积神经网络的卷积层的参数或结构进行调整,以适应对车辆道路状况进行检测的场景。
本申请涉及的车辆检测模型部署于车机端,然而车机端的处理性能相比对移动端(如智能手机等)较弱,因此,车辆检测模型通过对现有的移动端部署的神经网络模型及其架构进行改进,得到轻量级的卷积神经网络结构,通过重新设计一个能够顺畅运行在车机上的车辆检测模型,包括特征提取(backbone)和检测层(head),使得车辆检测模型能够适用于在车机端上运行。
需要说明的是,在下面的阐述中所涉及的诸如MobilenetV2-0.35-SSDLite、MobilenetV2和mobilenetV3等为以部署在移动端的以Mobilenet为基础的神经网络架构,诸如Mnasnet-0.35-SSDLite等为以部署在移动端的以Mnasnet为基础的神经网络架构,其相关的实现方式可以参考现有的Mobilenet或Mnasnet为基础的神经网络架构,在此不再详细赘述。
目前公开的移动端部署神经网络模模型,如可见的最小的用于检测的神经网络模型如MobilenetV2-0.35-SSDLite和Mnasnet-0.35-SSDLite,其中,MobilenetV2-0.35-SSDLite的计算量为160兆(即160Million)、Mnasnet-0.35-SSDLite的计算量180兆(即180Million),这种级别计算量的模型在手机端能运行的较为顺畅,但对于车机端是十分吃力的。
因此,本技术方案提供的车辆检测模型是沿用Mobilenet提出的深度可分离卷积(Depthwise Separable Convolution),使用深度可分离卷积层替代卷积神经网络中标准的卷积层,并使用MobilenetV2提出的逆残差结构(inverted residual module)进行特征提取的设计。同时对于Mnasnet(终端轻量化)模型以及mobilenetV3中提出的优化项,如注意力机制模块(Squeeze and expand module)在mobilenetV2-0.35的基础上进行进一步压缩。
具体地,基于深度学习创建卷积神经网络,其中卷积神经网络用于对图像进行图像识别,确定图像中的车辆信息,如场景图像中的周边车辆的车辆数量以及位置信息。该卷积神经网络包括预设数量的深度可分离卷积层,深度可分离卷积层包括深度卷积(depthwise convolution)和逐点卷积(pointwise convolution),其中,对度可分离卷积层的预设数量不做限定,本领域的技术人员可根据实际需求设置。
进而利用进行数据标注、数据增强后的图像样本数据对卷积神经网络进行训练,得到轻量级卷积神经网络,并作为车辆检测模型。
对于标准的卷积层而言,不同输入通道(input channels)采用同一个卷积核;而对于深度卷积而言,一个卷积核与一个输入通道对应,不同的输入通道采用不同的卷积核,深度卷积是深度级别的操作;对于逐点卷积而言,和标准的卷积层一样,不同输入通道采用同一个卷积核,但是逐点卷积中采用的同一个卷积核为1×1的卷积核。
将卷积神经网络中的标准的卷积层替换为深度可分离卷积层后,能明显减少卷积神经网络的计算量,进而提升卷积神经网络的处理效率,因此如果采用3×3的卷积核,则深度可分离卷积层的计算量相较于标准的卷积层的计算量而言,可以降低约9倍的计算量,故而采用深度可分离卷积层替代标准的卷积层,能明显提升卷积神经网络的处理效率。
在一实施例中,除了将卷积神经网络中的标准的卷积层替换为深度可分离卷积层,降低卷积神经网络的计算量后,还可以通过以下至少一种实现方式对卷积神经网络的参数和结构进行调整:
调整所述卷积神经网络的下采样倍数;
调整所述卷积神经网络中的预设卷积层的结构;
剪除所述卷积神经网络中的损失影响度低于预设阈值的卷积核参数;
将所述卷积神经网络中的卷积核参数的参数值由浮点型参数值修改为整型参数值。
下面对上述实现方式进行示例性说明:
为了便于理解,下面通过对比原mobilenetV2-0.35和本实施例提供的调整后的卷积神经网络的参数,其中,表1为原mobilenetV2-0.35的部分参数表;表2为结构调整后的部分参数表。
表1:原mobilenetV2-0.35的部分参数表
Order Operator t c n s
1 conv2d - 16 1 2
2 bottleneck 1 8 1 1
3 bottleneck 6 8 2 2
4 bottleneck 6 16 3 2
5 bottleneck 6 24 4 2
6 bottleneck 6 32 3 1
7 bottleneck 6 56 3 2
8 bottleneck 6 112 1 1
9 conv2d 1×1 - 1280 1 1
10 avgpool7×7 - - 1 -
11 conv2d 1×1 - k -
表2:结构调整后的部分参数表
Order Operator t c n s
1 conv2d - 16 1 2
2 bottleneck 1 8 1 1
3 bottleneck 6 8 2 2
4 bottleneck 6 16 3 2
5 bottleneck 6 24 4 2
6 bottleneck 6 32 3 1
7 bottleneck 6 56 2 1
8 conv2d 3×3(depthwise) - 56 1 1
9 conv2d 1×1(pointwise) - 49 1 1
其中,Order为卷积层层数,Operator为操作,t为扩张倍数,c为输出通道数,n为重复次数,s为步长。
由上表1和2对比可知,本实施例中的车辆检测模型还可以通过修改卷积神经网络中的预设卷积层的参数,如步长参数,如将第7卷积层(Order-7)的步长为2改为步长为1,控制整体下采样倍数为16输出到检测层,以使得该下采样倍数所得到的场景图像更加适合车辆道路状况检测的场景,以避免下采样倍数太大导致检测层分辨率过小加大漏检风险,而下采样倍数过小会加重检测层的计算量、移除原卷积神经网络中的部分卷积层,如移除用于图像分类的第9、10和11卷积层(即表1中的Order-9、10、11),而后接两层非常轻量的基于深度可分离卷积的检测层(即表2中的Order-8、9)。由于在同一分辨率下堆叠的更宽的卷积层,如表2中的Order-6、7和8属于同一分辨率(Order-6、7和8的s均为1),从性价比上劣于网络前端在不同分辨率下各自的卷积层的Order-3、4和5卷积层。因此,对原卷积神经网络(即表1中计算量占比较大的Order-6、7和8部分的结构进行调整。同时考虑到预训练模型的读取有利于模型最终结果,变动后的卷积层结构虽然被删去但是仍然能够读取原mobilenetV2-0.35的部分参数。
本实施例所提供的车辆检测模型根据车机端的计算性能以及道路车辆检测场景对现有的最小的适用于移动端的基于卷积神经网络的检测模型进行结构调整和计算量的压缩调整,以使得车辆检测模型的总计算量降低,更加适合道路车辆检测的场景。相对于MobilenetV2-0.35-SSDLite的计算量为160M、Mnasnet-0.35-SSDLite的计算量180M,本实施例提供的车辆检测模型的总计算量大大减少,为87.68M,在保持利用卷积神经网络进行图像识别检测的精度的同时,实现车辆检测模型的轻量化设计,满足车机端的性能需求。
进一步的,在一实施例中,对于训练后的所得到的车辆检测模型还可以进行进一步的裁剪和压缩,如剪除卷积神经网络中的损失影响度低于预设阈值的卷积核参数;将卷积神经网络中的卷积核参数的参数值由浮点型参数值修改为整型参数值。
在本实施例中,对于训练完成的车辆检测模型,还可以进行剪枝和量化两个过程。剪枝能够进一步压缩车辆检测模型中的冗余参数,通过统计各个参数对车辆检测模型的贡献度来剪除影响度较低的参数,能够在降低车辆检测模型计算量的同时保证精度只有微小的下降。
其中,按照各个参数对车辆检测模型的贡献度进行剪枝可以通过如下方式获得:
此处假设D为用于训练的车辆道路场景图像样本数据的集合,W为车辆检测模型的卷积核参数的集合,C(·)为卷积神经网络的损失函数,C(D|W)为当前参数下车辆检测模型的损失。从车辆检测模型中去掉某一卷积核参数,得到C(D|W’),其中W’为去掉该卷积核参数后卷积神经网络的卷积核参数的集合,则将C(D|W)与C(D|W’)的差值或比值确定为该卷积核参数的损失影响度,若该卷积核参数的损失影响度小于影响度阈值,则表明该参数对车辆检测模型的损失函数的函数值影响很低,因此可以将该卷积核参数从卷积神经网络中除去,进而减少网络的计算量,提升处理效率,其中,影响度阈值可以根据实际情况进行设定。
其中,量化可以通过如下方式获得:
通常情况下卷积神经网络中各卷积核参数的参数值为32位浮点型参数值(float32),其浮点型参数值的取值范围为(-3.4×1038~+3.4×1038);因此卷积神经网络在对卷积核参数进行处理时,十分消耗计算能力,因此可以将浮点型参数进行参数值量化处理,将float32浮点型参数值映射为8位整型参数值(int8),int8的整型参数值的取值范围为(-128~+127),进而可以减少卷积神经网络的尺寸,从而提升卷积神经网络的处理效率。
进一步的,在一实施例中,针对车载设备的ARM(Advanced RISC Machines,高级RSIC微处理器)架构进行专门的运行加速优化
在本实施例中,在车载设备上部署运行已训练的轻量级卷积神经网络的代码时,对运行已训练的轻量级卷积神经网络的代码进行Neon(Neon为ARM架构处理器扩展结构)汇编加速,以使利用已训练的轻量级卷积神经网络对目标区域图像进行车辆检测时,支持通过单指令多数据流SIMD(Single Instruction Multiple Data,单指令多数据)对已训练的轻量级卷积神经网络中同一个卷积层的卷积运算进行并行处理,进行Neon汇编加速后,不会改变已训练的轻量级卷积神经网络中各卷积层的输入数据和输出数据的依赖关系,只是将已训练的轻量级卷积神经网络中同一个卷积层中大量卷积运算进行并行处理,以各卷积层在进行图像识别时的卷积运算的耗时,缩短了利用已训练的轻量级卷积神经网络对目标区域图像进行检测整体时间,进一步提升检测效率。
本实施例通过与神经网络模型架构的参数进行调整、采用剪枝量化的方式以及车载设备的ARM架构进行优化,以使得训练得到的车辆检测模型实现轻量化设计,适用于性能较低的车机端上运行。
以上示例仅用于辅助阐述本公开技术方案,其涉及的图示内容及具体流程不构成对本公开技术方案的使用场景的限定。
下面对道路状况检测装置的相关实施例进行详细阐述。
图6是本申请实施例提供的一种道路状况检测装置的结构示意图,如图6所示,该道路状况检测装置200可以包括:车辆信息输出模块210、行驶参数确定模块220以及道路状况确定模块230,其中:
车辆信息输出模块210,用于获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息;
行驶参数确定模块220,用于基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数;
道路状况确定模块230,用于根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况。
本实施例提供的道路状况检测装置,利用目标车辆的车载设备采集目标车辆周边的道路场景图像,根据场景图像的识别处理结果确定目标车辆所在道路的拥堵状况,不需依赖于大量的GPS定位来做道路的拥堵状况作出判定,对道路状况的检测结果精度高,操作简单。
在一种可能的实现方式中,车辆信息输出模块210用于将场景图像输入到预先训练得到车辆检测模型中,通过车辆检测模型对场景图像进行识别,得到场景图像中的周边车辆的车辆数量以及至少一个周边车辆的位置信息。
在一种可能的实现方式中,行驶参数确定模块220包括:像素宽度确定单元、行驶距离确定单元、距离变化量确定单元以及行驶速度计算单元,其中:
像素宽度确定单元,用于基于至少一个周边车辆的位置信息,确定至少一个周边车辆在场景图像上对应的车辆高度;其中,车辆高度为场景图像上的周边车辆的接地点相对场景图像的图像中心像素点的垂直高度;行驶距离确定单元,用于根据摄像设备拍摄所述场景图像时所用的相机焦距、安装高度,至少一个车辆高度以及场景图像的单位像素物理尺寸确定目标车辆与至少一个周边车辆之间的距离;距离变化量确定单元,用于根据所述摄像设备的拍摄帧率、目标车辆与至少一个所述周边车辆之间的距离,确定目标车辆与至少一个周边车辆之间的距离变化量;行驶速度计算单元,用于根据单位时间内的距离变化量以及目标车辆行驶速度,计算得到至少一个周边车辆的行驶速度。
在一种可能的实现方式中,道路状况确定模块230用于行驶速度小于预设速度阈值的周边车辆的车辆数量大于第一预设数量阈值,则确定目标车辆所在的车辆道路的发生拥堵。
在一种可能的实现方式中,道路状况确定模块230包括:第一速度区间确定单元和第一拥堵等级确定单元;其中:
第一速度区间确定单元,用于确定周边车辆的行驶速度所处于的速度区间,并统计所述周边车辆中位于同一所述速度区间的车辆数量;第一拥堵等级确定单元,用于基于预先设置的速度区间与拥堵等级之间的对应关系,查询速度区间对应的拥堵等级,将车辆数量符合预设条件的速度区间对应的拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
在一种可能的实现方式中,道路状况确定模块230用于若周边车辆的车辆数量大于第二预设数量阈值、且周边车辆的平均行驶速度小于预设平均速度阈值,则确定目标车辆所在的车辆道路的发生拥堵。
在一种可能的实现方式中,道路状况确定模块230包括:第二速度区间确定单元和第二拥堵等级确定单元;其中:
第二速度区间确定单元,用于确定周边车辆的平均行驶速度所处于的速度区间;第二拥堵等级确定单元,用于基于预先设置的速度区间与拥堵等级之间的对应关系,查询速度区间对应的拥堵等级,将拥堵等级作为目标车辆所在的车辆道路的拥堵等级。
在一种可能的实现方式中,道路状况检测装置200还包括:模型训练模块,用于获取预先标注的车辆道路场景图像作为训练样本集;将训练样本集中的各个场景图像输入到卷积神经网络中进行训练,并对所述卷积神经网络的参数和结构进行调整,得到车辆检测模型。
在一种可能的实现方式中,对所述卷积神经网络的参数和结构进行调整包括以下至少一种实现方式:
将所述卷积神经网络中的标准的卷积层替换为深度可分离卷积层;
调整所述卷积神经网络的下采样倍数;
调整所述卷积神经网络中的预设卷积层的结构;
剪除所述卷积神经网络中的损失影响度低于预设阈值的卷积核参数;
将所述卷积神经网络中的卷积核参数的参数值由浮点型参数值修改为整型参数值。
本实施例的道路状况检测装置可执行本申请前述实施例所示的道路状况检测方法,其实现原理相类似,此处不再赘述。
下面对地图数据更新装置的相关实施例进行详细阐述。
图7是本申请实施例提供的一种地图数据更新装置的结构示意图,如图7所示,该地图数据更新装置400可以包括:状况信息接收模块410以及地图数据更新模块420,其中:
状况信息接收模块410,用于接收车机端上传的目标车辆所在的车辆道路的道路状况信息;其中,道路状况信息通过车机端获取目标车辆周围的车辆道路场景图像,将场景图像输入到预先训练得到的车辆检测模型得到场景图像的车辆信息,基于场景图像及场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,根据车辆信息和行驶参数确定目标车辆所在的车辆道路的拥堵状况所得到;
地图数据更新模块420,用于根据道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至车机端,以更新呈现在车机端的显示屏上的道路状况画面。
本实施例提供的地图数据更新装置,通过接收车机端上传的根据拍摄目标车辆周围车辆场景图像所得到的道路状况信息,利用道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至车机端,以更新呈现在车机端的显示屏上的道路状况画面,从而通过利用少量的目标车辆所获得的道路状况信息实现地图数据的更新,而不需要依赖于大量的GPS定位数据,且直接通过周围车辆场景图像确定道路状况,提高了道路状况识别和地图数据更新的准确度。
本实施例的地图数据更新装置可执行本申请前述实施例所示的地图数据更新方法,其实现原理相类似,此处不再赘述。
本申请实施例中提供了一种电子设备,该电子设备包括:存储器和处理器;至少一个程序,存储于存储器中,用于被处理器执行时,与现有技术相比可实现:提高终端的定位准确度。
在一个可选实施例中提供了一种电子设备,如图8所示,图8所示的电子设备4000包括:处理器4001和存储器4003。其中,处理器4001和存储器4003相连,如通过总线4002相连。可选地,电子设备4000还可以包括收发器4004,收发器4004可以用于该电子设备与其他电子设备之间的数据交互,如数据的发送和/或数据的接收等。需要说明的是,实际应用中收发器4004不限于一个,该电子设备4000的结构并不构成对本申请实施例的限定。
处理器4001可以是CPU(Central Processing Unit,中央处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application SpecificIntegrated Circuit,专用集成电路),FPGA(Field Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器4001也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线4002可包括一通路,在上述组件之间传送信息。总线4002可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。总线4002可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器4003可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random Access Memory,随机存取存储器)或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM(Electrically ErasableProgrammable Read Only Memory,电可擦可编程只读存储器)、CD-ROM(Compact DiscRead Only Memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
存储器4003用于存储执行本申请方案的应用程序代码,并由处理器4001来控制执行。处理器4001用于执行存储器4003中存储的应用程序代码,以实现前述方法实施例所示的内容。
其中,电子设备包括但不限于:移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,当其在计算机上运行时,使得计算机可以执行前述方法实施例中相应内容。与现有技术相比,本申请实施例实现了通过近邻地理网格的近邻融合特征对候选地理网格的地理网格特征进行计算和排序,使得从候选地理网格中确定终端所在位置的结果更加准确。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,定位请求解析模块还可以被描述为“解析定位请求的模块”。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (15)

1.一种道路状况检测方法,其特征在于,包括:
获取目标车辆周围的车辆道路场景图像,将所述场景图像输入到预先训练得到的车辆检测模型得到所述场景图像的车辆信息,所述车辆信息包括所述场景图像中的周边车辆的车辆数量以及至少一个所述周边车辆的位置信息,所述周边车辆是指存在于所述场景图像上的、且与所述目标车辆同方向行驶的其余车辆;
其中,所述车辆检测模型包括特征提取层和检测层,所述检测层是通过降低所述车辆检测模型的卷积神经网络的下采样倍数、移除预设卷积层之后、后接于降低下采样参数和移除后的卷积神经网络之后的卷积层;
基于所述场景图像及所述场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,所述行驶参数包括周边车辆或目标车辆的行驶距离以及行驶速度、周边车辆与目标车辆之间的距离、行驶时间、周边车辆与目标车辆在单位时间内的距离变化量;所述周边车辆的行驶速度是通过单位时间内周边车辆与目标车辆之间的距离变化量和时间间隔的比值,确定目标车辆和周边车辆之间的行驶速度变化量,并基于行驶速度变化量和目标车辆的行驶速度计算得到的;
根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况;
其中,所述根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况,包括:
确定至少一个所述周边车辆的行驶速度所处于的速度区间,统计周边车辆中位于同一速度区间的车辆数量,将车辆数量符合预设条件的速度区间对应的拥堵等级,作为所述目标车辆所在的车辆道路的拥堵等级;
将所述目标车辆的行驶速度或周边车辆的平均行驶速度所处于的速度区间所对应的拥堵等级,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆的周边车辆的数量所处的数量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量所处的距离变化量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量的变化率所处的变化率区间,确定所述目标车辆所在的车辆道路的拥堵等级。
2.根据权利要求1所述的道路状况检测方法,其特征在于,所述将所述场景图像输入到预先训练得到的车辆检测模型得到所述场景图像的车辆信息的步骤包括:
将所述场景图像输入到预先训练得到车辆检测模型中,通过所述车辆检测模型对所述场景图像进行识别,得到所述场景图像中的周边车辆的车辆数量以及至少一个所述周边车辆的位置信息。
3.根据权利要求2所述的道路状况检测方法,其特征在于,所述基于所述场景图像及所述场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数的步骤包括:
基于至少一个所述周边车辆的位置信息,确定至少一个所述周边车辆在所述场景图像上对应的车辆高度;其中,所述车辆高度为所述场景图像上的周边车辆的接地点相对所述场景图像的图像中心像素点的垂直高度;
根据摄像设备拍摄所述场景图像时所用的相机焦距、安装高度、至少一个所述车辆高度以及所述场景图像的单位像素物理尺寸确定所述目标车辆与至少一个所述周边车辆之间的距离;
根据所述摄像设备的拍摄帧率、所述目标车辆与至少一个所述周边车辆之间的距离,确定所述目标车辆与至少一个所述周边车辆在单位时间内的距离变化量;
根据所述单位时间内的距离变化量以及目标车辆行驶速度,计算得到至少一个所述周边车辆的行驶速度。
4.根据权利要求3所述的道路状况检测方法,其特征在于,所述根据所述车辆信息和所述行驶参数确定所述目标车辆所在的车辆道路的拥堵状况的步骤包括:
若行驶速度小于预设速度阈值的周边车辆的车辆数量大于第一预设数量阈值,则确定所述目标车辆所在的车辆道路的发生拥堵。
5.根据权利要求4所述的道路状况检测方法,其特征在于,所述确定所述目标车辆所在的车辆道路的发生拥堵的步骤包括:
确定至少一个所述周边车辆的行驶速度所处于的速度区间,并统计所述周边车辆中位于同一所述速度区间的车辆数量;
基于预先设置的速度区间与拥堵等级之间的对应关系,查询所述速度区间对应的拥堵等级,将所述车辆数量符合预设条件的速度区间对应的拥堵等级作为所述目标车辆所在的车辆道路的拥堵等级。
6.根据权利要求3所述的道路状况检测方法,其特征在于,所述根据所述车辆信息和所述行驶参数确定所述目标车辆所在的车辆道路的拥堵状况的步骤包括:
若所述周边车辆的车辆数量大于第二预设数量阈值、且所述周边车辆的平均行驶速度小于预设平均速度阈值,则确定所述目标车辆所在的车辆道路的发生拥堵。
7.根据权利要求6所述的道路状况检测方法,其特征在于,所述确定所述目标车辆所在的车辆道路的发生拥堵的步骤包括:
确定所述周边车辆的平均行驶速度所处于的速度区间;
基于预先设置的速度区间与拥堵等级之间的对应关系,查询所述速度区间对应的拥堵等级,将所述拥堵等级作为所述目标车辆所在的车辆道路的拥堵等级。
8.根据权利要求1所述的道路状况检测方法,其特征在于,还包括:获取预先标注的车辆道路场景图像作为训练样本集;
将所述训练样本集中的各个所述场景图像输入到卷积神经网络中进行训练,并对所述卷积神经网络的参数和结构进行调整,得到车辆检测模型。
9.根据权利要求8所述的道路状况检测方法,其特征在于,对所述卷积神经网络的参数和结构进行调整包括以下至少一种实现方式:
将所述卷积神经网络中的标准的卷积层替换为深度可分离卷积层;
调整所述卷积神经网络的下采样倍数;
调整所述卷积神经网络中的预设卷积层的结构;
剪除所述卷积神经网络中的损失影响度低于预设阈值的卷积核参数;
将所述卷积神经网络中的卷积核参数的参数值由浮点型参数值修改为整型参数值。
10.一种地图数据更新方法,其特征在于,包括:
接收车机端上传的目标车辆所在的车辆道路的道路状况信息;其中,所述道路状况信息通过所述车机端获取所述目标车辆周围的车辆道路场景图像,将所述场景图像输入到预先训练得到的车辆检测模型得到所述场景图像的车辆信息,基于所述场景图像及所述场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况所得到;
其中,所述车辆检测模型包括特征提取层和检测层,所述检测层是通过降低所述车辆检测模型的卷积神经网络的下采样倍数、移除预设卷积层之后、后接于降低下采样参数和移除后的卷积神经网络之后的卷积层;
其中,所述车辆信息包括所述场景图像中的周边车辆的车辆数量以及至少一个所述周边车辆的位置信息,所述行驶参数包括周边车辆或目标车辆的行驶距离以及行驶速度、周边车辆与目标车辆之间的距离、行驶时间、周边车辆与目标车辆在单位时间内的距离变化量,所述周边车辆是指存在于所述场景图像上的、且与所述目标车辆同方向行驶的其余车辆;所述周边车辆的行驶速度是通过单位时间内周边车辆与目标车辆之间的距离变化量和时间间隔的比值,确定目标车辆和周边车辆之间的行驶速度变化量,并基于行驶速度变化量和目标车辆的行驶速度计算得到的;
根据所述道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至所述车机端,以更新呈现在所述车机端的显示屏上的道路状况画面;
其中,所述根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况,包括:
确定至少一个所述周边车辆的行驶速度所处于的速度区间,统计周边车辆中位于同一速度区间的车辆数量,将车辆数量符合预设条件的速度区间对应的拥堵等级,作为所述目标车辆所在的车辆道路的拥堵等级;
将所述目标车辆的行驶速度或周边车辆的平均行驶速度所处于的速度区间所对应的拥堵等级,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆的周边车辆的数量所处的数量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量所处的距离变化量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量的变化率所处的变化率区间,确定所述目标车辆所在的车辆道路的拥堵等级。
11.一种道路状况检测装置,其特征在于,所述装置包括:
车辆信息输出模块,用于获取目标车辆周围的车辆道路场景图像,将所述场景图像输入到预先训练得到的车辆检测模型得到所述场景图像的车辆信息,所述车辆信息包括所述场景图像中的周边车辆的车辆数量以及至少一个所述周边车辆的位置信息,所述周边车辆是指存在于所述场景图像上的、且与所述目标车辆同方向行驶的其余车辆;
其中,所述车辆检测模型包括特征提取层和检测层,所述检测层是通过降低所述车辆检测模型的卷积神经网络的下采样倍数、移除预设卷积层之后、后接于降低下采样参数和移除后的卷积神经网络之后的卷积层;
行驶参数确定模块,用于基于所述场景图像及所述场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,所述行驶参数包括周边车辆或目标车辆的行驶距离以及行驶速度、周边车辆与目标车辆之间的距离、行驶时间、周边车辆与目标车辆在单位时间内的距离变化量;所述周边车辆的行驶速度是通过单位时间内周边车辆与目标车辆之间的距离变化量和时间间隔的比值,确定目标车辆和周边车辆之间的行驶速度变化量,并基于行驶速度变化量和目标车辆的行驶速度计算得到的;
道路状况确定模块,用于根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况;
其中,所述道路状况确定模块,用于:
确定至少一个所述周边车辆的行驶速度所处于的速度区间,统计周边车辆中位于同一速度区间的车辆数量,将车辆数量符合预设条件的速度区间对应的拥堵等级,作为所述目标车辆所在的车辆道路的拥堵等级;
将所述目标车辆的行驶速度或周边车辆的平均行驶速度所处于的速度区间所对应的拥堵等级,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆的周边车辆的数量所处的数量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量所处的距离变化量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量的变化率所处的变化率区间,确定所述目标车辆所在的车辆道路的拥堵等级。
12.一种地图数据更新装置,其特征在于,所述装置包括:
状况信息接收模块,用于接收车机端上传的目标车辆所在的车辆道路的道路状况信息;其中,所述道路状况信息通过所述车机端获取所述目标车辆周围的车辆道路场景图像,将所述场景图像输入到预先训练得到的车辆检测模型得到所述场景图像的车辆信息;基于所述场景图像及所述场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数;根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况所得到;
其中,所述车辆检测模型包括特征提取层和检测层,所述检测层是通过降低所述车辆检测模型的卷积神经网络的下采样倍数、移除预设卷积层之后、后接于降低下采样参数和移除后的卷积神经网络之后的卷积层;
其中,所述车辆信息包括所述场景图像中的周边车辆的车辆数量以及至少一个所述周边车辆的位置信息,所述行驶参数包括周边车辆或目标车辆的行驶距离以及行驶速度、周边车辆与目标车辆之间的距离、行驶时间、周边车辆与目标车辆在单位时间内的距离变化量,所述周边车辆是指存在于所述场景图像上的、且与所述目标车辆同方向行驶的其余车辆;所述周边车辆的行驶速度是通过单位时间内周边车辆与目标车辆之间的距离变化量和时间间隔的比值,确定目标车辆和周边车辆之间的行驶速度变化量,并基于行驶速度变化量和目标车辆的行驶速度计算得到的;
地图数据更新模块,用于根据所述道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至所述车机端,以更新呈现在所述车机端的显示屏上的道路状况画面;
其中,所述根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况,包括:
确定至少一个所述周边车辆的行驶速度所处于的速度区间,统计周边车辆中位于同一速度区间的车辆数量,将车辆数量符合预设条件的速度区间对应的拥堵等级,作为所述目标车辆所在的车辆道路的拥堵等级;
将所述目标车辆的行驶速度或周边车辆的平均行驶速度所处于的速度区间所对应的拥堵等级,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆的周边车辆的数量所处的数量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量所处的距离变化量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量的变化率所处的变化率区间,确定所述目标车辆所在的车辆道路的拥堵等级。
13.一种地图数据更新系统,其特征在于,包括服务端和车机端;
所述车机端,用于获取目标车辆周围的车辆道路场景图像,将所述场景图像输入到预先训练得到的车辆检测模型得到所述场景图像的车辆信息,基于所述场景图像及所述场景图像对应的车辆信息确定周边车辆与目标车辆之间的行驶参数,根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况,并将所述拥堵状况对应的道路状况信息上传至服务端;
其中,所述车辆检测模型包括特征提取层和检测层,所述检测层是通过降低所述车辆检测模型的卷积神经网络的下采样倍数、移除预设卷积层之后、后接于降低下采样参数和移除后的卷积神经网络之后的卷积层;
其中,所述车辆信息包括所述场景图像中的周边车辆的车辆数量以及至少一个所述周边车辆的位置信息,所述行驶参数包括周边车辆或目标车辆的行驶距离以及行驶速度、周边车辆与目标车辆之间的距离、行驶时间、周边车辆与目标车辆在单位时间内的距离变化量,所述周边车辆是指存在于所述场景图像上的、且与所述目标车辆同方向行驶的其余车辆;所述周边车辆的行驶速度是通过单位时间内周边车辆与目标车辆之间的距离变化量和时间间隔的比值,确定目标车辆和周边车辆之间的行驶速度变化量,并基于行驶速度变化量和目标车辆的行驶速度计算得到的;
所述服务端,用于根据所述道路状况信息更新目标车辆所在的车辆道路对应的地图数据,并将更新后的地图数据下发至所述车机端,以更新呈现在所述车机端的显示屏上的道路状况画面;
其中,所述根据所述车辆信息和所述行驶参数确定目标车辆所在的车辆道路的拥堵状况,包括:
确定至少一个所述周边车辆的行驶速度所处于的速度区间,统计周边车辆中位于同一速度区间的车辆数量,将车辆数量符合预设条件的速度区间对应的拥堵等级,作为所述目标车辆所在的车辆道路的拥堵等级;
将所述目标车辆的行驶速度或周边车辆的平均行驶速度所处于的速度区间所对应的拥堵等级,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆的周边车辆的数量所处的数量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量所处的距离变化量区间,确定所述目标车辆所在的车辆道路的拥堵等级;
根据所述目标车辆与周边车辆之间的距离变化量的变化率所处的变化率区间,确定所述目标车辆所在的车辆道路的拥堵等级。
14.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:执行根据权利要求1~9任一项所述的道路状况检测方法或权利要求10所述的地图数据更新方法。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~9任一项所述的道路状况检测方法或权利要求10所述的地图数据更新方法。
CN202011086453.2A 2020-10-12 2020-10-12 道路状况检测和地图数据更新方法、装置、系统及设备 Active CN112417953B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011086453.2A CN112417953B (zh) 2020-10-12 2020-10-12 道路状况检测和地图数据更新方法、装置、系统及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011086453.2A CN112417953B (zh) 2020-10-12 2020-10-12 道路状况检测和地图数据更新方法、装置、系统及设备

Publications (2)

Publication Number Publication Date
CN112417953A CN112417953A (zh) 2021-02-26
CN112417953B true CN112417953B (zh) 2022-07-19

Family

ID=74854380

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011086453.2A Active CN112417953B (zh) 2020-10-12 2020-10-12 道路状况检测和地图数据更新方法、装置、系统及设备

Country Status (1)

Country Link
CN (1) CN112417953B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113127590B (zh) * 2021-04-09 2021-11-26 中移智行网络科技有限公司 地图更新方法及设备
CN113359691B (zh) * 2021-07-08 2022-11-11 山东大学 一种非道路移动设备的远程图像显示装置和方法
CN113514053B (zh) * 2021-07-13 2024-03-26 阿波罗智能技术(北京)有限公司 生成样本图像对的方法、装置和更新高精地图的方法
CN113792106B (zh) * 2021-08-18 2024-05-28 北京百度网讯科技有限公司 道路的状态更新方法、装置、电子设备及存储介质
CN113706870B (zh) * 2021-08-30 2022-06-10 广州文远知行科技有限公司 一种拥堵场景下主车换道数据的收集方法及相关设备
CN113665576B (zh) * 2021-08-31 2024-07-26 中国第一汽车股份有限公司 车辆行驶工况预测方法、装置、设备及介质
CN113936458B (zh) * 2021-10-12 2022-12-20 中国联合网络通信集团有限公司 高速公路拥堵判别方法、装置、设备及介质
CN114413832B (zh) * 2021-12-02 2023-12-15 中国通信建设第三工程局有限公司 一种基于光纤传感的道路监测系统及方法
CN114518122A (zh) * 2022-02-18 2022-05-20 腾讯科技(深圳)有限公司 行车导航方法、装置、计算机设备、存储介质和计算机程序产品
CN114547551B (zh) * 2022-02-23 2023-08-29 阿波罗智能技术(北京)有限公司 基于车辆上报数据的路面数据获取方法及云端服务器
CN114840240A (zh) * 2022-05-26 2022-08-02 重庆长安汽车股份有限公司 一种基于图像场景识别的车辆ota升级安全控制方法、系统及存储介质
CN116229765B (zh) * 2023-05-06 2023-07-21 贵州鹰驾交通科技有限公司 一种基于数字数据处理的车路协同方法
CN116403411B (zh) * 2023-06-08 2023-08-11 山东协和学院 基于多信号源的交通拥堵预测方法及系统
CN118486100A (zh) * 2024-07-15 2024-08-13 合众新能源汽车股份有限公司 驾驶数据的处理方法、预测方法及系统、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069472A (zh) * 2015-08-03 2015-11-18 电子科技大学 一种基于卷积神经网络自适应的车辆检测方法
CN110415266A (zh) * 2019-07-19 2019-11-05 东南大学 一种基于本车周围车辆轨迹预测安全行驶的方法
CN110784825A (zh) * 2019-08-26 2020-02-11 腾讯科技(深圳)有限公司 车辆行驶轨迹的生成方法、装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6339326B2 (ja) * 2013-07-10 2018-06-06 矢崎エナジーシステム株式会社 車載器、サーバ、及び渋滞検出システム
CN108877210B (zh) * 2017-05-16 2022-04-19 腾讯科技(深圳)有限公司 一种实时路况数据生产方法及车载终端
CN109583267B (zh) * 2017-09-28 2022-04-08 京东方科技集团股份有限公司 车辆用目标检测方法、车辆用目标检测装置和车辆
CN107972662B (zh) * 2017-10-16 2019-12-10 华南理工大学 一种基于深度学习的车辆前向碰撞预警方法
CN108320553B (zh) * 2018-04-04 2021-04-27 大陆投资(中国)有限公司 基于道路驾驶事件的路况预测方法
CN108922172B (zh) * 2018-06-19 2021-03-05 上海理工大学 基于车辆特征矩阵序列变化分析的道路拥堵监测系统
CN109754606B (zh) * 2019-02-28 2021-08-31 浪潮卓数大数据产业发展有限公司 一种基于出租车定位预测道路拥堵情况的方法
CN110816540B (zh) * 2019-08-01 2021-05-04 中国第一汽车股份有限公司 交通拥堵的确定方法、装置、系统及车辆
CN110992693B (zh) * 2019-12-04 2021-08-24 浙江工业大学 一种基于深度学习的交通拥堵程度多维度分析方法
CN111695483B (zh) * 2020-06-05 2022-04-08 腾讯科技(深圳)有限公司 一种车辆违章检测方法、装置、设备及计算机存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069472A (zh) * 2015-08-03 2015-11-18 电子科技大学 一种基于卷积神经网络自适应的车辆检测方法
CN110415266A (zh) * 2019-07-19 2019-11-05 东南大学 一种基于本车周围车辆轨迹预测安全行驶的方法
CN110784825A (zh) * 2019-08-26 2020-02-11 腾讯科技(深圳)有限公司 车辆行驶轨迹的生成方法、装置

Also Published As

Publication number Publication date
CN112417953A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN112417953B (zh) 道路状况检测和地图数据更新方法、装置、系统及设备
CN111598030B (zh) 一种航拍图像中车辆检测和分割的方法及系统
KR102652023B1 (ko) 실시간 교통 정보 제공 방법 및 장치
EP3211596A1 (en) Generating a virtual world to assess real-world video analysis performance
CN109919008A (zh) 运动目标检测方法、装置、计算机设备及存储介质
CN111800507A (zh) 一种交通监控方法及交通监控系统
CN110942038B (zh) 基于视觉的交通场景识别方法、装置、介质及电子设备
CN110390314B (zh) 一种视觉感知方法及设备
CN111860227A (zh) 训练轨迹规划模型的方法、装置和计算机存储介质
CN114179788B (zh) 自动泊车方法、系统、计算机可读存储介质及车机端
Yebes et al. Learning to automatically catch potholes in worldwide road scene images
CN111611918A (zh) 基于航拍数据和深度学习的交通流数据集采集及构建方法
Kotha et al. Potsense: Pothole detection on Indian roads using smartphone sensors
CN111695627A (zh) 路况检测方法、装置、电子设备及可读存储介质
CN112732860B (zh) 道路提取方法、装置、可读存储介质及设备
CN111062311B (zh) 一种基于深度级可分离卷积网络的行人手势识别与交互方法
CN115953764A (zh) 基于鸟瞰图的车辆哨兵方法、装置、设备及存储介质
Yin et al. A context-enriched satellite imagery dataset and an approach for parking lot detection
CN113902047B (zh) 图像元素匹配方法、装置、设备以及存储介质
CN116012609A (zh) 一种环视鱼眼多目标跟踪方法、装置、电子设备及介质
CN115439692A (zh) 一种图像处理方法、装置、电子设备及介质
CN114612999A (zh) 一种目标行为分类方法、存储介质及终端
CN116721151B (zh) 一种数据处理方法和相关装置
CN115063594B (zh) 一种基于自动驾驶的特征提取方法及装置
Ke Real-time video analytics empowered by machine learning and edge computing for smart transportation applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40038256

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant