CN113807470A - 一种车辆行驶状态确定方法和相关装置 - Google Patents

一种车辆行驶状态确定方法和相关装置 Download PDF

Info

Publication number
CN113807470A
CN113807470A CN202111357864.5A CN202111357864A CN113807470A CN 113807470 A CN113807470 A CN 113807470A CN 202111357864 A CN202111357864 A CN 202111357864A CN 113807470 A CN113807470 A CN 113807470A
Authority
CN
China
Prior art keywords
vehicle
data
sample
determining
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111357864.5A
Other languages
English (en)
Other versions
CN113807470B (zh
Inventor
苏景岚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202111357864.5A priority Critical patent/CN113807470B/zh
Publication of CN113807470A publication Critical patent/CN113807470A/zh
Application granted granted Critical
Publication of CN113807470B publication Critical patent/CN113807470B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

本申请实施例公开了一种车辆行驶状态确定方法和相关装置,可应用于地图、交通领域,涉及云技术、人工智能、智慧交通、辅助驾驶等各种场景。通过获取目标车辆的车辆运动参数,由于车辆运动参数源自多个数据源,多个数据源在复杂交通场景下同时出现误差的情况较小,故通过状态判定模型可以较为准确的确定目标车辆的车辆行驶状态,降低误判的可能。而且,在训练状态判定模型的过程中,会通过初始状态判定模型中的全连接层对训练样本中源自多个数据源的输入特征进行融合,得到融合特征,并通过注意力层确定出融合特征对应的车辆行驶状态,训练出的状态判定模型学习到如何综合参考多个数据源确定车辆行驶状态的知识,提高车辆行驶状态确定的精度。

Description

一种车辆行驶状态确定方法和相关装置
技术领域
本申请涉及数据处理领域,特别是涉及一种车辆行驶状态确定方法和相关装置。
背景技术
车辆行驶状态是一种用于描述车辆行为的重要特征,可以标识出车辆当前的行驶状态例如静止、慢行、运动等。准确的车辆行驶状态可以在汽车辅助驾驶系统、行车安全监控系统、车辆导航系统中发挥着关键的辅助作用。
然而,通过相关技术确定出的车辆行驶状态的准确性经常难以保证,例如在一些复杂交通场景下对车辆行驶状态常常出现误判,导致被确定出的车辆行驶状态的可信度不高,影响了上述各个系统对车辆行驶状态的使用,难以起到应有的辅助作用。
发明内容
为了解决上述技术问题,本申请提供了一种车辆行驶状态确定方法和相关装置,可以较为准确的确定目标车辆的车辆行驶状态,降低误判的可能。
本申请实施例公开了如下技术方案:
一方面,本申请实施例提供了一种车辆行驶状态确定方法,所述方法包括:
获取目标车辆对应的车辆运动参数,所述车辆运动参数源自多个数据源;
根据所述车辆运动参数,通过状态判定模型确定所述目标车辆的车辆行驶状态;
其中,所述状态判定模型通过如下方式生成:
基于所述多个数据源获取样本车辆的样本车辆运动参数;
根据所述样本车辆运动参数的采集时刻确定与所述采集时刻对应的训练样本,所述训练样本的标签为所述样本车辆在所对应采集时刻的实际车辆行驶状态;
将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征;
通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态;
根据所述预测车辆状态与所述实际车辆行驶状态,对所述初始状态判定模型进行参数修正,得到所述状态判定模型。
另一方面,本申请实施例提供了一种车辆行驶状态确定装置,所述装置包括获取单元、确定单元和训练单元:
所述获取单元,用于获取目标车辆对应的车辆运动参数,所述车辆运动参数源自多个数据源;
所述确定单元,用于根据所述车辆运动参数,通过状态判定模型确定所述目标车辆的车辆行驶状态;
所述训练单元,用于:
基于所述多个数据源获取样本车辆的样本车辆运动参数;
根据所述样本车辆运动参数的采集时刻确定与所述采集时刻对应的训练样本,所述训练样本的标签为所述样本车辆在所对应采集时刻的实际车辆行驶状态;
将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征;
通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态;
根据所述预测车辆状态与所述实际车辆行驶状态,对所述初始状态判定模型进行参数修正,得到所述状态判定模型。
又一方面,本申请实施例提供了一种计算机设备,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行以上方面所述的车辆行驶状态确定方法。
又一方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行以上方面所述的车辆行驶状态确定方法。
又一方面,本申请实施例提供了一种包括指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行以上方面所述的车辆行驶状态确定方法。
由上述技术方案可以看出,通过获取目标车辆的车辆运动参数,由于车辆运动参数源自多个数据源,多个数据源在复杂交通场景下同时出现误差的情况较小,故通过状态判定模型可以较为准确的确定目标车辆的车辆行驶状态,降低误判的可能。而且,在训练状态判定模型的过程中,会通过初始状态判定模型中的全连接层对训练样本中源自多个数据源的输入特征进行融合,得到融合特征,并通过注意力层确定出融合特征对应的车辆行驶状态,训练出的状态判定模型学习到如何综合参考多个数据源确定车辆行驶状态的知识。状态判定模型通过采用融合以及注意力机制,使得多个数据源在车辆行驶状态确定时能够更好的互补,即使在复杂交通场景下某个数据源的误差较大时,状态判定模型通过其他数据源可以有效的降低误差影响,提高车辆行驶状态确定的精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种车辆行驶状态的确定场景示意图;
图2为本申请实施例提供的一种车辆行驶状态确定方法的方法流程图;
图3为本申请实施例提供的一种状态判定模型的训练示意图;
图4a为本申请实施例提供的一种车辆影像数据的预处理示意图;
图4b为本申请实施例提供的一种车辆影像数据的预处理效果图;
图4c为本申请实施例提供的一种车辆影像数据预处理后的坐标示意图;
图5a为本申请实施例提供的一种车辆影像数据中图像帧的特征点匹配流程图;
图5b为本申请实施例提供的一种车辆影像数据中图像帧的特征点匹配示意图;
图6为本申请实施例提供的一种车辆运动参数的特征提取示意图;
图7为本申请实施例提供的另一种状态判定模型的训练示意图;
图8为本申请实施例提供的一种状态判定模型的模型结构示意图;
图9为本申请实施例提供的一种基于交通场景的模型训练方式图;
图10为本申请实施例提供的一种基于交通场景的模型训练示意图;
图11为本申请实施例提供的一种车辆行驶状态确定装置的装置结构图;
图12为本申请实施例提供的一种终端设备的结构图;
图13为本申请实施例提供的一种服务器的结构图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
车辆行驶状态是一种用于描述车辆行为的重要特征,可以标识出车辆当前的行驶状态例如静止、慢行、运动等。准确的车辆行驶状态可以在汽车辅助驾驶系统、行车安全监控系统、车辆导航系统中发挥着关键的辅助作用。
然而,通过相关技术确定出的车辆行驶状态的准确性经常难以保证,例如在一些复杂交通场景下对车辆行驶状态常常出现误判,导致被确定出的车辆行驶状态的可信度不高,影响了上述各个系统对车辆行驶状态的使用,难以起到应有的辅助作用。
准确确定的车辆行驶状态可以为汽车辅助驾驶系统、行车安全监控系统、车辆导航系统中发挥着关键的辅助作用。然而随着城市建设的情况,各种复杂交通场景越来越多,一些相关技术中,多采用单一数据源来确定车辆行驶状态,而单一数据源难以保证在各类复杂交通场景中均具有较少误差,从而相关技术所确定的车辆行驶状态准确性不佳,影响了车辆行驶状态的可信度。
为此,本申请实施例提供了一种车辆行驶状态确定方法,通过状态判定模型以及源自多个数据源的车辆运动参数,可以较为准确的确定目标车辆的车辆行驶状态,降低误判的可能。
本申请实施例所提供的车辆行驶状态确定方法可以通过计算机设备实施,该计算机设备可以是终端设备或服务器,其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。终端设备包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端等。终端设备以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。本申请实施例可应用于各种场景,包括但不限于云技术、人工智能、智慧交通、辅助驾驶等。
智能交通系统(Intelligent Traffic System,ITS)又称智能运输系统(Intelligent Transportation System),是将先进的科学技术(信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制理论、运筹学、人工智能等)有效地综合运用于交通运输、服务控制和车辆制造,加强车辆、道路、使用者三者之间的联系,从而形成一种保障安全、提高效率、改善环境、节约能源的综合运输系统。或者;
智能车路协同系统(Intelligent Vehicle Infrastructure CooperativeSystems,IVICS),简称车路协同系统,是智能交通系统(ITS)的一个发展方向。车路协同系统是采用先进的无线通信和新一代互联网等技术,全方位实施车车、车路动态实时信息交互,并在全时空动态交通信息采集与融合的基础上开展车辆主动安全控制和道路协同管理,充分实现人车路的有效协同,保证交通安全,提高通行效率,从而形成的安全、高效和环保的道路交通系统。
通过本申请实施例所确定的车辆行驶状态,可以准确、有效的为ITS、IVICS等各类系统提供关键的数据辅助,使得这类系统可以基于车辆行驶状态实时的为车辆提供导航、定位等相关服务。
图1为本申请实施例提供的一种车辆行驶状态的确定场景示意图。在本实施例中,以服务器100作为前述计算机设备的示例进行说明。通过服务器100中训练完成的状态判定模型102为目标车辆200提供车辆行驶状态的确定服务。
为了便于说明,状态判定模型102的训练阶段也是由服务器100完成,本申请对此并不限定,在一些场景下,服务器100也可以从其他设备获取已经训练完成的状态判定模型102。
针对初始状态判定模型101,服务器100获取用于对其训练的训练样本,在本实施例中,源自多个数据源的车辆运行参数包括卫星定位数据、车辆影像数据和惯性传感器数据。相应的,在训练时,训练样本中也包括上述三个数据源的数据,并且,服务器100还可以得到样本车辆运动参数的采集时刻,样本车辆对应的实际车辆行驶状态。
根据上述样本车辆运动参数和实际车辆行驶状态所确定的训练样本,通过初始状态判定模型101的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征,并通过注意力层确定出融合特征对应的车辆行驶状态,训练出的状态判定模型102学习到如何综合参考多个数据源确定车辆行驶状态的知识。
目标车辆200具有三个数据源对应的采集模块,例如车载摄像头201、全球定位系统(Global Positioning System,GPS)模块202和惯性传感器203。通过这些采集模块可以获取目标车辆200源自这三个数据源的车辆运动参数。
当服务器100获取目标车辆200的车辆运动参数时,可以通过状态判定模型102确定目标车辆200对应车辆运动参数的车辆行驶状态。由于车辆运动参数源自多个数据源,多个数据源在复杂交通场景下同时出现误差的情况较小,故服务器100通过状态判定模型102可以较为准确的确定目标车辆200的车辆行驶状态,降低误判的可能。
而且状态判定模型102通过采用融合以及注意力机制,使得多个数据源在车辆行驶状态确定时能够更好的互补,即使在复杂交通场景下某个数据源的误差较大时,状态判定模型102通过其他数据源也可以有效的降低误差影响,提高车辆行驶状态确定的精度。
图2为本申请实施例提供的一种车辆行驶状态确定方法的方法流程图,在本实施例中,以服务器作为前述计算机设备的示例进行说明。
所述方法包括:
S201:获取目标车辆对应的车辆运动参数。
目标车辆为需要确定车辆行驶状态的车辆,服务器可以通过配置在目标车辆中的采集设备,或者与目标车辆运动同步的终端设备(例如车内用户的手机等设备)获取车辆运动参数。
由于目标车辆所处的交通场景各异,源自单一数据源的车辆运动参数有可能在某些交通场景中具有较大误差,例如城市环境、高楼林立等复杂场景,地下车库、高架桥下等遮盖场景等。
故本申请实施例提出了多数据源的采集方式,所获取的车辆运动参数源自多个数据源。多个数据源在复杂交通场景下同时出现误差的情况较小,故通过状态判定模型可以较为准确的确定目标车辆的车辆行驶状态,降低误判的可能。
S202:根据所述车辆运动参数,通过状态判定模型确定所述目标车辆的车辆行驶状态。
在一种可能的实现方式中,所述车辆行驶状态包括静止状态、运动状态或慢行状态。除此之外,还可以根据实际需求增加可确定的车辆行驶状态,例如静止熄火、静止未熄火、静止装卸货、平稳行驶、颠簸行驶、急刹、上/下坡、左/右转弯或侧翻等。
通过服务器准确确定出目标车辆的车辆行驶状态,可以基于此有效辅助地图定位导航,提高车辆定位精度,辅助车道级定位导航等。
在一种可能的实现方式中,源自所述多个数据源的所述车辆运动参数包括卫星定位数据、车辆影像数据或惯性传感器数据中的任意多种组合。
接下来针对这几种数据源的数据进行一一说明。
车载影像数据是由车载摄像头提供的,车载摄像头是实现众多预警、识别类高级驾驶辅助系统(Advanced Driving Assistance System,ADAS)功能的基础,在大多数ADAS功能中,视觉影像处理系统较为基础,而摄像头又是视觉影像处理系统的输入,因此车载摄像头对于智能驾驶必不可少;车载摄像头的前置摄像头的类型主要包括单目和双摄,其中双目摄像头拥有更好的测距功能,但需要装在两个不同的位置;环视摄像头的类型是广角镜头,在车四周装配4个进行图像拼接实现全景图,加入算法可实现道路线感知;而后视摄像头则是广角或鱼眼镜头,主要为倒车后置镜头;车载摄像头主要包括有内视摄像头、后视摄像头、前置摄像头、侧视摄像头、环视摄像头等。目前摄像头车内主要应用于倒车影像(后视)和360度全景(环视)场景,高端汽车的各种辅助设备配备的摄像头可多达8个,用于辅助驾驶员泊车或触发紧急刹车。当摄像头成功取代侧视镜时,汽车上的摄像头数量将达到12个,而随着无人驾驶技术的发展,L3以上智能驾驶车型对摄像头的需求将增加;本申请主要利用前置摄像头或行车记录仪摄像头采集的影像数据。
而卫星定位数据来自于全球卫星导航系统(the Global Navigation SatelliteSystem),也称为全球导航卫星系统,是能在地球表面或近地空间的任何地点为用户提供全天候的3维坐标和速度以及时间信息的空基无线电导航定位系统。常见系统有GPS、BDS(北斗)、GLONASS(格洛纳斯)和GALILEO(伽利略)四大卫星导航系统。最早出现的是美国的GPS。随着近年来BDS、GLONASS系统在亚太地区的全面服务开启,尤其是BDS系统在民用领域发展越来越快。卫星导航系统已经在航空、航海、通信、人员跟踪、消费娱乐、测绘、授时、车辆监控管理和汽车导航与信息服务等方面广泛使用,而且总的发展趋势是为实时应用提供高精度服务。
卫星定位数据可以根据卫星观测值确定,卫星观测值由卫星定位设备输出观测值包括有伪距、伪距率和累加距离增量(accumulated delta range,ADR);伪距测量的是卫星至定位设备的几何距离;伪距率观测值测量的是定位设备与卫星相对运动产生的多普勒效应;ADR测量的是卫星至定位设备几何距离变化量。
惯性传感器数据是根据惯性传感器采集的,惯性传感器主要是检测和测量加速度、倾斜、冲击、振动、旋转和多自由度(DoF)运动的传感器,是解决导航、定向和运动载体控制的重要部件;目前智能手机等终端设备通常配置有微机电系统(Micro-Electro-Mechanical System,MEMS)惯性传感器。除此之外,车辆中也可以配置相应的惯性传感器。惯性传感器可以包括加速度计和陀螺仪等类型。
其中,前述S202中所述的状态判定模型通过如下S203-S207所标识的方式生成。在说明之前,需要强调,S201-S202属于对状态判定模型的实际使用过程,而S203-S207为使用前的模型训练阶段,在通过S203-S207训练完成得到状态判定模型后,无需每一次进行目标车辆的车辆行驶状态确定时都要执行一次S203-S207。在训练完成得到状态判定模型后,可以一直使用该状态判定模型实现S201-S202,也可以周期性的通过新采集到的样本车辆运动参数对状态判定模型进行参数调整。
S203:基于所述多个数据源获取样本车辆的样本车辆运动参数。
本步骤中提及的多个数据源与S201中的多个数据源为相同类型的数据源,在本步骤中,样本车辆运动参数为用于生成训练样本的车辆运动参数,故对样本车辆运动参数的说明可以参考S201中的车辆运动参数,这里不再赘述。
S204:根据所述样本车辆运动参数的采集时刻确定与所述采集时刻对应的训练样本。
样本车辆运动参数具有被采集时的时间戳,通过时间戳可以明确被采集时的采集时刻,以及不同采集时刻所对应样本车辆运动参数间的先后关系。
与采集时刻对应的训练样本是根据该采集时刻下被采集的样本车辆运动参数确定的。
而且,由于可以明确样本车辆在采集时刻时的实际车辆行驶状态,故可以基于所述样本车辆的实际车辆行驶状态,将训练样本所对应采集时刻的实际车辆行驶状态作为该训练样本的标签。
S205:将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征。
S206:通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态。
S207:根据所述预测车辆状态与所述实际车辆行驶状态,对所述初始状态判定模型进行参数修正,得到所述状态判定模型。
由此可见,在训练状态判定模型的过程中,会通过初始状态判定模型中的全连接层对训练样本中源自多个数据源的输入特征进行融合,得到融合特征,并通过注意力层确定出融合特征对应的车辆行驶状态,训练出的状态判定模型学习到如何综合参考多个数据源确定车辆行驶状态的知识。状态判定模型通过采用融合以及注意力机制,使得多个数据源在车辆行驶状态确定时能够更好的互补,即使在复杂交通场景下某个数据源的误差较大时,状态判定模型通过其他数据源可以有效的降低误差影响,提高车辆行驶状态确定的精度。
接下来针对样本车辆运动参数中可能涉及的不同数据源,对S204中如何确定训练样本进行说明。其中,第j时刻为所述采集时刻中的一个时刻。
若所述样本车辆运动参数包括所述卫星定位数据,根据所述卫星定位数据中所涉及多个卫星在第j时刻分别对应的子定位数据,确定出第j时刻对应的训练样本中所述卫星定位数据的归一化卫星数据。
卫星定位数据可以通过星间单差多普勒观测值进行表示。以卫星高度角最高的卫星作为参考卫星,计算当前时刻可见卫星星间多普勒观测值
Figure 996945DEST_PATH_IMAGE001
Figure 914085DEST_PATH_IMAGE002
为卫星个数,基于卫星信号载噪比和卫星高度角对星间单差多普勒观测值
Figure 693822DEST_PATH_IMAGE003
进行归一化处理。
假设GPS、GLONASS、GALILEO和北斗卫星系统的卫星列表为
Figure 89031DEST_PATH_IMAGE004
假设在当前时刻tk车载终端观测到m颗卫星,即
Figure 28037DEST_PATH_IMAGE005
利用下式计算星间单差多普勒观测值,即
Figure 850500DEST_PATH_IMAGE006
式中,
Figure 117533DEST_PATH_IMAGE007
Figure 316433DEST_PATH_IMAGE008
分别为卫星
Figure 109946DEST_PATH_IMAGE009
Figure 103310DEST_PATH_IMAGE010
至车载终端(例如车辆上的卫星定位模块,或者车辆中用户的手机等)的单位向量,
Figure 857639DEST_PATH_IMAGE011
Figure 594651DEST_PATH_IMAGE012
分别为卫星
Figure 245600DEST_PATH_IMAGE013
Figure 675444DEST_PATH_IMAGE014
的运行速度,可利用CORS服务器播发的实时导航星历进行计算,CORS服务器根据用户的请求播发实时导航星历,车载终端根据接收的实时导航星历,计算当前时刻tk卫星位置、速度、钟差以及钟差变率等;卫星实时导航星历表示的是一组计算卫星位置的参数,通过4G或WIFI网络以二进制流形式进行传输;
Figure 917069DEST_PATH_IMAGE015
为当前时刻tk车载终端的运动速度;卫星
Figure 316827DEST_PATH_IMAGE016
为参考卫星,一般选择卫星高度角最高的卫星作为参考卫星;
对上述星间单差多普勒观测值进行归一化,即有
Figure 960298DEST_PATH_IMAGE017
式中,
Figure 295464DEST_PATH_IMAGE018
为卫星
Figure 24386DEST_PATH_IMAGE019
的信号载噪比,
Figure 227834DEST_PATH_IMAGE020
为卫星高度角。
由归一化卫星星间单差多普勒
Figure 725811DEST_PATH_IMAGE021
计算模型训练输入的归一化卫星多普勒特征,即
Figure 497458DEST_PATH_IMAGE022
式中,
Figure 572731DEST_PATH_IMAGE023
Figure 455236DEST_PATH_IMAGE021
均值,
Figure 807720DEST_PATH_IMAGE024
Figure 750268DEST_PATH_IMAGE021
的绝对中位差。
若所述样本车辆运动参数包括所述车辆影像数据,根据第j时刻和第j-1时刻分别对应车辆影像数据,确定出第j时刻对应的训练样本中所述样本车辆的运动矢量,所述运动矢量用于标识所述样本车辆在第j时刻的车辆运动状态。
第j时刻和第j-1时刻分别对应车辆影像数据属于车辆影像数据中的相邻图像帧,根据相邻图像帧可以确定出图像帧中所包括图像内容的变化情况。从而可以基于变化情况确定出车辆(例如目标车辆或样本车辆)在第j时刻的车辆运动状态,该车辆运动状态可以通过运动矢量的形式进行表达。
在一种可能的实现方式中,包括:
获取所述车辆影像数据在第j时刻的图像帧和第j-1时刻的图像帧;
确定第j时刻的图像帧和第j-1时刻的图像帧间匹配的图像特征点;
根据所述图像特征点确定所述样本车辆在第j时刻的位移变化量和旋转变化量;
通过所述位移变化量和所述旋转变化量确定出第j时刻对应的训练样本中所述样本车辆的运动矢量。
在利用车载影像数据估计车辆的旋转和位移变化量之前,需要对车载影像进行预处理,提取和匹配车载影像数据图像特征点;例如图4a所示:
车载终端通过USB或HDMI连接线获取车载影像RGB格式的图像数据,利用维纳滤波对图像数据进行去噪处理;与此同时,根据车载摄像头内参数进行图像去畸变处理;经过去噪和去畸变处理后,得到校正后的图像。
假设在1s时间内,车载终端获取到n帧图像,经过上述步骤进行消除噪声和去畸变处理后,得到n帧校正图像,即如图4b所示,图像帧In中的噪点和畸变通过预处理被去除。
在校正图像建立统一的图像坐标系用来表示图像帧中图像特征点的位置坐标,如图4c所示。
利用ORB、SURF、BRISK、BRIEF等图像特征点提取算法获取校正图像
Figure 315766DEST_PATH_IMAGE025
的图像特征点,即
Figure 736383DEST_PATH_IMAGE026
式中,
Figure 208953DEST_PATH_IMAGE027
为特征点坐标,
Figure 447036DEST_PATH_IMAGE028
为特征点描述子;
其中,在图像处理中,图像特征点指的是图像灰度值发生剧烈变化的点或者在图像边缘上曲率较大的点(即两个边缘的交点);图像特征点在基于特征点的图像匹配算法中有着十分重要的作用;图像特征点能够反映图像本质特征,能够标识图像中目标物体;通过特征点的匹配能够完成图像的匹配;图像的特征点主要由两部分组成:关键点或特征点(keypoint)和描述子(descriptor),关键点指的是该特征点在图像中的位置,有些还具有方向、尺度等信息,描述子通常是一个向量,按照人为设计方式,描述关键点与周围像素的关系信息,通常描述子是按照外观相似的特征应该有相似的描述子设计的,故在匹配的时候,若两个特征点描述子在向量空间的距离(马氏距离、汉明距离等)相近,则可以认为是同一个特征点;常用图像特征点提取算法有SIFT、SURF、ORB、BRISK、BRIEF以及FAST等。
图像特征点匹配是通过比较两个特征点的描述子,若两个特征点描述子在向量空间的距离(马氏距离)相近,则可以认为是同一个特征点;常用图像特征点匹配算法有暴力匹配、KNN近邻匹配、Flann-based匹配等;
图像特征点的匹配通常需要以下三个步骤,如图5a所示:
1. 通过查找图像帧中具有某些特征的像素,提取图像帧中的特征点;
2. 根据得到的特征点的位置,计算特征点的描述子;
3. 根据特征点的描述子,进行相邻帧的匹配和矫正。
通过BruteForce、KNN近邻或Flann-based等匹配算法匹配校正图像Ii和Ii-1的相同特征点,以两个特征点描述子的马氏距离或汉明距离作为匹配准则,假设匹配后得到校正图像Ii和Ii-1的相同特征点为q个,即q个匹配特征点,每个匹配特征点由校正图像Ii和Ii-1上相应的特征点以及坐标组成;如图5b所示,一条虚线表示一个匹配特征点;
在获取得到匹配的相邻帧图像特征点后,基于RANSAC(随机一致性采样)算法估计车辆运动状态,亦即旋转变化量和位移变化量;假设在tk和tk-1时刻相邻图像帧匹配特征点为
Figure 372267DEST_PATH_IMAGE029
,在tk时刻它们在图像中的坐标为
Figure 596575DEST_PATH_IMAGE030
,在tk时刻它们在图像中的坐标为
Figure 658072DEST_PATH_IMAGE031
Figure 67056DEST_PATH_IMAGE032
,利用RANSAC算法求解下列方程式,即
Figure 479583DEST_PATH_IMAGE033
式中,K为车载摄像头的标定参数,利用上式可得旋转变化量
Figure 507582DEST_PATH_IMAGE034
和位移变化量
Figure 689165DEST_PATH_IMAGE035
车辆的旋转变化量为
Figure 3471DEST_PATH_IMAGE036
,位移变化量为
Figure 903294DEST_PATH_IMAGE037
,则利用下式计算车辆的运动矢量,即
Figure 469405DEST_PATH_IMAGE038
式中,
Figure 771073DEST_PATH_IMAGE039
为李群李代数的Log运算。
若所述样本车辆运动参数包括惯性传感器数据,且所述惯性传感器数据包括在时间窗内的加速度计数据,根据所述加速度计数据确定出第j时刻对应的训练样本中的重力加速度不符值,所述时间窗为到第j时刻为止的一段时间长度,所述重力加速度不符值用于标识所述目标车辆在所述时间窗内的加速度状态。
其中,重力加速度不符值可以体现出加速度计所采集到的重力加速度和实际重力加速度间的差值,该差值能够标识出车辆(例如目标车辆或样本车辆)可能的运动状态,例如静止时差值基本没有,运动时差值较大等。故从而可以基于重力加速度不符值来作为确定车辆行驶状态的依据。
在一种可能的实现方式中,确定所述加速度计数据在所述时间窗内的加速度均值和加速度绝对中位差;根据所述加速度均值和所述加速度绝对中位差,确定出第j时刻对应的训练样本中的重力加速度不符值。
假设时间滑动窗口大小为W,则当前时刻tk的时间滑动窗口为:
Figure 259211DEST_PATH_IMAGE040
假设在时间滑动窗口
Figure 646330DEST_PATH_IMAGE041
内三轴加速度计和陀螺仪观测数据为:
Figure 16131DEST_PATH_IMAGE042
计算
Figure 906727DEST_PATH_IMAGE043
Figure 828415DEST_PATH_IMAGE044
的均值,即有:
Figure 437251DEST_PATH_IMAGE045
Figure 610744DEST_PATH_IMAGE046
Figure 621425DEST_PATH_IMAGE047
计算
Figure 714015DEST_PATH_IMAGE048
Figure 810147DEST_PATH_IMAGE049
的绝对中位差,即有:
Figure 521751DEST_PATH_IMAGE050
由三轴加速度计所受重力加速度为
Figure 386939DEST_PATH_IMAGE051
由地球重力场景模型得到重力值为:
Figure 650430DEST_PATH_IMAGE052
式中,λ为纬度,
Figure 233858DEST_PATH_IMAGE053
为经度,h为高度;由此可得到归一化重力加速度不符值
Figure 483573DEST_PATH_IMAGE054
为:
Figure 468847DEST_PATH_IMAGE055
若所述样本车辆运动参数包括惯性传感器数据,且所述惯性传感器数据包括在所述时间窗内的陀螺仪数据,根据所述陀螺仪数据的陀螺仪均值和陀螺仪绝对中位差,确定出第j时刻对应的训练样本中的标准化陀螺仪数据。
陀螺仪数据的陀螺仪均值和陀螺仪绝对中位差在前述已经说明,这里不再赘述。
由三轴陀螺仪均值、三轴陀螺仪绝对中位差计算模型训练输入的标准化陀螺运行参数特征:
Figure 906169DEST_PATH_IMAGE056
通过上述源自多个数据源的车辆运动参数的处理和特征提取,如图6所示,将旋转变化量、位移变化量、归一化卫星星间单差多普勒、三轴加速度计均值和绝对中位差、三轴陀螺仪均值和绝对中位差转换为归一化重力加速度不符值、归一化卫星多普勒、车辆运动矢量和标准化陀螺运动参数。可以起到去除参数中的噪声、提高数据精度的作用,从而基于此确定出的训练样本将能够优化模型训练,使得训练得到的状态判定模型的精度更高。
接下来通过图3,将从构建训练样本集、训练神经网络以及使用训练得到的状态判定模型三个阶段完整的对本申请实施例仅说明。示例性的,在图3示出的场景中,基于深度学习融合车辆影像数据、卫星定位数据和惯性传感器数据判别车辆行驶状态。状态判定模型所能确定的车辆行驶状态包括静止和运动两个状态。
其中,作为神经网络的状态判定模型可以是CNN、RNN、LSTM等,通过将前述包括了车辆影像数据、卫星定位数据和惯性传感器数据的车辆运动参数确定出输入数据,输入到初始状态判定模型的输入层,以二分类损失函数为损失函数,通过训练样本集训练上述初始状态判定模型,得到状态判定模型。
在构建训练样本集的阶段,需要基于采集时刻构建训练数据单元,根据得到的训练数据单元构建训练样本集。
针对对应采集时刻中第j个时刻的训练数据单元j,通过下述步骤处理得到:
根据相邻帧影像匹配图像特征点,基于RANSAC(随机一致性采样)算法估计车辆运动状态:旋转变化量
Figure 976893DEST_PATH_IMAGE057
和位移变化量
Figure 30300DEST_PATH_IMAGE058
以卫星高度角最高的卫星作为参考卫星,计算当前时刻可见卫星星间多普勒观测值
Figure 994714DEST_PATH_IMAGE059
Figure 475374DEST_PATH_IMAGE002
为卫星个数,基于卫星信号载噪比和卫星高度角对星间单差多普勒观测值
Figure 767815DEST_PATH_IMAGE003
进行归一化处理;
计算时间滑动窗口内三轴加速度计和三轴陀螺仪观测数据的均值、绝对中位差:
Figure 624912DEST_PATH_IMAGE060
由上述步骤可得训练样本集为:
Figure 443833DEST_PATH_IMAGE061
以旋转变化量和位移变化量、归一化卫星星间单差多普勒、三轴加速度计和三轴陀螺仪观测数据时间滑动窗口内均值和绝对中位差为神经网络(CNN、RNN、LSTM等)输入层,以二分类损失函数为损失函数,通过数据集T训练初始状态判定模型,例如图7所示,通过输入层、隐藏层和输出层,得到对训练样本集中各个训练样本对应的预测车辆状态,然后基于预测车辆状态与样本标签的区别,训练初始状态判定模型,得到状态判定模型。
基于上述步骤得到状态判定模型后,将对目标车辆采集的处理影像数据估计的旋转变化量和位移变化量、星间单差多普勒观测值、三轴加速度计和三轴陀螺仪观测数据时间滑动窗口内均值和绝对中位差输入至该状态判定模型,即可实时判别当前目标车辆的车辆行驶状态。
接下来针对S205:将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征,进行进一步的说明。在一种可能的实现方式中:
S2051:通过所述初始状态判定模型的第一池化层对所述训练样本中源自多个数据源的输入特征进行池化处理,得到所述输入特征分别对应的第一池化结果;
S2052:通过所述初始状态判定模型的第二池化层对所述训练样本中源自多个数据源的输入特征进行池化处理,得到所述输入特征分别对应的第二池化结果,所述第一池化层和所述第二池化层的池化方式不同;
S2053:通过所述全连接层对所述第一池化结果和所述第二池化结果进行融合,得到所述融合特征。
不同的池化方式可以得到不同维度的池化结果,通过将两个池化结果进行融合,使得融合特征中不仅可以融合多个数据源的参数,而且还可以具备不同维度的池化操作所分别关注的信息,增加了融合特征中的信息多样性,使得基于该融合特征确定车辆行驶状态时,所能参考的信息更为全面,提高了车辆行驶状态的确定精度。
如图8所示,第一池化层为最大池化层(MaxPool),第二池化层为平均池化层(AvgPool),当输入特征分别经过这两个池化层后,输入特征中源自多个数据源的特征被分别通过不同方式进行池化,然后通过共享全连接隐藏层得到第一池化结果和第二池化结果。通过对第一池化结果和第二池化结果进行融合,得到融合特征。
接下来针对S206:通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态,进行进一步的说明。在一种可能的实现方式中:
S2061:确定所述多个数据源分别对应的注意力参数;
S2062:根据所述注意力参数和所述融合特征,通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态。
不同数据源对确定车辆行驶状态所起到的影响有所区别,为此,本申请实施例为不同数据源分别设置对应的注意力参数,使得初始状态判定模型在训练过程中能够学习到上述区别,以此提高车辆行驶状态的确定精度。
如图8所示,通过通道注意力权值可以为融合特征中源自多个数据源的特征添加分别对应的注意力参数。添加之后,通过池化层和卷积层,然后基于初始状态判定模型注意力层学习空间注意力权值,并通过训练过程调整空间注意力权值的参数。
需要说明的是,多个数据源分别对应的注意力参数可以是预先设置的,注意力参数的大小可以基于实际需求确定,也可以基于交通场景进行确定。
交通场景可以分为多类,不同类型的交通场景中,多个数据源被影响的程度会有所不同,故对于确定车辆行驶状态可以有不同的侧重。例如图9所示,在一种可能的实现方式中,多类交通场景可以包括开阔场景、半遮挡场景和遮挡场景。由于不同类型的交通场景中,同一个数据源的误差可能有所区别,甚至差别很大。例如在开阔场景中,卫星定位数据的误差基本没有,可以为确定车辆行驶状态提供重要的依据,而在遮挡场景中,卫星定位数据的误差可能很大,导致可信度不高,在确定车辆行驶状态时的参考价值很低。
本申请基于上述情况,提出了一种状态判定模型的训练方式,即基于交通场景进行模型训练,不同的交通场景分别具有对应的状态判定模型。从而可以在训练过程中,针对对应的交通场景,为多个数据源有针对性的分配注意力参数,提高状态判定模型在所对应交通场景下的训练效果。
为此,在获取样本车辆的样本车辆运动参数时,为了能够实现针对交通场景的模型训练,可以将处于同一个交通场景下采集到的样本车辆运动参数作为训练该交通场景所对应状态判定模型的依据。
针对S203可以包括:基于所述多个数据源获取所述样本车辆在样本交通场景下的样本车辆运动参数,所述样本交通场景为多类交通场景中的一类。
相应的,针对S2061可以包括:根据所述样本交通场景确定所述多个数据源分别对应的注意力参数。
通过上述基于交通场景的注意参数设置,使得在一个交通场景下,误差可能较大的数据源对模型训练的影响被降低,误差可能较小的数据源对模型训练的影响被提高,从而训练得到的状态判定模型在所对应交通场景下的确定精度更高。
如图10所示,首先针对从样本车辆获取的车辆运动参数,根据不同的交通场景进行归类,确定开阔场景、半遮挡场景和遮挡场景分别对应的车辆运动参数集合。然后对任意一个车辆运动参数集合进行数据预处理:
根据相邻图像帧匹配图像特征点估计车辆运动状态:旋转变化量
Figure 95394DEST_PATH_IMAGE062
和位移变化量
Figure 140710DEST_PATH_IMAGE063
利用卫星观测信息计算星间单差多普勒
Figure 535919DEST_PATH_IMAGE064
,N为卫星个数,并对星间单差多普勒
Figure 209346DEST_PATH_IMAGE065
进行归一化处理。
计算时间滑动窗口内三轴加速度计和三轴陀螺仪观测数据的均值、绝对中位差:
Figure 297388DEST_PATH_IMAGE066
根据旋转变化量和位移变化量、星间单差多普勒、加速度计和陀螺仪观测数据的均值和绝对中位差,确定出包括车辆运动矢量、归一化卫星多普勒、标准化陀螺运动参数,以及归一化重力加速度不符值的训练样本。根据训练样本对作为初始状态判定模型的神经网络(CNN、RNN、LSTM等)进行模型训练。
初始状态判定模型中包括通道注意力模块、空间注意力模块、卷积层和分类器。其中通道注意力模块用于为融合特征分配对应的注意力参数,空间注意力模块用于基于训练过程进行注意力的学习。
在图10场景中初始状态判定模型可以确定两种车辆行驶状态,分别为静止和运动,通过训练样本对应的标签(实际车辆状态)和预测车辆状态进行模型参数调整,循环反馈直至分类器判别收敛为止,得到本申请的状态判定模型。
在一种可能的实现方式中,在通过交通场景训练状态判定模型后,在需要确定目标车辆的车辆行驶状态时,可以根据目标车辆的当前位置,从多类交通场景中确定目标车辆所处的目标交通场景。
然后针对S202,可以选择目标交通场景对应的状态判定模型来确定目标车辆当前的车辆行驶状态。随着目标车辆的行进过程,当进入不同的交通场景时,均可以选择对应该交通场景的状态判定模型进行车辆行驶状态的确定,大大提高了车辆行驶状态的确定精度。
解决在城市环境、高楼林立等复杂场景车辆行车状态(静止或运动)判别准确率较低的问题;相比现有方法,更加简单高效;解决在城市环境、高楼林立等复杂环境下车辆位置跳变且定位不连续的问题;能够有效辅助地图定位导航,提高车辆定位精度,辅助车道级定位导航。
在前述图1-图10所对应实施例的基础上,图11为本申请实施例提供放的一种车辆行驶状态确定装置的装置结构图,所述车辆行驶状态确定装置1100包括获取单元1101、确定单元1102和训练单元1103:
所述获取单元1101,用于获取目标车辆对应的车辆运动参数,所述车辆运动参数源自多个数据源;
所述确定单元1102,用于根据所述车辆运动参数,通过状态判定模型确定所述目标车辆的车辆行驶状态;
所述训练单元1103,用于:
基于所述多个数据源获取样本车辆的样本车辆运动参数;
根据所述样本车辆运动参数的采集时刻确定与所述采集时刻对应的训练样本,所述训练样本的标签为所述样本车辆在所对应采集时刻的实际车辆行驶状态;
将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征;
通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态;
根据所述预测车辆状态与所述实际车辆行驶状态,对所述初始状态判定模型进行参数修正,得到所述状态判定模型。
在一种可能的实现方式中,源自所述多个数据源的所述车辆运动参数包括卫星定位数据、车辆影像数据或惯性传感器数据中的任意多种组合。
在一种可能的实现方式中,第j时刻为所述采集时刻中的一个时刻,所述训练单元还用于:
若所述样本车辆运动参数包括所述卫星定位数据,根据所述卫星定位数据中所涉及多个卫星在第j时刻分别对应的子定位数据,确定出第j时刻对应的训练样本中所述卫星定位数据的归一化卫星数据;
若所述样本车辆运动参数包括所述车辆影像数据,根据第j时刻和第j-1时刻分别对应车辆影像数据,确定出第j时刻对应的训练样本中所述样本车辆的运动矢量,所述运动矢量用于标识所述样本车辆在第j时刻的车辆运动状态;
若所述样本车辆运动参数包括惯性传感器数据,且所述惯性传感器数据包括在时间窗内的加速度计数据,根据所述加速度计数据确定出第j时刻对应的训练样本中的重力加速度不符值,所述时间窗为到第j时刻为止的一段时间长度,所述重力加速度不符值用于标识所述目标车辆在所述时间窗内的加速度状态;
若所述样本车辆运动参数包括惯性传感器数据,且所述惯性传感器数据包括在所述时间窗内的陀螺仪数据,根据所述陀螺仪数据的陀螺仪均值和陀螺仪绝对中位差,确定出第j时刻对应的训练样本中的标准化陀螺仪数据。
在一种可能的实现方式中,所述训练单元还用于:
获取所述车辆影像数据在第j时刻的图像帧和第j-1时刻的图像帧;
确定第j时刻的图像帧和第j-1时刻的图像帧间匹配的图像特征点;
根据所述图像特征点确定所述样本车辆在第j时刻的位移变化量和旋转变化量;
通过所述位移变化量和所述旋转变化量确定出第j时刻对应的训练样本中所述样本车辆的运动矢量。
在一种可能的实现方式中,所述训练单元还用于:
确定所述加速度计数据在所述时间窗内的加速度均值和加速度绝对中位差;
根据所述加速度均值和所述加速度绝对中位差,确定出第j时刻对应的训练样本中的重力加速度不符值。
在一种可能的实现方式中,所述训练单元还用于:
确定所述多个数据源分别对应的注意力参数;
根据所述注意力参数和所述融合特征,通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态。
在一种可能的实现方式中,所述训练单元还用于:
基于所述多个数据源获取所述样本车辆在样本交通场景下的样本车辆运动参数,所述样本交通场景为多类交通场景中的一类;
所述确定所述多个数据源分别对应的注意力参数,包括:
根据所述样本交通场景确定所述多个数据源分别对应的注意力参数。
在一种可能的实现方式中,所述确定单元还用于:
从中所述多类交通场景中确定所述目标车辆所处的目标交通场景;
根据所述车辆运动参数,通过所述目标交通场景对应的状态判定模型确定所述目标车辆的车辆行驶状态。
在一种可能的实现方式中,所述训练单元还用于:
通过所述初始状态判定模型的第一池化层对所述训练样本中源自多个数据源的输入特征进行池化处理,得到所述输入特征分别对应的第一池化结果;
通过所述初始状态判定模型的第二池化层对所述训练样本中源自多个数据源的输入特征进行池化处理,得到所述输入特征分别对应的第二池化结果,所述第一池化层和所述第二池化层的池化方式不同;
通过所述全连接层对所述第一池化结果和所述第二池化结果进行融合,得到所述融合特征。
在一种可能的实现方式中,所述车辆行驶状态包括静止状态、运动状态或慢行状态。
由此可见,通过获取目标车辆的车辆运动参数,由于车辆运动参数源自多个数据源,多个数据源在复杂交通场景下同时出现误差的情况较小,故通过状态判定模型可以较为准确的确定目标车辆的车辆行驶状态,降低误判的可能。而且,在训练状态判定模型的过程中,会通过初始状态判定模型中的全连接层对训练样本中源自多个数据源的输入特征进行融合,得到融合特征,并通过注意力层确定出融合特征对应的车辆行驶状态,训练出的状态判定模型学习到如何综合参考多个数据源确定车辆行驶状态的知识。状态判定模型通过采用融合以及注意力机制,使得多个数据源在车辆行驶状态确定时能够更好的互补,即使在复杂交通场景下某个数据源的误差较大时,状态判定模型通过其他数据源可以有效的降低误差影响,提高车辆行驶状态确定的精度。
本申请实施例还提供了一种计算机设备,该计算机设备为前述介绍的计算机设备,可以包括终端设备或服务器,前述的车辆行驶状态确定装置可以配置在该计算机设备中。下面结合附图对该计算机设备进行介绍。
若该计算机设备为终端设备,请参见图12所示,本申请实施例提供了一种终端设备,以终端设备为手机为例:
图12示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图12,手机包括:射频(Radio Frequency,简称RF)电路1410、存储器1420、输入单元1430、显示单元1440、传感器1450、音频电路1460、无线保真(Wireless Fidelity,简称WiFi)模块1470、处理器1480、以及电源1490等部件。本领域技术人员可以理解,图12中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图12对手机的各个构成部件进行具体的介绍:
RF电路1410可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1480处理;另外,将设计上行的数据发送给基站。通常,RF电路1410包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,简称LNA)、双工器等。此外,RF电路1410还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobile communication,简称GSM)、通用分组无线服务(GeneralPacket Radio Service,简称GPRS)、码分多址(Code Division Multiple Access,简称CDMA)、宽带码分多址(Wideband Code Division Multiple Access,简称WCDMA)、长期演进(Long Term Evolution,简称LTE)、电子邮件、短消息服务(Short Messaging Service,简称SMS)等。
存储器1420可用于存储软件程序以及模块,处理器1480通过运行存储在存储器1420的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1420可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1430可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1430可包括触控面板1431以及其他输入设备1432。触控面板1431,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1431上或在触控面板1431附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1431可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1480,并能接收处理器1480发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1431。除了触控面板1431,输入单元1430还可以包括其他输入设备1432。具体地,其他输入设备1432可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1440可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1440可包括显示面板1441,可选的,可以采用液晶显示器(LiquidCrystal Display,简称LCD)、有机发光二极管(Organic Light-Emitting Diode,简称OLED)等形式来配置显示面板1441。进一步的,触控面板1431可覆盖显示面板1441,当触控面板1431检测到在其上或附近的触摸操作后,传送给处理器1480以确定触摸事件的类型,随后处理器1480根据触摸事件的类型在显示面板1441上提供相应的视觉输出。虽然在图12中,触控面板1431与显示面板1441是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1431与显示面板1441集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器1450,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1441的亮度,接近传感器可在手机移动到耳边时,关闭显示面板1441和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等; 至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1460、扬声器1461,传声器1462可提供用户与手机之间的音频接口。音频电路1460可将接收到的音频数据转换后的电信号,传输到扬声器1461,由扬声器1461转换为声音信号输出;另一方面,传声器1462将收集的声音信号转换为电信号,由音频电路1460接收后转换为音频数据,再将音频数据输出处理器1480处理后,经RF电路1410以发送给比如另一手机,或者将音频数据输出至存储器1420以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块1470可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图12示出了WiFi模块1470,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1480是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1420内的软件程序和/或模块,以及调用存储在存储器1420内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器1480可包括一个或多个处理单元;优选的,处理器1480可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1480中。
手机还包括给各个部件供电的电源1490(比如电池),优选的,电源可以通过电源管理系统与处理器1480逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本实施例中,该终端设备所包括的处理器1480还具有以下功能:
获取目标车辆对应的车辆运动参数,所述车辆运动参数源自多个数据源;
根据所述车辆运动参数,通过状态判定模型确定所述目标车辆的车辆行驶状态;
其中,所述状态判定模型通过如下方式生成:
基于所述多个数据源获取样本车辆的样本车辆运动参数;
根据所述样本车辆运动参数的采集时刻确定与所述采集时刻对应的训练样本,所述训练样本的标签为所述样本车辆在所对应采集时刻的实际车辆行驶状态;
将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征;
通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态;
根据所述预测车辆状态与所述实际车辆行驶状态,对所述初始状态判定模型进行参数修正,得到所述状态判定模型。
若计算机设备为服务器,本申请实施例还提供一种服务器,请参见图13所示,图13为本申请实施例提供的服务器1500的结构图,服务器1500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,简称CPU)1522(例如,一个或一个以上处理器)和存储器1532,一个或一个以上存储应用程序1542或数据1544的存储介质1530(例如一个或一个以上海量存储设备)。其中,存储器1532和存储介质1530可以是短暂存储或持久存储。存储在存储介质1530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1522可以设置为与存储介质1530通信,在服务器1500上执行存储介质1530中的一系列指令操作。
服务器1500还可以包括一个或一个以上电源1526,一个或一个以上有线或无线网络接口1550,一个或一个以上输入输出接口1558,和/或,一个或一个以上操作系统1541,例如Windows ServerTM,Mac OS XTM,UnixTM, LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于图13所示的服务器结构。
另外,本申请实施例还提供了一种存储介质,所述存储介质用于存储计算机程序,所述计算机程序用于执行上述实施例提供的方法。
本申请实施例还提供了一种包括指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例提供的方法。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质可以是下述介质中的至少一种:只读存储器(英文:Read-only Memory,缩写:ROM)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备及系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的设备及系统实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本申请的一种具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。而且本申请在上述各方面提供的实现方式的基础上,还可以进行进一步组合以提供更多实现方式。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (15)

1.一种车辆行驶状态确定方法,其特征在于,所述方法包括:
获取目标车辆对应的车辆运动参数,所述车辆运动参数源自多个数据源;
根据所述车辆运动参数,通过状态判定模型确定所述目标车辆的车辆行驶状态;
其中,所述状态判定模型通过如下方式生成:
基于所述多个数据源获取样本车辆的样本车辆运动参数;
根据所述样本车辆运动参数的采集时刻确定与所述采集时刻对应的训练样本,所述训练样本的标签为所述样本车辆在所对应采集时刻的实际车辆行驶状态;
将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征;
通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态;
根据所述预测车辆状态与所述实际车辆行驶状态,对所述初始状态判定模型进行参数修正,得到所述状态判定模型。
2.根据权利要求1所述的方法,其特征在于,源自所述多个数据源的所述车辆运动参数包括卫星定位数据、车辆影像数据或惯性传感器数据中的任意多种组合。
3.根据权利要求2所述的方法,其特征在于,第j时刻为所述采集时刻中的一个时刻,所述根据所述样本车辆运动参数的采集时刻确定与所述采集时刻对应的训练样本,包括:
若所述样本车辆运动参数包括所述卫星定位数据,根据所述卫星定位数据中所涉及多个卫星在第j时刻分别对应的子定位数据,确定出第j时刻对应的训练样本中所述卫星定位数据的归一化卫星数据;
若所述样本车辆运动参数包括所述车辆影像数据,根据第j时刻和第j-1时刻分别对应车辆影像数据,确定出第j时刻对应的训练样本中所述样本车辆的运动矢量,所述运动矢量用于标识所述样本车辆在第j时刻的车辆运动状态;
若所述样本车辆运动参数包括惯性传感器数据,且所述惯性传感器数据包括在时间窗内的加速度计数据,根据所述加速度计数据确定出第j时刻对应的训练样本中的重力加速度不符值,所述时间窗为到第j时刻为止的一段时间长度,所述重力加速度不符值用于标识所述目标车辆在所述时间窗内的加速度状态;
若所述样本车辆运动参数包括惯性传感器数据,且所述惯性传感器数据包括在所述时间窗内的陀螺仪数据,根据所述陀螺仪数据的陀螺仪均值和陀螺仪绝对中位差,确定出第j时刻对应的训练样本中的标准化陀螺仪数据。
4.根据权利要求3所述的方法,其特征在于,所述根据第j时刻和第j-1时刻分别对应车辆影像数据,确定出第j时刻对应的训练样本中所述样本车辆的运动矢量,包括:
获取所述车辆影像数据在第j时刻的图像帧和第j-1时刻的图像帧;
确定第j时刻的图像帧和第j-1时刻的图像帧间匹配的图像特征点;
根据所述图像特征点确定所述样本车辆在第j时刻的位移变化量和旋转变化量;
通过所述位移变化量和所述旋转变化量确定出第j时刻对应的训练样本中所述样本车辆的运动矢量。
5.根据权利要求3所述的方法,其特征在于,所述根据所述加速度计数据确定出第j时刻对应的训练样本中的重力加速度不符值,包括:
确定所述加速度计数据在所述时间窗内的加速度均值和加速度绝对中位差;
根据所述加速度均值和所述加速度绝对中位差,确定出第j时刻对应的训练样本中的重力加速度不符值。
6.根据权利要求1所述的方法,其特征在于,所述通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态,包括:
确定所述多个数据源分别对应的注意力参数;
根据所述注意力参数和所述融合特征,通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态。
7.根据权利要求6所述的方法,其特征在于,所述基于所述多个数据源获取样本车辆的样本车辆运动参数,包括:
基于所述多个数据源获取所述样本车辆在样本交通场景下的样本车辆运动参数,所述样本交通场景为多类交通场景中的一类;
所述确定所述多个数据源分别对应的注意力参数,包括:
根据所述样本交通场景确定所述多个数据源分别对应的注意力参数。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
从中所述多类交通场景中确定所述目标车辆所处的目标交通场景;
所述根据所述车辆运动参数,通过状态判定模型确定所述目标车辆的车辆行驶状态,包括:
根据所述车辆运动参数,通过所述目标交通场景对应的状态判定模型确定所述目标车辆的车辆行驶状态。
9.根据权利要求1-8任意一项所述的方法,其特征在于,所述将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征,包括:
通过所述初始状态判定模型的第一池化层对所述训练样本中源自多个数据源的输入特征进行池化处理,得到所述输入特征分别对应的第一池化结果;
通过所述初始状态判定模型的第二池化层对所述训练样本中源自多个数据源的输入特征进行池化处理,得到所述输入特征分别对应的第二池化结果,所述第一池化层和所述第二池化层的池化方式不同;
通过所述全连接层对所述第一池化结果和所述第二池化结果进行融合,得到所述融合特征。
10.根据权利要求1-8任意一项所述的方法,其特征在于,所述车辆行驶状态包括静止状态、运动状态或慢行状态。
11.一种车辆行驶状态确定装置,其特征在于,所述装置包括获取单元、确定单元和训练单元:
所述获取单元,用于获取目标车辆对应的车辆运动参数,所述车辆运动参数源自多个数据源;
所述确定单元,用于根据所述车辆运动参数,通过状态判定模型确定所述目标车辆的车辆行驶状态;
所述训练单元,用于:
基于所述多个数据源获取样本车辆的样本车辆运动参数;
根据所述样本车辆运动参数的采集时刻确定与所述采集时刻对应的训练样本,所述训练样本的标签为所述样本车辆在所对应采集时刻的实际车辆行驶状态;
将所述训练样本作为初始状态判定模型的输入数据,通过所述初始状态判定模型的全连接层对所述训练样本中源自多个数据源的输入特征进行融合,得到融合特征;
通过所述初始状态判定模型的注意力层确定所述融合特征对应的预测车辆状态;
根据所述预测车辆状态与所述实际车辆行驶状态,对所述初始状态判定模型进行参数修正,得到所述状态判定模型。
12.根据权利要求11所述的装置,其特征在于,源自所述多个数据源的所述车辆运动参数包括卫星定位数据、车辆影像数据或惯性传感器数据中的任意多种组合。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-10中任意一项所述的车辆行驶状态确定方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行权利要求1-10中任意一项所述的车辆行驶状态确定方法。
15.一种包括指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行权利要求1-10任意一项所述的车辆行驶状态确定方法。
CN202111357864.5A 2021-11-17 2021-11-17 一种车辆行驶状态确定方法和相关装置 Active CN113807470B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111357864.5A CN113807470B (zh) 2021-11-17 2021-11-17 一种车辆行驶状态确定方法和相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111357864.5A CN113807470B (zh) 2021-11-17 2021-11-17 一种车辆行驶状态确定方法和相关装置

Publications (2)

Publication Number Publication Date
CN113807470A true CN113807470A (zh) 2021-12-17
CN113807470B CN113807470B (zh) 2022-02-25

Family

ID=78898636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111357864.5A Active CN113807470B (zh) 2021-11-17 2021-11-17 一种车辆行驶状态确定方法和相关装置

Country Status (1)

Country Link
CN (1) CN113807470B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114973055A (zh) * 2022-03-25 2022-08-30 成都臻识科技发展有限公司 车辆运动状态检测方法、装置、设备及存储介质
CN116664028A (zh) * 2023-08-01 2023-08-29 深圳市汉德网络科技有限公司 运输车的货物流向管控方法、装置以及运输车
CN116720045A (zh) * 2023-08-10 2023-09-08 深圳市汉德网络科技有限公司 运输车的非正常卸货行为识别方法、装置以及运输车
CN116811895A (zh) * 2023-08-31 2023-09-29 腾讯科技(深圳)有限公司 车辆运行速度确定模型处理方法和车辆运行速度确定方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170103588A1 (en) * 2015-10-13 2017-04-13 Flywheel Software, Inc. Accurately determining real time parameters describing vehicle motion based on multiple data sources
CN108664632A (zh) * 2018-05-15 2018-10-16 华南理工大学 一种基于卷积神经网络和注意力机制的文本情感分类算法
CN109726771A (zh) * 2019-02-27 2019-05-07 深圳市赛梅斯凯科技有限公司 异常驾驶检测模型建立方法、装置及存储介质
CN111353467A (zh) * 2020-03-12 2020-06-30 Oppo广东移动通信有限公司 行驶状态识别方法、装置、终端及存储介质
CN112255648A (zh) * 2020-10-20 2021-01-22 腾讯科技(深圳)有限公司 运动状态检测方法、装置、电子设备及存储介质
CN112389440A (zh) * 2020-11-07 2021-02-23 吉林大学 一种基于车路作用机理的越野环境中车辆行驶风险预测方法
CN112633396A (zh) * 2020-12-30 2021-04-09 四川新网银行股份有限公司 基于注意力机制的机器学习模型的融合方法
WO2021169742A1 (zh) * 2020-02-26 2021-09-02 Oppo广东移动通信有限公司 交通工具运行状态的预测方法、装置、终端及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170103588A1 (en) * 2015-10-13 2017-04-13 Flywheel Software, Inc. Accurately determining real time parameters describing vehicle motion based on multiple data sources
CN108664632A (zh) * 2018-05-15 2018-10-16 华南理工大学 一种基于卷积神经网络和注意力机制的文本情感分类算法
CN109726771A (zh) * 2019-02-27 2019-05-07 深圳市赛梅斯凯科技有限公司 异常驾驶检测模型建立方法、装置及存储介质
WO2021169742A1 (zh) * 2020-02-26 2021-09-02 Oppo广东移动通信有限公司 交通工具运行状态的预测方法、装置、终端及存储介质
CN111353467A (zh) * 2020-03-12 2020-06-30 Oppo广东移动通信有限公司 行驶状态识别方法、装置、终端及存储介质
CN112255648A (zh) * 2020-10-20 2021-01-22 腾讯科技(深圳)有限公司 运动状态检测方法、装置、电子设备及存储介质
CN112389440A (zh) * 2020-11-07 2021-02-23 吉林大学 一种基于车路作用机理的越野环境中车辆行驶风险预测方法
CN112633396A (zh) * 2020-12-30 2021-04-09 四川新网银行股份有限公司 基于注意力机制的机器学习模型的融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIAOLIN DING ET AL.: "Longitudinal Vehicle Speed Estimation for Four-Wheel-Independently-Actuated Electric Vehicles Based on Multi-Sensor Fusion", 《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114973055A (zh) * 2022-03-25 2022-08-30 成都臻识科技发展有限公司 车辆运动状态检测方法、装置、设备及存储介质
CN116664028A (zh) * 2023-08-01 2023-08-29 深圳市汉德网络科技有限公司 运输车的货物流向管控方法、装置以及运输车
CN116664028B (zh) * 2023-08-01 2024-01-19 深圳市汉德网络科技有限公司 运输车的货物流向管控方法、装置以及运输车
CN116720045A (zh) * 2023-08-10 2023-09-08 深圳市汉德网络科技有限公司 运输车的非正常卸货行为识别方法、装置以及运输车
CN116811895A (zh) * 2023-08-31 2023-09-29 腾讯科技(深圳)有限公司 车辆运行速度确定模型处理方法和车辆运行速度确定方法
CN116811895B (zh) * 2023-08-31 2023-11-21 腾讯科技(深圳)有限公司 车辆运行速度确定模型处理方法和车辆运行速度确定方法

Also Published As

Publication number Publication date
CN113807470B (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
CN113807470B (zh) 一种车辆行驶状态确定方法和相关装置
CN110147705B (zh) 一种基于视觉感知的车辆定位方法及电子设备
CN111126182B (zh) 车道线检测方法、装置、电子设备及存储介质
CN110795523B (zh) 车辆定位方法、装置以及智能车辆
CN112558125B (zh) 一种车辆定位的方法、相关装置、设备以及存储介质
US9842282B2 (en) Method and apparatus for classifying objects and clutter removal of some three-dimensional images of the objects in a presentation
CN112307642B (zh) 数据处理方法、装置、系统、计算机设备及存储介质
KR102564430B1 (ko) 차량의 제어 방법, 장치 및 차량
US11875519B2 (en) Method and system for positioning using optical sensor and motion sensors
US11312375B2 (en) Vehicle anti-collision forewarning method, system and in-vehicle computer device
CN110986930B (zh) 设备定位方法、装置、电子设备及存储介质
US10228252B2 (en) Method and apparatus for using multiple filters for enhanced portable navigation
CN112785715B (zh) 虚拟物体显示方法以及电子设备
CN112284400B (zh) 车辆的定位方法、装置、电子设备及计算机可读存储介质
CN105229490A (zh) 使用卫星可见性数据来用于提升的位置准确性
WO2021088497A1 (zh) 虚拟物体显示方法、全局地图更新方法以及设备
US20220049961A1 (en) Method and system for radar-based odometry
CN112595728B (zh) 一种道路问题确定方法和相关装置
CN117308933A (zh) 定位方法、装置、设备和介质
CN111664860B (zh) 定位方法、装置、智能设备及存储介质
CN109257501B (zh) 移动终端及调节其显示屏亮度的方法、装置、移动终端及存储介质
CN115267868B (zh) 一种定位点处理方法、装置及计算机可读存储介质
CN118011438A (zh) 一种数据处理方法、装置、计算机、存储介质及程序产品
CN111798020A (zh) 信息的处理方法、装置、存储介质及电子设备
EP4196747A1 (en) Method and system for positioning using optical sensor and motion sensors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant