CN117593892A - 真值数据的获取方法和装置、存储介质及电子设备 - Google Patents

真值数据的获取方法和装置、存储介质及电子设备 Download PDF

Info

Publication number
CN117593892A
CN117593892A CN202410081772.6A CN202410081772A CN117593892A CN 117593892 A CN117593892 A CN 117593892A CN 202410081772 A CN202410081772 A CN 202410081772A CN 117593892 A CN117593892 A CN 117593892A
Authority
CN
China
Prior art keywords
data
vehicle
vehicle condition
test
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410081772.6A
Other languages
English (en)
Other versions
CN117593892B (zh
Inventor
谢忠鑫
郑杨韬
朱子凌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foss Hangzhou Intelligent Technology Co Ltd
Original Assignee
Foss Hangzhou Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foss Hangzhou Intelligent Technology Co Ltd filed Critical Foss Hangzhou Intelligent Technology Co Ltd
Priority to CN202410081772.6A priority Critical patent/CN117593892B/zh
Publication of CN117593892A publication Critical patent/CN117593892A/zh
Application granted granted Critical
Publication of CN117593892B publication Critical patent/CN117593892B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请公开了一种真值数据的获取方法和装置、存储介质及电子设备。其中,该方法包括:获取路测数据采集设备采集到的第一车况数据;获取路测数据采集设备采集到的第二车况数据;利用场景描述信息,将第一车况数据进行场景切片处理,得到至少一个切片数据集;利用事件描述信息,对至少一个切片数据集的指定切片数据集中包括的车况数据进行事件标签处理,得到标记好的多个车况数据,其中,指定切片数据集中包括测试车辆在指定测试场景中由路测数据采集设备采集到的车况数据;基于多个车况数据获取测试车辆的车况真值数据,其中,车况真值数据用于指示测试车辆在各个测试场景中的真实车况。本申请解决了真值数据的获取效率较低的技术问题。

Description

真值数据的获取方法和装置、存储介质及电子设备
技术领域
本申请涉及自动驾驶领域,具体而言,涉及一种真值数据的获取方法和装置、存储介质及电子设备。
背景技术
在真值数据的获取场景中,通常是长时间的测试和录制,或者在整个测试/量产项目中采集大里程数据,但并不是所有的场景都需要生成真值,也不是所有的真值都适用于所有的事件,或者说耗时耗工得到的海量车况真值数据,可能并不符合粒度更细的测试需求,反而还需要再次进行车况真值数据的筛选和排查,进而导致真值数据的获取效率较低的问题出现。因此,存在真值数据的获取效率较低的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种真值数据的获取方法和装置、存储介质及电子设备,以至少解决真值数据的获取效率较低的技术问题。
根据本申请实施例的一个方面,提供了一种真值数据的获取方法,包括:获取路测数据采集设备采集到的第一车况数据,其中,上述路测数据采集设备用于采集测试车辆的至少两类车况数据,上述第一车况数据属于上述至少两类车况数据中的第一类型数据,属于上述第一类型数据的车况数据用于指示上述测试车辆在车况测试过程中表现出的车辆情况;获取上述路测数据采集设备采集到的第二车况数据,其中,上述第二车况数据属于上述至少两类车况数据中的第二类型数据,属于上述第二类型数据的车况数据用于指示上述测试车辆关联的用户,在上述测试车辆的行驶过程中所描述的车辆情况,上述第二车况数据包括场景描述信息和事件描述信息,上述场景描述信息用于描述上述测试车辆所在的测试场景,上述事件描述信息用于描述上述测试车辆在行驶过程中表现出的异常事件;利用上述场景描述信息,将上述第一车况数据进行场景切片处理,得到至少一个切片数据集,其中,相同的上述切片数据集中包括上述测试车辆在相同的上述测试场景中由上述路测数据采集设备采集到的车况数据;利用上述事件描述信息,对上述至少一个切片数据集的指定切片数据集中包括的车况数据进行事件标签处理,得到标记好的多个车况数据,其中,上述指定切片数据集中包括上述测试车辆在指定测试场景中由上述路测数据采集设备采集到的车况数据;基于上述多个车况数据获取上述测试车辆的车况真值数据,其中,上述车况真值数据用于指示上述测试车辆在各个上述测试场景中的真实车况。
根据本申请实施例的另一方面,还提供了一种真值数据的获取装置,包括:第一获取单元,用于获取路测数据采集设备采集到的第一车况数据,其中,上述路测数据采集设备用于采集测试车辆的至少两类车况数据,上述第一车况数据属于上述至少两类车况数据中的第一类型数据,属于上述第一类型数据的车况数据用于指示上述测试车辆在车况测试过程中表现出的车辆情况;第二获取单元,用于获取上述路测数据采集设备采集到的第二车况数据,其中,上述第二车况数据属于上述至少两类车况数据中的第二类型数据,属于上述第二类型数据的车况数据用于指示上述测试车辆关联的用户,在上述测试车辆的行驶过程中所描述的车辆情况,上述第二车况数据包括场景描述信息和事件描述信息,上述场景描述信息用于描述上述测试车辆所在的测试场景,上述事件描述信息用于描述上述测试车辆在行驶过程中表现出的异常事件;切片单元,用于利用上述场景描述信息,将上述第一车况数据进行场景切片处理,得到至少一个切片数据集,其中,相同的上述切片数据集中包括上述测试车辆在相同的上述测试场景中由上述路测数据采集设备采集到的车况数据;标签单元,用于利用上述事件描述信息,对上述至少一个切片数据集的指定切片数据集中包括的车况数据进行事件标签处理,得到标记好的多个车况数据,其中,上述指定切片数据集中包括上述测试车辆在指定测试场景中由上述路测数据采集设备采集到的车况数据;第三获取单元,用于基于上述多个车况数据获取上述测试车辆的车况真值数据,其中,上述车况真值数据用于指示上述测试车辆在各个上述测试场景中的真实车况。
通过路测数据采集设备采集测试车辆在车况测试过程中表现出的车辆情况,和用户在上述测试车辆的行驶过程中所描述的车辆情况,以采集到多样化的车况数据,并进一步将采集到的车况数据进行场景切片,以将车况数据按照不同的测试场景进行分类,和对场景切片后的车况数据进行事件标签,以针对特定事件进行数据筛选和分析,进而达到了聚焦真值数据的获取过程中的有效数据,并减少无效或不相关数据的干扰的目的,从而实现了提高真值数据的获取效率的技术效果,进而解决了真值数据的获取效率较低的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例提供的一种真值数据的获取方法的硬件环境示意图;
图2示意性地示出了根据本申请的交通工具(如测试车辆)的侧视图,所述交通工具被设置在行进表面(例如,铺设道路表面)上,并且能够横穿行进表面;
图3是根据本申请实施例的一种可选真值数据的获取方法的流程的示意图;
图4是根据本申请实施例的一种可选真值数据的获取方法的示意图;
图5是根据本申请实施例的一种云端的真值构建系统的框架示意图;
图6是根据本申请实施例的一种可选路采数据模块的示意图;
图7是根据本申请实施例的一种可选录音模板的示意图;
图8是根据本申请实施例的一种可选基于大语言模型的数据处理方法的示意图;
图9是根据本申请实施例的一种可选基于数据管理模块的数据处理方法的示意图;
图10是根据本申请实施例的一种可选拓扑构建方法的示意图;
图11是根据本申请实施例的一种可选拓扑排序方法的示意图;
图12是根据本申请实施例的一种可选利用序列排序进行精关联的示意图;
图13是根据本申请实施例的一种可选的真值数据的获取装置的结构示意图;
图14是根据本申请实施例的一种可选的电子设备的结构示意图。
所述附图不一定是按比例的,并且可呈现如本申请公开的本申请的各种优选特征的略微简化的表示,包括例如具体尺寸、定向、位置和形状。与此类特征相关联的细节将部分由特定预期应用和使用环境确定。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
附图呈简化形式,并且不是精确按比例的。为了方便和清楚目的,可相对于附图使用方向属于,例如,纵向、横向、顶部、底部、左、右、上、之上、上方、之下、后方和前方。这些以及类似方向属于不应被视为限制本申请的范围。此外,如本申请示出和描述的,可在缺少本申请未具体公开的元件的情况下实践本公开。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本申请实施例的一个方面,提供了一种真值数据的获取方法,可选地,作为一种可选的实施方式,上述真值数据的获取方法可以但不限于应用于如图1所示的环境中。其中,可以但不限于包括用户设备102以及服务器112,该用户设备102上可以但不限于包括显示器104、处理器106及存储器108,该服务器112包括数据库114以及处理引擎116。
具体过程可如下步骤:
步骤S102,用户设备102获取路测数据采集设备采集到的第一车况数据和第二车况数据;
步骤S104,通过网络110将第一车况数据和第二车况数据发送至服务器112;
步骤S106-S110,服务器112通过处理引擎116,利用场景描述信息,将第一车况数据进行场景切片处理,得到至少一个切片数据集,和利用事件描述信息,对至少一个切片数据集的指定切片数据集中包括的车况数据进行事件标签处理,得到标记好的多个车况数据;进一步服务器112通过处理引擎116,基于多个车况数据获取测试车辆的车况真值数据;
步骤S112,通过网络110将车况真值数据发送至用户设备102,用户设备102通过处理器106将车况真值数据显示在显示器104,并将上述车况真值数据存储在存储器108。
除图1示出的示例之外,上述终端设备可以是配置有目标客户端的终端设备。目标客户端可以是视频客户端、即时通信客户端、浏览器客户端、教育客户端等。上述网络可以包括但不限于:有线网络,无线网络,其中,该有线网络包括:局域网、城域网和广域网,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群,或者是云服务器。上述仅是一种示例,本实施例中对此不作任何限定。
如本申请使用的,术语“系统”指的是机械和电气硬件、软件、固件、电子控制部件、处理逻辑和/或处理器装置,其单独地或组合地提供所描述的功能性。这可包括但不限于专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共享、专用或组)、包含软件或固件指令的存储器、组合逻辑电路和/或其它部件。
图2(与本申请公开的实施例一致)示意性地示出了交通工具201的侧视图,交通工具201被设置在行进表面213(例如,铺设道路面)上,并且能够横穿行进表面213。交通工具201包括交通工具机载导航系统203、包括数字化道路地图204的计算机可读存储装置或介质(存储器)202、空间监测系统217、交通工具控制器209、 GPS(全球定位系统)传感器210、HMI (人/机界面)装置211,并且在一个实施例中包括自主控制器212和远程信息处理控制器214。交通工具201可包括但不限于呈商业交通工具、工业交通工具、农业交通工具、客运交通工具、飞机、船只、火车、全地形交通工具、个人移动设备、机器人和类似的形式的移动平台,以实现本公开的目的。
在一个实施例中,空间监测系统217包括:一个或多个空间传感器和系统,被布置成监测交通工具201前方的可视区域205;以及空间监测控制器218。被布置成监测交通工具201前方的可视区域205的空间传感器例如包括激光雷达传感器206、雷达传感器207、摄像头208等等。空间传感器中的每个被设置成机载于交通工具,以监测全部或部分可视区域205,以检测接近远程对象,例如,道路特征、车道标记、建筑物、行人、道路标志、交通控制灯和标志、其它交通工具以及在交通工具201近侧的地理特征。空间监测控制器218基于来自空间传感器的数据输入而生成可视区域205的数字表示。空间监测控制器218可评估来自空间传感器的输入,以鉴于每个接近远程对象而确定交通工具201的线性范围、相对速度和轨迹。空间传感器可位于交通工具201上的各种位置处,包括前拐角、后拐角、后侧和中侧。在一个实施例中,空间传感器可包括前部雷达传感器和摄像头,尽管本公开不限于此。空间传感器的放置允许空间监测控制器218监测交通流量,包括接近交通工具、交叉口、车道标记以及围绕交通工具201的其它对象。可由车道标记检测处理器(未显示)采用由空间监测控制器218生成的数据,以估测道路。交通工具空间监测系统217的空间传感器可包括对象定位感测装置,对象定位感测装置包括范围传感器,例如,FM-CW(调频连续波)雷达、脉冲和FSK(频移键控)雷达以及Lidar(光检测和测距)装置以及超声波装置,其依赖于例如多普勒效应测量的效应,以定位前方对象。可能的对象定位装置包括电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)视频图像传感器以及利用数字摄影方法以‘查看’前方对象(包括一个或多个交通工具)的其它摄像头/视频图像处理器。激光雷达传感器206采用脉冲和反射激光束,以测量到对象的范围或距离。雷达传感器207采用无线电波,以确定对象的范围、角度和/或速度。摄像头208包括图像传感器、镜头和摄像头控制器。图像传感器是采用光敏感测元件的多维阵列而将光学图像转换成电子信号的电光装置。摄像头控制器操作性地连接到图像传感器,以监测可视区域205。摄像头控制器被布置成控制图像传感器,以捕获与经由镜头投影到图像传感器上的可视区域205相关联的视场(FOV)的图像。光学镜头可被配置成包括特征,例如,针孔镜头、鱼眼镜头、立体镜头、伸缩镜头等等。摄像头208经由图像传感器以期望速率(例如,每秒30个图像文件)周期性捕获与可视区域205相关联的图像文件。每个图像文件包括以摄像头208的原始分辨率捕获的全部或部分可视区域205的2D或3D像素化数字表示。在一个实施例中,图像文件呈24位图像的形式,包括表示可视区域205的RGB(红-绿-蓝)可见光的光谱值和深度值。图像文件的其它实施例可包括处于一定分辨率水平的2D或3D图像,描绘了可视区域205的黑白或灰度可见光的光谱表示、可视区域205的红外光谱表示或其它图像表示,而没有限制。在一个实施例中,对于涉及明度和/或亮度的参数,可评估多个图像文件的图像表示。可选地,可基于RGB颜色分量、明度、纹理、轮廓或其组合而评估图像表示。图像传感器与编码器通信,编码器对于每个图像文件执行数字信号处理(DSP)。摄像头208的图像传感器可被配置成以标称标准清晰度分辨率(例如,640x480像素)捕获图像。可选地,摄像头208的图像传感器可被配置成以标称高清晰度分辨率(例如,1440x1024像素)或以另一合适的分辨率捕获图像。摄像头208的图像传感器可以预定图像捕获速率捕获静止图像或可选地捕获数字视频图像。在一个实施例中,图像文件作为编码数据文件被通信到摄像头控制器,编码数据文件被存储在非暂时性数字数据存储介质中,用于机载或非机载分析。
摄像头208有利地被安装和定位在交通工具201上处于允许捕获可视区域205的图像的位置中,其中,可视区域205的至少部分包括在交通工具201前方并且包括交通工具201的轨迹的行进表面213的部分。可视区域205还可包括周围环境,例如,包括交通工具交通、路边对象、行人和其它特征、天空、地平线、行进车道和交通工具201前方驶来的交通。还可采用其它摄像头(未显示),例如,包括被设置在交通工具201的后部分或侧部分上的第二摄像头,以监测交通工具201的后方以及交通工具201的右侧或左侧中的一个。
自主控制器212被配置成实施自主驾驶或高级驾驶员辅助系统(ADAS)交通工具功能性。此类功能性可包括能够提供一定驾驶自动化水平的交通工具机载控制系统。术语‘驾驶员’和‘操作者’描述了负责指导交通工具201的操作的人员,无论是积极参与控制一个或多个交通工具功能,还是指导自主交通工具的操作。驾驶自动化可包括一系列动态驾驶和交通工具操作。驾驶自动化可包括涉及单个交通工具功能(例如,转向、加速和/或制动)的某种水平的自动控制或干预,其中,驾驶员连续地具有交通工具201的总体控制。驾驶自动化可包括涉及多个交通工具功能(例如,转向、加速和/或制动)的同时控制的某种水平的自动控制或干预,其中,驾驶员连续地具有交通工具201的总体控制。驾驶自动化可包括交通工具驾驶功能的同时自动控制(包括转向、加速和制动),其中,驾驶员在行程期间对于一段时间周期放弃交通工具的控制。驾驶自动化可包括交通工具驾驶功能的同时自动控制(包括转向、加速和制动),其中,驾驶员对于整个行程放弃交通工具201的控制。驾驶自动化包括硬件和控制器,其被配置成在各种驾驶模式下监测空间环境,以在动态交通工具操作期间执行各种驾驶任务。通过非限制性示例的方式,驾驶自动化可包括巡航控制、自适应巡航控制、车道变换警告、干预和控制、自动停车、加速、制动和类似。通过非限制性示例的方式,自主交通工具功能包括自适应巡航控制(ACC)操作、车道引导和车道保持操作、车道变换操作、转向辅助操作、对象避让操作、停车辅助操作、交通工具制动操作、交通工具速度和加速操作、交通工具横向运动操作,例如,作为车道引导、车道保持和车道变换操作等等的部分。如此,制动命令可通过自主控制器212独立于通过交通工具操作者的动作并且响应于自主控制功能而生成。
操作者控制件可被包括在交通工具201的乘客舱中,并且通过非限制性示例的方式可包括方向盘、加速器踏板、制动踏板和操作者输入装置,操作者输入装置是HMI装置211的元件。
HMI装置211提供人机交互,用于指导信息娱乐系统、GPS (全球定位系统)传感器210、机载导航系统203和类似的操作的目的,并且包括控制器。
机载导航系统203采用数字化道路地图204,用于向交通工具操作者提供导航支持和信息的目的。自主控制器212采用数字化道路地图204,用于控制自主交通工具操作或ADAS交通工具功能的目的。
交通工具201可包括远程信息处理控制器214,远程信息处理控制器214包括能够进行交通工具外通信(包括与具有无线和有线通信能力的通信网络215通信)的无线远程信息处理通信系统。远程信息处理控制器214能够进行交通工具外通信,包括短程交通工具对于交通工具(V2V)通信和/或交通工具对于外界(V2x)通信,其可包括与基础设施监测器(例如,交通摄像头)的通信。可选地或附加地,远程信息处理控制器214具有无线远程信息处理通信系统,无线远程信息处理通信系统能够与手持装置(例如,蜂窝电话、卫星电话或另一电话装置)短程无线通信。在一个实施例中,手持装置包括软件应用,软件应用包括无线协议,以与远程信息处理控制器214通信,并且手持装置执行交通工具外通信,包括经由通信网络215与非机载服务器216通信。可选地或附加地,远程信息处理控制器214通过经由通信网络215与非机载服务器216通信而直接执行交通工具外通信。
术语“控制器”和相关术语(例如,微控制器、控制单元、处理器和类似的术语)指的是以下中的一个或各种组合:(多个)专用集成电路(ASIC)、现场可编程门阵列(FPGA)、(多个)电子电路、(多个)中央处理单元,例如,(多个)微处理器和呈存储器和存储装置(只读、可编程只读、随机存取、硬盘驱动等等)的形式的(多个)相关联的非暂时性存储器部件(由存储器202指示)。非暂时性存储器部件能够呈以下形式存储机器可读指令:一个或多个软件或固件程序或例程、(多个)组合逻辑电路、(多个)输入/输出电路和装置、信号调节和缓冲电路系统以及可由一个或多个处理器存取的其它部件,以提供所描述的功能性。(多个)输入/输出电路和装置包括监测来自传感器的输入的模拟/数字转换器和相关装置,其中,以预设采样频率或响应于触发事件而监测此类输入。软件、固件、程序、指令、控制例程、代码、算法和类似的术语意味着控制器可执行指令集,包括校准和查找表。每个控制器执行(多个)控制例程,以提供期望功能。
如本申请使用的,术语‘动态’和‘动态地’描述了实时执行的步骤或过程,并且其特征在于监测或以其它方式确定参数的状态,并且在例程的执行期间或在例程的执行的迭代之间定期或周期性地更新参数的状态。
可选地,作为一种可选的实施方式,如图3所示,真值数据的获取方法可以由电子设备执行,该电子设备例如可以是如图1所示的用户设备或服务器,具体步骤包括:
S302,获取路测数据采集设备采集到的第一车况数据,其中,路测数据采集设备用于采集测试车辆的至少两类车况数据,第一车况数据属于至少两类车况数据中的第一类型数据,属于第一类型数据的车况数据用于指示测试车辆在车况测试过程中表现出的车辆情况;
S304,获取路测数据采集设备采集到的第二车况数据,其中,第二车况数据属于至少两类车况数据中的第二类型数据,属于第二类型数据的车况数据用于指示测试车辆关联的用户,在测试车辆的行驶过程中所描述的车辆情况,第二车况数据包括场景描述信息和事件描述信息,场景描述信息用于描述测试车辆所在的测试场景,事件描述信息用于描述测试车辆在行驶过程中表现出的异常事件;
S306,利用场景描述信息,将第一车况数据进行场景切片处理,得到至少一个切片数据集,其中,相同的切片数据集中包括测试车辆在相同的测试场景中由路测数据采集设备采集到的车况数据;
S308,利用事件描述信息,对至少一个切片数据集的指定切片数据集中包括的车况数据进行事件标签处理,得到标记好的多个车况数据,其中,指定切片数据集中包括测试车辆在指定测试场景中由路测数据采集设备采集到的车况数据;
S310,基于多个车况数据获取测试车辆的车况真值数据,其中,车况真值数据用于指示测试车辆在各个测试场景中的真实车况。
可选地,在本实施例中,上述真值数据的获取方法可以但不限于应用在自动驾驶技术领域,自动驾驶技术需要高度准确和可靠的车况真值数据来训练和优化算法模型,为算法模型的训练、验证和优化提供了高效的数据支持,进而有助于提高自动驾驶系统的安全性和性能,确保应用自动驾驶技术的车辆在各种道路和场景中的安全性和稳定性。
进一步举例说明,可选地例如在自动驾驶测试车辆上安装路测数据采集设备,用于同时采集至少两类车况数据。第一类数据可能包括车辆的速度、加速度、方向等运动状态信息,以及传感器(如雷达、激光雷达、摄像头等)捕获的环境感知数据。第二类数据则是由测试车辆关联的用户(例如驾驶员或测试工程师)提供的场景描述信息和事件描述信息,用于记录行驶过程中的重要事件和异常情况。
可选地,利用场景描述信息,将采集到的第一类车况数据进行场景切片处理。这意味着根据不同的测试场景(如城市道路、高速公路、复杂交通场景等)将数据进行分类和整理。这样做有助于更好地理解在不同场景下自动驾驶系统的表现,并针对特定场景进行算法优化。
而根据事件描述信息,对特定场景切片数据集中的车况数据进行事件标签处理。这包括标记出自动驾驶系统在不同事件(如行人突然出现、车辆切入车道等)下的响应和表现。这些标签可以用于后续的数据分析和模型训练,以提高自动驾驶系统在类似事件下的处理能力和安全性。
进一步可选地,基于标记好的多个车况数据,可以构建和训练自动驾驶算法模型。这些数据反映了真实道路环境中的各种场景和事件,有助于算法模型学习到更贴近实际驾驶情况的行为和决策逻辑。同时,这些数据也可以用于验证算法模型的准确性和性能,以确保在实际应用中的可靠性和安全性。通过分析标记好的车况数据,可以发现自动驾驶系统在不同场景和事件下的性能瓶颈和问题。基于这些信息,可以对算法进行优化和改进,以提高系统的整体性能和安全性。这种迭代优化的过程需要不断地获取新的车况真值数据来验证和评估算法的效果。
可选地,在本实施例中,获取了测试车辆的至少两类车况数据,包括用于指示测试车辆在车况测试中的表现的第一类型数据,以及用于指示测试车辆关联的用户在行驶过程中描述的车辆情况的第二类型数据。这种多样化的数据采集方式可以更全面地反映测试车辆在不同场景和事件下的真实车况。
可选地,在本实施例中,利用场景描述信息,将第一车况数据进行场景切片处理,得到至少一个切片数据集。这意味着将车况数据按照不同的测试场景进行分类,有助于后续更精确地分析和处理特定场景下的车况数据。
可选地,在本实施例中,通过事件描述信息,对指定切片数据集中的车况数据进行事件标签处理,得到标记好的多个车况数据。这样,可以直接针对特定事件进行数据筛选和分析,提高了数据处理的针对性和效率。
可选地,在本实施例中,基于标记好的多个车况数据获取测试车辆的车况真值数据,这些数据是在各个测试场景中测试车辆的真实车况反映。由于经过了场景切片和事件标签处理,这些数据更加聚焦于反映真实车况,减少了无效或不相关数据的干扰。
需要说明的是,本实施例通过多样化的数据采集、场景切片处理、事件标签处理以及聚焦有效数据的方式,提高了真值数据的获取效率。使得数据处理更加有针对性,能够更快速地获取到符合细粒度测试需求的车况真值数据。
进一步举例说明,可选的例如图4所示,获取路测数据采集设备采集到的第一车况数据404,其中,路测数据采集设备用于采集测试车辆402的至少两类车况数据,第一车况数据404属于至少两类车况数据中的第一类型数据,属于第一类型数据的车况数据用于指示测试车辆402在车况测试过程中表现出的车辆情况;获取路测数据采集设备采集到的第二车况数据406,其中,第二车况数据406属于至少两类车况数据中的第二类型数据,属于第二类型数据的车况数据用于指示测试车辆402关联的用户,在测试车辆402的行驶过程中所描述的车辆情况,第二车况数据406包括场景描述信息和事件描述信息,场景描述信息用于描述测试车辆402所在的测试场景,事件描述信息用于描述测试车辆402在行驶过程中表现出的异常事件;利用场景描述信息,将第一车况数据404进行场景切片处理,得到至少一个切片数据集408,其中,相同的切片数据集408中包括测试车辆402在相同的测试场景中由路测数据采集设备采集到的车况数据;利用事件描述信息,对至少一个切片数据集408的指定切片数据集408中包括的车况数据进行事件标签处理,得到标记好的多个车况数据410,其中,指定切片数据集408中包括测试车辆402在指定测试场景中由路测数据采集设备采集到的车况数据;基于多个车况数据410获取测试车辆402的车况真值数据412,其中,车况真值数据412用于指示测试车辆402在各个测试场景中的真实车况。
通过本申请提供的实施例,通过路测数据采集设备采集测试车辆在车况测试过程中表现出的车辆情况,和用户在测试车辆的行驶过程中所描述的车辆情况,以采集到多样化的车况数据,并进一步将采集到的车况数据进行场景切片,以将车况数据按照不同的测试场景进行分类,和对场景切片后的车况数据进行事件标签,以针对特定事件进行数据筛选和分析,进而达到了聚焦真值数据的获取过程中的有效数据,并减少无效或不相关数据的干扰的目的,从而实现了提高真值数据的获取效率的技术效果。
作为一种可选的方案,获取路测数据采集设备采集到的第二车况数据,包括:
S1-1,获取路测数据采集设备采集到的录音音频数据,其中,录音音频数据为测试车辆关联的用户根据预先配置的录音模板进行录音时采集到的音频数据,录音模板是由测试场景的第一关键词和异常事件的第二关键词构成的;
S1-2,利用第一关键词和第二关键词,对录音音频数据中的信息进行实体识别,得到场景描述信息和事件描述信息。
可选地,在本实施例中,录音音频数据是由测试车辆关联的用户根据预先配置的录音模板进行录音时采集到的音频数据。换句话说,录音音频数据可以但不限是用户在特定情境下按照某种指引或格式进行的录音。
而本实施例中的录音模板可以但不限理解为,用于指导用户如何进行录音的工具或指引信息,录音模板可以由测试场景的第一关键词和异常事件的第二关键词构成的,其中,第一关键词为与测试场景相关的关键词,用于帮助用户描述当前的测试场景,第二关键词为与异常事件相关的关键词,用于帮助用户描述在测试中遇到的异常或重要事件。
需要说明的是,本实施例可以有效地从录音音频数据中提取出与测试场景和异常事件相关的信息。这些信息为产品或服务的改进提供了有力的依据,帮助开发者或制造商识别并解决潜在的问题,使得真值数据的获取过程更加标准化和系统化,进而提高真值数据的获取效率。
通过本申请提供的实施例,获取路测数据采集设备采集到的录音音频数据,其中,录音音频数据为测试车辆关联的用户根据预先配置的录音模板进行录音时采集到的音频数据,录音模板是由测试场景的第一关键词,和异常事件的第二关键词构成的;利用第一关键词和第二关键词,对录音音频数据中的信息进行实体识别,得到场景描述信息和事件描述信息,进而达到了使得真值数据的获取过程更加标准化和系统化的目的,从而实现了提高真值数据的获取效率的技术效果。
作为一种可选的方案,利用第一关键词和第二关键词,对录音音频数据中的信息进行实体识别,得到场景描述信息和事件描述信息,包括:
S2-1,对录音音频数据进行语音识别,得到录音音频数据对应的全量文本信息;
S2-2,按照全量文本信息中的各个文本信息,与第一关键词和第二关键词之间的关联关系,从全量文本信息中确定出描述文本信息,其中,描述文本信息包括场景描述信息和事件描述信息。
可选地,在本实施例中,语音识别是指将音频数据转化为文本数据的技术,其核心任务是将输入的音频信号转换为相应的文本输出。语音识别系统的工作原理可以但不限基于深度学习模型,尤其是循环神经网络(RNN)、长短时记忆网络(LSTM)和Transformer等。这些模型经过大量音频数据的训练,学会识别和转换不同的语音模式和音调。同时,为了进行语音识别,可以先对音频数据进行预处理,如降噪、分帧等。然后,使用声学模型将音频转换为音素或音节的表示,再使用语言模型将这些音素或音节组合成可能的词或句子。最后,通过搜索算法找到最可能的文本输出。
可选地,在本实施例中,全量文本信息为通过语音识别得到的、与录音音频数据相对应的全部文本信息。描述文本信息为从全量文本信息中筛选出的、包含了场景描述信息和事件描述信息的文本信息。
需要说明的是,录音音频数据中有效地提取出场景描述信息和事件描述信息,以帮助本实施例更深入地了解测试车辆在各种实际使用场景中的表现和可能遇到的问题。通过对这些信息的分析,本实施例可以发现测试车辆的潜在问题和改进空间,从而进行针对性的优化和改进,提高了提高车辆测试的准确性。
通过本申请提供的实施例,对录音音频数据进行语音识别,得到录音音频数据对应的全量文本信息;按照全量文本信息中的各个文本信息,与第一关键词和第二关键词之间的关联关系,从全量文本信息中确定出描述文本信息,其中,描述文本信息包括场景描述信息和事件描述信息,发现测试车辆的潜在问题和改进空间,从而进行针对性的优化和改进,进而达到了精准定位问题的关键数据的目的,从而实现了提高车辆测试的准确性的技术效果。
作为一种可选的方案,对录音音频数据进行语音识别,得到录音音频数据对应的全量文本信息,包括:
S3-1,将录音音频数据中的音频信号切分为预设时间长度的多个音频片段;
S3-2,对多个音频片段进行词嵌入处理,得到多个音频片段之间的上下文信息;
S3-3,结合上下文信息对录音音频数据进行语音识别,得到全量文本信息。
可选地,在本实施例中,音频信号切分是指将一段连续的音频数据分割成若干段较短的片段。在语音识别的应用中,由于长时间的音频可能包含大量的信息,直接对整个音频进行处理可能会导致计算复杂度高、识别效果差。因此,将音频切分为较小的片段有助于更高效地处理和分析音频数据。切分的方法可以基于时间窗口,例如每固定时间段(如30秒、1分钟等)切分一次,也可以根据音频内容的特征进行切分,如静音段、能量变化等。
可选地,在本实施例中,词嵌入(Word Embedding)是自然语言处理中的一个概念,用于表示词汇或词汇的语义信息为实数构成的向量。这些向量捕捉了词汇之间的相似性和关系。在音频处理中,词嵌入的思想可以被应用来表示音频片段的语义内容。具体来说,每个音频片段可以被转化为一个高维向量,这个向量是在一个预训练的模型(如深度学习模型)中得到的,代表了这个音频片段的语义信息。这个过程通常被称为“音频嵌入”或“声音嵌入”。
可选地,在本实施例中,在语音识别和自然语言处理中,上下文信息指的是词汇、句子或段落之间的语义关联和相互依赖。在连续的语音或文本中,前后文往往为当前的内容提供了丰富的线索和背景知识。例如,在句子“我在商店里买了一瓶牛奶”中,“牛奶”这个词的识别和理解受益于前面的“商店”和“买了”这些上下文信息。同样地,在音频数据中,上下文信息可以帮助本实施例更准确地识别和理解当前的音频片段。
需要说明的是,切分音频为多个片段并结合上下文信息进行识别,可以捕捉到更多的细节和语义信息,从而提高识别的准确性。此外,词嵌入处理也使得模型能够更好地理解音频内容,进一步增强了识别的效果,可以更准确地从录音音频数据中获取全量文本信息。
通过本申请提供的实施例,将录音音频数据中的音频信号切分为预设时间长度的多个音频片段;对多个音频片段进行词嵌入处理,得到多个音频片段之间的上下文信息;结合上下文信息对录音音频数据进行语音识别,得到全量文本信息,进而达到了更准确地从录音音频数据中获取全量文本信息的目的,从而实现了提高全量文本信息的准确性的技术效果。
作为一种可选的方案,基于多个车况数据获取测试车辆的车况真值数据,包括:
S4-1,在多个车况数据为测试车辆在车况测试过程中被采集到的多个图像帧所构建的数据集的情况下,对多个车况数据中属于关键帧的图像数据进行抽取处理,得到多个初始关键帧数据,其中,关键帧为包含三维信息的图像帧;
S4-2,在对多个初始关键帧数据进行真值标注的情况下,将多个初始关键帧数据输入真值构建模型进行训练,直至得到训练好的真值构建模型,其中,真值构建模型用于将输入的图像数据处理为真值数据,真值数据用于指示有效对象在输入的图像数据中的真实情况,测试车辆属于有效对象;
S4-3,将多个车况数据输入训练好的真值构建模型,得到车况真值数据,其中,车况真值数据用于指示至少两个有效对象在多个车况数据中的真实情况,至少两个有效对象包括测试车辆。
可选地,在本实施例中,在多个车况数据中,并不是每一帧都包含同样丰富或有价值的信息。有些帧可能只捕捉到了静态的道路或背景信息,而有些帧则可能捕捉到了正在移动的车辆、行人或其他重要的交通事件。这些包含特定重要信息或事件的帧被称为关键帧。例如,当一个行人突然出现在车辆前方时,捕捉到这个行人的那一帧就是一个关键帧。关键帧的识别与选择对于后续的数据处理和模型训练尤为重要,因为它们包含了更多的动态和有价值的信息。
可选地,在本实施例中,为了训练和验证感知算法(如目标检测、跟踪等),本实施例需要知道某些对象在图像中的“真实”位置或状态,这些信息被称为“真值”。然而,获取这些真值通常需要人工标注,这是一个昂贵且耗时的过程。为了解决这个问题,可以使用真值构建模型。这是一个机器学习模型,其任务是自动从原始图像数据中提取出有效对象的真值信息。例如,给定一个包含车辆的图像,真值构建模型可以自动标注出车辆的位置、大小等信息。
可选地,在本实施例中,利用真值构建模型处理多个车况数据后得到的数据称为车况真值数据。这些数据为自动驾驶系统中的感知算法提供了关于车辆周围环境中有效对象(如其他车辆、行人等)的真实情况。与原始的多个车况数据相比,车况真值数据更为简洁和结构化,便于感知算法进行处理和理解。
需要说明的是,通过关键帧抽取、真值构建模型和自动化处理等手段,有效解决了基于车况真值数据的模型评测效率较低的问题,降低了人力成本,提高了处理速度,使得模型评测更加高效和准确。
通过本申请提供的实施例,采用多个车况数据中进行关键帧抽取的方式,仅处理包含三维信息的图像帧,减少了需要处理的数据量,从而降低了计算复杂度和人力成本。以及,通过训练真值构建模型,自动将输入的图像数据处理为真值数据,从而减少了人工标注真值数据的需求。由此可见,本实施例在整个过程中,从关键帧抽取、真值构建模型训练到模型评测,都是自动化进行的,进而达到了减少了人工干预,提高了整体处理速度的目的,从而实现了提高真值数据的获取效率的技术效果。
作为一种可选的方案,在将多个车况数据输入训练好的真值构建模型,得到车况真值数据之后,方法还包括:
S5-1,以测试车辆为起点,按照与测试车辆之间由近至远的距离,将至少两个有效对象进行拓扑构建,得到至少两个有效对象在各个图像帧之间的拓扑关系;
S5-2,在将多个车况数据输入待评测的目标跟踪模型,得到跟踪结果的情况下,利用拓扑关系与跟踪结果之间的匹配程度,对目标跟踪模型进行模型评测,得到评测指标,其中,目标跟踪模型用于识别和跟踪有效对象的位置和运动轨迹,跟踪结果为目标跟踪模型对至少两个有效对象进行识别和跟踪后得到的预估结果,评测指标用于衡量目标跟踪模型的预估准确性,匹配程度与预估准确性之间呈正相关关系。
可选地,在本实施例中,拓扑关系描述了有效对象之间的空间相对位置关系。例如,如果两辆车正在同一条道路上行驶,并且一辆车在另一辆车的前面,那么这两辆车之间就存在一个特定的拓扑关系。这种关系可以帮助本实施例更好地理解道路上的交通情况,从而做出更为合理和安全的决策。例如,当知道前方有一辆车时,自动驾驶系统可能会提前减速或变道以避免碰撞。
需要说明的是,通过关键帧抽取、真值构建模型、拓扑关系构建和自动化处理等手段,有效解决了基于车况真值数据的模型评测效率较低的问题,降低了人力成本,提高了处理速度,使得模型评测更加高效和准确。
通过本申请提供的实施例,采用多个车况数据中进行关键帧抽取的方式,仅处理包含三维信息的图像帧,减少了需要处理的数据量,从而降低了计算复杂度和人力成本。以及,通过训练真值构建模型,自动将输入的图像数据处理为真值数据,从而减少了人工标注真值数据的需求。进一步利用拓扑关系对目标跟踪模型进行评测,通过分析有效对象在各个图像帧之间的拓扑关系,更准确地衡量目标跟踪模型的预估准确性。由此可见,本实施例在整个过程中,从关键帧抽取、真值构建模型训练到拓扑关系构建和模型评测,都是自动化进行的,进而达到了减少了人工干预,提高了整体处理速度的目的,从而实现了提高基于车况真值数据的模型评测效率的技术效果。
作为一种可选的方案,以测试车辆为起点,按照与测试车辆之间由近至远的距离,将至少两个有效对象进行拓扑构建,得到至少两个有效对象在各个图像帧之间的拓扑关系,包括:
对各个图像帧中的有效对象执行以下步骤,直至得到各个图像帧的拓扑关系:
S6-1,将测试车辆作为起始节点,构建第一连通域,其中,第一连通域包括起始节点;
S6-2,从至少两个有效对象的位于第一连通域外的各个有效对象中,确定出距离第一连通域最近的第一有效对象;
S6-3,将第一有效对象作为第一连通节点,构建第二连通域,其中,第二连通域包括具有连接关系的起始节点和第一连通节点;
S6-4,从至少两个有效对象的位于第二连通域外的各个有效对象中,确定出距离第二连通域最近的第二有效对象;
S6-5,将第二有效对象作为第二连通节点,构建第三连通域,其中,第二连通域包括具有连接关系的起始节点、第一连通节点,和第二连通节点;
S6-6,在至少两个有效对象的各个有效对象都已作为节点加入第三连通域中的情况下,按照连接关系,将第三连通域中的各个节点加入有序队列中,其中,有序队列中有序排列的各个节点用于表示拓扑关系。
可选地,在本实施例中,连通域可以但不限指的是由相互连接的有效对象组成的区域,用来描述在一组对象中,哪些对象是相互连接的,从而构成一个独立的、相对完整的组群。
以一个简单的二维平面为例,如果有效对象是点,那么连通域就是由相互连接的点组成的区域。在这个区域中,任何一个点都可以通过连续的连接与其他点相连。在本实施例中的拓扑构建过程中,起始节点(例如测试车辆)构成第一连通域。然后,其他有效对象根据与起始节点的距离依次加入到连通域中,形成更大的连通域。最后,所有有效对象都加入到一个大连通域中,构成了一个结构化的空间关系网络。
此外,本实施例的连通域概念还可以拓展到更复杂的情况,例如三维空间中的连通域、考虑速度和方向等因素下的时空连通域等。通过建立这样的连通域,可以更好地理解和描述一组对象之间的连接关系和相对位置关系,为自动驾驶系统提供更丰富的环境信息。
需要说明的是,通过本实施例的拓扑构建方法,可以更为清晰地了解测试车辆与其他有效对象之间的相对位置关系,形成一个结构化的空间关系网络,进而为自动驾驶系统提供更丰富的环境信息,有助于车辆更为准确地判断其周围环境,从而做出更为合理和安全的驾驶决策。例如,如果知道某辆车突然快速接近,那么自动驾驶系统可能会提前做出避让或减速的决策。
进一步举例说明,可选的假设在一段多个车况数据中,测试车辆是A,除了A之外还有三个有效对象:B、C和D。首先,A作为起始节点,构成第一连通域。接着,假设B是离A最近的对象,那么B作为第一连通节点加入,形成第二连通域。然后,如果C是离第二连通域最近的对象,C作为第二连通节点加入,形成第三连通域。最后,D也加入其中。这些对象按照它们与测试车辆A的距离顺序排列在有序队列中,从而得到了这些对象之间的拓扑关系。
通过本申请提供的实施例,对各个图像帧中的有效对象执行以下步骤,直至得到各个图像帧的拓扑关系:将测试车辆作为起始节点,构建第一连通域,其中,第一连通域包括起始节点;从至少两个有效对象的位于第一连通域外的各个有效对象中,确定出距离第一连通域最近的第一有效对象;将第一有效对象作为第一连通节点,构建第二连通域,其中,第二连通域包括具有连接关系的起始节点和第一连通节点;从至少两个有效对象的位于第二连通域外的各个有效对象中,确定出距离第二连通域最近的第二有效对象;将第二有效对象作为第二连通节点,构建第三连通域,其中,第二连通域包括具有连接关系的起始节点、第一连通节点,和第二连通节点;在至少两个有效对象的各个有效对象都已作为节点加入第三连通域中的情况下,按照连接关系,将第三连通域中的各个节点加入有序队列中,其中,有序队列中有序排列的各个节点用于表示拓扑关系,进而达到了清晰地了解测试车辆与其他有效对象之间的相对位置关系的目的,从而实现了提高车辆测试的准确性的技术效果。
作为一种可选的方案,在利用拓扑关系与跟踪结果之间的匹配程度,对目标跟踪模型进行模型评测,得到评测指标之前,方法还包括:
S7-1,获取跟踪结果中各个图像帧对应的跟踪对象,与各个图像帧对应的有序队列之间的匹配信息;
S7-2,在匹配信息指示多个图像帧中的第一图像帧对应的跟踪对象,与对应的有序队列不匹配的情况下,为目标跟踪模型分配第一图像帧对应的误检标签,其中,误检标签用于指示目标跟踪模型对第一图像帧中的有效对象进行识别和跟踪后得到的预估结果准确性低于预设精度;
S7-3,在匹配信息指示多个图像帧中的第二图像帧对应的跟踪对象,与对应的有序队列不匹配的情况下,对第二图像帧对应的跟踪对象进行深度评测。
可选地,在本实施例中,除了简单的匹配与否,深度评测还可以包括分析跟踪对象的位置、速度、大小等属性与拓扑关系中对应对象的差异,从而更全面地评估目标跟踪模型的性能。此外,误检标签还可以进一步细化,例如分为“完全误检”、“部分误检”等,以提供更详细的反馈。
需要说明的是,本实施例提供了一个更为细致和全面的模型评测机制。通过检查跟踪结果与拓扑关系的匹配程度,可以更容易地识别出目标跟踪模型在哪些图像帧上出现了问题。误检标签和深度评测帮助研发人员更准确地定位模型的不足之处,从而进行针对性的改进,有助于提高目标跟踪模型的准确性和可靠性,为自动驾驶系统提供更为鲁棒的环境感知能力。
进一步举例说明,可选地假设本实施例有10个图像帧的跟踪结果。通过比较这10个图像帧的跟踪对象与拓扑关系中的有序队列,发现第5个图像帧的跟踪对象与有序队列不匹配。于是,本实施例为目标跟踪模型在这第5个图像帧上分配一个误检标签。接着,本实施例又发现第8个图像帧的跟踪对象也不匹配,这时本实施例对这个图像帧的跟踪对象进行深度评测。
通过本申请提供的实施例,获取跟踪结果中各个图像帧对应的跟踪对象,与各个图像帧对应的有序队列之间的匹配信息;在匹配信息指示多个图像帧中的第一图像帧对应的跟踪对象,与对应的有序队列不匹配的情况下,为目标跟踪模型分配第一图像帧对应的误检标签,其中,误检标签用于指示目标跟踪模型对第一图像帧中的有效对象进行识别和跟踪后得到的预估结果准确性低于预设精度;在匹配信息指示多个图像帧中的第二图像帧对应的跟踪对象,与对应的有序队列不匹配的情况下,对第二图像帧对应的跟踪对象进行深度评测,进而达到了帮助研发人员更准确地定位模型的不足之处,从而进行针对性的改进的目的,从而实现了提高目标跟踪模型的准确性和可靠性的技术效果。
作为一种可选的方案,对第二图像帧对应的跟踪对象进行深度评测,包括:
S8-1,获取匹配信息指示的,与各个图像帧对应的跟踪对象相匹配的多个第一节点,和与各个图像帧对应的跟踪对象不匹配的多个第二节点;
S8-2,统计各个图像帧,多个第一节点与各个图像帧对应的跟踪对象的匹配次数;
S8-3,按照匹配次数对各个图像帧对应的跟踪对象进行排序,得到跟踪对象序列;
S8-4,利用跟踪对象序列对第二图像帧对应的跟踪对象,和多个第二节点进行深度评测。
可选地,在本实施例中,深度评测不仅仅局限于位置匹配,还可以考虑速度、方向等多种因素。例如,即使两个节点位置相近,但如果速度差异很大,本实施例仍然可以认为它们不匹配。此外,第二节点的存在可能意味着跟踪模型在某些情况下出现了误检或漏检,因此对这些节点的深度评测也是非常重要的。
需要说明的是,深度评测为本实施例提供了关于目标跟踪模型性能的更为深入的了解。通过匹配次数的统计和排序,本实施例可以清楚地看到哪些跟踪对象是稳定的,哪些可能是误检的。这有助于本实施例更准确地评估模型的性能,并针对具体问题进行调整和优化。此外,通过对第二节点的深度评测,本实施例还可以进一步了解模型在复杂场景下的表现,从而为其提供更多的改进方向,有助于提高目标跟踪模型的精度和鲁棒性,为自动驾驶系统提供更为可靠的环境感知信息。
进一步举例说明,可选的假设在第二图像帧中,本实施例的跟踪对象是一个车辆。深度评测时,首先找出与此车辆匹配的第一节点,例如5个,和不匹配的第二节点,例如3个。接着,统计这5个第一节点在其他图像帧中与跟踪对象的匹配次数,可能得到次数分别为10、8、12、15和7。根据这些次数,本实施例得到一个跟踪对象序列。最后,利用这个序列对第二图像帧的车辆进行跟踪和评测,同时也对那3个不匹配的第二节点进行深度评测。
通过本申请提供的实施例,获取匹配信息指示的,与各个图像帧对应的跟踪对象相匹配的多个第一节点,和与各个图像帧对应的跟踪对象不匹配的多个第二节点;统计各个图像帧,多个第一节点与各个图像帧对应的跟踪对象的匹配次数;按照匹配次数对各个图像帧对应的跟踪对象进行排序,得到跟踪对象序列;利用跟踪对象序列对第二图像帧对应的跟踪对象,和多个第二节点进行深度评测,进而达到了帮助研发人员更准确地定位模型的不足之处,从而进行针对性的改进的目的,从而实现了提高目标跟踪模型的准确性和可靠性的技术效果。
作为一种可选的方案,对多个车况数据中属于关键帧的图像数据进行抽取处理,得到多个初始关键帧数据,包括:
S9-1,对多个车况数据中等时间等间隔抽取,得到图像数据集;
S9-2,将图像数据集中属于关键帧的图像数据,作为初始关键帧数据,得到多个初始关键帧数据。
可选地,在本实施例中,等时间等间隔抽取可以但不限理解为按照固定的时间间隔从多个车况数据中抽取图像,如假设原多个车况数据的帧率为每秒30帧,那么等时间等间隔抽取就是每隔1秒抽取一帧。这样可以得到一个与原多个车况数据时长相同,但帧数较少的图像数据集。这个数据集只包含关键帧,因为关键帧通常能更好地反映道路状况和车辆行为。等时间等间隔抽取的优点在于它能够有效地减少数据量,同时保留了关键信息。
需要说明的是,通过对关键帧的抽取和处理,本实施例得到了多个初始关键帧数据。这些数据提供了道路上重要事件或对象的基本信息。进一步地,本实施例可以利用这些初始关键帧数据来训练和验证自动驾驶系统中的感知算法,如目标检测、跟踪等,有助于更为高效地利用多个车况数据,提高自动驾驶系统的感知能力。
进一步举例说明,可选的假设有一个时长为1分钟的车况视频,每秒有30帧图像。本实施例可以每隔1秒(即30帧)抽取一帧,得到一个包含60帧的图像数据集。接着,从这60帧中,挑选出10帧作为关键帧,这些关键帧即为本实施例中的初始关键帧数据。
通过本申请提供的实施例,对多个车况数据进行等时间等间隔抽取,得到图像数据集;将图像数据集中属于关键帧的图像数据,作为初始关键帧数据,得到多个初始关键帧数据,进而达到了帮助研发人员更准确地定位模型的不足之处,从而进行针对性的改进的目的,从而实现了提高目标跟踪模型的准确性和可靠性的技术效果。
作为一种可选的方案,在将图像数据集中属于关键帧的图像数据,作为初始关键帧数据,得到多个初始关键帧数据之前,方法还包括:
S10-1,从图像数据集中获取关键信息,其中,关键信息包括通过三维采集设备捕获到的三维点,三维点在三维空间中一组点的集合中具有对应的三维坐标位置信息;
S10-2,将关键信息的来源确定为属于关键帧的图像数据。
可选地,在本实施例中,三维空间是一个具有长度、宽度和高度三个维度的空间,与实际的物理空间相对应。在这个空间中,每一个位置都可以通过三个数值(即x、y、z三个坐标)来唯一确定。再者,三维点是这个三维空间中的一个具体位置。每个三维点都有其在空间中的特定位置,这个位置是通过三个坐标值来描述的。例如,一个三维点可能被描述为(2, 3, 4),这表示该点在x轴上的位置是2,在y轴上的位置是3,在z轴上的位置是4。而一组点的集合意味着在三维空间中有多个这样的点。这些点可能代表物体、地形、障碍物等。每个点在这个集合中都是唯一的,并且都有各自的三维坐标位置信息。
换言之,具有对应的三维坐标位置信息是说,每一个三维点都有其在空间中的精确定位。这个定位是通过三个坐标值(x, y, z)来实现的。这些坐标值可以被测量和记录,从而精确地描述该点在空间中的位置。例如,通过激光雷达或其他三维扫描设备,可以捕获到这些点的精确坐标位置信息。
需要说明的是,通过获取和确定关键信息,本实施例得到了更为丰富和准确的初始关键帧数据。这些数据不仅可以用于训练和验证自动驾驶系统中的感知算法,还可以为其他任务(如路径规划、决策制定等)提供有力的支持,提高了自动驾驶系统对于复杂和动态环境的感知能力,从而增强了系统的安全性和可靠性。
进一步举例说明,可选的假设有一个交通监控图像数据集,其中包含多辆车、行人等。通过三维采集设备(如激光雷达),本实施例可以得到这些车辆和行人在三维空间中的精确位置。这些数据就是所谓的“关键信息”。如果这些数据来源于某个关键帧,那么这个关键帧中的图像数据就被视为初始关键帧数据。
通过本申请提供的实施例,从图像数据集中获取关键信息,其中,关键信息包括通过三维采集设备捕获到的三维点,三维点在三维空间中一组点的集合中具有对应的三维坐标位置信息;将关键信息的来源确定为属于关键帧的图像数据,进而达到了帮助研发人员更准确地定位模型的不足之处,从而进行针对性的改进的目的,从而实现了提高目标跟踪模型的准确性和可靠性的技术效果。
作为一种可选的方案,本实施例涉及到自动驾驶技术领域,尤其是涉及到自动驾驶数据处理链路,数据闭环,数据挖掘,真值系统,人工智能等技术领域,具体涉及适用于紧耦合数据闭环系统中,用于场景挖掘,自动驾驶数据解析及真值系统构建,以及模型评测的方法。
自动驾驶中的数据闭环一直提升各种算法,尤其是感知算法的关键所在。在提升感知性能的过程中,一方面需要更多高价值的场景生成真值,作为模型训练与迭代的来源,一方面高价值的连续帧场景,也是评价模型性能的关键。
片段场景的真值,目前主要通过多种传感器采集的数据,通过模型生成,主要描述了场景内动态/静态目标在连续帧片段中每一时刻的位置以及其目标ID。构建真值可以在各个维度描述场景的具体信息,后续可以通过单帧/连续帧/多传感器信息,来支持各种模型的优化。
在生成真值的过程中,从数据采集开始,通过自动化链路自动实现数据的高价值切片管理,单帧数据的抽帧与聚合,真值构建与模型评测,需要一套完整的自动化链路作为支撑,以替代其中繁复的人工操作。
而现有的真值的自动化链路主要包括以下问题:
问题1:真值车采集的数据,往往是长时间录制,或者在整个测试/量产项目中采集的大里程数据,并不是所有的场景都需要生成真值,而筛选有价值的片段进行真值构建,才能更好的迭代算法。当前有的一些切片,主要基于人工,或者一些数据挖掘逻辑,没有有效的利用采集员的记录高效生成高价值片段。
问题2:云端生成场景真值片段的过程中,尤其是动态目标的真值,一些真值系统只有目标的位置和尺寸信息,而不具备连续帧的ID信息等;同时大多数的真值系统,完全依赖于真值模型进行构建,其非常依赖模型的检测/跟踪精度,面对复杂或者特殊场景,或者一些较远距离模型检测精度较低的位置,会导致部分目标无法检测从而无法获取真值。
问题3:大多数送标数据往往来自于路采数据,但是作为单帧送标以后,只能用于模型训练/评测,而没有有效放置在原有的连续帧片段中;同时数据挖掘往往在场景筛选过程中使用,以提升场景的价值,但是送标数据的也缺少相关的一些统计分析,来支持送标数据的价值评估。
可选地,本实施例为解决上述问题1,对于数据挖掘部分,除了传统的人工切片等方式,本实施例在路采的时候额外增加一些语音录制,采集员会在遇到高价值场景的时候,进行录音,描述场景信息;在云端,会基于ASR(语音识别)解析录音,基于里面的时间信息进行相应的数据切片;同时通过GPT大模型提取里面的关键词信息生成标签,可以做到快速将采集的大里程数据进行高价值场景切片提取,并且生成标签,上传云端进行保存。
可选地,本实施例为解决上述问题2,对于真值生成部分,本实施例会针对片段进行抽帧,以抽帧数据送去标注。这样,一方面标注数据本身可以支持真值模型的训练提升,也可以用于车端模型训练;另一方面,送标的数据本身就是片段中的关键帧,可以在映射回原有片段以后,基于少量关键帧,通过时序的真值模型,推导整个片段真值。相比于其他方案纯粹基于模型的真值生成,云端基于少量标注数据构建的真值这个可以得到更好的真值结果,同时减少大量真值标注的复杂性和人力成本。
可选地,本实施例为解决上述问题3,在数据挖掘选择高价值片段之后的部分,本实施例对抽帧数据做一些统计分析,动态调整送标数据的场景/目标类型等分布,更好的提升送标数据质量;也会着重标注一些较为复杂的场景,以便更好的支持相对复杂片段的真值构建。
需要说明的是,本实施例设计了一种适用于云端构建真值的自动化链路系统。相比于真值车构建,可以更好的利用云端的大算力,及片段的前后帧信息,构建高质量的片段真值。
本实施例还设计了一种更为便捷的高价值场景切片系统。通过驾驶员/采集员在路试过程中的语音记录切片信息,在云端分析语音信息,进行相应的数据切片,以及数据标签生成,可以更为高效的从海量的路试数据中筛选符合问题需求的高价值数据,而非简单的通过规则挖掘出的数据;同时可以省去记录员的记录,基于记录信息切片,打标的繁复操作,通过云端的NLP模型可以快速生成高价值场景上云和标签管理。
此外,本实施例在真值构建中,通过片段抽帧生成少量的标注数据,一方面标注数据本身来源于高价值场景,可以更好的帮助云端/车端模型进行训练和优化。另一方面,标注数据来自高价值片段,在构建真值的过程中,标注数据的绝对真值性,可以更好的辅助真值算法构建连续帧场景的真值。相比于传统纯粹通过真值算法构建真值的方法,本实施例提出的方法可以极大程度提升真值的可靠性。
再者,本实施例除了在筛选片段的时候进行高价值场景筛选,在抽帧组成送标数据后,会基于现有云端大模型,对数据进行统计分析,获得送标数据分布。基于当前优化方向,将会动态调整送标数据的分布,更好的保证送标数据的价值。
进一步举例说明,可选的云端的真值构建系统如图5所示,真值构建系统由数据采集模块,数据管理模块,真值构建模块,模型评测模块及模型评测模块组成,其中,数据采集模块用于采集构建真值所需要的相关传感器数据,以及辅助云端数据管理的必要数据,如录音数据;数据管理模块用于基于大里程路采数据的数据筛选过程,挖掘出高价值场景并切片,通过GPT大模型基于录音数据为切片打上标签,进行数据管理;真值构建系统用于通过少量标注数据及云端真值模型,构建连续帧片段真值的模块;模型评测模块用于通过将片段的传感器数据送给待评测模型,将输出结果与真值进行对比评测的模块。
可选地,在本实施例中,如图6所示,在路采数据模块中,真值车将会采集多种传感器数据,其中包括激光雷达,摄像头,GNSS,IMU等多种传感器数据。在采集之前,真值车需要对所有的传感器进行授时同步,保证所有的传感器在统一的授时环境下运行。其次在采集的过程中,考虑到激光雷达(通常为360度旋转式激光雷达)与摄像头需要在同一时刻进行曝光,则需要在硬件上进行同步曝光触发,保证在激光雷达扫描到摄像头对应FOV时,摄像头同步触发曝光采集对应的图像信息,便于后续真值生成。GNSS,IMU等由于工作频率较高,则可以不需要考虑触发同步。这些传感器数据会打包成路采数据包,后续上传至云端处理。
除了采集传感器数据,路采数据模块也提供给驾驶员/采集员音频录制工具。该录制工具同样需要与其他传感器同步授时。在数据采集的过程中,驾驶员/采集员会通过自身判断场景是否为所需求的高价值场景,并在该场景触发时或者之后,进行录音。录音可以由驾驶员/采集员说出问题发生的具体时间以及场景的部分描述信息,也可以不记录时间,通过录音的具体时间作为场景触发的时间。此外,路采数据及相关录音文件,会在上传云端的时候,统一进入数据挖掘模块进行分析与切片。
可选地,在本实施例中,区别与传统的数据挖掘,本实施例除了提供基于人工的切片选择方式以外,主要是通过录音文件进行场景的切片和打标工作。首先,在路采数据模块中,驾驶员/采集员会根据图7所示的录音模板进行录音,录音模板是由时间,地点,相关问题等描述场景的关键词构成。通过录音模板,在后续的GPT大语言模型的实体抽取阶段,录音数据会作为更加清晰的引导来帮助GPT模型进行提示词抽取和实体识别。
其次,路采数据模块会分析所有的录音文件,通过ASR(语音识别)模块,对所有录音文件进行语音识别,将音频转换为文本信息;然后由云端的GPT大模型,通过prompt分析,按照设定的云端标签模板,解析文本信息并转换为对应的标签信息。
而路采数据模块中的语音识别模型,可以但不限基于Transformer模块,首先会将语音文件的语音信号进行切分为T时间长度的片段,通过一个多层卷积网络对语音信号进行词嵌入(embedding)。然后将词嵌入通过一个Transformer架构获取联系上下文的表示,帮助本实施例获得联系上下文的信息。最后本实施例随机初始化一个映射层将本实施例联系上下文的表示在标注数据上进行微调,然后在给定的语料库当中进行预测,得到语音识别的结果。
此外,原始的路采数据通过语音识别模型后,会基于云端GPT大语言模型的实体抽取结果,进行相关的切片操作。GPT大语言模型是集成了多种语言任务的模型,通过语音识别模型的结果,因为语音模板的存在,可以让GPT模型进行命名实体识别的任务,帮助本实施例抽取标签。通过人工输入提示词,并采取特定的策略引导GPT输出本实施例根据语音识别结果需要的信息,例如本实施例给定GPT一段语音识别的结果,并且GPT大语言模型以指定的格式,输出本实施例需要的信息,以结构化的形式进行输出。
进一步举例说明,可选地例如图8所示,通过GPT大语言模型提取的结果,判断该问题场景是否包含时间信息,如果包含时间信息,则可以在该时间节点与已经提取的元数据信息(如起始时间)进行切片操作;如果该时间不存在,一般记录问题的时间通常会稍晚于问题发生的节点,所以通过该语音文件生成的时间,向前推导半分钟到一分钟时间,作为切片的时间对原始数据进行切片。其余实体抽取的结果可与云端设定的标签模板一一对应进行标签填充。切片数据会调取接口上传至云端存储服务器(如对象存储等)。基于GPT生成的标签信息,切片的元数据及标签信息会上传至数据库进行保存管理,便于后续查询使用。
可选地,在本实施例中,真值构建模块可以但不限用于对片段进行连续帧的真值构建。该真值包括动态障碍物(车辆,行人,二轮车等)在每一帧的位置,尺寸,运动信息,以及在连续帧中的目标ID信息进行准确的真值生成;静态目标,如车道线,路沿,交通标识,交通灯等的位置信息标注等。
具体的,真值可以是由少量人工标注数据,以及基于深度学习大模型进行构建。进一步举例说明,可选地例如图9所示,基于数据管理模块,从待标注的片段中等时间等间隔抽取少量的单帧数据,包含图像和点云,其中,点云(Point Cloud)是一种从三维扫描系统、各类感应器或者其他源中收集的大量空间中某一点的数据。这些点通常在三维坐标系统(如笛卡尔坐标系或球面坐标系)中定义,并可能包含颜色或其他属性。点云数据可以包括大量的数据点,每个点具有X、Y、Z坐标,以及其他可能的属性,如反射强度、激光束质量、颜色等。
进一步上述抽帧数据会被标记为关键帧,将其存储在数据库当中,赋予相应的关键帧标签。在构建真值的过程中,这些关键帧的标注真值,可以辅助真值算法进行真值构建,从而获取相对于纯算法推导更为准确的场景真值信息,且标注数据一方面可以辅助优化真值,另一方面可作为真值构建大模型的数据源,优化训练模型,使得真值系统是一个可演进式系统。
而真值模型主要用于对于连续帧片段,包括图像/激光等传感器检测到的动态和静态障碍物,进行目标检测,跟踪,轨迹优化等,最终生成连续帧片段的所有下游算法需要的真值构建。该模块生成的真值会进行粗优化和轨迹匹配两个阶段去优化真值。粗优化真值阶段会对完全基于大模型和追踪生成的结果与有少量真值的关键帧做对比,如果该帧不为关键帧则完全运用模型结果,如果为关键帧,则会人工校验,进行漏检和误检后处理。经过粗优化阶段的真值,会进入精优化阶段,即轨迹优化。轨迹优化会将大片段和真值帧进行划分,形成小片段,然后再小片段当中进行目标追踪,重召回及轨迹优化,然后进行前后小片段串联。通过轨迹优化,可以更好的在3D空间优化目标运动的轨迹,航向角和尺寸,补充模型能力之外的目标真值信息。
进一步在获取对应的真值后,由于图像,点云等采集频率的不同,在不同的测试任务中,会需要不同频率的真值信息。通过对上述生成的真值进行上采样/下采样,可以获得不同评测任务所需要的真值。
可选地,在本实施例中,模型评测模块可以用于基于真值,对模型进行评测,从而得到模型在该片段下的评测表现。在评测之前,本实施例会对本实施例生成的真值进行拓扑匹配。在二维(Two-Dimensional,简称2D)的目标追踪评测中,完全基于真值跟待评测模型输出的目标进行交并比(Intersection over Union,简称IOU)计算,然后匹配,但是在三维(Three-Dimensional,简称3D)目标值追踪当中,有深度信息,当目标位于自车位置较远处,深度信息就会存在很大的误差,导致直接计算IOU也会存在很大的问题。所以本实施例在模型评测第一步是先基于真值进行拓扑排序,其中,IOU计算用于评估预测的边界框(bounding box)与真实边界框(ground truth bounding box)的匹配程度。
进一步举例说明,可选地,例如图10所示,本实施例对于每一单帧,由近到远,从自车出发进行拓扑构建。先以自车为最小连通域,寻找连通域外检测的车bbox(boundingbox)中心点到连通域内任何节点距离最小的bbox,连接当前节点与目标车,并将其加入连通域。不断的通过此方式,将所有的真值检测的车通过拓扑连接关系,加入到连通域当中。拓扑构建完成之后,如图11所示,本实施例从自车节点出发,通过拓扑排序方式,不断将节点加入到队列当中,与待评测模型输出的检测结果进行IOU匹配,选取最大IOU节点进行关联,如果待评测模型输出的检测结果与真值节点的IOU都为0,则计算待评测模型输出的检测结果的bbox的中心点与真值节点bbox中心点的距离,如果小于某个阈值,则认为匹配。当真值一个节点关联完成后,弹出队列,直至真值所有的节点匹配完毕。
可选地,在本实施例中,基于上面拓扑排序的结果,本实施例会将真值节点与待评测模型输出的目标进行粗匹配。但是通过第一步拓扑排序,会存在待评测模型输出的目标在某一帧没有真值跟他关联,这种情况得分开讨论,一种是确实待评测模型在该帧检测的该个目标是误检,还有一种情况是待评测模型检测的该目标在真值是有节点与其匹配的,只不过该目标因为深度估计不准确的原因,简单的利用IOU或者bbox中心点距离无法进行匹配。针对后一种情况,本实施例需要利用序列排序进行精关联,如图12所示。即,基于拓扑排序的结果,选取任意一个已经匹配的真值目标的完整的序列,从第一帧匹配开始,统计匹配的待评测ID的次数,作为匹配ID列表,并按照匹配次数多少进行排序。
在序列前后(未匹配上片段),分别按时间顺序,进行逐帧匹配,序列开头以第一关联帧为起始向前逐帧匹配,序列结尾以最后关联帧为起始帧向后匹配。例如,待评测目标通过拓扑排序在初始连续7帧与真值ID为1的目标匹配,但是从第8帧开始一直到末尾帧(例第12帧)该待评测目标没有真值目标与之匹配,本实施例会基于前7帧与该目标匹配的真值目标ID的匹配次数从大到小进行选取ID与该待测目标匹配,例如前7帧待评测模型ID为1的目标都与真值ID为1的目标匹配,那么本实施例同样认为第8帧至第12帧该待测目标依旧与真值ID为1的目标匹配。但是如果待检测模型的该目标在第8帧开始已经不存在了,那么本实施例就以新的目标进行匹配操作。
可选地,在本实施例中,首先待评测模型会读取真值的传感器信息,如图像,车身数据等,进行推理获取模型的输出。模型输出结果会与真值构建生成的片段真值进行对应时间戳下,目标的匹配映射,然后进行对比,得到每一个待评测目标(障碍物,静态目标)等的评测指标,如mAP,距离,速度,ID稳定性以及深度信息等评测。
模型追踪评测的核心评测指标包括,FN(漏检),FP(误检),MOTA(多目标跟踪的准确度),MOTP(多目标跟踪的精确度),IDs(目标ID跳变),Precision(精确率),Recall(召回率),Previous_FN,post_FN,其中,多目标跟踪的准确度,用于统计在跟踪过程中的误差积累,计算方式来源于FN,FP,IDs等,可为负值;多目标跟踪的精确度,体现在确定目标位置上的精确度,用于衡量目标位置确定的精确度;Previous_FN,代表某个目标前一帧检测到,该帧未检测到,可衡量模型对目标检测跟踪的稳定性;Post_FN,代表某个目标当前帧未检测到,下一帧检测到,可衡量模型对目标检测跟踪的稳定性;在模型评测模块当中,Previous_FN和Post_FN是从IDs当中进行拆分的,IDs代表目标ID跳变,即前后帧目标ID不一致,但是会存在某个目标前一帧没被跟踪到但是当前帧跟踪到,或当前帧没被跟踪到,下一帧被跟踪到了的情况,这两种情况也会被视为IDs,但是这种方式不那么准确。因为这两种情况都可衡量模型的稳定性,也可评判不同版本模型效果,例如某个版本模型相对于上个版本Previous_FN降低,或者Post_FN降低,则可从侧面说明该版本模型在对目标追踪的稳定性上有所提升;目标深度评测,主要运用相对误差REL,均方误差RMSE。主要计算真值像素点深度信息与预测像素点深度信息,具体公式如下:
可选地,在本实施例中,真值车采集时间同步后的车身数据,以及摄像头自身帧率20HZ的图像,激光雷达自身帧率10HZ的激光雷达点云数据。
可选地,在本实施例中,通过驾驶员在发生问题场景时录制的语音,对原始数据进行切片,每个切片为20s的片段;同时基于语音信息,获取片段的标签,用于数据管理和筛选。
可选地,在本实施例中,对于所有切片的数据解析点云和图像数据,可通过是否含有点云和图像主题(topic)判断该切片数据是否存在问题,如果存在无点云或图像数据的问题,则丢弃该切片数据,然后统一进行抽帧,抽帧频率为每10秒3帧,每个片段6帧。该抽帧数据包含图像和点云数据,以及对应的内外参信息。
可选地,在本实施例中,所有抽帧数据会通过云端感知场景大模型,该模型会输出场景分布信息,及目标分布信息,基于模型迭代需求,动态调整送标数据集,以片段为单位。
可选地,在本实施例中,送标数据进行标注以后,一方面作为训练数据,支持真值模型,即云端目标检测、跟踪深度学习大模型的迭代和优化。另一方面,标注数据及标注结果会插入回原有片段关键帧,辅助优化真值。
可选地,在本实施例中,基于片段关键帧的标注信息,以及真值模型,自动化生成整个20s片段每一帧的真值,以激光雷达的频率为准。真值包含每一个障碍物的检测框,距离,速度,ID等信息,以及静态目标的检测及ID信息。
可选地,在本实施例中,待检测模型会读取片段中解析的传感器数据,生成模型推理结果。该结果会与真值进行匹配后,对模型的每一个检测结果进行评价,输出评价指标后用于模型优化。
通过本申请提供的实施例,可以更好的利用云端的算力优势,及片段的前后帧信息,构建高质量的片段真值。可以更为高效的从海量的路试数据中筛选符合问题需求的高价值数据,而非简单的通过规则挖掘出的数据;同时可以省去记录员的记录,基于记录信息切片,打标的繁复操作,通过云端的NLP模型可以快速生成高价值场景上云和标签管理。可以更好的辅助真值算法构建连续帧场景的真值。基于当前优化方向,将会动态调整送标数据的分布,更好的保证送标数据的价值。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
根据本申请实施例的另一个方面,还提供了一种用于实施上述真值数据的获取方法的真值数据的获取装置。如图13所示,该装置包括:
第一获取单元1302,用于获取路测数据采集设备采集到的第一车况数据,其中,路测数据采集设备用于采集测试车辆的至少两类车况数据,第一车况数据属于至少两类车况数据中的第一类型数据,属于第一类型数据的车况数据用于指示测试车辆在车况测试过程中表现出的车辆情况;
第二获取单元1304,用于获取路测数据采集设备采集到的第二车况数据,其中,第二车况数据属于至少两类车况数据中的第二类型数据,属于第二类型数据的车况数据用于指示测试车辆关联的用户,在测试车辆的行驶过程中所描述的车辆情况,第二车况数据包括场景描述信息和事件描述信息,场景描述信息用于描述测试车辆所在的测试场景,事件描述信息用于描述测试车辆在行驶过程中表现出的异常事件;
切片单元1306,用于利用场景描述信息,将第一车况数据进行场景切片处理,得到至少一个切片数据集,其中,相同的切片数据集中包括测试车辆在相同的测试场景中由路测数据采集设备采集到的车况数据;
标签单元1308,用于利用事件描述信息,对至少一个切片数据集的指定切片数据集中包括的车况数据进行事件标签处理,得到标记好的多个车况数据,其中,指定切片数据集中包括测试车辆在指定测试场景中由路测数据采集设备采集到的车况数据;
第三获取单元1310,用于基于多个车况数据获取测试车辆的车况真值数据,其中,车况真值数据用于指示测试车辆在各个测试场景中的真实车况。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,第二获取单元1304,包括:
第一获取模块,用于获取路测数据采集设备采集到的录音音频数据,其中,录音音频数据为测试车辆关联的用户根据预先配置的录音模板进行录音时采集到的音频数据,录音模板是由测试场景的第一关键词,和异常事件的第二关键词构成的;
识别模块,用于利用第一关键词和第二关键词,对录音音频数据中的信息进行实体识别,得到场景描述信息和事件描述信息。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,识别模块,包括:
识别子模块,用于对录音音频数据进行语音识别,得到录音音频数据对应的全量文本信息;
第一确定子模块,用于按照全量文本信息中的各个文本信息,与第一关键词和第二关键词之间的关联关系,从全量文本信息中确定出描述文本信息,其中,描述文本信息包括场景描述信息和事件描述信息。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,识别子模块,包括:
切分子单元,用于将录音音频数据中的音频信号切分为预设时间长度的多个音频片段;
嵌入子单元,用于对多个音频片段进行词嵌入处理,得到多个音频片段之间的上下文信息;
结合子单元,用于结合上下文信息对录音音频数据进行语音识别,得到全量文本信息。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,第三获取单元1310,包括:
抽取模块,用于在多个车况数据为测试车辆在车况测试过程中被采集到的多个图像帧所构建的数据集的情况下,对多个车况数据中属于关键帧的图像数据进行抽取处理,得到多个初始关键帧数据,其中,关键帧为包含三维信息的图像帧;
训练模块,用于在对多个初始关键帧数据进行真值标注的情况下,将多个初始关键帧数据输入真值构建模型进行训练,直至得到训练好的真值构建模型,其中,真值构建模型用于将输入的图像数据处理为真值数据,真值数据用于指示有效对象在输入的图像数据中的真实情况,测试车辆属于有效对象;
构建模块,用于将多个车况数据输入训练好的真值构建模型,得到车况真值数据,其中,车况真值数据用于指示至少两个有效对象在多个车况数据中的真实情况,至少两个有效对象包括测试车辆。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,装置还包括:
拓扑模块,用于在将多个车况数据输入训练好的真值构建模型,得到车况真值数据之后,以测试车辆为起点,按照与测试车辆之间由近至远的距离,将至少两个有效对象进行拓扑构建,得到至少两个有效对象在各个图像帧之间的拓扑关系;
第一评测模块,用于在将多个车况数据输入训练好的真值构建模型,得到车况真值数据之后,在将多个车况数据输入待评测的目标跟踪模型,得到跟踪结果的情况下,利用拓扑关系与跟踪结果之间的匹配程度,对目标跟踪模型进行模型评测,得到评测指标,其中,目标跟踪模型用于识别和跟踪有效对象的位置和运动轨迹,跟踪结果为目标跟踪模型对至少两个有效对象进行识别和跟踪后得到的预估结果,评测指标用于衡量目标跟踪模型的预估准确性,匹配程度与预估准确性之间呈正相关关系。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,拓扑模块,包括:
执行子模块,用于对各个图像帧中的有效对象执行以下步骤,直至得到各个图像帧的拓扑关系:
将测试车辆作为起始节点,构建第一连通域,其中,第一连通域包括起始节点;
从至少两个有效对象的位于第一连通域外的各个有效对象中,确定出距离第一连通域最近的第一有效对象;
将第一有效对象作为第一连通节点,构建第二连通域,其中,第二连通域包括具有连接关系的起始节点和第一连通节点;
从至少两个有效对象的位于第二连通域外的各个有效对象中,确定出距离第二连通域最近的第二有效对象;
将第二有效对象作为第二连通节点,构建第三连通域,其中,第二连通域包括具有连接关系的起始节点、第一连通节点,和第二连通节点;
在至少两个有效对象的各个有效对象都已作为节点加入第三连通域中的情况下,按照连接关系,将第三连通域中的各个节点加入有序队列中,其中,有序队列中有序排列的各个节点用于表示拓扑关系。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,装置还包括:
第二获取模块,用于在利用拓扑关系与跟踪结果之间的匹配程度,对目标跟踪模型进行模型评测,得到评测指标之前,获取跟踪结果中各个图像帧对应的跟踪对象,与各个图像帧对应的有序队列之间的匹配信息;
分配模块,用于在利用拓扑关系与跟踪结果之间的匹配程度,对目标跟踪模型进行模型评测,得到评测指标之前,在匹配信息指示多个图像帧中的第一图像帧对应的跟踪对象,与对应的有序队列不匹配的情况下,为目标跟踪模型分配第一图像帧对应的误检标签,其中,误检标签用于指示目标跟踪模型对第一图像帧中的有效对象进行识别和跟踪后得到的预估结果准确性低于预设精度;
第二评测模块,用于在利用拓扑关系与跟踪结果之间的匹配程度,对目标跟踪模型进行模型评测,得到评测指标之前,在匹配信息指示多个图像帧中的第二图像帧对应的跟踪对象,与对应的有序队列不匹配的情况下,对第二图像帧对应的跟踪对象进行深度评测。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,第二评测模块,包括:
第一获取子模块,用于获取匹配信息指示的,与各个图像帧对应的跟踪对象相匹配的多个第一节点,和与各个图像帧对应的跟踪对象不匹配的多个第二节点;
统计子模块,用于统计各个图像帧,多个第一节点与各个图像帧对应的跟踪对象的匹配次数;
排序子模块,用于按照匹配次数对各个图像帧对应的跟踪对象进行排序,得到跟踪对象序列;
评测子模块,用于利用跟踪对象序列对第二图像帧对应的跟踪对象,和多个第二节点进行深度评测。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,抽取模块,包括:
抽取子模块,用于对多个车况数据中等时间等间隔抽取,得到图像数据集;
第二确定子模块,用于将图像数据集中属于关键帧的图像数据,作为初始关键帧数据,得到多个初始关键帧数据。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
作为一种可选的方案,装置还包括:
第二获取子模块,用于在将图像数据集中属于关键帧的图像数据,作为初始关键帧数据,得到多个初始关键帧数据之前,从图像数据集中获取关键信息,其中,关键信息包括通过三维采集设备捕获到的三维点,三维点在三维空间中一组点的集合中具有对应的三维坐标位置信息;
第三确定子模块,用于在将图像数据集中属于关键帧的图像数据,作为初始关键帧数据,得到多个初始关键帧数据之前,将关键信息的来源确定为属于关键帧的图像数据。
具体实施例可以参考上述真值数据的获取方法中所示示例,本示例中在此不再赘述。
根据本申请实施例的又一个方面,还提供了一种用于实施上述真值数据的获取方法的电子设备,该电子设备可以是图14所示的终端设备或服务器。本实施例以该电子设备为例来说明。如图14所示,该电子设备包括存储器1402和处理器1404,该存储器1402中存储有计算机程序,该处理器1404被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,本领域普通技术人员可以理解,图14所示的结构仅为示意图14其并不对上述电子设备的结构造成限定。例如,电子设备还可包括比图14中所示更多或者更少的组件(如网络接口等),或者具有与图14所示不同的配置。
其中,存储器1402可用于存储软件程序以及模块,如本申请实施例中的真值数据的获取方法和装置对应的程序指令/模块,处理器1404通过运行存储在存储器1402内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的真值数据的获取方法。存储器1402可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1402可进一步包括相对于处理器1404远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器1402具体可以但不限于用于存储物品的样本特征与目标虚拟资源账号等信息。
可选地,上述的传输装置1406用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1406包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1406为射频(Radio Frequency,RF)模块,其用于通过无线方式在互联网上进行通讯。
此外,上述电子设备还包括:显示器1408,用于显示上述第一车况数据、第二车况数据和车况真值数据;和连接总线1410,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。根据本申请的一个方面,提供了一种计算机可读存储介质,计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述真值数据的获取方法。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (14)

1.一种真值数据的获取方法,其特征在于,包括:
获取路测数据采集设备采集到的第一车况数据,其中,所述路测数据采集设备用于采集测试车辆的至少两类车况数据,所述第一车况数据属于所述至少两类车况数据中的第一类型数据,属于所述第一类型数据的车况数据用于指示所述测试车辆在车况测试过程中表现出的车辆情况;
获取所述路测数据采集设备采集到的第二车况数据,其中,所述第二车况数据属于所述至少两类车况数据中的第二类型数据,属于所述第二类型数据的车况数据用于指示所述测试车辆关联的用户,在所述测试车辆的行驶过程中所描述的车辆情况,所述第二车况数据包括场景描述信息和事件描述信息,所述场景描述信息用于描述所述测试车辆所在的测试场景,所述事件描述信息用于描述所述测试车辆在行驶过程中表现出的异常事件;
利用所述场景描述信息,将所述第一车况数据进行场景切片处理,得到至少一个切片数据集,其中,相同的所述切片数据集中包括所述测试车辆在相同的所述测试场景中由所述路测数据采集设备采集到的车况数据;
利用所述事件描述信息,对所述至少一个切片数据集的指定切片数据集中包括的车况数据进行事件标签处理,得到标记好的多个车况数据,其中,所述指定切片数据集中包括所述测试车辆在指定测试场景中由所述路测数据采集设备采集到的车况数据;
基于所述多个车况数据获取所述测试车辆的车况真值数据,其中,所述车况真值数据用于指示所述测试车辆在各个所述测试场景中的真实车况。
2.根据权利要求1所述的方法,其特征在于,所述获取所述路测数据采集设备采集到的第二车况数据,包括:
获取所述路测数据采集设备采集到的录音音频数据,其中,所述录音音频数据为所述测试车辆关联的用户根据预先配置的录音模板进行录音时采集到的音频数据,所述录音模板是由所述测试场景的第一关键词,和所述异常事件的第二关键词构成的;
利用所述第一关键词和所述第二关键词,对所述录音音频数据中的信息进行实体识别,得到所述场景描述信息和所述事件描述信息。
3.根据权利要求2所述的方法,其特征在于,所述利用所述第一关键词和所述第二关键词,对所述录音音频数据中的信息进行实体识别,得到所述场景描述信息和所述事件描述信息,包括:
对所述录音音频数据进行语音识别,得到所述录音音频数据对应的全量文本信息;
按照所述全量文本信息中的各个文本信息,与所述第一关键词和所述第二关键词之间的关联关系,从所述全量文本信息中确定出描述文本信息,其中,所述描述文本信息包括所述场景描述信息和所述事件描述信息。
4.根据权利要求3所述的方法,其特征在于,所述对所述录音音频数据进行语音识别,得到所述录音音频数据对应的全量文本信息,包括:
将所述录音音频数据中的音频信号切分为预设时间长度的多个音频片段;
对所述多个音频片段进行词嵌入处理,得到所述多个音频片段之间的上下文信息;
结合所述上下文信息对所述录音音频数据进行语音识别,得到所述全量文本信息。
5.根据权利要求1所述的方法,其特征在于,所述基于所述多个车况数据获取所述测试车辆的车况真值数据,包括:
在所述多个车况数据为所述测试车辆在车况测试过程中被采集到的多个图像帧所构建的数据集的情况下,对所述多个车况数据中属于关键帧的图像数据进行抽取处理,得到多个初始关键帧数据,其中,所述关键帧为包含三维信息的图像帧;
在对所述多个初始关键帧数据进行真值标注的情况下,将所述多个初始关键帧数据输入真值构建模型进行训练,直至得到训练好的真值构建模型,其中,所述真值构建模型用于将输入的图像数据处理为真值数据,所述真值数据用于指示有效对象在所述输入的图像数据中的真实情况,所述测试车辆属于所述有效对象;
将所述多个车况数据输入所述训练好的真值构建模型,得到所述车况真值数据,其中,所述车况真值数据用于指示至少两个有效对象在所述多个车况数据中的真实情况,所述至少两个有效对象包括所述测试车辆。
6.根据权利要求5所述的方法,其特征在于,在所述将所述多个车况数据输入所述训练好的真值构建模型,得到所述车况真值数据之后,所述方法还包括:
以所述测试车辆为起点,按照与所述测试车辆之间由近至远的距离,将所述至少两个有效对象进行拓扑构建,得到所述至少两个有效对象在各个所述图像帧之间的拓扑关系;
在将所述多个车况数据输入待评测的目标跟踪模型,得到跟踪结果的情况下,利用所述拓扑关系与所述跟踪结果之间的匹配程度,对所述目标跟踪模型进行模型评测,得到评测指标,其中,所述目标跟踪模型用于识别和跟踪所述有效对象的位置和运动轨迹,所述跟踪结果为所述目标跟踪模型对所述至少两个有效对象进行识别和跟踪后得到的预估结果,所述评测指标用于衡量所述目标跟踪模型的预估准确性,所述匹配程度与所述预估准确性之间呈正相关关系。
7.根据权利要求6所述的方法,其特征在于,所述以所述测试车辆为起点,按照与所述测试车辆之间由近至远的距离,将所述至少两个有效对象进行拓扑构建,得到所述至少两个有效对象在各个所述图像帧之间的拓扑关系,包括:
对各个所述图像帧中的有效对象执行以下步骤,直至得到各个所述图像帧的所述拓扑关系:
将所述测试车辆作为起始节点,构建第一连通域,其中,所述第一连通域包括所述起始节点;
从所述至少两个有效对象的位于所述第一连通域外的各个有效对象中,确定出距离所述第一连通域最近的第一有效对象;
将所述第一有效对象作为第一连通节点,构建第二连通域,其中,所述第二连通域包括具有连接关系的所述起始节点和所述第一连通节点;
从所述至少两个有效对象的位于所述第二连通域外的各个有效对象中,确定出距离所述第二连通域最近的第二有效对象;
将所述第二有效对象作为第二连通节点,构建第三连通域,其中,所述第二连通域包括具有所述连接关系的所述起始节点、所述第一连通节点,和所述第二连通节点;
在所述至少两个有效对象的各个有效对象都已作为节点加入所述第三连通域中的情况下,按照所述连接关系,将所述第三连通域中的各个节点加入有序队列中,其中,所述有序队列中有序排列的各个节点用于表示所述拓扑关系。
8.根据权利要求7所述的方法,其特征在于,在所述利用所述拓扑关系与所述跟踪结果之间的匹配程度,对所述目标跟踪模型进行模型评测,得到评测指标之前,所述方法还包括:
获取所述跟踪结果中各个所述图像帧对应的跟踪对象,与各个所述图像帧对应的所述有序队列之间的匹配信息;
在所述匹配信息指示所述多个图像帧中的第一图像帧对应的跟踪对象,与对应的有序队列不匹配的情况下,为所述目标跟踪模型分配所述第一图像帧对应的误检标签,其中,所述误检标签用于指示所述目标跟踪模型对所述第一图像帧中的有效对象进行识别和跟踪后得到的预估结果准确性低于预设精度;
在所述匹配信息指示所述多个图像帧中的第二图像帧对应的跟踪对象,与对应的有序队列不匹配的情况下,对所述第二图像帧对应的跟踪对象进行深度评测。
9.根据权利要求8所述的方法,其特征在于,所述对所述第二图像帧对应的跟踪对象进行深度评测,包括:
获取所述匹配信息指示的,与各个所述图像帧对应的跟踪对象相匹配的多个第一节点,和与各个所述图像帧对应的跟踪对象不匹配的多个第二节点;
统计各个所述图像帧,所述多个第一节点与各个所述图像帧对应的跟踪对象的匹配次数;
按照所述匹配次数对各个所述图像帧对应的跟踪对象进行排序,得到跟踪对象序列;
利用所述跟踪对象序列对所述第二图像帧对应的跟踪对象,和所述多个第二节点进行深度评测。
10.根据权利要求5所述的方法,其特征在于,所述对所述多个车况数据中属于关键帧的图像数据进行抽取处理,得到多个初始关键帧数据,包括:
对所述多个车况数据中等时间等间隔抽取,得到图像数据集;
将所述图像数据集中属于所述关键帧的图像数据,作为所述初始关键帧数据,得到所述多个初始关键帧数据。
11.根据权利要求10所述的方法,其特征在于,在所述将所述图像数据集中属于所述关键帧的图像数据,作为所述初始关键帧数据,得到所述多个初始关键帧数据之前,所述方法还包括:
从所述图像数据集中获取关键信息,其中,所述关键信息包括通过三维采集设备捕获到的三维点,所述三维点在三维空间中一组点的集合中具有对应的三维坐标位置信息;
将所述关键信息的来源确定为属于所述关键帧的图像数据。
12.一种真值数据的获取装置,其特征在于,包括:
第一获取单元,用于获取路测数据采集设备采集到的第一车况数据,其中,所述路测数据采集设备用于采集测试车辆的至少两类车况数据,所述第一车况数据属于所述至少两类车况数据中的第一类型数据,属于所述第一类型数据的车况数据用于指示所述测试车辆在车况测试过程中表现出的车辆情况;
第二获取单元,用于获取所述路测数据采集设备采集到的第二车况数据,其中,所述第二车况数据属于所述至少两类车况数据中的第二类型数据,属于所述第二类型数据的车况数据用于指示所述测试车辆关联的用户,在所述测试车辆的行驶过程中所描述的车辆情况,所述第二车况数据包括场景描述信息和事件描述信息,所述场景描述信息用于描述所述测试车辆所在的测试场景,所述事件描述信息用于描述所述测试车辆在行驶过程中表现出的异常事件;
切片单元,用于利用所述场景描述信息,将所述第一车况数据进行场景切片处理,得到至少一个切片数据集,其中,相同的所述切片数据集中包括所述测试车辆在相同的所述测试场景中由所述路测数据采集设备采集到的车况数据;
标签单元,用于利用所述事件描述信息,对所述至少一个切片数据集的指定切片数据集中包括的车况数据进行事件标签处理,得到标记好的多个车况数据,其中,所述指定切片数据集中包括所述测试车辆在指定测试场景中由所述路测数据采集设备采集到的车况数据;
第三获取单元,用于基于所述多个车况数据获取所述测试车辆的车况真值数据,其中,所述车况真值数据用于指示所述测试车辆在各个所述测试场景中的真实车况。
13.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序被处理器运行时执行所述权利要求1至11任一项中所述的方法。
14.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至11任一项中所述的方法。
CN202410081772.6A 2024-01-19 2024-01-19 真值数据的获取方法和装置、存储介质及电子设备 Active CN117593892B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410081772.6A CN117593892B (zh) 2024-01-19 2024-01-19 真值数据的获取方法和装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410081772.6A CN117593892B (zh) 2024-01-19 2024-01-19 真值数据的获取方法和装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN117593892A true CN117593892A (zh) 2024-02-23
CN117593892B CN117593892B (zh) 2024-04-09

Family

ID=89913779

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410081772.6A Active CN117593892B (zh) 2024-01-19 2024-01-19 真值数据的获取方法和装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN117593892B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112965466A (zh) * 2021-02-18 2021-06-15 北京百度网讯科技有限公司 自动驾驶系统的还原测试方法、装置、设备及程序产品
US20220009524A1 (en) * 2018-11-15 2022-01-13 Sony Semiconductor Solutions Corporation Information processing apparatus, moving apparatus, and method, and program
CN114064656A (zh) * 2021-11-19 2022-02-18 重庆大学 一种基于路端感知系统的自动驾驶场景识别与转化方法
CN114301938A (zh) * 2021-12-24 2022-04-08 阿波罗智联(北京)科技有限公司 车路协同车辆事件确定方法、相关装置及计算机程序产品
CN114722931A (zh) * 2022-04-02 2022-07-08 福思(杭州)智能科技有限公司 车载数据处理方法、装置、数据采集设备和存储介质
CN116067677A (zh) * 2023-02-22 2023-05-05 中汽院智能网联科技有限公司 一种自动驾驶道路测试系统及分析方法
US20230324863A1 (en) * 2022-04-12 2023-10-12 Beijing Tusen Zhitu Technology Co., Ltd. Method, computing device and storage medium for simulating operation of autonomous vehicle
CN116872951A (zh) * 2023-09-06 2023-10-13 福瑞泰克智能系统有限公司 多传感器数据对齐方法、装置和存储介质及电子装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220009524A1 (en) * 2018-11-15 2022-01-13 Sony Semiconductor Solutions Corporation Information processing apparatus, moving apparatus, and method, and program
CN112965466A (zh) * 2021-02-18 2021-06-15 北京百度网讯科技有限公司 自动驾驶系统的还原测试方法、装置、设备及程序产品
CN114064656A (zh) * 2021-11-19 2022-02-18 重庆大学 一种基于路端感知系统的自动驾驶场景识别与转化方法
CN114301938A (zh) * 2021-12-24 2022-04-08 阿波罗智联(北京)科技有限公司 车路协同车辆事件确定方法、相关装置及计算机程序产品
CN114722931A (zh) * 2022-04-02 2022-07-08 福思(杭州)智能科技有限公司 车载数据处理方法、装置、数据采集设备和存储介质
US20230324863A1 (en) * 2022-04-12 2023-10-12 Beijing Tusen Zhitu Technology Co., Ltd. Method, computing device and storage medium for simulating operation of autonomous vehicle
CN116067677A (zh) * 2023-02-22 2023-05-05 中汽院智能网联科技有限公司 一种自动驾驶道路测试系统及分析方法
CN116872951A (zh) * 2023-09-06 2023-10-13 福瑞泰克智能系统有限公司 多传感器数据对齐方法、装置和存储介质及电子装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李英勃;于波;: "基于融合感知的场景数据提取技术研究", 现代计算机(专业版), no. 09, 31 March 2019 (2019-03-31) *

Also Published As

Publication number Publication date
CN117593892B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
US11885910B2 (en) Hybrid-view LIDAR-based object detection
US10740658B2 (en) Object recognition and classification using multiple sensor modalities
US20190310651A1 (en) Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
JP2019125368A (ja) 複数のコネクティッド車両による観測値を関連付ける方法
CN116685874A (zh) 摄像机-激光雷达融合对象检测系统和方法
KR102595886B1 (ko) 매핑에서의 향상된 시맨틱 라벨링을 위한 멀티 모달 분할 네트워크
KR102657921B1 (ko) 융합된 이미지를 사용한 엔드 투 엔드 시스템 트레이닝
CN116830164A (zh) LiDAR去相关对象检测系统与方法
US20230360379A1 (en) Track segment cleaning of tracked objects
CN115705693A (zh) 用于传感器数据的标注的方法、系统和存储介质
US20220234588A1 (en) Data Recording for Advanced Driving Assistance System Testing and Validation
Bai et al. Cyber mobility mirror: a deep learning-based real-world object perception platform using roadside LiDAR
Kanchana et al. Computer vision for autonomous driving
WO2022086739A2 (en) Systems and methods for camera-lidar fused object detection
DE102021132199A1 (de) Bestimmen von Objektmobilitätsparametern unter Verwendung einer Objektsequenz
CN116457800A (zh) 用于自动驾驶车辆中的地图变化检测的架构
CN116880462A (zh) 自动驾驶模型、训练方法和自动驾驶方法和车辆
Sharma et al. Deep Learning-Based Object Detection and Classification for Autonomous Vehicles in Different Weather Scenarios of Quebec, Canada
CN117593892B (zh) 真值数据的获取方法和装置、存储介质及电子设备
US20230311930A1 (en) Capturing and simulating radar data for autonomous driving systems
CN117591847B (zh) 基于车况数据的模型指向评测方法和装置
CN117593686B (zh) 基于车况真值数据的模型评测方法和装置
CN110446106B (zh) 一种前置摄像头文件的识别方法、电子设备及存储介质
Sanberg et al. From stixels to asteroids: Towards a collision warning system using stereo vision
CN117612127B (zh) 场景生成方法、装置和存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant