CN115952570A - Hud仿真方法、装置及计算机可读存储介质 - Google Patents

Hud仿真方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN115952570A
CN115952570A CN202310094892.5A CN202310094892A CN115952570A CN 115952570 A CN115952570 A CN 115952570A CN 202310094892 A CN202310094892 A CN 202310094892A CN 115952570 A CN115952570 A CN 115952570A
Authority
CN
China
Prior art keywords
picture
hud
vehicle
driving environment
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310094892.5A
Other languages
English (en)
Inventor
韩雨青
张卫华
张波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Zejing Automobile Electronic Co ltd
Original Assignee
Jiangsu Zejing Automobile Electronic Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Zejing Automobile Electronic Co ltd filed Critical Jiangsu Zejing Automobile Electronic Co ltd
Priority to CN202310094892.5A priority Critical patent/CN115952570A/zh
Publication of CN115952570A publication Critical patent/CN115952570A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Traffic Control Systems (AREA)

Abstract

本公开涉及汽车电子技术领域,具体涉及一种HUD仿真方法、装置及计算机可读存储介质,该HUD仿真方法包括:对车辆的驾驶环境画面进行增强,得到增强画面;根据所述车辆的传感器信号获取HUD画面;将所述HUD画面和所述增强画面进行融合,得到画面融合结果;根据所述画面融合结果确定仿真结果。本公开能够提升HUD开发效率,节省人力成本。

Description

HUD仿真方法、装置及计算机可读存储介质
技术领域
本公开涉及汽车电子技术领域,尤其涉及一种HUD仿真方法、装置及计算机可读存储介质。
背景技术
随着汽车工业的发展,抬头显示系统(Head Up Display,HUD)的应用越来越广泛。由于项目开发早期,(汽车制造商)客户不能看到HUD产品原型,难以感受和评估HUD产品效果。因此,亟待提供一种HUD的仿真方法,能够在开发过程中验证HUD的功能以及性能,以使客户在项目开发早期就能够感受和评估HUD产品效果,从而加快HUD开发迭代的周期,提升HUD开发效率,节省人力成本。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种HUD仿真方法、装置及计算机可读存储介质,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的在项目开发早期不能看到HUD产品原型,难以感受和评估HUD产品效果的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种HUD仿真方法,包括:
对车辆的驾驶环境画面进行增强,得到增强画面;
根据所述车辆的传感器信号获取HUD画面;
将所述HUD画面和所述增强画面进行融合,得到画面融合结果;
根据所述画面融合结果确定仿真结果。
在本公开的一种示例性实施例中,所述对车辆的驾驶环境画面进行增强前,所述方法还包括:
根据预设场景描述信息中的路网数据建立路网模型;
根据所述预设场景描述信息中目标对象的标识信息建立目标对象的三维模型,所述目标对象为所述路网模型上的任意一个对象,所述目标对象包括车辆;
根据所述预设场景描述信息中所述目标对象的位置信息将所述目标对象的三维模型设置在所述路网模型中,得到驾驶环境;
根据所述预设场景描述信息中所述车辆对应的车辆三维模型的起点位置信息和终点位置信息规划所述车辆三维模型在所述驾驶环境中的驾驶路径;
驱动所述车辆三维模型在所述驾驶路径行驶,以获取所述驾驶环境画面。
在本公开的一种示例性实施例中,所述根据所述车辆的传感器信号获取HUD画面包括:
采用预设场景描述信息以及所述驾驶环境画面生成所述传感器信号;
将所述传感器信号以及所述预设场景描述信息发送至HUD,以获取HUD画面,所述HUD画面是所述HUD根据所述传感器信号以及所述预设场景描述信息生成的。
在本公开的一种示例性实施例中,所述对车辆的驾驶环境画面进行增强前,所述方法还包括:
获取预先存储的车内驾驶视频;
对所述预先存储的车内驾驶视频进行预处理,得到预处理后的车内驾驶视频;
将所述预处理后的车内驾驶视频中的视频画面作为所述驾驶环境画面。
在本公开的一种示例性实施例中,所述根据所述车辆的传感器信号获取HUD画面包括:
获取所述车内驾驶视频中目标视频画面的目标时间戳;
获取与所述目标时间戳对应的目标传感器信号;
将所述目标传感器信号以及仿真场景的标识信息发送至HUD,以获取与所述目标时间戳对应的目标HUD画面,所述目标HUD画面为所述HUD根据所述目标传感器信号以及所述仿真场景生成的HUD画面,且所述目标HUD画面包括所述目标时间戳。
在本公开的一种示例性实施例中,所述将所述HUD画面和所述增强画面进行融合包括:
将时间戳相同的所述HUD画面和所述增强画面进行融合。
在本公开的一种示例性实施例中,所述对车辆的驾驶环境画面进行增强,得到增强画面包括:
根据仿真场景的标识信息和所述驾驶环境画面获取画面增强区域;
将所述驾驶环境画面上的所述画面增强区域进行增强,得到增强画面。
在本公开的一种示例性实施例中,所述根据所述画面融合结果确定仿真结果包括:
若画面融合结果中所述HUD画面与所述画面增强区域重合,则确定所述HUD仿真通过。
根据本公开的第二方面,提供一种HUD仿真装置,包括:
画面增强模块,用于对车辆的驾驶环境画面进行增强,得到增强画面;
HUD画面获取模块,用于根据所述车辆的传感器信号获取HUD画面;
画面融合模块,用于将所述HUD画面和所述增强画面进行融合,得到画面融合结果;
仿真结果确定模块,用于根据所述画面融合结果确定仿真结果。
在本公开的一种示例性实施例中,所述装置还包括:
驾驶环境画面获取模块,用于:
根据预设场景描述信息中的路网数据建立路网模型;
根据所述预设场景描述信息中目标对象的标识信息建立目标对象的三维模型,所述目标对象为所述路网模型上的任意一个对象,所述目标对象包括车辆;
根据所述预设场景描述信息中所述目标对象的位置信息将所述目标对象的三维模型设置在所述路网模型中,得到驾驶环境;
根据所述预设场景描述信息中所述车辆对应的车辆三维模型的起点位置信息和终点位置信息规划所述车辆三维模型在所述驾驶环境中的驾驶路径;
驱动所述车辆三维模型在所述驾驶路径行驶,以获取所述驾驶环境画面。
在本公开的一种示例性实施例中,所述HUD画面获取模块用于:
采用预设场景描述信息以及所述驾驶环境画面生成所述传感器信号;
将所述传感器信号以及所述预设场景描述信息发送至HUD,以获取HUD画面,所述HUD画面是所述HUD根据所述传感器信号以及所述预设场景描述信息生成的。
在本公开的一种示例性实施例中,所述驾驶环境画面获取模块还用于:
获取预先存储的车内驾驶视频;
对所述预先存储的车内驾驶视频进行预处理,得到预处理后的车内驾驶视频;
将所述预处理后的车内驾驶视频中的视频画面作为所述驾驶环境画面。
在本公开的一种示例性实施例中,所述HUD画面获取模块用于:
获取所述车内驾驶视频中目标视频画面的目标时间戳;
获取与所述目标时间戳对应的目标传感器信号;
将所述目标传感器信号以及仿真场景的标识信息发送至HUD,以获取与所述目标时间戳对应的目标HUD画面,所述目标HUD画面为所述HUD根据所述目标传感器信号以及所述仿真场景生成的HUD画面,且所述目标HUD画面包括所述目标时间戳。
在本公开的一种示例性实施例中,所述画面融合模块用于:
将时间戳相同的所述HUD画面和所述增强画面进行融合。
在本公开的一种示例性实施例中,所述画面增强模块用于:
根据仿真场景的标识信息和所述驾驶环境画面获取画面增强区域;
将所述驾驶环境画面上的所述画面增强区域进行增强,得到增强画面。
在本公开的一种示例性实施例中,所述仿真结果确定模块用于:
若画面融合结果中所述HUD画面与所述画面增强区域重合,则确定所述HUD仿真通过。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任一项所述方法的步骤。
根据本公开的第四方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行第一方面中任一项所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
综上所述,本公开提供的方法,通过对车辆的驾驶环境画面进行增强,得到增强画面;根据所述车辆的传感器信号获取HUD画面;将所述HUD画面和所述增强画面进行融合,得到画面融合结果;根据所述画面融合结果确定仿真结果,实现对HUD进行仿真,并且根据仿真结果对HUD进行验证,能够在开发过程中验证HUD的功能以及性能,进而使得客户在项目开发早期就能够感受和评估HUD产品效果,从而加快HUD开发迭代的周期,提升HUD开发效率,节省人力成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性地示出了本公开示例性实施例中一种HUD仿真方法的流程图;
图2示意性地示出了本公开示例性实施例中一种视椎体的示意图;
图3示意性地示出了本公开示例性实施例中一种驾驶环境画面的示意图;
图4示意性地示出了本公开示例性实施例中一种超大车跟车场景的驾驶环境画面示意图;
图5示意性地示出了本公开示例性实施例中另一种驾驶环境画面的示意图;
图6示意性地示出了本公开示例性实施例中一种增强画面的示意图;
图7示意性地示出了本公开示例性实施例中一种HUD仿真装置的方框图;
图8示意性地示出了本公开示例性实施例中一种存储介质的示意图;
图9示意性地示出了本公开示例性实施例中一种电子设备的方框图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本发明的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
针对现有技术中存在的缺陷,本示例实施方式中首先提供了一种HUD仿真方法。参考图1中所示,上述的HUD仿真方法可以包括以下步骤:
S11、对车辆的驾驶环境画面进行增强,得到增强画面;
S12、根据所述车辆的传感器信号获取HUD画面;
S13、将所述HUD画面和所述增强画面进行融合,得到画面融合结果;
S14、根据所述画面融合结果确定仿真结果。
综上所述,本公开提供的方法,通过对车辆的驾驶环境画面进行增强,得到增强画面;根据所述车辆的传感器信号获取HUD画面;将所述HUD画面和所述增强画面进行融合,得到画面融合结果;根据所述画面融合结果确定仿真结果,实现对HUD进行仿真,并且根据仿真结果对HUD进行验证,能够在开发过程中验证HUD的功能以及性能,进而使得客户在项目开发早期就能够感受和评估HUD产品效果,从而加快HUD开发迭代的周期,提升HUD开发效率,节省人力成本。
基于上述内容,在本公开的一种示例性实施例中,上述对车辆的驾驶环境画面进行增强前,所述方法还包括:
S151、根据预设场景描述信息中的路网数据建立路网模型。
本公开的一种示例性实施例中,可以根据仿真场景的标识信息确定与该仿真场景对应的预设场景描述信息。其中,预设场景描述信息用来描述仿真场景下的虚拟驾驶环境。
在本公开的一种示例性实施例中,可以预设多种仿真场景的标识信息,一种标识信息代表一种仿真场景。根据其中任意一种标识信息可以确定该标识信息对应的仿真场景,然后根据该仿真场景获取其对应的预设场景描述信息。例如,当根据仿真场景的标识信息确定该仿真场景为高速跟车的仿真场景,则获取与高速跟车的仿真场景对应的预设场景描述信息,该预设场景描述信息用来描述高速跟车场景下的虚拟驾驶环境。进一步地,可以根据预设场景描述信息中的路网数据建立路网模型,该路网模型即为高速跟车场景下高速公路上的路网模型。
S152、根据所述预设场景描述信息中目标对象的标识信息建立目标对象的三维模型,所述目标对象为所述路网模型上的任意一个对象,所述目标对象包括车辆。
在本公开的一种示例性实施例中,该预设场景描述信息中包括仿真场景的路网模型中多个对象的标识信息,每个标识信息用于标识一种对象,例如路网模型上的建筑、山、森林、湖泊以及树木等静态对象,以及交通参与者例如汽车、卡车、摩托等车辆和行人的动态对象。
进一步地,建立路网模型后,根据所述预设场景描述信息中目标对象的标识信息获取目标对象对应的三维模型数据,再对目标对象对应的三维模型数据进行渲染,以建立目标对象的三维模型。其中,目标对象的标识信息为预设场景描述信息中的任意一个对象的标识信息。
S153、根据所述预设场景描述信息中所述目标对象的位置信息将所述目标对象的三维模型设置在所述路网模型中,得到驾驶环境。
在本公开的一种示例性实施例中,该预设场景描述信息还包括路网模型中各对象的位置信息与标识信息的对应关系。进一步地,建立目标对象的三维模型后,可以根据该对应关系以及目标对象的标识信息确定目标对象的位置信息,然后根据目标对象的位置信息将目标对象的三维模型设置在所述路网模型中的相应位置上,得到驾驶环境。
此处需要说明的是,在建立车辆的三维模型时,可以对车辆轮胎做动画,在建立行人的三维模型时,对行人做骨骼动画,使得车辆三维模型在路网模型上行驶,行人三维模型可以在路网模型上行走。
进一步地,建立例如建筑、山、森林、湖泊、树木以及车辆和行人等三维模型后,根据预设场景描述信息中建筑、山、森林、湖泊、树木以及车辆和行人等的位置信息,将建筑、山、森林、湖泊、树木以及车辆和行人等三维模型设置在路网模型中,得到驾驶环境,该驾驶环境即为通过路网模型以及目标对象的三维模型模拟的驾驶环境。
此处需要说明的是,还可以在预设场景描述信息中配置地图数据、天气信息以及车辆数据等数据,将驾驶环境进行补充。例如,预设场景描述信息中的地图数据可以为实际的A城市的B街区的全球定位系统(Global Positioning System,GPS)数据,用于指示模拟的驾驶环境为B街区;天气信息可以表示模拟车辆在B街区行驶时的天气为晴天或者雨天,以及白天或者夜间;车辆数据表示模拟车辆在B街区行驶时的车速、发动机(电机)转速、油门状态等。
S154、根据所述预设场景描述信息中所述车辆对应的车辆三维模型的起点位置信息和终点位置信息规划车辆三维模型在所述驾驶环境中的驾驶路径。
S155、驱动所述车辆三维模型在所述驾驶路径行驶,以获取所述驾驶环境画面。
在本公开的一种示例性实施例中,可以采用透视原理获取车辆三维模型在驾驶路径行驶时的驾驶环境画面。具体来说,可以在车辆三维模型在驾驶路径行驶时,通过模拟将虚拟相机放置在车辆三维模型中驾驶位上驾驶人员眼睛的位置,获取驾驶环境画面。下面结合图2,对如何采用透视原理获取驾驶环境画面进行说明。
如图2所示,以相机所在位置作为坐标原点,建立坐标系,并获取视椎体,确定近平面和远平面。进一步地,确定视椎体后,将位于视椎体内(即在驾驶人员的视线范围内)的所有物体对应的三维模型投影到投影平面,即可得到驾驶环境画面。由于眼睛(模拟的驾驶员眼睛)的位置和近平面之间的物体都不会投影到二维画面上;同样远平面之外的物体不会投影到二维画面上,所以投影平面将设置在近平面和远平面之间。具体来说,可以采用如下公式将物体进行投影:
Dest=projection_matrix*view_matrix*model_matrix*origin;(1)
其中,Dest表示物体投影到投影平面上的坐标;origin表示物体对应的三维模型在路网模型中的坐标;projection_matrix表示投影矩阵;view_matrix表示裁剪矩阵,用来标识可视范围;model_matrix表示物体的三维模型矩阵,用来将三维模型所在的坐标系转成投影平面坐标系。
在本公开的一种示例性实施例中,投影矩阵可采用如下矩阵表示:
Figure BDA0004071426000000091
其中,N是眼睛到近平面的距离;F是眼睛到远平面的距离;θ为视椎体的视场角的一半;r是物体对应的三维模型的宽高比。通过采用公式(1)可以获取二维的驾驶环境画面。
基于上述内容,在本公开的一种示例性实施例中,所述根据所述车辆的传感器信号获取HUD画面包括:
S1211、采用预设场景描述信息以及所述驾驶环境画面生成所述传感器信号;
S1212、将所述传感器信号以及所述预设场景描述信息发送至HUD,以获取HUD画面,所述HUD画面是所述HUD根据所述传感器信号以及所述预设场景描述信息生成的。
在本公开的一种示例性实施例中,可以在车辆三维模型在驾驶环境的驾驶过程中,模拟车载传感器的传感器信号。
例如,在路网模型中为车辆行驶的规划路径为直线CD。其中,C为起点,D为终点。则获取例如图3所示的驾驶环境画面后,采用如下公式确定车辆当前位置E点在驾驶环境画面中的坐标与C点/D点在驾驶环境画面中的坐标的关系:
YE=YC+(YD-YC)×(XE-XC)/(XD-XC);(2)
其中,(XC,YC)为C点在驾驶环境画面中的坐标,(XD,YD)为D点在驾驶环境画面中的坐标,(XE,YE)为E点在驾驶环境画面中的坐标。XE的值是根据车辆的速度和行驶时长计算出来的,可以根据插值不断计算当前车辆的GPS坐标并将坐标发送至HUD。
进一步地,确定E点在驾驶环境画面的坐标与C点/D点在驾驶环境画面中的坐标的关系后,根据车辆的速度、驾驶时长以及公式(2)计算当前位置E点在驾驶环境画面中的坐标。确定当前位置E点在驾驶环境画面中的坐标后,根据地图数据中C点/D点的GPS坐标以及公式(2)确定当前位置E点的GPS坐标。确定当前位置E点的GPS坐标后,将E点的GPS坐标作为模拟的车辆中GPS传感器的信号,并将E点的GPS坐标发送至HUD,以使HUD根据所述传感器信号以及所述预设场景描述信息生成HUD画面,并返回HUD画面。
具体来说,当HUD根据预设场景描述信息中的地图数据确定车辆的驾驶环境在B街区,并根据E点的GPS坐标确定车辆当前位置在B街区的学校路段时,生成减速慢行或者禁止鸣笛的HUD提示画面。
此处需要说明的是,在模拟车辆在驾驶环境画面中驾驶时,可以实时生成行驶至当前行驶位置时的当前时间戳,并将时间戳和当前位置的传感器信号一同发送至HUD,以使HUD生成与当前时间戳对应的HUD画面,并将与当前时间戳对应的HUD画面进行返回。进一步地,接收到与当前时间戳对应的HUD画面后,再将与当前时间戳对应的驾驶环境画面和与当前时间戳对应的HUD画面进行融合。
例如,车辆在12:13这个时间行驶至E点,E点位于在B街区的学校路段。则将E点的GPS坐标和12:13的时间戳一同发送至HUD,以使HUD返回生成与12:13的时间戳对应的减速慢行或者禁止鸣笛的HUD提示画面。进一步地,将12:13的时间戳对应的减速慢行或者禁止鸣笛的HUD提示画面与12:13的时间戳对应的行驶至E点的驾驶环境画面进行融合,使得HUD画面能够在驾驶员行驶至E点(B街区的学校路段)时,正常提示驾驶员减速慢行或者禁止鸣笛,进而使得驾驶事件的时间顺序和因果关系能够符合实际需求,进而增加HUD仿真结果的可靠性。
在本公开的一种示例性实施例中,所述对车辆的驾驶环境画面进行增强前,所述方法还包括:
S161、获取预先存储的车内驾驶视频;
S162、对所述预先存储的车内驾驶视频进行预处理,得到预处理后的车内驾驶视频;
S163、将所述预处理后的车内驾驶视频中的视频画面作为所述驾驶环境画面。
在本公开的一种示例性实施例中,除了采用路网模型模拟车辆驾驶环境以获取驾驶环境画面以外,还可以从预先存储的车内驾驶视频获取驾驶环境画面。例如,可以获取车辆实际在B街区驾驶时车辆内的行车记录仪或者其他图像采集设备生成的车内驾驶视频。
进一步地,获取该车内驾驶视频后,可以对该车内驾驶视频进行去抖动、像素度转化等预处理,得到预处理后的车内驾驶视频,再将该预处理后的车内驾驶视频中的视频画面作为驾驶环境画面。
在本公开的一种示例性实施例中,基于上述内容,上述根据所述车辆的传感器信号获取HUD画面包括:
S1221、获取所述车内驾驶视频中目标视频画面的目标时间戳;
S1222、获取与所述目标时间戳对应的目标传感器信号;
S1223、将所述目标传感器信号以及仿真场景的标识信息发送至HUD,以获取与所述目标时间戳对应的目标HUD画面,所述目标HUD画面为所述HUD根据所述目标传感器信号以及所述仿真场景生成的HUD画面,且所述目标HUD画面包括所述目标时间戳。
在本公开的一种示例性实施例中,目标视频画面为车内驾驶视频中的任意一个视频画面,即车内驾驶视频中任意一个时刻对应的视频画面。具体来说,在车内驾驶视频对应的每个时刻获取的传感器信号,将该传感器信号、该时刻的时间戳以及仿真场景的标识信息一同发送至HUD,以使HUD根据该传感器信号以及仿真场景的标识信息生成与该时间戳对应的HUD画面。其中,S1221中的目标视频画面对应的场景与S1223中的仿真场景相匹配或相一致。
基于上述内容,在本公开的一种示例性实施例中,上述将所述HUD画面和所述增强画面进行融合包括:
将时间戳相同的所述HUD画面和所述增强画面进行融合。
在本公开的一种示例性实施例中,在获取车内驾驶视频的每个时刻的驾驶环境画面时,同时获取该驾驶环境画面的时间戳。进一步地,将该时间戳、仿真场景的标识信息以及驾驶环境画面一同发送至服务器,以获取跟该时间戳对应的画面增强指令。进一步地,在该驾驶环境画面上执行该画面增强指令,以得到跟该时间戳对应的增强画面。
更进一步地,获取每个时刻对应的增强画面以及HUD画面后,将时间戳相同的HUD画面和增强画面进行融合,得到该时间戳对应的增强画面。
例如,当前的驾驶环境画面如图4所示。在图4中,当前车辆行驶在卡车(超大车)之后,当前仿真场景为超大车跟车场景。若图4所示的驾驶环境对应的驾驶环境画面的时间戳为09:35,则将09:35获取的传感器信号(例如雷达信号)、超大车跟车的仿真场景的标识信息以及09:35的时间戳发送至HUD,以使HUD根据雷达信号确定车辆前方的某个位置有物体,然后根据超大车跟车的仿真场景确定出该位置的左侧为危险驾驶区域的HUD画面。进一步地,获取该HUD画面和09:35的时间戳后,将该HUD画面与09:35的增强画面进行融合。通过将时间戳相同的HUD画面和增强画面进行融合,使得驾驶事件的时间顺序和因果关系能够符合实际需求,进而增加HUD仿真结果的可靠性。
基于上述内容,在本公开的一种示例性实施例中,上述对车辆的驾驶环境画面进行增强,得到增强画面包括:
S111、根据仿真场景的标识信息和所述驾驶环境画面获取画面增强区域;
S112、将所述驾驶环境画面上的所述画面增强区域进行增强,得到增强画面。
在本公开的一种示例性实施例中,可以将仿真场景的标识信息和所述驾驶环境画面发送到服务器。服务器根据仿真场景的标识信息从数据库查找仿真场景对应的仿真验证测试案例,根据仿真验证测试案例和驾驶环境画面确定画面增强区域,并生成相应的画面增强指令,该画面增强指令用于指示将驾驶环境画面中的画面增强区域进行增强显示。其中,数据库中存储有仿真验证测试案例和仿真场景之间的关系。进一步地,从服务器获取该画面增强指令,并执行该画面增强指令,以将所述驾驶环境画面上的所述画面增强区域进行增强,得到增强画面。
例如,当前仿真场景为超大车跟车场景。当前的驾驶环境画面如图4所示。在图4中,当前车辆行驶在卡车(超大车)之后,而超大车跟车场景对应的仿真验证测试案例为在超大车之后行驶要生成一个用于标识危险区域的标尺,且该标尺位于超大车的左侧位置。则根据如图4所示的驾驶环境画面和仿真场景的标识信息确定画面增强区域如图4中用黑框表示的长方形区域,则生成的画面增强指令能够在该长方形区域生成用于标识危险区域的标尺。
在本公开的一种示例性实施例中,可以通过机器学习,对驾驶环境画面进行语义识别,识别出驾驶环境画面的各个物体。例如从驾驶环境画面分割出车道以及车辆,以及这些物体在驾驶环境画面中相对位置以及大小,根据位置和大小,计算出要增强的对象的位置以及大小,即画面增强区域。下面结合图5进行说明。
例如图5所示,驾驶环境画面上显示当前驾驶车辆的左侧有车辆1,前面有车辆2,以及驾驶环境画面上有车道。可以采用公式(3)识别出左侧车辆1、前面车辆2以及驾驶环境画面上有车道。
Figure BDA0004071426000000131
其中,Pr(classi|object)表示在边界框置信度下的物体的条件概率;Pr(object)表示边界框包含目标的可能性。若Pr(object)取值为0表示不包含,Pr(object)取值为1表示完全包含;
Figure BDA0004071426000000132
表示预测框与实际框的交并比;Pr(classi)表示边界框内属于不同类别物体的概率。
在本公开的一种示例性实施例中,可以采用目标检测机器学习模型对驾驶环境画面的物体进行识别。具体来说,可以通过机器学习的方式训练该模型,并且不断迭代该模型,使其识别出驾驶环境画面中当前车辆的左侧有车辆1,前面有车辆2。同时在驾驶环境画面中标注出车辆1的边框以及车辆2的边框,即车辆1在驾驶环境画面中的位置以及大小。然后根据车辆1在驾驶环境画面中的位置以及大小识别出车道信息,根据车道信息确定出车辆2在当前车道的前方。
若当前仿真场景为高速跟车场景,而高速跟车场景对应的仿真验证测试案例为跟随前车保持100米以上的距离。则根据识别结果以及跟车场景确定出画面增强区域为当前车辆所在的当前车道的前方100米的区域。即在当前车道的前方100米产生标尺,以生成增强画面。生成的增强画面如图6所示。
下面对如何具体确定画面增强区域在驾驶环境画面的位置进行说明。
在本公开的一种示例性实施例中,根据车头中心点在驾驶环境画面中的坐标位置,确定车头在模拟的驾驶环境(即路网模型)中的坐标位置。在本公开的一种示例性实施例中,可以采用公式(1)做逆向变换,确定车头在模拟的驾驶环境(即路网模型)中的坐标位置。
进一步地,根据高速跟车场景对应的仿真验证测试案例为跟随前车保持100米以上的距离以及车头在模拟的驾驶环境(即路网模型)中的坐标位置,计算出当前车道的前方100米的标尺的位置,即画面增强区域在模拟的驾驶环境(即路网模型)中的位置,然后采用公式(1)确定画面增强区域在驾驶环境画面(投影平面)中的位置。
基于上述内容,所述根据所述画面融合结果确定仿真结果包括:
若画面融合结果中所述HUD画面与所述画面增强区域重合,则确定所述HUD画面仿真通过。
在本公开的一种示例性实施例中,可以采用公式(4)计算HUD画面在驾驶环境画面中的坐标位置(X,Y):
Hudwidth=Tan(FOVh/2)*(width/2)/Tan(FOVwh)*2;
Hudheight=Tan(FOVv/2)*(width/2)/Tan(FOVwv)*2;
Hudoffset=Tan(FOVl/2)*(width/2)/Tan(FOVwv)*2;
X=(width-Hudwidth)/2;
Y=(height-Hudheight)/2+Hudoffset;(4)
其中,FOVh是HUD的水平视场角度;FOVv是HUD的垂直视场角度;FOVl是HUD的水平偏移角度,正为上,负为下,水平为0度;FOVwv是驾驶环境垂直视场角度数;FOVwh是驾驶环境水平视场角度数;Hudwidth是驾驶环境画面的宽度,像素为单位;Hudheight是驾驶环境画面的高度,像素为单位;Hudoffset是中间变量,width为HUD画面的宽度,height为HUD画面的高度。
进一步地,确定HUD画面在驾驶环境画面中的坐标位置后,判断HUD画面在驾驶环境画面中的坐标位置所在的区域是否与画面增强区域重合。若HUD画面在驾驶环境画面中的坐标位置所在的区域与画面增强区域重合,则确定HUD仿真通过。
例如,在超大车跟车场景,在例如图4所述的驾驶环境画面左侧生成用于提示危险区域的画面增强区域(例如图4中的方框)。为了测试HUD画面对危险区域的覆盖情况,将HUD画面与该驾驶环境画面进行融合,以判断HUD画面中的斜线区域是否与该方框重合。若如图4所示,斜线区域完全与方框重合,则确定HUD仿真通过。
此处需要说明的是,将HUD画面与画面增强区域进行融合得到融合区域时,可以采用如下公式计算融合区域的像素值(R2,G2,B2):
a=max(R1,G1,B1)/255;
bka=1-a;        (5)
(R2,G2,B2)=(R1,G1,B1)*a+bka*(R0,G0,B0);
其中,(R1,G1,B1)为HUD画面中目标像素点的像素值,a为HUD画面中目标像素点的RGB通道中的最大值;bka为a的反向差值;(R0,G0,B0)为目标像素点在驾驶环境画面对应的像素点(即根据公式(4)计算的目标像素点在驾驶环境画面中的坐标位置处的像素点)的像素值。
在介绍了本发明示例性实施方式的HUD仿真方法之后,接下来,参考图7对本发明示例性实施方式的HUD仿真装置进行描述。
参考图7所示,本发明示例性实施方式的HUD仿真装置700可以包括:画面增强模块701、HUD画面获取模块702、画面融合模块703以及仿真结果确定模块704。其中,
画面增强模块,用于对车辆的驾驶环境画面进行增强,得到增强画面;
HUD画面获取模块,用于根据所述车辆的传感器信号获取HUD画面;
画面融合模块,用于将所述HUD画面和所述增强画面进行融合,得到画面融合结果;
仿真结果确定模块,用于根据所述画面融合结果确定仿真结果。
在本公开的一种示例性实施例中,所述装置还包括:
驾驶环境画面获取模块,用于:
根据预设场景描述信息中的路网数据建立路网模型;
根据所述预设场景描述信息中目标对象的标识信息建立目标对象的三维模型,所述目标对象为所述路网模型上的任意一个对象,所述目标对象包括车辆;
根据所述预设场景描述信息中所述目标对象的位置信息将所述目标对象的三维模型设置在所述路网模型中,得到驾驶环境;
根据所述预设场景描述信息中所述车辆对应的车辆三维模型的起点位置信息和终点位置信息规划所述车辆三维模型在所述驾驶环境中的驾驶路径;
驱动所述车辆三维模型在所述驾驶路径行驶,以获取所述驾驶环境画面。
在本公开的一种示例性实施例中,所述HUD画面获取模块用于:
采用预设场景描述信息以及所述驾驶环境画面生成所述传感器信号;
将所述传感器信号以及所述预设场景描述信息发送至HUD,以获取HUD画面,所述HUD画面是所述HUD根据所述传感器信号以及所述预设场景描述信息生成的。
在本公开的一种示例性实施例中,所述驾驶环境画面获取模块还用于:
获取预先存储的车内驾驶视频;
对所述预先存储的车内驾驶视频进行预处理,得到预处理后的车内驾驶视频;
将所述预处理后的车内驾驶视频中的视频画面作为所述驾驶环境画面。
在本公开的一种示例性实施例中,所述HUD画面获取模块用于:
获取所述车内驾驶视频中目标视频画面的目标时间戳;
获取与所述目标时间戳对应的目标传感器信号;
将所述目标传感器信号以及仿真场景的标识信息发送至HUD,以获取与所述目标时间戳对应的目标HUD画面,所述目标HUD画面为所述HUD根据所述目标传感器信号以及所述仿真场景生成的HUD画面,且所述目标HUD画面包括所述目标时间戳。
在本公开的一种示例性实施例中,所述画面融合模块用于:
将时间戳相同的所述HUD画面和所述增强画面进行融合。
在本公开的一种示例性实施例中,所述画面增强模块用于:
根据仿真场景的标识信息和所述驾驶环境画面获取画面增强区域;
将所述驾驶环境画面上的所述画面增强区域进行增强,得到增强画面。
在本公开的一种示例性实施例中,所述仿真结果确定模块用于:
若画面融合结果中所述HUD画面与所述画面增强区域重合,则确定所述HUD仿真通过。
由于本发明实施方式的HUD仿真装置的各个功能模块与上述HUD仿真方法发明实施方式中相同,因此在此不再赘述。
在介绍了本发明示例性实施方式的HUD仿真方法、HUD仿真装置之后,接下来,参考图8对本发明示例性实施方式的存储介质进行说明。
参考图8所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言-诸如Java、C++等,还包括常规的过程式程序设计语言-诸如"C"语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
在介绍了本发明示例性实施方式的存储介质之后,接下来,参考图9对本发明示例性实施方式的电子设备进行说明。
图9显示的电子设备90仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,电子设备90以通用计算设备的形式表现。电子设备90的组件可以包括但不限于:上述至少一个处理单元910、上述至少一个存储单元920、连接不同系统组件(包括存储单元920和处理单元910)的总线930、显示单元940。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元910执行,使得所述处理单元910执行本说明书上述"示例性方法"部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元910可以执行如图1中所示的步骤S11至步骤S14。
存储单元920可以包括易失性存储单元,例如随机存取存储单元(RAM)9201和/或高速缓存存储单元9202,还可以进一步包括只读存储单元(ROM)9203。存储单元920还可以包括具有一组(至少一个)程序模块9205的程序/实用工具9204,这样的程序模块9205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线930可以包括数据总线、地址总线和控制总线。
电子设备90也可以与一个或多个外部设备100(例如键盘、指向设备、蓝牙设备等)通信,这种通信可以通过输入/输出(I/O)接口950进行。电子设备90还包括显示单元940,其连接到输入/输出(I/O)接口950,用于进行显示。并且,电子设备90还可以通过网络适配器960与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器960通过总线930与电子设备90的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备90使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了HUD仿真装置的若干模块或子模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本发明的精神和原理,但是应该理解,本发明并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。

Claims (10)

1.一种HUD仿真方法,其特征在于,包括:
对车辆的驾驶环境画面进行增强,得到增强画面;
根据所述车辆的传感器信号获取HUD画面;
将所述HUD画面和所述增强画面进行融合,得到画面融合结果;
根据所述画面融合结果确定仿真结果。
2.根据权利要求1所述的方法,其特征在于,所述对车辆的驾驶环境画面进行增强前,所述方法还包括:
根据预设场景描述信息中的路网数据建立路网模型;
根据所述预设场景描述信息中目标对象的标识信息建立目标对象的三维模型,所述目标对象为所述路网模型上的任意一个对象,所述目标对象包括车辆;
根据所述预设场景描述信息中所述目标对象的位置信息将所述目标对象的三维模型设置在所述路网模型中,得到驾驶环境;
根据所述预设场景描述信息中所述车辆对应的车辆三维模型的起点位置信息和终点位置信息规划所述车辆三维模型在所述驾驶环境中的驾驶路径;
驱动所述车辆三维模型在所述驾驶路径行驶,以获取所述驾驶环境画面。
3.根据权利要求1所述的方法,其特征在于,所述根据所述车辆的传感器信号获取HUD画面包括:
采用预设场景描述信息以及所述驾驶环境画面生成所述传感器信号;
将所述传感器信号以及所述预设场景描述信息发送至HUD,以获取HUD画面,所述HUD画面是所述HUD根据所述传感器信号以及所述预设场景描述信息生成的。
4.根据权利要求1所述的方法,其特征在于,所述对车辆的驾驶环境画面进行增强前,所述方法还包括:
获取预先存储的车内驾驶视频;
对所述预先存储的车内驾驶视频进行预处理,得到预处理后的车内驾驶视频;
将所述预处理后的车内驾驶视频中的视频画面作为所述驾驶环境画面。
5.根据权利要求4所述的方法,其特征在于,所述根据所述车辆的传感器信号获取HUD画面包括:
获取所述车内驾驶视频中目标视频画面的目标时间戳;
获取与所述目标时间戳对应的目标传感器信号;
将所述目标传感器信号以及仿真场景的标识信息发送至HUD,以获取与所述目标时间戳对应的目标HUD画面,所述目标HUD画面为所述HUD根据所述目标传感器信号以及所述仿真场景生成的HUD画面,且所述目标HUD画面包括所述目标时间戳。
6.根据权利要求1或5所述的方法,其特征在于,所述将所述HUD画面和所述增强画面进行融合包括:
将时间戳相同的所述HUD画面和所述增强画面进行融合。
7.根据权利要求1所述的方法,其特征在于,所述对车辆的驾驶环境画面进行增强,得到增强画面包括:
根据仿真场景的标识信息和所述驾驶环境画面获取画面增强区域;
将所述驾驶环境画面上的所述画面增强区域进行增强,得到增强画面。
8.根据权利要求7所述的方法,其特征在于,所述根据所述画面融合结果确定仿真结果包括:
若画面融合结果中所述HUD画面与所述画面增强区域重合,则确定所述HUD仿真通过。
9.一种HUD仿真装置,其特征在于,包括:
画面增强模块,用于对车辆的驾驶环境画面进行增强,得到增强画面;
HUD画面获取模块,用于根据所述车辆的传感器信号获取HUD画面;
画面融合模块,用于将所述HUD画面和所述增强画面进行融合,得到画面融合结果;
仿真结果确定模块,用于根据所述画面融合结果确定仿真结果。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至8任一项所述方法的步骤。
CN202310094892.5A 2023-02-07 2023-02-07 Hud仿真方法、装置及计算机可读存储介质 Pending CN115952570A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310094892.5A CN115952570A (zh) 2023-02-07 2023-02-07 Hud仿真方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310094892.5A CN115952570A (zh) 2023-02-07 2023-02-07 Hud仿真方法、装置及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN115952570A true CN115952570A (zh) 2023-04-11

Family

ID=87291323

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310094892.5A Pending CN115952570A (zh) 2023-02-07 2023-02-07 Hud仿真方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN115952570A (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012006679A1 (de) * 2012-03-31 2012-09-20 Daimler Ag Verfahren zum Erfassen und Darstellen einer Fahrzeugumgebung eines Fahrzeugs
CN108961790A (zh) * 2018-07-24 2018-12-07 河北德冠隆电子科技有限公司 基于四维实景交通仿真的恶劣天气预警管理系统及方法
CN109141929A (zh) * 2018-10-19 2019-01-04 重庆西部汽车试验场管理有限公司 智能网联汽车仿真测试系统及方法
CN110097635A (zh) * 2019-04-26 2019-08-06 东南大学 基于bim和vr的道路3d漫游模拟驾驶系统建立方法
CN111428571A (zh) * 2020-02-28 2020-07-17 宁波吉利汽车研究开发有限公司 一种车辆引导方法、装置、设备及存储介质
CN112224211A (zh) * 2020-10-19 2021-01-15 中交第一公路勘察设计研究院有限公司 基于多自主体交通流的驾驶模拟仿真系统
CN113453263A (zh) * 2021-06-30 2021-09-28 常州工学院 一种车路协同v2i仿真测试系统及其方法
CN113552883A (zh) * 2021-07-19 2021-10-26 吉林大学 基于深度强化学习的地面无人车自主驾驶方法及系统
CN114228491A (zh) * 2021-12-29 2022-03-25 重庆长安汽车股份有限公司 具有夜视增强虚拟现实抬头显示系统及方法
CN114385005A (zh) * 2021-12-24 2022-04-22 领悦数字信息技术有限公司 个性化虚拟试驾装置、方法和存储介质
CN114859754A (zh) * 2022-04-07 2022-08-05 江苏泽景汽车电子股份有限公司 一种抬头显示系统的仿真测试方法和仿真测试系统
CN115422707A (zh) * 2022-07-25 2022-12-02 东南大学 一种场景驱动的驾驶人危险预知能力测试与评价方法
CN115482699A (zh) * 2022-07-28 2022-12-16 武汉光庭信息技术股份有限公司 虚拟驾驶视频教学方法、系统、存储介质及设备

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012006679A1 (de) * 2012-03-31 2012-09-20 Daimler Ag Verfahren zum Erfassen und Darstellen einer Fahrzeugumgebung eines Fahrzeugs
CN108961790A (zh) * 2018-07-24 2018-12-07 河北德冠隆电子科技有限公司 基于四维实景交通仿真的恶劣天气预警管理系统及方法
CN109141929A (zh) * 2018-10-19 2019-01-04 重庆西部汽车试验场管理有限公司 智能网联汽车仿真测试系统及方法
CN110097635A (zh) * 2019-04-26 2019-08-06 东南大学 基于bim和vr的道路3d漫游模拟驾驶系统建立方法
CN111428571A (zh) * 2020-02-28 2020-07-17 宁波吉利汽车研究开发有限公司 一种车辆引导方法、装置、设备及存储介质
CN112224211A (zh) * 2020-10-19 2021-01-15 中交第一公路勘察设计研究院有限公司 基于多自主体交通流的驾驶模拟仿真系统
CN113453263A (zh) * 2021-06-30 2021-09-28 常州工学院 一种车路协同v2i仿真测试系统及其方法
CN113552883A (zh) * 2021-07-19 2021-10-26 吉林大学 基于深度强化学习的地面无人车自主驾驶方法及系统
CN114385005A (zh) * 2021-12-24 2022-04-22 领悦数字信息技术有限公司 个性化虚拟试驾装置、方法和存储介质
CN114228491A (zh) * 2021-12-29 2022-03-25 重庆长安汽车股份有限公司 具有夜视增强虚拟现实抬头显示系统及方法
CN114859754A (zh) * 2022-04-07 2022-08-05 江苏泽景汽车电子股份有限公司 一种抬头显示系统的仿真测试方法和仿真测试系统
CN115422707A (zh) * 2022-07-25 2022-12-02 东南大学 一种场景驱动的驾驶人危险预知能力测试与评价方法
CN115482699A (zh) * 2022-07-28 2022-12-16 武汉光庭信息技术股份有限公司 虚拟驾驶视频教学方法、系统、存储介质及设备

Similar Documents

Publication Publication Date Title
US11287276B2 (en) Generating navigation instructions
US20180322230A1 (en) Driverless vehicle simulation test method and apparatus, device and readable medium
CN109961522B (zh) 图像投射方法、装置、设备和存储介质
US20160210775A1 (en) Virtual sensor testbed
US20160210383A1 (en) Virtual autonomous response testbed
CN112819968B (zh) 基于混合现实的自动驾驶车辆的测试方法和装置
US20180011953A1 (en) Virtual Sensor Data Generation for Bollard Receiver Detection
WO2022205102A1 (zh) 一种场景处理方法、装置、系统及相关设备
CN114722631A (zh) 车辆测试仿真场景生成方法、装置、电子设备及存储介质
de la Peña et al. AD PerDevKit: An autonomous driving perception development kit using CARLA simulator and ROS
CN114820504B (zh) 图像融合偏差的检测方法、装置、电子设备及存储介质
CN115952570A (zh) Hud仿真方法、装置及计算机可读存储介质
US20240177418A1 (en) Mixed reality-based display device and route guide system
CN115626173A (zh) 一种车辆状态展示方法、装置、存储介质和车辆
US11644331B2 (en) Probe data generating system for simulator
CN111932687B (zh) 车内混合现实显示方法及装置
US12038298B2 (en) Generating navigation instructions
Hafner SIMULATORS–Integration of the real measurement data into the DVRS
US11827150B2 (en) Computer-implemented object visibility improvement by interposing an image in a viewer's line-of-sight
KR102482829B1 (ko) 차량용 ar 디스플레이 장치 및 ar 서비스 플랫폼
WO2023282570A1 (ko) Ar을 이용한 광고판 관리 및 거래 플랫폼
US20240029451A1 (en) Visual presentation of vehicle positioning relative to surrounding objects
CN114247152A (zh) 一种数据处理方法、车载主机及车辆
Leitner et al. Challenges for reproducing real-life test runs in simulation for validating automated driving functions
KR20230007237A (ko) Ar을 이용한 광고판 관리 및 거래 플랫폼

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination