CN115218919B - 航迹线的优化方法、系统和显示器 - Google Patents
航迹线的优化方法、系统和显示器 Download PDFInfo
- Publication number
- CN115218919B CN115218919B CN202211147431.1A CN202211147431A CN115218919B CN 115218919 B CN115218919 B CN 115218919B CN 202211147431 A CN202211147431 A CN 202211147431A CN 115218919 B CN115218919 B CN 115218919B
- Authority
- CN
- China
- Prior art keywords
- line
- flight path
- road
- trajectory
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/265—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network constructional aspects of navigation devices, e.g. housings, mountings, displays
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3446—Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Data Mining & Analysis (AREA)
- Optics & Photonics (AREA)
- Manufacturing & Machinery (AREA)
- Navigation (AREA)
Abstract
本申请涉及一种航迹线的优化方法、系统和显示器。该航迹线的优化方法包括:获取航迹线显示场景,所述航迹线显示场景包括至少一条道路及与所述至少一条道路相匹配的预设航迹线;获取所构建的所述航迹线显示场景和与所述航迹线显示场景中至少一条道路相匹配的当前航迹线;计算当前航迹线和预设航迹线之间匹配结果;以及,基于当前航迹线和预设航迹线的匹配结果优化所述当前航迹线的显示。这样,实现了提高航迹线生成效果的检验和优化的有益效果。
Description
技术领域
本申请涉及增强显示技术领域,更为具体地说,涉及一种航迹线的优化方法、系统和显示器。
背景技术
增强现实抬头显示AR-HUD(Augmented Reality-Head Up Display)是一种增强现实技术、抬头显示技术以及多信息融合技术集成在一起的车载交互技术。AR-HUD相较于传统的HUD还是将挡风玻璃作为显示屏,但是会提供更加远距离的虚拟图像,并与实景相结合的呈现。HUD被重新重视和发展,不仅仅是因为驾驶的安全性和显示的便利性,更加重要的原因是AR技术的拓展,这就让HUD的使用场景有更多的可能。随着ADAS功能、导航等其他传感器功能的增加,及时有效的显示车辆信息以及车辆周边环境信息,也为实现全面自动驾驶提供了有利条件和重要支撑。
AR-HUD由于航迹线的接入,给驾驶者带来便捷安全的交互体验,可以更好的规划行驶路线。但是与此同时,糟糕的UI效果也会极大影响驾驶者的注意力,带来安全风险。目前关于AR-HUD航迹线效果的检验主要为驾驶者实车感受的方式,但是测试场景的不确定,测试的主观性等原因,对于产品开发的迭代和产品性能的检验无法做出科学准确的检验。
基于此,需要寻求一种能够有效检验AR-HUD航迹线效果并进行相应优化的方法和系统。而且随着AR、VR和MR技术的更新迭代,此需求就更为迫切。
但是,目前为止,关于能够有效检验和优化AR-HUD航迹线效果的方法和系统尚属空白,能够检索到的信息仅有AR-HUD航迹线畸变矫正和部分场景的介绍,关于如何客观立体的检验并进行优化尚无有效的解决方案。
因此,本申请期望提供一种航迹线生成效果优化方案。
发明内容
本申请实施例提供了一种航迹线的优化方法、系统和显示器,其通过构建不同道路类型场景,根据不同的道路类型场景,获取当前航迹线和预设航迹线,并对比分析当前航迹线和预设航迹线,获取匹配结果,基于匹配结果优化处理当前航迹线,实现了提高航迹线生成效果的检验和优化的有益效果。
根据本申请的一方面,提供了一种航迹线的优化方法,包括:获取航迹线显示场景,所述航迹线显示场景包括至少一条道路及与所述至少一条道路相匹配的预设航迹线;
基于所述航迹线显示场景,生成与所述航迹线显示场景中至少一条道路相匹配的当前航迹线;
对比处理至少一条道路中所述预设航迹线和当前航迹线,获取至少一条道路中当前航迹线与预设航迹线之间的目标匹配结果;
根据所述目标匹配结果,优化处理所述至少一条道路中的当前航迹线。在一个示例中,上述航迹线的优化方法中,所述获取航迹线显示场景包括:构建包括所述至少一条道路的驾驶场景;获取与所述驾驶场景对应的传感器数据,所述传感器数据用于指示模拟驾驶所述驾驶场景中至少一条道路时传感器产生的数据;以及,确定与所述驾驶场景和所述传感器数据对应的预设航迹线的第一坐标数据。
在一个示例中,上述航迹线的优化方法中,获取所述航迹线显示场景包括:基于所构建的驾驶场景和所述预设航迹线的第一坐标数据在所述驾驶场景中生成所述预设航迹线。
在一个示例中,上述航迹线的优化方法中,获取所构建的所述航迹线显示场景包括:获取所述航迹线显示场景的虚像面和实像面,其中,所述实像面包括所述航迹线显示场景下至少一条道路的真实环境部分,所述虚像面包括所述航迹线显示场景下所述预设航迹线的虚拟数据部分;对所述航迹线显示场景的虚像面和实像面进行数据预处理;确定经过数据预处理的所述航迹线显示场景的虚像面和实像面的数据帧的序列信息;以及,基于所述数据帧的序列信息将所述航迹线显示场景的虚像面和实像面对齐以融合所述虚像面和实像面。
在一个示例中,上述航迹线的优化方法中,获取与所述航迹线显示场景中至少一条道路相匹配的当前航迹线包括:基于所述驾驶场景和所述传感器数据模拟所述驾驶场景中至少一条道路的驾驶过程,确定至少一条道路的第二坐标数据;基于所述第二坐标数据,生成所述当前航迹线。
在一个示例中,上述航迹线的优化方法中,在确定所述当前航迹线的第二坐标数据之后,进一步包括:使用预定标定方法生成相机像素坐标系下的所述第二坐标数据到世界坐标系下的第三坐标数据的转换矩阵;将所述第二坐标数据与所述转换矩阵相乘以获得所述第三坐标数据;以及,基于所述第三坐标数据生成所述当前航迹线。
在一个示例中,上述航迹线的优化方法中,获取与所述至少一条道路对应的驾驶场景之前进一步包括:确定用于检验航迹线生成效果的数据集,根据所述数据集,创建所述至少一条道路对应的驾驶场景;其中,所述数据集至少满足如下条件:包含第一类型的道路和第二类型的道路;所述第一类型的道路与所述第二类型的道路具有预定比例;以及,每个类型的道路具有预定时长,且各个类型的道路之间的比例小于预设阈值。
在一个示例中,上述航迹线的优化方法中,获取至少一条道路中所述预设航迹线和当前航迹线之间的目标匹配结果,包括:
获取所述当前航迹线和预设航迹线之间的匹配模型,所述匹配模型包括匹配算法和匹配参数,所述匹配参数包括匹配度和方向一致性中的至少一个;
根据所述匹配模型,计算至少一条道路中所述预设航迹线和当前航迹线之间的目标匹配结果。
在一个示例中,上述航迹线的优化方法中,若匹配参数包括匹配度,则所述获取至少一条道路中所述预设航迹线和当前航迹线之间的目标匹配结果,包括:
计算所述当前航迹线与所述预设航迹线形成的实际面积;
根据所述当前航迹线和所述预设航迹线覆盖的垂直距离确定作为常数的参考面积;
根据所述实际面积与所述参考面积的面积比值,生成目标匹配结果。
在一个示例中,若匹配参数包括方向一致性,则所述获取至少一条道路中所述预设航迹线和当前航迹线之间的目标匹配结果,包括:
计算所述当前航迹线与所述预设航迹线的远端距离;
根据所述当前航迹线和所述预设航迹线覆盖的垂直距离确定作为常数的参考距离;
根据所述远端距离与所述参考距离的距离比值,生成目标匹配结果。
在一个示例中,上述航迹线的优化方法中,优化处理当前航迹线,包括:
获取当前航迹线的航迹线生成算法;
基于所述目标匹配结果,优化处理所述生成航迹线生成算法的计算参数;
基于优化后的航迹线生成算法,优化处理所述当前航迹线。
在一个示例中,上述航迹线的优化方法中,在基于当前航迹线和预设航迹线的匹配结果优化所述当前航迹线的显示之后进一步包括:将优化后的航迹线反馈至所述航迹线显示场景,以迭代所述航迹线生成效果的优化。
根据本申请的另一方面,提供了一种显示器,用于执行如上所述的航迹线的优化方法。
根据本申请的再一方面,提供了一种航迹线生成效果优化系统,包括:
航迹线场景获取模块,用于获取航迹线显示场景,所述航迹线显示场景包括至少一条道路及所述至少一条道路相匹配的预设航迹线;
当前航迹线获取模块,用于基于所述航迹线显示场景,生成与所述航迹线显示场景中至少一条道路相匹配的当前航迹线;
航迹线对比模块,用于对比处理至少一条道路中所述预设航迹线和当前航迹线,获取至少一条道路中当前航迹线与预设航迹线之间的目标匹配结果;
航迹线优化模块,用于根据所述目标匹配结果,优化处理所述至少一条道路中的当前航迹线。
本申请实施例提供的航迹线的优化方法、系统和显示器,其通过构建不同道路类型场景,根据不同的道路类型场景,获取至少一条道路中的当前航迹线和预设航迹线,并对比分析当前航迹线和预设航迹线,获取匹配结果,基于匹配结果优化处理当前航迹线,实现了提高航迹线生成效果的检验和优化的有益效果。
附图说明
通过阅读下文优选的具体实施方式中的详细描述,本申请各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。说明书附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。显而易见地,下面描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。而且在整个附图中,用相同的附图标记表示相同的部件。
图1图示了本申请实施例中航迹线的优化方法的示意性流程图。
图2图示了本申请实施例中航迹线场景构建模块的示意性框图。
图3图示了本申请实施例中航迹线显示模块的示意性框图。
图4图示了本申请实施例中航迹线对比模块的示意性框图。
图5图示了本申请实施例中航迹线匹配度的示意图。
图6图示了本申请实施例中航迹线方向一致性的示意图。
图7的(A)和(B)分别图示本申请实施例这数据集中的常规道路和极限道路的示意图。
图8图示了本申请实施例中航迹线优化模块的示意性框图。
图9图示了本申请实施例中航迹线的优化方法的应用示例的示意性流程图。
图10图示了本申请实施例中航迹线生成效果优化系统的示意性框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
示意性方法
图1图示了根据本申请实施例的航迹线的优化方法的示意性流程图。
如图1所示,根据本申请实施例中航迹线的优化方法包括以下步骤:
S10,获取航迹线显示场景。
所述航迹线显示场景包括至少一条道路及与所述至少一条道路相匹配的预设航迹线。
本申请实施例中首先获取用于预设航迹线和当前航迹线显示的工况场景,其中,获取指的是基于现有场景进行匹配,或者匹配和显示。并且,所述航迹线显示场景包括具有不同道路类型的工况场景,例如包括左拐、掉头、直行、上坡等工况场景。也就是,所述航迹线显示场景包括至少一条道路,并且,所述航迹线显示场景还包括与所述至少一条道路相匹配的预设航迹线。具体地,所述预设航迹线在所述航迹线显示场景中具体表现为第一坐标数据。
此外,在所述航迹线显示场景中还可以包括道路中出现的障碍物,比如人或者坑;所述航迹线显示场景中也可以包括不同天气的道路,比如晴天或者雨天;所述航迹线显示场景中也可以包括不同等级的道路,比如高速公路、省级道路和市区道路。这样,丰富的场景可以提高航迹线生成效果检验的准确性。
S20,基于所述航迹线显示场景,生成与所述航迹线显示场景中至少一条道路相匹配的当前航迹线。
在生成当前航迹线后,可以基于增强现实抬头显示技术来显示当前航迹线,同时也可以显示所构建的所述航迹线显示场景中至少一条道路的预设航迹线和当前航迹线。
此外,在本申请实施例中,在显示所述当前航迹线和所述预设航迹线时,也可以显示其它采集的画面。
S30,对比处理至少一条道路中所述预设航迹线和当前航迹线,获取至少一条道路中当前航迹线与预设航迹线之间的目标匹配结果。
在本申请实施例中,可以基于匹配模型来计算至少一条道路中当前航迹线与预设航迹线之间的目标匹配结果,其中匹配模型主要涉及匹配参数、匹配算法和预设数据,最终形成当前航迹线和预设航迹线的匹配结果。
S40,根据所述目标匹配结果,优化处理所述至少一条道路中的当前航迹线。
也就是,通过所述当前航迹线与预设航迹线对比分析后的匹配结果,相应地进行所述当前航迹线的显示的优化,例如,可以通过闭环迭代的方式进行优化。
因此,根据本申请实施例的航迹线的优化方法通过匹配模型和预设航迹线来检验当前航迹线的生成效果,当用于包括增强现实抬头显示(AR-HUD)的各种显示应用时,可以准确定位产品的性能,使得开发中的问题可复现故障,具备测试的可重复性,并且可以针对性的指导产品的开发方向,加速产品的迭代速度。
下面,将对上述根据本申请实施例的航迹线的优化方法的各个步骤进行详细说明。
获取航迹线显示场景例如可以由航迹线场景构建模块101实现。图2图示了根据本申请实施例的航迹线场景构建模块的示意性框图。如图2所示,所述航迹线场景构建模块101主要包括计算机系统1011,3D引擎1012和传感器系统1013。其中,计算机系统1011用于完成场景的搭建,3D引擎1012,用于完成模拟驾驶的全过程,并实时通过网络协议发送数据,从而完成多种道路类型在不同工况下的场景,且传感器系统1013用于提供各种数据,例如车辆数据1013A、环境数据1013B和传感器数据1013C。
也就是,在根据本申请实施例的航迹线的优化方法中,所述获取航迹线显示场景包括:构建包括所述至少一条道路的驾驶场景;获取与所述驾驶场景对应的传感器数据,所述传感器数据用于指示模拟驾驶所述驾驶场景中至少一条道路时传感器产生的数据;以及,确定与所述驾驶场景和所述传感器数据对应的预设航迹线的第一坐标数据。
这样,基于所构建的包括所述至少一条道路的驾驶场景,通过与所述驾驶场景和所述传感器数据对应的预设航迹线的第一坐标数据,就可以直接在所述驾驶场景中在与所述预设航迹线的第一坐标数据对应的位置生成所述预设航迹线。
也就是,在上述航迹线的优化方法中,获取所构建的所述航迹线显示场景包括:基于所构建的驾驶场景和所述预设航迹线的第一坐标数据在所述驾驶场景中生成所述预设航迹线。
另外,针对所构建的航迹线显示场景,可以进一步包括数据集单元1014,所述数据集单元1014用于确定用于检验航迹线生成效果的数据集,即,构建的航迹线显示场景的数据集。也就是,任何航迹线生成效果的检验都是基于特定版本的数据集,而在本申请实施例中,所述特定版本的数据集例,可以按照如下的特征汇总:
1)包含常规道路和极限道路的,如图7的(A)和(B)所示,其中,图7的(A)和(B)分别图示根据本申请实施例的数据集中的常规道路和极限道路的示意图。
2)常规道路和极限道路的比例,例如比例为8:2。
3)每一类型的道路必须满足一定的时长,各个类型之间的比例小于或者等于预设阈值。
因此,在根据本申请实施例的航迹线的优化方法中,获取与所述至少一条道路对应的驾驶场景之前进一步包括:确定用于检验航迹线生成效果的数据集,其中,所述数据集满足如下条件:包含第一类型的道路和第二类型的道路;所述第一类型的道路与所述第二类型的道路具有预定比例;每个类型的道路具有预定时长,且各个类型的道路之间的比例小于或者等于预设阈值。
由此,在构建航迹线显示场景时,可以从所述数据集单元1014中选择具体的道路数据来构建航迹线显示场景。
获取所构建的所述航迹线显示场景和获取与所述航迹线显示场景中至少一条道路相匹配的当前航迹线,例如可以由航迹线显示模块102实现。图3图示了根据本申请实施例的航迹线显示模块的示意性框图。如图3所示,所述航迹线显示模块102,主要包括增强现实抬头显示单元1021(例如简写为AR-HUD 1021)、显示单元1022、相机单元1023、电源1014和外围接口1025。这里,所述航迹线显示模块102主要实现虚实结合的像面融合和显示。其中,所述显示单元1022用于呈现所述航迹线场景构建模块101构建的航迹线显示场景,其可以为投影幕布,也可以为显示屏等,用于真实的航迹线显示场景的输出显示。
所述AR-HUD 1021主要实现显示单元1022描述的真实环境像面对应的UI虚像面的输出。具体地,所述AR-HUD 1021主要包含光机1021A、电源1021B、控制器1021C、外围接口1021D、结构件1021E、风挡玻璃1021F、AR软件1021G等。光机1021A,用于实现航迹线的生成,控制器1021C,用于实现诸如反射镜反转调整像面位置等功能,风挡玻璃1021F,用于实现航迹线的反射投影, AR软件1021G,用于完成AR-HUD的软件实现,如,通过接受航迹线场景构建模块101发送的数据,基于该数据生成与该数据所对应的当前航迹线的图像数据,最后通过光机1021A投影到挡风玻璃上。
所述相机单元1023,用于实现所述预设航迹线和所述当前航迹线的图像数据的显示,其中镜头1023A为高清镜头,用于实现融合虚实像面后像面的捕捉,支架1023B包括调整像面上下左右前后六个位置的位置调节,外围接线1023C用于连接所述相机单元1023与其它单元。
因此,在根据本申请实施例中航迹线的优化方法中,在构建的所述航迹线显示场景下显示当前航迹线和预设航迹线,包括:显示所述航迹线显示场景;显示与所述航迹线显示场景对应的用户虚像面,其中,所述用户虚像面包括所述当前航迹线和所述预设航迹线。
具体地,在显示所构建的航迹线显示场景时,首先获取所述航迹线显示场景中至少一条道路的虚像面和实像面,其中,所述实像面包括所述航迹线显示场景下至少一条道路的真实环境部分,所述虚像面包括所述航迹线显示场景下所述预设航迹线的虚拟数据部分。其次,对所述航迹线显示场景的虚像面和实像面进行数据预处理,例如,数据预处理包括图像帧的抓取,感兴趣区域的裁剪等。第三,确定经过数据预处理的所述航迹线显示场景的虚像面和实像面的数据帧的序列信息,例如数据帧的ID。最后,基于所述数据帧的序列信息,将所述航迹线显示场景的虚像面和实像面对齐处理,以融合所述虚像面和实像面。
因此,在根据本申请实施例的航迹线的优化方法中,获取所构建的航迹线显示场景包括:获取所述航迹线显示场景的虚像面和实像面,其中,所述实像面包括所述航迹线显示场景下至少一条道路的真实环境部分,所述虚像面包括所述航迹线显示场景下的所述预设航迹线的虚拟数据部分;对所述航迹线显示场景的虚像面和实像面进行数据预处理;确定经过数据预处理的所述航迹线显示场景的虚像面和实像面的数据帧的序列信息;以及,基于所述数据帧的序列信息将所述航迹线显示场景的虚像面和实像面对齐以融合所述虚像面和实像面。
另一方面,为了显示与所述航迹线显示场景中至少一条道路相匹配的当前航迹线,首先、基于所述驾驶场景和所述传感器数据模拟所述驾驶场景中至少一条道路的驾驶过程,以确定至少一条道路的第二坐标数据,并基于第二坐标数据生成当前航迹线。
然后,使用预定标定方法,例如张正友标定方法,生成相机像素坐标系下的所述第二坐标数据到世界坐标系下的第三坐标数据的转换矩阵,并将所述第二坐标数据与所述转换矩阵相乘以获得所述第三坐标数据,这样,就得到了在世界坐标系下当前道路的第三坐标数据。
最后,基于所述第三坐标数据生成所述当前航迹线。
因此,在根据本申请实施例的航迹线的优化方法中,获取与所述航迹线显示场景中至少一条道路相匹配的当前航迹线包括:基于所述驾驶场景和所述传感器数据模拟所述驾驶场景中至少一条道路的驾驶过程,确定用于生成当前航迹线的第二坐标数据,并基于第二坐标数据生成当前航迹线。
并且,在上述航迹线的优化方法中,在确定至少一条道路的第二坐标数据之后,进一步包括:使用预定标定方法生成相机像素坐标系下的所述第二坐标数据到世界坐标系下的第三坐标数据的转换矩阵;将所述第二坐标数据与所述转换矩阵相乘以获得所述第三坐标数据;以及,基于所述第三坐标数据生成所述当前航迹线。
通过在第三坐标系中显示当前航迹线,即可以实现在HUD或者其他显示设备中显示当前航迹线,如,用户坐在驾驶位可以通过HUD显示至风挡玻璃的图像,获取当前航迹线的显示效果。
上述的用于实现第二坐标系转换至第三坐标系的转换矩阵可以根据HUD光学仪器的参数或者其他显示设备的显示参数进行设置。
这里,本领域技术人员可以理解,在本申请实施例中,所述航迹线场景构建模块101和所述航迹线显示模块102的实现,可以与实际应用的例如实现AR-HUD技术的模块相同,为了避免模糊本申请的实质特征在这里不特别具体描述。
图4图示了根据本申请实施例的航迹线对比模块的示意性框图。如图4所示,航迹线对比模块103,主要用于对比分析当前航迹线和预设航迹线,并获取当前航迹线和预设航迹线的匹配结果,例如所述当前航迹线可以是AR-HUD技术显示的航迹线。其中,所述航迹线对比模块103主要包括匹配参数单元1031和匹配算法单元1032。
在匹配参数单元1031中,本申请实施例提出使用匹配模型来检验当前航迹线和预设航迹线的匹配效果,从而优化当前航迹线的生成效果,匹配模型至少可以包括匹配度和方向一致性等匹配参数。
其中,匹配度(Registration)的计算方法为所述预设航迹线和所述当前航迹线形成的多边形面积,主要用于检验所述当前航迹线的贴地效果和准确性,如图5所示。图5图示了根据本申请实施例的航迹线匹配度的示意图。
具体地,如图5所示,图中实线表示预设航迹线,虚线为当前航迹线。预设航迹线和当前航迹线有两种位置关系,分别为相交状态和左右关系。则预设航迹线和当前航迹线的匹配度的计算流程如下:
1)计算预设航迹线和当前航迹线两条曲线形成的面积,生成计算结果,例如记为Area_track;
2)获取区域常量,例如记为Area_Norm,该区域常量根据测试需求定义,主要依据为根据航迹线覆盖的垂直距离;
3)预设航迹线和当前航迹线的匹配度的计算:如公式(1)所示:
Registration=1-Area_track/Area_Norm(1)。
上述公式(1)中的Registration指示预设航迹线和当前航迹线匹配度,Area_track指示预设航迹线和当前航迹线两条曲线形成的面积,Area_Norm指示区域常量。
在本申请实施例中,匹配度取值范围为[0, 1],结果趋近于1说明匹配度贴地效果和准确性更好;反之,结果趋近于0,则证明效果差。
另外,为了增加检验效果的完整性,在本申请实施例中进一步采用方向一致性的检验。
方向一致性(Directivity)的计算方法为预设航迹线和当前航迹线的远端的水平距离,主要检验航迹线的准确性。加入这一匹配参数的原因主要是:以图6为例,左右两图计算下来的面积相同,但是右图中的导航信息可能会引入方向性的错误引导。因此引入远端水平差距的检验,确保整体指引信息的正确性。这里,图6图示了根据本申请实施例的航迹线方向一致性的示意图。其中,实线表示预设航迹线,虚线为当前航迹线。
预设航迹线和当前航迹线的方向一致性的计算流程如下:
1)计算预设航迹线和当前航迹线两条曲线远端的距离,获取计算结果,标记为远端距离,例如记为Distance_far-end;
2)获取距离常量,例如记为Distance_Norm,该距离常量根据测试需求定义,主要依据为根据航迹线覆盖的垂直距离;
3)预设航迹线和当前航迹线的方向一致性的计算,如公式(2)所示:
Directivity=1-Distance_far-end/Distance_Norm(2)。
上述公式(2)中的Directivity用于指示预设航迹线和当前航迹线的方向一致性,Distance_far-end用于指示远端距离,Distance_Norm用于指示距离常量,上述,预设航迹线和当前航迹线方向一致性取值范围为[0, 1],结果趋近于1说明方向指引性更好;反之,结果趋近于0,则证明效果更差。
因此,在根据本申请实施例的航迹线的优化方法中,计算当前航迹线和预设航迹线之间匹配结果的匹配模型包括:匹配参数和匹配算法,其中匹配参数包括:匹配度和方向一致性中的至少一个。
匹配算法单元1032用于实现匹配结果的计算,即按照如上所述计算当前航迹线和预设航迹线的匹配度和方向一致性,计算当前航迹线和预设航迹线是否匹配。
因此,在根据本申请实施例的航迹线的优化方法中,计算当前航迹线和预设航迹线之间匹配结果的匹配模型包括:匹配参数和匹配算法,根据匹配参数和匹配算法,计算所述当前航迹线和预设航迹线的匹配结果。
并且,在根据本申请实施例的航迹线的优化方法中,所述匹配度的计算过程为:计算所述当前航迹线与所述预设航迹线形成的实际面积;根据所述当前航迹线和所述预设航迹线覆盖的垂直距离,确定作为常数的参考面积;
根据所述实际面积与所述参考面积的面积比值,生成目标匹配结果,即计算匹配度。
例如,匹配度的计算过程可以是:预设值减去根据所述实际面积与所述参考面积的面积比值的差值。
若,匹配度取值范围为[0, 1], 预设值取值为1时,方向性一致的计算结果趋近于1说明匹配度贴地效果和准确性更好;反之,结果趋近于0,则证明效果更差。
计算匹配度为1减去所述实际面积与所述参考面积的面积比值的差值。
此外,在根据本申请实施例的航迹线的优化方法中,所述方向一致性的计算过程为:计算所述当前航迹线与所述预设航迹线的远端距离;根据所述当前航迹线和所述预设航迹线覆盖的垂直距离,确定作为常数的参考距离;根据所述远端距离与所述参考距离的距离比值,生成目标匹配结果,即计算方向一致性。
例如,方向性一致的计算过程可以是:预设值减去所述远端距离与所述参考距离的距离比值的差值。
若,方向一致性取值范围为[0, 1],预设值取值为1时,方向性一致的计算结果趋近于1说明方向指引性更好;反之,结果趋近于0,则证明效果更差。
进一步,在本申请实施例中,所述当前航迹线和预设航迹线之间匹配结果的计算可以实现为匹配系统,例如其用于完成整个匹配过程的计算,主要包括匹配算法的软件实现和数据的计算。
图8图示了根据本申请实施例的航迹线优化模块104的示意性框图。如图8所示,在获得所述当前航迹线的匹配结果之后,基于所述匹配结果,优化所述当前航迹线的生成。
具体地,所述航迹线优化模块104,用于优化AR-HUD航迹线生成效果,航迹线优化模块104主要包括匹配结果解读单元1041,航迹线算法优化诊断单元1042和航迹线算法优化单元1043等。
其中匹配结果解读单元1041,用于完成匹配结果的解读。例如:通过匹配度可以分析得出航迹线的贴地效果,通过方向一致性可以得到航迹线的方向性是否正确等。
航迹线算法优化诊断单元1042主要根据匹配结果解读单元1041的结果确定算法的问题所在,例如:方向一致性效果不好可能因为航迹线生成算法在远端的参数设置不匹配引起等。然后根据结论反向推出参数的最优解。
航迹线算法优化单元1043根据航迹线算法优化诊断单元1042的结论,修改算法的参数。然后,可以将结果反馈至航迹线场景构建模块101,进行新一轮的优化。
此外,在实际应用中,可以根据不同道路情况来匹配相应的权重。例如,弯道状态下的权重大,直道中的权重小,常规场景权重小,极限场景权重大。并且,所有权重值可以均小于1且满足正态分布,由此来根据结果决策是否进行参数更新或者算法优化。
因此,在根据本申请实施例的航迹线的优化方法中,基于当前航迹线和预设航迹线的匹配结果优化所述当前航迹线的显示包括:获取当前航迹线的航迹线生成算法;基于所述目标匹配结果,优化处理所述生成航迹线生成算法的计算参数;基于优化后的航迹线生成算法,优化处理所述当前航迹线。
并且,在根据本申请实施例的航迹线的优化方法中,在基于当前航迹线和预设航迹线的匹配结果优化所述当前航迹线的显示之后进一步包括:将优化后的航迹线反馈至所述航迹线显示场景,以迭代所述航迹线生成效果的优化。
本申请实施例提供的航迹线的优化方法,其通过构建不同道路类型场景,根据不同的道路类型场景,获取当前航迹线和预设航迹线,并对比分析当前航迹线和预设航迹线,并根据预设航迹线检验当前航迹线的生成效果,最后根据检验效果进行优化,实现了提高航迹线生成效果的检验和优化的有益效果。
应用示例
图9图示了根据本申请实施例的航迹线的优化方法的应用示例的示意性流程图。
如图9所示,当根据本申请实施例的航迹线的优化方法应用于航迹线的AR-HUD显示的产品性能测试时,其流程如下:
S000:激活系统。
S001:初始化,进行AR-HUD和传感器等设备的自检。
S002:获取检验列表。
在该列表中会列出检验航迹线待测试的场景明细,即上文所指特定版本的数据集。该数据集有不同道路类型,并且比例结构满足特定的要求,可以保证检验数据的合理性和均衡性,最终保证匹配结果的准确性。
S003:航迹线场景生成。
本步骤会根据S002中的列表生成对应的场景视频,该步骤会同步传输预设航迹线轨迹;
S004:S003中生成的场景视频通过HDMI传输给显示单元1022,显示单元1022可以为投影幕布,也可以为显示屏幕。
S005:实境像面投影,该步骤进行实境像面的投影,用来还原真实的实车环境;
S006:AR-HUD航迹线UI投影,AR软件1021G实时通过网络接收S003发送的数据,然后根据数据计算出航迹线的位置,并渲染成航迹线轨迹,然后通过光机投影出来,最终投影到风挡玻璃1021F上。
S007:虚实像面融合。
在虚实图像进行融合处理后,透过风挡玻璃1021F,可以看到虚实像面的融合像面。
S008:虚实像面的获取。
本申请采用相机获取虚实像面的方式,相机的镜头1023A位于风挡玻璃后,可获取到航迹线的像面。
S009:数据预处理。
在通过S008获取到航迹线像面后,进行数据的预处理,其中,预处理步骤包括图像帧的抓取,感兴趣区域的裁剪等。
S010:数据帧ID的获取。
本申请中虚实图像结合后的显示需要确定数据的帧ID,确定需要进行偏差计算的对应实境像面和对应的UI虚像面,在获取的画面中会分别叠加实境像面和虚像面的的帧ID,通过图像算法可以解析帧ID。
S011:数据的对齐操作。
在S010中获取到实境像面和虚像面的帧ID,在本步骤进行数据的对齐操作,确保数据是一一对应的。
S012:航迹线轨迹的获取。
该步骤中航迹线轨迹的获取分为两部分,一部分是预设航迹线的获取,该部分通过S003中处理的数据,可以直接获取到预设航迹线的轨迹;另一部分是AR-HUD航迹线的获取:通过图像处理的方式,首先得到AR-HUD航迹线的在相机坐标系中的像素坐标,然后经过S013,S014得到AR-HUD航迹线的在世界坐标系下的轨迹。
S013:转换矩阵的生成。
在S012中航迹线的坐标为相机像素坐标,需要进行坐标转换,将航迹线转换至世界坐标系,本步骤采用的坐标转换矩阵可以采用张正友标定方法生成转换矩阵。
S014:获取AR-HUD航迹线在世界坐标系下轨迹。
求取方法为像素坐标与转换矩阵的相乘得到。
S015:预设航迹线和实际航迹线匹配度计算。
计算流程如上所述S30中所述。
S016:预设航迹线和实际航迹线方向一致性计算,计算流程如上所述。
S017:判断是否所有的检验列表数据都执行完毕,如果是,则进行最终的结果分析输出;如果否则返回S002执行下一条数据。
S018:S002中所有检验列表数据均执行完毕,根据单条数据的特点,匹配相应的权重计算最终的匹配结果。
举例说明,弯道状态下的权重大,直道中的权重小,常规场景权重小,极限场景全重大,所有权重值均小于1且满足正态分布,然后根据结果决策是否进行参数更新或者算法优化。
S019:如果是,则执行S020,如果否则执行S023结束。
S020:解读S018的测试结果,分析造成当前航迹线效果偏差的问题所在,生成分析结果,例如,通过匹配度可以分析得出当前航迹线的贴地效果,通过方向一致性可以得到当前航迹线的方向性是否正确等。
S021:航迹线算法优化诊断系统,在该流程部分,会根据S020的分析结果确定当前航迹线优化的方向,确定优化参数的学习率方向。
S022:根据S021确定的优化策略,修改航迹线算法中对应的参数,然后将结果反馈至S002进行。
S023:结束。
示意性系统
图10图示了根据本申请实施例的航迹线生成效果优化系统的示意性框图。
如图10所示,根据本申请实施例的航迹线生成效果优化系统200包括:航迹线场景获取模块210、当前航迹线获取模块220、航迹线对比模块230和航迹线优化模块240。
其中,航迹线场景获取模块210,用于获取航迹线显示场景,所述航迹线显示场景包括至少一条道路及所述至少一条道路相匹配的预设航迹线。
当前航迹线获取模块220,基于所述航迹线显示场景,生成与所述航迹线显示场景中至少一条道路相匹配的当前航迹线。
航迹线对比模块230,用于对比处理至少一条道路中所述预设航迹线和当前航迹线,获取至少一条道路中当前航迹线与预设航迹线之间的目标匹配结果。
航迹线优化模块240,用于根据所述目标匹配结果,优化处理所述至少一条道路中的当前航迹线。
本申请实施例提供的航迹线生成效果优化系统,通过构建不同道路类型场景,根据不同的道路类型场景,获取至少一条道路中当前航迹线和预设航迹线,并对比分析,并确定预设航迹线与当前航迹线之间的匹配结果,最后根据匹配结果进行优化,实现了提高航迹线生成效果和优化的有益效果。
这里,本领域技术人员可以理解,上述根据本申请实施例的航迹线生成效果优化系统200中的各个模块和单元的功能已经在上文中关于根据本申请实施例的航迹线的优化方法的说明中进行了详细描述,为了避免冗余便不再赘述。
此外,本申请实施例提供一种用于执行如上所述的航迹线的优化方法的显示器,以优化当前航迹线的生成效果。例如,所述显示器可以是基于增强现实抬头显示AR-HUD技术的车载显示器。
此外,本申请实施例提供一种用于执行如上所述的航迹线的优化方法的运输工具,如车辆,以优化当前航迹线的生成效果。该运输工具中配置上述的显示器,该显示器可以是基于增强现实抬头显示AR-HUD技术的车载显示器。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (11)
1.一种航迹线的优化方法,其特征在于,包括:
获取航迹线显示场景,所述航迹线显示场景包括至少一条道路及与所述至少一条道路相匹配的预设航迹线;
基于所述航迹线显示场景,生成与所述航迹线显示场景中至少一条道路相匹配的当前航迹线;
对比处理至少一条道路中所述预设航迹线和当前航迹线,获取至少一条道路中当前航迹线与预设航迹线之间的目标匹配结果;
根据所述目标匹配结果,优化处理所述至少一条道路中的当前航迹线;
所述获取航迹线显示场景,包括:
构建包括所述至少一条道路的驾驶场景;
获取与所述驾驶场景对应的传感器数据,所述传感器数据用于指示模拟驾驶所述驾驶场景中至少一条道路时传感器产生的数据;以及,
确定与所述驾驶场景和所述传感器数据对应的预设航迹线的第一坐标数据;
获取所述航迹线显示场景,包括:
基于所构建的驾驶场景和所述预设航迹线的第一坐标数据在所述驾驶场景中生成所述预设航迹线;
获取至少一条道路相匹配的当前航迹线,包括:
基于所述驾驶场景和所述传感器数据模拟所述驾驶场景中至少一条道路的驾驶过程,确定至少一条道路的第二坐标数据;
基于所述第二坐标数据,生成所述当前航迹线。
2.根据权利要求1所述的航迹线的优化方法,其特征在于,获取所述航迹线显示场景,包括:
获取所述航迹线显示场景的虚像面和实像面,其中,所述实像面包括所述航迹线显示场景下至少一条道路的真实环境部分,所述虚像面包括所述航迹线显示场景下的所述预设航迹线的虚拟数据部分;
对所述航迹线显示场景的虚像面和实像面进行数据预处理;
确定经过数据预处理的所述航迹线显示场景的虚像面和实像面的数据帧的序列信息;以及
基于所述数据帧的序列信息将所述航迹线显示场景的虚像面和实像面对齐处理,以融合所述虚像面和实像面。
3.根据权利要求1所述的航迹线的优化方法,其特征在于,基于所述第二坐标数据,生成所述当前航迹线,包括:
生成所述第二坐标数据到世界坐标系下的第三坐标数据的转换矩阵;
将所述第二坐标数据与所述转换矩阵相乘以获得所述第三坐标数据;
基于所述第三坐标数据,生成所述当前航迹线。
4.根据权利要求1所述的航迹线的优化方法,其特征在于,在获取与所述至少一条道路对应的驾驶场景之前,所述方法还包括:
确定用于检验航迹线生成效果的数据集;
根据所述数据集,创建所述至少一条道路对应的驾驶场景;
其中,所述数据集至少满足如下条件:
包含第一类型的道路和第二类型的道路;
所述第一类型的道路与所述第二类型的道路具有预定比例;
每个类型的道路具有预定时长,且各个类型的道路之间的比例小于预设阈值。
5.根据权利要求1所述的航迹线的优化方法,其特征在于,所述获取至少一条道路中当前航迹线与预设航迹线之间的目标匹配结果,包括:
获取所述当前航迹线与预设航迹线之间的匹配模型,所述匹配模型包括匹配算法和匹配参数,所述匹配参数包括匹配度和方向一致性中的至少一个;
根据所述匹配模型,计算至少一条道路中所述当前航迹线与预设航迹线之间的目标匹配结果。
6.根据权利要求5所述的航迹线的优化方法,其特征在于,若匹配参数包括匹配度,则所述获取至少一条道路中所述当前航迹线与预设航迹线之间的目标匹配结果,包括:
计算所述当前航迹线与所述预设航迹线形成的实际面积;
根据所述当前航迹线和所述预设航迹线覆盖的垂直距离确定作为常数的参考面积;
根据所述实际面积与所述参考面积的面积比值,生成目标匹配结果。
7.根据权利要求5所述的航迹线的优化方法,其特征在于,若匹配参数包括方向一致性,则所述获取至少一条道路中所述当前航迹线与预设航迹线之间的目标匹配结果,包括:
计算所述当前航迹线与所述预设航迹线的远端距离;
根据所述当前航迹线和所述预设航迹线覆盖的垂直距离确定作为常数的参考距离;
根据所述远端距离与所述参考距离的距离比值,生成目标匹配结果。
8.根据权利要求1所述的航迹线的优化方法,其特征在于,所述优化处理所述至少一条道路中的当前航迹线,包括:
获取所述至少一条道路中的当前航迹线的航迹线生成算法;
基于所述目标匹配结果,优化处理所述航迹线生成算法的计算参数;
基于优化后的航迹线生成算法,优化处理所述至少一条道路中的当前航迹线。
9.根据权利要求8所述的航迹线的优化方法,其特征在于,优化处理所述当前航迹线之后,还包括:
将优化后的航迹线反馈至所述航迹线显示场景,以迭代所述航迹线生成效果的优化。
10.一种显示器,其特征在于,用于执行如权利要求1-9任一项所述的航迹线的优化方法。
11.一种航迹线生成效果优化系统,其特征在于,包括:
航迹线场景获取模块,用于获取航迹线显示场景,所述航迹线显示场景包括至少一条道路及所述至少一条道路相匹配的预设航迹线;
当前航迹线获取模块,用于基于所述航迹线显示场景,生成与所述航迹线显示场景中至少一条道路相匹配的当前航迹线;
航迹线对比模块,用于对比处理至少一条道路中所述预设航迹线和当前航迹线,获取至少一条道路中当前航迹线与预设航迹线之间的目标匹配结果;
航迹线优化模块,用于根据所述目标匹配结果,优化处理所述至少一条道路中的当前航迹线;
所述获取航迹线显示场景,包括:
构建包括所述至少一条道路的驾驶场景;
获取与所述驾驶场景对应的传感器数据,所述传感器数据用于指示模拟驾驶所述驾驶场景中至少一条道路时传感器产生的数据;以及,
确定与所述驾驶场景和所述传感器数据对应的预设航迹线的第一坐标数据;
获取所述航迹线显示场景,包括:
基于所构建的驾驶场景和所述预设航迹线的第一坐标数据在所述驾驶场景中生成所述预设航迹线;
获取至少一条道路相匹配的当前航迹线,包括:
基于所述驾驶场景和所述传感器数据模拟所述驾驶场景中至少一条道路的驾驶过程,确定至少一条道路的第二坐标数据;
基于所述第二坐标数据,生成所述当前航迹线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211147431.1A CN115218919B (zh) | 2022-09-21 | 2022-09-21 | 航迹线的优化方法、系统和显示器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211147431.1A CN115218919B (zh) | 2022-09-21 | 2022-09-21 | 航迹线的优化方法、系统和显示器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115218919A CN115218919A (zh) | 2022-10-21 |
CN115218919B true CN115218919B (zh) | 2022-12-13 |
Family
ID=83617085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211147431.1A Active CN115218919B (zh) | 2022-09-21 | 2022-09-21 | 航迹线的优化方法、系统和显示器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115218919B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115493614B (zh) * | 2022-11-21 | 2023-03-24 | 泽景(西安)汽车电子有限责任公司 | 航迹线的显示方法、装置、存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019011039A1 (zh) * | 2017-07-10 | 2019-01-17 | 比亚迪股份有限公司 | 道岔信息处理方法及装置 |
CN112561932A (zh) * | 2020-12-14 | 2021-03-26 | 深兰人工智能(深圳)有限公司 | 航迹线去噪方法、装置、电子设备和存储介质 |
KR20210070250A (ko) * | 2020-05-28 | 2021-06-14 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 실경 내비게이션 아이콘 표시 방법, 장치, 기기 및 매체 |
CN114357232A (zh) * | 2021-11-29 | 2022-04-15 | 武汉理工大学 | 提取船舶航迹线特征的处理方法、系统、装置及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105333883B (zh) * | 2014-08-07 | 2018-08-14 | 深圳点石创新科技有限公司 | 一种用于抬头显示器的导航路径轨迹显示方法和装置 |
CN113467600A (zh) * | 2020-03-31 | 2021-10-01 | 深圳光峰科技股份有限公司 | 基于增强现实的信息显示方法、系统、装置及投影设备 |
JP7409265B2 (ja) * | 2020-08-31 | 2024-01-09 | トヨタ自動車株式会社 | 車載表示装置、方法およびプログラム |
CN112634297B (zh) * | 2020-12-14 | 2024-05-28 | 深兰人工智能(深圳)有限公司 | 高精地图制作方法、装置、电子设备和存储介质 |
CN113607184B (zh) * | 2021-09-15 | 2024-05-24 | 新石器慧通(北京)科技有限公司 | 车辆导航方法、装置、电子设备及存储介质 |
-
2022
- 2022-09-21 CN CN202211147431.1A patent/CN115218919B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019011039A1 (zh) * | 2017-07-10 | 2019-01-17 | 比亚迪股份有限公司 | 道岔信息处理方法及装置 |
KR20210070250A (ko) * | 2020-05-28 | 2021-06-14 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 실경 내비게이션 아이콘 표시 방법, 장치, 기기 및 매체 |
CN112561932A (zh) * | 2020-12-14 | 2021-03-26 | 深兰人工智能(深圳)有限公司 | 航迹线去噪方法、装置、电子设备和存储介质 |
CN114357232A (zh) * | 2021-11-29 | 2022-04-15 | 武汉理工大学 | 提取船舶航迹线特征的处理方法、系统、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
船舶监控系统中航迹线动态绘制算法应用研究;张峰等;《海洋测绘》;20080531(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115218919A (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6548691B2 (ja) | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 | |
US10482003B1 (en) | Method and system for modifying a control unit of an autonomous car | |
CN106803271B (zh) | 一种视觉导航无人机的摄像机标定方法及装置 | |
CN105378506B (zh) | 移动成像平台校准 | |
CN112925223B (zh) | 基于视觉传感网络的无人机三维跟踪虚拟测试仿真系统 | |
WO2022141294A1 (zh) | 仿真测试方法、系统、仿真器、存储介质及程序产品 | |
CN109446892B (zh) | 基于深度神经网络的人眼注意力定位方法及系统 | |
WO2022205102A1 (zh) | 一种场景处理方法、装置、系统及相关设备 | |
CN108171673A (zh) | 图像处理方法、装置、车载抬头显示系统及车辆 | |
CN108805979A (zh) | 一种动态模型三维重建方法、装置、设备和存储介质 | |
CN109690622A (zh) | 多相机系统中的相机登记 | |
CN115218919B (zh) | 航迹线的优化方法、系统和显示器 | |
CN110062916A (zh) | 用于模拟可移动平台的操作的视觉模拟系统 | |
Hospach et al. | Simulation of falling rain for robustness testing of video-based surround sensing systems | |
CN105931261A (zh) | 一种双目立体相机外参数修正方法及装置 | |
CN111062869A (zh) | 一种面向曲面幕的多通道校正拼接的方法 | |
US20210056318A1 (en) | Behavior model of an environment sensor | |
CN109064829A (zh) | 一种无人驾驶车辆视觉感知能力测试方法及系统 | |
CN116978010A (zh) | 图像标注方法和装置、存储介质和电子设备 | |
CN113946128A (zh) | 一种无人机集群半实物仿真控制系统 | |
CN111862146B (zh) | 一种目标对象的定位方法及装置 | |
CN116433865A (zh) | 一种基于场景可重建性分析的空地协同采集路径规划方法 | |
CN114820504B (zh) | 图像融合偏差的检测方法、装置、电子设备及存储介质 | |
CN114004957B (zh) | 增强现实图片的生成方法、装置、设备和存储介质 | |
CN105740913A (zh) | 基于异源光学景象匹配目标模板的性能评估系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |