CN114155300A - 一种车载hud系统投影效果检测方法及装置 - Google Patents

一种车载hud系统投影效果检测方法及装置 Download PDF

Info

Publication number
CN114155300A
CN114155300A CN202111270524.9A CN202111270524A CN114155300A CN 114155300 A CN114155300 A CN 114155300A CN 202111270524 A CN202111270524 A CN 202111270524A CN 114155300 A CN114155300 A CN 114155300A
Authority
CN
China
Prior art keywords
hud
projection
virtual image
human eye
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111270524.9A
Other languages
English (en)
Inventor
周中奎
王强
罗啟飞
李银国
孙博望
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Lilong Technology Industry Group Co ltd
Original Assignee
Chongqing Lilong Technology Industry Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Lilong Technology Industry Group Co ltd filed Critical Chongqing Lilong Technology Industry Group Co ltd
Priority to CN202111270524.9A priority Critical patent/CN114155300A/zh
Publication of CN114155300A publication Critical patent/CN114155300A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种车载HUD系统投影效果检测方法及装置。所述车载HUD系统投影效果检测方法,包括以下步骤:S1,车辆前方放置标定板,标定人眼模拟设备,建立标定板坐标系与车辆坐标系的转换关系;S2,调整人眼模拟设备的位置,测量HUD的可视区域和最佳可视区域;最佳可视区域的最大内接矩形区域记作待测HUD系统的EyeBox区域;S3,采集人眼模拟设备在EyeBox区域的各视点获得的标定板图像和HUD投影虚像图像,计算虚像成像距离(VID)、对比度、畸变、亮度均匀度、亮度调节范围、重影以及视场角FOV。

Description

一种车载HUD系统投影效果检测方法及装置
技术领域
本发明涉及HUD检测技术领域,具体涉及一种车载HUD系统投影效果检测方法及装置。
背景技术
车载HUD将驾驶辅助信息投射到挡风玻璃,再反射到驾驶员前向视域内,既能扩展驾驶员的环境感知信息,又能避免驾驶员过多地低头查看仪表,从而有效地提高了驾驶的安全性。
为保障车载HUD在投入市场使用前,各项功能指标均能满足设计要求与使用要求。在出厂前需对车载HUD系统进行测试,对HUD投影虚像的距离、畸变、EyeBox区域大小等重要参数进行检测,判断其是否合格。
车载HUD系统中包含汽车挡风玻璃、HUD光机、控制模块等几大部分组成。若其中某个部分存在加工或设计缺陷都可能会影响使用者的使用安全与使用感受。为此需要对车载HUD系统投影效果进行全面的检测,确保车载HUD在投入市场使用前,各项功能指标均能满足设计要求与使用要求。目前,国内外研究学者对HUD虚像成像质量进行了大量研究,例如申请公布号为CN108132156A的申请公开了一种车用HUD全功能检测方法,该方法提供了一种可对HUD投影虚像位置、可视角度、屏幕背光亮度等参数检测的设备及方法。但仍缺乏对虚像大小、畸变、重影等重要参数的检测。
发明内容
本发明的目的在于克服现有技术中所存在的HUD检测方法不能全面准确的检测HUD投影效果的不足,提供一种车载HUD系统投影效果检测方法及装置。
为了实现上述发明目的,本发明提供了以下技术方案:
一种车载HUD系统投影效果检测方法,包括以下步骤:
S1,车辆前方放置标定板,标定人眼模拟设备,建立标定板坐标系与车辆坐标系的转换关系;
S2,调整人眼模拟设备的位置,测量HUD的可视区域和最佳可视区域;所述可视区域为人眼模拟设备中至少有一个相机能完整采集HUD投影虚像的位置的集合;所述最佳可视区域为人眼模拟设备的相机均能完整采集HUD投影虚像的位置的集合;最佳可视区域的最大内接矩形区域记作待测HUD系统的EyeBox区域;
S3,使用人眼模拟设备在EyeBox区域的各视点下捕获标定板图像与HUD投影虚像图像,计算虚像成像距离;
根据预设的ROI区域,获取人眼模拟设备在EyeBox区域各视点下捕获的HUD投影虚像图像的ROI区域,计算对比度;
将人眼模拟设备在EyeBox区域的各视点时,采集的HUD投影虚像图像的所有角点畸变的平均值记作EyeBox区域的各视点的HUD系统畸变;其中角点畸变的计算方式为:依据虚像成像距离设置投影平面,投影虚像图像中的角点映射于投影平面,记作投影点;投影点与该角点的在投影平面的理论位置点的距离记作角点畸变;
调节HUD系统输出亮度值,采集HUD系统输出不同亮度值时,人眼模拟设备处于EyeBox区域同一位置的HUD投影虚像图像;计算HUD系统不同亮度值时的HUD投影虚像图像的亮度均匀度;计算HUD系统输出的亮度值最小和亮度值最大时,HUD投影虚像图像的平均亮度,获取HUD投影虚像图像的亮度调节范围;根据自适应阈值判断不同亮度时,HUD投影虚像图像的各点是否存在重影,若存在重影则根据像素灰度值变化进行聚类,获取各点的重影在图像上的范围;
将HUD系统输出亮度值调节至最大值,采集人眼模拟设备在EyeBox区域的中心位置的HUD投影虚像图像和标定板图像,根据HUD投影虚像图像最大内接矩形的4个边界角点计算视场角FOV。
优选地,所述步骤S2的实施方式如下所示:采用双目相机作为人眼模拟设备,采用协作机器人调整双目相机的位置,HUD系统投影的图像设置为棋盘格图像。
优选地,所述步骤S3通过以下步骤计算虚像成像距离:
根据已知参数的人眼模拟设备在EyeBox区域内的多个视点捕获的标定板图像,标定人眼模拟设备的外参;
通过角点提取算法获取人眼模拟设备各相机拍摄的HUD投影虚像图像中的角点坐标,对同一视点人眼模拟设备的不同相机拍摄的HUD投影虚像图像中对应的角点进行匹配;计算各角点的空间三维坐标;
计算EyeBox区域的各视点的HUD投影虚像图像的各角点的深度信息的平均值,记作虚像成像距离。
优选地,所述步骤S3通过以下步骤计算对比度:
使用人眼模拟设备在EyeBox区域内获取HUD投影虚像图像,根据预设的ROI区域选取HUD投影虚像图像的多个局部区域,在每个局部区域内利用下式进行局部区域对比度计算:
Figure BDA0003328588290000041
其中:
Figure BDA0003328588290000042
表示相邻像素间的灰度差;
Figure BDA0003328588290000043
表示相邻像素间的灰度差为
Figure BDA0003328588290000044
时的像素分布概率;
多个局部区域的对比度的平均值即为该视点的对比度。。
优选地,所述步骤S3通过以下步骤计算畸变:
对人眼模拟设备采集的HUD投影虚像图像进行预处理操作,然后分别获取HUD投影虚像图像的各角点映射于投影平面的投影点;所述投影平面为垂直于Y轴,深度与HUD虚像成像距离相同的平面;所有投影点组成映射区域,获取映射区域的最大内接矩形区域,根据HUD输入图像的分辨率对最大内接矩形区域进行采样量化,计算投影点的坐标;根据输入图像的坐标与投影点的坐标计算畸变;输入图像的点P(x,y)经投影映射后的投影点P'(x',y'),点P处的畸变λ表示为:
Figure BDA0003328588290000045
其中(x0,y0)是图像中心点坐标。
那么在相机拍摄图像的视点位置下所观察到的HUD畸变大小表示为:
Figure BDA0003328588290000046
其中,n为特征点数目,以此分别计算出在EyeBox区域内的平均畸变。
优选地,所述步骤S3通过以下步骤计算检测HUD投影虚像图像的亮度均匀度:
将HUD系统输出的亮度值从最小调节至最大,并通过双目相机在EyeBox区域的同一位置处捕获在HUD系统输出不同亮度值时的HUD投影虚像图像;
分别计算HUD系统输出不同亮度值时投影虚像图像的亮度均匀度;某一亮度值时的亮度均匀度的计算方式为:依次统计捕获的HUD投影虚像图像在多个自定义区域(例如图3中的ROI区域)的灰度平均值,比较多个自定义区域的灰度平均值的大小,得到最大灰度平均值Imax和最小灰度平均值Imin,最小灰度平均值与最大灰度平均值的比值Imin/Imax为亮度均匀度的数值大小。
优选地,所述步骤步骤S3通过以下步骤计算检测HUD投影虚像图像的亮度范围:
分别计算在HUD系统输出亮度值最小时所有自定义区域的灰度平均值的均值,记作最小亮度
Figure BDA0003328588290000051
以及亮度值最大时的所有自定义区域的灰度平均值的均值,记作最大亮度β;得到HUD亮度调节范围[α,β]。
优选地,所述步骤S3通过以下步骤检测重影:
分析HUD系统输出不同亮度值时的HUD投影虚像图像中各点灰度值变化情况,根据图像灰度变化情况得到自适应阈值,并根据自适应阈值对灰度图像进行处理,判断各点是否存在重影,若存在重影则根据像素灰度值变化进行聚类,获取各点的重影在图像上的范围,并通过下式求取重影大小:
G=arctan(h/f)
其中h表示重影范围拟合圆形的直径,f表示相机的焦距。
优选地,所述步骤S3通过以下步骤计算测量视场角FOV:
将HUD系统输出亮度值调节至最大,并通过人眼模拟设备在EyeBox区域的中心位置处捕获HUD投影图像与标定板图像;
利用标定板图像对人眼模拟设备进行标定,获取人眼模拟设备的外参;对人眼模拟设的各相机获取的HUD投影虚像图像分别进行预处理,获取HUD投影虚像图像的最大内接矩形的4个边界角点,并将4个角点映射到投影平面,所述投影平面为深度与HUD虚像成像距离相同的平面,获取边界角点的空间三维坐标,根据EyeBox区域的中心位置处视点和边界角点的空间三维坐标计算水平视场角、垂直视场角以及对角线视场角。
一种车载HUD系统投影效果检测装置,包括标定板,人眼模拟设备、位置调节装置以及控制器;人眼模拟设备的输出端与控制器的输入端连接,控制器的输出端与位置调节装置的输入端连接;所述控制器用于根据上述的方法控制位置调节装置调节人眼模拟设备的位置,并采集人眼模拟设备拍摄的图像,检测投影效果。
与现有技术相比,本发明的有益效果:本发明提供了一种车载HUD系统投影效果检测方法及装置,通过对HUD系统可视区域、虚像成像距离、对比度、畸变、亮度均匀度、亮度调节范围、重影以及视场角FOV等进行全面的检测分析,可实现高效率、高准确率的对车载HUD系统投影效果的各项指标进行检测。
附图说明:
图1为本发明示例性实施例1的车载HUD系统投影效果检测方法的流程图;
图2为本发明示例性实施例1的棋盘格图像示意图;
图3为本发明示例性实施例1的ROI区域示意图;
图4为本发明示例性实施例1的投影平面示意图;
图5为本发明示例性实施例1的视场角FOV示意图。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
实施例1
如图1所示,本实施例提供一种车载HUD系统投影效果检测方法,包括以下步骤:
S1,车辆前方放置标定板,标定人眼模拟设备,建立标定板坐标系与车辆坐标系的转换关系;
S2,调整人眼模拟设备的位置,测量HUD的可视区域和最佳可视区域;所述可视区域为人眼模拟设备中至少有一个相机能完整采集HUD投影虚像的位置的集合;所述最佳可视区域为人眼模拟设备的相机均能完整采集HUD投影虚像的位置的集合;最佳可视区域的最大内接矩形区域记作待测HUD系统的EyeBox区域;
S3,使用人眼模拟设备在EyeBox区域的各视点下捕获标定板图像与HUD投影虚像图像,计算虚像成像距离;
根据预设的ROI区域,获取人眼模拟设备在EyeBox区域各视点下捕获的HUD投影虚像图像的ROI区域,计算对比度;
使用人眼模拟设备在EyeBox区域的各视点下,采集HUD投影虚像图像,计算虚像中所有角点的角点畸变平均值,记作EyeBox区域各视点的HUD投影图像畸变;其中角点畸变的计算方式为:依据虚像成像距离设置投影平面,投影虚像图像中的角点映射于投影平面,记作投影点;投影点与该角点在投影平面的理论位置点的距离记作角点畸变;
调节HUD系统输出亮度值,采集HUD系统输出不同亮度值时,人眼模拟设备处于EyeBox区域同一位置的HUD投影虚像图像;计算HUD系统不同亮度值时的HUD投影虚像图像的亮度均匀度;计算HUD系统输出的亮度值最小和亮度值最大时,HUD投影虚像图像的平均亮度,获取HUD投影虚像图像的亮度调节范围;根据自适应阈值判断不同亮度时,HUD投影虚像图像的各点是否存在重影,若存在重影则根据像素灰度值变化进行聚类,获取各点的重影在图像上的范围;
将HUD系统输出亮度值调节至最大值,采集人眼模拟设备在EyeBox区域的中心位置的HUD投影虚像图像和标定板图像,根据HUD投影虚像图像各角点所在区域内的最大内接矩形的4个边界角点,计算视场角FOV。
根据上述的HUD投影虚像图像各角点所在区域内的最大内接矩形的4个边界角点,利用相机参数可计算其在投影平面的空间位置,即可表示虚像大小。
通过对HUD系统可视区域、虚像成像距离、对比度、畸变、亮度均匀度、亮度调节范围、重影、虚像大小以及视场角FOV等进行全面的检测分析,以实现高效率、高准确率的对车载HUD系统投影效果的各项指标进行检测,便于车载HUD系统的优化设计。
具体的,步骤S2的实施方式如下所示:采用双目相机作为人眼模拟设备,采用机械手臂或协作机器人调整双目相机的位置,HUD投影图像设置为棋盘格图像(如图2所示,棋盘格图像图案规则便于计算)。将机械手臂或协作机器人伸入待测HUD产品所装配的车内,以设定步长从左到右,从上到下,从前到后依次移动机械手臂或协作机器人,每次移动后,利用双目相机拍摄车辆前方的标定板,再使用双目相机拍摄HUD投影虚像,即经HUD投射的棋盘格图像的虚像,得到HUD投影虚像图像。若双目相机的左右两个相机都能完整拍摄棋盘格图中的矩形框,则双目相机光心所在位置的视点处于HUD产品的最佳可视区域内,并将上述图像存储。若双目相机的左右两个相机中任意一相机能完整拍摄棋盘格图中的矩形框,则双目相机光心所在位置的视点处于HUD产品的可视区域内,并将上述图像存储。最佳可视区域的最大内接矩形区域即为待测HUD产品的EyeBox区域。车载HUD的EyeBox区域表示驾驶员能完整查看HUD投影图像的眼位活动区域。
具体的,步骤S3通过以下步骤计算虚像成像距离:
根据已知参数的人眼模拟设备在EyeBox区域内的多个视点捕获的标定板图像,标定人眼模拟设备的外参;
通过角点提取算法获取人眼模拟设备各相机拍摄的HUD投影虚像图像中的角点坐标,对同一视点人眼模拟设备的不同相机拍摄的HUD投影虚像图像中对应的角点进行匹配;计算各角点的空间三维坐标;
计算EyeBox区域的各视点的HUD投影虚像图像的各角点的深度信息的平均值,记作虚像成像距离(VID)。深度信息为角点在Y轴方向的数值,坐标系以车辆正前方作为Y轴正向。
示例性的,根据已知相机参数(内参与畸变系数)的双目相机采集的标定板图像,利用张正友标定法计算标定相机外参。所述外参用于表示相机坐标系与世界坐标系(车辆坐标系)之间的相对位置关系。通过角点提取算法获取双目相机的左右相机分别拍摄的HUD投影虚像图像中棋盘格角点坐标,并通过双目匹配将左右相机的视图上对应的角点匹配起来。根据上述获取的匹配角点对,利用双目视差原理计算各角点的空间三维坐标。根据上述步骤可获取在EyeBox区域内,各个视点下HUD投影虚像图像的各角点的深度信息,可求取其平均值作为HUD投影虚像成像距离。另外对上述各视点下获取的角点的空间三维坐标进行曲面拟合,可获取各个视点下HUD投影虚像成像曲面,直观的查看HUD投影虚像成像距离。
示例性的,步骤S3通过以下步骤计算对比度:
使用双目相机在EyeBox区域内获取HUD投影虚像图像,根据预设的ROI区域选取HUD投影虚像图像的多个局部区域,在每个局部区域内利用下式进行局部区域对比度计算:
Figure BDA0003328588290000101
其中:
Figure BDA0003328588290000102
表示相邻像素间的灰度差;
Figure BDA0003328588290000103
表示相邻像素间的灰度差为
Figure BDA0003328588290000104
时的像素分布概率;
多个局部区域的对比度的平均值即为该视点的对比度。具体的,预设的ROI区域可以为图3中虚线框所示的区域。
示例性的,步骤S3通过以下步骤计算畸变:
使用双目相机在EyeBox区域的各视点拍摄HUD投影虚像(HUD投影的棋盘格虚像),记作HUD投影虚像图像,进行如下步骤:
对双目相机采集的HUD投影虚像图像进行裁剪和二值化等预处理操作,然后分别获取左右视图的HUD投影虚像图像的各角点映射于投影平面的投影点;所述投影平面为垂直于Y轴,深度与HUD虚像成像距离相同的平面;所有投影点组成映射区域,获取映射区域的最大内接矩形区域,根据HUD输入图像的分辨率对最大内接矩形区域进行采样量化,计算投影点的坐标;根据输入图像的坐标与投影点的坐标计算畸变;输入图像的点P(x,y),经投影映射后的投影点P'(x',y'),点P处的畸变λ表示为:
Figure BDA0003328588290000111
其中(x0,y0)是图像中心点坐标。
那么在相机拍摄图像的视点位置下所观察到的HUD畸变大小表示为:
Figure BDA0003328588290000112
其中,n为特征点数目,以此可计算出在EyeBox区域各视点下HUD投影虚像的平均畸变。
如图4所示,HUD的输入图像中有一点P(x,y),P点经过HUD投影并映射到投影平面,得到P'点;得到原输入图像中的所有点经过映射投影后组合形成的区域的最大内接矩形R;按照原输入图像的分辨率对最大内接矩形R进行采样量化,计算与P点坐标一致的P'点的坐标P'(x',y')。然后就可在同一坐标系下计算点的畸变,并通过统计等方式计算图像的畸变。
示例性的,步骤S3通过以下步骤计算检测HUD投影虚像图像的亮度调节范围与亮度均匀度:
将HUD系统输出的亮度值从最小调节至最大,并通过双目相机在EyeBox区域的同一位置处捕获在HUD系统输出不同亮度值时的HUD投影虚像图像。由于中心位置采集的HUD投影虚像图像的效果最好,因此本申请捕获中心位置的HUD投影虚像图像用于亮度调节范围与亮度均匀度的分析。
分别计算HUD系统输出不同亮度值时投影虚像图像的亮度均匀度;某一亮度值时的亮度均匀度的计算方式为:依次统计捕获的HUD投影虚像图像在多个自定义区域(例如图3中的ROI区域)的灰度平均值,比较多个自定义区域的灰度平均值的大小,得到最大灰度平均值Imax和最小灰度平均值Imin,最小灰度平均值与最大灰度平均值的比值Imin/Imax为亮度均匀度的数值大小。依次获取HUD系统在各亮度设置下的亮度均匀度,亮度均匀度的数值越大,表示HUD输出图像的亮度越均匀。
亮度调节范围的分析过程如下:分别计算在HUD系统输出亮度值最小时所有自定义区域的灰度平均值的均值,记作最小亮度
Figure BDA0003328588290000121
以及亮度值最大时的所有自定义区域的灰度平均值的均值,记作最大亮度β,得到HUD亮度调节范围[α,β]。
示例性的,步骤S3通过以下步骤检测重影:
将HUD系统输出的亮度值从最小调节至最大,并通过双目相机在EyeBox区域的同一位置处捕获在HUD系统输出不同亮度值时的HUD投影虚像图像,分析各HUD投影虚像图像中各点灰度值变化情况,根据图像灰度变化情况得到自适应阈值,并根据自适应阈值对灰度图像进行处理,判断各点是否存在重影,若存在重影则根据像素灰度值变化进行聚类,获取各点的重影在图像上的范围,并通过下式求取重影大小:
G=arctan(h/f)
其中h表示重影范围拟合圆形的直径,f表示相机的焦距。
示例性的,步骤S3通过以下步骤计算测量视场角FOV:
首先,将HUD系统输出亮度值调节至最大,并通过人眼模拟设备在EyeBox区域的中心位置处捕获HUD投影图像与标定板图像;
然后,利用标定板图像对人眼模拟设备进行标定,获取人眼模拟设备的外参;对人眼模拟设的各相机获取的HUD投影虚像图像分别进行预处理,获取HUD投影虚像图像的最大内接矩形的4个边界角点,并将4个角点映射到投影平面(深度与HUD虚像成像距离相同的平面)获取边界角点的空间三维坐标,根据EyeBox区域的中心位置处视点和边界角点的空间三维坐标计算水平视场角、垂直视场角以及对角线视场角。
FOV(Field of View,视场角)表示HUD投影所形成的虚像中,人眼可观察到部分的边缘与人眼瞳孔中心连线的夹角,包括水平视场角、垂直视场角、对角线视场角。视场角越大,HUD设备带来的沉浸感就会越强。本实施例通过在EyeBox区域的中心位置处捕获图像,以清晰地拍摄到HUD投影虚像图像,然后通过灰度化等图像处理操作对HUD投影虚像图像进行预处理,以便得到边界角点,进行视场角的计算。视场角的计算过程如下所示:
假设上述,在视点E处观察到的HUD投影虚像图像的4个边界角点以左上角的点为起点,顺时针方向排列,记作点A(Xa,Y0,Za)、B(Xb,Y0,Zb)、C(Xc,Y0,Zc)、D(Xd,Y0,Zd);其中由于4个角点都映射到投影平面,即其Y轴坐标值相同,均为HUD虚像成像距离值Y0;人眼模拟设备的双目相机的位置为E(Xe,Ye,Ze);
则水平视场角FOVw可表示为:
FOVw=arccos([(Xa-Xe)(Xb-Xe)+(Ya-Ye)(Yb-Ye)]/|EA||EB|)
其中EA=(Xa-Xe,Ya-Ye),EB=(Xb-Xe,Yb-Ye);
垂直视场角FOVh可表示为:
FOVh=arccos([(Xa-Xe)(Xd-Xe)+(Ya-Ye)(Yd-Ye)]/|EA||ED|)
其中ED=(Xd-Xe,Yd-Ye);
对角线视场角FOVv可表示为:
FOVv=arccos([(Xa-Xe)(Xc-Xe)+(Ya-Ye)(Yc-Ye)]/|EA||EC|)
其中EC=(Xc-Xe,Yc-Ye)。
通过对HUD系统可视区域、虚像成像距离、对比度、畸变、亮度均匀度、亮度调节范围、重影以及视场角FOV等进行全面的检测分析,以实现高效率、高准确率的对车载HUD系统投影效果的各项指标进行检测。
实施例2
本实施例提供一种车载HUD系统投影效果检测装置,包括标定板,人眼模拟设备、位置调节装置以及控制器;人眼模拟设备的输出端与控制器的输入端连接,控制器的输出端与位置调节装置的输入端连接;所述控制器用于根据实施例1所述的方法控制位置调节装置调节人眼模拟设备的位置,并采集人眼模拟设备拍摄的图像,检测投影效果。
具体的,本实施例所述人眼模拟设备采用的相机,为了更好地模拟人眼的视觉效果,采用的高分辨率的定焦双目相机,所述双目相机左右相机间距为61mm。所述位置调节装置采用的机械手臂,通过相机支架将相机固定在机械手臂上,便于模拟不同位置人眼观看HUD投影的情况;为了更准确的调节位置,本实施采用六轴的高精度协作机器人。
根据待测HUD系统所应用的车型,安装车载HUD系统投影效果检测装置,并初始化机械手臂的位姿。同时在待测HUD系统所装配的车辆的前方,放置标定板,并建立标定板坐标系与车辆坐标系的转换关系,控制器根据实施例1所述的方法控制位置调节装置调节人眼模拟设备的位置,并采集人眼模拟设备拍摄的图像,检测投影效果。
以上所述,仅为本发明具体实施方式的详细说明,而非对本发明的限制。相关技术领域的技术人员在不脱离本发明的原则和范围的情况下,做出的各种替换、变型以及改进均应包含在本发明的保护范围之内。

Claims (10)

1.一种车载HUD系统投影效果检测方法,其特征在于,包括以下步骤:
S1,车辆前方放置标定板,标定人眼模拟设备,建立标定板坐标系与车辆坐标系的转换关系;
S2,调整人眼模拟设备的位置,测量HUD的可视区域和最佳可视区域;所述可视区域为人眼模拟设备中至少有一个相机能完整采集HUD投影虚像的位置的集合;所述最佳可视区域为人眼模拟设备的相机均能完整采集HUD投影虚像的位置的集合;最佳可视区域的最大内接矩形区域记作待测HUD系统的EyeBox区域;
S3,使用人眼模拟设备在EyeBox区域的各视点下捕获标定板图像与HUD投影虚像图像,计算虚像成像距离;
根据预设的ROI区域,获取人眼模拟设备在EyeBox区域各视点下捕获的HUD投影虚像图像的ROI区域,计算对比度;
将人眼模拟设备在EyeBox区域的各视点时,采集的HUD投影虚像图像的所有角点畸变的平均值记作EyeBox区域的各视点的HUD系统畸变;其中角点畸变的计算方式为:依据虚像成像距离设置投影平面,投影虚像图像中的角点映射于投影平面,记作投影点;投影点与该角点的在投影平面的理论位置点的距离记作角点畸变;
调节HUD系统输出亮度值,采集HUD系统输出不同亮度值时,人眼模拟设备处于EyeBox区域同一位置的HUD投影虚像图像;计算HUD系统不同亮度值时的HUD投影虚像图像的亮度均匀度;计算HUD系统输出的亮度值最小和亮度值最大时,HUD投影虚像图像的平均亮度,获取HUD投影虚像图像的亮度调节范围;根据自适应阈值判断不同亮度时,HUD投影虚像图像的各点是否存在重影,若存在重影则根据像素灰度值变化进行聚类,获取各点的重影在图像上的范围;
将HUD系统输出亮度值调节至最大值,采集人眼模拟设备在EyeBox区域的中心位置的HUD投影虚像图像和标定板图像,根据HUD投影虚像图像最大内接矩形的4个边界角点计算视场角FOV。
2.根据权利要求1所述的车载HUD系统投影效果检测方法,其特征在于,所述步骤S2的实施方式如下所示:采用双目相机作为人眼模拟设备,采用协作机器人调整双目相机的位置,HUD系统投影的图像设置为棋盘格图像。
3.根据权利要求1所述的车载HUD系统投影效果检测方法,其特征在于,所述步骤S3通过以下步骤计算虚像成像距离:
根据已知参数的人眼模拟设备在EyeBox区域内的多个视点捕获的标定板图像,标定人眼模拟设备的外参;
通过角点提取算法获取人眼模拟设备各相机拍摄的HUD投影虚像图像中的角点坐标,对同一视点人眼模拟设备的不同相机拍摄的HUD投影虚像图像中对应的角点进行匹配;计算各角点的空间三维坐标;
计算EyeBox区域的各视点的HUD投影虚像图像的各角点的深度信息的平均值,记作虚像成像距离。
4.根据权利要求1所述的车载HUD系统投影效果检测方法,其特征在于,所述步骤S3通过以下步骤计算对比度:
使用人眼模拟设备在EyeBox区域内获取HUD投影虚像图像,根据预设的ROI区域选取HUD投影虚像图像的多个局部区域,在每个局部区域内利用下式进行局部区域对比度计算:
Figure FDA0003328588280000031
其中:
Figure FDA0003328588280000032
表示相邻像素间的灰度差;
Figure FDA0003328588280000036
表示相邻像素间的灰度差为
Figure FDA0003328588280000033
时的像素分布概率;
多个局部区域的对比度的平均值即为该视点的对比度。
5.根据权利要求1所述的车载HUD系统投影效果检测方法,其特征在于,所述步骤S3通过以下步骤计算畸变:
对人眼模拟设备采集的HUD投影虚像图像进行预处理操作,然后分别获取HUD投影虚像图像的各角点映射于投影平面的投影点;所述投影平面为垂直于Y轴,深度与HUD虚像成像距离相同的平面;所有投影点组成映射区域,获取映射区域的最大内接矩形区域,根据HUD输入图像的分辨率对最大内接矩形区域进行采样量化,计算投影点的坐标;根据输入图像的坐标与投影点的坐标计算畸变;输入图像的点P(x,y)经投影映射后的投影点P'(x',y'),点P处的畸变λ表示为:
Figure FDA0003328588280000034
其中(x0,y0)是图像中心点坐标。
那么在相机拍摄图像的视点位置下所观察到的HUD畸变大小表示为:
Figure FDA0003328588280000035
其中,n为特征点数目,以此分别计算出在EyeBox区域内的平均畸变。
6.根据权利要求1所述的车载HUD系统投影效果检测方法,其特征在于,所述步骤S3通过以下步骤计算检测HUD投影虚像图像的亮度均匀度:
将HUD系统输出的亮度值从最小调节至最大,并通过双目相机在EyeBox区域的同一位置处捕获在HUD系统输出不同亮度值时的HUD投影虚像图像;
分别计算HUD系统输出不同亮度值时投影虚像图像的亮度均匀度;某一亮度值时的亮度均匀度的计算方式为:依次统计捕获的HUD投影虚像图像在多个自定义区域(例如图3中的ROI区域)的灰度平均值,比较多个自定义区域的灰度平均值的大小,得到最大灰度平均值Imax和最小灰度平均值Imin,最小灰度平均值与最大灰度平均值的比值Imin/Imax为亮度均匀度的数值大小。
7.根据权利要求1所述的车载HUD系统投影效果检测方法,其特征在于,所述步骤步骤S3通过以下步骤计算检测HUD投影虚像图像的亮度范围:
分别计算在HUD系统输出亮度值最小时所有自定义区域的灰度平均值的均值,记作最小亮度
Figure FDA0003328588280000041
以及亮度值最大时的所有自定义区域的灰度平均值的均值,记作最大亮度β;得到HUD亮度调节范围[α,β]。
8.根据权利要求1所述的车载HUD系统投影效果检测方法,其特征在于,所述步骤S3通过以下步骤检测重影:
分析HUD系统输出不同亮度值时的HUD投影虚像图像中各点灰度值变化情况,根据图像灰度变化情况得到自适应阈值,并根据自适应阈值对灰度图像进行处理,判断各点是否存在重影,若存在重影则根据像素灰度值变化进行聚类,获取各点的重影在图像上的范围,并通过下式求取重影大小:
G=arctan(h/f)
其中h表示重影范围拟合圆形的直径,f表示相机的焦距。
9.根据权利要求1所述的车载HUD系统投影效果检测方法,其特征在于,所述步骤S3通过以下步骤计算测量视场角FOV:
将HUD系统输出亮度值调节至最大,并通过人眼模拟设备在EyeBox区域的中心位置处捕获HUD投影图像与标定板图像;
利用标定板图像对人眼模拟设备进行标定,获取人眼模拟设备的外参;对人眼模拟设的各相机获取的HUD投影虚像图像分别进行预处理,获取HUD投影虚像图像的最大内接矩形的4个边界角点,并将4个角点映射到投影平面,所述投影平面为深度与HUD虚像成像距离相同的平面,获取边界角点的空间三维坐标,根据EyeBox区域的中心位置处视点和边界角点的空间三维坐标计算水平视场角、垂直视场角以及对角线视场角。
10.一种车载HUD系统投影效果检测装置,其特征在于,包括标定板,人眼模拟设备、位置调节装置以及控制器;人眼模拟设备的输出端与控制器的输入端连接,控制器的输出端与位置调节装置的输入端连接;所述控制器用于根据权利要求1至9任一项所述的方法控制位置调节装置调节人眼模拟设备的位置,并采集人眼模拟设备拍摄的图像,检测投影效果。
CN202111270524.9A 2021-10-29 2021-10-29 一种车载hud系统投影效果检测方法及装置 Pending CN114155300A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111270524.9A CN114155300A (zh) 2021-10-29 2021-10-29 一种车载hud系统投影效果检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111270524.9A CN114155300A (zh) 2021-10-29 2021-10-29 一种车载hud系统投影效果检测方法及装置

Publications (1)

Publication Number Publication Date
CN114155300A true CN114155300A (zh) 2022-03-08

Family

ID=80458564

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111270524.9A Pending CN114155300A (zh) 2021-10-29 2021-10-29 一种车载hud系统投影效果检测方法及装置

Country Status (1)

Country Link
CN (1) CN114155300A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115866218A (zh) * 2022-11-03 2023-03-28 重庆化工职业学院 一种场景图像融合的车载ar-hud亮度自适应调节方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013220013A1 (de) * 2012-10-11 2014-04-17 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Abbildungsflächenmodellierung für die Kameramodellierung und für die Synthese virtueller Ansichten
CN106489096A (zh) * 2015-06-11 2017-03-08 法国圣戈班玻璃厂 用于平视显示器(hud)的投影装置
CN108344562A (zh) * 2018-03-12 2018-07-31 福耀集团(上海)汽车玻璃有限公司 一种hud前挡玻璃检测设备及方法
CN109901355A (zh) * 2019-04-19 2019-06-18 深圳市当智科技有限公司 基于对比度加直方图的多元化投影仪自动对焦方法
CN111586263A (zh) * 2020-03-27 2020-08-25 广东技术师范大学 一种汽车hud虚像的成像质量检测方法
CN112655024A (zh) * 2020-10-30 2021-04-13 华为技术有限公司 一种图像标定方法及装置
CN113034607A (zh) * 2021-03-03 2021-06-25 恒大新能源汽车投资控股集团有限公司 一种车载投影设备的安装标定方法、系统及电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013220013A1 (de) * 2012-10-11 2014-04-17 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Abbildungsflächenmodellierung für die Kameramodellierung und für die Synthese virtueller Ansichten
CN106489096A (zh) * 2015-06-11 2017-03-08 法国圣戈班玻璃厂 用于平视显示器(hud)的投影装置
CN108344562A (zh) * 2018-03-12 2018-07-31 福耀集团(上海)汽车玻璃有限公司 一种hud前挡玻璃检测设备及方法
CN109901355A (zh) * 2019-04-19 2019-06-18 深圳市当智科技有限公司 基于对比度加直方图的多元化投影仪自动对焦方法
CN111586263A (zh) * 2020-03-27 2020-08-25 广东技术师范大学 一种汽车hud虚像的成像质量检测方法
CN112655024A (zh) * 2020-10-30 2021-04-13 华为技术有限公司 一种图像标定方法及装置
CN113034607A (zh) * 2021-03-03 2021-06-25 恒大新能源汽车投资控股集团有限公司 一种车载投影设备的安装标定方法、系统及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115866218A (zh) * 2022-11-03 2023-03-28 重庆化工职业学院 一种场景图像融合的车载ar-hud亮度自适应调节方法
CN115866218B (zh) * 2022-11-03 2024-04-16 重庆化工职业学院 一种场景图像融合的车载ar-hud亮度自适应调节方法

Similar Documents

Publication Publication Date Title
CN112669393B (zh) 一种激光雷达与相机联合标定方法
CN110555889B (zh) 一种基于CALTag和点云信息的深度相机手眼标定方法
CN108171673B (zh) 图像处理方法、装置、车载抬头显示系统及车辆
Macknojia et al. Calibration of a network of kinect sensors for robotic inspection over a large workspace
CN102830793B (zh) 视线跟踪方法和设备
CN110657785B (zh) 一种高效的场景深度信息获取方法及系统
CN108234984A (zh) 双目深度相机系统和深度图像生成方法
CN103852060B (zh) 一种基于单目视觉的可见光图像测距方法
EP1946567A2 (en) Device for generating three dimensional surface models of moving objects
JP2018179990A (ja) カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
CN107869954B (zh) 一种双目视觉体积重量测量系统及其实现方法
CN113240592A (zh) 基于ar-hud动态眼位下计算虚像平面的畸变矫正方法
CN111860292B (zh) 基于单目相机的人眼定位方法、装置以及设备
CN109855845B (zh) 一种双目镜测量车载hud虚像距离与修正方法
CN110966956A (zh) 一种基于双目视觉的三维检测装置和方法
CN112135120A (zh) 基于抬头显示系统的虚像信息测量方法及系统
CN111854620A (zh) 基于单目相机的实际瞳距测定方法、装置以及设备
CN114155300A (zh) 一种车载hud系统投影效果检测方法及装置
CN110414101B (zh) 一种仿真场景测量方法、准确性测定方法及系统
CN112051038B (zh) 一种用于检测穿戴设备的显示屏的缺陷检测方法及系统
CN116071436A (zh) 一种异构双目的蝠鲼机器人目标识别与测距方法及系统
CN114067420B (zh) 一种基于单目摄像头的视线测量方法及装置
CN110849285A (zh) 基于单目相机的焊点深度测量方法、系统及介质
CN115526897A (zh) 特高压换流站消防机器人火焰定位方法及系统
WO2023103145A1 (zh) 一种头部姿势真值的获取方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination