CN112837379A - 一种ar-hud的标定方法 - Google Patents

一种ar-hud的标定方法 Download PDF

Info

Publication number
CN112837379A
CN112837379A CN202110156282.4A CN202110156282A CN112837379A CN 112837379 A CN112837379 A CN 112837379A CN 202110156282 A CN202110156282 A CN 202110156282A CN 112837379 A CN112837379 A CN 112837379A
Authority
CN
China
Prior art keywords
camera
projection
human eye
calibration plate
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110156282.4A
Other languages
English (en)
Inventor
王珏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dilu Technology Co Ltd
Original Assignee
Dilu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dilu Technology Co Ltd filed Critical Dilu Technology Co Ltd
Priority to CN202110156282.4A priority Critical patent/CN112837379A/zh
Publication of CN112837379A publication Critical patent/CN112837379A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

本发明公开了一种AR‑HUD的标定方法,包括步骤:(1)安装人眼相机和跟踪相机,在人眼位置安装一台人眼相机观察投影虚面中目标位置;(2)放置一块标定板,完整的位于跟踪相机和人眼位置的相机的重叠视野中;(3)采集跟踪相机的图像数据并检测标定板角点在图像中的坐标;(4)利用人眼相机,通过投影设备提取标定板中特征点在投影面上的坐标;(5)重复步骤2、3、4,采集多组对应数据;(6)使用opencv中findHomography函数计算单应性矩阵H。本发明利用一台相机去代替人眼,方便固定且效果稳定;通过精确的提取标定板角点,减小了标定板角点提取误差,提高标定精度。

Description

一种AR-HUD的标定方法
技术领域
本发明涉及相机标定方法,尤其涉及一种AR-HUD的标定方法。
背景技术
现有对于AR-HUD(AR Augmented Reality是增强现实技术、HUD Head Up Display平视显示器)的标定方法中,在标定板的角度提取时,过于依赖标定板角点提取的准确性;而在投影虚面进行角点提取时,往往是肉眼观察虚面上的角点坐标,导致角点坐标提取不精准,从而导致较大误差。
发明内容
发明目的:本发明的目的是提供一种提升虚面中角点提取精度的AR-HUD的标定方法。
技术方案:本发明的标定方法,包括步骤:(1)安装人眼相机和跟踪相机,所述人眼相机模拟人眼观察投影虚面中的目标;所述跟踪相机安装在车外,拍摄目标图像;(2)放置一块标定板,所述标定板完整的位于跟踪相机和人眼相机的重叠视野中;(3)采集跟踪相机拍摄的图像并检测标定板角点在图像中的坐标;(4)利用人眼相机,通过投影设备提取标定板中特征点在投影虚面上的坐标;(5)重复步骤(2)、(3)、(4),采集多组对应数据;(6)根据多组采集数据,得到实际投影坐标与跟踪相机中目标点位置的关系。
进一步,步骤(3)中,实现步骤如下:
(31)采集跟踪相机中拍摄的标定板图像;
(32)利用opencv库中findChessboardCorners函数提取标定板角点在图像中的坐标;
进一步,步骤(4)中,实现步骤如下:
(41)实时显示人眼相机图像,对投影虚面和实际场景同时进行观察;
(42)利用投影设备,在投影虚面上输出单个红点;
(43)手动调整单个红点的坐标,直到在人眼相机中,投影虚面中的单个红点与实际中的标定板某一角点完全重叠;
(44)记录此刻投影虚面中红点的坐标。
进一步,步骤(6)中,使用opencv中findHomography函数,结合图像中的坐标和投影虚面中的坐标来计算单应性矩阵。
本发明与现有技术相比,其显著效果如下:1、利用一台相机去代替人眼,方便固定且效果稳定;2、利用人眼相机和跟踪相机采集的图像数据,提供了一种AR-HUD的标定方法。
附图说明
图1为本发明的总流程图。
具体实施方式
下面结合说明书附图和具体实施方式对本发明做进一步详细描述。
如图1所示,实现的详细步骤如下:
步骤1,进行标定时,在车内主驾驶人眼观察位置安装一台人眼相机,模拟人眼观察投影面中的目标。在车外,面向车前区域,安装跟踪相机,用来拍摄目标图像。
步骤2,在地面放置一块标定板,标定板完整的位于跟踪相机和人眼相机的重叠视野中。
步骤3,采集跟踪相机拍摄的图像并检测标定板角点在图像中的坐标。
步骤31,采集跟踪相机中拍摄的标定板图像(即图片);
步骤32,利用opencv库中findChessboardCorners()函数,提取标定板角点在图像中的坐标Pi(xi,yi)。提取所有或者部分图像中的坐标,满足从跟踪相机和人眼相机中提取出的共有角点数量超过标定所需的数量,不少于4组数据,即完成标定;提取的角点组数量越多,处理的结果越精确。
步骤4,利用人眼相机,通过投影设备提取标定板中特征点在投影面上的坐标;步骤如下:
步骤41,实时显示人眼相机图像,对投影虚面和实际场景同时进行观察。
步骤42,利用投影设备,在投影虚面上输出单个红点。
步骤43,手动调整单个红点的坐标;直到在人眼相机中,投影虚面中的单个红点与实际中的标定板某一角点完全重叠。
步骤44,记录此刻投影虚面中红点的坐标Pt(xt,yt),该点与上面选取的某一角点呈对应关系。
步骤5,重复步骤2、3、4,采集多组对应数据。
步骤6,使用opencv中findHomography函数结合图像中的坐标Pi(xi,yi)和投影虚面中的坐标Pt(xt,yt),计算单应性矩阵H,即跟踪相机的成像平面和投影直接的虚拟平面之间转换关系,具体方式是求解线性方程:
H=Pt/Pi (1)
式(1)中,Pi是跟踪相机中对应的标定板角点组,Pt是人眼相机中对应的标定板角点组。
最终得到,实际投影坐标Pt与跟踪相机中目标点位置Pi的关系为Pt=H*Pi。

Claims (4)

1.一种AR-HUD的标定方法,其特征在于,包括步骤:(1)安装人眼相机和跟踪相机,所述人眼相机模拟人眼观察投影虚面中的目标;所述跟踪相机安装在车外,拍摄目标图像;(2)放置一块标定板,所述标定板完整的位于跟踪相机和人眼相机的重叠视野中;(3)采集跟踪相机拍摄的图像并检测标定板角点在图像中的坐标;(4)利用人眼相机,通过投影设备提取标定板中特征点在投影虚面上的坐标;(5)重复步骤(2)、(3)、(4),采集多组对应数据;(6)根据多组采集数据,得到实际投影坐标与跟踪相机中目标点位置的关系。
2.根据权利要求1所述的AR-HUD的标定方法,其特征在于,所述步骤(3)中,实现步骤如下:
(31)采集跟踪相机中拍摄的标定板图像;
(32)利用opencv库中findChessboardCorners函数提取标定板角点在图像中的坐标。
3.根据权利要求1所述的AR-HUD的标定方法,其特征在于,所述步骤(4)中,实现步骤如下:
(41)实时显示人眼相机图像,对投影虚面和实际场景同时进行观察;
(42)利用投影设备,在投影虚面上输出单个红点;
(43)手动调整单个红点的坐标,直到在人眼相机中,投影虚面中的单个红点与实际中的标定板某一角点完全重叠;
(44)记录此刻投影虚面中红点的坐标。
4.根据权利要求1所述的AR-HUD的标定方法,其特征在于,所述步骤(6)中,使用opencv中findHomography函数,结合图像中的坐标和投影虚面中的坐标来计算单应性矩阵。
CN202110156282.4A 2021-02-04 2021-02-04 一种ar-hud的标定方法 Pending CN112837379A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110156282.4A CN112837379A (zh) 2021-02-04 2021-02-04 一种ar-hud的标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110156282.4A CN112837379A (zh) 2021-02-04 2021-02-04 一种ar-hud的标定方法

Publications (1)

Publication Number Publication Date
CN112837379A true CN112837379A (zh) 2021-05-25

Family

ID=75932054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110156282.4A Pending CN112837379A (zh) 2021-02-04 2021-02-04 一种ar-hud的标定方法

Country Status (1)

Country Link
CN (1) CN112837379A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109688392A (zh) * 2018-12-26 2019-04-26 联创汽车电子有限公司 Ar-hud光学投影系统及映射关系标定方法和畸变矫正方法
CN109801379A (zh) * 2019-01-21 2019-05-24 视辰信息科技(上海)有限公司 通用的增强现实眼镜及其标定方法
CN110335307A (zh) * 2019-06-26 2019-10-15 Oppo广东移动通信有限公司 标定方法、装置、计算机存储介质和终端设备
CN110782499A (zh) * 2019-10-23 2020-02-11 Oppo广东移动通信有限公司 一种增强现实设备的标定方法、标定装置及终端设备
CN111882608A (zh) * 2020-07-14 2020-11-03 中国人民解放军军事科学院国防科技创新研究院 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109688392A (zh) * 2018-12-26 2019-04-26 联创汽车电子有限公司 Ar-hud光学投影系统及映射关系标定方法和畸变矫正方法
CN109801379A (zh) * 2019-01-21 2019-05-24 视辰信息科技(上海)有限公司 通用的增强现实眼镜及其标定方法
CN110335307A (zh) * 2019-06-26 2019-10-15 Oppo广东移动通信有限公司 标定方法、装置、计算机存储介质和终端设备
CN110782499A (zh) * 2019-10-23 2020-02-11 Oppo广东移动通信有限公司 一种增强现实设备的标定方法、标定装置及终端设备
CN111882608A (zh) * 2020-07-14 2020-11-03 中国人民解放军军事科学院国防科技创新研究院 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法

Similar Documents

Publication Publication Date Title
CN111179358B (zh) 标定方法、装置、设备及存储介质
CN109416744B (zh) 改进的相机校准系统、目标和过程
CN108171673B (zh) 图像处理方法、装置、车载抬头显示系统及车辆
US8792709B2 (en) Transprojection of geometry data
US10082865B1 (en) Dynamic distortion mapping in a worn display
CN111076905B (zh) 一种车载抬头显示虚像像质综合测量方法
KR20160121798A (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
CA2747544C (en) System and method for mixing a scene with a virtual scenario
KR20140086938A (ko) 고정된 카메라로 운동하는 피사체를 촬영하고 그 촬영 이미지에 기초하여 피사체의 실제의 운동 궤적의 투사 이미지를 획득하기 위한 방법 및 시스템
CN109862345B (zh) 视场角测试方法和系统
CN113252309A (zh) 一种用于近眼显示设备的测试方法、测试装置及存储介质
CN110505468B (zh) 一种增强现实显示设备的测试标定及偏差修正方法
CN106991706B (zh) 一种拍摄校准方法及系统
CN113223050B (zh) 一种基于ArUco码的机器人运动轨迹实时采集方法
CN112700502B (zh) 双目相机系统和双目相机空间标定方法
Makibuchi et al. Vision-based robust calibration for optical see-through head-mounted displays
CN111882608A (zh) 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法
Gilson et al. An automated calibration method for non-see-through head mounted displays
CN112837379A (zh) 一种ar-hud的标定方法
CN112991457A (zh) 手术导航中投影仪空间位置和内外参标定方法、装置
US20090305198A1 (en) Gunnery training device using a weapon
CN108760246B (zh) 一种平视显示器系统中眼动范围的检测方法
CN110189263B (zh) 一种基于多角度采样的大视场头戴显示设备畸变校正方法
CN109799394B (zh) 一种场分布数据采集方法和设备
CN107823883B (zh) 基于图像识别和激光定位的瞄准点屏幕坐标获取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination