CN112837379A - 一种ar-hud的标定方法 - Google Patents
一种ar-hud的标定方法 Download PDFInfo
- Publication number
- CN112837379A CN112837379A CN202110156282.4A CN202110156282A CN112837379A CN 112837379 A CN112837379 A CN 112837379A CN 202110156282 A CN202110156282 A CN 202110156282A CN 112837379 A CN112837379 A CN 112837379A
- Authority
- CN
- China
- Prior art keywords
- camera
- projection
- human eye
- calibration plate
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
本发明公开了一种AR‑HUD的标定方法,包括步骤:(1)安装人眼相机和跟踪相机,在人眼位置安装一台人眼相机观察投影虚面中目标位置;(2)放置一块标定板,完整的位于跟踪相机和人眼位置的相机的重叠视野中;(3)采集跟踪相机的图像数据并检测标定板角点在图像中的坐标;(4)利用人眼相机,通过投影设备提取标定板中特征点在投影面上的坐标;(5)重复步骤2、3、4,采集多组对应数据;(6)使用opencv中findHomography函数计算单应性矩阵H。本发明利用一台相机去代替人眼,方便固定且效果稳定;通过精确的提取标定板角点,减小了标定板角点提取误差,提高标定精度。
Description
技术领域
本发明涉及相机标定方法,尤其涉及一种AR-HUD的标定方法。
背景技术
现有对于AR-HUD(AR Augmented Reality是增强现实技术、HUD Head Up Display平视显示器)的标定方法中,在标定板的角度提取时,过于依赖标定板角点提取的准确性;而在投影虚面进行角点提取时,往往是肉眼观察虚面上的角点坐标,导致角点坐标提取不精准,从而导致较大误差。
发明内容
发明目的:本发明的目的是提供一种提升虚面中角点提取精度的AR-HUD的标定方法。
技术方案:本发明的标定方法,包括步骤:(1)安装人眼相机和跟踪相机,所述人眼相机模拟人眼观察投影虚面中的目标;所述跟踪相机安装在车外,拍摄目标图像;(2)放置一块标定板,所述标定板完整的位于跟踪相机和人眼相机的重叠视野中;(3)采集跟踪相机拍摄的图像并检测标定板角点在图像中的坐标;(4)利用人眼相机,通过投影设备提取标定板中特征点在投影虚面上的坐标;(5)重复步骤(2)、(3)、(4),采集多组对应数据;(6)根据多组采集数据,得到实际投影坐标与跟踪相机中目标点位置的关系。
进一步,步骤(3)中,实现步骤如下:
(31)采集跟踪相机中拍摄的标定板图像;
(32)利用opencv库中findChessboardCorners函数提取标定板角点在图像中的坐标;
进一步,步骤(4)中,实现步骤如下:
(41)实时显示人眼相机图像,对投影虚面和实际场景同时进行观察;
(42)利用投影设备,在投影虚面上输出单个红点;
(43)手动调整单个红点的坐标,直到在人眼相机中,投影虚面中的单个红点与实际中的标定板某一角点完全重叠;
(44)记录此刻投影虚面中红点的坐标。
进一步,步骤(6)中,使用opencv中findHomography函数,结合图像中的坐标和投影虚面中的坐标来计算单应性矩阵。
本发明与现有技术相比,其显著效果如下:1、利用一台相机去代替人眼,方便固定且效果稳定;2、利用人眼相机和跟踪相机采集的图像数据,提供了一种AR-HUD的标定方法。
附图说明
图1为本发明的总流程图。
具体实施方式
下面结合说明书附图和具体实施方式对本发明做进一步详细描述。
如图1所示,实现的详细步骤如下:
步骤1,进行标定时,在车内主驾驶人眼观察位置安装一台人眼相机,模拟人眼观察投影面中的目标。在车外,面向车前区域,安装跟踪相机,用来拍摄目标图像。
步骤2,在地面放置一块标定板,标定板完整的位于跟踪相机和人眼相机的重叠视野中。
步骤3,采集跟踪相机拍摄的图像并检测标定板角点在图像中的坐标。
步骤31,采集跟踪相机中拍摄的标定板图像(即图片);
步骤32,利用opencv库中findChessboardCorners()函数,提取标定板角点在图像中的坐标Pi(xi,yi)。提取所有或者部分图像中的坐标,满足从跟踪相机和人眼相机中提取出的共有角点数量超过标定所需的数量,不少于4组数据,即完成标定;提取的角点组数量越多,处理的结果越精确。
步骤4,利用人眼相机,通过投影设备提取标定板中特征点在投影面上的坐标;步骤如下:
步骤41,实时显示人眼相机图像,对投影虚面和实际场景同时进行观察。
步骤42,利用投影设备,在投影虚面上输出单个红点。
步骤43,手动调整单个红点的坐标;直到在人眼相机中,投影虚面中的单个红点与实际中的标定板某一角点完全重叠。
步骤44,记录此刻投影虚面中红点的坐标Pt(xt,yt),该点与上面选取的某一角点呈对应关系。
步骤5,重复步骤2、3、4,采集多组对应数据。
步骤6,使用opencv中findHomography函数结合图像中的坐标Pi(xi,yi)和投影虚面中的坐标Pt(xt,yt),计算单应性矩阵H,即跟踪相机的成像平面和投影直接的虚拟平面之间转换关系,具体方式是求解线性方程:
H=Pt/Pi (1)
式(1)中,Pi是跟踪相机中对应的标定板角点组,Pt是人眼相机中对应的标定板角点组。
最终得到,实际投影坐标Pt与跟踪相机中目标点位置Pi的关系为Pt=H*Pi。
Claims (4)
1.一种AR-HUD的标定方法,其特征在于,包括步骤:(1)安装人眼相机和跟踪相机,所述人眼相机模拟人眼观察投影虚面中的目标;所述跟踪相机安装在车外,拍摄目标图像;(2)放置一块标定板,所述标定板完整的位于跟踪相机和人眼相机的重叠视野中;(3)采集跟踪相机拍摄的图像并检测标定板角点在图像中的坐标;(4)利用人眼相机,通过投影设备提取标定板中特征点在投影虚面上的坐标;(5)重复步骤(2)、(3)、(4),采集多组对应数据;(6)根据多组采集数据,得到实际投影坐标与跟踪相机中目标点位置的关系。
2.根据权利要求1所述的AR-HUD的标定方法,其特征在于,所述步骤(3)中,实现步骤如下:
(31)采集跟踪相机中拍摄的标定板图像;
(32)利用opencv库中findChessboardCorners函数提取标定板角点在图像中的坐标。
3.根据权利要求1所述的AR-HUD的标定方法,其特征在于,所述步骤(4)中,实现步骤如下:
(41)实时显示人眼相机图像,对投影虚面和实际场景同时进行观察;
(42)利用投影设备,在投影虚面上输出单个红点;
(43)手动调整单个红点的坐标,直到在人眼相机中,投影虚面中的单个红点与实际中的标定板某一角点完全重叠;
(44)记录此刻投影虚面中红点的坐标。
4.根据权利要求1所述的AR-HUD的标定方法,其特征在于,所述步骤(6)中,使用opencv中findHomography函数,结合图像中的坐标和投影虚面中的坐标来计算单应性矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110156282.4A CN112837379A (zh) | 2021-02-04 | 2021-02-04 | 一种ar-hud的标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110156282.4A CN112837379A (zh) | 2021-02-04 | 2021-02-04 | 一种ar-hud的标定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112837379A true CN112837379A (zh) | 2021-05-25 |
Family
ID=75932054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110156282.4A Pending CN112837379A (zh) | 2021-02-04 | 2021-02-04 | 一种ar-hud的标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112837379A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109688392A (zh) * | 2018-12-26 | 2019-04-26 | 联创汽车电子有限公司 | Ar-hud光学投影系统及映射关系标定方法和畸变矫正方法 |
CN109801379A (zh) * | 2019-01-21 | 2019-05-24 | 视辰信息科技(上海)有限公司 | 通用的增强现实眼镜及其标定方法 |
CN110335307A (zh) * | 2019-06-26 | 2019-10-15 | Oppo广东移动通信有限公司 | 标定方法、装置、计算机存储介质和终端设备 |
CN110782499A (zh) * | 2019-10-23 | 2020-02-11 | Oppo广东移动通信有限公司 | 一种增强现实设备的标定方法、标定装置及终端设备 |
CN111882608A (zh) * | 2020-07-14 | 2020-11-03 | 中国人民解放军军事科学院国防科技创新研究院 | 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法 |
-
2021
- 2021-02-04 CN CN202110156282.4A patent/CN112837379A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109688392A (zh) * | 2018-12-26 | 2019-04-26 | 联创汽车电子有限公司 | Ar-hud光学投影系统及映射关系标定方法和畸变矫正方法 |
CN109801379A (zh) * | 2019-01-21 | 2019-05-24 | 视辰信息科技(上海)有限公司 | 通用的增强现实眼镜及其标定方法 |
CN110335307A (zh) * | 2019-06-26 | 2019-10-15 | Oppo广东移动通信有限公司 | 标定方法、装置、计算机存储介质和终端设备 |
CN110782499A (zh) * | 2019-10-23 | 2020-02-11 | Oppo广东移动通信有限公司 | 一种增强现实设备的标定方法、标定装置及终端设备 |
CN111882608A (zh) * | 2020-07-14 | 2020-11-03 | 中国人民解放军军事科学院国防科技创新研究院 | 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111179358B (zh) | 标定方法、装置、设备及存储介质 | |
CN109416744B (zh) | 改进的相机校准系统、目标和过程 | |
CN108171673B (zh) | 图像处理方法、装置、车载抬头显示系统及车辆 | |
US8792709B2 (en) | Transprojection of geometry data | |
US10082865B1 (en) | Dynamic distortion mapping in a worn display | |
CN111076905B (zh) | 一种车载抬头显示虚像像质综合测量方法 | |
KR20160121798A (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
CA2747544C (en) | System and method for mixing a scene with a virtual scenario | |
KR20140086938A (ko) | 고정된 카메라로 운동하는 피사체를 촬영하고 그 촬영 이미지에 기초하여 피사체의 실제의 운동 궤적의 투사 이미지를 획득하기 위한 방법 및 시스템 | |
CN109862345B (zh) | 视场角测试方法和系统 | |
CN113252309A (zh) | 一种用于近眼显示设备的测试方法、测试装置及存储介质 | |
CN110505468B (zh) | 一种增强现实显示设备的测试标定及偏差修正方法 | |
CN106991706B (zh) | 一种拍摄校准方法及系统 | |
CN113223050B (zh) | 一种基于ArUco码的机器人运动轨迹实时采集方法 | |
CN112700502B (zh) | 双目相机系统和双目相机空间标定方法 | |
Makibuchi et al. | Vision-based robust calibration for optical see-through head-mounted displays | |
CN111882608A (zh) | 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法 | |
Gilson et al. | An automated calibration method for non-see-through head mounted displays | |
CN112837379A (zh) | 一种ar-hud的标定方法 | |
CN112991457A (zh) | 手术导航中投影仪空间位置和内外参标定方法、装置 | |
US20090305198A1 (en) | Gunnery training device using a weapon | |
CN108760246B (zh) | 一种平视显示器系统中眼动范围的检测方法 | |
CN110189263B (zh) | 一种基于多角度采样的大视场头戴显示设备畸变校正方法 | |
CN109799394B (zh) | 一种场分布数据采集方法和设备 | |
CN107823883B (zh) | 基于图像识别和激光定位的瞄准点屏幕坐标获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |