CN111882608A - 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法 - Google Patents

一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法 Download PDF

Info

Publication number
CN111882608A
CN111882608A CN202010676969.6A CN202010676969A CN111882608A CN 111882608 A CN111882608 A CN 111882608A CN 202010676969 A CN202010676969 A CN 202010676969A CN 111882608 A CN111882608 A CN 111882608A
Authority
CN
China
Prior art keywords
camera
human eye
augmented reality
reality glasses
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010676969.6A
Other languages
English (en)
Inventor
桂健钧
闫野
李智鹏
鹿迎
邓宝松
董红斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Defense Technology Innovation Institute PLA Academy of Military Science
Original Assignee
National Defense Technology Innovation Institute PLA Academy of Military Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Defense Technology Innovation Institute PLA Academy of Military Science filed Critical National Defense Technology Innovation Institute PLA Academy of Military Science
Priority to CN202010676969.6A priority Critical patent/CN111882608A/zh
Publication of CN111882608A publication Critical patent/CN111882608A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本发明属于增强现实、计算机视觉三维注册、标定技术领域,具体涉及一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法。本发明包括如下步骤:步骤1、读取视场角;步骤2、用人眼替代相机寻找人眼位置,使人眼替代相机显示出来的成像视场与人眼观测到的相同;步骤3、分别测量位于跟踪相机感光芯片所在平面和人眼替代相机感光芯片所在平面上的点,获得测量平台统一坐标系下的点集;步骤4、根据测量的点集坐标,用算法估算跟踪相机平面和人眼替代相机平面的位姿关系。本发明用相机代替人眼去测量点坐标,减少人的主观操作、避免人为误差因素,如人眼观察偏差或者观察时头部无法完全静止所产生的抖动。

Description

一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法
技术领域
本发明属于增强现实、计算机视觉三维注册、标定技术领域,具体涉及一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法。
背景技术
增强现实是一种将虚拟景物或信息与现实物理环境叠加融合起来,交互呈现在用户面前,从而营造出虚拟与现实共享同一空间的技术。本质上,增强现实是一种集定位、呈现、交互等软硬件技术于一体的新型界面技术,其目标是让用户在感官上感受到虚实空间的时空关联和融合,来增强用户对现实环境的感知和认知。
增强现实眼镜作为增强现实技术的一种可穿戴设备,近年来取得了飞速的发展,微软、magic leap等公司推出了自己的商品级增强现实眼镜。增强现实眼镜用户在看到虚拟影像的同时也能直接看到真实场景,分为光学透射式眼镜和视频透视式眼镜。主要区别在于:光学透射式眼镜可直接看到真实场景,就像佩戴普通眼镜一样,虚拟影像以半透明形式叠加在真实场景上;视频透射式眼镜通过安装于眼镜前方的摄像头拍摄真实场景,将画面与虚拟影像进行数字融合后呈现给用户。
增强现实眼镜包括一个光学成像系统和若干个六自由度跟踪定位设备,即跟踪相机,用户佩戴光学透射式眼镜后,需要测量用户眼睛和眼镜跟踪相机之间的位姿关系,使渲染后的虚拟物体准确的与真实世界中的物体重合。目前直接通过人眼观察标定求出的位姿关系受个体因素影响大,并不能获得增强现实眼镜的真实成像中心,在批量眼镜标定中会由于标准不统一而造成通用性下降、效率低下。
发明内容
本发明的目的在于,针对现有技术中,增强现实眼镜标定的实际问题,本发明提供一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法,能够在不引入人为误差的情况下估计增强现实眼镜跟踪相机和人眼的位姿关系,准确性有较大提升。
本发明采用的技术方案:
本发明提供了一种增强现实眼镜与人眼位姿估计方法,包括如下步骤:
一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法,包括如下步骤:
步骤1、观测视场角:在固定观察距离约束下,制作以角度为单位的刻度板,用户可以观测增强现实眼镜成像与刻度板的重合关系,直接读取视场角;
步骤2、人眼位置实物化:用人眼替代相机寻找人眼位置,不断调整人眼替代相机位置,使人眼替代相机显示出来的成像视场与人眼观测到的相同;
步骤3、平面点测量:固定跟踪相机和人眼替代相机位置,用测距平台上XYZ三方向激光测距仪,分别测量位于跟踪相机感光芯片所在平面和人眼替代相机感光芯片所在平面上的点,获得测量平台统一坐标系下的点集;
步骤4、位姿解算:根据测量的点集坐标,用算法估算跟踪相机平面和人眼替代相机平面的位姿关系。
所述步骤1观测视场角,包括如下步骤:
步骤1.1、确定人眼到刻度板的观测距离;
步骤1.2、制作刻度为角度的刻度板;
步骤1.3、佩戴眼镜在确定的距离观测刻度板,记录增强现实眼镜成像边缘处在刻度板上的数值,即为视场角。
所述步骤1.1确定人眼到刻度板的观测距离,包括如下步骤:调整并选择适中的凝视距离,保证待制刻度板能覆盖增强现实眼镜最大成像显示的边缘,待制刻度板的划线标记清晰可辨。
所述步骤1.2制作刻度为角度的刻度板,包括如下步骤:以固定的观察距离为基准高,按照等腰三角形建立视场几何关系,在与三角形平面相垂直的平面上放置刻度板,刻度直接标记为三角形顶角的角度。
所述步骤1.3佩戴眼镜在确定的距离观测刻度板,记录增强现实眼镜成像边缘处在刻度板上的数值,即为视场角,包括如下步骤:在增强现实眼镜上全屏显示纯色图像,并在图像中心用反差色标注十字或圆点;用户戴上增强现实眼镜,调整位置至固定观察距离处,使增强现实眼镜屏幕成像上的点与刻度板中心对齐;保持视线方向与刻度板垂直,观察并微调增强现实眼镜成像屏幕上下和左右边缘,使其对称;读出成像边缘在刻度板上的值,即为视场角。
所述步骤2包括如下步骤:保持步骤1中刻度板、增强现实眼镜成像不变,用真实相机替代人眼位置,将人眼替代相机放在增强现实眼镜的后面,接近人眼固定观察距离的位置,微调人眼替代相机位置,使得该相机实时成像与人眼观察到的成像一致,即增强现实眼镜在刻度板上的视场角一致,固定该相机当前位置,即作为模拟人眼的位置。
所述人眼替代相机包括,与人眼分辨率相近的单目或双目相机以及与人眼视场角相近的镜头。
所述步骤3包括如下步骤:
根据固定好的跟踪相机和人眼替代相机的位置,用测距平台上XYZ三个方向的激光测距仪,测量位于跟踪相机感光芯片所在平面和人眼替代相机感光芯片所在平面上的点;所述两个平面上的点,选取各所在电路板平面的至少3个标志点,或者预先使用辅助工具延展所述平面保证共面性,在延展面上,选取易于测量的标志点,进行标注测量;经过前述操作,获得两个平面的坐标点集,共至少6个坐标点。
所述三坐标轴测距平台,包括:
测距平台可以由具备XYZ三个方向自由度的滑轨平台组成,每个轴向的滑轨上固定安装激光测距仪;激光测距仪由一个激光发射器和一个数码瞄准器组成,能够根据飞行时间测距法直接读取绝对距离;每个轴向的相对移动距离都能通过读数的差值计算得到。
所述步骤4包括如下步骤:
步骤4.1、根据步骤3,由点坐标集分别计算增强现实眼镜跟踪相机平面法向量和人眼替代相机平面法向量和中心点;
步骤4.2、根据两个平面法向量,求出旋转轴和旋转角;
步骤4.3、根据旋转轴和旋转角,求出旋转矩阵R和平移向量T;
步骤4.4、验算旋转矩阵R和平移向量T。
与现有技术相比,本发明的有益效果在于:
本发明提供一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法,用相机代替人眼去测量点坐标,减少人的主观操作、避免人为误差因素,如人眼观察偏差或者观察时头部无法完全静止所产生的抖动。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本申请一实施例所提供的一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法的流程图;
图2示出了本申请一实施例所提供的根据测量的跟踪相机平面和人眼替代相机平面上点的坐标求出两个平面位姿关系的算法的流程图;
图3示出了本申请一实施例所提供的三坐标轴测距平台设备的示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1给出了本发明的总体流程图,其中包含4个关键步骤,分别是观测视场角、人眼位置实物化、平面点测量、位姿解算,本实施例将对上述4个关键步骤进行详细描述。
本发明提供一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法,包括如下步骤:
步骤1、在固定观察距离约束下,制作以角度为单位的刻度板,用户可以观测增强现实眼镜成像与刻度板的重合关系,直接读取视场角;
步骤2、用人眼替代相机寻找人眼位置,不断调整人眼替代相机位置,使人眼替代相机显示出来的成像视场与人眼观测到的相同;
步骤3、固定跟踪相机和人眼替代相机位置,用测距平台上XYZ三方向激光测距仪,分别测量位于跟踪相机感光芯片所在平面和人眼替代相机感光芯片所在平面上的点,获得测量平台统一坐标系下的点集;
步骤4、根据测量的点集坐标,用算法估算跟踪相机平面和人眼替代相机平面的位姿关系。
在步骤1中,以固定的观察距离,如40cm,为基准高,按照等腰三角形建立视场几何关系,在与三角形平面相垂直的平面上制作并放置刻度板,刻度直接标记为三角形顶角的角度;在增强现实眼镜上全屏显示纯色图像,如白色,并在图像中心用反差色标注十字或圆点;用户戴上增强现实眼镜,调整位置至固定观察距离处,使增强现实眼镜屏幕成像上的点与刻度板中心对齐;保持视线方向与刻度板垂直,观察并微调增强现实眼镜成像屏幕上下和左右边缘,使其对称;读出成像边缘在刻度板上的值,即为视场角。
在步骤2中,保持步骤1中刻度板、增强现实眼镜成像不变,用真实相机替代人眼位置,将人眼替代相机放在增强现实眼镜的后面,接近人眼固定观察距离的位置,微调人眼替代相机位置,使得该相机实时成像与人眼观察到的成像一致,即增强现实眼镜在刻度板上的视场角一致,固定该相机当前位置,即作为模拟人眼的位置。
在步骤3中,根据固定好的跟踪相机和人眼替代相机的位置,用测距平台上XYZ三个方向的激光测距仪,测量位于跟踪相机感光芯片所在平面和人眼替代相机感光芯片所在平面上的点,如图3所示,测距平台可以由具备XYZ三个方向自由度的滑轨平台组成,每个滑轨上固定安装激光测距仪,保证每个方向的相对移动距离都能由激光测距仪测出;所述两个平面上的点,可以选取各所在电路板平面的至少3个标志点,也可以预先使用辅助工具延展所述平面保证共面性即可,在延展面上,选取易于测量的标志点,进行标注测量;经过前述操作,可以获得两个平面的坐标点集,共至少6个坐标点。
如图2所示,在步骤4中的计算过程依赖于一套自主研发的算法,主要包括如下步骤:
步骤4.1、根据步骤3测到的坐标点集,分别计算两个平面的法向量和中心点;
计算中心点:通过测量获得每个平面上至少3个点的坐标值,设A平面点坐标为
Figure BDA0002584396570000071
Figure BDA0002584396570000072
Figure BDA0002584396570000073
B平面点坐标为
Figure BDA0002584396570000074
Figure BDA0002584396570000075
Figure BDA0002584396570000076
则两个平面的中心点表示为:
Figure BDA0002584396570000077
Figure BDA0002584396570000078
其中,numa、numb为平面A、B采集的点坐标数量。
计算平面法向量:根据坐标点集分别计算平面A、B上的向量
Figure BDA0002584396570000079
Figure BDA00025843965700000710
Figure BDA00025843965700000711
Figure BDA00025843965700000712
由两个向量叉乘求平面法向量
Figure BDA00025843965700000713
Figure BDA00025843965700000714
Figure BDA00025843965700000715
需要说明的是,平面法向量不唯一,存在共线但方向相反的两个值,在随后验算步骤中可以根据角度值筛选。此外,为提高精度,每个平面可以取多于3个点,求出的多组平面向量和平面法向量,最终法向量可以通过归一化确定。需要注意的是,要避免使用同一平面下几乎平行的两个向量去求解法向量。
步骤4.2、根据两个平面法向量求出旋转轴和旋转角;
将步骤4.1中两个平面上的法向量叉乘得到旋转轴并归一化。
旋转轴:
Figure BDA00025843965700000716
旋转角:
Figure BDA00025843965700000717
需要说明的是,使用平面A、B的两个法向量计算旋转轴,会产生方向相反的两组结果,可以选择小于180°的旋转角对应的旋转轴作为唯一结果。
步骤4.3、根据平面法向量求出旋转矩阵R和平移向量T;
根据步骤4.2中的旋转轴和旋转角,用罗德里格斯公式计算旋转矩阵R:
R=Rodriguez(Raxis×angle)
T的计算公式为:
T=bcenter-Racenter
步骤4.4、验算旋转矩阵R和平移向量T。
通过在平面A上取任意其他一点a4,与A平面中心点acenter形成平面A上的验算向量
Figure BDA0002584396570000081
该验算向量通过步骤4.3的旋转变换后,可以求得向量:
Figure BDA0002584396570000082
验算向量
Figure BDA0002584396570000083
与B平面法向量
Figure BDA0002584396570000084
的夹角,若存在绝对值接近90°,则认为旋转矩阵求解结果正确。另外,通过步骤4.3的旋转平移变换可以获得在B平面上与a4点相对应的点:b4=Ra4+T,通过验证B平面点集的共面性验算可以旋转平移变换的有效性。
需要说明的是:以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,包括如下步骤:
步骤(1)、观测视场角:在固定观察距离约束下,制作以角度为单位的刻度板,观测增强现实眼镜成像与刻度板的重合关系,直接读取视场角;
步骤(2)、人眼位置实物化:用人眼替代相机寻找人眼位置,不断调整人眼替代相机位置,使人眼替代相机显示出来的成像视场与人眼观测到的相同;
步骤(3)、平面点测量:固定跟踪相机和人眼替代相机位置,用测距平台上XYZ三方向激光测距仪,分别测量位于跟踪相机感光芯片所在平面和人眼替代相机感光芯片所在平面上的点,获得测量平台统一坐标系下的点集;
步骤(4)、位姿解算:根据测量的点集坐标,用算法估算跟踪相机平面和人眼替代相机平面的位姿关系。
2.根据权利要求1所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述步骤(1)观测视场角,包括如下步骤:
步骤(1.1)、确定人眼到刻度板的观测距离;
步骤(1.2)、制作刻度为角度的刻度板;
步骤(1.3)、佩戴眼镜在确定的距离观测刻度板,记录增强现实眼镜成像边缘处在刻度板上的数值,即为视场角。
3.根据权利要求2所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述步骤(1.1)确定人眼到刻度板的观测距离,包括如下步骤:调整并选择适中的凝视距离,保证待制刻度板能覆盖增强现实眼镜最大成像显示的边缘,待制刻度板的划线标记清晰可辨。
4.根据权利要求3所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述步骤(1.2)制作刻度为角度的刻度板,包括如下步骤:以固定的观察距离为基准高,按照等腰三角形建立视场几何关系,在与三角形平面相垂直的平面上放置刻度板,刻度直接标记为三角形顶角的角度。
5.根据权利要求4所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述步骤(1.3)佩戴眼镜在确定的距离观测刻度板,记录增强现实眼镜成像边缘处在刻度板上的数值,即为视场角,包括如下步骤:在增强现实眼镜上全屏显示纯色图像,并在图像中心用反差色标注十字或圆点;通过增强现实眼镜,调整位置至固定观察距离处,使增强现实眼镜屏幕成像上的点与刻度板中心对齐;保持视线方向与刻度板垂直,观察并微调增强现实眼镜成像屏幕上下和左右边缘,使其对称;读出成像边缘在刻度板上的值,即为视场角。
6.根据权利要求5所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述步骤(2)包括如下步骤:保持步骤(1)中刻度板、增强现实眼镜成像不变,用真实相机替代人眼位置,将人眼替代相机放在增强现实眼镜的后面,接近人眼固定观察距离的位置,微调人眼替代相机位置,使得该相机实时成像与人眼观察到的成像一致,即增强现实眼镜在刻度板上的视场角一致,固定该相机当前位置,即作为模拟人眼的位置。
7.根据权利要求6所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述人眼替代相机包括,与人眼分辨率相近的单目或双目相机以及与人眼视场角相近的镜头。
8.根据权利要求6所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述步骤(3)包括如下步骤:
根据固定好的跟踪相机和人眼替代相机的位置,用测距平台上XYZ三个方向的激光测距仪,测量位于跟踪相机感光芯片所在平面和人眼替代相机感光芯片所在平面上的点;所述两个平面上的点,选取各所在电路板平面的至少3个标志点,或者预先使用辅助工具延展所述平面保证共面性,在延展面上,选取易于测量的标志点,进行标注测量;经过前述操作,获得两个平面的坐标点集,共至少6个坐标点。
9.根据权利要求8所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述三坐标轴测距平台,包括:
测距平台可以由具备XYZ三个方向自由度的滑轨平台组成,每个轴向的滑轨上固定安装激光测距仪;激光测距仪由一个激光发射器和一个数码瞄准器组成,能够根据飞行时间测距法直接读取绝对距离;每个轴向的相对移动距离都能通过读数的差值计算得到。
10.根据权利要求8所述的增强现实眼镜跟踪相机和人眼之间的位姿估计方法,其特征在于,所述步骤(4)包括如下步骤:
步骤(4.1)、根据步骤(3),由点坐标集分别计算增强现实眼镜跟踪相机平面法向量和人眼替代相机平面法向量和中心点;
步骤(4.2)、根据两个平面法向量,求出旋转轴和旋转角;
步骤(4.3)、根据旋转轴和旋转角,求出旋转矩阵R和平移向量T;
步骤(4.4)、验算旋转矩阵R和平移向量T。
CN202010676969.6A 2020-07-14 2020-07-14 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法 Pending CN111882608A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010676969.6A CN111882608A (zh) 2020-07-14 2020-07-14 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010676969.6A CN111882608A (zh) 2020-07-14 2020-07-14 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法

Publications (1)

Publication Number Publication Date
CN111882608A true CN111882608A (zh) 2020-11-03

Family

ID=73150773

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010676969.6A Pending CN111882608A (zh) 2020-07-14 2020-07-14 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法

Country Status (1)

Country Link
CN (1) CN111882608A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112837379A (zh) * 2021-02-04 2021-05-25 的卢技术有限公司 一种ar-hud的标定方法
CN112923923A (zh) * 2021-01-28 2021-06-08 深圳市瑞立视多媒体科技有限公司 一种imu与刚体姿态、位置对齐的方法、装置、设备以及可读存储介质
CN112945231A (zh) * 2021-01-28 2021-06-11 深圳市瑞立视多媒体科技有限公司 一种imu与刚体姿态对齐的方法、装置、设备以及可读存储介质
CN114449156A (zh) * 2020-11-04 2022-05-06 北京小米移动软件有限公司 摄像头控制方法及装置、电子设备、存储介质
CN117710449A (zh) * 2024-02-05 2024-03-15 中国空气动力研究与发展中心高速空气动力研究所 基于numa的实时位姿视频测量流水线模型优化方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103309034A (zh) * 2012-03-07 2013-09-18 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
CN105787980A (zh) * 2016-03-17 2016-07-20 北京牡丹视源电子有限责任公司 一种检测虚拟现实显示设备视场角的方法及系统
CN108205197A (zh) * 2016-12-19 2018-06-26 精工爱普生株式会社 显示装置和显示装置的控制方法
CN108305326A (zh) * 2018-01-22 2018-07-20 中国人民解放军陆军航空兵学院 一种混合虚拟现实的方法
CN109345587A (zh) * 2018-09-01 2019-02-15 哈尔滨工程大学 一种基于全景与单目视觉的混合视觉定位方法
CN109788901A (zh) * 2016-07-25 2019-05-21 奇跃公司 光场处理器系统
CN109803574A (zh) * 2016-07-27 2019-05-24 托比股份公司 具有显示器、透镜、照明器和图像传感器的可穿戴设备
CN109919128A (zh) * 2019-03-20 2019-06-21 联想(北京)有限公司 控制指令的获取方法、装置及电子设备
CN110686595A (zh) * 2019-09-27 2020-01-14 天津大学 非正交轴系激光全站仪的激光束空间位姿标定方法
CN210573016U (zh) * 2019-10-23 2020-05-19 深圳惠牛科技有限公司 一种头戴显示光学系统及头戴显示设备

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103309034A (zh) * 2012-03-07 2013-09-18 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
CN105787980A (zh) * 2016-03-17 2016-07-20 北京牡丹视源电子有限责任公司 一种检测虚拟现实显示设备视场角的方法及系统
CN109788901A (zh) * 2016-07-25 2019-05-21 奇跃公司 光场处理器系统
CN109803574A (zh) * 2016-07-27 2019-05-24 托比股份公司 具有显示器、透镜、照明器和图像传感器的可穿戴设备
CN108205197A (zh) * 2016-12-19 2018-06-26 精工爱普生株式会社 显示装置和显示装置的控制方法
CN108305326A (zh) * 2018-01-22 2018-07-20 中国人民解放军陆军航空兵学院 一种混合虚拟现实的方法
CN109345587A (zh) * 2018-09-01 2019-02-15 哈尔滨工程大学 一种基于全景与单目视觉的混合视觉定位方法
CN109919128A (zh) * 2019-03-20 2019-06-21 联想(北京)有限公司 控制指令的获取方法、装置及电子设备
CN110686595A (zh) * 2019-09-27 2020-01-14 天津大学 非正交轴系激光全站仪的激光束空间位姿标定方法
CN210573016U (zh) * 2019-10-23 2020-05-19 深圳惠牛科技有限公司 一种头戴显示光学系统及头戴显示设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHARLES B. OWEN 等: ""display-relative calibration for optical see-through head-mounted displays"", 《PROCEEDINGS OF THE THIRD IEEE AND ACM INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY (ISMAR 2004)》 *
李海龙 等: ""光学透视头盔显示器标定技术"", 《计算机系统应用》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114449156A (zh) * 2020-11-04 2022-05-06 北京小米移动软件有限公司 摄像头控制方法及装置、电子设备、存储介质
CN112923923A (zh) * 2021-01-28 2021-06-08 深圳市瑞立视多媒体科技有限公司 一种imu与刚体姿态、位置对齐的方法、装置、设备以及可读存储介质
CN112945231A (zh) * 2021-01-28 2021-06-11 深圳市瑞立视多媒体科技有限公司 一种imu与刚体姿态对齐的方法、装置、设备以及可读存储介质
CN112837379A (zh) * 2021-02-04 2021-05-25 的卢技术有限公司 一种ar-hud的标定方法
CN117710449A (zh) * 2024-02-05 2024-03-15 中国空气动力研究与发展中心高速空气动力研究所 基于numa的实时位姿视频测量流水线模型优化方法
CN117710449B (zh) * 2024-02-05 2024-04-16 中国空气动力研究与发展中心高速空气动力研究所 基于numa的实时位姿视频测量流水线模型优化方法

Similar Documents

Publication Publication Date Title
CN111882608A (zh) 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法
JP4245963B2 (ja) 較正物体を用いて複数のカメラを較正するための方法およびシステム
JP4976756B2 (ja) 情報処理方法および装置
CN106127745B (zh) 结构光3d视觉系统与线阵相机的联合标定方法及装置
US7479982B2 (en) Device and method of measuring data for calibration, program for measuring data for calibration, program recording medium readable with computer, and image data processing device
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
CN106228538B (zh) 基于logo的双目视觉室内定位方法
US20060004280A1 (en) Placement information estimating method and information processing device
US20050220363A1 (en) Processing architecture for automatic image registration
CN106643699A (zh) 一种虚拟现实系统中的空间定位装置和定位方法
JP2010259605A (ja) 視線測定装置および視線測定プログラム
CN111872544B (zh) 激光出光指示点的标定方法、装置和振镜同轴视觉系统
JP2008070267A (ja) 位置姿勢計測方法及び装置
CN110006634B (zh) 视场角测量方法、视场角测量装置、显示方法和显示设备
CN111192235A (zh) 一种基于单目视觉模型和透视变换的图像测量方法
JP2017129567A (ja) 情報処理装置、情報処理方法、プログラム
CN109341537A (zh) 基于双目视觉的尺寸测量方法和装置
CN109032329B (zh) 面向多人增强现实交互的空间一致性保持方法
CN111811462A (zh) 极端环境下大构件便携式视觉测距系统及方法
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
WO2023201578A1 (zh) 单目激光散斑投影系统的外参数标定方法和装置
CN110414101B (zh) 一种仿真场景测量方法、准确性测定方法及系统
Penczek et al. 31‐2: Measuring Interocular Geometric Distortion of Near‐Eye Displays
JP5726024B2 (ja) 情報処理方法および装置
JP6109213B2 (ja) 情報処理装置および方法、プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201103