CN109920000A - 一种基于多相机协同的无死角的增强现实方法 - Google Patents
一种基于多相机协同的无死角的增强现实方法 Download PDFInfo
- Publication number
- CN109920000A CN109920000A CN201910160435.5A CN201910160435A CN109920000A CN 109920000 A CN109920000 A CN 109920000A CN 201910160435 A CN201910160435 A CN 201910160435A CN 109920000 A CN109920000 A CN 109920000A
- Authority
- CN
- China
- Prior art keywords
- camera
- mark
- cameras
- relative
- augmented reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000011159 matrix material Substances 0.000 claims abstract description 34
- 238000013519 translation Methods 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 7
- 238000009877 rendering Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000005316 response function Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 11
- 238000013507 mapping Methods 0.000 abstract description 2
- 239000003550 marker Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 229910052742 iron Inorganic materials 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于多相机协同的无死角的增强现实方法。本发明包括如下步骤:部署多摄像头阵列,用特定标记MARK顺时针方向依次让两个相机看到,分别计算二维MARK与相机坐标系原点的真实世界空间坐标系下的相对位姿,从而进行两两相机标定关系,并设置一个标签记录这两台相机已经“标定”。选取一台相机为主相机,其余相机为辅相机,将得到的两两相机之间的相对旋转与平移矩阵求解各辅相机相机坐标系与主相机相机坐标系关系,建立各辅相机世界空间坐标到主相机相机空间坐标的映射关系。本发明通过相机协同定标三位注册技术,以达到模板怎么旋转都能将虚物三维注册到正确位置。
Description
技术领域
本发明属于计算机视觉技术与图形学交叉领域,尤其涉及一种基于多相机协同下的无死角的增强现实方法。
背景技术
AR技术简单来说就是在虚拟环境中添加真实世界的图像,更侧重于现实环境。增强现实不要求苛刻的完全浸入虚拟环境,它是把人工生成的虚拟对象与相应的现实世界融合在一起,提供给操作者附带有虚拟对象的真实场景,或者是建立在真实场景上的虚拟对象。增强现实技术是对真实环境做相应的增补,使操作者能够更方便的感受与认知外部世界。建立一个在细节上精确重现我们所处简单自然环境的系统仍旧具有很大的难度,而增强现实可以不必需要大量的计算能力在提高虚拟环境的逼真度上下功夫,而是充分利用客观世界的信息,根据需求进行增补,相应就极大的减少了对系统整体计算能力的依赖。AR技术涉及了计算机视觉、光电传感器、模式识别、计算机图形学、人工智能、自动化等多个领域,是一种使用计算机生成的虚拟数据对客观环境的影像进行增强或扩展的技术,提供接口使操作者和虚拟环境中的虚拟物体进行自然交流,为操作者带来容易实施的、交互体验好、多种体感、能够强化用户感觉的新体验。增强现实技术可以关联很多领域,在机械装配维护、医学研究、航天军工和商业娱乐等多个领域都能得到广阔的应用。
增强现实技术的核心是三维注册:增强现实系统在设计时需要根据相应的参数信息来确定生成的虚拟物体将要添加到真实空间坐标系中的位置,以便把虚拟物体准确的映射到投影平面,并在显示装置的正确位置进行显示,所需的这些参数信息是通过在现场采集视频图像的摄像机相对于采集现场的位置和方向角(外部参数)、成像系统(摄像机)的内部参数(焦距以及像元高宽比等)计算得到的,这个过程也叫虚实配准,是增强现实系统设计中的一个关键步骤,经过这一系列的注册转换,最终实现虚拟模型与真实环境的融合显示,使用户在观察真实视频信息的同时也能够无缝获得帮助其加深对现实世界理解的各种增强信息。增强信息主要是以三维模型的形式存在,根据先验数据来确定模型细节并创建虚拟物体,计算摄像机的内外参数获得虚拟物体将要添加进真实环境中的坐标信息,为下一步的虚实融合显示做准备。在AR应用中,摄像机本身的内部参数(焦距、像素点参数等),以及观察者(即摄像机)所处的位置与视线方向角,构成了定标系统的内外参数矩阵,以这些数据资料为基础,确定所创建的虚拟模型添加进世界坐标系中的映射位置,将虚拟对象正确变换到投影平面,在显示模块中显示输出,这就是增强现实系统中三维注册所要完成的任务。上述流程也就是把人工制作的虚拟模型和真实场景中的对象“对齐”的流程。在拍摄视频时,利用光学透视原理,将拍摄对象发出或反射的光线捕捉到相机的光学传感器上,记录成连续图像帧的格式。从某个角度上说,视频文件的拍摄过程也相当于一个从真实场景坐标系到成像平面坐标系的转换过程,是通过摄像机的成像系统,将实际环境中的三维对象数据转换为二维图像投影到摄像机的像平面上的过程。在计算机图形学中,三维模型需要经过视点变换、模型变换、投影变换、视口变换等一系列坐标变换在二维的显示平面显示出来,这个过程和实际摄像机的工作过程是一样的,只是在计算机内部由算法实现。所以我们可以假设一个虚拟摄像机模型,通过参数校准使其与真实摄像机的内外参数保持一致,从而实现真实世界的视频图像和虚拟世界模型的融合显示。因此,AR中的虚实配准过程实际上就是确定不同坐标系统之间的变换关系,明确了各坐标系之间的关系,就能将虚拟模型与真实场景适当的融合,得到增强后的现场影像。
但是,现在的增强现实技术绝大多数基于人工二维标记以及单目相机,故存在一旦二维标记旋转或者平移过大被摄像机几乎看不到,故当标记对摄像机可见程度过低时三维注册将会失败从而无法增强现实,影响体验效果。
发明内容
本发明的目的是将多相机协同技术运用在增强现实领域,提出基于多相机协同的无死角的增强现实方法。通过标定相机之间的相对位姿关系,提取多相机的图像实时采集,并统一对主相机图像流进行位姿一致的增强现实画图,无死角(不管MARK朝向哪里,都能正确增强现实)的增强现实。
本发明基于多相机协同技术,通过一张MAKR两两标定摄像机的相互之间位姿,构建相互外参矩阵映射的转换矩阵,并采用基于自然纹理的二维MARK作为标记进行增强现实三位注册,从而取得良好的无死角且实时性高的增强现实。
本发明解决其技术问题所采用的技术方案如下:
步骤(1)本着相机能全方位看到需要增强现实的环境为准则部署多相机在需要增强现实的真实世界场景处,上面设置一个朝下相机,四个同一水平面相机分别位于东西南北四个方位。
步骤(2)用一张自然纹理标记的MARK让两个相机同时看到,进入双相机标定环节。对于每个相机来说:
首先构造金字塔,金字塔共n层,与SIFT不同,每层仅有一副图像;第s层的尺度为scales=Fators,其中,Fator初始尺度默认为1.2,原图在第0层;第s层图像大小:
在每层金字塔上采用Fast算法提取特征点,采用Harris角点响应函数,按角点响应值排序,选取前N个特征点。
采用ORB算法提取特征点并计算描述子,具体如下公式:
计算每个特征点的主方向(质心法),旋转每个特征点的Patch到主方向,采用ORB算法选取的最优的256对特征点做τ测试,构成256维描述子,公式如下,占32个字节;
步骤(3).针对每个相机,对步骤(2)采集的视频流特征点使用PNP算法估计各相机与二维MARK的相对位姿。具体如下:先用3个点计算出4组解获得四个旋转矩阵、平移矩阵。根据公式:
将第四个点的世界坐标代入公式,获得其在图像中的四个投影(一个解对应一个投影),取出其中投影误差最小的那个解作为最优解来估计各相机姿态相对于标记的姿态
步骤(4).对步骤(3)得到的两个单相机相对于同一个二维MARK的外参位姿矩阵。具体如下:
其中,表示真实世界MARK三维空间坐标,和分别表示两台相机同时看到同一MARK时的相机空间坐标,R1、R2分别表示两台相机相对于二维MARK的3*3的旋转矩阵,T1、T2分别表示两台相机相对于二维MARK的3*1的平移矩阵。由[R|T]可得到相机相对于二维mark的外参矩阵。如果该相机“正在标定”标志=1,则执行步骤(5)进行多相机标定;如果该相机“正在标定”标志=0,则执行步骤(9)进行多相机协同后的虚实融合。
步骤(5).对步骤(4)得到两个式子进行联立,得到如下方程
其中,将R1R2 -1视为第二台相机相对于第一台相机的旋转矩阵,-R1R2 -1T2+T1表示第二台相机相对于第一台相机的平移矩阵,由此可得第二台相机到第一台相机的相对位姿矩阵为:
[R1R2 -1|-R1R2 -1T2+T1] (6)
步骤(6).基于步骤(5)的方法,依次用一张标定用的MARK依次两两标定相机(相机的标定顺序由开发人员自己定且尽量做到不重复标定)。每个相机设置一个序号,以备后面计算任意两相机的相对位姿关系。因为两台相机之间已经计算出相对位姿变换矩阵,所以全部两两标定之后可以根据各相机两两之间位姿关系求得任意两个相机的位姿矩阵。
步骤(7).求得所有相机相对位姿矩阵后,在虚拟世界中按照真实世界的量度自动摆放虚拟世界各虚拟相机之间的位置,与真实世界各相机之间相对位置保持一致。
步骤(8).选一台相机为主相机,其余为辅相机在增强现实过程中,显示器实时显示主相机拍摄的画面,当MARK朝向主相机时,主相机根据相对于MARK的位姿进行三位注册并渲染虚拟物体;当MARK朝向非主相机时,能看到MARK并且置信度最高的辅相机根据步骤(6)(7)求得的两相机的位姿关系对主相机进行位姿一致的相对画图进行增强现实。
本发明的有益效果:
本发明利用一张二维MARK通过两两标定相机之间的相对位姿,计算出任意两相机之间的相对位姿,选取一台相机为主相机,其余相机为辅相机,只要有一台相机看到了MARK,都会实时计算该相机到主相机的位姿矩阵对主相机显示在显示器的画面进行位姿一致的相对增强现实。本发明多相机协同下克服了传统增强现实的单目相机因看不到MARK的内容而导致的增强现实失败。
附图说明
图1为本发明多相机两两标定的原理图(以四相机为例)。
图2为本发明每个相机进行协同增强现实的流程图。
图3为多相机标定后协同增强现实的原理图。
图4为多相机协同进行增强现实的化学实验人机交互测试结果。实验环境为上方一个相机朝下,前后左右方向各一个相机且这四个相机共面,黄圈圈出的增强现实MARK一个朝向左(增强出虚物试管),一个朝向上(增强出虚物铁架台)。都可以进行相对于主相机的位姿一致的增强现实渲染。
具体实施方式
下面结合附图对本发明方法作进一步说明。
如图1所示,两两标定环境示意图如图所示,只有右边与后边的相机能看到MARK正面。
如图2“每个相机增强现实文字描述”与图3“多相机协同下增强现实”所示,多相机标定与多相机协同增强现实具体步骤如下:
步骤(1)部署多相机阵列;
本着相机能全方位看到需要增强现实的环境为准则部署多相机在需要增强现实的真实世界场景处,上面设置一个朝下相机,四个同一水平面相机分别位于东西南北四个方位;
步骤(2)用一张自然纹理标记的MARK,让两台或以上相机同时看到二维MARK正面进行标定,进入双相机标定环节;
首先判断该MARK是标定MARK还是增强现实MARK,如果是标定MARK,则进入多相机标定环节,置该相机“正在标定”的标志位为1,计算这个相机相对MARK的位姿即外参矩阵,作为计算相机与相机间位姿的前提;如果是增强现实MARK,则进入增强现实环节,置该相机“正在标定”的标志位为0,计算这个相机相对MARK的位姿;
对于每个相机:
首先构造金字塔,金字塔共n层,与SIFT不同,每层仅有一副图像;第s层的尺度为scales=Fators,其中,Fator初始尺度默认为1.2,原图在第0层;
第s层图像大小:
在每层金字塔上采用Fast算法提取特征点,采用Harris角点响应函数,按角点响应值排序,选取前N个特征点;
采用ORB算法提取特征点并计算描述子,具体如下公式:
计算每个特征点的主方向(质心法),旋转每个特征点的Patch到主方向,采用ORB算法选取的最优的256对特征点做τ测试,构成256维描述子,公式如下,占32个字节;
步骤(3).针对每个相机,对步骤(2)采集的视频流特征点使用PNP算法估计各相机与二维MARK的相对位姿;具体如下:先用3个点计算出4组解获得四个旋转矩阵、平移矩阵;根据公式:
将第四个点的世界坐标代入公式,获得其在图像中的四个投影(一个解对应一个投影),取出其中投影误差最小的那个解作为最优解来估计各相机姿态相对于标记的姿态
步骤(4).对步骤(3)得到的两个单相机相对于同一个二维MARK的外参位姿矩阵;具体如下:
其中,表示真实世界MARK三维空间坐标,和分别表示两台相机同时看到同一MARK时的相机空间坐标,R1、R2分别表示两台相机相对于二维MARK的3*3的旋转矩阵,T1、T2分别表示两台相机相对于二维MARK的3*1的平移矩阵;由[R|T]可得到相机相对于二维mark的外参矩阵;如果该相机“正在标定”标志=1,则执行步骤(5)进行多相机标定;如果该相机“正在标定”标志=0,则执行步骤(8)进行多相机协同后的虚实融合;
步骤(5).对步骤(4)得到两个式子进行联立,得到如下方程
其中,将R1R2 -1视为第二台相机相对于第一台相机的旋转矩阵,-R1R2 -1T2+T1表示第二台相机相对于第一台相机的平移矩阵,由此可得第二台相机到第一台相机的相对位姿矩阵为:
[R1R2 -1|-R1R2 4T2+T1] (6)
步骤(6).基于步骤(5)的方法,依次用一张标定用的MARK依次两两标定相机;每个相机设置一个序号,以备后面计算任意两相机的相对位姿关系;因为两台相机之间已经计算出相对位姿变换矩阵,所以全部两两标定之后可以根据各相机两两之间位姿关系求得任意两个相机的位姿矩阵;
步骤(7).求得所有相机相对位姿矩阵后,在虚拟世界中按照真实世界的量度自动摆放虚拟世界各虚拟相机之间的位置,与真实世界各相机之间相对位置保持一致;
步骤(8).选一台相机为主相机,其余为辅相机在增强现实过程中,显示器实时显示主相机拍摄的画面,当MARK朝向主相机时,主相机根据相对于MARK的位姿进行三位注册并渲染虚拟物体;当MARK朝向非主相机时,能看到MARK并且置信度最高的辅相机根据步骤(6)(7)求得的两相机的位姿关系对主相机进行位姿一致的相对画图进行增强现实。
如图4为多相机协同下的增强现实效果(用于虚实融合仿真化学实验)。多相机协同环境为前、后、左、右、上各一个相机;上方的相机为主相机,其余为辅相机,显示器中显示的为主相机实时采集的图像。右边黄色圈圈出的为正面朝向主相机的二维MARK,增强出了虚拟铁架台;左边黄色圈圈出的为朝向左边辅摄像机二维MARK,仍然可以增强现实出相对于主相机的虚拟试管(即不管MARK怎么旋转与平移,虚拟物体的姿态都能准确三位注册到相对于主相机看到的MARK的位置)。
Claims (1)
1.一种基于多相机协同的无死角的增强现实方法,其特征在于包括如下步骤:
步骤(1)部署多相机阵列;
本着相机能全方位看到需要增强现实的环境为准则部署多相机在需要增强现实的真实世界场景处,上面设置一个朝下相机,四个同一水平面相机分别位于东西南北四个方位;
步骤(2)用一张自然纹理标记的MARK,让两台或以上相机同时看到二维MARK正面进行标定,进入双相机标定环节;
首先判断该MARK是标定MARK还是增强现实MARK,如果是标定MARK,则进入多相机标定环节,置该相机“正在标定”的标志位为1,计算这个相机相对MARK的位姿即外参矩阵,作为计算相机与相机间位姿的前提;如果是增强现实MARK,则进入增强现实环节,置该相机“正在标定”的标志位为0,计算这个相机相对MARK的位姿;
对于每个相机:
首先构造金字塔,金字塔共n层,与SIFT不同,每层仅有一副图像;第s层的尺度为scales=Fators,其中,Fator初始尺度默认为1.2,原图在第0层;
第s层图像大小:
在每层金字塔上采用Fast算法提取特征点,采用Harris角点响应函数,按角点响应值排序,选取前N个特征点;
采用ORB算法提取特征点并计算描述子,具体如下公式:
计算每个特征点的主方向(质心法),旋转每个特征点的Patch到主方向,采用ORB算法选取的最优的256对特征点做τ测试,构成256维描述子,公式如下,占32个字节;
步骤(3).针对每个相机,对步骤(2)采集的视频流特征点使用PNP算法估计各相机与二维MARK的相对位姿;具体如下:先用3个点计算出4组解获得四个旋转矩阵、平移矩阵;根据公式:
将第四个点的世界坐标代入公式,获得其在图像中的四个投影(一个解对应一个投影),取出其中投影误差最小的那个解作为最优解来估计各相机姿态相对于标记的姿态
步骤(4).对步骤(3)得到的两个单相机相对于同一个二维MARK的外参位姿矩阵;具体如下:
其中,表示真实世界MARK三维空间坐标,和分别表示两台相机同时看到同一MARK时的相机空间坐标,R1、R2分别表示两台相机相对于二维MARK的3*3的旋转矩阵,T1、T2分别表示两台相机相对于二维MARK的3*1的平移矩阵;由[R|T]可得到相机相对于二维mark的外参矩阵;如果该相机“正在标定”标志=1,则执行步骤(5)进行多相机标定;如果该相机“正在标定”标志=0,则执行步骤(8)进行多相机协同后的虚实融合;
步骤(5).对步骤(4)得到两个式子进行联立,得到如下方程
其中,将R1R2 -1视为第二台相机相对于第一台相机的旋转矩阵,-R1R2 -1T2+T1表示第二台相机相对于第一台相机的平移矩阵,由此可得第二台相机到第一台相机的相对位姿矩阵为:
[R1R2 -1|-R1R2 -1T2+T1] (6)
步骤(6).基于步骤(5)的方法,依次用一张标定用的MARK依次两两标定相机;每个相机设置一个序号,以备后面计算任意两相机的相对位姿关系;因为两台相机之间已经计算出相对位姿变换矩阵,所以全部两两标定之后可以根据各相机两两之间位姿关系求得任意两个相机的位姿矩阵;
步骤(7).求得所有相机相对位姿矩阵后,在虚拟世界中按照真实世界的量度自动摆放虚拟世界各虚拟相机之间的位置,与真实世界各相机之间相对位置保持一致;
步骤(8).选一台相机为主相机,其余为辅相机在增强现实过程中,显示器实时显示主相机拍摄的画面,当MARK朝向主相机时,主相机根据相对于MARK的位姿进行三位注册并渲染虚拟物体;当MARK朝向非主相机时,能看到MARK并且置信度最高的辅相机根据步骤(6)(7)求得的两相机的位姿关系对主相机进行位姿一致的相对画图进行增强现实。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910160435.5A CN109920000B (zh) | 2019-03-04 | 2019-03-04 | 一种基于多相机协同的无死角的增强现实方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910160435.5A CN109920000B (zh) | 2019-03-04 | 2019-03-04 | 一种基于多相机协同的无死角的增强现实方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109920000A true CN109920000A (zh) | 2019-06-21 |
CN109920000B CN109920000B (zh) | 2020-11-03 |
Family
ID=66963067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910160435.5A Active CN109920000B (zh) | 2019-03-04 | 2019-03-04 | 一种基于多相机协同的无死角的增强现实方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109920000B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378990A (zh) * | 2019-07-03 | 2019-10-25 | 北京悉见科技有限公司 | 增强现实场景展现方法、装置及存储介质 |
CN111127326A (zh) * | 2020-02-02 | 2020-05-08 | 杭州一隅千象科技有限公司 | 一种空间拼接系统及其方法 |
US11450014B2 (en) * | 2020-07-22 | 2022-09-20 | Microsoft Technology Licensing, Llc | Systems and methods for continuous image alignment of separate cameras |
CN116664681A (zh) * | 2023-07-26 | 2023-08-29 | 长春工程学院 | 基于语义感知的电力作业智能协同增强现实系统及方法 |
CN116704045A (zh) * | 2023-06-20 | 2023-09-05 | 北京控制工程研究所 | 用于监测星空背景模拟系统的多相机系统标定方法 |
CN117765098A (zh) * | 2024-02-22 | 2024-03-26 | 青岛科技大学 | 一种相机辅助标定方法、系统、设备及存储介质 |
EP4439465A1 (en) * | 2023-03-17 | 2024-10-02 | Sony Group Corporation | Determining camera ordering for extrinsic calibration of multi-camera system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120050493A1 (en) * | 2010-08-24 | 2012-03-01 | Siemens Corporation | Geometric calibration of head-worn multi-camera eye tracking system |
CN103903013A (zh) * | 2014-04-15 | 2014-07-02 | 复旦大学 | 一种无标记平面物体识别的优化算法 |
WO2017030985A1 (en) * | 2015-08-14 | 2017-02-23 | Pcms Holdings, Inc. | System and method for augmented reality multi-view telepresence |
CN107292921A (zh) * | 2017-06-19 | 2017-10-24 | 电子科技大学 | 一种基于kinect相机的快速三维重建方法 |
US20180124387A1 (en) * | 2016-10-28 | 2018-05-03 | Daqri, Llc | Efficient augmented reality display calibration |
CN108170297A (zh) * | 2017-09-11 | 2018-06-15 | 南京睿悦信息技术有限公司 | 实时六自由度vr/ar/mr设备定位方法 |
CN109345581A (zh) * | 2018-07-30 | 2019-02-15 | 中国科学院自动化研究所 | 基于多目相机的增强现实方法、装置及系统 |
-
2019
- 2019-03-04 CN CN201910160435.5A patent/CN109920000B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120050493A1 (en) * | 2010-08-24 | 2012-03-01 | Siemens Corporation | Geometric calibration of head-worn multi-camera eye tracking system |
CN103903013A (zh) * | 2014-04-15 | 2014-07-02 | 复旦大学 | 一种无标记平面物体识别的优化算法 |
WO2017030985A1 (en) * | 2015-08-14 | 2017-02-23 | Pcms Holdings, Inc. | System and method for augmented reality multi-view telepresence |
US20180124387A1 (en) * | 2016-10-28 | 2018-05-03 | Daqri, Llc | Efficient augmented reality display calibration |
CN107292921A (zh) * | 2017-06-19 | 2017-10-24 | 电子科技大学 | 一种基于kinect相机的快速三维重建方法 |
CN108170297A (zh) * | 2017-09-11 | 2018-06-15 | 南京睿悦信息技术有限公司 | 实时六自由度vr/ar/mr设备定位方法 |
CN109345581A (zh) * | 2018-07-30 | 2019-02-15 | 中国科学院自动化研究所 | 基于多目相机的增强现实方法、装置及系统 |
Non-Patent Citations (3)
Title |
---|
DONG WANG ET.AL: "Recognition and Grasping of Target Position and Pose of Manipulator Based on Vision", 《(2018 5TH INTERNATIONAL CONFERENCE ON INFORMATION, CYBERNETICS, AND COMPUTATIONAL SOCIAL SYSTEMS (ICCSS))》 * |
李乾等: "基于无标记识别的增强现实方法研究", 《仿真系统与技术》 * |
贾琼: "基于目标识别定位技术的增强现实系统", 《万方》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378990A (zh) * | 2019-07-03 | 2019-10-25 | 北京悉见科技有限公司 | 增强现实场景展现方法、装置及存储介质 |
CN110378990B (zh) * | 2019-07-03 | 2023-01-10 | 北京悉见科技有限公司 | 增强现实场景展现方法、装置及存储介质 |
CN111127326A (zh) * | 2020-02-02 | 2020-05-08 | 杭州一隅千象科技有限公司 | 一种空间拼接系统及其方法 |
US11450014B2 (en) * | 2020-07-22 | 2022-09-20 | Microsoft Technology Licensing, Llc | Systems and methods for continuous image alignment of separate cameras |
EP4439465A1 (en) * | 2023-03-17 | 2024-10-02 | Sony Group Corporation | Determining camera ordering for extrinsic calibration of multi-camera system |
CN116704045A (zh) * | 2023-06-20 | 2023-09-05 | 北京控制工程研究所 | 用于监测星空背景模拟系统的多相机系统标定方法 |
CN116704045B (zh) * | 2023-06-20 | 2024-01-26 | 北京控制工程研究所 | 用于监测星空背景模拟系统的多相机系统标定方法 |
CN116664681A (zh) * | 2023-07-26 | 2023-08-29 | 长春工程学院 | 基于语义感知的电力作业智能协同增强现实系统及方法 |
CN116664681B (zh) * | 2023-07-26 | 2023-10-10 | 长春工程学院 | 基于语义感知的电力作业智能协同增强现实系统及方法 |
CN117765098A (zh) * | 2024-02-22 | 2024-03-26 | 青岛科技大学 | 一种相机辅助标定方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109920000B (zh) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109920000B (zh) | 一种基于多相机协同的无死角的增强现实方法 | |
CN109461180B (zh) | 一种基于深度学习的三维场景重建方法 | |
CN111062873B (zh) | 一种基于多对双目相机的视差图像拼接与可视化方法 | |
KR101761751B1 (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
Teller et al. | Calibrated, registered images of an extended urban area | |
CN103607584B (zh) | 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法 | |
CN108401461A (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN107341832B (zh) | 一种基于红外定位系统的多视角切换拍摄系统和方法 | |
CN108510592A (zh) | 真实物理模型的增强现实展示方法 | |
CN110648274B (zh) | 鱼眼图像的生成方法及装置 | |
CN103489214A (zh) | 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法 | |
CN109712232B (zh) | 一种基于光场的物体表面轮廓三维成像方法 | |
CN106780629A (zh) | 一种三维全景数据采集、建模方法 | |
CN112001926A (zh) | 基于多维语义映射rgbd多相机标定方法、系统及应用 | |
CN111009030A (zh) | 一种多视高分辨率纹理图像与双目三维点云映射方法 | |
CN107292956A (zh) | 一种基于曼哈顿假设的场景重建方法 | |
CN108629828B (zh) | 三维大场景的移动过程中的场景渲染过渡方法 | |
CN115880344A (zh) | 一种双目立体匹配数据集视差真值获取方法 | |
CN112184807A (zh) | 一种高尔夫球落地式检测方法、系统及存储介质 | |
CN115830135A (zh) | 一种图像处理方法、装置及电子设备 | |
CN108564654B (zh) | 三维大场景的画面进入方式 | |
CN116612256B (zh) | 一种基于NeRF的实时远程三维实景模型浏览方法 | |
CN113487726A (zh) | 动作捕捉系统和方法 | |
CN110766752A (zh) | 一种带反光标志点的虚拟现实交互眼镜及空间定位方法 | |
CN113961068B (zh) | 一种基于增强现实头盔的近距离实物眼动交互方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |