CN107392961B - 基于增强现实的空间定位方法及装置 - Google Patents

基于增强现实的空间定位方法及装置 Download PDF

Info

Publication number
CN107392961B
CN107392961B CN201710455706.0A CN201710455706A CN107392961B CN 107392961 B CN107392961 B CN 107392961B CN 201710455706 A CN201710455706 A CN 201710455706A CN 107392961 B CN107392961 B CN 107392961B
Authority
CN
China
Prior art keywords
coordinate system
world coordinate
geometric
axis
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710455706.0A
Other languages
English (en)
Other versions
CN107392961A (zh
Inventor
刘萍萍
张元通
韦正华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaqin Technology Co Ltd
Original Assignee
Huaqin Telecom Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaqin Telecom Technology Co Ltd filed Critical Huaqin Telecom Technology Co Ltd
Priority to CN201710455706.0A priority Critical patent/CN107392961B/zh
Publication of CN107392961A publication Critical patent/CN107392961A/zh
Priority to DE112017007644.7T priority patent/DE112017007644T5/de
Priority to PCT/CN2017/114840 priority patent/WO2018227900A1/zh
Application granted granted Critical
Publication of CN107392961B publication Critical patent/CN107392961B/zh
Priority to US16/713,540 priority patent/US10997745B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及空间定位领域,公开了一种基于增强现实的空间定位方法及装置。本发明中,基于增强现实的空间定位方法包括:获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;获取定位光球在世界坐标系的实际位置;根据偏移角度、定位光球的实际位置和目标位置,计算双摄像头在世界坐标系的坐标值;根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置。本发明还公开了一种基于增强现实的空间定位装置。与现有技术相比,本发明可以保证虚拟物体与定位光球的位置重合,从而使得在虚拟场景中虚拟物体与真实物体能够紧密结合。

Description

基于增强现实的空间定位方法及装置
技术领域
本发明涉及空间定位领域,特别涉及一种基于增强现实的空间定位方法及装置。
背景技术
AR(AR是Augmented Reality的简称,中文释义为增强现实技术或增强现实)是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。随着随身电子产品CPU(CPU是CentralProcessingUnit的简称,中文释义为中央处理器)运算能力的提升,预期增强现实的用途将会越来越广。
现有技术中用户使用的AR头戴设备,通常会采用Inside-Out方案对虚拟物体进行定位。但是,Inside-Out定位方案应用在AR场景中时,需要通过双摄像头设备和定位光球来实现虚拟物体和现实物体的定位。
但是,本申请的发明人在实现本发明的过程中发现,现有技术中还存在以下技术缺陷:在双摄像头设备相对于定位光球会发生位移或者旋转时,虚拟场景中的物体无法与定位光球的位置重合,进而导致虚拟场景中的物体无法与现实场景中的物体紧密结合。
发明内容
本发明实施例的目的在于提供一种基于增强现实的空间定位方法及装置,可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
为解决上述技术问题,本发明实施例提供了一种基于增强现实的空间定位方法,包括:获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;获取所述定位光球在所述世界坐标系的实际位置;根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
本发明实施例还提供了一种基于增强现实的空间定位装置,包括:第一获取模块,用于获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;第二获取模块,用于获取所述定位光球在所述世界坐标系的实际位置;计算模块,用于根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;定位模块,用于根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
本发明实施例相对于现有技术而言,通过获取双摄像头坐标系相对于世界坐标系的偏移角度;获取所述定位光球在所述世界坐标系的实际位置;根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置,使得可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
另外,根据偏移角度、定位光球的实际位置和目标位置,计算双摄像头在世界坐标系的坐标值,具体包括:根据所述偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系;以所述双摄像头在所述世界坐标系各坐标轴的坐标值为未知变量,根据所述几何位置关系建立数学方程组;对所述数学方程组进行解析,得到所述双摄像头在所述世界坐标系各坐标轴的坐标值。通过这种方式提供了计算双摄像头在世界坐标系的坐标值的一种具体实现方法,有助于保证本发明的进一步可行性。
另外,所述根据偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系,具体包括:所述目标位置S在所述世界坐标系XY平面的投影点B、过所述定位光球的实际位置C1平行于所述双摄像头自身坐标系的Y轴且与所述C1相距长度为所述Y1的点A、做C1A与所述世界坐标系XY平面的交点N,其中,所述定位光球的实际位置C1相对于所述目标位置S在所述世界坐标系上的偏移坐标(X1,Y1,Z1);所述双摄像头自身坐标系中的Y轴与所述世界坐标系XY平面的交点P;过所述双摄像头的位置C做所述世界坐标系XY平面的垂线,且与所述世界坐标系XY平面的交点H;过所述S做NB的平行线与C1N的交点为T,ST与一预设面的交点E,所述预设面为过CH与所述世界坐标系的YZ面平行的面;所述S在所述预设面的投影G,过所述C1做所述CH的垂线且与所述CH交于J,过所述S做与所述世界坐标系的XY平面与所述CH交于C2,过所述C2向SE做垂线交于所述SE于F。通过这种方式提供了一种建立几何位置关系具体实现方法,有助于保证本发明的进一步可行性。
另外,所述根据几何位置关系建立数学方程组,具体包括:根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第一方程组:QB=Y0*Sinγ+X1;NA=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ;其中,所述Y0为所述定位光球的基准坐标值,角度γ为所述双摄像头坐标系相对于所述世界坐标系下绕Z轴的旋转角度;根据所述几何位置关系在所述双摄像头自身坐标系的X轴负方向上的几何图形投影,列第二方程组:N C1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;CP=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;其中,所述α为所述双摄像头坐标系相对于所述世界坐标系下绕X轴的旋转角度;根据所述几何位置关系在所述世界坐标系的Z轴负反向上的几何图形投影,列第三方程:CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ;根据所述第一方程组、所述第二方程组以及所述第三方程,解析出所述双摄像头在所述世界坐标系中的Y轴的坐标值CH;根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第四方程组:AT=X1*Tanγ;TF=(Y1+X1*Tanγ)*Sinγ;SF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ;根据所述几何位置关系在所述世界坐标系的X轴负方向上的几何图形投影,列第五方程:C2F=Z1*Cosα;根据所述几何位置关系在所述双摄像头自身坐标系的Y轴正方向上的几何图形投影,列第六方程组:FE=Z1*Cosα*Tanβ;KF=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;SE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;C2K=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;C2G=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ;根据所述第四方程组、所述第五方程以及所述第六方程组,分别解析出所述双摄像头在所述世界坐标系中的X轴的坐标值SG,Z轴的坐标值C2G。通过这种方式提供了一种根据几何位置关系建立数学方程组的具体实现方法,有助于保证本发明的进一步可行性。并且根据建立的数学方程组解析得到双摄像头分别在世界坐标系中的X轴、Y轴以及Z轴的坐标值,使得解析的结果更加精确。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是根据本发明第一实施方式中基于增强现实的空间定位方法的流程图;
图2是根据本发明第二实施方式中基于增强现实的空间定位方法的流程图;
图3是根据本发明第二实施方式中建立的几何位置关系结构示意图;
图4是根据本发明第二实施方式中建立的几何位置关系在另一方向上的结构示意图;
图5是根据本发明第二实施方式中建立的几何位置关系结构示意图在双摄像头自身坐标系的Z轴正方向上的几何图形投影图;
图6是根据本发明第二实施方式中建立的几何位置关系结构示意图在双摄像头自身坐标系的X轴负方向上的几何图形投影图;
图7是根据本发明第二实施方式中建立的几何位置关系结构示意图在世界坐标系的Z轴负反向上的几何图形投影图;
图8是根据本发明第二实施方式中建立的几何位置关系结构示意图在双摄像头自身坐标系的Z轴正方向上的几何图形投影图;
图9是根据本发明第二实施方式中建立的几何位置关系结构示意图在世界坐标系的X轴负方向上的几何图形投影图;
图10是根据本发明第二实施方式中建立的几何位置关系结构示意图在双摄像头自身坐标系的Y轴正方向上的几何图形投影图;
图11是根据本发明第三实施方式中基于增强现实的空间定位装置的方框图;
图12是根据本发明第四实施方式中基于增强现实的空间定位装置的方框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种基于增强现实的空间定位方法,应用于AR头戴设备,其中AR是Augmented Reality的简称,中文释义为增强现实技术或增强现实。
具体流程如图1所示,基于增强现实的空间定位方法包括:
步骤101,AR头戴设备获取双摄像头坐标系相对于世界坐标系的偏移角度。
具体地说,双摄像头通常设置于AR头戴设备中。并且AR头戴设备可以获取双摄像头坐标系相对于世界坐标系下分别绕世界坐标系的X轴、Y轴以及Z轴的各偏移角度。值得一提的是,AR头戴设备中可以但不限于安装有陀螺仪,并通过陀螺仪获取上述偏移角度。
其中,世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系。具体而言,在实际的应用中,可以将定位光球的已知目标位置的坐标值定义为(0,Y0,0),并以此建立世界坐标系。值得一提的是,Y0的值可以根据实际的设计需求设计为任意值,本实施方式对Y0的具体值不作限制。
步骤102,AR头戴设备获取定位光球在世界坐标系的实际位置。
具体地说,AR头戴设备可以获取定位光球在世界坐标系中的实际坐标值。
步骤103,AR头戴设备根据偏移角度、定位光球的实际位置和目标位置,计算双摄像头在世界坐标系的坐标值。
步骤104,AR头戴设备根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置。
具体地说,在实际的应用中,由于双摄像头设备相对于定位光球会发生位移或者旋转,导致虚拟场景中的物体无法与定位光球的位置重合,进而导致虚拟场景中的物体无法与现实场景中的物体紧密结合。因此,在AR头戴设备根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置时,可以使虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象。
通过上述内容,不难发现,本实施方式可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
本发明的第二实施方式涉及一种基于增强现实的空间定位方法。第二实施方式是在第一实施方式的基础上做的改进。
具体流程如图2所示,基于增强现实的空间定位方法包括:
步骤201,AR头戴设备获取双摄像头坐标系相对于世界坐标系的偏移角度。
具体地说,双摄像头通常设置于AR头戴设备中。并且AR头戴设备可以获取双摄像头坐标系相对于世界坐标系下分别绕世界坐标系的X轴、Y轴以及Z轴的各偏移角度α、β以及γ。值得一提的是,AR头戴设备中可以但不限于安装有陀螺仪,并通过陀螺仪获取上述偏移角度。
其中,世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系。具体而言,在实际的应用中,可以将定位光球的已知目标位置的坐标值定义为(0,Y0,0),并以此建立世界坐标系。值得一提的是,Y0的值可以根据实际的设计需求设计为任意值,本实施方式对Y0的具体值不作限制。
步骤202,AR头戴设备获取定位光球在世界坐标系的实际位置。
具体地说,AR头戴设备可以获取定位光球在世界坐标系中的实际坐标值(X1,Y1,Z1)。
步骤203,AR头戴设备根据偏移角度、定位光球的实际位置和目标位置,建立几何位置关系。
具体地说,如图3所示,做目标位置S在世界坐标系XY平面的投影点B、做过定位光球的实际位置C1平行于双摄像头自身坐标系的Y轴且与C1相距长度为Y1的点A、做C1A与世界坐标系XY平面的交点N,其中,定位光球的实际位置C1相对于目标位置S在世界坐标系上的偏移坐标(X1,Y1,Z1);做双摄像头自身坐标系中的Y轴与世界坐标系XY平面的交点P;过双摄像头的位置C做世界坐标系XY平面的垂线,且与世界坐标系XY平面的交点H。如图4所示,过S做NB的平行线与C1N的交点为T,ST与一预设面的交点E,预设面为过CH与世界坐标系的YZ面平行的面;S在预设面的投影G,过C1做CH的垂线且与CH交于J(图3和图4中均未标示出J),过S做与世界坐标系的XY平面与CH交于C2,过C2向SE做垂线交于SE于F(图3和图4中均未标示出F)。通过这种方式提供了一种建立几何位置关系具体实现方法,有助于保证本发明的进一步可行性。
步骤204,AR头戴设备以双摄像头在世界坐标系各坐标轴的坐标值为未知变量,根据几何位置关系建立数学方程组。
具体地说,如图5所示,根据几何位置关系在双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第一方程组:
QB=Y0*Sinγ+X1;
NA=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ;
不难发现,AS的长度为X1,其中IS垂直于BQ,BQ垂直于AN,SB与IS的夹角为为γ,SB的长度为Y0。由此可以推算出:QB=BI+IQ=SB*Sinγ+AS=Y0*Sinγ+X1;NA=NQ+QA=QB*Tanγ+SI=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ。其中,Y0为定位光球的基准坐标值,角度γ为双摄像头坐标系相对于世界坐标系下绕Z轴的旋转角度。
如图6所示,根据几何位置关系在双摄像头自身坐标系的X轴负方向上的几何图形投影,列第二方程组,其中,图6中BN与CM的交点为O;
N C1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;
CP=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;其中,α为双摄像头坐标系相对于世界坐标系下绕X轴的旋转角度。具体而言,N C1=NA+A C1=NA/Cosα+Y1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;CP=PB+BC=BN*Tanα+BC=C C1*Tanα+N C1=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1。
如图7所示,根据几何位置关系在世界坐标系的Z轴负反向上的几何图形投影,列第三方程:CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ。具体而言,CH=CP*Cosγ=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ。
如图8所示,根据几何位置关系在双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第四方程组:
AT=X1*Tanγ;
TF=(Y1+X1*Tanγ)*Sinγ;
SF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ。不难发现,SA的长度为X1,C1A的长度为Y1。具体而言,AT=SA*Tanγ=X1*Tanγ;TF=C1T*Sinγ=(C1A+AT)*Sinγ=(Y1+X1*Tanγ)*Sinγ;SF=ST–TF=SA/Cosγ–TF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ。
如图9所示,根据几何位置关系在世界坐标系的X轴负方向上的几何图形投影,列第五方程:C2F=Z1*Cosα。不难发现,图9中C1J垂直于CH且交CH于点J,C1J与C C1之间的角度为α,C2F平行于C1J,C C1的长度为Z1。由此可以推算出:C2F=J C1=C C1*Cosα=Z1*Cosα。
如图10所示,根据几何位置关系在双摄像头自身坐标系的Y轴正方向上的几何图形投影,列第六方程组:
FE=Z1*Cosα*Tanβ;
KF=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;
SE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;
SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;
C2K=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;
C2G=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ。具体而言,FE=C2F*Tanβ=Z1*Cosα*Tanβ;KF=SF*Tanβ=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;SE=SF+FE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;SG=SE*Cosβ=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;C2K=C2F–KF=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;C2G=C2K*Cosβ=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ。
步骤205,根据第一方程组、第二方程组以及第三方程,解析出双摄像头在世界坐标系中的Y轴的坐标值CH。
具体而言,CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ。
步骤206,根据第四方程组、第五方程以及第六方程组,分别解析出双摄像头在世界坐标系中的X轴的坐标值SG,Z轴的坐标值C2G。
具体而言,SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ。C2G=(Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ。
通过这种方式提供了一种根据几何位置关系建立数学方程组的具体实现方法,有助于保证本发明的进一步可行性。并且根据建立的数学方程组解析得到双摄像头分别在世界坐标系中的X轴、Y轴以及Z轴的坐标值,使得解析的结果更加精确。
值得一提的是,步骤205不限于在步骤206之前执行,也可以先解析出SG、C2G再解析出CH。
步骤207,AR头戴设备根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置。
具体而言,根据双摄像头在世界坐标系的坐标值(SG,CH,C2G),确定虚拟空间内虚拟物体在世界坐标系中的位置。值得一提的是,在实际的应用中,由于双摄像头设备相对于定位光球会发生位移或者旋转,导致虚拟场景中的物体无法与定位光球的位置重合,进而导致虚拟场景中的物体无法与现实场景中的物体紧密结合。因此,在AR头戴设备根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置时,可以使虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象。
通过上述内容,不难发现,本实施方式可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明第三实施方式涉及一种基于增强现实的空间定位装置,如图11所示,基于增强现实的空间定位装置包括:第一获取模块111,用于获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;第二获取模块112,用于获取所述定位光球在所述世界坐标系的实际位置;计算模块113,用于根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;定位模块114,用于根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
不难发现,本实施方式为与第一实施方式相对应的装置实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
通过上述内容,不难发现,本实施方式可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
值得一提的是,本实施方式中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本发明的创新部分,本实施方式中并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,但这并不表明本实施方式中不存在其它的单元。
本发明第四实施方式涉及一种基于增强现实的空间定位装置。第四实施方式是在第三实施方式的基础上做的改进。
如图12所示,基于增强现实的空间定位装置包括:第一获取模块111,用于获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;第二获取模块112,用于获取所述定位光球在所述世界坐标系的实际位置;计算模块113,用于根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;定位模块114,用于根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
另外,所述计算模块113包括:第一建立子模块1131,根据所述偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系;第二建立子模块1132,以所述双摄像头在所述世界坐标系各坐标轴的坐标值为未知变量,根据所述几何位置关系建立数学方程组;解析子模块1133,对所述数学方程组进行解析,得到所述双摄像头在所述世界坐标系各坐标轴的坐标值。
另外,所述第一建立子模块具体用于:做所述目标位置S在所述世界坐标系XY平面的投影点B、做过所述定位光球的实际位置C1平行于所述双摄像头自身坐标系的Y轴且与所述C1相距长度为所述Y1的点A、做C1A与所述世界坐标系XY平面的交点N,其中,所述定位光球的实际位置C1相对于所述目标位置S在所述世界坐标系上的偏移坐标(X1,Y1,Z1);做所述双摄像头自身坐标系中的Y轴与所述世界坐标系XY平面的交点P;过所述双摄像头DE的位置C做所述世界坐标系XY平面的垂线,且与所述世界坐标系XY平面的交点H;过所述S做NB的平行线与C1N的交点为T,ST与一预设面的交点E,所述预设面为过CH与所述世界坐标系的YZ面平行的面;做所述S在所述预设面的投影G,过所述C1做所述CH的垂线且与所述CH交于J,过所述S做与所述世界坐标系的XY平面与所述CH交于C2,过所述C2向SE做垂线交于所述SE于F。
另外,所述第二建立子模块包括:第一列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第一方程组:QB=Y0*Sinγ+X1;NA=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ;其中,所述Y0为所述定位光球的基准坐标值,角度γ为所述双摄像头坐标系相对于所述世界坐标系下绕Z轴的旋转角度;第二列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的X轴负方向上的几何图形投影,列第二方程组:N C1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;CP=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;其中,所述α为所述双摄像头坐标系相对于所述世界坐标系下绕X轴的旋转角度;第三列方程模块,用于根据所述几何位置关系在所述世界坐标系的Z轴负反向上的几何图形投影,列第三方程:CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ;所述解析子模块,具体用于:根据所述第一方程组、所述第二方程组以及所述第三方程,解析出所述双摄像头在所述世界坐标系中的Y轴的坐标值CH;所述第二建立子模块还包括:第四列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第四方程组:AT=X1*Tanγ;TF=(Y1+X1*Tanγ)*Sinγ;SF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ;第五列方程模块,用于根据所述几何位置关系在所述世界坐标系的X轴负方向上的几何图形投影,列第五方程:C2F=Z1*Cosα;第六列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Y轴正方向上的几何图形投影,列第六方程组:FE=Z1*Cosα*Tanβ;KF=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;SE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;C2K=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;C2G=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ;所述解析子模块,具体还用于:根据所述第四方程组、所述第五方程以及所述第六方程组,分别解析出所述双摄像头在所述世界坐标系中的X轴的坐标值SG,Z轴的坐标值C2G。
由于第二实施方式与本实施方式相互对应,因此本实施方式可与第二实施方式互相配合实施。第二实施方式中提到的相关技术细节在本实施方式中依然有效,在第二实施方式中所能达到的技术效果在本实施方式中也同样可以实现,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第二实施方式中。
通过上述内容,不难发现,本实施方式可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
本领域技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。

Claims (6)

1.一种基于增强现实的空间定位方法,其特征在于,包括:
获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;
获取所述定位光球在所述世界坐标系的实际位置;
根据所述偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系;以所述双摄像头在所述世界坐标系各坐标轴的坐标值为未知变量,根据所述几何位置关系建立数学方程组;对所述数学方程组进行解析,得到所述双摄像头在所述世界坐标系各坐标轴的坐标值;
根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
2.根据权利要求1所述的基于增强现实的空间定位方法,其特征在于,所述根据偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系,具体包括:
做所述目标位置S在所述世界坐标系XY平面的投影点B、做过所述定位光球的实际位置C1平行于所述双摄像头自身坐标系的Y轴且与所述C1相距长度为所述Y1的点A、做C1A与所述世界坐标系XY平面的交点N,其中,所述定位光球的实际位置C1相对于所述目标位置S在所述世界坐标系上的偏移坐标(X1,Y1,Z1);
做所述双摄像头自身坐标系中的Y轴与所述世界坐标系XY平面的交点P;
过所述双摄像头的位置C做所述世界坐标系XY平面的垂线,且与所述世界坐标系XY平面的交点H;
过所述S做NB的平行线与C1N的交点为T,ST与一预设面的交点E,所述预设面为过CH与所述世界坐标系的YZ面平行的面;
所述S在所述预设面的投影G,过所述C1做所述CH的垂线且与所述CH交于J,过所述S做与所述世界坐标系的XY平面与所述CH交于C2,过所述C2向SE做垂线交于所述SE于F。
3.根据权利要求2所述的基于增强现实的空间定位方法,其特征在于,所述根据几何位置关系建立数学方程组,具体包括:
根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第一方程组:
QB=Y0*Sinγ+X1;
NA=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ;其中,所述Y0为所述定位光球的基准坐标值,角度γ为所述双摄像头坐标系相对于所述世界坐标系下绕Z轴的旋转角度;
根据所述几何位置关系在所述双摄像头自身坐标系的X轴负方向上的几何图形投影,列第二方程组:
NC1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;
CP=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;其中,所述α为所述双摄像头坐标系相对于所述世界坐标系下绕X轴的旋转角度;
根据所述几何位置关系在所述世界坐标系的Z轴负反向上的几何图形投影,列第三方程:CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ;
在对所述数学方程组进行解析,得到所述双摄像头在所述世界坐标系各坐标轴的坐标值时,根据所述第一方程组、所述第二方程组以及所述第三方程,解析出所述双摄像头在所述世界坐标系中的Y轴的坐标值CH;
根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第四方程组:
AT=X1*Tanγ;
TF=(Y1+X1*Tanγ)*Sinγ;
SF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ;
根据所述几何位置关系在所述世界坐标系的X轴负方向上的几何图形投影,列第五方程:C2F=Z1*Cosα;
根据所述几何位置关系在所述双摄像头自身坐标系的Y轴正方向上的几何图形投影,列第六方程组:
FE=Z1*Cosα*Tanβ;
KF=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;
SE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;
SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;
C2K=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;
C2G=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*
Cosβ;
在对所述数学方程组进行解析,得到所述双摄像头在所述世界坐标系各坐标轴的坐标值时,根据所述第四方程组、所述第五方程以及所述第六方程组,分别解析出所述双摄像头在所述世界坐标系中的X轴的坐标值SG,Z轴的坐标值C2G。
4.一种基于增强现实的空间定位装置,其特征在于,包括:
第一获取模块,用于获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;
第二获取模块,用于获取所述定位光球在所述世界坐标系的实际位置;
计算模块,用于根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;
定位模块,用于根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
其中,所述计算模块包括:
第一建立子模块,根据所述偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系;
第二建立子模块,以所述双摄像头在所述世界坐标系各坐标轴的坐标值为未知变量,根据所述几何位置关系建立数学方程组;
解析子模块,对所述数学方程组进行解析,得到所述双摄像头在所述世界坐标系各坐标轴的坐标值。
5.根据权利要求4所述的基于增强现实的空间定位装置,其特征在于,所述第一建立子模块具体用于:
做所述目标位置S在所述世界坐标系XY平面的投影点B、做过所述定位光球的实际位置C1平行于所述双摄像头自身坐标系的Y轴且与所述C1相距长度为所述Y1的点A、做C1A与所述世界坐标系XY平面的交点N,其中,所述定位光球的实际位置C1相对于所述目标位置S在所述世界坐标系上的偏移坐标(X1,Y1,Z1);
做所述双摄像头自身坐标系中的Y轴与所述世界坐标系XY平面的交点P;
过所述双摄像头DE的位置C做所述世界坐标系XY平面的垂线,且与所述世界坐标系XY平面的交点H;
过所述S做NB的平行线与C1N的交点为T,ST与一预设面的交点E,所述预设面为过CH与所述世界坐标系的YZ面平行的面;
做所述S在所述预设面的投影G,过所述C1做所述CH的垂线且与所述CH交于J,过所述S做与所述世界坐标系的XY平面与所述CH交于C2,过所述C2向SE做垂线交于所述SE于F。
6.根据权利要求5所述的基于增强现实的空间定位装置,其特征在于,所述第二建立子模块包括:
第一列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第一方程组:
QB=Y0*Sinγ+X1;
NA=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ;其中,所述Y0为所述定位光球的基准坐标值,角度γ为所述双摄像头坐标系相对于所述世界坐标系下绕Z轴的旋转角度;
第二列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的X轴负方向上的几何图形投影,列第二方程组:
NC1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;
CP=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;其中,所述α为所述双摄像头坐标系相对于所述世界坐标系下绕X轴的旋转角度;
第三列方程模块,用于根据所述几何位置关系在所述世界坐标系的Z轴负反向上的几何图形投影,列第三方程:CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ;
所述解析子模块,具体用于:根据所述第一方程组、所述第二方程组以及所述第三方程,解析出所述双摄像头在所述世界坐标系中的Y轴的坐标值CH;
所述第二建立子模块还包括:
第四列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第四方程组:
AT=X1*Tanγ;
TF=(Y1+X1*Tanγ)*Sinγ;
SF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ;
第五列方程模块,用于根据所述几何位置关系在所述世界坐标系的X轴负方向上的几何图形投影,列第五方程:C2F=Z1*Cosα;
第六列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Y轴正方向上的几何图形投影,列第六方程组:
FE=Z1*Cosα*Tanβ;
KF=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;
SE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;
SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;
C2K=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;
C2G=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ;
所述解析子模块,具体还用于:根据所述第四方程组、所述第五方程以及所述第六方程组,分别解析出所述双摄像头在所述世界坐标系中的X轴的坐标值SG,Z轴的坐标值C2G。
CN201710455706.0A 2017-06-16 2017-06-16 基于增强现实的空间定位方法及装置 Active CN107392961B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201710455706.0A CN107392961B (zh) 2017-06-16 2017-06-16 基于增强现实的空间定位方法及装置
DE112017007644.7T DE112017007644T5 (de) 2017-06-16 2017-12-06 Auf der erweiterten Realität basiertes Verfahren und Vorrichtung zur räumlichen Positionierung
PCT/CN2017/114840 WO2018227900A1 (zh) 2017-06-16 2017-12-06 基于增强现实的空间定位方法及装置
US16/713,540 US10997745B2 (en) 2017-06-16 2019-12-13 Augmented reality based method and apparatus for spatial positioning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710455706.0A CN107392961B (zh) 2017-06-16 2017-06-16 基于增强现实的空间定位方法及装置

Publications (2)

Publication Number Publication Date
CN107392961A CN107392961A (zh) 2017-11-24
CN107392961B true CN107392961B (zh) 2019-12-06

Family

ID=60332010

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710455706.0A Active CN107392961B (zh) 2017-06-16 2017-06-16 基于增强现实的空间定位方法及装置

Country Status (4)

Country Link
US (1) US10997745B2 (zh)
CN (1) CN107392961B (zh)
DE (1) DE112017007644T5 (zh)
WO (1) WO2018227900A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107392961B (zh) * 2017-06-16 2019-12-06 华勤通讯技术有限公司 基于增强现实的空间定位方法及装置
CN108471533B (zh) * 2018-03-21 2020-11-27 万物共算(成都)科技有限责任公司 一种适用于ar的高精度定位方法
US10969486B2 (en) * 2018-04-26 2021-04-06 SCRRD, Inc. Augmented reality platform and method for use of same
CN109284456B (zh) * 2018-08-30 2022-04-12 广东越维信息科技有限公司 网页控件在ar中的空间定位方法和ar系统
CN110856254B (zh) * 2019-11-22 2021-02-26 上海图聚智能科技股份有限公司 一种基于视觉的室内定位方法、装置、设备及存储介质
US11501530B1 (en) 2021-09-08 2022-11-15 International Business Machines Corporation Spatio-temporal relation based MR content positioning
CN114723814A (zh) * 2022-04-22 2022-07-08 东莞赋安实业有限公司 一种复杂背景下线扫描相机定位高速弱小目标方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101785026A (zh) * 2007-07-18 2010-07-21 Metaio有限公司 用于确定摄像机相对于真实对象的位置和方向的方法和系统
CN102411854A (zh) * 2011-09-01 2012-04-11 苏州梦想人软件科技有限公司 基于增强现实的课堂教学混合技术应用系统及方法
CN104090660A (zh) * 2014-05-30 2014-10-08 贺杰 一种基于立体视觉的动作采集和反馈方法及系统
CN106326930A (zh) * 2016-08-24 2017-01-11 王忠民 一种确定虚拟现实中被跟踪物体位置的方法、装置及系统
CN106663338A (zh) * 2014-08-01 2017-05-10 索尼公司 信息处理装置、信息处理方法和程序
CN106791784A (zh) * 2016-12-26 2017-05-31 深圳增强现实技术有限公司 一种虚实重合的增强现实显示方法和装置
CN106814851A (zh) * 2016-12-09 2017-06-09 武汉秀宝软件有限公司 一种增强现实交互方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6753828B2 (en) * 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
US7693325B2 (en) * 2004-01-14 2010-04-06 Hexagon Metrology, Inc. Transprojection of geometry data
US7884823B2 (en) * 2007-06-12 2011-02-08 Microsoft Corporation Three dimensional rendering of display information using viewer eye coordinates
US9082213B2 (en) * 2007-11-07 2015-07-14 Canon Kabushiki Kaisha Image processing apparatus for combining real object and virtual object and processing method therefor
US9812096B2 (en) * 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
JP6701930B2 (ja) * 2016-04-28 2020-05-27 富士通株式会社 オーサリング装置、オーサリング方法およびオーサリングプログラム
US11006098B2 (en) * 2016-05-10 2021-05-11 Sony Corporation Information processing apparatus, information processing system, and information processing method
CN109791405A (zh) * 2016-10-24 2019-05-21 深圳市大疆创新科技有限公司 用于控制由成像装置捕捉的图像的系统和方法
CN107392961B (zh) * 2017-06-16 2019-12-06 华勤通讯技术有限公司 基于增强现实的空间定位方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101785026A (zh) * 2007-07-18 2010-07-21 Metaio有限公司 用于确定摄像机相对于真实对象的位置和方向的方法和系统
CN102411854A (zh) * 2011-09-01 2012-04-11 苏州梦想人软件科技有限公司 基于增强现实的课堂教学混合技术应用系统及方法
CN104090660A (zh) * 2014-05-30 2014-10-08 贺杰 一种基于立体视觉的动作采集和反馈方法及系统
CN106663338A (zh) * 2014-08-01 2017-05-10 索尼公司 信息处理装置、信息处理方法和程序
CN106326930A (zh) * 2016-08-24 2017-01-11 王忠民 一种确定虚拟现实中被跟踪物体位置的方法、装置及系统
CN106814851A (zh) * 2016-12-09 2017-06-09 武汉秀宝软件有限公司 一种增强现实交互方法及系统
CN106791784A (zh) * 2016-12-26 2017-05-31 深圳增强现实技术有限公司 一种虚实重合的增强现实显示方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
增强现实系统中的三维注册技术研究;金剑华;《万方学位论文》;20070611;第14-44页 *

Also Published As

Publication number Publication date
US20200118290A1 (en) 2020-04-16
US10997745B2 (en) 2021-05-04
DE112017007644T5 (de) 2020-03-05
WO2018227900A1 (zh) 2018-12-20
CN107392961A (zh) 2017-11-24

Similar Documents

Publication Publication Date Title
CN107392961B (zh) 基于增强现实的空间定位方法及装置
Kneip et al. A novel parametrization of the perspective-three-point problem for a direct computation of absolute camera position and orientation
EP2728548B1 (en) Automated frame of reference calibration for augmented reality
Nistér et al. A minimal solution to the generalised 3-point pose problem
Kumar et al. Simple calibration of non-overlapping cameras with a mirror
CN110866977B (zh) 增强现实处理方法及装置、系统、存储介质和电子设备
CN107358633A (zh) 一种基于三点标定物的多相机内外参标定方法
CN109710056A (zh) 虚拟现实交互装置的显示方法及装置
WO2017080280A1 (zh) 一种深度图像合成方法及装置
US10769811B2 (en) Space coordinate converting server and method thereof
CN106570907B (zh) 一种相机标定方法及装置
US11922568B2 (en) Finite aperture omni-directional stereo light transport
Masselli et al. A new geometric approach for faster solving the perspective-three-point problem
CN103425626A (zh) 一种摄像机间坐标转换方法及装置
US8509522B2 (en) Camera translation using rotation from device
Rodrigues et al. FPGA-based rectification of stereo images
WO2018100230A1 (en) Method and apparatuses for determining positions of multi-directional image capture apparatuses
US20180365798A1 (en) Method and apparatus for processing omni-directional image
Sun et al. Real-time monocular visual self-localization approach using natural circular landmarks for indoor navigation
Kim et al. Pose initialization method of mixed reality system for inspection using convolutional neural network
CN117095131B (zh) 物体运动关键点的三维重建方法、设备及存储介质
CN112802120B (zh) 基于非均匀分割累加表和正交消隐点的相机外参标定方法
Zhang et al. A setup for panoramic stereo imaging
CN108534757B (zh) 一种基于云端的视觉地图比例尺检测方法及装置
Juarez-Salazar et al. Performance Study of Quaternion and Matrix Based Orientation for Camera Calibration.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: Building 1, 399 Keyuan Road, China (Shanghai) pilot Free Trade Zone, Pudong New Area, Shanghai, 201203

Patentee after: Huaqin Technology Co.,Ltd.

Address before: Building 1, No. 399 Keyuan Road, Pudong New Area, Shanghai, 201203

Patentee before: Huaqin Technology Co.,Ltd.

Address after: Building 1, No. 399 Keyuan Road, Pudong New Area, Shanghai, 201203

Patentee after: Huaqin Technology Co.,Ltd.

Address before: Building 1, No. 399 Keyuan Road, Zhangjiang hi tech park, Pudong New Area, Shanghai, 201203

Patentee before: HUAQIN TELECOM TECHNOLOGY Co.,Ltd.