CN108733206A - 一种坐标对齐方法、系统和虚拟现实系统 - Google Patents

一种坐标对齐方法、系统和虚拟现实系统 Download PDF

Info

Publication number
CN108733206A
CN108733206A CN201710278094.2A CN201710278094A CN108733206A CN 108733206 A CN108733206 A CN 108733206A CN 201710278094 A CN201710278094 A CN 201710278094A CN 108733206 A CN108733206 A CN 108733206A
Authority
CN
China
Prior art keywords
coordinate system
control device
binocular
angle
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710278094.2A
Other languages
English (en)
Other versions
CN108733206B (zh
Inventor
黄嗣彬
戴景文
贺杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Virtual Reality Technology Co Ltd
Original Assignee
Guangdong Virtual Reality Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Virtual Reality Technology Co Ltd filed Critical Guangdong Virtual Reality Technology Co Ltd
Priority to CN201710278094.2A priority Critical patent/CN108733206B/zh
Priority to PCT/CN2017/096120 priority patent/WO2018196216A1/zh
Publication of CN108733206A publication Critical patent/CN108733206A/zh
Priority to US16/236,488 priority patent/US10802606B2/en
Application granted granted Critical
Publication of CN108733206B publication Critical patent/CN108733206B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

本发明提供一种坐标对齐方法、系统和虚拟现实系统,方法包括:依据控制设备的传感器数据计算得到控制设备的姿态数据;基于控制设备上的光点获取控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据;依据实时坐标数据和对应的姿态数据生成控制设备在运动过程中的运动轨迹;基于运动轨迹计算控制设备在控制设备坐标系下的姿态,记为控制设备在双目坐标系中的正方向;计算得到控制设备坐标系与双目坐标系之间的夹角,记为第一夹角;依据第一夹角对双目坐标系进行校正,使得虚拟世界中与控制设备对应的虚拟物品的正方向与虚拟世界的正方向对齐;实现控制设备的正方向与虚拟世界坐标系的正方向之间的对齐,方案实施过程简单,成本较低。

Description

一种坐标对齐方法、系统和虚拟现实系统
技术领域
本发明涉及VR/MR/AR技术领域,具体涉及一种坐标对齐方法、系统和虚拟现实系统。
背景技术
虚拟现实(VR,Virtual Reality)、增强现实(AR,Augmented Reality)、混合现实(MR,Mediated Reality)行业的发展,不仅仅需要满足对内容的观看,还需要通过各种光学、传感器等方案,沟通虚拟与现实世界,实现通过现实的器件实现对虚拟世界的操作及控制。
以VR为例,现有的VR交互设备包括头部显示设备(Head Mount Display,简称HMD)、内部或外部的跟踪发射或接收设备(如立体相机、红外接收或发射器、信号发射接收器)和手部设备控制器(Controller)等,通过HMD、跟踪发射或接收设备以及Controller之间的配合可以进行动作的捕捉。
行业内采用的方案主要有InsideOut(以下简称IO)和OutsideIn(以下简称OI)两种方案进行动作捕捉。其中,IO有LeapMotion的手势识别,Ximmerse的Xhawk等;OI有Occulus Constellation,HTC VIVE,Sony PSVR等。
在使用上述方案时,需将控制器中IMU(Inertial Measurement Unit惯性测量装置,是测量物体三轴姿态角(或角速率)以及加速度的装置,IMU模块包含了:陀螺仪gyroscopes,加速度计accelerometer,磁力计magnetometer)坐标与光学坐标(用于对Controller进行跟踪定位的设备的坐标)对齐。目前的对齐方案常采用多光点的目标姿态估计,直接用光学估计出物体的姿态,该方案由于采用多光点,因此需要在HMD上部置许多发射光点或接收器,该方案需要各个方向部署光点,复杂度非常高,且光点或接收器的安装需要很高的精度以及非常复杂的标定,成本高,量产难,产品配置复杂,需有专业的人花费一两个小时才可以配置成功。
发明内容
有鉴于此,本发明实施例提供一种坐标对齐方法、系统和虚拟现实系统,以实现控制设备与正方向与虚拟世界坐标系的正方向之间的对齐。
为实现上述目的,本发明实施例提供如下技术方案:
一种坐标对齐方法,应用于虚拟现实设备、增强现实设备或混合现实设备中,该方法包括:
获取控制设备的传感器数据;
依据所述传感器数据计算得到控制设备的姿态数据;
在获取传感器姿态数据的同时,基于所述控制设备上的光点获取所述控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据;
依据所述实时坐标数据和与所述实时坐标数据对应的姿态数据生成控制设备在运动过程中的运动轨迹;
基于所述运动轨迹计算所述控制设备在控制设备坐标系下的姿态,记为控制设备在双目坐标系中的正方向;
计算得到所述控制设备坐标系与所述双目坐标系之间的夹角,记为第一夹角;
依据所述第一夹角对双目坐标系进行校正,使得所述控制设备正方向与所述双目坐标系的正方向之间的夹角为零,使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;
其中,所述双目坐标系与虚拟世界的虚拟世界坐标系之间具有预设的映射关系。
优选的,上述坐标对齐方法中,还包括:
通过HMD设备上的HMD双光点估算HMD设备在双目坐标系中的位置和方向,将HMD设备在双目坐标系中的方向记为HMD方向矢量;
计算所述HMD方向矢量与双目坐标系中预设的双目方向矢量之间的夹角,记为第二夹角;
依据所述第二夹角调整所述虚拟世界中与所述HMD设备对应的物体的正方向与虚拟世界坐标的正方向之间的夹角;
依据所述HMD设备在所述双目坐标系中的位置,调整所述虚拟世界中与所述HMD设备对应的物体在所述双目坐标系中的位置。
优选的,上述坐标对齐方法中,所述基于所述控制设备上的光点获取所述控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据,包括:
基于所述控制设备上的光点获取所述控制设备在沿直线往复运动过程中或旋转的圆周运动过程中的位于双目坐标系中的实时坐标数据。
优选的,上述坐标对齐方法中,所述计算得到所述控制设备正方向与所述双目坐标系的正方向之间的夹角,记为第一夹角,包括:
获取控制设备在运动过程中的运动轨迹;
当所述运动轨迹为直线时,对所述运动轨迹进行直线拟合,计算得到所述运动轨迹的直线度,计算得到与直线拟合后的运动轨迹垂直的直线方向;
当所述运动轨迹为类圆形时,对所述运动轨迹进行圆拟合,计算得到所述运动轨迹的曲度,计算得到穿过曲线拟合后的圆拟合的运动轨迹的圆心的直线方向;
计算所述直线方向在双目坐标系中的斜率K;
依据斜率计算所述直线方向与所述双目坐标系正方向之间的夹角θ;
对所述运动轨迹进行分段,得到多段子运动轨迹,计算得到与各段子运动轨迹对应的直线方向在双目坐标系中的斜率Ki,其中所述i与各段子运动轨迹相对应;
分别计算得到各段子运动轨迹对应的斜率Ki与所述斜率K的相似度Di
依据公式计算得到加权平均水平方向夹角δ,其中,所述N为所述子运动轨迹的总段数;
将所述夹角θ与夹角δ之和作为所述控制设备的正方向与所述双目坐标系正方向之间的夹角。
优选的,上述坐标对齐方法中,通过HMD设备上的HMD双光点估算HMD设备在双目坐标系中的位置和方向,包括:
通过对所述HMD设备上的HMD双光点进行图像处理的立体测量估算,计算得到双光点在双目坐标系中的位置,依据双光点在双目坐标系中的位置计算得到所述HMD设备在双目坐标系中的位置,依据所述双光点在双目坐标系中的位置计算得到所述双光点的正方向,将所述双光点的正方向记为所述HMD设备的正方向。
一种坐标对齐系统,应用于虚拟现实设备、增强现实设备或混合现实设备中,包括:
控制设备方向对齐子系统,用于:使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;
所述控制设备方向对齐单元子系统包括:
控制设备姿态计算单元,用于获取控制设备的传感器数据;依据所述传感器数据计算得到控制设备的姿态数据;
运动轨迹计算单元,用于在获取到控制设备的姿态数据的同时,基于所述控制设备上的光点获取所述控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据;依据所述实时坐标数据和与所述实时坐标数据对应的姿态数据生成控制设备在运动过程中的运动轨迹;
第一夹角计算单元,基于所述运动轨迹计算所述控制设备在控制设备坐标系下的姿态,记为控制设备在双目坐标系中的正方向;计算得到所述控制设备坐标系与所述双目坐标系的正方向之间的夹角,记为第一夹角;
双目坐标调整单元,用于依据所述第一夹角对双目坐标系进行校正,使得所述控制设备正方向与所述双目坐标系的正方向之间的夹角为零,使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;其中,所述双目坐标系与虚拟世界的虚拟世界坐标系之间具有预设的映射关系。
优选的,上述坐标对齐系统中,还包括:
HMD设备方向对齐子系统,用于依据HMD设备的位置和方向调整虚拟世界中与所述HMD设备对应的物体的在虚拟世界坐标中的位置和方向;
所述HMD设备方向对齐子系统,包括:
HMD位置和方向计算单元,用于通过HMD设备上的HMD双光点估算HMD设备在双目坐标系中的位置和方向,将HMD设备在双目坐标系中的方向记为HMD方向矢量;
第二夹角计算单元,用于计算所述HMD方向矢量与双目坐标系中预设的双目方向矢量之间的夹角,记为第二夹角;
虚拟用户调整单元,用于依据所述第二夹角调整所述虚拟世界中与所述HMD设备对应的物体的正方向与虚拟世界坐标的正方向之间的夹角,依据所述HMD设备在所述双目坐标系中的位置,调整所述虚拟世界中与所述HMD设备对应的物体在所述双目坐标系中的位置。
优选的,上述坐标对齐系统中,所述运动轨迹计算单元具体被配置为:
基于所述控制设备上的光点获取所述控制设备在沿直线往复运动过程中或旋转的圆周运动过程中的位于双目坐标系中的实时坐标数据;依据所述实时坐标数据生成控制设备在运动过程中的运动轨迹。
优选的,上述坐标对齐系统中,所述第一夹角计算单元,具体被配置为:
获取控制设备在运动过程中的运动轨迹;
当所述运动轨迹为直线时,对所述运动轨迹进行直线拟合,计算得到所述运动轨迹的直线度,计算得到与直线拟合后的运动轨迹垂直的直线方向;
当所述运动轨迹为类圆形时,对所述运动轨迹进行圆拟合,计算得到所述运动轨迹的曲度,计算得到穿过曲线拟合后的圆拟合的运动轨迹的圆心的直线方向;
计算所述直线方向在双目坐标系中的斜率K;
依据斜率计算所述直线方向与所述双目坐标系正方向之间的夹角θ;
对所述运动轨迹进行分段,得到多段子运动轨迹,计算得到与各段子运动轨迹对应的直线方向在双目坐标系中的斜率Ki,其中所述i与各段子运动轨迹相对应;
分别计算得到各段子运动轨迹对应的斜率Ki与所述斜率K的相似度Di
依据公式计算得到加权平均水平方向夹角δ,其中,所述N为所述子运动轨迹的总段数;
将所述夹角θ与夹角δ之和作为所述控制设备的正方向与所述双目坐标系正方向之间的夹角。
优选的,上述坐标对齐系统中,所述HMD位置和方向计算单元,具体被配置为:
通过对所述HMD设备上的HMD双光点进行图像处理的立体测量估算,计算得到双光点在双目坐标系中的位置,依据双光点在双目坐标系中的位置计算得到所述HMD设备在双目坐标系中的位置,依据所述双光点在双目坐标系中的位置计算得到所述双光点的正方向,将所述双光点的正方向记为所述HMD设备的正方向。
一种虚拟现实系统,包括:
头显设备;
与所述头显设备固定相连的双光点输出设备,用于输出具有输出两个具有唯一ID标识的光点;
通过无线或有线与所述头显设备相连的控制设备;
设置在所述控制设备上的光点输出设备,用于输出一个具有唯一ID标识的光点;
用于捕捉所述光点的光点跟踪设备,所述光点跟踪设备内配置有上述实施例中所述的运动轨迹计算单元、HMD位置和方向计算单元,用于将计算得到的运动轨迹和HMD方向矢量通过双光点输出设备发送给所述头显设备,
所述头显设备内配置有上述实施例中所述的控制设备姿态计算单元、第一夹角计算单元、双目坐标调整单元、第二夹角计算单元和虚拟用户调整单元。
基于上述技术方案,本发明实施例提供的上述方案,在对所述控制设备进行IMU对齐时,只需要在所述控制设备上设置一个光点即可,实现控制设备的正方向与虚拟世界坐标系的正方向之间的对齐,方案实施过程简单,成本较低。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例公开的一种坐标对齐方法的流程示意图;
图2为本发明另一实施例公开的一种坐标对齐方法的流程示意图;
图3为本发明实施例中计算控制设备正方向与双目坐标系正方向之间的夹角的流程示意图;
图4为本发明实施例公开的虚拟显示设备坐标对齐系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明公开了一种坐标对齐方法,其可以应用于现有技术中的VR设备、AR设备或MR设备等,参见图1,图1中的方法主要是针对于该方法可以包括:
步骤S101:获取控制设备的传感器数据;
所述控制设备可以为虚拟现实设备、增强现实设备或混合现实设备的手柄等遥控器设备,每套设备中可设置有多个控制设备,通常而言,设置有两个控制设备的情况居多,其内部配置有用于IMU器件,所述IMU器件内配置有多个用于测量设备姿态的传感器,通过将传感器的传感数据融合后可得到两个控制设备的姿态数据O1(yaw,pitch,roll),O2(yaw,pitch,roll);
步骤S102:依据所述传感器数据计算得到控制设备的姿态数据;
步骤S103:在获取传感器姿态数据的同时,基于所述控制设备上的光点获取所述控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据;
在每个控制设备上设置一光点输出设备,所述光点输出设备输出具有ID标识的光点信号,通过跟踪设备对其输出的光点信号进行监测并跟踪,得到其在往复运动过程中在双目坐标系中的实时坐标数据,且每一实时坐标数据对应一所述控制设备的姿态数据,对该实时坐标数据和姿态数据进行数据处理,可得到所述控制设备往复运动时在所述双目坐标系内的运动轨迹;
步骤S104:依据所述实时坐标数据和姿态数据生成控制设备在运动过程中的运动轨迹;
步骤S105:基于所述运动轨迹计算所述控制设备在控制设备坐标系下的姿态,记为控制设备在双目坐标系下的正方向;
所述控制设备在双目坐标系中的正方向指的是设备的朝向方向,在本步骤中,依据所述控制设备的姿态数据,以及所述运动轨迹计算所述控制设备在双目坐标系中的正方向,记为控制设备正方向;
步骤S106:计算得到所述控制设备坐标系与所述双目坐标系之间的夹角,记为第一夹角;
当所述控制设备为多个时,此时会计算得到多个第一夹角,如果每得到一个第一夹角就对双目坐标系进行一次坐标调整,则会导致坐标系统混乱,针对于此,当计算得到多个第一夹角时,对所述多个第一夹角求均值,将其平均值作为后续步骤中用于对双目坐标系进行坐标调整的第一夹角;
步骤S107:依据所述第一夹角对双目坐标系进行校正,使得所述控制设备正方向与所述双目坐标系的正方向之间的夹角为零,使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;
在虚拟现实设备、增强现实设备或混合现实设备中,虚拟世界坐标系与双目坐标系之间具有预设的坐标映射关系,当其中一个坐标系统的坐标发生变化时,另一个坐标系统的坐标更随变化,在本步骤中,当计算得到控制设备正方向与所述双目坐标系的正方向之间的第一夹角时,依据所述第一夹角调整所述双目坐标系的正方向,使其与虚拟现实设备、增强现实设备或混合现实设备的正方向对齐,此时,所述虚拟世界坐标系会跟随所述双目坐标系的坐标变化,使得所述虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;
其中,所述双目坐标系与虚拟世界的虚拟世界坐标系之间具有预设的映射关系。
通过本发明上述实施例公开的技术方案可见,在对所述控制设备进行IMU对齐时,只需要在所述控制设备上设置一个光点即可,实现控制设备的正方向与虚拟世界坐标系的正方向之间的对齐,方案实施过程简单,成本较低。
在本发明上述实施例公开的步骤S103中,为了使得计算得到的第一夹角的精确度更高,本发明上述实施例中的所述往复运动指的是规则图形的往复运动,例如,所述控制设备在直线方向上的往复运动或者是所述控制设备旋转的圆周运动,即所述步骤S103可被进一步限定为:
基于所述控制设备上的光点获取所述控制设备在沿直线往复运动过程中或旋转的圆周运动过程中的位于双目坐标系中的实时坐标数据。
此外,为了进一步提交所述第一夹角计算结果的准确性,本发明还公开了一种计算所述第一夹角的具体过程,参见图3,所述步骤S105和步骤S106进一步包括:
步骤S301:获取控制设备在运动过程中的运动轨迹,所述运动轨迹包括实时坐标数据以及设备姿态数据;
步骤S302:对所述运动轨迹进行图形识别,判断该运动轨迹为直线轨迹还是类圆形轨迹,当所述运动轨迹为直线轨迹时,执行步骤S303,当所述运动轨迹为类圆形轨迹时,执行步骤S305;
步骤S303:当所述运动轨迹为直线时,对所述运动轨迹进行直线拟合,执行步骤S304;
步骤S304:计算得到与直线拟合后的运动轨迹垂直的直线方向;
步骤S305:当所述运动轨迹为类圆形时,对所述运动轨迹进行圆拟合,执行步骤S306;
步骤S306:计算得到穿过曲线拟合后的圆拟合的运动轨迹的圆心的直线方向;
步骤S307:计算所述直线方向在双目坐标系中的斜率K;
所述斜率K指的是其垂线方向与双目坐标系的正方向所构成的平面内,相对于所述双目坐标系的正方向的斜率;
步骤S308:依据斜率计算所述直线方向与所述双目坐标系正方向之间的夹角θ;
步骤S309:对所述运动轨迹进行分段,得到多段子运动轨迹,计算得到与各段子运动轨迹对应的直线方向在双目坐标系中的斜率Ki,执行步骤S310,其中所述i与各段子运动轨迹相对应;
作为了确保计算结果的准确性,本发明还进一步对上述夹角θ,进行了校正,将所述运动轨迹进行分段,在对其进行分段时,可依据预设间距进行分段,该预设间距可以指的是所述运动轨迹上两个采样点之间的距离,即每两个采样点之间的运动轨迹作为一子运动轨迹,依据步骤S302-308对分割得到的各个子运动轨迹进行入处理,得到各个子运动轨迹对应的斜率Ki
步骤S310:分别计算得到各段子运动轨迹对应的斜率Ki与所述斜率K的相似度Di
步骤S311:依据公式(公式一)计算得到加权平均水平方向夹角δ(手柄的自然方位与双目平面垂直的夹角,记为方位角,其也可以用过姿态数据计算得到),其中,所述N为所述子运动轨迹的总段数;
步骤S312:将所述夹角θ与夹角δ之和作为所述控制设备的正方向与所述双目坐标系正方向之间的夹角。
本发明除了提供了一种用于实现控制设备的正方向与虚拟世界的坐标系的正方向对齐的方法之外,还提供了一种用于实现HMD与虚拟世界坐标系中的预设对象进行对齐的方案,参见图2,该方案可以包括:
步骤S201:通过HMD设备上的双光点估算HMD设备在双目坐标系中的位置和方向,将HMD设备在双目坐标系中的方向记为HMD方向矢量;
所述HMD设备上设置有双光点输出设备,所述双光点输出设备用于输出双光点,光点跟踪设备在检测到所述双光点后可估算得到所述双光点在双目标坐标系统中的位置和方向(双光点所对应的方向),将所述HMD设备在双目坐标系中的方向标记为HMD方向矢量;
步骤S202:计算所述HMD方向矢量与双目坐标系中预设的双目方向矢量之间的夹角,记为第二夹角;
步骤S203:依据所述第二夹角调整所述虚拟世界中与所述HMD设备对应的物体的正方向与虚拟世界坐标的正方向之间的夹角;
在所述虚拟世界中存在与HMD设备对应的物体,可认为是虚拟用户,在得到所述第二夹角后,依据所述第二夹角调整所述虚拟用户,使得所述虚拟用户的正方向与所述虚拟世界坐标的正方向之间的夹角为所述第二夹角,从而实现了HMD设备在虚拟世界坐标系中的方向对齐;
步骤S204:依据所述HMD设备在所述双目坐标系中的位置,调整所述虚拟世界中与所述HMD设备对应的物体在所述双目坐标系中的位置,实现了HMD设备在虚拟世界坐标系中的位置对齐。
本发明公开的另一实施例中,在通过HMD设备上的HMD双光点估算HMD设备在双目坐标系中的位置和方向时,其具体过程可以包括:
通过对所述HMD设备上的HMD双光点进行图像处理的立体测量估算,计算得到双光点在双目坐标系中的位置,依据双光点在双目坐标系中的位置计算得到所述HMD设备在双目坐标系中的位置,进而得到与所述HMD对应的虚拟用户在虚拟世界坐标系中的位置,依据所述双光点在双目坐标系中的位置计算得到所述双光点在所述双目坐标系中的正方向,将所述双光点的正方向记为所述HMD设备在双目坐标系正方向,进而得到与所述HMD对应的虚拟用户在虚拟世界坐标系中的正方向。
与上述方法相对应,本发明还公开了一种坐标对齐系统,两者的技术特征可以相互借鉴,参见图4,该系统可应用于VR设备、AR设备或MR设备中,包括:
控制设备方向对齐子系统100,用于:使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;
所述控制设备方向对齐单元子系统包括:
控制设备姿态计算单元101,其与上述方法中步骤S101相对应,用于获取控制设备的传感器数据;依据所述传感器数据计算得到控制设备的姿态数据;
运动轨迹计算单元102,其与上述方法中步骤S103和S104相对应,用于在获取传感器姿态数据的同时,基于所述控制设备上的光点获取所述控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据;依据所述实时坐标数据生成控制设备在运动过程中的运动轨迹;
第一夹角计算单元103,其与上述方法中步骤S105和S106相对应,用于基于所述运动轨迹计算所述控制设备在控制设备坐标系下的姿态,记为控制设备在双目坐标系中的正方向;计算得到所述控制设备坐标系与所述双目坐标系之间的夹角,记为第一夹角;
双目坐标调整单元104,其与上述方法中步骤S107相对应,用于依据所述第一夹角对双目坐标系进行校正,使得所述控制设备正方向与所述双目坐标系的正方向之间的夹角为零,使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;其中,所述双目坐标系与虚拟世界的虚拟世界坐标系之间具有预设的映射关系。
与上述方法相对应,所述第一夹角计算单元103,具体被配置为:
获取控制设备在运动过程中的运动轨迹;
当所述运动轨迹为直线时,对所述运动轨迹进行直线拟合,计算得到所述运动轨迹的直线度,计算得到与直线拟合后的运动轨迹垂直的直线方向;
当所述运动轨迹为类圆形时,对所述运动轨迹进行圆拟合,计算得到所述运动轨迹的曲度,计算得到穿过曲线拟合后的圆拟合的运动轨迹的圆心的直线方向;
计算所述直线方向在双目坐标系中的斜率K;
依据斜率计算所述直线方向与所述双目坐标系正方向之间的夹角θ;
对所述运动轨迹进行分段,得到多段子运动轨迹,计算得到与各段子运动轨迹对应的直线方向在双目坐标系中的斜率Ki,其中所述i与各段子运动轨迹相对应;
分别计算得到各段子运动轨迹对应的斜率Ki与所述斜率K的相似度Di
依据公式计算得到加权平均水平方向夹角δ,其中,所述N为所述子运动轨迹的总段数;
将所述夹角θ与夹角δ之和作为所述控制设备的正方向与所述双目坐标系正方向之间的夹角。
与上述方法相对应,上述系统还可以包括一用于实现HMD对齐的系统:
HMD设备方向对齐子系统200,用于依据HMD设备的位置和方向调整虚拟世界中与所述HMD设备对应的物体的在虚拟世界坐标中的位置和方向;
所述HMD设备方向对齐子系统200,包括:
HMD位置和方向计算单元201,其与上述方法中步骤S201相对应,用于通过HMD设备上的HMD双光点估算HMD设备在双目坐标系中的位置和方向,将HMD设备在双目坐标系中的方向记为HMD方向矢量;
第二夹角计算单元202,其与上述方法中步骤S202相对应,用于计算所述HMD方向矢量与双目坐标系中预设的双目方向矢量之间的夹角,记为第二夹角;
虚拟用户调整单元203,其与上述方法中步骤S203-步骤S204相对应,用于依据所述第二夹角调整所述虚拟世界中与所述HMD设备对应的物体的正方向与虚拟世界坐标的正方向之间的夹角,依据所述HMD设备在所述双目坐标系中的位置,调整所述虚拟世界中与所述HMD设备对应的物体在所述双目坐标系中的位置。
与上述方法相对应,所述运动轨迹计算单元102具体被配置为:
基于所述控制设备上的光点获取所述控制设备在沿直线往复运动过程中或旋转的圆周运动过程中的位于双目坐标系中的实时坐标数据;依据所述实时坐标数据生成控制设备在运动过程中的运动轨迹。
与上述方法相对应所述HMD位置和方向计算单元201,具体被配置为:
通过对所述HMD设备上的HMD双光点进行图像处理的立体测量估算,计算得到双光点在双目坐标系中的位置,依据双光点在双目坐标系中的位置计算得到所述HMD设备在双目坐标系中的位置,依据所述双光点在双目坐标系中的位置计算得到所述双光点的正方向,将所述双光点的正方向记为所述HMD设备的正方向。
对应于上述系统,本发明还一种虚拟现实系统、增强现实系统或混合现实系统,该系统可以包:头显设备、控制设备、双光点输出设备、光点输出设备和光点跟踪设备,上述实施例公开的坐标对齐系统中的各个单元分别布置在对应的设备中,
其中,所述双光点输出设备与所述头显设备固定相连,所述双光点输出设备用于输出具有输出两个具有唯一ID标识的光点;
所述控制设备通过无线或有线与所述头显设备相连
所述光点输出设备设置在所述控制设备上,用于输出一个具有唯一ID标识的光点;
所述光点跟踪设备用于捕捉所述光点,所述光点跟踪设备内配置有权利要求6所述的运动轨迹计算单元和权利要求7所述的HMD位置和方向计算单元,用于将计算得到的运动轨迹和HMD方向矢量通过双光点输出设备发送给所述头显设备,
所述头显设备内配置有权利要求6所述的控制设备姿态计算单元、第一夹角计算单元和双目坐标调整单元以及权利要求7所述的第二夹角计算单元和虚拟用户调整单元。
在使用时,将双光点输出设备安装于头显设备上,如果是非一体机头显设备,则将手机插入头显设备中,将头显设备在双目摄像机(光电跟踪设备)前,戴于头上,双目跟踪设备可以看得到头显设备上的双光点设备输出的双光点,双光点具有ID,因此可以区分为光电P1和P2。双目跟踪设备对双光点进行图像处理的立体测量估计,得到双光点的在双目坐标系中的位置,P1(X,Y,Z),P2(X,Y,Z),将双光点的位置通过无线或有线通道传输到双光点输出设备,在将双光点的位置发送给头显设备的处理器进行算法的计算。头显设备在获取到双光点的位置数据后,估计双光点的正方向,该方向即为头显设备的正方向,将显示中心放置于双目设备的正方向以定位双光点在双目坐标系中HMD的方向,形成一个方向矢量(HMD方向矢量),计算HMD方向矢量与双目坐标系正方向的方向矢量的夹角,即可以通过角度矫正,直接得到HMD在虚拟世界中对应的虚拟用户的位置及方向。
在进行控制设备对齐时,其过程可以为:
头显设备通过蓝牙,连接双手柄(每个手柄代表一控制设备),手柄通过内部计算单元MCU对传感器进行数据获取和数据融合解算,得到手柄姿态数据O1(yaw,pitch,roll),O2(yaw,pitch,roll),通过蓝牙或数据线,将手柄姿态数据传输给头显设备。通过光点跟踪设备双目识别和定位手柄的光点,可以得到手柄的在双目坐标系内的坐标:P3(X,Y,Z)和P3(X,Y,Z)。然后用户拿起手柄,然后在双目跟踪设备前面,横向或旋转地进行左右往复运动。双目跟踪设备通过图像处理和立体视觉,根据图像颜色,识别得到左右手柄的光点;然后通过立体视觉得到手柄光点在双目坐标系中的3D位置。将手柄光点在双目坐标系中的3D位置信息无线通道数据线发送给光点输出设备,由光点输出将手柄光点在双目坐标系中的3D位置信息发送给头显设备。并且手柄和HMD通过时间戳进行同步,得到统一时间轴上的6DOF数据。头显设备在接收到手柄的位置和姿态数据后,根据手柄的运动轨迹,如左右的直接运动或旋转的圆周运动,估计手柄的正方向与双目坐标系的正方向之间的夹角,依据该夹角通过对双目坐标系的正方向进行角度,将手柄的正方向与双目坐标系的正方向进行对齐,即在虚拟世界中,手或手握物品的正方向与虚拟世界的正方向对齐。头显设备内置有计算单元,内置算法通过检测手柄光点的运动轨迹,能及通过IMU数据对运动的约束,估计手柄轨迹中的方向,进而得到手柄的方位角(手柄正方向与双目坐标系正方向之间的夹角)。通过该方位角将手柄的正方向,对齐到双目坐标系的正方向,即虚拟世界的人所处的方位。
为了描述的方便,描述以上系统时以功能分为各种模块分别描述。当然,在实施本发明时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (11)

1.一种坐标对齐方法,其特征在于,应用于虚拟现实设备、增强现实设备或混合现实设备中,包括:
获取控制设备的传感器数据;
依据所述传感器数据计算得到控制设备的姿态数据;
在获取传感器姿态数据的同时,基于所述控制设备上的光点获取所述控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据;
依据所述实时坐标数据和与所述实时坐标数据对应的姿态数据生成控制设备在运动过程中的运动轨迹;
基于所述运动轨迹计算所述控制设备在控制设备坐标系下的姿态,记为控制设备在双目坐标系中的正方向;
计算得到所述控制设备坐标系与所述双目坐标系之间的夹角,记为第一夹角;
依据所述第一夹角对双目坐标系进行校正,使得所述控制设备正方向与所述双目坐标系的正方向之间的夹角为零,使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;
其中,所述双目坐标系与虚拟世界的虚拟世界坐标系之间具有预设的映射关系。
2.根据权利要求1所述的坐标对齐方法,其特征在于,还包括:
通过HMD设备上的HMD双光点估算HMD设备在双目坐标系中的位置和方向,将HMD设备在双目坐标系中的方向记为HMD方向矢量;
计算所述HMD方向矢量与双目坐标系中预设的双目方向矢量之间的夹角,记为第二夹角;
依据所述第二夹角调整所述虚拟世界中与所述HMD设备对应的物体的正方向与虚拟世界坐标的正方向之间的夹角;
依据所述HMD设备在所述双目坐标系中的位置,调整所述虚拟世界中与所述HMD设备对应的物体在所述双目坐标系中的位置。
3.根据权利要求1所述的坐标对齐方法,其特征在于,所述基于所述控制设备上的光点获取所述控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据,包括:
基于所述控制设备上的光点获取所述控制设备在沿直线往复运动过程中或旋转的圆周运动过程中的位于双目坐标系中的实时坐标数据。
4.根据权利要求1所述的坐标对齐方法,其特征在于,所述计算得到所述控制设备正方向与所述双目坐标系的正方向之间的夹角,记为第一夹角,包括:
获取控制设备在运动过程中的运动轨迹;
当所述运动轨迹为直线时,对所述运动轨迹进行直线拟合,计算得到所述运动轨迹的直线度,计算得到与直线拟合后的运动轨迹垂直的直线方向;
当所述运动轨迹为类圆形时,对所述运动轨迹进行圆拟合,计算得到所述运动轨迹的曲度,计算得到穿过曲线拟合后的圆拟合的运动轨迹的圆心的直线方向;
计算所述直线方向在双目坐标系中的斜率K;
依据斜率计算所述直线方向与所述双目坐标系正方向之间的夹角θ;
对所述运动轨迹进行分段,得到多段子运动轨迹,计算得到与各段子运动轨迹对应的直线方向在双目坐标系中的斜率Ki,其中所述i与各段子运动轨迹相对应;
分别计算得到各段子运动轨迹对应的斜率Ki与所述斜率K的相似度Di
依据公式计算得到加权平均水平方向夹角δ,其中,所述N为所述子运动轨迹的总段数;
将所述夹角θ与夹角δ之和作为所述控制设备的正方向与所述双目坐标系正方向之间的夹角。
5.根据权利要求1所述的坐标对齐方法,其特征在于,通过HMD设备上的HMD双光点估算HMD设备在双目坐标系中的位置和方向,包括:
通过对所述HMD设备上的HMD双光点进行图像处理的立体测量估算,计算得到双光点在双目坐标系中的位置,依据双光点在双目坐标系中的位置计算得到所述HMD设备在双目坐标系中的位置,依据所述双光点在双目坐标系中的位置计算得到所述双光点的正方向,将所述双光点的正方向记为所述HMD设备的正方向。
6.一种坐标对齐系统,应用于虚拟现实设备、增强现实设备或混合现实设备中,其特征在于,包括:
控制设备方向对齐子系统,用于:使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;
所述控制设备方向对齐单元子系统包括:
控制设备姿态计算单元,用于获取控制设备的传感器数据;依据所述传感器数据计算得到控制设备的姿态数据;
运动轨迹计算单元,用于在获取到控制设备的姿态数据的同时,基于所述控制设备上的光点获取所述控制设备在往复运动过程中的位于双目坐标系中的实时坐标数据;依据所述实时坐标数据和与所述实时坐标数据对应的姿态数据生成控制设备在运动过程中的运动轨迹;
第一夹角计算单元,基于所述运动轨迹计算所述控制设备在控制设备坐标系下的姿态,记为控制设备在双目坐标系中的正方向;计算得到所述控制设备坐标系与所述双目坐标系的正方向之间的夹角,记为第一夹角;
双目坐标调整单元,用于依据所述第一夹角对双目坐标系进行校正,使得所述控制设备正方向与所述双目坐标系的正方向之间的夹角为零,使得虚拟世界中与所述控制设备对应的虚拟物品的正方向与所述虚拟世界的正方向对齐;其中,所述双目坐标系与虚拟世界的虚拟世界坐标系之间具有预设的映射关系。
7.根据权利要求6所述的坐标对齐系统,其特征在于,还包括:
HMD设备方向对齐子系统,用于依据HMD设备的位置和方向调整虚拟世界中与所述HMD设备对应的物体的在虚拟世界坐标中的位置和方向;
所述HMD设备方向对齐子系统,包括:
HMD位置和方向计算单元,用于通过HMD设备上的HMD双光点估算HMD设备在双目坐标系中的位置和方向,将HMD设备在双目坐标系中的方向记为HMD方向矢量;
第二夹角计算单元,用于计算所述HMD方向矢量与双目坐标系中预设的双目方向矢量之间的夹角,记为第二夹角;
虚拟用户调整单元,用于依据所述第二夹角调整所述虚拟世界中与所述HMD设备对应的物体的正方向与虚拟世界坐标的正方向之间的夹角,依据所述HMD设备在所述双目坐标系中的位置,调整所述虚拟世界中与所述HMD设备对应的物体在所述双目坐标系中的位置。
8.根据权利要求6所述的坐标对齐系统,其特征在于,所述运动轨迹计算单元具体被配置为:
基于所述控制设备上的光点获取所述控制设备在沿直线往复运动过程中或旋转的圆周运动过程中的位于双目坐标系中的实时坐标数据;依据所述实时坐标数据生成控制设备在运动过程中的运动轨迹。
9.根据权利要求6所述的坐标对齐系统,所述第一夹角计算单元,具体被配置为:
获取控制设备在运动过程中的运动轨迹;
当所述运动轨迹为直线时,对所述运动轨迹进行直线拟合,计算得到所述运动轨迹的直线度,计算得到与直线拟合后的运动轨迹垂直的直线方向;
当所述运动轨迹为类圆形时,对所述运动轨迹进行圆拟合,计算得到所述运动轨迹的曲度,计算得到穿过曲线拟合后的圆拟合的运动轨迹的圆心的直线方向;
计算所述直线方向在双目坐标系中的斜率K;
依据斜率计算所述直线方向与所述双目坐标系正方向之间的夹角θ;
对所述运动轨迹进行分段,得到多段子运动轨迹,计算得到与各段子运动轨迹对应的直线方向在双目坐标系中的斜率Ki,其中所述i与各段子运动轨迹相对应;
分别计算得到各段子运动轨迹对应的斜率Ki与所述斜率K的相似度Di
依据公式计算得到加权平均水平方向夹角δ,其中,所述N为所述子运动轨迹的总段数;
将所述夹角θ与夹角δ之和作为所述控制设备的正方向与所述双目坐标系正方向之间的夹角。
10.根据权利要求7所述的坐标对齐系统,所述HMD位置和方向计算单元,具体被配置为:
通过对所述HMD设备上的HMD双光点进行图像处理的立体测量估算,计算得到双光点在双目坐标系中的位置,依据双光点在双目坐标系中的位置计算得到所述HMD设备在双目坐标系中的位置,依据所述双光点在双目坐标系中的位置计算得到所述双光点的正方向,将所述双光点的正方向记为所述HMD设备的正方向。
11.一种虚拟现实系统,其特征在于,包括:
头显设备;
与所述头显设备固定相连的双光点输出设备,用于输出具有输出两个具有唯一ID标识的光点;
通过无线或有线与所述头显设备相连的控制设备;
设置在所述控制设备上的光点输出设备,用于输出一个具有唯一ID标识的光点;
用于捕捉所述光点的光点跟踪设备,所述光点跟踪设备内配置有运动轨迹计算单元和HMD位置和方向计算单元,用于将计算得到的运动轨迹和HMD方向矢量通过双光点输出设备发送给所述头显设备,
所述头显设备内配置有控制设备姿态计算单元、第一夹角计算单元和双目坐标调整单元以及第二夹角计算单元和虚拟用户调整单元。
CN201710278094.2A 2017-04-25 2017-04-25 一种坐标对齐方法、系统和虚拟现实系统 Active CN108733206B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710278094.2A CN108733206B (zh) 2017-04-25 2017-04-25 一种坐标对齐方法、系统和虚拟现实系统
PCT/CN2017/096120 WO2018196216A1 (zh) 2017-04-25 2017-08-04 一种坐标对齐方法、系统和虚拟现实系统
US16/236,488 US10802606B2 (en) 2017-04-25 2018-12-29 Method and device for aligning coordinate of controller or headset with coordinate of binocular system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710278094.2A CN108733206B (zh) 2017-04-25 2017-04-25 一种坐标对齐方法、系统和虚拟现实系统

Publications (2)

Publication Number Publication Date
CN108733206A true CN108733206A (zh) 2018-11-02
CN108733206B CN108733206B (zh) 2020-10-30

Family

ID=63918680

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710278094.2A Active CN108733206B (zh) 2017-04-25 2017-04-25 一种坐标对齐方法、系统和虚拟现实系统

Country Status (3)

Country Link
US (1) US10802606B2 (zh)
CN (1) CN108733206B (zh)
WO (1) WO2018196216A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109908583A (zh) * 2019-02-25 2019-06-21 成都秘灵互动科技有限公司 基于vr的角色控制方法及装置
CN111179679A (zh) * 2019-12-31 2020-05-19 广东虚拟现实科技有限公司 射击训练方法、装置、终端设备及存储介质
CN112113462A (zh) * 2020-04-24 2020-12-22 南京钧和瑞至电子科技有限公司 直瞄武器射击效果检测方法、系统及虚拟靶标射击系统
CN113721767A (zh) * 2021-08-30 2021-11-30 歌尔光学科技有限公司 一种手柄的追踪方法、装置、系统及介质
CN114161453A (zh) * 2021-12-30 2022-03-11 上海钛米机器人股份有限公司 基于双手柄的机器人控制方法、装置、系统和电子设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664993B1 (en) 2017-03-13 2020-05-26 Occipital, Inc. System for determining a pose of an object
CN108733206B (zh) 2017-04-25 2020-10-30 广东虚拟现实科技有限公司 一种坐标对齐方法、系统和虚拟现实系统
KR20210157708A (ko) * 2020-06-22 2021-12-29 삼성전자주식회사 밝기 조절 방법 및 hmd 장치
CN113573203B (zh) * 2021-09-26 2022-03-04 广州朗国电子科技股份有限公司 一种非接触式耳机的控制方法、智能耳机及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140168367A1 (en) * 2012-12-13 2014-06-19 Hewlett-Packard Development Company, L.P. Calibrating visual sensors using homography operators
CN106095102A (zh) * 2016-06-16 2016-11-09 深圳市金立通信设备有限公司 一种虚拟现实显示界面处理的方法及终端
CN106371566A (zh) * 2015-07-24 2017-02-01 由田新技股份有限公司 用于眼部追踪的校正模块、方法及计算机可读取记录媒体
CN106454291A (zh) * 2015-08-07 2017-02-22 克里斯蒂数字系统美国有限公司 用于自动配准和投影映射的系统和方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2351636B (en) * 1999-01-20 2003-03-19 Canon Kk Video conferencing apparatus
US20100013812A1 (en) * 2008-07-18 2010-01-21 Wei Gu Systems for Controlling Computers and Devices
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
CN105898275A (zh) * 2016-04-28 2016-08-24 乐视控股(北京)有限公司 虚拟现实图像校准方法及装置
US10249090B2 (en) * 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
CN106249918B (zh) * 2016-08-18 2021-02-02 上海连尚网络科技有限公司 虚拟现实图像显示方法、装置及应用其的终端设备
CN108733206B (zh) 2017-04-25 2020-10-30 广东虚拟现实科技有限公司 一种坐标对齐方法、系统和虚拟现实系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140168367A1 (en) * 2012-12-13 2014-06-19 Hewlett-Packard Development Company, L.P. Calibrating visual sensors using homography operators
CN106371566A (zh) * 2015-07-24 2017-02-01 由田新技股份有限公司 用于眼部追踪的校正模块、方法及计算机可读取记录媒体
CN106454291A (zh) * 2015-08-07 2017-02-22 克里斯蒂数字系统美国有限公司 用于自动配准和投影映射的系统和方法
CN106095102A (zh) * 2016-06-16 2016-11-09 深圳市金立通信设备有限公司 一种虚拟现实显示界面处理的方法及终端

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109908583A (zh) * 2019-02-25 2019-06-21 成都秘灵互动科技有限公司 基于vr的角色控制方法及装置
CN109908583B (zh) * 2019-02-25 2022-09-20 成都秘灵互动科技有限公司 基于vr的角色控制方法及装置
CN111179679A (zh) * 2019-12-31 2020-05-19 广东虚拟现实科技有限公司 射击训练方法、装置、终端设备及存储介质
CN112113462A (zh) * 2020-04-24 2020-12-22 南京钧和瑞至电子科技有限公司 直瞄武器射击效果检测方法、系统及虚拟靶标射击系统
CN112113462B (zh) * 2020-04-24 2023-04-07 南京钧和瑞至电子科技有限公司 直瞄武器射击效果检测方法、系统及虚拟靶标射击系统
CN113721767A (zh) * 2021-08-30 2021-11-30 歌尔光学科技有限公司 一种手柄的追踪方法、装置、系统及介质
CN113721767B (zh) * 2021-08-30 2024-02-02 歌尔科技有限公司 一种手柄的追踪方法、装置、系统及介质
CN114161453A (zh) * 2021-12-30 2022-03-11 上海钛米机器人股份有限公司 基于双手柄的机器人控制方法、装置、系统和电子设备

Also Published As

Publication number Publication date
US20190138114A1 (en) 2019-05-09
CN108733206B (zh) 2020-10-30
WO2018196216A1 (zh) 2018-11-01
US10802606B2 (en) 2020-10-13

Similar Documents

Publication Publication Date Title
CN108733206A (zh) 一种坐标对齐方法、系统和虚拟现实系统
US20210208180A1 (en) Correction of accumulated errors in inertial measurement units attached to a user
US10521011B2 (en) Calibration of inertial measurement units attached to arms of a user and to a head mounted device
TWI457539B (zh) 多姿態步距校正定位系統與方法
US9401050B2 (en) Recalibration of a flexible mixed reality device
CN106525074B (zh) 一种云台漂移的补偿方法、装置、云台和无人机
CN105867617B (zh) 增强现实设备、系统、图像处理方法及装置
CN106525003B (zh) 一种基于双目视觉的姿态测量方法
CN106445130B (zh) 一种用于手势识别的动作捕捉手套及其校准方法
CN111091587B (zh) 一种基于视觉标志物的低成本动作捕捉方法
CN108022302B (zh) 一种Inside-Out空间定位的AR立体显示装置
WO2016183812A1 (zh) 一种混合运动捕捉系统及方法
WO2018090692A1 (zh) 基于空间定位的虚拟现实防晕眩系统及方法
CN108885487B (zh) 一种可穿戴式系统的手势控制方法以及可穿戴式系统
CN104699247A (zh) 一种基于机器视觉的虚拟现实交互系统及方法
CN110617814A (zh) 单目视觉和惯性传感器融合的远距离测距系统及方法
JP6288858B2 (ja) 光学式モーションキャプチャにおける光学式マーカーの位置の推定方法及び装置
Gourlay et al. Head‐Mounted‐Display Tracking for Augmented and Virtual Reality
US20220284620A1 (en) Information terminal apparatus and position recognition sharing method
KR20110064712A (ko) 통합센서 기반의 모션 캡쳐 시스템
CN109040525A (zh) 图像处理方法、装置、计算机可读介质及电子设备
CN112525185A (zh) 基于定位的ar导览方法及ar头戴式显示装置
KR20180045436A (ko) 저가형 관성센서를 이용한 모션 인식 시스템 및 그 방법
CN105183142B (zh) 一种利用空间位置装订的数字信息复现方法
CN205430495U (zh) 增强现实设备及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A coordinate alignment method, system and virtual reality system

Effective date of registration: 20221223

Granted publication date: 20201030

Pledgee: Shanghai Pudong Development Bank Limited by Share Ltd. Guangzhou branch

Pledgor: GUANGDONG VIRTUAL REALITY TECHNOLOGY Co.,Ltd.

Registration number: Y2022980028733

PE01 Entry into force of the registration of the contract for pledge of patent right