CN108257177A - 基于空间标识的定位系统与方法 - Google Patents

基于空间标识的定位系统与方法 Download PDF

Info

Publication number
CN108257177A
CN108257177A CN201810035873.4A CN201810035873A CN108257177A CN 108257177 A CN108257177 A CN 108257177A CN 201810035873 A CN201810035873 A CN 201810035873A CN 108257177 A CN108257177 A CN 108257177A
Authority
CN
China
Prior art keywords
positioning device
pose
acquisition
unit
luminescence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810035873.4A
Other languages
English (en)
Other versions
CN108257177B (zh
Inventor
王佳梨
许之敏
冯斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Silan Zhichuang Technology Co.,Ltd.
Original Assignee
Tianjin Feng Time Interactive Technology Co Ltd Shenzhen Branch
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Feng Time Interactive Technology Co Ltd Shenzhen Branch filed Critical Tianjin Feng Time Interactive Technology Co Ltd Shenzhen Branch
Priority to CN201810035873.4A priority Critical patent/CN108257177B/zh
Publication of CN108257177A publication Critical patent/CN108257177A/zh
Application granted granted Critical
Publication of CN108257177B publication Critical patent/CN108257177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

公开了基于空间标识的定位系统与方法。所公开的定位方法,包括:采集发光单元的图像;根据所述图像中多个发光单元的特征,识别多个第一发光单元,其中多个第一发光单元具有指定的位置;根据所述图像与含有所述多个第一单元的参考图像,确定采集所述图像的定位设备的位姿。

Description

基于空间标识的定位系统与方法
技术领域
本申请涉及机器人导航、虚拟现实或增强现实领域,特别地,涉及基于空间标识的空间定位系统与方法。
背景技术
虚拟现实(VR,Virtual Reality)技术利用信息处理设备,结合传感器采集的信息生成虚拟环境。为使真实环境中的物体与虚拟现实环境交互,使用空间定位技术确定物体的位置和/或姿态(也称为位姿)。
现有技术的定位方法主要分为两类:由外而内(outside-in)以及由内而外(inside-out)。由外而内定位,依靠在被定位物体外部的摄像头和信号发射器来捕捉和追踪物体的位姿。由内而外定位则无需依靠外部的传感器,仅依靠绑定于被定位物体的传感器检测未知环境,利用获得的感知信息确定自身位置,实现定位。
由外而内定位方案在多种虚拟现实系统中应用。例如,专利号为CA2912109A1,名称为“Perception based predictive tracking for head mounted displays”的专利公开了的定位系统通过外部的相机模组观测并跟踪位于用户头盔和手柄设备上的红外发光点,以实现对用户的空间定位。在Oculus DK1/DK2/CV1虚拟现实系统中采用了此类技术。HTC Vive系统使用了Light House技术(也参看专利号为USD775128S1,名称为“Headmounted display”的专利)。其定位系统包括,本身布满了红外传感器的头盔和手柄,以及用作定位的Light House(相当于两个固定的激光发射基站)。红外传感器捕获Light House发出的信号,计算出自身相对于Light House的位置。PS VR定位系统通过一个独立的相机模组观测并跟踪分布在用户头盔及手柄设备上的可见光发光区域,以实现对于用户的空间定位。
典型的由内而外定位方案在微软的HoloLens系统、Google Tango系统中应用。微软HoloLens定位系统利用光学定位与图像识别技术。它拥有绑定到用户位置的四台摄像机。通过对四台摄像机的实时画面进行分析,实时确定摄像机所在位置(也参看专利号为WO2014100182 A1,名称为“Multiplexed hologram tiling in awaveguide display”的专利文献)。Google Tango系统,通过设备上的高帧率黑白相机、ToF相机以及RGB相机联合进行空间定位。
空间定位还通过惯性传感器测量位姿在一定时间内的相对变化量,再结合初始位姿,经过累积计算得出当前的位姿。空间定位的另一种解决方案是对测定物所处环境中的其他静态物体进行定位跟踪,得出其他静态物对于测定物的相对位姿改变量,从而反算出测定物在环境中的绝对位姿改变量。中国专利申请CN201310407443中公开了一种基于运动捕捉的浸入式虚拟现实系统,提出通过惯性传感器对用户进行动作捕捉,利用人类肢体的生物力学约束修正惯性传感器带来的累积误差,从而实现对用户肢体的准确定位与跟踪。
发明内容
现有技术的由外而内的定位方案,需要在虚拟现实系统中借助外部装置(相机模组或激光发射基站等)来辅助定位,部署复杂,并且难以应用于便携式设备。现有技术的由内而外定位方案,如Hololens,由于需要递增地创建周围环境的地图,同时利用创建的地图实现自主定位,很难满足VR所要求的低延时高精度的要求。
根据本申请的第一方面,提供了根据本申请第一方面的第一定位方法,包括:采集发光单元的图像;根据所述图像中多个发光单元的特征,识别多个第一发光单元,其中多个第一发光单元具有指定的位置;根据所述图像与含有所述多个第一单元的参考图像,确定采集所述图像的定位设备的位姿。
根据本申请第一方面的第一定位方法,提供了根据本申请第一方面的第二定位方法,其中根据所述图像中多个第一发光单元的位置与所述参考图像中所述多个第一发光单元的位置,计算采集所述图像时所述定位设备的位姿相对于获得所述参考图像时定位设备的位姿的位姿变化;以及根据同所述参考图像对应的定位设备的位姿,与所述位姿变化,确定采集所述图像的定位设备的位姿。
根据本申请第一方面的第一或第二定位方法,提供了根据本申请第一方面的第三定位方法,其中所述参考图像是所述定位设备在指定的参考位置所观察到的所述多个发光单元的图像。
根据本申请第一方面的第一至第三定位方法之一,提供了根据本申请第一方面的第四定位方法,其中所述多个第一发光单元的指定的位置,是虚拟空间中的位置;以及所确定的采集所述图像的定位设备的位姿,是虚拟空间中的位姿。
根据本申请第一方面的第一至第三定位方法之一,提供了根据本申请第一方面的第五定位方法,其中所述多个第一发光单元的指定的位置,是现实世界中的位置;所确定的采集所述图像的定位设备的位姿,是现实世界中的位姿。
根据本申请第一方面的第五定位方法,提供了根据本申请第一方面的第六定位方法,还包括:将所确定的采集所述图像的定位设备的位姿,映射到虚拟空间;其中所述定位设备在虚拟空间中的平移和/或旋转同在现实空间中的对应平移和/或旋转,相同或成比例。
根据本申请第一方面的第一至第六定位方法之一,提供了根据本申请第一方面的第七定位方法,其中:所述图像中多个发光单元的特征,是位置分布特征;通过识别所述多个第一发光单元具有的指定的位置分布特征,识别所述多个第一发光单元。
根据本申请第一方面的第七定位方法,提供了根据本申请第一方面的第八定位方法,其中通过识别所述多个第一发光单元具有的指定的位置分布特征,所述多个第一发光单元被分类为属于相同的第一组;以及依据所述多个第一发光单元的位置分布特征,识别出所述多个第一发光单元的每个在第一组中的序号。
根据本申请第一方面的第七或第八定位方法,提供了根据本申请第一方面的第九定位方法,其中所述图像中多个第一发光单元的位置分布特征,同所述参考图像中的所述多个第一发光单元的位置分布特征相同或几何相似。
根据本申请第一方面的第七至第九定位方法之一,提供了根据本申请第一方面的第十定位方法,其中所述图像中多个第一发光单元的位置分布特征,是相邻的第一发光单元在所述图像中的像点的距离之比所形成的序列。
根据本申请第一方面的第一至第六定位方法之一,提供了根据本申请第一方面的第十一定位方法,其中所述图像中的多个发光单元的特征,是多个第一发光单元组成的信息编码;从信息编码识别所述多个第一发光单元。
根据本申请第一方面的第七至第十一定位方法之一,提供了根据本申请第一方面的第十二定位方法,其中依据识别的所述多个第一单元,获取被存储的所述多个第一单元的指定位置。
根据本申请第一方面的第一至第十二定位方法之一,提供了根据本申请第一方面的第十三定位方法,还包括:根据采集所述图像的定位设备的位姿,为同所述定位设备绑定的观察者生成虚拟空间中的场景。
根据本申请第一方面的第一至第十二定位方法之一,提供了根据本申请第一方面的第十四定位方法,还包括:根据采集所述图像的定位设备的位姿,使与所述定位设备绑定的物体同虚拟空间的其它物体交互。
根据本申请第一方面的第一至第十二定位方法之一,提供了根据本申请第一方面的第十五定位方法,还包括:根据采集所述图像时所述定位设备的位姿相对于获得所述参考图像时定位设备的位姿的位姿变化,为同所述定位设备绑定的观察者展现变化的虚拟空间中的场景。
根据本申请第一方面的第一至第十二定位方法之一,提供了根据本申请第一方面的第十六定位方法,还包括:根据采集所述图像时所述定位设备的位姿相对于获得所述参考图像时定位设备的位姿的位姿变化,使与所述定位设备绑定的物体同虚拟空间的其它物体交互。
根据本申请第一方面的第一至第十六定位方法之一,提供了根据本申请第一方面的第十七定位方法,其中所述发光单元发射可见光、红外光和/或紫外光。
根据本申请第二方面,提供了根据本申请第二方面的第一定位方法,包括:采集信号发射单元发出的信号;根据采集的信号识别发出信号的多个信号发射单元的特征,根据采集的多个信号的特征,识别多个第一信号发射单元,其中多个第一信号发射单元具有指定的位置;根据采集的来自多个第一信号发射单元的多个信号的位置与在参考位置采集的来自所述多个第一信号发射单元的多个信号的位置,确定采集信号发射单元发出的信号时的定位设备的位姿。
根据本申请第二方面的第一定位方法,提供了根据本申请第二方面的第二定位方法,其中根据采集的来自多个第一信号发射单元的多个信号的位置与在参考位置采集的来自所述多个第一信号发射单元的多个信号的位置,计算采集信号发射单元发出的信号时所述定位设备的位姿相对于在参考位置采集多个信号时所述定位设备的位姿的位姿变化;以及根据采集信号发射单元发出的信号时所述定位设备的位姿,与所述位姿变化,确定采集信号发射单元发出的信号时所述定位设备的位姿。
根据本申请第二方面的第一或第二定位方法,提供了根据本申请第二方面的第三定位方法,其中所述信号发射单元发出电磁波、声波和/或超声波。
根据本申请第三方面,提供了根据本申请第三方面的第一定位系统,包括定位设备与发光装置;发光装置包括发光单元,多个发光单元被设置为具有可识别的特征;定位设备采集发光单元的图像,根据采集的所述图像中多个发光单元的特征,识别多个第一发光单元,其中多个第一发光单元具有指定的位置;根据所述图像与含有所述多个第一单元的参考图像,确定采集所述图像的定位设备的位姿。
根据本申请第三方面的第一定位系统,提供了根据本申请第三方面的第二定位系统,其中发光装置包括视觉处理装置,用于根据所述图像与含有所述多个第一单元的参考图像,确定采集所述图像的定位设备的位姿。
根据本申请第三方面的第一定位系统,提供了根据本申请第三方面的第三定位系统,还包括视觉处理装置,其中定位设备将采集的发光单元的图像发送给视觉处理装置,视觉处理装置根据所述图像与含有所述多个第一单元的参考图像,确定采集所述图像的定位设备的位姿。
根据本申请第三方面的第一至第三定位系统之一,提供了根据本申请第三方面的第四定位系统,还包括场景生成装置;场景生成装置根据定位设备的位姿,为同所述定位设备绑定的观察者生成虚拟空间中的场景。
根据本申请第三方面的第一至第三定位系统之一,提供了根据本申请第三方面的第五定位系统,还包括交互装置;所述交互装置根据所述定位设备的位姿,识别和/或处理与所述定位设备绑定的物体同虚拟空间的其它物体的交互。
根据本申请第三方面的第一至第五定位系统之一,提供了根据本申请第三方面的第六定位系统,其中定位设备根据采集的所述图像中多个第一发光单元的位置与所述参考图像中所述多个第一发光单元的位置,计算采集所述图像时所述定位设备的位姿相对于获得所述参考图像时定位设备的位姿的位姿变化;以及根据同所述参考图像对应的定位设备的位姿,与所述位姿变化,确定采集所述图像的定位设备的位姿。
根据本申请第三方面的第一至第六定位系统之一,提供了根据本申请第三方面的第七定位系统,其中所述多个第一发光单元的指定的位置,是虚拟空间中所述多个第一发光单元的位置;以及所确定的采集所述图像的定位设备的位姿,是所述定位设备在虚拟空间中的位姿。
根据本申请第三方面的第一至第六定位系统之一,提供了根据本申请第三方面的第八定位系统,其中所述多个第一发光单元的指定的位置,是现实世界中所述多个第一发光单元的位置;所确定的采集所述图像的定位设备的位姿,是所述定位设备在现实世界中的位姿。
根据本申请第三方面的第八定位系统,提供了根据本申请第三方面的第九定位系统,其中:将所确定的采集所述图像的定位设备的位姿,映射到虚拟空间;其中所述定位设备在虚拟空间中的平移和/或旋转同在现实空间中的对应平移和/或旋转,相同或成比例。
根据本申请第三方面的第一至第九定位系统之一,提供了根据本申请第三方面的第十定位系统,其中:所述图像中多个发光单元的特征,是位置分布特征;通过识别所述多个第一发光单元具有的指定的位置分布特征,识别所述多个第一发光单元。
根据本申请第三方面的第十定位系统,提供了根据本申请第三方面的第十一定位系统,其中通过识别所述多个第一发光单元具有的指定的位置分布特征,所述多个第一发光单元被分类为属于相同的第一组;以及依据所述多个第一发光单元的位置分布特征,识别出所述多个第一发光单元的每个在第一组中的序号。
根据本申请第三方面的第十或第十一定位系统,提供了根据本申请第三方面的第十二定位系统,其中所述图像中多个第一发光单元的位置分布特征,同所述参考图像中的所述多个第一发光单元的位置分布特征相同或几何相似。
根据本申请第三方面的第十至第十二定位系统之一,提供了根据本申请第三方面的第十三定位系统,其中所述图像中多个第一发光单元的位置分布特征,是相邻的第一发光单元在所述图像中的像点的距离之比所形成的序列。
根据本申请第三方面的第一至第十三定位系统之一,提供了根据本申请第三方面的第十四定位系统,其中所述定位设备被绑定到用户的头部。
根据本申请第三方面的第一至第十四定位系统之一,提供了根据本申请第三方面的第十五定位系统,其中所述发光装置被设置在所述定位系统被应用的空间中,并且可被所述定位设备观察到。
根据本申请第三方面的第一至第十五定位系统之一,提供了根据本申请第三方面的第十六定位系统,其中所述定位系统初始化时,所述定位设备被置于参考位置并采集所述参考图像。
根据本申请第三方面的第一至第十六定位系统之一,提供了根据本申请第三方面的第十七定位系统,其中所述发光单元发射可见光、红外光和/或紫外光。
根据本申请第四方面,提供了根据本申请第四方面的第一定位系统,包括定位设备与信号发生装置;信号发生装置包括信号发射单元,多个信号发射单元被设置为具有可识别的特征;定位设备采集信号发射单元发出的信号,根据采集的信号识别发出信号的多个信号发射单元的特征;根据采集的多个信号的特征,识别多个第一信号发射单元,其中多个第一信号发射单元具有指定的位置;根据采集的来自多个第一信号发射单元的多个信号的位置与在参考位置采集的来自所述多个第一信号发射单元的多个信号的位置,确定采集信号发射单元发出的信号时的定位设备的位姿。
根据本申请第四方面的第一定位系统,提供了根据本申请第四方面的第二定位系统,其中所述定位设备根据采集的来自多个第一信号发射单元的多个信号的位置与在参考位置采集的来自所述多个第一信号发射单元的多个信号的位置,计算采集信号发射单元发出的信号时所述定位设备的位姿相对于在参考位置采集多个信号时所述定位设备的位姿的位姿变化;以及根据采集信号发射单元发出的信号时所述定位设备的位姿,与所述位姿变化,确定采集信号发射单元发出的信号时所述定位设备的位姿。
根据本申请第四方面的第一或第二定位系统,提供了根据本申请第四方面的第三定位系统,其中所述信号发射单元发出电磁波、声波和/或超声波。
根据本申请第四方面的第一至第三定位系统之一,提供了根据本申请第四方面的第四定位系统,其中:所述多个信号发射单元的特征,是位置分布特征;所述定位设备通过识别所述多个第一信号发射单元具有的指定的位置分布特征,识别所述多个第一信号发射单元。
根据本申请第四方面的第一至第四定位系统之一,提供了根据本申请第四方面的第五定位系统,其中所述多个信号发射单元的特征,是信号发射单元发出的信号的特征。
根据本申请实施例的空间定位系统,具有下面列出的多种功能、效果和/或优点的一项或多项。
(1)空间定位:在场景中安放被设置了多个发光单元的发光装置,用户配戴定位设备,通过定位设备捕获发光单元的图像,实现3D空间定位。
(2)定位范围可拓展:通过放置多个发光装置,以实现在用户大面积移动时定位设备总能观察到一个或多个发光装置,以此提高定位系统被应用的物理空间范围。
(3)低延时,低功耗:根据本申请实施例的定位系统,对具有特定空间分布的、有限数量的发光单元进行识别及定位,计算复杂度低,可实现高帧率定位,相应的运算功耗也较低。
(4)安装方便,便携性好:根据本申请实施例的定位系统采用由内而外(inside-out)的定位方案,不需要连接外部计算机/服务器进行计算,定位设备轻便和小巧,可随意放置或随身携带。
(5)抗干扰性高:通过采用发射红外光的发光单元,降低受自然光或灯光的干扰。
(6)具有抗遮挡性:每个发光装置由多个发光单元构成,且设置发光单元的位置,使得处于多种位置的定位设备可观察到足够用于定位的发光单元,因而即使部分发光单元被遮挡或干扰,也不影响定位计算。
(7)高稳定精度。
附图说明
当连同附图阅读时,通过参考后面对示出性的实施例的详细描述,将最佳地理解本发明以及优选的使用模式和其进一步的目的和优点,其中附图包括:
图1展示了根据本申请实施例的空间定位系统;
图2是根据本申请实施例的空间定位过程的流程图;
图3A-图3C是根据本申请实施例的发光装置的示意图;
图4是根据本申请的实施例识别发光装置的发光单元的分布特征的示意图;
图5展示了根据本申请实施例识别像点对应的发光单元的流程图;
图6A与图6B是根据本申请实施例的定位设备的定位原理的示意图;以及
图7是实现本申请实施例的作为定位设备的信息处理设备的框图。
具体实施方式
图1展示了根据本申请实施例的空间定位系统。空间定位系统包括绑定到待定位物体(例如用户)的定位设备110与一个或多个发光装置120。定位设备110是例如相机、摄像头、可捕获红外线/电磁波/声波等的传感器。发光装置120发射可见光、红外光、电磁波、声波和/或超声波。作为举例,发光装置120发射红外光,而定位设备110采集发光装置120发出的红外光,并确定自身的位置。可选地,定位设备110还将计算出的位姿发送给其他设备。
发光装置120包括多个发光单元,例如,LED灯。发光单元发出的光被定位设备110捕获,在定位设备110看来,发光单元是其捕获图像中的可识别点或光斑。发光装置120上的多个发光单元被排列,形成指定的图案,例如,一条或多条直线、圆圈、矩形等。在一个例子中,根据定位范围确定发光单元的数量与位置,例如,一般设置发光单元最小间距=0.015*视野距离(例如,定位设备110到发光装置120的距离)(单位,米),从而保证在定位设备110采集的图像中,不同发光单元可被区分。作为又一个例子,在约13平方米的环境中(或半径为2米的圆形区域),设置发光单元的间隔大于3厘米。为识别发光单元形成的图案,构成同一图案的发光单元的数量不少于3个。构成同一图案的发光单元数量越多,越有利于提高定位的精度。
可选地,发光装置120包括发射电磁波的多个信号发射单元。例如,信号发射单元发出的信号各自具有指定的信号特征(例如,频率、相位、幅度或其组合)。定位设备捕获信号发射单元发出的信号,并识别发出信号的指定信号发射单元。以及定位设备还识别发出信号的信号发射单元相对于定位设备的空间位置。
定位设备110分析捕获的图像,通过识别发光单元形成的的指定图案来识别各个发光单元,并根据已知的发光单元的位置与图案信息,确定定位设备得到捕获的图像时的位姿。进而得到绑定到定位设备的用户在3D空间中的位姿。
定位设备110可包括视觉感知装置与视觉处理装置。可选地,定位设备还包括场景生成装置与通信装置。视觉感知装置可包括相机、摄像头、深度视觉传感器和/或惯性传感器组(三轴角速度传感器、三轴线加速度传感器、三轴地磁传感器等)。视觉感知装置用于实时捕捉周围环境与物体的影像,和/或测量视觉感知装置的运动状态。视觉感知装置可固定在用户头部,并与用户头部保持固定的相对位姿。从而将视觉感知装置的位姿,作为用户眼睛的位置与朝向。可选地,根据视觉感知装置的位姿,计算出与视觉感知装置有固定位置关系的用户头部与用户眼睛的位姿。视觉处理装置用于将捕捉的图像进行处理分析,对使用者佩戴的视觉感知装置进行自定位。场景生成装置用于根据使用者的视觉感知装置或眼睛的当前姿态而更新虚拟世界中的场景信息,还可以根据惯性传感器信息预测将捕获的影像信息,并实时渲染相应虚拟场景。通信装置将定位的结果发送给其他设备。定位设备110的各装置可通过有线/无线方式进行数据/控制信号的交换。
依然可选地,设置多个发光装置120。从而定位设备110在空间中移动时,即使发生位置改变,也依然能观察到一个或多个发光装置120,并通过所观察到的一个或多个发光装置120完成对自身的定位。设置多个发光装置120也有利于提高定位的抗遮挡性,避免因发光装置120被遮挡,而影响定位设备110对发光装置120的观察。
视觉处理装置、场景生成装置可由运行于计算机处理器的软件实现,也可通过配置FPGA
(现场可编程门阵列)实现,也可由ASIC(应用专用集成电路)实现。视觉处理装置、场景生成装置可以嵌入在可携带设备上,也可以位于远离用户可携带设备的主机或服务器上,并通过有线或无线的方式与用户可携带设备通信。视觉处理装置与场景生成装置可由单一的硬件装置实现,也可以分布于不同的计算设备,并采用同构和/或异构的计算设备实现。
图2是根据本申请实施例的空间定位过程的流程图。例如,定位设备110(也参看图1)执行图2所示的处理流程,以得到定位设备110或用户头部/眼睛的位姿。
参看图2,定位设备110采集图像或发光装置120发出的光线或信息(210)。采集的图像中包括发光装置120的发光单元的图像。进一步地,对采集的图像进行预处理,例如降噪、对比度处理等,以促进对发光单元的识别。
定位设备110从采集的图像中识别发光单元的分布特征,进而识别出发光单元(记为M1、M2、M3……)(220)。识别出的发光单元M可以有一个或多个。根据本申请的实施例,一个或多个发光单元M在现实世界的位姿是已知的,或者定位设备在指定位置和朝向(称为参考位置)时,在采集到的图像(称为参考图像)中,一个或多个发光单元相对于定位设备110的位姿是已知的。通过比较步骤210中获得的图像中发光单元M的位置与参考图像中发光单元M的位置,通过视觉定位技术得到定位装置110在执行步骤210时相对于参考位置的位姿变化(旋转和平移)(230)。进而,确定定位设备110或同定位设备绑定的物体(用户头部/眼睛)相对于捕获参考图像时的参考位置的位姿(240)。
优选地,选择初始时刻定位设备110的初始位置,或者世界坐标系(现实世界坐标系)中的原点位置,作为捕获参考图像的参考位置。从而根据定位设备110在步骤210中采集发光单元120的图像的位姿,相对于原点位置的变化(旋转和平移),得到定位设备110在世界坐标系中的位姿。可选地,参考图像是根据位于参考位置的定位设备110所应观察到的发光单元120而生成的,而无需在参考位置现场由定位设备110拍摄发光单元120得到。
在一种实施方式中,世界坐标系与为用户展示的虚拟世界坐标系重合。从而将定位设备在世界坐标系中的位姿,作为定位设备110在虚拟世界中的位姿。在又一种实施方式中,将用户在现实世界中在参考位置的位姿、位姿变化和/或变化后的位姿映射到虚拟世界。并得到用户在虚拟世界中的位姿(位置与视线朝向)、位姿变化和/或变化为后的位姿。以及根据用户在虚拟空间中的位姿,为用户渲染虚拟空间中的场景,和/或在虚拟空间中同物体进行交互。可选地,定位设备110输出用户在虚拟空间中的位姿,而由定位设备之外的其他信息处理设备实施场景渲染和/或交互处理。
图3A-图3C是根据本申请实施例的发光装置的示意图。
参看图3A,发光装置(也参看图1,发光装置120)为圆柱形物体,其表面设置有12个发光单元。6个发光单元被排布在发光装置表面的直线310上,另外6个发光单元被排布在发光装置表面的直线320上。直线310与直线320相互平行。发光单元形成的直线310与310构成了发光单元的分布特征。分布特征是可识别的,从而从发光装置的图像中,识别出平行的直线310与直线320,以及根据发光单元在直线上的排布顺序,识别出发光装置的12个发光单元的一个或多个。例如,从发光装置的图像中,相对于其他发光单元,识别出发光单元M1。进而,根据为发光单元M1所记录的信息,获得发光单元M1的位置。所记录的发光单元M1的位置,是例如定位设备110在已知的指定位置获得参考图像时,发光单元M1在参考图像中的位置,或者参考图像所在的虚拟世界中的位置;或者记录的发光单元M1的位置是其在现实世界中的位置。
图3B展示了根据本申请又一实施例的发光装置的示意图。图3B所示的发光装置为圆柱形物体,其包括12个发光单元。6个发光单元被排布在发光装置表面的直线340上,另外6个发光单元被排布在发光装置表面的直线350上。直线340与直线350不平行。直线340与直线350构成了发光单元的分布特征。可选地,从发光装置的图像中易于区分直线340与直线350。例如,发光单元在直线340上的线段长度不同于发光单元在直线350上的线段长度。在又一个例子中,发光装置的发光单元形成三条或更多的直线,通过直线之间的距离、相对位置灯,识别多条直线的每条。优选地,以直线340为例,直线340上的多个发光单元在直线340上不均匀分布,从而进一步依据直线340的多个发光单元的间距识别出多个发光单元的一个或多个。
图3C展示了根据本申请另一实施例的发光装置的示意图。图3C所示的发光装置为方形物体,其包括多个发光单元。多个发光单元被排布为两个圆形(圆360与圆370)。圆360与圆370构成了发光单元的可识别的分布特征。优选地,以圆360为例,圆360上的多个发光单元在圆360上不均匀分布,从而进一步依据圆360的多个发光单元的间距识别出多个发光单元的一个或多个。
依然可选地,发光装置的多个发光单元被设置为呈现其他形式的特征。例如,多个发光单元被设置为呈现条码或二维码的特征,并且所呈现的条码或二维码可被识别并提取其中编码的信息。所编码的信息指示例如发光装置的位置或者对位置的索引。
图4是根据本申请的实施例识别发光装置的发光单元的分布特征的示意图。
作为举例,A’、B’、C’与D’指示发光装置的4个发光单元,或者指示在发光装置的4个发光单元在参考图像中的像点。这4个发光单元位于同一条直线上。A、B、C与D指示在定位装置捕获的发光装置的图像中,分别对应于发光单元A’、B’、C’与D’的像点。参看图4,根据相似性,作为举例,AB/BC=A’B’/B’C’,同理可得定位装置捕获的图像中的各个像点(A、B、C与D)间的距离之比,同对应的各个发光单元(A’、B’、C’与D’)之间的距离之比相同。从而,定位装置捕获的发光装置的图像中,对应于发光单元的像点的间距之比可作为特征,识别出像点所对应的发光单元。例如,像点B同其周围的像点A、C与D的间距的比值形成了比值序列(BA/BC、BA/BD、BC/BD),该比值序列同发光单元B与其它发光单元(A、C与D)的间距的比值序列相同,从而通过序列比较,可识别出同发光单元B’对应的像点B。类似地,识别出同发光单元A、C与D分别对应的像点A’、C’与D’。识别出的发光单元具有发光单元标识。
可选地,在不同位置,定位装置所捕获的发光装置的图像中,对应于发光单元的像点所具有的分布特征,同参考图像中对应于发光单元的像点所具有的分布特征,相同或相似。
除了依据像点间距之比作为像点的分布特征,其它分布特征识别技术可被应用于根据本申请的实施例。例如,依据像点的间距的值排序,识别像点所对应的发光单元。在依然又一个例子中,像点的间距形成编码,在编码中记录了像点对应的发光单元的标识。
定位设备110依据像点对应的发光单元的标识,从数据库或存储设备获得发光单元在参考图像中的相应位置,例如,现实世界中的位置,和/或发光单元在参考图像中的位置。可选地,从数据库或存储设备中,还获得捕获参考图像的参考位置(在现实世界中的位置,或虚拟空间中的位置)。
图5展示了根据本申请实施例识别像点对应的发光单元的流程图。
定位设备从捕获的发光装置的图像中,根据发光单元的像点在图像中的位置,计算像点之间的相对位置(520)。根据像点之间的相对位置,确定像点的分布特征(530)。像点的分布特征被表示为像点间距之比的序列、像点间大小的序列、依据像点间距的编码序列等。定位设备根据像点的分布特征,比较像点的分布特征与已知的发光单元的分布特征,识别出像点所对应的发光单元(550)。
作为一个例子,若定位设备捕获的图像中,多个或所有像点所在的位置,同其在参考图像中的相应位置相同,则确定定位设备捕获图像时的位姿,与获取参考图像时的位姿相同。从而得到定位设备捕获图像时的位姿。
作为又一个例子,将多幅由定位设备在不同位姿获取的参考图像,和/或多幅参考图像的每幅中的多个像点的位置,记录在存储设备中。这些多幅参考图像,对应于定位设备在进行定位时的多个可能的位姿。通过比较定位设备采集的图像中的对应于多个发光单元的多个像点的位置,与存储设备中记录的多个像点的位置,确定定位设备采集图像时最有可能所在的位置。
图6A与图6B是根据本申请实施例的定位设备的定位原理的示意图。
参看图6A,定位设备110位于指定的参考位置,圆柱形或方形的发光装置位于定位110的视野内。定位设备110采集所观察到的发光装置的图像。在参考位置采集的发光装置的图像是参考图像。参考图像中,可见发光装置上的一个或多个发光单元。从参考图像中标记出每个发光单元,从而依据参考图像,可识别每个发光单元的标识与其在参考图像或真实物理空间中的位置。参考位置与定位设备110捕获参考图像的姿态是已知的。可选地,根据定位设备110在参考位置的位姿与发光装置,计算生成参考图像,而无需经历在参考位置捕获参考图像,从而减轻了部署根据本申请实施例的系统的复杂度。
参看图6B,随着用户的移动,绑定到用户的定位设备110随用户的移动改变位姿。从而定位设备110的视野变化,定位设备110所采集的发光装置的图像也随之变化。图6B展示的例子中,定位设备向右移动,相应地,采集到的发光装置的图像中的各个发光单元的像点,大体上向左移动。
根据本申请的实施例,通过比较图6B中的捕获图像,与图6A的捕获图像,通过多种视觉定位技术,都可识别出图6B中的定位设备110相对于图6A的定位设备110的位姿变化(包括位置变化与镜头朝向变化)。例如,利用透视N点定位、透视N线定位技术,根据捕获图像中具有已知位置的发光单元,得到定位设备110的位姿变化。可选地,利用人工智能、机器学习技术,识别出图6B中的定位设备110相对于图6A的定位设备110的位姿变化。又例如,比较同一指定图案在参考图像与捕获的图像中的变化,识别定位设备110的位姿变化。
定位设备110的位姿变化由平移T和旋转R表示。以及由于图6A中的定位设备110的位姿已知,根据定位设备110的位姿变化,得到图6B中的定位设备110的位姿。
进一步地,根据绑定到定位设备110的用户在参考位置所观察到图像(例如,虚拟世界中的场景)与定位设备110的位姿变化,生成用户在位姿变化后所观察到的图像。
作为举例,虚拟空间中的点由(x,y,z)表示。定位设备110在现实世界中,发生了平移T与绕X轴旋转角度α,绕Y轴旋转角度β,绕Z轴旋转角度γ。对应地,同定位设备110绑定的用户在虚拟空间中发生的平移记为Tv,沿三轴的旋转角度分别记为θx,θy与θz。例如,为了提升用户体验,使得Tv=k1*T,旋转角度θx=k2*α,θy=k3*β,和/或θz=k4*γ,其中k1,k2,k3与k4为系数。系数代表了用户在现实世界中的移动幅度与虚拟空间中的移动幅度的关系。依然可选地,定位设备110在现实世界中的平移与旋转,同在虚拟空间中的平移与旋转有线性或非线性的关系。
为了清楚的目的,作为举例,将用户在虚拟空间中发生平移与旋转也记为T与R。旋转R=Rx(α)·Ry(β)·Rz(γ),·其中绕X轴旋转角度为α,绕Y轴旋转角度为β,绕Z轴旋转角度为γ,而“·”表示矩阵点乘。平移向量T=(Tx,Ty,Tz),其中Tx,Ty与Tz分别代表沿坐标系的X轴的平移、沿Y轴的平移与沿Z轴的平移。
引入齐次坐标系,若虚拟空间中的点P(a,b,c),其齐次坐标记为(a,b,c,1)。以点O坐标系原点,虚拟空间中,T1时刻用户的位置为B(x,y,z),在用户发生了平移T与旋转R(相对于原点)后的T2时刻,用户的位置变为A(x’,y’,z’),A=R·B+T。
若用户从位置B(x,y,z)发生平移T,用户位置A(x’,y’,z’),可通过
计算的到。
若用户从位置B(x,y,z)发生绕X轴旋转α角后,用户位置A(x’,y’,z’)为类似地,若用户从位置B(x,y,z)发生绕Y轴旋转β角后,用户位置A(x’,y’,z’)为若用户从位置B(x,y,z)发生绕z轴旋转γ角后,用户位置A(x’,y’,z’)为
以及,根据T2时刻用户的位置A,为用户生成虚拟空间中的场景。
图7是实现本申请实施例的作为定位设备的信息处理设备的框图。图7中展示的信息处理设备是计算机。计算机仅仅是适当的计算环境的一个例子,而不意图暗示关于本申请的使用或功能范围的任何限制。图7所展示的信息处理设备也不应当被解释为在所示出的任何组件或组件组合方面有任何依赖性或要求。
信息处理设备包括直接或间接地耦合到总线710的存储器712、一个或更多处理器714、一个或更多呈现组件716、I/O组件720以及电源722。总线710所代表的可以是一种或更多种总线(比如地址总线、数据总线或其组合)。是在实际情况中各个组件的界定并不是必然如图7中的方式。举例来说,可以把诸如显示设备之类的呈现组件视为I/O组件720。此外,处理器可具有存储器。本申请的发明人认识到这正是本领域的性质,并且重申图7的图示仅仅是为了说明可以与本申请的一个或多个实施例相结合地使用的示例性计算机系统。
信息处理设备700通常包括多种存储器712。作为举例而非限制,存储器712可以包括:随机存取存储器(RAM)、只读存储器(ROM)、电子可擦写可编程只读存储器(EEPROM)、闪存、压缩盘只读存储器(CDROM)、数字通用盘(DVD)或其他光学或全息介质、磁盒、磁带、磁盘存储或其他磁性存储设备。计算机存储介质可以是非易失性的。
信息处理设备700包括一个或更多处理器814,其从诸如总线710、存储器712或者I/O组件720之类的各种实体读取数据。一个或多个呈现组件716向用户或其他设备呈现数据指示。示例性的呈现组件716包括显示设备、扬声器、打印组件、振动组件、平面显示器、投影仪、头戴式显示器等。呈现组件716也可以是用于耦合显示设备、扬声器、打印组件、振动组件、平面显示器、投影仪、头戴式显示器等的I/O端口。说明性的I/O组件820包括摄像头、麦克风、操纵杆、游戏手柄、碟形卫星信号收发天线、扫描仪、打印机、无线设备等。
已经为了示出和描述的目的而展现了对本发明的描述,并且不旨在以所公开的形式穷尽或限制本发明。对所属领域技术人员,许多调整和变化是显而易见的。

Claims (10)

1.一种定位方法,包括:
采集发光单元的图像;
根据所述图像中多个发光单元的特征,识别多个第一发光单元,其中多个第一发光单元具有指定的位置;
根据所述图像与含有所述多个第一单元的参考图像,确定采集所述图像的定位设备的位姿。
2.根据权利要求1所述的方法,其中
根据所述图像中多个第一发光单元的位置与所述参考图像中所述多个第一发光单元的位置,计算采集所述图像时所述定位设备的位姿相对于获得所述参考图像时定位设备的位姿的位姿变化;以及
根据同所述参考图像对应的定位设备的位姿,与所述位姿变化,确定采集所述图像的定位设备的位姿。
3.根据权利要求1或2所述的方法,其中
所述参考图像是所述定位设备在指定的参考位置所观察到的所述多个发光单元的图像。
4.根据权利要求1-3之一所述的方法,其中:
所述图像中多个发光单元的特征,是位置分布特征;
通过识别所述多个第一发光单元具有的指定的位置分布特征,识别所述多个第一发光单元。
5.根据权利要求4所述的方法,其中
依据识别的所述多个第一单元,获取被存储的所述多个第一单元的指定位置。
6.根据权利要求1-5之一所述的方法,还包括:
根据采集所述图像时所述定位设备的位姿相对于获得所述参考图像时定位设备的位姿的位姿变化,为同所述定位设备绑定的观察者展现变化的虚拟空间中的场景。
7.根据权利要求1-5之一所述的方法,还包括:
根据采集所述图像时所述定位设备的位姿相对于获得所述参考图像时定位设备的位姿的位姿变化,使与所述定位设备绑定的物体同虚拟空间的其它物体交互。
8.一种定位方法,包括:
采集信号发射单元发出的信号;
根据采集的信号识别发出信号的多个信号发射单元的特征,
根据采集的多个信号的特征,识别多个第一信号发射单元,其中多个第一信号发射单元具有指定的位置;
根据采集的来自多个第一信号发射单元的多个信号的位置与在参考位置采集的来自所述多个第一信号发射单元的多个信号的位置,确定采集信号发射单元发出的信号时的定位设备的位姿。
9.一种定位系统,包括定位设备与发光装置;
发光装置包括发光单元,多个发光单元被设置为具有可识别的特征;
定位设备采集发光单元的图像,根据采集的所述图像中多个发光单元的特征,识别多个第一发光单元,其中多个第一发光单元具有指定的位置;根据所述图像与含有所述多个第一单元的参考图像,确定采集所述图像的定位设备的位姿。
10.一种定位系统,包括定位设备与信号发生装置;
信号发生装置包括信号发射单元,多个信号发射单元被设置为具有可识别的特征;定位设备采集信号发射单元发出的信号,
根据采集的信号识别发出信号的多个信号发射单元的特征;根据采集的多个信号的特征,识别多个第一信号发射单元,其中多个第一信号发射单元具有指定的位置;
根据采集的来自多个第一信号发射单元的多个信号的位置与在参考位置采集的来自所述多个第一信号发射单元的多个信号的位置,确定采集信号发射单元发出的信号时的定位设备的位姿。
CN201810035873.4A 2018-01-15 2018-01-15 基于空间标识的定位系统与方法 Active CN108257177B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810035873.4A CN108257177B (zh) 2018-01-15 2018-01-15 基于空间标识的定位系统与方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810035873.4A CN108257177B (zh) 2018-01-15 2018-01-15 基于空间标识的定位系统与方法

Publications (2)

Publication Number Publication Date
CN108257177A true CN108257177A (zh) 2018-07-06
CN108257177B CN108257177B (zh) 2021-05-04

Family

ID=62740642

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810035873.4A Active CN108257177B (zh) 2018-01-15 2018-01-15 基于空间标识的定位系统与方法

Country Status (1)

Country Link
CN (1) CN108257177B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109166150A (zh) * 2018-10-16 2019-01-08 青岛海信电器股份有限公司 获取位姿的方法、装置存储介质
WO2020238790A1 (zh) * 2019-05-27 2020-12-03 浙江商汤科技开发有限公司 相机定位
CN112102407A (zh) * 2020-09-09 2020-12-18 北京市商汤科技开发有限公司 显示设备的定位方法、装置、显示设备及计算机存储介质
CN114124218A (zh) * 2021-11-22 2022-03-01 华南理工大学 一种基于地磁传感器辅助的可见光单灯定位方法及系统
WO2022095605A1 (zh) * 2020-11-09 2022-05-12 青岛小鸟看看科技有限公司 一种手柄控制追踪器
CN115937725A (zh) * 2023-03-13 2023-04-07 江西科骏实业有限公司 空间交互装置的姿态显示方法、装置、设备及其存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101214142A (zh) * 2007-12-26 2008-07-09 北京理工大学 一种基于多光谱图像的医学手术导航跟踪装置
CN101303269A (zh) * 2007-05-09 2008-11-12 奥林巴斯株式会社 光学系统评价装置、光学系统评价方法及其程序
CN103488291A (zh) * 2013-09-09 2014-01-01 北京诺亦腾科技有限公司 一种基于运动捕捉的浸入式虚拟现实系统
CN103996322A (zh) * 2014-05-21 2014-08-20 武汉湾流新技术有限公司 一种基于增强现实的焊接操作训练模拟方法及系统
CN104036476A (zh) * 2013-03-08 2014-09-10 三星电子株式会社 用于提供增强现实的方法以及便携式终端
CN105094335A (zh) * 2015-08-04 2015-11-25 天津锋时互动科技有限公司 场景提取方法、物体定位方法及其系统
CN105737820A (zh) * 2016-04-05 2016-07-06 芜湖哈特机器人产业技术研究院有限公司 一种室内机器人定位导航方法
CN105791789A (zh) * 2016-04-28 2016-07-20 努比亚技术有限公司 头戴设备、显示设备及自动调整显示输出的方法
CN106681510A (zh) * 2016-12-30 2017-05-17 光速视觉(北京)科技有限公司 位姿识别装置、虚拟现实显示装置以及虚拟现实系统
CN106842226A (zh) * 2017-01-19 2017-06-13 谢建平 基于激光雷达的定位系统及方法
WO2017134275A1 (en) * 2016-02-05 2017-08-10 Eidgenossische Technische Hochschule Zurich Methods and systems for determining an optical axis and/or physical properties of a lens and use of the same in virtual imaging and head-mounted displays
CN107037880A (zh) * 2017-03-02 2017-08-11 深圳前海极客船长网络科技有限公司 基于虚拟现实技术的空间定位定姿系统及其方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101303269A (zh) * 2007-05-09 2008-11-12 奥林巴斯株式会社 光学系统评价装置、光学系统评价方法及其程序
CN101214142A (zh) * 2007-12-26 2008-07-09 北京理工大学 一种基于多光谱图像的医学手术导航跟踪装置
CN104036476A (zh) * 2013-03-08 2014-09-10 三星电子株式会社 用于提供增强现实的方法以及便携式终端
CN103488291A (zh) * 2013-09-09 2014-01-01 北京诺亦腾科技有限公司 一种基于运动捕捉的浸入式虚拟现实系统
CN103996322A (zh) * 2014-05-21 2014-08-20 武汉湾流新技术有限公司 一种基于增强现实的焊接操作训练模拟方法及系统
CN105094335A (zh) * 2015-08-04 2015-11-25 天津锋时互动科技有限公司 场景提取方法、物体定位方法及其系统
WO2017134275A1 (en) * 2016-02-05 2017-08-10 Eidgenossische Technische Hochschule Zurich Methods and systems for determining an optical axis and/or physical properties of a lens and use of the same in virtual imaging and head-mounted displays
CN105737820A (zh) * 2016-04-05 2016-07-06 芜湖哈特机器人产业技术研究院有限公司 一种室内机器人定位导航方法
CN105791789A (zh) * 2016-04-28 2016-07-20 努比亚技术有限公司 头戴设备、显示设备及自动调整显示输出的方法
CN106681510A (zh) * 2016-12-30 2017-05-17 光速视觉(北京)科技有限公司 位姿识别装置、虚拟现实显示装置以及虚拟现实系统
CN106842226A (zh) * 2017-01-19 2017-06-13 谢建平 基于激光雷达的定位系统及方法
CN107037880A (zh) * 2017-03-02 2017-08-11 深圳前海极客船长网络科技有限公司 基于虚拟现实技术的空间定位定姿系统及其方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
闫龙: "《图像式头盔瞄准具定位模型研究与仿真》", 《电光与控制》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109166150A (zh) * 2018-10-16 2019-01-08 青岛海信电器股份有限公司 获取位姿的方法、装置存储介质
WO2020238790A1 (zh) * 2019-05-27 2020-12-03 浙江商汤科技开发有限公司 相机定位
CN112102407A (zh) * 2020-09-09 2020-12-18 北京市商汤科技开发有限公司 显示设备的定位方法、装置、显示设备及计算机存储介质
WO2022095605A1 (zh) * 2020-11-09 2022-05-12 青岛小鸟看看科技有限公司 一种手柄控制追踪器
US11712619B2 (en) 2020-11-09 2023-08-01 Qingdao Pico Technology Co., Ltd. Handle controller
CN114124218A (zh) * 2021-11-22 2022-03-01 华南理工大学 一种基于地磁传感器辅助的可见光单灯定位方法及系统
CN114124218B (zh) * 2021-11-22 2023-02-28 华南理工大学 一种基于地磁传感器辅助的可见光单灯定位方法及系统
CN115937725A (zh) * 2023-03-13 2023-04-07 江西科骏实业有限公司 空间交互装置的姿态显示方法、装置、设备及其存储介质

Also Published As

Publication number Publication date
CN108257177B (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN108257177A (zh) 基于空间标识的定位系统与方法
CN101310289B (zh) 捕捉和处理面部运动数据
Azuma A survey of augmented reality
CN105393284B (zh) 基于人类身体数据的空间雕刻
CN109584295A (zh) 对图像内目标物体进行自动标注的方法、装置及系统
Klein Visual tracking for augmented reality
CN109643014A (zh) 头戴式显示器追踪
CN104699247A (zh) 一种基于机器视觉的虚拟现实交互系统及方法
KR20200012043A (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
CN107004279A (zh) 自然用户界面相机校准
CN110377148B (zh) 计算机可读介质、训练对象检测算法的方法及训练设备
CN105190703A (zh) 使用光度立体来进行3d环境建模
CN109804220A (zh) 用于跟踪头部和眼睛的运动和姿势的系统和方法
CA2868276A1 (en) Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use
KR20150013709A (ko) 컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템
KR20230028532A (ko) 가상 현실 경험들을 위한 지상 실측값 데이터세트들의 생성
CN109166181A (zh) 一种基于深度学习的混合动作捕捉系统
CN110168615A (zh) 信息处理设备、信息处理方法和程序
JPWO2019171557A1 (ja) 画像表示システム
US20240070984A1 (en) Displaying a scene to a subject while capturing the subjects acting performance using multiple sensors
CN108830944B (zh) 光学透视式三维近眼显示系统及显示方法
JP2021136017A (ja) 仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システム
CN112486331A (zh) 基于imu的三维空间手写输入方法和装置
EP4134917A1 (en) Imaging systems and methods for facilitating local lighting
CN109800645A (zh) 一种动作捕捉系统及其方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20191122

Address after: 300450 room 203b-3, building 3, No.4, Haitai development road 2, Huayuan Industrial Zone (outside the ring), Binhai high tech Zone, Binhai New Area, Tianjin

Applicant after: Tianjin Fengshi Interactive Technology Co., Ltd.

Address before: 518000 Guangdong, Shenzhen, Nanshan District science and technology south twelve road Konka R & D building 12 floor, A2

Applicant before: Tianjin Feng time interactive technology Co., Ltd. Shenzhen branch

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210120

Address after: 518000 B1018, 99 Dahe Road, Runcheng community, Guanhu street, Longhua District, Shenzhen City, Guangdong Province

Applicant after: Shenzhen laimile Intelligent Technology Co.,Ltd.

Address before: Room 203b-3, building 3, No.4, Haitai development road 2, Huayuan Industrial Zone, Binhai high tech Zone, Binhai New Area, Tianjin 300450

Applicant before: Tianjin Sharpnow Technology Co.,Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210329

Address after: 518000 509, xintengda building, building M8, Maqueling Industrial Zone, Maling community, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Applicant after: Shenzhen Silan Zhichuang Technology Co.,Ltd.

Address before: 518000 B1018, 99 Dahe Road, Runcheng community, Guanhu street, Longhua District, Shenzhen City, Guangdong Province

Applicant before: Shenzhen laimile Intelligent Technology Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant