CN105718066B - 一种可灵活组合的实时光学定位系统 - Google Patents

一种可灵活组合的实时光学定位系统 Download PDF

Info

Publication number
CN105718066B
CN105718066B CN201610065490.2A CN201610065490A CN105718066B CN 105718066 B CN105718066 B CN 105718066B CN 201610065490 A CN201610065490 A CN 201610065490A CN 105718066 B CN105718066 B CN 105718066B
Authority
CN
China
Prior art keywords
kinect
fixed position
basic fixed
position module
visual field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610065490.2A
Other languages
English (en)
Other versions
CN105718066A (zh
Inventor
王良亮
林杰勇
戴皓文
许云龙
刘伟明
林燕珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SCT Optronics Company Ltd.
Original Assignee
Zhuopan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuopan Co Ltd filed Critical Zhuopan Co Ltd
Priority to CN201610065490.2A priority Critical patent/CN105718066B/zh
Publication of CN105718066A publication Critical patent/CN105718066A/zh
Application granted granted Critical
Publication of CN105718066B publication Critical patent/CN105718066B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

本发明公开了一种可灵活组合的实时光学定位系统,包括有至少一个基本定位模块,至少一个基本定位模块覆盖VR应用场景区域;基本定位模块(100)组合成VR应用场景所需的定位构型,并标定基本定位模块,通过标定基本定位模块,将现实环境和VR应用场景对应起来;基本定位模块与服务器之间网络连接;服务器和基本定位模块实时获取用户位置信息,并传送给VR应用程序处理。本发明低成本,搭建方便,组合灵活。Kinect安装方便,布置参数可调。基本定位模块可以非常灵活地组合成不同的定位构型,为不同VR交互应用提供了便利。

Description

一种可灵活组合的实时光学定位系统
技术领域
本发明属于室内定位技术领域,具体地说,涉及一种可灵活组合的实时光学定位系统。
背景技术
随着2012年一款头戴式显示器,OCULUS Rift,在Kickstarter网站参与众筹,虚拟现实(Virtual Reality,简称VR)技术再一次进入大众的视野。借助头戴式显示器这一款VR设备,用户身体感官将完全沉浸于虚拟的游戏世界,几乎没有“屏幕”的概念。尽管头戴式显示器在内容输出上给用户带来全新的沉浸式体验,VR在交互输入技术方面仍面临着挑战。目前大部分借助头戴式显示器的VR应用都要求用户处在固定的位置,无法实现自由移动,用户体验受到限制。而为了带给用户更好的体验,就需要借助一项交互输入技术——用户实时定位。借助该技术,系统可以追踪到用户在真实环境中自由行走的位置,进而将用户的位置融合到对应的虚拟世界中,并输出对应位置实时渲染的环境,同时触发对应游戏事件。而作为VR交互应用中用户位置输入,要求定位系统达到厘米级的精度和至少20赫兹的采样频率,以避免VR体验中出现跳屏、卡屏和延迟等问题。
当前的室内定位系统,主要根据无线电波、超声波技术或光学原理来实现,如基于射频标签(RFID)、ZigBee、蓝牙(Bluetooth,BT)、超宽带无线电(Ultra Wide Band,UWB)、红外定位、LED定位、计算机视觉定位和超声波定位等。基于无线电波原理的定位系统,定位精度目前只能达到分米级,其中定位精度最好的是UWB定位系统,精度可达30cm。而基于超声波技术的定位系统,由于受到声速的限制,定位的采样频率较低,一般低于20赫兹。基于光学原理的定位系统在定位精度和采样频率上都能满足VR应用的要求,是较理想的用户位置实时追踪解决方案。但是,目前支持VR交互应用的光学定位系统较少,而且大部分光学定位系统的追踪范围有限且不可以通过灵活组合来适应VR应用需求。
微软推出的Kinect体感控制器是与Xbox 360配套使用的一款3D摄像头,这款设备借助红外线来识别人体的运动,可以实时追踪用户的骨骼部位。同时微软也为开发人员提供了Windows平台下的Kinect应用开发接口。
发明内容
本发明所要解决的技术问题是,针对VR交互应用中,用户位置实时输入的技术短缺,提供了一种可灵活组合的实时光学定位系统。本发明主要利用Kinect和微软的开发接口来设计一套可适用于VR交互应用的实时光学定位系统。
为解决上述技术问题,本发明是采用如下技术方案实现的:
本发明包括有至少一个基本定位模块,至少一个基本定位模块覆盖VR应用场景区域;基本定位模块组合成VR应用场景所需的定位构型,并标定基本定位模块,通过标定基本定位模块,将现实环境和VR应用场景对应起来;基本定位模块与服务器之间网络连接;服务器和基本定位模块实时获取用户位置信息,并传送给VR应用程序处理。
所述的定位构型为H型、T型、U型、5型、6型或8型。
所述的基本定位模块具有至少一个Kinect。
所述的基本定位模块是由PC机、第一Kinect、第二Kinect、第三Kinect和第四Kinect组成,第一Kinect、第二Kinect、第三Kinect和第四Kinect通过USB线分别连接PC机的四个串口,实现第一Kinect、第二Kinect、第三Kinect和第四Kinect与PC机间的数据传输;PC机通过开发接口调用Kinect骨骼帧的读取函数来获取用户质心的空间位置信息;
基本定位模块的实现方法:
(1)Kinect布置:根据Kinect的垂直视角和一般用户的身高,第一Kinect、第二Kinect、第三Kinect和第四Kinect水平的安装于1.1米的高度,并将第一Kinect、第二Kinect、第三Kinect和第四Kinect的位置调整至等间距;Kinect之间的间距d根据定位需求设计;
(2)Kinect标定:规定基本定位模块坐标系Oxy,从第一Kinect开始标定;选取第一Kinect视场117里不同位置的样本点,同时记录实测基本定位模块坐标系Oxy中样本点的坐标值和第一Kinect坐标系Ox1y1检测到的样本点坐标值;利用最大似然法估计得到第一Kinect坐标映射到基本定位模块坐标的变换矩阵;由于Kinect视场边界处精度降低,为保证位置信号在Kinect之间过渡区域的连续性,第二Kinect通过标定好的第一Kinect来标定;选取第一Kinect视场117和第二Kinect视场116之间的重叠区域113里不同位置的样本点,同时记录第一Kinect检测到的样本点在基本定位模块坐标系Oxy中的坐标值和第二Kinect坐标系Ox2y2检测到的样本点坐标值;利用最大似然法估计得到第二Kinect坐标映射到基本定位模块坐标的变换矩阵;采用第二Kinect标定的方法,依次地,第三Kinect通过标定好的第二Kinect来标定,完成第三Kinect坐标系Ox3y3到基本定位模块坐标系Oxy的转换;第四Kinect通过标定好的第三Kinect来标定,完成第四Kinect坐标系Ox4y4到基本定位模块坐标系Oxy的转换;通过标定第一Kinect、第二Kinect、第三Kinect和第四Kinect,将第一Kinect、第二Kinect、第三Kinect和第四Kinect坐标映射到了基本定位模块坐标,同时保证了第一Kinect、第二Kinect、第三Kinect和第四Kinect联合工作时定位信号的连续性;
(3)Kinect定位区域划分和用户位置追踪:以相邻Kinect的中间位置为分界线,从第一Kinect、第二Kinect、第三Kinect和第四Kinect的视场里划分出相同且宽度均等于d的矩形区域块,矩形区域块横向对齐、纵向相接,即第一Kinect视场117里的矩形区域块114,第二Kinect视场116里的矩形区域块112,第三Kinect视场107里的矩形区域块110和第四Kinect视场106里的矩形区域块108;受限于Kinect最大检测深度值为4.095m,矩形区域块的长度最大取值是4.095-0.5b/tan(0.5β)m,其中β为Kinect的水平视角,β=57°;第一Kinect、第二Kinect、第三Kinect和第四Kinect联合追踪用户115的位置,第一Kinect、第二Kinect、第三Kinect和第四Kinect分别负责实时追踪视场里对应的矩形区域块,第一Kinect、第二Kinect、第三Kinect和第四Kinect视场的并集构成了基本定位块的视场,四个矩形区域块组成了基本定位块的定位区域。
基本定位模块由一台PC机和第一Kinect、第二Kinect、第三Kinect和第四Kinect组成;而在实际应用中,基本定位模块中Kinect的数量可根据定位需求而配置,但一台PC机最多只可连接四部Kinect;当配置好基本定位模块后,就可以通过若干个基本定位模块灵活地组合搭建出所需构型的定位系统。
与现有技术相比本发明的有益效果是:
(1)低成本,搭建方便,灵活组合;Kinect安装方便,布置参数可调。基本定位模块可以非常灵活地组合成不同的定位构型,为不同VR交互应用提供了便利;
(2)定位信号具有良好的实时性、连续性和稳定性;系统具有很高采样频率,保证了较高的用户位置信息更新频率,实时性好;利用Kinect之间重叠区域进行校正的方法,保证了Kinect之间过渡区域位置信号的连续性,避免出现跳格的情况;
(3)系统具有通用性,可作为任意VR交互应用中的输入设备;系统提供与VR交互应用的数据接口,作为其位置控制的输入设备。
附图说明
图1是基本定位模块示意图。
图2是基本定位块组合成L型定位系统的示意图。
图3是基本定位模块组合定位构型为H型的实例。
图4是基本定位模块组合定位构型为T型的实例。
图5是基本定位模块组合定位构型为U型的实例。
图6是基本定位模块组合定位构型为5型的实例。
图7是基本定位模块组合定位构型为6型的实例。
图8是基本定位模块组合定位构型为8型的实例。
图9是本发明的实施流程框图。
具体实施方式
本发明包括有至少一个基本定位模块100,至少一个基本定位模块100覆盖VR应用场景区域;基本定位模块100组合成VR应用场景所需的定位构型,并标定基本定位模块100,通过标定基本定位模块(100),将现实环境和VR应用场景对应起来;基本定位模块100与服务器之间网络连接;服务器和基本定位模块100实时获取用户位置信息,并传送给VR应用程序处理。
所述的定位构型为H型、T型、U型、5型、6型或8型。
所述的基本定位模块100具有至少一个Kinect。
参阅图1,基本定位模块100是由PC机101、第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105组成,第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105通过USB线分别连接PC机101的四个串口,实现第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105与PC机101间的数据传输;PC机101通过开发接口调用Kinect骨骼帧的读取函数来获取用户质心的空间位置信息;
基本定位模块的实现方法:
(1)Kinect布置:根据Kinect的垂直视角和一般用户的身高,第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105水平的安装于1.1米的高度,并将第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105的位置调整至等间距;Kinect之间的间距d根据定位需求设计;
(2)Kinect标定:规定基本定位模块100坐标系Oxy,从第一Kinect 102开始标定;选取第一Kinect 102视场117里不同位置的样本点,同时记录实测基本定位模块100坐标系Oxy中样本点的坐标值和第一Kinect 102坐标系Ox1y1检测到的样本点坐标值;利用最大似然法估计得到第一Kinect 102坐标映射到基本定位模块100坐标的变换矩阵;由于Kinect视场边界处精度降低,为保证位置信号在Kinect之间过渡区域的连续性,第二Kinect 103通过标定好的第一Kinect 102来标定;选取第一Kinect 102视场117和第二Kinect 103视场116之间的重叠区域113里不同位置的样本点,同时记录第一Kinect 102检测到的样本点在基本定位模块100坐标系Oxy中的坐标值和第二Kinect 103坐标系Ox2y2检测到的样本点坐标值;利用最大似然法估计得到第二Kinect 103坐标映射到基本定位模块100坐标的变换矩阵;采用第二Kinect 103标定的方法,依次地,第三Kinect 104通过标定好的第二Kinect 103来标定,完成第三Kinect 104坐标系Ox3y3到基本定位模块100坐标系Oxy的转换;第四Kinect 105通过标定好的第三Kinect 104来标定,完成第四Kinect 105坐标系Ox4y4到基本定位模块100坐标系Oxy的转换;通过标定第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105,将第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105坐标映射到了基本定位模块100坐标,同时保证了第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105联合工作时定位信号的连续性;
(3)Kinect定位区域划分和用户位置追踪:以相邻Kinect的中间位置为分界线,从第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105的视场里划分出相同且宽度均等于d的矩形区域块,矩形区域块横向对齐、纵向相接,即第一Kinect 102视场117里的矩形区域块114,第二Kinect 103视场116里的矩形区域块112,第三Kinect 104视场107里的矩形区域块110和第四Kinect 105视场106里的矩形区域块108;受限于Kinect最大检测深度值为4.095m,矩形区域块的长度最大取值是4.095-0.5b/tan(0.5β)m,其中β为Kinect的水平视角,β=57°;第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105联合追踪用户115的位置,第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105分别负责实时追踪视场里对应的矩形区域块,第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105视场的并集构成了基本定位块100的视场,四个矩形区域块组成了基本定位块100的定位区域。
图1所示的基本定位模块100由一台PC机101和第一Kinect 102、第二Kinect 103、第三Kinect 104和第四Kinect 105组成;而在实际应用中,基本定位模块100中Kinect的数量可根据定位需求而配置,但一台PC机101最多只可连接四部Kinect;当配置好基本定位模块后,就可以通过若干个基本定位模块100灵活地组合搭建出所需构型的实时光学定位系统。
下面,以L型定位系统为例,说明模块组合定位的实现方法;参阅图2,L型定位系统200包括基本定位模块201,服务器端202和基本定位模块203。
L型定位系统200的实现方法:
(1)基本定位模块布置:为了组合成L型定位区域,将基本定位模块201定位区域的长边和基本定位模块203定位区域的短边对齐,基本定位模块201定位区域的短边和基本定位模块203定位区域的长边无缝相接;
(2)基本定位模块标定:规定L型定位系统200的坐标系OXY,从基本定位模块201开始标定;选取基本定位模块201定位区域里不同位置的样本点,同时记录实测L型定位系统200的坐标系OXY中样本点的坐标值和基本定位模块201坐标系OX1Y1检测到的样本点坐标值;利用最大似然法估计得到基本定位模块201坐标映射到L型定位系统200坐标的变换矩阵;为了保证位置信号在基本定位模块之间过渡时的连续性,基本定位模块203通过标定好的基本定位模块201来标定;选取基本定位模块201视场和基本定位模块203视场的重叠区域里不同位置的样本点,同时记录基本定位模块201检测到的样本点在L型定位系统200的坐标系OXY中的坐标值和基本定位模块203坐标系OX2Y2检测到的样本点坐标值;利用最大似然法估计得到基本定位模块203坐标映射到L型定位系统200的坐标变换矩阵;
(3)基本定位模块客户端与服务器端的网络通讯的设置:首先,分别建立基本定位模块201中的客户端205(PC机),基本定位模块203中的客户端204(PC机)与服务器端202之间的TCP连接;基本定位模块的Kinect捕获定位区域中用户的位置信息后,由PC机处理后,通过socket接口实时发送至服务器端202,再由服务器端202的应用程序进一步处理。
基于所述的L型定位系统200实施方法,通过基本定位模块可以搭建出构型不同的定位系统,从而适应于不同VR应用场景;如图3、图4、图5、图6、图7和图8所示,通过配置不同数量的基本定位模块,可以组合成构型为H型、T型、U型、5型、6型或8型定位系统。上述的定位构型,仅是本发明的优选实施例,在不偏离本发明模块组合定位思想的情况下,其他构型也应在本发明的保护范围之内。
下面结合图9具体说明本发明应用过程400。首先在401,配置若干基本定位模块,以覆盖VR应用场景区域。由于VR应用场景区域可能不规则,配置的基本定位模块可以不同,即每个定位模块配置的Kinect数量可以不同。在402,将基本定位模块组合成VR应用场景所需的定位构型,并标定各基本定位模块。通过标定基本定位模块,将现实环境和VR应用场景对应起来。在403,建立各个基本定位模块客户端与服务器端的网络通讯。在404,启动服务器和各个基本定位模块,实时获取用户位置信息,并传送给VR应用程序处理。

Claims (1)

1.一种可灵活组合的实时光学定位系统,其特征在于:包括有至少一个基本定位模块(100),至少一个基本定位模块(100)覆盖VR应用场景区域;基本定位模块(100)组合成VR应用场景所需的定位构型,并标定基本定位模块(100),通过标定基本定位模块(100),将现实环境和VR应用场景对应起来;基本定位模块(100)与服务器之间网络连接;服务器和基本定位模块(100)实时获取用户位置信息,并传送给VR应用程序处理;其特征在于:所述的基本定位模块(100)是由PC机(101)、第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)组成,第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)通过USB线分别连接PC机(101)的四个串口,实现第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)与PC机(101)间的数据传输;PC机(101)通过开发接口调用Kinect骨骼帧的读取函数来获取用户质心的空间位置信息;
基本定位模块的实现方法:
(一)Kinect布置:根据Kinect的垂直视角和一般用户的身高,第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)水平的安装于1.1米的高度,并将第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)的位置调整至等间距;Kinect之间的间距d根据定位需求设计;
(二)Kinect标定:规定基本定位模块(100)坐标系Oxy,从第一Kinect(102)开始标定;选取第一Kinect(102)视场(117)里不同位置的样本点,同时记录实测基本定位模块(100)坐标系Oxy中样本点的坐标值和第一Kinect(102)坐标系Ox1y1检测到的样本点坐标值;利用最大似然法估计得到第一Kinect(102)坐标映射到基本定位模块(100)坐标的变换矩阵;由于Kinect视场边界处精度降低,为保证位置信号在Kinect之间过渡区域的连续性,第二Kinect(103)通过标定好的第一Kinect(102)来标定;选取第一Kinect(102)视场(117)和第二Kinect(103)视场(116)之间的重叠区域(113)里不同位置的样本点,同时记录第一Kinect(102)检测到的样本点在基本定位模块(100)坐标系Oxy中的坐标值和第二Kinect(103)坐标系Ox2y2检测到的样本点坐标值;利用最大似然法估计得到第二Kinect(103)坐标映射到基本定位模块(100)坐标的变换矩阵;采用第二Kinect(103)标定的方法,依次地,第三Kinect(104)通过标定好的第二Kinect(103)来标定,完成第三Kinect(104)坐标系Ox3y3到基本定位模块(100)坐标系Oxy的转换;第四Kinect(105)通过标定好的第三Kinect(104)来标定,完成第四Kinect(105)坐标系Ox4y4到基本定位模块(100)坐标系Oxy的转换;通过标定第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105),将第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)坐标映射到了基本定位模块(100)坐标,同时保证了第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)联合工作时定位信号的连续性;
(三)Kinect定位区域划分和用户位置追踪:以相邻Kinect的中间位置为分界线,从第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)的视场里划分出相同且宽度均等于d的矩形区域块,矩形区域块横向对齐、纵向相接,即第一Kinect(102)视场(117)里的矩形区域块(114),第二Kinect(103)视场(116)里的矩形区域块(112),第三Kinect(104)视场(107)里的矩形区域块(110)和第四Kinect(105)视场(106)里的矩形区域块(108);受限于Kinect最大检测深度值为4.095m,矩形区域块的长度最大取值是4.095-0.5b/tan(0.5β)m,其中β为Kinect的水平视角,β=57°;第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)联合追踪用户(115)的位置,第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)分别负责实时追踪视场里对应的矩形区域块,第一Kinect(102)、第二Kinect(103)、第三Kinect(104)和第四Kinect(105)视场的并集构成了基本定位模块(100)的视场,四个矩形区域块组成了基本定位模块(100)的定位区域。
CN201610065490.2A 2016-01-30 2016-01-30 一种可灵活组合的实时光学定位系统 Active CN105718066B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610065490.2A CN105718066B (zh) 2016-01-30 2016-01-30 一种可灵活组合的实时光学定位系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610065490.2A CN105718066B (zh) 2016-01-30 2016-01-30 一种可灵活组合的实时光学定位系统

Publications (2)

Publication Number Publication Date
CN105718066A CN105718066A (zh) 2016-06-29
CN105718066B true CN105718066B (zh) 2018-06-01

Family

ID=56155240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610065490.2A Active CN105718066B (zh) 2016-01-30 2016-01-30 一种可灵活组合的实时光学定位系统

Country Status (1)

Country Link
CN (1) CN105718066B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110161455B (zh) * 2018-02-11 2021-07-13 清华大学 定位系统及定位系统构型的自主建立方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104474710A (zh) * 2014-12-09 2015-04-01 山东大学 基于Kinect网络的大规模场景群体用户跟踪系统与方法
CN105183142A (zh) * 2014-06-13 2015-12-23 中国科学院光电研究院 一种利用空间位置装订的数字信息复现方法
CN105279750A (zh) * 2014-07-09 2016-01-27 雷震 一种基于ir-uwb和图像矩的装备展示导览系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105183142A (zh) * 2014-06-13 2015-12-23 中国科学院光电研究院 一种利用空间位置装订的数字信息复现方法
CN105279750A (zh) * 2014-07-09 2016-01-27 雷震 一种基于ir-uwb和图像矩的装备展示导览系统
CN104474710A (zh) * 2014-12-09 2015-04-01 山东大学 基于Kinect网络的大规模场景群体用户跟踪系统与方法

Also Published As

Publication number Publication date
CN105718066A (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
Fazel et al. An interactive augmented reality tool for constructing free-form modular surfaces
US11394950B2 (en) Augmented reality-based remote guidance method and apparatus, terminal, and storage medium
US11887312B2 (en) Fiducial marker patterns, their automatic detection in images, and applications thereof
US11948369B2 (en) Visual-inertial positional awareness for autonomous and non-autonomous mapping
CN106383596B (zh) 基于空间定位的虚拟现实防晕眩系统及方法
US20190378423A1 (en) User interaction with an autonomous unmanned aerial vehicle
CN109298629B (zh) 在未绘制地图区域中引导移动平台的系统及方法
CA2888943C (en) Augmented reality system and method for positioning and mapping
EP2579128B1 (en) Portable device, virtual reality system and method
Zollmann et al. Flyar: Augmented reality supported micro aerial vehicle navigation
CN105931263A (zh) 一种目标跟踪方法及电子设备
CN106355647A (zh) 增强现实系统和方法
US20170003877A1 (en) Method and device for motion-sensing key positioning
CN107972027B (zh) 机器人的定位方法和装置、机器人
CN103616025A (zh) 一种现场人员三维定位导航系统
CN107791251A (zh) 机器人移动控制方法和机器人
EP4261789A1 (en) Method for displaying posture of robot in three-dimensional map, apparatus, device, and storage medium
He et al. Spatial anchor based indoor asset tracking
CN105718066B (zh) 一种可灵活组合的实时光学定位系统
CN102968615A (zh) 一种具有密集人流中的抗干扰功能的三维人体数据识别方法
Jiang et al. A SLAM-based 6DoF controller with smooth auto-calibration for virtual reality
Tikanmäki et al. The remote operation and environment reconstruction of outdoor mobile robots using virtual reality
Piérard et al. I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes
CN108072374A (zh) 导航系统及导航方法
CN107729862B (zh) 机器人视频监控的保密处理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190527

Address after: No. 19, No. 7 Road, Zhending Bay, Sanzao, Jinwan District, Zhuhai City, Guangdong Province

Patentee after: SCT Optronics Company Ltd.

Address before: Room 02, 4th floor, Shengji Industrial Building, 18 Kwai Hing Ding Road, New Territories, Hong Kong, China

Patentee before: ZHUOPAN CO., LTD.

TR01 Transfer of patent right