CN104777908A - 一种用于多人同步定位的装置和方法 - Google Patents
一种用于多人同步定位的装置和方法 Download PDFInfo
- Publication number
- CN104777908A CN104777908A CN201510184051.9A CN201510184051A CN104777908A CN 104777908 A CN104777908 A CN 104777908A CN 201510184051 A CN201510184051 A CN 201510184051A CN 104777908 A CN104777908 A CN 104777908A
- Authority
- CN
- China
- Prior art keywords
- user
- data
- information
- sensor
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了一种用于多人同步定位的装置,包括数据采集模块和同步定位模块,其中,所述数据采集模块,包括至少两类分布式布置的传感器,用于采集关于用户的原始信息,其中,第一类传感器用于采集所述用户的动作信息,第二类传感器用于采集带有用户身份标注的信息;所述同步定位模块,用于接收来自所述数据采集模块的所述原始信息,并按照用户身份关系对其进行分类。本发明相应地提供了一种用于多人同步定位的方法。本发明的技术方案可以在群体交互的情况下,进行大范围、多种类的数据采集,增加允许参与交互的用户数量;实现多人同步定位,进而满足分别响应来自不同用户的交互指令的要求。
Description
技术领域
本发明涉及虚拟现实和人机交互技术领域,具体地说,本发明涉及一种用于多人同步定位的装置和方法。
背景技术
近些年来虚拟现实和人机交互技术得到了较快发展,各类结合使用这两种技术为人类提供便利的系统层出不穷。此类技术在科普教育,军事指挥,游戏娱乐等领域得到了广泛应用。
虽然此类系统具有逼真效果和高沉浸性的优点,但在涉及群体交互的场合,目前其体验者大多只能以观看电影的形式作为被动的接受者进行体验,而不能够参与其中。在很多应用中,如果所有的体验者都能与系统进行互动,体验者之间可以进行竞争或合作,将可以衍生出更有趣或更有意义的应用,比如,在一些儿童互动科普教育的人机互动应用中,如果可以让儿童更乐意参与其中,将会给其留下的更深刻的印象或记忆,达到更好的应用效果。因此,如果在此类系统中加入群体交互,除了会让体验者有身临其境的体验外,还能让他们之间以及他们与系统之间建立互动的通道,显著提高观众参与的积极性和系统的应用范围。但是,目前可以与用户互动的人机交互系统或设备多面向于单人或少数几人在小范围内进行使用,比如,leapmotion,kinect等,或者只能对简单的群体行为进行响应,无法分别响应来自不同用户的交互指令(比如中国专利CN103533445B),已经不能满足虚拟现实系统中进行自然群体交互的互动需要。
目前,现有技术的主要问题在于:采用单一且高度集成化的数据采集装置,使得数据采集的范围相对较小,限制了交互的参与人数,而且在群体交互情况下,由于数据量大,信号存在干扰、时延等因素,无法实现多人同步定位,进而无法分别响应来自不同用户的交互指令。
发明内容
本发明的目的是提供一种能够克服上述技术问题的解决方案。
本发明提供了一种用于多人同步定位的装置,包括:数据采集模块和同步定位模块,其中,所述数据采集模块,包括至少两类分布式布置的传感器,用于采集关于用户的原始信息,其中,第一类传感器用于采集所述用户的动作信息,第二类传感器用于采集带有用户身份标注的信息;所述同步定位模块,用于接收来自所述数据采集模块的所述原始信息,并按照用户身份关系对其进行分类,其中,所述用户身份关系包括相应的信息与与之对应的用户之间的关系,以及各个用户之间的相对位置关系。
优选地,所述数据采集模块还包括:第三类传感器,用于采集带有用户身份标注的所述用户的动作信息。
优选地,所述数据采集模块还包括:同步器,用于接收并同步来自全部或部分所述传感器的数据。
优选地,所述同步定位模块包括:用户区分子模块和用户定位子模块,其中,所述用户区分子模块,用于根据来自不同类传感器的原始信息之中的同种参数对所述原始信息进行分类,将相应的信息与与之对应的所述用户相关联,形成用户信息;所述用户定位子模块,用于根据所述用户信息确定各个用户相对于指定坐标系的空间位置。
优选地,所述同步定位模块还包括:数据预处理子模块,用于对来自所述数据采集模块的所述原始信息进行噪点处理。
相应的,本发明还提供了一种用于多人同步定位的方法,包括:步骤1,采集来自至少两类分布式布置的传感器的关于用户的原始信息,其中,第一类传感器用于采集所述用户的动作信息,第二类传感器用于采集带有用户身份标注的信息;步骤2,将所述原始信息按照用户身份关系分类,其中,所述用户身份关系包括相应的信息与与之对应的用户之间的关系,以及各个用户之间的相对位置关系。
优选地,所述步骤1还包括:对来自全部或部分传感器的数据进行同步。
优选地,所述步骤2进一步包括:根据来自不同类传感器的原始信息之中的同种参数对所述原始信息进行分类,将相应的信息与与之对应的所述用户相关联,形成用户信息;以及根据所述用户信息确定各个用户相对于指定坐标系的空间位置。
优选地,所述步骤2还包括:对所述原始数据进行噪点处理。
与现有技术相比,本发明提出的技术方案具有以下优点:可以在群体交互的情况下,进行大范围、多种类的数据采集,增加允许参与交互的用户数量;实现多人同步定位,进而满足分别响应来自不同用户的交互指令的要求。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图不构成对于本发明的限制。
图1是根据本发明的实施例的系统结构的示意图;
图2是根据本发明的实施例的数据采集装置的示意图;
图3是根据本发明的实施例的交互控制装置的示意图;
图4是根据本发明的实施例的数据有效性判断的流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步地描述。
图1示出了根据本发明的实施例的系统结构示意图。如图1所示,根据本发明的一个实施例,群体交互系统100包括,数据采集装置102、交互控制装置104和显示装置110。其中,数据采集装置102用于采集关于人机交互的原始信息;交互控制装置104用于接收、处理,并分析来自数据采集装置102的原始信息,尤其是其中的用户身份关系,从中获取用户发出的交互控制指令,其中,所述用户身份关系包括相应的信息与与之对应的用户之间的关系,以及各个用户之间的相对位置关系;显示装置110用于接收来自交互控制装置104的交互控制指令,并根据所述指令完成对相应图像的显示。
如图2所示,根据本发明的一个实施例,数据采集装置102包括数据处理模块202、同步器204、光学传感器群206、加速度传感器群212,以及压力传感器或传感器群214(以下简称压力传感器214)。
光学传感器群206包括多组光学传感器。优选地,所述光学传感器是智能光学摄像机。多组智能光学摄像机通过支架架设至预定位置以使群体交互空间中的任意一点在至少两个智能光学摄像机的检测覆盖范围内。所述架设完成之后,通过离线或在线相机标定技术对所述智能光学摄像机进行相机标定。所述标定完成之后,多组智能光学摄像机同时从不同角度采集同一群体交互空间的图像信息,进而采用图像识别技术从获得的图像信息中采集不带有用户标注信息的用户的特定肢体部位的位置信息。以用户的手部为例,每个智能光学摄像机通过图像识别技术对其单独获取到的图像信息中的用户的手部进行识别,将识别后得到带有时间戳参数t的数据发送给同步器204。同步器204将来自不同的智能光学摄像机的数据,根据其中的时间戳参数t进行分组和对齐,以消除不同传感器之间的时延以及数据丢帧对数据的不良影响,进而有效提高数据采集的效果。同步器204的实现属于现有技术,可以通过软件编程实现,也可以是一个独立的用于数据同步的硬件设备,故其技术细节在此不予赘述。同步器204对所述数据进行上述处理之后将其发送给数据处理模块202。数据处理模块202通过计算同步后来自不同的智能光学摄像机的图像识别结果之间的差异性进而确定群体交互空间中的相应手部的三维空间位置信息(x,y,z,t),并将该信息发送给交互控制装置104。所述位置信息为用户的手部上的某一点,优选地,可以为用户手部的中心点。优选地,在用户持有标志物的情况下,所述位置信息为所述标志物的空间位置信息。所述位置信息中的x,y,z为用户的手部相对于指定原点的空间位置,t为当前时刻的时间戳。由于现有的智能摄像机系统均对所述相机定标和对于识别对象的三维空间位置的确定方法进行了封装,这两处所涉及的计算方法属于现有技术,故在此其不再赘述。在同一时间段内,光学传感器群206采集到的手部的位置信息(x,y,z,t)可能有一组到多组,是不带有用户标记的手部的运动轨迹信息。根据本发明的一个实施例,在适当的条件下,可以使用红外深度传感器部分或全部替代所述光学传感器。
加速度传感器群212包括多个或者多组加速度传感器。加速度传感器群212用于采集带有用户标注信息的用户的特定肢体部位的加速度信息(m,a,t),其中m为用户序号,a为加速度,t为当前时间的时间戳。以用户的手部为例,所述加速度传感器由用户手持。在同一时刻,加速度传感器群212采集到的用户的手部的加速度信息(m,a,t)可能有一个到多个,分别是与参与交互的不同用户一一对应的的手部运动的加速度信息。如图2所示,加速度传感器群212直接将其采集到的上述原始数据发送给数据处理模块202。数据处理模块202接收该数据,并将其发送给交互控制装置104。
压力传感器214类似于地毯的形式平铺并布满于群体交互空间的区域内,使该区域成为压力传感器214的检测区域。压力传感器214根据用户首次进入该检测区域中时的初始位置标注用户信息,跟踪并记录用户活动过程,得到连续的用户活动轨迹。压力传感器214采集到的是带有用户信息标注的用户位置信息(m,x’,y’,t),其中m为用户序号,x’,y’为用户相对于指定原点的平面位置,t为当前时间的时间戳。在同一时刻,压力传感器214采集到的用户位置信息(m,x’,y’,t)可能有一个到多个,分别是参与交互的不同用户在所述检测区域中当前时刻所处的位置的信息。如图2所示,压力传感器214直接将其采集到的上述原始数据发送给数据处理模块202。数据处理模块202接收该数据,并将其发送给交互控制装置104。
通过分布式布置的多组传感器,可以有效扩大数据采集的范围,进而满足多人同时参与人机交互的要求。通过使用多种传感器,可以采集关于人机交互的多方面的信息,以使群体交互系统100能够更加准确地对用户发出的相对复杂的交互控制信息进行识别,提高群体交互的自然性。
图3示出了根据本发明的实施例的交互控制装置的示意图。如图3所示,根据本发明的一个实施例,交互控制装置104包括用户区分模块302、用户定位模块304、数据有效性判断模块306和指令识别模块308。
根据本发明的一个实施例,用户区分模块302结合来自加速度传感器群212和光学传感器群206的信息完成对所述原始数据的用户区分。为叙述方便,仍以传感器以用户的手部作为其采集数据所针对的用户的特定肢体部位为例。用户区分模块302根据光学传感器群206采集到的手部的空间位置信息(x,y,z,t)计算出该手部运动的加速度。具体而言,假设光学传感器每秒采集用户数据的帧数为N,则相邻两帧的手部空间位置数据对应的时间间隔为1/N。假设根据所述空间位置信息计算得到的相邻两帧(第i-1帧与第i帧)的距离为si。进而得到第i帧采集点的速度vi=si/(1/N),同理,vi-1=si-1/(1/N),进而得到第i帧采集点的加速度Ai=(vi-vi-1)/(1/N)。依此算法,在一段确定的时间长度内(比如需要用户以手部发出交互控制信息的时间段),对于某一个用户的一只手来说,用户区分模块302通过计算该时间段内光学传感器群206采集到的该手部的运动轨迹中的相应时刻的加速度,进而获得一组加速度值。之后,用户区分模块302根据时间戳参数信息,从加速度传感器群212采集到的数据中筛选出相同时间段的每个用户的加速度数据,并将每个用户在该时间段的加速度值与前述由来自光学传感器群206的数据计算得到的加速度值进行比较,进而将其中在允许的误差范围内与所述来自光学传感器群206的该组加速值一致的来自加速度传感器群212的加速度数据(m,a,t)对应的用户序号m标注到该时间段对应的运动轨迹的数据(x,y,z,t)上,进而获得关联后的用户数据(m,x,y,z,t)。从而完成对所述原始数据的用户区分。通过在光学传感器群206对用户的动作的采集的数据的基础上,结合能够准确对用户身份进行标注的加速度传感器群212的数据,进而对单独使用光学传感器获得的数据,形成了良好的补充。进而大大减少由于数据量大、信号干扰等因素而可能出现的难以区分用户的情况。用户定位模块304根据所述关联后的用户数据(m,x,y,z,t)以及来自光学传感器群206的指定坐标系的信息确定在相应时刻各用户相对于所述指定坐标系的空间位置。
根据本发明的一个实施例,用户区分模块302根据来自压力传感器214和光学传感器群206的信息完成对所述原始数据的用户区分。为叙述方便,仍以光学传感器群206以用户的手部作为其采集数据所针对的用户的特定肢体部位为例。用户区分模块302首先分别获取压力传感器214与光学传感器群206采集数据时指定的坐标系的相关参数,进而将压力传感器214所采集数据的坐标系通过平移变换变换为光学传感器群206所采集数据的坐标系。然后,用户区分模块302计算同一时刻光学传感器群206的采集点与与变换后的压力传感器214的采集点之间的距离差,将相应的光学传感器群206的数据(x,y,z,t)标注为距离其最近的压力传感器214的坐标变换前的原数据(m,x’,y’)所对应的用户m,进而得到关联后的用户数据(m,x,y,z,t),从而完成对所述原始数据的用户区分。用户区分模块302的具体计算过程如下,例如,假设参与交互的用户为5人,下面是在某时刻的光学传感器数据和已经过坐标变换后的压力传感器数据。假设坐标系为(x,y,z)。
光学传感器数据结构为oi=(xi,yi,zi,t)
o1=(1,1.1,2,50) o2=(1,2.9,1.7,50) o3=(2,0.9,1.6,50)
o4=(2,2,2,50) o5=(1,2.1,1.8,50)
压力传感器数据结构为pj=(mj,xj,yj,t)
p1=(1,1,1,50) p2=(2,1,2,50) p3=(3,1,3,50)
p4=(4,2,1,50) p5=(5,2,2,50)
由以上数据可知,所有数据的时间戳信息均为50,通过计算并比较光学传感器数据中的点(xi,yi)与压力传感器数据中的点(xj,yj)的任意两者之间的距离差即可根据相应结果所对应的点oi和pj得知o1与p1距离最小,o2与p3距离最小,o3与p4距离最小,o4与p5距离最小,o5与p2距离最小。进而对光学传感器数据添加相应的用户标注以完成用户区分,进而得到用户数据:o1=(1,1,1.1,2,50),o2=(3,1,2.9,1.7,50),o3=(4,2,0.9,1.6,50),o4=(5,2,2,2,50),o5=(2,1,2.1,1.8,50)。
通过在光学传感器群206对用户的动作的采集的数据的基础上,结合能够准确对用户身份进行标注的压力传感器214的数据,进而对单独使用光学传感器获得的数据,形成了良好的补充,进而大大减少由于数据量大、信号干扰等因素而可能出现的难以区分用户的情况。
用户定位模块304根据所述关联后的用户数据(m,x,y,z,t)以及所述光学传感器群206采集数据时的指定坐标系的信息确定在相应时刻各用户相对于该指定坐标系的空间位置。
数据有效性判断模块306用于根据预设的条件,从用户数据包含的交互控制信息中区分出有效的交互控制信息和无效的交互控制信息,并将无效的交互控制信息从用户数据中剔除。仍以所述交互控制信息为用户做出的手部动作(即手势)的情况为例,如图4所示,数据有效性判断模块306首先根据所述用户数据中手部动作的运动轨迹计算出相应位置的运动速度(相关的计算方法和步骤与前述用户区分模块302计算采集点的速度的方法类似,在此不再赘述),进而判断出其中的停顿点,即速度值为零的采集点,并以所述停顿点持续出现一段预定的时间(比如5-15帧)为标准将连续的手部动作数据划分为相应的数据段,进而形成单独的手势数据。之后,数据有效性判断模块306综合预先建立的有效手势模型和阈值模型进行判断,即将划分后的单独的手势数据分别代入所述的有效手势模型和阈值模型进行计算。当在阈值模型中进行计算的结果小于有效手势模型的结果时将相应的手势数据识别为有效手势(即有效的交互控制信息),否则判断相应的手势为冗余手势(即无效的交互控制信息),且对其进行拒识。所述阈值模型是对所述冗余手势建立的,在原始隐马尔可夫模型的基础上综合所有有效手势的隐马尔可夫模型建立的一个遍历模型。所述阈值模型的隐状态由所有有效手势模型的状态组成。所述阈值模型中包含所有有效手势模型的隐状态路径,同时每个有效手势模型的隐状态可以转移到其他有效手势模型的隐状态。其中,假设所述冗余手势是有效手势模型内各隐状态的组合。冗余手势在所述阈值模型中求得的概率或相似度大于各个有效手势在所述阈值模型中求得的概率或相似度。优选地,阈值模型中的相关参数设定如表1所示,其中,d为在离线训练和在线识别时对数据进行特征提取的特征值的种类数,B矩阵为有效手势模型的状态转移概率矩阵,G为有效手势模型的个数。
表1
参数 | 含义 | 取值 |
NTM | 状态数目 | 各个手势隐状态数目和 |
MTM | 每个状态可能的观察值数目 | d |
ATM | 与时间无关的状态转移概率矩阵 | 1/NTM |
BTM | 给定状态下,观察值概率分布 | 拼合各个手势模型的B矩阵 |
πTM | 初始状态空间的概率分布 | 各模型初始状态概率分布/G |
此处的阈值模型还可以采用其他能够达到相似效果的现有技术实现,比如采用条件随机场模型实现。
指令识别模块308用于根据预设的对应关系,对被保留的有效的交互控制信息通过,诸如,模版匹配、建立统计学模型等现有方法识别出与其对应的交互控制指令。比如交互控制信息为用户做出的手势的情况下,指令识别模块308根据通过机器学习的方式针对有效手势进行训练而事先建立的训练模型,通过将区分出的有效手势带入所述训练模型完成识别出与之对应的交互控制指令的操作。不同的有效交互控制信息与特定的交互控制指令之间具有映射关系。所述交互控制信息可以包括用户的动作信息。所述交互控制指令可以包括预设的能够被计算机执行的程序、命令或代码。
根据本发明的一个实施例,交互控制模块104还包括数据预处理模块(未在图3中示出),用于对来自数据采集装置102的原始数据进行噪点处理,进而减少数据采集时信号干扰等因素对后续数据处理的影响。所述噪点处理属于现有技术,可以基于模式识别领域离群点检测和处理的方法来实现。
根据本发明的一个实施例,群体交互系统100还包括图像存储装置(未在图1中示出)用于保存图像数据112,并将图像数据112发送给显示装置110。根据本发明的另一个实施例,图像数据112也可以保存于独立于群体交互系统100的外部存储设备中,通过该外部存储设备与群体交互系统100之间的数据通信,将图像数据112提供给显示装置110。
进一步地,根据本发明的一个实施例,图像数据112包括若干预制影片。显示装置110依据预设的所述交互控制指令与所述预设影片之间的映射关系,根据其接收到的来自交互控制装置104的交互控制指令,选择并呈现对应的预制影片。
进一步地,根据本发明的另一个实施例,图像数据112包括若干预制的场景文件。显示装置110包括渲染模块和显示模块(均未在图1中示出)。所述渲染模块用于依据预设的所述交互控制指令和不同的渲染任务之间的映射关系,根据其接收到的来自交互控制装置104的交互控制指令,结合对应的所述预制的场景文件,执行对应的渲染任务。所述渲染模块可以包括并行的渲染服务器集群。所述显示模块用于将所述渲染模块渲染完成的内容呈现给参与交互的用户。
根据本发明的一个实施例,所述显示装置110可以包括下述显示设备中一个或其组合:影院大屏幕、球幕、环幕等投影显示设备,以及台式机/笔记本显示器、手机/平板电脑屏幕、虚拟现实头盔/眼镜、广告屏幕等显示设备,或者其他任何适于完成对于群体交互系统100需要呈现给参与交互的用户的图像的呈现的显示设备。
应用上述实施例所述的群体交互系统,可以在群体交互的情况下,通过大范围、多种类的数据采集,增加允许参与交互的用户数量;实现多人同步定位和对复杂用户指令中的有效用户指令的准确识别,并根据不同用户的指令对呈现的内容实时地做出改变。
以上所述仅为本发明示意性的具体实施方式,并非用以限定本发明的范围。任何本领域的技术人员,在不脱离本发明的构思和原则的前提下所作的等同变化、修改与结合,均应属于本发明保护的范围。
Claims (9)
1.一种用于多人同步定位的装置,其特征在于,所述装置包括:数据采集模块和同步定位模块,其中,
所述数据采集模块,包括至少两类分布式布置的传感器,用于采集关于用户的原始信息,其中,第一类传感器用于采集所述用户的动作信息,第二类传感器用于采集带有用户身份标注的信息;
所述同步定位模块,用于接收来自所述数据采集模块的所述原始信息,并按照用户身份关系对其进行分类,其中,所述用户身份关系包括相应的信息与与之对应的用户之间的关系,以及各个用户之间的相对位置关系。
2.根据权利要求1所述的装置,其特征在于,所述数据采集模块还包括:
第三类传感器,用于采集带有用户身份标注的所述用户的动作信息。
3.根据权利要求1或2所述的装置,其特征在于,所述数据采集模块还包括:
同步器,用于接收并同步来自全部或部分所述传感器的数据。
4.根据权利要求1所述的装置,其特征在于,所述同步定位模块包括:用户区分子模块和用户定位子模块,其中,
所述用户区分子模块,用于根据来自不同类传感器的原始信息之中的同种参数对所述原始信息进行分类,将相应的信息与与之对应的所述用户相关联,形成用户信息;
所述用户定位子模块,用于根据所述用户信息确定各个用户相对于指定坐标系的空间位置。
5.根据权利要求1或4所述的装置,其特征在于,所述同步定位模块还包括:
数据预处理子模块,用于对来自所述数据采集模块的所述原始信息进行噪点处理。
6.一种用于多人同步定位的方法,其特征在于,所述方法包括:
步骤1,采集来自至少两类分布式布置的传感器的关于用户的原始信息,其中,第一类传感器用于采集所述用户的动作信息,第二类传感器用于采集带有用户身份标注的信息;
步骤2,将所述原始信息按照用户身份关系分类,其中,所述用户身份关系包括相应的信息与与之对应的用户之间的关系,以及各个用户之间的相对位置关系。
7.根据权利要求6所述的方法,其特征在于,所述步骤1还包括:
对来自全部或部分传感器的数据进行同步。
8.根据权利要求6所述的方法,其特征在于,所述步骤2进一步包括:
根据来自不同类传感器的原始信息之中的同种参数对所述原始信息进行分类,将相应的信息与与之对应的所述用户相关联,形成用户信息;以及
根据所述用户信息确定各个用户相对于指定坐标系的空间位置。
9.根据权利要求6至8中任一项所述的方法,其特征在于,所述步骤2还包括:
对所述原始数据进行噪点处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510184051.9A CN104777908B (zh) | 2015-04-17 | 2015-04-17 | 一种用于多人同步定位的装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510184051.9A CN104777908B (zh) | 2015-04-17 | 2015-04-17 | 一种用于多人同步定位的装置和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104777908A true CN104777908A (zh) | 2015-07-15 |
CN104777908B CN104777908B (zh) | 2018-04-27 |
Family
ID=53619424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510184051.9A Active CN104777908B (zh) | 2015-04-17 | 2015-04-17 | 一种用于多人同步定位的装置和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104777908B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106125903A (zh) * | 2016-04-24 | 2016-11-16 | 林云帆 | 多人交互系统及方法 |
CN106959108A (zh) * | 2017-03-23 | 2017-07-18 | 联想(北京)有限公司 | 位置确定方法、系统及电子设备 |
CN108156581A (zh) * | 2017-12-25 | 2018-06-12 | 北京木业邦科技有限公司 | 客户信息获取方法、装置及智能地面系统 |
CN109117882A (zh) * | 2018-08-10 | 2019-01-01 | 北京旷视科技有限公司 | 获取用户轨迹的方法、装置、系统和存储介质 |
CN110085076A (zh) * | 2019-03-18 | 2019-08-02 | 中国人民解放军第四军医大学 | 一种勇敢品质训练系统及训练方法 |
CN115657860A (zh) * | 2022-12-09 | 2023-01-31 | 环球数科集团有限公司 | 一种用于元宇宙的动作交互延迟处理系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102147903A (zh) * | 2010-02-05 | 2011-08-10 | 李久进 | 基于地理位置的互联网信息聚合、推送和交互的方法 |
CN102647661A (zh) * | 2011-02-22 | 2012-08-22 | 三星电子(中国)研发中心 | 发送终端实时状态的方法和基于实时状态进行互动的方法 |
CN102821352A (zh) * | 2011-06-07 | 2012-12-12 | 上海盛畅网络科技有限公司 | 基于位置的实时互动系统及方法 |
CN103116435A (zh) * | 2011-11-17 | 2013-05-22 | 苏州蜗牛数字科技股份有限公司 | 适用于网络游戏的3d-sns交互系统 |
-
2015
- 2015-04-17 CN CN201510184051.9A patent/CN104777908B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102147903A (zh) * | 2010-02-05 | 2011-08-10 | 李久进 | 基于地理位置的互联网信息聚合、推送和交互的方法 |
CN102647661A (zh) * | 2011-02-22 | 2012-08-22 | 三星电子(中国)研发中心 | 发送终端实时状态的方法和基于实时状态进行互动的方法 |
CN102821352A (zh) * | 2011-06-07 | 2012-12-12 | 上海盛畅网络科技有限公司 | 基于位置的实时互动系统及方法 |
CN103116435A (zh) * | 2011-11-17 | 2013-05-22 | 苏州蜗牛数字科技股份有限公司 | 适用于网络游戏的3d-sns交互系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106125903A (zh) * | 2016-04-24 | 2016-11-16 | 林云帆 | 多人交互系统及方法 |
CN106125903B (zh) * | 2016-04-24 | 2021-11-16 | 林云帆 | 多人交互系统及方法 |
CN106959108A (zh) * | 2017-03-23 | 2017-07-18 | 联想(北京)有限公司 | 位置确定方法、系统及电子设备 |
CN108156581A (zh) * | 2017-12-25 | 2018-06-12 | 北京木业邦科技有限公司 | 客户信息获取方法、装置及智能地面系统 |
CN108156581B (zh) * | 2017-12-25 | 2024-02-23 | 北京木业邦科技有限公司 | 客户信息获取方法、装置及智能地面系统 |
CN109117882A (zh) * | 2018-08-10 | 2019-01-01 | 北京旷视科技有限公司 | 获取用户轨迹的方法、装置、系统和存储介质 |
CN109117882B (zh) * | 2018-08-10 | 2022-06-03 | 北京旷视科技有限公司 | 获取用户轨迹的方法、装置、系统和存储介质 |
CN110085076A (zh) * | 2019-03-18 | 2019-08-02 | 中国人民解放军第四军医大学 | 一种勇敢品质训练系统及训练方法 |
CN115657860A (zh) * | 2022-12-09 | 2023-01-31 | 环球数科集团有限公司 | 一种用于元宇宙的动作交互延迟处理系统 |
CN115657860B (zh) * | 2022-12-09 | 2023-03-07 | 环球数科集团有限公司 | 一种用于元宇宙的动作交互延迟处理系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104777908B (zh) | 2018-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104777908B (zh) | 一种用于多人同步定位的装置和方法 | |
CN111488773B (zh) | 一种动作识别方法、装置、设备及存储介质 | |
CN102681661B (zh) | 在玩游戏中使用三维环境模型 | |
CN110428449B (zh) | 目标检测跟踪方法、装置、设备及存储介质 | |
CN102426480A (zh) | 一种人机交互系统及其实时手势跟踪处理方法 | |
CN101251784A (zh) | 激光笔指示与光点轨迹识别方法 | |
CN101539804A (zh) | 基于增强虚拟现实与异型屏的实时人机互动方法及系统 | |
Li et al. | Sign language recognition based on computer vision | |
CN105528082A (zh) | 三维空间及手势识别追踪交互方法、装置和系统 | |
CN110555408B (zh) | 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法 | |
CN105107200B (zh) | 基于实时深度体感交互与增强现实技术的变脸系统及方法 | |
CN104317391A (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
CN115933868B (zh) | 翻转讲台的立体综合教学场系统及其工作方法 | |
CN103105924B (zh) | 人机交互方法和装置 | |
CN103207709A (zh) | 一种多点触摸系统及方法 | |
CN102184008A (zh) | 互动投影系统及方法 | |
KR20210108044A (ko) | 디지털 트윈 기술을 위한 영상 분석 시스템 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN110348370B (zh) | 一种人体动作识别的增强现实系统及方法 | |
CN203630822U (zh) | 虚拟影像与真实场景相结合的舞台交互集成系统 | |
CN108898612A (zh) | 基于多智能体深度增强学习的多目标跟踪方法 | |
CN112069943A (zh) | 基于自顶向下框架的在线多人姿态估计与跟踪方法 | |
CN104777907A (zh) | 一种用于群体人机交互的系统 | |
CN110659544A (zh) | 一种基于非参数时空上下文轨迹模型的奶牛行为识别方法 | |
Zhao et al. | Classifying in-place gestures with end-to-end point cloud learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |