CN104598036B - 一种信息处理方法及装置 - Google Patents

一种信息处理方法及装置 Download PDF

Info

Publication number
CN104598036B
CN104598036B CN201510093083.8A CN201510093083A CN104598036B CN 104598036 B CN104598036 B CN 104598036B CN 201510093083 A CN201510093083 A CN 201510093083A CN 104598036 B CN104598036 B CN 104598036B
Authority
CN
China
Prior art keywords
displacement
user
moving displacement
distance
environment space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510093083.8A
Other languages
English (en)
Other versions
CN104598036A (zh
Inventor
李立纲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201510093083.8A priority Critical patent/CN104598036B/zh
Publication of CN104598036A publication Critical patent/CN104598036A/zh
Application granted granted Critical
Publication of CN104598036B publication Critical patent/CN104598036B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供了一种信息处理方法和装置,应用于头戴式设备中,所述方法包括:在用户佩戴所述头戴式设备时,获取用户头部发生运动时的运动参数;获取环境空间信息;利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后的位置信息。本申请实施例提高了用户头部位置信息获取的准确性,使得用户头部追踪结果更准确。

Description

一种信息处理方法及装置
技术领域
本申请涉及电子技术领域,更具体的说是涉及一种信息处理方法及装置。
背景技术
头戴式智能设备是指利用穿戴式技术对头戴式设备进行智能化设计,而开发出的智能设备,例如智能眼镜等。
用户在佩戴头戴式智能设备时,观看头戴式设备输出的显示内容时,用户所观看到的显示内容的视觉成像空间与显示单元的显示界面并不相同。在用户视角上,用户所观看的显示内容即为虚拟内容,虚拟内容被叠加到用户观看的现实环境之上,从而可以实现虚实结合。
在实现虚拟结合时,需要追踪用户头部的位置信息,现有技术中,通常是通过运动传感器采集用户头部运动时的运动参数等,以此计算得到用户头部的位置信息,由于用户头部位置追踪是一个长时间的过程,运动参数传感器采集的运动参数会存在一定的误差,长时间的误差累积,即会导致追踪结果的不准确。
发明内容
有鉴于此,本申请提供了一种信息处理方法和装置,提高了用户头部位置信息获取的准确性,进而提高了追踪结果的准确性。
为实现上述目的,本申请提供如下技术方案:
一种信息处理方法,应用于头戴式设备中,所述方法包括:
在用户佩戴所述头戴式设备时,获取用户头部发生运动时的运动参数;
获取环境空间信息;
利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后的位置信息。
优选地,所述利用所述运动参数以及所述环境空间信息,获得所述用户头部在所述环境空间信息中位置信息包括:
利用所述运动参数,计算所述用户头部发生运动时从初始位置移动至当前位置的第一移动位移;
利用所述环境空间信息,获得所述用户头部发生运动时,从所述初始位置移动至所述当前位置的第二移动位移;
利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移;
利用所述第三移动位移以及所述初始位置,获得当前位置。
优选地,所述运动参数包括加速度和/角速度;
所述环境空间信息包括所述用户头部距离环境空间中第一固定物体的距离和/或与所述第一固定物体之间夹角信息。
优选地,所述利用所述环境空间信息,获得所述用户头部发生运动时,从初始位置移动至当前位置的第二移动位移包括:
获得所述用户头部在初始位置时,距离环境空间中第一固定物体的第一距离;
获得所述用户头部发生运动时,在当前位置距离环境空间中所述第一固定物体的第二距离;
获得所述第一距离以及所述第二距离之间的夹角信息;
利用所述第一距离、所述第二距离以及所述夹角信息,计算得到所述第二移动位移。
优选地,所述利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移包括:
比较所述第一移动位移以及所述第二移动位移;
在所述第一移动位移与所述第二移动位移的差值在误差允许范围内,确定所述第一移动位移或所述第二移动位移作为第三移动位移;
在所述第一移动位移与所述第二移动位移的差值不在误差允许范围内,利用所述第一移动位移以及所述第二移动位移,计算得到第三移动位移。
一种信息处理装置,应用于头戴式设备中,包括:
参数获取模块,用于在用户佩戴所述头戴式设备时,获取用户头部发生运动时的运动参数;
信息获取模块,用于获取环境空间信息;
位置计算模块,用于利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后在所述环境空间中的位置信息。
优选地,所述位置计算模块包括:
第一位移获取单元,用于利用所述运动参数,计算所述用户头部发生运动时从初始位置移动至当前位置的第一移动位移;
第二位移获取单元,用于利用所述环境空间信息,获得所述用户头部发生运动时,从所述初始位置移动至所述当前位置的第二移动位移;
第三位移获取单元,用于利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移;
计算单元,用于利用所述第三移动位移以及所述初始位置,获得当前位置。
优选地,所述运动参数包括加速度和/或角速度;
所述环境空间信息包括所述用户头部距离环境空间中第一固定物体的距离和/或与所述第一固定物体之间夹角信息。
优选地,所述第二位移获取单元包括:
第一距离获取单元,用于获得所述用户头部在初始位置时,距离环境空间中第一固定物体的第一距离;
第二距离获取单元,用于获得所述用户头部发生运动时,在当前位置距离环境空间中所述第一固定物体的第二距离;
夹角获取单元,用于获得所述第一距离以及所述第二距离之间的夹角信息;
第二位移获取子单元,用于利用所述第一距离、所述第二距离以及所述夹角信息,计算得到所述第二移动位移。
优选地,所述第三位移获取单元包括:
比较单元,用于比较所述第一移动位移以及所述第二移动位移;
第三位移获取子单元,用于在所述第一移动位移与所述第二移动位移的差值在误差允许范围内,确定所述第一移动位移或所述第二移动位移作为第三移动位移;在所述第一移动位移与所述第二移动位移的差值不在误差允许范围内,利用所述第一移动位移以及所述第二移动位移,计算得到第三移动位移。
经由上述的技术方案可知,与现有技术相比,本申请提供了一种信息处理方法及装置,应用于头戴式设备中,用户佩戴头戴式设备时,获取用户头部发生运动时的运动参数,并获取环境空间信息,从而利用环境空间信息以及运动参数获得用户头部发生运动之后的位置信息。相较于现有技术中,仅利用运动参数计算用户位置信息的方式,本申请实施例可以弥补通用运动参数计算位置信息带来的误差问题,可以使得获得的用户头部的位置更准确,从而使得追踪更准确。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的一种信息处理方法一个实施例的流程图;
图2为本申请实施例提供的一种信息处理方法又一个实施例的流程图;
图3为本申请实施例提供的一种信息处理装置一个实施例的结构示意图;
图4为本申请实施例提供的一种信息处理装置又一个实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中,用户佩戴头戴式设备时,获取用户头部发生运动时的运动参数,并获取环境空间信息,从而利用环境空间信息以及运动参数获得用户头部发生运动之后的位置信息。相较于现有技术中,仅利用运动参数计算用户位置信息的方式,本申请实施例可以弥补通用运动参数计算位置信息带来的误差问题,可以使得获得的用户头部的位置更准确,从而使得追踪更准确。
下面结合附图,对本申请实施方案进行详细描述。
图1为本申请实施例提供的一种信息处理方法一个实施例的流程图,本申请实施例技术方案具体应用于头戴式设备中。
该方法可以包括以下几个步骤:
101:在用户佩戴所述头戴式设备时,获取用户头部发生运动时的运动参数。
102:获取环境空间信息。
103:利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后的位置信息。
本申请实施例中,环境空间信息可以包括头戴式设备距离环境中一个固定物体的距离、角度和/或位置关系等信息。该固定物体例如可以是墙等。
在现有技术中,仅是根据用户头部发生运动时的运动参数获得用户头部的位置信息,但是由于运动参数是运动参数传感器采集的,长期对头部进行追踪,会存在误差,导致追踪结果不准确。
因此,本申请实施例中,是利用运动参数以及环境空间信息,获得用户头部发生运动之后的位置信息
结合环境空间信息以及运动参数,可以弥补利用运动参数计算得到的用户头部位置产生误差,使得获得的用户头部的位置更准确,从而使得追踪更准确。
用户头部发生运动可以是指相对初始位置发送位置变化。该初始位置可以是指用户头部追踪过程中已知的任一个位置。其源位置,即用户刚佩戴头戴式设备时的位置可以通过传感器获得倾斜角度以及用户朝向等,确定的一个位置。
用户的位置可以是指相对其所在环境空间中的位置。
其中,利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后在环境空间中的位置信息可以有多种实现方式。作为一种可能的实现方式,可以为:
利用所述运动参数,计算所述用户头部发生运动时从初始位置移动至当前位置的第一移动位移;
利用所述环境空间信息,获得所述用户头部发生运动时,从所述初始位置移动至所述当前位置的第二移动位移;
利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移;
利用所述第三移动位移以及所述初始位置,获得当前位置。
其中,初始位置已知,用户头部发生运动之后的位置信息即是为了确定从初始位置发生移动之后,所在的当前位置。
首先利用运动参数,可以计算得到用户头部从初始位置移动至当前位置的位移,为了方便区分,此处命名为第一移动位移。
运动参数可以包括加速度和/角速度等,加速度是用户头部发生前后移动时采集的参数,角速度是用户头部发生旋转移动时采集的参数。
利用运动参数计算第一移动位移的方式与现有技术相同,在此不再赘述。
而利用环境空间信息,也可以获得用户头部从初始位置发生移动之后,移动至当前位置的位移,此处命名为第二移动位移。
从而可以利用第二移动位移对第一移动位移进行校正,以活动第三移动位移,该第三移动位移即是一个可以准确的用户头部从初始位置移动至当前位置的移动位置,从而利用第三移动位置以及该初始位置既可以得到当前位置。
当前位置又可以作为初始位置,触发执行获取用户头部发生运动时运动参数。
其中,利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移,可以是将第一移动位移以及第二移动位移进行加权求和得到的值,得到第三移动位移。
例如第一移动位移用X表示,第二移动位置用Y表示,第三移动位移用Z表示,
则Z=aX+bY;
其中,a和b均大于等于0,小于等于1。
a和b均为二分之一时,即第三移动位移为第一移动位移和第二移动位移的平均值。
当然第三移动位移还可以利用其他公式获得,能够利用第二移动位移实现对第一移动位移的校正即可。
其中,利用利用所述环境空间信息,计算第二移动位移可以有多种可能方式,如图2所示的本申请实施例提供的信息处理方法又一个实施例中,示出了一种可能的实现方式。该方法可以包括以下几个步骤:
101:在用户佩戴所述头戴式设备时,获取用户头部发生运动时的运动参数。
102:获取环境空间信息。
201:利用所述运动参数,获得计算所述用户头部发生运动时从初始位置移动至当前位置的第一移动位移。
所述运动参数可以包括加速度和/角速度。
第一移动位移的计算与现有技术相同,在此不再赘述。
202:获得所述用户头部在初始位置时,距离环境空间中第一固定物体的第一距离。
203:获得所述用户头部发生运动时,在当前位置距离环境空间中所述第一固定物体的第二距离。
204:获得所述第一距离以及所述第二距离之间的夹角信息。
205:利用所述第一距离、所述第二距离以及所述夹角信息,计算得到所述第二移动位移。
其中,环境空间信息可以包括所述用户头部距离环境空间中第一固定物体的距离和/或与所述第一固定物体之间夹角信息。
从而根据用户头部在初始位置时,距离第一固定物体的第一距离以及在当前位置时的第二距离,以及夹角信息,从而即可以计算得到第二移动位移。
环境空间信息可以通过深度摄像头等空间检测传感器检测获得。
206:比较所述第一移动位移以及所述第二移动位移。
207:在所述第一移动位移与所述第二移动位移的差值在误差允许范围内,确定所述第一移动位移或所述第二移动位移作为第三移动位移。
208:在所述第一移动位移与所述第二移动位移的差值不在误差允许范围内,利用所述第一移动位移以及所述第二移动位移,计算得到第三移动位移。
其中,利用第一移动位移以及第二移动位移,计算得到第三移动位移可以参见上述实施例中所述。
作为一种可能的实现方式,该第三移动位移可以是第一移动位移以及第二移动位移的平均值。
209:利用所述第三移动位移以及所述初始位置,获得当前位置。
本实施例中,首先对第一移动位移以及第二移动位移进行比较,如果差值在误差允许范围内,则表明第一移动位移在误差允许范围内,并没有存在随着时间的累积而导致结果失误,可以直接作为计算当前位置的位移信息。此时即可以选择第一移动位移以及第二移动位移中的任意一个作为第三移动位移。
而如果差值不在误差允许范围内,则表明第一移动位移存在误差,不能直接用来计算位置,需要利用第二移动位移对其进行校正,则可以利用第一移动位移以及第二移动位移,计算得到第三移动位移。
当然,差值在误差允许范围内时,也可以利用第一移动位移以及第二移动位移,计算得到第三移动位移,例如通过求加权和等,如选择第一移动位移和第二移动位移的平均值作为第三移动位移,以进一步提高结果的准确性。
对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
图3为本申请实施例提供的一种信息处理装置一个实施例的结构示意图,该装置具体应用于头戴式设备中,其可以集成到头戴式设备的处理器中,作为处理器可以实现的一个功能,也可以作为独立的模块与所述处理器连接。
该装置可以包括:
参数获取模块301,用于在用户佩戴所述头戴式设备时,获取用户头部发生运动时的运动参数。
信息获取模块302,用于获取环境空间信息。
位置计算模块303,用于利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后在所述环境空间中的位置信息。
本申请实施例中,结合环境空间信息以及运动参数,可以弥补利用运动参数计算得到的用户头部位置产生误差,使得获得的用户头部的位置更准确,从而使得追踪更准确。
用户头部发生运动可以是指相对初始位置发送位置变化。该初始位置可以是指用户头部追踪过程中已知的任一个位置。其源位置,即用户刚佩戴头戴式设备时的位置可以通过传感器获得倾斜角度以及用户朝向等,确定的一个位置。
用户的位置可以是指相对其所在环境空间中的位置。
其中,位置信息计算模块利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后在环境空间中的位置信息可以有多种实现方式,作为一种可能的实现方式,如图4所示,在本申请实施例提供的信息处理装置又一个实施例中,
该位置计算模块303可以包括:
第一位移获取单元401,用于利用所述运动参数,计算所述用户头部发生运动时从初始位置移动至当前位置的第一移动位移。
所述运动参数可以包括加速度和/角速度。
第一移动位移的计算与现有技术相同,在此不再赘述。
第二位移获取单元402,用于利用所述环境空间信息,获得所述用户头部发生运动时,从所述初始位置移动至所述当前位置的第二移动位移;
第三位移获取单元403,用于利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移;
计算单元404,用于利用所述第三移动位移以及所述初始位置,获得当前位置。
其中,初始位置已知,用户头部发生运动之后的位置信息即是为了确定从初始位置发生移动之后,所在的当前位置。
首先利用运动参数,可以计算得到用户头部从初始位置移动至当前位置的位移,为了方便区分,此处命名为第一移动位移。
运动参数可以包括加速度和/角速度等,加速度是用户头部发生前后移动时采集的参数,角速度是用户头部发生旋转移动时采集的参数。
利用运动参数计算第一移动位移的方式与现有技术相同,在此不再赘述。
而利用环境空间信息,也可以获得用户头部从初始位置发生移动之后,移动至当前位置的位移,此处命名为第二移动位移。
从而可以利用第二移动位移对第一移动位移进行校正,以活动第三移动位移,该第三移动位移即是一个可以准确的用户头部从初始位置移动至当前位置的移动位置,从而利用第三移动位置以及该初始位置既可以得到当前位置。
当前位置又可以作为初始位置,触发执行获取用户头部发生运动时运动参数。
其中,第三位移获取单元403利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移,可以具体是将第一移动位移以及第二移动位移进行加权求和得到的值,得到第三移动位移。
例如第一移动位移用X表示,第二移动位置用Y表示,第三移动位移用Z表示,
则Z=aX+bY;
其中,a和b均大于等于0,小于等于1。
a和b均为二分之一时,即第三移动位移为第一移动位移和第二移动位移的平均值。
当然第三移动位移还可以利用其他公式获得,能够利用第二移动位移实现对第一移动位移的校正即可。
此外,第二位移获取单元利用利用所述环境空间信息,计算第二移动位移可以有多种可能方式,在又一个实施例中,如图2中所示,
该第二位移获取单元402可以包括:
第一距离获取单元4021,用于获得所述用户头部在初始位置时,距离环境空间中第一固定物体的第一距离;
第二距离获取单元4022,用于获得所述用户头部发生运动时,在当前位置距离环境空间中所述第一固定物体的第二距离;
夹角获取单元4023,用于获得所述第一距离以及所述第二距离之间的夹角信息;
第二位移获取子单元4024,用于利用所述第一距离、所述第二距离以及所述夹角信息,计算得到所述第二移动位移。
其中,环境空间信息可以包括所述用户头部距离环境空间中第一固定物体的距离和/或与所述第一固定物体之间夹角信息。
从而根据用户头部在初始位置时,距离第一固定物体的第一距离以及在当前位置时的第二距离,以及夹角信息,从而即可以计算得到第二移动位移。
环境空间信息可以通过深度摄像头等空间检测传感器检测获得。
该第三位移获取单元403可以包括:
比较单元4031,用于比较所述第一移动位移以及所述第二移动位移;
第三位移获取子单元4032,用于在所述第一移动位移与所述第二移动位移的差值在误差允许范围内,确定所述第一移动位移或所述第二移动位移作为第三移动位移;在所述第一移动位移与所述第二移动位移的差值不在误差允许范围内,利用所述第一移动位移以及所述第二移动位移,计算得到第三移动位移。
其中,利用第一移动位移以及第二移动位移,计算得到第三移动位移可以参见上述实施例中所述。
作为一种可能的实现方式,该第三移动位移可以是第一移动位移以及第二移动位移的平均值。
本实施例中,首先对第一移动位移以及第二移动位移进行比较,如果差值在误差允许范围内,则表明第一移动位移在误差允许范围内,并没有存在随着时间的累积而导致结果失误,可以直接作为计算当前位置的位移信息。此时即可以选择第一移动位移以及第二移动位移中的任意一个作为第三移动位移。
而如果差值不在误差允许范围内,则表明第一移动位移存在误差,不能直接用来计算位置,需要利用第二移动位移对其进行校正,则可以利用第一移动位移以及第二移动位移,计算得到第三移动位移。
当然,差值在误差允许范围内时,也可以利用第一移动位移以及第二移动位移,计算得到第三移动位移,例如通过求加权和等,如选择第一移动位移和第二移动位移的平均值作为第三移动位移,以进一步提高结果的准确性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种信息处理方法,其特征在于,应用于头戴式设备中,所述方法包括:
在用户佩戴所述头戴式设备时,获取用户头部发生运动时的运动参数;
获取环境空间信息;所述环境空间信息包括所述头戴式设备距离环境中一个固定物体的距离、角度和/或位置关系;
利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后的位置信息。
2.根据权利要求1所述的方法,其特征在于,所述利用所述运动参数以及所述环境空间信息,获得所述用户头部在所述环境空间信息中位置信息包括:
利用所述运动参数,计算所述用户头部发生运动时从初始位置移动至当前位置的第一移动位移;
利用所述环境空间信息,获得所述用户头部发生运动时,从所述初始位置移动至所述当前位置的第二移动位移;
利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移;
利用所述第三移动位移以及所述初始位置,获得当前位置。
3.根据权利要求1或2所述的方法,其特征在于,所述运动参数包括加速度和/角速度;
所述环境空间信息包括所述用户头部距离环境空间中第一固定物体的距离和/或与所述第一固定物体之间夹角信息。
4.根据权利要求2所述的方法,其特征在于,所述利用所述环境空间信息,获得所述用户头部发生运动时,从初始位置移动至当前位置的第二移动位移包括:
获得所述用户头部在初始位置时,距离环境空间中第一固定物体的第一距离;
获得所述用户头部发生运动时,在当前位置距离环境空间中所述第一固定物体的第二距离;
获得所述第一距离以及所述第二距离之间的夹角信息;
利用所述第一距离、所述第二距离以及所述夹角信息,计算得到所述第二移动位移。
5.根据权利要求2所述的方法,其特征在于,所述利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移包括:
比较所述第一移动位移以及所述第二移动位移;
在所述第一移动位移与所述第二移动位移的差值在误差允许范围内,确定所述第一移动位移或所述第二移动位移作为第三移动位移;
在所述第一移动位移与所述第二移动位移的差值不在误差允许范围内,利用所述第一移动位移以及所述第二移动位移,计算得到第三移动位移。
6.一种信息处理装置,其特征在于,应用于头戴式设备中,包括:
参数获取模块,用于在用户佩戴所述头戴式设备时,获取用户头部发生运动时的运动参数;
信息获取模块,用于获取环境空间信息;所述环境空间信息包括所述头戴式设备距离环境中一个固定物体的距离、角度和/或位置关系;
位置计算模块,用于利用所述运动参数以及所述环境空间信息,获得所述用户头部发生运动之后在所述环境空间中的位置信息。
7.根据权利要求6所述的装置,其特征在于,所述位置计算模块包括:
第一位移获取单元,用于利用所述运动参数,计算所述用户头部发生运动时从初始位置移动至当前位置的第一移动位移;
第二位移获取单元,用于利用所述环境空间信息,获得所述用户头部发生运动时,从所述初始位置移动至所述当前位置的第二移动位移;
第三位移获取单元,用于利用所述第二移动位移对所述第一移动位移进行校正,获得第三移动位移;
计算单元,用于利用所述第三移动位移以及所述初始位置,获得当前位置。
8.根据权利要求6或7所述的装置,其特征在于,所述运动参数包括加速度和/或角速度;
所述环境空间信息包括所述用户头部距离环境空间中第一固定物体的距离和/或与所述第一固定物体之间夹角信息。
9.根据权利要求7所述的装置,其特征在于,所述第二位移获取单元包括:
第一距离获取单元,用于获得所述用户头部在初始位置时,距离环境空间中第一固定物体的第一距离;
第二距离获取单元,用于获得所述用户头部发生运动时,在当前位置距离环境空间中所述第一固定物体的第二距离;
夹角获取单元,用于获得所述第一距离以及所述第二距离之间的夹角信息;
第二位移获取子单元,用于利用所述第一距离、所述第二距离以及所述夹角信息,计算得到所述第二移动位移。
10.根据权利要求7所述的装置,其特征在于,所述第三位移获取单元包括:
比较单元,用于比较所述第一移动位移以及所述第二移动位移;
第三位移获取子单元,用于在所述第一移动位移与所述第二移动位移的差值在误差允许范围内,确定所述第一移动位移或所述第二移动位移作为第三移动位移;在所述第一移动位移与所述第二移动位移的差值不在误差允许范围内,利用所述第一移动位移以及所述第二移动位移,计算得到第三移动位移。
CN201510093083.8A 2015-03-02 2015-03-02 一种信息处理方法及装置 Active CN104598036B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510093083.8A CN104598036B (zh) 2015-03-02 2015-03-02 一种信息处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510093083.8A CN104598036B (zh) 2015-03-02 2015-03-02 一种信息处理方法及装置

Publications (2)

Publication Number Publication Date
CN104598036A CN104598036A (zh) 2015-05-06
CN104598036B true CN104598036B (zh) 2019-03-08

Family

ID=53123878

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510093083.8A Active CN104598036B (zh) 2015-03-02 2015-03-02 一种信息处理方法及装置

Country Status (1)

Country Link
CN (1) CN104598036B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951262B (zh) * 2017-03-28 2023-07-21 联想(北京)有限公司 一种显示处理方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101859439A (zh) * 2010-05-12 2010-10-13 合肥寰景信息技术有限公司 一种用于人机交互的运动追踪装置及其追踪方法
CN102831401A (zh) * 2012-08-03 2012-12-19 樊晓东 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统
WO2014058565A1 (en) * 2012-10-12 2014-04-17 Qualcomm Incorporated Gyroscope conditioning and gyro-camera alignment
CN103984101A (zh) * 2014-05-30 2014-08-13 华为技术有限公司 显示内容控制方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101859439A (zh) * 2010-05-12 2010-10-13 合肥寰景信息技术有限公司 一种用于人机交互的运动追踪装置及其追踪方法
CN102831401A (zh) * 2012-08-03 2012-12-19 樊晓东 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统
WO2014058565A1 (en) * 2012-10-12 2014-04-17 Qualcomm Incorporated Gyroscope conditioning and gyro-camera alignment
CN103984101A (zh) * 2014-05-30 2014-08-13 华为技术有限公司 显示内容控制方法和装置

Also Published As

Publication number Publication date
CN104598036A (zh) 2015-05-06

Similar Documents

Publication Publication Date Title
CN106525003B (zh) 一种基于双目视觉的姿态测量方法
CN108700947B (zh) 用于并发测距和建图的系统和方法
US9310891B2 (en) Method and system enabling natural user interface gestures with user wearable glasses
US9679199B2 (en) Fusing device and image motion for user identification, tracking and device association
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
CN108700946B (zh) 用于并行测距和建图的故障检测和恢复的系统和方法
CN105701790B (zh) 用于确定摄像机相对于真实环境的至少一个对象的姿态的方法和系统
CN108733206A (zh) 一种坐标对齐方法、系统和虚拟现实系统
CN206961066U (zh) 一种虚拟现实交互设备
EP3414742A1 (en) Optimized object scanning using sensor fusion
CN106980368A (zh) 一种基于视觉计算及惯性测量单元的虚拟现实交互设备
US10825197B2 (en) Three dimensional position estimation mechanism
CN104658012A (zh) 一种基于惯性与光学测量融合的运动捕捉方法
US10948994B2 (en) Gesture control method for wearable system and wearable system
CN104246664B (zh) 不显示指针的透明显示器虚拟触摸装置
CN108022302A (zh) 一种Inside-Out空间定位的AR立体显示装置
JP2016006415A (ja) 光学式モーションキャプチャにおける光学式マーカーの位置の推定方法及び装置
CN111899276A (zh) 一种基于双目事件相机的slam方法及系统
CN107977082A (zh) 一种用于呈现ar信息的方法及系统
CN109961523A (zh) 虚拟目标的更新方法、装置、系统、设备及存储介质
JP2004265222A (ja) インタフェース方法、装置、およびプログラム
CN104598036B (zh) 一种信息处理方法及装置
Kim et al. Implementation of an omnidirectional human motion capture system using multiple kinect sensors
Qian et al. Optical flow based step length estimation for indoor pedestrian navigation on a smartphone
CN105786166A (zh) 扩增实境方法与系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant