CN111527465A - 预测对象运动的方法、校准运动模型的方法、获得预定义量的方法和生成虚拟现实视图的方法 - Google Patents
预测对象运动的方法、校准运动模型的方法、获得预定义量的方法和生成虚拟现实视图的方法 Download PDFInfo
- Publication number
- CN111527465A CN111527465A CN201780097994.5A CN201780097994A CN111527465A CN 111527465 A CN111527465 A CN 111527465A CN 201780097994 A CN201780097994 A CN 201780097994A CN 111527465 A CN111527465 A CN 111527465A
- Authority
- CN
- China
- Prior art keywords
- motion
- series data
- user
- time
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 151
- 238000000034 method Methods 0.000 title claims abstract description 126
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 9
- 238000007654 immersion Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000013213 extrapolation Methods 0.000 description 6
- 230000007774 longterm Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 208000012661 Dyskinesia Diseases 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000257303 Hymenoptera Species 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000037147 athletic performance Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
提供了一种用于预测对象的运动的方法。所述方法包括以下步骤:基于被安装到所述对象的位置传感器的第一时间序列数据来确定所述对象的位置,以及基于被安装到所述对象的至少一个惯性传感器的第二时间序列数据来确定所述对象的取向。此外,所述方法包括以下步骤:使用所述对象的所述位置以及所述对象的所述取向来基于运动模型外推所述对象的运动轨迹,其中,所述运动模型将第一加权因子用于所述对象的所述位置,并且将第二加权因子用于所述对象的所述取向。本公开的又一些另外的方面涉及在传感器流中确定地面实况瞬间并为用户优化虚拟现实视图。
Description
技术领域
本公开涉及基于时间序列传感器数据的低延迟且长期稳定的位置和取向估计。具体地,示例涉及用于预测对象的运动的方法、用于对描述对象的运动的运动模型进行校准的方法、用于获得预定义量的方法以及用于为用户生成虚拟现实视图的方法。另外的示例涉及用于执行上述方法的装置。
背景技术
在自由移动的情况下,需要开发用于更大空间的虚拟现实(VR)。然而,针对大型VR,基于精准摄像机的跟踪成本太高,因为其成本随着空间大小和用户数量而增加。此外,基于同时定位与地图构建(SLAM)的由内而外的跟踪方法无法在高度交互的多用户VR环境中可靠地估计用户的位姿(即,位置和取向)。已知深度传感器在低范围方面有所欠缺,而软件在环境的高纹理和几何复杂性的需求方面有所欠缺,并且对于环境的动态变化而言是不稳定的。
因此,存在针对改善的位置和取向估计的需求以及针对具有改善的沉浸感的VR生成的需求。
发明内容
可以通过本文描述的示例来满足所述需求。
一个示例涉及一种用于预测对象的运动的方法。所述方法包括:基于被安装到所述对象的位置传感器的第一时间序列数据来确定所述对象的位置,以及基于被安装到所述对象的至少一个惯性传感器的第二时间序列数据来确定所述对象的取向。此外,所述方法包括:使用所述对象的所述位置以及所述对象的所述取向基于运动模型来外推所述对象的运动轨迹,其中,所述运动模型将第一加权因子用于所述对象的所述位置并且将第二加权因子用于所述对象的所述取向。
另一示例涉及一种用于对描述对象的运动的运动模型进行校准的方法。所述方法包括:确定被安装到所述对象的多个传感器的时间序列数据中的预定义数据模式。所述预定义数据模式与所述对象的特定运动、特定位置和/或特定取向有关。此外,所述方法包括:确定所述多个传感器之一的时间序列数据相对于参考数据的偏差,其中,所述参考数据与所述预定义数据模式有关。所述方法还包括基于所述偏差来对所述运动模型进行校准。
进一步的示例涉及一种用于获得预定义量的方法。所述方法包括:确定至少一个传感器的时间序列数据的关于获得所述时间序列数据的所述预定义量的置信水平。此外,所述方法包括:如果所述置信水平低于阈值,则使用所述至少一个传感器的所述时间序列数据以及至少一个另外的传感器的另外的时间序列数据来获得所述预定义量。所述预定义量是通过将第一加权因子用于所述至少一个传感器的所述时间序列数据以及将第二加权因子用于至少一个另外的传感器的所述另外的时间序列数据来获得的。
更进一步的示例涉及一种用于为用户生成虚拟现实视图的方法。所述方法包括:根据所提出的用于预测对象的运动的方法来确定所述用户的运动。此外,所述方法包括:基于所述用户的所述运动来生成所述虚拟现实视图;以及向所述用户显示所述虚拟现实视图。
示例进一步涉及一种包括处理器的数据处理系统,所述处理器被配置为执行所提出的方法之一。
另一示例涉及一种非暂时性机器可读介质,所述非暂时性机器可读介质存储有程序,所述程序具有程序代码,当在处理器上执行所述程序时,所述程序代码用于执行所提出的方法之一。
又一示例涉及一种程序,所述程序具有程序代码,当在处理器上执行所述程序时,所述程序代码用于执行所提出的方法之一。
附图说明
下文将仅通过示例的方式并参考附图描述装置和/或方法的一些示例,在附图中:
图1例示了用于预测对象的运动的方法的示例的流程图;
图2例示了用于对描述对象的运动的运动模型进行校准的方法的示例的流程图;
图3例示了用于获得预定义量的方法的示例的流程图;以及
图4例示了用于为用户生成虚拟现实视图的方法的示例的流程图。
具体实施方式
现在将参考例示了一些示例的附图更全面地描述各种示例。在附图中,为了清楚起见,线的粗细、层和/或区域可能被夸大。
因此,尽管其它示例能够具有各种修改例和替代形式,但是其一些特定示例在附图中示出并且随后将被详细描述。然而,该详细描述不将另外的示例限于所描述的特定形式。另外的示例可以涵盖落入本公开范围内的所有修改例、等同例和替代例。在整个附图的描述中,相同的附图标记指代相同或相似的元件,当提供相同或相似的功能时,在彼此比较时,这可以相同地或以经修改的形式实现。
将理解,当一个元件被称为“连接”或“联接”到另一元件时,这些元件可以直接连接或联接或经由一个或更多个中间元件。如果两个元件A和B使用“或”组合,则这应理解为公开了所有可能组合,即仅A、仅B以及A和B。相同组合的替代用语是“A和B中的至少一者”。这同样适用于超过两个元件的组合。
本文中用于描述特定示例的目的的术语并不旨在限制另外的示例。每当使用诸如“一”、“一个”和“该”的单数形式并且仅使用单个元件既未明确地也未隐含地限定为强制性时,另外的示例也可以使用多个元件来实现相同的功能。同样,当随后将功能描述为使用多个元件来实现时,另外的示例可以使用单个元件或处理实体来实现相同的功能。还将理解,用语“包括(comprises)”、“包括(comprising)”、“包含(includes)”和/或“包含(including)”在使用时指定存在所述特征、整数、步骤、操作、处理、动作、元件和/或部件,但不排除存在或添加一个或更多个其它特征、整数、步骤、操作、处理、动作、元件、部件和/或其任何组。
除非另有限定,否则所有用语(包括技术用语和科学术语)在本文中均以示例所属的领域的普通含义使用。
图1例示了用于预测对象的运动的方法100。对象可以是能够配备有传感器的任何移动对象。例如,对象可以是人。
方法100包括以下步骤:基于被安装到对象的位置传感器的第一时间序列数据(该数据可以经滤波或未经滤波)来确定102该对象的位置。第一时间序列数据包括与位置传感器(即,对象)的绝对位置或相对位置有关的信息。例如,第一时间序列数据可以包括三维位置数据。通常,时间序列数据可以理解为在连续(例如,等间隔)的时间点处获取的数据序列。位置传感器可以例如确定一个或更多个射频信号的往返时间(RTT)或到达时间差(TDoA),以确定该位置传感器的位置。另选地,位置传感器可以使用全球导航卫星系统或磁场强度感测来确定其位置。
此外,方法100包括以下步骤:基于被安装到对象的至少一个惯性传感器的第二时间序列数据(该数据可以经滤波或未经滤波)来确定104该对象的取向。第二时间序列数据包括与惯性传感器(即,对象)的比力有关的信息。例如,第二时间序列数据可以包括三维加速度数据、三维旋转速度数据和/或三维磁场强度数据中的至少一者。惯性传感器可以例如是加速度计、陀螺仪、磁力计。可选地,第二时间序列数据的一部分可以源自气压计或光传感器(例如,二极管)。因此,第二时间序列数据还可以包括大气压力数据或代表环境的光结构的数据。
方法100另外地包括以下步骤:使用对象的位置以及对象的取向来基于运动模型外推106该对象的运动轨迹。运动模型将第一加权因子用于对象的位置并且将第二加权因子用于对象的取向。运动模型是借助于运动轨迹描述对象的移动的模型,该模型将对象在空间中的运动描述为时间的函数。运动模型可以例如考虑对象的特殊移动特性。例如,如果对象是人,则运动模型可以考虑人往往沿他们的观看方向行走并且人沿着他们的视觉感知调整他们的运动。
惯性传感器(例如,加速度计或陀螺仪)可以提供较高的更新频率(例如,200Hz更新频率)和短期内的高准确度。然而,由于传感器漂移,所以惯性传感器在长期稳定性方面苦苦挣扎。位置传感器(例如,基于射频的位置传感器)提供较低的更新频率(例如,5Hz更新频率),但是具有短期和长期稳定性以及准确性。使用允许对位置传感器和惯性传感器的贡献进行加权以进行运动轨迹的外推的运动模型使得能够通过这两个传感器中的另一传感器来弥补这两个传感器中的一个传感器的缺点。因此,可以改善整体性能,即,运动估计的准确性以及稳定性(长期和短期)。
方法100还可以包括以下步骤:基于对象的位置和对象的取向的相应置信水平来调节权重。例如,方法100可以包括以下步骤:确定对象的位置的第一置信水平以及确定对象的取向的第二置信水平。因此,方法100还可以包括以下步骤:基于第一置信水平(并且可选地基于第二置信水平)来调节第一加权因子以及基于第二置信水平(并且可选地基于第一置信水平)来调节第二加权因子。如上所述,惯性传感器在短期内具有高准确度(即,短期内的高置信水平),而在长期内不具有高准确度(即,长期内的低置信水平)。因此,可以例如基于自上一次传感器校准或上一次传感器校准重置以来经过的时间来确定对象的取向的第二置信水平。例如,如果自上一次重置以来仅经过了较短的时间,则与经过较长时间相比,第二加权因子可以更高,以便正确地考虑惯性传感器的特定特性。类似地,如果第二加权因子减小,则可以增大第一加权因子,以便由于惯性传感器的降低的准确性/稳定性而在运动模型中对对象的位置进行更多加权。
在一些示例中,还可以使用上下文信息来调整运动模型。例如,方法100还可以包括以下步骤:基于与对象的运动有关的上下文信息来调节第一加权因子的值范围(即,第一加权因子的可能值的范围)和/或第二加权因子的值范围(即,第二加权因子的可能值的范围)。与对象的运动有关的上下文信息是(潜在地)影响对象的运动的任何信息。例如,上下文信息可以指对象周围的环境。如果对象是人,则人的运动行为会因各种情形而不同。例如,如果人在板上保持平衡,则取向的变化将比用户进行障碍滑雪前进的情形低得多。因此,可以调节运动模型的加权因子以更好地考虑人的特定运动行为。
运动模型可以基于至少三阶的多项式,以便适当地对动态运动进行建模。由于运动模型将取向和位置组合为信号位置,因此三阶多项式函数足以描述对象的运动。例如,多项式可以是Kochanek–Bartels样条(也称为TCB样条)、三次Hermite样条或Catmull-Rom样条。
因此,外推对象的运动轨迹的步骤可以包括:基于对象的经加权的位置以及对象的经加权的取向来切向外推多项式。运动轨迹的切向外推可以允许基于运动轨迹的定向延伸来提供针对人的移动方向的视图。例如,位置的第一加权系数最初可以是25%,而取向的第二加权系数最初可以是75%。因此,可以调节切线接触多项式的角度。
此外,对象的运动状态可以用于调节运动模型。运动状态描述了对象的特定运动类型。例如,运动状态可以是静止(站立)、运动、步行、跑步、从静止变为跑步/步行、从跑步/步行变为静止、静止的同时转动等等。因此,方法100还可以包括以下步骤:基于第一时间序列数据和/或第二时间序列数据来确定对象的运动状态。例如,如果将加速度计和陀螺仪用作惯性传感器,则如果该加速度计和该陀螺仪均没有指示对象的(线)加速度,则可以确定该对象静止(即,没有位置变化)。例如,运动状态可以是地面实况瞬间。此外,加速度的激活阈值可以用于优化抖动的位置数据。一个或更多个阈值可以平滑以及阻碍对象的基于射频的位置的激活/去激活。即,加速度传感器和射频位置可以允许基于运动幅度来消除抖动。因此,方法100可以包括以下步骤:基于运动状态来调节第一加权因子和第二加权因子。例如,如果运动状态描述了对象静止,则由于可能不会发生位置变化,因此可以减小第一加权因子。因此,如果例如第一时间序列数据(即,位置数据)有噪声,则可以以高准确度外推运动轨迹。
例如,方法100可以通过将位于人头部处的单个惯性与相当不准确的位置跟踪相结合来允许针对人的位姿(位置和取向)估计。方法100可以允许根据当前情形来调节传感器并且利用一个传感器的优势来弥补另一(些)传感器的缺点。
例如,方法100可以用于VR应用。运动模型可以基于TCB样条。还可以使用投射混合(projective blending)来改善沉浸感,并因此改善VR应用中的呈现效果。除TCB样条外,还可以使用三次样条或Catmull-Rom样条来对人的运动进行建模。然而,TCB样条可能对运动场景以及运动方向的突然变化更具适应性并且更加可参数化。
为了提供运动切线的适当外推,方法100使用基于当前身体到头部位姿(由人的取向和位置描述)的正切函数的加权。在常规移动条件下,观看方向(即,取向)可以为当前正切函数提供最高的权重。例如,可以从检测到的地面实况瞬间中获得身体到头部的位姿。
如上所述,如果不存在重置点(例如,可以将取向估计重新校准为可信赖的地面实况取向的时间点),则可以对位置进行更多加权,直到可以对标度进行校准为止。校准之后,可以再次在正切函数中相对于位置对取向进行更多的加权。惯性传感器的取向稳定性可以例如取决于头部移动强度以及随时间推移的传感器温度(两者都是与对象的运动有关的上下文信息的示例)。
即,方法100预测位置并且并行地估计当前取向。例如,针对TCB样条中的当前外推正切函数,可以对当前取向进行最高的加权。如上所述,如果当前取向估计不可靠/不可信(例如,由于随时间推移的传感器漂移、磁干扰等),则在外推方法中,位置可以得到较高的权重。因此,运动模型由外推法形成。
尽管由于运动模型是三次多项式而使得可以认为该运动模型对动态运动很苛刻,但可以适当参数化TCB样条等,以便补偿快速的动态变化。由于方法100将取向和位置组合到一个位置中,因此可以利用三阶多项式来描述该位置。
此外,与携带传感器的人有关的(物理)约束可以用于对第一时间序列数据和第二时间序列数据进行滤波。例如,与取向有关的互补滤波器(或卡尔曼滤波器或粒子滤波器)可以用于例如在人在VR中行走期间关注当前取向及其异常。例如,取向的滤波器在短时间内(例如,5分钟)不能漂移超过90°,因为这在物理上不像人的运动。此外,人往往朝他们的观看方向行走。因此,如果某人长时间笔直行走,则他/她可能会沿着行走方向看。例如,对于VR应用来说确实如此,因为人们往往更害怕接下来发生的事情(例如,冲突或碰撞)。
高度可参数化的TCB样条可以允许准确地表示人的缓慢、快速、静态或动态移动。因此,在保持用于该任务的参数的数量尽可能低的同时,运动模型可以是尽可能可参数化的。在VR应用中,方法100还可以允许在人未注意到故障的情况下外推(即,预测)未来时刻。
如上所述,地面实况瞬间可以用于校准运动模型。参照图2对此进行更详细的描述。图2例示了用于对描述对象的运动的运动模型进行校准的方法200。
方法200包括以下步骤:确定202被安装到对象的多个传感器的时间序列数据中的预定义数据模式。预定义数据模式与对象的特定运动、特定位置和/或特定取向有关。对象的特定运动、特定位置和/或特定取向创建了传感器数据中的特定数据模式(例如,传感器示出所测量的加速度、位置等方面的特定变化),因此可以理解为地面实况瞬间。对于对象的这些特定运动、特定位置和/或特定取向,已知传感器的当前物理正确状态(即,传感器的物理正确输出数据)。该已知数据可以用作用于校准的参考数据。例如,可以使用来自机器学习领域的方法(诸如分类)来(重新)识别这种瞬间。换句话说,支持向量机或神经网络可以用于从传感器流中找到提取特征,以对地面实况瞬间进行分类和(重新)识别。
因此,方法200还包括以下步骤:确定204多个传感器之一的时间序列数据相对于参考数据的偏差。参考数据与预定义数据模式(即,地面实况瞬间)有关。换句话说,将传感器的实际时间序列数据与传感器在对象的预定义瞬间的预期输出数据进行比较。
此外,方法200包括基于偏差来对运动模型进行校准206。例如,如果运动模型包括具有至少一个可调参数的滤波器(例如,贝叶斯滤波器),则对运动模型进行校准206的步骤可以包括基于偏差来调节参数。使用地面实况瞬间可以例如允许校正和稳定卡尔曼滤波器。
因此,方法200可以允许重置或重新校准运动模型。例如,如果对象是人,则传感器可以被安装在头部(例如,提供相对于传感器位置的相对手势),而另一传感器被安装在手部处(例如,提供手部移动的相对信息)。可以在头部安装另外两个传感器(例如,一个传感器提供世界空间中的绝对位置,另一传感器提供绝对取向)。在这种配置中,各个传感器返回不同坐标空间中的信息,并且由于信息的错误和漂移而无法映射这些信息。然而,可以用绝对位置矢量补充头部处的惯性传感器,以便校正取向(通过确定传感器数据中的特性数据模式,然后将传感器数据与参考数据进行比较)。基于最佳取向,可以确定相对手部移动,并因此确定手势。
方法200也可以用于VR应用,以便校正VR视图中的观看方向。例如,如果运动模型是用于为用户生成VR视图的算法的一部分,则方法200还可以包括以下步骤:基于偏差来不断改变VR视图。虚拟现实视图的连续帧之间的变化低于用户的可感知阈值。因此,方法200可以用于按用户意识不到校正的方式来校正VR视图。因此,可以维持VR视图的沉浸感。
此外,可用传感器数据的互补效果可以用于改善例如位置估计和取向估计。下面参照图3对此进行进一步讨论。图3例示了用于获得预定义量的方法300。
方法300包括以下步骤:确定至少一个传感器的时间序列数据的关于获得该时间序列数据的预定义量的置信水平。置信水平表示时间序列数据在获得其预定义量方面的合适程度或容易出错程度。可以例如基于传感器的类型和/或预定义量的类型来确定时间序列数据的置信水平。例如,人的鞋子(或在身体的任何其它位置,例如头部)中的加速度传感器的时间序列数据可以用于确定人的脚步的存在、人的步数或人的步长。尽管可以基于加速度传感器的时间序列数据以高准确度确定人的脚步(作为一个示例性预定义量)的存在,但是人的步长(作为另一示例性预定义量)可能被错误地确定。因此,加速度传感器不应单独用于确定人的步长,因为获得人的步长的置信水平较低。
如果置信水平低于阈值,则方法300包括以下步骤:使用至少一个传感器的时间序列数据以及至少一个另外的传感器的另外的时间序列数据来获得304预定义量。将第一加权因子用于至少一个传感器的时间序列数据并且将第二加权因子用于至少一个另外的传感器的另外的时间序列数据来获得预定义量。换句话说,至少一个另外的传感器用于稳定具有低置信水平的传感器。因此,可以以自适应方式以高准确度获得预定义量。
参考上面的脚步检测示例,人们可以想到这样的脚步检测:该脚步检测完全正确地识别人脚的脚步。然而,步长的检测是易错的。因此,随着距离的增加可能会产生很大的定位误差。基于射频的位置传感器可能提供较低的准确度。然而,位置测量的准确度随距离的增加而增加。因此,对于基于射频的位置传感器,在较长距离内的定位误差几乎为零,而组合的脚步检测和步长误差很大。因此,方法300使用基于射频的位置传感器来修复误检测到的脚步检测与步长的组合并校正步长。
在这方面,可以使用各种信息来调节各个时间序列数据的加权因子。因此,方法300还可以包括以下步骤:使用至少一个传感器的时间序列数据的置信水平、至少一个另外的传感器的另外的时间序列数据的置信水平、与携带至少一个传感器的对象有关的一个或更多个物理约束(例如,运动行为、最小/最大的可能的加速度或速度、最大的可能的头部旋转、最大的头部旋转加速度/速度、最大位移增量等)以及与对象有关的上下文信息中的至少一者来确定第一加权因子和/或第二加权因子。与对象有关的上下文信息是可能影响对象的运动的任何信息(例如,地图、光照条件、白天、附近的人数等)。
例如,机器学习算法(即,赋予计算机在没有被明确编程的情况下进行学习的能力的算法)可以用于确定第一加权因子和/或第二加权因子。因此,可以实现预定义量的自适应确定。
如上所述,可以在VR的上下文中使用前述各方面。在下文中,关于图4更详细地描述了为用户生成VR视图的方法400。方法400包括以下步骤:根据上述用于预测对象(即,用户就是对象)的运动的方法来确定402用户的运动。因此,可以以长期高准确度和稳定性来确定用户的运动。
此外,方法400包括以下步骤:基于用户的运动来生成404VR视图,并向用户显示406该VR视图。可以通过用于生成虚拟VR的算法来将用户的运动变换为用户在VR中的位置、取向或移动。因此,基于用户的运动来更新视图。可以借助于头戴式显示器(HMD)、头戴式显示单元或头戴式单元(HMU)向用户显示VR视图。
由于可以以长期高准确度和稳定性来确定用户的运动,因此可以增加在物理上存在于VR中的用户感知。例如,如果位置传感器是基于射频的,则第一时间序列数据可以导致例如约50cm的位置误差/跳动。因此,仅使用位置传感器的第一时间序列数据来生成VR视图将导致VR视图中的摄像机跳动/抖动。用户将把这些位置误差感受为跳动,这会破坏可自由行走呈现的效果。然而,由于运动模型另外使用了第二时间序列数据,因此这些跳动由于惯性传感器的互补作用而得到了补偿。例如,可以基于第二时间序列数据和用户来确定运动状态以稳定运动轨迹。因此,在VR视图中将不会发生跳动,从而提高了用户的沉浸感。
如上所述,用户的预定义/已知/特定运动可以用于校准运动模型。这些运动可以通过例如对用户的听觉、视觉、嗅觉或触觉的影响来触发。通过应用这些影响,可以操纵用户执行已知的移动动作(反应)。可以使用传感器来检测这些运动,并将这些运动与预期的测量数据进行比较,以便重置/校准位置、取向等的当前估计。
因此,方法400还可以包括以下步骤:计算位置传感器的针对用户的预定义移动的预期的第一时间序列数据(和/或至少一个惯性传感器的预期的第二时间序列数据)。进一步的方法400可以包括以下步骤:改变虚拟现实视图,向用户输出声音和/或散发气味,以便促使用户执行预定义移动。另外地,方法400可以包括以下步骤:确定位置传感器的针对用户的预定义移动的实际的第一时间序列数据(和/或至少一个惯性传感器的实际的第二时间序列数据)相对于预期的第一时间序列数据的误差。
如上所述,预期传感器数据与实际传感器数据的比较可以用于校准运动模型。因此,方法400还可以包括以下步骤:基于误差来对运动模型进行校准。
此外,可以校正/校准VR视图。因此,方法400还可以包括以下步骤:基于误差来不断改变虚拟现实视图,其中,由于误差而导致的虚拟现实视图的连续帧之间的变化低于用户的可感知阈值。可感知阈值是用户可以在连续帧之间觉察到的最微弱的刺激/变化。因此,可以在维持用户沉浸感的同时校正VR视图。
例如,可以将突然从左侧传到用户的声音(例如,具有警报器的汽车驶近)输出给用户,使得用户将跳到右侧。用户的这种反应是已知的,并且用户的运动也是已知的。因此,可以计算传感器误移动的误差。例如,加速度计的轴线漂移90°。如果应用上述效果(基于笔直向前移动的绝对位置轨迹)以使用户沿声源的相反方向跳开,则可以看到加速度计的取向发生了漂移。这是由于与人的有限运动性有关的知识导致的,这限制了用户的可执行动作。因此,可以估计取向误差(方向变化)等。
此外,可以使用户在已知VR地形中行走,对于该地形而言,人运动或行为是已知的。针对该已知VR地形,可以预测传感器测量结果并将该传感器测量结果与实际传感器测量结果相比较,以便确定传感器误差。例如,在两个房子之间的木板或高空钢索上保持平衡的用户将具有非常专一且居中的移动(速度和取向变化)。
类似地,可以通过应用声音效果(像追赶用户的穿透性蜂声)来促使该用户更快地移动(速度变化)。还可以通过视觉干扰(像增大或减小VR视图中的像象棋图案的地板纹理的大小)来触发速度变化。例如,如果VR视图中的地板砖的常规尺寸为1×1m,则将尺寸更改为0.1×0.1m时,用户将放慢速度,并且如果将尺寸更改为10×10m,则用户将加快速度。为了维持用户的沉浸感,VR视图中的视觉元素在连续帧之间的变化低于用户的可感知阈值。
用户的操纵运动还可以用于基于先前确定的误差来校正VR视图。例如,方法400可以包括确定VR视图中的取向误差和/或定位误差。因此,方法400还可以包括以下步骤:改变虚拟现实视图,向用户输出声音和/或散发气味,以便促使用户执行预定义移动。当用户执行预定义移动时,方法400可以包括以下步骤:基于取向误差和/或定位误差来不断改变虚拟现实视图,其中,由于取向误差和/或定位误差而导致的虚拟现实视图的连续帧之间的变化低于用户的可感知阈值。例如,由于预定义移动而导致的VR视图的变化可以被增强或减弱,以便针对取向误差和/或定位误差来不断校正VR视图。
例如,可以通过听觉或视觉变化来重新定向用户。在一些示例中,恒定的漂移可以应用到用户视图(即,VR视图)上,该恒定漂移不会被用户注意到但会让用户按圆圈而不是按直线行走。听觉效果也是如此,对此用户往往基于听觉感知来重新定向。
换句话说,改变VR视图的步骤可以包括:改变虚拟现实视图中的观看方向或变换虚拟现实视图中的至少一个对象的几何形状,其中,虚拟现实视图的连续帧之间的观看方向的变化或至少一个对象的几何形状的变换低于用户的可感知阈值。
方法400还可以包括以上结合图1至图3描述的各方面中的一个或更多个方面。
本公开的各方面解决了传感器不准确(噪声、不稳定性、轴线移位、未校准、随时间的漂移)的问题。此外,本公开的各方面解决了基于非线性移动的定位的问题。另外,本公开的各方面解决了与人的偏航/身体轴线有关的不稳定的头部取向的问题。本公开的各方面利用表示特定情形中的传感器信息的地面实况瞬间的时刻。此外,本公开的各方面补充了不同的数据和地面实况瞬间,以重新校准漂移和偏差。此外,本公开的各方面引入权重以在对最终结果的不同贡献的重要性(可靠性)之间进行平衡。本公开的各方面基于高度可参数化的TCP样条进一步改善了VR应用中的沉浸感和呈现效果,该TCP样条允许基于经加权的切线(该切线基于相对于位置的视图)来外推/预测另外的值。此外,本公开的各方面添加了“知道”人的运动的运动模型。此外,本公开的各方面引入了自动学习,以便尽可能快地预测预定义量。本公开的各方面涉及自适应滤波器结构。此外,本公开的各方面通过利用具有可预测的结果(例如,加速/减速)的效果不知不觉地操纵用户来优化运动模型。
所提及的和所描述的方面和特征以及先前详述的示例中的一个或更多个示例以及附图也可以与其它示例中的一个或更多个示例组合,以便替换另一示例的相似特征或以便将特征另外地引入另一示例。
当在计算机或处理器上执行具有用于执行上述方法中的一个或更多个方法的程序代码的(计算机)程序时,示例还可以是或涉及该(计算机)程序。各种上述方法的步骤、操作或处理可以由编程的计算机或处理器执行。示例还可以涵盖诸如数字数据存储介质的程序存储装置,该程序存储装置是机器可读的、处理器可读的或计算机可读的,并且对指令的机器可执行程序、处理器可执行程度或计算机可执行程序进行编码。指令执行或使得执行上述方法的动作中的一些动作或全部动作。程序存储装置可以包括或者可以是例如数字存储器、诸如磁盘和磁带的磁存储介质、硬盘驱动器或光学可读数字数据存储介质。另外的示例还可以涵盖被编程为执行上述方法的动作的数据处理系统、计算机、处理器或控制单元,或者被编程为执行上述方法的动作的(现场)可编程逻辑阵列((F)PLA)或(现场)可编程门阵列((F)PGA)。
说明书和附图仅例示了本公开的原理。此外,本文中列举的所有示例原则上明确地仅旨在用于示范目的,以帮助读者理解本公开的原理以及发明人为进一步发展本领域所贡献的概念。本文中叙述本公开的原理、方面和示例的所有陈述及其特定示例旨在涵盖其等同例。
流程图、流程示意图、状态转变图、伪代码等可以表示各种处理、操作或步骤,所述各种处理、操作或步骤例如可以大致表示在计算机可读介质中并因此由计算机或处理器执行,而无论是否明确示出这种计算机或处理器。说明书或权利要求书中公开的方法可以由具有用于执行这些方法的相应动作中的各个动作的装置的设备来实现。
应该理解,说明书或权利要求书中公开的多个动作、处理、操作、步骤或功能的公开可以不被解释为在特定顺序内,除非例如出于技术原因而明确地或隐含地另外指出。因此,多个动作或功能的公开将不会使该多个动作或功能限于特定顺序,除非由于技术原因而使得这些动作或功能不可互换。此外,在一些示例中,单个动作、功能、处理、操作或步骤可以分别包括或可以分为多个子动作、子功能、子处理、子操作或子步骤。除非明确排除,否则这种子动作可以被包括在该单个动作的公开内并且是该单个动作的公开的一部分。
此外,所附权利要求据此被结合到详细描述中,其中,各个权利要求可以独立地作为单独的示例。尽管各个权利要求可以独立地作为单独的示例,但应注意,尽管从属权利要求在权利要求中可以指与一个或更多个其它权利要求的特定组合,但其它示例也可以包括从属权利与各个其它从属权利要求或独立权利要求的主题的组合。这种组合在本文中明确提出,除非声明不打算使用特定的组合。此外,旨在将权利要求的特征也包括到任何其它独立权利要求中,即使该权利要求未直接从属于该独立权利要求。
Claims (20)
1.一种用于预测对象的运动的方法(100),所述方法包括以下步骤:
基于被安装到所述对象的位置传感器的第一时间序列数据来确定(102)所述对象的位置;
基于被安装到所述对象的至少一个惯性传感器的第二时间序列数据来确定(104)所述对象的取向;
使用所述对象的所述位置以及所述对象的所述取向基于运动模型来外推(106)所述对象的运动轨迹,其中,所述运动模型将第一加权因子用于所述对象的所述位置并且将第二加权因子用于所述对象的所述取向。
2.根据权利要求1所述的方法,所述方法还包括:
确定所述对象的所述位置的第一置信水平;
确定所述对象的所述取向的第二置信水平;
基于所述第一置信水平来调节所述第一加权因子;以及
基于所述第二置信水平来调节所述第二加权因子。
3.根据权利要求2所述的方法,所述方法还包括:
基于与所述对象的所述运动有关的上下文信息来调节所述第一加权因子的值范围和/或所述第二加权因子的值范围。
4.根据权利要求1至3中任一项所述的方法,其中,所述运动模型基于至少三阶的多项式。
5.根据权利要求4所述的方法,其中,所述多项式是Kochanek-Bartels样条或三次Hermite样条。
6.根据权利要求4或权利要求5所述的方法,其中,外推所述对象的运动轨迹的步骤包括:基于所述对象的经加权的位置以及所述对象的经加权的取向来切向外推所述多项式。
7.根据权利要求1至6中任一项所述的方法,所述方法还包括:
基于所述第一时间序列数据和/或所述第二时间序列数据来确定所述对象的运动状态;
基于所述运动状态来调节所述第一加权因子和所述第二加权因子。
8.根据权利要求1至7中任一项所述的方法,其中,所述第二时间序列数据包括三维加速度数据、三维旋转速度数据、三维磁场强度数据和/或大气压力数据中的至少一者。
9.根据权利要求1至8中任一项所述的方法,其中,所述第一时间序列数据包括三维位置数据。
10.一种用于对描述对象的运动的运动模型进行校准的方法(200),所述方法包括以下步骤:
确定(202)被安装到所述对象的多个传感器的时间序列数据中的预定义数据模式,其中,所述预定义数据模式与所述对象的特定运动、特定位置和/或特定取向有关;
确定(204)所述多个传感器之一的时间序列数据相对于参考数据的偏差,其中,所述参考数据与所述预定义数据模式有关;以及
基于所述偏差来对所述运动模型进行校准(206)。
11.根据权利要求10所述的方法,其中,所述运动模型包括具有至少一个可调参数的滤波器,并且其中,对所述运动模型进行校准的步骤包括:基于所述偏差来调节所述参数。
12.根据权利要求10或权利要求11所述的方法,其中,所述运动模型是用于为用户生成虚拟现实视图的算法的一部分,并且其中,所述方法还包括:
基于所述偏差来不断改变所述虚拟现实视图,其中,所述虚拟现实视图的连续帧之间的变化低于所述用户的可感知阈值。
13.一种用于获得预定义量的方法(300),所述方法包括以下步骤:
确定(302)至少一个传感器的时间序列数据的关于获得所述时间序列数据的所述预定义量的置信水平;以及
如果所述置信水平低于阈值,则使用所述至少一个传感器的所述时间序列数据以及至少一个另外的传感器的另外的时间序列数据来获得(304)所述预定义量,其中,所述预定义量是通过将第一加权因子用于所述至少一个传感器的所述时间序列数据以及将第二加权因子用于至少一个另外的传感器的所述另外的时间序列数据来获得的。
14.根据权利要求13所述的方法,所述方法还包括:
使用所述至少一个传感器的所述时间序列数据的所述置信水平、所述至少一个另外的传感器的所述另外的时间序列数据的置信水平、与携带所述至少一个传感器的对象有关的一个或更多个物理约束、以及与所述对象有关的上下文信息中的至少一者来确定所述第一加权因子和/或所述第二加权因子。
15.根据权利要求14所述的方法,其中,使用机器学习算法来确定所述第一加权因子和/或所述第二加权因子。
16.一种用于为用户生成虚拟现实视图的方法(400),所述方法包括以下步骤:
根据权利要求1至9中任一项所述的方法来确定(402)所述用户的运动;
基于所述用户的所述运动来生成(404)所述虚拟现实视图;以及
向所述用户显示(406)所述虚拟现实视图。
17.根据权利要求16所述的方法,所述方法还包括以下步骤:
计算所述位置传感器的针对所述用户的预定义移动的预期的第一时间序列数据;
改变所述虚拟现实视图,向所述用户输出声音和/或散发气味,以便促使所述用户执行所述预定义移动;以及
确定所述位置传感器的针对所述用户的所述预定义移动的实际的第一时间序列数据相对于所述预期的第一时间序列数据的误差。
18.根据权利要求17所述的方法,所述方法还包括:
基于所述误差来对运动模型进行校准;和/或
基于所述误差来不断改变所述虚拟现实视图,其中,由于所述误差而导致的所述虚拟现实视图的连续帧之间的变化低于所述用户的可感知阈值。
19.根据权利要求16所述的方法,所述方法还包括以下步骤:
确定所述虚拟现实视图中的取向误差和/或定位误差;
改变所述虚拟现实视图,向所述用户输出声音和/或散发气味,以便促使所述用户执行预定义移动;以及
在所述用户执行所述预定义移动时,基于所述取向误差和/或所述定位误差来不断改变所述虚拟现实视图,其中,由于所述取向误差和/或所述定位误差而导致的所述虚拟现实视图的连续帧之间的变化低于所述用户的可感知阈值。
20.根据权利要求17或权利要求19所述的方法,其中,改变所述虚拟现实视图的步骤包括:改变所述虚拟现实视图中的观看方向或变换所述虚拟现实视图中的至少一个对象的几何形状,其中,所述虚拟现实视图的连续帧之间的所述观看方向的变化或所述至少一个对象的所述几何形状的变换低于所述用户的可感知阈值。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2017/084794 WO2019129355A1 (en) | 2017-12-29 | 2017-12-29 | Method for predicting a motion of an object, method for calibrating a motion model, method for deriving a predefined quantity and method for generating a virtual reality view |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111527465A true CN111527465A (zh) | 2020-08-11 |
Family
ID=60923503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780097994.5A Pending CN111527465A (zh) | 2017-12-29 | 2017-12-29 | 预测对象运动的方法、校准运动模型的方法、获得预定义量的方法和生成虚拟现实视图的方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20200334837A1 (zh) |
EP (1) | EP3732549B1 (zh) |
JP (1) | JP7162063B2 (zh) |
KR (1) | KR102509678B1 (zh) |
CN (1) | CN111527465A (zh) |
CA (1) | CA3086559C (zh) |
ES (1) | ES2923289T3 (zh) |
WO (1) | WO2019129355A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019164737A1 (en) * | 2018-02-20 | 2019-08-29 | International Flavors & Fragrances Inc. | Device and method for integrating scent into virtual reality environment |
DE102020109121A1 (de) * | 2019-04-02 | 2020-10-08 | Ascension Technology Corporation | Korrektur von Verzerrungen |
US11409360B1 (en) * | 2020-01-28 | 2022-08-09 | Meta Platforms Technologies, Llc | Biologically-constrained drift correction of an inertial measurement unit |
JP2021152578A (ja) * | 2020-03-24 | 2021-09-30 | オリンパス株式会社 | 撮像装置および追尾方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105009027A (zh) * | 2012-12-03 | 2015-10-28 | 纳维森斯有限公司 | 用于估计对象的运动的系统和方法 |
US20170357332A1 (en) * | 2016-06-09 | 2017-12-14 | Alexandru Octavian Balan | Six dof mixed reality input by fusing inertial handheld controller with hand tracking |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6639592B1 (en) * | 1996-08-02 | 2003-10-28 | Silicon Graphics, Inc. | Curve network modeling |
US7238079B2 (en) * | 2003-01-14 | 2007-07-03 | Disney Enterprise, Inc. | Animatronic supported walking system |
EP1970005B1 (en) * | 2007-03-15 | 2012-10-03 | Xsens Holding B.V. | A system and a method for motion tracking using a calibration unit |
KR101185589B1 (ko) * | 2008-11-14 | 2012-09-24 | (주)마이크로인피니티 | 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스 |
JP6015664B2 (ja) * | 2010-12-01 | 2016-10-26 | コミサリアト ア レネルジー アトミクー エ オ エネルジーズ アルタナティヴズ | 移動するユーザ、移動端末、または交通手段の軌跡推定方法、コンピュータプログラム、および軌跡推定装置 |
US10415975B2 (en) * | 2014-01-09 | 2019-09-17 | Xsens Holding B.V. | Motion tracking with reduced on-body sensors set |
WO2015141328A1 (ja) * | 2014-03-18 | 2015-09-24 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
JP2016082462A (ja) * | 2014-10-20 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
KR20170098232A (ko) * | 2014-12-22 | 2017-08-29 | 톰슨 라이센싱 | 오브젝트 검출에 기초하여 외삽된 이미지를 생성하는 방법 및 장치 |
-
2017
- 2017-12-29 EP EP17825268.0A patent/EP3732549B1/en active Active
- 2017-12-29 JP JP2020536517A patent/JP7162063B2/ja active Active
- 2017-12-29 CA CA3086559A patent/CA3086559C/en active Active
- 2017-12-29 CN CN201780097994.5A patent/CN111527465A/zh active Pending
- 2017-12-29 KR KR1020207021365A patent/KR102509678B1/ko active IP Right Grant
- 2017-12-29 ES ES17825268T patent/ES2923289T3/es active Active
- 2017-12-29 WO PCT/EP2017/084794 patent/WO2019129355A1/en unknown
- 2017-12-29 US US16/958,751 patent/US20200334837A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105009027A (zh) * | 2012-12-03 | 2015-10-28 | 纳维森斯有限公司 | 用于估计对象的运动的系统和方法 |
US20170357332A1 (en) * | 2016-06-09 | 2017-12-14 | Alexandru Octavian Balan | Six dof mixed reality input by fusing inertial handheld controller with hand tracking |
WO2017213939A1 (en) * | 2016-06-09 | 2017-12-14 | Microsoft Technology Licensing, Llc | Six dof mixed reality input by fusing inertial handheld controller with hand tracking |
Also Published As
Publication number | Publication date |
---|---|
WO2019129355A1 (en) | 2019-07-04 |
US20200334837A1 (en) | 2020-10-22 |
KR20200100160A (ko) | 2020-08-25 |
JP7162063B2 (ja) | 2022-10-27 |
JP2021508886A (ja) | 2021-03-11 |
EP3732549A1 (en) | 2020-11-04 |
KR102509678B1 (ko) | 2023-03-14 |
CA3086559A1 (en) | 2019-07-04 |
ES2923289T3 (es) | 2022-09-26 |
EP3732549B1 (en) | 2022-06-29 |
CA3086559C (en) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111527465A (zh) | 预测对象运动的方法、校准运动模型的方法、获得预定义量的方法和生成虚拟现实视图的方法 | |
JP6198230B2 (ja) | 深度カメラを使用した頭部姿勢トラッキング | |
CN110133582B (zh) | 补偿电磁跟踪系统中的畸变 | |
US10415975B2 (en) | Motion tracking with reduced on-body sensors set | |
US20210141443A1 (en) | Program, information processor, and information processing method | |
CN108958362B (zh) | 实现融合来自惯性传感器的数据的算法的计算系统和方法 | |
KR20190098003A (ko) | 장치의 자세 추정 방법 및 그 장치 | |
CN109643205B (zh) | 利用自适应参考的头部跟踪 | |
JP2022529245A (ja) | 電磁追跡のためのセンサ融合 | |
US10268882B2 (en) | Apparatus for recognizing posture based on distributed fusion filter and method for using the same | |
JP2018524553A (ja) | 歩行者推測航法用の技術 | |
KR20220122287A (ko) | 증강 현실 제공 장치의 포즈 결정 방법 및 장치 | |
CN102844787B (zh) | 稳定方法及计算机系统 | |
KR101840151B1 (ko) | 개선된 사용자 경험을 동반하는 에어 포인터 | |
US11620771B2 (en) | Head tracking with adaptive reference | |
EP2827101A1 (en) | Method for determing a position of a tracking device | |
TWI680382B (zh) | 電子裝置及其姿態校正方法 | |
JPWO2019129355A5 (zh) | ||
JP2021051000A (ja) | 角速度検出装置、画像表示装置、角速度検出方法、及びプログラム | |
KR102280780B1 (ko) | 모션 센서의 측정 정확도를 향상시키기 위한 전자 장치 및 그 방법 | |
CN111078489B (zh) | 电子装置及其姿态校正方法 | |
KR101997411B1 (ko) | 다중 센서를 이용하는 보행자 위치 추정 방법 및 장치 | |
EP3627287A1 (en) | Tracking method and tracking system using the same | |
CN115371667A (zh) | 便携终端、步行机器人、存储介质及位置运算支援方法 | |
CN117782077A (zh) | 用于估计工程机械运动轨迹的方法、处理器及工程机械 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200811 |