CN113503898A - 一种惯性动作数据的实时校准方法和装置 - Google Patents
一种惯性动作数据的实时校准方法和装置 Download PDFInfo
- Publication number
- CN113503898A CN113503898A CN202110778067.8A CN202110778067A CN113503898A CN 113503898 A CN113503898 A CN 113503898A CN 202110778067 A CN202110778067 A CN 202110778067A CN 113503898 A CN113503898 A CN 113503898A
- Authority
- CN
- China
- Prior art keywords
- angle
- time
- real
- calibration value
- motion data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 172
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000009012 visual motion Effects 0.000 claims abstract description 28
- 238000004364 calculation method Methods 0.000 claims description 35
- 238000012937 correction Methods 0.000 claims description 22
- 238000005096 rolling process Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 13
- 230000009471 action Effects 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 239000000126 substance Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
Landscapes
- Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Navigation (AREA)
Abstract
本发明实施例提供了一种惯性动作数据的实时校准方法和装置。所述方法包括:在本发明实施例中,采集目标部位的初始惯性动作数据集,采集所述目标部位的初始视觉动作数据集,根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值,采集所述目标部位的实时惯性动作数据,采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据,采用本发明的技术方案,无须用户摆出特定的静态动作进行校准,也无须中断正在进行的人体动作捕捉工作,便能实现人体惯性动作数据的实时校准。
Description
技术领域
本发明涉及惯性动作数据的校准技术领域,特别是涉及一种惯性动作数据的实时校准方法和装置。
背景技术
穿戴式惯性传感器动作捕捉系统相对于传统光学动作捕捉系统,具有使用方便、性价比高、随时随地使用快速便捷的优势,没有光学动作捕捉繁琐的校准过程。
但由于穿戴式惯性传感器动作捕捉系统本身的技术方案,受限于所使用传感器自身固有特性局限,会出现长期使用累积漂移问题,导致在进行连续长时间人体动作捕捉工作后,惯性传感器中的陀螺仪传感器会出现数据漂移问题,使得在经过数据处理后的人体姿态数据无法真实反映出实时的用户动作状态,在虚拟人体展现效果上出现动作扭曲变形的现象,此时则需要对穿戴式惯性传感器动作捕捉系统重新进行校准,虽然校准过程步骤相对于传统光学动作捕捉系统来说已经非常简单,只需完成几个简单的固定动作即可实现校准,但是如果周期性的进行这样的校准动作,在实际使用中会不定时的打断正在进行的动作捕捉采集工作。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种惯性动作数据的实时校准方法和相应的一种惯性动作数据的实时校准装置。
为了解决上述问题,本发明实施例公开了一种惯性动作数据的实时校准方法,所述方法包括:
采集目标部位的初始惯性动作数据集;
采集所述目标部位的初始视觉动作数据集;
根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值;
采集所述目标部位的实时惯性动作数据;
采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据。
可选地,所述初始惯性动作数据集包括多组第一欧拉角数据,所述第一欧拉角数据具有唯一对应的第一时间戳,所初始视觉动作数据集包括多组第二欧拉角数据,所述第二欧拉角数据具有唯一对应的第二时间戳,所述动作校准值为欧拉角校准值,根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值的步骤包括:
确定校准时刻;
根据所述校准时刻以及所述第一时间戳,从所述多组第一欧拉角数据中确定第三欧拉角数据;
根据所述校准时刻以及所述第二时间戳,从所述多组第二欧拉角数据中确定第四欧拉角数据;
采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值。
可选地,所述第三欧拉角数据包括第一偏航角、第一俯仰角以及第一翻滚角,所述第四欧拉角数据包括第二偏航角、第二俯仰角以及第二翻滚角,所述欧拉角校准值包括偏航角校准值、俯仰角校准值以及翻滚角校准值,采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值包括:
采用所述第一偏航角减去所述第二偏航角,得到所述偏航角校准值;
采用所述第一俯仰角减去所述第二俯仰角,得到所述俯仰角校准值;
采用所述第一翻滚角减去所述第二翻滚角,得到所述翻滚角校准值。
可选地,所述实时惯性动作数据包括实时偏航角、实时俯仰角以及实时翻滚角,所述实时修正惯性动作数据包括实时修正偏航角、实时修正俯仰角以及实时修正翻滚角,所述采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据的步骤包括:
采用所述实时偏航角减去所述偏航角校准值,得到所述实时修正偏航角;
采用所述实时俯仰角减去所述俯仰角校准值,得到所述实时修正俯仰角;
采用所述实时翻滚角减去所述翻滚角校准值,得到所述实时修正翻滚角。
本发明实施例还公开了一种惯性动作数据的实时校准装置,所述装置包括:
初始惯性动作数据集采集模块,用于采集目标部位的初始惯性动作数据集;
初始视觉动作数据集采集模块,用于采集所述目标部位的初始视觉动作数据集;
动作校准值计算模块,用于根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值;
实时惯性动作数据采集模块,用于采集所述目标部位的实时惯性动作数据;
校准模块,用于采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据。
可选地,所述初始惯性动作数据集包括多组第一欧拉角数据,所述第一欧拉角数据具有唯一对应的第一时间戳,所初始视觉动作数据集包括多组第二欧拉角数据,所述第二欧拉角数据具有唯一对应的第二时间戳,所述动作校准值为欧拉角校准值,动作校准值计算模块包括:
校准时刻确定子模块,用于确定校准时刻;
第三欧拉角数据确定子模块,用于根据所述校准时刻以及所述第一时间戳,从所述多组第一欧拉角数据中确定第三欧拉角数据;
第四欧拉角数据确定子模块,用于根据所述校准时刻以及所述第二时间戳,从所述多组第二欧拉角数据中确定第四欧拉角数据;
欧拉角校准值计算子模块,用于采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值。
可选地,所述第三欧拉角数据包括第一偏航角、第一俯仰角以及第一翻滚角,所述第四欧拉角数据包括第二偏航角、第二俯仰角以及第二翻滚角,所述欧拉角校准值包括偏航角校准值、俯仰角校准值以及翻滚角校准值,欧拉角校准值计算子模块包括:
偏航角校准值计算单元,用于采用所述第一偏航角减去所述第二偏航角,得到所述偏航角校准值;
俯仰角校准值计算单元,用于采用所述第一俯仰角减去所述第二俯仰角,得到所述俯仰角校准值;
翻滚角校准值计算单元,用于采用所述第一翻滚角减去所述第二翻滚角,得到所述翻滚角校准值。
可选地,所述实时惯性动作数据包括实时偏航角、实时俯仰角以及实时翻滚角,所述实时修正惯性动作数据包括实时修正偏航角、实时修正俯仰角以及实时修正翻滚角,所述校准模块包括:
实时修正偏航角计算子模块,采用所述实时偏航角减去所述偏航角校准值,得到所述实时修正偏航角;
实时修正俯仰角计算子模块,采用所述实时俯仰角减去所述俯仰角校准值,得到所述实时修正俯仰角;
实时修正翻滚角计算子模块,采用所述实时翻滚角减去所述翻滚角校准值,得到所述实时修正翻滚角。
本发明实施例包括以下优点:在本发明实施例中,采集目标部位的初始惯性动作数据集,采集所述目标部位的初始视觉动作数据集,根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值,采集所述目标部位的实时惯性动作数据,采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据,采用本发明的技术方案,无须用户摆出特定的静态动作进行校准,也无须中断正在进行的人体动作捕捉工作,便能实现人体惯性动作数据的实时校准。
附图说明
图1是本发明的一种惯性动作数据的实时校准实施例一的步骤流程图。
图2是本发明的一种惯性动作数据的实时校准实施例一的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明的一种惯性动作数据的实时校准方法实施例一的步骤流程图,具体可以包括如下步骤:
步骤101,采集目标部位的初始惯性动作数据集;
所述目标部位可以为人体的任意部位,例如头部、上臂、小臂、手掌、各个手指骨骼、手、肩膀、背、腰、胯、腿、脚等部位。所述初始惯性动作数据可以采用四元数或者欧拉角数据表示,本发明实施例对此不作进一步的限制。
本发明实施例中,通过在目标部位的位置佩戴惯性动作传感器,按时间顺序间隔采样,获得多组改目标部位的初始惯性动作数据,每组惯性动作数据具有其唯一对应的时间戳,多组不同时间点的初始惯性动作数据组成所述初始惯性动作数据集。例如,若目标部位为头部,则采集头部的初始惯性动作数据集。在采集了人体的多个目标部位的初始惯性动作数据集后,便可以构建人体虚拟运动模型。
步骤102,采集所述目标部位的初始视觉动作数据集;
当初始惯性动作数据采集过程中,出现数据漂移问题时,会导致搭建的人体虚拟运动模型失真,此时需要对初始惯性动作数据进行修正,首先,采集所述目标部位的初始视觉动作数据集。
同样的,初始视觉动作数据集包括多组不同时间点的初始视觉动作数据,每组初始视觉动作数据具有其唯一对应的的时间戳。在本发明的实施例中,可以采用摄像头对初始视觉动作数据集进行采集。
步骤103,根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值;
所述初始惯性动作数据集包括多组第一欧拉角数据,所述第一欧拉角数据具有对应的第一时间戳,所初始视觉动作数据集包括多组第二欧拉角数据,所述第二欧拉角数据具有对应的第二时间戳,所述动作校准值为欧拉角校准值,根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值的步骤包括:
子步骤1031,确定校准时刻;
当发现初始惯性动作数据的数据漂移较大时,可以对初始惯性动作数据进行校准。首先,确定校准时刻,所述校准时刻为数据需要开始进行校准的时刻,在校准时刻后的所有惯性动作数据都需要进行校准处理。
子步骤1032,根据所述校准时刻以及所述第一时间戳,从所述多组第一欧拉角数据中确定第三欧拉角数据;
具体的,检索得到与所述校准时刻匹配的第一时间戳,然后将第一时间戳对应的第一欧拉角数据确定为第三欧拉角数据。
子步骤1033,根据所述校准时刻以及所述第二时间戳,从所述多组第二欧拉角数据中确定第四欧拉角数据;
具体的,检索得到与所述校准时刻匹配的第二时间戳,然后将第一时间戳对应的第二欧拉角数据确定为第四欧拉角数据。容易得知,所述第一时间戳与所述第二时间戳相同。
子步骤1034,采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值。
所述第三欧拉角数据包括第一偏航角、第一俯仰角以及第一翻滚角,所述第四欧拉角数据包括第二偏航角、第二俯仰角以及第二翻滚角,所述欧拉角校准值包括偏航角校准值、俯仰角校准值以及翻滚角校准值,采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值包括:
所述第一偏航角减去所述第二偏航角,得到所述偏航角校准值,计算公式如下:
Offset(θ,t)=F(θ,t)-f(θ,t)
其中,
t为校准时刻;
F(θ,t)为第一偏航角;
f(θ,t)为第二偏航角;
Offset(θ,t)为偏航角校准值。
所述第一俯仰角减去所述第二俯仰角,得到所述俯仰角校准值,计算公式如下:
Offset(ψ,t)=F(ψ,t)-f(ψ,t)
其中,
t为校准时刻;
F(ψ,t)为第一俯仰角;
f(ψ,t)为第二俯仰角;
Offset(ψ,t)为俯仰角校准值。
所述第一翻滚角减去所述第二翻滚角,得到所述翻滚角校准值,计算公式如下:
Offset(φ,t)=F(φ,t)-f(φ,t)
其中,
t为校准时刻;
F(φ,t)为第一翻滚角;
f(φ,t)为第二翻滚角;
Offset(φ,t)为翻滚角校准值。
步骤104,采集所述目标部位的实时惯性动作数据;
在本发明的实施例中,所述初始惯性动作数据集为校准时刻之前无须进行校正的数据,所述实时惯性动作数据为所述校准时刻之后需要进行校正的数据。在无须校正的初始惯性动作数据集采集结束后,继续进行需要校正的实时惯性动作数据的采集,此过程并不会造成惯性动作数据采集工作的中断。
步骤105,采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据。
所述实时惯性动作数据包括实时偏航角、实时俯仰角以及实时翻滚角,所述实时修正惯性动作数据包括实时修正偏航角、实时修正俯仰角以及实时修正翻滚角,所述采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据的步骤包括:
所述实时偏航角减去所述偏航角校准值,得到所述实时修正偏航角;
P(θ,T)=Q(θ,T)-Offset(θ,t)
其中,
P(θ,T)为实时修正偏航角;
Q(θ,T)为实时偏航角;
Offset(θ,t)为偏航角校准值。
所述实时俯仰角减去所述俯仰角校准值,得到所述实时修正俯仰角;
P(ψ,T)=Q(ψ,T)-Offset(ψ,t)
其中,
P(ψ,T)为实时修正俯仰角;
Q(ψ,T)为实时俯仰角;
Offset(ψ,t)为俯仰角校准值。
所述实时翻滚角减去所述翻滚角校准值,得到所述实时修正翻滚角。
P(φ,T)=Q(φ,T)-Offset(φ,t)
其中,
P(φ,T)为实时修正翻滚角;
Q(φ,T)为实时翻滚角;
Offset(φ,t)为翻滚角校准值。
本发明的另一种可选实施例中,一种惯性动作数据的实时校准方法具体可以包括如下步骤:
采集目标部位的初始惯性动作数据集;
采集所述目标部位的初始视觉动作数据集;
根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值;
所述初始惯性动作数据集包括多组第一欧拉角数据,所述第一欧拉角数据具有对应的第一时间戳,所初始视觉动作数据集包括多组第二欧拉角数据,所述第二欧拉角数据具有对应的第二时间戳,所述动作校准值为欧拉角校准值,根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值的步骤包括:
确定校准时刻;
确定第三欧拉角数据;
根据所述校准时刻以及所述第二时间戳,从所述多组第二欧拉角数据中确定第四欧拉角数据;
采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值。
所述第三欧拉角数据包括第一偏航角、第一俯仰角以及第一翻滚角,所述第四欧拉角数据包括第二偏航角、第二俯仰角以及第二翻滚角,所述欧拉角校准值包括偏航角校准值、俯仰角校准值以及翻滚角校准值,采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值包括:
采用所述第二偏航角减去所述第一偏航角,得到所述偏航角校准值;
采用所述第二俯仰角减去所述第一俯仰角,得到所述俯仰角校准值;
采用所述第二翻滚角减去所述第一翻滚角,得到所述翻滚角校准值。
采集所述目标部位的实时惯性动作数据;
采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据。
所述实时惯性动作数据包括实时偏航角、实时俯仰角以及实时翻滚角,所述实时修正惯性动作数据包括实时修正偏航角、实时修正俯仰角以及实时修正翻滚角,所述采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据的步骤包括:
采用所述实时偏航角加上所述偏航角校准值,得到所述实时修正偏航角;
采用所述实时俯仰角加上所述俯仰角校准值,得到所述实时修正俯仰角;
采用所述实时翻滚角加上所述翻滚角校准值,得到所述实时修正翻滚角。
在本发明实施例中,采集目标部位的初始惯性动作数据集,采集所述目标部位的初始视觉动作数据集,根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值,采集所述目标部位的实时惯性动作数据,采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据,采用本发明的技术方案,无须用户摆出特定的静态动作进行校准,也无须中断正在进行的人体动作捕捉工作,便能实现人体惯性动作数据的实时校准。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图2,示出了本发明的一种惯性动作数据的实时校准装置实施例一的结构框图,具体可以包括如下模块:
初始惯性动作数据集采集模块201,用于采集目标部位的初始惯性动作数据集;
初始视觉动作数据集采集模块202,用于采集所述目标部位的初始视觉动作数据集;
动作校准值计算模块203,用于根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值;
实时惯性动作数据采集模块204,用于采集所述目标部位的实时惯性动作数据;
校准模块205,用于采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据。
在本发明实施例中,所述初始惯性动作数据集包括多组第一欧拉角数据,所述第一欧拉角数据具有唯一对应的第一时间戳,所初始视觉动作数据集包括多组第二欧拉角数据,所述第二欧拉角数据具有唯一对应的第二时间戳,所述动作校准值为欧拉角校准值,动作校准值计算模块包括:
校准时刻确定子模块,用于确定校准时刻;
第三欧拉角数据确定子模块,用于根据所述校准时刻以及所述第一时间戳,从所述多组第一欧拉角数据中确定第三欧拉角数据;
第四欧拉角数据确定子模块,用于根据所述校准时刻以及所述第二时间戳,从所述多组第二欧拉角数据中确定第四欧拉角数据;
欧拉角校准值计算子模块,用于采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值。
在本发明实施例中,所述第三欧拉角数据包括第一偏航角、第一俯仰角以及第一翻滚角,所述第四欧拉角数据包括第二偏航角、第二俯仰角以及第二翻滚角,所述欧拉角校准值包括偏航角校准值、俯仰角校准值以及翻滚角校准值,欧拉角校准值计算子模块包括:
偏航角校准值计算单元,用于采用所述第一偏航角减去所述第二偏航角,得到所述偏航角校准值;
俯仰角校准值计算单元,用于采用所述第一俯仰角减去所述第二俯仰角,得到所述俯仰角校准值;
翻滚角校准值计算单元,用于采用所述第一翻滚角减去所述第二翻滚角,得到所述翻滚角校准值。
在本发明实施例中,所述实时惯性动作数据包括实时偏航角、实时俯仰角以及实时翻滚角,所述实时修正惯性动作数据包括实时修正偏航角、实时修正俯仰角以及实时修正翻滚角,所述校准模块包括:
实时修正偏航角计算子模块,采用所述实时偏航角减去所述偏航角校准值,得到所述实时修正偏航角;
实时修正俯仰角计算子模块,采用所述实时俯仰角减去所述俯仰角校准值,得到所述实时修正俯仰角;
实时修正翻滚角计算子模块,采用所述实时翻滚角减去所述翻滚角校准值,得到所述实时修正翻滚角。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明实施例还提供了一种装置,包括:
包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,该计算机程序被处理器执行时实现上述一种惯性动作数据的实时校准方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现上述一种惯性动作数据的实时校准方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种惯性动作数据的实时校准方法和一种惯性动作数据的实时校准装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (9)
1.一种惯性动作数据的实时校准方法,其特征在于,所述方法包括:
采集目标部位的初始惯性动作数据集;
采集所述目标部位的初始视觉动作数据集;
根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值;
采集所述目标部位的实时惯性动作数据;
采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据。
2.根据权利要求1所述的方法,其特征在于,所述初始惯性动作数据集包括多组第一欧拉角数据,所述第一欧拉角数据具有唯一对应的第一时间戳,所初始视觉动作数据集包括多组第二欧拉角数据,所述第二欧拉角数据具有唯一对应的第二时间戳,所述动作校准值为欧拉角校准值,根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值的步骤包括:
确定校准时刻;
根据所述校准时刻以及所述第一时间戳,从所述多组第一欧拉角数据中确定第三欧拉角数据;
根据所述校准时刻以及所述第二时间戳,从所述多组第二欧拉角数据中确定第四欧拉角数据;
采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值。
3.根据权利要求2所述的方法,其特征在于,所述第三欧拉角数据包括第一偏航角、第一俯仰角以及第一翻滚角,所述第四欧拉角数据包括第二偏航角、第二俯仰角以及第二翻滚角,所述欧拉角校准值包括偏航角校准值、俯仰角校准值以及翻滚角校准值,采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值包括:
采用所述第一偏航角减去所述第二偏航角,得到所述偏航角校准值;
采用所述第一俯仰角减去所述第二俯仰角,得到所述俯仰角校准值;
采用所述第一翻滚角减去所述第二翻滚角,得到所述翻滚角校准值。
4.根据权利要求3所述的方法,其特征在于,所述实时惯性动作数据包括实时偏航角、实时俯仰角以及实时翻滚角,所述实时修正惯性动作数据包括实时修正偏航角、实时修正俯仰角以及实时修正翻滚角,所述采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据的步骤包括:
采用所述实时偏航角减去所述偏航角校准值,得到所述实时修正偏航角;
采用所述实时俯仰角减去所述俯仰角校准值,得到所述实时修正俯仰角;
采用所述实时翻滚角减去所述翻滚角校准值,得到所述实时修正翻滚角。
5.一种惯性动作数据的实时校准装置,其特征在于,所述装置包括:
初始惯性动作数据集采集模块,用于采集目标部位的初始惯性动作数据集;
初始视觉动作数据集采集模块,用于采集所述目标部位的初始视觉动作数据集;
动作校准值计算模块,用于根据所述初始惯性动作数据集以及所述初始视觉动作数据集,计算动作校准值;
实时惯性动作数据采集模块,用于采集所述目标部位的实时惯性动作数据;
校准模块,用于采用所述动作校准值对所述实时惯性动作数据进行校准,得到所述目标部位的实时修正惯性动作数据。
6.根据权利要求5所述的装置,其特征在于,所述初始惯性动作数据集包括多组第一欧拉角数据,所述第一欧拉角数据具有唯一对应的第一时间戳,所初始视觉动作数据集包括多组第二欧拉角数据,所述第二欧拉角数据具有唯一对应的第二时间戳,所述动作校准值为欧拉角校准值,动作校准值计算模块包括:
校准时刻确定子模块,用于确定校准时刻;
第三欧拉角数据确定子模块,用于根据所述校准时刻以及所述第一时间戳,从所述多组第一欧拉角数据中确定第三欧拉角数据;
第四欧拉角数据确定子模块,用于根据所述校准时刻以及所述第二时间戳,从所述多组第二欧拉角数据中确定第四欧拉角数据;
欧拉角校准值计算子模块,用于采用所述第三欧拉角数据以及所述第四欧拉角数据,计算得到欧拉角校准值。
7.根据权利要求6所述的装置,其特征在于,所述第三欧拉角数据包括第一偏航角、第一俯仰角以及第一翻滚角,所述第四欧拉角数据包括第二偏航角、第二俯仰角以及第二翻滚角,所述欧拉角校准值包括偏航角校准值、俯仰角校准值以及翻滚角校准值,欧拉角校准值计算子模块包括:
偏航角校准值计算单元,用于采用所述第一偏航角减去所述第二偏航角,得到所述偏航角校准值;
俯仰角校准值计算单元,用于采用所述第一俯仰角减去所述第二俯仰角,得到所述俯仰角校准值;
翻滚角校准值计算单元,用于采用所述第一翻滚角减去所述第二翻滚角,得到所述翻滚角校准值。
8.根据权利要求7所述的装置,其特征在于,所述实时惯性动作数据包括实时偏航角、实时俯仰角以及实时翻滚角,所述实时修正惯性动作数据包括实时修正偏航角、实时修正俯仰角以及实时修正翻滚角,所述校准模块包括:
实时修正偏航角计算子模块,采用所述实时偏航角减去所述偏航角校准值,得到所述实时修正偏航角;
实时修正俯仰角计算子模块,采用所述实时俯仰角减去所述俯仰角校准值,得到所述实时修正俯仰角;
实时修正翻滚角计算子模块,采用所述实时翻滚角减去所述翻滚角校准值,得到所述实时修正翻滚角。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的一种惯性动作数据的实时校准方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110778067.8A CN113503898A (zh) | 2021-07-09 | 2021-07-09 | 一种惯性动作数据的实时校准方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110778067.8A CN113503898A (zh) | 2021-07-09 | 2021-07-09 | 一种惯性动作数据的实时校准方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113503898A true CN113503898A (zh) | 2021-10-15 |
Family
ID=78012135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110778067.8A Pending CN113503898A (zh) | 2021-07-09 | 2021-07-09 | 一种惯性动作数据的实时校准方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113503898A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103150016A (zh) * | 2013-02-20 | 2013-06-12 | 兰州交通大学 | 一种融合超宽带定位与惯性传感技术的多人动作捕捉系统 |
CN106125908A (zh) * | 2016-06-14 | 2016-11-16 | 上海锡月科技有限公司 | 一种动作捕捉校准系统 |
CN107293099A (zh) * | 2017-07-04 | 2017-10-24 | 歌尔科技有限公司 | 一种姿态监测方法、装置和穿戴设备 |
CN110163911A (zh) * | 2019-04-10 | 2019-08-23 | 电子科技大学 | 一种图像与惯性结合的头部姿态检测系统 |
CN110850961A (zh) * | 2019-09-30 | 2020-02-28 | 深圳市瑞立视多媒体科技有限公司 | 一种头戴式显示设备的校准方法及头戴式显示设备 |
CN112015269A (zh) * | 2020-08-03 | 2020-12-01 | 深圳市瑞立视多媒体科技有限公司 | 头显设备的显示校正方法、设备及存储介质 |
WO2021093593A1 (zh) * | 2019-11-12 | 2021-05-20 | 深圳市瑞立视多媒体科技有限公司 | 运动数据标定方法、装置、终端设备及存储介质 |
-
2021
- 2021-07-09 CN CN202110778067.8A patent/CN113503898A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103150016A (zh) * | 2013-02-20 | 2013-06-12 | 兰州交通大学 | 一种融合超宽带定位与惯性传感技术的多人动作捕捉系统 |
CN106125908A (zh) * | 2016-06-14 | 2016-11-16 | 上海锡月科技有限公司 | 一种动作捕捉校准系统 |
CN107293099A (zh) * | 2017-07-04 | 2017-10-24 | 歌尔科技有限公司 | 一种姿态监测方法、装置和穿戴设备 |
CN110163911A (zh) * | 2019-04-10 | 2019-08-23 | 电子科技大学 | 一种图像与惯性结合的头部姿态检测系统 |
CN110850961A (zh) * | 2019-09-30 | 2020-02-28 | 深圳市瑞立视多媒体科技有限公司 | 一种头戴式显示设备的校准方法及头戴式显示设备 |
WO2021093593A1 (zh) * | 2019-11-12 | 2021-05-20 | 深圳市瑞立视多媒体科技有限公司 | 运动数据标定方法、装置、终端设备及存储介质 |
CN112015269A (zh) * | 2020-08-03 | 2020-12-01 | 深圳市瑞立视多媒体科技有限公司 | 头显设备的显示校正方法、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11730547B2 (en) | Tracking system and tracking method using same | |
CN109448090B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
JP2015501700A5 (zh) | ||
DK1831845T3 (da) | Fremgangsmåde og anordning til rekonstruktion af en (n+1)-dimensionel billedfunktion på basis af radon-data | |
JP2008261755A5 (zh) | ||
JP2011133984A (ja) | 動作特徴抽出装置および動作特徴抽出方法 | |
CN112528957A (zh) | 人体运动基础信息检测方法、系统及电子设备 | |
JP2015106290A5 (zh) | ||
JP6345343B2 (ja) | 電子ペン、当該電子ペンの移動パターンおよびペン位置を検出および評価する方法ならびにペン位置検出システム | |
Millor et al. | Drift-free position estimation for periodic movements using inertial units | |
WO2012150329A1 (de) | Verfahren und system zum lokalisieren einer person | |
CN110916673A (zh) | 一种步态监测的方法及智能设备 | |
CN107632966B (zh) | 运动轨迹确定方法及电子设备 | |
CN113503898A (zh) | 一种惯性动作数据的实时校准方法和装置 | |
CN114973048A (zh) | 康复动作的纠正方法、装置、电子设备及可读介质 | |
CN110826422A (zh) | 一种用于获得运动参数信息的系统和方法 | |
CN116881781A (zh) | 一种运行模态阻尼识别方法、损伤检测方法、系统及设备 | |
WO2016165333A1 (zh) | 一种实现计步的方法及装置 | |
EP2765477A3 (en) | Method and apparatus for performing motion recognition using motion sensor fusion, and associated computer program product | |
CN110801214A (zh) | 一种心率实时检测方法及系统 | |
CN203630717U (zh) | 基于轻型惯导传感输入设备的交互系统 | |
CN112933579B (zh) | 一种运动质量评估方法及装置、存储介质 | |
CN115414022A (zh) | 数据的处理方法、处理装置、电子设备和存储介质 | |
KR102582349B1 (ko) | 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치 및 방법 | |
EP2980752A1 (en) | Image processing device, image processing system, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20211015 |