CN103994765A - 一种惯性传感器的定位方法 - Google Patents
一种惯性传感器的定位方法 Download PDFInfo
- Publication number
- CN103994765A CN103994765A CN201410068756.XA CN201410068756A CN103994765A CN 103994765 A CN103994765 A CN 103994765A CN 201410068756 A CN201410068756 A CN 201410068756A CN 103994765 A CN103994765 A CN 103994765A
- Authority
- CN
- China
- Prior art keywords
- data
- inertial sensor
- depth
- time
- rgb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种惯性传感器的定位方法,其能够实现长时间稳定定位。这种惯性传感器的定位方法包括步骤:(1)使用Android手机获取惯性传感器数据,通过无线路由器实时传输至服务器计算机;(2)使用Kinect深度摄像机获取RGB-D数据,通过局域网实时传输至服务器计算机;(3)对步骤(1)和(2)的两种数据进行时间和空间上的对齐,时间对齐是将两种数据每一时刻的数据映射起来,空间对齐是对两种数据定位坐标系建立投影映射关系,使之能够相互转换;(4)利用步骤(2)的RGB-D数据修正惯性传感器定位的累积误差,实现长时间稳定定位。
Description
技术领域
本发明属于计算机视觉的技术领域,具体地涉及一种惯性传感器的定位方法,其使用Kinect深度摄像机的RGB-D信息来辅助修复惯性传感器的定位累积误差,从而实现长时间稳定定位。
背景技术
目标定位一直是计算机视觉领域的重要研究课题。常见的定位技术有GPS定位、无线定位、基站定位、惯性传感器定位等,本发明使用的是惯性传感器定位。
随着微机电系统(MEMS)技术的快速发展,惯性传感器具有体积小、重量轻、成本低等特点,被广泛应用于终端设备中,如智能移动终端。用户需要主动参与携带必要的传感器设备,然后通过传感器中加速度计和陀螺仪采集的数据实现目标定位。这种主动定位方法可以实现自我导航。但惯性传感器定位方法存在一个关键问题,即随着时间的增加,定位会出现越来越大的累积误差。目前虽然已经有一些方法实现了惯性传感器定位误差的修正,但长时间定位仍然是一个挑战。
为了克服这个问题,我们提出了一个通过使用Kinect深度摄像机获得的RGB-D数据修正累积误差的方法。
Kinect是一种3D体感摄像机,主要应用于体感游戏的信息获取,可以捕捉到深度信息、视频信息、骨架信息等。使用Kinect摄像机获得的RGB-D数据,可以很方便地获取Kinect视线内目标的三维位置,并且在4米视距内的精度很高,可以反映目标的真实位置。在传感器定位区域内的一些主要地方放置Kinect摄像机,可以获得Kinect摄像机实现范围内的高精度定位坐标,从而及时修正惯性传感器定位的累积误差,为长时间稳定定位提供条件,对于老人监护、儿童监护、罪犯监视等场合很有意义。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提供一种惯性传感器的定位方法,其能够实现长时间稳定定位。
本发明的技术解决方案是:这种惯性传感器的定位方法,包括以下步骤:
(1)使用Android手机获取惯性传感器数据,通过无线路由器实时传输至服务器计算机;
(2)使用Kinect深度摄像机获取RGB-D数据,通过局域网实时传输至服务器计算机;
(3)对步骤(1)和(2)的两种数据进行时间和空间上的对齐,时间对齐是将两种数据每一时刻的数据映射起来,空间对齐是对两种数据定位坐标系建立投影映射关系,使之能够相互转换;
(4)利用步骤(2)的RGB-D数据修正惯性传感器定位的累积误差,实现长时间稳定定位。
本发明在进行惯性传感器定位的同时,利用部分关键位置由Kinect深度摄像机获得的RGB-D数据进行修正,从而及时修正惯性传感器定位的累积误差,实现长时间稳定定位。
附图说明
图1是共生矩阵生成过程的示例图;
图2是惯性传感器定位修正的示意图;
图3是深度摄像机辅助修正惯性传感器定位方法与原有的惯性传感器定位方法的比较图,(3a)是原有的惯性传感器定位结果,(3b)是带有深度摄像机修正的惯性传感器定位结果。
具体实施方式
这种惯性传感器的定位方法,包括以下步骤:
(1)使用Android手机获取惯性传感器数据,通过无线路由器实时传输至服务器计算机;
(2)使用Kinect深度摄像机获取RGB-D数据,通过局域网实时传输至服务器计算机;
(3)对步骤(1)和(2)的两种数据进行时间和空间上的对齐,时间对齐是将两种数据每一时刻的数据映射起来,空间对齐是对两种数据定位坐标系建立投影映射关系,使之能够相互转换;
(4)利用步骤(2)的RGB-D数据修正惯性传感器定位的累积误差,实现长时间稳定定位。
本发明在进行惯性传感器定位的同时,利用部分关键位置由Kinect深度摄像机获得的RGB-D数据进行修正,从而及时修正惯性传感器定位的累积误差,实现长时间稳定定位。
优选地,步骤(1)的惯性传感器数据通过加速度传感器和陀螺仪传感器得到:
通过使用加速度传感器,获得三轴加速度的变化序列,从其中一组序
列得到时间和步长的关系;
通过使用陀螺仪传感器,获得围绕三个坐标轴旋转的三个角速度,分
别对应三个角度值:横滚角roll、俯仰角pitch、航向角yaw,转向
角通过公式(1)计算
其中,k是当前观测值的时间,Ψ是角度值矩阵,包括roll、pitch、yaw三个角度值,Eb2n是人体和传感器之间的旋转校正矩阵,是角速度的观测向量,是角速度的固有偏差估计,Δt是两个观测值之间的时间间隔。
优选地,步骤(2)的RGB-D数据包括视频序列和深度序列:
对于视频序列,使用方向梯度直方图HOG表示法构造目标的视频特征;
对于深度序列,使用方向深度直方图HOD表示法的改进方法CoHOD表示法构造目标的深度特征;
分别定义视频和深度特征的相似度,然后视频和深度特征的融合相似度看作是视频和深度相似度的积,对RGB-D序列实现跟踪和定位。
优选地,步骤(4)中将深度定位结果投影到惯性传感器坐标系中,生成惯性传感器定位所需的修正数据,然后使用薄板样条TPS构造坐标变换,TPS变形后基准步行轨迹H1修正到H2;同时,由目标在Kinect深度摄像机视线内的定位轨迹拟合出目标离开Kinect深度摄像机视线后的移动方向,从而修正惯性传感器的方向误差。
优选地,在步骤(4)之前采用步态识别技术来识别进入Kinect深度摄像机视野内目标的身份。
以下对本发明进行更详细的说明。
1.基于惯性传感器的目标定位
惯性传感器包括加速度传感器和陀螺仪传感器。通过使用加速度传感器,可以获得三轴加速度的变化序列。从一组序列样本,我们可以得到时间和步长的关系。通过使用陀螺仪传感器,我们可以获得围绕三个坐标轴旋转的三个角速度,分别对应三个角度值:横滚角roll、俯仰角pitch、航向角yaw。转向角计算公式如下:
其中,k是当前观测值的时间。Ψ是角度值矩阵,包括roll、pitch、yaw三个角度值。Eb2n是人体和传感器之间的旋转校正矩阵。是角速度的观测向量。是角速度的固有偏差估计。Δt是两个观测值之间的时间间隔。
从步距和每一步的转向角度,我们可以从它的当前坐标计算目标的下一个位置。但惯性传感器定位方法的一个关键问题是,跟踪时间增加的时候会有巨大的累积误差。有许多可能的原因,如陀螺仪传感器的角速度固有偏差估计不准,是导致累积误差的主要原因;传感器安装和个人行走姿势的不同是导致累积误差的另一原因。目前虽然已经有一些方法实现了惯性传感器定位误差的修正,但长时间定位仍然是一个挑战。为了克服这个问题,我们提出了一个通过使用深度摄像机获得的RGB-D数据修正累积误差的方法。
2.Kinect深度摄像机的RGB-D序列定位
Kinect深度摄像机可以同时获得视频和深度信息,即RGB-D序列,很容易获得目标的三维位置,因此基于RGB-D序列跟踪的主要任务是构造动态跟踪模型,我们采用粒子滤波跟踪框架来实现动态跟踪。与视频粒子滤波模型相比,基于RGB-D序列模型定义了RGB-D数据的目标特征表示。我们描述了人体在视频域和深度域的特征,然后定义了RGB-D数据的融合特征。
对于视频序列,本发明使用HOG(方向梯度直方图)表示法[4]构造目标的视频特征。HOG表示法的基本思想是通过图像梯度或边缘的方向信息表示目标的表观和形状特征。首先采用一种梯度模板计算每个像素点的梯度和方向;然后将图像按空间位置分成均匀的小块,称为细胞,在细胞内按照设定好的量化间隔统计梯度直方图,并按照梯度的幅值进行投影;将相邻的细胞(如2*2)组成一个块,在块内归一化直方图;最后将检测窗口所有块的直方图进行组合就形成特征向量。
对于深度序列,本发明使用HOD(方向深度直方图)表示法的改进方法CoHOD表示法构造目标的深度特征。首先将成对的梯度方向作为一个单元,某一特定位移下,所有单元能够构建一个8*8的二维直方图,这个直方图就是我们特征表示符CoHOD的核心——共生矩阵。深度图像中某一位移对应的共生矩阵生成过程如图1所示,我们发现共生矩阵描述了梯度方向的分布趋势。相邻梯度方向的组合能够从细节方面更好的描述物体,这样能够更好的进行人体分类,达到更加理想的识别效果。从算术的角度来描述共生矩阵的生成过程,假设被检测图像大小为m*n,对应位移(x,y)生成共生矩阵C的公式如下:
其中I(p,q)表示(p,q)位置的像素值大小。
CoHOD是基于方向梯度直方图的特征表示法,所以它能够保持方向梯度直方图在人体检测中所表现出的所有优点,能够很好的处理人体姿势变化等问题,对特征的描述性更强,具有很高的鲁棒性。
为了将视频和深度特征整合成跟踪所需的通用表示法,我们首先分别定义了视频和深度特征的相似度。然后视频和深度特征的融合相似度可以看作是视频和深度相似度的积。利用融合的RGB-D特征相似度,可以对RGB-D序列实现跟踪和定位。
3.深度摄像机辅助修正惯性传感器定位
惯性传感器定位方法可应用于大场景,但随着时间的推移,会产生累积误差。深度信息定位和跟踪具有高精度,但可跟踪区域受限。考虑到这两种方法的特点,我们提出了一个深度信息修正惯性传感器定位的方法。在该方法中,深度信息定位结果被用于修正惯性传感器定位的累计误差。如图2所示,将深度信息定位结果投影到惯性传感器坐标系中,生成惯性传感器定位所需的修正数据,然后使用薄板样条(TPS)构造坐标变换。
TPS变形是一个非刚性样条映射方法,具有灵活性强、全局平滑、易于计算等良好特性。TPS变形可看作是一个映射f:R2→R2,由基准和目标上的两组对齐点集决定。对于惯性传感器定位的基准轨迹H1和修正后的目标轨迹H2,TPS变形是通过惯性传感器和深度摄像机同时获得的如下控制点集决定的:
Mk={Lkj|Lkj=(xkj,ykj),j=1,…,M,k=1,2} (3)
其中M1是惯性传感器定位的位置,M2是深度摄像机参与跟踪时获得的深度定位结果。Lkj表示一个坐标点,M是点集中点的数量。根据TPS定义,f有如下插值条件:
f(M1j)=M2j,j=1,2,…,M (4)
同时,TPS变形的弯曲平滑应尽量满足最小化如下弯曲能量函数:
f可以通过最小化(5)中的能量函数得到。在实际使用中,为了利用对应控制点的偏差和(5)中的平滑能量,使用如下能量函数来获得最终的TPS变形:
其中,λ控制平滑的程度。给定一个固定的λ,将会有一个唯一的最小的能量函数。
TPS变形后,基准步行轨迹H1可以修正到H2。同时,由目标在Kinect摄像机视线内的定位轨迹,还能拟合出目标离开Kinect摄像机视线后的移动方向,可以修正惯性传感器的方向误差。在整个跟踪过程中,只要深度摄像机检测并跟踪到目标,就执行轨迹和方向修正操作。
4.Kinect深度摄像机目标与惯性传感器目标的身份对应
在本发明的应用场景中,需要定位的人通常不止一个。为了适应多人定位时的深度摄像机辅助修正,需要识别进入Kinect摄像机视野内目标的身份,然后修正身份对应的惯性传感器目标的定位轨迹。本发明使用改进的步态识别技术进行身份识别。
步态识别是一种新兴的生物特征识别技术,旨在从相同的行走行为中寻找和提取个体之间的变化特征,以实现自动的身份识别。与其他的生物识别技术相比,步态识别具有非接触远距离和不容易伪装的优点。在智能视频监控领域,比面部识别更具优势。
传统的步态识别仅使用Gait(步态)特征进行身份识别,本发明结合了由Kinect深度摄像机所获得的基于视频和深度信息的RGB-D特征,形成RGB-D-Gait特征用来进行身份识别,提高了识别的正确率。
为了验证提出的多源异构数据融合方法,使用在真实场景中获得的数据进行了多次实验。我们使用Android智能手机来收集惯性传感器数据,包括三轴加速计和三轴陀螺仪的数据,收集频率为50Hz。智能手机放在腰包中,将腰包固定在身上。跟踪实验之前,要求测试人员原地站立10秒以上,以获得惯性传感器的固有偏差。同时用多个Kinect摄像机获得RGB-D序列数据。
实验测试了惯性传感器定位与深度信息修正方法的性能。这个实验是在一个70米*30米的教学楼“8”字形走廊完成的。测试人员沿走廊行走,得到原始惯性传感器定位结果如图3(a)所示。可以看出,前半部分定位结果较为准确,而后半部分定位结果误差越来越大,结果并不理想。为了获得更好的定位结果,首先由Kinect摄像机获得定位结果的修正数据,然后利用以TPS变形为基础的方法来修正定位结果,结果如图3(b)所示,可以看出修正效果较为理想。分别计算出修正前后的定位结果平均误差,该修正方法使平均误差从17.120米降至2.119米。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
Claims (5)
1.一种惯性传感器的定位方法,其特征在于:包括以下步骤:
(1)使用Android手机获取惯性传感器数据,通过无线路由器实时传
输至服务器计算机;
(2)使用Kinect深度摄像机获取RGB-D数据,通过局域网实时传输至
服务器计算机;
(3)对步骤(1)和(2)的两种数据进行时间和空间上的对齐,时间
对齐是将两种数据每一时刻的数据映射起来,空间对齐是对两种
数据定位坐标系建立投影映射关系,使之能够相互转换;
(4)利用步骤(2)的RGB-D数据修正惯性传感器定位的累积误差,实
现长时间稳定定位。
2.根据权利要求1所述的惯性传感器的定位方法,其特征在于:步骤(1)
的惯性传感器数据通过加速度传感器和陀螺仪传感器得到:
通过使用加速度传感器,获得三轴加速度的变化序列,从其中一组序
列得到时间和步长的关系;
通过使用陀螺仪传感器,获得围绕三个坐标轴旋转的三个角速度,分
别对应三个角度值:横滚角roll、俯仰角pitch、航向角yaw,转向
角通过公式(1)计算
其中,k是当前观测值的时间,Ψ是角度值矩阵,包括roll、pitch、
yaw三个角度值,Eb2n是人体和传感器之间的旋转校正矩阵,是角
速度的观测向量,是角速度的固有偏差估计,Δt是两个观测值之
间的时间间隔。
3.根据权利要求2所述的惯性传感器的定位方法,其特征在于:步骤(2)
的RGB-D数据包括视频序列和深度序列:
对于视频序列,使用方向梯度直方图HOG表示法构造目标的视频特征;
对于深度序列,使用方向深度直方图HOD表示法的改进方法CoHOD表
示法构造目标的深度特征;
分别定义视频和深度特征的相似度,然后视频和深度特征的融合相似
度看作是视频和深度相似度的积,对RGB-D序列实现跟踪和定位。
4.根据权利要求3所述的惯性传感器的定位方法,其特征在于:步骤(4)
中将深度定位结果投影到惯性传感器坐标系中,生成惯性传感器定位
所需的修正数据,然后使用薄板样条TPS构造坐标变换,TPS变形后
基准步行轨迹H1修正到H2;同时,由目标在Kinect深度摄像机视线
内的定位轨迹拟合出目标离开Kinect深度摄像机视线后的移动方向,
从而修正惯性传感器的方向误差。
5.根据权利要求4所述的惯性传感器的定位方法,其特征在于:在步骤
(4)之前采用步态识别技术来识别进入Kinect深度摄像机视野内目
标的身份。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410068756.XA CN103994765B (zh) | 2014-02-27 | 2014-02-27 | 一种惯性传感器的定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410068756.XA CN103994765B (zh) | 2014-02-27 | 2014-02-27 | 一种惯性传感器的定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103994765A true CN103994765A (zh) | 2014-08-20 |
CN103994765B CN103994765B (zh) | 2017-01-11 |
Family
ID=51308997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410068756.XA Active CN103994765B (zh) | 2014-02-27 | 2014-02-27 | 一种惯性传感器的定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103994765B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463953A (zh) * | 2014-11-11 | 2015-03-25 | 西北工业大学 | 基于惯性测量单元与rgb-d传感器的三维重建方法 |
CN105551059A (zh) * | 2015-12-08 | 2016-05-04 | 国网山西省电力公司技能培训中心 | 光学和惯性体感数据融合的变电仿真人体运动捕捉方法 |
CN105590330A (zh) * | 2014-10-30 | 2016-05-18 | 清华大学 | 基于群智感知的室内平面图生成方法、服务器及系统 |
CN107102735A (zh) * | 2017-04-24 | 2017-08-29 | 广东虚拟现实科技有限公司 | 一种对齐方法及对齐装置 |
CN107491712A (zh) * | 2016-06-09 | 2017-12-19 | 北京雷动云合智能技术有限公司 | 一种基于rgb‑d图像的人体识别方法 |
CN108537094A (zh) * | 2017-03-03 | 2018-09-14 | 株式会社理光 | 图像处理方法、装置和系统 |
CN109900266A (zh) * | 2019-03-27 | 2019-06-18 | 小驴机器人(武汉)有限公司 | 一种基于rgb-d和惯导的快速识别定位方式及系统 |
CN112146660A (zh) * | 2020-09-25 | 2020-12-29 | 电子科技大学 | 一种基于动态词向量的室内地图定位方法 |
WO2021134960A1 (zh) * | 2019-12-31 | 2021-07-08 | 上海商汤智能科技有限公司 | 标定方法及装置、处理器、电子设备、存储介质 |
CN114067424A (zh) * | 2020-07-30 | 2022-02-18 | 中国移动通信有限公司研究院 | 一种人体交互行为识别方法、装置、设备及可读存储介质 |
CN116394265A (zh) * | 2023-06-08 | 2023-07-07 | 帕西尼感知科技(张家港)有限公司 | 一种姿态传感器标定方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09138135A (ja) * | 1995-11-15 | 1997-05-27 | Matsushita Electric Ind Co Ltd | 走行位置表示装置 |
CN102944240A (zh) * | 2012-11-02 | 2013-02-27 | 清华大学 | 一种基于智能手机的惯性导航系统及方法 |
CN103237155A (zh) * | 2013-04-01 | 2013-08-07 | 北京工业大学 | 一种单视角被遮挡的目标的跟踪和定位方法 |
CN103278170A (zh) * | 2013-05-16 | 2013-09-04 | 东南大学 | 基于显著场景点检测的移动机器人级联地图创建方法 |
CN103424114A (zh) * | 2012-05-22 | 2013-12-04 | 同济大学 | 一种视觉导航/惯性导航的全组合方法 |
-
2014
- 2014-02-27 CN CN201410068756.XA patent/CN103994765B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09138135A (ja) * | 1995-11-15 | 1997-05-27 | Matsushita Electric Ind Co Ltd | 走行位置表示装置 |
CN103424114A (zh) * | 2012-05-22 | 2013-12-04 | 同济大学 | 一种视觉导航/惯性导航的全组合方法 |
CN102944240A (zh) * | 2012-11-02 | 2013-02-27 | 清华大学 | 一种基于智能手机的惯性导航系统及方法 |
CN103237155A (zh) * | 2013-04-01 | 2013-08-07 | 北京工业大学 | 一种单视角被遮挡的目标的跟踪和定位方法 |
CN103278170A (zh) * | 2013-05-16 | 2013-09-04 | 东南大学 | 基于显著场景点检测的移动机器人级联地图创建方法 |
Non-Patent Citations (2)
Title |
---|
胡永利 等: "多源异构感知数据融合方法及其在目标定位跟踪", 《中国科学: 信息科学》 * |
鲍文霞 等: "一种基于图理论的非刚体形状匹配算法", 《仪器仪表学报》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105590330A (zh) * | 2014-10-30 | 2016-05-18 | 清华大学 | 基于群智感知的室内平面图生成方法、服务器及系统 |
CN105590330B (zh) * | 2014-10-30 | 2018-10-16 | 清华大学 | 基于群智感知的室内平面图生成方法、服务器及系统 |
CN104463953B (zh) * | 2014-11-11 | 2017-06-16 | 西北工业大学 | 基于惯性测量单元与rgb‑d传感器的三维重建方法 |
CN104463953A (zh) * | 2014-11-11 | 2015-03-25 | 西北工业大学 | 基于惯性测量单元与rgb-d传感器的三维重建方法 |
CN105551059A (zh) * | 2015-12-08 | 2016-05-04 | 国网山西省电力公司技能培训中心 | 光学和惯性体感数据融合的变电仿真人体运动捕捉方法 |
CN107491712A (zh) * | 2016-06-09 | 2017-12-19 | 北京雷动云合智能技术有限公司 | 一种基于rgb‑d图像的人体识别方法 |
CN108537094A (zh) * | 2017-03-03 | 2018-09-14 | 株式会社理光 | 图像处理方法、装置和系统 |
CN107102735A (zh) * | 2017-04-24 | 2017-08-29 | 广东虚拟现实科技有限公司 | 一种对齐方法及对齐装置 |
CN107102735B (zh) * | 2017-04-24 | 2018-06-19 | 广东虚拟现实科技有限公司 | 一种对齐方法及对齐装置 |
WO2018196224A1 (zh) * | 2017-04-24 | 2018-11-01 | 广东虚拟现实科技有限公司 | 一种对齐方法及对齐装置 |
US11248911B2 (en) | 2017-04-24 | 2022-02-15 | Guangdong Virtual Reality Technology Co., Ltd. | Method and device for aligning coordinate of position device with coordinate of IMU |
CN109900266A (zh) * | 2019-03-27 | 2019-06-18 | 小驴机器人(武汉)有限公司 | 一种基于rgb-d和惯导的快速识别定位方式及系统 |
WO2021134960A1 (zh) * | 2019-12-31 | 2021-07-08 | 上海商汤智能科技有限公司 | 标定方法及装置、处理器、电子设备、存储介质 |
TWI766282B (zh) * | 2019-12-31 | 2022-06-01 | 中國商上海商湯智能科技有限公司 | 標定方法、電子設備及儲存介質 |
CN114067424A (zh) * | 2020-07-30 | 2022-02-18 | 中国移动通信有限公司研究院 | 一种人体交互行为识别方法、装置、设备及可读存储介质 |
CN112146660A (zh) * | 2020-09-25 | 2020-12-29 | 电子科技大学 | 一种基于动态词向量的室内地图定位方法 |
CN116394265A (zh) * | 2023-06-08 | 2023-07-07 | 帕西尼感知科技(张家港)有限公司 | 一种姿态传感器标定方法、装置、设备及存储介质 |
CN116394265B (zh) * | 2023-06-08 | 2023-11-07 | 帕西尼感知科技(张家港)有限公司 | 一种姿态传感器标定方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103994765B (zh) | 2017-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
CN109029433B (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
CN105469405B (zh) | 基于视觉测程的同时定位与地图构建方法 | |
CN107193279A (zh) | 基于单目视觉和imu信息的机器人定位与地图构建系统 | |
CN109166149A (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN102538781B (zh) | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 | |
CN106679648A (zh) | 一种基于遗传算法的视觉惯性组合的slam方法 | |
Zhao et al. | A vehicle-borne urban 3-D acquisition system using single-row laser range scanners | |
CN108051002A (zh) | 基于惯性测量辅助视觉的运输车空间定位方法及系统 | |
CN105261060A (zh) | 基于点云压缩和惯性导航的移动场景实时三维重构方法 | |
CN103983263A (zh) | 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 | |
CN107478223A (zh) | 一种基于四元数和卡尔曼滤波的人体姿态解算方法 | |
CN105953796A (zh) | 智能手机单目和imu融合的稳定运动跟踪方法和装置 | |
CN106056664A (zh) | 一种基于惯性和深度视觉的实时三维场景重构系统及方法 | |
CN107504969A (zh) | 基于视觉和惯性组合的四旋翼室内导航方法 | |
CN103745458A (zh) | 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法 | |
RU2662913C2 (ru) | Способ локализации робота в плоскости локализации | |
CN112833892B (zh) | 一种基于轨迹对齐的语义建图方法 | |
CN110675453B (zh) | 一种已知场景中运动目标的自定位方法 | |
CN104281148A (zh) | 基于双目立体视觉的移动机器人自主导航方法 | |
CN112525197B (zh) | 基于图优化算法超宽带惯性导航融合位姿估计方法 | |
CN111307146A (zh) | 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统 | |
Deng et al. | Long-range binocular vision target geolocation using handheld electronic devices in outdoor environment | |
CN106504287A (zh) | 基于模板的单目视觉目标空间定位系统 | |
US20230304802A1 (en) | Passive combined indoor positioning system and method based on intelligent terminal sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |