CN108106613B - 基于视觉辅助的定位方法与系统 - Google Patents

基于视觉辅助的定位方法与系统 Download PDF

Info

Publication number
CN108106613B
CN108106613B CN201711080060.9A CN201711080060A CN108106613B CN 108106613 B CN108106613 B CN 108106613B CN 201711080060 A CN201711080060 A CN 201711080060A CN 108106613 B CN108106613 B CN 108106613B
Authority
CN
China
Prior art keywords
visual
step length
moment
time
inertial sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711080060.9A
Other languages
English (en)
Other versions
CN108106613A (zh
Inventor
裴凌
刘坤
邹丹平
郁文贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201711080060.9A priority Critical patent/CN108106613B/zh
Publication of CN108106613A publication Critical patent/CN108106613A/zh
Application granted granted Critical
Publication of CN108106613B publication Critical patent/CN108106613B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于视觉辅助的定位方法,包含以下步骤:数据采集判断步骤:获取来自惯性传感器的惯性传感器数据,根据惯性传感器数据判断步态动作是否发生;步长估算步骤:当判定步态动作发生时,根据惯性传感器数据估算得到步长;偏航角计算步骤:获取来自视觉陀螺仪的视觉数据,对视觉数据与惯性传感器数据进行卡尔曼滤波获得偏航角;位置计算步骤:根据步长与偏航角,计算获得位置信息。相应地,本发明还提供了一种基于视觉辅助的定位系统。本发明不仅在行人航向上做了融合,还在步长估计上做了大量离线测量,找到最佳的步长因子,为行人在室内的定位提供了可靠的保证。

Description

基于视觉辅助的定位方法与系统
技术领域
本发明涉及室内定位技术,具体地,涉及一种基于视觉辅助的定位方法与系统。
背景技术
基于位置的服务在军事、急救和商业领域都有着十分重要的应用。然而在室外占主导地位的GNSS(Global Navigation Satellite System)并不能在室内提供定位服务。日益普及的智能手机无疑是个人应用中基于位置服务的主要载体,而智能手机丰富的环境感知能力使其具备了在室内定位用户的能力。
随着廉价的基于微机电系统(Micro-Electro-Mechanical Systems MEMS)的IMU传感器的普及,行人航位推算(Pedestrian Dead Reckoning,PDR)成为近10年中室内定位领域的研究热点。传统的PDR定位方法就是通过获得手机已有的惯性传感器如加速度计,磁力仪,陀螺仪等,基于粒子滤波的方法,逐步迭代获得行人的室内位置。然而,由于惯性传感器数据存在漂移,随着时间的推移,这种误差就会越来越大,导致PDR定位的精度随着时间的推移而减小。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于视觉辅助的定位方法与系统。
根据本发明提供的基于视觉辅助的定位方法,包含以下步骤:
数据采集判断步骤:获取来自惯性传感器的惯性传感器数据,根据惯性传感器数据判断步态动作是否发生;
步长估算步骤:当判定步态动作发生时,根据惯性传感器数据估算得到步长;
偏航角计算步骤:获取来自视觉陀螺仪的视觉数据,对视觉数据与惯性传感器数据进行卡尔曼滤波获得偏航角;
位置计算步骤:根据步长与偏航角,计算获得位置信息。
优选地,所述步长估算步骤包含以下任一个或全部步骤:
离线步长估算步骤:根据步长估计模型计算获取步长,所述步长估计模型通过统计多个相同或不同身高、体重、性别人员信息进行离线生成;
在线步长估算步骤:根据惯性传感器数据,按如下公式计算获得步长:
SLk=α·freq+β
式中:SLk为k时刻行人的步长;
k为采样时刻;
α、β为比例因子;
freq为步频,惯性传感器数据包含步频。
优选地,所述惯性传感器数据包含磁力航向角θm,所述视觉数据包含视觉航向角θv
在偏航角计算步骤中,对θm与θv按如下公式进行卡尔曼滤波:
Figure GDA0001574417270000021
Figure GDA0001574417270000022
式中:
Figure GDA0001574417270000023
为k时刻偏航角变化率;
θk为k时刻偏航角;
Δt为k-1时刻到k时刻之间的时间间隔;
Figure GDA0001574417270000024
为k-1时刻偏航角变化率;
θk-1为k-1时刻偏航角;
ωk-1为k-1时刻过程噪声,服从高斯分布;
Figure GDA0001574417270000025
为k时刻视觉航向角θv变化率;
Figure GDA0001574417270000026
为k时刻磁力航向角θm
vk为k时刻观测噪声,服从高斯分布。
优选地,所述视觉航向角θv通过以下步骤获取:
高频滤波步骤:将进入到视觉陀螺仪的图像帧进行Canny边缘检测,对所述图像帧进行高频滤波,获得滤波图像;
霍夫变换步骤:利用霍夫变换检测滤波图像中直线线条;
线条筛选步骤:筛选出滤波图像中垂直于图像平面的结构线条;
消失点确认步骤:根据结构线条,确定滤波图像中的消失点;
视觉航向角估算步骤:利用得到的消失点估算得到视觉航向角,公式如下:
Figure GDA0001574417270000027
式中:x为像素横坐标;
u为像素中心点的横坐标;
fx为相机焦距;
线条筛选步骤中,在所有直线线条中选取左侧线条ll与右侧线条lr,通过调整左侧线条ll与右侧线条lr的角度调整阈值,以获取所述结构线条;
消失点确认步骤中,消失点通过如下公式获取:
vp={dot|dot=ll∩lr}
式中:vp为消失点;
dot为线ll和lr的交点;
消失点确认步骤还包含消失点误差消除步骤,所述误差消除步骤包含以下步骤:
步骤S1:求出所有消失点的横纵坐标的中位数,将检测到的与中位数差别大于设定值的消失点剔除掉;
步骤S2:求剩下的所有消失点的方差。
优选地,所述位置计算步骤包含以下任一个步骤:
直接位置更新步骤:将步长与偏航角代入到如下公式进行位置更新:
Figure GDA0001574417270000031
卡尔曼滤波位置更新步骤:将步长与偏航角代入到如下公式进行卡尔曼滤波位置更新:
Figure GDA0001574417270000032
式中:xk+1为k+1时刻行人位置横坐标;
xk为k时刻行人位置横坐标;
SLk为k时刻行人步长;
θk为k时刻偏航角;
yk+1为k+1时刻行人位置纵坐标;
yk为k时刻行人位置纵坐标;
Figure GDA0001574417270000033
为k+1时刻偏航角变化率;
Figure GDA0001574417270000034
为k时刻偏航角变化率;
θk+1为k+1时刻偏航角;
Δt为k时刻到k+1时刻之间的时间间隔;
w1,w2,w3,w4为相互独立的系统过程噪声,均服从高斯分布。
本发明还提供了一种基于视觉辅助的定位系统,包含以下模块:
数据采集判断模块:获取来自惯性传感器的惯性传感器数据,根据惯性传感器数据判断步态动作是否发生;
步长估算模块:当判定步态动作发生时,根据惯性传感器数据估算得到步长;
偏航角计算模块:获取来自视觉陀螺仪的视觉数据,对视觉数据与惯性传感器数据进行卡尔曼滤波获得偏航角;
位置计算模块:根据步长与偏航角,计算获得位置信息。
优选地,所述步长估算模块包含以下任一个或全部模块:
离线步长估算模块:根据步长估计模型计算获取步长,所述步长估计模型通过统计多个相同或不同身高、体重、性别人员信息进行离线生成;
在线步长估算模块:根据惯性传感器数据,按如下公式计算获得步长:
SLk=α·freq+β
式中:SLk为k时刻行人的步长;
k为采样时刻;
α、β为比例因子;
freq为步频,惯性传感器数据包含步频。
优选地,所述惯性传感器数据包含磁力航向角θm,所述视觉数据包含视觉航向角θv
在偏航角计算模块中,对θm与θv按如下公式进行卡尔曼滤波:
Figure GDA0001574417270000041
Figure GDA0001574417270000042
式中:
Figure GDA0001574417270000043
为k时刻偏航角变化率;
θk为k时刻偏航角;
Δt为k-1时刻到k时刻之间的时间间隔;
Figure GDA0001574417270000044
为k-1时刻偏航角变化率;
θk-1为k-1时刻偏航角;
ωk-1为k-1时刻过程噪声,服从高斯分布;
Figure GDA0001574417270000045
为k时刻视觉航向角θv变化率;
Figure GDA0001574417270000051
为k时刻磁力航向角θm
vk为k时刻观测噪声,服从高斯分布。
优选地,所述视觉航向角θv通过以下模块获取:
高频滤波模块:将进入到视觉陀螺仪的图像帧进行Canny边缘检测,对所述图像帧进行高频滤波,获得滤波图像;
霍夫变换模块:利用霍夫变换检测滤波图像中直线线条;
线条筛选模块:筛选出滤波图像中垂直于图像平面的结构线条;
消失点确认模块:根据结构线条,确定滤波图像中的消失点;
视觉航向角估算模块:利用得到的消失点估算得到视觉航向角,公式如下:
Figure GDA0001574417270000052
式中:x为像素横坐标;
u为像素中心点的横坐标;
fx为相机焦距;
线条筛选模块中,在所有直线线条中选取左侧线条ll与右侧线条lr,通过调整左侧线条ll与右侧线条lr的角度调整阈值,以获取所述结构线条;
消失点确认模块中,消失点通过如下公式获取:
vp={dot|dot=ll∩lr}
式中:vp为消失点;
dot为线ll和lr的交点;
消失点确认模块还包含消失点误差消除模块,所述误差消除模块包含以下模块:
模块M1:求出所有消失点的横纵坐标的中位数,将检测到的与中位数差别大于设定值的消失点剔除掉;
模块M2:求剩下的所有消失点的方差。
优选地,所述位置计算模块包含以下任一个模块:
直接位置更新模块:将步长与偏航角代入到如下公式进行位置更新:
Figure GDA0001574417270000053
卡尔曼滤波位置更新模块:将步长与偏航角代入到如下公式进行卡尔曼滤波位置更新:
Figure GDA0001574417270000061
式中:xk+1为k+1时刻行人位置横坐标;
xk为k时刻行人位置横坐标;
SLk为k时刻行人步长;
θk为k时刻偏航角;
yk+1为k+1时刻行人位置纵坐标;
yk为k时刻行人位置纵坐标;
Figure GDA0001574417270000062
为k+1时刻偏航角变化率;
Figure GDA0001574417270000063
为k时刻偏航角变化率;
θk+1为k+1时刻偏航角;
Δt为k时刻到k+1时刻之间的时间间隔;
w1,w2,w3,w4为相互独立的系统过程噪声,均服从高斯分布。
与现有技术相比,本发明具有如下的有益效果:
1、本发明不仅在行人航向上做了融合,还在步长估计上做了大量离线测量,找到最佳的步长因子,为行人在室内的定位提供了可靠的保证。
2、本发明为避免在仅使用PDR的情况下测得的行人航向受到环境中的干扰而不断发生变化,引入了视觉辅助,航向得到了很好的修正,从而定位结果也得到了很大的改善。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明原理图;
图2为本发明提供的基于视觉辅助的定位方法流程图;
图3为视觉航向角获取步骤流程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
如图1、图2所示,本发明提供的基于视觉辅助的定位方法包含以下步骤:数据采集判断步骤:获取来自惯性传感器的惯性传感器数据,根据惯性传感器数据判断步态动作是否发生;步长估算步骤:当判定步态动作发生时,根据惯性传感器数据估算得到步长;偏航角计算步骤:获取来自视觉陀螺仪的视觉数据,对视觉数据与惯性传感器数据进行卡尔曼滤波获得偏航角;位置计算步骤:根据步长与偏航角,计算获得位置信息。所述惯性传感器包含三轴加速度计,三轴陀螺仪,三轴磁力计,由惯性传感器检测到的数据如加速度值、角速度、磁场强度、磁场方向等作为PDR系统的输入,由PDR估计得出的PDR系统行人步长与PDR系统航向角,分别记为SL和θp(即图1中左边的“航向θ”)。实际使用过程中,上述的惯性传感器与视觉陀螺仪可以是存在于便携式设备中,如智能手机、平板电脑、可穿戴智能眼镜等。
实施例中,所述步长估算步骤包含以下任一个或全部步骤:离线步长估算步骤:根据步长估计模型计算获取步长,所述步长估计模型通过统计多个相同或不同身高、体重、性别人员信息进行离线生成;在线步长估算步骤:根据惯性传感器数据,按如下公式计算获得步长:
SLk=α·freq+β
式中:SLk为k时刻行人的步长;k为采样时刻;α、β为比例因子;freq为步频,惯性传感器数据包含步频。
所述惯性传感器数据包含磁力航向角θm,所述磁力航向角θm由磁力计MARG测量获得,磁力航向角θm属于PDR系统航向角θp的一部分;所述视觉数据包含视觉航向角θv(即图1中右边的“航向θ”);在偏航角计算步骤中,对θm与θv按如下公式进行卡尔曼滤波:
Figure GDA0001574417270000071
Figure GDA0001574417270000081
式中:
Figure GDA0001574417270000082
为k时刻偏航角变化率;θk为k时刻偏航角;Δt为k-1时刻到k时刻之间的时间间隔;
Figure GDA0001574417270000083
为k-1时刻偏航角变化率;θk-1为k-1时刻偏航角;ωk-1为k-1时刻过程噪声,服从高斯分布;
Figure GDA0001574417270000084
为k时刻视觉航向角θv变化率;
Figure GDA0001574417270000085
为k时刻磁力航向角θm;vk为k时刻观测噪声,服从高斯分布。
通过摄像头得到一段过程的原始数据之后(可以是视频,也可以是图像),首先要做的是筛选原始数据,即剔除模糊的数据,然后将这些图像数据放入视觉陀螺仪(VG)系统中。具体地,所述视觉航向角θv通过以下步骤获取:高频滤波步骤:将进入到视觉陀螺仪的图像帧进行Canny边缘检测,对所述图像帧进行高频滤波,获得滤波图像;霍夫变换步骤:利用霍夫变换检测滤波图像中直线线条;线条筛选步骤:筛选出滤波图像中垂直于图像平面的结构线条;消失点确认步骤:根据结构线条,确定滤波图像中的消失点;视觉航向角估算步骤:利用得到的消失点估算得到视觉航向角,公式如下:
Figure GDA0001574417270000086
式中:x为像素横坐标;u为像素中心点的横坐标;fx为相机焦距。
霍夫变换是图像处理中从图像中识别几何形状的基本方法之一。霍夫变换的基本原理在于利用点与线的对偶性,将原始图像空间的给定的曲线通过曲线表达形式变为参数空间的一个点。这样就把原始图像中给定曲线的检测问题转化为寻找参数空间中的峰值问题。也即把检测整体特性转化为检测局部特性。比如直线、椭圆、圆、弧线等。本发明就是利用了霍夫变换来检测直线,进而寻找消失点。理论上,霍夫变换步骤能够检测到当前图像帧中所有的直线线条,但是完全横线条和垂直线条是不需要的,因为没有信息能够提取,需要的仅仅是沿着行人行进方向的直线,即垂直图象平面的直线。因此在线条筛选步骤中,在所有直线线条中选取左侧线条ll与右侧线条lr,通过调整左侧线条ll与右侧线条lr的角度调整阈值,以获取所述结构线条。左侧线条ll与右侧线条lr角度越小,表示阈值越小,检测到的满足要求的线条就越多,反之越少。在得到满足要求的结构线条之后,消失点就可以确定了,消失点确认步骤中,消失点通过如下公式获取:
vp={dot|dot=ll∩lr}
式中:vp为消失点;dot为线ll和lr的交点。
一般地,任一图像帧中得到的消失点数量是不一样的,由于存在噪声,可能会导致消失点分布不集中,将所有消失点进行统计平均,能够很好的消除误差。具体地,消失点确认步骤还包含消失点误差消除步骤,所述误差消除步骤包含以下步骤:步骤S1:求出所有消失点的横纵坐标的中位数,将检测到的与中位数差别大于设定值的消失点剔除掉;步骤S2:求剩下的所有消失点的方差。如果方差较大,说明消失点不稳定,视觉信息的可信度就很小,反之可信度较大。
所述位置计算步骤包含以下任一个步骤:直接位置更新步骤:将步长与偏航角代入到如下公式进行位置更新:
Figure GDA0001574417270000091
卡尔曼滤波位置更新步骤:将步长与偏航角代入到如下公式进行卡尔曼滤波位置更新:
Figure GDA0001574417270000092
式中:xk+1为k+1时刻行人位置横坐标;xk为k时刻行人位置横坐标;SLk为k时刻行人步长;θk为k时刻偏航角;yk+1为k+1时刻行人位置纵坐标;yk为k时刻行人位置纵坐标;
Figure GDA0001574417270000093
为k+1时刻偏航角变化率;
Figure GDA0001574417270000094
为k时刻偏航角变化率;θk+1为k+1时刻偏航角;Δt为k时刻到k+1时刻之间的时间间隔;w1,w2,w3,w4为相互独立的系统过程噪声,均服从高斯分布。
本发明还提供了一种基于视觉辅助的定位系统,上述的基于视觉辅助的定位方法的步骤流程可以视作基于视觉辅助的定位系统的优选实施方式,基于视觉辅助的定位系统的功能可以通过执行基于视觉辅助的定位方法中的步骤来实现。所述基于视觉辅助的定位系统包含以下模块:数据采集判断模块:获取来自惯性传感器的惯性传感器数据,根据惯性传感器数据判断步态动作是否发生;步长估算模块:当判定步态动作发生时,根据惯性传感器数据估算得到步长;偏航角计算模块:获取来自视觉陀螺仪的视觉数据,对视觉数据与惯性传感器数据进行卡尔曼滤波获得偏航角;位置计算模块:根据步长与偏航角,计算获得位置信息。
所述步长估算模块包含以下任一个或全部模块:离线步长估算模块:根据步长估计模型计算获取步长,所述步长估计模型通过统计多个相同或不同身高、体重、性别人员信息进行离线生成;在线步长估算模块:根据惯性传感器数据,按如下公式计算获得步长:
SLk=α·freq+β
式中:SLk为k时刻行人的步长;k为采样时刻;α、β为比例因子;freq为步频,惯性传感器数据包含步频。
所述惯性传感器数据包含磁力航向角θm,所述视觉数据包含视觉航向角θv;在偏航角计算模块中,对θm与θv按如下公式进行卡尔曼滤波:
Figure GDA0001574417270000101
Figure GDA0001574417270000102
式中:
Figure GDA0001574417270000103
为k时刻偏航角变化率;θk为k时刻偏航角;Δt为k-1时刻到k时刻之间的时间间隔;
Figure GDA0001574417270000104
为k-1时刻偏航角变化率;θk-1为k-1时刻偏航角;ωk-1为k-1时刻过程噪声,服从高斯分布;
Figure GDA0001574417270000105
为k时刻视觉航向角θv变化率;
Figure GDA0001574417270000106
为k时刻磁力航向角θm;vk为k时刻观测噪声,服从高斯分布。
所述视觉航向角θv通过以下模块获取:高频滤波模块:将进入到视觉陀螺仪的图像帧进行Canny边缘检测,对所述图像帧进行高频滤波,获得滤波图像;霍夫变换模块:利用霍夫变换检测滤波图像中直线线条;线条筛选模块:筛选出滤波图像中垂直于图像平面的结构线条;消失点确认模块:根据结构线条,确定滤波图像中的消失点;视觉航向角估算模块:利用得到的消失点估算得到视觉航向角,公式如下:
Figure GDA0001574417270000107
式中:x为像素横坐标;u为像素中心点的横坐标;fx为相机焦距。
线条筛选模块中,在所有直线线条中选取左侧线条ll与右侧线条lr,通过调整左侧线条ll与右侧线条lr的角度调整阈值,以获取所述结构线条;消失点确认模块中,消失点通过如下公式获取:
vp={dot|dot=ll∩lr}
式中:vp为消失点;dot为线ll和lr的交点。
消失点确认模块还包含消失点误差消除模块,所述误差消除模块包含以下模块:模块M1:求出所有消失点的横纵坐标的中位数,将检测到的与中位数差别大于设定值的消失点剔除掉;模块M2:求剩下的所有消失点的方差。
所述位置计算模块包含以下任一个模块:直接位置更新模块:将步长与偏航角代入到如下公式进行位置更新:
Figure GDA0001574417270000108
卡尔曼滤波位置更新模块:将步长与偏航角代入到如下公式进行卡尔曼滤波位置更新:
Figure GDA0001574417270000111
式中:xk+1为k+1时刻行人位置横坐标;xk为k时刻行人位置横坐标;SLk为k时刻行人步长;θk为k时刻偏航角;yk+1为k+1时刻行人位置纵坐标;yk为k时刻行人位置纵坐标;
Figure GDA0001574417270000112
为k+1时刻偏航角变化率;
Figure GDA0001574417270000113
为k时刻偏航角变化率;θk+1为k+1时刻偏航角;Δt为k时刻到k+1时刻之间的时间间隔;w1,w2,w3,w4为相互独立的系统过程噪声,均服从高斯分布。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的控制器及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的控制器及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的控制器及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (6)

1.一种基于视觉辅助的定位方法,其特征在于,包含以下步骤:
数据采集判断步骤:获取来自惯性传感器的惯性传感器数据,根据惯性传感器数据判断步态动作是否发生;
步长估算步骤:当判定步态动作发生时,根据惯性传感器数据估算得到步长;
偏航角计算步骤:获取来自视觉陀螺仪的视觉数据,对视觉数据与惯性传感器数据进行卡尔曼滤波获得偏航角;
位置计算步骤:根据步长与偏航角,计算获得位置信息;
所述步长估算步骤包含以下任一个或全部步骤:
离线步长估算步骤:根据步长估计模型计算获取步长,所述步长估计模型通过统计多个相同或不同身高、体重、性别人员信息进行离线生成;
在线步长估算步骤:根据惯性传感器数据,按如下公式计算获得步长:
SLk=α·freq+β
式中:SLk为k时刻行人的步长;
k为采样时刻;
α、β为比例因子;
freq为步频,惯性传感器数据包含步频;
所述惯性传感器数据
包含磁力航向角θm,所述视觉数据包含视觉航向角θv
在偏航角计算步骤中,对θm与θv按如下公式进行卡尔曼滤波:
Figure FDA0003150696320000011
Figure FDA0003150696320000012
式中:
Figure FDA0003150696320000013
为k时刻偏航角变化率;
θk为k时刻偏航角;
Δt为k-1时刻到k时刻之间的时间间隔;
Figure FDA0003150696320000014
为k-1时刻偏航角变化率;
θk-1为k-1时刻偏航角;
ωk-1为k-1时刻过程噪声,服从高斯分布;
Figure FDA0003150696320000015
为k时刻视觉航向角θv变化率;
Figure FDA0003150696320000016
为k时刻磁力航向角θm
vk为k时刻观测噪声,服从高斯分布。
2.根据权利要求1所述的基于视觉辅助的定位方法,其特征在于,所述视觉航向角θv通过以下步骤获取:
高频滤波步骤:将进入到视觉陀螺仪的图像帧进行Canny边缘检测,对所述图像帧进行高频滤波,获得滤波图像;
霍夫变换步骤:利用霍夫变换检测滤波图像中直线线条;
线条筛选步骤:筛选出滤波图像中垂直于图像平面的结构线条;
消失点确认步骤:根据结构线条,确定滤波图像中的消失点;
视觉航向角估算步骤:利用得到的消失点估算得到视觉航向角,公式如下:
Figure FDA0003150696320000021
式中:x为像素横坐标;
u为像素中心点的横坐标;
fx为相机焦距;
线条筛选步骤中,在所有直线线条中选取左侧线条ll与右侧线条lr,通过调整左侧线条ll与右侧线条lr的角度调整阈值,以获取所述结构线条;
消失点确认步骤中,消失点通过如下公式获取:vp
={dot|dot=ll∩lr}
式中:vp为消失点;
dot为线ll和lr的交点;
消失点确认步骤还包含消失点误差消除步骤,所述误差消除步骤包含以下步骤:
步骤S1:求出所有消失点的横纵坐标的中位数,将检测到的与中位数差别大于设定值的消失点剔除掉;
步骤S2:求剩下的所有消失点的方差。
3.根据权利要求1所述的基于视觉辅助的定位方法,其特征在于,所述位置计算步骤包含以下任一个步骤:
直接位置更新步骤:将步长与偏航角代入到如下公式进行位置更新:
Figure FDA0003150696320000022
卡尔曼滤波位置更新步骤:将步长与偏航角代入到如下公式进行卡尔曼滤波位置更新:
Figure FDA0003150696320000023
式中:xk+1为k+1时刻行人位置横坐标;
xk为k时刻行人位置横坐标;
SLk为k时刻行人步长;
θk为k时刻偏航角;
yk+1为k+1时刻行人位置纵坐标;
yk为k时刻行人位置纵坐标;
Figure FDA0003150696320000024
为k+1时刻偏航角变化率;
Figure FDA0003150696320000025
为k时刻偏航角变化率;
θk+1为k+1时刻偏航角;
Δt为k时刻到k+1时刻之间的时间间隔;
w1,w2,w3,w4为相互独立的系统过程噪声,均服从高斯分布。
4.一种基于视觉辅助的定位系统,其特征在于,包含以下模块:
数据采集判断模块:获取来自惯性传感器的惯性传感器数据,根据惯性传感器数据判断步态动作是否发生;
步长估算模块:当判定步态动作发生时,根据惯性传感器数据估算得到步长;
偏航角计算模块:获取来自视觉陀螺仪的视觉数据,对视觉数据与惯性传感器数据进行卡尔曼滤波获得偏航角;
位置计算模块:根据步长与偏航角,计算获得位置信息;
所述步长估算模块包含以下任一个或全部模块:
离线步长估算模块:根据步长估计模型计算获取步长,所述步长估计模型通过统计多个相同或不同身高、体重、性别人员信息进行离线生成;
在线步长估算模块:根据惯性传感器数据,按如下公式计算获得步长:SLk
α·freq+β
式中:SLk为k时刻行人的步长;
k为采样时刻;
α、β为比例因子;
freq为步频,惯性传感器数据包含步频;
述惯性传感器数据包含磁力航向角θm,所述视觉数据包含视觉航向角θv
在偏航角计算模块中,对θm与θv按如下公式进行卡尔曼滤波:
Figure FDA0003150696320000031
Figure FDA0003150696320000032
式中:
Figure FDA0003150696320000033
为k时刻偏航角变化率;
θk为k时刻偏航角;
Δt为k-1时刻到k时刻之间的时间间隔;
Figure FDA0003150696320000034
为k-1时刻偏航角变化率;
θk-1为k-1时刻偏航角;
ωk-1为k-1时刻过程噪声,服从高斯分布;
Figure FDA0003150696320000035
为k时刻视觉航向角θv变化率;
Figure FDA0003150696320000036
为k时刻磁力航向角θm
vk为k时刻观测噪声,服从高斯分布。
5.根据权利要求4所述的基于视觉辅助的定位系统,其特征在于,所述视觉航向角θv通过以下模块获取:
高频滤波模块:将进入到视觉陀螺仪的图像帧进行Canny边缘检测,对所述图像帧进行高频滤波,获得滤波图像;
霍夫变换模块:利用霍夫变换检测滤波图像中直线线条;
线条筛选模块:筛选出滤波图像中垂直于图像平面的结构线条;
消失点确认模块:根据结构线条,确定滤波图像中的消失点;
视觉航向角估算模块:利用得到的消失点估算得到视觉航向角,公式如下:
Figure FDA0003150696320000041
式中:x为像素横坐标;
u为像素中心点的横坐标;
fx为相机焦距;
线条筛选模块中,在所有直线线条中选取左侧线条ll与右侧线条lr,通过调整左侧线条ll与右侧线条lr的角度调整阈值,以获取所述结构线条;
消失点确认模块中,消失点通过如下公式获取:vp
={dot|dot=ll∩lr}
式中:vp为消失点;
dot为线ll和lr的交点;
消失点确认模块还包含消失点误差消除模块,所述误差消除模块包含以下模块:
模块M1:求出所有消失点的横纵坐标的中位数,将检测到的与中位数差别大于设定值的消失点剔除掉;
模块M2:求剩下的所有消失点的方差。
6.根据权利要求4所述的基于视觉辅助的定位系统,其特征在于,所述位置计算模块包含以下任一个模块:
直接位置更新模块:将步长与偏航角代入到如下公式进行位置更新:
Figure FDA0003150696320000042
卡尔曼滤波位置更新模块:将步长与偏航角代入到如下公式进行卡尔曼滤波位置更新:
Figure FDA0003150696320000043
式中:xk+1为k+1时刻行人位置横坐标;
xk为k时刻行人位置横坐标;
SLk为k时刻行人步长;
θk为k时刻偏航角;
yk+1为k+1时刻行人位置纵坐标;
yk为k时刻行人位置纵坐标;
Figure FDA0003150696320000044
为k+1时刻偏航角变化率;
Figure FDA0003150696320000045
为k时刻偏航角变化率;
θk+1为k+1时刻偏航角;
Δt为k时刻到k+1时刻之间的时间间隔;
w1,w2,w3,w4为相互独立的系统过程噪声,均服从高斯分布。
CN201711080060.9A 2017-11-06 2017-11-06 基于视觉辅助的定位方法与系统 Active CN108106613B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711080060.9A CN108106613B (zh) 2017-11-06 2017-11-06 基于视觉辅助的定位方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711080060.9A CN108106613B (zh) 2017-11-06 2017-11-06 基于视觉辅助的定位方法与系统

Publications (2)

Publication Number Publication Date
CN108106613A CN108106613A (zh) 2018-06-01
CN108106613B true CN108106613B (zh) 2022-03-01

Family

ID=62206401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711080060.9A Active CN108106613B (zh) 2017-11-06 2017-11-06 基于视觉辅助的定位方法与系统

Country Status (1)

Country Link
CN (1) CN108106613B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201816655D0 (en) * 2018-10-12 2018-11-28 Focal Point Positioning Ltd A method of estimating a metric of interest related to the motion of a body
CN109598256B (zh) * 2018-12-25 2021-03-30 斑马网络技术有限公司 进出坡道判断方法、装置、车辆、存储介质及电子设备
CN111174781B (zh) * 2019-12-31 2022-03-04 同济大学 一种基于可穿戴设备联合目标检测的惯导定位方法
CN113639743B (zh) * 2021-06-29 2023-10-17 北京航空航天大学 一种基于行人步长信息辅助的视觉惯性slam定位方法
CN113984046B (zh) * 2021-10-25 2023-05-30 北京航空航天大学 一种基于体域惯性传感器网多特征融合的高精度室内定位方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8887566B1 (en) * 2010-05-28 2014-11-18 Tanenhaus & Associates, Inc. Miniaturized inertial measurement and navigation sensor device and associated methods
CN107084718A (zh) * 2017-04-14 2017-08-22 桂林电子科技大学 基于行人航迹推算的室内定位方法
CN107255474B (zh) * 2017-05-11 2020-06-05 杭州电子科技大学 一种融合电子罗盘和陀螺仪的pdr航向角确定方法

Also Published As

Publication number Publication date
CN108106613A (zh) 2018-06-01

Similar Documents

Publication Publication Date Title
CN108106613B (zh) 基于视觉辅助的定位方法与系统
CN106017463B (zh) 一种基于定位传感装置的飞行器定位方法
EP3090407B1 (en) Methods and systems for determining estimation of motion of a device
US10339387B2 (en) Automated multiple target detection and tracking system
US9990726B2 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
EP2495632B1 (en) Map generating and updating method for mobile robot position recognition
US10935562B2 (en) Method and device for measuring flight parameters of an unmanned aerial vehicle
WO2018068771A1 (zh) 目标跟踪方法、系统、电子设备和计算机存储介质
EP3168571B1 (en) Utilizing camera to assist with indoor pedestrian navigation
CN105841687A (zh) 室内定位方法和系统
CN109997150B (zh) 用于对道路特征进行分类的系统和方法
CN107610157B (zh) 一种无人机目标追踪方法及系统
CN111595344B (zh) 一种基于地图信息辅助的多姿态下行人行位推算方法
He et al. Wearable ego-motion tracking for blind navigation in indoor environments
KR20210026795A (ko) Imu 센서와 카메라를 이용한 하이브리드 실내 측위 시스템
Williams et al. Feature and pose constrained visual aided inertial navigation for computationally constrained aerial vehicles
Si et al. A novel positioning method of anti-punching drilling robot based on the fusion of multi-IMUs and visual image
US11372017B2 (en) Monocular visual-inertial alignment for scaled distance estimation on mobile devices
CN112686149B (zh) 一种基于视觉的固定翼无人机近地段自主着陆方法
CN115235455B (zh) 一种基于智能手机pdr与视觉修正的行人定位方法
WO2022179047A1 (zh) 一种状态信息估计方法及装置
CN111968157A (zh) 一种应用于高智能机器人的视觉定位系统及方法
CN117554984A (zh) 一种基于图像理解的单线激光雷达室内slam定位方法及系统
CN117330052A (zh) 基于红外视觉、毫米波雷达和imu融合的定位与建图方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant