CN108759834A - 一种基于全局视觉的定位方法 - Google Patents

一种基于全局视觉的定位方法 Download PDF

Info

Publication number
CN108759834A
CN108759834A CN201810393178.5A CN201810393178A CN108759834A CN 108759834 A CN108759834 A CN 108759834A CN 201810393178 A CN201810393178 A CN 201810393178A CN 108759834 A CN108759834 A CN 108759834A
Authority
CN
China
Prior art keywords
target
camera
posture
calculated
localization method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810393178.5A
Other languages
English (en)
Other versions
CN108759834B (zh
Inventor
罗胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dragon Totem Technology Hefei Co ltd
Shanghai Lingzhuzi Information Technology Co ltd
Original Assignee
Institute of Laser and Optoelectronics Intelligent Manufacturing of Wenzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Laser and Optoelectronics Intelligent Manufacturing of Wenzhou University filed Critical Institute of Laser and Optoelectronics Intelligent Manufacturing of Wenzhou University
Priority to CN201810393178.5A priority Critical patent/CN108759834B/zh
Publication of CN108759834A publication Critical patent/CN108759834A/zh
Application granted granted Critical
Publication of CN108759834B publication Critical patent/CN108759834B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement

Abstract

本发明提供一种基于视觉的定位方法,(1)获得摄像头的精确位置;(2)获得摄像头的姿态;(3)对目标成像:整个系统投入运营,对目标成像;(4)在图像中检测目标;5)计算目标射线;(6)计算目标位置;7)计算目标姿态:根据目标在图像坐标里的姿态,以及摄像头的姿态,采取视觉和IMU、OD、Geomagnetic的信息融合组合导航可以确定目标的姿态。本发明的有益效果是已经知道摄像头的位置、朝向,以及所面向地理环境的模型,就可以很容易地计算出视野范围内每个目标的位置;将视觉与GPS、IMU、OD及地磁等定位装置配合,可得到高精度的导航定位。

Description

一种基于全局视觉的定位方法
技术领域
本发明属于定位技术领域,尤其是涉及一种基于全局视觉的定位方法。
背景技术
定位是导航的前提条件,在工业、养老、医疗、会展、自动化等领域有广泛的应用。但是目前的定位技术在应用中都有短板,例如GPS容易受遮挡,在室内无法使用,在山区、树林中精度低;Wi-Fi精度低,不能穿墙;蓝牙稳定性稍差,受噪声信号干扰大;ZigBee需要密集布置信源;RFID作用距离短,一般最长为几十米,不便于整合到移动设备之中。IMU、OD可以高频测量加速度、速度和姿态角,但是受噪声影响大,长时间会有累积误差。
但是作为智能城市项目的监控摄像头,已经密集地分布在各个关键位置。如果已经知道摄像头的位置、朝向,以及所面向的地理环境,就可以很容易地计算出视野范围内的每个目标的位置。如果与GPS、IMU、OD及地磁等定位装置配合,就可以提高定位精度。
发明内容
本发明的目的是提供一种基于全局视觉的定位方法,其解决了平常定位方法中存在的定位不准确、易受干扰、安装成本高等不足,提高了定位精度,适合用在工业、自动化、医疗、会展、养老及酒店等领域的定位导航中。
本发明的技术方案是:一种基于全局视觉的定位方法,包括如下步骤:
设已知摄像头的精确位置(经度O,纬度A,高度H)和姿态(αc,βc,γc),并且已知场地的几何模型,那么从摄像头的图像中找到目标后,就能根据目标在图像中的位置确定目标与摄像头连线的方位角(αO,βO,γO),并根据此方位角和场地的几何模型计算出目标的位置和姿态。
(1)获得摄像头的精确位置:如果在野外,采用高精度的差分GPS装置;如果在室内,用高精度的差分GPS装置定位整个建筑物,再根据建筑物内部结构的尺寸推算摄像头的精确位置。将世界坐标系原点设置在摄像头焦距处,一个方向指向经度O方向(东方),另一个方向指向纬度A方向(北方),第三个方向指向高度H方向;
(2)获得摄像头的姿态:采用带水平仪和罗盘的标定模板标定相机;水平放置的标定板一个方向指向经度O方向(东方),一个方向指向纬度A方向(北方),与摄像头处的世界坐标系一致;设标定后,摄像头坐标系与世界坐标系的变换为R1|T,从旋转矩阵R1可以按如下公式确定出摄像头的三个姿态角(αc,βc,γc),
(3)对目标成像:整个系统投入运营,对目标成像;
(4)在图像中检测目标:可以用目标检测的方法,也可以在目标上带预设标签的方法,确定目标在图像中的位置,目标大小为λ,相对于图像中心的偏移(r,c),目标在图像坐标里的姿态θ;
(5)计算目标射线:因为是单目视角,无法确定目标的高度和远近;但是对于具体应用而言,目标往往在地面上,并且目标往往是某种确定的类型,例如人、车、AGV等,因此大小、高度固定。在图像中找到目标后,根据目标相对图像中心的偏移(r,c),在修正相机变形后,可以确定目标与摄像头光轴的偏转角
并计算出目标相对于相机坐标的旋转矩阵R2,因此,可确定目标射线在世界坐标系里的角度(αO,βO,γO);
(6)计算目标位置:已知目标射线后,有两种方式可以确定目标位置:(a)如果已知场地的几何模型:如果地面不是水平的,将场地的几何模型S向上平移目标高度后,此三维曲面与目标射线的交点就是目标位置;如果地面是水平的,不需要场地的几何模型,经过相交计算后,就可以确定目标位置;(b)根据目标大小:根据目标在图像中的大小λ,估算目标与相机的距离,从而确定目标的位置坐标。
(7)计算目标姿态:根据目标在图像坐标里的姿态θ,以及摄像头的姿态,采取视觉和IMU、OD、Geomagnetic的信息融合组合导航可以确定目标的姿态。
一种用于全局视觉定位方法中的信息融合组合导航方法,具体如下:
1)在建立系统误差方程的基础上,将位置误差方程、姿态误差方程以及惯性仪表误差方程综合在一起作为组合导航卡尔曼滤波器的观察值,可以写出INS系统误差状态方程的一般表达式如下
X(k)=F(k-1)X(k-1)+G(k-1)W(k-1)
其中,状态变量X=[δO,δA,δH,φNEDrxryrz,△x,△y,△z],δO、δA、δH为纬度、经度和高度误差,φN、φE、φD为平台误差角,εrx、εry、εrz为陀螺仪一阶马尔柯夫漂移,△x、△y、△z为加速度计一阶马尔柯夫漂移。F为状态转换阵,G为噪声转换阵,W为系统噪声。
2)用视觉测量值和IMU、OD、Geomagnetic融合信息值的差值作为量测值,观测方程为
Z(k)=H(k)X(k)+V(k)
其中,Z=[δO,δA,δH,φNED]T,H为观测矩阵,V为测量噪声矩阵。
3)建立系统的状态方程和观测方程后,就可以进行卡尔曼滤波。其中状态噪声阵Q根据IMU、OD、Geomagnetic信息融合后的有关参数选取,观测噪声矩阵R根据视觉测量的性能选取。
4)经由Kalman滤波估计出惯导系统的误差,然后对惯导系统进行校正。
本发明具有的优点和积极效果是:由于采用上述技术方案,已经知道摄像头的位置、朝向,以及所面向地理环境的模型,就可以很容易地计算出视野范围内每个目标的位置;将视觉与GPS、IMU、OD及地磁等定位装置配合,可得到高精度的导航定位。
附图说明
图1是系统布局。
图2是本发明的视觉定位处理流程。
图3是本发明的视觉定位处理原理。
图4是摄像头位置、姿态及成像平面坐标。
图5是从摄像头出发的目标射线。
图6是从摄像头和目标射线计算目标位置。
图7是视觉和IMU、OD、Geomagnetic的信息融合组合导航处理流程。
图8是Kalman滤波校正惯导系统。
图9是实施例1的基于全局视觉的室内定位技术的应用示意图。
图10是实施例2的基于全局视觉的扫地机器人的应用示意图。
图中:
1、A摄像头 2、A立杆 3、摄像头A视野范围
4、B摄像头 5、B立杆 6、摄像头B视野范围
7、目标 8、C摄像头 9、摄像头C视野范围
10、C立杆
具体实施方式
如图1所示,沿道路布置有A摄像头1、B摄像头4、C摄像头8,A摄像头1、B摄像头4、C摄像头8分别设在道路上的A立杆2、B立杆5和C立杆10上,摄像头的视野范围分别为摄像头A视野范围3、摄像头B视野范围6、摄像头C视野范围9。摄像头的视野并没有全覆盖整个道路。目标7小车行驶在道路上,小车可能处于0、1、2个摄像头的视野范围内。如果小车处于0个摄像头的视野范围内时,小车依靠IMU、OD、Geomagnetic导航;如果小车处于1、2个摄像头的视野范围内时,小车依靠视觉和IMU、OD、Geomagnetic的融合信息导航。
一种基于全局视觉的定位方法,包括如下步骤:
如图2、3所示,设已知摄像头的精确位置(经度O,纬度A,高度H)和姿态(αc,βc,γc),并且已知场地的几何模型,那么从摄像头的图像中找到目标后,就能根据目标在图像中的位置确定目标与摄像头连线的方位角(αO,βO,γO),并根据此方位角和场地的几何模型计算出目标的位置和姿态。具体步骤如下:
(1)获得摄像头的精确位置:如果在野外,采用高精度的差分GPS装置;如果在室内,用高精度的差分GPS装置定位整个建筑物,再根据建筑物内部结构的尺寸推算摄像头的精确位置。将世界坐标系原点设置在摄像头焦距处,一个方向指向经度O方向(东方),另一个方向指向纬度A方向(北方),第三个方向指向高度H方向;
(2)获得摄像头的姿态:采用带水平仪和罗盘的标定模板标定相机;水平放置的标定板一个方向指向经度O方向(东方),一个方向指向纬度A方向(北方),与摄像头处的世界坐标系一致;设标定后,摄像头坐标系与世界坐标系的变换为R1|T,从旋转矩阵R1可以按如下公式确定出摄像头的三个姿态角(αc,βc,γc),如图4所示;
(3)对目标成像:整个系统投入运营,对目标成像;
(4)在图像中检测目标:可以用目标检测的方法,也可以在目标上带预设标签的方法,确定目标在图像中的位置,目标大小为λ,相对于图像中心的偏移(r,c),目标在图像坐标里的姿态θ;
(5)计算目标射线:因为是单目视角,无法确定目标的高度和远近;但是对于具体应用而言,目标往往在地面上,并且目标往往是某种确定的类型,例如人、车、AGV等,因此大小、高度固定。在图像中找到目标后,根据目标相对图像中心的偏移(r,c),在修正相机变形后,可以确定目标与摄像头光轴的偏转角如图5所示;
并计算出目标相对于相机坐标的旋转矩阵R2,因此,可确定目标射线在世界坐标系里的角度(αO,βO,γO);
(6)计算目标位置:已知目标射线后,有两种方式可以确定目标位置:(a)如果已知场地的几何模型:如果地面不是水平的,将场地的几何模型S向上平移目标高度后,此三维曲面与目标射线的交点就是目标位置;如果地面是水平的,不需要场地的几何模型,经过相交计算后,就可以确定目标位置;(b)根据目标大小:根据目标在图像中的大小λ,估算目标与相机的距离,从而确定目标的位置坐标,如图6所示;
(7)计算目标姿态:根据目标在图像坐标里的姿态θ,以及摄像头的姿态,采取视觉和IMU、OD、Geomagnetic的信息融合组合导航可以确定目标的姿态。
如图7所示,一种用于全局视觉定位方法中的信息融合组合导航方法,具体如下:
其中视觉、IMU、OD、Geomagnetic是AGV小车电里的几种常见传感器,可以确定目标的位置和姿态。但是这些传感器,每种都有缺陷,因此要采用信息融合的方式,综合几种传感器的信息,得到相对较为准确的位置和姿态。目前,已经有GPS和IMU、OD、Geomagnetic组合导航的方法,但是还没有视觉和IMU、OD、Geomagnetic组合导航的方法。
IMU、OD、Geomagnetic信息融合已有现成的方法,此处不再赘述。
1)在建立系统误差方程的基础上,将位置误差方程、姿态误差方程以及惯性仪表误差方程综合在一起作为组合导航卡尔曼滤波器的观察值,可以写出INS系统误差状态方程的一般表达式如下
X(k)=F(k-1)X(k-1)+G(k-1)W(k-1)
其中,状态变量X=[δO,δA,δH,φN,φE,φD,εrx,εry,εrz,△x,△y,△z],δO、δA、δH为纬度、经度和高度误差,φN、φE、φD为平台误差角,εrx、εry、εrz为陀螺仪一阶马尔柯夫漂移,△x、△y、△z为加速度计一阶马尔柯夫漂移。F为状态转换阵,G为噪声转换阵,W为系统噪声。
2)用视觉测量值和IMU、OD、Geomagnetic融合信息值的差值作为量测值,观测方程为
Z(k)=H(k)X(k)+V(k)
其中,Z=[δO,δA,δH,φN,φE,φD]T,H为观测矩阵,V为测量噪声矩阵。
3)建立系统的状态方程和观测方程后,就可以进行卡尔曼滤波。其中状态噪声阵Q根据IMU、OD、Geomagnetic信息融合后的有关参数选取,观测噪声矩阵R根据视觉测量的性能选取,如图8所示;
4)经由Kalman滤波估计出惯导系统的误差,然后对惯导系统进行校正。
实施例1基于全局视觉的室内定位技术
采取本发明的全局视觉的定位方法,应用在室内定位技术中。如图9所示,室内定位有着重要的价值,但是目前的技术水平已经成为阻碍应用的瓶颈。如果采用全局视觉,目标发出可视化的定位请求信号,室内定位系统向目标提供精确的位置信息服务,解决目前的室内定位难题。
全局视觉:是指俯视的、能够看到大幅度范围的摄像头。
可视化的定位请求信号:摄像头能够检测到的可视化信号,例如闪烁的灯光。作用:(1)告诉摄像头检测目标的位置;(2)告诉摄像头检测目标是谁;(3)同步摄像头和目标上的时间。
步骤:
(1)目标发出可视化的定位请求信号;
(2)检测目标位置、姿态;
(3)识别目标;
(4)摄像头与目标建立无线通讯链路;
(5)摄像头通过无线通讯链路通知目标位置、姿态。
实施例2基于全局视觉的扫地机器人
采取本发明的全局视觉的定位方法,应用在扫地机器人中。如图10所示,由于没有对整个环境的认知,扫地机器人无法建立优化的巡航策略;更重要的是,没有对扫地效果的反馈,扫地机器人无法知道哪些地方需要打扫、哪些地方不需要打扫。即使有能力对环境建模的扫地机器人,也无法对整个环境建立准确的模型,尤其是动态变化的环境。
全局视觉是指俯视的、能够看到大幅度范围的摄像头。这种摄像头有两个作用:(1)对整个环境建立准确的模型,以方便扫地机器人巡航;(2)能够检测出哪儿脏,哪儿需要打扫,向扫地机器人布置清理任务;(3)检测扫地机器人的打扫效果,调整扫地机器人的打扫参数,提高清理效果。但是全局摄像头只能从上向下看,看不到遮挡的地方。
因此,基于全局视觉的扫地机器人,能够对整个环境建立完整模型,也能够通过扫地机器人的激光传感器建立行走平面的局部模型,尤其是全局摄像头被遮挡地方的局部模型。而更为重要的是,通过全局视觉,摄像头可以通过无线通讯通知扫地机器人哪儿打扫、哪儿不需要打扫,向扫地机器人布置清理任务,以及检测扫地机器人的打扫效果,调整扫地机器人的打扫参数,提高清理效果。
以上对本发明的一个实施例进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍归属于本发明的专利涵盖范围之内。

Claims (7)

1.一种基于视觉的定位方法,其特征在于:
(1)获得摄像头的精确位置;
(2)获得摄像头的姿态;
(3)对目标成像:整个系统投入运营,对目标成像;
(4)在图像中检测目标;
(5)计算目标射线;
(6)计算目标位置;
(7)计算目标姿态:根据目标在图像坐标里的姿态,以及摄像头的姿态,采取视觉和IMU、OD、Geomagnetic的信息融合组合导航可以确定目标的姿态。
2.根据权利要求1所述的一种基于视觉的定位方法,其特征在于:步骤1)中,如果在野外,采用高精度的差分GPS装置;如果在室内,用高精度的差分GPS装置定位整个建筑物,再根据建筑物内部结构的尺寸推算摄像头的精确位置;将世界坐标系原点设置在摄像头焦距处,一个方向指向经度O方向(东方),另一个方向指向纬度A方向(北方),第三个方向指向高度H方向。
3.根据权利要求1所述的一种基于视觉的定位方法,其特征在于:步骤2)中,采用带水平仪和罗盘的标定模板标定相机;水平放置的标定板一个方向指向经度O方向(东方),一个方向指向纬度A方向(北方),与摄像头处的世界坐标系一致;设标定后,摄像头坐标系与世界坐标系的变换为R1|T,从旋转矩阵R1可以按如下公式确定出摄像头的三个姿态角(αc,βc,γc)。
4.根据权利要求1所述的一种基于视觉的定位方法,其特征在于:步骤4)中,可以用目标检测的方法,也可以在目标上带预设标签的方法,确定目标在图像中的位置,目标大小为λ,相对于图像中心的偏移(r,c),目标在图像坐标里的姿态θ。
5.根据权利要求1所述的一种基于视觉的定位方法,其特征在于:步骤5)中,因为是单目视角,无法确定目标的高度和远近;但是对于具体应用而言,目标往往在地面上,并且目标往往是确定的类型,大小、高度固定;在图像中找到目标后,根据目标相对图像中心的偏移(r,c),在修正相机变形后,可以确定目标与摄像头光轴的偏转角
并计算出目标相对于相机坐标的旋转矩阵R2,因此可确定目标射线在世界坐标系里的角度(αO,βO,γO)。
6.根据权利要求1所述的一种基于视觉的定位方法,其特征在于:步骤6)中,已知目标射线后,有两种方式可以确定目标位置:(a)如果已知场地的几何模型:如果地面不是水平的,将场地的几何模型S向上平移目标高度后,此三维曲面与目标射线的交点就是目标位置;如果地面是水平的,不需要场地的几何模型,经过相交计算后,就可以确定目标位置;(b)根据目标大小:根据目标在图像中的大小λ,估算目标与相机的距离,从而确定目标的位置坐标。
7.一种用于权利要求1所述的全局视觉定位方法中的信息融合组合导航方法,其特征在于:具体如下:
1)在建立系统误差方程的基础上,将位置误差方程、姿态误差方程以及惯性仪表误差方程综合在一起作为组合导航卡尔曼滤波器的观察值,可以写出INS系统误差状态方程的一般表达式如下
X(k)=F(k-1)X(k-1)+G(k-1)W(k-1)
其中,状态变量X=[δO,δA,δH,φN,φE,φD,εrx,εry,εrz,△x,△y,△z],δO、δA、δH为纬度、经度和高度误差,φN、φE、φD为平台误差角,εrx、εry、εrz为陀螺仪一阶马尔柯夫漂移,△x、△y、△z为加速度计一阶马尔柯夫漂移,F为状态转换阵,G为噪声转换阵,W为系统噪声。
2)用视觉测量值和IMU、OD、Geomagnetic融合信息值的差值作为量测值,观测方程为
Z(k)=H(k)X(k)+V(k)
其中,Z=[δO,δA,δH,φN,φE,φD]T,H为观测矩阵,V为测量噪声矩阵。
3)建立系统的状态方程和观测方程后,就可以进行卡尔曼滤波。其中状态噪声阵Q根据IMU、OD、Geomagnetic信息融合后的有关参数选取,观测噪声矩阵R根据视觉测量的性能选取。
4)经由Kalman滤波估计出惯导系统的误差,然后对惯导系统进行校正。
CN201810393178.5A 2018-04-28 2018-04-28 一种基于全局视觉的定位方法 Active CN108759834B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810393178.5A CN108759834B (zh) 2018-04-28 2018-04-28 一种基于全局视觉的定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810393178.5A CN108759834B (zh) 2018-04-28 2018-04-28 一种基于全局视觉的定位方法

Publications (2)

Publication Number Publication Date
CN108759834A true CN108759834A (zh) 2018-11-06
CN108759834B CN108759834B (zh) 2023-03-21

Family

ID=64012237

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810393178.5A Active CN108759834B (zh) 2018-04-28 2018-04-28 一种基于全局视觉的定位方法

Country Status (1)

Country Link
CN (1) CN108759834B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108759815A (zh) * 2018-04-28 2018-11-06 温州大学激光与光电智能制造研究院 一种用于全局视觉定位方法中的信息融合组合导航方法
CN109344970A (zh) * 2018-11-27 2019-02-15 中国电子科技集团公司第二十研究所 一种无人机上基于视觉目标动向推理方法
CN109963120A (zh) * 2019-02-26 2019-07-02 北京大视景科技有限公司 一种虚实融合场景中多ptz相机的联合控制系统及方法
CN110119698A (zh) * 2019-04-29 2019-08-13 北京百度网讯科技有限公司 用于确定对象状态的方法、装置、设备和存储介质
CN110174093A (zh) * 2019-05-05 2019-08-27 腾讯科技(深圳)有限公司 定位方法、装置、设备和计算机可读存储介质
CN111830955A (zh) * 2019-04-15 2020-10-27 富华科精密工业(深圳)有限公司 自动导航方法、服务器及存储介质
CN111829510A (zh) * 2019-04-15 2020-10-27 富华科精密工业(深圳)有限公司 自动导航方法、服务器及存储介质
CN116108873A (zh) * 2022-12-12 2023-05-12 天津大学 基于rfid/imu融合的运动姿势评估系统
JP7282934B1 (ja) 2022-01-24 2023-05-29 エヌ・ティ・ティ・インフラネット株式会社 精度向上方法、離隔距離取得方法、位置情報算出支援装置、位置情報算出支援プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1847789A (zh) * 2005-04-06 2006-10-18 佳能株式会社 测量位置及姿态的方法和装置
CN101902616A (zh) * 2009-06-01 2010-12-01 金三立视频科技(深圳)有限公司 视频监控快速立体定位方法
CN102254169A (zh) * 2011-08-23 2011-11-23 东北大学秦皇岛分校 基于多摄像机的人脸识别方法及系统
US20160209217A1 (en) * 2014-11-13 2016-07-21 Worcester Polytechnic Institute Gyroscope assisted scalable visual simultaneous localization and mapping
CN106447585A (zh) * 2016-09-21 2017-02-22 武汉大学 城市地区和室内高精度视觉定位系统及方法
CN107102647A (zh) * 2017-03-30 2017-08-29 中国人民解放军海军航空工程学院青岛校区 基于图像的无人机目标跟踪控制方法
US20180091741A1 (en) * 2015-03-27 2018-03-29 Nec Corporation Video surveillance system and video surveillance method
US20180106615A1 (en) * 2016-10-17 2018-04-19 Topcon Corporation Laser Scanner

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1847789A (zh) * 2005-04-06 2006-10-18 佳能株式会社 测量位置及姿态的方法和装置
CN101902616A (zh) * 2009-06-01 2010-12-01 金三立视频科技(深圳)有限公司 视频监控快速立体定位方法
CN102254169A (zh) * 2011-08-23 2011-11-23 东北大学秦皇岛分校 基于多摄像机的人脸识别方法及系统
US20160209217A1 (en) * 2014-11-13 2016-07-21 Worcester Polytechnic Institute Gyroscope assisted scalable visual simultaneous localization and mapping
US20180091741A1 (en) * 2015-03-27 2018-03-29 Nec Corporation Video surveillance system and video surveillance method
CN106447585A (zh) * 2016-09-21 2017-02-22 武汉大学 城市地区和室内高精度视觉定位系统及方法
US20180106615A1 (en) * 2016-10-17 2018-04-19 Topcon Corporation Laser Scanner
CN107102647A (zh) * 2017-03-30 2017-08-29 中国人民解放军海军航空工程学院青岛校区 基于图像的无人机目标跟踪控制方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108759815A (zh) * 2018-04-28 2018-11-06 温州大学激光与光电智能制造研究院 一种用于全局视觉定位方法中的信息融合组合导航方法
CN109344970A (zh) * 2018-11-27 2019-02-15 中国电子科技集团公司第二十研究所 一种无人机上基于视觉目标动向推理方法
CN109344970B (zh) * 2018-11-27 2022-03-15 中国电子科技集团公司第二十研究所 一种无人机上基于视觉目标动向推理方法
CN109963120A (zh) * 2019-02-26 2019-07-02 北京大视景科技有限公司 一种虚实融合场景中多ptz相机的联合控制系统及方法
CN111829510A (zh) * 2019-04-15 2020-10-27 富华科精密工业(深圳)有限公司 自动导航方法、服务器及存储介质
CN111830955A (zh) * 2019-04-15 2020-10-27 富华科精密工业(深圳)有限公司 自动导航方法、服务器及存储介质
CN110119698B (zh) * 2019-04-29 2021-08-10 北京百度网讯科技有限公司 用于确定对象状态的方法、装置、设备和存储介质
CN113657224A (zh) * 2019-04-29 2021-11-16 北京百度网讯科技有限公司 车路协同中用于确定对象状态的方法、装置、设备
CN110119698A (zh) * 2019-04-29 2019-08-13 北京百度网讯科技有限公司 用于确定对象状态的方法、装置、设备和存储介质
CN110174093A (zh) * 2019-05-05 2019-08-27 腾讯科技(深圳)有限公司 定位方法、装置、设备和计算机可读存储介质
CN110174093B (zh) * 2019-05-05 2022-10-28 腾讯科技(深圳)有限公司 定位方法、装置、设备和计算机可读存储介质
JP7282934B1 (ja) 2022-01-24 2023-05-29 エヌ・ティ・ティ・インフラネット株式会社 精度向上方法、離隔距離取得方法、位置情報算出支援装置、位置情報算出支援プログラム
CN116108873A (zh) * 2022-12-12 2023-05-12 天津大学 基于rfid/imu融合的运动姿势评估系统
CN116108873B (zh) * 2022-12-12 2024-04-19 天津大学 基于rfid/imu融合的运动姿势评估系统

Also Published As

Publication number Publication date
CN108759834B (zh) 2023-03-21

Similar Documents

Publication Publication Date Title
CN108759834A (zh) 一种基于全局视觉的定位方法
CN108759815A (zh) 一种用于全局视觉定位方法中的信息融合组合导航方法
Atia et al. Integrated indoor navigation system for ground vehicles with automatic 3-D alignment and position initialization
CN105547305B (zh) 一种基于无线定位和激光地图匹配的位姿解算方法
CN105607104B (zh) 一种基于gnss与ins的自适应导航定位系统及方法
US9420275B2 (en) Visual positioning system that utilizes images of a working environment to determine position
CN106197406B (zh) 一种基于惯性导航和rssi无线定位的融合方法
CN110501024A (zh) 一种车载ins/激光雷达组合导航系统的量测误差补偿方法
ES2530264T3 (es) Procedimiento para la determinación de las coordenadas geográficas de píxeles en imágenes SAR
US10704902B2 (en) Surveying pole
CN108955683A (zh) 基于全局视觉的定位方法
KR100860767B1 (ko) 항공 레이저 측량 데이터를 이용한 수치도화 제작 장치 및방법
KR20110043538A (ko) 영상 지도의 구축 및 차량 위치 결정을 위한 방법 및 시스템
CN111025366B (zh) 基于ins及gnss的网格slam的导航系统及方法
CN106705962B (zh) 一种获取导航数据的方法及系统
CN103175524A (zh) 一种无标识环境下基于视觉的飞行器位置与姿态确定方法
CN110617795B (zh) 一种利用智能终端的传感器实现室外高程测量的方法
CN109186597A (zh) 一种基于双mems-imu的室内轮式机器人的定位方法
CN110763238A (zh) 基于uwb、光流和惯性导航的高精度室内三维定位方法
CN117289322A (zh) 一种基于imu、gps与uwb的高精度定位算法
JP5355443B2 (ja) 位置補正システム
CN102128618B (zh) 主动式动态定位方法
CN109883416A (zh) 一种结合可见光通信定位和惯导定位的定位方法及装置
CN109932707A (zh) 顾及雷达结构的移动测量系统标定方法
CN113405560A (zh) 车辆定位和路径规划统一建模方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230801

Address after: Room 1066, Building 19, No. 1398, Pingliang Road, Yangpu District, Shanghai, 200000

Patentee after: Shanghai Lingzhuzi Information Technology Co.,Ltd.

Address before: 230000 floor 1, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee before: Dragon totem Technology (Hefei) Co.,Ltd.

Effective date of registration: 20230801

Address after: 230000 floor 1, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee after: Dragon totem Technology (Hefei) Co.,Ltd.

Address before: 325000 building C1, marine science and Technology Pioneer Park, Longwan District, Wenzhou City, Zhejiang Province

Patentee before: INSTITUTE OF LASER AND OPTOELECTRONICS INTELLIGENT MANUFACTURING, WENZHOU University

TR01 Transfer of patent right