CN111968228B - 一种基于航空装配的增强现实自定位方法 - Google Patents

一种基于航空装配的增强现实自定位方法 Download PDF

Info

Publication number
CN111968228B
CN111968228B CN202010597190.5A CN202010597190A CN111968228B CN 111968228 B CN111968228 B CN 111968228B CN 202010597190 A CN202010597190 A CN 202010597190A CN 111968228 B CN111968228 B CN 111968228B
Authority
CN
China
Prior art keywords
assembly
scene
positioning
pose
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010597190.5A
Other languages
English (en)
Other versions
CN111968228A (zh
Inventor
叶波
唐健钧
丁晓
常壮
金莹莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Hover Information Physics Integration Innovation Research Institute Co Ltd
Chengdu Aircraft Industrial Group Co Ltd
Original Assignee
Nanjing Hover Information Physics Integration Innovation Research Institute Co Ltd
Chengdu Aircraft Industrial Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Hover Information Physics Integration Innovation Research Institute Co Ltd, Chengdu Aircraft Industrial Group Co Ltd filed Critical Nanjing Hover Information Physics Integration Innovation Research Institute Co Ltd
Priority to CN202010597190.5A priority Critical patent/CN111968228B/zh
Priority to PCT/CN2020/108443 priority patent/WO2022000713A1/zh
Publication of CN111968228A publication Critical patent/CN111968228A/zh
Application granted granted Critical
Publication of CN111968228B publication Critical patent/CN111968228B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Abstract

本发明公开了一种基于航空装配的增强现实自定位方法,它包括设计系统框架、搭建装配场景、构建装配场景的高精度三维地图、搭建自定位场景信息、设计自定位视觉系统和定时定位流程。本发明有效的提高了操作人员对任务的理解程度,降低了操作人员的操作门槛,保证高效可靠的完成装配任务,同时在特征点较少的空白区域也可以精准定位。

Description

一种基于航空装配的增强现实自定位方法
技术领域
本发明涉及自定位技术领域,具体涉及一种基于航空装配的增强现实自定位方法。
背景技术
目前,航空复杂产品装配过程中,存在装配零件数量大,协调关系繁多,操作复杂度高的问题,操作人员要频繁的在虚拟二维环境(电脑端)与真实装配环境中进行思维切换,使得装配操作指令无法与真实环境进行融合,从而导致传统装配方式作业效率低下、出错率高,延长了设备交付周期。
随着虚拟现实引导装配已经在复杂产品装配领域得到了广泛应用,但虚拟现实设备只能提供单一的虚拟信息,没有真实环境中的信息,代入感不强,从而采用了增强现实设备对航空产品装配进行引导,避免了虚拟现实设备只能提供单一虚拟场景信息的缺点,同时,增强现实的核心是多传感器融合自定位技术,该技术广泛应用于无人驾驶、扫地机器人、物流机器人以及增强现实中。其通过载体携带的相机和惯性测量单元等传感器,可以实时的得到载体相对于环境的位置和姿态,结合惯性测量单元在短时间内具有较好的位姿估计优点以及相机在快速运动下会造成的模糊缺陷的缺点,多传感器融合的定位精度得到极大提高。但受限于视觉定位原理,在特征点较少的空白区域会导致设备无法定位、定位精度差的问题。
发明内容
本发明的目的就是针对上述现有技术的不足,提供一种改善航空产品装配交付周期长、操作复杂以及代入感不强的基于航空装配的增强现实自定位方法。
本发明采用的技术方案如下:
一种基于航空装配的增强现实自定位方法,它包括设计系统框架、搭建装配场景、构建装配场景的高精度三维地图、搭建自定位场景信息、设计自定位视觉系统和定时定位流程,具体包括如下步骤:
步骤一:所述设计系统框架采用客户端-服务器并行开发的模式进行数据间的接受和发送,所述客户端通过无线与服务器相连,用于将装配场景和装配工艺信息传输到服务器,所述服务器通过无线与客户端相连,用于将解析出的装配场景特征点和标签信息的位姿传输到客户端;
步骤二:完成所述步骤一的系统框架设计后,进行搭建装配场景,所述装配场景包括零件区、待装配区和标签区,所述零件区用于放置装配原件,所述待装配区用于对装配原件进行装配,所述标签区包括多个标签,用于关联多个标签之间的位置和姿态关系,传输至服务器;
步骤三:完成所述步骤二的装配场景搭建后,进行构建装配场景的高精度三维地图,所述构建装配场景高精度三维地图先利用深度相机与惯性测量单元提供的距离信息获得装配场景的稠密三维地图,接着利用Apriltag标签,对装配场景的稠密三维地图进行信息填充,建立离散地图,然后将稠密三维地图与离散地图融合形成装配场景的高精度三维地图,传输至服务器;
步骤四:所述步骤三中的构建装配场景三维特征地图的高精度三维地图传输到所述搭建自定位场景信息,所述搭建自定位场景信息先对高精度三维地图进行分析,并在特征点较少区域附着Apriltag标签,形成装配场景的标签集,接着测量出标签集之间的相对位姿关系,然后根据装配工艺及装配手册,建立装配零件的空间位置关系,传输至服务器;
步骤五:所述步骤四中的搭建自定位场景信息的空间位置关系传输到所述设计自定位视觉系统,所述设计自定位视觉系统包括创建虚拟模型、实时计算设备位姿和虚实场景融合,所述创建虚拟模型与实时计算设备位姿相连,用于AR开发平台搭建三维场景,且根据装配零件的空间位置关系,设定虚拟模型的三维空间坐标,紧接着将增强现实设备放置到场景中,实时计算出设备内深度相机的位姿,所述实时计算设备位姿与虚实场景融合相连,用于将虚拟物体加载到客户端上,实现虚拟物体与装配场景的融合显示;
步骤六:完成所述步骤五的设计自定位视觉系统后,进行定时定位流程,所述定时定位流程首先在零件的待装配区完成自定位视觉系统初始化,接着加载高精度三维地图且开启两个线程,然后将两个线程的位姿进行比较,若误差满足设定要求,则自定位视觉系统输出融合结果定位;若误差过大,则利用标签位姿对融合位姿进行修正,自定位视觉系统输出修正后位姿。
步骤一中,所述客户端包括AR眼镜、惯性测量单元和工控机,所述惯性测量单元包括传感器,所述工控机与传感器相连,用于控制传感器将计算的数据通过串口传输到服务器。
步骤三中,所述深度相机用于采集装配场景一周的视频,对采集到的视频图像进行特征提取和光流跟踪,将提取的视频特征进行筛选,然后提取出特征帧进行特征点保留。
步骤三中,所述信息填充包括Apriltag标签的关键帧以及关键帧对应的标签角点信息。
步骤六中,所述加载高精度三维地图分为两个线程,一个线程为实时检测Apriltag标签信息,接着根据Apriltag标签估计深度相机相对标签位姿,然后将标签与自定位场景的空间位置关系换算相对于世界坐标的位姿;另一个线程为根据装配场景中的特征点融合惯性测量单元进行融合定位,实时得到深度相机相对于世界坐标系的位姿。
步骤五的具体步骤为:(1)计算Apriltag标签的位姿;(2)计算IMU位姿;(3)计算VSLAM位姿;(4)将计算好的位姿传输至服务器且融合虚拟模型的三维空间坐标,然后传输至客户端进行融合显示。
步骤五中,所述设备位姿包括Apriltag标签的位姿、IMU位姿以及VSLAM位姿。
本发明的有益效果有:操作人员穿戴增强现实设备,服务器解读装配指令,同时装配指令以虚拟信息的方式呈现在操作人员眼前,指引操作人员去零件区寻找零件,并引导操作人员到达待装配区域,指导操作人员装配注意事项,有效的提高操作人员对任务的理解程度,降低了操作人员的操作门槛,保证高效可靠的完成装配任务,同时在特征点较少的空白区域也可以精准定位。
附图说明
图1为本发明的增强现实系统框架图;
图2为本发明的装配场景框架图;
图3为本发明的装配场景高精度三维地图的采集流程图;
图4为本发明的装配工艺与设备实时定位技术流程图。
具体实施方式
下面结合附图对本发明作进一步地说明:
如图1-4所示,本发明它包括设计系统框架、搭建装配场景、构建装配场景高精度三维地图、搭建自定位场景信息、设计自定位视觉系统和定时定位流程,具体包括如下步骤:
步骤一:所述设计系统框架采用客户端-服务器并行开发的模式进行数据间的接受和发送,所述客户端通过无线与服务器相连,用于将装配场景和装配工艺信息传输到服务器,所述服务器通过无线与客户端相连,用于将解析出的装配场景特征点和标签信息的位姿传输到客户端;
步骤二:完成所述步骤一的系统框架设计后,进行搭建装配场景,所述装配场景包括零件区、待装配区和标签区,所述零件区用于放置装配原件,所述待装配区用于对装配原件进行装配,所述标签区包括多个标签,用于关联多个标签之间的位置和姿态关系,传输至服务器;其中标签之间的位置和姿态关系是通过在多个标签中选择任意一个标签作为起始标签,设定其位置为原点(0,0,0),旋转初始姿态为(0,0,0),其余标签相对于起始标签做位移旋转,其位移旋转作为位置和旋转初始姿态。
步骤三:完成所述步骤二的装配场景搭建后,进行构建装配场景的高精度三维地图,所述构建装配场景高精度三维地图先利用深度相机与惯性测量单元提供的距离信息获得装配场景的稠密三维地图,接着利用Apriltag标签,对装配场景的稠密三维地图进行信息填充,建立离散地图,然后将稠密三维地图与离散地图融合形成装配场景的高精度三维地图,传输至服务器;
步骤四:所述步骤三中的构建装配场景三维特征地图的高精度三维地图传输到所述搭建自定位场景信息,所述搭建自定位场景信息先对高精度三维地图进行分析,并在特征点较少区域附着Apriltag标签,形成装配场景的标签集,接着测量出标签集之间的相对位姿关系,其中标签与装配场景之间的关系可从三维地图直接得出,接着通过增强现实设备可算出装配场景的相对位姿,然后根据装配工艺及装配手册,建立装配零件的空间位置关系,传输至服务器;
步骤五:所述步骤四中的搭建自定位场景信息的空间位置关系传输到所述设计自定位视觉系统,所述设计自定位视觉系统包括创建虚拟模型、实时计算设备位姿和虚实场景融合,所述创建虚拟模型与实时计算设备位姿相连,用于AR开发平台搭建三维场景,且根据装配零件的空间位置关系,设定虚拟模型的三维空间坐标,紧接着将增强现实设备放置到场景中,实时计算出设备内深度相机的位姿,所述实时计算设备位姿与虚实场景融合相连,用于将虚拟物体加载到客户端上的AR眼镜中,实现虚拟物体与装配场景的融合显示,其中设备位姿包括Apriltag标签的位姿、IMU位姿以及VSLAM位姿。
步骤六:完成所述步骤五的设计自定位视觉系统后,进行定时定位流程,所述定时定位流程首先在零件的待装配区完成自定位视觉系统初始化,接着加载高精度三维地图且开启两个线程,然后将两个线程的位姿进行比较,若误差满足设定要求,则自定位视觉系统输出融合结果定位;若误差过大,则利用标签位姿对融合位姿进行修正,自定位视觉系统输出修正后位姿,其中标签位姿是通过增强现实设备上的深度相机检测到标签,然后计算出标签相对于增强现实设备的位置姿态。
步骤一中,所述客户端包括AR眼镜、惯性测量单元和工控机,所述惯性测量单元包括传感器,所述工控机与传感器相连,用于控制传感器将计算的数据通过串口传输到服务器。
步骤三中,所述深度相机用于采集装配场景一周的视频,对采集到的视频图像进行特征提取和光流跟踪,将提取的视频特征进行筛选,然后提取出特征帧进行特征点保留。
步骤三中,所述信息填充包括Apriltag标签的关键帧以及关键帧对应的标签角点信息。
步骤六中,所述加载高精度三维地图分为两个线程,一个线程为实时检测Apriltag标签信息,接着根据Apriltag标签估计深度相机相对标签位姿,然后将标签与自定位场景的空间位置关系换算相对于世界坐标的位姿;另一个线程为根据装配场景中的特征点融合惯性测量单元进行融合定位,实时得到深度相机相对于世界坐标系的位姿。
步骤五的具体步骤为:
(1)计算Apriltag标签的位姿:该标签码坐标系为OmXmYmZm,深度相机坐标系为OcXcYcZc,所述标签码上任意一点P(xm,ym,zm)在深度相机坐标系下的坐标为(xc,yc,zc),二者之间的对应关系为:
Figure BDA0002557572180000051
在公式(1)中,R为旋转矩阵代表深度相机坐标系相对于标签码坐标系的旋转,T为平移向量代表深度相机坐标系相对于标签码的平移;Mex为深度相机外部参数矩阵,利用该矩阵可以将标签码坐标系转换到深度相机坐标系下。
其中图像坐标系为Oi(x,y),像素坐标系为Oo(u,v),则标签码上的点P(xm,ym,zm)与深度相机图像平面中的成像点p(u,v)之间的对应关系为:
Figure BDA0002557572180000061
在公式(2)中,(u0,v0)为图像平面中心,fx,fy是x轴和y轴的归一化焦距,Min为深度相机内部参数矩阵,利用该矩阵可将深度相机坐标系转换到图像平面坐标系下;设zm=0,使用最小二乘法对公式(1)和(2)求解,得到深度相机的内部参数矩阵Min;当深度相机检测到标签时,利用Apriltag算法得到R和T。
(2)计算IMU位姿:利用IMU采集设备运动过程中的数据;在任意时间T1和T2之间,利用公式(3)对惯性测量单元的角速率进行积分,可得到设备沿着三个轴的角度增量,记为(Φ,θ,Ψ);在任意时间T1和T2之间,利用公式(4)对惯性测量单元的加速度进行二重积分,可得到设备在该段时间的位移(x,y,z)。
Figure BDA0002557572180000062
Figure BDA0002557572180000063
(3)计算VSLAM位姿:利用深度相机对场景进行三维地图采集,其中空间n个三维点记为Pi=[Xi,Yi,Zi]T,而投影的像素坐标为ui=[ui,vi]T,两者满足如下关系:
Figure BDA0002557572180000064
其中ξ为深度相机位姿态的李代数表示法,接着采用光束法平差(BundleAdjustment)来进行最小化投影误差,将误差求和并构建最小二乘,然后寻找最精确的深度相机位姿,使公式(6)最小化且得出R和T。
Figure BDA0002557572180000065
(4)将计算好的位姿传输至服务器且融合虚拟模型的三维空间坐标,然后传输至客户端进行融合显示:在得到Apriltag标签位姿、IMU位姿和VSLAM位姿后,利用传统的优化方式将IMU的零偏加入到状态变量中,接着采用紧耦合的方式将深度相机的位姿、速度以及IMU的零偏构建的目标状态方程进行估计,如公式(7)所示,系统的十五维的状态变量表示为:
xi=[Ri,pi,vi,bai,bgi]∈R15 (7)
公式(7)中,Min、p和v分别是深度相机的旋转、平移和速度,ba和bg分别是IMU的加速度计和陀螺仪的零偏;而本系统采用局部Apriltag标签辅助定位的策略,紧耦合的系统状态变量表示为:
Figure BDA0002557572180000071
公式(8)中,α表示Apriltag标签的定位位姿,β表示VSLAM的定位位姿,χ表示Apriltag标签和VSLAM的位姿差,因此存在两种情况下的系统变量,当|α-β|≤χ时,即视觉定位累计误差设有超过设定阈值,继续视觉融合惯导定位;当|α-β|>χ时,即视觉定位累计误差较大,然后采取Apriltag标签局部定位来融合惯导定位。
实施例:
步骤一,设计系统框架:采用客户端-服务器并行开发的模式进行数据间的接受和发送,先将客户端中的AR眼镜、惯性测量单元和工控机通过无线与服务器相连,用于将装配场景和装配工艺信息传输到服务器,接着将服务器通过无线与客户端相连,用于将解析出的装配场景特征点和标签信息的位姿传输到客户端;
步骤二,搭建装配场景:完成所述步骤一的设计系统框架后,将放置在零件区的用于航空的待装配零件在待装配区组装完成,接着在布置的8个标签区中选择标签1作为起始标签,设定标签1的位置为原点(0,0,0),旋转初始姿态为(0,0,0),与此同时,标签2相对于标签1做位移旋转,其位移旋转作为其位置(Position)和旋转姿态(Rotation),其余标签以此类推,其中各个标签的旋转姿态均设置为(0,0,0),即调整每个标签的空间位置保证其朝向一致,如表1所示:
表1装配场景标签的空间位置关系
Figure BDA0002557572180000072
Figure BDA0002557572180000081
步骤三,构建装配场景高精度三维地图:完成所述步骤二的装配场景搭建后,紧接着利用深度相机在标签1处完成初始化,然后绕装配场景一周进行视频采集,对采集到的视频图像进行特征提取和光流跟踪,将提取的视频特征进行筛选,提取出特征帧进行特征点保留,然后与惯性测量单元提供的距离信息相结合,从而获得装配场景的稠密三维地图;同时利用Apriltag标签,对装配场景的稠密三维地图进行关键帧以及关键帧对应的标签角点信息的填充,进而建立离散地图且与稠密三维地图进行融合形成装配场景的高精度三维地图;
步骤四,搭建自定位场景信息:将步骤三中的构建装配场景三维特征地图的高精度三维地图传输到搭建自定位场景信息中,接着对高精度三维地图进行分析,并在特征点较少区域附着人工标签Apriltag,形成装配场景的标签集,接着测量出标签集之间的相对位姿关系,然后根据装配工艺及装配手册,建立装配零件的空间位置关系;
步骤五,设计自定位视觉系统:将步骤四中的搭建自定位场景信息的空间位置关系传输到设计自定位视觉系统中,该设计自定位视觉系统包括创建虚拟模型、实时计算设备位姿和虚实场景融合,将创建虚拟模型与实时计算设备位姿相连,用于AR开发平台搭建三维场景,且根据装配零件的空间位置关系,设定虚拟模型的三维空间坐标,紧接着将增强现实设备放置到场景中,实时计算出设备内深度相机的位姿,接着将实时计算设备位姿与虚实场景融合相连,用于将虚拟物体加载到AR眼镜上,实现虚拟物体与装配场景的融合显示;
步骤六,定时定位流程:完成所述步骤五的设计自定位视觉系统后,进行定时定位流程,该定时定位流程首先在零件的待装配区完成自定位视觉系统初始化,接着加载高精度三维地图且开启两个线程,然后将两个线程的位姿进行比较,若误差满足设定要求,则自定位视觉系统输出融合结果定位;若误差过大,则利用标签位姿对融合位姿进行修正,最后自定位视觉系统输出修正后位姿,从而完成此次航空装配的自定位。
本发明涉及的其它未说明部分与现有技术相同。

Claims (7)

1.一种基于航空装配的增强现实自定位方法,其特征是它包括设计系统框架、搭建装配场景、构建装配场景的高精度三维地图、搭建自定位场景信息、设计自定位视觉系统和定时定位流程,具体包括如下步骤:
步骤一:所述设计系统框架采用客户端-服务器并行开发的模式进行数据间的接受和发送,所述客户端通过无线与服务器相连,用于将装配场景和装配工艺信息传输到服务器,所述服务器通过无线与客户端相连,用于将解析出的装配场景特征点和标签信息的位姿传输到客户端;
步骤二:完成所述步骤一的系统框架设计后,进行搭建装配场景,所述装配场景包括零件区、待装配区和标签区,所述零件区用于放置装配原件,所述待装配区用于对装配原件进行装配,所述标签区包括多个标签,用于关联各个标签之间的位置和姿态关系,传输至服务器;
步骤三:完成所述步骤二的装配场景搭建后,进行构建装配场景的高精度三维地图,所述构建装配场景高精度三维地图先利用深度相机与惯性测量单元提供的距离信息获得装配场景的稠密三维地图,接着利用Apriltag标签,对装配场景的稠密三维地图进行信息填充,建立离散地图,然后将稠密三维地图与离散地图融合形成装配场景的高精度三维地图,传输至服务器;
步骤四:所述步骤三中的构建装配场景三维特征地图的高精度三维地图传输到所述搭建自定位场景信息,所述搭建自定位场景信息先对高精度三维地图进行分析,并在特征点较少区域附着Apriltag标签,形成装配场景的标签集,接着测量出标签集之间的相对位姿关系,然后根据装配工艺及装配手册,建立装配零件的空间位置关系,传输至服务器;
步骤五:所述步骤四中的搭建自定位场景信息的空间位置关系传输到所述设计自定位视觉系统,所述设计自定位视觉系统包括创建虚拟模型、实时计算设备位姿和虚实场景融合,所述创建虚拟模型与实时计算设备位姿相连,用于AR开发平台搭建三维场景,且根据装配零件的空间位置关系,设定虚拟模型的三维空间坐标,紧接着将增强现实设备放置到场景中,实时计算出设备内深度相机的位姿,所述实时计算设备位姿与虚实场景融合相连,用于将虚拟物体加载到客户端上,实现虚拟物体与装配场景的融合显示;
步骤六:完成所述步骤五的设计自定位视觉系统后,进行定时定位流程,所述定时定位流程首先在零件的待装配区完成自定位视觉系统初始化,接着加载高精度三维地图且开启两个线程,然后将两个线程的位姿进行比较,若误差满足设定要求,则自定位视觉系统输出融合结果定位;若误差过大,则利用标签位姿对融合位姿进行修正,自定位视觉系统输出修正后位姿。
2.根据权利要求1所述的基于航空装配的增强现实自定位方法,其特征是,步骤一中,所述客户端包括AR眼镜、惯性测量单元和工控机,所述惯性测量单元包括传感器,所述工控机与传感器相连,用于控制传感器将计算的数据通过串口传输到服务器。
3.根据权利要求1所述的基于航空装配的增强现实自定位方法,其特征是,步骤三中,所述深度相机用于采集装配场景一周的视频,对采集到的视频图像进行特征提取和光流跟踪,将提取的视频特征进行筛选,然后提取出特征帧进行特征点保留。
4.根据权利要求1所述的基于航空装配的增强现实自定位方法,其特征是,步骤三中,所述信息填充包括Apriltag标签的关键帧以及关键帧对应的标签角点信息。
5.根据权利要求1所述的基于航空装配的增强现实自定位方法,其特征是,步骤六中,所述加载高精度三维地图分为两个线程,一个线程为实时检测Apriltag标签信息,接着根据Apriltag标签估计深度相机相对标签位姿,然后将标签与自定位场景的空间位置关系换算相对于世界坐标的位姿;另一个线程为根据装配场景中的特征点融合惯性测量单元进行融合定位,实时得到深度相机相对于世界坐标系的位姿。
6.根据权利要求1所述的基于航空装配的增强现实自定位方法,其特征是,步骤五的具体步骤为:(1)计算Apriltag标签的位姿;(2)计算IMU位姿;(3)计算VSLAM位姿;(4)将计算好的位姿传输至服务器且融合虚拟模型的三维空间坐标,然后传输至客户端进行融合显示。
7.根据权利要求1所述的基于航空装配的增强现实自定位方法,其特征是,步骤五中,所述设备位姿包括Apriltag标签的位姿、IMU位姿以及VSLAM位姿。
CN202010597190.5A 2020-06-28 2020-06-28 一种基于航空装配的增强现实自定位方法 Active CN111968228B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010597190.5A CN111968228B (zh) 2020-06-28 2020-06-28 一种基于航空装配的增强现实自定位方法
PCT/CN2020/108443 WO2022000713A1 (zh) 2020-06-28 2020-08-11 一种基于航空装配的增强现实自定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010597190.5A CN111968228B (zh) 2020-06-28 2020-06-28 一种基于航空装配的增强现实自定位方法

Publications (2)

Publication Number Publication Date
CN111968228A CN111968228A (zh) 2020-11-20
CN111968228B true CN111968228B (zh) 2021-11-05

Family

ID=73360965

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010597190.5A Active CN111968228B (zh) 2020-06-28 2020-06-28 一种基于航空装配的增强现实自定位方法

Country Status (2)

Country Link
CN (1) CN111968228B (zh)
WO (1) WO2022000713A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734945B (zh) * 2021-03-30 2021-08-17 上海交大智邦科技有限公司 一种基于增强现实的装配引导方法、系统及应用
CN113220121B (zh) * 2021-05-04 2023-05-09 西北工业大学 一种基于投影显示的ar紧固件辅助装配系统及方法
CN114323000B (zh) * 2021-12-17 2023-06-09 中国电子科技集团公司第三十八研究所 线缆ar引导装配系统及方法
CN114494594B (zh) * 2022-01-18 2023-11-28 中国人民解放军63919部队 基于深度学习的航天员操作设备状态识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109062398A (zh) * 2018-06-07 2018-12-21 中国航天员科研训练中心 一种基于虚拟现实与多模态人机接口的航天器交会对接方法
CN109759975A (zh) * 2019-03-21 2019-05-17 成都飞机工业(集团)有限责任公司 一种飞机舱位辅助操作的增强现实人工标志物的定位夹具
CN110076277A (zh) * 2019-05-07 2019-08-02 清华大学 基于增强现实技术的配钉方法
CN110388919A (zh) * 2019-07-30 2019-10-29 上海云扩信息科技有限公司 增强现实中基于特征图和惯性测量的三维模型定位方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190358547A1 (en) * 2016-11-14 2019-11-28 Lightcraft Technology Llc Spectator virtual reality system
US20190212142A1 (en) * 2018-01-08 2019-07-11 Glen C. Gustafson System and method for using digital technology to perform stereo aerial photo interpretation
CN110705017A (zh) * 2019-08-27 2020-01-17 四川科华天府科技有限公司 一种基于ar的模型拆组模拟系统及模拟方法
CN110928418A (zh) * 2019-12-11 2020-03-27 北京航空航天大学 一种基于mr的航空线缆辅助装配方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109062398A (zh) * 2018-06-07 2018-12-21 中国航天员科研训练中心 一种基于虚拟现实与多模态人机接口的航天器交会对接方法
CN109759975A (zh) * 2019-03-21 2019-05-17 成都飞机工业(集团)有限责任公司 一种飞机舱位辅助操作的增强现实人工标志物的定位夹具
CN110076277A (zh) * 2019-05-07 2019-08-02 清华大学 基于增强现实技术的配钉方法
CN110388919A (zh) * 2019-07-30 2019-10-29 上海云扩信息科技有限公司 增强现实中基于特征图和惯性测量的三维模型定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A systematic design method of adaptive augmented reality work instruction for complex industrial operations;Junhao Geng 等;《Computers in Industry》;20200401;第119卷;第1-26页 *
飞机装配作业AR智能引导技术探索与实践;唐健钧 等;《航空制造技术》;20190415;第62卷(第8期);第22-27页 *

Also Published As

Publication number Publication date
WO2022000713A1 (zh) 2022-01-06
CN111968228A (zh) 2020-11-20

Similar Documents

Publication Publication Date Title
CN111968228B (zh) 一种基于航空装配的增强现实自定位方法
CN109993113B (zh) 一种基于rgb-d和imu信息融合的位姿估计方法
CN111024066B (zh) 一种无人机视觉-惯性融合室内定位方法
CN107255476B (zh) 一种基于惯性数据和视觉特征的室内定位方法和装置
CN110044354B (zh) 一种双目视觉室内定位与建图方法及装置
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
CN110009681A (zh) 一种基于imu辅助的单目视觉里程计位姿处理方法
CN110261870A (zh) 一种用于视觉-惯性-激光融合的同步定位与建图方法
CN105783913A (zh) 一种融合车载多传感器的slam装置及其控制方法
CN110782496B (zh) 标定方法、装置、航拍设备和存储介质
CN107478214A (zh) 一种基于多传感器融合的室内定位方法及系统
CN103020952A (zh) 信息处理设备和信息处理方法
CN112115874B (zh) 一种融合云端的视觉slam系统及方法
CN205426175U (zh) 一种融合车载多传感器的slam装置
CN112184812B (zh) 提升无人机相机对AprilTag识别定位精度方法及定位方法和系统
CN112116651B (zh) 一种基于无人机单目视觉的地面目标定位方法和系统
CN111210478B (zh) 一种无共同视野多相机系统外参标定方法、介质及系统
CN208323361U (zh) 一种基于深度视觉的定位装置及机器人
CN110675453B (zh) 一种已知场景中运动目标的自定位方法
CN110751123B (zh) 一种单目视觉惯性里程计系统及方法
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN115371665B (zh) 一种基于深度相机和惯性融合的移动机器人定位方法
CN116222543B (zh) 用于机器人环境感知的多传感器融合地图构建方法及系统
CN110533719A (zh) 基于环境视觉特征点识别技术的增强现实定位方法及装置
CN113034571A (zh) 一种基于视觉—惯性的物体三维尺寸测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant