CN110675453B - 一种已知场景中运动目标的自定位方法 - Google Patents

一种已知场景中运动目标的自定位方法 Download PDF

Info

Publication number
CN110675453B
CN110675453B CN201910982437.2A CN201910982437A CN110675453B CN 110675453 B CN110675453 B CN 110675453B CN 201910982437 A CN201910982437 A CN 201910982437A CN 110675453 B CN110675453 B CN 110675453B
Authority
CN
China
Prior art keywords
image
camera
dimensional model
scene
panoramic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910982437.2A
Other languages
English (en)
Other versions
CN110675453A (zh
Inventor
吴刚
林姝含
郑文涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tianrui Kongjian Technology Co ltd
Original Assignee
Beijing Tianrui Kongjian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Tianrui Kongjian Technology Co ltd filed Critical Beijing Tianrui Kongjian Technology Co ltd
Priority to CN201910982437.2A priority Critical patent/CN110675453B/zh
Publication of CN110675453A publication Critical patent/CN110675453A/zh
Application granted granted Critical
Publication of CN110675453B publication Critical patent/CN110675453B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种已知场景中运动目标的自定位方法,将相机采集的图像样本与场景的全景图像配准,依据图像样本与全景图像的配准关系和全景图像与场景的三维模型的配准关系,估计图像样本的相机姿态,以相机姿态作为相应图像样本的标记进行回归训练,获得从场景图像到相机姿态的回归模型,以设置在运动目标上的相机实时采集场景图像,以从场景图像到相机姿态的回归模型进行相机姿态估计,进而实现运动目标的定位。本发明基于监督式深度学习方法训练获得的从图像到相机姿态的回归模型,实现已知场景中运动目标的自定位,以部分地克服传统视觉定位方法存在的实时性差、处理低纹理图像稳定性不足等问题。

Description

一种已知场景中运动目标的自定位方法
技术领域
本发明涉及一种已知场景中运动目标的自定位方法。
背景技术
近年来,在诸如大型广场安防、机场场面活动引导与控制、港口生产作业区运行状态监控、工业园区管控等已知场景(指事先可获得其图像、三维模型等信息的场景)中,增强现实(Augmented Reality,AR)技术得到了越来越多的应用。实现AR需要把虚拟对象置于真实环境或真实环境的实时视频中,在真实环境或真实视频上进行信息扩增,这就对场景中运动目标的定位(包括位置和姿态)的精度提出了较高的要求。另外,在上述场景中自动驾驶展现了比一般开放场景更令人期待的应用前景,自动驾驶中车辆需要对自身进行高精度的定位。
目前主流的室外定位技术包括:GPS、惯性传感器(IMU)、光学雷达(LiDAR)、视觉定位等。其中,GPS最为常用,但在复杂动态环境中存在多路径反射问题,容易导致定位精度不足,加上更新频率低(10Hz),在目标快速运动时难以实时精准定位;IMU通过测量加速度和旋转运动实现定位,更新频率高(1KHz),可提供实时定位,但误差会随时间累积,主要适于短时定位;LiDAR定位精度高,但只适用于测量车辆周围的目标的相对位置,且成本较高。
视觉定位是通过视频图像估计相机的姿态变化参数(包括旋转参数和位移参数),从而达到定位相机搭载主体的目的。主要方法包括传统方法和深度学习方法两大类。
传统方法[1]:按照是否需要提取图像特征点,可分为特征点法和直接法,前者更为主流,该方法利用一组3D或2D特征点及其匹配关系估计相机姿态,但由于依赖于图像特征点的提取与匹配,计算较为耗时,影响了定位的实时性,另外对于低纹理图像,通常难以提取足够多的特征点用于估计相机姿态。
深度学习方法[2-3]:近年来随着深度学习技术在计算机视觉诸多领域取得巨大飞跃,深度学习与视觉定位的结合正在成为一种新的趋势,主要体现在:利用深度学习特征改善图像匹配的鲁棒性;实现端到端的定位,以期提升传统方法的性能与速度。该类方法可分为监督式[2]与非监督式[3],前者精度总体优于后者,但需要预先标记大量图像样本,一般是借助传统立体视觉方法获取三维信息,进而估计相机姿态作为样本标记。但是,估计的三维信息本身可能存在误差,估计相机姿态时只利用了相邻时刻的图像变化,得到的实际是相对运动姿态,在向绝对位置与姿态转化过程中存在误差累积。
发明内容
为克服现有技术的上述缺陷,本发明提供了已知场景中运动目标的自定位方法,其基于监督式深度学习方法训练获得的从图像到相机姿态的回归模型,实现已知场景中运动目标的自定位,以部分地克服传统视觉定位方法存在的实时性差、处理低纹理图像稳定性不足等问题。
本发明的技术方案是:一种已知场景中运动目标的自定位方法,以设置在运动目标上的相机实时采集场景图像,以实时采集的场景图像作为相机姿态估计的输入,以从场景图像到相机姿态的回归模型进行相机姿态(包括位置和旋转姿态,或称姿态角)估计,将获得的相机姿态(相机姿态参数)转换为相机或运动目标的位置信息,由此实现运动目标的定位,采用下列方式构建所述的回归模型:使用相机采集若干图像样本(场景图像样本,或简称样本),将图像样本与场景的全景图像配准,依据图像样本与全景图像的配准关系和全景图像与场景的三维模型的配准关系,估计图像样本的相机姿态,以相机姿态作为相应图像样本的标记进行回归训练,获得从场景图像到相机姿态的回归模型。
通过激光扫描获得高精度的三维模型。
基于三维模型的世界坐标系,通过三维模型数据计算出图像样本对应的相机绝对姿态,以此作为所述的相机姿态。
包括离线部分和在线部分。
其中离线部分主要用于训练从图像到相机姿态的回归模型,包括:
构建三维模型:采用激光扫描建模方法,通过激光测距技术生成包含三维坐标的点云数据,依据点云数据构建三维模型,其中包括点云滤波、平滑、筛检、分割和拼接操作;
获得全景图像:采用360度全景摄像机采集获得全景图像,或基于全景视频拼接技术将多幅具有不同视角但包含一定重叠区域的图像进行拼接,形成全景图像;
进行三维模型与全景图像的配准:基于交互式配准技术,将场景的三维模型与全景图像进行关联,建立2D的全景图像像素点与3D的三维模型空间点的映射关系;
采集图像样本:使用相机在场景中巡航拍摄视频,以视频中抽样得到的图像作为图像样本;
样本标记:利用全景图像、三维模型及两者的配准关系,基于相机注册技术,估计图像样本的相机姿态,以此作为相应图像样本的标记;
回归训练:给定图像样本及其标记,训练从图像到相机姿态的回归模型。
在线部分主要用于利用训练得到的回归模型和实时图像估计当前相机姿态。
所述离线部分采用车载嵌入式设备实施,所述车载嵌入式设备的前端接入用作相机的摄像头,并设有与外部通信的通信模块。
采用LIFT算子进行图像样本与全景图像的匹配。
以全景图像作为联系图像样本与三维模型的桥梁,将图像样本与全景图像进行特征点匹配,利用全景图像与三维模型间的映射关系,得到图像样本与三维模型间的2D-3D对应点(匹配点对),基于2D-3D匹配点对求解PnP问题,实现相机姿态估计。
本发明的有益效果是:通过监督式深度学习,在训练阶段利用高精度的三维模型和全景图像估计图像样本的相机绝对姿态,减少了误差累积,提高了定位精度;引入场景三维模型和全景图像实现场景样本图像的自动标记,提高了样本标记的精度,从而为训练能够精确定位的网络模型奠定了基础。
附图说明
图1是本发明的流程示意图;
图2是本发明车载系统的示意图。
具体实施方式
参见图1,本发明的系统构成包括离线部分和在线部分。其中:
离线部分:主要用于训练从图像到相机姿态的回归模型,其中包括:
构建三维模型:采用激光扫描建模方法,通过激光测距技术生成包含三维坐标的点云数据,并利用点云滤波、平滑、筛检、分割、拼接等操作完成模型构建,这种方式构建的三维模型具有较高精度;
获得全景图像:采用360度全景摄像机采集,或基于全景视频拼接技术[4],将多幅具有不同视角但包含一定重叠区域的图像进行拼接。全景图像可以较好地呈现场景的整体面貌,如果一组全景不足以完全覆盖目标区域,可考虑使用多组全景;
进行三维模型与全景图像的配准:基于交互式配准技术[5],将场景的三维模型与全景图像进行关联,建立2D的全景图像像素点与3D的三维模型空间点的映射关系,或称三维模型与全景图像的配准;
采集样本(图像样本):通过搭载相机的车辆或行人在场景中巡航拍摄视频,将视频中抽样得到的图像作为训练、测试的样本,抽样间隔通常可以是大致使相机位移为1米左右的间隔。为保证样本多样性,巡航路线应遍历场景中常规路线,并在拍摄过程中适当变化相机角度,以获得场景不同角度下的图像;
样本标记:利用全景图像、三维模型及两者的配准关系,基于相机注册技术,估计图像样本的相机姿态,作为该样本的标记;
回归训练:给定图像样本及其标记,训练从图像到相机姿态的回归模型。
在线部分:主要用于利用训练得到的回归模型估计当前相机姿态,从而实现定位,并将定位结果显示给用户。其中包括:
视频(场景图像)采集:实时获取当前的场景图像,作为相机姿态估计的输入;
姿态估计:利用回归模型,完成从图像到相机姿态的估计;
定位显示:将相机姿态参数转换为位置信息输出,例如,通过显示器呈现给用户,或传至相关管理系统等。
参见图2,本发明所述系统的硬件实现方式为车载嵌入式设备,前端接入摄像头,嵌入式系统负责采集视频,完成实时定位与结果显示,同时通过无线模块将定位信息传给后端系统,用以实现高层应用。
本发明采用监督式深度学习建立从场景图像到相机姿态的回归模型。在训练阶段,引入场景的高精度三维模型和全景图像用以提高深度网络的定位精度,具体包括:(1)通过激光扫描获得相关场景的高精度的三维模型,该模型不但是保证精确定位的前提,而且本身提供了可靠的三维世界坐标,能够用以估计相机的绝对姿态,避免了误差累积。(2)采集场景的全景图象,并且将之与三维模型进行配准;(3)采集用于实时定位的相机的图像样本(图像样本),借助图像间局部与整体的匹配算法,将图像样本与全景图像进行配准,结合全景图像与三维模型的配准关系,通过三维模型数据计算出图像样本对应的相机姿态(包括位置和姿态角),作为样本标记,全景图像为样本姿态标记的生成发挥了桥梁作用。
为完成从图像到相机姿态的监督式学习,需对图像样本进行标记,估计其对应的相机姿态。本发明引入场景三维模型和全景图像实现样本的自动标记,目的在于提高样本标记的精度,从而为训练能够精确定位的网络模型奠定基础。
在获得场景的三维模型和全景图像的基础上,按以下步骤估计图像样本的相机姿态:
1)图像样本与全景图像的匹配:将给定图像样本与全景图像进行匹配。优选采用近年提出的LIFT算子(Learned Invariant Feature Transform)[6],这是一种基于深度学习的图像不变性特征,无需再训练,可以提取比SIFT、SURF等传统方法更为稠密的特征点,在众多基准数据集上取得优于传统方法的性能。基于此方法,可得到图像样本与全景图像之间更为充足、稳定的匹配特征点;
2D-3D对应:将图像样本与全景图像进行特征点匹配,再利用全景图像与三维模型间的映射关系,得到图像样本与三维模型间的2D-3D对应点,在此步骤中,全景图像起到了联系图像样本与三维模型的桥梁作用;
相机姿态估计:也称相机注册,给定2D-3D对应点对,通过求解PnP问题[1],可估计相机姿态。具体地,对于给定图像样本,经过前述步骤,可以得到图像样本(2D)与三维模型(3D)间的2D-3D匹配点对{ui,Pi|i=1,…,n},它们满足摄像机投影公式:
ui=K*exp(ξ^)Pi 公式1
其中,ui、Pi分别代表2D和3D匹配点的齐次坐标,n是点对个数;K表示摄像机内参,可预先标定获得;exp(ξ^)是摄像机外参数ξ的李代数表示,ξ即待求的相机姿态参数,包括位移参数和旋转参数。利用集束调整法(Buddle Adjustment,BA),最小化3D空间点到2D图像的投影误差,便可估计ξ,以之作为该图像样本的标记。
Figure BDA0002235634170000081
完成图像标记后,训练从图像(图像样本)I到相机姿态ξ的深度回归模型F,使得ξ=F(I);
模型结构:参考PoseNet[2],模型F主体网络框架采用GoogleNet,输入是224*224图像,网络包括22个卷积层及6个Inception单元,最后一层是含7个神经元的全连接层,用于输出7个相机姿态参数ξ=[x,q],其中,x∈R3是位移参数,q∈R4是旋转参数的四元组表示;
损失函数:以图像样本的标记姿态与估计姿态之差作为损失函数,具体采用位移向量差与旋转向量差的L2范数的加权求和:
Figure BDA0002235634170000082
其中,
Figure BDA0002235634170000083
分别是相机姿态参数的估计值和标记值,β是位移分量与旋转分量的权重系数,可令β=0.5。训练过程可参照参考文献[2],采用随机梯度下降法,学习率设为0.00001。
综上,本发明提出一种基于深度学习的运动目标自定位方法,在训练阶段利用高精度三维模型和全景图像估计图像样本的相机绝对姿态,获得更为准确的样本标记,减少误差累积,从而提高定位精度。
本发明所称相机指用于采集图像的设备,包括照相机和摄像机(摄像头)等。
参考文献:
[1]高翔、张涛,视觉SLAM十四讲:从理论到实践,电子工业出版社,2017.
[2]Alex Kendall et al.,PoseNet:A Convolutional Network for Real-Time6-DOF Camera Relocalization,International Conference on Computer Vision(ICCV),2015.
[3]ZhiChao Yin and Jiangping Shi,GeoNet:Unsupervised Learning ofDense Depth,Optical Flow and Camera Pose,International Conference on ComputerVision and Pattern Recognition(CVPR),2018.
[4]Richard Szeliski,Image Alignment and Stitching:A Tutorial,Microsoft Technical Report,2004.
[5]北京天睿空间科技股份有限公司,一种单幅图像的三维配准方法,中国发明专利,201610774320.1,2016.08.31.
[6]Kwang Moo Yi et al.,LIFT:Learned Invariant Feature Transform,European Conference on Computer Vision(ECCV),2016.

Claims (6)

1.一种已知场景中运动目标的自定位方法,以设置在运动目标上的相机实时采集场景图像,以实时采集的场景图像作为相机姿态估计的输入,以从场景图像到相机姿态的回归模型进行相机姿态估计,将获得的相机姿态转换为相机或运动目标的位置信息,由此实现运动目标的定位,采用下列方式构建所述的回归模型:使用相机采集若干图像样本,将图像样本与场景的全景图像配准,依据图像样本与全景图像的配准关系和全景图像与场景的三维模型的配准关系,估计图像样本的相机姿态,以相机姿态作为相应图像样本的标记进行回归训练,获得从场景图像到相机姿态的回归模型,
包括离线部分和在线部分,
其中离线部分主要用于训练从图像到相机姿态的回归模型,包括:
构建三维模型:采用激光扫描建模方法,通过激光测距技术生成包含三维坐标的点云数据,依据点云数据构建三维模型,其中包括点云滤波、平滑、筛检、分割和拼接操作;
获得全景图像:采用360度全景摄像机采集获得全景图像,或基于全景视频拼接技术将多幅具有不同视角但包含一定重叠区域的图像进行拼接,形成全景图像;
进行三维模型与全景图像的配准:基于交互式配准技术,将场景的三维模型与全景图像进行关联,建立2D的全景图像像素点与3D的三维模型空间点的映射关系;
采集图像样本:使用相机在场景中巡航拍摄视频,以视频中抽样得到的图像作为图像样本;
样本标记:利用全景图像、三维模型及两者的配准关系,基于相机注册技术,估计图像样本的相机姿态,以此作为相应图像样本的标记;
回归训练:给定图像样本及其标记,训练从图像到相机姿态的回归模型,
在线部分主要用于利用训练得到的回归模型和实时图像估计当前相机姿态。
2.如权利要求1所述的方法,其特征在于通过激光扫描获得高精度的三维模型。
3.如权利要求2所述的方法,其特征在于基于三维模型的世界坐标系,通过三维模型数据计算出图像样本对应的相机绝对姿态,以此作为所述的相机姿态。
4.如权利要求1所述的方法,其特征在于所述离线部分采用车载嵌入式设备实施,所述车载嵌入式设备的前端接入用作相机的摄像头,并设有与外部通信的通信模块。
5.如权利要求1-4任一所述的方法,其特征在于采用LIFT算子进行图像样本与全景图像的匹配。
6.如权利要求5所述的方法,其特征在于以全景图像作为联系图像样本与三维模型的桥梁,将图像样本与全景图像进行特征点匹配,利用全景图像与三维模型间的映射关系,得到图像样本与三维模型间的2D-3D匹配点对,基于2D-3D匹配点对求解PnP问题,实现相机姿态估计。
CN201910982437.2A 2019-10-16 2019-10-16 一种已知场景中运动目标的自定位方法 Active CN110675453B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910982437.2A CN110675453B (zh) 2019-10-16 2019-10-16 一种已知场景中运动目标的自定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910982437.2A CN110675453B (zh) 2019-10-16 2019-10-16 一种已知场景中运动目标的自定位方法

Publications (2)

Publication Number Publication Date
CN110675453A CN110675453A (zh) 2020-01-10
CN110675453B true CN110675453B (zh) 2021-04-13

Family

ID=69082607

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910982437.2A Active CN110675453B (zh) 2019-10-16 2019-10-16 一种已知场景中运动目标的自定位方法

Country Status (1)

Country Link
CN (1) CN110675453B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401194B (zh) * 2020-03-10 2023-09-22 北京百度网讯科技有限公司 用于自动驾驶车辆的数据处理方法和装置
NL2025452B1 (en) * 2020-04-29 2021-11-09 Navinfo Europe B V System and method for 3D positioning a landmark in images from the real world
CN111784586B (zh) * 2020-05-25 2022-10-18 清华大学 自监督学习的全景图像水平矫正方法及系统
CN111899174A (zh) * 2020-07-29 2020-11-06 北京天睿空间科技股份有限公司 基于深度学习的单摄像头旋转拼接方法
CN113779304A (zh) * 2020-08-19 2021-12-10 北京沃东天骏信息技术有限公司 一种检测侵权视频的方法及装置
CN116468878B (zh) * 2023-04-25 2024-05-24 深圳市兰星科技有限公司 一种基于定位地图的ar设备定位方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107300377A (zh) * 2016-11-01 2017-10-27 北京理工大学 一种绕飞轨迹下的旋翼无人机三维目标定位方法
CN107358629A (zh) * 2017-07-07 2017-11-17 北京大学深圳研究生院 一种基于目标识别的室内建图与定位方法
CN109165654A (zh) * 2018-08-23 2019-01-08 北京九狐时代智能科技有限公司 一种目标定位模型的训练方法和目标定位方法及装置
CN109887040A (zh) * 2019-02-18 2019-06-14 北京航空航天大学 面向视频监控的运动目标主动感知方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235904B1 (en) * 2014-06-20 2016-01-12 Nec Laboratories America, Inc. Object detection with Regionlets re-localization
CN105426841B (zh) * 2015-11-19 2019-02-15 北京旷视科技有限公司 基于人脸检测的监控相机自定位方法及装置
CN106840148B (zh) * 2017-01-24 2020-07-17 东南大学 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107300377A (zh) * 2016-11-01 2017-10-27 北京理工大学 一种绕飞轨迹下的旋翼无人机三维目标定位方法
CN107358629A (zh) * 2017-07-07 2017-11-17 北京大学深圳研究生院 一种基于目标识别的室内建图与定位方法
CN109165654A (zh) * 2018-08-23 2019-01-08 北京九狐时代智能科技有限公司 一种目标定位模型的训练方法和目标定位方法及装置
CN109887040A (zh) * 2019-02-18 2019-06-14 北京航空航天大学 面向视频监控的运动目标主动感知方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
GeoNet:Unsupervised Learning of Dense Depth, Optical Flow and Camera Pose;Zhichao Yin et al;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;1983-1992 *
Object recognition based on generalized linear regression classification in use of color information;Yang-Ting Chou et al;《2014 IEEE Asia Pacific Conference on Circuits and Systems (APCCAS)》;20150209;272-275 *
PoseNet:A Convolutional Network for Real-Time 6-DOF Camera Relocalization1;Alex Kendall et al;《 2015 IEEE International Conference on Computer Vision (ICCV)》;20160218;2938-2946 *
三维点云场景数据获取及其场景理解关键技术综述;李勇等;《激光与光电子学进展》;20190228;第56卷(第4期);1-14 *
利用局部匹配进行运动目标识别和定位;程岗等;《信息技术》;20071231;1-2,95 *

Also Published As

Publication number Publication date
CN110675453A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
CN110675453B (zh) 一种已知场景中运动目标的自定位方法
CN111156984B (zh) 一种面向动态场景的单目视觉惯性slam方法
CN109949361A (zh) 一种基于单目视觉定位的旋翼无人机姿态估计方法
CN108711166A (zh) 一种基于四旋翼无人机的单目相机尺度估计方法
CN109029433A (zh) 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN109166149A (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN111126304A (zh) 一种基于室内自然场景图像深度学习的增强现实导航方法
CN108406731A (zh) 一种基于深度视觉的定位装置、方法及机器人
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN108051002A (zh) 基于惯性测量辅助视觉的运输车空间定位方法及系统
CN113393522B (zh) 一种基于单目rgb相机回归深度信息的6d位姿估计方法
CN107967457A (zh) 一种适应视觉特征变化的地点识别与相对定位方法及系统
CN106529538A (zh) 一种飞行器的定位方法和装置
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
CN108648194A (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN109758756B (zh) 基于3d相机的体操视频分析方法及系统
CN108229587A (zh) 一种基于飞行器悬停状态的输电杆塔自主扫描方法
CN112184812B (zh) 提升无人机相机对AprilTag识别定位精度方法及定位方法和系统
Momeni-k et al. Height estimation from a single camera view
CN112102403B (zh) 用于输电塔场景下的自主巡检无人机的高精度定位方法及其系统
CN108759826A (zh) 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法
CN106056121A (zh) 基于sift图像特征匹配的卫星装配工件快速识别方法
CN109871024A (zh) 一种基于轻量级视觉里程计的无人机位姿估计方法
CN115371665A (zh) 一种基于深度相机和惯性融合的移动机器人定位方法
CN115376034A (zh) 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant