CN108460779A - 一种动态环境下的移动机器人图像视觉定位方法 - Google Patents

一种动态环境下的移动机器人图像视觉定位方法 Download PDF

Info

Publication number
CN108460779A
CN108460779A CN201810145534.1A CN201810145534A CN108460779A CN 108460779 A CN108460779 A CN 108460779A CN 201810145534 A CN201810145534 A CN 201810145534A CN 108460779 A CN108460779 A CN 108460779A
Authority
CN
China
Prior art keywords
adjacent
mobile robot
frame
cluster
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810145534.1A
Other languages
English (en)
Other versions
CN108460779B (zh
Inventor
何再兴
杨勤峰
赵昕玥
张树有
谭建荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201810145534.1A priority Critical patent/CN108460779B/zh
Publication of CN108460779A publication Critical patent/CN108460779A/zh
Application granted granted Critical
Publication of CN108460779B publication Critical patent/CN108460779B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种动态环境下的移动机器人图像视觉定位方法。Kinect深度相机固定于移动机器人,针对相邻两帧图像,获得depth深度图像的三维点云,获得RGB彩色图像的匹配点对;通过迭代最近点算法得到相邻两帧图像之间的初始位姿变换矩阵;对三维点云聚类变换,计算相邻两帧图像的三维点云聚类之间的残差进行分割;利用静态背景中的匹配点对和三维点云重复处理得到更准确的位姿变换矩阵,计算所有相邻两帧图像之间的位姿变换矩阵,实现移动机器人图像视觉定位。本发明降低了硬件成本,克服了恢复像素深度值的复杂性,修正了机器人的定位误差,更加准确地估计了移动机器人在室内的运动轨迹。

Description

一种动态环境下的移动机器人图像视觉定位方法
技术领域
本发明属于视觉定位导航领域,具体涉及一种动态环境下的移动机器人图 像视觉定位方法。
背景技术
随着机器人技术的快速发展,移动机器人在工业中得到了广泛应用。传统 的定位方法中,绝对定位主要采用导航信标、标识和卫星导航技术等进行定位, 但是信标、标识的建设和维护成本较高,GPS只能用于室外。相对定位主要采 用轮式编码器、惯性测量单元和激光雷达等,轮式编码器和惯性测量单元都是 测量一些间接的物理量,高精度的激光雷达价格过于昂贵,这些因素给自主定 位的移动机器人的商业化、进入日常生活带来了不小的挑战和困难。
近几年来,以视觉传感器为中心的视觉SLAM技术得到了明显的转变和突 破。多种基于单目、双目和深度相机的理论方法被提出,其中,Kinect深度相机 相比于激光雷达虽然精度较差、噪声大,但是成本低,能够采集彩色图像信息, 因而更加适合在普通的办公、家庭等室内场景使用。然而目前主流的方法中, 都是基于机器人所处环境为静态的假设条件,随机采样一致性算法对于存在运 动物体的场景具有一定的鲁棒性,然而随着运动物体在场景中所占比例变大, 算法的定位精度就会变差甚至导致定位失败。
发明内容
为了解决背景技术中存在的问题,本发明为解决现有算法在动态环境下鲁 棒性差的问题,提出了一种动态环境下的移动机器人图像视觉定位方法。
本发明采用的技术方案是包括以下步骤:
步骤一,将Kinect深度相机固定安装在移动机器人上,通过相机获取机器 人所处环境的RGB彩色图像和depth深度图像;
步骤二,针对相邻两帧图像,根据depth深度图像,得到每一帧图像的包含 环境信息的三维点云;
步骤三,针对相邻两帧图像,采用ORB特征(Oriented FAST and Rotated BRIEF)方式对每一帧RGB彩色图像依次进行提取关键点和计算描述子的操作, 并对描述子进行特征匹配,然后采用随机采样一致性算法剔除误匹配点,获得 匹配点对;
步骤四,根据相邻两帧图像的三维点云和匹配点对通过迭代最近点算法进 行运动估计得到相邻两帧图像之间的初始位姿变换矩阵Tcoarse
步骤五,对步骤二得到的三维点云进行聚类,并根据步骤四得到的初始位 姿变换矩阵Tcoarse将已聚类的三维点云进行变换,计算相邻两帧图像的三维点云 聚类之间的残差进行静态背景和动态前景的分割;
步骤六,利用静态背景中的匹配点对和对应的三维点云重复步骤四通过迭 代最近点算法进行处理得到更准确的位姿变换矩阵Tfine
步骤七,针对每相邻两帧图像重复上述步骤二~步骤六,计算所有相邻两帧 图像之间的位姿变换矩阵,实现移动机器人图像视觉定位。
所述的步骤五中,以相邻两帧图像的前一帧作为参考帧,以相邻两帧图像 的后一帧作为当前帧,采用以下方式进行处理:
1)点云聚类阶段:利用参考帧I1和当前帧I2对应的三维点云采用K-means 聚类方法进行聚类将三维点云中的点分为k类,得到当前帧I2的聚类结果C和参 考帧I1的聚类结果C′:
C={c1,…,ck}
C′={c′1,…,c′k}
其中,c1表示当前帧I2的第一类点集合,ck表示当前帧I2的第k类点集合;c′1表示参考帧I1的第一类点集合,c′k表示参考帧I1的第k类点集合;
2)背景分割阶段:
根据初始位姿变换矩阵Tcoarse将当前帧I2的聚类结果C变换到参考帧坐标系 得到位姿变换后的聚类结果CT={c1T,…,ckT},c1T表示当前帧I2的第一类点集合 变换到参考帧坐标系后的集合,ckT表示当前帧I2的第k类点集合变换到参考帧 坐标系后的集合;
并计算位姿变换后的聚类结果CT与参考帧I1的聚类结果C′中各同类点集合 c′i与ciT之间的残差δi,残差为点集合c′i中各点与点集合ciT中各自对应点之间差的 平均值,取所有残差中的中间值作为分割阈值T;
最后将残差δi与分割阈值T进行比较,将小于分割阈值T的残差δi对应的聚类 点集合作为静态背景,反之作为动态前景,表示为:
其中,δi表示聚类结果CT与聚类结果C′中第i类点集合之间的残差。
所述步骤1)中,采用K-means聚类方法进行聚类将三维点云中的点分为k 类,具体为:设置聚类数为k,设定k个聚类中心,根据最小距离原则将每个点 分配至各个聚类,然后重新计算聚类中心的位置,再根据最小距离原则多次迭 代进行聚类直至收敛。
所述步骤2)中的参考帧坐标系是指参考帧下以相机光心为基准建立的三维 坐标系。
所述的参考帧I1和当前帧I2对应的三维点云分别是在各自的坐标系下,即参 考帧坐标系和当前帧坐标系,当前帧坐标系是指当前帧下以相机光心为基准建 立的三维坐标系。
所述步骤一中,针对足式移动机器人,Kinect深度相机固定安装在机器人顶 部,针对轮式移动机器人,Kinect深度相机固定安装在机器人前部。
本发明的有益效果是:
1.本发明采用了Kinect深度相机,相比于激光雷达传感器,大大降低了硬件 成本,相比于单目和双目相机,克服了恢复像素深度值的复杂性。
2.本发明采用特殊的聚类分割前景和背景方式对两帧之间的初始位姿变换 矩阵进行修正优化,进行了动态场景下的背景分割,通过静态背景内的特征点, 进一步修正了机器人的定位误差,更加准确地估计了移动机器人在室内的运动 轨迹。
附图说明
图1为本发明的视觉SLAM原理框图;
图2为depth深度图像转化为三维点云时的针孔相机模型;
图3为相邻两帧的深度图像和对应的三维点云;
图4为相邻两帧图像的三维点云经过K-means聚类后的结果;
图5为相邻两帧图像背景分割结果图。
具体实施方式
下面结合附图对本发明的技术方案做进一步详细的说明。
步骤一,将Kinect深度相机固定安装在轮式移动机器人前部,通过相机获 取机器人所处环境的各帧图像,每帧图像包含了RGB彩色图像和depth深度图 像。
步骤二,根据针孔相机模型对前后相邻两帧的每帧depth深度图像处理得到 每一帧depth深度图像的包含环境信息的三维点云;
如图2所示,空间点经过相机成像后的像素点在图像坐标系中的坐标为 [u v],在世界坐标系中的坐标为[x y z],世界坐标系为参考帧坐标系或者 当前帧坐标系(若处理的参考帧,则为参考帧坐标系),则二者对应关系如下:
式中,fx和fy为Kinect深度相机的焦距,(cx,cy)为Kinect深度相机的光心, s为尺度因子,d为深度值。
根据上式求得空间点的三维坐标如下:
如图3所示为相邻两帧深度图像,根据上式分别计算得到三维点云。
步骤三,采用ORB特征(Oriented FAST and Rotated BRIEF)方式对RGB 彩色图像依次进行提取关键点和计算描述子的操作,并对描述子进行特征匹配, 然后采用随机采样一致性算法剔除误匹配点,获得匹配点对;
步骤四,根据相邻两帧图像的三维点云和匹配点对通过迭代最近点算法得 到相邻两帧图像之间的初始位姿变换矩阵Tcoarse
利用相邻两帧的RGB彩色图像I1和I2,通过特征提取和匹配得到的ORB特 征点表示如下:
P={p1,…,pn},p′={p′1,…,p′n}
其中,P为参考帧中的特征点集合,p′为当前帧中的特征点集合,p1为参考 帧中特征点集合的第一个点,pn为参考帧中特征点集合的第n个点,p′1为当前 帧中特征点集合的第一个点,p'n为当前帧中特征点集合的第n个点。
然后建立最小二乘问题的目标函数,如下:
其中,R为当前帧变换到参考帧的旋转矩阵,t为当前帧变换到参考帧的平 移向量,n为匹配特征点对的数量,表示二范数。
通过求解上式得到旋转矩阵R和平移向量t,二者构成了相邻两帧图像之间 的初始位姿变换矩阵Tcoarse,如下式:
步骤五,对步骤二得到相邻两帧图像的三维点云进行聚类,并根据步骤四 得到的初始变换矩阵将已聚类的三维点云进行变换,计算相邻两帧图像的三维 点云聚类之间的残差进行静态背景和动态前景的分割;
以相邻两帧图像的前一帧作为参考帧,以相邻两帧图像的后一帧作为当前 帧,采用以下方式进行处理:
1)点云聚类阶段:利用参考帧I1和当前帧I2对应的三维点云采用K-means 聚类方法进行聚类将三维点云中的点分为k=6类,如图4所示,得到当前帧I2的 聚类结果C和参考帧I1的聚类结果C':
C={c1,…,ck}
C′={c′1,…,c′k}
其中,c1表示当前帧I2的第一类点集合,ck表示当前帧I2的第k类点集合;c′1表示参考帧I1的第一类点集合,c'k表示参考帧I1的第k类点集合;
2)背景分割阶段:
根据初始位姿变换矩阵Tcoarse将当前帧I2的聚类结果C变换到参考帧坐标系 得到位姿变换后的聚类结果CT={c1T,…,ckT},c1T表示当前帧I2的第一类点集合 变换到参考帧坐标系后的集合,ckT表示当前帧I2的第k类点集合变换到参考帧 坐标系后的集合;
并计算位姿变换后的聚类结果CT与参考帧I1的聚类结果C′中各同类点集合 c′i与ciT之间的残差δi,残差为点集合c′i中各点与点集合ciT中各自对应点之间差的 平均值,取所有残差中的中间值作为分割阈值T;
最后将残差δi与分割阈值T进行比较,将小于分割阈值T的残差δi对应的聚类 点集合作为静态背景,反之作为动态前景,表示为:
其中,δi表示聚类结果CT与聚类结果C′中第i类点集合之间的残差。
如图5所示,将背景分割后的静态背景用黑色表示,可以发现,图像中走 动的人被很好地分割出来。
步骤六,利用静态背景中的匹配点对和三维点云重复步骤四通过迭代最近 点算法进行处理得到更准确的位姿变换矩阵Tfine
步骤七,针对每相邻两帧图像重复上述步骤二~步骤六,计算所有相邻两帧 图像之间的位姿变换矩阵,实现移动机器人图像视觉定位。

Claims (5)

1.一种动态环境下的移动机器人图像视觉定位方法,其特征在于,包括以下步骤:
步骤一,将Kinect深度相机固定安装在移动机器人上,通过相机获取机器人所处环境的RGB彩色图像和depth深度图像;
步骤二,针对相邻两帧图像,根据depth深度图像,得到每一帧图像的三维点云;
步骤三,针对相邻两帧图像,采用ORB特征(Oriented FAST and Rotated BRIEF)方式对每一帧RGB彩色图像依次进行提取关键点和计算描述子的操作,并对描述子进行特征匹配,然后采用随机采样一致性算法剔除误匹配点,获得匹配点对;
步骤四,根据相邻两帧图像的三维点云和匹配点对通过迭代最近点算法得到相邻两帧图像之间的初始位姿变换矩阵Tcoarse
步骤五,对步骤二得到的三维点云进行聚类,并根据步骤四得到的初始位姿变换矩阵Tcoarse将已聚类的三维点云进行变换,计算相邻两帧图像的三维点云聚类之间的残差进行静态背景和动态前景的分割;
步骤六,利用静态背景中的匹配点对和对应的三维点云重复步骤四通过迭代最近点算法进行处理得到更准确的位姿变换矩阵Tfine
步骤七,针对每相邻两帧图像重复上述步骤二~步骤六,计算所有相邻两帧图像之间的位姿变换矩阵,实现移动机器人图像视觉定位。
2.根据权利要求1所述的一种动态环境下的移动机器人图像视觉定位方法,其特征在于:所述的步骤五中,以相邻两帧图像的前一帧作为参考帧,以相邻两帧图像的后一帧作为当前帧,采用以下方式进行处理:
1)点云聚类阶段:利用参考帧I1和当前帧I2对应的三维点云采用K-means聚类方法进行聚类将三维点云中的点分为k类,得到当前帧I2的聚类结果C和参考帧I1的聚类结果C′:
C={c1,…,ck}
C′={c′1,…,c′k}
其中,c1表示当前帧I2的第一类点集合,ck表示当前帧I2的第k类点集合;c′1表示参考帧I1的第一类点集合,c′k表示参考帧I1的第k类点集合;
2)背景分割阶段:
根据初始位姿变换矩阵Tcoarse将当前帧I2的聚类结果C变换到参考帧坐标系得到位姿变换后的聚类结果CT={c1T,…,ckT},c1T表示当前帧I2的第一类点集合变换到参考帧坐标系后的集合,ckT表示当前帧I2的第k类点集合变换到参考帧坐标系后的集合;
并计算位姿变换后的聚类结果CT与参考帧I1的聚类结果C′中各同类点集合c′i与ciT之间的残差δi,残差为点集合c′i中各点与点集合ciT中各自对应点之间差的平均值,取所有残差中的中间值作为分割阈值T;
最后将残差δi与分割阈值T进行比较,将小于分割阈值T的残差δi对应的聚类点集合作为静态背景,反之作为动态前景,表示为:
其中,δi表示聚类结果CT与聚类结果C′中第i类点集合之间的残差。
3.根据权利要求1所述的一种动态环境下的移动机器人图像视觉定位方法,其特征在于:所述步骤1)中,采用K-means聚类方法进行聚类将三维点云中的点分为k类,具体为:设置聚类数为k,设定k个聚类中心,根据最小距离原则将每个点分配至各个聚类,然后重新计算聚类中心的位置,再根据最小距离原则多次迭代进行聚类直至收敛。
4.根据权利要求2所述的一种动态环境下的移动机器人图像视觉定位方法,其特征在于:所述步骤2)中的参考帧坐标系是指参考帧下以相机光心为基准建立的三维坐标系。
5.根据权利要求1所述的一种动态环境下的移动机器人图像视觉定位方法,其特征在于:所述步骤一中,针对足式移动机器人,Kinect深度相机固定安装在机器人顶部,针对轮式移动机器人,Kinect深度相机固定安装在机器人前部。
CN201810145534.1A 2018-02-12 2018-02-12 一种动态环境下的移动机器人图像视觉定位方法 Active CN108460779B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810145534.1A CN108460779B (zh) 2018-02-12 2018-02-12 一种动态环境下的移动机器人图像视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810145534.1A CN108460779B (zh) 2018-02-12 2018-02-12 一种动态环境下的移动机器人图像视觉定位方法

Publications (2)

Publication Number Publication Date
CN108460779A true CN108460779A (zh) 2018-08-28
CN108460779B CN108460779B (zh) 2021-09-24

Family

ID=63217064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810145534.1A Active CN108460779B (zh) 2018-02-12 2018-02-12 一种动态环境下的移动机器人图像视觉定位方法

Country Status (1)

Country Link
CN (1) CN108460779B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109470216A (zh) * 2018-11-19 2019-03-15 国网四川省电力公司电力科学研究院 机械人双目视觉特征点定位方法
CN109523552A (zh) * 2018-10-24 2019-03-26 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法
CN109781003A (zh) * 2019-02-11 2019-05-21 华侨大学 一种结构光视觉系统的下一最佳测量位姿确定方法
CN109785352A (zh) * 2018-12-21 2019-05-21 广东工业大学 一种智能高效机载雷达点云分析方法
CN109816946A (zh) * 2019-01-31 2019-05-28 上海浦江桥隧运营管理有限公司 一种隧道巡检装置
CN109949375A (zh) * 2019-02-02 2019-06-28 浙江工业大学 一种基于深度图感兴趣区域的移动机器人目标跟踪方法
CN109979015A (zh) * 2019-03-21 2019-07-05 苏州市职业大学 基于刚体运动学的ar参考物体特征点修正方法
CN110310304A (zh) * 2019-06-14 2019-10-08 深圳前海达闼云端智能科技有限公司 单目视觉建图和定位方法、装置、存储介质及移动设备
CN110310333A (zh) * 2019-06-27 2019-10-08 Oppo广东移动通信有限公司 定位方法及电子设备、可读存储介质
CN110555908A (zh) * 2019-08-28 2019-12-10 西安电子科技大学 基于室内移动目标背景修复的三维重建方法
CN110554405A (zh) * 2019-08-27 2019-12-10 华中科技大学 一种基于组合聚类的正态扫描配准方法和系统
CN110689622A (zh) * 2019-07-05 2020-01-14 电子科技大学 一种基于点云分割匹配闭环校正的同步定位与构图算法
CN110751722A (zh) * 2019-09-09 2020-02-04 清华大学 同时定位建图方法及装置
CN111238450A (zh) * 2020-02-27 2020-06-05 北京三快在线科技有限公司 视觉定位方法及装置
CN111260709A (zh) * 2020-01-15 2020-06-09 浙江大学 一种面向动态环境的地面辅助的视觉里程计方法
CN111383261A (zh) * 2018-12-27 2020-07-07 浙江舜宇智能光学技术有限公司 移动机器人、及其位姿估计方法和位姿估计装置
CN112270272A (zh) * 2020-10-31 2021-01-26 武汉中海庭数据技术有限公司 高精度地图制作中道路路口提取方法及系统
CN112643664A (zh) * 2019-10-10 2021-04-13 深圳市优必选科技股份有限公司 定位误差消除方法、装置、机器人及存储介质
CN112907455A (zh) * 2019-12-04 2021-06-04 财团法人成大研究发展基金会 几何相机校正系统及方法
CN113744298A (zh) * 2021-01-05 2021-12-03 北京京东乾石科技有限公司 数据处理方法、装置及存储介质
WO2023193567A1 (zh) * 2022-04-08 2023-10-12 追觅创新科技(苏州)有限公司 机器人的移动控制方法和装置、存储介质及电子装置
CN117152199A (zh) * 2023-08-30 2023-12-01 成都信息工程大学 一种动态目标运动矢量估计方法、系统、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104751146A (zh) * 2015-04-13 2015-07-01 中国科学技术大学 一种基于3d点云图像的室内人体检测方法
CN104867137A (zh) * 2015-05-08 2015-08-26 中国科学院苏州生物医学工程技术研究所 一种基于改进ransac算法的图像配准方法
CN105354856A (zh) * 2015-12-04 2016-02-24 北京联合大学 一种基于mser与orb相结合的人体匹配与定位方法及系统
CN106022304A (zh) * 2016-06-03 2016-10-12 浙江大学 一种基于双目相机的实时人体坐姿情况检测方法
CN106940186A (zh) * 2017-02-16 2017-07-11 华中科技大学 一种机器人自主定位与导航方法及系统
CN107564059A (zh) * 2017-07-11 2018-01-09 北京联合大学 基于rgb‑d信息的物体定位方法、装置以及机器视觉系统
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN107610177A (zh) * 2017-09-29 2018-01-19 联想(北京)有限公司 一种同步定位与地图构建中确定特征点的方法和设备
CN107633518A (zh) * 2017-09-26 2018-01-26 南昌航空大学 一种基于Kinect的产品外形检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104751146A (zh) * 2015-04-13 2015-07-01 中国科学技术大学 一种基于3d点云图像的室内人体检测方法
CN104867137A (zh) * 2015-05-08 2015-08-26 中国科学院苏州生物医学工程技术研究所 一种基于改进ransac算法的图像配准方法
CN105354856A (zh) * 2015-12-04 2016-02-24 北京联合大学 一种基于mser与orb相结合的人体匹配与定位方法及系统
CN106022304A (zh) * 2016-06-03 2016-10-12 浙江大学 一种基于双目相机的实时人体坐姿情况检测方法
CN106940186A (zh) * 2017-02-16 2017-07-11 华中科技大学 一种机器人自主定位与导航方法及系统
CN107564059A (zh) * 2017-07-11 2018-01-09 北京联合大学 基于rgb‑d信息的物体定位方法、装置以及机器视觉系统
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN107633518A (zh) * 2017-09-26 2018-01-26 南昌航空大学 一种基于Kinect的产品外形检测方法
CN107610177A (zh) * 2017-09-29 2018-01-19 联想(北京)有限公司 一种同步定位与地图构建中确定特征点的方法和设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张毅: "室内环境下移动机器人三维视觉SLAM", 《智能系统学报》 *
邹建成: "《数学及其在图像处理中的应用》", 31 July 2015 *

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523552A (zh) * 2018-10-24 2019-03-26 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法
CN109523552B (zh) * 2018-10-24 2021-11-02 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法
CN109470216A (zh) * 2018-11-19 2019-03-15 国网四川省电力公司电力科学研究院 机械人双目视觉特征点定位方法
CN109785352A (zh) * 2018-12-21 2019-05-21 广东工业大学 一种智能高效机载雷达点云分析方法
CN109785352B (zh) * 2018-12-21 2022-11-22 广东工业大学 一种智能高效机载雷达点云分析方法
CN111383261A (zh) * 2018-12-27 2020-07-07 浙江舜宇智能光学技术有限公司 移动机器人、及其位姿估计方法和位姿估计装置
CN109816946A (zh) * 2019-01-31 2019-05-28 上海浦江桥隧运营管理有限公司 一种隧道巡检装置
CN109949375A (zh) * 2019-02-02 2019-06-28 浙江工业大学 一种基于深度图感兴趣区域的移动机器人目标跟踪方法
CN109781003A (zh) * 2019-02-11 2019-05-21 华侨大学 一种结构光视觉系统的下一最佳测量位姿确定方法
CN109979015B (zh) * 2019-03-21 2019-12-13 苏州市职业大学 基于刚体运动学的ar参考物体特征点修正方法
CN109979015A (zh) * 2019-03-21 2019-07-05 苏州市职业大学 基于刚体运动学的ar参考物体特征点修正方法
CN110310304B (zh) * 2019-06-14 2021-07-23 达闼机器人有限公司 单目视觉建图和定位方法、装置、存储介质及移动设备
CN110310304A (zh) * 2019-06-14 2019-10-08 深圳前海达闼云端智能科技有限公司 单目视觉建图和定位方法、装置、存储介质及移动设备
CN110310333A (zh) * 2019-06-27 2019-10-08 Oppo广东移动通信有限公司 定位方法及电子设备、可读存储介质
CN110689622A (zh) * 2019-07-05 2020-01-14 电子科技大学 一种基于点云分割匹配闭环校正的同步定位与构图算法
CN110554405B (zh) * 2019-08-27 2021-07-30 华中科技大学 一种基于组合聚类的正态扫描配准方法和系统
CN110554405A (zh) * 2019-08-27 2019-12-10 华中科技大学 一种基于组合聚类的正态扫描配准方法和系统
CN110555908A (zh) * 2019-08-28 2019-12-10 西安电子科技大学 基于室内移动目标背景修复的三维重建方法
CN110751722B (zh) * 2019-09-09 2021-06-15 清华大学 同时定位建图方法及装置
CN110751722A (zh) * 2019-09-09 2020-02-04 清华大学 同时定位建图方法及装置
CN112643664A (zh) * 2019-10-10 2021-04-13 深圳市优必选科技股份有限公司 定位误差消除方法、装置、机器人及存储介质
CN112907455A (zh) * 2019-12-04 2021-06-04 财团法人成大研究发展基金会 几何相机校正系统及方法
CN111260709A (zh) * 2020-01-15 2020-06-09 浙江大学 一种面向动态环境的地面辅助的视觉里程计方法
CN111260709B (zh) * 2020-01-15 2022-04-19 浙江大学 一种面向动态环境的地面辅助的视觉里程计方法
CN111238450A (zh) * 2020-02-27 2020-06-05 北京三快在线科技有限公司 视觉定位方法及装置
CN111238450B (zh) * 2020-02-27 2021-11-30 北京三快在线科技有限公司 视觉定位方法及装置
CN112270272A (zh) * 2020-10-31 2021-01-26 武汉中海庭数据技术有限公司 高精度地图制作中道路路口提取方法及系统
CN113744298A (zh) * 2021-01-05 2021-12-03 北京京东乾石科技有限公司 数据处理方法、装置及存储介质
WO2023193567A1 (zh) * 2022-04-08 2023-10-12 追觅创新科技(苏州)有限公司 机器人的移动控制方法和装置、存储介质及电子装置
CN117152199A (zh) * 2023-08-30 2023-12-01 成都信息工程大学 一种动态目标运动矢量估计方法、系统、设备及存储介质
CN117152199B (zh) * 2023-08-30 2024-05-31 成都信息工程大学 一种动态目标运动矢量估计方法、系统、设备及存储介质

Also Published As

Publication number Publication date
CN108460779B (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN108460779A (zh) 一种动态环境下的移动机器人图像视觉定位方法
CN110223348B (zh) 基于rgb-d相机的机器人场景自适应位姿估计方法
CN110827395B (zh) 一种适用于动态环境的即时定位与地图构建方法
CN106204574B (zh) 基于目标平面运动特征的相机位姿自标定方法
CN107341814B (zh) 基于稀疏直接法的四旋翼无人机单目视觉测程方法
CN102646275B (zh) 通过跟踪和定位算法实现虚拟三维叠加的方法
CN105956539B (zh) 一种应用背景建模和双目视觉原理的人体身高测量方法
CN108711166A (zh) 一种基于四旋翼无人机的单目相机尺度估计方法
CN111045017A (zh) 一种激光和视觉融合的巡检机器人变电站地图构建方法
CN109360240A (zh) 一种基于双目视觉的小型无人机定位方法
CN109671120A (zh) 一种基于轮式编码器的单目slam初始化方法及系统
CN113393522B (zh) 一种基于单目rgb相机回归深度信息的6d位姿估计方法
CN109270534A (zh) 一种智能车激光传感器与相机在线标定方法
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN109345588A (zh) 一种基于Tag的六自由度姿态估计方法
CN110189382A (zh) 一种基于无共视区域的多双目相机运动标定方法
CN110675453B (zh) 一种已知场景中运动目标的自定位方法
CN109859272A (zh) 一种自动对焦双目摄像头标定方法及装置
CN113223045B (zh) 基于动态物体语义分割的视觉与imu传感器融合定位系统
CN109523589A (zh) 一种更鲁棒的视觉里程计的设计方法
CN112484746B (zh) 一种基于地平面的单目视觉辅助激光雷达里程计方法
CN106504287B (zh) 基于模板的单目视觉目标空间定位系统
CN108470356A (zh) 一种基于双目视觉的目标对象快速测距方法
CN105631899B (zh) 一种基于灰度纹理特征的超声图像运动目标跟踪方法
CN109579825A (zh) 基于双目视觉和卷积神经网络的机器人定位系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant