CN111612847A - 机器人抓取操作的点云数据匹配方法及系统 - Google Patents

机器人抓取操作的点云数据匹配方法及系统 Download PDF

Info

Publication number
CN111612847A
CN111612847A CN202010370273.0A CN202010370273A CN111612847A CN 111612847 A CN111612847 A CN 111612847A CN 202010370273 A CN202010370273 A CN 202010370273A CN 111612847 A CN111612847 A CN 111612847A
Authority
CN
China
Prior art keywords
point cloud
cloud data
rigid body
representing
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010370273.0A
Other languages
English (en)
Other versions
CN111612847B (zh
Inventor
皮历
魏祯奇
王潇
谢旭
周林
李胜豪
陈冬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei Huangchao Intelligent Automation Equipment Co ltd
Original Assignee
Chongqing Jianmang Information Technology Consulting Service Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Jianmang Information Technology Consulting Service Co ltd filed Critical Chongqing Jianmang Information Technology Consulting Service Co ltd
Priority to CN202010370273.0A priority Critical patent/CN111612847B/zh
Publication of CN111612847A publication Critical patent/CN111612847A/zh
Application granted granted Critical
Publication of CN111612847B publication Critical patent/CN111612847B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)

Abstract

本发明提出了一种机器人抓取操作中的点云数据匹配方法,包括:建立采集数据与真实场景平面型工件的空间坐标转换关系;寻找刚体变换矩阵T;建立邻对点与逼近面之间的距离误差公式;依据函数F(x)进行计算,使得函数F(x)取值最小;对函数F(x)进行线性化转化,以得到误差函数,进而得到刚体变换矩阵T;对海量点云数据进行筛选,以计算平面型工件的质心位置M,通过刚体变换矩阵T,将其进行变换后作为夹爪的末端中心位置进行抓取操作。本发明还提供了一种机器人抓取操作中的点云数据匹配系统。

Description

机器人抓取操作的点云数据匹配方法及系统
技术领域
本发明涉及机器人视觉引导抓取领域,尤其是涉及一种应用于平面型工件的机器人抓取操作中的点云数据匹配方法及系统。
背景技术
工业场合中经常需要在平面型工件表面进行机器人抓取操作,以手机玻璃屏幕为例,由于玻璃屏幕通常会与传送带运行方向有一定的夹角,因此需要将立体摄像头采集的点云数据进行旋转,以便与玻璃屏幕的几何模型匹配。如何减小点云数据和几何模型之间的匹配误差,提高匹配精度从而实现精确抓取,是一个有难度的技术问题。
传统的工业机器人路径规划过程通常需要进行人工示教,或者在商用软件中进行离线编程以针对工件表面形貌进行分析,并规划工业机器人路径。离线编程方式需要获得产品表面形貌的三维几何模型,同时需要进行轨迹规划并进行虚拟-现实标定,该标定过程会产生标定误差,手动旋转和平移操作往往不能较好的实现点云数据和几何模型的精确匹配,从而影响机器人抓取操作的成功率。
以离线编程环境下的人工旋转和平移操作为例,由于缺乏数据支撑,手动旋转和平移操作往往会在点云数据和几何模型之间产生较大的位置误差。由于人工操作缺乏数学理论的支持,因此点云数据的位置和姿态具有较大的随机性,当位置与几何模型存在误差时,容易导致机器人抓取动作产生偏移而失败。当其姿态与几何模型存在误差时,机器人抓取动作与物体之间存在夹角,在抓取过程中可能由于重力原因而滑落。
发明内容
本发明提供了一种应用于平面型工件的机器人抓取操作中的点云数据匹配方法,其采用最小化误差方法来估算点云数据和几何模型之间邻对点之间的距离,设计逼近面计算两者与逼近面之间的点的距离,通过迭代计算方法减小点云数据和几何模型的匹配残差,从而确保点云数据能够与几何数据进行较为精确的匹配。
本发明所提供的一种机器人抓取操作中的点云数据匹配方法,包括:
步骤S1:建立采集数据与真实场景平面型工件的空间坐标转换关系;
步骤S2:寻找刚体变换矩阵T;
步骤S3:建立邻对点与逼近面之间的距离误差公式,该公式表示为
Figure BDA0002476905850000021
其中εα为最小误差,αqi为点云数据,ρi为初始点云数据,d为邻对点之间的距离;
步骤S4:依据函数
Figure BDA0002476905850000022
进行计算,其中x,y表示点p的坐标值,σx表示与x值相关的对称矩阵,将该函数转化为寻找围绕原点旋转θ角度、且包含平移向量t=[txty]刚性变换,使得函数F(x)取值最小;
步骤S5:对函数F(x)进行线性化转化,以得到误差函数
Figure BDA0002476905850000023
其中,ε(θ,tx,ty)表示变换数据与原数据之间的残差,i表示当前点云数,m表示点云总数,xi表示本地点云的横坐标,θyi表示纵轴方向的导数,tx表示变换向量,0xi表示横轴方向的导数,yi表示纵轴方向的导数,σx表示与x相关的对称矩阵,进而得到刚体变换矩阵T;
步骤S6:对海量点云数据进行筛选,以计算平面型工件的质心位置M,计算方法为
Figure BDA0002476905850000031
其中,ri表示图像像素的横坐标,Ii表示图像的在I点上的灰度值,ci表示图像像素的纵坐标,(r,c)为计算出的平面型工件的质心坐标,通过刚体变换矩阵T,将其进行变换后作为夹爪的末端中心位置进行抓取操作。
其中,所述步骤S1中,所述空间坐标转换关系之间存在匹配误差ε。
其中,所述步骤S2中,注册算法寻找合适的刚体变换矩阵T,该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
其中,所述步骤S3中,以假设距离是点云数据和几何模型与其地面之间距离的精确逼近为前提。
本发明还提供了一种机器人抓取操作点中的点云数据匹配系统,包括坐标标定单元、刚体变换矩阵计算单元、距离误差计算单元、最小取值处理单元、刚体变换矩阵获取单元及末端中心位置计算单元;所述坐标标定单元用于对机器人视觉系统进行标定,以建立采集数据与真实场景平面型工件的空间坐标转换关系;所述刚体变换矩阵计算单元用于建立刚体变换矩阵T;所述距离误差计算单元用于建立邻对点与逼近面之间的距离误差公式,以计算得到邻对点与逼近面之间的距离误差;所述最小取值处理单元用于使得函数F(x)取值最小,其中函数F(x)的公式为
Figure BDA0002476905850000032
所述刚体变换矩阵获取单元用于对函数F(x)进行线性化转换,以得到误差函数,进而得到刚体变换矩阵T;所述末端中心位置计算单元用于对海量点云数据进行筛选,以计算得到平面型工件的质心位置M,并结合前述得到的刚体变换矩阵T,将其进行变化后得到夹爪的末端中心位置。
其中,所述刚体变换矩阵计算单元采用注册算法以寻找合适的刚体变换矩阵T,且该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
本发明所述的应用于平面型工件的机器人抓取操作中的点云数据匹配方法采用最小化误差方法来估算点云数据和几何模型之间邻对点之间的距离,设计逼近面计算两者与逼近面之间的点的距离,通过迭代计算方法减小点云数据和几何模型的匹配残差,从而确保点云数据能够与几何数据进行较为精确的匹配。
附图说明
图1为本发明机器人抓取操作中的点云数据匹配方法的较佳实施方式的流程图。
图2为本发明机器人抓取操作中的点云数据匹配系统的较佳实施方式的流程图。
具体实施方式
下面结合附图对本发明作进一步说明,但不以任何方式对本发明加以限制,基于本发明教导所作的任何变换,均落入本发明保护范围。
请参考图1所示,本发明所述的一种机器人抓取操作中的点云数据匹配方法,包括以下步骤:
步骤S1、对机器人视觉系统进行标定,建立采集数据与真实场景平面型工件的空间坐标转换关系,需要明确的是该映射存在匹配误差ε。
步骤S2、采用注册算法寻找合适的刚体变换矩阵T,该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
步骤S3、建立邻对点与逼近面之间的距离误差公式,该公式表示如下:
Figure BDA0002476905850000051
其中,εα为最小误差,αqi为点云数据,ρi为初始点云数据,d为邻对点之间的距离,此处采用邻对点的平方距离是以假设该距离是点云数据和几何模型与其地面之间距离的精确逼近为前提的。
步骤S4、假设在平面型工件上存在一点p,p=(x y)是属于xy平面内的一点,假设存在函数
Figure BDA0002476905850000052
其中x,y表示点p的坐标值,x表示与x值相关的对称矩阵,该函数近似等于误差εa。将此问题转化为寻找围绕原点旋转θ角度、且包含平移向量t=[txty]刚性变换,使得函数F(x)取值最小。
步骤S5、对函数F(x)进行线性化转换,当旋转角度θ足够小时,取sinθ=θ,cosθ=1,则有误差函数:
Figure BDA0002476905850000053
其中,ε(θ,tx,ty)表示变换数据与原始数据之间的残差,i表示当前点云数,m表示点云总数,xi表示本地点云的横坐标,θyi表示纵方向的导数,tx表示变换向量,θxi表示纵轴方向的导数,yi表示本地点云的纵坐标,σx表示与x相关的对称矩阵,因此迭代计算中,需要求出θ,tx,ty的值,最小化点云数据和几何模型之间的残差,从而确保点云数据和几何模型之间实现较为精确的位置和姿态匹配,获得刚体变换矩阵T。
步骤S6、对海量点云数据进行筛选,计算平面型工件的质心位置M,计算方法如下:
Figure BDA0002476905850000061
其中,ri表示图像像素的横坐标,Ii表示图像的在I点上的灰度值,ci表示图像像素的纵坐标,(r,c)为计算出的平面型工件的质心坐标,通过刚体变换矩阵T,将其进行变换后作为夹爪的末端中心位置进行抓取操作。
本发明所述的应用于平面型工件的机器人抓取操作中的点云数据匹配方法采用最小化误差方法来估算点云数据和几何模型之间邻对点之间的距离,设计逼近面计算两者与逼近面之间的点的距离,通过迭代计算方法减小点云数据和几何模型的匹配残差,从而确保点云数据能够与几何数据进行较为精确的匹配。
请继续参考图2所示,为本发明所述的一种机器人抓取操作中的点云数据匹配系统。所述应用于平面型工件的机器人抓取操作中的点云数据匹配系统包括坐标标定单元1、刚体变换矩阵计算单元2、距离误差计算单元3、最小取值处理单元4、刚体变换矩阵获取单元5及末端中心位置计算单元6。
所述坐标标定单元1用于对机器人视觉系统进行标定,以建立采集数据与真实场景平面型工件的空间坐标转换关系。需要明确的是,本实施方式中,该映射存在匹配误差ε。
所述刚体变换矩阵计算单元2用于建立刚体变换矩阵T。本实施方式中,采用注册算法以寻找合适的刚体变换矩阵T,且该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
所述距离误差计算单元3用于建立邻对点与逼近面之间的距离误差公式,以计算得到邻对点与逼近面之间的距离误差。
所述最小取值处理单元4用于使得函数F(x)取值最小,其中函数F(x)的公式为
Figure BDA0002476905850000071
所述刚体变换矩阵获取单元5用于对函数F(x)进行线性化转换,以得到误差函数,进而得到刚体变换矩阵T。
所述末端中心位置计算单元6用于对海量点云数据进行筛选,以计算得到平面型工件的质心位置M,并结合前述得到的刚体变换矩阵T,将其进行变化后得到夹爪的末端中心位置。
以上所述仅为本发明的优选实施例,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的相关技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,其中所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种机器人抓取操作中的点云数据匹配方法,其特征在于:所述机器人抓取操作中的点云数据匹配方法包括:
步骤S1:建立采集数据与真实场景平面型工件的空间坐标转换关系;
步骤S2:寻找刚体变换矩阵T;
步骤S3:建立邻对点与逼近面之间的距离误差公式,该距离误差公式表示为
Figure FDA0002476905840000011
其中εα为最小误差,αqi为点云数据,ρi为初始点云数据,d为邻对点之间的距离;
步骤S4:依据函数
Figure FDA0002476905840000012
进行计算,其中x,y表示点p的坐标值,σx表示与x值相关的对称矩阵,将该函数转化为寻找围绕原点旋转θ角度、且包含平移向量t=[txty]刚性变换,使得函数F(x)取值最小;
步骤S5:对函数F(x)进行线性化转化,以得到误差函数
Figure FDA0002476905840000013
其中,ε(θ,tx,ty)表示变换数据与原数据之间的残差,i表示当前点云数,m表示点云总数,xi表示本地点云的横坐标,θyi表示纵轴方向的导数,tx表示变换向量,θxi表示横轴方向的导数,yi表示本地点云的纵坐标,σx表示与x相关的对称矩阵,进而得到刚体变换矩阵T;
步骤S6:对海量点云数据进行筛选,以计算平面型工件的质心位置M,计算方法为:
Figure FDA0002476905840000021
其中,ri表示图像像素的横坐标,Ii表示图像的在l点上的灰度值,ci表示图像像素的纵坐标,(r,c)为计算出的平面型工件的质心坐标,通过刚体变换矩阵T,将其进行变换后作为夹爪的末端中心位置进行抓取操作。
2.如权利要求1所述的机器人抓取操作中的点云数据匹配方法,其特征在于:所述步骤S1中,所述空间坐标转换关系之间存在匹配误差ε。
3.如权利要求1所述的机器人抓取操作点中的点云数据匹配方法,其特征在于:所述步骤S2中,所述刚体矩阵T包含旋转矩阵R和平移矩阵t。
4.如权利要求1所述的机器人抓取操作点中的点云数据匹配方法,其特征在于:所述步骤S3中,以假设距离是点云数据和几何模型与其地面之间距离的精确逼近为前提。
5.一种机器人抓取操作点中的点云数据匹配系统,其特征在于:所述机器人抓取操作点中的点云数据匹配系统包括坐标标定单元、刚体变换矩阵计算单元、距离误差计算单元、最小取值处理单元、刚体变换矩阵获取单元及末端中心位置计算单元;所述坐标标定单元用于对机器人视觉系统进行标定,以建立采集数据与真实场景平面型工件的空间坐标转换关系;所述刚体变换矩阵计算单元用于建立刚体变换矩阵T;所述距离误差计算单元用于建立邻对点与逼近面之间的距离误差公式,以计算得到邻对点与逼近面之间的距离误差;所述最小取值处理单元用于使得函数F(x)取值最小,其中函数F(x)的公式为
Figure FDA0002476905840000022
所述刚体变换矩阵获取单元用于对函数F(x)进行线性化转换,以得到误差函数,进而得到刚体变换矩阵T;所述末端中心位置计算单元用于对海量点云数据进行筛选,以计算得到平面型工件的质心位置M,并结合前述得到的刚体变换矩阵T,将其进行变换后得到夹爪的末端中心位置。
6.如权利要求5所述的机器人抓取操作点中的点云数据匹配系统,其特征在于:所述刚体矩阵计算单元采用注册算法以寻找合适的刚体变换矩阵T,且该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
CN202010370273.0A 2020-04-30 2020-04-30 机器人抓取操作的点云数据匹配方法及系统 Active CN111612847B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010370273.0A CN111612847B (zh) 2020-04-30 2020-04-30 机器人抓取操作的点云数据匹配方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010370273.0A CN111612847B (zh) 2020-04-30 2020-04-30 机器人抓取操作的点云数据匹配方法及系统

Publications (2)

Publication Number Publication Date
CN111612847A true CN111612847A (zh) 2020-09-01
CN111612847B CN111612847B (zh) 2023-10-20

Family

ID=72201804

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010370273.0A Active CN111612847B (zh) 2020-04-30 2020-04-30 机器人抓取操作的点云数据匹配方法及系统

Country Status (1)

Country Link
CN (1) CN111612847B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114918928A (zh) * 2022-07-22 2022-08-19 杭州柳叶刀机器人有限公司 手术机械臂精准定位方法、装置、控制终端及存储介质

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150015602A1 (en) * 2013-07-10 2015-01-15 Cognex Corporation System and method for selective determination of point clouds
CN106447708A (zh) * 2016-10-10 2017-02-22 吉林大学 一种oct眼底图像数据配准方法
CN106546168A (zh) * 2016-09-29 2017-03-29 上海航天精密机械研究所 基于球拟合的单轴激光扫描机器人精确标定方法及系统
CN106780459A (zh) * 2016-12-12 2017-05-31 华中科技大学 一种三维点云数据自动配准方法
US20170193312A1 (en) * 2014-03-27 2017-07-06 Georgia Tech Research Corporation Systems and Methods for Identifying Traffic Control Devices and Testing the Retroreflectivity of the Same
CN108161936A (zh) * 2017-12-26 2018-06-15 中科新松有限公司 优化的机器人标定方法及装置
CN108335291A (zh) * 2018-01-24 2018-07-27 上海岩土工程勘察设计研究院有限公司 一种隧道病害影像预处理方法
CN108376408A (zh) * 2018-01-30 2018-08-07 清华大学深圳研究生院 一种基于曲率特征的三维点云数据快速加权配准方法
CN108549084A (zh) * 2018-01-30 2018-09-18 西安交通大学 一种基于稀疏二维激光雷达的目标检测与姿态估计方法
CN108597016A (zh) * 2018-04-19 2018-09-28 西安交通大学 基于相关熵的Torr-M-Estimators基础矩阵鲁棒估计方法
US20190026943A1 (en) * 2017-07-20 2019-01-24 Robert Bosch Gmbh Dense visual slam with probabilistic surfel map
CN109648558A (zh) * 2018-12-26 2019-04-19 清华大学 机器人曲面运动定位方法及其运动定位系统
CN109784232A (zh) * 2018-12-29 2019-05-21 佛山科学技术学院 一种融合深度信息的视觉slam回环检测方法及装置
CN109919984A (zh) * 2019-04-15 2019-06-21 武汉惟景三维科技有限公司 一种基于局部特征描述子的点云自动配准方法
CN110111414A (zh) * 2019-04-10 2019-08-09 北京建筑大学 一种基于三维激光点云的正射影像生成方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150015602A1 (en) * 2013-07-10 2015-01-15 Cognex Corporation System and method for selective determination of point clouds
US20170193312A1 (en) * 2014-03-27 2017-07-06 Georgia Tech Research Corporation Systems and Methods for Identifying Traffic Control Devices and Testing the Retroreflectivity of the Same
CN106546168A (zh) * 2016-09-29 2017-03-29 上海航天精密机械研究所 基于球拟合的单轴激光扫描机器人精确标定方法及系统
CN106447708A (zh) * 2016-10-10 2017-02-22 吉林大学 一种oct眼底图像数据配准方法
CN106780459A (zh) * 2016-12-12 2017-05-31 华中科技大学 一种三维点云数据自动配准方法
US20190026943A1 (en) * 2017-07-20 2019-01-24 Robert Bosch Gmbh Dense visual slam with probabilistic surfel map
CN108161936A (zh) * 2017-12-26 2018-06-15 中科新松有限公司 优化的机器人标定方法及装置
CN108335291A (zh) * 2018-01-24 2018-07-27 上海岩土工程勘察设计研究院有限公司 一种隧道病害影像预处理方法
CN108549084A (zh) * 2018-01-30 2018-09-18 西安交通大学 一种基于稀疏二维激光雷达的目标检测与姿态估计方法
CN108376408A (zh) * 2018-01-30 2018-08-07 清华大学深圳研究生院 一种基于曲率特征的三维点云数据快速加权配准方法
CN108597016A (zh) * 2018-04-19 2018-09-28 西安交通大学 基于相关熵的Torr-M-Estimators基础矩阵鲁棒估计方法
CN109648558A (zh) * 2018-12-26 2019-04-19 清华大学 机器人曲面运动定位方法及其运动定位系统
CN109784232A (zh) * 2018-12-29 2019-05-21 佛山科学技术学院 一种融合深度信息的视觉slam回环检测方法及装置
CN110111414A (zh) * 2019-04-10 2019-08-09 北京建筑大学 一种基于三维激光点云的正射影像生成方法
CN109919984A (zh) * 2019-04-15 2019-06-21 武汉惟景三维科技有限公司 一种基于局部特征描述子的点云自动配准方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114918928A (zh) * 2022-07-22 2022-08-19 杭州柳叶刀机器人有限公司 手术机械臂精准定位方法、装置、控制终端及存储介质
CN114918928B (zh) * 2022-07-22 2022-10-28 杭州柳叶刀机器人有限公司 手术机械臂精准定位方法、装置、控制终端及存储介质

Also Published As

Publication number Publication date
CN111612847B (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
CN111775146B (zh) 一种工业机械臂多工位作业下的视觉对准方法
CN111775152B (zh) 基于三维测量引导机械臂抓取散乱堆叠工件的方法及系统
CN110014426B (zh) 一种利用低精度深度相机高精度抓取形状对称工件的方法
KR101857472B1 (ko) 카메라 보정 방법 및 이에 대한 시스템
CN107300382B (zh) 一种用于水下机器人的单目视觉定位方法
CN112907735B (zh) 一种基于点云的柔性电缆识别与三维重建方法
JP2012026895A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
CN113103235B (zh) 一种基于rgb-d图像对柜体表面设备进行垂直操作的方法
CN113256718B (zh) 定位方法和装置、设备及存储介质
CN113379849A (zh) 基于深度相机的机器人自主识别智能抓取方法及系统
CN114474056B (zh) 一种面向抓取操作的单目视觉高精度目标定位方法
CN112109072B (zh) 一种大型稀疏特征托盘精确6d位姿测量和抓取方法
CN110570474A (zh) 一种深度相机的位姿估计方法及系统
CN114022551A (zh) 一种燃油车加油盖精确识别与位姿估计的方法
CN110363801B (zh) 工件实物与工件三维cad模型的对应点匹配方法
CN116079734A (zh) 一种基于双视觉检测的协作机器人的装配控制系统及方法
CN111612847A (zh) 机器人抓取操作的点云数据匹配方法及系统
CN113103238A (zh) 一种基于数据优化的手眼标定方法
CN110428457B (zh) 一种视觉定位中的点集仿射变换算法
Kim et al. Structured light camera base 3D visual perception and tracking application system with robot grasping task
Feng et al. A matrix-solving hand-eye calibration method considering robot kinematic errors
CN112378383B (zh) 基于圆和线特征非合作目标相对位姿双目视觉测量方法
Kheng et al. Stereo vision with 3D coordinates for robot arm application guide
CN114022541B (zh) 一种光学单站姿态处理二义性正确解确定方法
Wang et al. A Pose Estimation and Optimization Method for Mobile Manipulator’s End-effectors Based on Stereo Vision and ICoP Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230919

Address after: 434000, No. 8, Development Avenue, Hongcheng Rural Economic Development Zone, Jianli City, Jingzhou City, Hubei Province (self declared)

Applicant after: Hubei Huangchao Intelligent Automation Equipment Co.,Ltd.

Address before: 401120 Yubei District, Chongqing Shuangfeng bridge airport development zone, Xiangyu Road, No. 15, 2.

Applicant before: Chongqing Jianmang Information Technology Consulting Service Co.,Ltd.

GR01 Patent grant
GR01 Patent grant