CN111612847A - 机器人抓取操作的点云数据匹配方法及系统 - Google Patents
机器人抓取操作的点云数据匹配方法及系统 Download PDFInfo
- Publication number
- CN111612847A CN111612847A CN202010370273.0A CN202010370273A CN111612847A CN 111612847 A CN111612847 A CN 111612847A CN 202010370273 A CN202010370273 A CN 202010370273A CN 111612847 A CN111612847 A CN 111612847A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- rigid body
- representing
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
Abstract
本发明提出了一种机器人抓取操作中的点云数据匹配方法,包括:建立采集数据与真实场景平面型工件的空间坐标转换关系;寻找刚体变换矩阵T;建立邻对点与逼近面之间的距离误差公式;依据函数F(x)进行计算,使得函数F(x)取值最小;对函数F(x)进行线性化转化,以得到误差函数,进而得到刚体变换矩阵T;对海量点云数据进行筛选,以计算平面型工件的质心位置M,通过刚体变换矩阵T,将其进行变换后作为夹爪的末端中心位置进行抓取操作。本发明还提供了一种机器人抓取操作中的点云数据匹配系统。
Description
技术领域
本发明涉及机器人视觉引导抓取领域,尤其是涉及一种应用于平面型工件的机器人抓取操作中的点云数据匹配方法及系统。
背景技术
工业场合中经常需要在平面型工件表面进行机器人抓取操作,以手机玻璃屏幕为例,由于玻璃屏幕通常会与传送带运行方向有一定的夹角,因此需要将立体摄像头采集的点云数据进行旋转,以便与玻璃屏幕的几何模型匹配。如何减小点云数据和几何模型之间的匹配误差,提高匹配精度从而实现精确抓取,是一个有难度的技术问题。
传统的工业机器人路径规划过程通常需要进行人工示教,或者在商用软件中进行离线编程以针对工件表面形貌进行分析,并规划工业机器人路径。离线编程方式需要获得产品表面形貌的三维几何模型,同时需要进行轨迹规划并进行虚拟-现实标定,该标定过程会产生标定误差,手动旋转和平移操作往往不能较好的实现点云数据和几何模型的精确匹配,从而影响机器人抓取操作的成功率。
以离线编程环境下的人工旋转和平移操作为例,由于缺乏数据支撑,手动旋转和平移操作往往会在点云数据和几何模型之间产生较大的位置误差。由于人工操作缺乏数学理论的支持,因此点云数据的位置和姿态具有较大的随机性,当位置与几何模型存在误差时,容易导致机器人抓取动作产生偏移而失败。当其姿态与几何模型存在误差时,机器人抓取动作与物体之间存在夹角,在抓取过程中可能由于重力原因而滑落。
发明内容
本发明提供了一种应用于平面型工件的机器人抓取操作中的点云数据匹配方法,其采用最小化误差方法来估算点云数据和几何模型之间邻对点之间的距离,设计逼近面计算两者与逼近面之间的点的距离,通过迭代计算方法减小点云数据和几何模型的匹配残差,从而确保点云数据能够与几何数据进行较为精确的匹配。
本发明所提供的一种机器人抓取操作中的点云数据匹配方法,包括:
步骤S1:建立采集数据与真实场景平面型工件的空间坐标转换关系;
步骤S2:寻找刚体变换矩阵T;
步骤S5:对函数F(x)进行线性化转化,以得到误差函数其中,ε(θ,tx,ty)表示变换数据与原数据之间的残差,i表示当前点云数,m表示点云总数,xi表示本地点云的横坐标,θyi表示纵轴方向的导数,tx表示变换向量,0xi表示横轴方向的导数,yi表示纵轴方向的导数,σx表示与x相关的对称矩阵,进而得到刚体变换矩阵T;
步骤S6:对海量点云数据进行筛选,以计算平面型工件的质心位置M,计算方法为
其中,ri表示图像像素的横坐标,Ii表示图像的在I点上的灰度值,ci表示图像像素的纵坐标,(r,c)为计算出的平面型工件的质心坐标,通过刚体变换矩阵T,将其进行变换后作为夹爪的末端中心位置进行抓取操作。
其中,所述步骤S1中,所述空间坐标转换关系之间存在匹配误差ε。
其中,所述步骤S2中,注册算法寻找合适的刚体变换矩阵T,该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
其中,所述步骤S3中,以假设距离是点云数据和几何模型与其地面之间距离的精确逼近为前提。
本发明还提供了一种机器人抓取操作点中的点云数据匹配系统,包括坐标标定单元、刚体变换矩阵计算单元、距离误差计算单元、最小取值处理单元、刚体变换矩阵获取单元及末端中心位置计算单元;所述坐标标定单元用于对机器人视觉系统进行标定,以建立采集数据与真实场景平面型工件的空间坐标转换关系;所述刚体变换矩阵计算单元用于建立刚体变换矩阵T;所述距离误差计算单元用于建立邻对点与逼近面之间的距离误差公式,以计算得到邻对点与逼近面之间的距离误差;所述最小取值处理单元用于使得函数F(x)取值最小,其中函数F(x)的公式为所述刚体变换矩阵获取单元用于对函数F(x)进行线性化转换,以得到误差函数,进而得到刚体变换矩阵T;所述末端中心位置计算单元用于对海量点云数据进行筛选,以计算得到平面型工件的质心位置M,并结合前述得到的刚体变换矩阵T,将其进行变化后得到夹爪的末端中心位置。
其中,所述刚体变换矩阵计算单元采用注册算法以寻找合适的刚体变换矩阵T,且该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
本发明所述的应用于平面型工件的机器人抓取操作中的点云数据匹配方法采用最小化误差方法来估算点云数据和几何模型之间邻对点之间的距离,设计逼近面计算两者与逼近面之间的点的距离,通过迭代计算方法减小点云数据和几何模型的匹配残差,从而确保点云数据能够与几何数据进行较为精确的匹配。
附图说明
图1为本发明机器人抓取操作中的点云数据匹配方法的较佳实施方式的流程图。
图2为本发明机器人抓取操作中的点云数据匹配系统的较佳实施方式的流程图。
具体实施方式
下面结合附图对本发明作进一步说明,但不以任何方式对本发明加以限制,基于本发明教导所作的任何变换,均落入本发明保护范围。
请参考图1所示,本发明所述的一种机器人抓取操作中的点云数据匹配方法,包括以下步骤:
步骤S1、对机器人视觉系统进行标定,建立采集数据与真实场景平面型工件的空间坐标转换关系,需要明确的是该映射存在匹配误差ε。
步骤S2、采用注册算法寻找合适的刚体变换矩阵T,该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
步骤S3、建立邻对点与逼近面之间的距离误差公式,该公式表示如下:
其中,εα为最小误差,αqi为点云数据,ρi为初始点云数据,d为邻对点之间的距离,此处采用邻对点的平方距离是以假设该距离是点云数据和几何模型与其地面之间距离的精确逼近为前提的。
步骤S4、假设在平面型工件上存在一点p,p=(x y)是属于xy平面内的一点,假设存在函数其中x,y表示点p的坐标值,x表示与x值相关的对称矩阵,该函数近似等于误差εa。将此问题转化为寻找围绕原点旋转θ角度、且包含平移向量t=[txty]刚性变换,使得函数F(x)取值最小。
步骤S5、对函数F(x)进行线性化转换,当旋转角度θ足够小时,取sinθ=θ,cosθ=1,则有误差函数:
其中,ε(θ,tx,ty)表示变换数据与原始数据之间的残差,i表示当前点云数,m表示点云总数,xi表示本地点云的横坐标,θyi表示纵方向的导数,tx表示变换向量,θxi表示纵轴方向的导数,yi表示本地点云的纵坐标,σx表示与x相关的对称矩阵,因此迭代计算中,需要求出θ,tx,ty的值,最小化点云数据和几何模型之间的残差,从而确保点云数据和几何模型之间实现较为精确的位置和姿态匹配,获得刚体变换矩阵T。
步骤S6、对海量点云数据进行筛选,计算平面型工件的质心位置M,计算方法如下:
其中,ri表示图像像素的横坐标,Ii表示图像的在I点上的灰度值,ci表示图像像素的纵坐标,(r,c)为计算出的平面型工件的质心坐标,通过刚体变换矩阵T,将其进行变换后作为夹爪的末端中心位置进行抓取操作。
本发明所述的应用于平面型工件的机器人抓取操作中的点云数据匹配方法采用最小化误差方法来估算点云数据和几何模型之间邻对点之间的距离,设计逼近面计算两者与逼近面之间的点的距离,通过迭代计算方法减小点云数据和几何模型的匹配残差,从而确保点云数据能够与几何数据进行较为精确的匹配。
请继续参考图2所示,为本发明所述的一种机器人抓取操作中的点云数据匹配系统。所述应用于平面型工件的机器人抓取操作中的点云数据匹配系统包括坐标标定单元1、刚体变换矩阵计算单元2、距离误差计算单元3、最小取值处理单元4、刚体变换矩阵获取单元5及末端中心位置计算单元6。
所述坐标标定单元1用于对机器人视觉系统进行标定,以建立采集数据与真实场景平面型工件的空间坐标转换关系。需要明确的是,本实施方式中,该映射存在匹配误差ε。
所述刚体变换矩阵计算单元2用于建立刚体变换矩阵T。本实施方式中,采用注册算法以寻找合适的刚体变换矩阵T,且该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
所述距离误差计算单元3用于建立邻对点与逼近面之间的距离误差公式,以计算得到邻对点与逼近面之间的距离误差。
所述刚体变换矩阵获取单元5用于对函数F(x)进行线性化转换,以得到误差函数,进而得到刚体变换矩阵T。
所述末端中心位置计算单元6用于对海量点云数据进行筛选,以计算得到平面型工件的质心位置M,并结合前述得到的刚体变换矩阵T,将其进行变化后得到夹爪的末端中心位置。
以上所述仅为本发明的优选实施例,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的相关技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,其中所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种机器人抓取操作中的点云数据匹配方法,其特征在于:所述机器人抓取操作中的点云数据匹配方法包括:
步骤S1:建立采集数据与真实场景平面型工件的空间坐标转换关系;
步骤S2:寻找刚体变换矩阵T;
步骤S5:对函数F(x)进行线性化转化,以得到误差函数其中,ε(θ,tx,ty)表示变换数据与原数据之间的残差,i表示当前点云数,m表示点云总数,xi表示本地点云的横坐标,θyi表示纵轴方向的导数,tx表示变换向量,θxi表示横轴方向的导数,yi表示本地点云的纵坐标,σx表示与x相关的对称矩阵,进而得到刚体变换矩阵T;
步骤S6:对海量点云数据进行筛选,以计算平面型工件的质心位置M,计算方法为:
2.如权利要求1所述的机器人抓取操作中的点云数据匹配方法,其特征在于:所述步骤S1中,所述空间坐标转换关系之间存在匹配误差ε。
3.如权利要求1所述的机器人抓取操作点中的点云数据匹配方法,其特征在于:所述步骤S2中,所述刚体矩阵T包含旋转矩阵R和平移矩阵t。
4.如权利要求1所述的机器人抓取操作点中的点云数据匹配方法,其特征在于:所述步骤S3中,以假设距离是点云数据和几何模型与其地面之间距离的精确逼近为前提。
5.一种机器人抓取操作点中的点云数据匹配系统,其特征在于:所述机器人抓取操作点中的点云数据匹配系统包括坐标标定单元、刚体变换矩阵计算单元、距离误差计算单元、最小取值处理单元、刚体变换矩阵获取单元及末端中心位置计算单元;所述坐标标定单元用于对机器人视觉系统进行标定,以建立采集数据与真实场景平面型工件的空间坐标转换关系;所述刚体变换矩阵计算单元用于建立刚体变换矩阵T;所述距离误差计算单元用于建立邻对点与逼近面之间的距离误差公式,以计算得到邻对点与逼近面之间的距离误差;所述最小取值处理单元用于使得函数F(x)取值最小,其中函数F(x)的公式为所述刚体变换矩阵获取单元用于对函数F(x)进行线性化转换,以得到误差函数,进而得到刚体变换矩阵T;所述末端中心位置计算单元用于对海量点云数据进行筛选,以计算得到平面型工件的质心位置M,并结合前述得到的刚体变换矩阵T,将其进行变换后得到夹爪的末端中心位置。
6.如权利要求5所述的机器人抓取操作点中的点云数据匹配系统,其特征在于:所述刚体矩阵计算单元采用注册算法以寻找合适的刚体变换矩阵T,且该刚体变换矩阵T包含旋转矩阵R和平移矩阵t。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010370273.0A CN111612847B (zh) | 2020-04-30 | 2020-04-30 | 机器人抓取操作的点云数据匹配方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010370273.0A CN111612847B (zh) | 2020-04-30 | 2020-04-30 | 机器人抓取操作的点云数据匹配方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111612847A true CN111612847A (zh) | 2020-09-01 |
CN111612847B CN111612847B (zh) | 2023-10-20 |
Family
ID=72201804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010370273.0A Active CN111612847B (zh) | 2020-04-30 | 2020-04-30 | 机器人抓取操作的点云数据匹配方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111612847B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114918928A (zh) * | 2022-07-22 | 2022-08-19 | 杭州柳叶刀机器人有限公司 | 手术机械臂精准定位方法、装置、控制终端及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150015602A1 (en) * | 2013-07-10 | 2015-01-15 | Cognex Corporation | System and method for selective determination of point clouds |
CN106447708A (zh) * | 2016-10-10 | 2017-02-22 | 吉林大学 | 一种oct眼底图像数据配准方法 |
CN106546168A (zh) * | 2016-09-29 | 2017-03-29 | 上海航天精密机械研究所 | 基于球拟合的单轴激光扫描机器人精确标定方法及系统 |
CN106780459A (zh) * | 2016-12-12 | 2017-05-31 | 华中科技大学 | 一种三维点云数据自动配准方法 |
US20170193312A1 (en) * | 2014-03-27 | 2017-07-06 | Georgia Tech Research Corporation | Systems and Methods for Identifying Traffic Control Devices and Testing the Retroreflectivity of the Same |
CN108161936A (zh) * | 2017-12-26 | 2018-06-15 | 中科新松有限公司 | 优化的机器人标定方法及装置 |
CN108335291A (zh) * | 2018-01-24 | 2018-07-27 | 上海岩土工程勘察设计研究院有限公司 | 一种隧道病害影像预处理方法 |
CN108376408A (zh) * | 2018-01-30 | 2018-08-07 | 清华大学深圳研究生院 | 一种基于曲率特征的三维点云数据快速加权配准方法 |
CN108549084A (zh) * | 2018-01-30 | 2018-09-18 | 西安交通大学 | 一种基于稀疏二维激光雷达的目标检测与姿态估计方法 |
CN108597016A (zh) * | 2018-04-19 | 2018-09-28 | 西安交通大学 | 基于相关熵的Torr-M-Estimators基础矩阵鲁棒估计方法 |
US20190026943A1 (en) * | 2017-07-20 | 2019-01-24 | Robert Bosch Gmbh | Dense visual slam with probabilistic surfel map |
CN109648558A (zh) * | 2018-12-26 | 2019-04-19 | 清华大学 | 机器人曲面运动定位方法及其运动定位系统 |
CN109784232A (zh) * | 2018-12-29 | 2019-05-21 | 佛山科学技术学院 | 一种融合深度信息的视觉slam回环检测方法及装置 |
CN109919984A (zh) * | 2019-04-15 | 2019-06-21 | 武汉惟景三维科技有限公司 | 一种基于局部特征描述子的点云自动配准方法 |
CN110111414A (zh) * | 2019-04-10 | 2019-08-09 | 北京建筑大学 | 一种基于三维激光点云的正射影像生成方法 |
-
2020
- 2020-04-30 CN CN202010370273.0A patent/CN111612847B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150015602A1 (en) * | 2013-07-10 | 2015-01-15 | Cognex Corporation | System and method for selective determination of point clouds |
US20170193312A1 (en) * | 2014-03-27 | 2017-07-06 | Georgia Tech Research Corporation | Systems and Methods for Identifying Traffic Control Devices and Testing the Retroreflectivity of the Same |
CN106546168A (zh) * | 2016-09-29 | 2017-03-29 | 上海航天精密机械研究所 | 基于球拟合的单轴激光扫描机器人精确标定方法及系统 |
CN106447708A (zh) * | 2016-10-10 | 2017-02-22 | 吉林大学 | 一种oct眼底图像数据配准方法 |
CN106780459A (zh) * | 2016-12-12 | 2017-05-31 | 华中科技大学 | 一种三维点云数据自动配准方法 |
US20190026943A1 (en) * | 2017-07-20 | 2019-01-24 | Robert Bosch Gmbh | Dense visual slam with probabilistic surfel map |
CN108161936A (zh) * | 2017-12-26 | 2018-06-15 | 中科新松有限公司 | 优化的机器人标定方法及装置 |
CN108335291A (zh) * | 2018-01-24 | 2018-07-27 | 上海岩土工程勘察设计研究院有限公司 | 一种隧道病害影像预处理方法 |
CN108549084A (zh) * | 2018-01-30 | 2018-09-18 | 西安交通大学 | 一种基于稀疏二维激光雷达的目标检测与姿态估计方法 |
CN108376408A (zh) * | 2018-01-30 | 2018-08-07 | 清华大学深圳研究生院 | 一种基于曲率特征的三维点云数据快速加权配准方法 |
CN108597016A (zh) * | 2018-04-19 | 2018-09-28 | 西安交通大学 | 基于相关熵的Torr-M-Estimators基础矩阵鲁棒估计方法 |
CN109648558A (zh) * | 2018-12-26 | 2019-04-19 | 清华大学 | 机器人曲面运动定位方法及其运动定位系统 |
CN109784232A (zh) * | 2018-12-29 | 2019-05-21 | 佛山科学技术学院 | 一种融合深度信息的视觉slam回环检测方法及装置 |
CN110111414A (zh) * | 2019-04-10 | 2019-08-09 | 北京建筑大学 | 一种基于三维激光点云的正射影像生成方法 |
CN109919984A (zh) * | 2019-04-15 | 2019-06-21 | 武汉惟景三维科技有限公司 | 一种基于局部特征描述子的点云自动配准方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114918928A (zh) * | 2022-07-22 | 2022-08-19 | 杭州柳叶刀机器人有限公司 | 手术机械臂精准定位方法、装置、控制终端及存储介质 |
CN114918928B (zh) * | 2022-07-22 | 2022-10-28 | 杭州柳叶刀机器人有限公司 | 手术机械臂精准定位方法、装置、控制终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111612847B (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111775146B (zh) | 一种工业机械臂多工位作业下的视觉对准方法 | |
CN111775152B (zh) | 基于三维测量引导机械臂抓取散乱堆叠工件的方法及系统 | |
CN110014426B (zh) | 一种利用低精度深度相机高精度抓取形状对称工件的方法 | |
KR101857472B1 (ko) | 카메라 보정 방법 및 이에 대한 시스템 | |
CN107300382B (zh) | 一种用于水下机器人的单目视觉定位方法 | |
CN112907735B (zh) | 一种基于点云的柔性电缆识别与三维重建方法 | |
JP2012026895A (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
CN113103235B (zh) | 一种基于rgb-d图像对柜体表面设备进行垂直操作的方法 | |
CN113256718B (zh) | 定位方法和装置、设备及存储介质 | |
CN113379849A (zh) | 基于深度相机的机器人自主识别智能抓取方法及系统 | |
CN114474056B (zh) | 一种面向抓取操作的单目视觉高精度目标定位方法 | |
CN112109072B (zh) | 一种大型稀疏特征托盘精确6d位姿测量和抓取方法 | |
CN110570474A (zh) | 一种深度相机的位姿估计方法及系统 | |
CN114022551A (zh) | 一种燃油车加油盖精确识别与位姿估计的方法 | |
CN110363801B (zh) | 工件实物与工件三维cad模型的对应点匹配方法 | |
CN116079734A (zh) | 一种基于双视觉检测的协作机器人的装配控制系统及方法 | |
CN111612847A (zh) | 机器人抓取操作的点云数据匹配方法及系统 | |
CN113103238A (zh) | 一种基于数据优化的手眼标定方法 | |
CN110428457B (zh) | 一种视觉定位中的点集仿射变换算法 | |
Kim et al. | Structured light camera base 3D visual perception and tracking application system with robot grasping task | |
Feng et al. | A matrix-solving hand-eye calibration method considering robot kinematic errors | |
CN112378383B (zh) | 基于圆和线特征非合作目标相对位姿双目视觉测量方法 | |
Kheng et al. | Stereo vision with 3D coordinates for robot arm application guide | |
CN114022541B (zh) | 一种光学单站姿态处理二义性正确解确定方法 | |
Wang et al. | A Pose Estimation and Optimization Method for Mobile Manipulator’s End-effectors Based on Stereo Vision and ICoP Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230919 Address after: 434000, No. 8, Development Avenue, Hongcheng Rural Economic Development Zone, Jianli City, Jingzhou City, Hubei Province (self declared) Applicant after: Hubei Huangchao Intelligent Automation Equipment Co.,Ltd. Address before: 401120 Yubei District, Chongqing Shuangfeng bridge airport development zone, Xiangyu Road, No. 15, 2. Applicant before: Chongqing Jianmang Information Technology Consulting Service Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |