CN109767416B - 机械设备的定位系统及方法 - Google Patents

机械设备的定位系统及方法 Download PDF

Info

Publication number
CN109767416B
CN109767416B CN201711280417.8A CN201711280417A CN109767416B CN 109767416 B CN109767416 B CN 109767416B CN 201711280417 A CN201711280417 A CN 201711280417A CN 109767416 B CN109767416 B CN 109767416B
Authority
CN
China
Prior art keywords
mechanical
relationship
image unit
dimensional
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711280417.8A
Other languages
English (en)
Other versions
CN109767416A (zh
Inventor
施志轩
吴光俞
黎尚昆
黄苏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of CN109767416A publication Critical patent/CN109767416A/zh
Application granted granted Critical
Publication of CN109767416B publication Critical patent/CN109767416B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

一种机械设备的定位系统,应用于机械手臂,此定位系统包括至少一影像单元,用于取得一机械设备的深度信息或三维点云或三维网格;以及一处理单元,用于接收所述深度信息,并以一算法重合所述深度信息与所述机械设备的三维向量信息或三维图形档案或三维点云,取得一转换关系,再根据所述转换关系及机械手臂与影像单元的一位置关系,计算取得机械手臂与机械设备的一空间关系,最后再根据所述空间关系产生机械手臂的一动作路径。

Description

机械设备的定位系统及方法
技术领域
本发明涉及一种定位系统及方法,尤其涉及一种以机械手臂配合深度摄影机对各式机械设备的定位系统及其方法。
背景技术
当前在安排各式机械设备配合机械手臂的加工作业时,其加工或动作路径的建立与模拟等,往往以人工方式长时间进行逐步教导,不仅需要专业知识与经验,也耗费时间,严重影响生产进程。即使完成了生产前置作业,但在实际执行时却仍有缺失,例如模拟结果与实际状况不一致或误差过大时,或当机械设备、工件更动或磨耗后,将使得先前已规划完成的路径或点位完全失效。
因此如何建立快速且精确的一种系统及其方法,实现以机械手臂对机械设备的定位作业迫切且必要。
发明内容
本发明提供一种机械设备的定位系统及其方法,适用于决定一机械手臂相对于至少一机械设备之间的空间关系,该系统包括有至少一影像单元与一处理单元。影像单元装设于该机械手臂上或其他位置,用于扫描取得机械设备的深度信息或三维轮廓点云。处理单元接收该深度信息,以一算法重合该深度信息与该机械设备的三维图形信息,而取得一转换关系,再根据转换关系及机械手臂相对于影像单元的一位置关系,产生该空间关系;最后再根据此空间关系,规划或模拟产生一机械手臂的动作路径。
附图说明
图1是本发明一实施例提出的一种机械设备的定位系统的实施图;
图2是本发明一实施例提出的一种机械设备的定位方法的流程图;
图3是图1所示系统的一校正眼在手坐标转换的示意图;
图4是图2所示方法的一取得眼与手位置关系的流程图。
【附图标记说明】
10-影像单元; 11-处理单元;
110-演算模块; 111-储存模块;
112-路径产生模块; 20-机械手臂;
21-机械设备; 22-末端点;
S1~S4-步骤; S1A~S1C-步骤。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
请参阅图1,本发明的一种机械设备的定位系统,例如适用于决定至少一机械设备21,例如是布轮抛光机,与一机械手臂20之间的一空间关系,其主要包含至少一影像单元10与一处理单元11。
影像单元10可为一深度摄影机(depth camera),影像单元10可装设于机械手臂20的末端点22,或所在区域空间中的任一位置上,因此影像单元10与机械手臂20之间将存在一位置关系,例如是在空间中相对位置的一转换矩阵,而影像单元10则用于扫描取得至少一机械设备21的空间深度信息或三维轮廓点云信息,而此信息可代表机械手臂20或影像单元10相对于机械设备21各部位之间的真实距离或姿态。
处理单元11信号连接影像单元10并且控制机械手臂20进行扫描动作,再以一算法重合所扫描的空间深度信息与机械设备21的一向量信息,此向量信息为一三维轮廓设计信息,例如具有精准三维轮廓的图形档案,进而取得一转换关系,此转换关系即是一位置转换矩阵,再根据此转换关系与前述的位置关系,建立机械手臂20与机械设备21的空间关系,此空间关系也是一位置转换矩阵,除可代表真实距离或姿态外,也代表机械设备21相对于机械手臂20的真实轮廓与位置,最后可选择性地再根据此空间关系产生或模拟机械手臂20的一动作路径或一加工路径。
处理单元11在软件上或硬件上主要具有一演算模块110、一储存模块111与一路径产生模块112。演算模块110接收来自影像单元10的空间深度信息或三维点云,以及存放于储存模块112的机械设备21的向量信息或三维图文件,经演算后取得转换关系,及再以转换关系与位置关系建立空间关系。路径产生模块112则依据该空间关系而产生机械手臂20适当的移动或加工路径。
请参阅图2,本发明的一种机械设备的定位方法,主要是由处理单元11通过软硬件方式所主导实施,其步骤包含有:
步骤S1,取得影像单元10与机械手臂20的位置关系。请再参阅图3与图4,该取得位置关系的具体步骤为:
步骤S1A,收集校正点云信息。机械手臂20相对于影像单元10扫描一校正样板或一任意特定对象的多组点云信息,并由影像单元10进行校正。
如图1与图3所示,影像单元10装设于机械手臂20上(眼在手配置),为了进行校正,机械手臂20必须在至少两个位置之间移动或变更姿态,并分别记录对校正样板或对象所扫描到的点云信息,因此将可得到至少一组分别由影像单元10与机械手臂20末端点22在空间位置的转换矩阵A,B;此处A代表不同姿态下影像单元10间的转换矩阵,B则代表不同姿态下机器手臂20末端点22的转换矩阵。
在此步骤中,依据影像单元10放置位置可分为眼在手(eye-in-hand),即放置于机械手臂20上,与眼看手(eye-to-hand),即放置于机械手臂20以外的位置上的两种配置方式。
以眼在手配置而言,将影像单元10放置于机械手臂20的任一位置上,并计算器械手臂20末端点22与影像单元10之间的位置关系。校正方法为机械手臂20在空间中移动任意两个位置,并记录当下机械手臂20坐标系相对于机械手臂20的基底坐标系(Base)的转换矩阵,并记录相对于一外部深度摄影机所拍摄到校正基准面的对象坐标系(Object)的转换矩阵。
步骤S1B,是否完成收集?若未完成收集点云信息,则回到步骤S1A;若完成收集则至步骤S1C。
步骤S1C,计算取得位置关系。以一定义矩阵方程式AX=XB求解X矩阵,此X矩阵即是机械手臂20末端点22相对于影像单元10的位置关系。
因此当建立机械手臂20与影像单元10的坐标几何关系后,即可通过收集大量特定的点云信息与机械手臂20的姿态,以一最小化式的计算器机械手臂20末端点22与影像单元10的空间平移与旋转矩阵,也即是上述的位置关系。本发明例如利用莱文贝格-马夸特(Levenberg-Marquardt)算法进行空间平移与旋转矩阵参数的推估。
步骤S2,取得机械设备的空间深度信息。处理单元11控制机械手臂20以令影像单元10扫描机械设备21,以取得其三维轮廓点云或三维网格的空间深度信息;此深度信息代表此时此处影像单元10相对于机械设备21局部的真实距离或姿态。
若更进一步论述,影像单元10随机械手臂20对机械设备21或目标机台外表轮廓快速移动扫描,而取得机械设备21的局部三维点云信息,以作为重合完整同型设备的向量信息或计算机辅助设计(以下简称为CAD)模型的算法输入数据。
在此步骤中,若无完整同型设备的CAD模型数据或向量信息,可在此步骤中先对机械设备21进行完整且精确的深度扫描,以取得完整的三维轮廓点云信息,以替代作为后续演算重合与路径规划参考模型的依据。
步骤S3,计算转换关系以取得空间关系。将机械设备21的完整CAD模型或向量信息或三维点云,以一算法重合经扫描所得的三维点云或网格的深度信息,举例使用叠代最近点(Iterative Closest Point,以下简称ICP)算法进行校正对位以得出一转换关系。
本实施例的以机械设备21的三维轮廓点云或深度信息,重合完整CAD模型或向量信息的算法,在实施前需从影像单元10扫描取得机械设备21的三维点云或深度信息,随后在处理单元11的演算模块110中进行与完整机械设备21的CAD模型相重合,重合操作需先设定完整机械设备21的CAD模型作为目标数据,实际扫描的机械设备21点云信息设定为源数据,该两群数据所形成的点集分别为P、Q,其步骤如下:
1、分别计算点集P、Q的重心(Center of mass)。
2、将点集差异转换为交叉共变异数矩阵(Cross-covariance matrix)∑pq
3、根据∑pq产生对称矩阵(Symmetric matrix)Q(∑pq)。
4、求解对称矩阵Q(∑pq)得到最大特征值与其对应的特征向量(w,m,n,p),此特征向量与四元素向量
Figure BDA0001496605590000051
对应。
5、产生三维空间的旋转矩阵
Figure BDA0001496605590000052
6、计算取得平移向量
Figure BDA0001496605590000053
最终以叠代方式及限定次数或误差下产生位置转换矩阵,也即是上述的转换关系。
7、以位置关系与转换关系的矩阵乘积取得空间关系;其中位置关系、转换关系与空间关系均为4乘4的位置转换矩阵。
在另一实施例中,若影像单元10所撷取到的点云信息具有空间与色彩信息,则可利用色彩信息强化原有实际设备点云信息,重合完整设备CAD模型算法,例如采用k-d tree(k-dimension tree,k-维树)数据结构来加速邻近点数据搜寻,使原先算法能使用较少的叠代次数即可达到收敛效果。常用来计算色彩距离的方式举例有欧式距离(Euclideandistance)与马式距离(Mahalanobis distance)。
步骤S4,产生机械手臂动作路径。举例利用机械手臂运动模拟以进行奇点(singularity)、各轴极限与几何干涉检查。并通过整合而产生实际有效的移动或加工路径。
以上以布轮抛光机为例,通过设定相关的刀具坐标转换与补偿、研磨设备的位置与研磨接触点设定后,所产生的研磨路径可通过仿真器进行仿真。在模拟过程中会检查是否产生关节极限、干涉碰撞等,若发生上述状况,系统将会发出警告信息通知用户,并修正研磨路径。
本发明的实施例通过步骤S1~S3即可完成机械设备相对于机械手臂的定位或姿态确定,而步骤S4则可为选择性地再依据工程计划进行安排。
综上所述,本发明以安装于机械手臂20上的影像单元10取得机械设备21的深度信息或三维点云,再与既有的机械设备21或同型机台的三维图形档案或向量信息进行重合,以取得之间的转换关系,再根据机械手臂20与影像单元10之间的位置关系,最终计算取得机械手臂20相对于机械设备21间的空间关系,使得真实但局部的设备三维点云与精确且完整的设备三维图形得以相重合,以完成当时彼此姿态的确定而便于调整或安排后续的加工或动作路径。
在生产厂商方面,本发明可使生产厂商快速自动的生成有效路径,降低调机教导的时间,以及通过扫描补偿路径应对布轮磨耗。
在系统厂商方面,本发明可提供系统厂商完整的系统流程,若有CAD模型数据,本发明可估测设备姿态;若无CAD模型,本发明可重建设备的三维模型。
在仿真软件厂商方面,本发明可提供仿真软件厂商虚实校正扩充与方法,并成为计算机辅助绘图软件的第三方软件。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种机械设备的定位系统,应用于一机械手臂,所述定位系统包括:
至少一影像单元,用于取得一机械设备的深度信息,所述影像单元装设于所述机械手臂上,所述机械设备包括布轮抛光机;以及
一处理单元,用于接收所述深度信息,并以一算法重合所述深度信息与所述机械设备的一向量信息,而取得一转换关系,再根据所述转换关系与一位置关系,取得一空间关系;
其中,所述深度信息包括三维点云或三维网格之一,所述向量信息包括所述机械设备的三维计算机图形档案或三维点云之一;
其中:
所述转换关系为一位置转换矩阵;
所述位置关系是所述影像单元与所述机械手臂的一末端点之间的一位置转换矩阵;以及
所述空间关系为所述转换关系与所述位置关系的矩阵乘积。
2.根据权利要求1所述的机械设备的定位系统,其中,所述影像单元为一深度摄影机。
3.根据权利要求1所述的机械设备的定位系统,其中,所述处理单元还包括:
一演算模块,用于执行所述算法:
一储存模块,用于储存所述向量信息;以及
一路径产生模块,用于产生所述机械手臂的一动作路径。
4.根据权利要求1所述的机械设备的定位系统,其中,所述算法是叠代最近点(Iterative Closest Point,ICP)算法。
5.一种机械设备的定位方法,应用于一机械手臂并由一处理单元所执行,所述定位方法包括以下步骤:
接收由一影像单元所取得的一机械设备的深度信息,所述影像单元装设于所述机械手臂上,所述机械设备包括布轮抛光机;
根据所述深度信息与所述机械设备的一向量信息,以一算法取得一转换关系;
根据所述转换关系与一位置关系,再取得一空间关系;
其中,所述深度信息包括三维点云或三维网格之一,所述向量信息包括所述机械设备的三维计算机图形档案或三维点云之一;
其中:
所述转换关系为一位置转换矩阵;
所述位置关系是所述影像单元与所述机械手臂的一末端点之间的一位置转换矩阵;以及
所述空间关系为所述转换关系与所述位置关系的矩阵乘积。
6.根据权利要求5所述的机械设备的定位方法,其中,所述算法是迭代最近点(Iterative Closest Point,ICP)算法。
7.根据权利要求5所述的机械设备的定位方法,其中,在取得所述空间关系步骤之后还包括:
根据所述空间关系,产生所述机械手臂的一动作路径。
CN201711280417.8A 2017-11-03 2017-12-06 机械设备的定位系统及方法 Active CN109767416B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW106138185 2017-11-03
TW106138185A TWI672207B (zh) 2017-11-03 2017-11-03 機械設備之定位系統及其方法

Publications (2)

Publication Number Publication Date
CN109767416A CN109767416A (zh) 2019-05-17
CN109767416B true CN109767416B (zh) 2021-12-28

Family

ID=66327416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711280417.8A Active CN109767416B (zh) 2017-11-03 2017-12-06 机械设备的定位系统及方法

Country Status (3)

Country Link
US (1) US10540779B2 (zh)
CN (1) CN109767416B (zh)
TW (1) TWI672207B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2571528A (en) * 2018-02-28 2019-09-04 Rolls Royce Plc Controlling a robot in an environment
US11049282B2 (en) * 2019-02-28 2021-06-29 Intelligrated Headquarters, Llc Vision calibration system for robotic carton unloading
CN110455189B (zh) * 2019-08-26 2021-04-06 广东博智林机器人有限公司 一种大尺寸物料的视觉定位方法和搬运机器人
CN113119103B (zh) 2019-12-31 2022-10-14 深圳富泰宏精密工业有限公司 确定标记物的深度标准值的方法、计算机装置
US11967063B2 (en) 2020-03-30 2024-04-23 Industrial Technology Research Institute Automatic bio-specimen inspection system and inspection method thereof
TWI756996B (zh) * 2020-03-30 2022-03-01 財團法人工業技術研究院 生物檢體自動採檢系統及其採檢方法和非揮發性電腦可讀記錄媒體
KR102525281B1 (ko) * 2020-11-12 2023-04-25 네이버랩스 주식회사 이미지 기반 측위 방법 및 시스템
CN113344769A (zh) * 2021-04-20 2021-09-03 梅卡曼德(北京)机器人科技有限公司 基于机器视觉的物品3d图像信息获取方法、装置、介质
US11717974B1 (en) * 2022-06-10 2023-08-08 Sanctuary Cognitive Systems Corporation Haptic photogrammetry in robots and methods for operating the same

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5471541A (en) * 1993-11-16 1995-11-28 National Research Council Of Canada System for determining the pose of an object which utilizes range profiles and synethic profiles derived from a model
GB0130986D0 (en) * 2001-12-27 2002-02-13 Prophet Control Systems Ltd Programming robots with offline design
TW200807198A (en) 2006-07-25 2008-02-01 China Steel Corp Three-dimensional alignment method for automated material taking
TW200930523A (en) 2008-01-11 2009-07-16 Han-Pang Huang 7 degrees of freedom humanoid robot arm (including a gripper)
JP4347386B2 (ja) 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
TWI438396B (zh) 2009-05-15 2014-05-21 Hon Hai Prec Ind Co Ltd 三座標測量機編程系統及方法
TWI493506B (zh) * 2009-06-09 2015-07-21 Univ Nat Taiwan 三維指標裝置及三維指標裝置定位方法
JP5627325B2 (ja) * 2010-07-23 2014-11-19 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
EP2602588A1 (en) * 2011-12-06 2013-06-12 Hexagon Technology Center GmbH Position and Orientation Determination in 6-DOF
US9463574B2 (en) * 2012-03-01 2016-10-11 Irobot Corporation Mobile inspection robot
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
US9043069B1 (en) * 2012-11-07 2015-05-26 Google Inc. Methods and systems for scan matching approaches for vehicle heading estimation
US9186795B1 (en) 2013-06-24 2015-11-17 Redwood Robotics, Inc. Programming and execution of force-based tasks with torque-controlled robot arms
ES2623005T3 (es) 2013-07-01 2017-07-10 Getting Robotika S.L. Célula robotizada, instalación y método para eliminar rebabas de piezas
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
CN104484522B (zh) * 2014-12-11 2017-10-27 西南科技大学 一种基于现实场景的机器人模拟演练系统的构建方法
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
CN105643399B (zh) 2015-12-29 2018-06-26 沈阳理工大学 基于柔顺控制的机器人复杂曲面自动研抛系统及加工方法
CN106338245B (zh) * 2016-08-15 2019-05-10 南京工业大学 一种工件非接触移动测量方法
TWM540733U (zh) 2016-10-14 2017-05-01 Leader Automation Co Ltd 應用於機械手臂之立體掃描加工系統
CN106600681B (zh) 2016-11-02 2023-07-11 上海航天设备制造总厂 一种有障碍物曲面的打磨方法
CN106671084B (zh) * 2016-12-20 2019-11-15 华南理工大学 一种基于脑机接口的机械臂自主辅助方法
CN107175660B (zh) * 2017-05-08 2019-11-29 同济大学 一种基于单目视觉的六自由度机器人运动学标定方法
US10600203B2 (en) * 2017-06-06 2020-03-24 CapSen Robotics, Inc. Three-dimensional scanner with detector pose identification

Also Published As

Publication number Publication date
TW201918348A (zh) 2019-05-16
US10540779B2 (en) 2020-01-21
CN109767416A (zh) 2019-05-17
TWI672207B (zh) 2019-09-21
US20190139255A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
CN109767416B (zh) 机械设备的定位系统及方法
CN107127755B (zh) 一种三维点云的实时采集装置及机器人打磨轨迹规划方法
CN109397282A (zh) 机械手臂加工方法、系统及计算机可读取纪录媒体
CN110125455B (zh) 一种用于机器人钻孔中优化钻头位姿的方法
CN110553600B (zh) 一种用于工件检测的结构光传感器仿真激光线的生成方法
JP2004213332A (ja) キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具
JP2014063475A (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
CN112862878B (zh) 一种基于3d视觉的机械臂修坯方法
CN113379849A (zh) 基于深度相机的机器人自主识别智能抓取方法及系统
CN110363801B (zh) 工件实物与工件三维cad模型的对应点匹配方法
CN115284292A (zh) 基于激光相机的机械臂手眼标定方法及装置
CN116766194A (zh) 基于双目视觉的盘类工件定位与抓取系统和方法
CN114494312A (zh) 训练从对象图像中识别对象的对象拓扑的机器学习模型的设备和方法
CN112700505A (zh) 一种基于双目三维跟踪的手眼标定方法、设备及存储介质
CN116309879A (zh) 一种机器人辅助的多视角三维扫描测量方法
WO2023061695A1 (en) Method and apparatus for hand-eye calibration of robot
JP2007034964A (ja) カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム
Shih et al. Grinding complex workpiece surface based on cyber-physical robotic systems
Kana et al. Robot-sensor calibration for a 3D vision assisted drawing robot
WO2020133882A1 (zh) 一种机器人应用于再现机加工的方法
JP2017116404A (ja) 形状認識装置、及び形状認識方法
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
Liu et al. Set space visual servoing of a 6-dof manipulator
CN112800582B (zh) 一种结构光视觉传感器仿真激光线生成方法
CN115570562B (zh) 机器人装配位姿确定方法、装置、机器人及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant