CN109397282A - 机械手臂加工方法、系统及计算机可读取纪录媒体 - Google Patents

机械手臂加工方法、系统及计算机可读取纪录媒体 Download PDF

Info

Publication number
CN109397282A
CN109397282A CN201711420259.1A CN201711420259A CN109397282A CN 109397282 A CN109397282 A CN 109397282A CN 201711420259 A CN201711420259 A CN 201711420259A CN 109397282 A CN109397282 A CN 109397282A
Authority
CN
China
Prior art keywords
mechanical arm
processing
dimensional model
model information
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711420259.1A
Other languages
English (en)
Other versions
CN109397282B (zh
Inventor
黄孝维
林伯聪
邹嘉骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Utechzone Co Ltd
Original Assignee
Utechzone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Utechzone Co Ltd filed Critical Utechzone Co Ltd
Publication of CN109397282A publication Critical patent/CN109397282A/zh
Application granted granted Critical
Publication of CN109397282B publication Critical patent/CN109397282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0075Manipulators for painting or coating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C65/00Joining or sealing of preformed parts, e.g. welding of plastics materials; Apparatus therefor
    • B29C65/48Joining or sealing of preformed parts, e.g. welding of plastics materials; Apparatus therefor using adhesives, i.e. using supplementary joining material; solvent bonding
    • B29C65/52Joining or sealing of preformed parts, e.g. welding of plastics materials; Apparatus therefor using adhesives, i.e. using supplementary joining material; solvent bonding characterised by the way of applying the adhesive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C66/00General aspects of processes or apparatus for joining preformed parts
    • B29C66/80General aspects of machine operations or constructions and parts thereof
    • B29C66/84Specific machine types or machines suitable for specific applications
    • B29C66/863Robotised, e.g. mounted on a robot arm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C66/00General aspects of processes or apparatus for joining preformed parts
    • B29C66/90Measuring or controlling the joining process
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B53/00Golf clubs
    • A63B53/04Heads
    • A63B53/0466Heads wood-type
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16BDEVICES FOR FASTENING OR SECURING CONSTRUCTIONAL ELEMENTS OR MACHINE PARTS TOGETHER, e.g. NAILS, BOLTS, CIRCLIPS, CLAMPS, CLIPS OR WEDGES; JOINTS OR JOINTING
    • F16B11/00Connecting constructional elements or machine parts by sticking or pressing them together, e.g. cold pressure welding
    • F16B11/006Connecting constructional elements or machine parts by sticking or pressing them together, e.g. cold pressure welding by gluing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39391Visual servoing, track end effector with camera image feedback
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/41Tool
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种基于三维图像的机械手臂加工方法、系统及计算机可读取纪录媒体。加工方法包括:提供机械手臂的三维模型信息与加工环境的三维模型信息;获得工件的三维模型信息,并根据工件的三维模型信息,产生由多个接触点所形成的加工路径,其中机械手臂的自由端根据加工路径而移动,以完成加工程序;根据机械手臂的自由端对应任一个接触点之间的关系,产生机械手臂的移动姿态候选组;自移动姿态候选组,选择实际移动姿态;根据实际移动姿态,移动机械手臂的自由端至对应的任一个接触点;以及根据多个实际移动姿态,机械手臂的自由端移动于加工路径,以完成加工程序。

Description

机械手臂加工方法、系统及计算机可读取纪录媒体
技术领域
本发明涉及一种加工方法、系统及计算机可读取纪录媒体,尤其涉及一种基于三维图像的机械手臂加工方法、系统及计算机可读取纪录媒体。
背景技术
代工业中许多的加工步骤都是单一且重复施做的。目前逐渐以机械方式取代人力,利用机台执行加工有助于提升产品的产量及减少人力支出等。此外,通过程序控制加工路径,可减轻使用人力加工时的不确定性,因而机台加工的运用成为各类产品生产过程中的较佳选择。
在现行的机台加工时,如点胶加工设备的加工路径,通常是由工程师设计而成。假若加工路径单纯,像是直线移动或仅是翻转单一角度,则加工路径程序的程序设计较为简单。然而,复杂的加工路径,例如不规则弧线移动或是不规则图形移动,加工路径程序设计比较困难。
此外,对于加工机台来说,在执行加工时,主要是通过控制机械手臂将工件移动至待加工位置,此时假若因为制造的可容忍公差使得同一个款式的每一个单一工件可能都会有些微的差异,或者是机械手臂夹取工件所造成的工件相对于机械手臂的距离或角度的偏差,都会影响加工结果。
发明内容
本发明提供一种能够提升组装良率的基于三维图像的机械手臂加工方法、系统及计算机可读取纪录媒体。
本发明的一种基于三维图像的机械手臂加工方法,利用机械手臂于加工环境内对至少一工件进行加工程序。所述加工方法至少包括下列步骤:提供机械手臂的三维模型信息与加工环境的三维模型信息;获得工件的三维模型信息,并根据工件的三维模型信息产生由多个接触点所形成的加工路径,其中机械手臂的自由端根据加工路径而移动以完成加工程序;根据机械手臂的自由端对应任一个接触点之间的关系,产生机械手臂的移动姿态候选组;自移动姿态候选组选择一实际移动姿态;根据实际移动姿态移动机械手臂的自由端至对应的任一个接触点;根据多个实际移动姿态,机械手臂的自由端移动于加工路径,以完成加工程序。
本发明另提供一种基于三维图像的机械手臂加工系统,包括:机械手臂,在加工环境内,对至少一工件进行加工程序;数据库,存储工件的三维模型信息、机械手臂的三维模型信息、加工环境的三维模型信息;以及处理模块,耦合于机械手臂与数据库之间,用以控制机械手臂执行加工程序;其中处理模块根据工件的三维模型信息产生由多个接触点所形成的加工路径,控制机械手臂的自由端根据加工路径而移动,以完成加工程序;其中处理模块根据机械手臂的自由端对应任一个接触点之间的关系,产生机械手臂的移动姿态候选组,并自移动姿态候选组,选择实际移动姿态;其中处理模块根据实际移动姿态,控制机械手臂的自由端移动至对应的任一个接触点;其中处理模块根据多个实际移动姿态控制机械手臂的自由端移动于加工路径,以完成加工程序。
本发明另提供一种计算机可读取纪录媒体,其记录有前述的机械手臂加工方法的程序,当执行所述程序时,可施行使用在基于三维图像的机械手臂加工系统。
基于上述,本发明所提供的基于三维图像的机械手臂加工方法及系统可以进行自动化加工程序,不仅可以达到节省人力,同时还可减免人为错误进而提升组装良率。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合附图作详细说明如下。
附图说明
图1A为第一实施例的基于三维图像的机械手臂加工系统的示意图;
图1B为第一实施例的接触点形成的加工路径的示意图;
图1C为虚拟的3D空间与真实世界坐标系的坐标转换示意图;
图2为第一实施例的基于三维图像的机械手臂加工方法的流程图;
图3为第二实施例的点胶加工设备的示意图;
图4为点胶加工设备的加工方法的流程图;
图5为高尔夫球杆头的壳体在虚拟3D空间中的示意图;
图6为点胶加工设备的另一种实施例的示意图。
附图标记说明
100:机械手臂加工系统;
110:处理模块;
120:机械手臂;
130:数据库;
140:检测装置;
190:工件;
192:接触点特征;
194:接触点;
200:点胶加工设备;
200a:备料区;
200b:置料区;
212:夹持装置;
242:摄像镜头;
250:点胶装置;
260:贴合装置;
270:加工环境;
300、400:壳体;
300a:接触点特征;
300b:接触点;
C、C1、C2、C3、C4、比较点;
S、S1、S2、S3、S4:基准点。
具体实施方式
本发明提供基于三维图像的机械手臂加工方法及系统,通过将真实世界中的加工环境、加工设备等信息输入数据库中以建立出虚拟的3D空间,并且将虚拟的3D空间以及真实世界进行校正,然后在获取真实世界中待加工的工件的3D信息后,并将真实世界中待加工的工件的3D信息输入数据库中并进行计算后,与虚拟的3D空间中的加工设备及加工环境配合后产生加工路径,而使得在真实世界中的机械手臂得以根据在虚拟3D空间中计算出来的加工路径在真实世界中进行加工程序。
[第一实施例]
图1A为第一实施例的基于三维图像的机械手臂加工系统的示意图、图1B为第一实施例的接触点形成的加工路径的示意图,而图2为第一实施例的基于三维图像的机械手臂加工方法的流程图。请同时参考图1A、图1B及图2,基于三维图像的机械手臂加工系统100包括处理模块110、机械手臂120以及数据库130。机械手臂120用于在加工环境内对至少一工件190进行加工程序;数据库130用来存储工件190的三维模型信息、机械手臂120的三维模型信息以及加工环境的三维模型信息;处理模块110电性耦合于机械手臂120与数据库130之间,用来控制机械手臂120执行加工程序。
前述的处理模块110与数据库130可以建置在同一个电子装置(例如,电脑的主机)中,或者数据库130与处理模块110也可以是两个彼此独立的个体,例如数据库130可以是随身硬盘,且随身硬盘可通过媒介以与处理模块110电性连接。
当使用前述的加工系统对工件190进行加工时,至少包含下列步骤S110~步骤S160。
如步骤S110,提供机械手臂120的三维模型信息与加工环境的三维模型信息。
如步骤S120,获得工件190的三维模型信息,其中,获得工件190的三维模型信息可以是处理模块110通过数据库130获得预设的工件190的三维模型信息,或者也可以是通过非接触式的检测装置140,检测工件190轮廓与尺寸所产生的工件190的三维模型信息。工件190可以是任何装置(包含电子装置及非电子装置)的壳体或高尔夫球杆头的壳体…等,只要是需要进行加工的物品,都可能作为本加工系统或加工方法中的工件,并不以本实施例所举的例子为限。在本实施例中,工件190以电子装置的壳体进行说明,此电子装置的壳体呈长方形,且待加工的表面为平面。此外,通过非接触式的检测装置140检测工件190的实施方式可能是使用深度摄影机拍摄工件190的图像,或者是利用3D雷射扫描的方式扫描工件190的轮廓,或者也可以是将深度摄影机与3D雷射扫描两者混合使用。当然,通过非接触式的检测装置140检测工件190的实施方式也并不受本实施例的举例而局限,本领域人员能够依照需求而选用适当的方法。
附带一提,在步骤S110及步骤S120之间,可还包括步骤S112,通过处理模块110校正机械手臂120的三维模型信息与加工环境的三维模型信息两者在真实世界坐标系的误差。
前述的校正是指处理模块110在机械手臂120的三维模型信息与加工环境的三维模型信息中,选择至少一个校正点坐标位置信息,而处理模块110根据至少一个校正点坐标位置信息,使机械手臂120的自由端移动至真实世界坐标系上的对应坐标位置,处理模块110比较至少一个校正点位置信息与对应坐标位置。
请参考图1C,图1C左边为真实世界中的机械手臂,而图1C右边为虚拟的3D空间中的机械手臂。详细而言,在真实世界的机械手臂上选取至少一基准点S,获得该基准点S的三维信息,并且在虚拟世界的机械手臂对应该基准点S的位置处取得比较点C,并且获取比较点C的三维模型信息。然后,将比较点C的三维模型信息与基准点S的三维信息进行比较,以获取真实世界与虚拟的3D空间的转换系数。通过此转换系数,可以将三维模型信息转换为真实世界的三维信息,使虚拟的3D空间中的组件能够与真实世界的相同的组件匹配。当然,通过转换系数也可以将真实世界的三维信息转换为虚拟的3D空间中的三维信息模型。
特别的是,更将虚拟的3D空间中的机械手臂的加工姿态及移动路径与真实世界中的机械手臂作进一步的校正。详细而言,操作真实世界中的机械手臂,使其自由端任意移动至真实世界中的四个基准点S1、S2、S3及S4,并将此四个基准点S1、S2、S3及S4映射至虚拟的3D空间中形成比较点C1、C2、C3及C4,并且获得比较点C1、C2、C3及C4的三维模型信息。在真实世界中的机械手臂的自由端移动的同时,纪录自由端的移动姿态及路径。接着,依照真实世界的机械手臂的自由端移动至基准点S1、S2、S3及S4的顺序,使虚拟的3D空间中的机械手臂的自由端移动至比较点C1、C2、C3及C4,同时纪录虚拟的3D空间中的机械手臂的自由端的移动姿态及路径,并且与真实世界中的机械手臂的移动姿态及路径相比较,找出两者间的误差并校正。
之后,将结果回传至处理模块110,由处理模块110进行计算及调整,以使虚拟的3D空间中的机械手臂的加工姿态及移动路径与真实世界中的机械手臂的加工姿态及移动路径能够同步。此处所指的同步主要是指在真实世界以及虚拟的3D空间中的机械手臂的自由端以相同的姿态沿着相同的路径移动,并非局限在相同的时间作相同的事情,也可以是在不同的时间完成相同的任务。简单地说,即是可以通过在虚拟的3D空间中设定加工程序,然后可以指定在预设的时间使真实世界中的加工系统才进行加工程序。
此外,在步骤S120之后,可还包括步骤S122,处理模块110根据工件的三维模型信息检测至少一个接触点特征192,以建立多个接触点194的位置,并产生由多个接触点194所形成的加工路径,机械手臂120受到处理模块110的驱动之后,机械手臂120的自由端可根据加工路径而移动,如图1C示。附带一提,接触点可以相同的间隔排列,或以不同的间隔排列,依照需求而决定。
接着请继续参考图1A、图1B及图1C,如步骤S130,处理模块110根据机械手臂120的自由端与相对应的任一个接触点194之间的关系,产生机械手臂120的移动姿态候选组。所述移动姿态候选组是指加工过程中,机械手臂120从一处移动到另一处,并且完成加工程序的所有可能路径所对应的机械手臂姿态。
如步骤S140,自移动姿态候选组中选择实际移动姿态。确切而言,处理模块110根据移动姿态候选组产生对应的机械手臂120的三维姿态模型候选组,且根据移动姿态候选组、三维姿态模型候选组以及加工环境的三维模型信息,自移动姿态候选组中删除造成机械手臂120与环境空间相互干涉的移动姿态,并且自未相互干涉的移动姿态候选组中,选择对机械手臂120的轴角度产生最小偏移量的移动姿态。
详细地说,在处理模块110计算出机械手臂120移动到加工位置的多条移动路径时,需要将机械手臂120的型态、轮廓或尺寸考量进去,也需考量在加工环境中还设置有其他组件的状况。若无考量上述因素,机械手臂120可能在移动过程中受限于其自身的型态、轮廓与尺寸而受到加工环境中的组件的干涉,致使加工无法完成。甚至,机械手臂120与加工环境中的组件因为撞击而导致机械手臂120或组件的损坏。
因此,在计算出多条可能的移动路径之后,处理模块110更进一步将与机械手臂120及工件190的形状、轮廓、尺寸及彼此间的关系等相关的三维姿态模型候选组纳入考量及比较。在此同时,由于加工环境中的组件配置方式也会影响到加工程序的完成度,因此处理模块110也将加工环境的三维模型信息一同纳入考量及比较。综合并且分析前述的移动姿态候选组、三维姿态模型候选组以及加工环境的三维模型信息后,将可能造成干涉的移动姿态候选组删除,然后自剩余的、不会与环境中的组件造成干涉的移动姿态候选组中,选择机械手臂120移动距离最少且机械手臂120的轴转角度最小的移动姿态,不仅有利于机械手臂120以最省力的方式完成加工,更有助于提升加工程序的完成度。
如步骤S150,处理模块110根据实际移动姿态移动机械手臂120的自由端至对应的任一个接触点194。详细而言,在挑选出机械手臂120可以最省力的方式完成加工的移动姿态后,经由前述的转换系数,将此移动姿态转换为应用在真实世界坐标系的实际移动姿态,然后处理模块110驱动机械手臂120根据实际移动姿态移动至接触点194。
如步骤S160,处理模块110根据多个实际移动姿态,机械手臂120的自由端移动于加工路径,以完成加工程序。确切地说,由于移动姿态已经由转换系数转换为实际移动姿态,因此机械手臂120在真实世界中,依据处理模块110所指示的实际移动路径而于加工路径上移动。
此外,经由前述的同步真实世界中的机械手臂以及虚拟的3D空间中的机械手臂,可以确保真实世界中的机械手臂会依照实际移动姿态确实地完成加工程序,避免在虚拟的3D空间中所挑选出来的最佳加工路径与真实世界中机械手臂实际移动的路径不完全相同而导致加工程序无法完成。
特别的是,机械手臂120所夹取的同一种类的每一个工件190可能会因为公差而有外观尺寸上的些微差异,或是起因于工件190的摆放角度导致工件190相对于机械手臂120的角度偏转,使得在每一个工件190上建立的接触点不完全相同,因此处理模块110针对每一个工件190所计算出来的加工路径不完全相同。简单地说,每一个单一的工件190会获得其专属的加工路径。
通过上述的基于三维图像的机械手臂120加工方法及系统,可以进行自动化加工程序,不仅可以达到节省人力,同时还可减免人为错误进而提升组装良率。
[第二实施例]
图3为第二实施例的点胶加工设备的示意图、图4为点胶加工设备对高尔夫球杆头的壳体进行加工的流程图,而图5为高尔夫球杆头的壳体在虚拟3D空间中的示意图。
请同时参考图3、图4及图5,点胶加工设备200包括处理模块110、机械手臂120、数据库130、非接触式的检测装置140以及点胶装置250。机械手臂120用于在点胶加工设备200所提供的加工环境270内对高尔夫球杆头的壳体300进行加工程序。数据库130用来存储点胶加工设备200、加工环境270以及高尔夫球杆头的壳体300的三维模型信息。处理模块110电性耦合于机械手臂120与数据库130之间,用来控制机械手臂120执行加工程序。非接触式的检测装置140例如是摄像镜头242,电性耦合于处理模块110与数据库130,用来检测壳体300的轮廓与尺寸,以产生壳体300的三维模型信息。点胶装置250的位置可以依照实际需求而设置。在本实施例中,是使点胶装置250设置在加工环境270内的固定位置处,而机械手臂120的自由端连接夹持装置212,且利用夹持装置212夹持并机械手臂120沿着加工路径移动壳体300,让点胶装置250对壳体300上的每一个接触点300b进行点胶。在另一种未示出的实施方式中,点胶装置250可设置在机械手臂120的自由端,而固定高尔夫球杆头的壳体300,以使用机械手臂120对加工路径上的每一个接触点300b进行点胶。
又,点胶加工设备200还包含贴合装置260,此贴合装置260位于加工环境270内,且邻近机械手臂120设置,用以提供压力以将高尔夫球杆头的壳体300贴合至高尔夫球杆头的另一个壳体400,其中高尔夫球杆头的两个壳体300、400中的至少一个已经被点胶。贴合装置260可选用气压缸,但并不以此为限。
此外,点胶加工设备200还包括备料区200a以及置料区200b,且机械手臂120适于在备料区200a以及置料区200b之间移动,其中备料区200a用来放置待加工的高尔夫球杆头的壳体300,而置料区200b用来放置已经贴合在一起的高尔夫球杆头的两个壳体300、400。
当使用点胶加工设备200对高尔夫球杆头的壳体300进行自动点胶程序时,如步骤S210,先于数据库130中取得预先输入的机械手臂120的三维模型信息与加工环境270的三维信息。机械手臂120的三维模型信息包含组成机械手臂120的轴数,轴的可转动角度,机械手臂120的移动方向及距离…等。加工环境270的三维信息包含除了前述提到的非接触式的检测装置140(摄像镜头242)、点胶装置250之外的其他可能组件或装置,这些其他组件或装置可能是组成点胶加工设备200的组装构件,也可能是点胶加工设备200为了要施行其他制程的装置。
如步骤S212,通过比较三维模型信息与真实世界坐标系的误差,找出利用三维模型信息建置出的虚拟的3D空间与真实世界坐标系之间的转换系数。通过转换系数让机械手臂120的三维模型与加工环境270的三维模型信息能够正确地比对于真实世界的机械手臂120以及加工环境270,达到校正机械手臂120的三维模型信息与加工环境270的三维模型信息,两者在真实世界坐标系的误差。前述虽然是将机械手臂120的三维模型与加工环境270的三维模型信息能够正确地比对于在真实世界的机械手臂120以及加工环境270来说明,但本领域人员也应想得到,可以通过转换系数以将真实世界的机械手臂120及加工环境270投射到虚拟的3D空间中。简单地说,通过转换系数,真实世界中的坐标可以吻合于虚拟的3D世界的模型信息,而虚拟的3D空间中的模型信息也可以适用于真实世界的坐标。
此外,更进一步对真实世界的机械手臂120的移动方式与虚拟的3D世界中的机械手臂的移动方式作进一步校正,使真实世界的机械手臂120的移动方式同步于虚拟的3D世界中的机械手臂的移动方式。此处所指的同步主要是指在真实世界以及虚拟的3D空间中的机械手臂的自由端以相同的姿态沿着相同的路径移动,但并非局限在相同的时间作相同的事情,也可以是在不同的时间完成相同的任务。
如步骤S220,通过摄像镜头242获得高尔夫球杆头的壳体300的三维模型信息。详细而言,摄像镜头242设置在点胶加工设备200的中央区域。因此在实际操作上,机械手臂120先取得壳体300后,机械手臂120移动至邻近摄像镜头242处以让摄像镜头242获取图像以获得壳体300的三维模型信息。
高尔夫球杆头的壳体300的三维模型信息包括高尔夫球杆头的壳体300的轮廓形状、尺寸、待加工表面为平面或曲面、或其他物理性特征。当然,在另一种实施方式中,高尔夫球杆头的壳体300的三维模型信息也可以内建在数据库130中,而处理模块110可以直接存取内建在数据库130中的壳体300的三维模型信息。或是可将拍摄的壳体300图像,与数据库内的预设壳体300三维模型图像辅助运用,以产生最终的壳体300的三维模型信息
前述将壳体300的三维模型信息内建在数据库130的方式,是假设同一种类的个别单一壳体300都是完全一模一样且没有受到公差影响的。但是在实际制造过程,同一种类的个别单一壳体300难免会因为公差而有所不同,因此,通过摄像镜头242对每一个即将进入备料区200a中的壳体300进行拍摄的好处是,可以针对同一种类的单一壳体300做即时的特征识别,有利于加工路径的设计最佳化。
另外,本实施例的摄像镜头242是设置在高尔夫球杆头的壳体300自备料区200a移动至置料区200b的路径上,但摄像镜头242也可以依照需求地设置在点胶加工设备200中的适当处,以经由机械手臂120夹持壳体300并移动至摄像镜头242处进行拍摄。
如步骤S222,处理模块110根据壳体300的三维模型信息,检测至少一个接触点特征300a,以建立多个接触点300b的位置。详细而言,此接触点特征300a可以是经由人工设定的单一特征,例如壳体300的某个凹陷点、突出点或是边缘基准点,或者也可以是将多种接触点特征300a内建于数据库130中,然后经由处理模块110乱数选取其中一种作为基准。而之后,处理模块110根据选定的接触点特征300a在待加工的表面上选择多个位置作为其他接触点300b。在其他实施例,也可使用者自行设定多个接触点300,以形成预设的加工路径。
附带一提,虽然本实施例的是以高尔夫球杆头的壳体300作为待加工的工件说明,但本领域人员应知悉,工件的种类并不受本实施例局限,更可能通过摄像镜头242所获取的图像搭配检测接触点特征300a来确定待处理的工件的种类,进而让处理模块110依据识别结果从数据库130找到相应的信息以进行相应的加工制程。
请继续参考图3、图4及图5,机械手臂120通过连接在其自由端的夹持装置212夹取置放在备料区200a的壳体300时,可能会因为壳体300的制作公差、摆放位置或摆放角度的不同,造成夹持装置212夹取每一个单一壳体300的方式不完全相同。所以,如步骤S230,处理模块110可根据机械手臂120的三维模型信息,利用机械手臂120的自由端与相对应的任一个接触点300b之间的关系,产生机械手臂120的移动姿态候选组。
详细地说,通过摄像镜头242获取图像后,处理模块110可以计算出机械手臂120的自由端的某一端点处与相对应的接触点300b之间是否可能会有距离偏移或角度偏转,且更计算出偏移距离以及偏转角度并且利用改变机械手臂120的姿势来进行补偿,此姿势包含机械手臂120相对于某一基准点的移动距离、机械手臂120的每一轴彼此间的所夹的角度、两轴间的相对转动角度、以及夹持装置212相对于轴的夹角及转动角度等。因此,移动姿态候选组的信息包含对机械手臂120相对于某一基准点的距离补偿、角度补偿以及机械手臂120移动壳体300至点胶装置250时的加工角度、机械手臂120从一定点移动至另一定点的所有可能的移动姿态及加工路径…等。
如步骤S240,自移动姿态候选组中选择实际移动姿态。简单地说,即是从所有可能的移动姿态,选取机械手臂120移动距离最短、机械手臂120的各轴的转动角度最小的最佳的姿态(实际移动姿态)。
确切而言,处理模块110会根据移动姿态候选组产生对应的机械手臂120的三维姿态模型候选组,其中此三维姿态模型候选组包含通过处理模块110所计算出来的壳体300相对于点胶装置250进行点胶时的最佳化角度以及机械手臂120的最佳化姿态。此外,处理模块110同时还综合考量移动姿态候选组、三维姿态模型候选组以及加工环境270的三维模型信息,计算移动姿态候选组的移动路径是否与加工环境270中的其他组件形成干涉,并且自移动姿态候选组中删除造成机械手臂120与环境空间相互干涉的移动姿态,然后从未相互干涉的移动姿态候选组中,选择对机械手臂120的移动距离最短、轴角度产生最小偏移量的移动姿态。
如步骤S250,处理模块110将在虚拟的3D空间中计算并挑选出来的移动姿态通过转换系数转化为在真实世界中的实际移动姿态,此姿态包含机械手臂120的加工移动路径以及轴转角度等。
附带一提,起因于每一个单一的壳体300的制造公差的影响、壳体300进入备料区200a后在备料区200a的位置或角度的不同,使得连接在机械手臂120的自由端上的夹持装置212夹取壳体300时的角度也可能需要改变,因此针对每一个单一的壳体300,实际移动姿态会不同。换言之,综观所有的壳体300的加工制程,每一个单一的壳体300的加工路径会有些微差异,并非完全相同。
如步骤S260,处理模块110根据实际移动姿态发出信号驱使机械手臂120的自由端开始作动,由连接在自由端的夹持装置212夹取壳体300后,机械手臂120的自由端根据实际移动姿态于加工路径移动,并且以最佳角度靠近点胶装置250以进行点胶。点胶完毕后,机械手臂120将壳体300与另一个辅助壳体400黏合在一起,然后将黏合在一起的两个壳体300、400放置到置料区200b中。此外,可更经由设置在置料区200b的贴合装置260对黏合在一起的两个壳体300、400施加压力,以使两个壳体300、400紧密贴合在一起形成高尔夫球杆头。
附带一提,经由前述的同步真实世界中的机械手臂120以及虚拟的3D空间中的机械手臂,可以确保真实世界中的机械手臂120会依照实际移动姿态确实地完成加工程序,避免在虚拟的3D空间中所挑选出来的最佳加工路径与真实世界中机械手臂120实际移动的路径不完全相同而导致加工程序无法完成。
以上,加工程序完成。之后可经由人工或是机械方式将高尔夫球杆头从置料区200b取走。
[第三实施例]
本实施例与前述第二实施例大致相同,其不同之处仅在于:在如图6的第三实施例中,高尔夫球杆头的壳体300可以通过输送带P运送入备料区200a中,而摄像镜头242可设置在输送带P的运送途径且位于备料区200a之前,以在将高尔夫球杆头的壳体300进入备料区200a之前将壳体300拍摄下来,然后通过图像处理方式将高尔夫球杆头的壳体300处理为三维模型信息。
而取得待加工的壳体300的三维模型信息的其余步骤与前述实施例相同,因此不再赘述。
虽然本实施例与第二实施例在系统的结构以及制程的施作步骤上有些微不同,但仍不超出本发明的基于三维图像的机械手臂加工方法及系统的架构之下。
前述的机械手臂加工方法的程序可记录于计算机可读取纪录媒体中,且当执行所述程序时,可施行使用在前述的基于三维图像的机械手臂加工系统。
综上所述,在本发明的基于三维图像的机械手臂加工方法、系统及计算机可读取纪录媒体中,利用在虚拟的3D空间进行模型的建置,通过校正以将虚拟的3D空间及真实世界进行连结,除了能够让处理模块进行最佳化加工路径的计算与筛选,机械手臂还具有自动判断及学习的功能。此外,加工过程中可不需要人力介入,因此可以节省人力。再者,通过自动学习功能,可以针对偏差的角度或是距离即时进行校正,有利于提升工件的组装良率。
虽然本发明已以实施例揭示如上,然其并非用以限定本发明,任何所属技术领域中技术人员,在不脱离本发明的精神和范围内,当可作些许的更改与润饰,故本发明的保护范围当视权利要求所界定者为准。

Claims (15)

1.一种基于三维图像的机械手臂加工方法,利用机械手臂,在加工环境内,对至少一工件进行加工程序,其特征在于所述加工方法包括:
提供所述机械手臂的三维模型信息与所述加工环境的三维模型信息;
获得所述工件的三维模型信息,并根据所述工件的三维模型信息,产生由多个接触点所形成的加工路径,其中所述机械手臂的自由端根据所述加工路径而移动,以完成所述加工程序;
根据所述机械手臂的自由端对应任一个所述接触点之间的关系,产生所述机械手臂的移动姿态候选组;
自所述移动姿态候选组,选择实际移动姿态;
根据所述实际移动姿态,移动所述机械手臂的自由端至对应的任一个所述接触点;
根据多个所述实际移动姿态,所述机械手臂的自由端移动于所述加工路径,以完成所述加工程序。
2.根据权利要求1所述的机械手臂加工方法,还包括:
在所述机械手臂的三维模型信息与所述加工环境的三维模型信息中,选择至少一个校正点坐标位置信息;
根据所述至少一个校正点坐标位置信息,使所述机械手臂的自由端移动至真实世界坐标系上的对应坐标位置;以及
比较所述至少一个校正点位置信息与所述对应坐标位置,以校正所述机械手臂的三维模型信息与所述加工环境的三维模型信息,两者在真实世界坐标系的误差。
3.根据权利要求1所述的机械手臂加工方法,其中所述的获得所述工件的三维模型信息包括:
通过数据库中获得预设的所述工件的三维模型信息,或通过非接触式的检测装置,检测所述工件轮廓与尺寸,产生所述工件的三维模型信息。
4.根据权利要求1所述的机械手臂加工方法,其中所述的产生由多个接触点所形成的所述加工路径包括:
根据所述工件的三维模型信息,设定多个所述接触点的位置,或检测至少一个接触点特征,以建立多个所述接触点的位置。
5.根据权利要求1所述的机械手臂加工方法,其中所述的自所述移动姿态候选组,选择所述实际移动姿态包括:
根据所述移动姿态候选组,产生对应的所述机械手臂的三维姿态模型候选组;
根据所述移动姿态候选组、所述三维姿态模型候选组,以及所述加工环境的三维模型信息,自所述移动姿态候选组中,删除造成所述机械手臂与所述环境空间相互干涉的所述移动姿态。
6.根据权利要求5所述的机械手臂加工方法,其中所述的自所述移动姿态候选组,选择所述实际移动姿态包括:
自未相互干涉的所述移动姿态候选组中,选择对所述机械手臂的轴角度产生最小偏移量的所述移动姿态。
7.根据权利要求1所述的机械手臂加工方法,其中所述的加工程序包括点胶加工程序,其中所述机械手臂的自由端连接点胶装置,使所述机械手臂对所述加工路径上的每一个所述接触点进行点胶,或所述机械手臂的自由端连接夹持装置,利用所述挟持装置夹持并移动所述工件,使所述机械手臂通过固定位置的点胶装置,对所述加工路径上的每一个所述接触点进行点胶。
8.根据权利要求7所述的机械手臂加工方法,还包含:
通过贴合装置,将已点胶的所述工件贴合至辅助工件。
9.一种基于三维图像的机械手臂加工系统,其特征在于,包括:
机械手臂,在加工环境内,对至少一工件进行加工程序;
数据库,存储所述工件的三维模型信息、所述机械手臂的三维模型信息、所述加工环境的三维模型信息;以及
处理模块,耦合于所述机械手臂与所述数据库之间,用以控制所述机械手臂执行所述加工程序;
其中所述处理模块根据所述工件的三维模型信息,产生由多个接触点所形成的加工路径,控制所述机械手臂的自由端根据所述加工路径而移动,以完成所述加工程序;
其中所述处理模块根据所述机械手臂的自由端与对应的任一个所述接触点之间的关系,产生所述机械手臂的移动姿态候选组,并自所述移动姿态候选组,选择实际移动姿态;
其中所述处理模块根据所述实际移动姿态,控制所述机械手臂的自由端移动至对应的任一个所述接触点;
其中所述处理模块根据多个所述实际移动姿态,控制所述机械手臂的自由端移动于所述加工路径,以完成所述加工程序。
10.根据权利要求9所述的机械手臂加工系统,其中所述的所述处理模块在所述机械手臂的三维模型信息与所述加工环境的三维模型信息中,选择至少一个校正点坐标位置信息;
其中所述处理模块根据所述至少一个校正点坐标位置信息,使所述机械手臂的自由端移动至真实世界坐标系上的对应坐标位置;
其中所述处理模块比较所述至少一个校正点位置信息与所述对应坐标位置,以校正所述机械手臂的三维模型信息与所述加工环境的三维模型信息,两者在真实世界坐标系的误差。
11.根据权利要求9所述的机械手臂加工系统,还包括非接触式的检测装置,耦合于所述处理模块与所述数据库之间,检测所述工件轮廓与尺寸,产生所述工件的三维模型信息。
12.根据权利要求9所述的机械手臂加工系统,其中所述的处理模块根据所述工件的三维模型信息,设定多个所述接触点的位置,或检测至少一个接触点特征,以建立多个所述接触点的位置。
13.根据权利要求9所述的机械手臂加工系统,其中所述的处理模块根据所述移动姿态候选组,产生对应的所述机械手臂的三维姿态模型候选组;
其中所述处理模块根据所述移动姿态候选组、所述三维姿态模型候选组,以及所述加工环境的三维模型信息,自所述移动姿态候选组中,删除造成所述机械手臂与所述环境空间相互干涉的所述移动姿态。
14.根据权利要求9所述的机械手臂加工系统,其中所述的机械手臂的自由端连接点胶装置,使所述机械手臂对所述加工路径上的每一个所述接触点进行点胶,或所述的机械手臂的自由端连接夹持装置,利用所述夹持装置夹持并移动所述工件,使所述机械手臂通过固定位置的点胶装置,对所述加工路径上的每一个所述接触点进行点胶。
15.一种计算机可读取纪录媒体,其特征在于,记录有根据权利要求1至8所述的机械手臂加工方法的程序,当执行所述程序时,可施行使用在基于三维图像的机械手臂加工系统。
CN201711420259.1A 2017-08-15 2017-12-25 机械手臂加工方法、系统及计算机可读取纪录媒体 Active CN109397282B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW106127687A TWI650626B (zh) 2017-08-15 2017-08-15 基於三維影像之機械手臂加工方法及系統
TW106127687 2017-08-15

Publications (2)

Publication Number Publication Date
CN109397282A true CN109397282A (zh) 2019-03-01
CN109397282B CN109397282B (zh) 2021-12-14

Family

ID=65360167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711420259.1A Active CN109397282B (zh) 2017-08-15 2017-12-25 机械手臂加工方法、系统及计算机可读取纪录媒体

Country Status (3)

Country Link
US (1) US10723020B2 (zh)
CN (1) CN109397282B (zh)
TW (1) TWI650626B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111889900A (zh) * 2020-08-04 2020-11-06 上海柏楚电子科技股份有限公司 异形管材切割的数据处理方法、装置、电子设备与介质
CN112223272A (zh) * 2019-07-15 2021-01-15 由田新技股份有限公司 多轴机械手臂系统及其路径规划方法
CN113156607A (zh) * 2021-04-14 2021-07-23 广景视睿科技(深圳)有限公司 组装棱镜的方法、组装棱镜的装置以及组装棱镜的设备
CN114101917A (zh) * 2020-08-26 2022-03-01 复盛应用科技股份有限公司 雷射雕刻方法
WO2022170572A1 (en) * 2021-02-10 2022-08-18 Abb Schweiz Ag Method and apparatus for tuning robot path for processing workpiece
CN117950323A (zh) * 2024-03-27 2024-04-30 苏州巴奈特机械设备有限公司 基于机械手臂加工控制的自适应调节方法及系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6469159B2 (ja) * 2017-04-10 2019-02-13 ファナック株式会社 接触センサによるワーク位置検出プログラム生成機能を備えたオフラインプログラミング装置及び方法
KR102091935B1 (ko) * 2018-08-29 2020-03-20 주식회사 프로텍 3차원 스캐너를 이용한 점성 용액 디스펜싱 방법
TWI696529B (zh) * 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
US11762369B2 (en) * 2019-02-06 2023-09-19 Sensory Robotics, Inc. Robotic control via a virtual world simulation
TWI725630B (zh) * 2019-11-21 2021-04-21 財團法人工業技術研究院 加工路徑生成裝置及其方法
EP3834998A1 (de) * 2019-12-11 2021-06-16 Siemens Aktiengesellschaft Verfahren, computer-programm-produkt und robotersteuerung zum konfigurieren einer roboter-objekt-systemumgebung sowie roboter
EP4074474A4 (en) * 2019-12-13 2024-06-05 Kawasaki Jukogyo Kabushiki Kaisha ROBOT SYSTEM AND METHOD FOR PRODUCING A THREE-DIMENSIONAL MODEL OF A WORKPIECE
TWI747151B (zh) * 2020-02-04 2021-11-21 達奈美克股份有限公司 機械手臂移動補償的方法
CN111524184B (zh) * 2020-04-21 2024-01-16 湖南视普瑞智能科技有限公司 一种基于3d视觉的智能拆垛方法及拆垛系统
TWI761891B (zh) * 2020-07-22 2022-04-21 國立臺灣科技大學 不間斷自動化系統及其執行方法
CN113288477B (zh) * 2021-07-01 2022-06-03 吕涛 一种带开放辅助槽沟的正畸自锁托槽系统
CN113910259A (zh) * 2021-11-03 2022-01-11 珠海格力智能装备有限公司 机器人喷漆系统及喷漆方法
CN113768640B (zh) * 2021-11-09 2022-02-08 极限人工智能有限公司 一种确定机械臂工作位姿的方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1805830A (zh) * 2003-06-11 2006-07-19 Abb公司 用于微调机器人程序的方法
CN1947961A (zh) * 2005-10-12 2007-04-18 发那科株式会社 机器人的离线示教装置
CN101493682A (zh) * 2008-01-23 2009-07-29 发那科株式会社 加工用机器人程序的制作装置
US8204623B1 (en) * 2009-02-13 2012-06-19 Hrl Laboratories, Llc Planning approach for obstacle avoidance in complex environment using articulated redundant robot arm
CN104411248A (zh) * 2012-06-28 2015-03-11 皇家飞利浦有限公司 在内窥镜外科手术中用于最佳图像采集的c型臂轨迹规划
CN105856216A (zh) * 2015-02-10 2016-08-17 发那科株式会社 工件取出机器人系统以及工件取出方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4305130A (en) * 1979-05-29 1981-12-08 University Of Rhode Island Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces
US6552722B1 (en) * 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6421048B1 (en) * 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
TW434495B (en) * 1999-03-31 2001-05-16 Lin Gu Chin Image servo positioning and path-tracking control system
US6587752B1 (en) * 2001-12-25 2003-07-01 National Institute Of Advanced Industrial Science And Technology Robot operation teaching method and apparatus
US6812665B2 (en) * 2002-04-19 2004-11-02 Abb Ab In-process relative robot workcell calibration
US7168935B1 (en) * 2002-08-02 2007-01-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Solid freeform fabrication apparatus and methods
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
GB0405014D0 (en) * 2004-03-05 2004-04-07 Qinetiq Ltd Movement control system
JP2007015037A (ja) * 2005-07-05 2007-01-25 Sony Corp ロボットのモーション編集装置及びモーション編集方法、コンピュータ・プログラム、並びにロボット装置
JP4961860B2 (ja) * 2006-06-27 2012-06-27 トヨタ自動車株式会社 ロボット装置及びロボット装置の制御方法
US7974737B2 (en) * 2006-10-31 2011-07-05 GM Global Technology Operations LLC Apparatus and method of automated manufacturing
US10650608B2 (en) * 2008-10-08 2020-05-12 Strider Labs, Inc. System and method for constructing a 3D scene model from an image
US20100179689A1 (en) * 2009-01-09 2010-07-15 National Taiwan University Of Science And Technology Method of teaching robotic system
JP5981143B2 (ja) * 2009-02-03 2016-08-31 ファナック アメリカ コーポレイション ロボットツールの制御方法
JP5436460B2 (ja) * 2009-02-12 2014-03-05 三菱電機株式会社 産業用ロボットシステム
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
US8747188B2 (en) * 2011-02-24 2014-06-10 Apple Inc. Smart automation of robotic surface finishing
US9266241B2 (en) * 2011-03-14 2016-02-23 Matthew E. Trompeter Robotic work object cell calibration system
US9669546B2 (en) * 2011-03-14 2017-06-06 Matthew E. Trompeter Robotic work object cell calibration method
US9971339B2 (en) * 2012-09-26 2018-05-15 Apple Inc. Contact patch simulation
US9238304B1 (en) * 2013-03-15 2016-01-19 Industrial Perception, Inc. Continuous updating of plan for robotic object manipulation based on received sensor data
US10665128B2 (en) * 2014-06-27 2020-05-26 Illinois Tool Works Inc. System and method of monitoring welding information
US9272417B2 (en) * 2014-07-16 2016-03-01 Google Inc. Real-time determination of object metrics for trajectory planning
JP6379874B2 (ja) * 2014-08-29 2018-08-29 株式会社安川電機 ティーチングシステム、ロボットシステムおよびティーチング方法
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
TWI517101B (zh) * 2014-12-09 2016-01-11 財團法人工業技術研究院 三維掃描器校正系統及其校正方法
CN107205779A (zh) * 2014-12-29 2017-09-26 助视会有限公司 手术模拟器系统和方法
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
US9561941B1 (en) * 2015-03-30 2017-02-07 X Development Llc Autonomous approach and object pickup
US9878447B2 (en) * 2015-04-10 2018-01-30 Microsoft Technology Licensing, Llc Automated collection and labeling of object data
US9964398B2 (en) * 2015-05-06 2018-05-08 Faro Technologies, Inc. Three-dimensional measuring device removably coupled to robotic arm on motorized mobile platform
CN106733341A (zh) * 2015-11-20 2017-05-31 宝成工业股份有限公司 多轴向自动化鞋底加工设备及加工方法
WO2017103682A2 (en) * 2015-12-16 2017-06-22 Mbl Limited Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with containers and electronic minimanipulation libraries
US9687983B1 (en) * 2016-05-11 2017-06-27 X Development Llc Generating a grasp pose for grasping of an object by a grasping end effector of a robot
US10122995B2 (en) * 2016-09-22 2018-11-06 X Development Llc Systems and methods for generating and displaying a 3D model of items in a warehouse
TWI587994B (zh) * 2016-11-18 2017-06-21 Hiwin Tech Corp Non-contact gestures teach robots
US10060857B1 (en) * 2017-11-16 2018-08-28 General Electric Company Robotic feature mapping and motion control

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1805830A (zh) * 2003-06-11 2006-07-19 Abb公司 用于微调机器人程序的方法
CN1947961A (zh) * 2005-10-12 2007-04-18 发那科株式会社 机器人的离线示教装置
CN101493682A (zh) * 2008-01-23 2009-07-29 发那科株式会社 加工用机器人程序的制作装置
US8204623B1 (en) * 2009-02-13 2012-06-19 Hrl Laboratories, Llc Planning approach for obstacle avoidance in complex environment using articulated redundant robot arm
CN104411248A (zh) * 2012-06-28 2015-03-11 皇家飞利浦有限公司 在内窥镜外科手术中用于最佳图像采集的c型臂轨迹规划
CN105856216A (zh) * 2015-02-10 2016-08-17 发那科株式会社 工件取出机器人系统以及工件取出方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112223272A (zh) * 2019-07-15 2021-01-15 由田新技股份有限公司 多轴机械手臂系统及其路径规划方法
CN111889900A (zh) * 2020-08-04 2020-11-06 上海柏楚电子科技股份有限公司 异形管材切割的数据处理方法、装置、电子设备与介质
CN114101917A (zh) * 2020-08-26 2022-03-01 复盛应用科技股份有限公司 雷射雕刻方法
WO2022170572A1 (en) * 2021-02-10 2022-08-18 Abb Schweiz Ag Method and apparatus for tuning robot path for processing workpiece
CN113156607A (zh) * 2021-04-14 2021-07-23 广景视睿科技(深圳)有限公司 组装棱镜的方法、组装棱镜的装置以及组装棱镜的设备
CN117950323A (zh) * 2024-03-27 2024-04-30 苏州巴奈特机械设备有限公司 基于机械手臂加工控制的自适应调节方法及系统
CN117950323B (zh) * 2024-03-27 2024-05-31 苏州巴奈特机械设备有限公司 基于机械手臂加工控制的自适应调节方法及系统

Also Published As

Publication number Publication date
US10723020B2 (en) 2020-07-28
US20190054617A1 (en) 2019-02-21
TW201910950A (zh) 2019-03-16
CN109397282B (zh) 2021-12-14
TWI650626B (zh) 2019-02-11

Similar Documents

Publication Publication Date Title
CN109397282A (zh) 机械手臂加工方法、系统及计算机可读取纪录媒体
CN111331592B (zh) 机械手臂工具中心点校正装置及其方法以及机械手臂系统
JP4347386B2 (ja) 加工用ロボットプラグラムの作成装置
EP3705239B1 (en) Calibration system and method for robotic cells
CN111775146B (zh) 一种工业机械臂多工位作业下的视觉对准方法
CN106426161B (zh) 在引导装配环境中将机器视觉坐标空间关联的系统和方法
CN109767416B (zh) 机械设备的定位系统及方法
JP6770605B2 (ja) 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム
CN106873550B (zh) 模拟装置以及模拟方法
JP5365218B2 (ja) ロボットビジョンシステムおよび自動キャリブレーション方法
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
US7403648B2 (en) Apparatus for generating three-dimensional model data
CN106163771A (zh) 用于机器人3d打印的方法及系统
CN111300481A (zh) 基于视觉及激光传感器的机器人抓取位姿纠正方法
CN109684709A (zh) 一种航空发动机叶片修复的自适应定位方法
CN112109072B (zh) 一种大型稀疏特征托盘精确6d位姿测量和抓取方法
CN113070876A (zh) 一种基于3d视觉的机械手点胶路径引导纠偏方法
JPWO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
TW202102347A (zh) 視覺導引機器手臂校正方法
CN113102882B (zh) 几何误差补偿模型的训练方法和几何误差补偿方法
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
CN109807890B (zh) 设备误差的校准方法及装置
CN115846891B (zh) 镭雕设备的控制方法、镭雕设备及计算机可读存储介质
JP2013158845A (ja) ロボット装置、画像生成装置、画像生成方法、および画像生成プログラム
JP6766229B2 (ja) 位置姿勢計測装置及び方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant