CN104227722A - 机器人系统与机器人控制方法 - Google Patents

机器人系统与机器人控制方法 Download PDF

Info

Publication number
CN104227722A
CN104227722A CN201410259247.5A CN201410259247A CN104227722A CN 104227722 A CN104227722 A CN 104227722A CN 201410259247 A CN201410259247 A CN 201410259247A CN 104227722 A CN104227722 A CN 104227722A
Authority
CN
China
Prior art keywords
camera
robot
workpiece
robot body
stereocamera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410259247.5A
Other languages
English (en)
Other versions
CN104227722B (zh
Inventor
林祯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN104227722A publication Critical patent/CN104227722A/zh
Application granted granted Critical
Publication of CN104227722B publication Critical patent/CN104227722B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05CAPPARATUS FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05C11/00Component parts, details or accessories not specifically provided for in groups B05C1/00 - B05C9/00
    • B05C11/10Storage, supply or control of liquid or other fluent material; Recovery of excess liquid or other fluent material
    • B05C11/1002Means for controlling supply, i.e. flow or pressure, of liquid or other fluent material to the applying apparatus, e.g. valves
    • B05C11/1015Means for controlling supply, i.e. flow or pressure, of liquid or other fluent material to the applying apparatus, e.g. valves responsive to a conditions of ambient medium or target, e.g. humidity, temperature ; responsive to position or movement of the coating head relative to the target
    • B05C11/1018Means for controlling supply, i.e. flow or pressure, of liquid or other fluent material to the applying apparatus, e.g. valves responsive to a conditions of ambient medium or target, e.g. humidity, temperature ; responsive to position or movement of the coating head relative to the target responsive to distance of target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05CAPPARATUS FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05C5/00Apparatus in which liquid or other fluent material is projected, poured or allowed to flow on to the surface of the work
    • B05C5/02Apparatus in which liquid or other fluent material is projected, poured or allowed to flow on to the surface of the work the liquid or other fluent material being discharged through an outlet orifice by pressure, e.g. from an outlet device in contact or almost in contact, with the work
    • B05C5/0208Apparatus in which liquid or other fluent material is projected, poured or allowed to flow on to the surface of the work the liquid or other fluent material being discharged through an outlet orifice by pressure, e.g. from an outlet device in contact or almost in contact, with the work for applying liquid or other fluent material to separate articles
    • B05C5/0212Apparatus in which liquid or other fluent material is projected, poured or allowed to flow on to the surface of the work the liquid or other fluent material being discharged through an outlet orifice by pressure, e.g. from an outlet device in contact or almost in contact, with the work for applying liquid or other fluent material to separate articles only at particular parts of the articles
    • B05C5/0216Apparatus in which liquid or other fluent material is projected, poured or allowed to flow on to the surface of the work the liquid or other fluent material being discharged through an outlet orifice by pressure, e.g. from an outlet device in contact or almost in contact, with the work for applying liquid or other fluent material to separate articles only at particular parts of the articles by relative movement of article and outlet according to a predetermined path
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及机器人系统与机器人控制方法。机器人系统包括机器人主体、安装在机器人主体上并能够拍摄工件的照相机;以及控制装置,用于基于到预先设置的指示点的轨迹来驱动和控制机器人主体,以及,当在该驱动和控制期间照相机到达照相机能够对工件进行拍摄的区域时,驱动和控制机器人主体以使得照相机朝向工件线性移动,在照相机线性移动的同时使用照相机拍摄工件的图像,并且根据拍摄的图像测量工件的位置。

Description

机器人系统与机器人控制方法
技术领域
本发明涉及机器人系统以及机器人控制方法,该机器人系统包括其上安装有照相机的机器人手臂。
背景技术
当机器人系统被用于夹持工件、组装工件等时,安装在机器人手臂顶端的照相机可被投入使用来测量工件的位置和姿势,使得工件可基于测量的信息被夹持、组装等(参见日本专利申请公开No.2000-288974)。
安装在机器人手臂的远端上的照相机的问题在于,在机器人手臂移动的同时照相机拍摄的部件等的图像变模糊,这妨碍了获取该部件的精确位置信息等。因此,为了获得精确的位置信息等,机器人手臂需要在拍摄部件等时被停止。但是,机器人手臂通常具有较大的惯性,并且使机器人手臂停止来拍摄部件等意味着要在使机器人手臂减速、使机器人手臂停止、拍摄和重新加速机器人手臂的工作周期上花费大量时间。导致的问题是降低运行速度。
因此本发明的一个目的是提供一种机器人系统,该机器人系统可以通过使用照相机拍摄的图像来执行各种工作而不损害运行速度。
发明内容
根据本发明的一个实施例,提供一种机器人系统,其包括:机器人主体;安装在机器人主体上并能够拍摄工件的照相机;以及控制装置,该控制装置用于:基于到预先设置的指示点的轨迹来驱动和控制机器人主体;以及当在该驱动和控制期间照相机到达其中照相机能够拍摄工件的区域时,驱动和控制机器人主体以使得照相机朝向工件线性移动,在照相机线性移动的同时用照相机拍摄工件的图像,并且根据拍摄的图像测量工件的位置。
另外,根据本发明的一个实施例,提供一种机器人系统,其包括:机器人主体;安装在机器人主体上并能够拍摄工件的立体照相机;以及控制装置,该控制装置用于:基于到预先设置的指示点的轨迹来驱动和控制机器人主体;以及当在该驱动和控制期间立体照相机到达其中立体照相机能够拍摄工件的区域时,驱动和控制机器人主体以使得立体照相机朝向工件线性移动,在立体照相机线性移动的同时用立体照相机拍摄工件的图像,并且根据拍摄的图像测量工件的三维位置。
另外,根据本发明的一个实施例,提供一种机器人控制方法,其包括:线性移动控制步骤,通过控制单元基于到预先设置的指示点的轨迹来驱动和控制机器人主体,以及当在该驱动和控制期间安装在机器人主体上的照相机到达其中照相机能够拍摄工件的区域时,驱动和控制机器人主体以使得照相机朝向工件线性移动;工件位置测量步骤,通过控制单元在照相机线性移动的同时用照相机拍摄工件的图像,并根据拍摄的图像测量工件的位置。
另外,根据本发明的一个实施例,提供一种机器人控制方法,其包括:线性移动控制步骤,通过控制单元基于到预先设置的指示点的轨迹来驱动和控制机器人主体,以及当在该驱动和控制期间安装在机器人主体上的立体照相机到达其中立体照相机能够拍摄工件的区域时,驱动和控制机器人主体以使得立体照相机朝向工件线性移动;以及三维位置测量步骤,通过控制单元在立体照相机线性移动的同时用立体照相机拍摄工件的图像,并根据拍摄的图像测量工件的三维位置。
从以下参考附图的示范性实施例的描述中将明白本发明的其它特征。
附图说明
图1是示意性示出根据本发明第一实施例的机器人系统的整体结构的透视图。
图2是根据本发明第一实施例的控制装置的框图。
图3是示出根据本发明第一实施例的末端执行器与照相机的平行轨迹的示图。
图4是示出移动方向以及模糊方向的示图。
图5是示出根据本发明第二实施例的末端执行器与照相机的平行轨迹的示图。
图6是示出根据本发明第三实施例的末端执行器和照相机的示图。
图7是示出根据本发明第三实施例的末端执行器与照相机的平行轨迹的示图。
图8是示意性示出根据本发明第四实施例的机器人系统的整体结构的透视图。
图9是示出根据本发明第四实施例的末端执行器与立体照相机的示图。
图10是示出利用立体照相机拍摄的图像的示图。
图11是示出立体测量中出现模糊的模式的示图。
图12是示出相关技术中末端执行器与照相机的轨迹的示图。
图13是示出相关技术中末端执行器与照相机的轨迹的另一个示图。
具体实施方式
现在将根据附图详细描述本发明的优选实施例。
第一实施例
下面参照图1至图4描述根据本发明第一实施例的机器人系统1。参照图1和图2,首先描述根据第一实施例的机器人系统1的示意性的整体配置。
如图1所示,机器人系统1包括机器人主体6、安装在机器人主体6上的照相机4以及能够控制机器人主体6和照相机4的控制装置5。机器人主体6包括六关节连接的机器人手臂2和安装在机器人手臂2的远端上的末端执行器3。
机器人手臂2具有为了改变末端执行器3和照相机4的位置和姿势所必需的自由度。具体地说,机器人手臂2包括6个致动器,并通过单独地和选择性地驱动致动器来将末端执行器3和照相机4移动到任意三维点,这6个致动器驱动各关节使得关节绕着它们的各关节轴旋转。末端执行器3用来执行诸如夹持或组装工件(对象)10的工作。本实施例中的末端执行器是安装在机器人手臂2的远端上的分配器(dispenser),该分配器用于把涂料、粘合剂等施加到工件10上的给定点。
机器人手臂2和末端执行器3不局限于上述配置。例如,机器人手臂可以是水平多关节型或XYZ轴型,或者是如下的配置,在该配置中通过向其添加关节轴保证必要的自由度。末端执行器可以是驱动器、夹持器或者放电加工机。在机器人手臂2不需要执行诸如夹持之类的工作的情况下(例如,在文字识别、表面状态观测等情况下),可以将照相机作为末端执行器安装到机器人手臂2的远端。
照相机4用来辅助末端执行器3执行的工作,并且拍摄工件10以便获得信息,诸如工件10的精确位置和姿势。照相机4安装在末端执行器3附近的机器人手臂2的远端上,并跟随着机器人手臂2的操作而与末端执行器3一体地改变它的位置和姿势。本文中的附近可以是在与机器人主体6(机器人手臂2和末端执行器3)相同的链节(link)上并允许照相机4与末端执行器3同步移动的任意点。照相机4也可以被安装在末端执行器3上。
如图2所示,控制装置(控制单元)5包括图像处理装置51、轨迹生成装置52、存储装置53、机器人控制器54、记录介质读取装置55和通信装置56。
图像处理装置51基于照相机4所拍摄的图像来测量工件10在拍摄时相对照相机4的相对位置。所述测量可以使用模式匹配、通过提取边缘来获取诸如质心或交点之类的特征点的方法、以及其它的测量方法,并不局限于本实施例中的特定方法。在安装到机器人手臂的顶端的是照相机而非末端执行器的情况下,图像处理装置51观测工件的状态,例如检查是否有工件,观测工件的表面状态,以及识别工件标签上的文字。
轨迹生成装置52是用于生成机器人手臂2的轨迹的装置,该轨迹将末端执行器3引导至目标点以便对工件10执行给定工作。具体的说,轨迹生成装置52基于预先指示的指示点来生成到临时目标点的机器人手臂2的轨迹(在下文中称作“接近轨迹”)。当机器人手臂2到达其中照相机4可拍摄工件10的工件10附近的区域时,轨迹生成装置52生成机器人手臂2的轨迹(在下文中称作“平行轨迹”),使得照相机4与照相机4的光轴平行地线性移动。在目标点的测量揭示出该临时目标点与测量的目标点彼此不一致的情况下,轨迹生成装置52基于测量的目标点进一步修改接近轨迹。
指示点是经由已知的示教盒(teaching pendant)(未示出)或个人计算机的输入装置(未示出)等指示的。指示点通常包含造成偏离真实目标点的误差。在这种情况下,指示点被设为临时目标点,并且如果照相机4的移动方向偏离与照相机4的光轴平行的方向,平行轨迹等可按照需要基于来自图像处理装置51的信息被修改。
存储装置53存储用于生成接近轨迹和平行轨迹的各种程序、由图像处理装置51测量的工件10的位置信息的处理结果、以及诸如由用户预先指示的初始指示点之类的数据。存储装置53可通过在用户界面上显示存储来被代替或省略。
机器人控制器54驱动和控制机器人手臂2,使得末端执行器3和照相机4在轨迹生成装置52生成的接近轨迹和平行轨迹上移动。在控制机器人手臂2中,机器人控制器54使用反馈控制来获得机器人手臂2的当前位置信息。机器人控制器54还在正在基于轨迹生成装置52生成的平行轨迹驱动机器人手臂2时控制照相机4的拍摄,并驱动和控制已经到达目标点的末端执行器3。一旦照相机4走上平行轨迹,本实施例中的机器人控制器54就向照相机4发出拍摄指示,在平行轨迹中照相机4的移动方向是与照相机4的光轴平行的线性方向(照相机4沿着它的光轴移动)。拍摄指示可在照相机4走上平行轨迹后的任意时间发出,并可以被多次发出以使得工件被拍摄多次。
记录介质读取装置55尤其用于读取计算机可读记录介质57(在其上记录有各种程序,包括机器人控制程序),并且用于将记录在记录介质57上的程序和数据存储在存储装置53中。当例如经由因特网分发的更新程序等经由通信装置56被下载而不使用记录介质57或类似介质时,使用通信装置56。
图像处理装置51、轨迹生成装置52和机器人控制器54可通过微型计算机、门逻辑、模拟运算装置等实现,并不局限于特定的配置,只要履行上述功能即可。就硬件而言,那些组件可通过单独一台计算机实现。
下面将参照图3描述如此配置的控制装置5控制机器人手臂2的方法。
首先,轨迹生成装置52基于用户预先输入的指示点或者存储在存储装置53中的初始指示点来生成接近轨迹,该接近轨迹将末端执行器3引导至临时目标点。本实施例中生成的接近轨迹基于存储在存储装置53中的初始指示点TP。接近轨迹也可以基于用户通过输入装置(未示出)输入的指示点被生成。
一旦接近轨迹被生成,机器人控制器54就驱动和控制机器人手臂2,使得末端执行器3和照相机4沿着生成的接近轨迹移动。机器人手臂2的驱动/控制采用反馈控制,并且当获得机器人手臂2的当前位置信息时,机器人控制器54在其控制下驱动机器人手臂2朝向初始指示点TP。
当照相机4到达工件10可被拍摄的范围时,轨迹生成装置52生成平行轨迹,使得照相机4与照相机的光轴(图3所示的直线lc)平行地朝向工件10线性移动。一旦平行轨迹被生成,机器人控制器54就驱动和控制机器人手臂2,使得末端执行器3和照相机4沿着生成的平行轨迹移动(线性移动控制步骤)。在照相机沿着直线lc移动时观测到的末端执行器3的轨迹用直线le表示,直线le与直线lc平行。
接下来,当照相机4走上平行轨迹时,机器人控制器54将触发信号传输给照相机4。接收到此触发信号后,照相机4在与光轴平行地朝向工件10移动的同时对初始指示点TP周围的区域进行拍摄。利用照相机4拍摄的图像经由传输线缆(未示出)或无线装置(未示出)被传送至图像处理装置51。完成拍摄后,照相机4向机器人控制器54传输表示完成曝光(拍摄)的触发信号。
接收到来自照相机4的触发信号后,机器人控制器54记录那时候机器人手臂2的位置数据,并将此数据传送至轨迹生成装置52。在照相机的曝光时间长度预先已知的情况下,来自照相机4的触发信号的传输可被省略。例如,包含在机器人控制器54内的计时器用来记录曝光完成时的机器人手臂2的位置数据。
图像处理装置51接收拍摄的图像,并基于接收到的图像测量在拍摄图像时的相对于照相机4的相对目标点。图像处理装置51把测量数据传送给轨迹生成装置52。轨迹生成装置52接收从机器人控制器54传送的机器人手臂2的位置数据和从图像处理装置51传送的测量数据,并计算在机器人坐标系中的目标点(工件位置测量步骤)。位置数据和测量数据是同一个时间点的数据,并且根据机器人手臂2的位置数据来确定照相机4在机器人坐标系中的位置。因此机器人坐标系中的目标点可通过将机器人坐标系中的照相机位置加到来自图像处理装置51的测量数据来计算得出。
计算出目标点之后,轨迹生成装置52使用通过计算获得的数据来对于初始指示点TP修改接近轨迹(初始指示点TP已经被从存储装置53装载),并因此计算到目标点的新轨迹(轨迹修改步骤)。轨迹计算可采用包括常用的轨迹计算方法在内的各种方法,并且不局限于特定的计算方法。可使用的方法的示例包括最小化末端执行器3与目标点之间距离的方法,最小化机器人手臂2中关节的驱动量的方法,以及将每个都避免奇点的算法结合起来的方法。
图像处理和轨迹计算通常花费时间,而机器人手臂2在那段时间期间维持接近轨迹。修改接近轨迹的操作不限于一次,而可以尽可能的重复多次。
通过计算获得的新接近轨迹作为轨迹数据传送到机器人控制器54。机器人控制器54驱动和控制机器人手臂2使得末端执行器3和照相机4沿着新生成的接近轨迹移动。那些信息被传送至存储装置53,以被积累作为工件10的测量信息。
接下来参照图4描述在照相机4沿着按上述方式生成的平行轨迹移动时获得的一种效果。首先,为了用末端执行器对工件执行一些工作,末端执行器需要被引导至精确的目标点。通常在给出指示时的工件位置与执行实际工作时的工件位置之间有误差,这使得必须基于照相机拍摄的图像的信息来修改目标点。下面是对于沿着平行轨迹移动照相机4的效果的具体描述。
首先,通过设置X轴、Y轴和Z轴在照相机4的成像平面上设置照相机坐标系(见图1),其中X轴与Y轴在原点处与照相机的光轴相交,Z轴沿着与成像平面正交的方向(光轴方向)。在拍摄时刻t处在X轴方向、Y轴方向和Z轴方向上的照相机速度分别设为Vx(t)、Vy(t)和Vz(t)。照相机4与工件10之间的距离设为W,照相机4的焦距设为f,成像平面上的测量点的位置设为(x,y),曝光时间设为T。然后,由于照相机4的关于X轴方向、Y轴方向和Z轴方向的移动(移动方向)造成的模糊量如图4所示。
下面描述对于Z轴方向上的移动的X轴方向上的模糊。Y轴方向上的模糊由与X轴方向上的模糊的表达式相同的表达式(除了将x替换成y之外)来表示,因此其描述被省略。对于Z轴方向上的移动的模糊量最初表示如下。
x · f W 2 - W ∫ 0 T v z ( t ) dt ∫ 0 T v x ( t ) dt
但是,因为末端执行器3可能碰到工件10,所以机器人手臂2需要被设置为使得拍摄期间满足下列表达式。
W > > ∫ 0 T v z ( t ) dt
因此,对于Z轴方向上的移动的模糊量通过图4中示出的表达式近似地表示。
x · f W 2 ∫ 0 T v x ( t ) dt
如果安装在机器人主体6上的照相机尺寸较大,有效载荷变重而且有可能干扰其它结构。因此照相机被设计为尺寸较小。换句话说,照相机的传感器尺寸相对于拍摄距离被设计成足够小以满足x<<W。因此建立以下表达式。
x &CenterDot; f W 2 < < f W
因此,当移动速度相同时,模糊量仅仅对于Z轴方向较小。
例如,当照相机的焦距f是20mm,拍摄距离W是100mm,X轴、Y轴和Z轴方向上的移动速度Vx(t)、Vy(t)、和Vz(t)都是50mm/s,曝光时间T是10ms,传感器间距(pitch)是2μm,并且在成像平面上的测量点x是1mm时,在成像平面上的与中心相距1mm的点处对于X轴方向上的移动的模糊是0.1mm,即50个像素。这个模糊的后果不可忽视。另一方面,对于Z轴方向上的移动的模糊仅为1μm,即0.5个像素,并且没有显著的后果。
如已描述的,在根据第一实施例的机器人系统1中,当机器人手臂2在控制下在基于指示点生成的接近轨迹上被驱动,并且照相机4接近工件10时,机器人手臂2被驱动和控制为使得照相机4朝着工件10线性移动。具体地说,机器人手臂2被驱动和控制为使得照相机4与其光轴平行地移动。照相机4在与光轴平行地线性移动的同时对工件10进行拍摄。因此,尽管机器人手臂2正在被驱动,由于安装在机器人手臂2上的照相机4的移动造成的模糊也被减少。因此,在工件的位置/姿势的测量、表面状态(诸如是否存在部件)的测量、标签识别等方面,精确性得到提高。
另外,因为照相机在不停止机器人手臂2的情况下拍摄图像,所以用于机器人手臂2重新加速的时间是不必要的,并且工作时间被缩短。
本文中使用的术语“平行”包括“基本上平行”,“基本上平行”在数学意义上不是严格平行,但是提供等同的效果。如果与严格平行方向的偏差小并且在X轴方向和Y轴方向上的移动分量相比于Z轴方向上的移动是可以忽略的,则其是可以接受的。例如,在上面给出的示例中,当平行性的偏差使得照相机在Z轴方向上行进100μm的同时在X轴方向和Y轴方向上行进1μm时,获得基本上等同的效果。
第二实施例
接下来参照图5以及图1、图2描述本发明的第二实施例。根据第二实施例的机器人系统1A与第一实施例不同之处在于由控制装置5A控制的末端执行器3和照相机4的轨迹。因此第二实施例的描述将集中于与第一实施例的不同之处,即,末端执行器3与照相机4的轨迹,而与第一实施例中相同的配置的描述被省略。
如图1和图2所示,机器人系统1A包括机器人主体6、照相机4和控制装置5A,控制装置5A能够控制机器人主体6和照相机4。机器人主体6包括机器人手臂2和末端执行器3。控制装置5A包括图像处理装置51、轨迹生成装置52、存储装置53、机器人控制器54、记录介质读取装置55和通信装置56。
接下来参照图5描述这样配置的控制装置5A控制机器人手臂2的方法。直到到达其中照相机4可对工件10进行拍摄的范围的步骤与第一实施例中相同,并且这里省略其描述。
当照相机4到达其中可对工件10进行拍摄的区域时,轨迹生成装置52生成平行轨迹,使得照相机4与照相机的光轴平行地朝向工件10线性(图3的直线lc)移动。如图5所示,轨迹生成装置52在此形成平行轨迹,使得初始指示点TP至少直到照相机4拍摄图像的点时都位于照相机4的光轴上。
在初始指示点TP在照相机4的光轴上的情况下,照相机4在初始指示点TP处拍摄的图像的位置被表示为x=y=0。因此对于Z轴方向上的移动的图像的模糊根据图4的表达式被计算为0。因为测量目标点通常位于临时测量点(即初始指示点)附近,所以与第一实施例相比,第二实施例中的测量对象更少模糊,并且可以获得较高的模糊防止效果。
拍摄之后的优选接近轨迹用图5所示的le的曲线部分表示。换句话说,优选的是在线性移动以完成拍摄而结束之后,生成为平滑改变而弯曲的轨迹。
第三实施例
接下来参照图6和图7以及图1和图2描述本发明的第三实施例。根据第三实施例的机器人系统1B与第一实施例不同之处在于照相机4B相对于末端执行器3B以给定角度被安装,以便在拍摄的图像中包含末端执行器3B的顶端。因此第三实施例的描述集中于与第一实施例的不同之处,即,照相机4B的安装方式,而与第一实施例中相同的配置的描述被省略。
如图1和图2所示,机器人系统1B包括机器人主体6、照相机4B和控制装置5B,控制装置5B能够控制机器人主体6和照相机4B。机器人主体6包括机器人手臂2和末端执行器3B。控制装置5B包括图像处理装置51、轨迹生成装置52、存储装置53、机器人控制器54、记录介质读取装置55和通信装置56。
大多数末端执行器(例如驱动器和分配器)在工作姿势上通常都是有限的。换句话说,使用末端执行器的工作具有方向性,并且末端执行器需要在工作期间处于特定的姿势。因此本实施例中照相机4B被固定在机器人手臂2的顶端,使得照相机4B的相对于末端执行器3B的合适的仰角一直保持末端执行器3B的顶端被包括在照相机4B的视角内,如图6和图7所示。
本文中使用的仰角是角度θ,该角度θ被形成在照相机4B的光轴与末端执行器(例如,驱动器)3B的工作方向之间。换句话说,所述仰角是如下的角度,即照相机4B以这个角度相对于工作方向从一侧看向工作部位,使得末端执行器3B正在工作的同时工作部位被包括在拍摄的图像中。末端执行器3B的工作方向在驱动器的情况中是例如螺杆移动的方向,即,主轴方向。通常,照相机4B被安装为使得设置合适的仰角将末端执行器3B的工作点放在光轴附近。
在照相机4B被安装为使得末端执行器3B的顶端被包括在拍摄的图像内的情况下,接近工件的末端执行器3B可以保持如图7所示的工作姿势,并消除了浪费的动作。例如,在如图12所示的现有技术的示例中经过最短距离接近工件110的情况下,初始指示点TP在远距离处没有被包括在视角内。即使在初始指示点TP被包括在视角内之后,图像上的初始指示点TP的位置也已经移远,这导致显著的模糊。在第三实施例中,相比之下,照相机4B在如下的轨迹上,该轨迹允许末端执行器3B的顶端从照相机4B被设置的仰角的方向进入而同时维持末端执行器3B的姿势。以这种方式,照相机4B与其光轴的方向平行地移动,并且如第一实施例中一样,在照相机4B走上平行轨迹之后执行的任何拍摄中模糊都保持较小。另外,第三实施例不需要如图13的现有技术的示例中的情况那样在工件不偏离时大幅度移动末端执行器103。
图像中指示点处的模糊可以通过采用把指示点放在光轴上的轨迹来消除。此外,如果末端执行器被固定在机器人手臂的顶端,使得末端执行器的动作点也在光轴上,则机器人系统1B可用于图像伺服操作,该图像伺服操作使末端执行器的动作点与位于指示点附近的真实目标点一致。
第四实施例
接下来参照图8至图11和图2来描述本发明的第四实施例。根据第四实施例的机器人系统1C与第一实施例的不同之处在于使用了具有两个镜头的立体照相机。因此第四实施例的描述集中于使用立体照相机的情况,而与第一实施例中相同的配置的描述被省略。
如图8所示,机器人系统1C包括机器人主体6、安装在机器人主体6上的照相机42和43、以及控制装置5C,控制装置5C能够控制机器人主体6和照相机42、43。机器人主体6包括机器人手臂2和末端执行器3。
如图9所示,照相机42和43分别在维持给定的基线长度的同时被固定到机器人手臂2,并且构成立体照相机41,该立体照相机41能够通过已知立体测量来检测工件10的三维位置和姿势。图9的线lc22是穿过照相机42的焦点和初始指示点TP的直线。图9的线lc23是穿过照相机43的焦点和初始指示点TP的直线。图9的平面Pc是由lc22和lc23这两条直线形成的平面,换句话说,是由照相机42的焦点、照相机43的焦点和初始指示点TP形成的平面。该平面通常称作核面Pc,并且机器人手臂2的顶端的轨迹由轨迹生成装置52生成为平行于核面Pc。
接下来参照图10描述在照相机42和43与核面Pc平行地移动时获得的一个效果。图10的图像44是用照相机42拍摄的图像。图10的图像45是用照相机43拍摄的图像。图10的点tp44代表指示点处的图像44上的模糊和点。图10的点tp45代表指示点处的图像45上的模糊和点。本实施例中的机器人手臂被控制为使得测量点处的图像总是在相同的核面上。因此,如图10所示,模糊只出现在特定的方向上,即,只出现在核线上。
机器人手臂2的顶端和照相机42、43在工作期间接近指示点。所以,根据已知的立体测量的原理,由模糊引起的亮线上的视差最大处的点代表最终位置。例如,在图11中,点O代表测量点,点A和B分别代表在照相机42和43开始曝光时测量点O的图像,点A"和B"分别代表在照相机42和43结束曝光时测量点O的图像。线段A'A"和线段B'B"代表在曝光完成时测量点的图像中的模糊。图11示出当照相机最接近测量点O(换句话说,在A"和B"这一对中)时视差最大。因此最新的位置由模糊的图像中的视差最大处的点表示,并且这个点可被容易地缩小。另外,使用这个点的测量获得最新的信息。
如上所述,根据第四实施例,尽管有模糊,也可容易地且精确地检测三维目标点,并且实现通过移动的照相机进行的三维位置测量。
一个甚至更优选的轨迹方向是,除了平行于核面,还平行于连接两台照相机的焦点的线的垂直平分线。这样,可以避免不均衡的模糊,在这种不均衡的模糊中只有用照相机中的一台拍摄的图像被显著模糊。如果轨迹被生成在另一轨迹方向上使得除了具有以上描述的特征外指示点还位于照相机中的一台照相机的光轴上,则可以从该照相机拍摄的图像中基本消除模糊。在这种情况下,诸如纹理(texture)之类的表面状态可用照相机无模糊地观测到,所述照相机除了执行三维位置测量之外还被设置成使得指示点位于光轴上。
根据本发明的一个实施例,可通过使用照相机拍摄的图像进行各种工作,而不损害运行速度。
虽然已经参考示范性实施例描述了本发明,但是要理解的是本发明不局限于公开的示范性实施例。下列权利要求的范围与最宽泛的解释一致,从而包含所有这种修改和等同的结构与功能。

Claims (14)

1.一种机器人系统,包括:
机器人主体;
安装在所述机器人主体上并能够对工件进行拍摄的照相机;以及
控制装置,用于基于到预先设置的指示点的轨迹来驱动和控制所述机器人主体,以及,当在所述驱动和控制期间所述照相机到达所述照相机能够对所述工件进行拍摄的区域时,驱动和控制所述机器人主体以使得所述照相机朝向所述工件线性移动,在所述照相机线性移动的同时使用所述照相机拍摄所述工件的图像,并且根据所拍摄的图像测量所述工件的位置。
2.根据权利要求1所述的机器人系统,其中所述控制装置驱动和控制所述机器人主体以使得所述照相机与所述照相机的光轴平行地线性移动。
3.根据权利要求1所述的机器人系统,其中,当所述照相机到达所述照相机能够对所述工件进行拍摄的所述区域时,所述控制装置驱动和控制所述机器人主体以使得所述指示点位于所述照相机的光轴上。
4.根据权利要求1或3所述的机器人系统,
其中所述机器人主体包括机器人手臂和末端执行器,所述末端执行器被安装在所述机器人手臂的顶端上来执行给定工作,以及
其中所述照相机以相对于所述末端执行器的给定角度被安装在所述机器人手臂和所述末端执行器中的一个上,使得所述末端执行器的顶端被包括在所拍摄的图像内。
5.一种机器人系统,包括:
机器人主体;
安装在所述机器人主体上并能够对工件进行拍摄的立体照相机;以及
控制装置,用于基于到预先设置的指示点的轨迹来驱动和控制所述机器人主体,以及,当在所述驱动和控制期间所述立体照相机到达所述立体照相机能够对所述工件进行拍摄的区域时,驱动和控制所述机器人主体以使得所述立体照相机朝向所述工件线性移动,在所述立体照相机线性移动的同时使用所述立体照相机拍摄所述工件的图像,并且根据所拍摄的图像测量所述工件的三维位置。
6.根据权利要求5所述的机器人系统,其中所述控制装置驱动和控制所述机器人主体以使得所述立体照相机与核面平行地线性移动,所述核面包括包含所述立体照相机的两个焦点和所述预先设置的指示点的平面。
7.根据权利要求1或5所述的机器人系统,其中所述控制装置基于所述工件的所测量的位置来修改所述机器人主体的所述轨迹。
8.一种机器人控制方法,包括:
线性移动控制步骤,通过控制单元基于到预先设置的指示点的轨迹来驱动和控制机器人主体,以及,当在所述驱动和控制期间安装在所述机器人主体上的照相机到达所述照相机能够对工件进行拍摄的区域时,驱动和控制所述机器人主体以使得所述照相机朝向所述工件线性移动;
工件位置测量步骤,通过所述控制单元在所述照相机线性移动的同时用所述照相机拍摄所述工件的图像,并根据所拍摄的图像测量所述工件的位置。
9.根据权利要求8所述的机器人控制方法,其中所述线性移动控制步骤还包括驱动和控制所述机器人主体以使得所述照相机与所述照相机的光轴平行地线性移动。
10.一种机器人控制方法,包括:
线性移动控制步骤,通过控制单元基于到预先设置的指示点的轨迹来驱动和控制机器人主体,以及,当在所述驱动和控制期间安装在所述机器人主体上的立体照相机到达所述立体照相机能够对工件进行拍摄的区域时,驱动和控制所述机器人主体以使得所述立体照相机朝向所述工件线性移动;以及
三维位置测量步骤,通过所述控制单元在所述立体照相机线性移动的同时用所述立体照相机拍摄所述工件的图像,并根据所拍摄的图像测量所述工件的三维位置。
11.根据权利要求10所述的机器人控制方法,其中所述线性移动控制步骤还包括驱动和控制所述机器人主体以使得所述立体照相机与核面平行地线性移动,所述核面包括包含所述立体照相机的两个焦点和所述指示点的平面。
12.根据权利要求8或10所述的机器人控制方法,还包括轨迹修改步骤,所述轨迹修改步骤通过所述控制单元基于所述工件的所测量的位置来修改所述机器人主体的所述轨迹。
13.一种机器人控制程序,用于控制计算机以使得所述计算机执行根据权利要求8或10所述的机器人控制方法的步骤。
14.一种计算机可读记录介质,在其上记录有根据权利要求13所述的机器人控制程序。
CN201410259247.5A 2013-06-17 2014-06-12 机器人系统与机器人控制方法 Active CN104227722B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013126680A JP6188440B2 (ja) 2013-06-17 2013-06-17 ロボット装置及びロボット制御方法
JP2013-126680 2013-06-17

Publications (2)

Publication Number Publication Date
CN104227722A true CN104227722A (zh) 2014-12-24
CN104227722B CN104227722B (zh) 2017-05-31

Family

ID=52019906

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410259247.5A Active CN104227722B (zh) 2013-06-17 2014-06-12 机器人系统与机器人控制方法

Country Status (3)

Country Link
US (1) US9393696B2 (zh)
JP (1) JP6188440B2 (zh)
CN (1) CN104227722B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104950816A (zh) * 2015-06-29 2015-09-30 贵州桂荣科技有限公司 一种电子手环组装设备智能编码控制方法
CN105500330A (zh) * 2015-12-01 2016-04-20 岳睿 无人驾驶的机电一体化的运输车
CN106679563A (zh) * 2016-12-13 2017-05-17 广州视源电子科技股份有限公司 待测卡板的针盒位置的确定方法和装置
CN107921624A (zh) * 2015-08-25 2018-04-17 川崎重工业株式会社 产业用远程操作机器人系统
CN107921643A (zh) * 2015-09-03 2018-04-17 富士机械制造株式会社 机器人系统
CN108527319A (zh) * 2018-03-28 2018-09-14 广州瑞松北斗汽车装备有限公司 基于视觉系统的机器人示教方法及系统
CN109309791A (zh) * 2018-11-09 2019-02-05 珠海格力智能装备有限公司 控制相机拍照方法和系统
CN109789521A (zh) * 2016-07-21 2019-05-21 索纳茨-表面新技术应用公司 自动化的锤击方法以及用于实施该方法的自动化系统
CN110385701A (zh) * 2018-04-19 2019-10-29 远大机器人有限公司 多节式致动的运动机构,优选机器人,特别优选关节型机器人
CN112008746A (zh) * 2019-05-31 2020-12-01 精工爱普生株式会社 机器人

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110209320A1 (en) * 2010-02-26 2011-09-01 Abb Inc. Vision Guided Robotic Grommet Installation
US9656390B2 (en) * 2014-11-10 2017-05-23 Faro Technologies, Inc. Human-centric robot with noncontact measurement device
CN104608137B (zh) * 2015-02-09 2016-08-24 江苏科沁光电科技有限公司 一种带视觉的四轴机器人系统
US10335951B2 (en) * 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system
US9418421B1 (en) * 2015-09-26 2016-08-16 Nastaran Neishaboori Automation of biopsy specimen handling
CN105364926A (zh) * 2015-11-20 2016-03-02 上海新时达电气股份有限公司 一种多轴机器人驱控一体化控制系统
JP6714393B2 (ja) * 2016-03-02 2020-06-24 キヤノン株式会社 計測装置、システム、計測方法、および物品の製造方法
JP6514156B2 (ja) 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
JP2019058993A (ja) * 2017-09-27 2019-04-18 セイコーエプソン株式会社 ロボットシステム
US11358290B2 (en) * 2017-10-19 2022-06-14 Canon Kabushiki Kaisha Control apparatus, robot system, method for operating control apparatus, and storage medium
JP7323993B2 (ja) * 2017-10-19 2023-08-09 キヤノン株式会社 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
CN107876269B (zh) * 2017-12-25 2023-06-16 厦门大学嘉庚学院 鞋模自动喷胶的三目视觉喷涂轨迹提取系统及其工作方法
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
JP6878391B2 (ja) * 2018-12-18 2021-05-26 ファナック株式会社 ロボットシステムとその調整方法
CN109919976B (zh) * 2019-02-25 2023-01-17 太仓中科信息技术研究院 基于摄像机器人的场景自动化复用方法、设备和存储介质
JP6717401B1 (ja) * 2019-04-01 2020-07-01 株式会社安川電機 プログラミング支援装置、ロボットシステム及びプログラミング支援方法
KR102492922B1 (ko) * 2022-03-03 2023-01-30 인팩일렉스 주식회사 전기 자동차용 pcb 기판의 전자부품 본딩 시스템

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365586A (ja) * 1991-06-14 1992-12-17 Toyota Autom Loom Works Ltd ハンドアイの光軸整合方法及び直交軸整合方法
JPH08241109A (ja) * 1995-03-03 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> 物体設定用投光装置およびそれを使用した自動作業装置
JP2003326485A (ja) * 2002-05-08 2003-11-18 Mitsubishi Heavy Ind Ltd 捕獲用センサ付マニピュレータ
CN1573628A (zh) * 2003-05-29 2005-02-02 发那科株式会社 自动机械系统
US7177459B1 (en) * 1999-04-08 2007-02-13 Fanuc Ltd Robot system having image processing function
CN101274432A (zh) * 2007-03-30 2008-10-01 发那科株式会社 目标物取出装置
CN101372098A (zh) * 2007-08-23 2009-02-25 株式会社Ihi 机器人装置的控制方法以及机器人装置
CN101733755A (zh) * 2008-11-07 2010-06-16 精工爱普生株式会社 机械手系统、机械手控制装置以及机械手控制方法
CN102736626A (zh) * 2012-05-11 2012-10-17 北京化工大学 基于视觉的移动小车位姿镇定控制方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4891767A (en) * 1988-06-02 1990-01-02 Combustion Engineering, Inc. Machine vision system for position sensing
JPH0699381A (ja) * 1992-09-22 1994-04-12 Hitachi Koki Co Ltd 視覚センサ付きロボットの制御方法
JPH0847881A (ja) * 1994-08-05 1996-02-20 Ishikawajima Harima Heavy Ind Co Ltd ロボットの遠隔操作方法
JP3998741B2 (ja) * 1995-07-12 2007-10-31 ファナック株式会社 ロボットの移動制御方法
JPH0947991A (ja) * 1995-08-01 1997-02-18 Mitsubishi Heavy Ind Ltd 産業ロボット用視覚情報処理方法とその装置
JP3768665B2 (ja) 1997-12-12 2006-04-19 キヤノン株式会社 周波信号生成回路及び振動型アクチュエータの駆動装置
US6229402B1 (en) 1998-05-28 2001-05-08 Canon Kabushiki Kaisha Driving circuit for vibration type actuator apparatus
US6194860B1 (en) * 1999-11-01 2001-02-27 Yoder Software, Inc. Mobile camera-space manipulation
JP4167954B2 (ja) * 2003-09-02 2008-10-22 ファナック株式会社 ロボット及びロボット移動方法
JP2009241247A (ja) * 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
US9279661B2 (en) * 2011-07-08 2016-03-08 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP6032564B2 (ja) * 2011-09-22 2016-11-30 パナソニックIpマネジメント株式会社 立体画像用撮影装置、及び立体画像用撮影方法
US8913825B2 (en) * 2012-07-16 2014-12-16 Mitsubishi Electric Research Laboratories, Inc. Specular edge extraction using multi-flash imaging

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365586A (ja) * 1991-06-14 1992-12-17 Toyota Autom Loom Works Ltd ハンドアイの光軸整合方法及び直交軸整合方法
JPH08241109A (ja) * 1995-03-03 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> 物体設定用投光装置およびそれを使用した自動作業装置
US7177459B1 (en) * 1999-04-08 2007-02-13 Fanuc Ltd Robot system having image processing function
JP2003326485A (ja) * 2002-05-08 2003-11-18 Mitsubishi Heavy Ind Ltd 捕獲用センサ付マニピュレータ
CN1573628A (zh) * 2003-05-29 2005-02-02 发那科株式会社 自动机械系统
CN101274432A (zh) * 2007-03-30 2008-10-01 发那科株式会社 目标物取出装置
CN101372098A (zh) * 2007-08-23 2009-02-25 株式会社Ihi 机器人装置的控制方法以及机器人装置
CN101733755A (zh) * 2008-11-07 2010-06-16 精工爱普生株式会社 机械手系统、机械手控制装置以及机械手控制方法
CN102736626A (zh) * 2012-05-11 2012-10-17 北京化工大学 基于视觉的移动小车位姿镇定控制方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104950816A (zh) * 2015-06-29 2015-09-30 贵州桂荣科技有限公司 一种电子手环组装设备智能编码控制方法
CN107921624A (zh) * 2015-08-25 2018-04-17 川崎重工业株式会社 产业用远程操作机器人系统
CN107921624B (zh) * 2015-08-25 2021-06-11 川崎重工业株式会社 产业用远程操作机器人系统
CN107921643A (zh) * 2015-09-03 2018-04-17 富士机械制造株式会社 机器人系统
CN107921643B (zh) * 2015-09-03 2021-05-07 株式会社富士 机器人系统
CN105500330A (zh) * 2015-12-01 2016-04-20 岳睿 无人驾驶的机电一体化的运输车
CN105500330B (zh) * 2015-12-01 2018-01-12 南陵旺科知识产权运营有限公司 无人驾驶的机电一体化的运输车
US20190217441A1 (en) * 2016-07-21 2019-07-18 Sonats - Societe Des Nouvelles Applications Des Techniques De Surface Robotized hammering method and robotized system for implementing the method
CN109789521B (zh) * 2016-07-21 2021-11-05 欧洲技术公司 自动化的锤击方法以及用于实施该方法的自动化系统
CN109789521A (zh) * 2016-07-21 2019-05-21 索纳茨-表面新技术应用公司 自动化的锤击方法以及用于实施该方法的自动化系统
CN106679563B (zh) * 2016-12-13 2019-05-07 广州视源电子科技股份有限公司 待测板卡的针盒位置的确定方法和装置
CN106679563A (zh) * 2016-12-13 2017-05-17 广州视源电子科技股份有限公司 待测卡板的针盒位置的确定方法和装置
CN108527319A (zh) * 2018-03-28 2018-09-14 广州瑞松北斗汽车装备有限公司 基于视觉系统的机器人示教方法及系统
CN110385701A (zh) * 2018-04-19 2019-10-29 远大机器人有限公司 多节式致动的运动机构,优选机器人,特别优选关节型机器人
CN109309791A (zh) * 2018-11-09 2019-02-05 珠海格力智能装备有限公司 控制相机拍照方法和系统
CN112008746A (zh) * 2019-05-31 2020-12-01 精工爱普生株式会社 机器人

Also Published As

Publication number Publication date
JP6188440B2 (ja) 2017-08-30
US20140371910A1 (en) 2014-12-18
US9393696B2 (en) 2016-07-19
JP2015000454A (ja) 2015-01-05
CN104227722B (zh) 2017-05-31

Similar Documents

Publication Publication Date Title
CN104227722A (zh) 机器人系统与机器人控制方法
US20200023521A1 (en) Method and device of controlling robot system
CN107883929B (zh) 基于多关节机械臂的单目视觉定位装置及方法
US7532949B2 (en) Measuring system
US20080027580A1 (en) Robot programming method and apparatus with both vision and force
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
EP0884141B1 (en) Force control robot system with visual sensor for inserting work
US20110087360A1 (en) Robot parts assembly on a workpiece moving on an assembly line
US10480923B2 (en) Sensor apparatus and robot system having the sensor apparatus
FI123306B (fi) Robottityökalujärjestelmä, sekä sen ohjausmenetelmä, tietokoneohjelma ja ohjelmistotuote
JP5366018B2 (ja) ロボットの教示手順校正装置および方法
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6900290B2 (ja) ロボットシステム
Alzarok et al. Survey of the current practices and challenges for vision systems in industrial robotic grasping and assembly applications
JP2008168372A (ja) ロボット装置及び形状認識方法
JP4289169B2 (ja) 複数ロボット間の相対位置計測方法
JP2009125839A (ja) 溶接教示位置補正システム
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
Qiao Advanced sensing development to support robot accuracy assessment and improvement
EP4122658A1 (en) Control device, inspection system, control method, program, and storage medium
EP1431705A1 (de) Einrichtung und Verfahren zur Bestimmung der Position eines Werkstücks unter Verwendung einer Schwenkneigekopfkamera
CN212622258U (zh) 车架测试打标设备
WO2024135220A1 (ja) ロボット制御システム
JPS63254575A (ja) 視覚センサのキヤリブレ−シヨン装置
KR100551312B1 (ko) 사이버 바디를 이용한 오프라인 티칭 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant