CN108161986A - 控制机器人臂的设备和方法 - Google Patents

控制机器人臂的设备和方法 Download PDF

Info

Publication number
CN108161986A
CN108161986A CN201710536444.0A CN201710536444A CN108161986A CN 108161986 A CN108161986 A CN 108161986A CN 201710536444 A CN201710536444 A CN 201710536444A CN 108161986 A CN108161986 A CN 108161986A
Authority
CN
China
Prior art keywords
image
range
processor
robots arm
failure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710536444.0A
Other languages
English (en)
Other versions
CN108161986B (zh
Inventor
郑载澔
车永东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Han Huajiqiren Zhu
Original Assignee
Samsung Techwin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Techwin Co Ltd filed Critical Samsung Techwin Co Ltd
Publication of CN108161986A publication Critical patent/CN108161986A/zh
Application granted granted Critical
Publication of CN108161986B publication Critical patent/CN108161986B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0095Means or methods for testing manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • B25J9/041Cylindrical coordinate type
    • B25J9/042Cylindrical coordinate type comprising an articulated arm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/106Programme-controlled manipulators characterised by positioning means for manipulator elements with articulated links
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39046Compare image of plate on robot with reference, move till coincidence, camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39413Robot self diagnostics

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

提供一种控制机器人臂的设备和方法。所述用于控制机器人臂的设备包括:机器人臂;校准板,显示用于自诊断的校准标记;距离传感器,安装在机器人臂上并且被配置为测量距离;图像传感器,安装在机器人臂上并且被配置为获得图像;处理器,被配置为:将机器人臂移动到用于自诊断的位置,通过使用距离传感器测量从机器人臂的预定部分到校准板的距离,通过使用图像传感器获得校准板的图像,响应于测量的距离在距离误差范围之外并且获得的图像的图像测量值在图像误差范围之外,输出指示机器人臂的故障的信号。

Description

控制机器人臂的设备和方法
本申请要求于2016年12月7日提交到韩国知识产权局的第10-2016-0166211号韩国专利申请的优先权,该韩国专利申请的公开通过引用全部包含于此。
技术领域
与本发明构思的示例性实施例一致的设备和方法涉及控制机器人臂。
背景技术
机器人可通过控制机器人臂的运动来执行拾取和放置功能。
然而,当机器人的运动无法被精确地控制或者机器人臂在拾取和放置功能被重复地执行时未对准时,工作精度下降,从而导致不经济的性能。
因此,需要用于确定机器人臂是否未对准的自诊断。
发明内容
一个或多个示例性实施例基于用于精确地控制机器人臂的技术。
本发明构思的各个方面将在下面的描述中部分阐述,并且部分从该描述将是清楚的,或者可通过提出的示例性实施例的实践而获知。
根据一个或多个示例性实施例,提供一种用于控制机器人臂的设备,包括:机器人臂;校准板,显示用于自诊断的校准标记;距离传感器,安装在机器人臂上并且被配置为测量距离;图像传感器,安装在机器人臂上并且被配置为获得图像;处理器,被配置为:将机器人臂移动到用于自诊断的位置,通过使用距离传感器测量从机器人臂的预定部分到校准板的距离,通过使用图像传感器获得校准板的图像,响应于测量的距离在距离误差范围之外并且获得的图像的图像测量值在图像误差范围之外,输出指示机器人臂的故障的信号。
处理器还可被配置为:响应于测量的距离在距离误差范围之外并且获得的图像的图像测量值在图像误差范围之内,输出距离传感器的故障。
处理器还可被配置为纠正距离传感器的故障。
处理器还可被配置为:响应于测量的距离在距离误差范围之内并且获得的图像的图像测量值在图像误差范围之外,输出指示图像传感器的误差的信号。
处理器还可被配置为设置参考距离和参考图像测量值中的至少一个,其中,距离误差范围是参考距离的误差范围,图像误差范围是参考图像测量值的误差范围。
图像测量值可包括获得的图像的分辨率、清晰度和中心位置中的至少一个,其中,处理器还被配置为:响应于获得的图像的分辨率和清晰度中的至少一个与参考图像测量值基本不同,输出机器人臂的垂直故障,并且响应于获得的图像的中心位置与参考图像测量值基本不同,输出机器人臂的水平故障。
处理器还可被配置为:响应于从机器人臂的预定部分到校准板的距离不能通过使用距离传感器被测量,输出距离传感器的故障。
根据一个或多个示例性实施例,提供一种用于控制机器人臂的设备,包括:通信接口,被配置为与安装在机器人臂上的距离传感器和图像传感器通信;处理器,被配置为:将机器人臂移动到用于自诊断的位置,并响应于通过距离传感器测量的从机器人臂的一部分到机器人臂周围的预定位置的距离在距离误差范围之外并且通过图像传感器获得的图像的多个图像测量值中的至少一个分别在多个图像误差范围中的至少一个之外,输出机器人臂的故障。
处理器还可被配置为:响应于测量的距离在距离误差范围之外并且获得的图像的所有的图像测量值分别在所述多个图像误差范围之内,输出指示距离传感器的故障的信号,并且响应于测量的距离在距离误差范围之内并且获得的图像的所述多个图像测量值中的至少一个分别在所述多个图像误差范围中的至少一个之外,输出图像传感器的故障。
处理器还可被配置为将在用于自诊断的位置处通过距离传感器测量的初始距离设置为参考距离,其中,距离误差范围是参考距离的误差范围。
处理器还可被配置为将在用于自诊断的位置处通过图像传感器获得的图像的最佳分辨率和最佳清晰度中的至少一个设置为参考图像测量值,其中,图像误差范围是参考图像测量值的误差范围。
根据一个或多个示例性实施例,提供一种控制机器人臂的方法,所述方法可包括:通过使用处理器,将机器人臂移动到用于自诊断的位置;通过使用安装在机器人臂上的距离传感器,测量从机器人臂的预定部分到校准板的距离;通过使用处理器,确定测量的距离是否在距离误差范围之外;响应于测量的距离在距离误差范围之外,通过使用安装在机器人臂上的图像传感器,获得校准板的图像;通过使用处理器,确定获得的图像的图像测量值是否在图像误差范围之外;响应于获得的图像的图像测量值在图像误差范围之外,通过使用处理器,输出指示机器人臂的故障的信号。
所述方法还可包括:响应于获得的图像的图像测量值在图像误差范围之内,通过使用处理器,输出距离传感器的故障。
所述方法还可包括:响应于测量的距离在距离误差范围之内,通过使用图像传感器,获得校准板的图像;通过使用处理器,确定获得的图像的图像测量值是否在图像误差范围之外;响应于获得的图像的图像测量值在图像误差范围之外,通过使用处理器,输出图像传感器的故障。
所述方法还包括:在移动机器人臂之前,通过使用处理器,设置参考距离和参考图像测量值中的至少一个,其中,距离误差范围是参考距离的误差范围,图像误差范围是参考图像测量值的误差范围。
图像测量值可包括获得的图像的分辨率、清晰度和中心位置,参考图像测量值可包括参考分辨率、参考清晰度和参考中心位置,其中,输出机器人臂的故障的步骤包括:通过使用处理器,确定图像测量值是否与参考图像测量值基本相同;响应于获得的图像的分辨率与参考分辨率基本不同或者获得的图像的清晰度与参考清晰度基本不同,通过使用处理器,输出机器人臂的垂直故障;响应于获得的图像的中心位置与参考中心位置不同,通过使用处理器,输出机器人臂的水平故障;响应于获得的图像的分辨率、清晰度和中心位置分别与参考分辨率、参考清晰度和参考中心位置基本相同,通过使用处理器,输出距离传感器的故障。
当所述距离不能通过距离传感器被测量时,所述方法还可包括:通过使用处理器,输出指示距离传感器的故障的信号。
根据示例性实施例,通过经由机器人臂自身是否具有故障或者安装在机器人臂上的传感器是否具有故障的自诊断可区分地通知用户,可提供用户便利性。
根据示例性实施例,通过经由自诊断自动地纠正安装在机器人臂上的传感器的故障,可提供用于有效并且经济地控制机器人臂的技术。
附图说明
从以下结合附图对实施例进行的描述,这些和/或其他方面将变得清楚和更容易理解,其中:
图1A和图1B是根据示例性实施例的用于解释用于控制机器人臂的设备的示图;
图2是示出根据示例性实施例的用于控制机器人臂的设备的配置的框图;
图3是根据示例性实施例的控制机器人臂的方法的流程图;
图4是根据示例性实施例的输出距离传感器的故障的方法的流程图;
图5是根据示例性实施例的纠正距离传感器的故障的方法的流程图;
图6是根据示例性实施例的输出机器人臂的故障的方法的流程图;
图7是根据示例性实施例的优化安装在机器人臂上的图像传感器的方法的流程图。
具体实施方式
由于本发明构思允许各种改变和许多实施例,因此示例性实施例将在附图中被示出并在书面描述中被详细描述。然而,这不意在将本发明构思限于实践的具体模式,并且将理解,不脱离本发明构思的精神和技术范围的所有改变、等同物和替代物被包含在本发明构思中。在示例性实施例的描述中,当认为现有技术的特定详细解释可能不必要地模糊本发明构思的本质时,它们可被省略。
尽管可使用如“第一”、“第二”等这样的术语来描述各种组件,但是这些组件不必被上面的术语所限制。上面的术语仅用于将一个组件与另一组件区分。
在本说明书中使用的术语仅用于描述示例性实施例,而不意在限制本发明构思。以单数使用的表达包含复数的表达,除非它在上下文中具有明显不同的含义。
在本说明书中,将理解,诸如“包括”、“具有”和“包含”等的术语意在指示在说明书中公开的特征、数量、步骤、动作、组件、部件或它们的组合的存在,而不意在排除一个或多个其他特征、数量、步骤、动作、组件、部件或它们的组合可能存在或可能添加的可能性。
示例性实施例可根据功能块组件以及各种处理步骤来描述。这样的功能块可由被配置为执行特定功能的任意数量的硬件和/或软件组件实现。例如,示例性实施例可采用可在一个或多个微处理器或其他控制装置的控制下执行多种功能的各种集成电路(IC)组件(例如,存储器元件、处理元件、逻辑元件、查找表等)。类似地,在使用软件编程或软件元件实现示例性实施例的元件的情况下,可使用利用数据结构、对象、进程、例程或其他编程元件的任意组合所实现的各种算法的任何编程或脚本语言(诸如,C、C++、Java、汇编语言等)来实施本公开。功能的方面可以以在一个或多个处理器上执行的算法来实施。此外,本公开可采用任意数量的用于电子构型、信号处理和/或数据处理等的传统技术。词语“机制”、“元件”、“装置”和“配置”可被广泛地使用并且不限于机械或物理实施例,而是可包括与处理器等相结合的软件例程。
如这里所使用的,术语“和/或”包括一个或多个相关所列项的任意组合和所有组合。当诸如“……中的至少一个”的表述在一列元素之后时,该表述修饰整列元素,而不是修饰该列的个别元素。
现在将参照示出示例性实施例的附图更充分地描述本发明构思。
图1A和图1B是根据示例性实施例的用于解释用于控制机器人臂12的设备的示图。
参照图1A和图1B,根据示例性实施例的设备可包括机器人10,其中,机器人10包括基部11、机器人臂12、图像传感器13、距离传感器14、校准板(calibration board)15和处理器130(见图2)。
基部11支撑机器人臂12的负荷并在机器人臂12移动时维持机器人10的稳定性。
机器人臂12通过做出线性运动和旋转运动来执行拾取和放置(pick-and-place)功能。机器人臂12可包括多个关节。每个关节可包括致动器。
图像传感器13获得图像。图像传感器13的示例可包括电荷耦合器件(CCD)和互补金属氧化物半导体(CMOS)。
图像传感器13可安装在机器人臂12上。例如,图像传感器13可与拾取和放置模块一起安装在机器人臂12的一端上。
距离传感器14可安装在机器人臂12上。例如,距离传感器14可安装在机器人臂12的所述一端上。在这种情况下,距离传感器14可与图像传感器13一起安装在机器人臂12的所述一端上。
距离传感器14可设置在图像传感器13中。
距离传感器14测量距离。距离传感器14可测量从机器人臂12的所述一端到机器人臂12周围的预定位置的距离,其中,预定位置是设置在机器人臂12的支撑件的校准点。例如,距离传感器14可测量距校准板15的距离。用于自诊断的校准标记可被示出在校准板15的面向图像传感器13和距离传感器14的顶表面上。校准板15的中心位置可被显示为与其他位置不同。校准板15的外围位置可被显示为与其他位置不同。
校准板15可安装在基部11上。例如,校准板15可安装在基部11的侧表面上。
校准板15可安装在与基部11的顶表面平行的表面上。例如,校准板15可安装在安装机器人10的台子的顶表面上。
包括在机器人10中的处理器130将机器人臂12移动到用于自诊断的位置,通过使用距离传感器14测量距校准板15的距离,通过使用图像传感器13获得校准板15的图像,当测量的距离在距离误差范围之外并且获得的图像的至少一个图像测量值在图像误差范围之外时,输出指示机器人臂12的故障的信号。这里,通过距离传感器14测量的距离可以是距机器人臂12的预定部分的最短距离(例如,从机器人臂12的一端到校准板15的顶表面的最短距离)。
根据本示例性实施例的设备可通过向用户通知与距离传感器14的故障或者图像传感器13的故障不同的机器人臂12自身的故障,来提供用户便利性并减少相关成本。
当通过距离传感器14测量的距离在距离误差范围之外时,处理器130可通过使用图像传感器13获得校准板15的图像。
当机器人10被初始驱动时,处理器130可将机器人臂12移动到用于自诊断的位置。处理器130可根据用户输入在预定时间将机器人臂12移动到用于自诊断的位置。处理器130可以以预定时间间隔将机器人臂12移动到用于自诊断的位置。当机器人10被启动、开动或初始化时,处理器130可将机器人臂12移动到用于自诊断的位置。
用于自诊断的位置可被预先设置。例如,用于自诊断的位置可以是机器人臂12的安装在基部11的侧表面上的校准板15的整个顶表面通过安装在机器人臂12的一端上的图像传感器13被取像的位置。可选地,用于自诊断的位置可以是机器人臂12的距安装在基部11的侧表面上的校准板15的顶表面的距离能够通过安装在机器人臂12的一端上的距离传感器14被测量的位置。
处理器130可设置参考距离和参考图像测量值中的至少一个。距离误差范围可以是参考距离的误差范围,图像误差范围可以是参考图像测量值的误差范围。
参考距离、参考距离的误差范围、参考图像测量值和参考图像测量值的误差范围可根据用户输入被预先设置。
处理器130可将在用于自诊断的位置处通过距离传感器14测量的初始距离(即,首次测量的距离)预先设置为参考距离。通过距离传感器14测量的初始距离可以是距校准板15的初始距离。这里,初始距离可以是首次测量的从距离传感器14到校准板15的最短距离。
参考距离的误差范围可根据距离传感器14的规格而改变。
参考图像测量值可包括参考分辨率、参考清晰度和参考中心位置。
处理器130可将在用于自诊断的位置处通过图像传感器13获得的图像的初始分辨率或最佳分辨率设置为参考分辨率。初始分辨率可以是通过图像传感器13首次获得的分辨率。
参考分辨率的误差范围可根据图像传感器13的规格而改变。例如,参考分辨率的误差范围可根据图像传感器13的透镜规格(诸如,透镜放大率或透镜焦点深度)而改变。参考分辨率的误差范围可基于具有预定规格的图像传感器13的实验值被确定。
处理器130可将在用于自诊断的位置处通过图像传感器13获得的图像的初始清晰度或最佳清晰度设置为参考清晰度。初始清晰度可以是通过图像传感器13首次获得的清晰度。
参考清晰度的误差范围可根据图像传感器13的规格而改变。例如,参考清晰度的误差范围可根据透镜规格(诸如,透镜放大率或透镜焦点深度)而改变。参考清晰度的误差范围可基于具有预定规格的图像传感器13的实验值被确定。
处理器130可将在用于自诊断的位置处通过图像传感器13获得的图像的初始中心位置或最佳中心位置设置为参考中心位置。初始中心位置可以是通过图像传感器13首次获得的中心位置。
处理器130可将校准板15的中心位置设置为参考中心位置。
参考中心位置的误差范围可根据图像传感器13的规格而改变。例如,参考中心位置的误差范围可根据图像传感器13的透镜规格(诸如,透镜放大率或透镜焦点深度)而改变。参考中心位置的误差范围可基于具有预定规格的图像传感器13的实验值被确定。参考中心位置的误差范围可根据显示在校准板15上的校准标记之间的间距而改变。
图像测量值可包括通过图像传感器13获得的图像的分辨率、清晰度和中心位置中的至少一个。当获得的图像的分辨率和清晰度中的至少一个与参考图像测量值基本不同时,处理器130可输出指示机器人臂12的垂直故障的信号。当获得的图像的中心位置与参考图像测量值基本不同时,处理器130可输出指示机器人臂12的水平故障的信号。
例如,当获得的图像的分辨率与预先确定的初始分辨率或最佳分辨率基本不同时,或者当获得的图像的清晰度与预先确定的初始清晰度或最佳清晰度基本不同时,处理器130可输出指示机器人臂12的垂直故障的信号。当获得的图像的中心位置与校准板15的初始中心位置或最佳中心位置基本不同时,处理器130可输出指示机器人臂12的水平故障的信号。这里,贯穿本公开,表述“基本不同”和“基本相同”可分别表示“在相应的误差范围之外”和“在相应的误差范围之内”。
当通过距离传感器14测量的距离在距离误差范围之外并且通过图像传感器13获得的图像的图像测量值在图像误差范围之内时,处理器130可输出指示距离传感器14的故障的信号。
根据本示例性实施例的设备可通过向用户通知与机器人臂12自身的故障不同的距离传感器14的故障,来提供用户便利性并减少相关成本。
当通过距离传感器14测量的距离在距离误差范围之内并且通过图像传感器13获得的图像的图像测量值在图像误差范围之外时,处理器130可输出指示图像传感器13的故障的信号。具体地讲,当通过距离传感器14测量的距离在距离误差范围之内并且通过图像传感器13获得的图像的图像测量值(即,分辨率、清晰度和中心位置)分别在图像误差范围(即,参考分辨率的误差范围、参考清晰度的误差范围和参考中心位置的误差范围)之外时,处理器130可输出指示图像传感器13的故障的信号。
当通过距离传感器14测量的距离在距离误差范围之内时,处理器130可通过使用图像传感器13获得校准板15的图像。
根据本示例性实施例的设备可通过向用户通知与机器人臂12自身的故障不同的图像传感器13的故障,来提供用户便利性并减少相关成本。
当距校准板15的距离不能在机器人臂12的预先设置的用于自诊断的位置处通过使用距离传感器14被测量时,处理器130可输出指示距离传感器14的故障的信号。
处理器130可纠正距离传感器14的故障。
详细地讲,当距离传感器14的故障可被纠正时,处理器130可纠正距离传感器14的故障,并且当距离传感器14的故障不能被纠正时,处理器130可输出指示距离传感器14的故障的信号。
例如,距离传感器14的故障可被纠正的情况是距校准板15的距离可在机器人臂12的预先设置的用于自诊断的位置处通过使用距离传感器14被测量的情况。因此,当距校准板15的距离可通过使用距离传感器14被测量时,处理器130可纠正距离传感器14的故障。
例如,距离传感器14的故障可被纠正的情况是通过距离传感器14测量的距离在距离误差范围之外的情况。因此,当通过距离传感器14测量的距离在距离误差范围之外时,处理器130可纠正距离传感器14的故障。
例如,距离传感器14的故障不能被纠正的情况是距校准板15的距离不能通过使用距离传感器14被测量的情况。因此,当距校准板15的距离不能通过使用距离传感器14被测量时,处理器130可输出指示距离传感器14的故障的信号。
根据本示例性实施例的设备可提供用于通过经由自诊断自动地纠正安装在机器人臂12上的传感器的故障来有效并且经济地控制机器人臂12的技术。
当通过距离传感器14测量的距离在距离误差范围之内并且通过图像传感器13获得的图像的所有的图像测量值分别在所有的图像误差范围之内时,处理器130可优化图像传感器13的功能,并且可将机器人臂12从用于自诊断的位置移动到用于执行拾取和放置功能的位置。以下将参照图7解释图像传感器13的功能的优化。
这里,指示机器人臂12、图像传感器13、距离传感器14的故障的各个信号可通过不同的形式被表示,以彼此区分。这些信号可以是视觉信号、音频信号、触觉信号等(但不限于此)之一,或者可以是这些信号的组合。
与上面做出的描述相同的描述将简略地给出或者被省略。
图2是示出根据示例性实施例的用于控制机器人臂12的设备100的配置的框图。
参照图2,根据示例性实施例的设备100包括通信接口110、存储器120和处理器130。
设备100可与机器人10(见图1A)分开,并可与机器人10通信。设备100可执行与输出机器人臂12(见图1A)、图像传感器13(见图1A)和距离传感器14(见图1A)中的至少一个的故障的处理相关的控制操作。设备100可执行与纠正图像传感器13和距离传感器14中的至少一个的处理相关的控制操作。
通信接口110与安装在机器人臂12上的距离传感器14和图像传感器13通信。
通信接口110可从距离传感器14接收距离数据。
通信接口110可从图像传感器13接收图像数据。
通信接口110可接收用户输入。用户输入可包括与机器人臂12移动到用于自诊断的位置的时间、参考距离、参考距离的误差范围、参考图像测量值(即,参考分辨率、参考清晰度和参考中心位置)和参考图像测量值的误差范围中的至少一个相关的输入。
存储器120可存储通过通信接口110接收到的信息和通过处理器130产生的信息。
存储器120可存储从距离传感器14接收到的距离数据、从图像传感器13接收到的图像数据和用户输入。
存储器120可存储机器人臂12的用于自诊断的位置、机器人臂12移动到用于自诊断的位置的时间、图像传感器13的规格、距离传感器14的规格、参考距离、参考距离的误差范围、参考图像测量值、参考图像测量值的误差范围、测量的距离和图像测量值。
当在用于自诊断的位置通过距离传感器14测量的距离在距离误差范围之外并且通过图像传感器13获得的图像的图像测量值中的至少一个分别在图像误差范围中的至少一个之外时,处理器130将机器人臂12移动到用于自诊断的位置,并输出指示机器人臂12的故障的信号。
当通过距离传感器14测量的距离在距离误差范围之外并且通过图像传感器13获得的图像的所有的图像测量值分别在所有的图像误差范围之内时,处理器130可输出指示距离传感器14的故障的信号,并且当通过距离传感器14测量的距离在距离误差范围之内并且通过图像传感器13获得的图像的图像测量值中的至少一个分别在图像误差范围中的至少一个之外时,处理器130可输出指示图像传感器13的故障的信号。
处理器130可将在用于自诊断的位置处通过距离传感器14测量的初始距离设置为参考距离,并且距离误差范围可以是参考距离的误差范围。
处理器130可将在用于自诊断的位置处通过图像传感器13获得的图像的最佳分辨率和最佳清晰度中的至少一个设置为参考图像测量值,并且图像误差范围可以是参考图像测量值的误差范围。
图3是根据示例性实施例的控制机器人臂12的方法的流程图。
参照图3,在操作S100中,处理器130将机器人臂12移动到用于自诊断的位置。
在操作S100之前,处理器130可设置参考距离和参考图像测量值中的至少一个。距离误差范围可以是参考距离的误差范围,图像误差范围可以是参考图像测量值的误差范围。
接下来,在操作S110中,通过安装在机器人臂12上的距离传感器14测量距校准板15的距离。
在操作S120中,处理器130确定测量的距离是否在距离误差范围之外。
当在操作S120中确定测量的距离在距离误差范围之内时,该方法进行到操作S130。在操作S130中,通过安装在机器人臂12上的图像传感器13获得校准板15的图像。
接下来,在操作S140中,确定获得的图像的图像测量值是否在图像误差范围之外。
当在操作S140中确定获得的图像的图像测量值在图像误差范围之内时,处理器130可优化图像传感器13的功能,并将机器人臂12从用于自诊断的位置移动到用于执行拾取和放置功能的位置。
当在操作S140中确定获得的图像的图像测量值在图像误差范围之外时,该方法进行到操作S150。在操作S150中,处理器130输出指示图像传感器13的故障的信号。
因此,因为与机器人臂12自身的故障不同的图像传感器13的故障可被通知给管理图像传感器13的故障的用户,所以可提供用户便利性。此外,因为可避免不必要的通知管理机器人臂12自身的故障的用户,所以可提供用户便利性。结果,可减少用于操作根据本示例性实施例的设备的成本。
当在操作S120中确定测量的距离在距离误差范围之外时,该方法进行到操作S160。在操作S160中,通过图像传感器13获得校准板15的图像。
接下来,在操作S170中,处理器130确定获得的图像的图像测量值是否在图像误差范围之外。
当在操作S170中确定获得的图像的图像测量值在图像误差范围之内时,该方法进行到操作S180。在操作S180中,处理器130输出指示距离传感器14的故障的信号。
因此,因为与机器人臂12自身的故障不同的距离传感器14的故障可被通知给管理距离传感器14的故障的用户,所以可提供用户便利性。此外,因为可避免不必要的通知管理机器人臂12自身的故障的用户,所以可提供用户便利性。结果,可减少用于操作根据本示例性实施例的设备的成本。
当在操作S170中确定获得的图像的图像测量值在图像误差范围之外时,该方法进行到操作S190。在操作S190中,处理器130输出指示机器人臂12的故障的信号。
因此,因为与用于自诊断的传感器的故障不同的机器人臂12的故障可被通知给管理机器人臂12的故障的用户,所以可提供用户便利性。此外,因为可避免不必要的通知管理传感器的故障的用户,所以可提供用户便利性。结果,可减少用于操作根据本示例性实施例的设备的成本。
这里,图像测量值可指示通过图像传感器13获得的图像的分辨率、清晰度和中心位置中的至少一个。
图4是根据示例性实施例的输出距离传感器14的故障的方法的流程图。
参照图4,当在操作S111中确定距校准板15的距离不能通过距离传感器14被测量时,该方法进行到操作S113。在操作S113中,处理器130输出距离传感器14的故障。
图5是根据示例性实施例的纠正距离传感器14的故障的方法的流程图。
图5的操作S171和操作S173可在图3的操作S180之前被执行。
图5的操作S180对应于图3的操作S180。
参照图5,在操作S171中,当检测到距离传感器14的故障时,处理器130确定距离传感器14的故障是否可被纠正。
当在操作S171中确定距离传感器14的故障可被纠正时,该方法进行到操作S173。在操作S173中,处理器130纠正距离传感器14的故障。例如,距离传感器14的故障可被纠正的情况是距校准板15的距离可通过距离传感器14被测量的情况。
当在操作S171中确定距离传感器14的故障不能被纠正时,该方法进行到S180。在操作S180中,处理器130输出指示距离传感器14的故障的信号。例如,距离传感器14的故障不能被纠正的情况是距校准板15的距离不能通过距离传感器14被测量的情况。
如此,因为安装在机器人臂12上的距离传感器14的故障可通过执行自诊断被自动地纠正,所以可提供用于更有效和更经济地控制机器人臂12的技术。
图6是根据示例性实施例的输出机器人臂12的故障的方法的流程图。
图6的操作S175和操作S177被包括在图3的操作S170中。
图6的操作S180对应于图3的操作S180。
图6的操作S195和操作S197被包括在图3的操作S190中。
参照图6,图像测量值可包括获得的图像的分辨率、清晰度和中心位置。参考图像测量值可包括参考分辨率、参考清晰度和参考中心位置。
在操作S175中,处理器130确定获得的图像的分辨率和清晰度是否分别与参考分辨率和参考清晰度基本相同。
当在操作S175中确定获得的图像的分辨率与参考分辨率基本不同,或者获得的图像的清晰度与参考清晰度基本不同时,该方法进行到操作S195。在操作S195中,处理器130输出机器人臂12的垂直故障。
当在操作S175中确定获得的图像的分辨率和清晰度分别与参考分辨率和参考清晰度基本相同时,该方法进行到操作S177。在操作S177中,处理器130确定获得的图像的中心位置是否与参考中心位置基本相同。尽管未在图6中示出,但是,即使当获得的图像的分辨率与参考分辨率基本不同,或者获得的图像的清晰度与参考清晰度基本不同时,处理器130也可确定获得的图像的中心位置是否与参考中心位置基本相同。
当在操作S177中确定获得的图像的中心位置与参考中心位置基本不同时,该方法进行到操作S197。在操作S197中,处理器130输出机器人臂12的水平故障。
当在操作S177中确定获得的图像的中心位置与参考中心位置基本相同时,该方法进行到操作S180。在操作S180中,处理器130输出距离传感器14的故障。
图7是根据示例性实施例的优化安装在机器人臂12上的图像传感器13的方法的流程图。
参照图7,在图3的操作S140之后,当获得的图像的图像测量值在图像误差范围之内时,处理器130可优化图像传感器13的功能。
在操作S200中,处理器130改变图像传感器13的透镜焦距。
为执行操作S200,当通过图像传感器13获得的图像的清晰度与参考清晰度基本不同时,处理器130可基于参考清晰度改变图像传感器13的透镜焦距。当图像传感器13的透镜是电动透镜时,处理器130可自动地改变图像传感器13的透镜焦距。当图像传感器13的透镜是手动透镜时,处理器130可输出通知图像传感器13的透镜焦距改变的信号。
当确定通过图像传感器13获得的图像的清晰度与参考清晰度基本相同,或者图像传感器13的透镜焦距基于参考清晰度被改变时,该方法进行到操作S210。在操作S210中,处理器130纠正透镜畸变(lens distortion)。
处理器130可通过使用图像传感器13的透镜的特定参数(诸如,内部矩阵和畸变矢量)来纠正透镜畸变。
接下来,在操作S220中,处理器130确定图像传感器13的分辨率。
例如,图像传感器13可通过使用包括在通过图像传感器13获得的图像中的校准板15的交叉号,来测量图像传感器13的分辨率。
接下来,在操作S230中,处理器130纠正图像传感器13的亮度。
例如,处理器130可通过调节图像传感器13的曝光时间或增益,来纠正图像传感器13的亮度。
当完成图像传感器13的功能的优化时,处理器130可将机器人臂12从用于自诊断的位置移动到用于执行拾取和放置功能的位置。
如此,由于图像传感器13通过使用校准板15被纠正,所以可提供用于更有效并且更经济地控制机器人臂12的技术。
应理解,在此描述的示例性实施例应仅被认为是描述性意义,而不是限制的目的。对每个实施例中的特征或方面的描述通常应被认为可用于其他实施例中的其他类似特征或方面。
尽管已经参照附图描述了一个或多个示例性实施例,但是本领域的普通技术人员将理解,在不脱离权利要求所限定的本发明构思的精神和范围的情况下,可以在示例性实施例中进行形式和细节上的各种改变。

Claims (20)

1.一种用于控制机器人臂的设备,所述设备包括:
机器人臂;
校准板,显示用于自诊断的校准标记;
距离传感器,安装在机器人臂上并且被配置为测量距离;
图像传感器,安装在机器人臂上并且被配置为获得图像;
处理器,被配置为:将机器人臂移动到用于自诊断的位置,通过使用距离传感器测量从机器人臂的预定部分到校准板的距离,通过使用图像传感器获得校准板的图像,响应于测量的距离在距离误差范围之外并且获得的图像的图像测量值在图像误差范围之外,输出指示机器人臂的故障的信号。
2.如权利要求1所述的设备,其中,处理器还被配置为:响应于测量的距离在距离误差范围之外并且获得的图像的图像测量值在图像误差范围之内,输出指示距离传感器的故障的信号。
3.如权利要求2所述的设备,其中,处理器还被配置为纠正距离传感器的故障。
4.如权利要求1所述的设备,其中,处理器还被配置为:响应于测量的距离在距离误差范围之内并且获得的图像的图像测量值在图像误差范围之外,输出指示图像传感器的故障的信号。
5.如权利要求1所述的设备,其中,处理器还被配置为设置参考距离和参考图像测量值中的至少一个,
其中,距离误差范围包括参考距离的误差范围,图像误差范围包括参考图像测量值的误差范围。
6.如权利要求5所述的设备,其中,图像测量值包括获得的图像的分辨率、清晰度和中心位置中的至少一个,
其中,处理器还被配置为:响应于获得的图像的分辨率和清晰度中的至少一个与参考图像测量值基本不同,输出指示机器人臂的垂直故障的信号,并且响应于获得的图像的中心位置与参考图像测量值基本不同,输出指示机器人臂的水平故障的信号。
7.如权利要求5所述的设备,其中,图像测量值包括获得的图像的分辨率、清晰度和中心位置中的至少一个,参考图像测量值包括参考分辨率、参考清晰度和参考中心位置中的至少一个,
其中,处理器还被配置为:响应于获得的图像的分辨率和清晰度中的至少一个分别在参考分辨率的误差范围以及参考清晰度的误差范围中的至少一个之外,输出指示机器人臂的垂直故障的信号,并且响应于获得的图像的中心位置在参考中心位置的误差范围之外,输出指示机器人臂的水平故障的信号。
8.如权利要求1所述的设备,其中,处理器还被配置为:响应于从机器人臂的预定部分到校准板的距离不能通过使用距离传感器被测量,输出指示距离传感器的故障的信号。
9.一种用于控制机器人臂的设备,所述设备包括:
通信接口,被配置为与安装在机器人臂上的距离传感器和图像传感器通信;
处理器,被配置为:将机器人臂移动到用于自诊断的位置,并响应于通过距离传感器测量的从机器人臂的部分到机器人臂周围的预定位置的距离在距离误差范围之外并且通过图像传感器获得的图像的多个图像测量值中的至少一个分别在多个图像误差范围中的至少一个之外,输出指示机器人臂的故障的信号。
10.如权利要求9所述的设备,其中,机器人臂的所述部分是机器人臂的用于拾取和放置对象的一端,所述预定位置是设置在机器人臂的支撑件的校准点。
11.如权利要求9所述的设备,其中,图像测量值包括图像的分辨率、清晰度和中心位置,图像误差范围包括参考分辨率的误差范围、参考清晰度的误差范围和参考中心位置的误差范围。
12.如权利要求9所述的设备,其中,处理器还被配置为:响应于测量的距离在距离误差范围之外并且获得的图像的所有的图像测量值分别在所述多个图像误差范围之内,输出指示距离传感器的故障的信号,并且响应于测量的距离在距离误差范围之内并且获得的图像的所述多个图像测量值中的至少一个分别在所述多个图像误差范围中的至少一个之外,输出指示图像传感器的故障的信号。
13.如权利要求9所述的设备,其中,处理器还被配置为:将在用于自诊断的位置处通过距离传感器测量的初始距离设置为参考距离,
其中,距离误差范围是参考距离的误差范围。
14.如权利要求9所述的设备,其中,处理器还被配置为:将在用于自诊断的位置处通过图像传感器获得的图像的最佳分辨率和最佳清晰度中的至少一个设置为参考图像测量值,
其中,图像误差范围是参考图像测量值的误差范围。
15.一种控制机器人臂的方法,所述方法包括:
通过使用处理器,将机器人臂移动到用于自诊断的位置;
通过使用安装在机器人臂上的距离传感器,测量从机器人臂的预定部分到校准板的距离;
通过使用处理器,确定测量的距离是否在距离误差范围之外;
响应于测量的距离在距离误差范围之外,通过使用安装在机器人臂上的图像传感器,获得校准板的图像;
通过使用处理器,确定获得的图像的图像测量值是否在图像误差范围之外;
响应于获得的图像的图像测量值在图像误差范围之外,通过使用处理器,输出指示机器人臂的故障的信号。
16.如权利要求15所述的方法,还包括:响应于获得的图像的图像测量值在图像误差范围之内,通过使用处理器,输出指示距离传感器的故障的信号。
17.如权利要求15所述的方法,还包括:
响应于测量的距离在距离误差范围之内,通过使用图像传感器,获得校准板的图像;
通过使用处理器,确定获得的图像的图像测量值是否在图像误差范围之外;
响应于获得的图像的图像测量值在图像误差范围之外,通过使用处理器,输出指示图像传感器的故障的信号。
18.如权利要求15所述的方法,其中,所述方法还包括:在移动机器人臂之前,通过使用处理器,设置参考距离和参考图像测量值中的至少一个,其中,距离误差范围是参考距离的误差范围,图像误差范围是参考图像测量值的误差范围。
19.如权利要求18所述的方法,其中,图像测量值包括获得的图像的分辨率、清晰度和中心位置,
其中,参考图像测量值包括参考分辨率、参考清晰度和参考中心位置,
其中,输出指示机器人臂的故障的信号的步骤包括:
通过使用处理器,确定图像测量值是否与参考图像测量值基本相同;
响应于获得的图像的分辨率与参考分辨率基本不同或者获得的图像的清晰度与参考清晰度基本不同,通过使用处理器,输出指示机器人臂的垂直故障的信号;
响应于获得的图像的中心位置与参考中心位置不同,通过使用处理器,输出指示机器人臂的水平故障的信号;
响应于获得的图像的分辨率、清晰度和中心位置分别与参考分辨率、参考清晰度和参考中心位置基本相同,通过使用处理器,输出指示距离传感器的故障的信号。
20.如权利要求15所述的方法,其中,所述方法还包括:响应于所述距离不能通过距离传感器被测量,通过使用处理器,输出指示距离传感器的故障的信号。
CN201710536444.0A 2016-12-07 2017-07-04 控制机器人臂的设备和方法 Active CN108161986B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0166211 2016-12-07
KR1020160166211A KR101864329B1 (ko) 2016-12-07 2016-12-07 로봇 암 제어 시스템 및 방법

Publications (2)

Publication Number Publication Date
CN108161986A true CN108161986A (zh) 2018-06-15
CN108161986B CN108161986B (zh) 2022-07-12

Family

ID=62240338

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710536444.0A Active CN108161986B (zh) 2016-12-07 2017-07-04 控制机器人臂的设备和方法

Country Status (3)

Country Link
US (1) US10471601B2 (zh)
KR (1) KR101864329B1 (zh)
CN (1) CN108161986B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110024734A (zh) * 2018-11-05 2019-07-19 友达光电股份有限公司 水中生物展示结构与水中生物展示方法
CN112045682A (zh) * 2020-09-02 2020-12-08 亿嘉和科技股份有限公司 一种固态面阵激光安装的标定方法
CN112318503A (zh) * 2020-10-26 2021-02-05 中国计量大学 一种机器人校准系统和校准方法
CN112428264A (zh) * 2020-10-26 2021-03-02 中国计量大学 一种机器人臂的矫正方法及系统

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6915288B2 (ja) * 2017-02-08 2021-08-04 オムロン株式会社 画像処理システム、画像処理装置、FPGA(Field Programmable Gate Array)における回路の再構成方法、および、FPGAにおける回路の再構成プログラム
JP6484287B2 (ja) * 2017-05-19 2019-03-13 ファナック株式会社 リニアガイドの損傷検知装置及び損傷検知方法
EP3844356A4 (en) * 2018-08-29 2022-06-15 Fastbrick IP Pty Ltd GRIPPING DEVICE
CN109719726B (zh) * 2018-12-30 2021-08-20 芜湖哈特机器人产业技术研究院有限公司 一种机械臂手眼标定装置及方法
WO2020233777A1 (en) * 2019-05-17 2020-11-26 Telefonaktiebolaget Lm Ericsson (Publ) Technique for parameter conversion between a robotic device and a controller for the robotic device
CN114536404A (zh) * 2022-03-01 2022-05-27 乐聚(深圳)机器人技术有限公司 基于机器人的测试方法、设备及存储介质
CN115519544B (zh) * 2022-10-10 2023-12-15 深圳进化动力数码科技有限公司 一种生鲜分拣机器人抓取方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101529555A (zh) * 2006-10-23 2009-09-09 赛博光学半导体公司 改进的衬底操作机械手校准
CN102785253A (zh) * 2011-04-06 2012-11-21 发那科株式会社 具有机器人的异常检测功能的机器人系统及其控制方法
JP2015160257A (ja) * 2014-02-26 2015-09-07 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
CN104968477A (zh) * 2012-08-28 2015-10-07 睿信科机器人有限公司 监测机器人传感器的一致性
CN105522576A (zh) * 2014-10-27 2016-04-27 广明光电股份有限公司 机器手臂自动再校正的方法
CN106061688A (zh) * 2014-03-04 2016-10-26 优傲机器人公司 用于工业机器人的安全系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1034571A (ja) 1996-07-17 1998-02-10 Meidensha Corp ロボットの位置ずれ修正装置
US20080009764A1 (en) * 2005-04-21 2008-01-10 Epi-Sci, Llc Method and system for detecting electrophysiological changes in pre-cancerous and cancerous tissue and epithelium
JP2007152470A (ja) 2005-12-02 2007-06-21 Mitsubishi Heavy Ind Ltd 自己診断機能付きロボット
KR101408657B1 (ko) 2007-12-18 2014-06-17 삼성전자주식회사 원격 제어 로봇 시스템의 사용자 인터페이스 장치 및 방법
WO2010053710A2 (en) * 2008-10-29 2010-05-14 Baker Hughes Incorporated Method and apparatus for robotic welding of drill bits
JP2011177845A (ja) * 2010-03-02 2011-09-15 Seiko Epson Corp ロボットのキャリブレーション方法及びロボット用キャリブレーション装置
JP5573537B2 (ja) * 2010-09-17 2014-08-20 株式会社デンソーウェーブ ロボットのティーチングシステム
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
JP2016021103A (ja) * 2014-07-14 2016-02-04 株式会社ジャパンディスプレイ 表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101529555A (zh) * 2006-10-23 2009-09-09 赛博光学半导体公司 改进的衬底操作机械手校准
CN102785253A (zh) * 2011-04-06 2012-11-21 发那科株式会社 具有机器人的异常检测功能的机器人系统及其控制方法
CN104968477A (zh) * 2012-08-28 2015-10-07 睿信科机器人有限公司 监测机器人传感器的一致性
JP2015160257A (ja) * 2014-02-26 2015-09-07 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
CN106061688A (zh) * 2014-03-04 2016-10-26 优傲机器人公司 用于工业机器人的安全系统
CN105522576A (zh) * 2014-10-27 2016-04-27 广明光电股份有限公司 机器手臂自动再校正的方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110024734A (zh) * 2018-11-05 2019-07-19 友达光电股份有限公司 水中生物展示结构与水中生物展示方法
CN110024734B (zh) * 2018-11-05 2021-08-03 友达光电股份有限公司 水中生物展示结构与水中生物展示方法
CN112045682A (zh) * 2020-09-02 2020-12-08 亿嘉和科技股份有限公司 一种固态面阵激光安装的标定方法
CN112045682B (zh) * 2020-09-02 2022-01-25 亿嘉和科技股份有限公司 一种固态面阵激光安装的标定方法
CN112318503A (zh) * 2020-10-26 2021-02-05 中国计量大学 一种机器人校准系统和校准方法
CN112428264A (zh) * 2020-10-26 2021-03-02 中国计量大学 一种机器人臂的矫正方法及系统
CN112428264B (zh) * 2020-10-26 2021-12-07 中国计量大学 一种机器人臂的矫正方法及系统

Also Published As

Publication number Publication date
CN108161986B (zh) 2022-07-12
KR101864329B1 (ko) 2018-06-05
US20180154523A1 (en) 2018-06-07
US10471601B2 (en) 2019-11-12

Similar Documents

Publication Publication Date Title
CN108161986A (zh) 控制机器人臂的设备和方法
KR102577448B1 (ko) 핸드 아이 캘리브레이션 방법 및 시스템
TWI638249B (zh) Position control device and position control method
TWI640851B (zh) Position control device and position control method
TWI708216B (zh) 用以於環境中校正視覺系統的方法和系統
US7805219B2 (en) Carrier robot system and control method for carrier robot
CN108451536B (zh) 自动地定位x射线系统的x射线源的方法和x射线系统
CN108453701A (zh) 控制机器人的方法、示教机器人的方法和机器人系统
CN106408612A (zh) 机器视觉系统校准
KR20180107043A (ko) 작업재의 가상조립을 통해 어셈블리 시스템을 트레이닝 하기 위한 비전시스템
US20110010122A1 (en) Calibrating separately located cameras with a double sided visible calibration target for ic device testing handlers
JP2004530889A (ja) 自動較正位置決定システム
JP2019030943A (ja) キャリブレーション方法、キャリブレーションシステム及びプログラム
US10297043B2 (en) Detector for detecting position of IC device and method for the same
CN108111828A (zh) 投影设备校正方法、装置及投影设备
CN105359638A (zh) 元件保持状态检测方法及元件安装装置
CN105376564A (zh) 摄像头校准设备及其控制方法与装置
TW538231B (en) Image processing method and device, and wire-bonding device
TWI699264B (zh) 視覺導引機器手臂校正方法
KR20210034070A (ko) 교정 작업 지원 시스템
CN110391153A (zh) 用于半导体工艺的检查设备和半导体工艺装置
KR101329322B1 (ko) 기판 이송 로봇의 자동 티칭 장치
KR101545186B1 (ko) 사전 정의된 목표 영상을 이용한 웨이퍼 패턴 결함 위치 보정 방법
KR101535801B1 (ko) 깊이맵 센서를 이용한 조립공정에서의 조립공정 검사장치, 방법 및 시스템
KR101890765B1 (ko) 비젼 시스템 기반의 pin 검출을 이용하는 pcb 진단 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Gyeongnam Changwon City, South Korea

Applicant after: HANWHA AEROSPACE Co.,Ltd.

Address before: Gyeongnam Changwon City, South Korea

Applicant before: HANWHA TECHWIN Co.,Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190409

Address after: Gyeongnam Changwon City, South Korea

Applicant after: Hanwha Precision Machinery Co.,Ltd.

Address before: Gyeongnam Changwon City, South Korea

Applicant before: HANWHA AEROSPACE Co.,Ltd.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210121

Address after: Han Guoshouershi

Applicant after: Hanwha Corp.

Address before: Gyeongnam Changwon City, South Korea

Applicant before: Hanwha Precision Machinery Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231221

Address after: Gyeonggi Do city of South Korea

Patentee after: Han Huajiqiren(zhu)

Address before: Seoul City, Korea

Patentee before: Hanwha Corp.