KR20180044970A - 로봇 시스템을 위한 자동 캘리브레이션 방법 - Google Patents

로봇 시스템을 위한 자동 캘리브레이션 방법 Download PDF

Info

Publication number
KR20180044970A
KR20180044970A KR1020187008494A KR20187008494A KR20180044970A KR 20180044970 A KR20180044970 A KR 20180044970A KR 1020187008494 A KR1020187008494 A KR 1020187008494A KR 20187008494 A KR20187008494 A KR 20187008494A KR 20180044970 A KR20180044970 A KR 20180044970A
Authority
KR
South Korea
Prior art keywords
robot
center
sphere
pose
vision sensor
Prior art date
Application number
KR1020187008494A
Other languages
English (en)
Other versions
KR102081743B1 (ko
Inventor
잉콩 뎅
단단 창
로베르토 프란시스-이 루
윤 리우
뤼하이 후
레이 초우
Original Assignee
타이코 일렉트로닉스 (상하이) 컴퍼니 리미티드
티이 커넥티비티 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 타이코 일렉트로닉스 (상하이) 컴퍼니 리미티드, 티이 커넥티비티 코포레이션 filed Critical 타이코 일렉트로닉스 (상하이) 컴퍼니 리미티드
Publication of KR20180044970A publication Critical patent/KR20180044970A/ko
Application granted granted Critical
Publication of KR102081743B1 publication Critical patent/KR102081743B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39026Calibration of manipulator while tool is mounted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39054From teached different attitudes for same point calculate tool tip position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39398Convert hand to tool coordinates, derive transform matrix
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

로봇 시스템을 위한 자동 캘리브레이션 방법으로서, 다음의 단계들: 연결 로드 및 연결 로드의 일 단부에 연결되는 구체를 포함하는 볼-로드 부재를 제공하는 단계; 연결 로드의 타 단부를 로봇의 플랜지 상에 장착된 엔드 실행 툴에 고정시키는 단계; 구체의 중심을, 비전 센서의 안내 하에서, 다양한 상이한 포즈들로 동일한 하나의 타겟으로 이동시키도록 로봇을 제어하고, 동일한 타겟 지점에서의 로봇의 포즈 데이터에 기반하여 플랜지의 중심에 대한 구체의 중심의 변환 매트릭스(Ts)를 계산하는 단계; 및 다음의 식(1): Tt = Ts * Tc (1)에 따라 플랜지의 중심에 대한 엔드 실행 툴의 중심의 변환 매트릭스(Tt)를 계산하는 단계를 포함하고, 여기서, Tc는 구체의 중심에 대한 엔드 실행 툴의 중심의 변환 매트릭스이고, Tc는 알려졌으며 일정하다. 엔드 실행 툴의 중심을 식별할 필요 없이, 단지 볼-로드 부재의 구체의 중심만 비전 센서에 의해 식별할 필요가 있다. 구체는 규칙적인 기하형상을 갖기 때문에, 구체의 중심을 식별하는 것은 쉬우며, 이는 로봇 시스템의 캘리브레이션 정확도 및 효율을 개선한다.

Description

로봇 시스템을 위한 자동 캘리브레이션 방법
본 출원은, 2015년 8월 26일자로 중국 국가지식산권국에 출원된 중국 특허 출원 제 CN201510530295.8 호의 이익 향유를 주장하며, 그 전체 개시내용은 인용에 의해 본원에 포함된다.
본 발명은 로봇 시스템을 위한 자동 캘리브레이션(calibration) 방법에 관한 것이다.
종래 기술에서, 로봇 시스템을 위한 캘리브레이션은 일반적으로, 인공 교습(artificial teaching) 방법에 의해 수행된다. 예컨대, 조작자는, 복수의 상이한 포즈들(poses)(6-축 로봇의 경우, 일반적으로, 4개 또는 그 초과의 상이한 포즈들)로 동일한 하나의 타겟 지점에 도달하도록 로봇의 플랜지(flange) 상에 장착된 엔드 실행 툴(end execution tool)(또는, 엔드 이펙터(end effector)로 지칭됨)을 이동시키기 위해 로봇을 수동으로 제어한다. 그러나 상기 방법에서, 엔드 실행 툴이 동일한 타겟 지점으로 이동되는지 여부를 조작자의 눈들로 결정하는 것이 필수적이다. 이로써, 인공 교습 방법에서 오류는 불가피하고, 이는, 로봇의 플랜지의 중심에 대한 엔드 실행 툴의 중심의 변환 매트릭스(transformation matrix)를 부정확하게 한다. 게다가, 로봇이 상이한 포즈들로 동일한 타겟 지점에 도달하게 수동으로 제어하고, 로봇이 동일한 타겟 지점에 도달하는지 여부를 눈들로 결정하는 것은 정말 매우 시간-소모적이며, 작업 효율을 크게 감소시킨다. 또한, 로봇 시스템에서 엔드 실행 툴을 주기적으로 교체할 필요가 있는 경우에, 엔드 실행 툴이 새로운 엔드 실행 툴로 교체될 때마다 그 이후에 로봇 시스템은 반드시 재-캘리브레이션되어야(re-calibrated) 하며, 이는 매우 번거롭고 시간-소모적이다.
종래 기술에서, 캘리브레이션된 비전 센서(vision sensor)에 기반하는, 로봇 시스템을 위한 자동 캘리브레이션 방법이 또한 제공된다. 자동 캘리브레이션 방법에서, 로봇은 로봇의 플랜지 상에 장착된 엔드 실행 툴의 중심을 다양한 상이한 포즈들로 동일한 하나의 타겟 지점으로 이동시키도록 제어된다.
자동 캘리브레이션 방법은, 엔드 실행 툴이 타겟 지점으로 이동되는지 여부를 눈들로 판단하는 방법과 비교하여, 시간 및 노력을 크게 절약한다. 그러나, 상기 자동 캘리브레이션 방법에서, 엔드 실행 툴의 중심을 비전 센서에 의해 식별하는 것이 필수적이다. 일반적으로, 엔드 실행 툴은 매우 복잡한 기하형상 구조를 가지며, 엔드 실행 툴의 중심을 식별하는 것이 어렵다. 더 구체적으로, 엔드 실행 툴을 주기적으로 교체할 필요가 있는 경우에, 엔드 실행 툴이 새로운 엔드 실행 툴로 교체될 때마다 그 이후에 엔드 실행 툴의 중심을 재-식별(re-identify)해야하며, 이는 매우 번거롭고 시간-소모적이다.
본 발명은 상기 언급된 단점들 중 적어도 하나의 양상을 극복하거나 완화시키기 위해 이루어졌다.
본 발명의 목적에 따르면, 높은 정밀도 및 높은 효율로 로봇 시스템의 캘리브레이션을 달성하는, 로봇 시스템을 위한 자동 캘리브레이션 방법이 제공된다.
본 발명의 일 양상에 따르면, 로봇 시스템을 위한 자동 캘리브레이션 방법이 제공되고, 이 방법은 다음의 단계들:
S100: 연결 로드(connection rod) 및 연결 로드의 일 단부에 연결되는 구체(sphere)를 포함하는 볼-로드(ball-rod) 부재를 제공하는 단계;
S200: 연결 로드의 타 단부를 로봇의 플랜지 상에 장착된 엔드 실행 툴에 고정시키는 단계;
S300: 구체의 중심을, 비전 센서의 안내 하에서, 다양한 상이한 포즈들로 동일한 하나의 타겟으로 이동시키도록 로봇을 제어하고, 동일한 타겟 지점에서의 로봇의 포즈 데이터에 기반하여 플랜지의 중심에 대한 구체의 중심의 변환 매트릭스(Ts)를 계산하는 단계; 및
S400: 다음의 식(1):
Tt = Ts * Tc (1)
에 따라 플랜지의 중심에 대한 엔드 실행 툴의 중심의 변환 매트릭스(Tt)를 계산하는 단계를 포함하고, 여기서, Tc는 구체의 중심에 대한 엔드 실행 툴의 중심의 변환 매트릭스이고, Tc는 알려졌으며 일정하다(constant).
본 발명의 예시적인 실시예에서, 단계(S300)에서, 비전 센서 좌표계에서 비전 센서에 의해 감지되는 구체의 중심의 실제 포지션과, 비전 센서 좌표계에서의 타겟 지점의 포지션 사이의 포지션 오차에 기반하여, 이 포지션 오차가 제로(zero)가 될 때까지, 로봇에 대한 폐-루프 피드백(closed-loop feedback) 제어를 수행한다.
본 발명의 다른 예시적인 실시예에서, 비전 센서는 하나 또는 그 초과의 카메라들을 포함하고, 하나 또는 그 초과의 카메라들에 의해 캡쳐되는(captured) 볼의 이미지에 따라 구체의 중심을 식별하도록 구성된다.
본 발명의 또다른 예시적인 실시예에서, 단계(S300)에서, 구체의 중심을 적어도 2개의 상이한 포즈들로 동일한 하나의 타겟 지점으로 정확하게 이동시키도록 로봇을 제어한다.
본 발명의 또다른 예시적인 실시예에서, 단계(S300)는 다음의 단계들:
S310: 비전 센서의 안내 하에서 제1 포즈로 비전 센서의 시계(view field) 내에서 구체의 중심을 타겟 지점으로 이동시키도록 로봇을 제어하고, 타겟 지점에서의 로봇의 제1 포즈 데이터를 획득하는 단계;
S320: 비전 센서의 안내 하에서 제2 포즈로 구체의 중심을 타겟 지점으로 이동시키도록 로봇을 제어하고, 타겟 지점에서의 로봇의 제2 포즈 데이터를 획득하는 단계;
S330: 비전 센서의 안내 하에서 제3 포즈로 구체의 중심을 타겟 지점으로 이동시키도록 로봇을 제어하고, 타겟 지점에서의 로봇의 제3 포즈 데이터를 획득하는 단계;
S340: 비전 센서의 안내 하에서 제4 포즈로 구체의 중심을 타겟 지점으로 이동시키도록 로봇을 제어하고, 타겟 지점에서의 로봇의 제4 포즈 데이터를 획득하는 단계; 및
S350: 로봇의 획득된 제1 포즈 데이터, 제2 포즈 데이터, 제3 포즈 데이터, 및 제4 포즈 데이터에 기반하여, 플랜지의 중심에 대한 구체의 중심의 변환 매트릭스(Ts)를 계산하는 단계를 포함한다.
본 발명의 또다른 예시적인 실시예에서, 단계들(S320 내지 S340)에서, 비전 센서 좌표계에서 비전 센서에 의해 감지되는 구체의 중심의 실제 포지션과, 비전 센서 좌표계에서의 타겟 지점의 포지션 사이의 포지션 오차에 기반하여, 이 포지션 오차가 제로가 될 때까지, 즉, 구체의 중심이 정확하게 타겟 지점으로 이동될 때까지, 로봇에 대한 폐-루프 피드백 제어를 수행한다.
본 발명의 또다른 예시적인 실시예에서, 로봇은 다축(multi axis) 로봇을 포함한다.
본 발명의 또다른 예시적인 실시예에서, 로봇은 4-축 로봇 또는 6-축 로봇을 포함한다.
본 발명의 상기 다양한 예시적인 실시예들에서, 볼-로드 부재가 로봇의 플랜지에 장착되기 때문에, 엔드 실행 툴의 중심을 식별할 필요 없이, 단지 볼-로드 부재의 구체의 중심만 비전 센서에 의해 식별할 필요가 있다. 구체는 규칙적인 기하형상을 갖기 때문에, 구체의 중심을 식별하는 것은 쉬우며, 이는 로봇 시스템의 캘리브레이션 정확도 및 효율을 개선한다.
본 발명의 상기 특징들 및 다른 특징들은, 첨부한 도면들에 관하여 그 예시적인 실시예들을 상세하게 설명함으로써 더 명확해질 것이고, 도면들에서:
도 1은, 본 발명의 예시적인 실시예에 따른 로봇 시스템의 예시적인 원리도이다.
본 개시내용의 예시적인 실시예들은 이하에서 첨부된 도면들을 참조하여 상세하게 설명될 것이고, 여기서, 유사한 참조 번호들은 유사한 요소들을 지칭한다. 그러나, 본 개시내용은 많은 상이한 형태들로 구체화될 수 있고, 본원에서 설명되는 실시예로 제한되는 것으로 해석되어서는 안되며; 오히려, 이러한 실시예들은, 본 개시내용이 철저하고 완전하게 이루어지도록, 그리고 본 개시내용의 개념을 당업자에게 완전히 전달하도록 제공된다.
이하의 상세한 설명에서, 설명의 목적들을 위해, 개시된 실시예들의 완전한 이해를 제공하기 위해 다수의 특정 세부 사항들이 설명된다. 그러나, 하나 또는 그 초과의 실시예들이, 이러한 특정 세부 사항들 없이 실천될 수 있다는 것이 명백할 것이다. 다른 예들에서, 잘 알려진 구조들 및 디바이스들은 도면을 단순화하기 위해 개략적으로 도시된다.
본 발명의 일반적인 개념에 따르면, 로봇 시스템을 위한 자동 캘리브레이션 방법이 제공되고, 이 방법은 다음의 단계들: 연결 로드 및 연결 로드의 일 단부에 연결되는 구체를 포함하는 볼-로드 부재를 제공하는 단계; 연결 로드의 타 단부를 로봇의 플랜지 상에 장착된 엔드 실행 툴에 고정시키는 단계; 구체의 중심을, 비전 센서의 안내 하에서, 다양한 상이한 포즈들로 동일한 하나의 타겟으로 이동시키도록 로봇을 제어하고, 동일한 타겟 지점에서 다양한 상이한 포즈들의 로봇의 포즈 데이터에 기반하여 플랜지의 중심에 대한 구체의 중심의 변환 매트릭스(Ts)를 계산하는 단계; 및 다음의 식(1): Tt = Ts * Tc (1)에 따라 플랜지의 중심에 대한 엔드 실행 툴의 중심의 변환 매트릭스(Tt)를 계산하는 단계를 포함하고, 여기서, Tc는 구체의 중심에 대한 엔드 실행 툴의 중심의 변환 매트릭스이고, Tc는 알려졌으며 일정하다.
도 1은, 본 발명의 예시적인 실시예에 따른 로봇 시스템의 예시적인 원리도이다.
도 1에 도시된 바와 같이, 로봇 시스템은 6-축 로봇 시스템일 수 있다. 그러나, 본 발명은 이에 제한되지 않으며, 로봇 시스템은 임의의 적합한 다-자유(multi-freedom) 로봇 시스템, 예컨대, 4-축 로봇 시스템 또는 5-축 로봇 시스템일 수 있다.
도 1에 도시된 바와 같이, 로봇 시스템은 주로, 카메라(비전 센서)(10), 플랜지(21)를 포함하는 6-축 로봇(20), 및 로봇(20)의 플랜지(21) 상에 장착된 실행 툴(또는, 엔드 이펙터로 지칭됨)(30)을 포함한다.
본 발명의 예시적인 실시예에서, 로봇 시스템을 캘리브레이션하기 위해, 도 1에 도시된 바와 같이, 볼-로드 부재(41, 42)가 엔드 실행 툴(30)에 고정된다.
예시된 실시예에서, 볼-로드 부재(41, 42)는 연결 로드(41) 및 연결 로드(41)의 일 단부에 연결되는 구체(42)를 포함한다. 연결 로드(41)의 타 단부는 로봇(20)의 플랜지(21) 상에 장착된 엔드 실행 툴(30)에 고정된다. 도 1에 도시된 바와 같이, 연결 로드(41)의 중심 축선은 구체(42)의 중심을 통과한다.
일 실시예에서, 볼-로드 부재의 연결 로드(41) 및 구체(42)의 기하형상 파라미터들은 알려졌으며 일정하다. 이로써, 볼-로드 부재(41, 42)가 엔드 실행 툴(30)에 고정된 이후, 구체(42)의 중심에 대한 엔드 실행 툴(30)의 중심(툴)의 변환 매트릭스(Tc)는 미리-획득될 수 있다. 볼-로드 부재의 연결 로드(41) 및 구체(42)의 기하형상 파라미터들이 알려졌고 일정하기 때문에, 변환 매트릭스(Tc) 또한, 알려졌으며 일정하다.
일 실시예에서, 카메라(10)는 비전 센서로서 사용된다. 카메라(10)는 볼-로드 부재(41, 42)의 구체(42)의 이미지를 캡쳐하도록 구성된다. 그런 다음에, 예컨대, 비전 센서 좌표계에서의 또는 세계 좌표계에서의 구체(42)의 중심의 정확한 포지션을 식별할 수 있다.
일 실시예에서, 비전 센서는 하나 또는 그 초과의 카메라들(10)을 포함할 수 있다. 도시되지는 않았지만, 로봇 시스템은 미리-저장된 프로그램에 기반하여 로봇 시스템을 제어하도록 구성된 제어기, 및 구체(42)의 중심의 실제 포지션이 식별될 수 있도록, 카메라에 의해 획득되는 이미지 데이터를 프로세싱하도록 구성된 프로세서를 더 포함할 수 있다.
이하에서, 도 1을 참조하여 로봇 시스템의 캘리브레이션 프로세스를 설명할 것이다. 캘리브레이션 프로세스는 다음의 단계들:
S100: 연결 로드(41) 및 연결 로드(41)의 일 단부에 연결되는 구체(42)를 포함하는 볼-로드 부재(41, 42)를 제공하는 단계;
S200: 연결 로드(41)의 타 단부를 로봇(20)의 플랜지(21) 상에 장착된 엔드 실행 툴(30)에 고정시키는 단계;
S300: 구체(42)의 중심을, 비전 센서(10)의 안내 하에서, 다양한 상이한 포즈들(포즈#1, 포즈#2, 포즈#3, 포즈#4)로 동일한 하나의 타겟으로 이동시키도록 로봇(20)을 제어하고, 동일한 타겟 지점에서의 로봇(20)의 포즈 데이터에 기반하여 플랜지(21)의 중심(툴0)에 대한 구체(42)의 중심의 변환 매트릭스(Ts)를 계산하는 단계; 및
S400: 다음의 식(1):
Tt = Ts * Tc (1)
에 따라 플랜지(21)의 중심(툴0)에 대한 엔드 실행 툴(30)의 중심(툴)의 변환 매트릭스(Tt)를 계산하는 단계를 포함할 수 있고, 여기서, Tc는 구체(42)의 중심에 대한 엔드 실행 툴(30)의 중심(툴)의 변환 매트릭스이고, Tc는 알려졌으며 일정하다.
상기 단계(S300)에서, 비전 센서 좌표계에서 비전 센서(10)에 의해 감지되는 구체(42)의 중심의 실제 포지션과, 비전 센서 좌표계에서의 타겟 지점의 포지션 사이의 포지션 오차에 기반하여, 이 포지션 오차가 제로가 될 때까지, 즉, 구체(42)의 중심이 정확하게 타겟 지점으로 이동될 때까지, 로봇(20)에 대한 폐-루프 피드백 제어가 수행된다.
상기 실시예에서, 비전 센서(10)는 비전 센서 좌표계에서의 구체(42)의 중심의 실제 포지션을 직접적으로 식별하도록 구성될 수 있다. 우리가 알고 있는 바와 같이, 세계 좌표계에서의 구체(42)의 중심의 실제 포지션은 보통, X, Y 및 Z 값들에 의해 표시되지만, 비전 센서 좌표계에서의 구체(42)의 중심의 실제 포지션은 보통, U, V 및 Z 값들에 의해 표시되며, 여기서 U 및 V는 픽셀 포인트들의 포지션들을 나타내고, Z는 구체의 직경을 나타낸다. 이로써, 비전 센서 좌표계에서, Z 값은 구체의 증가된 직경에 따라 증가되고, 구체의 감소된 직경에 따라 감소된다.
본 발명의 예시적인 실시예에서, 상기 단계(S300)는 주로, 다음의 단계들:
S310: 비전 센서(10)의 안내 하에서 제1 포즈(포즈#1)로 비전 센서(10)의 시계 내에서 구체(42)의 중심을 타겟 지점으로 이동시키도록 로봇(20)을 제어하고, 타겟 지점에서의 로봇(20)의 제1 포즈 데이터를 획득하는 단계;
S320: 비전 센서(10)의 안내 하에서 제2 포즈(포즈#2)로 구체(42)의 중심을 타겟 지점으로 이동시키도록 로봇(20)을 제어하고, 타겟 지점에서의 로봇(20)의 제2 포즈 데이터를 획득하는 단계;
S330: 비전 센서(10)의 안내 하에서 제3 포즈(포즈#3)로 구체(42)의 중심을 타겟 지점으로 이동시키도록 로봇(20)을 제어하고, 타겟 지점에서의 로봇(20)의 제3 포즈 데이터를 획득하는 단계;
S340: 비전 센서(10)의 안내 하에서 제4 포즈(포즈#4)로 구체(42)의 중심을 타겟 지점으로 이동시키도록 로봇(20)을 제어하고, 타겟 지점에서의 로봇(20)의 제4 포즈 데이터를 획득하는 단계; 및
S350: 로봇(20)의 획득된 제1 포즈 데이터, 제2 포즈 데이터, 제3 포즈 데이터, 및 제4 포즈 데이터에 기반하여, 플랜지(21)의 중심(툴0)에 대한 구체(42)의 중심의 변환 매트릭스(Ts)를 계산하는 단계를 포함한다.
본 발명의 예시적인 실시예에서, 상기 단계들(S320 내지 S340)에서, 비전 센서 좌표계에서 비전 센서(10)에 의해 감지되는 구체(42)의 중심의 실제 포지션과, 비전 센서 좌표계에서의 타겟 지점의 포지션 사이의 포지션 오차에 기반하여, 이 포지션 오차가 제로가 될 때까지, 즉, 구체(42)의 중심이 정확하게 타겟 지점으로 이동될 때까지, 로봇(20)에 대한 폐-루프 피드백 제어가 수행된다.
상기 실시예들에서, 로봇(20)은 구체(42)의 중심을 4개의 상이한 포즈들(포즈#1, 포즈#2, 포즈#3, 포즈#4)로 동일한 하나의 타겟 지점으로 정확하게 이동시키도록 구성되지만, 본 발명은 이에 제한되지 않으며, 로봇(20)은 구체(42)의 중심을 2개, 3개, 5개, 또는 그 초과의 상이한 포즈들로 동일한 하나의 타겟 지점으로 정확하게 이동시킬 수 있다.
본 발명의 상기 다양한 예시적인 실시예들에서, 볼-로드 부재(41, 42)가 로봇(20)의 플랜지(21)에 장착되기 때문에, 엔드 실행 툴(30)의 중심을 식별할 필요 없이, 단지 볼-로드 부재(41, 42)의 구체(42)의 중심만 비전 센서(10)에 의해 식별할 필요가 있다. 구체(42)는 규칙적인 기하형상을 갖기 때문에, 그 중심을 식별하는 것은 쉽다. 이로써, 이는, 캘리브레이션 정확도 및 로봇 시스템의 효율을 개선한다.
상기 실시예들은 예시되도록 의도되고, 제한적인 것이 아니라는 점이 당업자에게 이해되어야 한다. 예컨대, 많은 수정들이 당업자에 의해 상기 실시예들에 대해 이루어질 수 있으며, 상이한 실시예들에서 설명된 다양한 특징들은 구성 또는 원리에서 상충되지 않고 서로 자유롭게 조합될 수 있다.
여러 가지 예시적인 실시예들이 도시되고 설명되었지만, 다양한 변화들 또는 수정들이, 본 개시내용의 원리들 및 사상들로부터 벗어나지 않고, 이러한 실시예들에서 이루어질 수 있다는 점이 당업자에게 이해될 것이며, 본 개시내용의 범위는 청구항들 및 그 등가물들에서 정의된다.
본원에서 사용되는 바와 같이, 단수 단어에 의해 단수 형태로 설명되고 진행되는 요소는, 그러한 배제가 명시적으로 언급되지 않는 한, 복수의 상기 요소들 또는 단계들을 제외하지 않는 것으로 이해되어야 한다. 게다가, 본 발명의 "일 실시예"에 대한 참조들은, 설명된 특징들을 또한 포함하는 부가적인 실시예들의 존재를 배제하는 것으로 해석되도록 의도되지 않는다. 또한, 달리 명시되지 않는 한, 특정한 특성을 갖는 요소 또는 복수의 요소들을 "포함하는" 또는 "갖는" 실시예들은, 그 특성을 갖지 않는 그러한 부가적인 요소들을 포함할 수 있다.

Claims (8)

  1. 로봇 시스템을 위한 자동 캘리브레이션(calibration) 방법으로서,
    S100: 연결 로드(connection rod; 41) 및 상기 연결 로드(41)의 일 단부에 연결되는 구체(sphere; 42)를 포함하는 볼-로드(ball-rod) 부재(41, 42)를 제공하는 단계;
    S200: 상기 연결 로드(41)의 타 단부를 로봇(20)의 플랜지(flange; 21) 상에 장착된 엔드 실행 툴(end execution tool; 30)에 고정시키는 단계;
    S300: 상기 구체(42)의 중심을, 비전 센서(10)의 안내 하에서, 다양한 상이한 포즈들(포즈#1, 포즈#2, 포즈#3, 포즈#4)로 동일한 하나의 타겟으로 이동시키도록 상기 로봇(20)을 제어하고, 상기 동일한 타겟 지점에서의 상기 로봇(20)의 포즈 데이터에 기반하여 상기 플랜지(21)의 중심(툴0)에 대한 상기 구체(42)의 중심의 변환 매트릭스(Ts)를 계산하는 단계; 및
    S400: 다음의 식(1):
    Tt = Ts * Tc (1)
    에 따라 상기 플랜지(21)의 중심(툴0)에 대한 상기 엔드 실행 툴(30)의 중심(툴)의 변환 매트릭스(Tt)를 계산하는 단계를 포함하고, 여기서, Tc는 상기 구체(42)의 중심에 대한 상기 엔드 실행 툴(30)의 중심(툴)의 변환 매트릭스이고, Tc는 알려졌으며 일정한,
    로봇 시스템을 위한 자동 캘리브레이션 방법.
  2. 제1 항에 있어서,
    상기 단계(S300)에서, 비전 센서 좌표계에서 상기 비전 센서(10)에 의해 감지되는 상기 구체(42)의 중심의 실제 포지션과, 상기 비전 센서 좌표계에서의 상기 타겟 지점의 포지션 사이의 포지션 오차에 기반하여, 상기 포지션 오차가 제로(zero)가 될 때까지, 상기 로봇(20)에 대한 폐-루프 피드백(closed-loop feedback) 제어를 수행하는,
    로봇 시스템을 위한 자동 캘리브레이션 방법.
  3. 제2 항에 있어서,
    상기 비전 센서(10)는 하나 또는 그 초과의 카메라들을 포함하고, 상기 하나 또는 그 초과의 카메라들에 의해 캡쳐되는(captured) 볼(42)의 이미지에 따라 상기 구체(42)의 중심을 식별하도록 구성되는,
    로봇 시스템을 위한 자동 캘리브레이션 방법.
  4. 제3 항에 있어서,
    상기 단계(S300)에서, 상기 구체(42)의 중심을 적어도 2개의 상이한 포즈들(포즈#1, 포즈#2, 포즈#3, 포즈#4)로 상기 동일한 하나의 타겟 지점으로 정확하게 이동시키도록 상기 로봇(20)을 제어하는,
    로봇 시스템을 위한 자동 캘리브레이션 방법.
  5. 제3 항에 있어서,
    상기 단계(S300)는 다음의 단계들:
    S310: 상기 비전 센서(10)의 안내 하에서 제1 포즈(포즈#1)로 상기 비전 센서(10)의 시계(view field) 내에서 상기 구체(42)의 중심을 상기 타겟 지점으로 이동시키도록 상기 로봇(20)을 제어하고, 상기 타겟 지점에서의 상기 로봇(20)의 제1 포즈 데이터를 획득하는 단계;
    S320: 상기 비전 센서(10)의 안내 하에서 제2 포즈(포즈#2)로 상기 구체(42)의 중심을 상기 타겟 지점으로 이동시키도록 상기 로봇(20)을 제어하고, 상기 타겟 지점에서의 상기 로봇(20)의 제2 포즈 데이터를 획득하는 단계;
    S330: 상기 비전 센서(10)의 안내 하에서 제3 포즈(포즈#3)로 상기 구체(42)의 중심을 상기 타겟 지점으로 이동시키도록 상기 로봇(20)을 제어하고, 상기 타겟 지점에서의 상기 로봇(20)의 제3 포즈 데이터를 획득하는 단계;
    S340: 상기 비전 센서(10)의 안내 하에서 제4 포즈(포즈#4)로 상기 구체(42)의 중심을 상기 타겟 지점으로 이동시키도록 상기 로봇(20)을 제어하고, 상기 타겟 지점에서의 상기 로봇(20)의 제4 포즈 데이터를 획득하는 단계; 및
    S350: 상기 로봇(20)의 획득된 제1 포즈 데이터, 제2 포즈 데이터, 제3 포즈 데이터, 및 제4 포즈 데이터에 기반하여, 상기 플랜지(21)의 중심(툴0)에 대한 상기 구체(42)의 중심의 변환 매트릭스(Ts)를 계산하는 단계를 포함하는,
    로봇 시스템을 위한 자동 캘리브레이션 방법.
  6. 제5 항에 있어서,
    상기 단계들(S320 내지 S340)에서, 상기 비전 센서 좌표계에서 상기 비전 센서(10)에 의해 감지되는 상기 구체(42)의 중심의 실제 포지션과, 상기 비전 센서 좌표계에서의 상기 타겟 지점의 포지션 사이의 포지션 오차에 기반하여, 상기 포지션 오차가 제로가 될 때까지, 즉, 상기 구체(42)의 중심이 정확하게 상기 타겟 지점으로 이동될 때까지, 상기 로봇(20)에 대한 폐-루프 피드백 제어를 수행하는,
    로봇 시스템을 위한 자동 캘리브레이션 방법.
  7. 제1 항에 있어서,
    상기 로봇(20)은 다축(multi axis) 로봇을 포함하는,
    로봇 시스템을 위한 자동 캘리브레이션 방법.
  8. 제7 항에 있어서,
    상기 로봇(20)은 4-축 로봇 또는 6-축 로봇을 포함하는,
    로봇 시스템을 위한 자동 캘리브레이션 방법.
KR1020187008494A 2015-08-26 2016-08-18 로봇 시스템을 위한 자동 캘리브레이션 방법 KR102081743B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510530295.8A CN106483963B (zh) 2015-08-26 2015-08-26 机器人系统的自动标定方法
CN201510530295.8 2015-08-26
PCT/IB2016/054946 WO2017033100A1 (en) 2015-08-26 2016-08-18 Automatic calibration method for robot system

Publications (2)

Publication Number Publication Date
KR20180044970A true KR20180044970A (ko) 2018-05-03
KR102081743B1 KR102081743B1 (ko) 2020-02-26

Family

ID=56943883

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187008494A KR102081743B1 (ko) 2015-08-26 2016-08-18 로봇 시스템을 위한 자동 캘리브레이션 방법

Country Status (6)

Country Link
US (1) US10695910B2 (ko)
EP (1) EP3341161A1 (ko)
JP (1) JP6623286B2 (ko)
KR (1) KR102081743B1 (ko)
CN (1) CN106483963B (ko)
WO (1) WO2017033100A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106483963B (zh) * 2015-08-26 2020-02-11 泰科电子(上海)有限公司 机器人系统的自动标定方法
JP6815924B2 (ja) * 2017-04-19 2021-01-20 トヨタ自動車株式会社 キャリブレーション装置
CN108927801B (zh) * 2018-03-21 2021-04-13 北京猎户星空科技有限公司 一种机械臂末端姿态调整方法及装置
CN110349218A (zh) * 2018-04-03 2019-10-18 泰科电子(上海)有限公司 摄像机的标定方法和标定系统
CN108582076A (zh) * 2018-05-10 2018-09-28 武汉库柏特科技有限公司 一种基于标准球的机器人手眼标定方法及装置
CN109443200B (zh) * 2018-10-18 2020-12-01 广东电科院能源技术有限责任公司 一种全局视觉坐标系和机械臂坐标系的映射方法及装置
US11254019B2 (en) * 2019-03-05 2022-02-22 The Boeing Company Automatic calibration for a robot optical sensor
CN110238845B (zh) * 2019-05-22 2021-12-10 湖南视比特机器人有限公司 最优标定点选取和误差自测量的自动手眼标定方法及装置
CN110231036B (zh) * 2019-07-19 2020-11-24 广东博智林机器人有限公司 一种基于十字激光和机器视觉的机器人定位装置及方法
CN110722558B (zh) * 2019-10-24 2021-09-03 广东拓斯达科技股份有限公司 机器人的原点校正方法、装置、控制器和存储介质
CN111002312A (zh) * 2019-12-18 2020-04-14 江苏集萃微纳自动化系统与装备技术研究所有限公司 基于标定球的工业机器人手眼标定方法
CN111127568B (zh) * 2019-12-31 2023-07-04 南京埃克里得视觉技术有限公司 一种基于空间点位信息的相机位姿标定方法
CN111633651B (zh) * 2020-05-28 2021-01-29 杭州键嘉机器人有限公司 一种中空管状工具的tcp标定方法
CN111823233B (zh) * 2020-06-30 2022-11-29 浙江德尚韵兴医疗科技有限公司 基于高精度立体光学定位的机械臂手眼标定系统及方法
CN112045684B (zh) * 2020-09-05 2021-07-06 杭州键嘉机器人有限公司 一种自动辅助标定装置及其方法
CN112847341B (zh) * 2020-12-25 2024-02-02 中国科学院宁波材料技术与工程研究所 工业机器人分步式标定系统及方法
US11429112B2 (en) * 2020-12-31 2022-08-30 Ubtech North America Research And Development Center Corp Mobile robot control method, computer-implemented storage medium and mobile robot
CN113459094B (zh) * 2021-06-23 2022-06-14 佛山智能装备技术研究院 一种工业机器人工具坐标系及零点自标定方法
TWI762371B (zh) * 2021-07-06 2022-04-21 財團法人工業技術研究院 機械手臂與輪廓感測器座標系相對關係之自動校正方法與系統
CN114012719B (zh) * 2021-10-22 2024-04-16 上海发那科机器人有限公司 一种六轴机器人的零点标定方法及系统
CN114536324B (zh) * 2022-01-11 2023-11-07 重庆智能机器人研究院 一种工业机器人自动工具工件标定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07186073A (ja) * 1993-11-15 1995-07-25 Asea Brown Boveri Ab 工業用ロボットの較正方法および工業用ロボット装置
US6434449B1 (en) * 2000-08-03 2002-08-13 Pierre De Smet Method and device for automated robot-cell calibration
JP2005300230A (ja) * 2004-04-07 2005-10-27 Fanuc Ltd 計測装置
US20110046782A1 (en) * 2008-04-30 2011-02-24 Abb Technology Ab A method and system for determining the relation between a robot coordinate system and a local coordinate system located in the working range of the robot
JP2012020347A (ja) * 2010-07-12 2012-02-02 Kobe Steel Ltd ロボットのツールベクトルの導出に用いる治具
WO2015121767A1 (en) * 2014-02-11 2015-08-20 Tyco Electronics (Shanghai) Co. Ltd. Automatic calibration method for robot systems using a vision sensor

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100547614C (zh) * 2007-12-20 2009-10-07 昆山华恒工程技术中心有限公司 一种工业机器人的标定方法
CN102566577B (zh) * 2010-12-29 2014-01-29 沈阳新松机器人自动化股份有限公司 一种工业机器人简易标定方法
CN104330025B (zh) * 2014-10-22 2016-12-07 中国计量学院 工业机器人位姿检测装置
CN104786226A (zh) * 2015-03-26 2015-07-22 华南理工大学 抓取在线工件的机器人位姿及运动轨迹定位系统与方法
CN106483963B (zh) * 2015-08-26 2020-02-11 泰科电子(上海)有限公司 机器人系统的自动标定方法
CN107214692B (zh) * 2016-03-22 2020-04-03 泰科电子(上海)有限公司 机器人系统的自动标定方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07186073A (ja) * 1993-11-15 1995-07-25 Asea Brown Boveri Ab 工業用ロボットの較正方法および工業用ロボット装置
US6434449B1 (en) * 2000-08-03 2002-08-13 Pierre De Smet Method and device for automated robot-cell calibration
JP2005300230A (ja) * 2004-04-07 2005-10-27 Fanuc Ltd 計測装置
US20110046782A1 (en) * 2008-04-30 2011-02-24 Abb Technology Ab A method and system for determining the relation between a robot coordinate system and a local coordinate system located in the working range of the robot
JP2012020347A (ja) * 2010-07-12 2012-02-02 Kobe Steel Ltd ロボットのツールベクトルの導出に用いる治具
WO2015121767A1 (en) * 2014-02-11 2015-08-20 Tyco Electronics (Shanghai) Co. Ltd. Automatic calibration method for robot systems using a vision sensor

Also Published As

Publication number Publication date
CN106483963B (zh) 2020-02-11
US10695910B2 (en) 2020-06-30
JP6623286B2 (ja) 2019-12-18
US20180243912A1 (en) 2018-08-30
WO2017033100A1 (en) 2017-03-02
CN106483963A (zh) 2017-03-08
KR102081743B1 (ko) 2020-02-26
EP3341161A1 (en) 2018-07-04
JP2018528084A (ja) 2018-09-27

Similar Documents

Publication Publication Date Title
KR20180044970A (ko) 로봇 시스템을 위한 자동 캘리브레이션 방법
JP6657469B2 (ja) ロボットシステムの自動較正方法
JP6505729B2 (ja) 視覚センサを用いるロボットシステムのための自動較正方法
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
US9517560B2 (en) Robot system and calibration method of the robot system
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP4021413B2 (ja) 計測装置
US20160279800A1 (en) Robot, robot control device, and robotic system
JP5371927B2 (ja) 座標系校正方法及びロボットシステム
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2012240174A (ja) キャリブレーション装置及びキャリブレーション方法
JP5787646B2 (ja) ロボットシステム及び部品の製造方法
KR102269776B1 (ko) 중재시술 로봇의 캘리브레이션 방법
JP2016052699A (ja) ロボット制御システムおよびロボット制御方法
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
CN117813182A (zh) 机器人控制设备、机器人控制系统和机器人控制方法
JP2024017442A (ja) 自律ロボットとそのキャリブレーション方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant