KR970005616B1 - 자동 캘리브레이션(calibration) 방법 - Google Patents

자동 캘리브레이션(calibration) 방법 Download PDF

Info

Publication number
KR970005616B1
KR970005616B1 KR1019930700119A KR930700119A KR970005616B1 KR 970005616 B1 KR970005616 B1 KR 970005616B1 KR 1019930700119 A KR1019930700119 A KR 1019930700119A KR 930700119 A KR930700119 A KR 930700119A KR 970005616 B1 KR970005616 B1 KR 970005616B1
Authority
KR
South Korea
Prior art keywords
automatic machine
calibration
image processing
jig
processing apparatus
Prior art date
Application number
KR1019930700119A
Other languages
English (en)
Inventor
아쓰시 와따나베
후미까즈 데라와끼
후미까즈 와라시나
Original Assignee
화낙 가부시끼가이샤
이나바 세이우에몽
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 화낙 가부시끼가이샤, 이나바 세이우에몽 filed Critical 화낙 가부시끼가이샤
Application granted granted Critical
Publication of KR970005616B1 publication Critical patent/KR970005616B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • G05B19/4015Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes going to a reference at the beginning of machine cycle, e.g. for calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

내용없음.

Description

자동 캘리브레이션(calibration) 방법
화상처리 장치를 로봇 등 자동기계의 시각 센서로서 이용하여, 화상처리 장치로 검출한 작업대상의 위치나 자세의 빗나감을 나타내는 데이터를 보정데이터로서 자동기계의 제어장치에 송출하고, 자동기계의 제어장치가, 이 보정데이타에 의거 동작 위치를 보정하면서 교시된 동작을 실행하는 시스템은 공지된 것이다. 이 경우에 화상처리가 검출하는 작업대상물의 화상의 좌표계와 자동기계가 동작하는 좌표계가 통합되어 있지 않으면 상기 위치 보정 동작은 정상으로 실시할 수가 없다. 그 때문에 화상처리장치의 좌표계와 자동기계의 제어장치의 좌표게를 결합하는 처리를 할 필요가 있다.
화상처리가 검출한 작업 대상물의 위치나 자세의 빗나감을 보정 데이터에 의해 로봇 등 자동기계의 동작을 보정하려면 화상처리 장치의 카메라가 잡은 화상위의 화소치 데이터(카메라 좌표계의 데이터)를 화상처리장치와 자동기계의 제어장치가 공유하는 센서 좌표계의 데이터로 변경하고 또한 자동 기계가 실제로 구동 제어되는 공작물 좌표계로 데이터 변환하는 작업이 필요하다. 상기 일련의 작업은 일반적으로 캘리브레이션이라 불리어지고 있다.
이 캘리브레이션작업은 (1) 시각 센서측의 여러 설정, 좌표 정의에 필요한 데이터의 설정, (2) 시각 센서의 좌표 정의, (3) 로봇(자동기계)제어장치의 좌표정의,(4) 시각센서와 로봇제어장치의 좌표결합의 작업으로 이루어진다.
예를 들어 화상처리 장치와 로봇에 관하여 2차원의 캘리브레이션을 항 경우에 화상처리장치로는 카메라 좌표축에 대한 센서 좌표의 위치관계, 센좌표의 축명칭. 화소의 크기등을 설정함으로써 카메라좌표와 센서 좌표를 결합하고(상기 캘리브레이션 작업의 (1) 및 (2)의 작업), 다음에 상기 (3)의 로봇측의 좌표 정의로서 로봇이 동작하기 위한 공작을 좌표의 정의를 실시한다.
상기 (4)의 작업으로서는 우선 화상처리장치가 인식할 수 있는 물체, 예를 들어 원형의 대상물을 배치한 치구를 준비하고, 이 치구를 로봇에 설치한다. 다음에 로봇에 설치한 치구를 화상처리장치가 인식하고 있는 센서 좌표의 원점으로 이동시켜, 그 위치(로봇의 공작물 좌표로부터 본 위치)를 로봇의 제어장치에 기억시킨다. 다음에 센서 좌표의 X축 및 Y축위의 정해진 점에 로봇을 시동시켜, 그 위치를 각각 기억시킨다. 그리고 이 기억된 데이터를 로봇측의 표시장치에 표시하여 그 값을 화상처리장치로 입력함으로써 로봇의 공작물 좌표와 센서 좌표의 관계가 구해지며, 로봇이 인식하고 있는 센서 좌표를 일치시켜 캘리브레이션 작업이 완료된다.
이와 같은 캘리브레이션 작업은 상술한 2차원의 캘리브레이션 이외에 3개의 카메라로 작업 대상물을 잡아, 3차원적 위치를 검출하기 위한 3차원 캘리브레이션이 알려져 있다. 또 도트 패턴(dot pattern)을 사용하여 2차원, 3차원의 캘리브레이션을 실시하는 것도 공지이다.
상술한 바와 같은 캘리브레이션 작업은 화상처리장치와 로봇등의 작업시스템의 구축시에 한번 실시하면 통상 재 설정을 할 필요는 없다.
그러나 카메라 위치의 빗나감, 광학적 환경의 변화 등과 같은 어떠한 이유에 의해 오차가 커진 경우에는 재차 캘리브레이션을 실시할 필요성이 생기게된다. 이러한 경우에는 상술한 바와 같이 (1)~(4)의 캘리브레이션 작업을 재차 하지 않으면 안되므로 시간과, 노동과 그리고 전문가를 필요로 한다.
발명의 개시
본 발명의 목적은 상기의 캘리브레이션을 자동적으로 실시하는 방법을 제공하는 데 있다.
본 발명은 자동기계에 설치한 치구 전체가 화상처리장치의 시야내로 들어오는 자동기계의 위치를 교시점으로서 미리 자동기계에 교시함과 동시에 상기 치구에 설치된 인식 대상물에 관한 데이터를 화상처리장치에 미리 설정하고, 자동기계에 치구를 설치해서, 캘리브레이션 기동 지령을 발하여 화상처리장치 및 자동기계를 기동시켜서 화상처리장치 및 자동기계를 소정의 프로그램에 따라 서로 통신시키면서 자동기계를 상기 교시점으로 이동시켜서 카메라로 치구를 촬영하고, 상기 촬영하여 얻은 화상 데이터와 상기 치구위에 설치된 인식 대상물에 관한 데이터와 자동기계의 위치에 의해 카메라 좌표와, 센서좌표와, 자동기계의 공작물 좌표사이를 결합하는 여러스텝을 갖춘다.
치구를 활영하여 얻어지는 화상 데이터와 치구의 데이터에 의해 카메라 좌표로부터 센서 좌표로의 변환 데이터를 얻는다. 또한 치구를 촬영한 자동기계의 위치로부터 센서 좌표로부터 자동기계의 공작물 좌표 위치로의 변환데이터를 얻는다. 이렇게 하여 카메라 좌표, 센서 좌표, 공작물 좌표를 결합하여 캘리브레이션이 자동적으로 이루어지는 것이다.
발명의 실시하기 위한 최량의 형태
제2도중, 10은 화상 중앙 처리 장치이며, 이 화상 중앙 처리 장치(10)는 주 중앙 처리장치(메인 CPU)(11)를 가지며, 메인 CPU(11)에는 카메라 메인 인터페이스(12), 화상처리 프로세서(13), 콘솔 인터페이스(14), 통신 인터페이스(15), 모니터 인터페이스(16), 프레임 메모리(17), ROM으로 형성된 컨트롤 소프트용 메모리 (18), RAM 등으로 구성된 프로그램 메모리(19), 불휘발성 RAM으로 구성된 데이터 메모리(20)가 버스(21)에 의해 접속되어 있다.
카메라 인터페이스(12)에는 부품 등의 대상물을 촬영하는 카메라(22)(제2도에는 1개의 카메라만이 도시되어 있으나, 합계 8개의 카메라를 설치할 수가 있다)가 접속되고, 카메라(22)의 시야로 잡힌 화상은 그레이 스케일(gray scale)에 의한 농담 화상으로 변환되어 프레임 메모리(17)에 격납된다.
화상처리 프로세서(13)는 프레임 메모리(17)에 격납된 화상을 처리하여 대상물을 식별하고 그 위치 및 자세를 계측한다.
콘솔 인터페이스(14)에는 콘솔(23)이 접속되고, 이 콘솔(23)은 액정표시부 외에 각종 지령 키이, 애플리케이션 프로그램의 입력, 편집, 등록, 실행 등을 조작하기 위한 숫자 키이등을 갖는다. 상기 액정 표시부에는 각종 데이터설정을 위한 메뉴나 프로그램의 목록등을 교시할 수 있도록 되어 있다. 또 콘트롤 소프트용 메모리(180에는 메인 CPU(11)가 시각 센서 시스템을 제어하기 위한 컨트롤 프로그램이 격납되어 있고, 또한 프로그램 메모리919)에는 유저가 작성하는 프로그램이 격납되어 있다.
통신 인터페이스915)에는 시각 센서 시스템을 사용하는 로봇 등의 자동기계가 접속되어 있다. 또 TV 모니터 인터페이스(16)에는 카메라(22)에 의해 촬영된 영상을 표시하는 모니터 텔레비젼(24)이 접속되어 있다.
이상의 구성은 종래의 시각 센서 시스템의 구성과 마찬가지이나 본 발명에서는 컨트롤용 메모리(18)에 후술하는 자동 캘리브레이션의 프로그램이 격납되어 있는 점ㅇ; 종래의 시각 센서 시스템과 상이하다.
제3도는 본 실시예에서 사용하는 2차원의 통상 캘리브레이션 및 도트패턴 캘리브레이션을 실시하기 위한 치구(30)를 나타내고, 치구(30)에는 큰원(31)과 작은 원(32)이 매설되어 있으며, 큰 원(31)의 중심 0와 작은 원(32)의 중심0'을 잇는 직선을 X축(중심 0로부터 중심 0'향하는 방향을 +방향)으로 하고, X축을 반시계 방향으로 90도 회전한 축을 Y축으로 하여 고시하는 것이다. 또한 원의 중심 0-0'사이의 거리 L에 화소스케일 데이터를 부여한다.
제4도는 3차원의 통상 캘리브레이션 및 도트 캘리브레이션의 치구(40)의 일례를 나타낸다. 이 치구(40)에는 센서 좌표의 원점 0가 되는 위치를 중심으로 큰 원(41)이 매설되고, X방향으로 n개의 작은 원(42), Y축방향으로 m개의 작은 원(42)이 등 간격 L로 격자위에 매설되어 있다. 또 3개의 각 부에는 XY평면에 수직으로 핀(43)이 매설되어 있다.
다음에 상기 치구(30),(40)를 사용하여 캘리브레이션을 하는 방법에 대해서 제1도의 플로우챠트를 참조하여 설명한다. 우선 화상처리장치(10)에 화상처리장치가 처리하는 스텝 S1~17의 처리 프로그램을 제2도에 나타낸 프로그램 메모리(19)에 미리 등록하고, 로봇의 제어장치 내의 메모리에 제1도의 로봇이 실시하는 처리(스텝 T1~T10)의 프로그램을 미리 등록해둔다. 그리고 시스템을 구축할 때의 최초의 캘리브레이션을 할 때에만 아래의 (I)~(III)을 설정한다.
(I) 사용하는 카메라를 화상처리장치(10)에 설정한다.
이 설정은 종래의 캘리브레이션과 마찬가지로 사용되는 카메라가 접속되어 있는 카메러 인터페이스(12)의 커넥터 번호에 의해 설정한다.
(II) 캘리브레이션용 치구의 데이터를 화상처리장치에 설정한다.
2차원의 캘리브레이션이며 치구(30)의 원(31)과 원(32)의 중심사이의 거리 L를 설정한다. 또 3차원의 캘리브레이션이면 3차원용의 치구(40)의 격자모양으로 배열된 원(42)사이의 거리 L.X축 방향의 원의 수 n, Y축 방향의 원의 수 m을 설정한다.
(III) 캘리브레이션용 치구를 로봇에 설치하고, 이 치구전체가 카메라(22)의 시야내로 들어올수 있는 위치(로복의 공작물 좌표계에서의 위치)를 로봇에 교시한다.
3차원의 캘리브레이션의 경우에만 사용하는 각 카메라(3개의 카메라)데 대하여 각각 상기 위치를 교시한다. 또한 3차원 캘리브레이션용 치구(40)의 3개의 핀(43)의 꼭지부분을 특정 점으로 위치 설정함으로써 이 치구(40)의 로봇에 대한 상대적인 설치 위치 및 자세를 로봇에 교시한다.
이상의 각 데이터를 설정하여 화상처리장치의 데이터 메모리(20) 및 로봇 제어장치의 메모리에 기억시킨다.
사용하는 캘리브레이션용 치구를 로봇에 설치하고, 화상처리장치 또는 로봇의 제어장치에 대하여 캘리브레이션의 종별을 입력함과 동시에 캘리브레이션 지령을 입력하면 화상처리장치(10)의 CPU(11)와 로봇의 제어장치의 프로세서는 각각 제1도의 플로우채트에 나타낸 처리를 개시한다.
본 실시예에서는 각 캘리브레이션의 종별에 대하여 2차원의 통상 캘리브레이션을 종별 1,3차원의 통상 캘리브레이션을 종별 2로, 2차원의 도트 패턴 캘리브레이션을 종별 3,3차원의 도트 패턴 캘리브레이션을 종별 4로 설정한다. 또한 로봇의 제어장치로 부터 캘리브레이션 기동지령을 입력하는 예를 나타낸다.
우선 스텝 T1에서 로봇 제어장치의 프로세서는 입력된 캘리브레이션 종별 번호를 레지스터에 격납함과 동시에 화상처리장치에 대하여 캘리브레이션 종별 번호와 캘리브레이션 기동신호를 송신한다. 화상처리장치(10)의 CPU(11)는 로봇 제어장치로부터 캘리브레이션 기동신호를 수신하면 스텝 S1에서, 수신한 캘리브레이션 종별 번호를 레지스터 R에 격납하고 아래의 스텝 S2~S17을 개시하다. 스텝 S2에서 지표 i에 0을 설정하고, 스텝 S3에서 로봇의 제어장치로부터 보내오는 이동 완료 신호를 기다린다.
환편, 로봇 제어장치는 캘리브레이션 기동신호를 송신한 후, 스텝 T2에서 지표 i를 0로 설정하고, 스텝 T3로 진행하여 지표 i에 제세된 i번째의 교시점(상술한(III)으로 교시하여 기억된 위치)으로 로봇을 이동시킨다. 그리고 2차원의 캘리브레이션이면 교시점을 1점이며, 이 점으로 로봇은 이동한다. 이동이 완료되면 스텝 T4에서 로봇의 제어장치는 화상처리장치에 대하여 이동 완료 신호를 송신하고, 스텝 Y5에서 화상처리장치로부터의 위치 데이터 요구 신호를 기다린다.
화상처리장치(10)의 CPU는 로봇제어자이로부터 이동완료 신호를 수신하면 카메라(22)에 스냅(snap)지령을 내고, 스냅 S4에서 치구의 화상을 페리임 메모리(17)에 들여 보내 화상처리 프로세서(13)로 치구의 화상으로부터 치구의 위치 및 자세를 검출하여, 스텝 S5에서 로봇 제어장치에 대하여 위치 데이터 요구 지령을 송신하고, 이 데이터의 수신을 기다린다.
로봇 제어잔치는 스텝 T5에서 위치 데이터 요구 신호를 수신하면 현재의 로봇 위치(교시점의 위치)를 송신한다. 이때 3차원의 캘리브레이션인 경우에는 스텝ㅈ T6에서 치구(40)의 핀(43)에 의해 교시한 치구(40)의 설치 위치/자세의 데이터도 송신한다.
위치 데이타를 수신한 화상처리장치는 스텝 S7~S9에서 레지스터 R에 기억된 캘리브레이션 종별을 판단하고, 스텝 S7~S9에 각각 대응한 캘리브레이션 처리(스텝 S10~14)를 실행한다. 즉, 스텝 S4에 집어넣은 치구의 화상과 이미 설정되어 있는 치구 데이타에 의해 카메라 좌표와 센서 좌표를 결합하고, 다시 스텝 S6에서 수신한 위치 데이터에 의해 센서 좌표와 로좃의 공작물 좌표를 결합한다.
예를 들어 2차원의 통상 캘리브레이션이면 레지스터 R의 값은 1'이며, 스텝 S7으로부터 스텝 S10으로 이행한다. 스텝 S10에서는 치구 (30)의 큰 원(31)의 중심 위치를 센서 좌표의 원점, 큰 원(31)의 중심 0와 작은 원(32)의 중심 0'를 잇는 직선을 센서 좌표의 X축, 중심으로 부터 중심 0'로 향하는 방행을 X축의 +방향으로 하여 설정하고, X축으로부터 반 계 방향으로 90도 회전한 방향을 Y축 방향으로 설정한다. 또한 원(31)과 (32)의 중심 0-0'사이의 화소수와 이 중심사이의 거리 L에 의해 화소스케일을 구하고, 카메라 좌표로부터 센서 좌표로의 변환 데이타를 구한다. 이렇게 해서 카메라 좌표와 센서 좌표의 2개의 좌표계가 결합된다.
또한 스텝 S6에서 수신한 위치 데이터에 의해 센서 좌표로부터 로봇의 공작물 좌표로의 변환 데이터를 구하여 2개의 좌표를 결합하는 2차원의 통상 캘리브레이션 처리를 실행한다. 마찬가지로 레지스터 R의 값이 2이면 스텝 S4에서 구한 치구(40)의 화상과 설정된 치구 데이터(L, m, m) 및 스텝 S6에서 수신한 위치, 치구 설치 위치 자세 데이터로 부터 카메라 좌표, 센서 좌표, 로봇 공작물 좌표를 결합하는 3원 캘리브레이션을 실행한다(스텝 S8, S11).
마찬가지로 레지스터 R의 값이 3이면 2차원 도트 패턴 캘리브레이션을 실시하고(스텝 S9, S12), 레지스터 R의 값이 4'이면 3차원 도트 패턴캘리브레이션을 실시한다(스텝 S13). 캘리브레이션이 종료되면 캘리브레이션 완료 신호를 로봇 제어장치에 송신하고(스텝 S14, S15), 2차원의 캘리브레이션이면 이 캘리브레이션 처리를 종료한다. 또 3차원 캘리브레이션이면 스텝 S16에서 지표 i에 1을 가산하고, 스텝 S17에서 이 지표 i가 3에 달했는가 아닌가를 판단하여 3을 달하지 않았으면 스텝 S3으로 되돌아 온다.
한편, 로봇 제어장치는 스텝 T7에서 화상처리장치(10)로 부터 캘리브레이션 완료신호를 수신하면 기억하고 있는 캘리브레이션 종별이 2인가 3인가, 즉 3차원 캘리브레이션인가 아닌가를 판단하고 (스텝 T8), 레지스터에 기억하는 값이 '1또는3으로서 2차원 캘리브레이션이면 이 자동 캘리브레이션의 처리를 종료한다. 그러나 3차원 캘리브레이션의 경우에는 스텝 T9에서 지표 i에 1을 가산하여, 이 지표 i가 3에 달하지 않으면(스텝 T10)스텝 T3으로 되돌아온다. 그리고 지표 i로 제시되는 다음 교시점으로 로봇을 이행시켜, 로봇 제어장치는 상술한 스텝 S3~T10의 처리를, 또 화상처리장치(10)는 스텝 S3~S17의 처리를 각 교시점(각 카메라)에 대하여 실행하게 된다. 그리고 3개의 카메라에 대하여 캘리브레이션 처리를 실하여 지표가 3이 되면 이 3차원 캘리브레이션의 처리가 종료된다.
이와 같이 하여 캘리브레이션을 종료하고, 이후 화상처리장치로 작업대상의 위치 및 자세의 빗나감을 검출하여, 이 위치 및 자세의 빗나감을 보정 데이터로 로봇에 송축하고, 로봇 제어장치는 이 보정 데이터에 의거해서 동작위치를 보정하여 시스템을 가동하게된다.
가동중에 카메라의 위치가 빗나간다거나 광학적 환경이 변화하여 오차가 증대해서 재차 캘리브레이션을 할 필요가 생기는 경우에는 로봇에 캘리브레이션 치구를 설치하고 캘리브레이션 종별을 로봇의 제어장치 또는 화상처리장치(10)에 설정해서 캘리브레이션 기동 지령을 입력하면 로봇의 제어장치 및 화상처리장치(10)는 제1도에 나타낸 처리를 개시하여 자동적으로 캘리브레이션이 이루어진다.
이상과 같이 본 발명에서는 캘리브레이션 조작을 구성하는 개개의 조작을 유닛화하고, 개개의 유닛을 화상처리장치의 프로그램으로 호출하는 구성으로 하였다. 또 로봇 제어장치로 부터도 기동할 수 있도록 구성함과 동시에 화상처리장치와 로봇등의 화상처리장치를 이용하는 자동기계를 통신에 의해 캘리브레이션과 관계되는 데이터의 송수신 및 동작을 실시하도록 하였다.
따라서 상이한 종별의 캘리브레이션 작업을 자동적으로 할 수가 있다.
일단 치구의 데이터와 이 치구를 화상처리장치의 카메라로 촬영시키는 치구를 설치한 자동기계의 위치를 교시하여 기억시켜두면 이후는 캘리브레이션지령을 발함으로써 자동기계 및 화상처리장치가 소정 프로그램에 따라 자동적으로 동작하여 캘리브레이션을 실행하므로 캘리브레이션 작업을 간단히 실행할 수가 있다.
본 발명은 로봇 등 자동기계의 제어에서 작업대상이 되는 물체를 화상처리 장치등의 외부 시각 센서로 검출하여 자동기계의 동작위치를 보정하는 시스템에 필요한 캘리브레이션에 관한 것이다.
제1도는 본 발명의 방법에 의해 화상처리장치 및 로봇의 제어방치가 실시하는 자동 캘리브레이션처리를 나타낸 플로우챠트.
제2도는 본 발명의 방식을 실시하기 위한 화상 처리장치의 요부 블록도.
제3도는 2차원의 캘리브레이션 치구의 예를 나타낸 설명도.
제4도는 3차원의 캘리브레이션 치구의 예를 나타낸 설명도.

Claims (4)

  1. 자동기계의 제어장치의 좌표계와, 작업 대상물의 화상을 처리하는 화상처리장치의 좌표계를 결합하는 캘리브레이션을 자동적으로 실시하는 방법으로서, (a) 자동기계에 설치한 치구 전체가 화상처리장치의 카메라의 시야내로 들어오는 자동기계의 위치를 교시점으로 미리 자동기계에 교시함과 공시에 상기 치구에 설치된 인식 대상물에 관한 데이터를 화상처리장치에 미리 설정하고, (b) 자동기계에 상기 치구를 설치하고 캘리브레이션 기동 지령을 발하여 화상처리장치 및 자동기계를 기동시켜, (c) 화상처리장치 및 자동기계를 소정 프로그램에 따라 서로 통신 시키면서 자동기계를 상기 교시점으로 이동시켜 카메라로 상기 치구를 촬영하고, (d) 상기 촬영하여 얻어진 화상데이터와 상기 치구 위에 설치된 인식 대상물에 관한 데이터와 자동기계의 위치에 의해 카메라 좌표와, 센서 좌표와 자동기계의 공작물 좌표사이를 결합하는 여러 스텝을 갖춘 자동 캘리브레이션 방법.
  2. 제1항에 있어서, 상기 스텝 (a)은 또한 치구의 자동기계로의 설치위치 및 자세 데이터를 화상처리장치에 미리 기억시키는 것을 포함하는 자동 캘리브레이션 방법.
  3. 자동기계의 제어장치의 좌표계와, 작업 대상물의 화상을 처리는 화상처리장치의 좌표계를 결합하는 캘리브레이션을 자동적으로 실시하는 방법으로, (e) 자동기계에 설치한 치구 전체가 화상처리장치의 카메라의 시야내로 들어오는 자동기계의 위치를 교시접으로서 미리 자동기계에 교시함과 동시에 캘리브레이션 종별에 따른 치구에 설치된 인식 대상물에 관한 데이터를 설정해두고, (f) 사용하는 캘리브레이션 종별의 치구를 자동기계에 설치하고 캘리브레이션 종별을 입력함과 동시에 캘리브레이션 기동지령을 발하여 화상처리장치 및 자동기계를 기동시켜, (g) 화상처리장치 및 자동기계는 소정 프로그램에 따라 서로 통신시키면서 자동기계를 상기 교시점으로 이동시켜 상기 치구를 촬영하고, (h) 상기 촬영하여 얻어진 화상 데이터와 상기 치구에 설치된 인식 대상물에 관한 데이터와 자동기계의 위치에 의해 카메라 좌표와, 센서 좌표와, 자동기계의 공작물 좌표사이를 결합하는 여러 스텝을 갖춘 자동 캘리브레이션 방법.
  4. 제3도에 있어서, 상기 스텝(e)은 또한 치구의 자동기계로의 걸치위치, 자세데이터를 화상처리장치에 미리 설정 기억 시키는 것을 포함하는 자동 캘리브레이션 방법.
KR1019930700119A 1991-07-04 1992-07-06 자동 캘리브레이션(calibration) 방법 KR970005616B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP91-189525 1991-07-04
JP3189525A JP2700965B2 (ja) 1991-07-04 1991-07-04 自動キャリブレーション方式
PCT/JP1992/000851 WO1993001029A1 (en) 1991-07-04 1992-07-06 Automatic calibration method

Publications (1)

Publication Number Publication Date
KR970005616B1 true KR970005616B1 (ko) 1997-04-18

Family

ID=16242751

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019930700119A KR970005616B1 (ko) 1991-07-04 1992-07-06 자동 캘리브레이션(calibration) 방법

Country Status (6)

Country Link
US (1) US5471312A (ko)
EP (1) EP0549805B1 (ko)
JP (1) JP2700965B2 (ko)
KR (1) KR970005616B1 (ko)
DE (1) DE69223127T2 (ko)
WO (1) WO1993001029A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220219322A1 (en) * 2019-05-17 2022-07-14 Telefonaktiebolaget Lm Ericsson (Publ) Technique for Parameter Conversion Between a Robotic Device and a Controller for the Robotic Device

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005228357A (ja) * 1992-09-28 2005-08-25 Olympus Corp コード情報及びコード情報生成方法
WO1994008314A1 (en) * 1992-09-28 1994-04-14 Olympus Optical Co., Ltd. Dot code and information recording/reproducing system for recording/reproducing dot code
JPH0839469A (ja) * 1994-07-27 1996-02-13 Mazda Motor Corp ワーク位置の認識方法及びロボットの制御装置
US6259827B1 (en) 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
US6137893A (en) 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US5960125A (en) 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
US6075881A (en) 1997-03-18 2000-06-13 Cognex Corporation Machine vision methods for identifying collinear sets of points from an image
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
US6608647B1 (en) 1997-06-24 2003-08-19 Cognex Corporation Methods and apparatus for charge coupled device image acquisition with independent integration and readout
US6445964B1 (en) 1997-08-04 2002-09-03 Harris Corporation Virtual reality simulation-based training of telekinegenesis system for training sequential kinematic behavior of automated kinematic machine
US5978521A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine calibration locations of multiple cameras that image a common object
US5978080A (en) 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine an orientation, pixel width and pixel height of a field of view
US6381375B1 (en) 1998-02-20 2002-04-30 Cognex Corporation Methods and apparatus for generating a projection of an image
US6202031B1 (en) * 1998-04-08 2001-03-13 Mcms, Inc. Method of calibrating an automated placement machine
US6687402B1 (en) 1998-12-18 2004-02-03 Cognex Corporation Machine vision methods and systems for boundary feature comparison of patterns and images
US6381366B1 (en) 1998-12-18 2002-04-30 Cognex Corporation Machine vision methods and system for boundary point-based comparison of patterns and images
US6684402B1 (en) 1999-12-01 2004-01-27 Cognex Technology And Investment Corporation Control methods and apparatus for coupling multiple image acquisition devices to a digital data processor
US6748104B1 (en) 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US7166114B2 (en) * 2002-09-18 2007-01-23 Stryker Leibinger Gmbh & Co Kg Method and system for calibrating a surgical tool and adapter thereof
US6836702B1 (en) * 2003-06-11 2004-12-28 Abb Ab Method for fine tuning of a robot program
US7822264B2 (en) * 2003-08-15 2010-10-26 Scape A/S Computer-vision system for classification and spatial localization of bounded 3D-objects
US7873400B2 (en) * 2003-12-10 2011-01-18 Stryker Leibinger Gmbh & Co. Kg. Adapter for surgical navigation trackers
US7771436B2 (en) * 2003-12-10 2010-08-10 Stryker Leibinger Gmbh & Co. Kg. Surgical navigation tracker, system and method
US20050246064A1 (en) * 2004-04-29 2005-11-03 Smith Gregory C Method for detecting position errors using a motion detector
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US20070260406A1 (en) * 2006-05-03 2007-11-08 Data I/O Corporation Automated location system
KR100693016B1 (ko) * 2006-05-22 2007-03-12 심규조 비전시스템을 이용한 로봇의 캘리브레이션 방법
US8162584B2 (en) 2006-08-23 2012-04-24 Cognex Corporation Method and apparatus for semiconductor wafer alignment
US7793442B2 (en) * 2008-04-29 2010-09-14 Caterpillar Inc Avoidance system for locating electric cables
JP5272617B2 (ja) * 2008-09-26 2013-08-28 株式会社Ihi ロボット装置及びロボット装置の制御方法
WO2010083259A2 (en) * 2009-01-13 2010-07-22 Meimadtek Ltd. Method and system for operating a self-propelled vehicle according to scene images
JP4763074B2 (ja) * 2009-08-03 2011-08-31 ファナック株式会社 ロボットのツール先端点の位置の計測装置および計測方法
JP5795287B2 (ja) 2012-05-23 2015-10-14 株式会社堀場製作所 試験システム
US9189702B2 (en) 2012-12-31 2015-11-17 Cognex Corporation Imaging system for determining multi-view alignment
JP6468741B2 (ja) 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
JP6489776B2 (ja) * 2013-08-28 2019-03-27 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体
US9616569B2 (en) * 2015-01-22 2017-04-11 GM Global Technology Operations LLC Method for calibrating an articulated end effector employing a remote digital camera
US9855658B2 (en) 2015-03-19 2018-01-02 Rahul Babu Drone assisted adaptive robot control
US9718192B2 (en) * 2015-06-24 2017-08-01 National Taipei University Of Technology System for automatically and precisely positioning robotic arm and method thereof
US10016892B2 (en) 2015-07-23 2018-07-10 X Development Llc System and method for determining tool offsets
US9815198B2 (en) 2015-07-23 2017-11-14 X Development Llc System and method for determining a work offset
JP6356845B1 (ja) 2017-02-13 2018-07-11 ファナック株式会社 検査システムの動作プログラムを生成する装置および方法
JP2020066066A (ja) * 2018-10-22 2020-04-30 セイコーエプソン株式会社 ロボットシステム、ロボットの校正治具、ロボットの校正方法
JP7307522B2 (ja) * 2019-06-14 2023-07-12 キャタピラー エス エー アール エル 建設機械におけるセンサ自動特定システム及び特定方法
US11820024B2 (en) * 2019-06-17 2023-11-21 Siemens Ltd., China Coordinate system calibration method, device, and computer readable medium
JP6832408B1 (ja) * 2019-10-09 2021-02-24 Dmg森精機株式会社 生産システム
US11911915B2 (en) * 2021-06-09 2024-02-27 Intrinsic Innovation Llc Determining robotic calibration processes

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3371487D1 (en) * 1982-12-28 1987-06-19 Diffracto Ltd Apparatus and method for robot calibration
US4581762A (en) * 1984-01-19 1986-04-08 Itran Corporation Vision inspection system
EP0151417A1 (en) * 1984-01-19 1985-08-14 Hitachi, Ltd. Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor
JPH0727408B2 (ja) * 1984-01-19 1995-03-29 株式会社日立製作所 固定3次元視覚併用ロボットハンドリング装置
JPH0731533B2 (ja) * 1986-09-03 1995-04-10 日産自動車株式会社 三次元座標変換装置
JPH07120211B2 (ja) * 1986-12-26 1995-12-20 トヨタ自動車株式会社 知能ロボツトにおける座標合わせ方法
JPH08382B2 (ja) * 1987-01-20 1996-01-10 愛三工業株式会社 視覚センサ付ロボツトの座標系の設定方法
JPS63254575A (ja) * 1987-04-13 1988-10-21 Fanuc Ltd 視覚センサのキヤリブレ−シヨン装置
US4831549A (en) * 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
JPH01205994A (ja) * 1988-02-08 1989-08-18 Toshiba Corp ロボット視覚認識装置
US5274714A (en) * 1990-06-04 1993-12-28 Neuristics, Inc. Method and apparatus for determining and organizing feature vectors for neural network recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220219322A1 (en) * 2019-05-17 2022-07-14 Telefonaktiebolaget Lm Ericsson (Publ) Technique for Parameter Conversion Between a Robotic Device and a Controller for the Robotic Device

Also Published As

Publication number Publication date
JP2700965B2 (ja) 1998-01-21
EP0549805A1 (en) 1993-07-07
DE69223127T2 (de) 1998-03-05
US5471312A (en) 1995-11-28
DE69223127D1 (de) 1997-12-18
EP0549805A4 (en) 1994-11-02
EP0549805B1 (en) 1997-11-12
WO1993001029A1 (en) 1993-01-21
JPH058186A (ja) 1993-01-19

Similar Documents

Publication Publication Date Title
KR970005616B1 (ko) 자동 캘리브레이션(calibration) 방법
JP4191080B2 (ja) 計測装置
US7532949B2 (en) Measuring system
JP3946711B2 (ja) ロボットシステム
US7899577B2 (en) Measuring system and calibration method
JP4137862B2 (ja) 計測装置及びロボット制御装置
EP1215017B1 (en) Robot teaching apparatus
CN109556510B (zh) 位置检测装置以及计算机可读存储介质
CN111482959A (zh) 机器人运动视觉系统的自动手眼标定系统与方法
JPH08210816A (ja) ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法
US20080300723A1 (en) Teaching position correcting device
EP0493612A1 (en) Method of calibrating visual sensor
JPH08132373A (ja) ロボット−センサシステムにおける座標系結合方法
JP3138080B2 (ja) 視覚センサの自動キャリブレーション装置
EP4070923A1 (en) Coordinate system alignment method, alignment system, and alignment device for robot
JPH1063317A (ja) ロボット−視覚センサシステムにおける座標系結合方法
CN111590593A (zh) 机械臂的标定方法、装置、系统及存储介质
US5122971A (en) Method and apparatus for constructing structures
JPH02276901A (ja) 視覚センサの位置ズレ修正方法
JPH0299802A (ja) ハンドアイを用いた視覚センサにおける座標系設定方法
JPH04269194A (ja) 平面計測方法
JPH0617795B2 (ja) 三次元位置計測装置
JP2824647B2 (ja) 視覚センサ
JPH07119576B2 (ja) 視覚センサのための視差補正方式
JP2584151Y2 (ja) ロボット制御装置

Legal Events

Date Code Title Description
A201 Request for examination
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee