KR101668913B1 - 제어 시스템 및 제어 방법 - Google Patents

제어 시스템 및 제어 방법 Download PDF

Info

Publication number
KR101668913B1
KR101668913B1 KR1020140039169A KR20140039169A KR101668913B1 KR 101668913 B1 KR101668913 B1 KR 101668913B1 KR 1020140039169 A KR1020140039169 A KR 1020140039169A KR 20140039169 A KR20140039169 A KR 20140039169A KR 101668913 B1 KR101668913 B1 KR 101668913B1
Authority
KR
South Korea
Prior art keywords
control
image processing
image data
alignment
control operation
Prior art date
Application number
KR1020140039169A
Other languages
English (en)
Other versions
KR20140121780A (ko
Inventor
야스유키 이케다
카즈시 요시오카
유타카 카토
유이치 도이
Original Assignee
오므론 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오므론 가부시키가이샤 filed Critical 오므론 가부시키가이샤
Publication of KR20140121780A publication Critical patent/KR20140121780A/ko
Application granted granted Critical
Publication of KR101668913B1 publication Critical patent/KR101668913B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37553Two cameras one for coarse scanning, other for fine scanning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/41Servomotor, servo controller till figures
    • G05B2219/41106Coarse fine take over, transition, switch over
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position Or Direction (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

[과제]
화상 처리를 이용한 위치 결정을 보다 고속이면서 보다 고정밀도로 실현할 것이 요구되어 있다.
[해결 수단]
제어 시스템은, 제1의 제어 동작을 실행 후에 제2의 제어 동작을 실행하고, 제1의 제어 동작에서, 화상 처리 수단은, 화상 데이터를 취득하여 특징 부분의 위치를 특정하고, 제어 수단은, 특정된 특징 부분의 위치에 의거하여, 대상물을 소정의 제1의 속도까지 가속한 후에 제1의 속도보다 작은 소정의 제2의 속도까지 감속하여 최종 목표 위치로부터 소정의 여유 거리만큼 떨어진 중간 목표 위치에 이동하기 위한 제어 지령을 결정한다. 제2의 제어 동작에서, 화상 처리 수단은, 이동 기구의 이동 중에 화상 데이터를 취득하여 특징 부분의 위치를 특정하고 제어 수단은, 특정된 특징 부분의 위치에 의거하여, 대상물을 최종 목표 위치에 위치 결정하기 위한 제어 지령을 결정한다. 여유 거리는, 이동 기구를 허용되는 최대 가속도로 제2의 속도로부터 감속시킨 때에 대상물이 최종 목표 위치를 지나치는 일이 없도록 정하여져 있다.

Description

제어 시스템 및 제어 방법{CONTROL SYSTEM AND CONTROL METHOD }
본 발명은, 화상 처리를 이용하여 대상물을 위치 결정하기 위한 제어 시스템 및 제어 방법에 관한 것이다.
종래로부터, 제조 현장에서는 다양한 자동화 기술이 개발되어 있다. 이와 같은 자동화 기술의 하나로서, 화상 처리를 이용한 자동 제어 기술이 알려져 있다.
예를 들면, 일본국 특개2000-180810호 공보(특허 문헌 1)는, 각각에 위치맞춤용의 마크가 마련된 한 쌍의 투명 기판을 위치 결정하여 겹쳐서 조립하는 액정 표시 셀의 제조 장치에서, 상기판 로봇 또는 하기판 로봇 어느 하나의 테이블 반송 위치(교시(敎示) 위치)를 상하 투명 기판의 위치 벗어남량만큼 수정하고 제어하는 구성을 개시한다.
비특허 문헌 1은, 로봇 공학 시스템에서, 화상 처리 기술을 응용한 적응성 제어 기구(adaptive control scheme)을 개시한다.
또한, 워크의 위치 결정에 관해, 일본국 특개2006-049755호 공보(특허 문헌 2)는, 스테이지의 회전 중심을 간이하는 방법으로 정밀도 좋게 구함에 의해, 워크의 위치 결정의 정밀도를 향상하는 방법을 개시한다.
특허 문헌 1 : 일본국 특개2000-180810호 공보 특허 문헌 2 : 일본국 특개2006-049755호 공보
P. Papnikopoulous and Khosla P. K., "Adaptive robotic visual tracking", Theory and experiments., IEEE Transaction on Automatic Control, 38(3) : 429-445, March 1993
그러나, 제조 현장에서는, 고속화 및 고정밀화의 요구가 점점 높아지고 있다. 상술한 선행 기술에서는, 이와 같은 요구에 응할 수가 없다. 구체적으로는, 특허 문헌 1에 개시되는 위치 결정 기술에서는, 반복의 위치 결정이 필요하게 되어, 고속화의 요구에 응할 수가 없다. 또한, 비특허 문헌 1에 개시되는 방법에서는, 정밀도를 높이기 위해 이동 속도를 억제할 필요가 있어서, 전체로서는, 고속화의 요구에 응하기가 어렵다.
그 때문에, 화상 처리를 이용한 위치 결정을 보다 고속이면서 보다 고정밀도로 실현할 것이 요구되고 있다.
본 발명의 어느 국면에 관한 제어 시스템은, 위치 결정용의 특징 부분이 마련된 대상물을 촬영하여 얻어지는 화상 데이터를 취득하고, 화상 데이터에 포함되는 특징 부분의 위치를 특정하는 화상 처리 수단과, 대상물의 위치를 변경하는 이동 기구에 대해, 특정된 특징 부분의 위치에 의거하여 제어 지령을 줌으로써, 대상물을 소정의 최종 목표 위치에 위치 결정하는 제어 수단을 포함한다. 제어 시스템은, 제1의 제어 동작을 실행 후에 제2의 제어 동작을 실행하고, 제1의 제어 동작에서, 화상 처리 수단은, 화상 데이터를 취득하여 특징 부분의 위치를 특정하고, 제어 수단은, 특정된 특징 부분의 위치에 의거하여, 대상물을 소정의 제1의 속도까지 가속한 후에 제1의 속도보다 작은 소정의 제2의 속도까지 감속하여 최종 목표 위치로부터 소정의 여유 거리만큼 떨어진 중간 목표 위치에 이동하기 위한 제어 지령을 결정한다. 제2의 제어 동작에서, 화상 처리 수단은, 이동 기구의 이동 중에 화상 데이터를 취득하여 특징 부분의 위치를 특정하고 제어 수단은, 특정된 특징 부분의 위치에 의거하여, 대상물을 최종 목표 위치에 위치 결정하기 위한 제어 지령을 결정한다. 여유 거리는, 이동 기구를 허용되는 최대 가속도로 제2의 속도로부터 감속시킨 때에 대상물이 최종 목표 위치를 지나치는 일이 없도록 정하여져 있다.
바람직하게는, 제2의 제어 동작에서, 제어 시스템은, 화상 처리 수단에 의한 특징 부분의 위치의 특정과, 제어 수단에 의한 대상물을 최종 목표 위치에 위치 결정하기 위한 제어 지령의 결정을 반복 실행한다.
바람직하게는, 여유 거리는, 이동 기구를 미리 정하여진 이동량만큼 이동시켜서, 당해 이동 후의 대상물의 위치를 화상 처리 수단이 특정한 결과와, 당해 미리 정하여진 이동량과의 비교에 의해 결정되는 제1의 거리와, 화상 처리 수단이 화상 데이터를 취득하고 나서 특징 부분의 위치를 특정할 때까지의 동안만큼 이동 기구를 제2의 속도에 이동시키고, 또한 이동 기구를 허용되는 최대 가속도로 제2의 속도로부터 감속시켜 정지시킬 때까지의 동안의 이동 기구의 이동량인 제2의 거리 중, 큰 쪽의 값이다.
바람직하게는, 제1의 제어 동작에서의 제어 지령은, 이동 기구를 허용되는 최대 가속도로 가속시키는 지령을 포함한다.
바람직하게는, 제어 수단은, 제2의 제어 동작에서, 화상 처리 수단에 의한 특징 부분의 위치의 특정이 정상이 아닌 경우에, 제어 지령의 결정을 스킵한다.
바람직하게는, 화상 처리 수단은, 서로 시야(視野) 사이즈가 다른 제1 및 제2의 카메라로부터 각각 화상 데이터를 취득하도록 구성되어 있다. 제어 수단은, 시야 사이즈가 보다 큰 제1의 카메라로부터의 화상 데이터에 의거하여 제1의 제어 동작에서 이용되는 제어 지령을 결정하고, 제1의 제어 동작에서, 이동 기구의 이동 중에, 화상 데이터의 취득처(取得先)를 제1의 카메라에 대신하여 시야 사이즈가 보다 작은 제 2의 카메라로 전환한다.
바람직하게는, 화상 처리 수단은, 제2의 제어 동작에서, 특징 부분의 위치의 특정이 정상이 아닌 경우에, 제어 지령의 결정을 스킵한다.
바람직하게는, 화상 처리 수단은, 서로 시야 사이즈가 다른 제1 및 제2의 카메라로부터 각각 화상 데이터를 취득하도록 구성되어 있다. 화상 처리 수단은, 시야 사이즈가 보다 큰 제1의 카메라로부터의 화상 데이터에 의거하여 제1의 제어 동작에서 이용되는 제어 지령을 결정하고, 제1의 제어 동작에서, 이동 기구의 이동 중에, 화상 데이터의 취득처를 제1의 카메라에 대신하여 시야 사이즈가 보다 작은 제 2의 카메라로 전환한다.
바람직하게는, 이동 기구는, 제1 및 제2의 제어 동작에 따라 위치 결정되는 좌표계에 더하여, 또한 이동 가능한 다른 좌표계를 갖고 있다. 제어 수단은, 당해 다른 좌표계에서 이동 기구가 이동함에 의해 생기는 오차에 응하여, 제2의 제어 동작에서의 제어 지령을 보정한다.
본 발명의 다른 국면에 관한 제어 방법은, 위치 결정용의 특징 부분이 마련된 대상물을 촬영하여 얻어지는 화상 데이터를 취득하고, 화상 데이터에 포함되는 특징 부분의 위치를 특정하는 스텝과, 대상물의 위치를 변경하는 이동 기구에 대해, 특정된 특징 부분의 위치에 의거하여 제어 지령을 줌으로써, 대상물을 소정의 최종 목표 위치에 위치 결정하는 스텝을 포함한다. 제어 방법에서, 제1의 제어 동작을 실행 후에 제2의 제어 동작이 실행된다. 제1의 제어 동작에서, 화상 데이터를 취득하여 특징 부분의 위치를 특정하는 스텝이 실행된 후, 위치 결정하는 스텝은, 특정된 특징 부분의 위치에 의거하여, 대상물을 소정의 제1의 속도까지 가속한 후에 제1의 속도보다 작은 소정의 제2의 속도까지 감속하여 최종 목표 위치로부터 소정의 여유 거리만큼 떨어진 중간 목표 위치에 이동하기 위한 제어 지령을 결정하는 스텝을 포함한다. 제2의 제어 동작에서, 이동 기구의 이동 중에 화상 데이터를 취득하여 특징 부분의 위치를 특정하는 스텝이 실행된 후, 위치 결정하는 스텝은, 특정된 특징 부분의 위치에 의거하여, 대상물을 최종 목표 위치에 위치 결정하는 스텝을 포함한다. 여유 거리는, 이동 기구를 허용되는 최대 가속도로 제2의 속도로부터 감속시킨 때에 대상물이 최종 목표 위치를 지나치는 일이 없도록 정하여져 있다.
바람직하게는, 위치 결정하는 스텝은, 대상물과 목표 지점과의 사이의 거리가, 화상 데이터로부터 특정되는 위치에 생기는 오차에 응한 거리 이하가 되면, 이군 1의 제어 동작으로부터 제2의 제어 동작으로 전환하는 스텝을 포함한다. 제어 방법은, 또한, 이동 기구를 미리 정하여진 이동량만큼 이동시키는 스텝과, 이동 후의 대상물의 위치를 촬영하여 얻어지는 화상 데이터로부터 위치를 특정하는 스텝과, 이동 기구를 복수회 이동시킴과 함께, 미리 정하여진 이동량과 특정된 대상물의 위치와의 각각의 비교에 응하여, 오차에 응한 거리를 결정하는 스텝을 포함한다.
본 발명에 의하면, 화상 처리를 이용한 위치 결정을 보다 고속이면서 보다 고정밀도로 행할 수 있다.
도 1은 본 실시의 형태에 관한 제어 시스템의 전체 구성을 도시하는 모식도.
도 2는 본 실시의 형태에 관한 제어 시스템을 구성하는 화상 처리 장치의 하드웨어 구성을 도시하는 모식도.
도 3은 본 실시의 형태에 관한 제어 시스템을 구성하는 모션 컨트롤러의 하드웨어 구성을 도시하는 모식도.
도 4는 본 발명의 관련 기술에 관한 반복 위치 결정의 얼라인먼트를 설명하기 위한 도면.
도 5는 본 발명의 관련 기술에 관한 논스톱 얼라인먼트를 설명하기 위한 도면.
도 6은 본 실시의 형태에 관한 얼라인먼트를 설명하기 위한 도면.
도 7은 본 실시의 형태에 관한 얼라인먼트의 속도 패턴을 설명하기 위한 도면 .
도 8은 본 실시의 형태에 관한 얼라인먼트의 실시에 필요한, 시스템 파라미터를 도시하는 도면.
도 9는 본 실시의 형태에 관한 얼라인먼트에 이용하는 논스톱 얼라인먼트 허용 최대 속도(Vns_max)를 결정하는 방법을 설명하기 위한 도면.
도 10은 본 실시의 형태에 관한 얼라인먼트의 처리 순서를 도시하는 플로 차트.
도 11은 본 실시의 형태에 관한 얼라인먼트의 전처리로서의 캘리브레이션을 설명하기 위한 도면.
도 12는 본 실시의 형태에 관한 얼라인먼트의 전처리로서의 캘리브레이션의 원리를 설명하기 위한 도면.
도 13은 본 실시의 형태에 관한 얼라인먼트의 전처리로서의 목표 지점(회전 중심)의 결정 처리를 설명하기 위한 도면.
도 14는 본 실시의 형태에 관한 얼라인먼트의 전처리로서의 목표 지점(회전 중심)의 결정 처리의 원리를 설명하기 위한 도면.
도 15는 본 실시의 형태에 관한 얼라인먼트에 이용하는 논스톱 얼라인먼트 시작 거리(dns)의 이론치를 결정하는 방법을 설명하기 위한 도면.
도 16은 본 실시의 형태에 관한 얼라인먼트에 이용하는 논스톱 얼라인먼트 시작 거리를 결정하는 방법(그 1)을 설명하기 위한 도면.
도 17은 도 16에 도시하는 논스톱 얼라인먼트 시작 거리를 결정하는 순서를 도시하는 플로 차트.
도 18은 본 실시의 형태에 관한 얼라인먼트에 이용하는 논스톱 얼라인먼트 시작 거리를 결정하는 방법(그 2)을 설명하기 위한 도면.
도 19는 도 18에 도시하는 논스톱 얼라인먼트 시작 거리를 결정하는 순서를 도시하는 플로 차트.
도 20은 본 실시의 형태에 관한 얼라인먼트의 실행시에 계측 처리가 실패한 경우의 처리를 설명하기 위한 도면.
도 21은 본 실시의 형태의 변형례 1에 관한 제어 시스템의 구성을 설명하기 위한 모식도.
도 22는 본 실시의 형태의 변형례 1에 관한 얼라인먼트를 설명하기 위한 도면.
도 23은 본 실시의 형태의 변형례 2에 관한 적용례를 설명하기 위한 모식도.
도 24는 도 23에 도시하는 적용례에서의 보정 처리를 설명하기 위한 도면.
도 25는 본 실시의 형태에 관한 얼라인먼트에 의한 이동시간의 단축 효과를 설명하기 위한 도면.
본 발명의 실시의 형태에 관해, 도면을 참조하면서 상세히 설명한다. 또한, 도면 중의 동일 또는 상당 부분에 관해서는, 동일 부호를 붙이고 그 설명은 반복하지 않는다.
<A 적용례>
우선, 본 실시의 형태에 관한 제어 시스템의 하나의 적용례에 관해 설명한다. 도 1은, 본 실시의 형태에 관한 제어 시스템(1)의 전체 구성을 도시하는 모식도이다. 도 1에 도시하는 제어 시스템(1)은, 화상 처리를 이용하여 얼라인먼트를 행한다. 얼라인먼트는, 전형적으로는, 공업 제품의 제조 과정 등에서, 대상물(이하, 「워크」라고도 칭한다)를 생산 라인의 본래의 위치에 배치하는 처리 등을 의미한다. 이와 같은 얼라인먼트의 한 예로서, 제어 시스템(1)은, 액정 패널의 생산 라인에서, 유리 기판에 회로 패턴의 구어붙임(燒付) 처리(노광 처리) 전에, 노광 마스크(4)에 대한 유리 기판(2)의 위치 결정을 제어한다. 워크에는, 미리 정하여진 위치에 위치 결정용의 특징 부분인 위치 결정 마크(12 및 14)가 마련되어 있다. 제어 시스템(1)에서는, 유리 기판상에 미리 마련되어 있는 위치 결정 마크(12 및 14)를 촬영하고, 이 촬영한 화상에 대해 화상 처리를 행함으로써, 정밀한 위치 결정을 실현한다.
제어 시스템(1)은, 화상 처리 장치(100)와, 모션 컨트롤러(200)와, 스테이지(300)를 포함한다. 화상 처리 장치(100)는, 하나 이상의 카메라(도 1의 예에서는, 카메라(102 및 104))가 촬영한 화상 데이터를 취득하고, 그 취득한 화상 데이터에 포함되는 위치 결정 마크(12 및 14)의 위치로부터 워크인 유리 기판(2)의 위치를 특정한다. 그리고, 그 특정한 유리 기판(2)의 위치에 의거하여, 유리 기판(2)을 본래의 위치에 배치하기 위한 지령을 모션 컨트롤러(200)에 출력한다. 즉, 화상 처리 수단에 상당하는 화상 처리 장치(100)는, 미리 정하여진 위치에 특징 부분이 마련된 대상물을, 촬영하여 얻어지는 화상 데이터를 취득함과 함께, 화상 데이터에 포함되는 특징 부분의 위치를 특정한다.
모션 컨트롤러(200)는, 화상 처리 장치(100)로부터의 지령에 따라, 스테이지(300)에 대해 지령을 줌으로써, 유리 기판(2)에 대한 얼라인먼트를 실현한다. 즉, 제어 수단에 상당하는 모션 컨트롤러(200)는, 대상물의 위치를 변경하는 이동 기구에 대해, 특정된 특징 부분의 위치에 의거하여 제어 지령을 줌으로써, 대상물을 소정의 최종 목표 위치에 위치 결정한다.
스테이지(300)는, 워크인 유리 기판(2)을 본래의 위치에 배치할 수 있는 기구라면 어떤 자유도의 것이라도 좋다. 본 실시의 형태에서는, 스테이지(300)는, 수평 방향의 변위와 회전의 변위를 유리 기판(2)에 줄 수 있는 것으로 한다. 즉, 유리 기판(2)을 X방향 및 Y방향으로 각각 이동시킬 수 있음과 함께, 소정의 회전축을 중심으로 유리 기판(2)을 회전시킬 수 있도록 한다. 이와 같은 스테이지(300)에 대한 제어로서는, 우선 유리 기판(2)을 수평 방향으로 목표 지점까지 이동시키고(이하 「XY 이동」이라고도 칭한다), 그 후, 필요에 응하여 유리 기판(2)을 회전시킨다.
<B 장치 구성>
다음에, 본 실시의 형태에 관한 제어 시스템(1)을 구성하는 장치의 구성에 관해 설명한다.
[b1 화상 처리 장치(100)]
도 2는, 본 실시의 형태에 관한 제어 시스템(1)을 구성하는 화상 처리 장치(100)의 하드웨어 구성을 도시하는 모식도이다. 도 2를 참조하면, 화상 처리 장치(100)는, 전형적으로는, 범용적인 컴퓨터 아키텍처에 따른 구조를 갖고 있고, 미리 인스톨된 프로그램을 프로세서가 실행함으로써, 후술하는 바와 같은 각종의 화상 처리를 실현한다.
보다 구체적으로는, 화상 처리 장치(100)는, CPU(Central Processing Unit)나MPU(Micro-Processing Unit) 등의 프로세서(110)와, RAM(Random Access Memory)(112)와, 표시 컨트롤러(114)와, 시스템 컨트롤러(116)와, I/O(Input Output) 컨트롤러(118)와, 하드 디스크(120)와, 카메라 인터페이스(122)와, 입력 인터페이스(124)와, 모션 컨트롤러 인터페이스(126)와, 통신 인터페이스(128)와, 메모리 카드 인터페이스(130)를 포함한다. 이들의 각 부분은, 시스템 컨트롤러(116)를 중심으로 하여, 서로 데이터 통신 가능하게 접속된다.
프로세서(I10)는, 시스템 컨트롤러(I16)와의 사이에서 프로그램(코드) 등을 교환하여, 이들을 소정 순서로 실행함으로써, 목적하는 연산 처리를 실현한다.
시스템 컨트롤러(116)는, 프로세서(110), RAM(I12), 표시 컨트롤러(I14), 및 I/O 컨트롤러(I18)와 각각 패스를 통하여 접속되어 있고, 각 부분과의 사이에서 데이터 교환 등을 행함과 함께, 화상 처리 장치(100) 전체의 처리를 맡는다.
RAM(I12)은, 전형적으로는, DRAM(Dynamic Random Access Memory) 등의 휘발성의 기억 장치이고, 하드 디스크(120)로부터 판독된 프로그램이나, 카메라(102 및 104)에 의해 취득된 카메라 화상(화상 데이터), 카메라 화상에 대한 처리 결과, 및 워크 데이터 등을 유지한다.
표시 컨트롤러(114)는, 표시부(132)와 접속되어 있고, 시스템 컨트롤러(116)로부터의 내부 커맨드에 따라, 각종의 정보를 표시하기 위한 신호를 표시부(132)에 출력한다.
I/O 컨트롤러(I18)는, 화상 처리 장치(100)에 접속되는 기록 매체나 외부 기기와의 사이의 데이터 교환을 제어한다. 보다 구체적으로는, I/O 컨트롤러(118)는, 하드 디스크(120)와, 카메라 인터페이스(122)와, 입력 인터페이스(124)와, 모션 컨트롤러 인터페이스(126)와, 통신 인터페이스(128)와, 메모리 카드 인터페이스(130)와 접속된다.
하드 디스크(120)는, 전형적으로는, 불휘발성의 자기 기억 장치이고, 프로세서(110)에서 실행되는 제어 프로그램(150)에 더하여, 각종 설정치 등이 격납된다. 이 하드 디스크(120)에 인스톨되는 제어 프로그램(150)은, 메모리 카드(136) 등에 격납된 상태에서 유통된다. 또한, 하드 디스크(120)에 대신하여, 플래시 메모리 등의 반도체 기억 장치나 DVD-RAM(Digita1 Versatile Disk Random Access Memory) 등의 광학 기억 장치를 채용하여도 좋다.
카메라 인터페이스(122)는, 워크를 촬영함으로써 생성된 화상 데이터를 접수하는 입력부에 상당하고, 프로세서(110)와 카메라(102, 104)와의 사이의 데이터 전송을 중개한다. 카메라 인터페이스(122)는, 카메라(102 및 104)로부터의 화상 데이터를 각각 일시적으로 축적하기 위한 화상 버퍼(122a 및 122b)를 포함한다. 복수의 카메라에 대해, 카메라의 사이에서 공유할 수 있는 단일한 화상 버퍼를 마련하여도 좋지만, 처리 고속화를 위해, 각각의 카메라에 대응지어서 독립적으로 복수 배치하는 것이 바람직하다.
입력 인터페이스(124)는, 프로세서(110)와 키보드(134), 마우스, 터치 패널, 전용 콘솔 등의 입력 장치와의 사이의 데이터 전송을 중개한다.
모션 컨트롤러 인터페이스(126)는, 프로세서(110)와 모션 컨트롤러(200)와의 사이의 데이터 전송을 중개한다.
통신 인터페이스(128)는, 프로세서(110)와 도시하지 않은 다른 퍼스널 컴퓨터나 서버 장치 등과의 사이의 데이터 전송을 중개한다. 통신 인터페이스(128)는, 전형적으로는, 이서넷(등록상표)이나 USB(Universal Serial Bus) 등으로 이루어진다.
메모리 카드 인터페이스(130)는, 프로세서(110)와 기록 매체인 메모리 카드(136)와의 사이의 데이터 전송을 중개한다. 메모리 카드(136)에는, 화상 처리 장치(100)에서 실행되는 제어 프로그램(150) 등이 격납된 상태에서 유통되고, 메모리 카드 인터페이스(130)는, 이 메모리 카드(136)로부터 제어 프로그램을 판독한다. 메모리 카드(136)는, SD(Secure Digital) 등의 범용적인 반도체 기억 디바이스나, 플렉시블 디스크(Flexible Disk) 등의 자기 기록 매체나, CD-ROM(Compact Disk Read Only Memory) 등의 광학 기록 매체 등으로 이루어진다. 또는, 통신 인터페이스(128)를 통하여, 배신 서버 등으로부터 다운로드한 프로그램을 화상 처리 장치(100)에 인스톨하여도 좋다.
상술한 바와 같은 범용적인 컴퓨터 아키텍처에 따른 구조를 갖는 컴퓨터를 이용한 경우에는, 본 실시의 형태에 관한 기능을 제공하기 위한 어플리케이션에 더하여, 컴퓨터의 기본적인 기능을 제공하기 위한 OS(Operating System)가 마련되어 있어도 좋다. 이 경우에는, 본 실시의 형태에 관한 제어 프로그램은, OS의 일부로서 제공된 프로그램 모듈 중, 필요한 모듈을 소정의 순서 및/또는 타이밍에서 호출하여 처리를 실행하는 것이라도 좋다.
또한, 본 실시의 형태에 관한 제어 프로그램은, 다른 프로그램의 일부에 조립되어 제공되는 것이라도 좋다. 그 경우에도, 프로그램 자체에는, 상기와 같은 조합되는 다른 프로그램에 포함되는 모듈을 포함하지 않고, 당해 다른 프로그램과 협동하여 처리가 실행된다. 즉, 본 실시의 형태에 관한 제어 프로그램으로서는, 이와 같은 다른 프로그램에 조립된 형태라도 좋다.
또한, 대체적(代替的)으로, 제어 프로그램의 실행에 의해 제공되는 기능의 일부 또는 전부를 전용의 하드웨어 회로로서 실장하고 이라도 좋다.
[b2 모션 컨트롤러(200)]
도 3은, 본 실시의 형태에 관한 제어 시스템(1)을 구성하는 모션 컨트롤러(200)의 하드웨어 구성을 도시하는 모식도이다. 도 3를 참조하면, 모션 컨트롤러(200)는, 주제어 유닛(210)과, 복수의 서보 유닛(240, 242, 244)을 포함한다. 본 실시의 형태에 관한 제어 시스템(1)에서는, 스테이지(300)가 3축분의 서보 모터(310, 312, 314)를 갖는 예를 나타내고, 이 축수(軸數)에 응한 수의 서보 유닛(240, 242, 244)이 모션 컨트롤러(200)에 포함된다.
주제어 유닛(210)은, 모션 컨트롤러(200)의 전체 제어를 맡는다. 주제어 유닛(210)은, 내부 버스(226)를 통하여, 서보 유닛(240, 242, 244)과 접속되어 있고, 서로 데이터를 주고 받는다. 서보 유닛(240, 242, 244)은, 주제어 유닛(210)으로부터의 내부 지령 등에 따라, 서보 드라이버(250, 252, 254)에 대해 제어 커맨드(전형적으로는, 구동 펄스 등)를 각각 출력한다. 서보 드라이버(250, 252, 254)는, 접속되어 있는 서보 모터(310, 312, 314)를 각각 구동한다.
주제어 유닛(210)은, 칩 세트(212)와, 프로세서(214)와, 불휘발성 메모리(216)와, 주메모리(218)와, 시스템 클록(220)과, 메모리 카드 인터페이스(222)와, 통신 인터페이스(228)와, 내부 버스 컨트롤러(230)를 포함한다. 칩 세트(212)와 다른 컴포넌트와의 사이는, 각종의 패스를 통하여 각각 결합되어 있다.
프로세서(214) 및 칩 세트(212)는, 전형적으로는, 범용적인 컴퓨터 아키텍처에 따른 구성을 갖고 있다. 즉, 프로세서(214)는, 칩 세트(212)로부터 내부 클록에 따라 순차적으로 공급되는 명령 코드를 해석하여 실행한다. 칩 세트(212)는, 접속되어 있는 각종 컴포넌트와의 사이에서 내부적인 데이터를 주고 받음과 함께, 프로세서(214)에 필요한 명령 코드를 생성한다. 시스템 클록(220)은, 미리 정하여진 주기의 시스템 클록을 발생하여 프로세서(214)에 제공한다. 칩 세트(212)는, 프로세서(214)에서의 연산 처리의 실행의 결과 얻어진 데이터 등을 캐시하는 기능을 갖는다.
주제어 유닛(210)은, 기억 수단으로서, 불휘발성 메모리(216) 및 주(主)메모리(218)를 갖는다. 불휘발성 메모리(216)는, OS, 시스템 프로그램, 유저 프로그램, 데이터 정의(定義) 정보, 로그 정보 등을 불휘발적으로 유지한다. 주메모리(218)는, 휘발성의 기억 영역이고, 프로세서(214)에서 실행되어야 할 각종 프로그램을 유지함과 함께, 각종 프로그램의 실행시의 작업용 메모리로서도 사용된다.
주제어 유닛(210)은, 통신 수단으로서, 통신 인터페이스(228) 및 내부 버스 컨트롤러(230)를 갖는다. 이들의 통신 회로는, 데이터의 송신 및 수신을 행한다.
통신 인터페이스(228)는, 화상 처리 장치(100)와의 사이에서 데이터를 주고 받는다. 내부 버스 컨트롤러(230)는, 내부 버스(226)를 통한 데이터의 주고 받음을 제어한다. 보다 구체적으로는, 내부 버스 컨트롤러(230)는, 버퍼 메모리(236)와, DMA(Dynamic Memory Access) 제어 회로(232)와, 내부 버스 제어 회로(234)를 포함한다.
메모리 카드 인터페이스(222)는, 주제어 유닛(210)에 대해 착탈 가능한 메모리 카드(224)와 프로세서(214)를 접속한다.
<C. 관련 기술>
다음에, 본 실시의 형태에 관한 얼라인먼트에 관한 제어 방법의 이해를 용이하게 하기 위해, 본 발명의 관련 기술에 관해 설명한다.
[c1 : 반복 위치 결정(관련 기술 그 1)]
도 1에 도시하는 바와 같은 적용례에서의 얼라인먼트에서는, 높은 위치 정밀도가 요구되기 때문에, 1회의 이동으로는 요구 정밀도를 충족시키지 않는 경우가 있다. 이 주된 원인은, 캘리브레이션 오차나 카메라의 노이즈 등에 의한 화상 처리에서의 계측 오차이다. 그 때문에, 특허 문헌 1에 개시되는 바와 같이, 위치 계측과 이동을 몇회 반복함으로써, 위치 정밀도를 높인다는 수법이 채용되는 경우가 있다.
도 4는, 본 발명의 관련 기술에 관한 반복 위치 결정의 얼라인먼트를 설명하기 위한 도면이다. 도 4에 도시하는 바와 같이, 우선 촬영을 행하여 워크의 목표 지점까지의 차분(벡터량)를 산출함과 함께, 워크에 대한 XY 이동의 움직임을 결정하여 실행한다(촬영 1회째). 이 XY 이동의 움직임은, 전형적으로는, 일정 가속도로 가속하고, 그 후 일정 속도(기본적으로는, 시스템 허용의 최대 속도)를 유지한 후, 일정 감속도로 감속하여 정지한다. 이 정지시점으로, 재차 촬영을 행하여 워크의 목표 지점까지의 차분을 재산출하고, 워크가 목표 지점에서 소정의 허용 오차 범위 내에 도달하지 않으면, 워크에 대한 XY 이동의 움직임을 재결정하여 재실행한다(촬영 2회째).
이하, 오차가 일정 이내가 될 때 까지, 촬영, 목표 지점까지의 차분의 산출, 이동, 및 정지라는 일련의 처리 사이클이 반복된다. 즉, 목표 지점에 도달할 때까지의 동안, 촬영→ 가속→ 감속→ 정지라는 처리가 반복되게 되어, 가감속에 필요로 하는 시간만큼 전체로서의 이동시간에 낭비가 생긴다. 또한, 일단 정지시키는 경우에는, 장치 전체의 진동을 없앨 때까지의 안정화 시간(정정 시간)이 필요하기 때문에, 이 점에서도, 전체로서의 이동시간이 길어진다.
이동시간의 단축을 위해, 스테이지(300)를 정지시키는 일 없이, 일련의 이동에 의해 목표 지점에 도달할 것이 요구되고 있다.
[c2 : 논스톱 얼라인먼트(관련 기술 그 2)]
장치의 구동 기구를 고정하지 않고 위치 결정하는 방법으로서, 「비주얼 서보」가 알려져 있다. 이 「비주얼 서보」는, 작동하고 있는 워크를 카메라로 연속적으로 촬영하고, 그 화상 처리의 결과로부터 워크의 움직임의 방향이나 속도를 시시각각 조정하는 방법이다. 비특허 문헌 1에 개시되는 바와 같이, 로봇의 제어 등의 분야에서 연구가 진행되고 있다.
이와 같은 「비주얼 서보」의 기술을 상술한 바와 같은 얼라인먼트에 적용할 수 있다. 이와 같은 얼라인먼트의 수법에서는, 도 4에 도시하는 바와 같이 목표 지점에 도달할 때까지, 위치 계측을 위해 스테이지(300)를 정지시키지 않더라도 좋기 때문에, 이하 「논스톱 얼라인먼트」 또는 「NSAJ 라고 칭하기로 한다.
도 5는, 본 발명의 관련 기술에 관한 논스톱 얼라인먼트를 설명하기 위한 도면이다. 도 5에 도시하는 바와 같이, 우선 촬영을 행하여 워크의 목표 지점까지의 차분을 산출함과 함께, 워크에 대한 XY 이동의 움직임을 결정하여 실행한다. 계속해서, 스테이지(300)의 이동 중에 재차 촬영을 행하여, 워크의 목표 지점까지의 차분을 산출함과 함께, 움직임의 수정을 행한다. 즉, 앞서의 촬영의 결과에 응하여 결정된 움직임(목표 궤도, 속도 패턴, 또는 가속도 패턴 등)를 새롭게 촬영된 결과에 응하여 수정한다. 이 촬영과 움직임의 수정을 연속적으로 반복함으로써, 워크를 목표 지점까지 이동시킨다.
그러나, 논스톱 얼라인먼트에서는, 테이블을 정지시키지 않기 때문에, 초기 지점에서 목표 지점까지의 이동에 있어서, 워크가 목표 지점을 지나치지 않도록 제어하여야 한다. 이것은, 워크가 목표 지점을 지나치면, 그 직전의 이동과는 역방향의 이동을 행하여야 하여, 이동 기구를 역전시킬 필요가 있다. 이와 같은 이동 기구의 역전 동작에 의해, 백래시가 발생하거나, 관성 모멘트에 의해 이동 기구를 손상시키거나 할 가능성이 있기 때문이다.
그 때문에, 워크의 움직임을 정확하게 조정하고, 정밀도 좋게 목표 지점에 도달시킬 필요가 있고, 이것을 실현하기 위해서는, 시스템 허용의 최대 속도보다 대폭적으로 낮은 이동 속도로 워크를 제어할 필요가 있다. 그 결과, 전체로서의 이동에 필요로 하는 시간을 단축할 수가 없는, 또는 보다 길어지는 경우가 있다.
<D. 본 실시의 형태에 관한 얼라인먼트의 개요>
본 실시의 형태에 관한 얼라인먼트는, 상술한 바와 같은 관련 기술에 비교하여, 얼라인먼트 시작부터 종료까지 필요로 하는 시간을 최소화하는 것을 목적으로 한다. 구체적인 수법으로서, 얼라인먼트의 최초의 단계에서는, 시스템 허용의 최대 속도로 목표 지점에 가까워짐과 함께, 목표 지점부터 어느 범위 내에 도달하면, 상술한 바와 같은 논스톱 얼라인먼트로 전환하여 목표 지점에 도달한다. 즉, 본 실시의 형태에 관한 얼라인먼트는, 이동 속도를 높일 수 있는 통상 얼라인먼트와, 스테이지(300)를 정지시키는 일 없이 목표 지점에의 위치 결정이 가능한 논스톱 얼라인먼트를 조합시킨 방법이다. 스테이지(300)의 움직임을 정지시키는 일 없이, 통상 얼라인먼트와 논스톱 얼라인먼트를 전환함으로써, 전체로서의 이동에 필요로 하는 시간을 최소화한다.
도 6은, 본 실시의 형태에 관한 얼라인먼트를 설명하기 위한 도면이다. 도 6에 도시하는 바와 같이, 우선 촬영을 행하여 워크의 목표 지점까지의 차분(벡터량)를 산출함과 함께, 워크에 대한 XY 이동의 움직임을 결정하여 실행한다(촬영 1회째). 즉, 1회째의 촬영으로 최초의 목표 지점을 결정하고, 그 결정한 목표 지점(중간 목표 위치)을 향하여 시스템 허용의 최대 속도로 스테이지(300)를 이동시킨다. 그리고, 스테이지(300)가 목표 지점부터 어느 거리만큼 떨어진 위치까지 도달하면, 스테이지(300)의 감속을 시작하다. 또한, 도 6에 도시하는 스테이지(300)의 속도 패턴은, 촬영 1회째의 결과에 의해 먼저 결정되어 있어도 좋다. 즉, 스테이지(300)의 감속 시작의 위치(또는, 경과 시간)는, 미리 결정되어도 좋다.
그 후, 스테이지(300)가 일정 속도까지 감속되면, 논스톱 얼라인먼트를 시작하고, 오차가 일정 이내가 될 때 까지, 촬영과 움직임 수정이 연속적으로 반복되어, 워크를 목표 지점까지 이동시킨다. 이 때, 논스톱 얼라인먼트 제어 주기(f)로 촬영이 실행된다. 단, 목표 지점에 충분 근접하고 있는 경우에는, 1회의 촬영으로 목표 지점에 도달할 수 있는 경우도 있다.
이와 같은 통상 얼라인먼트와 논스톱 얼라인먼트를 조합시킴으로써, 워크를 목표 지점에 위치 결정하는데 필요로 하는 시간을 단축할 수 있다. 즉, 본 실시의 형태에 관한 제어 시스템(1)은, 제1의 제어 동작(통상 얼라인먼트)를 실행 후에 제2의 제어 동작(논스톱 얼라인먼트)를 실행한다. 제1의 제어 동작에서, 화상 처리 수단(화상 처리 장치(100))은, 화상 데이터를 취득하여 특징 부분의 위치를 특정하고, 제어 수단(모션 컨트롤러(200))은, 당해 특정된 특징 부분의 위치에 의거하여, 대상물을 소정의 제1의 속도까지 가속한 후에 제1의 속도보다 작은 소정의 제2의 속도까지 감속하여 최종 목표 위치로부터 소정의 여유 거리만큼 떨어진 중간 목표 위치에 이동하기 위한 제어 지령을 결정한다. 제2의 제어 동작에서, 화상 처리 수단(화상 처리 장치(100))은, 이동 기구의 이동 중에 화상 데이터를 취득하여 특징 부분의 위치를 특정하고, 제어 수단(모션 컨트롤러(200))은, 당해 특정된 특징 부분의 위치에 의거하여, 대상물을 최종 목표 위치에 위치 결정하기 위한 제어 지령을 결정한다. 이 때, 여유 거리는, 이동 기구를 허용되는 최대 가속도로 제2의 속도로부터 감속시킨 때에 대상물이 최종 목표 위치를 지나치는 일이 없도록 정하여져 있다.
또한, 많은 경우, 제2의 제어 동작에서, 제어 시스템(1)은, 화상 처리 수단(화상 처리 장치(100))에 의한 특징 부분의 위치의 특정과, 제어 수단(모션 컨트롤러(200))에 의한 대상물을 최종 목표 위치에 위치 결정하기 위한 제어 지령의 결정을 반복 실행한다.
또한, 제2의 제어 동작에서의 제1회째의 촬영 및 계측은, 중간 목표 위치에의 도달의 전(예를 들면, 제1의 속도로부터 제2의 속도로의 감속 중)에 실행하여도 좋다.
<E. 본 실시의 형태에 관한 얼라인먼트의 설정>
다음에, 본 실시의 형태에 관한 얼라인먼트의 실시에 필요한 설정에 관해 설명한다.
도 7은, 본 실시의 형태에 관한 얼라인먼트의 속도 패턴을 설명하기 위한 도면이다. 도 8은, 본 실시의 형태에 관한 얼라인먼트의 실시에 필요한 시스템 파라미터를 도시하는 도면이다.
도 7를 참조하면, 본 실시의 형태에 관한 얼라인먼트의 움직임은, 시간(tO) 내지 시간(t5)의 합계 6구간으로 나눌 수 있다.
시간(t0)은, 화상 처리 장치(100)에 의해 워크를 촬영함과 함께, 워크의 목표 지점까지의 차분(벡터량)를 산출하여, 워크에 대한 XY 이동의 움직임을 결정(초기 계측)하는데 필요로 하는 시간이다. 이 시간(t0)에서, 통상 얼라인먼트에 관한 속도 패턴 등이 결정된다.
시간(t1 내지 t3)까지가 통상 얼라인먼트의 기간에 상당한다. 시간(t1)은, 통상 얼라인먼트에서의 가속 기간에 상당한다. 시간(t1)에서, 스테이지(300)는, 시스템 허용의 최대 가속도로 가속한다. 시간(t2)은, 가장 고속으로 목표 지점에 가까워지는 기간에 상당한다. 시간(t2)에서는, 스테이지(300)는, 시스템 허용의 최대 속도(Vsys_max)로 등속 이동한다. 시간(t3)은, 통상 얼라인먼트에서의 감속 기간에 상당한다. 시간(t3)에서, 스테이지(300)는, 시스템 허용의 최대 감속도로 감속한다.
계속해서, 시간(t4 내지 t5)은, 논스톱 얼라인먼트의 기간에 상당한다. 시간(t4)에서, 촬영과 움직임 수정이 연속적으로 반복되고, 스테이지(300)가 워크를 목표 지점 부근까지 이동시킨다. 이 시간(t4)에서, 기본적으로는, 스테이지(300)는 논스톱 얼라인먼트 허용 최대 속도(Vns_max)로 등속 이동한다. 시간(t5)은, 논스톱 얼라인먼트에서의 감속 기간에 상당한다. 시간(t5)의 경과 시점에서, 워크는 목표 지점에 위치 결정되어 있다.
상술한 시간(t1 내지 t5)의 길이 및 대응하는 이동 거리(d1 내지 d5)에 관해서는, 도 8에 도시하는 바와 같은 시스템 파라미터를 이용하여, 이하의 (1) 내지 (6)식에 따라 산출할 수 있다. 또한, 도 8에 도시하는 시스템 파라미터는, 시스템 구성 부품의 사양 및 시스템 요구를 포함한다.
[수식 1]
Figure 112014031600627-pat00001
여기서, 전체로서의 이동시간을 단축하기 위해서는, 이하와 같은 요건이 중요해진다.
(a) 통상 얼라인먼트에서의 감속 시작 타이밍 : 늦을수록 바람직하다
(b) 논스톱 얼라인먼트 시작 타이밍 : 늦을수록 바람직하다
즉, 시간(t2)을 보다 길게 함과 함께, 시간(t4)을 보다 짧게 하는 것이 바람직하다. 상술한 (3)식 및 (5)식을 참조하면, 논스톱 얼라인먼트 시작 거리(dns)(이하, 「NSA 시작 거리(dns)」라고도 칭한다)를 보다 짧게 함으로써, 상술한 (a) 및 (b)의 요건을 충족시킴을 알 수 있다.
NSA 시작 거리(dns)는, 캘리브레이션 오차나 카메라의 노이즈 등에 의한 화상 처리에서의 계측 오차의 영향이 있었다고 하더라도, 제어 모드가 논스톱 얼라인먼트로 변경된 시점(도 7에 도시하는 논스톱 얼라인먼트 시작 타이밍(시간(t4)의 시작 시점))에서, 워크가 목표 지점을 지나치지 않도록 하기 위한 여유 거리에 상당한다. 즉, 시스템에 따르고 이 여유 거리(NSA 시작 거리(dns))를 최적화함으로써, 전체로서의 이동시간을 단축할 수 있다. NSA 시작 거리(dns)의 결정 방법 및 최적화 방법에 관해서는, 후술한다.
또한, NSA 시작 거리(dns)와 함께, 논스톱 얼라인먼트 허용 최대 속도(Vns_max)에 대해서도 최적화하는 것이 바람직하다.
도 9은, 본 실시의 형태에 관한 얼라인먼트에 이용하는 논스톱 얼라인먼트 허용 최대 속도(Vns_max)를 결정하는 방법을 설명하기 위한 도면이다. 우선, 논스톱 얼라인먼트의 제어성을 유지하기 위해, 하나의 논스톱 얼라인먼트 제어 주기(f) 에서 정지할 필요가 있다. 즉, 논스톱 얼라인먼트 제어 주기(f) 내에서 감속이 완료될 필요가 있다. 그 때문에, 이 요건을 만족하기 위한 조건으로서는, 시스템 허용 최대 가속도를 α로 하여, 이하와 같이 나타낼 수 있다.
Vns_max ≤ α×f … (1)
또한, 제어 시스템(1)에서는, 화상 처리 장치(100)에 의해 취득된 위치 정보에 의거하여 모션 컨트롤러(200)로부터 서보 유닛에 대해 지시를 주기 때문에, 최대로 하나의 논스톱 얼라인먼트 제어 주기(f)분만큼 지연된다. 그 때문에, 스테이지(300)의 2주기분에 걸쳐서 이동하는 거리(도 9의 면적(S1)과 면적(52)의 합계에 상당)만큼 오차 발생한다. 이 발생할 수 있는 오차를 요구 정밀도(R)보다 작게 할 필요가 있다. 그 때문에, 이 요건을 만족하기 위한 조건으로서는, 이하와 같이 나타낼 수 있다.
S≡SI+S2=Vns_max×f+Vns_max×f/2=Vns_max×f×3/2≤R
이것을 정리하면, 이하와 같은 조건이 도출된다.
Vns_max≤2R/3f … (2)
상기한 (1)식 및 (2)식을 동시에 충족시키도록, 논스톱 얼라인먼트 허용 최대 속도(Vns_max)가 결정된다.
이와 같이, 대상물과 목표 지점과의 사이의 거리가, 화상 처리 장치(100)에 의해 특정되는 위치에 생기는 오차에 응한 거리 이하가 되면, 제1의 제어 동작(통상 얼라인먼트)로부터 제2의 제어 동작(논스톱 얼라인먼트)으로의 전환이 실행된다. 이 오차에 응한 거리를 결정하는 순서에 관해서는, 후술한다.
또한, 제1의 제어 동작(통상 얼라인먼트)에서의 제어 지령은, 이동 기구(스테이지(300))를 허용되는 최대 가속도로 가속시키는 지령을 포함한다.
<F. 본 실시의 형태에 관한 얼라인먼트의 처리 순서>
다음에, 본 실시의 형태에 관한 얼라인먼트의 처리 순서에 관해 설명한다. 도 10은, 본 실시의 형태에 관한 얼라인먼트의 처리 순서를 도시하는 플로 차트이다. 도 10에 도시하는 각 스텝은, 기본적으로는, 화상 처리 장치(100) 및 모션 컨트롤러(200)가 협동하여 실행한다. 또한, 본 실시의 형태에서는, 2개의 처리 주체(화상 처리 장치(100) 및 모션 컨트롤러(200))를 이용하는 구성을 예시하지만, 이들의 처리 주체를 일체화한 실장 형태를 채용할 수도 있다. 이 경우에는, 이하에 나타내는 각 스텝은, 그 일체화된 처리 주체가 실행하게 된다. 즉, 본 실시의 형태에 관한 얼라인먼트의 실시에 필요한 각 처리는, 화상 처리 장치(100) 및 모션 컨트롤러(200)가 서로 연계하여, 또는, 어느 한쪽이 단독으로 실행한다. 이 처리의 분담은, 일종의 설계 사항이고, 시스템 요구나 각종 제약에 응하여 적절히 선택된다.
도 10를 참조하면, 화상 처리 장치(100)는, 카메라(102 및 104)에서의 시야와 스테이지(300)의 좌표와의 위치 관계를 특정하기 위한 캘리브레이션을 실행한다(스텝 S2). 이 캘리브레이션에 의해, 카메라(102 및 104)에 의해 각각 촬영되는 위치 결정 마크(12 및 14)의 위치(화소 위치)로부터 스테이지(300)의 이동량을 산출할 수 있다.
계속해서, 화상 처리 장치(100)는, 카메라(102 및 104)에 의해 워크상의 위치 결정 마크(12 및 14)를 각각 촬영하여, 워크의 목표 지점을 결정한다(스텝 S4). 스텝 S2 및 S4는, 얼라인먼트에 관한 전처리이고, 한 번 실행되면, 대상의 워크가 변경될 때까지는, 그 전처리에서 취득된 파라미터를 이용할 수 있다. 그 때문에, 2회째 이후의 얼라인먼트의 실행시에는, 스텝 S2 및 S4의 실행이 생략되어도 좋다.
계속해서, 얼라인먼트 대상의 워크가 스테이지(300)상에 배치된 후, 스텝 S1O 이후의 처리가 실행된다. 보다 구체적으로는, 우선, 화상 처리 장치(100)는, 스테이지(300)상의 워크를 촬영한다(스텝 S10). 계속해서, 화상 처리 장치(100)는, 카메라(102 및 104)가 워크를 촬영함으로써 생성된 화상 데이터에 포함되는 위치 결정 마크(12 및 14)를 서치하고, 그 서치 결과에 의거하여, 워크의 현재 지점 및 목표 지점까지의 차분을 산출한다(스텝 S12). 즉, 화상 처리 장치(100)는, 워크상의 위치 결정 마크(12 및 14)를 카메라(102 및 104)로 촬영하고, 워크의 좌표를 계측한다. 즉, 화상 처리 장치(100)는, 워크에 관한 위치 계측을 실행한다. 이 계측 결과는, 화상 처리 장치(100)로부터 모션 컨트롤러(200)에 송신된다.
모션 컨트롤러(200)는, 목표 지점까지의 차분에 의거하여, 스테이지(300)가 이동하여야 할 거리(이동량)를 산출함과 함께, 스테이지(300)의 움직임(목표 궤도, 속도 패턴, 또는 가속도 패턴 등)를 결정한다(스텝 S14). 이 때 산출된 차분은, 벡터량이고, 예를 들면, 현재 지점부터 목표 지점에 대한 거리 및 각도가 산출된다. 그리고, 모션 컨트롤러(200)는, 결정된 움직임에 따라 서보 드라이버에 대해 지시를 줌으로써, 스테이지(300)를 이동시킨다(스텝 S16). 여기서, 스텝 S14에서 결정된 움직임은, 통상 얼라인먼트의 구간에 상당하는 것이고, 논스톱 얼라인먼트의 구간에서의 움직임은, 스텝 S20 이후에서 순서대로 결정된다.
또한, 모션 컨트롤러(200)가 결정 또는 수정하는, 움직임을 정의하는 데이터 구조는 어떤 것이라도 좋다. 즉, 스테이지(300)를 도 7에 도시하는 바와 같이 이동시킬 수 있으면 충분하다.
스텝 S14에서 결정된 움직임에 따른 스테이지(300)의 이동이 완료되면, 즉 도 7에 도시하는 시간(t1 내지 t3)의 이동 처리가 완료되면, 논스톱 얼라인먼트가 시작된다. 환언하면, 상술한 스텝 S10 내지 S16의 처리는, 통상의 얼라인먼트에서의 처리에 상당하고, 스텝 S20 내지 S32의 처리는, 논스톱 얼라인먼트에서의 처리에 상당한다.
논스톱 얼라인먼트가 시작되면, 화상 처리 장치(100)는, 스테이지(300)상의 워크를 촬영한다(스텝 S20). 계속해서, 화상 처리 장치(100)는, 카메라(102 및 104)가 워크를 촬영함으로써 생성된 화상 데이터에 포함되는 위치 결정 마크(12 및 14)를 서치하고, 그 서치 결과에 의거하여, 워크의 현재 지점 및 목표 지점까지의 차분을 산출한다(스텝 S22). 화상 처리 장치(100)에 의한 워크에 관한 위치 계측의 결과는, 화상 처리 장치(100)로부터 모션 컨트롤러(200)에 송신된다.
모션 컨트롤러(200)는, 워크의 목표 지점에 대한 오차를 산출하고(스텝 S24), 산출한 오차가 미리 기정된 허용치 이내인지의 여부를 판정한다(스텝 S26). 산출한 오차가 허용치 이내인 경우(스텝 S26에서 YES인 경우)에는, 얼라인먼트를 종료한다. 즉, 모션 컨트롤러(200)는, 워크의 현재 지점과 목표 지점과의 문의 차분이 허용치 이내가 되도록, 스테이지(300)를 이동시킨다.
산출한 오차가 허용치를 초과하고 있는 경우(스텝 S26에서 NO인 경우)에는, 모션 컨트롤러(200)는, 화상 처리 장치(100)로부터 취득한 위치 계측의 결과가 스테이지(300)의 제어에 사용할 수 있는지의 여부를 판정한다(스텝 S28). 즉, 화상 처리 장치(100)에서의 워크의 위치 계측이 적절하게 실행되었는지의 여부가 판정된다.
화상 처리 장치(100)로부터 취득한 위치 계측의 결과가 스테이지(300)의 제어에 사용할 수 있다고 판정된 경우(스텝 S28에서 YES인 경우)에는, 모션 컨트롤러(200)는, 목표 지점까지의 차분에 의거하여, 스테이지(300)가 이동하여야 할 거리(이동량)를 산출함과 함께, 스테이지(300)의 움직임(목표 궤도, 속도 패턴, 또는 가속도 패턴 등)를 수정한다(스텝 S30). 그리고, 모션 컨트롤러(200)는, 결정된 움직임에 따라 서보 드라이버에 대해 지시를 줌으로써, 스테이지(300)를 이동시킨다(스텝 S32).
이에 대해, 화상 처리 장치(100)로부터 취득한 위치 계측의 결과가 스테이지(300)의 제어에 사용할 수가 없다고 판정된 경우(스텝 S28에서 NO인 경우)에는, 스텝 S30의 처리가 스킵된다. 즉, 우선 결정/수정되어 있는 움직임을 그대로 이용한다.
스텝 S32의 실행 후, 기정(旣定)의 시간이 경과하면, 스텝 S20 이하의 처리가 재차 실행된다.
이상과 같은 처리 순서에 의해, 본 실시의 형태에 관한 얼라인먼트가 실행된다. 또한, 어느 워크에 관한 얼라인먼트가 완료되면, 그 위치 결정된 워크는 다음의 공정으로 반송되고, 새로운 워크를 받아들인다. 이 새로운 워크에 대해, 스텝 S10 이하의 처리가 반복 실행된다.
이하, 상술한 스텝 중 몇가지의 스텝에 관해, 그 처리의 내용을 보다 상세히 설명한다. 또한, 상술한 스텝 S28의 처리는, 옵션이고 필수의 처리가 아니다. 즉, 스텝 S28의 판정을 행하는 일 없이, 스텝 S30를 실행하여도 좋다.
<G. 캘리브레이션>
도 10의 처리 순서의 스텝 S2의 캘리브레이션에 관해 설명한다. 캘리브레이션은, 스테이지(300)의 좌표계와 카메라(102 및 104)의 좌표계와의 정합을 취하는 처리를 의미한다. 즉, 카메라(102 및 104)가 워크를 촬영함으로써 얻어지는 위치 정보와, 실제의 워크(또는, 스테이지(300))의 위치 정보와의 관계성을 결정하는 처리이다.
도 11은, 본 실시의 형태에 관한 얼라인먼트의 전처리로서의 캘리브레이션을 설명하기 위한 도면이다. 도 12는, 본 실시의 형태에 관한 얼라인먼트의 전처리로서의 캘리브레이션의 원리를 설명하기 위한 도면이다.
도 11를 참조하면, 워크(유리 기판(2))상의 위치 결정 마크(12 및 14)를 카메라(102 및 104)로 촬영하면, 현실의 스테이지(300)의 좌표계인 스테이지 XY좌표계와, 카메라(102 및 104)가 인식한 카메라 xy좌표계(화상 데이터의 화소 위치에 상당)는 일치하지 않는다. 그 때문에, 캘리브레이션에서는, 이들의 좌표계 사이에서 정합을 취한다.
보다 구체적으로는, 도 12에 도시하는 바와 같이, 위치 결정 마크(12 및 14)가 마련되어 있는 워크를 이동시켜서, 스테이지 XY좌표계에 생기는 이동량과 카메라 xy좌표계에 생기는 이동량을 비교함으로써, 후술하는 바와 같은 캘리브레이션 파라미터(전형적으로는, 아핀 변환 파라미터)를 최적화 계산한다.
보다 구체적으로는, 워크상의 위치 결정 마크(도 12에 도시하는 예에서는, 십자 마크)를 촬영하고, 그 후, 그 워크를 스테이지(300)의 X방향에 따라 소정 거리(이동량(ΔX))만큼 이동시키고(Y방향으로는 이동시키지 않는다), 이동 후의 위치 결정 마크를 재차 촬영한다. 마찬가지로, 그 워크를 당초의 위치로부터 스테이지(300)의 Y방향에 따라 소정 거리(이동량(ΔY))만큼 이동시키고(X방향으로는 이동시키지 않는다), 이동 후의 위치 결정 마크를 재차 촬영한다.
각 좌표계에서, 도 12에 도시한다 3개의 위치 결정 마크의 각각에 관해 산출된 위치(좌표)를 이용함으로써, 캘리브레이션 파라미터를 결정할 수 있다. 보다 구체적으로는, 스테이지 XY좌표계에서 3개의 좌표와 카메라 xy좌표계에서의 대응하는 3개의 좌표를 이용하여, 이하의 식에서의 아핀 변환 파라미터(a 내지 f)를 산출한다.
[수식 2]
Figure 112014031600627-pat00002
이 아핀 변환 파라미터에 의해, 카메라 xy좌표계와 스테이지 XY좌표계와의 좌표치를 서로 변환할 수 있다.
<H 목표 지점(회전 중심)의 결정>
도 10의 처리 순서의 스텝 S4의 워크의 목표 지점의 결정 처리에 관해 설명한다. 본 실시의 형태에 관한 제어 시스템(1)에서, 스테이지(300)는 XY방향의 이동 및 θ방향의 회전이 가능하게 되어 있다. 스테이지(300)에 의한 워크의 회전 중심을 목표 지점으로 설정함으로써, 스테이지(300)를 이용하여 워크의 XY방향의 이동 및 θ방향의 회전을 합친 위치 결정을 행할 수가 있다. 그 때문에, 본 실시의 형태에서는, 전처리로서, 스테이지(300)의 회전 중심을 미리 특정하여 두고, 이 회전 중심을 목표 지점으로 결정한다.
도 13은, 본 실시의 형태에 관한 얼라인먼트의 전처리로서의 목표 지점(회전 중심)의 결정 처리를 설명하기 위한 도면이다. 도 14는, 본 실시의 형태에 관한 얼라인먼트의 전처리로서의 목표 지점(회전 중심)의 결정 처리의 원리를 설명하기 위한 도면이다.
도 13를 참조하면, 우선, 워크(유리 기판(2))를 스테이지(300)의 올바른 위치에 배치한다. 이 때, 워크를 배치하는 위치 정밀도가 중요하기 때문에, 전용의 치구나 치수가 정확한 마스터 워크를 이용한다.
그리고, 화상 처리 장치(100)는, 워크상의 위치 결정 마크(12 및 14)를 각각 카메라(102 및 104)로 촬영하고, 워크의 좌표(회전 중심의 좌표와 회전 각도)를 계측한다. 이 회전 중심의 좌표가 목표 지점으로 설정된다. 즉, 시야가 떨어진 2개의 카메라(102 및 104)로 촬영한 위치 결정 마크(12 및 14)의 좌표로부터, 워크(스테이지(300))의 회전 중심의 좌표가 산출된다.
도 14에 도시하는 바와 같이, 스테이지(300)를 각도(θ)만큼 회전시키고, 그 전후에서의 위치 결정 마크의 위치의 변화에 의거하여 회전 중심을 추정한다. 보다 구체적으로는, 도 14(a)에 도시하는 바와 같이, 위치 결정 마크가 마련되어 있는 워크를 스테이지(300)에 의해 각도(θ)만큼 회전시킨다. 이 회전 전후에서의 위치 결정 마크를 각각 「샘플링 1점째」 및 「샘플링 2점째」로 나타낸다. 그리고, 도 14(b)에 도시하는 바와 같이, 각도(θ)의 회전 전후에 있어서의 2개의 위치 결정 마크의 좌표점을 통과하는 직선을 정의함과 함께, 도 14(c)에 도시하는 바와 같이, 그 직선의 수직 이 등분 선상에서, 2개의 위치 결정 마크와의 사이에 하는 각이 각도(θ)가 되는 좌표를 산출한다. 이 산출한 좌표를 스테이지(300)의 회전 중심의 좌표로서 결정한다.
또한, 상세에 관해서는, 일본국 특개 2006-049755호 공보(특허 문헌 2)를 참조하길 바란다.
<I. 논스톱 얼라인먼트 시작 거리(dns)의 결정 방법>
상술한 바와 같이 , 논스톱 얼라인먼트 시작 거리(NSA 시작 거리)(dns)를 보다 짧게 함으로써, 전체로서의 이동시간을 단축할 수 있다. 즉, 본 실시의 형태에 관한 얼라인먼트를 빨리 완료시키기 위해서는, NSA 시작 거리(dns)는, 가능한한 작은, 즉 NSA 시작 거리(논스톱 얼라인먼트 시작 위치)가 목표 지점에 가능한한 가까운 쪽이 바람직하다.
한편으로, NSA 시작 거리(dns)는, 워크가 목표 지점을 지나치지 않도록 하기 위한 여유 거리에 상당하고, 제어 안정성의 관점에서는, 보다 긴 쪽이 바람직하다. 그 때문에, NSA 시작 거리(dns)를 적절하게 결정할 필요가 있다.
도 15는, 본 실시의 형태에 관한 얼라인먼트에 이용하는 논스톱 얼라인먼트 시작 거리(dns)의 이론치를 결정하는 방법을 설명하기 위한 도면이다. 도 15를 참조하면, 화상 처리 장치(100)가 워크를 촬영하고 나서 모션 컨트롤러(200)에 지령을 주기 까지 1개의 논스톱 얼라인먼트 제어 주기(f)에 상당하는 낭비 시간이 발생하고, 또한, 감속 기간(시간(t5))의 동안도 스테이지(300)는 이동한다. 이와 같은 활주 거리를 고려하면 NSA 시작 거리(dns)는, 이하와 같은 수식에 따라 산출할 수 있다.
dns=Vns_max×X+α×t52/2
=Vns_max×Vns_max2/2α
상술한 이론치에서의 고려에 더하여, 각종이 동적으로 변동하는 오차를 고려하여, 논스톱 얼라인먼트 시작 거리(dns)를 결정할 필요가 있다. 구체적으로는, NSA 시작 거리(dns)의 최소치는, 1회째의 촬영에 의한 화상 처리의 결과로부터 산출한 이동량에 포함되는 오차의 최대치에 상당한다. 이와 같은 오차의 원인은, (a) 카메라의 노이즈에 의한 계측 오차, 및, (b) 스테이지나 광학계의 특성으로 분류할 수 있다. (a)의 원인은, 계측마다 변화하고, (b)의 원인은, 계측 위치에 의존하고, 계측마다는 변화하지 않는다.
(a)의 원인에 관해서는, 카메라에 이용되고 있는 촬상 소자의 통계적인 데이터를 이용함으로써, 어느 정도 추측할 수 있다. 또한, (b)의 원인에 관해서는, 후술하는 바와 같은 순서에 의해, 사전에 실험적으로 측정하여 둠으로써 추측할 수 있다.
실제로 워크를 이동시킨 경우에 생기는 오차를 실험적으로 측정하여 둠으로써, NSA 시작 거리를 실험적으로 결정할 수 있다.
최종적으로는, 상술한 바와 같이 결정된 NSA 시작 거리의 이론치와 실험치와의 합을 NSA 시작 거리(dns)로서 결정한다. 즉, 여유 거리(NSA 시작 거리(dns))는, 이동 기구를 미리 정하여진 이동량만큼 이동시켜서, 당해 이동 후의 대상물의 위치를 화상 처리 수단이 특정한 결과와, 당해 미리 정하여진 이동량과의 비교에 의해 결정되는 제1의 거리와, 화상 처리 수단이 화상 데이터를 취득하고 나서 특징 부분의 위치를 특정할 때까지의 동안만큼 이동 기구를 제2의 속도에 이동시키고, 또한 이동 기구를 허용되는 최대 가속도로 제2의 속도로부터 감속시켜 정지시킬 때까지의 동안의 이동 기구의 이동량인 제2의 거리와의 합이다.
이하, NSA 시작 거리를 실험적으로 결정하는 수법에 관해 설명한다.
[i1 : 결정 방법 그 1]
도 16은, 본 실시의 형태에 관한 얼라인먼트에 이용하는 논스톱 얼라인먼트 시작 거리(dns)를 결정하는 방법(그 1)을 설명하기 위한 도면이다. 도 16에 도시하는 방법은, 워크의 이동량(벡터량)를 랜덤하게 결정하고, 이와 같이 랜덤하게 결정된 이동량만큼 워크를 이동시킨 경우에 생기는 오차를 실험적으로 취득한다. 도 17은, 도 16에 도시하는 논스톱 얼라인먼트 시작 거리(dns)를 결정하는 순서를 도시하는 플로 차트이다.
도 16 및 도 17를 참조하면, 화상 처리 장치(100)는, 카메라(102 및 104)에서의 시야와 스테이지(300)의 좌표와의 위치 관계를 특정하기 위한 캘리브레이션을 실행한다(스텝 S100). 즉, 스테이지(300)의 좌표계와 카메라(102 및 104)의 좌표계와의 정합을 취한다. 계속해서, 유저는, 워크(유리 기판(2))를 스테이지(300)의 소정의 위치에 배치한다(스텝 S102). 이 때, 워크를 배치하는 위치 정밀도가 중요하기 때문에, 전용의 치구나 치수가 정확한 마스터 워크를 이용한다.
그리고, 화상 처리 장치(100)는, 워크상의 위치 결정 마크(12 및 14)를 각각 카메라(102 및 104)로 촬영하고, 워크의 좌표(회전 중심의 좌표와 회전 각도)를 계측한다(스텝 S104). 이 회전 중심의 좌표(X0, YO, θ0)가 목표 지점으로 설정된다.
이에 의해, NSA 시작 거리를 결정하기 위한 전처리가 완료된다. 화상 처리 장치(100)는, NSA 시작 거리(dns)의 초기치로서 제로를 세트한다(스텝 S106). 계속해서, 모션 컨트롤러(200)는, 위치 결정 마크(12 및 14)가 각각 카메라(102 및 104)의 시야에 들어가도록, 이동량(Xt, Yt, θt)을 랜덤하게 결정하고(스텝 S108), 결정된 이동량에 따라 서보 드라이버에 대해 지시를 줌으로써, 스테이지(300)를 이동시킨다(스텝 S110).
스테이지(300)의 이동 후, 모션 컨트롤러(200)는, 스테이지(300)를 재차 목표 지점까지 이동시킨다(스텝 S112). 즉, 이동 기구(스테이지(300))를 미리 정하여진 이동량만큼 이동시키는 공정이 실행된다. 화상 처리 장치(100)는, 워크상의 위치 결정 마크(12 및 14)를 각각 카메라(102 및 104)로 촬영하고, 워크의 좌표(XI, Y1, a1)를 계측함과 함께, 목표 지점의 좌표와 계측된 워크의 좌표와의 사이의 스테이지(300)상의 거리(d)를 산출한다(스텝 S114). 즉, 거리(d)는, 목표 지점의 좌표(XO, YO)와 계측된 워크의 좌표(X1, Y1)와의 사이의 거리에 상당한다. 즉, 이동 후의 대상물의 위치를 촬영하여 얻어지는 화상 데이터로부터 위치를 특정하는 공정이 실행된다.
그 후, 화상 처리 장치(100)는, NSA 시작 거리(dns)의 현재치와 산출된 거리(d)를 비교하여, 산출된 거리(d)가 NSA 시작 거리(dns)의 현재치보다 큰지의 여부를 판정한다(스텝 S116). 산출된 거리(d)가 NSA 시작 거리(dns)의 현재치보다 큰 경우(스텝 S116에서 YES인 경우)에는, 화상 처리 장치(100)는, NSA 시작 거리(dns)를 산출된 거리(d)로 갱신한다(스텝 S118). 그리고, 스텝 S108 이하의 처리가 반복된다.
이에 대해, 산출된 거리(d)가 NSA 시작 거리(dns)의 현재치보다 작은 경우(스텝 S116에서 NO인 경우)에는, 화상 처리 장치(100)는, NSA 시작 거리(dns)의 갱신이 소정의 회수 연속하여 행하여지지 않았는지의 여부를 판정한다(스텝 S120). 즉, NSA 시작 거리(dns)의 현재치가 생길 수 있는 오차의 최대치로 되어 있는지의 여부가 판정된다. NSA 시작 거리(dns)의 갱신이 직근(直近)의 소정 회수 내에 행하여지고 있는 경우(스텝 S120에서 NO인 경우)에는, 스텝 S108 이하의 처리가 반복된다.
이에 대해, NSA 시작 거리(dns)의 갱신이 소정의 회수 연속하여 행하여지지 않은 경우(스텝 S120에서 YES인 경우)에는, 화상 처리 장치(100)는, NSA 시작 거리(dns)의 현재치를 최종적인 NSA 시작 거리(dns)의 최적치로서 출력한다(스텝 S122). 그리고, 처리는 종료한다.
이상과 같이, 이동 기구(스테이지(300))를 복수회 이동시킴과 함께, 미리 정하여진 이동량과 특정된 대상물의 위치와의 각각의 비교에 응하여, 오차에 응한 거리(NSA 시작 거리(dns))를 결정하는 공정이 실행된다.
[i2 : 결정 방법 그 2J
도 18은, 본 실시의 형태에 관한 얼라인먼트에 이용하는 논스톱 얼라인먼트 시작 거리(dns)를 결정하는 방법(그 2)을 설명하기 위한 도면이다. 상술한 도 16에 도시하는 방법에서는, 워크의 이동량을 랜덤하게 결정하고 NSA 시작 거리(dns)를 산출하는 수법에 관해 설명하였지만, 도 18에 도시하는 방법에서는, 규칙적으로 배치된 각 좌표에 관해 오차를 평가함으로써, NSA 시작 거리(dns)를 산출하는 수법에 관해 설명한다. 도 19은, 도 18에 도시하는 논스톱 얼라인먼트 시작 거리(dns)를 결정하는 순서를 도시하는 플로 차트이다.
도 18 및 도 19를 참조하면, 화상 처리 장치(100)는, 카메라(102 및 104)에서의 시야와 스테이지(300)의 좌표와의 위치 관계를 특정하기 위한 캘리브레이션을 실행한다(스텝 S200). 즉, 스테이지(300)의 좌표계와 카메라(102 및 104)의 좌표계와의 정합을 취한다. 계속해서, 유저는, 워크(유리 기판(2))를 스테이지(300)의 소정의 위치에 배치한다(스텝 S202). 이 때, 워크를 배치하는 위치 정밀도가 중요하기 때문에, 전용의 치구나 치수가 정확한 마스터 워크를 이용한다.
그리고, 화상 처리 장치(100)는, 워크상의 위치 결정 마크(12 및 14)를 각각 카메라(102 및 104)로 촬영하고, 워크의 좌표(회전 중심의 좌표와 회전 각도)를 계측한다(스텝 S204). 이 회전 중심의 좌표(XO, YO, θ0)가 목표 지점으로 설정된다(도 18(a) 참조). 이에 의해, NSA 시작 거리를 결정하기 위한 전처리가 완료된다.
우선, 모션 컨트롤러(200)는, 스테이지(300)를 원점((X, Y, θ))=(0, 0, 0)으로 이동시킨다(스텝 S206). 그 후, 모션 컨트롤러(200)는, 도 18(b)에 도시하는 바와 같이, 스테이지(300)를 원점으로부터 목표 지점(XO, YO, θ0)으로 재차 이동시킨다(스텝 S208). 화상 처리 장치(100)는, 스테이지(300)의 이동 후에, 워크상의 위치 결정 마크(12 및 14)를 각각 카메라(102 및 104)로 촬영하고, 워크의 좌표(X1, Y1, θ1)를 계측함과 함께, 목표 지점의 좌표(XO, YO, θ0)와 계측된 워크의 좌표(X1, Y1, θ1)와의 사이의 스테이지(300)상의 거리(d1)를 산출한다(스텝 S210). 즉, 거리(d)는, 목표 지점의 좌표(XO, YO)와 계측된 워크의 좌표(X1, Y1)와의 사이의 거리에 상당한다.
다음에, 모션 컨트롤러(200)는, 소정 규칙에 따라 스테이지(300)의 이동처를 결정한다(스텝 S212). 구체적으로는, 도 18(c)에 도시하는 바와 같이, 스테이지(300)의 X방향에 따라 이동시킨 좌표(T, 0, 0), (2T, 0, 0), (3T, 0, 0)를 이동처로서 각각 결정한다. 즉, 어느 X축상의 이동처로서는, 일정한 변화량(T)씩 변화시킨 좌표가 순차적으로 설정된다.
그리고, 모션 컨트롤러(200)는, 스테이지(300)를 스텝 S212에서 결정된 이동처로 이동시킨다(스텝 S214). 그 후, 모션 컨트롤러(200)는, 스테이지(300)를 이동처로부터 목표 지점(XO, YO, θ0)으로 재차 이동시킨다(스텝 S216). 화상 처리 장치(100)는, 스테이지(300)의 이동 후에, 워크상의 위치 결정 마크(12 및 14)를 각각 카메라(102 및 104)로 촬영하고, 워크의 좌표을 계측함과 함께, 목표 지점의 좌표(XO, YO, θ0)와 계측된 워크의 좌표와의 사이의 스테이지(300)상의 거리(dn)를 산출한다(스텝 S218).
그 후, 모션 컨트롤러(200)는, X방향의 모든 점을 이동처로서 결정하였는지의 여부를 판정한다(스텝 S220). X방향의 모든 점을 이동처로서 결정하지 않은 경우(스텝 S220에서 NO인 경우)에는, 스텝 S212 이하의 처리가 재차 실행된다.
이상과 같은 처리에 의해, 각 이동처로의 이동 후에 취득된 계측 좌표((X2, Y2, θ2), (X3, Y3, θ3), (X4, Y4, θ4) …)가 취득되고, 각 계측 좌표와 (X0, YO)와의 사이의 거리(d2, d3, d4, …)가 산출된다.
X방향의 모든 점을 이동처로서 결정하고 있는 경우(스텝 S220에서 YES인 경우)에는, 모션 컨트롤러(200)는, 스테이지(300)의 이동처의 Y방향의 값을 소정치만큼 잉크리먼트 한다(스텝 S222). 즉, 스테이지(300)의 단(端) 또는 카메라의 시야의 단(端)까지 도달하면, 스테이지(300)를 Y방향으로 T만큼 이동시킨다. 그리고, 모션 컨트롤러(200)는, Y방향의 모든 점을 이동처로서 결정하였는지의 여부를 판정한다(스텝 S224). Y방향의 모든 점을 이동처로서 결정하지 않은 경우(스텝 S224에서 NO인 경우)에는, 스텝 S212 이하의 처리가 재차 실행된다.
Y방향의 모든 점을 이동처로서 결정하고 있는 경우(스텝 S224에서 YES인 경우), 즉 스테이지(300)상의 모든 좌표에 관해 이동 거리를 산출하였으면, 모션 컨트롤러(200)는, 스테이지(300)의 이동처의 θ성분의 값을 소정치만큼 잉크리먼트한다(스텝 S226). 즉, 스테이지(300)의 단 또는 카메라의 시야의 단까지 도달하면, 스테이지(300)를 θ방향으로 소정치만큼 회전시킨다. 그리고, 모션 컨트롤러(200)는,. 성분의 모든 점을 이동처로서 결정하였는지의 여부를 판정한다(스텝 S228).. 성분의 모든 점을 이동처로서 결정하지 않은 경우(스텝 S228에서 NO인 경우)에는, 스텝 S212 이하의 처리가 재차 실행된다.
이와 같이 하여, 도 18(d)에 도시하는 바와 같이, 규칙적으로 배치된 각 좌표로 이동시킨 경우에 생기는 오차를 각각 산출하는 처리가 실행된다.
θ성분의 모든 점을 이동처로서 결정하고 있는 경우(스텝 S228에서 YES인 경우)에는, 산출된 모든 이동처(X, Y, B)에 관한, 계측 좌표(X, Y)와 (XO, YO)와의 거리(d)의 최대치를 산출하고, 그 산출한 최대치를 NSA 시작 거리(dns)의 최적치로서 출력한다(스텝 S230). 그리고, 처리는 종료한다.
<J.계측 실패시의 처리>
도 10의 처리 순서의 스텝 S28에서, 모션 컨트롤러(200)는, 화상 처리 장치(100)로부터 취득한 위치 계측의 결과가 스테이지(300)의 제어에 사용할 수 있는지의 여부를 판정한다. 이 판정 처리는, 필수의 스텝이 아니지만, 논스톱 얼라인먼트의 위치 결정 정밀도를 높이기 위해서는, 실행하는 것이 바람직하다.
즉, 논스톱 얼라인먼트에서는, 화상 처리에 의한 계측 결과에 의거하여 동적으로 속도나 위치를 제어하기 때문에, 계측 결과에 오차가 큰 경우나, 화상 처리에 의한 계측에 의해 많은 시간이 걸리는 경우에는, 제어에 큰 외란(外亂)이 생길 수 있다. 그 결과, 대폭적인 시간 로스가 생겨 버린다.
도 20은, 본 실시의 형태에 관한 얼라인먼트의 실행시에 계측 처리가 실패한 경우의 처리를 설명하기 위한 도면이다. 도 20에 도시하는 바와 같이, 화상 처리 장치(100)로부터 취득한 위치 계측의 결과가 스테이지(300)의 제어에 사용할 수 있는지의 여부가 판정되고(도 10의 스텝 S28 참조), 사용할 수가 없다고 판정된 경우에는, 스테이지(300)의 움직임을 수정하지 않고서, 앞서 결정/수정되어 있는 움직임에 따라 스테이지(300)의 이동을 계속한다. 또한, 앞서 결정/수정되어 있는 움직임에서는, 목표 지점까지의 거동이 정의되어 있기 때문에, 움직임을 그대로 사용하였다고 하여도, 큰 문제는 생기지 않는다.
이와 같이, 본 실시의 형태에 관한 얼라인먼트에서는, 화상 처리의 결과가 스테이지(300)의 제어에 사용할 수 있는지의 여부를 판정하는 로직이 포함되어 있고, 스테이지(300)의 제어에 사용할 수가 없다고 판정된 경우에는, 스테이지(300)의 이동 방향의 수정을 하지 않고서 현재의 상태의 이동이 계속된다. 즉, 본 실시의 형태에 관한 제어 시스템(1)은, 제2의 제어 동작(논스톱 얼라인먼트)에서, 화상 처리 장치(100)에 의한 특징 부분의 위치의 특정이 정상이 아닌 경우에, 제어 지령의 결정을 스킵한다.
이 위치 계측의 결과가 스테이지(300)의 제어에 사용할 수 있는지의 여부를 판정하는 기준의 한 예로서는, 예를 들면, 이하와 같은 것을 들 수 있다.
(1) 워크를 검출할 수가 없었다
(2) 전회의 계측 결과로부터의 이동 거리가 너무 크다, 또는, 서보 모터의 인코더값으로부터 추측되는 현재 위치와의 차가 임계치 이상 떨어져 있다(또한, 논스톱 얼라인먼트에서 이동 거리는, 도 8에 도시하는 시간(t4) 중에 진행되는 거리(d4)를 넘는 일은 없다)
(3) 화상 처리가 소정 처리시간 내에 완료하지 않았다(논스톱 얼라인먼트를 위한 화상 처리는, 도 8에 도시하는 논스톱 얼라인먼트 제어 주기(f)를 초과하면 안된다) 또한, 상기한 (3)의 경우에는, 최초에, 화상 처리 장치(100)에서의 화상 처리를 중단하도록 하여도 좋다.
또한, 위치 계측의 결과가 스테이지(300)의 제어에 사용할 수 있는지의 여부의 판정 기능을 화상 처리 장치(100)측에 탑재하여도 좋다. 이 경우에는, 판정 결과가 화상 처리 장치(100)로부터 모션 컨트롤러(200)에 통지되게 된다. 또한, 화상 처리 장치(100)는, 자신에 의한 특징 부분의 위치의 특정이 정상이 아닌 경우에, 제어 지령의 결정을 스킵한다.
<K. 시야 사이즈가 다른 2종류의 카메라의 사용례(변형례 1)>
상술한 실시의 형태에서는, 1종류의 카메라로 위치 결정 마크를 촬영하는 구성에 관해 예시하였지만, 요구되는 위치 정밀도를 만족하기 위해, 다른 시야를 갖는 복수의 카메라를 이용한` 구성이 채용된` 경우가 있다. 즉, 단일한 카메라로서는 시야 사이즈의 넓이와 분해능의 높이와의 양쪽을 만족하는 것이 곤란하다. 그 때문에, 이동량에 대해 요구 정밀도가 엄격한 경우에는, 시야 사이즈가 다른 복수종류의 카메라를 이용한 얼라인먼트 시스템이 구성되는 경우가 있다.
도 21은, 본 실시의 형태의 변형례 1에 관한 제어 시스템의 구성을 설명하기 위한 모식도이다. 도 22는, 본 실시의 형태의 변형례 1에 관한 얼라인먼트를 설명하기 위한 도면이다.
도 21에 도시하는 제어 시스템에서는, 위치 결정 마크(12 및 14)의 각각에 대응지어서, 시야 사이즈가 다른 2종류의 카메라를 준비한다. 카메라(102-1 및 1041)(광시야 카메라)는, 보다 넓은 시야를 갖고 있고, 워크가 존재할 수 있는 모든 영역을 촬영한다. 한편, 카메라(102-2 및 104-2)(협시야 카메라)는, 보다 좁은 시야를 갖고 있고, 목표 지점의 부근을 보다 고해상도로 촬영한다.
즉, 본 실시의 변형례 1에 관한 화상 처리 장치(100)는, 서로 시야 사이즈가 다른 제1 및 제2의 카메라로부터 각각 화상 데이터를 취득하도록 구성되어 있다.
도 22를 참조하면, 변형례 1에 관한 얼라인먼트에서는, 광시야 카메라의 촬영에 의해 거칠게 위치 계측을 행하고, 워크를 협시야 카메라의 시야 내까지 이동시킨다. 그 후, 협시야 카메라로 보다 정밀하게 위치 계측을 행함으로써, 워크를 목표 지점에 위치 결정한다. 변형례 1에서는, 설명의 편의상, 광시야 카메라로 거칠게 위치 결정하는 것을 「프리 얼라인먼트」라고 칭하고, 협시야 카메라로 정밀하게 위치 결정한 것을 「본 얼라인먼트」라고 칭한다.
이와 같이, 본 실시의 형태의 변형례 1에 관한 얼라인먼트에서는, 고정밀도 및 광시야를 양립하기 위해, 다른 시야를 갖는 복수종류의 카메라를 이용하는 구성에서, 프리 얼라인먼트와 본 얼라인먼트와의 사이에서 스테이지(300)를 정지하는 일 없이, 이동 제어를 계속함으로써, 이동에 필요로 하는 시간을 단축한다.
책 얼라인먼트는, 워크가 협시야 카메라의 시야에 들어간 타이밍(본 얼라인먼트 시작 타이밍)에서 시작되어도 좋다. 이 경우, 협시야 카메라의 촬영 시작 타이밍(Tp)(본 얼라인먼트 시작 타이밍)은, 광시야 카메라에서의 계측 위치로부터, 협시야 카메라의 시야까지의 최단 거리에 의거하여, 이하의 식에 따라 산출할 수 있다.
[수식 3]
Figure 112014031600627-pat00003
또한, 광시야 카메라 및 협시야 카메라의 양쪽의 시야에 위치 결정 마크를 배치하여 캘리브레이션을 행함으로써, 카메라 변경에 의한 얼라인먼트에의 영향을 회피할 수 있다.
도 21에 도시하는 바와 같은 시야 사이즈가 다른 2종류의 카메라를 사용하는 경우라도, 스테이지를 정지시키는 일 없이, 연속적으로 이동시켜서, 얼라인먼트를 할 수가 있다.
즉, 본 실시의 형태의 변형례 1에 관한 제어 시스템(1)은, 시야 사이즈가 보다 큰 제1의 카메라(광시야 카메라)로부터의 화상 데이터에 의거하여 제1의 제어 동작(통상 얼라인먼트)에서 이용되는 제어 지령을 결정하고, 제1의 제어 동작에서, 이동 기구의 이동 중에, 화상 데이터의 취득처를 제1의 카메라에 대신하여 시야 사이즈가 보다 작은 제 2의 카메라(협시야 카메라)로 전환한다.
이와 같이 스테이지를 정지시키는 일 없이, 광시야 카메라로부터 협시야 카메라로의 전환을 행함으로써, 전체의 이동에 필요로 하는 시간을 단축할 수 있다.
또한, 제1의 카메라(광시야 카메라) 및 제2의 카메라(협시야 카메라)가 모두 화상 처리 장치(100)에 접속되기 때문에, 화상 처리 장치(100)측에, (1) 제어 지령이 결정한 기능, 및, (2) 제2의 카메라의 시야에 워크가 들어가는 것을 제1 또는 제2의 카메라로 감시하고, 시야에 들어갈 때까지 통상 얼라인먼트를 계속하고, 시야에 들어가면 상기한 카메라 전환하는 기능의 적어도 한쪽을 탑재하여도 좋다. 이 경우에는, 화상 처리 장치(100)는, 시야 사이즈가 보다 큰 제1의 카메라로부터의 화상 데이터에 의거하여 제1의 제어 동작(통상 얼라인먼트)에서 이용되는 제어 지령을 결정하고, 제1의 제어 동작에서, 이동 기구의 이동 중에, 화상 데이터의 취득처를 제1의 카메라에 대신하여 시야 사이즈가 보다 작은 제 2의 카메라로 전환한다.
<L 수직 방향의 이동(변형례 2)>
도 1에 도시하는 얼라인먼트 시스템의 적용례에서는, 스테이지를 수평 방향(XY평면)뿐만 아니라, 수직 방향(Z축)으로 면이동시키는 일이 있다. 변형례 2로서, 이와 같은 수직 방향의 이동이 동시에 행하여지는 경우의 보정 처리에 관해 설명한다.
도 23은, 본 실시의 형태의 변형례 2에 관한 적용례를 설명하기 위한 모식도이다. 도 24는, 도 23에 도시하는 적용례에서의 보정 처리를 설명하기 위한 도면이다.
도 23을 참조하면, 예를 들면, 유리 기판(2)에 노광 마스크(4)를 접합하는 공정에서는, 얼라인먼트하면서 노광 마스크(4)와 유리 기판(2)과의 거리를 서서히 줄여 가서, 얼라인먼트 완료 시점에는, 노광 마스크(4)가 아래에 놓여진 유리 기판(2)과 밀착하고 있도록 한다.
이와 같은 공정에서, 수평 방향(XY평면)의 이동을 행하는 XY 스테이지와 수직 방향(Z축)의 이동을 행하는 Z축 스테이지가 각각 독립적으로 배치되는 경우가 있다. 즉, 이동 기구인 스테이지는, 제1 및 제2의 제어 동작(통상 얼라인먼트 및 논스톱 얼라인먼트)에 따라 위치 결정되는 좌표계에 더하여, 또한 이동 가능한 다른 좌표계를 갖고 있다. 이와 같은 경우에는, Z축 스테이지가 XY 스테이지에 대해 수직으로 되어 있지 않은 경우가 있다. 이와 같은 경우에는, 다음과 같은 문제가 발생할 수 있다.
도 24를 참조하면, XY 스테이지 및 Z축 스테이지는 동시에 제어되지만, 기본적으로는, 논스톱 얼라인먼트는 XY평면에 대해 실행되기 때문에, XY평면에서의 위치 결정이 완료되면, Z축방향의 이동이 계속하고 있음에도 불구하고, 논스톱 얼라인먼트가 완료되어 버리는 경우가 있다.
즉, 논스톱 얼라인먼트에 관한 위치 결정을 행하고 있는 대상은 XY평면이고, Z축의 이동 중에, XY평면의 위치 결정 정밀도가 요구 정밀도 내에 들어감으로써, 논스톱 얼라인먼트가 종료되어 버린다(도 24의 시각(T2)).
논스톱 얼라인먼트 종료 후, 상술한 바와 같은 스테이지 사이의 어긋남에 의해, Z축 이동에 수반하여 XY평면에 위치 어긋남이 생기는 경우가 있다. 도 24에는, 위치 결정 정밀도가 요구 정밀도 내에 들어가고, 시각(T)=2에서 논스톱 얼라인먼트는 정지하지만, 그 후의 Z축의 이동에 수반하여 위치 어긋남이 생기는 양상을 나타낸다.
이와 같은 과제에 대한 대책으로서, Z축의 이동에 수반하는 XY평면에서의 변화량을 미리 취득하여 두고, 논스톱 얼라인먼트의 목표 지점에 대한 보정치로서 주는 것이 바람직하다. 구체적으로는, 이하와 같은 수식에 따라, 목표 지점을 보정한다.
X=X'+AZ
Y=Y'+BZ
여기서, X, Y은 보정 전의 좌표를 나타내고, X', Y'는 보정 후의 좌표를 나타내고, Z는 Z축방향의 이동량을 나타낸다. 계수(A 및 B)는, 미리 캘리브레이션에 의해 취득하여 둔다. 윗식에서, 보정량이 Z축방향의 이동량에 관한 값으로 되어 있는 것은, 도 24에 도시하는 바와 같이, 목표 지점에 대한 오프셋 성분은, 노광 마스크(4)의 Z위치에 의해 동적으로 변화시킬 필요가 있기 때문이다.
이와 같이, 본 실시의 형태의 변형례 2에서는, 얼라인먼트 중에 스테이지가 XY방향뿐만 아니라 Z방향으로도 이동하는 구성이 채용되어 있다. 이와 같은 구성에서, Z축이 XY축에 수직이 아닌 경우, Z축의 이동량에 수반하는 XY방향에서의 변화량을 미리 캘리브레이션하여 둠으로써, 얼라인먼트시에 XY 위치를 보정한다. 즉, 본 실시의 형태의 변형례 2에 관한 제어 시스템은, 다른 좌표계(Z축)에서의 이동 기구(스테이지)가 이동함에 의해 생기는 오차에 응하여, 제2의 제어 동작(논스톱 얼라인먼트)에서의 제어 지령을 보정한다.
이와 같은 보정을 행함으로써, 수평 방향 및 수직 방향으로 얼라인먼트시킬 필요가 있는 경우라도, 그 정밀도를 높일 수 있다.
<M. 이점>
본 실시의 형태에 관한 얼라인먼트 수법에서는, 정지하고 있는 워크에 대해 1회의 촬영으로 목표 지점까지의 이동에 관한 움직임을 결정하고, 그 결정한 움직임에 따라 당해 워크를 이동시키는 제어(일종의 피드 포워드 제어) 수법과, 이동하고 있는 워크에 대해 1회 이상의 촬영을 순차적으로 행함으로써, 이동 속도나 이동량을 순차적으로 조정하는 제어(일종의 피드 팩 제어) 수법을 도중에 전환한다. 이에 의해, 얼라인먼트에 필요로 하는 시간을 단축화할 수 있다.
이 때, 상기 2개의 제어 수법을 전환하는 타이밍을 가능한 한 늦게 함으로써, 이동 속도가 느린 피드 팩 제어 수법이 실행되는 시간을 최소화할 수 있다. 이 때, 시스템에 생길 수 있는 오차의 최대치를 미리 계측하여 두고, 이 계측에 의해 얻어진 오차의 최대치에 응하여, 상기 2개의 제어 수법을 전환하는 타이밍을 결정한다. 즉, 피드 포워드 제어 수법에 의해 워크가 당해 계측된 오차 범위 내로 이동하면, 그 타이밍에서 제어 수법을 전환한다.
상술한 바와 같이 , 본 실시의 형태에 관한 얼라인먼트는, 통상 얼라인먼트와 논스톱 얼라인먼트를 조합시킴으로써, 워크를 목표 지점에 위치 결정하는데 필요로 하는 시간을 단축한다.
도 25는, 본 실시의 형태에 관한 얼라인먼트에 의한 이동시간의 단축 효과를 설명하기 위한 도면이다. 도 25에는, 본 실시의 형태에 관한 얼라인먼트에 의한 시간 단축화의 효과를 종래의 얼라인먼트와 비교한 도면이다. 도 25에 도시하는 바와 같이, 본 실시의 형태에서는, 일단 이동을 시작한 스테이지(300)(워크)를 정지시키는 일 없이, 위치 결정 제어를 행하기 때문에, 정지에 수반하는 시간의 로스가 없고, 종래의 얼라인먼트에 비교하여, 얼라인먼트의 완료까지 필요로 하는 시간을 대폭적으로 단축할 수 있다.
금회 개시된 실시의 형태는 모든 점에서 예시이고 제한적인 것이 아니라고 생각되어야 할 것이다. 본 발명의 범위는, 상기한 설명이 아니라, 특허 청구의 범함에 의해 나타나고, 특허청구의 범위와 균등한 의미 및 범위 내에서의 모든 변경이 포함되는 것이 의도된다.
2 : 유리 기판
4 : 노광 마스크
12, 4 : 위치 결정 마크
100 : 화상 처리 장치
102, 104 : 카메라
110, 214 : 프로세서
112 : RAM
114 : 표시 컨트롤러
116 : 시스템 컨트롤러
118 : 컨트롤러
120 : 하드 디스크
122 : 카메라 인터페이스
122a, 112b : 화상 버퍼
124 : 입력 인터페이스
126 : 모션 컨트롤러 인터페이스
128, 228 : 통신 인터페이스
130, 222 : 메모리 카드 인터페이스
132 : 표시부
134 : 키보드
136, 224 : 메모리 카드
150 : 제어 프로그램
200 : 모션 컨트롤러
210 : 주제어 유닛
212 : 칩 세트
216 : 불휘발성 메모리
218 : 주메모리
220 : 시스템 클록
226 : 내부 버스
230 : 내부 버스 컨트롤러
232 : 제어 회로
234 : 내부 버스 제어 회로
236 : 버퍼 메모리
240, 242. 244 : 서보 유닛
250, 252, 254 : 서보 드라이버
300 : 스테이지
310. 312. 314 : 서보 모터

Claims (11)

  1. 위치 결정용의 특징 부분이 마련된 워크를 촬영하여 얻어지는 화상 데이터를 취득하고, 상기 화상 데이터에 포함되는 상기 특징 부분의 위치를 특정하는 화상 처리 수단과,
    상기 워크의 위치를 변경하는 이동 기구에 대해, 상기 특정된 특징 부분의 위치에 의거하여 제어 지령을 줌으로써, 상기 워크를 소정의 최종 목표 위치에 위치 결정하는 제어 수단을 구비하며, 상기 워크의 얼라인먼트을 행하기 위한 제어, 시스템으로서,
    상기 제어 시스템은, 제1의 제어 동작을 실행 후에 제2의 제어 동작을 실행하고,
    상기 제 1의 제어 동작에서, 상기 화상 처리 수단은, 상기 화상 데이터를 취득하여 상기 특징 부분의 위치를 특정하고, 상기 제어 수단은, 상기 특정된 상기 특징 부분의 위치에 의거하여, 상기 워크를 소정의 제1의 속도까지 가속한 후에 상기 제 1의 속도보다 작은 소정의 제2의 속도까지 감속하여 상기 최종 목표 위치로부터 소정의 여유 거리만큼 떨어진 중간 목표 위치에 이동하기 위한 제어 지령을 결정하고,
    상기 제 2의 제어 동작에서, 상기 화상 처리 수단은, 상기 이동 기구의 이동 중에 상기 화상 데이터를 취득하여 상기 특징 부분의 위치를 특정하고 상기 제어 수단은, 상기 특정된 상기 특징 부분의 위치에 의거하여, 상기 워크를 상기 최종 목표 위치에 위치 결정하기 위한 제어 지령을 결정하고,
    상기 여유 거리는, 상기 이동 기구를 허용되는 최대 가속도로 상기 제 2의 속도로부터 감속시킨 때에 상기 워크가 상기 최종 목표 위치를 지나치는 일이 없도록 정하여져 있는 것을 특징으로 하는 제어 시스템.
  2. 제1항에 있어서,
    상기 제 2의 제어 동작에서, 상기 제어 시스템은, 상기 화상 처리 수단에 의한 상기 특징 부분의 위치의 특정과, 상기 제어 수단에 의한 상기 워크를 상기 최종 목표 위치에 위치 결정하기 위한 제어 지령의 결정을 반복 실행하는 것을 특징으로 하는 제어 시스템.
  3. 제1항에 있어서,
    상기 여유 거리는, 상기 이동 기구를 미리 정하여진 이동량만큼 이동시켜서, 당해 이동 후의 워크의 위치를 상기 화상 처리 수단이 특정한 결과와, 당해 미리 정하여진 이동량과의 비교에 의해 결정되는 제1의 거리와, 상기 화상 처리 수단이 화상 데이터를 취득하고 나서 상기 특징 부분의 위치를 특정하기 까지의 동안만큼 상기 이동 기구를 상기 제 2의 속도로 이동시키고, 또한 상기 이동 기구를 허용되는 최대 가속도로 상기 제 2의 속도로부터 감속시켜 정지시킬 때까지의 3동안의 상기 이동 기구의 이동량인 제2의 거리와의 합인 것을 특징으로 하는 제어 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제 1의 제어 동작에서의 상기 제어 지령은, 상기 이동 기구를 허용되는 최대 가속도로 가속시키는 지령을 포함하는 것을 특징으로 하는 제어 시스템.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제어 수단은, 상기 제 2의 제어 동작에서, 상기 화상 처리 수단에 의한 상기 특징 부분의 위치의 특정이 비 정상인 경우에, 상기 제어 지령의 결정을 스킵하는 것을 특징으로 하는 제어 시스템.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 화상 처리 수단은, 서로 시야 사이즈가 다른 제1 및 제2의 카메라로부터 각각 화상 데이터를 취득하도록 구성되어 있고,
    상기 제어 수단은,
    시야 사이즈가 보다 큰 제1의 카메라로부터의 화상 데이터에 의거하여 상기 제1의 제어 동작에서 이용되는 상기 제어 지령을 결정하고,
    상기 제 1의 제어 동작에서, 상기 이동 기구의 이동 중에, 상기 화상 데이터의 취득처를 상기 제1의 카메라에 대신하여 시야 사이즈가 보다 작은 제 2의 카메라로 전환하는 것을 특징으로 하는 제어 시스템.
  7. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 화상 처리 수단은, 상기 제 2의 제어 동작에서, 상기 특징 부분의 위치의 특정이 비 정상인 경우에, 상기 제어 지령의 결정을 스킵하는 것을 특징으로 하는 제어 시스템.
  8. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 화상 처리 수단은, 서로 시야 사이즈가 다른 제1 및 제2의 카메라로부터 각각 화상 데이터를 취득하도록 구성되어 있고,
    상기 화상 처리 수단은,
    시야 사이즈가 보다 큰 제1의 카메라로부터의 화상 데이터에 의거하여 상기 제1의 제어 동작에서 이용되는 상기 제어 지령을 결정하고,
    상기 제 1의 제어 동작에서, 상기 이동 기구의 이동 중에, 상기 화상 데이터의 취득처를 상기 제1의 카메라에 대신하여 시야 사이즈가 보다 작은 제 2의 카메라로 전환하는 것을 특징으로 하는 제어 시스템.
  9. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 이동 기구는, 상기 제 1 및 제2의 제어 동작에 따라 위치 결정되는 좌표계에 더하여, 또한 이동 가능한 다른 좌표계를 갖고 있고,
    상기 제어 수단은, 당해 다른 좌표계에서 상기 이동 기구가 이동함에 의해 생기는 오차에 응하여, 상기 제 2의 제어 동작에서의 제어 지령을 보정하는 것을 특징으로 하는 제어 시스템.
  10. 위치 결정용의 특징 부분이 마련된 워크를 촬영하여 얻어지는 화상 데이터를 취득하고, 상기 화상 데이터에 포함되는 상기 특징 부분의 위치를 특정하는 스텝과,
    상기 워크의 위치를 변경하는 이동 기구에 대해, 상기 특정된 특징 부분의 위치에 의거하여 제어 지령을 줌으로써, 상기 워크를 소정의 최종 목표 위치에 위치 결정하는 스텝을 포함하는 제어 방법으로서,
    상기 제어 방법에서, 제1의 제어 동작을 실행 후에 제2의 제어 동작이 실행되고,
    상기 제 1의 제어 동작에서, 상기 화상 데이터를 취득하여 상기 특징 부분의 위치를 특정하는 스텝이 실행된 후, 상기 위치 결정하는 스텝은, 상기 특정된 상기 특징 부분의 위치에 의거하여, 상기 워크를 소정의 제1의 속도까지 가속한 후에 상기 제 1의 속도보다 작은 소정의 제2의 속도까지 감속하여 상기 최종 목표 위치로부터 소정의 여유 거리만큼 떨어진 중간 목표 위치에 이동하기 위한 제어 지령을 결정하는 스텝을 포함하고,
    상기 제 2의 제어 동작에서, 상기 이동 기구의 이동 중에 상기 화상 데이터를 취득하여 상기 특징 부분의 위치를 특정하는 스텝이 실행된 후, 상기 위치 결정하는 스텝은, 특정된 상기 특징 부분의 위치에 의거하여, 상기 워크를 상기 최종 목표 위치에 위치 결정하는 스텝을 포함하고,
    상기 여유 거리는, 상기 이동 기구를 허용되는 최대 가속도로 상기 제 2의 속도로부터 감속시킨 때에 상기 워크가 상기 최종 목표 위치를 지나치는 일이 없도록 정하여져 있는 것을 특징으로 하는 제어 방법.
  11. 제 1항에 있어서,
    상기 화상 처리 수단은, 상기 제 1의 제어 동작에 있어서, 상기 화상 데이터를 취득하여 상기 특징 부분의 위치를 특정함과 함께, 상기 특징 부분의 위치에 의거하여 상기 중간 목표 위치까지의 차분을 산출하며,
    상기 제어 수단은, 상기 특징 부분의 위치에 의거하여 산출된 상기 중간 목표 위치까지의 차분에 의거하여 상기 워크를 상기 중간 목표 위치로 이동하기 위한 제어 지령을 결정하는 것을 특징으로 하는 제어 시스템.
KR1020140039169A 2013-04-08 2014-04-02 제어 시스템 및 제어 방법 KR101668913B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013080774A JP6167622B2 (ja) 2013-04-08 2013-04-08 制御システムおよび制御方法
JPJP-P-2013-080774 2013-04-08

Publications (2)

Publication Number Publication Date
KR20140121780A KR20140121780A (ko) 2014-10-16
KR101668913B1 true KR101668913B1 (ko) 2016-10-24

Family

ID=50440506

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140039169A KR101668913B1 (ko) 2013-04-08 2014-04-02 제어 시스템 및 제어 방법

Country Status (5)

Country Link
US (1) US9424646B2 (ko)
EP (1) EP2789431B1 (ko)
JP (1) JP6167622B2 (ko)
KR (1) KR101668913B1 (ko)
CN (1) CN104102226B (ko)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016059576A1 (en) * 2014-10-14 2016-04-21 Eigen Innovations Inc. System, apparatus and method for configuration of industrial vision control modules
JP6562626B2 (ja) * 2014-12-10 2019-08-21 キヤノン株式会社 顕微鏡システム
DE102015205738A1 (de) * 2015-03-30 2016-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Bewegungsmesssystem einer Maschine und Verfahren zum Betreiben des Bewegungsmesssystems
JP2017020797A (ja) * 2015-07-07 2017-01-26 日酸Tanaka株式会社 鋼板位置検出装置及び切断装置
JP6421722B2 (ja) * 2015-08-07 2018-11-14 オムロン株式会社 画像処理装置、校正方法および校正プログラム
JP6376145B2 (ja) * 2016-01-27 2018-08-22 Jfeスチール株式会社 厚鋼板の直角度測定方法及び直角度測定装置
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
WO2017154707A1 (ja) * 2016-03-09 2017-09-14 株式会社ニコン 検出装置、検出システム、検出方法、及び検出プログラム
US11421995B2 (en) * 2016-11-29 2022-08-23 Mitsubishi Heavy Industries Machinery Systems, Ltd. Map matching device, map matching system, map matching method and program
JP6903133B2 (ja) * 2016-12-28 2021-07-14 エーエスエムエル ホールディング エヌ.ブイ. 複数イメージ粒子検出のシステム及び方法
JP6984130B2 (ja) 2017-01-17 2021-12-17 オムロン株式会社 画像処理装置、制御システム、画像処理装置の制御方法、制御プログラム、および記録媒体
JP6356845B1 (ja) * 2017-02-13 2018-07-11 ファナック株式会社 検査システムの動作プログラムを生成する装置および方法
JP7167418B2 (ja) 2017-06-30 2022-11-09 オムロン株式会社 位置制御システム、位置検出装置、および制御プログラム
JP6881188B2 (ja) * 2017-09-27 2021-06-02 オムロン株式会社 位置検出装置およびプログラム
JP6815309B2 (ja) 2017-11-16 2021-01-20 株式会社東芝 作動システムおよびプログラム
JP7032440B2 (ja) 2018-02-02 2022-03-08 達闥機器人有限公司 測位方法、装置、ロボット及びコンピューター読み取り可能な記憶媒体
CN108388206B (zh) * 2018-03-07 2020-11-24 深圳市汇川技术股份有限公司 进给速度实时动态规划方法及系统
TWI662781B (zh) * 2018-03-29 2019-06-11 東元電機股份有限公司 馬達控制系統及其方法
JP7020262B2 (ja) * 2018-04-17 2022-02-16 オムロン株式会社 制御システム、制御方法およびプログラム
JP6922829B2 (ja) * 2018-04-26 2021-08-18 オムロン株式会社 制御システム、制御方法、および制御プログラム
CN108608463B (zh) * 2018-05-16 2021-07-30 珞石(山东)智能科技有限公司 工业机器人传送带动态跟踪方法
JP7172151B2 (ja) * 2018-06-11 2022-11-16 オムロン株式会社 制御システム、制御装置およびプログラム
JP7078894B2 (ja) * 2018-06-11 2022-06-01 オムロン株式会社 制御システム、制御装置、画像処理装置およびプログラム
JP7078895B2 (ja) * 2018-06-11 2022-06-01 オムロン株式会社 制御システム、制御装置、画像処理装置およびプログラム
JP6950631B2 (ja) * 2018-06-26 2021-10-13 オムロン株式会社 位置決めシステム、制御方法およびプログラム
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US10751883B2 (en) * 2018-08-16 2020-08-25 Mitutoyo Corporation Robot system with supplementary metrology position coordinates determination system
US11002529B2 (en) 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US10871366B2 (en) 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
US10913156B2 (en) 2018-09-24 2021-02-09 Mitutoyo Corporation Robot system with end tool metrology position coordinates determination system
JP7211773B2 (ja) * 2018-11-15 2023-01-24 株式会社ミツトヨ 画像測定機および画像測定プログラム
CN109814613A (zh) * 2019-01-23 2019-05-28 唐山钢铁集团微尔自动化有限公司 一种设备动作的控制和定位方法
JP7378934B2 (ja) * 2019-01-29 2023-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
JP7059968B2 (ja) * 2019-03-01 2022-04-26 オムロン株式会社 制御装置および位置合わせ装置
CN111650805B (zh) * 2020-05-21 2021-03-19 中国科学院西安光学精密机械研究所 一种基于旋转电磁铁切换机构的双视场快速切换装置及方法
US11486893B2 (en) * 2020-10-06 2022-11-01 Pixart Imaging Inc. Optical sensing system and optical navigation system
JPWO2022138166A1 (ko) 2020-12-24 2022-06-30
EP4270774A4 (en) * 2020-12-24 2024-05-08 Panasonic Ip Man Co Ltd ENGINE CONTROL DEVICE
JP2022178404A (ja) * 2021-05-20 2022-12-02 オムロン株式会社 制御システム、制御方法及びプログラム
CN114305350A (zh) * 2021-12-16 2022-04-12 上海掌门科技有限公司 一种诊脉设备和方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4209853A (en) * 1974-07-22 1980-06-24 Hyatt Gilbert P Holographic system for object location and identification
US4641071A (en) * 1985-09-25 1987-02-03 Canon Kabushiki Kaisha System for controlling drive of a wafer stage
JPH06250740A (ja) * 1993-02-24 1994-09-09 Hitachi Ltd ディジタル位置決め制御装置
JPH0888167A (ja) * 1994-09-20 1996-04-02 Canon Inc 可動体の位置決め制御装置及び定盤の姿勢制御装置及びそれらを使用した半導体露光装置
JPH1173225A (ja) * 1997-08-29 1999-03-16 Oki Electric Ind Co Ltd 位置決め方法
JP2000180810A (ja) 1998-12-15 2000-06-30 Ricoh Co Ltd 液晶表示セルの製造装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
GB2377409A (en) * 2001-07-13 2003-01-15 Dek Int Gmbh Screen printing alignment and inspection apparatus having at least two workpiece imaging units
DE10155430B4 (de) * 2001-11-12 2006-12-14 Siemens Ag Adaption von Kompensationsdaten zur Verringerung von Stellungsfehlern bei Werkzeugmaschinen und Robotern
JP4345607B2 (ja) * 2004-08-09 2009-10-14 オムロン株式会社 回転中心算出方法およびこの方法を用いたワーク位置決め装置
JP3977398B2 (ja) * 2005-06-10 2007-09-19 株式会社ファースト XYθステージによる位置アライメントシステム
JP2007011611A (ja) 2005-06-29 2007-01-18 Ricoh Co Ltd 位置決め制御装置、位置決め制御方法、その方法をコンピュータに実行させるプログラム、画像形成装置、および記録媒体
JP2007206797A (ja) * 2006-01-31 2007-08-16 Omron Corp 画像処理方法および画像処理装置
JP5132904B2 (ja) * 2006-09-05 2013-01-30 東京エレクトロン株式会社 基板位置決め方法,基板位置検出方法,基板回収方法及び基板位置ずれ補正装置
JP4993614B2 (ja) * 2008-02-29 2012-08-08 東京エレクトロン株式会社 搬送手段のティーチング方法、記憶媒体及び基板処理装置
US8600552B2 (en) * 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP5316563B2 (ja) * 2011-02-15 2013-10-16 オムロン株式会社 画像処理装置および画像処理システム
JP2012187651A (ja) * 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置

Also Published As

Publication number Publication date
CN104102226B (zh) 2017-08-25
EP2789431B1 (en) 2019-10-02
US20140301632A1 (en) 2014-10-09
JP6167622B2 (ja) 2017-07-26
EP2789431A2 (en) 2014-10-15
EP2789431A3 (en) 2015-04-15
KR20140121780A (ko) 2014-10-16
CN104102226A (zh) 2014-10-15
US9424646B2 (en) 2016-08-23
JP2014203365A (ja) 2014-10-27

Similar Documents

Publication Publication Date Title
KR101668913B1 (ko) 제어 시스템 및 제어 방법
CN110581946B (zh) 控制系统、控制装置、图像处理装置以及存储介质
US20210154836A1 (en) Trajectory control device
CN110581945B (zh) 控制系统、控制装置、图像处理装置以及存储介质
KR20190099122A (ko) 로봇의 위치 정보 복원 방법
CN113260941A (zh) 控制装置及控制方法
CN111213226A (zh) 相对于对象物使移动体直线移动的装置及方法
US20230025149A1 (en) Horizontal correction method for detection platform, electronic device, and storage medium
KR102188741B1 (ko) 편차 제어부를 구비한 갠트리 스테이지의 제어 장치
EP3933542A1 (en) Control device and alignment device
WO2019208108A1 (ja) 制御システム、制御方法、および制御プログラム
WO2021060228A1 (ja) 高さ補正システム
WO2021060227A1 (ja) 高さ補正システム
CN110581944B (zh) 控制系统、控制装置以及存储介质
CN111699078A (zh) 机器人的运行
WO2024023975A1 (ja) アライメントシステム、アライメント方法及びプログラム
WO2024023974A1 (ja) アライメントシステム、アライメント方法及びプログラム
WO2024023976A1 (ja) アライメントシステム、アライメント方法及びプログラム
JP2022034419A (ja) 制御装置、制御装置の制御方法、情報処理プログラム、および記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191002

Year of fee payment: 4