KR20130014466A - 위치 측정 장치 및 위치 측정 방법 - Google Patents

위치 측정 장치 및 위치 측정 방법 Download PDF

Info

Publication number
KR20130014466A
KR20130014466A KR1020120149649A KR20120149649A KR20130014466A KR 20130014466 A KR20130014466 A KR 20130014466A KR 1020120149649 A KR1020120149649 A KR 1020120149649A KR 20120149649 A KR20120149649 A KR 20120149649A KR 20130014466 A KR20130014466 A KR 20130014466A
Authority
KR
South Korea
Prior art keywords
image
shape
unit
measurement object
imaging
Prior art date
Application number
KR1020120149649A
Other languages
English (en)
Other versions
KR101342523B1 (ko
Inventor
토모히코 아키
Original Assignee
에스엠시 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스엠시 가부시키가이샤 filed Critical 에스엠시 가부시키가이샤
Publication of KR20130014466A publication Critical patent/KR20130014466A/ko
Application granted granted Critical
Publication of KR101342523B1 publication Critical patent/KR101342523B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

위치 측정 장치 및 위치 측정 방법에서, 워크피스(26)보다도 작은 치수의 촬상 영역(30)을 갖는 촬상 소자(50)를 워크피스(26)의 표면(32) 상을 상대적으로 이동시키면서 워크피스(26)의 표면(32)을 촬상한다. 또한, 촬상 영역(30) 내의 화상[I(t)]으로부터 워크피스(26)의 표면(32) 상의 모양을 추출하고, 촬상 영역(30) 내의 화상[I(t+1)] 중에서 발생하는 상기 모양의 변위량을 검출한다. 검출된 상기 변위량 및 상기 치수에 의거해서 워크피스(26)의 표면(32) 상의 위치를 측정한다.

Description

위치 측정 장치 및 위치 측정 방법{P0SITION MEASUREMENT APPARATUS AND P0SITION MEASURING METHOD}
본 발명은 측정 대상물의 표면을 촬상함으로써 측정 대상물의 표면 상의 위치를 측정하는 위치 측정 장치 및 위치 측정 방법에 관한 것이다.
측정 대상물의 길이(본 명세서에서는 측정 대상물의 전체 길이, 그 일부분의 사이즈, 또는 측정 대상물의 변위 등으로 언급됨)를 측정하기 위해 촬상식 위치 측정 장치가 이용되고 있다. 그러한 위치 측정 장치는 측정 대상물의 표면으로부터 발하는 광상을 CCD, CMOS 화상 센서 어레이 등으로 이루어진 이미지 센서를 사용해서 촬상하고, 이 촬상에 의해 얻어진 화상 신호를 해석함으로써 그 측정 대상물의 길이를 측정한다.
예를 들면, 일본 특허 공개 2002-013948호 공보 및 일본 특허 공개 2003-148918호 공보에서는 측정 대상물에 대하여 촬상 영역을 협소하게 설정해서 측정 대상물의 변위를 고해상도 그리고 고정밀도로 측정할 수 있는 시스템이 개시되어 있다.
그러나, 이러한 촬상식 위치 측정 장치를 사용했다고 해도 측정 범위가 광대한 측정 대상물의 길이를 계측할 경우 측정 범위의 크기와 공간 분해능 사이에는 트레이드 오프(trade-off)의 관계가 발생하므로 측정 상의 각종 곤란함이 일어날 수 있다. 구체적으로, 촬상 배율을 작게 하면 촬상 영역 내에 측정 대상물 전체를 세팅할 수 있는 한편, 촬상의 공간 분해능이 저하하므로 충분한 측정 정밀도가 얻어질 수 없다.
또한, 촬상 배율을 크게 하면 촬상의 공간 분해능이 향상하므로 양호한 측정 정밀도를 얻을 수 있는 한편, 촬상 영역 내에 측정 대상물 전체를 세팅할 수 없다. 다르게 말하면, 이것은 이미지 센서의 성능 및 장치 구성에 한계가 있고 촬상 영역 및 공간 분해능이 유한하기 때문이다.
한편, 이미지 센서를 구성하는 화소수를 증가시키고 촬상 영역을 크게 하는 구성을 제공하는 것이 생각될 수 있지만, 이것은 위치 측정 장치가 대형으로 되어 그 제조 가격을 증가시킨다.
본 발명의 일반적인 목적은 장치의 대형화나 제조 가격의 상승을 방지하면서 측정 대상물의 측정 범위가 촬상 영역과 비교해서 협소 또는 광대 중 어느 하나의 경우라도 측정 대상물의 길이를 측정할 수 있는 위치 측정 장치 및 위치 측정 방법을 제공하는 것이다.
본 발명은 측정 대상물보다도 작은 치수의 촬상 영역을 갖는 촬상 소자를 상기 측정 대상물의 표면 상을 상대적으로 이동시키면서 상기 측정 대상물의 표면을 촬상해서 상기 촬상 영역 내의 화상을 얻고, 얻어진 상기 촬상 영역 내의 화상을 사용해서 상기 측정 대상물의 표면 상의 위치를 측정하는 위치 측정 장치에 특징이 있다. 위치 측정 장치는 소정 시점에 있어서의 상기 촬상 영역 내의 화상으로부터 상기 측정 대상물의 표면 상의 모양을 추출하는 추출 유닛, 상기 소정 시점 이후의 시점에 있어서의 상기 촬상 영역 내의 화상 중에서 발생하는 상기 추출 유닛에 의해 추출된 상기 모양의 변위량을 검출하는 검출기, 및 상기 검출기에 의해 검출된 상기 변위량 및 상기 치수에 의거해서 상기 측정 대상물의 표면 상의 위치를 측정하는 측정 유닛을 포함한다.
본 발명에 의하면, 측정 대상물의 표면 상의 모양을 추출하는 추출 유닛과 촬상 영역 내의 화상 중에서 발생하는 변위량을 검출하는 검출 유닛을 설치했으므로 이미지 센서의 촬상 영역보다도 큰 측정 대상물의 표면 상을 상대적으로 이동시키면서 촬상 영역 내 및 촬상 영역 외에서의 모양의 변위량에 의거해서 측정 대상물과 촬상 영역의 상대적 위치 관계를 파악할 수 있다. 그러므로, 측정 대상물의 측정 범위가 촬상 영역과 비교해서 협소 또는 광대 중 어느 하나의 경우이어도 그 측정 대상물의 표면 상의 위치를 측정할 수 있다.
본 발명은 측정 대상물보다도 작은 치수의 촬상 영역을 갖는 촬상 소자를 상기 측정 대상물의 표면 상을 상대적으로 이동시키면서 상기 측정 대상물의 표면을 촬상해서 상기 촬상 영역 내의 화상을 얻고, 얻어진 상기 촬상 영역 내의 화상을 사용해서 상기 측정 대상물의 표면 상의 위치를 측정하는 위치 측정 방법에 특징이 있다. 상기 방법은 소정 시점에 있어서의 상기 촬상 영역 내의 화상으로부터 상기 측정 대상물의 표면 상의 모양을 추출하는 추출 스텝, 상기 소정 시점 이후의 시점에 있어서의 상기 촬상 영역 내의 화상 중에서 발생하는 추출 유닛에 의해 추출된 상기 모양의 변위량을 검출하는 검출 스텝, 및 검출기에 의해 검출된 상기 변위량 및 상기 치수에 의거해서 상기 측정 대상물의 표면 상의 위치를 측정하는 측정 스텝을 포함한다.
본 발명에 의하면, 측정 대상물의 표면 상의 모양을 추출하는 추출 공정과 촬상 영역 내의 화상 중에서 발생하는 변위량을 검출하는 검출 공정을 제공했기 때문에 이미지 센서의 촬상 영역보다도 큰 측정 대상물의 표면 상을 상대적으로 이동시키면서 촬상 영역 내 및 촬상 영역 외에서의 모양의 변위량에 의거해서 측정 대상물과 촬상 영역의 상대적 위치 관계를 파악할 수 있어서 측정 대상물의 측정 범위가 촬상 영역과 비교해서 협소 또는 광대 중 어느 하나의 경우이어도 측정 대상물의 표면 상의 위치를 측정할 수 있다.
본 발명의 상기 및 다른 목적, 특징, 및 장점은 본 발명의 바람직한 실시형태가 예시적인 예로 도시되는 첨부 도면과 관련하여 취해질 때 이하의 설명으로부터 더 명백해질 것이다.
도 1은 본 발명의 실시형태에 의한 위치 측정 장치의 개략 사시도이며;
도 2는 본 발명의 본실시형태에 의한 위치 측정 장치의 기능 블록도이며;
도 3A~도 3C는 측정 대상물과 촬상 영역의 위치 관계를 나타내는 개략 정면도이며;
도 4는 본 발명의 실시형태에 의한 위치 측정 방법을 실시하기 위한 플로우차트이며;
도 5A는 시간t=0에 있어서의 촬상 영역 내의 화상을 나타내는 개략도이며;
도 5B는 시간t=1에 있어서의 촬상 영역 내의 화상을 나타내는 개략도이며;
도 6A는 촬상 영역 내의 화상을 나타내는 화상 신호의 설명도이며;
도 6B는 촬상 영역 내에 있어서의 각 화소의 대응 위치를 나타내는 설명도이며;
도 7A 및 도 7B는 영역 베이스 매칭의 예를 나타내는 개략도이며;
도 8A 및 도 8B는 영역 베이스 매칭의 다른 예를 나타내는 개략도이며;
도 9는 촬상 영역 내에서의 표적 위치의 변위량을 나타내는 개략도이며;
도 10은 촬상 영역 내의 화상으로부터 새로운 표적 위치를 설정하는 방법에 관한 플로우차트이며;
도 11은 촬상 영역 내에서의 후보 위치의 선정 방법에 관한 설명도이며;
도 12는 측정 대상물의 길이를 측정하는 방법에 관한 플로우차트이고;
도 13은 측정 대상물의 표면 상에 설정된 표적 위치의 위치 관계를 나타내는 개략 정면도이다.
도 1에 나타낸 바와 같이, 위치 측정 장치(10)는 측정 대상물의 표면으로부터 발하는 광 상을 촬상하는 센서 헤드(12)와, 상기 센서 헤드(12)에 의해 취득된 이차원 화상 신호(이하, 간단히 화상 신호라 함)에 대하여 소망의 화상 처리를 실시하는 화상 처리기(14)와, 센서 헤드(12)와 화상 처리기(14) 사이의 전기 통신을 가능하게 하고 화상 처리기(14)로부터 센서 헤드(12)로 전원을 공급할 수 있는 케이블(16)을 구비한다.
또한, 화상 처리기(14)는 외부 장치인 상위 컨트롤러(18)와 전기적으로 접속되어 있다. 상위 컨트롤러(18)는, 예를 들면 PLC(Programmable Logic Controller)로 구성되어 화상 처리기(14)에 대하여 각종 지령을 송신하고, 센서 헤드(12)의 하방에 설치되어 있는 컨베이어(20)의 구동을 제어한다.
컨베이어(20)는 원통 구동 롤러(21)와, 종동 롤러(22)와, 구동 롤러(21)와 종동 롤러(22) 사이에 권회되는 띠 형상의 벨트(24)를 구비하고 있다. 구동 롤러(21)가 상위 컨트롤러(18)의 동작을 통해서 실선 화살표 방향(도 1 참조)으로 회전되면 벨트(24)가 아웃라인 화살표 방향으로 이동됨과 동시에 컨베이어(20) 상에 적재되어 있는 워크피스(측정 대상물)(26)가 아웃라인 화살표 방향으로 반송된다.
위치 측정 장치(10)의 센서 헤드(12)는 컨베이어(20)의 상방에 고정 설치되고 있고, 그 촬상면(28)은 벨트(24)측에 지향한다. 이 시점에서, 센서 헤드(12)의 촬상 영역(30)은 컨베이어(20) 상에 적재되어 있는 워크피스(26)의 표면(32)에 설정되어 있다.
그 다음, 본 실시형태에 의한 위치 측정 장치(10)의 기능 제어 블록을 나타내는 도 2를 참조하여 센서 헤드(12) 및 화상 처리기(14)에 관한 설명이 제공될 것이다.
센서 헤드(12)는 조명 유닛(34)과, 촬상부(36)와, 통신 유닛(38)과, 센서 헤드 컨트롤러(40)를 구비한다.
조명 유닛(34)은 워크피스(26)의 표면(32) 상에 배치되어 있는 촬상 영역(30)을 향해서 조명 광(46)을 조사하는 램프로 구성되어 있다. 램프는 미도시 조명 스위치에 의해 점등 및 소등될 수 있다.
촬상부(36)는 워크피스(26)의 표면(32)에서 반사되어 촬상면(28)에 입사하는 반사광(48)[워크피스(26)의 반사광상]을 촬상 신호로 변환하는 촬상 소자(이미지 센서)(50)와, 센서 헤드 컨트롤러(40)로부터의 타이밍 제어 신호에 동기하여 상기 촬상 신호를 증폭해서 센서 헤드 컨트롤러(40)에 출력하는 신호 처리기(52)를 포함한다. 촬상 소자(50)는, 예를 들면 포토다이오드 어레이, CCD, CMOS 촬상 소자 등으로 구성될 수 있다.
워크피스(26)와 촬상 소자(50)의 중간 위치에는 미도시 결상 광학계가 배치되어 있고, 워크피스(26)의 표면(32)에 조사되는 촬상 영역(30)의 치수, 즉 촬상 배율을 변경할 수 있다. 또한, 상기 결상 광학계에 의해 촬상 소자(50)가 취득하는 촬상 신호에 화상 변형이 생기지 않도록 적절한 광로 조정이 수행된다.
통신 유닛(38)은 센서 헤드 컨트롤러(40)의 명령에 따라 화상 처리기(14)와의 통신을 행한다. 이 경우에, LVDS(low voltage differential signaling)를 사용하면 에너지 소비를 억제하면서 고속으로 잡음에 강한 신호 전송을 행할 수 있다.
화상 처리기(14)는 통신 유닛(54)과, 기억 유닛(56)과, 화상 처리 유닛(58)과, 조작 유닛(60)과, 디스플레이(62)와, 외부 통신 유닛(64)과, 외부 통신 유닛(66)과, 컨트롤러(68)를 구비한다.
통신 유닛(54)은 컨트롤러(68)의 명령을 따라서 센서 헤드(12)와의 상호 통신을 행한다. 기억 유닛(56)은 센서 헤드(12)로부터 취득한 화상 신호를 기억하는 화상 메모리(70)와, 화상 처리 등에 사용하는 각종 파라미터를 일시적으로 격납하는 RAM(71)과, 센서 헤드(12)의 식별 번호, 센서 감도 특성 등을 포함하는 고유 데이터를 기억하는 EEPROM(72)을 구비하고 있다.
화상 처리 유닛(58)은 추출 유닛(74)과, 판정 유닛(75)과, 검출 유닛(76)과, 산출 유닛(77)과, 측정 유닛(78)을 구비하는 것이며, 소프트웨어 및 하드웨어에 의해 구성된다.
조작 유닛(60)은 미도시의 각종 설정에 사용하는 스위치 및 조작 버튼 등으로 구성된다. 디스플레이(62)는, 예를 들면 액정 패널로 구성되어 있고, 측정 조건 및/또는 측정 결과에 관한 각종 수치 등이 표시된다.
2개의 외부 통신 유닛(64, 66)은 외부 장치와의 접속을 가능하기 위해서 설치된다. 예를 들면, 외부 통신 유닛(64, 66)은 커맨트 및 각종 데이터를 송수신하기 위해 상위 컨트롤러(18)에 접속되거나, 도시되지 않은 외부 퍼스널 컴퓨터에 접속되거나, 또는 데이터 통신을 위한 다른 미도시 화상 처리기(14)에 접속될 수 있다. 그러한 통신은 USB2.0, IEEE1394, RS-232C 등의 일반적인 통신 규격뿐만 아니라, 화상 처리기(14) 독자의 다른 통신 규격을 사용할 수도 있다.
도 1 및 도 2에서는 화상 처리기(14)는 외부 통신 유닛(66)을 통해서 상위 컨트롤러(18)와 접속되어 있다.
컨트롤러(68)는 통신 유닛(54), 기억 유닛(56), 화상 처리 유닛(58), 조작 유닛(60), 디스플레이(62), 및 외부 통신 유닛(64, 66)을 제어하는 제어 기능을 포함하는 화상 처리기(14) 전체의 총괄 제어를 행한다.
도 1에 나타낸 위치 측정 장치(10)에서는 센서 헤드(12) 및 화상 처리기(14)가 개별 유닛으로서 제공되어 있다. 대안으로, 센서 헤드(12) 및 화상 처리기(14)는 일체적으로 구성될 수 있다. 그 경우에, 통신 유닛(38) 및 통신 유닛(54)을 생략하는 간결한 구성이 채용될 수 있다.
본 실시형태에 의한 위치 측정 장치(10)는 기본적으로는 이상과 같이 구성되어 있다. 그 다음에, 위치 측정 장치(10)의 동작은 도 4에 나타낸 플로우차트를 참조하여 설명될 것이다.
우선, 측정 대상물로서의 워크피스(26)가 컨베이어(20) 상에 적재된 후 위치 측정 장치(10)의 센서 헤드(12)(도 1 참조)의 위치 및 자세 조정이 행해진다. 도 2에 나타낸 바와 같이, 유저가 조작 유닛(60)의 미도시 조명 스위치의 ON/OFF 조작을 행하면 조작 유닛(60), 컨트롤러(68), 통신 유닛(54), 케이블(16), 및 통신 유닛(38)을 통해서 센서 헤드 컨트롤러(40)에 대하여 조명 유닛(34)의 점등 및 소등 지시가 이루어진다. 센서 헤드 컨트롤러(40)의 점등 및 소등 제어에 의해 조명 유닛(34)의 소망의 동작이 행해진다. 조명 유닛(34)로부터의 조명 광(46)은 워크피스(26)의 표면(32)에 조사되므로 유저는 촬상 영역(30)의 위치를 확인해서 센서 헤드(12)의 위치 및 자세의 조정을 행할 수 있다.
워크피스(26)의 표면(32)에는, 도 1 및 도 3A~도 3C에 나타낸 바와 같이, 오른쪽으로부터 순서대로, 또는 특히 본 실시형태에 의한 반송 방향의 하류 방향측으로부터 순서대로 원형 홈(82), 삼각형 홈(84), 사각형 홈(86), 및 다른 원형 홈(88)이 배열되어 있다. 도 3A에서는 위치 측정 장치(10)가 측정을 행하기 전의 상태(초기 상태)가 도시되어 있다. 촬상 영역(30)의 실질적인 중앙부에는 원형 홈(82)이 존재하는 한편, 촬상 영역(30)의 좌단에는 삼각형 홈(84)의 일부가 존재하고 있다.
워크피스(26)의 표면(32)에 화상으로서 농담이 나타나는 모양이 존재하면 이 때 특정한 홈과 같은 삼차원 형상이 존재하지 않아도 본 발명의 특징이 여전히 적용될 수 있다.
도 1에 나타낸 바와 같이, 구동 롤러(21)가 화살표 방향으로 회전하면 벨트(24)가 아웃라인 화살표 방향으로 슬라이딩가능하게 이동되므로 컨베이어(20)의 벨트(24) 상에 적재된 워크피스(26)는 아웃라인 화살표 방향으로 반송된다. 그러한 워크피스(26)의 반송 동작에 의해 워크피스(26)와 촬상 영역(30)의 위치 관계는 도 3A에 도시된 초기 상태로부터 도 3B 및 도 3C에 도시된 상태로 연속적으로 변화된다.
이 방식으로 행해질 때 촬상 영역(30)보다도 큰 워크피스(26)의 표면(32) 상을 컨베이어(20)의 반송 동작에 의해 상대적으로 이동시키면서 워크피스(26)의 표면(32) 상의 각 홈[원형 홈(82) 등]을 센서 헤드(12)로 촬상할 수 있다.
이하, 본 실시형태에 의한 위치 측정 장치(10)를 사용해서 워크피스(26)의 길이를 측정하는 측정 방법에 대하여 도 4에 나타낸 플로우차트에 따라 상세한 설명이 이루어질 것이다.
[스텝S1]
도 2에 나타낸 바와 같이, 유저가 조작 유닛(60)의 측정 개시 버튼(미도시)을 누르면 조작 유닛(60), 컨트롤러(68), 통신 유닛(54), 케이블(16), 및 통신 유닛(38)을 통해서 센서 헤드 컨트롤러(40)에 대하여 촬상을 개시하는 요청이 통지된다. 그 후, 센서 헤드 컨트롤러(40)는 촬상부(36)에 대하여 촬상 지시를 발한다.
초기에, 시간t=0에서의 화상 신호를 취득한다(스텝S1). 특히, 시간t=0에 있어서의 촬상 영역(30) 내의 화상[I(0)]을 나타내는 화상 신호를 취득한다.
이 경우, 워크피스(26)의 반사광상을 형성하는 반사광(48)은 촬상면(28)에 향해서 조사되고, 미도시 결상 광학계에 의해 적절한 광로 조정이 이루어진 후 촬상 영역(30)의 범위 내에 있어서 촬상 소자(50)에 의해 광전 변환이 행해져 촬상 신호가 된다. 촬상 신호는 센서 헤드 컨트롤러(40)로부터의 타이밍 제어 신호에 동기해서 증폭되어 화상 신호가 헤드 컨트롤러(40)에 공급된다. 이 촬상 신호는 그 후 통신 유닛(38)에 공급되어 케이블(16), 통신 유닛(54), 및 컨트롤러(68)를 통해서 화상 메모리(70)에 격납된다.
이 방식에서, 도 5A에 나타낸 바와 같이, 촬상 영역(30) 내의 화상[I(0)]을 얻는다(도 3A도 참조). 촬상 영역(30) 내의 화상[I(0)]을 나타내는 화상 신호에서는, 도 6A에 나타낸 바와 같이, 각 화소의 계조수(종 64, 횡 64)는 256계조(8비트)로 구성된다. 편의 때문에, 종방향의 화소 번호는 -31~32로 라벨링되고, 횡방향의 화소 번호는 -31~32로 각각 라벨링된다.
[스텝S2]
이어서, 촬상 영역(30) 내의 화상[I(0)]으로부터 표적 위치(P0)를 설정한다(스텝S2).
화상 메모리(70)에 격납된 화상 신호 중에서 촬상 영역(30) 내의 화상[I(0)]을 나타내는 화상 신호(도 5A 참조)를 판독하고, 화상[I(0)] 내에서 워크피스(26)의 표면(32) 상의 모양을 추출 유닛(74)에 의해 추출한다. 본 실시형태에 의하면, 추출 유닛(74)에 의해 추출된 모양의 위치를 특정하기 위해 대표적인 위치로서 원형 홈(82)의 중심 위치를 결정해서 표적 위치(P0)로서 설정한다.
예를 들면, 도 6B에 나타낸 바와 같은 이차원(x-y) 좌표계를 사용해서 촬상 영역(30) 내에 있어서의 각 화소의 대응 위치를 정의한다. 좌표계의 스케일은 x축 방향 및 y축 방향의 1눈금이 화소 사이즈(즉, 1화소당의 치수)의 크기에 상당하도록 정의된다.
이 방식으로 정의되면, 도 6A에 나타낸 화소(90, 92, 94, 96, 및 98)에 대응하는 이차원 좌표는 각각 (0,0), (32,32), (-3l,32), (-31,-31), 및 (32,-31)이다.
도 5A에 나타낸 바와 같이, 시간t=0에 있어서의 화상[I(0)]의 중앙 위치에 실질적으로 원형 홈(82)이 존재하므로 상기 원형 홈(82)이 모양으로서 추출된다. 이 때, 상술한 바와 같이, 표적 위치(P0)는 원형 홈(82)의 중심 위치에 대응하는 원점(0,0)에 설정된다. 아울러, 표적 위치의 좌표[P0(0,0)]를 기억 유닛(56)[예를 들면, RAM(71)]에 기억해 둔다.
[스텝S3]
이어서, 시간t=1의 화상 신호[I(1)]를 취득한다(스텝S3). 특히, 시간t=1에 있어서의 촬상 영역(30) 내의 화상[I(1)]을 나타내는 화상 신호를 취득한다.
시간t=1에서 센서 헤드 컨트롤러(40)는 촬상부(36)에 대하여 촬상 지시를 발하고, 새롭게 촬상되는 화상[I(1)]을 나타내는 화상 신호가 화상 메모리(70)에 격납된다. 이 동작은 이미 상술한 것과 본질적으로 동일하므로 그 상세한 설명은 생략한다.
이 방식으로, 도 5B에 나타내는 바와 같은 촬상 영역(30) 내의 화상[I(1)]을 얻는다. 본 명세서에서, 촬상 주기(Δt)는 임의의 값에 설정가능하지만, 설명을 용이하게 하기 위해 촬상 주기(Δt)는 1로 가정한다. 또한, 촬상 주기(Δt)가 일정 값이 아닐 경우, 또는 다르게 말하면 연속 촬상의 시간 간격이 부정기할 경우에도 본 발명을 적용할 수 있는 것은 말할 필요도 없다.
[스텝S4]
이어서, 촬상 영역(30) 내의 화상[I(1)]으로부터 표적 위치(P0)를 탐색한다(스텝S4).
화상 메모리(70)에 격납된 화상 신호 중에서 화상[I(1)]에 대응하는 화상 신호(도 5B 참조)를 판독하고, 화상[I(1)] 중으로부터 표적 위치(P0)이 검출 유닛(76)에 의해 검출된다.
2개의 화상[I(1) 및 I(0)]으로부터 소정의 공통 위치(또는 공통 영역)을 식별하는 방법으로서 주지 기술인 영역 베이스 매칭을 채용할 수 있다.
도 7A 및 도 7B는 영역 베이스 매칭의 예를 나타내는 개략도이다.
도 7A에 나타낸 바와 같이, 화상[I(0)]의 표적 위치(P0)를 중심으로 한 소정 사이즈의 영역(예를 들면, 16화소×16화소의 영역)을 추출하고, 템플릿(100)으로서 미리 기억 유닛(56)[예를 들면, RAM(71)]에 기억해 둔다. 한편, 촬상 영역(30) 내의 화상[I(1)]으로부터 임의의 위치[예를 들면, 도 7A에서는 촬상 영역(30)의 중앙 우측)를 중심으로 한 관심 영역(102)을 커팅한다. 이 관심 영역(102)의 화상 사이즈(종횡의 화소수)는 템플릿(100)과 동일하다.
템플릿(100) 및 관심 영역(102)에 대하여 NCC(Normalized Cross Correlation; 정규화 상호 상관) 연산자(104)를 작용함으로써 NCC 값이 산출되고, 2개의 비교하는 화상의 유사도를 나타내는 지표이다. 이 기술은 화상 처리의 분야에 공지이므로 본 발명의 특징의 상세한 설명은 생략될 것이다.
도 7A에서는 관심 영역(102)은 템플릿(100)과 혹사하므로 큰 NCC 값이 나타내어져 있다. 한편, 도 7B에서는 촬상 영역(30) 내의 화상[I(1)] 중 임의의 위치[도 7A에서는 촬상 영역(30)의 중앙 좌단]을 중심으로 한 관심 영역(106)을 커팅하고, 관심 영역(106)은 템플릿(100)과 그다지 유사하지 않으므로 작은 NCC 값이 나타내어진다.
이와 같이, 촬상 영역(30) 내의 화상[I(1)]으로부터의 NCC 값이 최대인 관심 영역(102)의 중심 위치가 화상[I(1)] 내의 표적 위치(P0)로 추정될 수 있다.
도 8A 및 도 8B는 영역 베이스 매칭의 다른 예를 나타내는 개략도이다.
도 8A 및 도 8B에서는 상기와 같이 해서 커팅된 템플릿(100) 및 관심 영역(102, 106)에 대하여 SAD(Sum of Absolute Difference) 연산자(108)를 작용함으로써 SAD 값이 산출되고, 2개의 비교하는 화상의 차이도를 나타내는 지표이다. 이 기술은 화상 처리의 분야에 있어서 공지이기 때문에 본 발명의 특징의 상세한 설명은 생략될 것이다.
도 8A에서는 관심 영역(102)은 템플릿(100)과 혹사하므로 작은 SAD 값이 나타내어진다. 한편, 도 8B에서는 촬상 영역(30) 내의 화상[I(1)] 중 임의의 위치[도 8A에서는 촬상 영역(30)의 중앙 좌단)를 중심으로 한 관심 영역(106)을 커팅하고, 관심 영역(106)은 템플릿(100)과 그다지 유사하지 않으므로 큰 SAD 값이 나타내어진다.
이와 같이, 촬상 영역(30) 내의 화상[I(1)] 중으로부터의 SAD 값이 최소인 관심 영역(102)의 중심 위치가 화상[I(1)] 내의 표적 위치(P0)로 추정될 수 있다.
도 9는 촬상 영역(30) 내로부터의 표적 위치(P0)의 변위량을 나타내는 개략도이다. 스텝S4에 있어서의 위치(P0)의 탐색 결과를 소수점 이하의 숫자를 버려서 계산하고, P0(t=0)=(0,0) 및 P0(t=1)=(14,0)으로 하면 표적 위치(P0)의 변위량은 벡터[ΔP0=(14,0)]가 된다.
화상[I(t)]을 나타내는 화상 신호는 이산 데이터로 구성되기 때문에 표적 위치(P0)의 좌표는 화소의 정수배(다시 말하면, 정수값)로만 표현될 수 있다. 그러나, 서브 픽셀 추정을 사용하면 화소 분해능을 초과한 좌표값이 표현될 수 있다.
이 경우에, "서브 픽셀 추정"은 이산 데이터로 좌표가 표현될 때 가상적으로 유리수를 도입하는 위치 추정 방법을 의미한다. 그 결과, 공간 분해능을 유사적으로 향상할 수 있고, 양자화 오차의 발생을 방지할 수 있다.
이어서, 서브 픽셀 추정의 구체 예가 설명될 것이다. 우선, 화상 신호의 각 화소를 중심 위치로서 NCC(또는 SAD) 값을 결정하고, 그 최대값(최소값) 근방의 3화소×3화소의 영역을 추출한다. x축에 대하여 NCC(또는 SAD)의 경향(3쌍의 데이터)을 2차 곡선에서 보간하고, 이 2차 곡선의 축에 상당하는 위치(화소의 유리수값)을 산출하고, 표적 위치(P0)의 x축 좌표로서 결정한다. 마찬가지로, y축에 대하여 NNC(또는 SAD)의 경향(3쌍의 데이터)을 2차 곡선에서 보간하고, 이 2차 곡선의 축에 상당하는 위치(화소의 유리수값)을 산출하고, 표적 위치(P0)의 y축 좌표로서 결정한다. 이와 같이, 표적 위치(P0)의 x좌표 및 y좌표를 결정할 수 있다.
서브 픽셀 추정을 사용할 경우 도 9에 나타내는 표적 위치(P0)의 탐색 결과는 P0(t=0)=(0,0) 및 P0(t=1)=(14.5,0)이며, 표적 위치(P0)의 변위량은 벡터값[ΔP0=(14.5,0)]으로 보다 고정밀도로 된다.
또한, 본 실시형태에 있어서의 서브 픽셀 추정은 상술한 방법에 한정되지 않고, 각종 다른 타입의 방법이 채택될 수 있다.
[스텝S5]
이어서, 표적 위치(P0)에 대응하는 위치가 촬상 영역(30) 내의 화상[I(1)]에 존재하는 지의 여부에 대해서 판정을 행한다(스텝S5). 이 판정은 판정 유닛(75)(도 2 참조)에 의해 스텝S4에 있어서의 표적 위치(P0)의 탐색 결과에 의거해서 행하여진다.
예를 들면, 촬상 영역(30) 내의 화상[I(1)]이 표적 위치(P0)에 관련되는 모양[원형 홈(82)]의 일부가 결여되어 있을 경우 상술한 영역 베이스 매칭에 의한 검색 연산을 행하면 촬상 영역(30) 내에 표적 위치(P0)가 실제로 존재하는 것에 관계없이 그 탐색에 실패할 가능성이 있다.
그러한 경우에, 추출 유닛(74)에 의해 추출된 모양[원형 홈(82)]이 다음 촬상일 때에 촬상 영역(30)을 빠뜨릴 수 있고, 현시점에 있어서의 촬상 영역(30) 내의 화상[I(1)]에 모양이 존재하지 않는다는 판정에 포함될 수 있다.
[스텝S6]
표적 위치(P0)에 대응하는 위치가 촬상 영역(30) 내의 화상[I(1)]에 존재한다고 판정했을 경우에 화상[I(0)]으로부터 화상[I(1)]까지의 표적 위치(P0)의 변위량을 나타내는 벡터(ΔP0)를 산출하고(스텝S6), 그 값을 기억 유닛(56)[예를 들면, RAM(71)]에 기억한다. 이 계산은 도 2에 나타낸 산출 유닛(77)에 의해 행하여진다.
[스텝S7]
이어서, 측정 대상물을 구성하는 워크피스(26)의 표면(32) 상의 소정의 길이를 측정한다(스텝S7). 이 스텝이 행하여지는 상세한 방법이 후술될 것이다.
[스텝S8~S9]
이어서, 촬상 종료 판정(스텝S8)을 행한다. 하드웨어 또는 소프트웨어 인터럽트에 의한 촬상 종료 지시없이 센서 헤드(12)를 사용한 촬상을 계속할 경우에 다음 시간(t=2)에서의 화상[I(2)]을 나타내는 화상 신호를 취득가능할 때까지 소정 시간만 대기한다(스텝S9).
이 점으로부터, 촬상을 계속하고, 표적 위치(P0)에 대응하는 위치가 촬상 영역(30) 내의 화상[I(t)]에 존재하는 한 스텝S3~S9을 반복한다.
[스텝S10]
그 후, 도 3B에 나타낸 바와 같이, 소정 시간t에 있어서 표적 위치(P0)에 대응하는 위치가 촬상 영역(30) 내의 화상[I(t)]에 존재하지 않는다고 처음으로 판정될 경우에 촬상 영역(30) 내의 화상[I(t)]으로부터 표적 위치(P0)와 다른 새로운 표적 위치(P1)를 설정한다(스텝S10). 도 2에 나타낸 바와 같이, 화상 메모리(70)에 격납된 화상 신호 중으로부터 화상[I(0)]에 대응하는 화상 신호를 판독하고, 화상[I(0)] 중에서 워크피스(26)의 표면(32) 상의 새로운 모양이 추출 유닛(74)에 의해 추출된다. 스텝S1과 마찬가지로, 추출 유닛(74)에 의해 추출된 새로운 모양의 대표적인 위치로서 표적 위치(P1)를 결정해서 설정하고, 이것에 따라 새로운 표적 위치(P1)의 좌표를 기억 유닛(56)[예를 들면, RAM(71)]에 기억해 둔다.
이어서, 촬상 영역(30) 내의 화상[I(t)]으로부터 표적 위치(P0)와 다른 새로운 표적 위치(P1)를 설정하는 방법에 대해서 도 10의 플로우차트를 참조하면서 상세한 설명이 제공될 것이다.
우선, 화소값 분포에 의거한 후보 위치의 추출을 행한다(스텝S101).
새롭게 설정한 표적 위치(P1)의 주변 영역이 모두 균일한 화소값을 갖는 경우에 촬상 영역(30) 내의 화상[I(t)]에 있어서의 표적 위치(P1)의 탐색(도 4에 나타낸 텝S4)이 지극히 곤란하다. 따라서, 근린 화소의 화소값 불균일이 비교적 크게 탐색가능하다고 예상할 수 있는 위치를 표적 위치(P1)의 후보 위치{Qj}로서 추출한다.
여기서, 후보 위치가 복수개(M개) 존재할 경우를 고려해서 후보 위치의 군을 {Qj}(j=1, 2, …, M)로 기재한다.
도 11에 나타낸 바와 같이, 촬상 영역의 중앙 화소(O,0)를 기점으로서 4개의 화살표 방향(SE, SN, SW, SS)을 향해서 각 화소에 대해서 화상 특징값을 순차 산출하고, 그 화상 특징값이 소정값을 처음으로 초과한 화소를 후보 위치로서 선정한다. 이 경우에, 화상 특징값은 근린 화소의 화소값 불균일의 증가에 따라 커지는 평가 값으로 정의된다. 예를 들면, 관심 영역[도 7에 나타낸 관심 영역(102) 등과 같은 정의) 내의 표준 편차, 또는 관심 영역 내에 있어서의 화소값과 그 평균값의 신호값 차의 총합을 화상 특징값으로서 사용할 수 있다.
화살표SE 방향으로는 삼각형 홈(84)이 존재하는 반면, 화살표SW 방향으로는 사각형 홈(86)이 각각 존재하므로 이 무게 중심(중력 중심) 위치가 후보 위치로서 선정된다. 한편, 중앙 화소(0,0)로부터 화살표SN 방향 및 화살표SS 방향에 대하여도 각 화소에 대한 화상 특징값을 산출하지만, 촬상 영역(30)의 경계 부근까지 화소값이 균일하기 때문에 후보 위치{Qj}가 존재하지 않는 것으로서 이 연산을 종료한다.
상술한 방법이 채택되면 촬상 영역의 전체 화소에 대하여 화상 특징값을 산출할 경우와 비교해서 처리에 요구되는 연산량을 대폭 저감할 수 있다. 이와 같이 행하면 최대 4개(도 11에서는 2개)의 후보 위치{Qj}를 추출한다.
이어서, 전회의 표적 위치(P0)와 후보 위치{Qj}의 위치 관계를 조사한다(스텝S102).
적어도 1이상의 촬상 영역(30) 내의 화상[I(t)]에 전회의 표적 위치(P0)와 이번에 설정되는 표적 위치(P1)가 병존하는 것을 필요로 한다. 그렇지 않으면, 표적 위치(P0)와 표적 위치(P1)의 상대적 위치 관계가 특정될 수 없기 때문이다. 그러므로, 스텝S101로 추출된 모든 후보 위치{Qj}에 대하여 적어도 1이상의 촬상 영역(30) 내의 화상[I(t)]에 표적 위치(P0)와 후보 위치{Qj}가 병존하는 지의 여부를 우선 조사한다.
촬상 영역(30) 내의 화상[I(t-1)]에는 표적 위치(P0)가 반드시 존재하는 사실을 이용하고, 촬상 영역(30) 내의 화상[I(t-1)]에 후보 위치{Qj}가 존재하는 지의 여부를 판단하는 방법을 채용할 수 있다. 이 경우에, 상술한 영역 베이스 매칭을 사용할 수 있다.
최후에, 후보 위치{Qj} 중으로부터 1개의 위치를 선택하고, 새로운 표적 위치(P1)을 상기 1개의 위치에 설정한다(스텝S103). 예를 들면, 촬상 영역(30) 내의 화상[I(t-1)]에 후보 위치{Qj}가 1개 존재할 경우에 표적 위치(P1)를 그 후보 위치에 설정한다. 촬상 영역(30) 내의 화상[I(t-1)]에 후보 위치{Qj}가 복수개 존재할 경우에 표적 위치(P1)를 그 복수의 후보 위치{Qj} 중에서 화상 특징값이 최대가 되는 후보 위치에 설정한다.
이와 같이, 촬상 영역(30) 내의 화상[I(t)]으로부터 표적 위치(P0)와 다른 새로운 표적 위치(P1)를 설정할 수 있다.
[스텝S11]
이어서, 표적 위치(P0)의 추적 변위량인 벡터(P0P1)를 산출한다(스텝S11). 이 계산은 도 2에 나타낸 산출 유닛(77)에 의해 행하여진다.
본 실시형태에 의하면, 촬상 영역(30) 내의 화상[I(t-1)]에 표적 위치(P0 및 P1)가 병존하도록 표적 위치(P1)를 설정했으므로, 벡터(P0P1)를 용이하게 결정할 수 있다. 이와 같이, 스텝S10 및 S11을 행함으로써 현재의 표적 위치(P0)(일반식: Pi)에 대하여 새로운 표적 위치(P1)(일반식: Pi +1)를 설정한다.
이어서, 촬상 종료 판정(스텝S8)을 행한다. 현시점에서 종료 지시없이 촬상을 계속할 경우에 다음 시간(t+1)에서의 촬상 영역(30) 내의 화상[I(t+1)]을 취득 가능할 때까지 소정 시간만 대기한다(스텝S9).
[스텝S7의 상세한 설명]
상술한 바와 같이, 촬상할 때마다, 즉 리얼 타임으로 측정 대상물로서의 워크피스(26)의 표면(32) 상의 소정의 길이를 측정한다(스텝S7). 이하, 그 측정 방법은 도 12에 나타낸 플로우차트를 참조하면서 상세하게 설명될 것이다.
본 실시형태에 의한 위치 측정 방법을 사용하고, 워크피스(26)의 표면(32) 상에 (N+1)개의 표적 위치(N은 자연수), 또는 특히 위치(P0~PN)가 설정된 것으로 한다(도 13 참조). 도 2에 나타낸 RAM(71)에 격납된 추적 변위량 벡터{PiPi +1}의 데이터가 판독되어 이 데이터에 의거해서 길이 측정이 측정 유닛(78)에 의해 행해진다.
우선, 길이 측정의 시점을 정의하는 제 1 포인트(X1)와 길이 측정의 종점으 정의하는 제 2 포인트(X2)를 지정한다(스텝S71). 그러한 포인트의 지정하는 일예로서, 도 2에 나타낸 디스플레이(62)에 표시된 화상을 참고로 해서 유저가 GUI 등의 설정 수단에 의해 제 1 포인트(X1) 및 제 2 포인트(X2)를 설정할 수 있다. 또한, 워크피스(26)의 표면(32)에 시점/종점을 식별가능한 마커를 실시해도 좋다. 유저는 통상 길이 측정을 개시하기 전에 길이 측정의 시점으로서 제 1 포인트(X1)를 미리 설정한다.
이어서, 제 1 포인트(X1) 근방에 있는 표적 위치(Pm)(0≤m≤N)를 결정한다(스텝S72). 여기서, 적어도 1개의 촬상 영역(30) 내의 화상[I(t)]에 제 1 포인트(X1)와 표적 위치(Pm)가 병존하는 것을 필요로 한다. 이 조건을 충족시키는 표적 위치(Pm)가 있으면 임의의 위치를 선택할 수 있다.
이어서, 제 1 포인트(X1)와 표적 위치(Pm)의 상대 위치를 정의하는 벡터(X1Pm)를 산출한다(스텝S73). 소정 시간t1에 있어서의 촬상 영역(30) 내의 화상[I(t1)]이 나타내는 영역 내에 제 1 포인트(X1) 및 표적 위치(Pm)가 병존하므로 벡터(X1Pm)를 용이하게 결정할 수 있다.
이어서, 제 2 포인트(X2) 근방에 있는 표적 위치(Pn)(0≤m<n≤N)를 결정한다(스텝S74). 여기서, 적어도 1개의 촬상 영역(30) 내 화상[I(t)]에 제 2 포인트(X2)와 표적 위치(Pn)가 병존하는 것을 필요로 한다. 이 조건을 충족시키는 표적 위치(Pn)가 있으면 임의의 위치를 선택할 수 있다.
이어서, 제 2 포인트(X2)와 표적 위치(Pn)의 상대 위치인 벡터(X2Pn)를 산출한다(스텝S75). 소정 시간t2에 있어서의 촬상 영역(30) 내의 화상[I(t2)]이 나타내는 영역 내에 제 2 포인트(X2) 및 표적 위치(Pn)이 병존하므로 벡터(X2Pn)를 용이하게 결정할 수 있다.
최후에, 제 1 포인트(X1)와 제 2 포인트(X2)의 변위를 산출한다(스텝S76). 변위 벡터(X1X2)는 이하의 식(1)에 의해 결정된다.
Figure pat00001
...(1)
이와 같이, 추출 유닛(74)(도 2 참조)에 의해 추출된 모양의 대표적 위치인 표적 위치{Pi}는 추적점으로서의 기능한다. 그 결과, 적어도 하나의 표적 위치가 존재하는 화상 내의 임의의 위치는 상기 식(1)로 표현될 수 있다.
최후에, 화소수의 단위를 정의하는 x축 변위량 및 y축 변위량에 대하여 화소 사이즈(1화소의 치수)를 승산함으로써 실제 치수의 길이가 결정될 수 있다. 또한, 화소 사이즈는 기지인 촬상 배율(미도시 결상 광학계의 설정)과, 기지인 촬상 소자(50)의 해상도에 의거해서 산출될 수 있다.
더욱이, 길이를 측정하기 전에 (기지의 사이즈의) 고정밀도의 레퍼런스 목표물을 촬상하고, 화소수를 계측하고, 기지의 사이즈로부터 화소수를 제산함으로써 화소 사이즈를 결정할 수도 있다.
또한, 계측 개시 위치인 제 1 포인트(X1)의 위치를 미리 설정하면 표적 위치{Pi}를 특정하는데도 필요한 화상[I(t)]을 나타내는 화상 신호만을 기억 유닛(56)의 화상 메모리(70)에 기억하고, 다른 화상[I(t)]을 나타내는 화상 신호를 기억하지 않는(소정의 화상 처리가 행해진 후에 다른 화상[I(t)]이 파기되는) 구성이어도 상술의 위치 측정 방법을 실현할 수 있다. 이 경우에, 기억 유닛(56)의 기억 용량을 저감할 수 있을 뿐만 아니라 또한 메모리가 액세스되는 횟수를 저감할 수 있기 때문에 바람직한 조건이다.
본 발명에 의한 위치 측정 장치 및 위치 측정 방법은 상술한 실시형태에 한정되는 것이 아니고, 본 발명의 본질 및 범위를 벗어나지 않고 각종 대체 또는 추가적인 특징 및 구조가 채택될 수 있다.
예를 들면, 본 실시형태에서는 조명 광(46)이 워크피스(26)의 표면(32)으로부터 반사되어 그 반사광상을 촬상 소자(50)의해 촬상하는 구성을 채택하고 있지만, 자연광을 사용할 수 있거나, 측정 대상물 자체로부터 발광되는 광상을 촬상 소자(50)에 의해 촬상할 수 있다.
또한, 촬상 소자(50)는 모노크롬 센서(즉, 단일 수광 파장 특성을 갖는 소자), 또는 컬러 센서(즉, 복수종의 수광 파장 특성을 갖는 소자)로 구성될 수 있다. 이 경우에, 화상 처리기(14)는 취득한 화상 신호의 데이터 종류에 적합한 통신 및 화상 처리를 행할 수 있다.
또한, 본 실시형태에서는 센서 헤드(12)의 위치 및 자세를 고정하고, 컨베이어(20)의 반송 동작에 의해 상기 컨베이어(20) 상에 적재된 워크피스(26)를 이동시킬 경우를 나타냈지만, 센서 헤드(12)를 워크피스(26)의 표면(32) 상을 상대적으로 이동시키는 수단은 이 경우에 한정되지 않는다. 예를 들면, 워크피스(26)의 위치를 고정하면서 센서 헤드(12)를 워크피스(26)의 표면(32)에 대하여 평행하게 이동시켜서 촬상할 수도 있다. 또한, 측정 대상물 자체가 구동 기구를 포함함으로써 이동하는 측정 대상물을 촬상할 수 있다.
또한, 화상 처리 유닛(58)에 주지 기술인 화상 인식 처리를 구비하는 구성을 가정하면 이차원 길이 측정뿐만 아니라 형상 판별 및 색 판별을 행할 수도 있다.
또한, 본 발명에 의한 위치 측정 장치 및 위치 측정 방법에서는 이차원 좌표(X,Y)뿐만 아니라 삼차원 좌표(X,Y,Z)가 적용될 수 있다. 이 경우에, z축 방향의 변위는 모양의 확대율/축소율을 검출함으로써 실현될 수 있다.
또한, 임의의 2점에서 위치가 측정되면 그 길이, 삼차원 변위, 각도(제 3 우치를 중심으로 한 각도 방향의 변위)를 유일하게 결정할 수 있다. 따라서, 본 발명에 의한 위치 측정 장치 및 위치 측정 방법은 길이 측정 센서 및 변위 센서뿐만 아니라 각도 센서, 가속도 센서 등에 적용될 수도 있다.

Claims (10)

  1. 측정 대상물(26)보다도 작은 치수의 촬상 영역(30)을 갖는 촬상 소자(50)를 상기 측정 대상물(26)의 표면(32)에 대하여 상대적으로 이동시키면서, 상기 측정 대상물(26)의 표면(32)을 촬상해서 상기 촬상 영역(30) 내의 화상을 각각 얻고, 얻어진 복수의 화상을 사용해서 상기 측정 대상물(26) 상에 있는 시점과 종점과의 사이의 상대 위치를 측정하는 위치 측정 장치(10)로서,
    소정 시점에 있어서의 상기 화상 중에서 상기 측정 대상물(26) 상의 모양을 추출하는 추출 유닛(74)과,
    상기 추출 유닛(74)에 의해 추출된 상기 모양의 템플릿(100)을 기억하는 기억 유닛(56)과,
    상기 기억 유닛(56)에 의해 기억된 상기 템플릿(100)을 사용한 영역 베이스 매칭에 기초해서, 상기 소정의 시점 이후의 시점에 있어서 상기 화상 중에 상기 모양이 존재하는지 아닌지의 판정을 행하는 판정 유닛(75)과,
    상기 판정 유닛(75)에 의해 상기 모양이 존재한다고 판정되었을 경우, 상기 소정의 시점 이후에 있어서 상기 화상 중에서의 상기 모양의 대응 위치를 검출하는 검출 유닛(76)과,
    상기 검출 유닛(76)에 의해 검출된 상기 대응 위치로부터 산출한 상기 복수의 화상 중 하나의 화상 상에 병존하는 상기 시점과 상기 모양과의 사이의 상대 위치 및 상기 하나의 화상과 다른 화상 상에 병존하는 상기 모양과 상기 종점과의 사이의 상대 위치, 및 상기 치수에 기초해서, 상기 시점과 상기 종점과의 사이의 상대 위치를 측정하는 측정 유닛(78)을 보유하는 것을 특징으로 하는 위치 측정 장치(10).
  2. 제 1 항에 있어서,
    상기 추출 유닛(74)은, 직전에 추출된 상기 모양이 존재하는 화상 중에서 상기 모양과 다른 새로운 모양을 추출하고,
    상기 기억 유닛(56)은, 상기 새로운 모양이 추출될 때의, 상기 모양의 위치로부터 상기 새로운 모양의 위치까지의 벡터인 추적 변위량을 각각 기억하고,
    상기 측정 유닛(78)은, 또 상기 기억 유닛(56)에 의해 기억된 각 상기 추적 변위량의 총합을 사용해서, 상기 시점과 상기 종점과의 사이의 상대 위치를 측정하는 것을 특징으로 하는 위치 측정 장치(10).
  3. 제 2 항에 있어서,
    상기 추출 유닛(74)은, 상기 판정 유닛(75)에 의해 상기 모양이 존재하지 않는다고 판정되었을 경우, 판정 대상의 시점의 직전에 있어서 상기 화상 중에서 상기 새로운 모양을 추출하는 것을 특징으로 하는 위치 측정 장치(10).
  4. 제 2 항에 있어서,
    상기 추출 유닛(74)은, 상기 모양과 다른 모양이며 근린 화소의 화소값 불균일이 소정값 보다도 큰 모양을, 상기 새로운 모양으로서 추출하는 것을 특징으로 하는 위치 측정 장치(10).
  5. 제 1 항에 있어서,
    상기 검출 유닛(76)은, 서브 픽셀 추정을 사용해서 상기 대응 위치를 검출하는 것을 특징으로 하는 위치 측정 장치(10).
  6. 측정 대상물(26)보다도 작은 치수의 촬상 영역(30)을 갖는 촬상 소자(50)를 상기 측정 대상물(26)의 표면(32)에 대하여 상대적으로 이동시키면서, 상기 측정 대상물(26)의 표면(32)을 촬상해서 상기 촬상 영역(30) 내의 화상을 각각 얻고, 얻어진 복수의 화상을 사용해서 상기 측정 대상물(26) 상에 있는 시점과 종점과의 사이의 상대 위치를 측정하는 위치 측정 방법으로서,
    소정 시점에 있어서의 상기 화상 중에서 상기 측정 대상물(26) 상의 모양을 추출하는 제 1 스텝과,
    추출된 상기 모양의 템플릿(100)을 기억하는 제 2 스텝과,
    기억된 상기 템플릿(100)을 사용한 영역 베이스 매칭에 기초해서, 상기 소정의 시점 이후의 시점에 있어서 상기 화상 중에 상기 모양이 존재하는지 아닌지의 판정을 행하는 제 3 스텝과,
    상기 모양이 존재한다고 판정되었을 경우, 상기 소정의 시점 이후에 있어서 상기 화상 중에서의 상기 모양의 대응 위치를 검출하는 제 4 스텝과,
    검출된 상기 대응 위치로부터 산출한 상기 복수의 화상 중 하나의 화상 상에 병존하는 상기 시점과 상기 모양과의 사이의 상대 위치 및 상기 하나의 화상과 다른 화상 상에 병존하는 상기 모양과 상기 종점과의 사이의 상대 위치, 및 상기 치수에 기초해서, 상기 시점과 상기 종점과의 사이의 상대 위치를 측정하는 제 5 스텝을 구비하는 것을 특징으로 하는 위치 측정 방법.
  7. 제 6 항에 있어서,
    상기 제 1 스텝으로부터 상기 제 4 스텝까지를 순차 반복하며,
    상기 제 1 스텝에서는, 직전에 추출된 상기 모양이 존재하는 화상 중에서 상기 모양과 다른 새로운 모양을 추출하고,
    상기 제 2 스텝에서는, 상기 새로운 모양이 추출될 때의, 상기 모양의 위치로부터 상기 새로운 모양의 위치까지의 벡터인 추적 변위량을 각각 기억하고,
    상기 제 5 스텝에서는, 또 기억된 각 상기 추적 변위량의 총합을 사용해서, 상기 시점과 상기 종점과의 사이의 상대 위치를 측정하는 것을 특징으로 하는 위치 측정 방법.
  8. 제 7 항에 있어서,
    상기 제 1 스텝에서는, 상기 모양이 존재하지 않는다고 판정되었을 경우, 판정 대상의 시점의 직전에 있어서 상기 화상 중에서 상기 새로운 모양을 추출하는 것을 특징으로 하는 위치 측정 방법.
  9. 제 7 항에 있어서,
    상기 제 1 스텝에서는, 상기 모양과 다른 모양이며 근린 화소의 화소값 불균일이 소정값 보다도 큰 모양을, 상기 새로운 모양으로서 추출하는 것을 특징으로 하는 위치 측정 방법.
  10. 제 6 항에 있어서,
    상기 제 4 스텝에서는, 서브 픽셀 추정을 사용해서 상기 대응 위치를 검출하는 것을 특징으로 하는 위치 측정 방법.
KR1020120149649A 2009-07-07 2012-12-20 위치 측정 장치 및 위치 측정 방법 KR101342523B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009160860A JP5156972B2 (ja) 2009-07-07 2009-07-07 位置測定装置及び位置測定方法
JPJP-P-2009-160860 2009-07-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020100063455A Division KR20110004289A (ko) 2009-07-07 2010-07-01 위치 측정 장치 및 위치 측정 방법

Publications (2)

Publication Number Publication Date
KR20130014466A true KR20130014466A (ko) 2013-02-07
KR101342523B1 KR101342523B1 (ko) 2013-12-17

Family

ID=43382950

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020100063455A KR20110004289A (ko) 2009-07-07 2010-07-01 위치 측정 장치 및 위치 측정 방법
KR1020120149649A KR101342523B1 (ko) 2009-07-07 2012-12-20 위치 측정 장치 및 위치 측정 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020100063455A KR20110004289A (ko) 2009-07-07 2010-07-01 위치 측정 장치 및 위치 측정 방법

Country Status (6)

Country Link
US (1) US9115983B2 (ko)
JP (1) JP5156972B2 (ko)
KR (2) KR20110004289A (ko)
CN (1) CN101943969B (ko)
DE (1) DE102010025953B4 (ko)
TW (1) TWI429876B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113503818A (zh) * 2021-09-13 2021-10-15 深圳市鑫信腾科技股份有限公司 物料尺寸测量设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5416082B2 (ja) * 2010-12-27 2014-02-12 株式会社コベルコ科研 ひずみ測定装置およびひずみ測定方法
KR101251229B1 (ko) * 2011-09-07 2013-04-08 현대하이스코 주식회사 막 전극 접합체 및 가스확산층의 위치 정렬 오차 검출 장치 및 방법
JP5507586B2 (ja) * 2012-01-10 2014-05-28 Ckd株式会社 積層電池の製造過程に用いられる検査装置
EP2626671B1 (de) * 2012-02-10 2016-09-14 SICK STEGMANN GmbH Vorrichtung und Verfahren zur Positionsbestimmung
JP2013201294A (ja) * 2012-03-26 2013-10-03 Mitsubishi Electric Corp キャッピング装置
JP2015216482A (ja) * 2014-05-09 2015-12-03 キヤノン株式会社 撮像制御方法、および撮像装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3014513A1 (de) * 1980-04-16 1981-10-22 Scantron GmbH & Co Elektronische Lesegeräte KG, 6000 Frankfurt Verfahren und vorrichtung zum indentifizieren von gegenstaenden
ATE43714T1 (de) * 1984-02-25 1989-06-15 Massen Robert Verfahren zur beruehrungslosen messung der laenge eines bewegten gegenstandes und messvorrichtung zur durchfuehrung des verfahrens.
JP3156817B2 (ja) * 1994-03-14 2001-04-16 矢崎総業株式会社 車両周辺監視装置
US5808726A (en) * 1995-02-28 1998-09-15 Canon Kabushiki Kaisha Distance measurement apparatus
US6164174A (en) * 1997-02-13 2000-12-26 H. F. Marel, Ltd. Computer controlled portioning machine
US6107637A (en) * 1997-08-11 2000-08-22 Hitachi, Ltd. Electron beam exposure or system inspection or measurement apparatus and its method and height detection apparatus
US6642506B1 (en) * 2000-06-01 2003-11-04 Mitutoyo Corporation Speckle-image-based optical position transducer having improved mounting and directional sensitivities
GB2383411B (en) 2001-08-06 2005-11-09 Mitutoyo Corp Systems and methods for correlating images in an image correlation system with reduced computational loads
JP2003098424A (ja) * 2001-09-25 2003-04-03 Fujitsu Ten Ltd 画像処理測距装置
CN100582753C (zh) * 2001-11-28 2010-01-20 应用材料有限公司 探测缺陷的方法
US7384158B2 (en) * 2003-01-08 2008-06-10 Silicon Optix Inc Image projection system and method
DE10233153A1 (de) * 2002-07-22 2004-02-12 Abb Patent Gmbh Verfahren zur Positionserkennung und Datenträger hierzu
US7466336B2 (en) * 2002-09-05 2008-12-16 Eastman Kodak Company Camera and method for composing multi-perspective images
CA2504368C (en) * 2002-10-31 2012-07-10 Ehsan Toyserkani System and method for closed-loop control of laser cladding by powder injection
US20040221790A1 (en) * 2003-05-02 2004-11-11 Sinclair Kenneth H. Method and apparatus for optical odometry
US7313430B2 (en) * 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
JP2005172667A (ja) * 2003-12-12 2005-06-30 Olympus Corp 工業用内視鏡装置及びこれを用いた形状寸法測定方法
TWI267761B (en) * 2004-12-03 2006-12-01 Hon Hai Prec Ind Co Ltd A simulative measurement demo system and method
US7602997B2 (en) * 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
DE102005040772B4 (de) * 2005-07-08 2012-01-19 Fraba Ag Optischer Längen- und Geschwindigkeitssensor
US7864982B2 (en) 2005-08-22 2011-01-04 Samsung Electronics Co., Ltd. Displacement and tilt detection method for a portable autonomous device having an integrated image sensor and a device therefor
CN101248409B (zh) 2005-08-22 2012-08-22 三星电子株式会社 具有集成图像传感器的便携式自主设备的位移与倾斜检测方法及其设备
KR100651521B1 (ko) * 2005-12-14 2006-11-30 삼성전자주식회사 휴대단말기의 속력측정방법
JP2007303994A (ja) 2006-05-12 2007-11-22 Denso Corp 外観検査装置及び外観検査方法
WO2008054217A1 (en) * 2006-11-03 2008-05-08 Tele Atlas B.V. Method and apparatus for identification and position determination of planar objects in images
EP2233882B1 (en) 2008-01-09 2021-03-31 Nikon Corporation Measuring device, method, and program
BRPI0917864A2 (pt) * 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113503818A (zh) * 2021-09-13 2021-10-15 深圳市鑫信腾科技股份有限公司 物料尺寸测量设备
CN113503818B (zh) * 2021-09-13 2021-12-14 深圳市鑫信腾科技股份有限公司 物料尺寸测量设备

Also Published As

Publication number Publication date
CN101943969B (zh) 2013-05-08
TWI429876B (zh) 2014-03-11
US9115983B2 (en) 2015-08-25
JP5156972B2 (ja) 2013-03-06
US20110007155A1 (en) 2011-01-13
TW201107707A (en) 2011-03-01
DE102010025953A1 (de) 2011-01-20
KR101342523B1 (ko) 2013-12-17
DE102010025953B4 (de) 2021-04-01
JP2011017559A (ja) 2011-01-27
CN101943969A (zh) 2011-01-12
KR20110004289A (ko) 2011-01-13

Similar Documents

Publication Publication Date Title
KR101342523B1 (ko) 위치 측정 장치 및 위치 측정 방법
US7715020B2 (en) Three-dimensional shape measuring system
EP2228769B1 (en) Segmentation of a depth maps of printed circuit boards
JP4883517B2 (ja) 三次元計測装置および三次元計測方法並びに三次元計測プログラム
US20140043472A1 (en) Tire surface shape measuring device and tire surface shape measuring method
US9074879B2 (en) Information processing apparatus and information processing method
US20150185000A1 (en) Line scanner that uses a color image sensor to improve dynamic range
CN107084663A (zh) 位置确定方法、测量装置及测量系统
JP2007206797A (ja) 画像処理方法および画像処理装置
US11908162B2 (en) Line scanner having target-tracking and geometry-tracking modes
KR20100087089A (ko) 대상의 형상에 대한 멀티프레임 표면 측정을 위한 시스템 및 방법
JPWO2009088053A1 (ja) 測定装置および方法、並びに、プログラム
JP2010139275A (ja) 車両用複眼距離測定装置及び複眼距離測定方法
JP2015232482A (ja) 検査装置、検査方法およびプログラム
JP2008275366A (ja) ステレオ3次元計測システム
CN115014228A (zh) 基于视觉测量的嵌入式引伸计和双轴视觉测量方法
JP5342977B2 (ja) 画像処理方法
CN114266835A (zh) 一种非量测相机的变形监测控制方法与系统
CN103940345B (zh) 一种远程位移测量系统及方法
US20200340799A1 (en) Optical Displacement Meter
US20050015209A1 (en) Eddy current testing apparatus with integrated position sensor
EP3062516A1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
JP2020064034A (ja) 計測装置、その校正方法、およびプログラム
JP2008164338A (ja) 位置検出装置
Lutowski et al. The optical system for elongation measurement of highly deformable materials

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161205

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171201

Year of fee payment: 5