KR100367303B1 - 화상중의패턴을자동으로위치시키기위한벡터상관시스템 - Google Patents

화상중의패턴을자동으로위치시키기위한벡터상관시스템 Download PDF

Info

Publication number
KR100367303B1
KR100367303B1 KR10-1998-0703590A KR19980703590A KR100367303B1 KR 100367303 B1 KR100367303 B1 KR 100367303B1 KR 19980703590 A KR19980703590 A KR 19980703590A KR 100367303 B1 KR100367303 B1 KR 100367303B1
Authority
KR
South Korea
Prior art keywords
template
image
coordinate point
displacement
rotation angle
Prior art date
Application number
KR10-1998-0703590A
Other languages
English (en)
Other versions
KR19990067567A (ko
Inventor
스테픈 에스. 윌슨
Original Assignee
어플라이드 인텔리전트 시스템스 인코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 어플라이드 인텔리전트 시스템스 인코포레이션 filed Critical 어플라이드 인텔리전트 시스템스 인코포레이션
Publication of KR19990067567A publication Critical patent/KR19990067567A/ko
Application granted granted Critical
Publication of KR100367303B1 publication Critical patent/KR100367303B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 화상들의 디지털 처리를 위한 시스템에 관한 것으로, 대상물의 평가에 대응하는 템플레이트를 결정하는 수단, 상기 템플레이트를 추상 템플레이트로 변환하는 수단, 상기 추상 템플레이트를 레인징 템플레이트로 변환하는 수단, 상기 레인징 템플레이트를 상기 화상내의 복수의 알려진 좌표점 위치들중 각각으로 변위시키는 수단, 상기 레인징 템플레이트를 상기 위치중 각각에서의 상기 화상과 상관시키는 수단, 미리 정의된 임계치를 만족하는 상관에 대응하는 상기 위치를 보존하는 수단을 포함하며, 화상은 복수의 화상 화소들에 의해 정의되고, 각 화상 화소는 알려진 휘도값과 알려진 좌표점을 갖는 것을 특징으로 한다.

Description

화상중의 패턴을 자동으로 위치시키기 위한 벡터 상관 시스템{VECTOR CORRELATION SYSTEM FOR AUTOMATICALLY LOCATING PATTERNS IN AN IMAGE}
서론
전자 디지털 화상 처리 하드웨어에 있어서, 화상은 개별적인 메모리 장치에 기억된다. 화상은 통상 수치로 이루어진 배열로 분할되고, 각 메모리 위치가 고유의 공간 좌표점에 대응하며, 화소(pixel)라 불리우는 메모리 위치내의 값이 그의 좌표점에서의 화상의 휘도에 대응한다. 도 1A는 각 화소 좌표점에서의 휘도가 값으로 주어진 화상중의 대상물의 예를 나타낸다.
화상과 템플레이트 상관
기계 화상 시스템에 있어서, 화상중의 대상물을 자동적으로 위치시키는 일반적인 기술의 하나는 상관 또는 콘볼루션(convolution)을 사용하는 것이다. 화상 상관법에는 콘볼루션, 최소 평균 2승 오차, 최소평균 절대 오차를 포함하는 여러 가지 종류의 것이 있다. 상관법의 정의에는 위치되는 대상물과 동일한 형태를 갖는 별개의 작은 화상인 템플레이트, 즉 핵의 결정과 사용이 필요로 된다. 도 1B는 도 1A에 나타낸 대상물과 같은 형상의 템플레이트를 나타낸다. 대상물과 마찬가지로, 텔플레이트는 각 점에서의 휘도값을 갖는 고유의 좌표점에 의해 표시될 수도 있다. 템플레이트는 화상중의 관련 영역의 주위에서 그의 위치를 선택적으로 변위되며 움직인다. 화상중의 새로운 템플레이트의 위치의 각각에 있어서, 공통 공간의 좌표점에서의 각 화상 요소에 대응하는 값을 갖는 각 템플레이트 화소의 값을 구하기 위하여 곱한 것의 합이 계산된다. 도 1C는 화상 상에서 이동된 도 1B상의 템플레이트의 한 위치를 나타낸다. 이 경우, 변위에 중첩이 없으며, 곱들의 합은 0이다. 상관 또는 콘볼루션의 계산 출력은 템플레이트 형상이 형상중의 패턴의 형상과 가장 매치(match)되는 위치에서 최대로 된다. 도 1D는 화상을 횡단하는 템플레이트의 모든 가능한 상관을 나타낸다. 수치는 상당히 크므로, 도 1D는 상관 및 그의 상대적인 지표만을 음영의 농도에 의해 나타난다.
이산 2차원의 콘볼루션에 대한 공식은
으로 주어진다. 여기서, I는 화상이고, K는 핵이며, x와 y는 공간 좌표점에서 정의되는 화상 좌표이다.μν의 합은 템플레이트상의 범위로 된다. 실제로, 템플레이트는 위치가 결정된 대상물을 포함하는 화상보다도 작은 것으로 된다.
정규화 상관은 템플레이트의 각 요소의 값에 일정의 휘도인자가 곱해지고,일정의 오프셋이 가산되는 것을 제외하고, 상관에 유사한 방법으로 알려져 있다. 각 템플레이트 변위에 있어서 휘도인자와 오프셋은 화상 위치의 각각에서의 템플레이트의 상관에서 오차가 최소로 되도록 독립적으로 조정된다. 템플레이트 매칭에서의 정규화 상관은, VISION'87 컨퍼런스 프로시딩의 5-33∼5-55페이지에 있는 윌리암 실버(William Silver)에 의한 "정규화 상관 조사를 사용하는 정렬과 측정(Alignment and Gauging Using Normalized Correlation Search)"라는 제목의 기사에서 상세히 기술되어 있으며, 인용하여 구체화한다.
최소 평균 제곱 오차법에서는 각 템플레이트의 점은 대응하는 화상 점으로부터 빼어지고; 각각의 차(差)가 2승된다. 그리하여 모든 차(差)의 평균이 계산된다. 최소 제곱오차의 공식은
으로 주어진다. 여기서, N은 핵중의 화소의 수이다. 최소 평균제곱 오차의 계산적 출력은 템플레이트 형상이 화상중의 패턴과 가장 잘 매치하는 위치에서 최소로 된다. 최소 평균 절대 오차법에서는 각 템플레이트의 점은 대응하는 화소의 점으로부터 빼어지고; 각각의 차(差)의 절대치가 계산된다. 그리하여 모든 차(差)의 평균이 계산된다. 최소 절대 오차에 대한 공식은
으로 주어진다. 최소 평균 절대 오차의 계산 결과도 템플레이트의 형상이 화상중의 패턴이 형상과 가장 매치하는 위치에서 최소로 된다.
상술한 기술은 그 자체가 농담(濃淡) 화상인 템플레이트를 좌표 위치가 관련하는 화상의 범위 내에 있는 대상물을 포함하는 대응하는 농담 화상 주위에서, 그의 위치를 변위시킨다는 의미에서 실질적으로 동일하다. 각 위치에 있어서 인접하는 화상의 화소값과 공통의 좌표점에서 대응하는 템플레이트의 값에 있는 함수가 적용된다. 이 결과는 좌표점에서의 각 화소가 템플레이트가 그의 점에서의 화상중의 대상물과 어느 정도 일치하는가를 나타내는 1개의 수치로 되는 다른 화상이다.
2값의 벡터 상관(Binary Vector Correlation)
벡터 상관 또는 콘볼루션은 전술한 상관법에 대한 다른 또 하나의 접근법을 제공한다. 벡터 상관에서는 화상과 선택된 템플레이트는 벡터인 화소들로 구성된다. 2값 벡터 상관의 이론은, "IEEE Transactions on Systems, Man, and Cybernetics, Nov./Dec., 1989 vol. 19, no. 6의 1636∼1644페이지"에 있는 S. S. 윌슨(Wilson)에 의한 "Vector Morphology and Iconic Neural Networks"의 제목하의 논문에 기술되어 있으며, 인용하여 구체화한다. 이와 유사한 기술이 1991년 Wiley-Interscience판의 Neural and Intelligent Systems Integration의 135∼160페이지에 있는 S. S. 윌슨(Wilson)에 의한 "Teaching network connections for real-time object recognition"의 제목하의 논문에 더욱 상세히 기술되어 있다. 간략하게 설명하면, 2값 벡터 상관은 농담 화상을 몇 개의 2값 화상들로 반응시키는 것으로 이루어지며, 여기서, 2값 화상의 합성화상은 벡터 화상중의 각 화소가 2값 화상의 하나에서 각각으로 되는 몇 개의 구성 요소를 갖는 것이라는 의미에서의 벡터로 표시한다. 다음으로, 패턴을 인식하기 위하여, 벡터 템플레이트가 정의된다. 벡터 템플레이트도 같은 수의 벡터 화상으로서의 구성요소로 이루어진다.
벡터 템플레이트의 위치는 화상중의 관련 영역의 주위에서 그의 위치를 변위시키며, 움직인다. 각 위치에 있어서, 템플레이트중의 벡터 화소와 대응하는 좌표점에서의 화상중의 벡터 화소를 구하기 위하여 내부 곱(즉, 도트 곱)의 합계가 계산된다. 수학적인 관점에서는 이산 2차원 벡터 콘볼루션의 공식은
으로 주어진다. 여기서, I는 벡터 화상이고, K는 벡터 핵이며, x와 y는 화상 좌표이다.μν의 합은 템플레이트 상의 범위로 된다.
벡터 상관 기술을 상세히 나타낸다. 화상을 입력하면, 최초로 수평 유한차분으로 불리는 다른 화상을, 입력화상의 화소값에서 우측으로 최소거리에서 변위하는 인접 화소의 값을 뺌으로써 형성된다. 결과의 화상은 유효 수직 엣지가 있는 좌표의 주위에서 양 또는 음의 큰 값들을 포함하는 것이다. 수평 유한차분 화상중의 양의 값은 이스트 엣지라 불리며, 왼쪽에서 오른쪽으로 향하여 농도가 감소하는 엣지인 것을 나타낸다. 수평 유한차분 화상중의 음의 값은 웨스트 엣지라 불리며, 왼쪽에서 오른쪽으로 향하여 농도가 증가하는 엣지인 것을 나타낸다.
두번째 스텝은 수직 유한차분이라 불린 다른 화상을, 입력 화상의 화소값에서 상방으로 최소거리에서 변위하는 인접 화소값을 뺌으로써 형성한다. 결과의 화상은 유효 수평 엣지가 있는 좌표점의 주위에서 양 또는 음의 큰 값을 포함하는 것으로 된다. 수직 유한차분 화상중의 양의 값은 노쓰 엣지라 불리며, 상방으로 향하여 농도가 감소하는 엣지인 것을 나타낸다. 수직 유한차분 화상중의 음의 값은 사우쓰 엣지라 불리며, 상방으로 향하여 농도가 증가하는 엣지인 것을 나타낸다.
2값 벡터 상관에서의 세 번째 스텝은 각 화소가 나침반의 4개의 방향에 대응하는 N, S, E 및 W와 표지된 4개의 2진수로 이루어진 벡터를 포함하는 2값 벡터 화상을 형성한다. 2진수 N은 수직 유한차분을 임계치라 불리우는 작은 양의 수와 비교하고, 이들 값이 임계치를 초과하는 경우에는 2진수의 1을, 그 이외는 2진수의 0을 할당함으로써 계산된다. 2진수 S는 수직 유한차분를 음의 임계치와 비교하고, 이들 값이 임계치보다 작은 경우에는 2진수의 1을, 그 이외는 2진수의 0을 할당함으로서 계산된다. E와 W의 2값 요소는 수평 유한차분 화상을 사용하여 동일한 방법으로 계산된다.
마지막으로 네 번째 스텝은 원래 화상의 관련 영역의 범위 내에서 벡터 템플레이트의 위치를 변위시킨다. 화상중의 새로운 위치의 각각에서, 내부 곱들의 합계가 대응하는 좌표점에서 원래의 화상중의 각 벡터 화소에 대응하는 템플레이트중의 각 벡터 화소값을 구하기 위하여 계산된다.
도 2A는 수평 유한차분과 수직 유한차분의 양쪽을 사용한 엣지 검출후의 벡터 화상의 예이다. 화상 중에서의 각 좌표점이 벡터로서 묘사되어 있으나, 0이 아닌 요소의 표지만을 묘사하여 간략화하고 있다. 실제로는 2개의 요소가 N 및 W 등의 0이 아닌 것으로 할 수 있으나, 도 2A의 예에는 나타나 있지 않다. 도 2B는 수평 유한차분 화상과 수직 유한차분 화상의 양쪽과 소정의 임계치를 사용하여 형성된 대응하는 벡터 템플레이트이다. 도 2B의 템플레이트가 도 2A의 화상 주위에서 그의 위치를 이동시킬 때, 도 2C에 대충 표시된 상관 결과가 얻어지는 것은 명백하다.
벡터 상관의 이점
벡터 상관은 패턴의 엣지와 상관이며, 아주 정확하다. 도 2C를 참조하면, 화상중의 패턴의 정확한 위치로부터의 템플레이트의 약간의 오프셋은 템플레이트의 엣지의 대부분이 패턴과 완전히 미스콘택트(mis-contact)하여 상관이 얻어지지 않음을 의미하고 있다. 그러나, 도 1D에 도시된 바와 같이, 통상의 상관이 사용된 경우에는 화상의 템플레이트와 부분적으로 콘택트하는 넓은 영역이 있다.
벡터 상관은 패턴의 엣지가 심각하게 열화되지 않는 한, 열화된 화상중의 패턴을 위치시킬 수 있다. 열화된 화상은 관련하는 패턴을 둘러싸 큰 어지러움(클러터) 또는 패턴중의 단편을 잃어버리고 있다. 통상의 상관은 패턴을 둘러싸고 있는 잡음으로부터 구별할 수 없다.
통상의 상관에서는 템플레이트 화상이 사용된다. 따라서, 대상물의 시각적 특성이 템플레이트로서 사용되고 있는 대상물과 실질적으로 다르면, 템플레이트 매칭은 정확한 결과를 줄 수 없다. 백터 상관은 대상물의 중요한 엣지 형상만이 대상물을 식별하기 위하여 사용되기 때문에, 통상의 상관보다 우수하다.
벡터 상관의 문제점
벡터 상관은 벡터 화상들을 형성하여 처리하는 특별한 스텝 때문에 철저한 계산이 된다. 첫번째로, 유한차분과 계산된 엣지를 기억하기 위한 메모리 장치의필요량이 증가한다. 두번째로, 탐색되는 패턴을 특징지기 위하여 사용되는 템플레이트는 벡터이고, 정의하는 것이 더욱 복잡하게 된다. 세번째로, 사선의 엣지는 정확하게 표시되지 않는다. 노쓰 방향과 이스트 방향의 경사진 엣지는 동일점에 표시된 노쓰 및 이스트 엣지의 양쪽을 갖는 템플레이트에 의해 표시되지 않으면 안된다. 템플레이트중의 경사점은 다루기가 더욱 어렵다. 마지막으로, 이 방법은 고성능 병렬 프로세서에 한정된다.
1 또는 2개의 유니트를 둘러싸는 작은 유한차분 좌표 변위를 사용하면 대단히 협소한 유한차 화상의 엣지가 생성된다. 상관 템플레이트가 벡터 화상에서 움직이면, 협소한 엣지는 상관에 강한 국소성을 부여하여 화상으로의 템플레이트의 패턴 매칭에 높은 정확성을 가져온다. 그러나, 패턴 위치는 알려지지 않았기 때문에, 일반적으로 패턴이 탐색될 때까지 템플레이트는 다수의 위치 상에서 이동하지 않으면 안된다. 이것이 파인 그레인드 탐색(fine grained search)이라 한다. 이 경우, 미지의 패턴은 템플레이트를 조금씩 회전시켜도 어느 위치에도 맞지 않는다면, 잃어버릴 수도 있다.
유한차는 단순한 화상에는 더욱 크게 만들어질 수도 있다. 예컨데, 10 유니트를 둘러싼 유한차 좌표 변위를 10화소의 폭으로 탐색하기 위하여 회전된 패턴을 허용하는 엣지를 유도한다. 또한, 상기 패턴은 수평 및 수직 방향의 양방에서 10유니트까지를 둘러싸는 스텝에서 철저하지 않고, 거친 격자 내에서 화상에 대해 템플레이트를 샘플링함으로써 탐색된다. 이 예에서는, 탐색은 10의 2승, 즉 100배 빠르게 된다. 그러나, 패턴이 탐색된 경우, 정확성이 아주 떨어지게 된다.
타협점으로서 엣지 검출은 대략적으로 탐색하여 패턴의 대략적인 위치를 얻고, 극히 미세하게 탐색하여 패턴을 합치시키는 것이 행하여진다. 큰 유한차분에서 1회, 작은 유한차분에서 1회의 합계 2회 행하지 않으면 안된다. 대용량의 메모리 장치와 고성능 병렬 프로세서가 여전히 요구된다.
본 발명은 화상을 디지털 처리를 위한 시스템에 관한 것으로, 더 상세히는 엣지(edges)에 의해 특징지워지는 패턴을 자동으로 위치시키기 위한 시스템에 관한 것이다. 특별히 구성된 템플레이트가 화상 중에서 각종 점의 주위를 변위되어 패턴을 위치시킨다.
본 발명의 특징 및 발명성은 이하의 상세한 설명, 청구의 범위 및 이하의 도면의 간단한 설명을 하는 도면에 의해 더 명백해 질 것이다.
도 1A는 대상물을 갖는 그레이 레벨 화상의 예이다.
도 1B는 도 1A의 화상중의 대상물의 위치를 찾기 위한 템플레이트의 예이다.
도 1C는 도 1A의 화상 위에서 움직인 도 1B의 템플레이트의 1 위치를 나타낸다.
도 1D는 화상중의 대상물과 화상 주위를 이동시킨 템플레이트와의 상관의 개략적 지표를 음영의 농도에 의해 나타낸다.
도 2A는 2값 벡터 화상의 예이다.
도 2B는 2값 벡터 템플레이트의 예이다.
도 2C는 2값 벡터 화상중의 대상물과 화상 주위에서 이동된 2값 벡터 템플레이트의 벡터 상관을 나타낸다.
도 3A는 본 발명에 의한 간략하게 한 벡터 형식에 변환된 메뉴얼 결정 템플레이트를 나타낸다.
도 3B는 도 3A의 추상 벡터 템플레이트용 테이블을 나타낸다.
도 3C는 δ=3의 변위를 갖는 도 3B의 추상 템플레이트로부터 얻어진 레인징 템플레이트를 나타낸다.
도 3D는 화상 내에서 오프 셋되고 회전된 대상물에 일치하는 도 3C의 레인징 템플레이트를 나타낸다.
도 4A는 도 3C의 레인징 템플레이트에 대한 상관의 프로파일이다.
도 4B는 δ=1의 변위를 갖도록 작성된 레인징 템플레이트이다.
도 4C는 도 4B의 레인징 템플레이트에 대한 상관의 수평 프로파일이다.
도 5는 본 발명의 시스템을 사용하여 대상물을 탐색하기 위한 유효한 방법을 나타낸다.
< 도면의 주요부분에 대한 부호의 설명 >
20 : 대상물 22 : 화상
24 : 템플레이트 26 : 엣지
28 : 추상 템플레이트 30 : 레인징 템플레이트
[실시예]
도 3A∼도 3D에 예시된 바와 같이, 본 발명은 화상(22)내의 대상물(20)의 좌표점 위치를 위치시키기 위하여 사용되는 자동 화상 처리 시스템에 관한 것이다. 도시된 화상(22)은 복수의 화상 화소로 이루어진 2차원의 것이다. 각 화상 화소는 각각 알려진 휘도값과 알려진 좌표점을 갖는다. 이 좌표점은 수평방향의 x축과 수직방향의 y축에 의해 정의된다. 본 시스템의 목적은 최종적으로 화상(22)내에 대상물(20)의 좌표점을 결정한다.
처음으로, 이 시스템은 엣지(26)에 의해 경계를 정의한 파시블 템플레이트(24)를 메뉴얼 조작으로 결정한다. 도시된 바와 같이, 템플레이트(24)는 대상물(20)과 가능한 한 일치하는 형상 및 크기로 설정된다.
템플레이트(24)가 정의되면, 컴퓨터의 메모리 위치에 쉽게 기억되는 N개의 벡터에 의해 정의되는 추상 템플레이트(28)로 변환된다. 도 3A에 도식적으로, 및 3B에 테이블 형태로 나타낸 바와 같이, A∼I의 각 벡터는 각각 템플레이트 엣지(26)의 수평 및 수직 좌표들로 되는 좌표점μ i와,ν i의 집합으로 주어진다. 이 좌표점은 아래에 더 자세히 설명되다시피, 화상(22)의 좌표계에 표기될 수도 있다. 각 좌표점에 관련시키고, 좌표점의 위치에서 대응하는 엣지(26)에 수직으로 대응하는 화살표θ i로 표시되는 엣지 방향이다. 각 화살표의 말단은 템플레이트(24)의 경계 내에 위치하는 반면, 각 화살표의 머리는 템플레이트(24)의 밖에 위치한다. 화상(22)의 x축 및 y축을 따라 대상물(20)의 위치를 결정하는데 동등하고 정확하게 하기 위하여 메뉴얼 템플레이트(24)의 실질적으로 수직 및 수평인 범위에 따라 N과 거의 같은 수의 벡터가 있다. 동일한 벡터가, 수평 및 수직 성분의 양방을 동시에 가지고 있어도 좋다. 도 3A에 도시된 바대로, 3개의 벡터가 각 수평 및 수직 범위에 존재하며 1개 이상의 엣지를 포함한다. 예컨데, 이러한 이들 3개의 엣지는 도 3A에서 가장 우측의 수직 범위를 포함한다.
계산의 복잡성을 최소화하기 위해, 한정된 엣지점이 벡터(μ i,ν i,θ i)로 변환될 필요가 있다. 그러나, 인접한 엣지 사이에 충분히 큰 각도차가 없는 인접하는 엣지가 아니한, 적어도 1개의 벡터가 메뉴얼로 결정된 템플레이트의 각각 다른 엣지에 이용되는 것이 바람직하다. 도 3A에 나타난 바와 같이, 엣지(26)의 각각은 추상 템플레이트(28)의 부분으로 이루어진 적어도 1개의 벡터를 포함한다.
템플레이트(24)가 추상 템플레이트(28)의 벡터들로 변환되면, 도 3C에 나타난 바와 같이, 레인징 템플레이트(30)가 형성된다. 레인징 템플레이트(30)는 추상 템플레이트(28)의 각 벡터(μ i,ν i,θ i)에 대한 1쌍의 좌표점(μpi,νpi)과 (μni,νni)를 사용하여 정의된다. 점(μpi,νpi)은 방향θ i에따른 양의 변위 δ에 의해 생성되며, 점(μni,νni)은 방향θ i에 따른 양의 변위 δ에 의해 생성된다. 전자의 좌표점은 매뉴얼 결정 템플레이트(24)의 엣지(26)들에 의해 정의되는 경계 외측에 존재하고, 후자의 좌표점은 경계 내측에 존재한다. 수학적으로는= =이다. 그러나, 레인징 템플레이트(30)가 사용되기 전에, 템플레이트의 좌표점에 가중치들이 할당하지 않으면 안된다. 예컨데, 예시된 실시 형태에서는 양의 변위를 갖는 점(μpi,νpi)에 대한 가중치들은 +1 이고, 음의 변위를 갖는(μni,νni)에 대한 가중치들은 -1 이다. 작은 백색 사각은 음의 가중치를 갖는 레인징 템플레이트 좌표점을 나타내고, 작은 흑색 사각은 양의 가중치를 갖는 레인징 좌표 템플레이트 점을 나타낸다.
레인징 템플레이트(30)에서의 아주 듬성 듬성한 좌표점의 조합에 의한 +1 또는 -1 의 가중치들을 가짐으로써, 상관의 공식은 아주 단순하게 된다.
여기서, I는 화상(22)이고, x 및 y는 화상의 좌표점이며,μν는 전술한 바와 같으며, 레인징 템플레이트(30)의 좌표점이다. 이 공식에서의 표기는 양의 항 Pi= I(x-μpi,y-νpi) 및 음의 항 Ni= I(x-μpi,y-νpi)를 대체함으로서 간략화 된다.
변위 δ가 크게 되면, 처리 속도는 향상되나, 적어도 1개의 벡터를 갖는 템플레이트(24)중의 엣지의 최소 사이즈의 절반 정도보다는 커서는 안된다. 그러나, 계산결과가 부정확하게 될 수 있다. 도 3C에 예시된 바와 같이, 추상 템플레이트(28)의 벡터 C 및 D를 사용하여 결정된 좌표점(μni,νni)은 서로 아주 인접한 것으로 된다. 변위 δ가 더욱 크게 되면, 좌표점이 서로 연장되어 바람직하지 않은 결과로 된다. 예컨데, 추상 템플레이트(28)에 대해, 최단 사이즈는 10유니트 정도의 길이로 된다. 변위 δ는 3 유니트로 설정되면, 결과로서 얻어진 레인징 템플레이트(30)이 3유니트까지의 범위에서 대상물의 중심에서 벗어나 있어도 대상물(20) 패턴을 검출할 수 있다. 따라서, 대상물(20)는 6×6 그리드를 사용하여 산재적으로 탐색함으로서 찾아낼 수 있다. 그러나, 화상(22)에서의 대상물(20)의 위치는 ±3 화소 이상 정확히는 탐색될 수 없다. 도 3D는 템플레이트가 유효하게 중심을 벗어나고, 대상물(20)이 유효하게 회전하고 있는 경우에도 레인징 템플레이트(30)와 화상(22)내의 대상물(20)이 일치하는 것을 나타내고 있다.
도 4A는 회전하지 않은 대상물의 x축을 따른 레인징 템플레이트 이동의 함수로서 수식(6)을 사용하는 상관의 프로파일이다. 레인징 템플레이트(30)는 변위 δ= 3을 가지므로, 최대 상관은 6유니트의 폭을 갖는다. 본 발명이 사용되게 될 산업 환경에서의 실제 대상물의 불규칙하고 약간 번진 엣지는 0의 상관으로 되도록 최대 상관으로부터 서서히 감소하는 결과로 된다.
도 4B를 참조하면, 다른 레인징 템플레이트(30')가 변위 δ= 1 유니트를 선택함으로써 생성된다. 얻어진 레인징 템플레이트(30')는 템플레이트가 1유니트 이하의 대상물(20)의 중심으로부터 벗어나는 경우에만, 화상(22)중의 대상물(20)을 검출할 수 있다. 따라서, 대상물(20)은 입력 화상(22)중의 모든 위치를 탐색함으로서 찾아 낼 수 있다. 그러나, 대상물(20)의 중심은 1유니트의 정확성으로 찾아 낼 수 있다. 도 4C는 수평 방향 x축을 따라 δ= 1인 레인징 템플레이트(30')을 이동시키는데 수식(6)을 사용하는 상관의 프로파일이다. 산업 환경에서의 화상들에 대해 상관의 프로파일은 상관의 피크에 대하여 역포물선과 거의 같게 된다. 가장 잘 맞는 포물선의 수학적 중심이 화소의 사이즈보다도 상당히 작은 정확성을 유도할 수 있다.
도 4A 및 도 4C에 나타낸 프로파일은 공식(6)에서의 벡터 상관의 공식이, 정규화 상관 방법에 따라 변화할 수 있는 것을 나타내고 있다. 본 발명의 정규화 공식은
이다. 화상(22)중의 화소를 나타내는 각 좌표점의 조도에 임의의 정수를 곱하고, 다른 임의의 정수가 화소를 나타내는 각 좌표점의 값에 가산되면, 상관 corr(x,y)의 결과는 변화하지 않는 것은 당해 기술분야의 기술자에는 용이하게 입증할 수 있다. 따라서, 정규화 상관의 공식은 조명 레벨 및 콘트라스트에 종속하지 않는 상관 값을 생성한다. 뿐만 아니라, 상관 값은 완전 상관의 1이하에서, 질이 나쁜 상관의 0이상으로 된다.
본 발명 시스템의 동적 처리는 도 5의 플로우차트에 나타낸다. 여기서, 화상(22)중에 위치하는 대상물(20)의 수평 및 수직방향의 최소 길이는 16유니트 정도 인 것으로 가정한다. 변위 δ는 전술한 이유로, 16유니트의 절반인 8유니트의 최대치가 설정된다. 최초로, 대상물(20)은 회전하지 않는다고 가정된다. 따라서,θ Ti의 값은 0과 같게 된다. 그러나, 회전 △θ T의 가능한 범위의 양의 변화는, 후에 사용되는 소정치로 설정된다. 예시를 목적으로, 여기서는 8로 설정된다. 그런 다음, 위치(52)에서 파시블 템플레이트(24')가 매뉴얼 조작으로 결정된다. 이 메뉴얼 템플레이트는 전술한 바와 같이 위치(54)에 있어서 간략화 된 벡터 표기를 사용하여 추상 템플레이트(28')으로 변환된다. 이어서, 벡터 표기 형태의 추상 템플레이트(28')는 위치(56)에서 레인징 템플레이트(30")로 변환된다. 위치(58)에서 레인징 템플레이트(30")은 화상(22) 범위 내에서 새로운 위치로 이동된다. 레인징 템플레이트(30")의 사이즈는 8유니트 값을 취하는 δ의 사용을 포함하기 때문에, 레인징 템플레이트는 16×16 탐색 그리드 내에서 화상 상에서 움직여 위치(60)에서 새로운 위치에서 정규화 상관이 계산된다. 새로운 위치의 각각에 있어서 정규화 벡터 상관이 계산되면, 위치(62)에서 그의 값이 미리 설정된 임계치와 비교된다. 여기서는 그의 값은 0.5로 설정되어 있다. 이 값이 0.5보다 작은 경우에는, 위치(64)에 나타난 바와 같이, 모든 화상 위치가 시도되지 않는 한, 레인징 템플레이트(30")는 화상(22) 범위 내에서 새로운 탐색 위치로 이동된다.
모든 화상 위치들은 시도되고, 접수 가능한 최소 임계치가 도달하지 않는 경우에는 대상물(20)이 화상(22)중에 있지 않으며, 위치(65)에 있어서 정확히 대상물이 탐색되지 않는 것을 시스템이 응답하는 것도 가능하다. 그러나, 시스템이 대상물을 찾지 못할지라도 대상물이 실제로 존재하는 것이 확증될 수 있는 경우에는 점선 화살표(66), (68), 및 (70)에 의해 나타난 바와 같이 3개의 선택중 하나가 가능하다. 전형적으로, 위치(56)에서 변위 δ의 더 큰 값을 선택된다. 또한, 위치(54)에서 메뉴얼 템플레이트(24)를 추상 템플레이트(28')로 변환하여 다수의 벡터를 사용하여도 좋다. 또한, 위치(52)에서 다른 메뉴얼 템플레이트(24)를 매뉴얼 조작으로 선택하여도 좋다. 그런 다음, 위치(62)에서의 임계치가 만족할 때까지 정규화된 벡터 표기가 화상(22)중의 다른 위치의 각각에서 다시 계산된다.
위치(62)에서 정규화 상관의 최소 임계치가 만족하면, 화상(22)중의 대상물(20)의 좌표 위치에 가장 잘 대응하여 구하여진 상관의 화상(22)범위에서의 레인징 템플레이트(30")의 위치 xm, ym는 위치(74)에 보존된다. 그리하여 위치(76)에서 변위 δ는 절반으로 삭감되고, 대상물(20)의 회전 가능한 범위 △θ T를 절반으로 삭감한다. 따라서, 위에 제공된 정보를 사용하면, δ와 △θ T는 모두 4로 된다.θ Ti가 0 일 때, 대상물(20)의 회전각도에 대응하는θ T의 값은 -4로 된다. 이들 새로운 값을 사용하여, 위치(78)에서는 2차원 공간에서 회전 좌표점을 회전하기 위한 표준 공식에 추상 템플레이트(28')가 새로운 추상 템플레이트(28')로 변환된다.
추상 템플레이트에서의 엣지 방향들의 각들도 또한 회전한다. 그리고, 도 5의 플로우차트의 위치(80)에 나타난 바와 같이, 새로운 추상 템플레이트(28")는 새로운 레인징 템플레이트(30''')으로 변환된다. 레인징 템플레이트(30")에 대한 16×16의 최초 그리드 사이드와 다르고, 레인징 템플레이트(30''')을 위한 그리드 사이즈는 절반, 즉, 8×8이다. 플로우차트의 위치(82)에 나타난 바와 같이, 최초로 기억된 위치 xm,ym의 주위에서 다른 위치로 레인징 템플레이트(30''')를 이동시킴으로써 최대 정규화 관계는 기억되는 최대 정규화 상관에 대응하는 최량의 위치를 이용한 xm,ym의 보다 정확한 명시와θ T의 값을 결정할 수 있다. 위치(84)에 도시된 바와 같이, 다음에, 직전의θ T값을 취득하고, 위치(76)에서 결정한θ T의 최종 값을 가산함으로서 △θ T를 재계산된다. 플로우차트의 위치(86)에서θ Tθ Ti+ △θ Ti가 만족되는 한, 위치(78), (80), (82), (84)의 스텝이 반복된다. 따라서, 여기서는 최대 상관값이 3개의θ T의 값, -4, 0, 및 +4에 대응하는 3개의 다른 화상(22)중의 레인징 템플레이트 위치 xm,ym용으로 보존된다. 위치(88)에서는 보존된 값중에서 최대 상관 δ=4를 부여하는θ T가결정되며, 레인징 템플레이트(30''')에 의한 대상물(20)의 대응하는 위치가 결정되어 위치(74)에 xm,ym,θ Ti로 보존된다. 변위 δ= 4인 레인징 템플레이트(30''')의 강도가 가장 강한 상관의 위치 및 각은 더 작은 변위 δ= 2 유니트를 갖는 레인징 템플레이트(30''')를 사용한 새로운 탐색을 위한 개시 포인트로 된다. 직전에 최적의 각으로부터θ T= -2°,0°+2°가 보다 더 근사한 그의 회전θ T및 위치 xm,ym를 탐색하기 위하여 사용된다.
더 작은 변위와 각도가 추상 템플레이트(28)로부터 새로운 레인징 템플레이트를 산출하는데 사용되며, 변위 δ가 소정의 최소치로 될 때까지 똑같은 방법에 의하여 관련 패턴의 탐색이 계속된다. 플로우차트의 위치(90)로 나타난 값은 1이다. 변위가 1로 되면, 본 발명의 시스템은 위치(92)에 나타난 바와 같이, 적절한회전각도θ T에 대응하는 화상(22)중의 대상물(20)의 좌표 위치 xm,ym을 결정하는 것을 중지한다. 당해 기술분야에 숙련된 사람은 다차원 공간에 함수의 최대치를 위치시키는 방법도 상기 방법의 일부와 유사함을 알 수 있을 것이다. 다차원 공간에서의 구배법은 1986년판 캠브리지 대학 출판사의 W. Press, B Flannery, S.Teukolsky 및 W.Vetterling에 의한 "Numerical Recipes the Alt of Scientific Computing"의 제 10장에 기술한 바와 같이 인용하여 구체화한다.
발명의 개요
본 발명은 화상 중에서 대상물들을 자동으로 위치시키는 시스템에 관한 것이다. 화상은 각각 알려진 휘도값과 알려진 좌표점을 갖는 복수의 화상 화소들에 의해 정의된다. 본 발명은 하나의 처리에 결합된 엣지 검출과 패턴 탐색의 조합을 사용하여 계산의 복잡성이 한정된 범위에서 대단히 유연성을 제공한다. 첫 번째로, 대상물의 측정규모에 대응하는 메뉴얼 템플레이트가 결정된다. 이 메뉴얼 템플레이트는 좌표점과 대응하는 엣지 방향의 집합으로 이루어진 벡터의 산재적인 집합으로 구성되는 추상 템플레이트로 변환된다. 각 좌표점은 메뉴얼 템플레이트의 엣지 상에 있으며, 대응하는 엣지 방향은 그의 좌표점에서의 엣지에 수직으로 좌표점을 관통한다. 다음으로, 상기 추상 템플레이트는 레인징 템플레이트로 변환된다. 레인징 템플레이트는 대응하는 엣지 방향을 따라 추상 템플레이트의 각 벡터의 좌표점으로부터 동일 간격으로 배치되도록 정의된 좌표점의 쌍으로 구성된다. 양의 좌표점은 미리 선택된 변위의 양의 값에 대응하며, 음의 좌표점은 동일한 변위의 음의 값에 대응한다.
레인징 템플레이트는 화상의 범위 내에서 알려진 복수의 좌표점 위치의 각각에 변위된다. 각 위치에서 레인징 템플레이트는 화상과 상관된다. 상관이 향상하고, 화상의 범위 내에서 대상물 위치의 측정이 보다 정확하게 되도록 다른 추상 및 레인징 템플레이트가 동적으로 재구성되며, 회전된다. 벡터 상관의 이점은 유지되나, 엣지 검출이 삭감되고 제한된 수만의 좌표점만이 필요로 되기 때문에, 계산의 부하가 감소된다. 엣지 검출된 화상은 기억되지 않기 때문에, 계산에 요구되는 메모리 장치가 적게 된다.
1개의 처리로 엣지 검출과 패턴 탐색을 사용함으로써, 대단한 유연성을 부여함과 동시에 복잡한 컴퓨터 조작의 필요성이 삭감된다. 따라서, 간략화 된 벡터 표기를 갖는 추상 템플레이트(28)를 사용함으로써 해상도가 증가한 화상(22) 주위에서 다른 위치들로 이동될 수 있는 넓은 범위의 서로 다른 레인징 템플레이트(30)를 동적으로 변화시켜 생성시킬 수 있다는 이점이 있다. 화상(22) 중의 대상물(20)의 위치 xm,ym및 회전각도θ T를 각 좌표위치나 최초로 매뉴얼 조작으로 결정된 템플레이트(24)의 엣지(26)를 포함하는 각 점에 대응하는 휘도를 기억하지 않고, 소망의 정확성으로 고속으로 위치를 맞출 수 있다.
바람직하게는, 본 발명의 시스템은 당해 분야의 기술자에게 공지의 표준적인 컴퓨터 하드웨어 및 소프트웨어를 사용하여 수행할 수 있다. 화상(22)의 대상물(20)은 음극선관(CRT)으로 구성되는 통상의 스크린 상에 표시되도록 할 수도 있다. 이 시스템은, 이들에 한정되지는 않으나, 자기 디스크와 테이프, 광 드라이브, 콤팩트디스크 드라이브와 종이를 포함하는 각종 기억매체에 의해 소프트웨어로서 기억되어도 좋다.
본 발명의 바람직한 실시의 형태를 개시하였다. 그러나, 당해 기술분야에서 통상의 지식을 가진 자는 어느 정도의 변형이 이 발명의 교시의 범위에 포함되는 것을 이해할 수 있다. 따라서, 다음의 청구항들이 본 발명의 본래의 범위와 내용을 결정하기 위하여 검토되어야 한다.

Claims (19)

  1. 자동 화상처리 시스템에 사용되며, 각각 알려진 휘도값과 기지의 알려진 좌표점을 갖는 복수의 화상 화소들로 정의되는 화상의 범위 내에서 대상물의 위치를 위치시키는 방법에 있어서,
    대상물의 평가에 대응하는 템플레이트를 매뉴얼 조작으로 결정하고,
    상기 템플레이트를 추상 템플레이트로 변환하고,
    상기 추상 템플레이트를 레인징 템플레이트로 전환하고,
    상기 레인징 템플레이트를 상기 화상 범위내에서 복수의 알려진 좌표점 위치로 변위시키고,
    상기 레인징 템플레이트를 상기 각 위치에서 상기 화상과 상관시키고,
    미리 예정된 임계치에 도달한 상기 상관에 대응하는 위치를 보존하는
    스텝을 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  2. 제 1항에 있어서, 상기 변환 스텝은 각각 상기 템플레이트의 엣지 상의 좌표점에 존재하는 좌표점과 상기 좌표점에서 상기 좌표점상의 엣지를 수직으로 통과하는 대응하는 엣지 방향의 집합으로 이루어진 다수의 벡터들을 사용하여 추상 템플레이트를 정의하는 스텝을 추가로 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  3. 제 2항에 있어서, 상기 템플레이트의 범위에 실질적으로 수직인 방향 및 실질적으로 수평인 방향을 따라 동일한 수의 벡터를 사용하는 스텝을 추가로 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  4. 제 3항에 있어서,
    상기 벡터들의 상기 수를 최소화하고,
    인접한 엣지 사이에 충분히 큰 각도차가 있는 임계치의 결정을 조건으로서 템플레이트의 엣지의 각각에 적어도 하나의 벡터를 선택하는 스텝을 추가로 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  5. 제 2항에 있어서, 상기 전환 스텝은
    상기 벡터의 상기 좌표점들로부터 정의되며, 대응하는 엣지 방향을 따라 연장시키는 변위를 결정하고,
    상기 추상 템플레이트의 각 벡터에 대하여, 상기 대응하는 엣지 방향을 따라 벡터의 좌표점으로부터 각각 동일 간격으로 존재하는 상기 변위의 양의 값에 대응하는 양의 좌표점과 변위의 음의 값에 대응하는 음의 좌표점으로 이루어진 좌표점의 집합을 위치시키는
    스텝을 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  6. 제 5항에 있어서, 상기 레인징 템플레이트의 상기 좌표점들중 각각에 가중치를 할당하여, 상기 음의 좌표점에는 음의 가중치가 할당되고 상기 양의 좌표점에는 양의 가중치가 할당하는 스텝을 추가로 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  7. 제 5항에 있어서, 상기 변위는 상기 벡터를 갖는 상기 템플레이트의 엣지의 최소 사이즈의 절반 이하임을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  8. 제 5항에 있어서,
    A. 상기 변위를 절반으로 삭감하고,
    B. 개정된 레인징 템플레이트를 전환하고,
    C. 상기 보존 스텝에 대응하는 위치에서 둘러싸여진 복수의 위치에서 최대 상관을 탐색하고,
    D. 상기 변위가 최소치에 같아질 때까지 스텝 A에서 스텝 C를 계속하는 스텝을 추가로 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  9. 제 5항에 있어서,
    A. 초기 회전각도에서 회전범위에 뺀 것과 같은 회전각도를 설정하고,
    B. 상기 추상 템플레이트로부터 개정된 추상 템플레이트를 취득하고,
    C. 상기 개정된 추상 템플레이트로부터 개정된 레인징 템플레이트를 취득하고,
    D. 상기 개정된 레인징 템플레이트를 상기 화상중의 알려진 복수의 좌표점 위치의 각각으로 치환하고,
    E. 상기 알려진 좌표점 위치의 각각에 대응하는 최대 상관을 탐색하고,
    F. 상기 스텝 E로부터의 위치와 대응하는 회전각도를 보존하고,
    G. 상기 회전각도에 상기 회전범위를 가산함으로써 새로운 회전각도를 계산하는
    스텝을 추가로 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  10. 제 9항에 있어서,
    H. 상기 새로운 회전각도가 상기 초기 회전각도에 상기 회전범위를 가산한 것보다도 크게 될 때까지 스텝 B에서 스텝 G를 반복하고,
    I. 최대 상관을 부여하고, 상기 회전각도를 상기 초기 회전각도로 바꿈으로써 상기 위치와 상기 회전각도를 스텝 F로부터 선택하고,
    K. 상기 변위와 상기 회전 범위를 각각 절반으로 삭감하고,
    L. 상기 변위가 최소 임계치로 될 때까지 스텝 A로부터 스텝 K를 반복하는
    스텝을 추가로 포함하는 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 방법.
  11. 각각 알려진 휘도값과 알려진 좌표점을 갖는 복수의 화소로 정의되는 화상의 범위 내에서 대상물의 위치를 위치시키는 장치에 있어서,
    대상물의 평가에 대응하는 템플레이트를 결정하는 수단;
    상기 템플레이트를 추상 템플레이트로 변환하는 수단;
    상기 추상 템플레이트를 레인징 템플레이트로 변환하는 수단;
    상기 레인징 템플레이트를 상기 화상 범위내에서 복수의 알려진 좌표점 위치로 변위시키는 수단;
    상기 레인징 템플레이트를 상기 위치의 각각에서 상기 화상과 상관시키는 수단; 및
    미리 정해진 임계치에 도달한 상기 상관에 대응하는 위치를 보존하는 수단을 구비한 것을 특징으로 하는 화상내에 대상물의 위치를 위치시키는 장치.
  12. 제 11항에 있어서, 각각 상기 템플레이트의 엣지 상의 좌표점에 존재하는 좌표점과 전기 좌표점에서 상기 좌표점 상의 엣지를 수직으로 통과하는 대응하는 엣지 방향의 집합으로 이루어진 다수의 벡터를 사용하여 추상 템플레이트를 정의하는 수단을 추가로 구비한 것을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 장치.
  13. 제 12항에 있어서, 상기 전환 수단은
    상기 벡터들의 상기 좌표점들로부터 정의되며, 대응하는 엣지방향을 따라 연장되는 변위를 결정하는 수단;
    상기 추상 템플레이트의 각 벡터에 대하여, 상기 대응하는 엣지 방향을 따라 상기 좌표점에서 각가 동일 간격으로 존재하는 상기 변위의 양의 값에 대응하는 양의 좌표점과 상기 변위의 음의 값에 대응하는 음의 좌표점으로 이루어진 좌표점의 집합을 위치시키는 수단
    을 추가로 구비함을 특징으로 하는 화상 범위내에서 대상물의 위치를 위치시키는 장치.
  14. 각각 알려진 휘도값과 알려진 좌표점을 갖는 복수의 화소에 의해 정의되는 화상의 범위내에서 대상물의 위치를 위치시키기 위한 처리 시스템을 실행하는 것이 가능한 소프트웨어를 포함하는 기억 매체에 있어서,
    대상물의 평가에 대응하는 템플레이트를 매뉴얼 조작으로 결정하고,
    상기 템플레이트를 추상 템플레이트로 변환하고,
    상기 추상 템플레이트를 레인징 템플레이트로 전환하고,
    상기 레인징 템플레이트를 상기 화상의 범위내에서 복수의 알려진 좌표점 위치로 변위시키고,
    상기 레인징 템플레이트를 상기 각 위치에서 상기 화상과 상관시키고,
    미리 정의된 임계치에 도달한 상기 상관에 대응하는 최대 상관을 위치시키는 스텝으로 이루어진 것을 특징으로 하는 소프트웨어를 포함하는 기억 매체.
  15. 제 14항에 있어서, 상기 전환 스텝은 각각 상기 템플레이트의 엣지 상의 좌표점에 존재하는 좌표점을 상기 좌표점에서 상기 좌표점 상의 엣지를 수직으로 통과하는 대응하는 엣지 방향의 집합으로 이루어진 다수의 벡터를 사용하여 추상 템플레이트를 정의하는
    스텝을 추가로 포함하는 것을 특징으로 하는 저장매체.
  16. 제15항에 있어서, 상기 전환 단계는
    상기 벡터들의 상기 좌표점으로부터 정의되며, 대응하는 엣지 방향으로 연장되는 변위를 결정하고,
    상기 추상 템플레이트의 각 벡터에 대해, 상기 대응하는 엣지 방향을 따라 상기 벡터의 좌표점으로부터 각각 동일 간격으로 존재하는 상기 변위의 양의 값에 대응하는 양의 좌표점과 상기 변위의 음의 값에 대응하는 음의 좌표점으로 이루어진 좌표점을 위치시키는
    스텝을 포함하는 것을 특징으로 하는 기억매체.
  17. 제 16항에 있어서,
    A. 상기 변위를 절반으로 삭감하고,
    B. 개정된 레인징 템플레이트로 전환하고,
    C. 상기 보존 스텝에 대응하는 위치에서 둘러싼 복수의 위치에서 최대 상관을 탐색하고,
    D. 상기 변위가 최소치와 같아질 때까지 스텝 A에서 C를 계속하는
    처리 스텝을 추가로 포함하는 것을 특징으로 하는 기억매체.
  18. 제16항에 있어서,
    A. 초기 회전각으로부터 회전 범위를 뺀 것과 같은 회전각도를 설정하고,
    B. 상기 추상 템플레이트로부터 개정된 추상 템플레이트를 취득하고,
    C. 상기 개정된 추상 템플레이트로부터 개정된 레인징 템플레이트를 취득하는 스텝;
    D. 상기 개정된 레인징 템플레이트를 상기 화상중의 복수의 알려진 좌표점 위치의 각각으로 치환하고,
    E. 상기 알려진 좌표점 위치의 각각에 대응하는 최대 상관을 탐색하고,
    F. 스텝 E로부터의 위치와 대응하는 회전각도를 보존하고,
    G. 상기 회전각도에 상기 회전 범위를 가산함으로써 새로운 회전각도를 계산하는
    처리 스텝을 추가로 포함하는 것을 특징으로 하는 기억매체.
  19. 제 18항에 있어서,
    H. 상기 새로운 회전각도가 상기 초기 회전각도에 상기 회전 범위를 가산한 것보다도 커질 때까지 스텝 B로부터 스텝 G를 반복하고,
    I. 최대 상관을 부여하여 상기 회전각도를 초기 회전각도로 바꿈으로써 상기 위치와 상기 회전각도를 스텝 F로부터 선택하고,
    K. 상기 변위와 상기 회전 범위를 절반으로 삭감하고,
    L. 상기 변위가 최소 임계치로 될 때까지 스텝 A로부터 스텝 K를 반복하는 처리 스텝을 추가로 포함하는 것을 특징으로 하는 기억매체.
KR10-1998-0703590A 1995-11-13 1996-11-05 화상중의패턴을자동으로위치시키기위한벡터상관시스템 KR100367303B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/556,367 US6023530A (en) 1995-11-13 1995-11-13 Vector correlation system for automatically locating patterns in an image
US8/556,367 1995-11-13
US08/556,367 1995-11-13

Publications (2)

Publication Number Publication Date
KR19990067567A KR19990067567A (ko) 1999-08-25
KR100367303B1 true KR100367303B1 (ko) 2003-04-11

Family

ID=24221057

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0703590A KR100367303B1 (ko) 1995-11-13 1996-11-05 화상중의패턴을자동으로위치시키기위한벡터상관시스템

Country Status (6)

Country Link
US (2) US6023530A (ko)
EP (1) EP0864134B1 (ko)
JP (2) JP3942193B2 (ko)
KR (1) KR100367303B1 (ko)
DE (1) DE69623642T2 (ko)
WO (1) WO1997018524A2 (ko)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6023530A (en) * 1995-11-13 2000-02-08 Applied Intelligent Systems, Inc. Vector correlation system for automatically locating patterns in an image
JP3506200B2 (ja) * 1997-02-05 2004-03-15 シャープ株式会社 位置合わせ装置
US6252986B1 (en) * 1998-04-03 2001-06-26 Cognex Corporation Locating an image of an object having a concentric profile
JP3606430B2 (ja) * 1998-04-14 2005-01-05 松下電器産業株式会社 画像整合性判定装置
US6201527B1 (en) * 1998-06-25 2001-03-13 Textronix, Inc. Technique for displaying enveloped waveform
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US7620527B1 (en) 1999-05-10 2009-11-17 Johan Leo Alfons Gielis Method and apparatus for synthesizing and analyzing patterns utilizing novel “super-formula” operator
US6501857B1 (en) * 1999-07-20 2002-12-31 Craig Gotsman Method and system for detecting and classifying objects in an image
US6546122B1 (en) * 1999-07-29 2003-04-08 Veridicom, Inc. Method for combining fingerprint templates representing various sensed areas of a fingerprint to derive one fingerprint template representing the fingerprint
US6766058B1 (en) * 1999-08-04 2004-07-20 Electro Scientific Industries Pattern recognition using multiple templates
US6868175B1 (en) * 1999-08-26 2005-03-15 Nanogeometry Research Pattern inspection apparatus, pattern inspection method, and recording medium
US7796801B2 (en) * 1999-08-26 2010-09-14 Nanogeometry Research Inc. Pattern inspection apparatus and method
US7817844B2 (en) * 1999-08-26 2010-10-19 Nanogeometry Research Inc. Pattern inspection apparatus and method
JP2001092972A (ja) * 1999-09-24 2001-04-06 Mamoru Minami 画像認識方法
US7003403B1 (en) 2000-06-15 2006-02-21 The United States Of America As Represented By The Department Of Health And Human Services Quantifying gene relatedness via nonlinear prediction of gene
US7058221B1 (en) * 2000-07-07 2006-06-06 Tani Electronics Industry Co., Ltd. Method of recognizing object based on pattern matching and medium for recording computer program having same
US6683984B1 (en) * 2000-07-31 2004-01-27 Hewlett-Packard Development Company, L.P. Digital imaging device with background training
US7203367B2 (en) 2000-08-29 2007-04-10 Imageid Ltd. Indexing, storage and retrieval of digital images
US7062093B2 (en) * 2000-09-27 2006-06-13 Mvtech Software Gmbh System and method for object recognition
ATE292307T1 (de) * 2000-09-27 2005-04-15 Mvtec Software Gmbh System und verfahren zur objekterkennung
US7274372B1 (en) * 2000-11-06 2007-09-25 Intel Corporation Real-time digital three dimensional engraving
US6766042B2 (en) 2001-04-26 2004-07-20 Memphis Eye & Contact Associates System to automatically detect eye corneal striae
US6845178B1 (en) * 2001-06-27 2005-01-18 Electro Scientific Industries, Inc. Automatic separation of subject pixels using segmentation based on multiple planes of measurement data
US6959112B1 (en) * 2001-06-29 2005-10-25 Cognex Technology And Investment Corporation Method for finding a pattern which may fall partially outside an image
US7034963B2 (en) * 2001-07-11 2006-04-25 Applied Materials, Inc. Method for adjusting edges of grayscale pixel-map images
US7420710B2 (en) * 2001-07-11 2008-09-02 Applied Materials, Inc. Optical proximity correction in raster scan printing based on grayscale manipulation of the bitmap
US6801245B2 (en) 2002-01-18 2004-10-05 Imageid Ltd. Method for automatic identification and data capture
WO2004057439A2 (en) * 2002-05-31 2004-07-08 University Of Utah Research Foundation System and method for visual annotation and knowledge representation
US7190834B2 (en) * 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
GB2414616A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Comparing test image with a set of reference images
US7349567B2 (en) * 2004-03-05 2008-03-25 Electro Scientific Industries, Inc. Method and apparatus for determining angular pose of an object
US7407252B2 (en) * 2004-07-01 2008-08-05 Applied Materials, Inc. Area based optical proximity correction in raster scan printing
US7529421B2 (en) 2004-07-01 2009-05-05 Applied Materials, Inc. Optical proximity correction in raster scan printing based on corner matching templates
US7423280B2 (en) * 2004-08-09 2008-09-09 Quad/Tech, Inc. Web inspection module including contact image sensors
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
JP4736121B2 (ja) * 2005-11-21 2011-07-27 富士ゼロックス株式会社 画像解析装置、画像処理装置、画像解析方法、画像解析プログラム及びこれを記録した記録媒体
US7715620B2 (en) * 2006-01-27 2010-05-11 Lockheed Martin Corporation Color form dropout using dynamic geometric solid thresholding
US20070219810A1 (en) * 2006-03-17 2007-09-20 Moore Barrett H Personal profile-based private civil security subscription method
EP1914667A3 (en) * 2006-03-24 2008-05-07 MVTec Software GmbH System and methods for automatic parameter determination in machine vision
US7589310B2 (en) * 2006-06-05 2009-09-15 Blaise Laurent Mouttet Image correlation sensor
JP4943304B2 (ja) 2006-12-05 2012-05-30 株式会社 Ngr パターン検査装置および方法
US8019164B2 (en) * 2007-01-29 2011-09-13 Hitachi High-Technologies Corporation Apparatus, method and program product for matching with a template
US7978906B2 (en) * 2007-06-14 2011-07-12 Microsoft Corporation Capturing long-range correlations in patch models
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
US8150140B2 (en) * 2008-12-22 2012-04-03 Ngr Inc. System and method for a semiconductor lithographic process control using statistical information in defect identification
JP5429869B2 (ja) * 2008-12-22 2014-02-26 株式会社 Ngr パターン検査装置および方法
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
US9076195B2 (en) * 2013-08-29 2015-07-07 The Boeing Company Methods and apparatus to identify components from images of the components
US9569667B1 (en) * 2015-05-04 2017-02-14 Exelis Inc Cloud resilient algorithm for coastline registration
JP6682832B2 (ja) * 2015-12-03 2020-04-15 株式会社リコー 光電変換素子、画像読取装置、画像形成装置及び画像読取方法
KR102550451B1 (ko) * 2019-04-04 2023-06-30 캠브리콘 테크놀로지스 코퍼레이션 리미티드 데이터 처리방법과 장치 및 관련 제품
US11527329B2 (en) 2020-07-28 2022-12-13 Xifin, Inc. Automatically determining a medical recommendation for a patient based on multiple medical images from multiple different medical imaging modalities

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5317652A (en) * 1991-06-05 1994-05-31 Phoenix Imaging Rotation and position invariant optical character recognition
US5479537A (en) * 1991-05-13 1995-12-26 Nikon Corporation Image processing method and apparatus

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5839357B2 (ja) * 1976-01-26 1983-08-29 株式会社日立製作所 パタ−ンの位置検出方法
US4736437A (en) * 1982-11-22 1988-04-05 View Engineering, Inc. High speed pattern recognizer
DE3486194T2 (de) * 1983-06-03 1993-11-18 Fondazione Pro Juventute Don C Modular ausbaufähiges System zur Echtzeit-Verarbeitung einer TV-Anzeige, besonders brauchbar zur Koordinatenerfassung von Objekten von bekannter Form und Verfahren zur Benutzung dieses Systems bei Röntgenaufnahmen.
SE8500799L (sv) * 1984-02-21 1985-08-22 Komatsu Mfg Co Ltd Sett att identifiera foremal
US4648119A (en) * 1985-03-18 1987-03-03 Tektronix, Inc. Method and apparatus for forming 3×3 pixel arrays and for performing programmable pattern contingent modifications of those arrays
US4864629A (en) * 1985-12-31 1989-09-05 Schlumberger Technologies, Inc. Image correlation system
US5046109A (en) * 1986-03-12 1991-09-03 Nikon Corporation Pattern inspection apparatus
US4969202A (en) * 1988-03-31 1990-11-06 Honeywell Inc. Image recognition edge detection method and system
US5054095A (en) * 1988-08-23 1991-10-01 U.S. Philips Corp. Method of recognizing a pattern in a field having a multi-valent amplitude, and device for performing such a method
US5173949A (en) * 1988-08-29 1992-12-22 Raytheon Company Confirmed boundary pattern matching
JPH0762606B2 (ja) * 1988-12-09 1995-07-05 松下電器産業株式会社 パターン位置認識装置
JPH02306386A (ja) * 1989-05-20 1990-12-19 Toshiba Corp 文字認識装置
JPH05189571A (ja) * 1992-01-13 1993-07-30 Nikon Corp パターンマッチング方法及び装置
US5548665A (en) * 1992-09-09 1996-08-20 Matsushita Electric Industrial Co., Ltd. Vector correlation detecting circuit
JPH06282652A (ja) * 1993-03-29 1994-10-07 Olympus Optical Co Ltd 画像の輪郭抽出装置
JP3706646B2 (ja) * 1993-10-22 2005-10-12 キヤノン株式会社 Ocrの制御方法並びに分類方法及び装置
US5600733A (en) * 1993-11-01 1997-02-04 Kulicke And Soffa Investments, Inc Method for locating eye points on objects subject to size variations
JP2981382B2 (ja) * 1993-11-25 1999-11-22 松下電工株式会社 パターンマッチング方法
US5500906A (en) * 1994-01-14 1996-03-19 Cognex Corporation Locating curvilinear objects using feathered fiducials
US5754677A (en) * 1994-10-25 1998-05-19 Fuji Machine Mfg. Co., Ltd. Image processing apparatus
US6023530A (en) * 1995-11-13 2000-02-08 Applied Intelligent Systems, Inc. Vector correlation system for automatically locating patterns in an image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5479537A (en) * 1991-05-13 1995-12-26 Nikon Corporation Image processing method and apparatus
US5317652A (en) * 1991-06-05 1994-05-31 Phoenix Imaging Rotation and position invariant optical character recognition

Also Published As

Publication number Publication date
KR19990067567A (ko) 1999-08-25
EP0864134A2 (en) 1998-09-16
WO1997018524A2 (en) 1997-05-22
DE69623642T2 (de) 2003-08-21
EP0864134B1 (en) 2002-09-11
DE69623642D1 (de) 2002-10-17
JP2000500594A (ja) 2000-01-18
US6385340B1 (en) 2002-05-07
JP4494427B2 (ja) 2010-06-30
JP3942193B2 (ja) 2007-07-11
US6023530A (en) 2000-02-08
WO1997018524A3 (en) 1997-06-19
EP0864134A4 (en) 1999-08-04
JP2007164816A (ja) 2007-06-28

Similar Documents

Publication Publication Date Title
KR100367303B1 (ko) 화상중의패턴을자동으로위치시키기위한벡터상관시스템
US5577130A (en) Method and apparatus for determining the distance between an image and an object
US5943441A (en) Edge contour tracking from a first edge point
US4361830A (en) Device for displaying feature of contour image
US7471809B2 (en) Method, apparatus, and program for processing stereo image
JP2773818B2 (ja) イメージ自動認識装置及び方法
US6459822B1 (en) Video image stabilization and registration
O'Gorman Subpixel precision of straight-edged shapes for registration and measurement
JP2002516440A (ja) 画像認識および相関システム
WO1997048232A1 (en) Universal device and use thereof for the automatic adjustment of a projector
JP2002517045A (ja) テンプレート・マッチポイントの部分位置を正確に位置決定する方法
Cootes et al. Modelling Object Appearance using The Grey-Level Surface.
JP2024507089A (ja) 画像のコレスポンデンス分析装置およびその分析方法
JP3236362B2 (ja) 皮膚表面に関する画像からの3次元形状の復元に基づく皮膚表面形状の特徴抽出装置
US5022089A (en) Method and apparatus for fast registration using crosshair register marks
US6683977B1 (en) Method of taking three-dimensional measurements of object surfaces
EP0356727A2 (en) Symmetrie-based target position measurement
CN113642397A (zh) 一种基于手机视频的物体长度测量方法
US6243494B1 (en) Template matching in 3 dimensions using correlative auto-predictive search
Crowley A multiresolution representation for shape
KR20050047745A (ko) 에지 검출장치 및 그 검출방법
JPH06168331A (ja) パターンマッチング方法
JPH02141881A (ja) 差分フィールド歪の直接測定用の構成可能な相関窓
Choate Optical and digital processing techniques in a machine vision metrology system
JPH02181881A (ja) 画像の回転をリセットする方法及び装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121207

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20131210

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20141209

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20151207

Year of fee payment: 14

EXPY Expiration of term