KR20010021902A - 선형 센서 화상처리방법 및 장치 - Google Patents

선형 센서 화상처리방법 및 장치 Download PDF

Info

Publication number
KR20010021902A
KR20010021902A KR1020007000466A KR20007000466A KR20010021902A KR 20010021902 A KR20010021902 A KR 20010021902A KR 1020007000466 A KR1020007000466 A KR 1020007000466A KR 20007000466 A KR20007000466 A KR 20007000466A KR 20010021902 A KR20010021902 A KR 20010021902A
Authority
KR
South Korea
Prior art keywords
image
array
images
segment
color
Prior art date
Application number
KR1020007000466A
Other languages
English (en)
Other versions
KR100429081B1 (ko
Inventor
가이브로에르임메가
제프리에드워드밴더쿠이
Original Assignee
가이 임메가
키네틱 사이언시스 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가이 임메가, 키네틱 사이언시스 인코포레이티드 filed Critical 가이 임메가
Publication of KR20010021902A publication Critical patent/KR20010021902A/ko
Application granted granted Critical
Publication of KR100429081B1 publication Critical patent/KR100429081B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/047Detection, control or error compensation of scanning velocity or position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/047Detection, control or error compensation of scanning velocity or position
    • H04N1/0473Detection, control or error compensation of scanning velocity or position in subscanning direction, e.g. picture start or line-to-line synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/12Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/192Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
    • H04N1/193Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/02406Arrangements for positioning elements within a head
    • H04N2201/02439Positioning method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04703Detection of scanning velocity or position using the scanning elements as detectors, e.g. by performing a prescan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04734Detecting at frequent intervals, e.g. once per line for sub-scan control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04743Detection of scanning velocity or position by detecting the image directly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04758Control or error compensation of scanning position or velocity by controlling the position of the scanned image area
    • H04N2201/04767Control or error compensation of scanning position or velocity by controlling the position of the scanned image area by controlling the timing of the signals, e.g. by controlling the frequency o phase of the pixel clock
    • H04N2201/04781Controlling the phase of the signals
    • H04N2201/04786Controlling a start time, e.g. for output of a line of data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04758Control or error compensation of scanning position or velocity by controlling the position of the scanned image area
    • H04N2201/04787Control or error compensation of scanning position or velocity by controlling the position of the scanned image area by changing or controlling the addresses or values of pixels, e.g. in an array, in a memory, by interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04794Varying the control or compensation during the scan, e.g. using continuous feedback or from line to line

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 선형 센서 화상처리장치 및 방법에 관한 것으로, 제1발생시간에서, 대상물이 변하는 속도로 센서를 가로지러 이동할 때, 제1선형 센서 어레이(42)가 대상물(12)의 세그먼트의 제1화상을 생성한다. 화상 및 그 발생시간은 버퍼내에 축적된다. 대상물이 센서를 가로질러 이동함에 따라, 제1센서에 의해 보여진 연속적인 다수의 세그먼트 화상은 그들 각자의 발생시간과 함께 버퍼내에 축적된다. 제1어레이로부터 일정 거리 이격된 제2선형 센서 어레이(44)는, 제2발생시간에서 움직이는 대상물의 다른 세그먼트의 제2화상을 생성한다. 제2화상은 축적된 제1화상과 비교되어 어느 축적된 제1화상이 제2화상과 가장 유사한 지를 결정한다. 그러면, 대상물의 속도(S)가 d/(tj-tm)[예컨대, S∝d/(tj-tm)]의 대략적인 가중함수에 따라 평가될 수 있다. 여기서, tj는 제2화상 중 선택된 하나의 발생시간이고, tm은 선택된 제2화상과 가장 유사한 제1화상의 발생시간이다. 이러한 양식으로 대상물의 속도를 연속적으로 모니터함으로써, 센서를 지나는 대상물의 이동속도에 독립적으로, 그리고 고비용과 큰 용적의 스텝퍼 모터 및 기계적인 이동 엔코더 등의 필요없이, 대상물의 가장 높은 품질의 화상을 함께 형성하는 화상 세그먼트를 선택하고 버퍼내로 이들 화상 세그먼트를 전송한다.

Description

선형 센서 화상처리방법 및 장치{LINEAR SENSOR IMAGING METHOD AND APPARATUS}
팩스기계와 같은 화상처리장치는 공지된 일정한 비율(rate)로 화상을 스캔함으로써 화상을 포착한다. 예컨대, 전형적인 팩스기계에 있어서, 스텝퍼 모터는 일정 비율로 고정된 스캐닝 헤드를 통과하는 화상을 이동시키기 위해 슬롯을 통해 화상을 품은 시트를 잡아당긴다. 소정의 시간에서, 스캐닝 헤드는 스캐닝 헤드에 인접한 화상의 좁은 선형 부분만을 "본다(see)". 스캔 비율이 일정하게 결정되기 때문에, 팩스기계의 제어회로는, 고정된 연속적인 시간간격에서 쉽게 활성화되어 각 간격동안 보여진 화상 부분을 버퍼로 전달할 수 있다. 스캔된 화상의 전체 디지털 표현을 산출하기 위해서, 버퍼는 화상 부분을 축적한다. 상기와 같이 고정된 스캐닝 헤드를 통과하는 화상을 이동시키는 대신, 전형적인 평판 베드 스캐너에서와 같이 화상은 고정된 위치를 유지하고 스텝퍼 모터가 일정 비율로 화상을 통과하는 스캐닝 헤드를 이동시킬 수 있다.
상기된 종래기술의 장치는, 스캔 비율을 높은 정도의 정확성으로 일정하게 유지시키기 위해서, 비교적 고가의 부피가 큰 스텝퍼 모터를 사용한다. 손에 쥐는 스캐너와 같은 몇몇 종내기술의 장치는, 스캐너가 화상이 있는 대상물에 걸처 변하는 속도로 손 동작됨에 따라 스캐닝 프로세스를 동기시키기 위해 롤러와 결합되는 보다 작은 부피의 엔코더를 사용한다. 스캔 비율은 변화됨에도 불구하고, 이는 롤러와 엔코더 사이의 전기 및/또는 기계 결합에 의해 결정될 수 있다. 그러나, 이러한 설비는 스캔된 화상의 고해상도를 달성하기 위해서, 고가의 고정밀 엔코더 및/또는 상당한 기계적인 복잡성을 요구한다.
본 발명은, 고정밀 스텝퍼 모터의 필요없이 그리고 대상의 속도를 기계적으로 측정할 필요없이, 하나 이상의 선형 어레이를 사용하는 이동하는 대상물의 화상을 포착하기 위한 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명은, 하나 이상의 선형 센서 어레이를 통과하는 알려지지 않은 변하거나 일정한 속도로 이동하는 대상물(對象物)의 화상을 저렴하게 포착하기 위한 장치 및 방법에 관한 것이다.
도 1은 단일의 선형 센서 어레이를 갖춘 화상처리장치의 개략적인 사시도,
도 2는 도 1의 장치의 측면도,
도 3은 도 1의 장치의 전자 구성요소를 나타낸 개략적인 블록도,
도 4는 도 1의 장치가 이동하는 대상물의 화상을 형성하는 단계의 시퀀스를 나타낸 플로우차트,
도 5는 이격된 선형 센서 어레이의 쌍을 나타낸 상부 평면도,
도 6은 도 5의 선형 센서 어레이와 통합된 화상처리장치의 측면도,
도 7은 도 5의 선형 센서 어레이를 경유하여 얻어진 선택된 화상 세그먼트로 형성된 합성화상의 저장 버퍼내의 축적을 묘사하는 양식화된 도면,
도 8은 도 6의 장치에 의해 이동하는 대상물의 화상을 형성하는 단계의 시퀀스를 나타낸 플로우차트,
도 9는 도 6의 장치가 이동하는 대상물의 화상을 형성하는 단계의 대안적인 시퀀스를 나타낸 플로우차트,
도 10은 3개의 이격된 선형 센서 어레이의 상부 평면도,
도 11은 도 10의 선형 센서 어레이와 통합된 화상처리장치에 의해 이동하는 대상물의 화상을 형성하는 단계의 시퀀스를 나타낸 플로우차트,
도 12는 4개의 이격된 칼라 필터 선형 센서 어레이의 상부 평면도,
도 13은 도 12의 선형 센서 어레이와 통합된 화상처리장치의 측면도,
도 14는 도 13의 장치에 의해 이동하는 대상물의 칼라 화상을 형성하는 단계의 시퀀스를 나타내는 플로우차트이다.
제1실시예에 있어서, 본 발명은, 대상물이 어레이를 가로로 가로질러 센서에 인접한 세그먼트의 연속적인 위치로 이동됨에 따라 선형 센서 어레이가 연속적으로 대상물의 세그먼트의 화상을 생성하는 화상처리장치를 제공한다. 연속적으로 정돈된 쌍의 세그먼트 화상은 그들 사이의 유사성의 출력신호 표시를 생성하도록 비교된다. 세그먼트 이미지의 쌍 중 하나는, 비교기 출력 신호가 화상의 쌍 사이의 실질적인 유사성의 표시가 아닐때 마다 버퍼내에 축적된다.
다른 실시예에 있어서, 본 발명은, 제1발생시간에서 제1선형 어레이가 제1센서에 인접하게 위치된 대상물의 제1세그먼트의 제1화상을 생성하는 화상처리장치를 제공한다. 제2선형 센서 어레이는 거리 d로 제1어레이로부터 이격된다. 제2발생시간에서, 제2어레이는 제2센서에 인접한 대상물의 제2세그먼트의 제2화상을 생성한다. 버퍼는 제1어레이에 결합된다. 대상물이 제1어레이를 가로질러 이동함에 따라, 연속적인 다수의 제1세그먼트에 대한 제1화상 및 그 발생시간이 버퍼내에 축적된다. 비교기는 버퍼와 제2어레이 사이에 결합된다. 비교기는 제2화상을 선택된 다수의 축적된 제1화상 각각과 비교하여 축적된 제1화상중 어느 것이 제2화상과 가장 유사한지(예컨대, 가장 잘 매치되는지)를 결정한다. 그러면, 대상물의 속도평가기가 대상물의 속도(S)를 d/(tj-tm)[예컨대, S∝d/(tj-tm)]의 대략적인 가중함수에 따라 평가한다. 여기서, tj는 제2화상 중 선택된 하나의 발생시간이고, tm은 선택된 제2화상과 가장 유사한 제1화상의 발생시간이다.
화상처리장치는 고정되거나 변하는 샘플링 비율로 동작될 수 있다. 샘플링 비율이 고정되면, 동일 존속기간의 샘플링 간격동안 세그먼트 화상이 생성된다. "가장 잘 매치된" 스캔 각각의 속도 및 시간 존속기간이 공지되므로, 이러한 스캔 각각의 폭이 쉽게 결정되고, 버퍼가 샘플되어 동일 폭의 화상 "스트립"을 추출할 수 있으므로, 이들이 조합되어 전체 화상을 만들게 된다. 변하는 샘플링 비율이 사용되면, 1/(R*S)와 동일한 존속기간을 갖는 샘플링 간격동안 각 세그먼트 화상이 생성된다. 여기서, R는 최종 화상의 바람직한(고정된) 해상도이다. 스캔 비율이 대상물의 속도와 비례하여 변하기 때문에, 스캐닝 프로세스가 완료됨에 따라 합성화상이 버퍼로부터 직접 읽힐 수 있다.
더욱이, 본 발명의 실시예는 부가적인 센서 어레이와 통합되어 보다 정확하고 확실하게 대상물의 속도를 측정하고, 결과적으로 최종 화상의 해상도를 향상시킨다.
도 1 및 도 2는 단일 선형 센서 어레이(10)와 통합된 본 발명의 제1실시예를 나타낸다. 화상처리되는 대상물(12)은, 공지된 변하거나 일정한 속도로 화살표(14)방향으로 커버플레이트(18)내의 시계영역(16)을 거쳐 이동한다. 센서(10)는 시계영역을 통해 대상물(12)의 좁은 선형 세그먼트를 "보고", 그 세그먼트의 출력신호 표시를 생성한다. 렌즈(20) 또는 그 밖의 수단이 센서(10)에 의해 보여진 대상물 세그먼트를 보는데 도움을 준다.
센서(10)는 1 x n 픽셀 선형 어레이일 수 있다. 커버플레이트(18)는 투명일 수 있고, 이 경우 시계영역(16)은 커버플레이트(18)의 소정의 영역일 수 있다. 한편, 시계영역(16)은 커버플레이트(18)내의 슬롯이나 틈(aperture)일 수도 있다.
도 3에 개략적으로 나타낸 바와 같이, 센서(10)에 의해 생성된 출력신호는 메모리 버퍼(24)내에 출력신호를 저장하는 프로세서(22)로 전송된다. 대상물(12)의 완전한(또는 부분적인) 화상이, 이하 나타낸 바와 같이 버퍼(24)내에 축적될 때 프로세서(22)가 완전한(또는 부분적인) 화상을 26에서 출력한다.
도 1 내지 도 3에 나타낸 장치의 동작이 도 4의 플로우차트에 의해 도시된다. 센서(10)에 의해 생성되는 현재의 신호는 단계 30(예컨대, 센서(10)는 스캔되어 시계영역(16)에 현재 인접한 대상물(12) 세그먼트의 1 x n픽셀 화상을 얻는다)에서 나타낸 바와 같이 프로세서(22)에 의해 수신된다. 단계 32에서 나타낸 바와 같이, 센서(10)에 의해 현재 생성된 신호(전형적으로는, 각 바이트가 센서(10)에서 하나의 픽셀에 대응하는 n바이트의 시리즈로 구성된다)는 프로세서(22)에 의해 이전에 스캔된 버퍼(24)내에 저장된 신호와 비교된다. 비교단계 32가, 단계 34에서, 센서(10)에 의해 생성된 현재 신호가 버퍼내에 저장된 이전에 스캔된 신호와 실질적으로 유사한 것으로 밝히면, 단계 30이 시작됨과 더불어 상기 단계가 반복된다. 그렇지 않고, 비교단계 32가 센서(10)에 의해 생성된 현재신호와 이전에 스캔된 신호 사이가 실질적으로 유사하지 않은 것으로 밝히면, 센서(10)에 의해 현재 생성된 신호는 단계 36에 나타낸 바와 같이 버퍼(24)내에 저장된다. 저장단계 36이 버퍼(24)를 충족시키지 않으면(예컨대, 테스트단계 38의 결과가 부정적이면), 단계 30이 시작됨과 더불어 상기 단계가 반복된다. 그렇지 않고, 저장단계 36이 버퍼(24)를 충족시키면, 버퍼(24)내의 전체 화상을 보냄과 더불어 동작이 단계 40에서 종결된다.
해당 기술분야의 당업자에 있어서는, 화상 스캐닝 동작의 시작 전에 버퍼(24)가 초기에 클리어(clear)되는 것으로 이해 된다. 이는 "이전에 스캔된" 블랭크의 연속인 화상신호의 버퍼(24)내로의 저장에 대응한다. 또한, 단계 34에 의한 현재와 이전에 스캔된 신호 사이의 "실질적인 유사성"의 결정은 이러한 신호로 구성되는 데이터의 본질에 적당하게 변할 수 있는 신호를 비교하는데 사용되는 테스트에 의존하는 것으로 이해된다. 더욱이, 센서(10)에 의해 현재 생성된 신호와 바로 직전에 스캔된 신호와의 비교는 필수적인 것은 아니고, 이전에 스캔된 신호는 버퍼내에 저장될 수 있으며 저장된 신호 중 선택된 하나와 비교된다.
해당 기술분야의 당업자는 화상 스캐닝 프로세스의 개시를 나타내거나 프로세스의 종결을 나타내는 다양한 기술이 사용될 수 있다는 것을 인식한다. 예컨대, 외부적으로 제공되는 트리거신호나, 센서(10)로부터의 출력신호의 초기 검출이나, 소정의 "스캐닝 비개시(非開始)" 신호와 다른 출력신호를 위한 센서(10)의 표시 체크는 단계 30에서의 스캐닝 프로세스의 개시를 나타내기 위해 검출될 수 있는 다양한 상태이다. 프로세서의 종결을 나타내기 위해서(예컨대, 테스트단계 38을 수행하기 위해서), 단계 36의 마지막 실행이 버퍼(24)를 충족시키는지 보거나, 소정의 시간간격이 단계 34동안 "실질적으로 유사하지 않은" 데이터의 검출없이 경과하는 것을 결정하거나, 시계영역(16)을 넘은 대상물(12)의 완전한 통과를 나타내는 외부 트리거신호를 제공하는 것 등을 체크할 수 있다.
도 5는 거리 "d" 이격된 제1 및 제2평행 선형 어레이(42,44)를 갖춘 대안적인 센서를 나타낸다. 어레이(42,44) 각각은 1 x n픽셀 선형 어레이일 수 있다. 도 6의 어레이(42,44)와 통합된 화상처리장치는, 2개의 이격된 평행한 시계 영역(46,48)이 커버플레이트(18)에 제공된 것을 제외하고는 상기 장치와 유사하다. 어레이(44)는 어레이(42)에 의해 보여진 세그먼트와 다른 대상물(12)의 세그먼트를 "본다". 특히, 어레이(44)가 어레이(42) 뒤로 거리 "d" 이격되므로, 어레이(42)는 어레이(44)에 의해 보여진 세그먼트 앞에 거리 "d"로 이격된 대상물(12)의 세그먼트를 본다. 도 7에 나타낸 바와 같이, 어레이(42)가 버퍼(24)내에 저장된 세그먼트를 획득하는데 사용되는 반면, 어레이(44)는 버퍼내에 저장된 이전에 스캔된 세그먼트 중 어느 것이 어레이(44)에 의해 현재 보여진 대상물 세그먼트와 가장 유사한 지를 결정하는데 사용된다.
단순화를 위해서, 도 6은 어레이(42,44)와 같이 동일 거리 "d"로 이격된 시계영역(46,48)을 나타낸다. 그러나, 시계영역 및 어레이가 동일한 이격거리를 반듯이 갖는 것은 아니다. 시계영역과 어레이 사이의 관계는 렌즈(20) 또는 그 밖의 수단에 의해 결정된다. 각 어레이에 의해 "보이는" 시계영역의 위치 및 크기를 결정하기 위해서, 공지된 기술이 쉽게 적용될 수 있다. 이는 2개 이상 이격된 센서 어레이를 채용하는 본 발명의 소정의 실시예에 적용된다.
도 8은 도 6 내지 도 7에 나타낸 고정된 샘플링 비율을 사용하는 화상처리장치를 동작시키는 방법을 나타낸 플로우차트이다. 발생시간(t1, t2, ...tn)을 갖는 고정된 시간 샘플링 간격에서, 각 센서(42,44)에 의해 생성된 신호는 단계 50(예컨대, 시계영역(46,48)에 각각 현재 인접한 대상물(12)의 2개의 세그먼트의 2개의 1 x n픽셀 화상을 얻기 위해 센서(42,44)가 스캔된다)에서 나타낸 바와 같이 수신된다. 각 시간간격동안, 어레이(42)에 의해 생성된 스캔된 화상신호는, 단계 52에 나타낸 바와 같이 신호의 발생시간을 나타내는 신호와 함께, 버퍼(24)내에 저장된다. 단계 54에서, 버퍼(24)내에 저장된 선택된 다수의 이전에 스캔된 신호는 어레이(44)에 의해 생성된 스캔된 화상신호와 비교되어, 어레이(44)에 의해 생성된 스캔된 화상신호와 가장 잘 매치된(예컨대, 가장 유사한) 저장된 신호를 발견한다. 그 다음, 대상물(12)의 속도(S)가 단계 56에서 d/(tj-tm)으로 결정된다. 여기서, tj는 어레이(44)에 의해 생성된 스캔된 화상신호 중 선택된 하나의 발생시간이고, tm은 선택된 어레이(44) 신호와 가장 잘 매치되는 저장된 신호의 발생시간이다(센서 어레이(42,44)가 동시에 스캔되면, tj= ti임을 주지하자). 단계 58에서, 속도정보가 어레이(44)에 의해 생성된 스캔된 화상신호와 가장 잘 매치되는 저장된 신호에 첨부되거나 이와 연관됨으로써, 속도정보가 버퍼(24)에 저장된다. 테스트단계 60에 의해 나타낸 바와 같이, 상기 단계는, 단계 50이 시작됨과 더불어 스캐닝 프로세스가 종료될 때까지 반복된다. 어레이(42,44)가 상기와 같이 이격되기 때문에, 시계영역(48)에 도착하기 전에 시계영역(46)을 거처 대상물(12)이 이동함에 따라 전형적으로 단계 50과 단계 52가 다른 세그먼트에 대해 다수번 반복된다.
스캐닝 프로세스가 완료되면, 단계 62 내지 64에서 버퍼(24)내에 저장된 스캔된 화상신호로부터의 동일 폭의 화상 "스트립"을 연속적으로 추출함으로써, 합성화상이 형성된다. "가장 잘 매치된" 스캔 각각의 속도(S) 및 존속시간이 공지되므로, 이러한 스캔 각각의 폭(wi)은 wi=S*ti로 쉽게 결정될 수 있고, 따라서 버퍼(24)가 그 동일 폭 화상 스트립을 추출하기 위해 쉽게 샘플될 수 있다.
도 9의 플로우차트는 도 6 내지 도 7의 실시간 스캔 비율 제어를 사용하는 화상처리장치의 대안적인 동작방법을 나타낸다. 도 8의 방법이 고정된 샘플링 비율을 사용하는 반면 도 9의 방법이 대상물(12)의 (변하는) 속도(S)에 의해 결정되는 변하는 샘플링 비율과 최종 화상의 바람직한 (고정된) 해상도(R)를 사용하는 것을 제외하고는, 단계 70과, 72, 74 및, 76은 도 8의 단계 50과, 52, 54 및, 56과 각각 동일하다. 따라서, 도 9의 방법에 있어서, 각 샘플링 간격(t1,t2,...tn)은, 단계 76에서 대상물(12)의 현재 속도(S)의 결정 후, 단계 78에서 결정된 변하는 존속기간 Twait=1/(R*S)을 갖는다. 도 9의 방법은 속도의 함수로서 스캔 비율을 표준화하기 때문에, 스캐닝 프로세스가 완료됨에 따라 합성화상이 단계 82에서 버퍼(24)로부터 직접 독출될 수 있는 반면, 이전에 설명한 바와 같이 도 8의 방법은 각 화상 스트립의 폭의 표준화를 요구한다. 따라서, 도 9의 방법이 도 8의 방법 보다 빨리 최종 화상을 처리하는 것을 볼 수 있다. 그러나, 도 9의 방법은 도 8의 방법보다 복잡하다. 예컨대, 도 9의 방법을 신뢰할 수 있게 수행하기 위해서, 빠르고 보다 비싼 버전의 프로세서(22)가 요구될 수도 있다.
다수의 센서 어레이를 증가시킴으로써, 좀더 정확하고 확실하게 대상물(12)의 속도를 측정하고, 결과적으로 최종 화상의 재구성을 향상시킬 수 있다. 예컨대, 도 10은 제1과 제2 및 제3의 평행한 선형 어레이(84,86,88)를 갖춘 센서를 나타낸다. 제1 및 제2 어레이(84,86)는 거리 d12로 이격되고, 제2 및 제3 어레이(86,88)는 거리 d23으로 이격되며, 제1 및 제3어레이(84,88)는 거리 d13=d12+d23로 이격된다. 어레이(84,86,88) 각각은 1 x n픽셀 선형 어레이일 수 있고, 제3시계영역이 제3센서 어레이를 위해 커버플레이트(18)내에 요구되는 것을 제외하고, 도 6에 나타낸 바와 같은 화상처리장치내에 채용될 수 있다. 어레이(84,86,88) 각각은 대상물(12)의 다른 세그먼트를 "본다". 특히, 어레이(86)가 어레이(84)에 의해 보여진 세그먼트의 앞에 거리 d12로 이격된 대상물(12)의 세그먼트를 보는 반면, 어레이(88)는 어레이(86)에 의해 보여진 세그먼트의 앞에 거리 d23로 이격되고 어레이(84)에 의해 보여진 세그먼트의 앞에 거리 d13로 이격된 대상물(12)의 세그먼트를 본다.
도 11은 도 10의 고정된 샘플링 비율을 사용하는 3개의 선형 어레이 센서와 통합된 화상처리장치를 동작시키는 방법을 나타낸다. 도 8의 방법이 도 5의 2개의 선형 어레이 센서의 동작에 적용하는 반면 도 11의 방법이 도 10의 3개의 선형 어레이 센서의 동작에 적용되는 것을 제외하고, 도 11의 방법은 도 8의 방법과 동일하다. 따라서, 단계 90에서, 발생시간(t1, t2,... tn)을 갖는 고정된 시간 샘플링 간격에서 각 센서(84,86,88)에 의해 생성된 신호는 각 샘플시간에서 3개의 센서에 의해 보여진 대상물(12)의 3개의 세그먼트의 1 x n 픽셀 화상으로서 수신된다. 각 시간간격동안, 제1어레이(84)에 의해 생성된 스캔된 화상신호는, 단계 92에서 나타낸 바와 같이 그 신호의 발생시간의 신호 표시와 함께, 버퍼(24)내에 저장된다. 단계 94에서, 버퍼(24)내에 저장된 이전에 스캔된 신호는 제2어레이(86) 및 제3어레이(88) 모두에 의해 생성된 스캔된 화상신호와 비교되어 제1어레이(84)에 의해 생성된 스캔된 화상신호와 가장 유사한(예컨대, 가장 잘 매치된) 저장된 신호를 발견한다. 그 다음, 단계 96에서, d12/(tj-tm)과, d23/(tm-to) 및, d13/(tk-to)[예컨대, S ∝ d12/(tj-tm)와 d23/(tm-to) 및 d13/(tk-to)]의 적당하게 평가된 가중함수로서 대상물(12)의 속도(S)가 결정된다. 여기서, tj는 어레이(86)에 의해 생성된 스캔된 화상신호 중 선택된 하나의 발생시간이고, tk는 어레이(88)에 의해 생성된 스캔된 화상신호 중 선택된 하나의 발생시간이며, tm은 선택된 어레이(86) 화상신호와 가장 잘 매치되는 이전에 저장된 어레이(84) 신호의 시간이고, to는 선택된 어레이(88) 신호와 가장 잘 매치되는 이전에 저장된 어레이(84) 신호의 발생시간이다. 단계 98에서, 속도정보를 어레이(84)에 의해 생성된 스캔된 화상신호와 가장 잘 매치되는 저장된 신호에 첨부하거나 이와 연관시킴으로써, 속도정보가 버퍼(24)내에 저장된다. 테스트단계 100에서 나타낸 바와 같이, 상기 단계는, 단계 90이 시작됨과 더불어 스캐닝 프로세스가 완료될 때까지 반복된다. 스캐닝 프로세스가 완료되면, 도 8의 단계 62와 연관하여 상기된 바와 같이, 단계 102 내지 104에서 버퍼(24)내에 저장된 스캔된 화상신호로부터 동일 폭의 화상 "스트립"을 연속적으로 추출함으로써 합성화상이 형성된다.
또한, 본 발명은 칼라 화상의 포착을 용이하게 한다. 예컨대, 도 12는 4개의 평행한 선형 어레이(106,108,110,112)를 갖춘 센서를 나타낸다. 어레이(106)는 적색 대역통과필터로 덮이므로, 칼라 스펙트럼의 적색부분만을 "본다". 유사하게, 어레이(108,110)는 녹색 및 청색 대역통과필터에 의해 각각 덮이므로, 칼라 스펙트럼의 녹색 및 적색부분만을 각각 "본다". 어레이(112)는 필터를 갖지 않으므로(또는 투명 커버를 갖추므로), 전체 칼라 스펙트럼을 "본다". 어레이(106,108)는 거리 "d" 이격된다. 본 발명의 소정의 실시예에 있어서, 동일한 어레이 간격은 필수적이지 않은 것으로 기재되었음에도 불구하고, 어레이(108,110 및 110,112)는 유사하게 이격될 수 있다.
어레이(106,108,110,112)와 통합된 도 13의 화상처리장치는, 커버플레이트(18)내에 제공된 4개의 이격되고 평행한 시계영역(114,116,118,119) 이외에는 도 6과 유사하다. 쉽게 참고하기 위해서, 센서 어레이(106,108,110,112)는, 도 12 내지 도 14에 나타낸 바와 같이, 이하 각각 "R"(적색)과, "G"(녹색), "B"(청색) 및, "C"(무색)를 나타낸다.
도 14의 플로우차트는, 고정된 샘플링 비율을 사용하는 도 13의 칼라 화상처리장치의 동작방법을 나타낸다. 도 8 및 도 11의 방법이 각각 2개 및 3개의 선형 어레이 센서에 적용되는 반면 도 14의 방법이 도 12의 4개의 선형 어레이 칼라 센서의 동작에 적용되는 것을 제외하고, 도 14의 방법은 도 8 및 도 11의 방법과 동일한다. 따라서, 단계 120에서, 발생시간(t1,t2, ...tn)을 갖는 고정된 시간 샘플링 간격에서 R과, G, B 및, C센서 각각에 의해 생성된 신호는 각 샘플시간에서 4개의 센서에 의해 보여진 대상물(12)의 4개의 세그먼트의 4개의 1 x n 픽셀 화상으로서 수신된다. 각 시간간격동안, R센서에 의해 생성된 스캔된 R화상신호는 "R"버퍼내에 저장되고, G센서에 의해 생성된 스캔된 G화상신호는 "G"버퍼내에 저장되며, B센서에 의해 생성된 스캔된 B화상신호는 "B"버퍼내에 저장된다. 이러한 각 경우에 있어서, 저장된 R과, G 또는 B화상신호의 발생시간의 신호표시 또한 단계 122에 나타낸 바와 같이 R과 G 및 B버퍼 각각에 저장된다. 단계 124에서, R과 G 및 B버퍼내에 저장된 이전에 스캔된 신호는 C센서에 의해 생성된 스캔된 화상신호와 비교되어 스캔된 C화상신호와 스캔된 C화상신호와 가장 잘 매치되는 저장된 G신호 및 스캔된 C화상신호와 가장 잘 매치되는 저장된 B신호와 가장 유사한(예컨대, 가장 잘 매치되는) 저장된 R신호를 발견한다. 센서 어레이가 동일하게 이격된다면, 단계 126에서 3d/(t1-tR)와 2d/(t1-t0) 및 d/(t1-tB)의 대략적인 가중함수에 따라 대상물(12)의 속도(S)가 결정된다. 여기서, t1은 C화상신호 중 선택된 하나의 발생시간이고, tR과 tG및 tB각각은 선택된 C화상신호와 가장 잘 매치되는 저장된 R과 G 및 B신호의 발생시간이다. 단계 128에서, 속도정보를 스캔된 C화상신호와 가장 잘 매치되는 저장된 R과 G 및 B신호에 첨부하거나, 그렇지 않으면 이와 연관시킴으로써, 속도정보가 R과 G 및 B버퍼에 각각 저장된다. 테스트단계 130에 나타낸 바와 같이, 단계 120을 시작함과 더불어 스캐닝 프로세스가 완료될 때까지 상기 단계는 반복된다. 스캐닝 프로세스가 완료되면, R과 G 및 B버퍼에 각각 저장된 스캔된 화상신호로부터 동일 폭의 화상 "스트립"을 연속적으로 추출함으로써 화상의 R과 G 및 B구성요소가 단계 132 내지 단계 134에서 형성된다. 그 다음, R과 G 및 B화상 구성요소는 공지된 양식으로 합병되어 최종적인 합성화상을 만든다.
해당기술의 당업자에 명백한 바와 같이 본 발명의 정신 및 범위를 벗어남이 없이 다양한 변형 및 변경을 실시할 수 있다. 예컨대, 도 10 및 도 12의 센서의 동작이 고정된 샘플링 비율을 참조로 기재되었음에도 불구하고, 당업자에게는, 도 5의 2개의 어레이 센서에 대해 도 9를 참조하여 상기된 바와 같이 어느 한쪽 센서가 실시간 스캔 비율 제어를 사용하여 동작될 수 있는 것으로 이해된다. 또한, 해당 기술분야의 당업자에게는 용량성 선형 어레이와 같은 비-광학 센서가 참조된 선형 센서 어레이로서 사용될 수 있는 것으로 이해된다.
다른 예에서와 같이, 도 12 내지 도 13의 칼라 화상처리장치가 4개의 센서를 갖는 것으로 기재되었음에도 불구하고, 해당 기술분야의 당업자는 화상처리되는 대상물이 칼라에 있어서 충분히 다중-스펙트럼이어서 기초적인 기준없이 R과 G 및 B센서 사이의 적당한 상관성을 용이하게 하는 것으로 가정될 수 있으면, "C"센서가 제거될 수 있는 것으로 이해한다.
다른 실시예에서와 같이, 용량성 센서와 전기장 센서, 열센서 또는 다른 타입과 같은 비-광학 선형 어레이 센서가 채용될 수 있다. 따라서, 해당 기술분야의 당업자는 센서 어레이(10; 도 1 및 도 2)와 센서 어레이(42,44;도 5와 도 6 및 도 7) 또는 센서 어레이(84,86,88;도 10) 중 하나가 비-광학 센서 어레이일 수 있는 것으로 이해한다.
또 다른 실시예서와 같이, 상기 1 x n 픽셀 선형 어레이는 m x n픽셀 "영역" 어레이로 대체될 수 있다. 여기서, m≥2(예컨대, m 열 각각은 n 픽셀을 갖는다). 따라서, 도 10에 나타낸 바와 같이 3개의 불연속의 1 x n픽셀 선형 어레이를 사용하는 대신, 10 x n 픽셀의 2개 이상의 불연속 영역 어레이를 사용할 수 있다. 다른 실시예에 있어서, 500 x n픽셀의 단일 영역 어레이를 채용할 수 있음에 따라, 2배 이상의 시간을 스캔하고, 도 10에 나타낸 간격에 대응하는 간격을 갖는 열을 점검한다. 해당 기술분야의 당업자는 이러한 영역 어레이의 열의 소정의 바람직한 조합이 불연속 선형 어레이의 관계로서 상기된 바와 같이 스캔될 수 있는 것으로 이해된다.

Claims (17)

  1. (a) 제1발생시간에서, 제1선형 센서 어레이(42)가 제1센서에 인접하게 위치된 대상물의 제1세그먼트의 제1화상을 생성하고,
    (b) 버퍼(24)가 상기 제1어레이에 결합되고, 상기 대상물이 상기 제1어레이를 가로질러 이동함에 따라, 이 버퍼가 연속적인 다수의 상기 제1세그먼트를 위한 상기 제1화상 및 제1발생시간을 축적하며,
    (c) 제2선형 센서 어레이(44)가 상기 제1어레이로부터 거리 d로 이격되고, 제2발생시간에서 이 제2어레이가 제2센서에 인접하게 위치된 제2대상물 세그먼트의 제2화상을 생성하며,
    (d) 비교기(22)가 상기 버퍼와 상기 제2어레이 사이에 결합되고, 이 비교기가 상기 제2화상과 상기 축적된 제1화상 각각을 비교하고 상기 축적된 제1화상중 어느 것이 상기 제2화상과 가장 유사한 지를 결정하며,
    (e) 대상물 속도평가기(22)가 상기 대상물의 속도 S∝d/(ti-tm)(여기서, ti는 상기 제2화상중 선택된 하나의 상기 발생시간이고, tm은 상기 선택된 제2화상과 가장 유사한 상기 제1화상의 상기 발생시간이다)를 평가하는 것을 특징으로 하는 선형 센서 화상처리장치.
  2. 제1항에 있어서, 센서 제어수단(22)이 상기 대상물 속도평가기와 상기 제1어레이 사이에 결합되고, 이 센서 제어수단이 상기 속도(S)의 함수로서 상기 제1발생시간의 연속 사이의 타이밍을 제어하는 것을 특징으로 선형 센서 화상처리장치.
  3. (a) 제1발생시간에서, 제1위치내에 위치된 대상물의 제1세그먼트의 제1화상을 생성하고,
    (b) 상기 제1화상 및 상기 제1발생시간을 축적하며,
    (c) 상기 대상물이 상기 제1위치를 가로질러 이동함에 따라 연속적인 다수의 상기 제1세그먼트에 대해, 상기 단계(a) 및 (b)를 반복하고,
    (d) 제2발생시간에서, 상기 제1위치로부터 거리 d 이격된 제2위치에 위치된 상기 대상물의 제2세그먼트의 제2화상을 생성하며,
    (e) 이 제2화상과 상기 축적된 제1화상을 비교하고, 상기 제2화상과 가장 유사한 상기 축적된 제1화상중 하나를 선택하고,
    (f) 상기 대상물의 속도 S∝d/(ti-tm)를 평가하며(여기서, ti는 상기 제2화상중 선택된 하나의 상기 발생시간이고, tm은 상기 선택된 제2화상과 가장 유사한 상기 제1화상의 상기 발생시간),
    (g) 상기 선택된 제1화상을 평가하는 상기 속도를 저장하고,
    (h) 상기 대상물이 상기 제2위치를 넘어 이동할 때까지, 상기 단계 (a) 내지 (g)를 반복하며,
    (i) 상기 선택된 제1화상을 조합시켜 상기 대상물의 합성화상을 생성하는 것을 특징으로 하는 선형 센서 화상처리방법.
  4. 제3항에 있어서, (a) 상기 세그먼트 화상이 고정된 존속기간(T)의 시간간격동안 각각 생성되고,
    (b) 상기 조합단계가 상기 선택된 제1세그먼트 화상 각각에 대해, 폭 w=Si*T(여기서, Si는 상기 선택된 제1세그먼트 화상과 함께 저장된 상기 속도평가이다)로부터 일정한 폭으로 상기 선택된 제1세그먼트 화상의 크기를 바꾸는 단계를 더 구비하여 구성되는 것을 특징으로 하는 선형 센서 화상처리방법.
  5. (a) 대상물이 어레이를 가로로 가로질러 센서에 인접한 세그먼트의 연속적인 위치로 이동함에 따라 선형 센서 어레이(10)가 대상물(12)의 세그먼트의 화상을 연속적으로 생성하고,
    (b) 비교기(22)가 상기 세그먼트 화상의 선택된 쌍을 비교하고, 그들 사이의 유사성의 출력신호(26) 표시를 생성하며,
    (c) 상기 비교기 출력신호가 상기 화상의 쌍 사이의 실질적인 유사성을 표시하지 않을 때 버퍼(24)가 상기 세그먼트 화상을 축적하는 것을 특징으로 하는 선형 센서 화상처리장치.
  6. (a) 세그먼트가 소정의 선형영역내에 연속적으로 위치되고 상기 대상물이 이 영역을 가로로 가로질러 이동하는 동안, 대상물의 세그먼트를 실질적으로 감지하고,
    (b) 이 감지된 대상물 세그먼트 각각의 화상을 생성하며,
    (c) 이 화상과 상기 각 세그먼트의 이전에 감지된 화상의 저장된 표시를 비교하고,
    (d) 이 비교된 화상이 실질적으로 유사하지 않을 때, 상기 감지된 대상물 세그먼트의 상기 화상을 축적하는 것을 특징으로 하는 선형 센서 화상처리방법.
  7. (a) 시간간격(Twait)의 만기 후, 제1발생시간에서 제1위치에 인접한 대상물의 제1세그먼트의 제1화상을 생성하고,
    (b) 이 제1화상 및 상기 제1발생시간을 축적하고,
    (c) 상기 대상물이 상기 제1위치를 가로질러 이동함에 따라, 연속적인 다수의 상기 제1세그먼트에 대해, 상기 (a) 및 (b)단계를 반복하며,
    (d) 제2발생시간에서, 상기 제1위치로부터 거리 d 이격된 제2위치에 위치된 상기 대상물의 제2세그먼트의 제2화상을 생성하고,
    (e) 이 제2화상을 상기 축적된 제1화상 각각과 비교하고, 이 제2화상과 가장 유사한 상기 축적된 제1화상 중 하나를 선택하며,
    (f) 상기 대상물의 속도 S∝d/(ti-tm)(여기서, ti는 상기 제2화상중 선택된 하나의 상기 발생시간이고, tm은 상기 선택된 제2화상과 가장 유사한 상기 제1화상의 상기 발생시간이다)를 평가하고,
    (g) 상기 시간간격 Twait=1/(R*S)(여기서, R은 소정의 화상 해상도이다)을 결정하며,
    (h) 상기 대상물이 상기 제2위치를 넘어 이동할 때까지 상기 단계 (a) 내지 (g)를 반복하고,
    (i) 상기 선택된 제1화상을 조합하여 상기 대상물의 합성화상를 생성하는 것을 특징으로 하는 선형 센서 화상처리방법.
  8. (a) 제1발생시간에서, 제1선형 센서 어레이(84)가 제1센서에 인접하게 위치된 대상물의 제1세그먼트의 제1화상를 생성하고,
    (b) 버퍼(24)가 상기 제1어레이에 결합되고, 상기 대상물이 상기 제1어레이를 가로질러 이동함에 따라, 이 버퍼가 상기 제1화상 및 연속적인 다수의 상기 제1세그먼트를 위한 상기 제1발생시간을 축적하며,
    (c) 제2선형 센서 어레이(86)가 거리 d12로 상기 제1어레이로부터 이격되고, 제2발생시간에서 이 제2어레이가 이 제2센서에 인접하게 위치된 제2대상물 세그먼트의 제2화상를 생성하며,
    (d) 제3선형 센서 어레이(88)가 거리 d13로 상기 제1어레이로부터 이격되고, 거리 d23으로 상기 제2어레이로부터 이격되며, 제3발생시간에서 이 제3어레이가 이 제3센서에 인접하게 위치된 제3대상물 세그먼트의 제3화상를 생성하고,
    (e) 비교기(22)가 상기 버퍼와 상기 제2 및 제3어레이 사이에 결합되고,
    상기 비교기가,
    (i) 상기 제2화상과 상기 축적된 제1화상 각각을 비교하고, 상기 축적된 제1화상중 어느 것이 상기 제2화상과 가장 유사한지 결정하고,
    (ii) 상기 제3화상과 축적된 제1화상 각각을 비교하고, 상기 축적된 제1화상 중 어느 것이 상기 제3화상과 가장 유사한 지를 결정하며,
    (f) 대상물 속도평가기(22)가,
    (i) d12/(tj-tm) 또는,
    (ii) d23/(tm-to) 또는,
    (iii) d13/(tj-t0) 또는,
    (ⅳ) d12/(tj-tm)와 d23/(tk-to) 및 d13/(tj-t0)(여기서, tj는 상기 제2화상중 선택된 하나의 상기 발생시간이고, tk는 상기 선택된 제2화상과 가장 유사한 상기 제1화상의 발생시간이며, t0는 상기 선택된 제2화상과 가장 유사한 상기 제3화상의 상기 발생시간이다)의 조합 중 하나에 비례하는 것으로서 상기 대상물의 속도(S)를 평가하는 것을 특징으로 하는 선형 센서 화상처리장치.
  9. 제8항에 있어서, 센서 제어수단이 상기 대상물 속도평가기와 상기 제2어레이 사이에 결합되고, 이 센서 제어수단이 상기 속도(S)의 함수로서 상기 제1발생시간의 연속 사이의 타이밍을 제어하는 것을 특징으로 하는 선형 센서 화상처리장치.
  10. (a) 제1발생시간에서, 제1위치내에 위치된 대상물의 제1세그먼트의 제1화상를 생성하고,
    (b) 이 제1화상 및 상기 제1발생시간을 축적하며,
    (c) 상기 대상물이 상기 제1위치를 가로질러 이동함에 따라 연속적인 다수의 상기 제1세그먼트에 대해 상기 단계 (a) 및 (b)를 반복하고,
    (d) 제2발생시간에서, 상기 제1위치로부터 거리 d12이격된 제2위치에 위치된 상기 대상물의 제2세그먼트의 제2화상을 생성하며,
    (e) 제3발생시간에서, 상기 제1위치로부터 거리 d13이격되고 상기 제2위치로부터 거리 d23이격된 제3위치에 위치된 상기 대상물의 제3세그먼트의 제3화상을 생성하고,
    (f) 상기 제2화상과 상기 축적된 제1화상 각각을 비교하고, 상기 제2화상과 가장 유사한 상기 축적된 제1화상중 하나를 선택하며,
    (g) 상기 제3화상과 상기 축적된 제1화상 각각을 비교하고, 상기 제3화상과 가장 유사한 상기 축적된 제1화상 중 하나를 선택하고,
    (h) 상기 대상물의 속도(S)가,
    (i) d12/(tj-tm) 또는,
    (ii) d13/(tk-to) 또는,
    (iii) d23/(tm-t0) 또는,
    (ⅳ) d12/(tj-tm)와 d23/(tm-to) 및 d13/(tk-t0)(여기서, tj는 상기 제2화상중 선택된 하나의 상기 발생시간이고, tk는 상기 선택된 제2화상과 가장 유사한 상기 제1화상의 발생시간이며, t0는 상기 선택된 제3화상과 가장 유사한 상기 제1화상의 상기 발생시간이다)의 조합 중 어느 하나에 비례하는 것으로서 평가되며,
    (i) 상기 대상물이 상기 제3위치를 넘어 이동할 때까지, 상기 단계 (a) 내지 (h)가 반복되고,
    (j) 상기 선택된 제1화상를 조합하여 상기 대상물의 합성화상를 생성하는 것을 특징으로 하는 선형 센서 화상처리장치.
  11. 제10항에 있어서, (a) 상기 세그먼트 화상이 고정된 존속기간(T)의 시간간격동안 각각 생성되고,
    (b) 상기 조합단계가, 선택된 제1세그먼트 화상 각각에 대해 폭 w=Si*T(여기서, Si는 상기 선택된 제1세그먼트 화상과 함께 저장된 상기 속도평가이다)로부터 일정한 폭으로 상기 선택된 제1세그먼트 화상의 크기를 바꾸는 것을 더 구비하여 구성되는 것을 특징으로 하는 선형 센서 화상처리방법.
  12. 제10항에 있어서, 상기 속도 평가단계 후, Twait=1/(R*S)(여기서, R은 소정의 화상 해상도이다)를 결정하고, 상기 방법의 연속적이 실행 전에 상기 단계 12(a) 후 상기 Twait와 동일한 시간간격을 기다리는 것을 특징으로 하는 선형 센서 화상처리방법.
  13. (a) 제1발생시간에서, 제1선형 센서 어레이가 제1센서에 인접하게 위치된 대상물의 제1세그먼트의 제1화상을 생성하고,
    (b) 제1칼라 필터가 상기 제1화상을 칼라 필터링하며,
    (c) 제1버퍼가 상기 제1어레이와 결합되고, 상기 대상물이 상기 제1어레이를 가로질러 이동함에 따라, 이 제1버퍼가 상기 칼라 필터된 제1화상 및 연속적인 다수의 상기 제1세그먼트를 위한 상기 제1발생시간을 축적하며,
    (d) 제2선형 센서 어레이가 거리 d12로 상기 제1어레이로부터 이격되고, 제2발생시간에서 이 제2센서에 인접하게 위치된 제2대상물 세그먼트의 제2화상을 생성하며,
    (e) 제2칼라 필터가 상기 제2화상을 칼라 필터링하고,
    (f) 제2버퍼가 상기 제2어레이에 결합되고, 상기 대상물이 상기 제2어레이를 가로질러 이동함에 따라 상기 제2버퍼가 상기 칼라 필터된 제2화상 및 연속적인 다수의 상기 제2세그먼트를 위한 상기 제2시간을 축적하며,
    (g) 제3선형 센서 어레이가 거리 d13로 상기 제1어레이로부터 이격되고, 거리 d23으로 상기 제2어레이로부터 이격되며, 제3발생시간에서 상기 제3어레이가 상기 제3센서에 인접하게 위치된 제3대상물 세그먼트의 제3화상를 생성하고,
    (h) 제3칼라 필터가 상기 제3화상을 칼라 필터링하며,
    (i) 제3버퍼가 상기 제3어레이와 결합되고, 상기 대상물이 상기 제3어레이를 가로질러 이동함에 따라 이 제3버퍼가 상기 칼라 필터된 제3화상 및 연속적인 다수의 상기 제3세그먼트를 위한 상기 제3시간을 축적하고,
    (j) 제1비교기가 상기 제1버퍼와 상기 제2어레이 사이에 결합되고, 이 제1비교기가 상기 제2칼라 필터된 화상을 상기 축적된 제1칼라 필터된 화상 각각과 비교하고, 상기 축적된 제1칼라 필터된 화상 중 어느 것이 상기 제2칼라 필터된 화상과 가장 유사한지 결정하며,
    (k) 제2비교기가 상기 제2버퍼와 상기 제3어레이 사이에 결합되고, 이 제2비교기가 상기 제3칼라 필터된 화상을 상기 축적된 제2칼라 필터된 화상과 비교하고 상기 축적된 제2칼라 필터된 화상 중 어느 것이 상기 제3칼라 필터된 화상과 가장 유사한 지를 결정하며,
    (l) 제3비교기가 상기 제3버퍼와 상기 제1어레이 사이에 결합되고, 이 제3비교기가 상기 제1칼라 필터된 화상을 상기 축적된 제3칼라 필터된 화상과 비교하고 상기 축적된 제3칼라 필터된 화상 중 어느 것이 상기 제1칼라 필터된 화상과 가장 유사한 지를 결정하며,
    (m) 제1대상물 속도평가기가 상기 대상물의 속도 S∝d12/(tc-ta)를 평가하며(여기서, tc는 상기 제1칼라 필터된 화상 중 선택된 하나의 상기 발생시간이고, ta는 상기 선택된 제1칼라 필터된 화상과 가장 유사한 상기 제2칼라 필터된 화상의 상기 발생시간이다),
    (n) 제2대상물 속도평가기가 상기 대상물의 속도 S∝d13/(tc-tb)를 평가하고(여기서, tb는 상기 선택된 제1칼라 필터된 화상과 가장 유사한 상기 제3칼라 필터된 화상의 상기 발생시간),
    (o) 제3대상물 속도평가기가 상기 대상물의 속도 S∝d23/(ta-tb)를 평가하는 것을 특징으로 하는 선형 센서 화상처리장치.
  14. (a) 선택된 발생시간에서, 제1위치에 위치된 대상물의 제1세그먼트의 제1칼라 필터된 화상을 생성하고,
    (b) 선택된 발생시간에서, 제2세그먼트가 상기 제1위치로부터 이격된 제2위치에 위치되는 동안, 상기 대상물의 제2세그먼트의 제2칼라 필터된 화상을 생성하며,
    (c) 선택된 발생시간에서, 상기 제3세그먼트가 상기 제1 및 제2위치로부터 이격된 제3위치에 위치되는 동안 상기 대상물의 제3세그먼트의 제3칼라 필터된 화상을 생성하고,
    (d) 상기 화상 및 상기 각각의 발생시간을 축적하며,
    (e) 상기 대상물이 상기 제1 제2 및 제3위치를 각각 가로질러 이동함에 따라, 연속적인 다수의 상기 제1과 제2 및 제3세그먼트에 대해, 상기 단계 (a) 내지 (d)를 반복하고,
    (f) 선택된 발생시간에서, 상기 제4세그먼트가 상기 제1과 제2 및 제3위치로부터 이격된 제4위치내에 위치되는 동안, 상기 대상물의 제4세그먼트의 제4의 칼라 필터되지 않은 화상을 생성하며,
    (g) 이 제4화상을 상기 축적된 제1화상 각각과 비교하고, 상기 제4화상과 가장 유사한 상기 축적된 제1화상 중 하나를 선택하며,
    (h) 상기 제4화상을 상기 축적된 제2화상 각각과 비교하고, 상기 제4화상과 가장 유사한 상기 축적된 제2화상 중 하나를 선택하며,
    (i) 상기 제4화상을 상기 축적된 제3화상 각각과 비교하고, 상기 제4화상과 가장 유사한 상기 축적된 제3화상 중 하나를 선택하며,
    (j) 상기 대상물의 속도 S∝d14/(tC-tR)와 S∝d24/(tC-tG) 및 S∝d34/(tC-tB)를 평가하며(여기서, d14는 상기 제1과 제4센서 사이의 간격이고, d24는 상기 제2와 제4센서 사이의 간격이며, d34는 상기 제3과 제4센서 사이의 간격이고, tC는 상기 칼라 필터되지 않은 화상중 선택된 하나의 상기 발생시간이며, tR은 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제1칼라 필터된 화상의 상기 발생시간이고, tG는 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제2칼라 필터된 화상의 상기 발생시간이며, tB는 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제3칼라 필터된 화상의 상기 발생시간이다),
    (k) 상기 대상물이 상기 4개의 위치를 넘어 이동할 때까지, 상기 단계 (a) 내지 (j)를 반복하고,
    (l) 상기 선택된 제1화상을 조합하여 상기 대상물의 합성화상을 생성하는 것을 특징으로 하는 선형 센서 화상처리방법.
  15. 제14항에 있어서, (a) 고정된 존속기간(T)의 시간간격동안 상기 세그먼트 화상이 각각 생성되고,
    (b) 상기 조합단계가,
    (i) 상기 선택된 제1세그먼트 화상 각각에 대해, 폭 w=SR*T(여기서, SR는 상기 선택된 제1세그먼트 화상에 대해 결정된 상기 속도평가)로부터 일정한 고정된 폭으로 상기 선택된 제1세그먼트 화상의 크기를 바꾸고,
    (ii) 상기 선택된 제2화상 각각에 대해, 폭 w=SG*T(여기서, SG는 상기 선택된 제2화상에 대해 결정된 상기 속도평가)로부터 일정한 고정된 폭으로 상기 선택된 제2화상의 크기를 바꾸며,
    (iii) 상기 선택된 제3화상 각각에 대해, 폭 w=SB*T(여기서, SB는 상기 선택된 제3화상에 대해 결정된 상기 속도평가)로부터 일정한 고정된 폭으로 상기 선택된 제3화상의 크기를 바꾸는 단계를 더 구비하여 구성되는 것을 특징으로 하는 선형 센서 화상처리방법.
  16. 제14항에 있어서, 상기 속도 평가단계 후, Twait=1/(R*S)(여기서, R은 소정의 화상 해상도이다)를 결정하고, 상기 방법의 연속적이 실행 전에 상기 단계 15(a) 후 상기 Twait와 동일한 시간간격을 기다리는 것을 특징으로 하는 선형 센서 화상처리방법.
  17. (a) 제1발생시간에서, 제1선형 센서 어레이(106)가 제1센서에 인접하게 위치된 대상물의 제1세그먼트의 제1화상을 생성하고,
    (b) 제1칼라 필터가 상기 제1화상을 칼라 필터링하며,
    (c) 제1버퍼가 상기 제1어레이와 결합되고, 상기 대상물이 상기 제1어레이를 가로질러 이동함에 따라, 이 제1버퍼가 상기 칼라 필터된 제1화상 및 연속적인 다수의 상기 제1세그먼트를 위한 상기 제1발생시간을 축적하며,
    (d) 제2선형 센서 어레이(108)가 상기 제1어레이로부터 이격되고, 제2발생시간에서 이 제2어레이가 상기 제2센서에 인접하게 위치된 제2대상물 세그먼트의 제2화상을 생성하며,
    (e) 제2칼라 필터가 상기 제2화상을 칼라 필터링하고,
    (f) 제2버퍼가 상기 제2어레이에 결합되고, 상기 대상물이 상기 제2어레이를 가로질러 이동함에 따라, 상기 제2버퍼가 상기 칼라 필터된 제2화상 및 연속적인 다수의 상기 제2세그먼트를 위한 상기 제2시간을 축적하며,
    (g) 제3선형 센서 어레이(110)가 상기 제1과 제2어레이로부터 이격되고, 제3발생시간에서 이 제3어레이가 상기 제3센서에 인접하게 위치된 제3대상물 세그먼트의 제3화상를 생성하고,
    (h) 제3칼라 필터가 이 제3화상을 칼라 필터링하며,
    (i) 제3버퍼가 상기 제3어레이와 결합되고, 상기 대상물이 상기 제3어레이를 가로질러 이동함에 따라, 이 제3버퍼가 상기 칼라 필터된 제3화상 및 연속적인 다수의 상기 제3세그먼트를 위한 상기 제3시간을 축적하고,
    (j) 제4선형 센서 어레이(112)가 상기 제1과 제2 및 제3어레이로부터 이격되고, 제4발생시간에서, 상기 제4어레이가 상기 제4센서에 인접하게 위치된 제4대상물 세그먼트의 제4의 칼라 필터되지 않은 화상를 생성하며,
    (k) 제1비교기가 상기 제1버퍼와 상기 제4어레이 사이에 결합되고, 이 제1비교기가, 상기 칼라 필터되지 않은 화상을 상기 축적된 제1칼라 필터된 화상 각각과 비교하고, 상기 축적된 제1칼라 필터된 화상중 어느 것이 상기 칼라 필터되지 않은 화상과 가장 유사한지 결정하며,
    (l) 제2비교기가 상기 제2버퍼와 상기 제4어레이 사이에 결합되고, 이 제2비교기가 상기 칼라 필터되지 않은 화상을 상기 축적된 제2칼라 필터된 화상 각각과 비교하고, 상기 축적된 제2칼라 필터된 화상 중 어느 것이 상기 칼라 필터되지 않은 화상과 가장 유사한 지를 결정하며,
    (m) 제3비교기가 상기 제3버퍼와 상기 제4어레이 사이에 결합되고, 이 제3비교기가 상기 칼라 필터되지 않은 화상을 상기 축적된 제3칼라 필터된 화상 각각과 비교하고 상기 축적된 제3칼라 필터된 화상 중 어느 것이 상기 칼라 필터되지 않은 화상과 가장 유사한 지를 결정하며,
    (n) 제1대상물 속도평가기가 상기 대상물의 속도 S∝d14/(tC-tR)를 평가하며(여기서, d14는 상기 제1과 제4센서 사이의 간격이고, tc는 상기 칼라 필터되지 않은 화상 중 선택된 하나의 상기 발생시간이고, tR은 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 제1칼라 필터된 화상의 발생시간),
    (o) 제2대상물 속도평가기가 상기 대상물의 속도 S∝d24/(tC-tG)를 평가하고(여기서, d24는 상기 제2와 제4센서 사이의 간격이고, tG는 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제2칼라 필터된 화상의 상기 발생시간),
    (p) 제3대상물 속도평가기가 상기 대상물의 속도 S∝d34/(tC-tB)를 평가(여기서, d34는 상기 제3과 상기 제4센서 사이의 상기 간격이고, tB는 상기 선택된 칼라 필터된 화상과 가장 유사한 상기 제3칼라 필터된 화상이다) 하는 것을 특징으로 하는 선형 센서 화상처리장치.
KR10-2000-7000466A 1997-07-16 1998-07-15 선형 센서 화상처리방법 및 장치 KR100429081B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/892,577 1997-07-16
US8/892,577 1997-07-16
US08/892,577 US6002815A (en) 1997-07-16 1997-07-16 Linear sensor imaging method and apparatus

Publications (2)

Publication Number Publication Date
KR20010021902A true KR20010021902A (ko) 2001-03-15
KR100429081B1 KR100429081B1 (ko) 2004-04-29

Family

ID=25400164

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-7000466A KR100429081B1 (ko) 1997-07-16 1998-07-15 선형 센서 화상처리방법 및 장치

Country Status (10)

Country Link
US (1) US6002815A (ko)
EP (1) EP1020069A2 (ko)
JP (1) JP3989560B2 (ko)
KR (1) KR100429081B1 (ko)
CN (1) CN1174604C (ko)
AU (1) AU8329698A (ko)
CA (1) CA2294004C (ko)
IL (1) IL134067A0 (ko)
TW (1) TW399388B (ko)
WO (1) WO1999004550A2 (ko)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6333989B1 (en) 1999-03-29 2001-12-25 Dew Engineering And Development Limited Contact imaging device
NO20003006L (no) * 2000-06-09 2001-12-10 Idex Asa Mus
US7289649B1 (en) * 2000-08-10 2007-10-30 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint imager
AU2002228809A1 (en) 2000-12-05 2002-06-18 Validity, Inc. Swiped aperture capacitive fingerprint sensing systems and methods
US7043061B2 (en) * 2001-06-27 2006-05-09 Laurence Hamid Swipe imager with multiple sensing arrays
US7088872B1 (en) 2002-02-14 2006-08-08 Cogent Systems, Inc. Method and apparatus for two dimensional image processing
US7893957B2 (en) * 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US8483960B2 (en) 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
DE60238281D1 (de) * 2002-09-17 2010-12-23 Fujitsu Ltd Gerät zur aufzeichnung biologischer informationen und biologische informationen benutzendes berechtigungsgerät
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
TWI281632B (en) * 2003-12-01 2007-05-21 Benq Corp Handheld device with tract sensitive input function
US8229184B2 (en) 2004-04-16 2012-07-24 Validity Sensors, Inc. Method and algorithm for accurate finger motion tracking
US8358815B2 (en) 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
US8165355B2 (en) 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US7751601B2 (en) * 2004-10-04 2010-07-06 Validity Sensors, Inc. Fingerprint sensing assemblies and methods of making
WO2005104012A1 (en) * 2004-04-16 2005-11-03 Validity Sensors, Inc. Finger position sensing methods and apparatus
US8447077B2 (en) 2006-09-11 2013-05-21 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array
US8175345B2 (en) 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
US8131026B2 (en) 2004-04-16 2012-03-06 Validity Sensors, Inc. Method and apparatus for fingerprint image reconstruction
WO2005106774A2 (en) 2004-04-23 2005-11-10 Validity Sensors, Inc. Methods and apparatus for acquiring a swiped fingerprint image
US7693314B2 (en) * 2004-10-13 2010-04-06 Authentec, Inc. Finger sensing device for navigation and related methods
US7616788B2 (en) * 2004-11-12 2009-11-10 Cogent Systems, Inc. System and method for fast biometric pattern matching
US7734074B2 (en) * 2005-02-17 2010-06-08 Authentec, Inc. Finger sensor apparatus using image resampling and associated methods
US7460697B2 (en) * 2005-07-19 2008-12-02 Validity Sensors, Inc. Electronic fingerprint sensor with differential noise cancellation
US8131477B2 (en) * 2005-11-16 2012-03-06 3M Cogent, Inc. Method and device for image-based biological data quantification
US20070164202A1 (en) * 2005-11-16 2007-07-19 Wurz David A Large depth of field line scan camera
WO2008033264A2 (en) * 2006-09-11 2008-03-20 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US8107212B2 (en) 2007-04-30 2012-01-31 Validity Sensors, Inc. Apparatus and method for protecting fingerprint sensing circuitry from electrostatic discharge
US8275179B2 (en) 2007-05-01 2012-09-25 3M Cogent, Inc. Apparatus for capturing a high quality image of a moist finger
US8290150B2 (en) 2007-05-11 2012-10-16 Validity Sensors, Inc. Method and system for electronically securing an electronic device using physically unclonable functions
US8411916B2 (en) * 2007-06-11 2013-04-02 3M Cogent, Inc. Bio-reader device with ticket identification
JP4389971B2 (ja) * 2007-06-19 2009-12-24 ミツミ電機株式会社 指紋画像形成装置及びこれに用いる指移動量推定方法
US8204281B2 (en) 2007-12-14 2012-06-19 Validity Sensors, Inc. System and method to remove artifacts from fingerprint sensor scans
US8276816B2 (en) 2007-12-14 2012-10-02 Validity Sensors, Inc. Smart card system with ergonomic fingerprint sensor and method of using
US8005276B2 (en) 2008-04-04 2011-08-23 Validity Sensors, Inc. Apparatus and method for reducing parasitic capacitive coupling and noise in fingerprint sensing circuits
US8116540B2 (en) 2008-04-04 2012-02-14 Validity Sensors, Inc. Apparatus and method for reducing noise in fingerprint sensing circuits
WO2010036445A1 (en) 2008-07-22 2010-04-01 Validity Sensors, Inc. System, device and method for securing a device component
US8391568B2 (en) 2008-11-10 2013-03-05 Validity Sensors, Inc. System and method for improved scanning of fingerprint edges
US8600122B2 (en) 2009-01-15 2013-12-03 Validity Sensors, Inc. Apparatus and method for culling substantially redundant data in fingerprint sensing circuits
US8278946B2 (en) 2009-01-15 2012-10-02 Validity Sensors, Inc. Apparatus and method for detecting finger activity on a fingerprint sensor
US8374407B2 (en) 2009-01-28 2013-02-12 Validity Sensors, Inc. Live finger detection
US9400911B2 (en) 2009-10-30 2016-07-26 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US9336428B2 (en) 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US9274553B2 (en) 2009-10-30 2016-03-01 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US8791792B2 (en) 2010-01-15 2014-07-29 Idex Asa Electronic imager using an impedance sensor grid array mounted on or about a switch and method of making
US8421890B2 (en) 2010-01-15 2013-04-16 Picofield Technologies, Inc. Electronic imager using an impedance sensor grid array and method of making
US8866347B2 (en) 2010-01-15 2014-10-21 Idex Asa Biometric image sensing
US9666635B2 (en) 2010-02-19 2017-05-30 Synaptics Incorporated Fingerprint sensing circuit
US8716613B2 (en) 2010-03-02 2014-05-06 Synaptics Incoporated Apparatus and method for electrostatic discharge protection
US9001040B2 (en) 2010-06-02 2015-04-07 Synaptics Incorporated Integrated fingerprint sensor and navigation device
US8331096B2 (en) 2010-08-20 2012-12-11 Validity Sensors, Inc. Fingerprint acquisition expansion card apparatus
US8594393B2 (en) 2011-01-26 2013-11-26 Validity Sensors System for and method of image reconstruction with dual line scanner using line counts
US8538097B2 (en) 2011-01-26 2013-09-17 Validity Sensors, Inc. User input utilizing dual line scanner apparatus and method
US20120218231A1 (en) * 2011-02-28 2012-08-30 Motorola Mobility, Inc. Electronic Device and Method for Calibration of a Touch Screen
GB2489100A (en) 2011-03-16 2012-09-19 Validity Sensors Inc Wafer-level packaging for a fingerprint sensor
US10043052B2 (en) 2011-10-27 2018-08-07 Synaptics Incorporated Electronic device packages and methods
US8896241B2 (en) * 2011-11-16 2014-11-25 Rockwell Automation Technologies, Inc. Controlled motion system
US9195877B2 (en) 2011-12-23 2015-11-24 Synaptics Incorporated Methods and devices for capacitive image sensing
US9785299B2 (en) 2012-01-03 2017-10-10 Synaptics Incorporated Structures and manufacturing methods for glass covered electronic devices
US9137438B2 (en) 2012-03-27 2015-09-15 Synaptics Incorporated Biometric object sensor and method
US9268991B2 (en) 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
US9251329B2 (en) 2012-03-27 2016-02-02 Synaptics Incorporated Button depress wakeup and wakeup strategy
US9600709B2 (en) 2012-03-28 2017-03-21 Synaptics Incorporated Methods and systems for enrolling biometric data
US9152838B2 (en) 2012-03-29 2015-10-06 Synaptics Incorporated Fingerprint sensor packagings and methods
US20130279769A1 (en) 2012-04-10 2013-10-24 Picofield Technologies Inc. Biometric Sensing
US9665762B2 (en) 2013-01-11 2017-05-30 Synaptics Incorporated Tiered wakeup strategy
KR101432011B1 (ko) * 2013-03-22 2014-08-21 주식회사 슈프리마 지문 영상 처리 장치 및 방법
NO20140653A1 (no) * 2014-05-27 2015-11-30 Idex Asa Biometrisk sensor
US9292728B2 (en) * 2014-05-30 2016-03-22 Apple Inc. Electronic device for reallocating finger biometric template nodes in a set memory space and related methods
USD776664S1 (en) * 2015-05-20 2017-01-17 Chaya Coleena Hendrick Smart card
TWI568237B (zh) 2015-07-29 2017-01-21 東友科技股份有限公司 影像擷取方法及影像擷取與合成方法
WO2019068162A1 (en) * 2017-10-02 2019-04-11 Teledyne Digital Imaging, Inc. SYNCHRONIZATION METHOD OF LINEAR SCANNING CAMERA
CN111727601A (zh) * 2018-09-30 2020-09-29 深圳配天智能技术研究院有限公司 图像传感器、获取图像的方法、视觉系统及存储介质
CN109873915A (zh) * 2019-01-16 2019-06-11 北京五岳鑫信息技术股份有限公司 一种扫描仪的补偿装置及方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4833724A (en) * 1986-08-14 1989-05-23 Amada Engineering & Service Co., Inc. Imaging device
US5633947A (en) * 1991-03-21 1997-05-27 Thorn Emi Plc Method and apparatus for fingerprint characterization and recognition using auto correlation pattern
JPH07111561A (ja) * 1993-10-12 1995-04-25 Matsushita Electric Ind Co Ltd 原稿読み取り装置
US5719970A (en) * 1994-07-08 1998-02-17 Seiko Epson Corporation Image processing method and device
JP3120354B2 (ja) * 1995-01-13 2000-12-25 セイコーエプソン株式会社 画像処理方法および画像処理装置
US5613014A (en) * 1994-10-12 1997-03-18 Martin Marietta Corp. Fingerprint matching system
US5578813A (en) * 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
US5828773A (en) * 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication

Also Published As

Publication number Publication date
KR100429081B1 (ko) 2004-04-29
CA2294004C (en) 2004-12-14
EP1020069A2 (en) 2000-07-19
CN1264515A (zh) 2000-08-23
TW399388B (en) 2000-07-21
CN1174604C (zh) 2004-11-03
AU8329698A (en) 1999-02-10
IL134067A0 (en) 2001-04-30
JP2000513539A (ja) 2000-10-10
WO1999004550A2 (en) 1999-01-28
US6002815A (en) 1999-12-14
CA2294004A1 (en) 1999-01-28
JP3989560B2 (ja) 2007-10-10
WO1999004550A3 (en) 1999-04-22

Similar Documents

Publication Publication Date Title
KR100429081B1 (ko) 선형 센서 화상처리방법 및 장치
JP3091969B2 (ja) ビデオカメラ
US5920384A (en) Optical imaging device
JPH0334713B2 (ko)
US4642813A (en) Electro-optical quality control inspection of elements on a product
US20030222987A1 (en) Line scan image recording device with internal system for delaying signals from multiple photosensor arrays
US6252659B1 (en) Three dimensional measurement apparatus
CN113810621A (zh) 一种应用于多线线阵相机的分时曝光和tdi并行处理装置及方法
CN112714244B (zh) 一种基于线阵相机的图像采集方法及系统
EP1406083B1 (en) Surface inspection apparatus and method
JPH08313454A (ja) 画像処理装置
CN110533731A (zh) 相机解析度的标定方法及相机解析度的标定装置
JP3151652B2 (ja) 長い対象物の測定方法とその装置
JP2733958B2 (ja) 長尺シートの欠陥検査装置
JPH09284753A (ja) 監視カメラの撮像制御方法とその装置
JPH03269685A (ja) 高速現象の解析方法及び高速現象撮影装置
JPH08279034A (ja) 画像合成処理方式およびスキャナ
WO2011036441A1 (en) Banknote counting method and apparatus
JPH10288510A (ja) 距離測定方法、チェーン伸長度の検出方法及びチェーン伸長度の検出装置
JPH09166435A (ja) 路面状況測定方法
JPH0671864A (ja) 印刷物検査装置におけるウェブの蛇行認識方法および装置、印刷物検査装置における撮像位置補正方法および装置
JPH06201330A (ja) 継目無鋼管の長さ測定装置
JP3461579B2 (ja) 撮像装置
JPH1042109A (ja) 画像読取装置
JPH0735547A (ja) 距離測定装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
E902 Notification of reason for refusal
E902 Notification of reason for refusal
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20090409

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee