KR100429081B1 - 선형 센서 화상처리방법 및 장치 - Google Patents

선형 센서 화상처리방법 및 장치 Download PDF

Info

Publication number
KR100429081B1
KR100429081B1 KR10-2000-7000466A KR20007000466A KR100429081B1 KR 100429081 B1 KR100429081 B1 KR 100429081B1 KR 20007000466 A KR20007000466 A KR 20007000466A KR 100429081 B1 KR100429081 B1 KR 100429081B1
Authority
KR
South Korea
Prior art keywords
image
array
color
occurrence time
segment
Prior art date
Application number
KR10-2000-7000466A
Other languages
English (en)
Other versions
KR20010021902A (ko
Inventor
가이브로에르임메가
제프리에드워드밴더쿠이
Original Assignee
키네틱 사이언시스 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 키네틱 사이언시스 인코포레이티드 filed Critical 키네틱 사이언시스 인코포레이티드
Publication of KR20010021902A publication Critical patent/KR20010021902A/ko
Application granted granted Critical
Publication of KR100429081B1 publication Critical patent/KR100429081B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/047Detection, control or error compensation of scanning velocity or position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/047Detection, control or error compensation of scanning velocity or position
    • H04N1/0473Detection, control or error compensation of scanning velocity or position in subscanning direction, e.g. picture start or line-to-line synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/12Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/192Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
    • H04N1/193Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/02406Arrangements for positioning elements within a head
    • H04N2201/02439Positioning method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04703Detection of scanning velocity or position using the scanning elements as detectors, e.g. by performing a prescan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04734Detecting at frequent intervals, e.g. once per line for sub-scan control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04701Detection of scanning velocity or position
    • H04N2201/04743Detection of scanning velocity or position by detecting the image directly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04758Control or error compensation of scanning position or velocity by controlling the position of the scanned image area
    • H04N2201/04767Control or error compensation of scanning position or velocity by controlling the position of the scanned image area by controlling the timing of the signals, e.g. by controlling the frequency o phase of the pixel clock
    • H04N2201/04781Controlling the phase of the signals
    • H04N2201/04786Controlling a start time, e.g. for output of a line of data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04758Control or error compensation of scanning position or velocity by controlling the position of the scanned image area
    • H04N2201/04787Control or error compensation of scanning position or velocity by controlling the position of the scanned image area by changing or controlling the addresses or values of pixels, e.g. in an array, in a memory, by interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/047Detection, control or error compensation of scanning velocity or position
    • H04N2201/04753Control or error compensation of scanning position or velocity
    • H04N2201/04794Varying the control or compensation during the scan, e.g. using continuous feedback or from line to line

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 선형 센서 화상처리장치 및 방법에 관한 것으로, 제1발생시간에서, 물체(12)가 가변속도로 센서를 가로질러 이동할 때, 제1선형 센서 어레이(42)가 물체(12)의 세그먼트의 제1화상을 생성한다. 화상 및 그 발생시간은 버퍼내에 저장된다. 물체가 센서를 가로질러 이동함에 따라, 제1센서에 의해 보여진 연속적인 다수의 세그먼트 화상은 그들 각자의 발생시간과 함께 버퍼내에 저장된다. 제1어레이로부터 일정 거리 이격된 제2선형 센서 어레이(44)는, 제2발생시간에서 움직이는 물체의 다른 세그먼트의 제2화상을 생성한다. 제2화상은 축적된 제1화상과 비교되어 어느 축적된 제1화상이 제2화상과 가장 유사한 지를 결정한다. 그러면, 물체의 속도(S)가 d/(tj-tm)[예컨대, S∝d/(tj-tm)]의 적절한 가중함수에 따라 평가될 수 있다. 여기서, tj는 제2화상 중 선택된 하나의 발생시간이고, tm은 선택된 제2화상과 가장 유사한 제1화상의 발생시간이다. 이러한 방법으로 물체의 속도를 연속적으로 모니터함으로써, 센서를 지나는 물체의 이동속도에 관계없이, 그리고 고비용과 큰 용적의 스텝퍼 모터 및 기계적인 이동 엔코더 등의 필요없이, 물체의 가장 높은 품질의 화상을 함께 형성하는 화상 세그먼트를 선택하고 버퍼내로 이들 화상 세그먼트를 전송한다.

Description

선형 센서 화상처리방법 및 장치{LINEAR SENSOR IMAGING METHOD AND APPARATUS}
팩시밀리와 같은 화상처리장치는 공지된 일정한 속도로 화상을 스캔(주사)함으로써 화상을 포착한다. 예컨대, 전형적인 팩시밀리에 있어서, 스텝퍼 모터는 화상이 포함된 종이를 잡아 당겨 화상을 일정 속도로 고정 스캐닝 헤드를 통과시킨다. 소정 시점에서, 스캐닝 헤드는 스캐닝 헤드에 인접한 화상의 좁은 직선 부분만을 "본다(see)". 스캔 속도는 일정하게 미리 결정되어 있기 때문에, 팩시밀리의 제어회로는 일정한 연속적인 시간간격에서 쉽게 활성화되어 각 간격동안 보여진 화상 부분을 버퍼로 전송할 수 있게 된다. 스캔된 화상의 전체 디지털 상을 생성하기 위해서, 버퍼는 화상 부분을 저장한다. 상기와 같이 화상을 활성화하여 고정 스캐닝 헤드를 통과시키는 대신, 전형적인 평판형 베드 스캐너와 같이 화상은 고정된 위치를 유지하고 스텝퍼 모터가 일정 속도로 화상을 통과하는 스캐닝 헤드를 이동시킬 수 있다.
상기한 종래 기술의 장치는, 스캔 속도를 높은 정밀도로 일정하게 유지시키기 위해서, 비교적 고가의 부피가 큰 스텝퍼 모터를 사용한다. 손에 쥐는 스캐너와 같은 몇몇 종래 기술의 장치는, 스캐너가 화상화 되는 물체위를 가변 속도로 수 조작될 때에 스캐닝 프로세스를 동기시키기 위해 롤러와 결합되는 보다 작은 부피의 엔코더를 사용한다. 스캔 속도는 변화됨에도 불구하고, 이는 롤러와 엔코더 사이의 전기 및/또는 기계 결합에 의해 결정될 수 있다. 그러나, 이러한 설비는 스캔된 화상의 고해상도를 달성하기 위해서, 고가의 고정밀 엔코더 및/또는 상당한 기계적인 복잡성을 요구한다.
본 발명은, 고정밀 스텝퍼 모터의 필요없이, 그리고 물체의 속도를 기계적으로 측정할 필요없이, 하나 이상의 선형 어레이를 이용하여 이동 물체의 화상을 포착하기 위한 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명은, 하나 이상의 선형 센서 어레이를 알려지지 않은 가변속도 또는 일정 속도로 통과하는 물체의 화상을 저렴하게 포착하기 위한 장치 및 방법에 관한 것이다.
도 1은 단일의 선형 센서 어레이를 갖춘 화상처리장치의 개략적인 사시도,
도 2는 도 1의 장치의 측면도,
도 3은 도 1의 장치의 전자 부품을 나타낸 개략적인 블록도,
도 4는 도 1의 장치가 이동하는 물체의 화상을 형성하는 단계의 시퀀스를 나타낸 플로우차트,
도 5는 이격된 선형 센서 어레이의 쌍을 나타낸 상부 평면도,
도 6은 도 5의 선형 센서 어레이와 통합된 화상처리장치의 측면도,
도 7은 도 5의 선형 센서 어레이를 경유하여 얻어진 선택된 화상 세그먼트로 형성된 합성화상의 저장 버퍼내의 축적을 묘사하는 양식화된 도면,
도 8은 도 6의 장치에 의해 이동하는 물체의 화상을 형성하는 단계의 시퀀스를 나타낸 플로우차트,
도 9는 도 6의 장치가 이동하는 물체의 화상을 형성하는 단계의 대안적인 시퀀스를 나타낸 플로우차트,
도 10은 3개의 이격된 선형 센서 어레이의 상부 평면도,
도 11은 도 10의 선형 센서 어레이와 통합된 화상처리장치에 의해 이동하는 물체의 화상을 형성하는 단계의 시퀀스를 나타낸 플로우차트,
도 12는 4개의 이격된 칼라 필터 선형 센서 어레이의 상부 평면도,
도 13은 도 12의 선형 센서 어레이와 통합된 화상처리장치의 측면도,
도 14는 도 13의 장치에 의해 이동하는 물체의 칼라 화상을 형성하는 단계의 시퀀스를 나타내는 플로우차트이다.
제1실시예에 있어서, 본 발명은 물체가 어레이를 가로로 가로질러 센서에 인접한 세그먼트의 연속적인 위치로 이동됨에 따라 선형 센서 어레이가 연속적으로 물체의 세그먼트의 화상을 생성하는 화상처리장치를 제공한다. 연속적으로 지정된 쌍의 세그먼트 화상은 그들 사이의 유사성의 출력신호 표시를 생성하도록 비교된다. 세그먼트 이미지의 쌍 중 하나는, 비교기 출력 신호가 화상의 쌍 사이의 실질적인 유사성의 표시가 아닐때 마다 버퍼내에 축적된다.
다른 실시예에 있어서, 본 발명은 제1발생시간에서 제1선형 어레이가 제1센서에 인접하게 위치된 물체의 제1세그먼트의 제1화상을 생성하는 화상처리장치를 제공한다. 제2선형 센서 어레이는 거리 d 만큼 제1어레이로부터 이격된다. 제2발생시간에서, 제2어레이는 제2센서에 인접한 물체의 제2세그먼트의 제2화상을 생성한다. 버퍼는 제1어레이에 결합된다. 물체가 제1어레이를 가로질러 이동함에 따라, 연속적인 다수의 제1세그먼트에 대한 제1화상 및 그 발생시간이 버퍼내에 축적된다. 비교기는 버퍼와 제2어레이 사이에 결합된다. 비교기는 제2화상을 선택된 다수의 축적된 제1화상 각각과 비교하여 축적된 제1화상중 어느 것이 제2화상과 가장 유사한지(예컨대, 가장 잘 매치되는지)를 결정한다. 그러면, 물체속도평가기가 물체의 속도(S)를 d/(ti-tm)[예컨대, S∝d/(ti-tm)]의 적절한 가중함수에 따라 평가한다. 여기서, ti는 제2화상 중 선택된 하나의 발생시간이고, tm은 선택된 제2화상과 가장 유사한 제1화상의 발생시간이다.
화상처리장치는 일정하거나 가변되는 샘플링 속도로 동작될 수 있다. 샘플링 속도가 일정하면, 동일 시간폭의 샘플링 간격동안 세그먼트 화상이 생성된다. "가장 잘 매치되는(best match)" 스캔 각각의 속도 및 시간 폭이 알려져 있기 때문에, 이러한 스캔 각각의 폭이 쉽게 결정되고, 버퍼가 샘플되어 동일 폭의 화상 "스트립"을 추출할 수 있으므로, 이들이 조합되어 전체 화상을 만들게 된다. 가변 샘플링 속도를 이용하면, 1/(R*S)와 동일한 시간폭을 갖는 샘플링 간격동안 각 세그먼트 화상이 생성된다. 여기서, R는 최종 화상의 바람직한(일정한) 해상도이다. 스캔 속도가 물체의 속도와 비례하여 변하기 때문에, 스캐닝 프로세스가 완료되면 합성화상이 버퍼로부터 직접 읽힐 수 있다.
더욱이, 본 발명의 실시예는 부가적인 센서 어레이와 통합되어 보다 정확하고 확실하게 물체의 속도를 측정하고, 결과적으로 최종 화상의 해상도를 향상시킨다.
도 1 및 도 2는 단일 선형 센서 어레이(10)를 구비한 본 발명의 제1실시예를 나타낸다. 화상처리되는 물체(12)는 알려지지 않은 가변속도 또는 일정 속도로 화살표(14)방향으로 커버플레이트(18)내의 시계영역(16)을 거쳐 이동한다. 센서(10)는 시계영역(16)을 통해 물체(12)의 좁은 선형상의 세그먼트를 "보고", 그 세그먼트의 출력신호 표시를 생성한다. 렌즈(20) 또는 그 밖의 수단이 센서(10)에 의해 보여지는 물체 세그먼트를 보는데 도움을 준다.
센서(10)는 1 x n 픽셀의 선형 어레이일 수 있다. 커버플레이트(18)는 투명 일 수 있고, 이 경우 시계영역(16)은 커버플레이트(18)의 소정의 영역일 수 있다. 한편, 시계영역(16)은 커버플레이트(18)내의 슬롯이나 틈(aperture)일 수도 있다.
도 3에 개략적으로 나타낸 바와 같이, 센서(10)에 의해 생성된 출력신호는 프로세서(22)로 전송되고, 프로세서(22)는 메모리 버퍼(24)내에 이 출력신호를 저장한다. 물체(12)의 완전한(또는 부분적인) 화상이, 이하 나타낸 바와 같이 버퍼(24)내에 저장될 때 프로세서(22)가 완전한(또는 부분적인) 화상을 26에서 출력한다.
도 1 내지 도 3에 나타낸 장치의 동작이 도 4의 플로우차트에 의해 도시된다. 센서(10)에 의해 생성되는 현재의 신호는 단계 30[예컨대, 센서(10)는 스캔되어 시계영역(16)에 현재 인접한 물체(12) 세그먼트의 1 x n 픽셀 화상을 얻는다]에서 나타낸 바와 같이 프로세서(22)에 의해 수신된다. 단계 32에서 나타낸 바와 같이, 센서(10)에 의해 현재 생성된 신호[전형적으로는, 각 바이트가 센서(10)에서 하나의 픽셀에 대응하는 n바이트의 시리즈로 구성된다]는 프로세서(22)에 의해 이전에 스캔된 버퍼(24)내에 저장된 신호와 비교된다. 비교단계 32가, 단계 34에서, 센서(10)에 의해 생성된 현재 신호가 버퍼내에 저장된 이전에 스캔된 신호와 실질적으로 유사한 것으로 나타나면, 단계 30이 시작됨과 더불어 상기 단계가 반복된다. 그렇지 않고, 비교단계 32가 센서(10)에 의해 생성된 현재신호와 이전에 스캔된 신호 사이가 실질적으로 유사하지 않은 것으로 밝히면, 센서(10)에 의해 현재 생성된 신호는 단계 36에 나타낸 바와 같이 버퍼(24)내에 저장된다. 저장단계 36이 버퍼(24)를 충족시키지 않으면(예컨대, 테스트단계 38의 결과가 부정적이면), 단계 30이 시작됨과 더불어 상기 단계가 반복된다. 그렇지 않고, 저장단계 36이 버퍼(24)를 충족시키면, 버퍼(24)내의 전체 화상을 보냄과 더불어 동작이 단계 40에서 종료된다.
해당 기술분야의 당업자에 있어서는, 화상 스캐닝 동작의 시작 전에 버퍼(24)가 초기에 클리어(clear)되는 것으로 이해 된다. 이는 "이전에 스캔된" 블랭크의 연속인 화상신호의 버퍼(24)내로의 저장에 대응한다. 또한, 단계 34에 의한 현재와 이전에 스캔된 신호 사이의 "실질적인 유사성"의 결정은 이러한 신호로 구성되는 데이터의 본질에 적당하게 변할 수 있는 신호를 비교하는데 사용되는 테스트에 의존하는 것으로 이해된다. 더욱이, 센서(10)에 의해 현재 생성된 신호와 바로 직전에 스캔된 신호와의 비교는 필수적인 것은 아니고, 이전에 스캔된 신호는 버퍼내에 저장될 수 있으며 저장된 신호 중 선택된 하나와 비교된다.
해당 기술분야의 당업자는 화상 스캐닝 프로세스의 개시를 나타내거나 프로세스의 종료를 나타내는 다양한 기술이 사용될 수 있다는 것을 인식한다. 예컨대, 외부적으로 제공되는 트리거신호나, 센서(10)로부터의 출력신호의 초기 검출이나, 소정의 "스캐닝 비개시(非開始)" 신호와 다른 출력신호를 위한 센서(10)의 표시 체크는 단계 30에서의 스캐닝 프로세스의 개시를 나타내기 위해 검출될 수 있는 다양한 상태이다. 프로세서의 종료를 나타내기 위해서(예컨대, 테스트단계 38을 수행하기 위해서), 단계 36의 마지막 실행이 버퍼(24)를 충족시키는지 보거나, 소정의 시간간격이 단계 34 동안 "실질적으로 유사하지 않은" 데이터의 검출없이 경과하는 것을 결정하거나, 시계영역(16)을 넘은 물체(12)의 완전한 통과를 나타내는 외부 트리거신호를 제공하는 것 등을 체크할 수 있다.
도 5는 거리 "d" 만큼 이격된 제1 및 제2평행 선형 어레이(42,44)를 갖춘 대안적인 센서를 나타낸다. 어레이(42,44) 각각은 1 x n 픽셀 선형 어레이일 수 있다. 도 6의 어레이(42,44)와 통합된 화상처리장치는, 2개의 이격된 평행한 시계 영역(46,48)이 커버플레이트(18)에 제공된 것을 제외하고는 상기 장치와 유사하다. 어레이(44)는 어레이(42)에 의해 보여진 세그먼트와 다른 물체(12)의 세그먼트를 "본다". 특히, 어레이(44)가 어레이(42) 뒤로 거리 "d" 만큼 이격되므로, 어레이(42)는 어레이(44)에 의해 보여진 세그먼트 앞에 거리 "d" 만큼 이격된 물체(12)의 세그먼트를 본다. 도 7에 나타낸 바와 같이, 어레이(42)가 버퍼(24)내에 저장된 세그먼트를 획득하는데 사용되는 반면, 어레이(44)는 버퍼내에 저장된 이전에 스캔된 세그먼트 중 어느 것이 어레이(44)에 의해 현재 보여진 물체 세그먼트와 가장 유사한지를 결정하는데 사용된다.
단순화를 위해서, 도 6은 어레이(42,44)와 같이 동일 거리 "d"로 이격된 시계영역(46,48)을 나타낸다. 그러나, 시계영역 및 어레이가 동일한 이격거리를 반듯이 갖는 것은 아니다. 시계영역과 어레이 사이의 관계는 렌즈(20) 또는 그 밖의 수단에 의해 결정된다. 각 어레이에 의해 "보이는" 시계영역의 위치 및 크기를 결정하기 위해서, 공지된 기술이 쉽게 적용될 수 있다. 이는 2개 이상 이격된 센서 어레이를 채용하는 본 발명의 소정의 실시예에 적용된다.
도 8은 도 6 내지 도 7에 나타낸 화상처리장치를 일정 샘플링 속도로 동작시키는 방법을 나타낸 플로우차트이다. 발생시간(t1, t2, ...tn)을 갖는 일정 시간 샘플링 간격에서, 각 센서(42,44)에 의해 생성된 신호는 단계 50에서 나타낸 바와 같이 수신된다[예컨대, 시계영역(46,48)에 각각 현재 인접한 물체(12)의 2개의 세그먼트의 2개의 1 x n 픽셀 화상을 얻기 위해 센서(42,44)가 스캔된다]. 각 시간 간격동안, 어레이(42)에 의해 생성된 스캔된 화상신호는, 단계 52에 나타낸 바와 같이 신호의 발생시간을 나타내는 신호와 함께, 버퍼(24)내에 저장된다. 단계 54에서, 버퍼(24)내에 저장된 선택된 다수의 이전에 스캔된 신호는 어레이(44)에 의해 생성된 스캔된 화상신호와 비교되어, 어레이(44)에 의해 생성된 스캔된 화상신호와 가장 잘 매치된(예컨대, 가장 유사한) 저장된 신호를 탐색한다. 그 다음, 물체(12)의 속도(S)가 단계 56에서 d/(tj-tm)으로 결정된다. 여기서, tj는 어레이(44)에 의해 생성된 스캔된 화상신호 중 선택된 하나의 발생시간이고, tm은 선택된 어레이(44) 신호와 가장 잘 매치되는 저장된 신호의 발생시간이다[센서 어레이(42,44)가 동시에 스캔되면, tj= ti임을 주지하자]. 단계 58에서, 속도정보가 어레이(44)에 의해 생성된 스캔된 화상신호와 가장 잘 매치되는 저장된 신호에 첨부되거나 이와 연관됨으로써, 속도정보가 버퍼(24)에 저장된다. 테스트단계 60에 의해 나타낸 바와 같이, 상기 단계는, 단계 50이 시작됨과 더불어 스캐닝 프로세스가 종료될 때까지 반복된다. 어레이(42,44)가 상기와 같이 이격되기 때문에, 시계영역(48)에 도착하기 전에 시계영역(46)을 거처 물체(12)가 이동함에 따라 전형적으로 단계 50과 단계 52가 다른 세그먼트에 대해 다수번 반복된다.
스캐닝 프로세스가 완료되면, 단계 62 내지 64에서 버퍼(24)내에 저장된 스캔된 화상신호로부터의 동일 폭의 화상 "스트립"을 연속적으로 추출함으로써, 합성화상이 형성된다. "가장 잘 매치된" 스캔 각각의 속도(S) 및 시간폭이 알려져 있으므로, 이러한 스캔 각각의 폭(wi)은 wi=S*ti로 쉽게 결정될 수 있고, 따라서 버퍼(24)가 그 동일 폭 화상 스트립을 추출하기 위해 쉽게 샘플될 수 있다.
도 9의 플로우차트는 도 6 내지 도 7의 실시간 스캔 속도 제어를 사용하는 화상처리장치의 대안적인 동작방법을 나타낸다. 도 8의 방법이 일정 샘플링 속도를 사용하는 반면 도 9의 방법은 물체(12)의 (가변)속도(S)와 최종 화상의 목표(일정) 해상도(R)에 의해 결정되는 가변 샘플링 속도를 이용하는 것을 제외하고는, 단계 70과, 72, 74 및, 76은 도 8의 단계 50과, 52, 54 및, 56과 각각 동일하다. 따라서, 도 9의 방법에 있어서, 각 샘플링 간격(t1,t2,...tn)은, 단계 76에서 물체(12)의 현재 속도(S)의 결정 후, 단계 78에서 결정된 가변 시간폭 Twait=1/(R*S)을 갖는다. 도 9의 방법은 속도의 함수로서 스캔 비율을 표준화하기 때문에, 스캐닝 프로세스가 완료됨에 따라 합성화상이 단계 82에서 버퍼(24)로부터 직접 독출될 수 있는 반면, 이전에 설명한 바와 같이 도 8의 방법은 각 화상 스트립의 폭의 표준화를 요구한다. 따라서, 도 9의 방법이 도 8의 방법 보다 빨리 최종 화상을 처리하는 것을 볼 수 있다. 그러나, 도 9의 방법은 도 8의 방법보다 복잡하다. 예컨대, 도 9의 방법을 신뢰할 수 있게 수행하기 위해서, 빠르고 보다 비싼 버전의 프로세서(22)가 요구될 수도 있다.
다수의 센서 어레이를 증가시킴으로써, 좀더 정확하고 확실하게 물체(12)의 속도를 측정하고, 결과적으로 최종 화상의 재구성을 향상시킬 수 있다. 예컨대, 도 10은 제1과 제2 및 제3의 평행한 선형 어레이(84,86,88)를 갖춘 센서를 나타낸다. 제1 및 제2 어레이(84,86)는 거리 d12만큼 이격되고, 제2 및 제3 어레이(86,88)는 거리 d23만큼 이격되며, 제1 및 제3어레이(84,88)는 거리 d13=d12+d23만큼 이격된다. 어레이(84,86,88) 각각은 1 x n 픽셀 선형 어레이일 수 있고, 제3시계영역이 제3센서 어레이를 위해 커버플레이트(18)내에 요구되는 것을 제외하고, 도 6에 나타낸 바와 같은 화상처리장치내에 채용될 수 있다. 어레이(84,86,88) 각각은 물체(12)의 다른 세그먼트를 "본다". 특히, 어레이(86)가 어레이(84)에 의해 보여진 세그먼트의 앞에 거리 d12만큼 이격된 물체(12)의 세그먼트를 보는 반면, 어레이(88)는 어레이(86)에 의해 보여진 세그먼트의 앞에 거리 d23만큼 이격되고 어레이(84)에 의해 보여진 세그먼트의 앞에 거리 d13만큼 이격된 물체(12)의 세그먼트를 본다.
도 11의 플로우차트는 도 10의 일정 샘플링 속도를 사용하는 3개의 선형 어레이 센서와 통합된 화상처리장치를 동작시키는 방법을 나타낸다. 도 8의 방법이 도 5의 2개의 선형 어레이 센서의 동작에 적용되는 반면, 도 11의 방법은 도 10의 3개의 선형 어레이 센서의 동작에 적용되는 것을 제외하고, 도 11의 방법은 도 8의 방법과 동일하다. 따라서, 단계 90에서, 발생시간(t1, t2,... tn)을 갖는 일정 시간 샘플링 간격에서 각 센서(84,86,88)에 의해 생성된 신호는 각 샘플시간에서 3개의 센서에 의해 보여진 물체(12)의 3개의 세그먼트의 1 x n 픽셀 화상으로서 수신된다. 각 시간간격 동안, 제1어레이(84)에 의해 생성된 스캔된 화상신호는, 단계 92에서 나타낸 바와 같이 그 신호의 발생시간의 신호 표시와 함께, 버퍼(24)내에 저장된다. 단계 94에서, 버퍼(24)내에 저장된 이전에 스캔된 신호는 제2어레이(86) 및 제3어레이(88) 모두에 의해 생성된 스캔된 화상신호와 비교되어 제1어레이(84)에 의해 생성된 스캔된 화상신호와 가장 유사한(예컨대, 가장 잘 매치된) 저장된 신호를 탐색한다. 그 다음, 단계 96에서, d12/(tj-tm)과, d23/(tm-to) 및, d13/(tk-to)[예컨대, S ∝ d12/(tj-tm)와 d23/(tm-to) 및 d13/(tk-to)]의 적당하게 평가된 가중함수로서 물체(12)의 속도(S)가 결정된다. 여기서, tj는 어레이(86)에 의해 생성된 스캔된 화상신호 중 선택된 하나의 발생시간이고, tk는 어레이(88)에 의해 생성된 스캔된 화상신호 중 선택된 하나의 발생시간이며, tm은 선택된 어레이(86) 화상신호와 가장 잘 매치되는 이전에 저장된 어레이(84) 신호의 시간이고, to는 선택된 어레이(88) 신호와 가장 잘 매치되는 이전에 저장된 어레이(84) 신호의 발생시간이다. 단계 98에서, 속도정보를 어레이(84)에 의해 생성된 스캔된 화상신호와 가장 잘 매치되는 저장된 신호에 첨부하거나 이와 연관시킴으로써, 속도정보가 버퍼(24)내에 저장된다. 테스트단계 100에서 나타낸 바와 같이, 상기 단계는, 단계 90이 시작됨과 더불어 스캐닝 프로세스가 완료될 때까지 반복된다. 스캐닝 프로세스가 완료되면, 도 8의 단계 62와 연관하여 상기된 바와 같이, 단계 102 내지 104에서 버퍼(24)내에 저장된 스캔된 화상신호로부터 동일 폭의 화상 "스트립"을 연속적으로 추출함으로써 합성화상이 형성된다.
또한, 본 발명은 칼라 화상의 포착을 용이하게 한다. 예컨대, 도 12는 4개의 평행한 선형 어레이(106,108,110,112)를 갖춘 센서를 나타낸다. 어레이(106)는 적색 대역통과필터로 덮이므로, 칼라 스펙트럼의 적색부분만을 "본다". 유사하게, 어레이(108,110)는 녹색 및 청색 대역통과필터에 의해 각각 덮이므로, 칼라 스펙트럼의 녹색 및 적색부분만을 각각 "본다". 어레이(112)는 필터를 갖지 않으므로(또는 투명 커버를 갖추므로), 전체 칼라 스펙트럼을 "본다". 어레이(106,108)는 거리 "d" 만큼 된다. 본 발명의 소정의 실시예에 있어서, 동일한 어레이 간격은 필수적이지 않은 것으로 기재되었음에도 불구하고, 어레이(108,110 및 110,112)는 유사하게 이격될 수 있다.
어레이(106,108,110,112)와 통합된 도 13의 화상처리장치는, 커버플레이트(18)내에 제공된 4개의 이격되고 평행한 시계영역(114,116,118,119) 이외에는 도 6과 유사하다. 용이하게 참고하기 위해서, 센서 어레이(106,108,110,112)는, 도 12 내지 도 14에 나타낸 바와 같이, 이하 각각 "R"(적색)과, "G"(녹색), "B"(청색) 및, "C"(무색)를 나타낸다.
도 14의 플로우차트는, 일정 샘플링 속도를 사용하는 도 13의 칼라 화상처리장치의 동작방법을 나타낸다. 도 8 및 도 11의 방법이 각각 2개 및 3개의 선형 어레이 센서에 적용되는 반면, 도 14의 방법은 도 12의 4개의 선형 어레이 칼라 센서의 동작에 적용되는 것을 제외하고, 도 14의 방법은 도 8 및 도 11의 방법과 동일하다. 따라서, 단계 120에서, 발생시간(t1,t2, ...tn)을 갖는 일정 시간 샘플링 간격에서 R과, G, B 및, C센서 각각에 의해 생성된 신호는 각 샘플시간에서 4개의 센서에 의해 보여진 물체(12)의 4개의 세그먼트의 4개의 1 x n 픽셀 화상으로서 수신된다. 각 시간간격동안, R센서에 의해 생성된 스캔된 R화상신호는 "R"버퍼내에 저장되고, G센서에 의해 생성된 스캔된 G화상신호는 "G"버퍼내에 저장되며, B센서에 의해 생성된 스캔된 B화상신호는 "B"버퍼내에 저장된다. 이러한 각 경우에 있어서, 저장된 R과, G 또는 B화상신호의 발생시간의 신호표시 또한 단계 122에 나타낸 바와 같이 R과 G 및 B버퍼 각각에 저장된다. 단계 124에서, R과 G 및 B버퍼내에 저장된 이전에 스캔된 신호는 C센서에 의해 생성된 스캔된 화상신호와 비교되어 스캔된 C화상신호와 스캔된 C화상신호와 가장 잘 매치되는 저장된 G신호 및 스캔된 C화상신호와 가장 잘 매치되는 저장된 B신호와 가장 유사한(예컨대, 가장 잘 매치되는) 저장된 R신호를 탐색한다. 센서 어레이가 동일하게 이격된다면, 단계 126에서 3d/(t1-tR)와 2d/(t1-t0) 및 d/(t1-tB)의 적절한 가중함수에 따라 물체(12)의 속도(S)가 결정된다. 여기서, t1은 C화상신호 중 선택된 하나의 발생시간이고, tR과 tG및 tB각각은 선택된 C화상신호와 가장 잘 매치되는 저장된 R과 G 및 B신호의 발생시간이다. 단계 128에서, 속도정보를 스캔된 C화상신호와 가장 잘 매치되는 저장된 R과 G 및 B신호에 첨부하거나, 그렇지 않으면 이와 연관시킴으로써, 속도정보가 R과 G 및 B버퍼에 각각 저장된다. 테스트단계 130에 나타낸 바와 같이, 단계 120을 시작함과 더불어 스캐닝 프로세스가 완료될 때까지 상기 단계는 반복된다. 스캐닝 프로세스가 완료되면, R과 G 및 B버퍼에 각각 저장된 스캔된 화상신호로부터 동일 폭의 화상 "스트립"을 연속적으로 추출함으로써 화상의 R과 G 및 B구성요소가 단계 132 내지 단계 134에서 형성된다. 그 다음, R과 G 및 B화상 구성요소는 공지된 양식으로 합병되어 최종적인 합성화상을 만든다.
해당기술의 당업자에게 명백한 바와 같이 본 발명의 정신 및 범위를 벗어남이 없이 다양한 변형 및 변경을 실시할 수 있다. 예컨대, 도 10 및 도 12의 센서의 동작이 일정 샘플링 속도를 참조로 기재되었음에도 불구하고, 당업자에게는 도 5의 2개의 어레이 센서에 대해 도 9를 참조하여 상기된 바와 같이 어느 한쪽 센서가 실시간 스캔 속도 제어를 사용하여 동작될 수 있는 것으로 이해된다. 또한, 해당 기술분야의 당업자에게는 용량성 선형 어레이와 같은 비-광학 센서가 참조된 선형 센서 어레이로서 사용될 수 있는 것으로 이해된다.
다른 예에서와 같이, 도 12 내지 도 13의 칼라 화상처리장치가 4개의 센서를 갖는 것으로 기재되었음에도 불구하고, 해당 기술분야의 당업자는 화상처리되는 물체가 칼라에 있어서 충분히 다중-스펙트럼이어서 기초적인 기준없이 R과 G 및 B센서 사이의 적당한 상관성을 용이하게 하는 것으로 가정될 수 있으면, "C"센서가 제거될 수 있는 것으로 이해한다.
다른 실시예에서와 같이, 용량성 센서와 전기장 센서, 열센서 또는 다른 타입과 같은 비-광학 선형 어레이 센서가 채용될 수 있다. 따라서, 해당 기술분야의 당업자는 센서 어레이(10; 도 1 및 도 2)와 센서 어레이(42,44;도 5와 도 6 및 도 7) 또는 센서 어레이(84,86,88;도 10) 중 하나가 비-광학 센서 어레이일 수 있는 것으로 이해한다.
또 다른 실시예서와 같이, 상기 1 x n 픽셀 선형 어레이는 m x n 픽셀 "영역" 어레이로 대체될 수 있다. 여기서, m≥2(예컨대, m 열 각각은 n 픽셀을 갖는다)이다. 따라서, 도 10에 나타낸 바와 같이 3개의 불연속의 1 x n 픽셀 선형 어레이를 사용하는 대신, 10 x n 픽셀의 2개 이상의 불연속 영역 어레이를 사용할 수 있다. 다른 실시예에 있어서, 500 x n 픽셀의 단일 영역 어레이를 채용할 수 있음에 따라, 2배 이상의 시간을 스캔하고, 도 10에 나타낸 간격에 대응하는 간격을 갖는 열을 점검한다. 해당 기술분야의 당업자는 이러한 영역 어레이의 열의 소정의 바람직한 조합이 불연속 선형 어레이의 관계로서 상기된 바와 같이 스캔될 수 있는 것으로 이해된다.

Claims (17)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. (a) 시간간격(Twait)의 종료 후, 제1발생시간에서 제1위치에 인접한 물체의 제1세그먼트의 제1화상을 생성하는 단계와,
    (b) 이 제1화상 및 상기 제1발생시간을 저장하는 단계,
    (c) 상기 물체이 상기 제1위치를 가로질러 이동함에 따라, 연속적인 다수의 상기 제1세그먼트에 대해 상기 단계 (a) 및 (b)를 반복하는 단계,
    (d) 제2발생시간에서 상기 제1위치로부터 거리 d 만큼 이격된 제2위치에 위치된 상기 물체의 제2세그먼트의 제2화상을 생성하는 단계,
    (e) 상기 제2화상을 상기 저장된 제1화상과 각각 비교하여, 상기 제2화상과 가장 유사한 상기 저장된 제1화상 중 하나를 선택하는 단계,
    (f) 상기 물체의 속도 S∝d/(ti-tm)(여기서, ti는 상기 제2화상중 선택된 하나의 상기 발생시간이고, tm은 상기 선택된 제2화상과 가장 유사한 상기 제1화상의 상기 발생시간임)를 평가하는 단계,
    (g) 상기 시간간격 Twait=1/(R*S)(여기서, R은 소정의 화상 해상도임)을 결정하는 단계,
    (h) 상기 물체가 상기 제2위치를 넘어 이동할 때까지 상기 단계 (a) 내지 (g)를 반복하는 단계 및,
    (i) 상기 선택된 제1화상을 조합하여 상기 물체의 합성화상을 생성하는 단계를 구비하여 이루어진 것을 특징으로 하는 선형 센서 화상처리방법.
  8. (a) 제1발생시간에서 제1센서에 인접하게 위치된 물체의 제1세그먼트의 제1화상을 생성하기 위한 제1선형 센서 어레이(84)와,
    (b) 상기 제1어레이에 결합되고, 상기 물체가 상기 제1어레이를 가로질러 이동함에 따라, 연속적인 다수의 상기 제1세그먼트에 대한 상기 제1화상과 상기 제1발생시간을 저장하기 위한 버퍼(24),
    (c) 거리 d12만큼 상기 제1어레이로부터 이격되고, 제2발생시간에서 제2센서에 인접하게 위치된 제2물체 세그먼트의 제2화상을 생성하기 위한 제2선형 센서 어레이(86),
    (d) 거리 d13만큼 상기 제1어레이로부터 이격되고, 거리 d23만큼 상기 제2어레이로부터 이격되며, 제3발생시간에서 제3센서에 인접하게 위치된 제3물체 세그먼트의 제3화상을 생성하기 위한 제3선형 센서 어레이(88),
    (e) 상기 버퍼와 상기 제2 및 제3어레이 사이에 결합되고,
    (i) 상기 제2화상과 상기 저장된 제1화상의 각각을 비교하여, 상기 저장된 제1화상중 어느 것이 상기 제2화상과 가장 유사한지를 결정하고,
    (ii) 상기 제3화상과 상기 저장된 제1화상의 각각을 비교하여, 상기 저장된 제1화상 중 어느 것이 상기 제3화상과 가장 유사한지를 결정하기 위한 비교기 및,
    (f) (i) d12/(tj-tm) 또는,
    (ii) d23/(tm-to) 또는,
    (iii) d13/(tj-t0) 또는,
    (ⅳ) d12/(tj-tm)와 d23/(tk-to) 및 d13/(tj-t0)(여기서, tj는 상기 제2화상중 선택된 하나의 상기 발생시간이고, tk는 상기 선택된 제2화상과 가장 유사한 상기 제1화상의 발생시간이며, t0는 상기 선택된 제2화상과 가장 유사한 상기 제3화상의 상기 발생시간임)의 조합 중 하나에 비례하는 것으로서 상기 물체의 속도(S)를 평가하기 위한 물체속도 평가기(22)를 구비하여 구성된 것을 특징으로 하는 선형 센서 화상처리장치.
  9. 제8항에 있어서, 센서 제어수단이 상기 물체속도 평가기와 상기 제2어레이 사이에 결합되고, 이 센서 제어수단이 상기 속도(S)의 함수로서 상기 제1발생시간의 연속 사이의 타이밍을 제어하는 것을 특징으로 하는 선형 센서 화상처리장치.
  10. (a) 제1발생시간에서 제1위치내에 위치된 물체의 제1세그먼트의 제1화상을 생성하는 단계와,
    (b) 이 제1화상 및 상기 제1발생시간을 저장하는 단계,
    (c) 상기 물체가 상기 제1위치를 가로질러 이동함에 따라 연속적인 다수의 상기 제1세그먼트에 대해 상기 단계 (a) 및 (b)를 반복하는 단계,
    (d) 제2발생시간에서 상기 제1위치로부터 거리 d12만큼 이격된 제2위치에 위치된 상기 물체의 제2세그먼트의 제2화상을 생성하는 단계,
    (e) 제3발생시간에서 상기 제1위치로부터 거리 d13만큼 이격되고 상기 제2위치로부터 거리 d23만큼 이격된 제3위치에 위치된 상기 물체의 제3세그먼트의 제3화상을 생성하는 단계,
    (f) 상기 제2화상과 상기 저장된 제1화상의 각각을 비교하여, 상기 제2화상과 가장 유사한 상기 저장된 제1화상중 하나를 선택하는 단계,
    (g) 상기 제3화상과 상기 저장된 제1화상의 각각을 비교하여, 상기 제3화상과 가장 유사한 상기 저장된 제1화상 중 하나를 선택하는 단계,
    (h) 상기 물체의 속도(S)를,
    (i) d12/(tj-tm) 또는,
    (ii) d13/(tk-to) 또는,
    (iii) d23/(tm-t0) 또는,
    (ⅳ) d12/(tj-tm)와 d23/(tm-to) 및 d13/(tk-t0)(여기서, tj는 상기 제2화상중 선택된 하나의 상기 발생시간이고, tk는 상기 선택된 제2화상과 가장 유사한 상기 제1화상의 상기 발생시간이며, t0는 상기 선택된 제3화상과 가장 유사한 상기 제1화상의 상기 발생시간임)의 조합 중 어느 하나에 비례하는 것으로서 평가하는 단계,
    (i) 상기 물체가 상기 제3위치를 넘어 이동할 때까지, 상기 단계 (a) 내지 (h)를 반복하는 단계 및,
    (j) 상기 선택된 제1화상를 조합하여 상기 물체의 합성화상을 생성하는 단계를 구비하여 이루어진 것을 특징으로 하는 선형 센서 화상처리방법.
  11. 제10항에 있어서, (a) 상기 세그먼트 화상이 일정 간격(T)의 시간간격 동안 각각 생성되고,
    (b) 상기 합성화상 생성 단계가, 상기 선택된 제1세그먼트 화상의 각각에 대해 폭 w=Si*T(여기서, Si는 상기 선택된 제1세그먼트 화상과 함께 저장된 상기 평가 속도임)로부터 일정한 폭으로 상기 선택된 제1세그먼트 화상의 폭을 바꾸는 단계를 더 구비하여 이루어진 것을 특징으로 하는 선형 센서 화상처리방법.
  12. 제10항에 있어서, 상기 속도평가 단계 후, Twait=1/(R*S)(여기서, R은 소정의 화상 해상도임)를 결정하고, 상기 방법을 연속적으로 실행하기 전에, 세그먼트 화상이 일정 간격(T)의 시간간격 동안 각각 생성된 후, 상기 Twait와 동일한 시간간격을 기다리는 단계를 구비하여 이루어진 것을 특징으로 하는 선형 센서 화상처리방법.
  13. (a) 제1발생시간에서 제1센서에 인접하게 위치된 물체의 제1세그먼트의 제1화상을 생성하기 위한 제1선형 센서 어레이와,
    (b) 상기 제1화상을 칼라 필터링하기 위한 제1칼라 필터,
    (c) 상기 제1어레이와 결합되고, 상기 물체가 상기 제1어레이를 가로질러 이동함에 따라, 연속적인 다수의 상기 제1세그먼트에 대한 상기 칼라 필터된 제1화상과 상기 제1발생시간을 저장하기 위한 제1버퍼,
    (d) 거리 d12만큼 상기 제1어레이로부터 이격되고, 제2발생시간에서 제2센서에 인접하게 위치된 제2물체의 세그먼트의 제2화상을 생성하기 위한 제2선형 센서 어레이,
    (e) 상기 제2화상을 칼라 필터링하기 위한 제2칼라 필터,
    (f) 상기 제2어레이에 결합되고, 상기 물체가 상기 제2어레이를 가로질러 이동함에 따라 연속적인 다수의 상기 제2세그먼트에 대한 상기 칼라 필터된 제2화상과 상기 제2발생시간을 저장하기 위한 제2버퍼,
    (g) 거리 d13만큼 상기 제1어레이로부터 이격되고, 거리 d23만큼 상기 제2어레이로부터 이격되며, 제3발생시간에서 제3센서에 인접하게 위치된 제3물체 세그먼트의 제3화상을 생성하기 위한 제3선형 센서 어레이,
    (h) 상기 제3화상을 칼라 필터링하기 위한 제3칼라 필터,
    (i) 상기 제3어레이와 결합되고, 상기 물체가 상기 제3어레이를 가로질러 이동함에 따라 연속적인 다수의 상기 제3세그먼트에 대한 상기 칼라 필터된 제3화상과 상기 제3발생시간을 저장하기 위한 제3버퍼,
    (j) 상기 제1버퍼와 상기 제2어레이 사이에 결합되고, 상기 제2칼라 필터된 화상을 상기 저장된 제1칼라 필터된 화상과 각각 비교하여, 상기 저장된 제1칼라 필터된 화상 중 어느 것이 상기 제2칼라 필터된 화상과 가장 유사한지를 결정하기 위한 제1비교기,
    (k) 상기 제2버퍼와 상기 제3어레이 사이에 결합되고, 상기 제3칼라 필터된 화상을 상기 저장된 제2칼라 필터된 화상과 각각 비교하여, 상기 저장된 제2칼라 필터된 화상 중 어느 것이 상기 제3칼라 필터된 화상과 가장 유사한지를 결정하기 위한 제2비교기,
    (l) 상기 제3버퍼와 상기 제1어레이 사이에 결합되고, 상기 제1칼라 필터된 화상을 상기 저장된 제3칼라 필터된 화상과 각각 비교하여, 상기 저장된 제3칼라 필터된 화상 중 어느 것이 상기 제1칼라 필터된 화상과 가장 유사한지를 결정하기 위한 제3비교기,
    (m) 상기 물체의 속도 S∝d12/(tc-ta)(여기서, tc는 상기 제1칼라 필터된 화상 중 선택된 하나의 상기 발생시간이고, ta는 상기 선택된 제1칼라 필터된 화상과 가장 유사한 상기 제2칼라 필터된 화상의 상기 발생시간임)를 평가하기 위한 제1물체속도 평가기,
    (n) 상기 물체의 속도 S∝d13/(tc-tb)(여기서, tb는 상기 선택된 제1칼라 필터된 화상과 가장 유사한 상기 제3칼라 필터된 화상의 상기 발생시간임)를 평가하기 위한 제2물체속도 평가기 및,
    (o) 상기 물체의 속도 S∝d23/(ta-tb)를 평가하기 위한 제3물체속도 평가기를 구비하여 구성된 것을 특징으로 하는 선형 센서 화상처리장치.
  14. (a) 선택된 발생시간에서 제1위치에 위치된 물체의 제1세그먼트의 제1칼라 필터된 화상을 생성하는 단계와,
    (b) 선택된 발생시간에서 상기 제2세그먼트가 상기 제1위치로부터 이격된 제2위치에 위치되는 동안, 상기 물체의 제2세그먼트의 제2칼라 필터된 화상을 생성하는 단계,
    (c) 선택된 발생시간에서 상기 제3세그먼트가 상기 제1 및 제2위치로부터 이격된 제3위치에 위치되는 동안 상기 물체의 제3세그먼트의 제3칼라 필터된 화상을 생성하는 단계,
    (d) 상기 화상 및 상기 각각의 발생시간을 저장하는 단계,
    (e) 상기 물체가 상기 제1과 제2 및 제3위치를 각각 가로질러 이동함에 따라, 연속적인 다수의 상기 제1과 제2 및 제3세그먼트에 대해, 상기 단계 (a) 내지 (d)를 반복하는 단계,
    (f) 선택된 발생시간에서 상기 제4세그먼트가 상기 제1과 제2 및 제3위치로부터 이격된 제4위치내에 위치되는 동안, 상기 물체의 제4세그먼트의 제4칼라 필터되지 않은 화상을 생성하는 단계,
    (g) 상기 제4화상을 상기 저장된 제1화상의 각각과 비교하여, 상기 제4화상과 가장 유사한 상기 저장된 제1화상 중 하나를 선택하는 단계,
    (h) 상기 제4화상을 상기 저장된 제2화상의 각각과 비교하여, 상기 제4화상과 가장 유사한 상기 저장된 제2화상 중 하나를 선택하는 단계,
    (i) 상기 제4화상을 상기 저장된 제3화상의 각각과 비교하여, 상기 제4화상과 가장 유사한 상기 저장된 제3화상 중 하나를 선택하는 단계,
    (j) 상기 물체의 속도 S∝d14/(tC-tR)와 S∝d24/(tC-tG) 및 S∝d34/(tC-tB)(여기서, d14는 상기 제1센서와 제4센서 사이의 간격이고, d24는 상기 제2센서와 제4센서 사이의 간격이며, d34는 상기 제3센서와 제4센서 사이의 간격이고, tC는 상기 칼라 필터되지 않은 화상중 선택된 하나의 상기 발생시간이며, tR은 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제1칼라 필터된 화상의 상기 발생시간이고, tG는 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제2칼라 필터된 화상의 상기 발생시간이며, tB는 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제3칼라 필터된 화상의 상기 발생시간임)를 평가하는 단계,
    (k) 상기 물체가 상기 4개의 위치를 넘어 이동할 때까지, 상기 단계 (a) 내지 (j)를 반복하는 단계 및,
    (l) 상기 선택된 제1화상을 조합하여 상기 물체의 합성화상을 생성하는 단계를 구비하여 이루어진 것을 특징으로 하는 선형 센서 화상처리방법.
  15. 제14항에 있어서, (a) 상기 세그먼트화상이 일정 간격(T)의 시간간격 동안 각각 생성되고,
    (b) 상기 합성화상 생성 단계가,
    (i) 상기 선택된 제1세그먼트 화상 각각에 대해, 폭 w=SR*T(여기서, SR는 상기 선택된 제1세그먼트 화상에 대해 결정된 상기 평가속도)로부터 일정한 고정된 폭으로 상기 선택된 제1세그먼트 화상의 폭을 바꾸는 단계와,
    (ii) 상기 선택된 제2화상 각각에 대해, 폭 w=SG*T(여기서, SG는 상기 선택된 제2화상에 대해 결정된 상기 평가속도)로부터 일정한 고정된 폭으로 상기 선택된 제2화상의 폭을 바꾸는 단계 및,
    (iii) 상기 선택된 제3화상 각각에 대해, 폭 w=SB*T(여기서, SB는 상기 선택된 제3화상에 대해 결정된 상기 평가속도)로부터 일정한 고정된 폭으로 상기 선택된 제3화상의 폭을 바꾸는 단계를 더 구비하여 이루어진 것을 특징으로 하는 선형 센서 화상처리방법.
  16. 제14항에 있어서, 상기 속도 평가단계 후, Twait=1/(R*S)(여기서, R은 소정의 화상 해상도임)를 결정하고, 상기 방법의 연속적인 실행 전에, 세그먼트 화상이 일정 간격(T)의 시간간격 동안 각각 생성된 후, 상기 Twait와 동일한 시간간격을 기다리는 단계를 구비하여 이루어진 것을 특징으로 하는 선형 센서 화상처리방법.
  17. (a) 제1발생시간에서 제1센서에 인접하게 위치된 물체의 제1세그먼트의 제1화상을 생성하기 위한 제1선형 센서 어레이(106)와,
    (b) 상기 제1화상을 칼라 필터링하기 위한 제1칼라 필터,
    (c) 상기 제1어레이와 결합되고, 상기 물체가 상기 제1어레이를 가로질러 이동함에 따라, 연속적인 다수의 상기 제1세그먼트에 대한 상기 칼라 필터된 제1화상과 상기 제1발생시간을 저장하기 위한 제1버퍼,
    (d) 상기 제1어레이로부터 이격되고, 제2발생시간에서 상기 제2센서에 인접하게 위치된 제2물체의 세그먼트의 제2화상을 생성하기 위한 제2선형 센서 어레이(108),
    (e) 상기 제2화상을 칼라 필터링하기 위한 제2칼라 필터,
    (f) 상기 제2어레이에 결합되고, 상기 물체가 상기 제2어레이를 가로질러 이동함에 따라, 연속적인 다수의 상기 제2세그먼트에 대한 상기 칼라 필터된 제2화상과 상기 제2발생시간을 저장하기 위한 제2버퍼,
    (g) 상기 제1과 제2어레이로부터 이격되고, 제3발생시간에서 제3센서에 인접하게 위치된 제3물체 세그먼트의 제3화상을 생성하기 위한 제3선형 센서 어레이(110),
    (h) 상기 제3화상을 칼라 필터링하기 위한 제3칼라 필터,
    (i) 상기 제3어레이와 결합되고, 상기 물체가 상기 제3어레이를 가로질러 이동함에 따라, 연속적인 다수의 상기 제3세그먼트에 대한 상기 칼라 필터된 제3화상과 상기 제3발생시간을 저장하기 위한 제3버퍼,
    (j) 상기 제1과 제2 및 제3어레이로부터 이격되고, 제4발생시간에서 제4센서에 인접하게 위치된 제4물체 세그먼트의 제4칼라 필터되지 않은 화상을 생성하기 위한 제4선형 센서 어레이(112),
    (k) 상기 제1버퍼와 상기 제4어레이 사이에 결합되고, 상기 칼라 필터되지 않은 화상을 상기 저장된 제1칼라 필터된 화상의 각각과 비교하여, 상기 저장된 제1칼라 필터된 화상중 어느 것이 상기 칼라 필터되지 않은 화상과 가장 유사한지 를 결정하기 위한 제1비교기,
    (l) 상기 제2버퍼와 상기 제4어레이 사이에 결합되고, 상기 칼라 필터되지 않은 화상을 상기 저장된 제2칼라 필터된 화상과 각각 비교하여, 상기 저장된 제2칼라 필터된 화상 중 어느 것이 상기 칼라 필터되지 않은 화상과 가장 유사한지를 결정하기 위한 제2비교기,
    (m) 상기 제3버퍼와 상기 제4어레이 사이에 결합되고, 상기 칼라 필터되지 않은 화상을 상기 저장된 제3칼라 필터된 화상의 각각과 비교하여, 상기 저장된 제3칼라 필터된 화상 중 어느 것이 상기 칼라 필터되지 않은 화상과 가장 유사한지를 결정하기 위한 제3비교기,
    (n) 상기 물체의 속도 S∝d14/(tC-tR)(여기서, d14는 상기 제1센서와 제4센서 사이의 간격이고, tc는 상기 칼라 필터되지 않은 화상 중 선택된 하나의 상기 발생시간이고, tR은 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제1칼라 필터된 화상의 발생시간임)를 평가하기 위한 제1물체속도 평가기,
    (o) 상기 물체의 속도 S∝d24/(tC-tG)(여기서, d24는 상기 제2센서와 제4센서 사이의 간격이고, tG는 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제2칼라 필터된 화상의 상기 발생시간임)를 평가하기 위한 제2물체속도 평가기 및,
    (p) 상기 물체의 속도 S∝d34/(tC-tB)(여기서, d34는 상기 제3센서와 상기 제4센서 사이의 간격이고, tB는 상기 선택된 칼라 필터되지 않은 화상과 가장 유사한 상기 제3칼라 필터된 화상의 상기 발생시간임)를 평가하기 위한 제3물체 속도평가기를 구비하여 구성된 것을 특징으로 하는 선형 센서 화상처리장치.
KR10-2000-7000466A 1997-07-16 1998-07-15 선형 센서 화상처리방법 및 장치 KR100429081B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/892,577 1997-07-16
US08/892,577 US6002815A (en) 1997-07-16 1997-07-16 Linear sensor imaging method and apparatus
US8/892,577 1997-07-16

Publications (2)

Publication Number Publication Date
KR20010021902A KR20010021902A (ko) 2001-03-15
KR100429081B1 true KR100429081B1 (ko) 2004-04-29

Family

ID=25400164

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-7000466A KR100429081B1 (ko) 1997-07-16 1998-07-15 선형 센서 화상처리방법 및 장치

Country Status (10)

Country Link
US (1) US6002815A (ko)
EP (1) EP1020069A2 (ko)
JP (1) JP3989560B2 (ko)
KR (1) KR100429081B1 (ko)
CN (1) CN1174604C (ko)
AU (1) AU8329698A (ko)
CA (1) CA2294004C (ko)
IL (1) IL134067A0 (ko)
TW (1) TW399388B (ko)
WO (1) WO1999004550A2 (ko)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6333989B1 (en) 1999-03-29 2001-12-25 Dew Engineering And Development Limited Contact imaging device
NO20003006L (no) * 2000-06-09 2001-12-10 Idex Asa Mus
US7289649B1 (en) * 2000-08-10 2007-10-30 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint imager
ATE307362T1 (de) 2000-12-05 2005-11-15 Validity Sensors Inc System und methode zur kapazitiven aufnahme von fingerabdrücken durch überstreichen
US7043061B2 (en) * 2001-06-27 2006-05-09 Laurence Hamid Swipe imager with multiple sensing arrays
US7088872B1 (en) 2002-02-14 2006-08-08 Cogent Systems, Inc. Method and apparatus for two dimensional image processing
US7893957B2 (en) * 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US8483960B2 (en) 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
AU2002328437A1 (en) 2002-09-17 2004-04-08 Fujitsu Limited Biological information acquiring apparatus and authentication apparatus using biological information
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
TWI281632B (en) * 2003-12-01 2007-05-21 Benq Corp Handheld device with tract sensitive input function
US8131026B2 (en) 2004-04-16 2012-03-06 Validity Sensors, Inc. Method and apparatus for fingerprint image reconstruction
US8165355B2 (en) 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US8447077B2 (en) * 2006-09-11 2013-05-21 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array
US8358815B2 (en) 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
US8229184B2 (en) 2004-04-16 2012-07-24 Validity Sensors, Inc. Method and algorithm for accurate finger motion tracking
US8175345B2 (en) 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
US7463756B2 (en) * 2004-04-16 2008-12-09 Validity Sensors, Inc. Finger position sensing methods and apparatus
WO2005106774A2 (en) 2004-04-23 2005-11-10 Validity Sensors, Inc. Methods and apparatus for acquiring a swiped fingerprint image
WO2006041780A1 (en) * 2004-10-04 2006-04-20 Validity Sensors, Inc. Fingerprint sensing assemblies comprising a substrate
US7693314B2 (en) * 2004-10-13 2010-04-06 Authentec, Inc. Finger sensing device for navigation and related methods
US7616788B2 (en) * 2004-11-12 2009-11-10 Cogent Systems, Inc. System and method for fast biometric pattern matching
CA2598482C (en) * 2005-02-17 2012-04-17 Authentec, Inc. Finger sensor apparatus using image resampling and associated methods
US7460697B2 (en) * 2005-07-19 2008-12-02 Validity Sensors, Inc. Electronic fingerprint sensor with differential noise cancellation
US8131477B2 (en) 2005-11-16 2012-03-06 3M Cogent, Inc. Method and device for image-based biological data quantification
US20070164202A1 (en) * 2005-11-16 2007-07-19 Wurz David A Large depth of field line scan camera
WO2008033265A2 (en) * 2006-09-11 2008-03-20 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array
US8107212B2 (en) 2007-04-30 2012-01-31 Validity Sensors, Inc. Apparatus and method for protecting fingerprint sensing circuitry from electrostatic discharge
US8275179B2 (en) 2007-05-01 2012-09-25 3M Cogent, Inc. Apparatus for capturing a high quality image of a moist finger
US8290150B2 (en) 2007-05-11 2012-10-16 Validity Sensors, Inc. Method and system for electronically securing an electronic device using physically unclonable functions
US8411916B2 (en) * 2007-06-11 2013-04-02 3M Cogent, Inc. Bio-reader device with ticket identification
JP4389971B2 (ja) * 2007-06-19 2009-12-24 ミツミ電機株式会社 指紋画像形成装置及びこれに用いる指移動量推定方法
US8204281B2 (en) 2007-12-14 2012-06-19 Validity Sensors, Inc. System and method to remove artifacts from fingerprint sensor scans
US8276816B2 (en) 2007-12-14 2012-10-02 Validity Sensors, Inc. Smart card system with ergonomic fingerprint sensor and method of using
US8116540B2 (en) 2008-04-04 2012-02-14 Validity Sensors, Inc. Apparatus and method for reducing noise in fingerprint sensing circuits
US8005276B2 (en) 2008-04-04 2011-08-23 Validity Sensors, Inc. Apparatus and method for reducing parasitic capacitive coupling and noise in fingerprint sensing circuits
WO2010036445A1 (en) 2008-07-22 2010-04-01 Validity Sensors, Inc. System, device and method for securing a device component
US8391568B2 (en) 2008-11-10 2013-03-05 Validity Sensors, Inc. System and method for improved scanning of fingerprint edges
US8600122B2 (en) 2009-01-15 2013-12-03 Validity Sensors, Inc. Apparatus and method for culling substantially redundant data in fingerprint sensing circuits
US8278946B2 (en) 2009-01-15 2012-10-02 Validity Sensors, Inc. Apparatus and method for detecting finger activity on a fingerprint sensor
US8374407B2 (en) 2009-01-28 2013-02-12 Validity Sensors, Inc. Live finger detection
US9336428B2 (en) 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US9400911B2 (en) 2009-10-30 2016-07-26 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US9274553B2 (en) 2009-10-30 2016-03-01 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US8421890B2 (en) 2010-01-15 2013-04-16 Picofield Technologies, Inc. Electronic imager using an impedance sensor grid array and method of making
US8791792B2 (en) 2010-01-15 2014-07-29 Idex Asa Electronic imager using an impedance sensor grid array mounted on or about a switch and method of making
US8866347B2 (en) 2010-01-15 2014-10-21 Idex Asa Biometric image sensing
US9666635B2 (en) 2010-02-19 2017-05-30 Synaptics Incorporated Fingerprint sensing circuit
US8716613B2 (en) 2010-03-02 2014-05-06 Synaptics Incoporated Apparatus and method for electrostatic discharge protection
US9001040B2 (en) 2010-06-02 2015-04-07 Synaptics Incorporated Integrated fingerprint sensor and navigation device
US8331096B2 (en) 2010-08-20 2012-12-11 Validity Sensors, Inc. Fingerprint acquisition expansion card apparatus
US8538097B2 (en) 2011-01-26 2013-09-17 Validity Sensors, Inc. User input utilizing dual line scanner apparatus and method
US8594393B2 (en) 2011-01-26 2013-11-26 Validity Sensors System for and method of image reconstruction with dual line scanner using line counts
US20120218231A1 (en) * 2011-02-28 2012-08-30 Motorola Mobility, Inc. Electronic Device and Method for Calibration of a Touch Screen
US9406580B2 (en) 2011-03-16 2016-08-02 Synaptics Incorporated Packaging for fingerprint sensors and methods of manufacture
US10043052B2 (en) 2011-10-27 2018-08-07 Synaptics Incorporated Electronic device packages and methods
US8896241B2 (en) * 2011-11-16 2014-11-25 Rockwell Automation Technologies, Inc. Controlled motion system
US9195877B2 (en) 2011-12-23 2015-11-24 Synaptics Incorporated Methods and devices for capacitive image sensing
US9785299B2 (en) 2012-01-03 2017-10-10 Synaptics Incorporated Structures and manufacturing methods for glass covered electronic devices
US9137438B2 (en) 2012-03-27 2015-09-15 Synaptics Incorporated Biometric object sensor and method
US9268991B2 (en) 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
US9251329B2 (en) 2012-03-27 2016-02-02 Synaptics Incorporated Button depress wakeup and wakeup strategy
US9600709B2 (en) 2012-03-28 2017-03-21 Synaptics Incorporated Methods and systems for enrolling biometric data
US9152838B2 (en) 2012-03-29 2015-10-06 Synaptics Incorporated Fingerprint sensor packagings and methods
CN109407862B (zh) 2012-04-10 2022-03-11 傲迪司威生物识别公司 生物计量感测
US9665762B2 (en) 2013-01-11 2017-05-30 Synaptics Incorporated Tiered wakeup strategy
KR101432011B1 (ko) * 2013-03-22 2014-08-21 주식회사 슈프리마 지문 영상 처리 장치 및 방법
NO20140653A1 (no) * 2014-05-27 2015-11-30 Idex Asa Biometrisk sensor
US9292728B2 (en) * 2014-05-30 2016-03-22 Apple Inc. Electronic device for reallocating finger biometric template nodes in a set memory space and related methods
USD776664S1 (en) * 2015-05-20 2017-01-17 Chaya Coleena Hendrick Smart card
TWI568237B (zh) * 2015-07-29 2017-01-21 東友科技股份有限公司 影像擷取方法及影像擷取與合成方法
WO2019068162A1 (en) * 2017-10-02 2019-04-11 Teledyne Digital Imaging, Inc. SYNCHRONIZATION METHOD OF LINEAR SCANNING CAMERA
CN111727601A (zh) * 2018-09-30 2020-09-29 深圳配天智能技术研究院有限公司 图像传感器、获取图像的方法、视觉系统及存储介质
CN109873915A (zh) * 2019-01-16 2019-06-11 北京五岳鑫信息技术股份有限公司 一种扫描仪的补偿装置及方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4833724A (en) * 1986-08-14 1989-05-23 Amada Engineering & Service Co., Inc. Imaging device
US5633947A (en) * 1991-03-21 1997-05-27 Thorn Emi Plc Method and apparatus for fingerprint characterization and recognition using auto correlation pattern
JPH07111561A (ja) * 1993-10-12 1995-04-25 Matsushita Electric Ind Co Ltd 原稿読み取り装置
JP3120354B2 (ja) * 1995-01-13 2000-12-25 セイコーエプソン株式会社 画像処理方法および画像処理装置
US5719970A (en) * 1994-07-08 1998-02-17 Seiko Epson Corporation Image processing method and device
US5613014A (en) * 1994-10-12 1997-03-18 Martin Marietta Corp. Fingerprint matching system
US5578813A (en) * 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
US5828773A (en) * 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication

Also Published As

Publication number Publication date
JP3989560B2 (ja) 2007-10-10
IL134067A0 (en) 2001-04-30
US6002815A (en) 1999-12-14
CN1174604C (zh) 2004-11-03
TW399388B (en) 2000-07-21
WO1999004550A2 (en) 1999-01-28
WO1999004550A3 (en) 1999-04-22
KR20010021902A (ko) 2001-03-15
CN1264515A (zh) 2000-08-23
JP2000513539A (ja) 2000-10-10
AU8329698A (en) 1999-02-10
EP1020069A2 (en) 2000-07-19
CA2294004C (en) 2004-12-14
CA2294004A1 (en) 1999-01-28

Similar Documents

Publication Publication Date Title
KR100429081B1 (ko) 선형 센서 화상처리방법 및 장치
JP3091969B2 (ja) ビデオカメラ
CN103581496B (zh) 用于检测物体流的照相机系统和方法
KR960003873B1 (ko) 결함표시 방법 및 장치
JPH0334713B2 (ko)
CN111327835B (zh) 一种相机多线分时曝光处理方法及系统
CN113810621A (zh) 一种应用于多线线阵相机的分时曝光和tdi并行处理装置及方法
CN103348666A (zh) 光扫描仪内的图像传感器调准的二维校准
US6766054B1 (en) Segmentation of an object from a background in digital photography
JPH11248641A (ja) 表面欠陥検査装置及び表面欠陥検査方法
EP1406083B1 (en) Surface inspection apparatus and method
JP2000011157A (ja) 撮像装置
KR20220105171A (ko) 카메라 노광 처리 방법 및 시스템
JPH08313454A (ja) 画像処理装置
JPH07159133A (ja) 寸法測定装置
JP3151652B2 (ja) 長い対象物の測定方法とその装置
KR102521516B1 (ko) 광각 탐지가 가능한 검사기용 이미지 처리 장치 및 방법 그리고 이를 구현하기 위한 프로그램을 기록한 기록매체
JP2995116B2 (ja) 結像倍率認識装置及びそれを用いたバーコード読取装置
JPH03269685A (ja) 高速現象の解析方法及び高速現象撮影装置
JPH08279034A (ja) 画像合成処理方式およびスキャナ
JPH09284753A (ja) 監視カメラの撮像制御方法とその装置
JPH07181010A (ja) 多点測距装置
JPH0142432B2 (ko)
SU588470A1 (ru) Устройство дл автоматического опознавани идентичных участков на снимках стереопары
JP2002368957A (ja) 画像読取装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
E902 Notification of reason for refusal
E902 Notification of reason for refusal
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20090409

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee