KR930007549B1 - 정지 클러터를 포함하고 있는 감지기 시계내의 움직이는 물체를 자동적으로 검출하는 장치 및 방법 - Google Patents

정지 클러터를 포함하고 있는 감지기 시계내의 움직이는 물체를 자동적으로 검출하는 장치 및 방법

Info

Publication number
KR930007549B1
KR930007549B1 KR1019900700719A KR900700719A KR930007549B1 KR 930007549 B1 KR930007549 B1 KR 930007549B1 KR 1019900700719 A KR1019900700719 A KR 1019900700719A KR 900700719 A KR900700719 A KR 900700719A KR 930007549 B1 KR930007549 B1 KR 930007549B1
Authority
KR
South Korea
Prior art keywords
image
images
image frame
pixels
frame
Prior art date
Application number
KR1019900700719A
Other languages
English (en)
Other versions
KR900702378A (ko
Inventor
토마스 케이. 로
잭 엠. 삭스
남 디. 반
Original Assignee
휴우즈 에어크라프트 캄파니
제이. 제이. 히긴스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 휴우즈 에어크라프트 캄파니, 제이. 제이. 히긴스 filed Critical 휴우즈 에어크라프트 캄파니
Publication of KR900702378A publication Critical patent/KR900702378A/ko
Application granted granted Critical
Publication of KR930007549B1 publication Critical patent/KR930007549B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

내용 없음.

Description

정지 클러터를 포함하고 있는 감지기 시계내의 움직이는 물체를 자동적으로 검출하는 장치 및 방법
본 발명은 영상 처리 기술에 관한 것으로, 특히 혼잡한 배경을 통해 이동하는 물체를 검출하기 위한 기술에 관한 것이다.
2. 관련 기술의 설명
영상 감지기를 갖고 있는 트랙커에 대한 지속적인 문제점은 클러터(clutter)를 배경으로 윤곽을 드러내고 있는 물체를 자동으로 포착하는 것이 불가능 하다는 것이다. 목적물과 대비되는 물체가 시계(field of view)내에 존재하는 상황에서는 목적물 포착에 있어서 빈번히 오류가 발생한다. 이러한 상황에서 종래 기술의 트랙커는 목적물 포착을 정확히 할 수 없으므로 그의 이용에 있어 많은 제약이 따른다.
물체를 자동적으로 포착하는 탐색기를 설계하기 위해 발명자들은 지난 20년 내지 30년 이상 많은 노력을 기울여 왔으나, 성공하지 못했다. 그러한 노력중 하나로서 클러터 전력 스펙트럼의 밀도[위너 스펙트럼(Wiener spectra)]에 기초를 둔 공간 판별 기술(spatial discrimination)을 십자 탐색기에 적용하였으나 성공하지 못하였다. 성공하지 못한 이유중의 하나는 물체 검출 처리를 방해하는 클러터 요소들이 높은 공간 주파수 성분들(예를들어, 목적물과 유사한 체적을 갖는 흐린 연부 및 별개인 높은 대비 물체)이라는 것이다. 워너 스펙트럼으로 설계된 공간 필터들은 낮은 공간 주파수는 감쇠시키거나 높은 공간 주파수 성분을 갖고 있는 클러터 성분은 제거할 수 없는 대역 통과 필터이다. 공간 판별 기술은 적외선인 청색 스파이크 및 적색 스파이크(blue spike and red spike)로서 공지된 CO2방출 대역을 검출하는 것으로 시도되었다. 그러나, 이 협소한 스펙트럼의 라인은 대기에서 잘 전파되지 않으므로 전파 경로가 상당한 경우에는 문제가 있다. 또한 방출 라인의 협소함은 검출시에 신호-대-잡음비가 비교적 낮음을 의미한다. 신호-대-잡음비가 적당하지 않으면 통상적으로 이 기술은 사용될 수 없다.
발명의 요약
본 발명에 따른 물체 움직임에 기초를 둔 판별 기술이 이하 기술된다. 프레임 차를 이용하는 움직임 검출은 이미 시도되었지만 제한된 성공을 얻었다. 이전의 시도에 따른 문제점은 프레임 감산 처리시 클러터의 분완전한 소거로 인해 높은 오 경보율(high false alarm rates)을 갖는다는 것이다. 우리는 클러터의 제거를 향상시키기 위해 목표물 신호의 시간적 결맞음(temporal coherence)을 이용하는 기술을 발명하였다.
본 발명에 따르면, 제1차 영상은 현재의 영상을 후속 시간에 취해진 영상으로부터 감산함으로써 발생된다. 제2차 영상은 현재의 영상을 상기 후속 시간 후에 취해진 다른 영상으로부터 감산하므로써 발생된다. 그 다음, 제1 및 제2차 영상은 검출하고자 하는 이동하는 물체의 현재 위치만이 검출되는 방식으로 논리적으로 앤드된다.
도면의 간단한 설명
본 발명의 여러 장점은 도면을 참조하여 아래 설명을 읽을때, 본 분야에 숙련된 기술자들에게 명백해진다.
제1도는 본 발명의 양호한 실시예의 방법으로 수행된 동작 단계의 흐름도.
제2도는 본 발명의 양호한 실시예 수행하기 위한 하드웨어 기능 블럭도.
제3도는 본 발명의 기술을 이해하는데 유용한 진리표.
이한 기술되는 방법은 클러터가 제한되어 있는 조건하에서 미해결 또는 약간 해결된 물체의 포착을 취급한다. "약간 해결된"이란 물체에 관한 화소가 거의 없어서 그 물체의 모양을 영상으로부터 쉽게 판별할 수 없음을 의미한다. "클러터가 제한되어 있는"이란 관심의 대상이 되는 물체에 대한 신호 대 잡음비가 높아서 당해 물체를 검출하는 것이 가능하지만, 감지기 시계내에 유사한 크기 및 유사한 세기를 갖는 다른 물체들이 존재하면 이들 물체들과 관심의 대상이 되는 물체를 구별하는 것이 가능하지 않다는 것을 의미한다.
개념적으로, 본 방법은 아주 간단하다. 검출될 물체가 비행중인 항공기인 경우를 고려하기로 한다. 항공기가 감지기 시선에 수직인 속도 성분을 갖은때, 항공기는 배경에 대하여 변위된다. 감지기 시선에 수직인 항공기 속도 성분이 V이고, 항공기에 대한 거리가 R이라 할때, 배경에 대한 항공기의 각속도(angular rate)은 S=V/R이다. 화소 샘플링 간격을 d라 하면, 항공기의 변위는 st≫d일때 시간간격(t) 이후에 식별할 수 있다. 변위된 항공기는, 시간 간격을 t로 해서 장면(scene)들을 취하고 배경이 일치하도록 장면들을 레지스트레이션(registration)한 다음 상기 장면들을 감산함으로써 검출할 수 있다. 잡음이 없고 감산 처리에 있어서 장면들의 완벽한 레지스트레이션이 이루어지는 경우에 있어서, 배경은 감산에 의해 소거되지만 항공기 영상은 2개의 장면으로 변위되었기 때문에 남게된다. 이러한 이상적인 경우는, 현재 위치에서는 항공기의 실루엣이 있게 되고 지난 장면내의 항공기 위치에서는 항공기의 정 대비 실루엣이 있게 된다. 차 장면내에서의 임계 검출(threshold detection)에 의해 항공기의 현재 및 이전의 위치에서의 항공기를 검출할 수 있다.
실제 상황은 이러한 이상적인 경우와 상당히 다르다, 우선, 차를 형성하는 2개의 영상 감지기 LOS는 통상 두 영상이 일치되게 하지 못하므로 두 영상을 레지스트레이션 하는데는 외부의 수단이 사용되어야 한다. 영상들을 레지스트레이션할때, 통상적으로 레지스트레이션 오류로 인해 클러터된 배경의 소거가 불완전하게 된다. 또한, 영상 잡음이 감산 처리시에 소거되지 않은 영상 잡음이 영상내에 뚜렷한 신호들을 유도할 수 있다. 감산 처리시 배경의 불완전한 소거는 클러터 누설(clutter leakage)이라 칭하는데 이는 오검출(false detection)을 유도한다. 본 발명에 따른 방법은 클러터 누설로 인한 오검출을 방지하기 위한 것이다.
본 발명은 양호한 방법은 영역 코릴레이터(correlator)로 2개의 영상을 레지스트레이션한 후 2개의 레지스트레이션된 영상의 감산을 수행한다. 이러한 감산에 의해 발생된 영상은 현재의 영상과 같은 좌표계(coordinate system)을 갖는다. 이것은 변위된 목표물, 클러터의 불완전한 감산 및 노이즈 스파이크에 의해 발생된 고 대비 영역(high contraste region)들을 포함한다. 화소에서 화소까지 상관되지 않는 노이즈는 폭이 1화소 정도가 된다. 잔류 클러터의 폭은 코릴레이터의 레지스트레이션 오차 정도가 된다. 목표물 펄스의 폭은 감산된 2개의 영상들사이의 목표물 변위량과 동일할 것이다. 상술한 바와 같이, 이 폭은 d가 목표물 자체의 치수보다 크지 않다는 조건하에서 d=st이다. 양호한 영역 코릴레이터는 클러터가 많이 포함되어 있는 장면에 대해서 정밀한 부화소 레지스트레이션(subpixel registration)을 발생시킨다. 그러므로, 잔류 클러터의 폭은 공간 양자화 효과(spatical quantization effect)로 인해 1개의 화소 정도가 된다고 예측할 수 이다. 적당히 샘플된 감지기 시스템[즉, 나이퀴스트 샘플링 이론(Nyquist sampling theorem)에 따른 시스템]에서, 본래의 목표물 폭(intrinsic target width)은 최소한 2개의 화소폭이다. 감산 인터벌을 충분히 길게함으로써 d를 목표물 폭과 동일하게 만들 수 이다. 잔류 클러터 및 노이즈는 협소한 1화소 폭이고 목표물 펄스는 2개 이상의 화소 폭이기 때문에 영상내의 잔류 클러터 및 노이즈의 진폭은 저역 통과 필터링(low-pass filtering)에 의해 제거될 수 있다. 폭에 있어서 더 넓은 목표물은 협소한 공간 주파수 대역폭을 갖으므로, 저역 통과 필터링에 의해 훨씨 덜 감쇠된다. 신호 대 잔류 진폭비가 개선되었으므로 이동하는 물체들을 검출하기 위해 임계 검출은 저역 통과된 차 영상에 적용된다.
임계 차 영상은 목표물의 현재의 위치에 대응하는 검출된 "블로브(blob)"와 현재 위치전의 영상내의 목표물 위치에 대응하는 위치에 있는 반대극성의 블로브로 구성된다. 또한 이것은 진폭이 저역 통과 필터링에 의해 적당히 제거되지 않은 클러터 누설에 대응하는 블로브들도 포함한다. 현재위치 전의 목표물 위치에 대응하는 블로브들을 제거하고 클러터 누설에 의해 발생되는 블로브수를 줄이기 위해, 현재의 영상과 시간(2t)전에 취해진 영상으로 제2임계 차 영상이 형성된다. 이 임계 차 영상 또한 현재의 목표물 블로브들을 포함한다. 그러나, 이제 현재 시간 이전의 목표물 블로브는 시간 2t전의 목표물 위치에 대응하고 통상적으로 시간 t에서 현재시간전의 블로브와 공간적으로 일치하지 않는다. 코릴레이터 오류로 인한 장면의 레지스트레이션 오차로 인해 발생하는 검출된 클러터 누설은 2개의 차 영상과는 무관하다. 그러므로, 이들이 공간적으로 레지스트레이션될 가능성은 낮다. 그다음 2개의 임계 차 영상은 논리적으로 앤드되어(logicall yANDed)논리화된 차 영상이 형성된다. 논리화된 차 영상에는, 두개의 차 영상에서 공간적으로 레지스트레이션되는 임계 목적물만이 남게 된다. 차 영상의 좌표계의 정의에 의해서 현재의 목표믈 블로브는 레지스트레이션 상태에 있게 되므로 잔존하게 된다.
일련의 동작을 제1도에 개략적으로 도시하였다. 그러한 동작의 순수한 결과는 현재 목표물에 대응하는 블로브가 논리화된 차 영상이 된다는 것이다. 통상적으로 논리화된 차 영상에는 랜덤한 노이즈 및 소거되지 않은 클러터 누설로부터 발생하는 부수적인 블로브들이 다수 존재한다. 그러나, 이들 블로브수는 통상적으로 임계 차 영상중 어느 1 영상내에 있는 블로브수 보다 매우 적다. 논리적인 관점에서 보아서 "AND"가 곱multiply)에 대응한다는 사실로부터 상기 현상을 이해할 수 있다. 여기서는 "앤드(AND)"를 이용하였으므로, 우리는 지금 오 검출 수를 줄이기 위해 차 영상내의 각각의 화소내의 검출 확률의 곱을 스퀘어(square)하고 있다. 차 영상들중 임의 한 영상내의 주어진 화소내의 클러터 누설 검출 확률이 P라고 할때, 이러한 검출이 각각의 차 영상과 무관하다면 이 화소가 "앤드"처리후에 잔존할 확률은 P**2이다. 그러므로, 논리화된 차 영상내의 오 검출 회수를 줄이기 위해, "앤드"처리는 오검출 확률을 P**N까지 유도하기 위해 N임계 차 영상까지 확장할 수 있다. P자체가 ≪1인 수이므로, P**N은 임의의 작은 값으로 유도될 수 있다.
오 검출된 블로브의 수가 논리화된 차 영상내에서 비교적 적게 감소되었다면, 이들은 일시적인 지속 기준(temporal persistance criterion)에 의해 더 감소된다. 발견된 각각의 블로브는 초기 검출(initial detection)시 트랙 파일(track file)이 개시되게 한다. 후속의 논리화된 차 영상에서, 검출된 블로브들은 위치 및 크기에 있어서 근사공간 일치성(approximate spatial incidence)을 갖는 파일을 찾기 위해 현존하는 트랙 파일과 비교된다. 그 다음, N 검출 계획중 K는 지속적으로 검출되지 않는 트랙 파일들을 삭제하기 위해 사요오딘다. N 계획중 K는 각각의 트랙 파일에 대해 길이 N의 런닝 창(running window)을 제공하고 이 검출 창내에서 최소한 K 정합을 발견한 파일들만일 잔존하는 것으로 인정한다. 각각의 논리화된 차 영상내의 오 검출은 지속 기준(persistency criterion)에 맞지 않으므로 트랙 파일로부터 소거될 것이다. 랜덤하지 않은 경우(nonrandom event)인 참 목표물은 다수의 영상에 대해서 공간적으로 지속되므로, N중 K처리후에도 잔존한다. 결국에는, 트랙 파일의 수는 희박해지고 잔존하는 트랙 파일은 목표물로서 인정된다. 이때 목표물 포착이 완료된다.
제2도는 이미 상술한 포착 방법을 수행하기 위한 하드웨어 시스템(10)의 기능 블럭도를 도시한 것이다. 제2도에서 점선 부분으로 도시한 부분은 코릴레이션 서브시스템(correlation subsystem ; 12)이고 나머지 부분은 장면 차 및 세스멘테이션 서브시스템(scene differncing and segmentation subsystem ; 14)이다.
코릴레이션 서브시스템(12)는 현재의 영상을 이전의 영상과 일치시키기 위해 장면 레지스트레이션 기능을 수행한다. 다수의 레지스트레이션 기술중 어떤 기술도 이용할 수 있다. 양호한 실시예에서는, 마스크가능한 2중 레벨 코릴레이터가 사용된다. 마스크가능한 2중 레벨 코릴레이터(Maskable Bilevel Correlator)는 발명의 명칭이 "마스크가능한 2중 레벨 코릴레이터"인 미합중국 특허 출원 제229,407호(PD-87007)에 기술되어 있으므로 여기서는 그에 대한 상세한 설명은 생략하기로 한다. 2개의 영상들 사이의 위치 오프셋(position offset)을 평가하기 위해 현재의 영상을 취하여 이전의 영상의 부분들과 비교한다. 이 오프셋 평사는 CPU(16)가 이용할 수 있게 만들어지고 이 정보는 장면 차 서브시스템에서 이용된다.
장면 차 서브시스템(14)에 있어서, 감지기(18)로부터 유입되는 비디오는 3개의 프레임 저장부(frame store ; 1,2 및 3)중 1개의 프레임 저장부에 저장한다. 통상적으로 라이브(가장 최근)데이타는 가장 오래된 데이타를 보유하는 프레임 저장부내에 저장된다. 데이타 저장부내의 루팅은 입력 어드레스 발생기(20)을 통해 CPU(16)에 의해 제어된다. 소정의 시간에서의 저장부내의 3개의 영상은 N,N-1, 및 N-2로 정해진다. 여기서 N은 가장 최근 영상이다. 영상(N, N-1,N-2)는 각각 프레임 저장부(1,2 및 3)에 각각 저장된다(각각의 프레임 저장부내로 영상들을 특정하여 할당하는 것은 단지 설명을 위한 것이다. 통상적으로, 할당은 임의적이고 CPU에 의해 제어된다).
영상(N)이 감지기(18)로부터 독출(read out)될 때, 이것은 사전처리되어 코릴레이션 서브시스템(12) 3중 레벨 프레임 저장부(22)내에 저장된다. 코릴레이션 서브시스템의 기준 RAM(24)내에 저장된 n-2의 부분들은 콘볼버(convolver ; 26)내에 로드되어 사전처리된 라이브 영상에 의해 콘볼브된다. 영상 N과 N-2사이의 오프셋은 코릴레이션 피크의 위치로부터 평가되어 스크래치 패드 RAM(28)을 거쳐 CPU(16)에서 이용할 수 있게 된다.
그다음, CPU는 출력 어드레스 발생기(1)을 통해 프레임 저장부(1)에서 영상 N을 그리고 출력 어드레스 발생기(2)을 통해 프레임 저장부(3)에서 영상 N-2을 억세스한다. 코릴레이션 서브시스템(12)로부터 평가된 영상 시프트를 가지고, 출력 어드레스 발생기(2)의 어드레싱은 출력 어드레스 발생기(1)의 어드레싱으로부터 오프셋된다. 2개의 영상(N 및 N-2)내의 대응하는 화소들은 프레임 저장부(1,3)으로부터 동시에 독출되고 크로스바[crossbar switch(XBAR) ; 32]를 거쳐 산술 논리 유니트[arithemtical logical unit)ALU) ; 30]에 공급된다. ALU(30)은 영상 N-2로 부터의 각 픽셀을 영상(N)으로 부터의 대응하는 화소로부터 감산한다. 그다음, 화소들은 버퍼되어 저역통과 필터(LPF)(34)을 통과하게 된다. LPF(34)는 유한임펄스 응답(finite impulse response ; FIR) 필터의 각 요소에 대해 일정한 중량 계수(constant weighting coefficient) 1을 갖는 5×5의 크기의 2-차원적인 FIR필터이다. 그다음, 필터된 데이타는 데이타가 한쌍의 임께치 t+=ko 및 t-=-ko와 비교되는 곳인 3-레벨 세그멘터(36)으로 들어간다. o는 차 영상의 노이즈의 표준 이탈(standard deviation)이고 K는 CPU에 의해 설정된 상수이다. 통상, K는 3이다. t+를 초과하는 필터된 화소들은 상태 +1로 맵(map)되고 t-미만인 필터된 화소들은 상태-1로 맵되어 이들 사이에 있는 값의 화소들은 상태 0으로 맵된다. 세그먼트된 3개의 레벨 데이타는 3중 레벨 프레임 저장부(38)내에 저장된다. 이 프레임 저장부의 어드레싱은 추력 어드레스 발생기(1)에 의해 제어된다. 이러한 어드레싱 계획(scheme)은 3중 레벨 영상이 입력레벨 N과 동일한 좌표계를 갖을 수 있게 해준다.
영상 N과 N-2 사이의 차 영상이 계산되는 동안, 영상 N과 N-1 사이의 오프셋은 코릴레이션 서브시스템(12)에 의해 평가된다. 이 평가는 영상 N-1의 부분들이 코릴레이션 처리의 수행시 콘볼버에 의해 기준 RAM(24)에서 억세스되는 것을 제외하고는 영상(N 및 N-2)에 대해 앞서 기술한 바와 같은 방식으로 수행된다. 영상 변위가 평가되면 , CPU가 프레임 저장부(2)에서 영상 N-1을 억세스하도록 출력 어드레스 발생기(2)에게 명령하므로서 영상 N과 N-1사이의 세그먼트된 차 영상이 전에와 같이 형성된다. 임계 차 영상(N, N-1)이 3개의 레벨 세그먼트(36)에 의해 형성될때, 임계 차 영상(N, N-2)내의 대응하는 화소는 출력 어드레스 발생기(1)에 의해 3중 레벨 저장부(38)로부터 독출된다. 2개의 임계 차 영상으로부터의 화소들은 제3도내에 도시한 진리표에 따라 게이트(39)에서 함께 앤드되어 논리화된 차 영상이 형성된다. 논리화된 차 영상은 포맷터, 분류기 및 특징 추출기(40)에 입력되어, 그곳에서 상태가 +1인 공간적으로 연결된 화소들이 함께 그룹을 지어 +1 극성 블로브를 형성하고 상태가 -1인 공간적으로 연결된 화소들이 함께 그룹을 지어 -1 극성 블로브들을 형성한다. 특징 추출기는 공간 모멘트(M0,M10,M1) 및 각각의 블로브에 대한 바운딩 직사각형(bounding rectangle)의 좌표들을 계산한다. 공간 모멘트는 아래와 같이 정해진다.
M0= ∑1
M10= ∑x
M1= ∑y
합은 블로브내에 포함된 모든 화소이고
(x,y)=화소의 카테시안 좌표(cortesian coordinate).
각각의 블로브는 현재의 영상내의 검출될 이동하는 물체에 대응한다.
포착 처리의 개시에서, 제1논리화된 차 영상에서 발견된 블로브들은 각각의 블로브에 대해 1개의 파일이 정해지는 한 셋트의 트랙 파일에 저장된다.
각 파일은 상태(±1), 중심 질량(M10/M0,M1/M0) 및 범위(바운딩 직사각형)을 정의되어 있다. 후속의 논리화된 차 영상내에서 검출된 블로브들은 CPU(16)내에 존재하는 트랙 파일들에 대하여 검사된다. 위치와 범위에 있어서 일치하는 현재의 논리화된 차 영상내의 대응하는 상태의 블로브를 갖고 있는 트랙파일은 정합을 발견한 것이라 말한다. 가장 최근의 N회 시도에서 트랙 파일에 대한 정합 수는 누산된다. N회 시도중 최소한 K정합 발견에 실패한 트랙 파일들은 삭제된다. 전형적으로 N=6 및 K=4이다. 검출되었으나 현존하는 트랙 파일 어떤 것에도 대응하지 않는 블로브들은 새로운 트랙 파일이 개방되게 한다. 가장 최근의 6회 시도중 최소한 4회 정합을 갖는 트랙 파일은 "목표물"이라 칭한다. "목표물"으로서의 파일의 선언(declaration)은 포착 처리를 종료한다.

Claims (14)

  1. 시선이 이동하는 물체의 속도 벡터의 성분과 통상적으로 수직인 감지기(18)로 부터 취해진 다수의 영상 프레임(N, N-1,N-2)으로부터 물체를 검출하는 방법에 있어서, 현재의 영상 프레임(N)보다 먼저 발생된 제1영상 프레임(N-1)으로부터 상기 현재의 영상 프레임을 감산하여(104) 임계화한(116) 제1임계 차 영상과 상기 제1영상 프레임이 발생한 시간보다 더 이른 시간에 취해진 제2영상 프레임(N-2)으로부터 상기 현재의 영상 프레임(N)을 감산하여(106) 임계화한(118) 제2임계 차 영상을 함께 논리적으로 앤드하여 배경 클러터가 감쇄된 물체 데이타를 갖고 있는 제1논리화된 차 영상을 제공하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서, 제1논리화된 차 영상으로 부터 검출된 물체의 특징을 트랙 파일(130)내에 저장하는 단계, 후속의 논리화된 차 영상들로부터 검출된 물체의 특징을 발생하는 단계, 및 후속의 논리화된 차 영상들로부터 검출된 물체의 특징을 제1논리화된 차 영상으로부터 검출된 물체의 특징과 비교하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  3. 제2항에 있어서, 공간적으로 연결된 화소들의 상태가 함께 그룹지어져서(128) 소정 극성의 영상 블로브들을 형성하는 것을 특징으로 하는 방법.
  4. 이동하는 목표물을 검출하는 방법에 있어서, 시선이 목표물의 속도 벡터의 성분과 통상적으로 수직인 감지기(18)로부터 이동하는 물체를 포함하는 영상 데이타인 제1, 제2 및 제3영상 프레임(N, N-1 및 N-2)을 각각 다른 시간에 취하는 단계, 상기 제1영상 프레임 내에 배치된 각각의 배경 물체가 상기 제 2 영상 프레임내에 대응하는 배경 물체상에 중첩되도록 제1 및 제2영상 프레임을 레지스트레이션하는 단계(100), 제1차 영상을 제공하기 위해 레지스트레이션 후에 상기 제1및 제2영상을 감산하는 단계(104), 상기 제1영상 프레임내의 각각의 배경 물체가 상기 제3영상 프레임내의 대응하는 배경 물체상에 중첩되도록 제1 및 제3영상 프레임을 레지스트레이션하는 단계(102), 제2차 영상을 발생시키기 위해 레지스트레이션된 제1 및 제3영상 프레임을 감산하는 단계(106), 및 이동하는 목표물의 현재의 위치를 알아낼 수 있도록 제1 및 제2차 영상을 함께 논리적으로 앤드하는 단계(124)을 포함하는 것을 특징으로 하는 방법.
  5. 제4항에 있어서, 제1 및 제2차 영상들이 논리적으로 함께 앤드 되기 전에 제1 및 제2차 영상에 저역 통과 필터(108 및 110)를 사용하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  6. 제5항에 있어서, 정해진 정의 임계값을 초과하는 제1 및 제2차 영상내의 화소들이 정의 2진 상태로 맵되고, 정해진 부의 임계값 미민인 제1 및 제2 차 영상내의 화소들은 부의 2진 상태로 맵되며, 상기 2개의 임계값 사이내의 값을 갖는 제1 및 제2차 영상내의 화소들이 0의 상태로 맵되어 함께 앤드되는(124) 3레벨 임계 차 영상이 제공되도록 저역 통과 필터된 제1 및 제2차 영상들을 임계화하는 단계(116 및 118)를 더 포함하는 것을 특징으로 하는 방법.
  7. 제4항에 있어서, 2개의 영상들간에 오프셋된 위치를 평가하기 위해 2개의 영상들을 비교하는 영역 코릴레이터에 의해 영상들의 레지스트레이션이 수행되는 것을 특징으로 하는 방법.
  8. 클러터된 배경을 통해 비행하는 항공기를 검출하는 방법에 있어서, (a) 시선이 항공기의 속도 벡터의 성분과 통상적으로 수직인 감지기(18)로부터 항공기를 포함하는 영상 데이타의 제1영상 프레임(N-2)을 취하여 이 제1영상 프레임을 저장하는 단계, (b) 후속의 시간에 감지기로부터 제2영상 프레임(N-1)을 취하고 그것을 저장하는 단계, (c) 감지기로부터 현재의 영상 프레임(N)을 취하고 그것을 저장하는 단계, (d) 영역 코릴레이터(12)를 이용하여 상기 현재의 영상 프레임과 제1영상 프레임내의 배경 클러터를 레지스트레이션하고 제1차 영상을 발생시키기 위해 상기 레지스트레이션된 영상들을 감산하는 단계(104), (e) 제1차 영상을 저역 통과 필터링 하는 단계(108), (f) 정해진 임계값 이상의 진폭을 갖는 화소들은 +1 상태로 맵되지만 부의 임계값 미만의 진폭을 갖고 있는 화소들은 -1 상태로 맵되고, 상기 2개의 임계값 사이의 화소들이 0상태로 맵되도록 제1임계 차 영상을 발생시키기 위해 제1차 영상을 임계화하는 단계(116), (g) 상기 단계들에서 제1차 임계 영상 대신에 제2임계 차 영상을 발생시키기 위해 제1영상 프레임 대신에 현재의 영상 프레임(N) 및 제2영상 프레임(N-2)에 관해서 단계(d) 내지 단계(f)을 수행하는 단계, (h) 논리화된 차 영상을 발생시키기 위해 제1 및 제2임계 차 영상을 논리적으로 앤드하는 단계(124), (i) 상기 논리화된 차 영상으로부터 특징을 추출하여, 이를 트랙 파일(130)내에 저장하는 단계, 및 (j) 소정의 정합수가 이동하는 항공기가 검출되었음을 나타내도록 후속 영상 프레임들에 관해 단계 a-i를 실행하고 후속적으로 추출된 특징과 트랙 파일(130)내에 저장된 특징들을 비교하는 단계를 포함하는 것을 특징으로 하는 방법.
  9. 시선이 이동하는 물체의 속도 벡터의 성분과 통상적으로 수직인 감지기(18)로부터 취해진 다수의 영상 프레임(N, N-1, N-2)내의 물체를 검출하기 위한 장치(10)에 있어서, 제1차 영상을 정의하기 위해 먼저 발생된 제1영상 프레임(N-1)으로부터 현재의 영상 프레임(N)을 감산하는 제1감산 수단(104), 제1임계 차 영상을 정의하기 위해 제1차 영상을 임계화하는 제1임계화 수단(116), 제2차 영상을 발생하기 위해 제1영상 프레임보다 더 먼저 취해진 다른 제2영상 프레임(N-2)으로 부터 현재의 영상 프레임(N)을 감산하는 제2감산 수단(106), 제2임계 차 영상을 발생하기 위해 제2차 영상을 임계화하는 제2임계화 수단(118), 및 배경 클러터가 감쇄된 물체 데이타를 갖고 있는 제1논리화된 차 영상을 제공하기 위해 제1 및 제2임계 차 영상을 함께 논리적으로 앤드하기 위한 수단(124)을 포함하는 것을 특징으로 하는 장치.
  10. 제9항에 있어서, 제1논리화된 차 영상내의 물체 데이타로부터 추출된 특징을 트랙 파일(130)내에 저장하기 위한 수단, 후속의 논리화된 차 영상내의 물체들로부터 특징을 추출하기 위한 수단, 및 후속의 논리화된 차 영상으로부터의 물체의 특징을 제1논리화된 차 영상내의 물체의 특징과 비교하기 위한 수단(16)을 더 포함하는 것을 특징으로 하는 장치.
  11. 제9항에 있어서, 1개의 영상내에 배치된 각각의 배경 물체가 다른 영상내에 배치된 대응하는 배경 물체상에 중첩되도록 감산하기 전에 영상들을 레지스트레이션하는 수단(100)을 더 포함하는 것을 특징으로 하는 장치.
  12. 제9항에 있어서, 제1 및 제2영상 프레임이 논리적으로 앤드되기 전에 필터링 하기 위한 저역 통과 필터를 더 포함하는 것을 특징으로 하는 장치.
  13. 제11항에 있어서, 상기 레지스트레이션 수단이 영역 코릴레이터(12)인 것을 특징으로 하는 장치.
  14. 제11항에 있어서, 상기 제1 및 제2임계화 수단(116,118)이 정해진 정의 임계값을 초과하는 상기 제1 및 제2차 영상내의 화소들을 정의 2진 상태로 맵하고 정해진 부의 임계값 미만인 상기 제1 및 제2차 영상내의 화소들을 부의 2진 상태로 맵하며, 상기 2개의 임계값들 사이의 값을 갖고 있는 상기 제1 및 제2차 영상내의 화소들은 0상태로 맵하여, 함께 앤드되는 3중 레벨 임계 영상들을 제공하는 역할을 하는 것을 특징으로 하는 장치.
KR1019900700719A 1988-08-08 1990-04-06 정지 클러터를 포함하고 있는 감지기 시계내의 움직이는 물체를 자동적으로 검출하는 장치 및 방법 KR930007549B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US07/229,390 US4937878A (en) 1988-08-08 1988-08-08 Signal processing for autonomous acquisition of objects in cluttered background
US229,390 1988-08-08
PCT/US1989/002877 WO1990001706A2 (en) 1988-08-08 1989-07-03 Signal processing for autonomous acquisition of objects in cluttered background

Publications (2)

Publication Number Publication Date
KR900702378A KR900702378A (ko) 1990-12-06
KR930007549B1 true KR930007549B1 (ko) 1993-08-12

Family

ID=22861028

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019900700719A KR930007549B1 (ko) 1988-08-08 1990-04-06 정지 클러터를 포함하고 있는 감지기 시계내의 움직이는 물체를 자동적으로 검출하는 장치 및 방법

Country Status (11)

Country Link
US (1) US4937878A (ko)
EP (1) EP0380658B1 (ko)
JP (1) JPH0664613B2 (ko)
KR (1) KR930007549B1 (ko)
AU (1) AU619611B2 (ko)
CA (1) CA1313704C (ko)
DE (1) DE68910498T2 (ko)
ES (1) ES2016049A6 (ko)
IL (1) IL90898A (ko)
TR (1) TR25266A (ko)
WO (1) WO1990001706A2 (ko)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU612503B2 (en) * 1988-08-08 1991-07-11 Hughes Aircraft Company Distinguishing a moving object from a noisy background
IT1232109B (it) * 1989-06-21 1992-01-23 Cselt Centro Studi Lab Telecom Procedimento e dispositivo di riconoscimento del contorno di immagini in movimento
US4958224A (en) * 1989-08-15 1990-09-18 Hughes Aircraft Company Forced correlation/mixed mode tracking system
KR100204101B1 (ko) * 1990-03-02 1999-06-15 가나이 쓰도무 화상처리장치
JPH03269685A (ja) * 1990-03-19 1991-12-02 Mitsubishi Electric Corp 高速現象の解析方法及び高速現象撮影装置
US5583947A (en) * 1990-05-18 1996-12-10 U.S. Philips Corporation Device for the detection of objects in a sequence of images
FR2662282A1 (fr) * 1990-05-18 1991-11-22 Philips Electronique Lab Dispositif de detection d'objets dans une sequence d'images.
US5177607A (en) * 1990-08-27 1993-01-05 Zexel Corporation Method and apparatus for measuring velocity of fluid
US5150426A (en) * 1990-11-20 1992-09-22 Hughes Aircraft Company Moving target detection method using two-frame subtraction and a two quadrant multiplier
FR2670923A1 (fr) * 1990-12-21 1992-06-26 Philips Lab Electronique Dispositif de correlation.
US5283839A (en) * 1990-12-31 1994-02-01 Neurosciences Research Foundation, Inc. Apparatus capable of figure-ground segregation
FR2683926B1 (fr) * 1991-11-15 1994-02-18 Snecma Procede et dispositif d'acquisition et de traitement d'images radioscopiques.
JPH05181970A (ja) * 1991-12-27 1993-07-23 Toshiba Corp 動画像処理装置
US5386480A (en) * 1992-03-09 1995-01-31 Hughes Aircraft Company Amplitude ratio discrimination for MTI processors
US7596242B2 (en) * 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
US5390133A (en) * 1992-09-30 1995-02-14 Martin Marietta Corporation Image processor for target detection and tracking
US6430303B1 (en) 1993-03-31 2002-08-06 Fujitsu Limited Image processing apparatus
JP3288474B2 (ja) * 1993-03-31 2002-06-04 富士通株式会社 画像処理装置
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
EP0633546B1 (en) * 1993-07-02 2003-08-27 Siemens Corporate Research, Inc. Background recovery in monocular vision
JPH07334654A (ja) * 1994-06-13 1995-12-22 Mitsubishi Electric Corp 動き検出装置及びその方法
US5521634A (en) * 1994-06-17 1996-05-28 Harris Corporation Automatic detection and prioritized image transmission system and method
US5509486A (en) * 1994-08-12 1996-04-23 Loral Corporation Method of steering an agricultural vehicle
US5587929A (en) * 1994-09-02 1996-12-24 Caterpillar Inc. System and method for tracking objects using a detection system
US5805742A (en) * 1995-08-16 1998-09-08 Trw Inc. Object detection system with minimum-spanning gradient filter for scene clutter suppression
AU720315B2 (en) * 1996-03-29 2000-05-25 Commonwealth Scientific And Industrial Research Organisation An aircraft detection system
US5974158A (en) * 1996-03-29 1999-10-26 The Commonwealth Of Australia Commonwealth Scientific And Industrial Research Organization Aircraft detection system
AUPN903296A0 (en) * 1996-03-29 1996-04-26 Commonwealth Scientific And Industrial Research Organisation An aircraft detection system
JPH1091795A (ja) * 1996-09-12 1998-04-10 Toshiba Corp 移動物体検出装置及び移動物体検出方法
JPH1096605A (ja) * 1996-09-24 1998-04-14 Komatsu Ltd 画像処理による位置計測方法および装置
US5960111A (en) * 1997-02-10 1999-09-28 At&T Corp Method and apparatus for segmenting images prior to coding
US5909190A (en) * 1997-10-30 1999-06-01 Raytheon Company Clutter rejection using adaptive estimation of clutter probability density function
FR2776459B1 (fr) 1998-03-19 2000-04-28 France Telecom Procede de detection des objets en mouvement dans une sequence d'images video
DE59913752D1 (de) 1998-07-13 2006-09-21 Contraves Ag Verfahren zur Verfolgung bewegter Objekte anhand spezifischer Merkmale
DE19840873A1 (de) * 1998-09-01 2000-03-09 Deutsch Zentr Luft & Raumfahrt Verfahren und Vorrichtung zur automatischen Waldbranderkennung
US6647131B1 (en) 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US6654483B1 (en) * 1999-12-22 2003-11-25 Intel Corporation Motion detection using normal optical flow
US7082209B2 (en) * 2000-08-31 2006-07-25 Hitachi Kokusai Electric, Inc. Object detecting method and object detecting apparatus and intruding object monitoring apparatus employing the object detecting method
SE516346C2 (sv) * 2000-10-06 2001-12-17 Xcounter Ab Metod för reducering av högfrekvent brus i bilder med hjälp av medelvärdesbildning av pixlar och parvis addering av pixelpar som uppfyller ett villkor
US6947575B2 (en) * 2001-05-24 2005-09-20 Trw Inc. Apparatus and method for determining vehicle occupant characteristic utilizing imaging with provided light
US6810133B2 (en) 2001-06-01 2004-10-26 Trw Inc. Occupant sensing system and method via imaging
US6961481B2 (en) * 2002-07-05 2005-11-01 Lockheed Martin Corporation Method and apparatus for image processing using sub-pixel differencing
JP2004046565A (ja) * 2002-07-12 2004-02-12 Minolta Co Ltd 動物体のエッジ画像取得方法
EP1389493A1 (de) * 2002-08-12 2004-02-18 MIT Management intelligenter Technologien GmbH Verfahren und Vorrichtungen zur automatischen Adressblockmarkierung
KR20050065543A (ko) * 2002-09-12 2005-06-29 엔라인 코포레이션 복소 영상의 획득 및 처리 시스템 및 방법
JP4192719B2 (ja) * 2003-08-22 2008-12-10 ソニー株式会社 画像処理装置および方法、並びにプログラム
US7483551B2 (en) * 2004-02-24 2009-01-27 Lockheed Martin Corporation Method and system for improved unresolved target detection using multiple frame association
JP4686773B2 (ja) * 2005-06-16 2011-05-25 独立行政法人海上技術安全研究所 動体認識方法および動体認識装置
FR2890451B1 (fr) * 2005-09-02 2009-05-29 Sagem Defense Securite Procede de detection d'un objet par traitement spatio-temporel et dispositif de mise en oeuvre du procede
US7590303B2 (en) * 2005-09-29 2009-09-15 Samsung Electronics Co., Ltd. Image enhancement method using local illumination correction
GB2438449C (en) * 2006-05-24 2018-05-30 Sony Computer Entertainment Europe Ltd Control of data processing
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
US8033612B2 (en) * 2008-12-24 2011-10-11 Mity-Lite, Inc. Comfortable mesh folding chair
JP5177284B2 (ja) * 2009-03-30 2013-04-03 富士通株式会社 被写体動き検出装置および方法
TWI490820B (zh) * 2010-01-11 2015-07-01 Pixart Imaging Inc 偵測物體移動之方法及偵測系統
US8965051B2 (en) * 2010-10-18 2015-02-24 Nokia Corporation Method and apparatus for providing hand detection
US8831287B2 (en) * 2011-06-09 2014-09-09 Utah State University Systems and methods for sensing occupancy
US8611600B2 (en) * 2011-10-12 2013-12-17 Raytheon Company Three-frame difference moving target acquisition system and method for target track identification
CN103196550A (zh) * 2012-01-09 2013-07-10 西安智意能电子科技有限公司 一种对发射光源的成像信息进行筛选处理的方法与设备
US8983218B2 (en) * 2012-04-11 2015-03-17 Texas Instruments Incorporated Virtual boundary processing simplification for adaptive loop filtering (ALF) in video coding
US9111444B2 (en) 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
US9369742B2 (en) 2012-12-06 2016-06-14 Avaya Inc. System and method to estimate end-to-end video frame delays
US10977808B2 (en) 2019-02-18 2021-04-13 Raytheon Company Three-frame difference target acquisition and tracking using overlapping target images
CN117572885B (zh) * 2023-11-20 2024-05-31 鸣飞伟业技术有限公司 基于无人机热红外相机的夜间追踪方法、系统及相关装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4220967A (en) * 1976-09-27 1980-09-02 Hughes Aircraft Company Scene tracker using multiple independent correlators
US4405940A (en) * 1977-05-31 1983-09-20 Westinghouse Electric Corp. Apparatus and method for preprocessing video frame signals
JPS5994045A (ja) * 1982-11-22 1984-05-30 Toshiba Corp 画像入力装置
IL69327A (en) * 1983-07-26 1986-11-30 Elscint Ltd Automatic misregistration correction
US4739401A (en) * 1985-01-25 1988-04-19 Hughes Aircraft Company Target acquisition system and method
US4639774A (en) * 1985-06-21 1987-01-27 D. L. Fried Associates, Inc. Moving target indication system
JPS6226992A (ja) * 1985-07-29 1987-02-04 Nippon Telegr & Teleph Corp <Ntt> 移動物体抽出方式
JP2585544B2 (ja) * 1986-09-12 1997-02-26 株式会社日立製作所 動き検出回路
JP2718668B2 (ja) * 1986-10-06 1998-02-25 株式会社日立製作所 動き検出回路
US4959714A (en) * 1988-08-08 1990-09-25 Hughes Aircraft Company Segmentation method for terminal aimpoint determination on moving objects and apparatus therefor

Also Published As

Publication number Publication date
JPH0664613B2 (ja) 1994-08-22
DE68910498D1 (de) 1993-12-09
IL90898A (en) 1993-04-04
TR25266A (tr) 1992-12-04
JPH03502018A (ja) 1991-05-09
ES2016049A6 (es) 1990-10-01
CA1313704C (en) 1993-02-16
DE68910498T2 (de) 1994-03-03
EP0380658A1 (en) 1990-08-08
WO1990001706A3 (en) 1990-03-22
AU4400589A (en) 1990-03-05
AU619611B2 (en) 1992-01-30
EP0380658B1 (en) 1993-11-03
US4937878A (en) 1990-06-26
KR900702378A (ko) 1990-12-06
WO1990001706A2 (en) 1990-02-22

Similar Documents

Publication Publication Date Title
KR930007549B1 (ko) 정지 클러터를 포함하고 있는 감지기 시계내의 움직이는 물체를 자동적으로 검출하는 장치 및 방법
US5109435A (en) Segmentation method for use against moving objects
Tom et al. Morphology-based algorithm for point target detection in infrared backgrounds
US5684898A (en) Method and apparatus for background determination and subtraction for a monocular vision system
US5063524A (en) Method for estimating the motion of at least one target in a sequence of images and device to implement this method
CN109859250B (zh) 一种航空红外视频多目标检测与跟踪方法及装置
JP2000508429A (ja) クラッター確率密度関数の適応評価を使用したクラッター排除
KR930006386B1 (ko) 이동 목표물을 분절하여 검출하는 방법 및 검출장치
KR20210008574A (ko) 프레임 분할과 지능형 검출 pool을 이용한 다수의 카메라 영상에서 실시간 객체 검출 방법
JP2618172B2 (ja) Mtiプロセッサ用振幅比弁別システム
Wang A pipeline algorithm for detection and tracking of pixel-sized target trajectories
Rourke et al. Road traffic monitoring using image processing
Chen et al. Robust extended target detection using nonlinear morphological operations
Goehrig II et al. Analysis of image segmentation approaches with emphasis on performance evaluation criteria
KR102504675B1 (ko) 필드 프로그래머블 게이트 어레이로 구현된 저 지연 점 표적 탐지 추적 장치
He et al. Shadow-based Moving Target Detection for Video SAR
Xiong et al. Net comparison: an adaptive and effective method for scene change detection
Wang et al. Detection and tracking of single-pixel targets based on trajectory continuity
Davies et al. Robust tracker of small, fast-moving low-contrast targets
Liu et al. New method of detecting moving dim-point targets in image sequences
Li et al. Automatic target detection and tracking system using infrared imagery
Koligman et al. Automated video and infrared tracking technology
Chen st Extend-linear M
Saran et al. LRT-DetSim: Long-Range Airborne Target Detection Simulator for Infra-Red Image Sequences
Sherwin Some Remarks on the Philosophy of Signal Detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 19970805

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee