KR20230136214A - 능동 이미징 시스템 - Google Patents

능동 이미징 시스템 Download PDF

Info

Publication number
KR20230136214A
KR20230136214A KR1020237029873A KR20237029873A KR20230136214A KR 20230136214 A KR20230136214 A KR 20230136214A KR 1020237029873 A KR1020237029873 A KR 1020237029873A KR 20237029873 A KR20237029873 A KR 20237029873A KR 20230136214 A KR20230136214 A KR 20230136214A
Authority
KR
South Korea
Prior art keywords
laser
image
target
illuminator
camera
Prior art date
Application number
KR1020237029873A
Other languages
English (en)
Inventor
존 바
Original Assignee
레오나르도 유케이 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 레오나르도 유케이 리미티드 filed Critical 레오나르도 유케이 리미티드
Publication of KR20230136214A publication Critical patent/KR20230136214A/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

시스템은 타겟을 포함하는 장면을 조명하기 위한 제 1 및 제 2 레이저 조명기를 포함한다. 제 1 레이저 조명기로부터 방출된 광의 펄스는 제 2 레이저 조명기로부터의 광의 펄스와 비교할 때 상대적으로 넓은 스펙트럼 선폭 및 상대적으로 긴 펄스 지속기간을 가진다. 카메라 시스템은 장면의 제 1 이미지를 획득하기 위해서 제 1 레이저 조명기로부터의 귀환본(return)을 수신하기 위한 상대적으로 긴 게이트 주기를 사용하고, 장면 내의 비-타겟 요소를 선택적으로 제외하는 타겟의 제 2 이미지를 획득하기 위하여 제 2 레이저 조명기로부터의 귀환본을 수신하기 위해 타겟의 거리 정보와 함께 상대적으로 짧은 게이트 주기를 사용한다. 이미지 처리를 통하여, 제 2 이미지가 제 1 이미지로부터 비-타겟 요소를 선택적으로 제거하기 위한 템플릿으로서 사용된다. 이러한 방식으로, 최종 이미지는 제 1 조명기의 귀환본으로부터 가능한 높은 이미지 품질 및 제 2 레이저 조명기의 귀환본으로부터의 양호한 클러터 억제(clutter rejection)라는 장점을 가진다.

Description

능동 이미징 시스템
원격 대상물의 검출(획득), 추적, 및 식별 중 하나 이상의 목적을 위해서 여러 센서를 사용하여 국지적 환경을 모니터링하기 위해서 관측 시스템이 사용된다.
도 1은 시스템의(1) 위치로부터 100m 내지 20km 이상의 거리 내에 있을 수 있는, 그 국지적 환경 내의 대상물을 검출하도록 설계된 대표적인 선행 기술의 관측 시스템(1)의 개략도를 예시한다. 시스템(1)은 항공기 또는 다른 공중 플랫폼에, 육지 차량에, 또는 항해 선박에 장착될 수 있다.
관측 시스템(1)은 인터페이스(2), 제어 및 처리 서브-시스템(3), 및 획득 및 추적 시스템(4)을 포함한다.
제어 및 처리 서브시스템(3)은 시스템 상황 데이터 및 처리된 이미지, 추적 데이터 및 타겟 정보를 인터페이스(2)를 통하여 출력한다.
인터페이스(2)는, 예를 들어 분석 및 대응을 위해서 인간 관측자에게 이미지를 제공하기 위한 디스플레이를 포함할 수 있다. 대안적으로 또는 추가적으로, 인터페이스는, 인간 개입이 없이 관측 시스템(1)으로부터의 출력 데이터, 예를 들어 이미지 또는 일련의 이미지를 처리하고 적절한 동작을 수행할 수 있는 자율 시스템에게 입력을 제공하는 출력부를 포함할 수 있다.
제어 및 처리 서브-시스템(3)은 획득 및 추적 시스템(4)을 제어하는데, 이것은 다음 세 가지 서브-시스템을 포함한다: 타겟 검출 센서 서브-시스템(5); 개략적 추적(coarse tracking) 서브-시스템(6); 및 능동 이미징 서브-시스템(7). 지원 엄빌리컬(8)이 제어 및 처리 서브-시스템(3)을 획득 및 추적 시스템(4)의 서브-시스템과 상호연결하고, 전력 및 데이터 케이블(버스) 및 필요할 경우에는 열관리 서비스(예를 들어 냉각된 공기 또는 액체)를 포함한다.
개략적 추적 서브-시스템(6)은 타겟을 추적하기 위한 하나 이상의 센서를 포함한다. 센서는 광범위한 각도를 검출할 수 있고 제한된 공간 분해능으로 타겟을 빠르게 검출하기에 유용한 광시야(wide field of view; WFOV) 추적 센서; 및 타겟 분류 및 가능한 식별을 위한 고분해능을 가지는 협시야(narrow field of view; NFOV) 추적 센서를 포함할 수 있다. 정밀한 값이 시스템 애플리케이션에 의해서 결정될 것이다.
광시야 센서는 다음 대역: 자외선(ultraviolet; UV), 가시광선, 근적외선(near infra-red; NIR), 단파 적외선(short wave infra-red; SWIR), 중파 적외선(medium wave infra-red; MWIR) 및 장파 적외선 광(long wave infra-red light; LWIR) 중 하나 이상에서 동작하는 하나 이상의 카메라 또는 검출기를 포함할 수 있다.
협시야 센서는 다음 대역: 자외선(ultraviolet; UV), 가시광선, 근적외선(near infra-red; NIR), 단파 적외선(short wave infra-red; SWIR), 중파 적외선(medium wave infra-red; MWIR) 및 장파 적외선 광(long wave infra-red light; LWIR) 중 하나 이상에서 동작하는 하나 이상의 카메라 또는 검출기를 포함할 수 있다.
개략적 추적 서브-시스템(6)은 거리측정기, 예를 들어 레이저 거리측정기를 더 포함할 수 있다. 거리측정기는 타겟 우선순위화(prioritisation) 또는 식별을 도울 수 있는 타겟까지의 거리 정보를 제공한다.
개략적 추적 서브-시스템(6)은 조향가능하고, 예를 들어 모터를 사용하여 다양한 센서가 고정된 짐벌 시스템을 제어한다. 관련 필드(field of regard; FoR)는 획득 및 추적 시스템(4)이 볼 수 있는 공간 내의 가능한 모든 방향을 망라하는 반면에, 가시 범위(FoV)는 임의의 한 번에 실제로 볼 수 있는 공간 내의 더 작은 세트의 방향을 기술한다.
타겟 검출 센서 서브-시스템(5)은, 관측 시스템(1)이 잠재적인 타겟 대상물에 대한 검색을 시작하게 하기 위해서 공간 내의 방향을 유도하기 위하여, 관측 시스템(1)에 대하여 내부(5A) 및/또는 외부(5B)일 수 있는 많은 가능한 센서들(5A, 5B) 중에서 하나 이상으로부터 데이터를 취한다. 외부 센서(5B)로부터의 데이터는 인터페이스(2)를 통하여 수신된다. 대안적인 구성에서, 타겟 검출 센서 서브-시스템(5)의 기능은 외부 시스템에 의해서 수행될 수 있고, 그 입력은 인터페이스(2)를 통하여 수신될 수 있다.
잠재적인 타겟이 외부 센서 중 하나 이상의 출력으로부터 식별되면, 제어 및 처리 서브-시스템은 잠재적인 타겟이 개략적 추적 서브-시스템(6)의 시스템 관련 필드(FoR) 내에 있다는 것을 검증한다. 그 안에 있지 않으면, 제어 및 처리 서브-시스템(2)은 아무 것도 하지 않고, 그 안에 있으면 해당 시스템은 개략적 추적 서브-시스템(6)에게 잠재적인 타겟이 그 센서의 가시 범위(FoV) 중 적어도 하나 안에 있게 되도록 스스로를 배향시키게끔 명령한다. 타겟의 위치에서의 측정 오차가 NFoV 추적 센서의 관련 필드보다 작다는 것이 중요하다. WFoV 및 NFoV 추적 센서는 여러 공지된 프로세스 중 하나를 사용하여 정렬되어, 시선들(sightline)이 조화를 이루거나 공동-조준되게 된다(co-boresighted).
외부 타겟 검출 센서(5B)는 관측 시스템에 대해서 국지적일 수 있거나 관측 시스템으로부터 원격으로, 예를 들어 인접한 별개의 플랫폼 또는 별개의 관측 시스템에 있을 수도 있다. 그 서브-세트가 카메라라고 불리거나 IR 카메라의 경우에는 FLIRS(Forward lookinginfra-red sensor)라고 불리는 외부 타겟 검출 센서는 인간 관찰(human viewing); 레이더 시스템; 적외선(IR) 또는 열카메라; 단파 IR 카메라; 가시광선 광 카메라; 자외선(UV) 센서 및/또는 카메라 및 음향 센서 중 하나 이상을 포함할 수 있다.
예시적인 관측 시스템은 적외선 반격(infra-red countermeasure; IRCM) 시스템이다. IRCM 시스템은 흔히 미사일 발사 경고기(missile launch warner; MLW)라고 불리는 원격 타겟 검출 센서로 구성된다. MLW는 UV 카메라 및/또는 IR 카메라를 사용하여 미사일의 발사 시그너쳐를 검출하고, MLW 플랫폼에 대한 발사 장소의 위치를 제공할 수 있다. 이러한 구성에서, MLW는 전부가 관측 시스템 외부에 있다. MLW는 발사 위치를 프로세서로 보고하고, 프로세서는 제어 및 처리 서브시스템(3)의 역할을 한다. 프로세서는 동일한 플랫폼 상의 별개의 위치에 있는 터렛(turret)에게 그 FOV가 MLW에 의해 식별된 미사일의 위치를 향해 포인팅하게끔 회전하도록 명령한다. 터렛은 개략적 추적 모듈(6)과 동일한 FLIR을 포함한다. FLIR은 미사일 플룸(plume)을 검출할 수 있고, 따라서 미사일을 획득 및 추적할 수 있다. 프로세서는 터렛 상의 센서로부터의 센서를 분석한다.
다시 도 1을 참조하면, 일반적으로 타겟은 WFoV 센서 내에 존재할 것이어서 제어 및 처리 서브-시스템(3)이 개략적 추적 서브-시스템(6)의 배향에 작은 수정을 하여 타겟이 WFoV 내에 중심에 위치하게 함으로써 시스템이 타겟을 연속적으로 추적할 수 있게 한다. 아직 식별하지 못할 수 있지만 타겟을 검출하고 추적을 시작하면, 제어 및 처리 서브-시스템(3)은 WFoV 센서에 공동-조준되기 때문에 타겟을 볼 수 있는 NFoV 센서로부터의 출력을 분석한다. NFoV 센서로부터 제공된 더 양호한 공간 분해능은 제어 및 처리 서브-시스템(3)이 타겟을 식별할 수 있게 할 수 있다. 식별은 제어 및 처리 서브-시스템 내의 적절한 자동적 타겟 식별 알고리즘(ATI)에 의하여 또는 이미지를 식별하도록 인터페이스(2)를 통해 인간 사용자에게 제공함으로써 달성될 수 있다. 이러한 시점에서, 제어 및 처리 서브-시스템(3) 또는 사람 중 어느 하나가 타겟을 그 자신의 미션에 관련된 것으로 또는 미션에 관련되지 않은 것으로 분류한다. 잠재적인 타겟이 관심 대상이 아니면, 제어 및 처리 서브-시스템(3)은 잠재적인 타겟을 클러터(clutter)라고 분류한다. 타겟이 관심 대상이라면, 이것은 개략적 추적 서브-시스템(6)에게 그 미션이 완료될 때까지 대상물을 계속 추적하도록 명령한다.
개략적 추적 서브-시스템(6)의 NFoV 센서가 잠재적인 타겟의 이미지를 충분한 공간 분해능으로 제공할 수 없기 때문에 잠재적인 타겟이 식별될 수 없는 상황이 존재할 수 있는데, 이러한 경우에는 능동 이미징 서브-시스템(7)이 시작된다. 능동 이미징 서브-시스템(7)은 잠재적인 타겟의 추가 이미지를 획득하기 위해서 능동 조명(active illumination)이라고 알려져 있는 기술을 사용한다.
능동 이미징은 일반적으로는 연속파(CW) 레이저 또는 더 바람직하게는 펄스형 레이저 중 어느 하나인 광원이 원격 대상물을 조명하기 위하여 사용되는 기법이다. 적절한 카메라가 대상물에 의해서 반사된 광을 이미징한다. 타겟들이 상이한 표면 처리가 된 많은 재료로 구조화되고 구성될 수 있다는 점에서 거의 대부분의 실제 타겟들이 복잡하기 때문에 이들로부터 반사된 광은 동일한 타겟으로부터 정반사 및 확산 반사를 거친다. 반사된 광은 어느 정도까지 탄편광될(depolarised) 수도 있다. 능동 이미징의 장점에는 다음이 있다:
1. 레이저가 WFoV 및 NFoV 열센서보다 짧은 파장을 사용하는 경우, 캡쳐된 이미지를 타겟의 인식을 개선하는 것을 도울 수 있는 WFoV 센서 또는 NFoV 센서 중 어느 하나로부터보다 양호한 공간 분해능으로 획득하는 것이 가능해진다.
2. 카메라에 도달하는 광을 레이저 파장 주위의 파장의 소범위로 필터링하는 것이 가능한데, 그러면 카메라 감도가 개선되고 카메라의 전체 FoV 내에서 타겟을 측위하는 것을 돕게 된다.
3. 국지적인 열서명(thermal signature)에 기인하여 한정될 경우, 열이미지와 비교할 때 개선된 이미징 콘트라스트가 허용된다. 예를 들어, 이른 아침 및 저녁에는 장면의 온도가 거의 등온이 될 수 있어서 임의의 타겟의 콘트라스트가 배경에 비하여 검출 또는 식별하기에는 너무 낮게 된다. 능동 이미징은 장면 온도와 독립적인 타겟 이미징을 허용한다.
4. 이것은, 타겟과 비교할 때 카메라로부터 더 가깝거나 및/또는 더 멀리 있는 대상물을 이미지로부터 제거하기 위해서 타임 게이티드(time gated) 이미징을 구현하기 위하여 사용될 수있다. 이러한 프로세스는 흔히 클러터 감소 또는 클러터 억제라고 불린다. 예를 들어, 이것은 관측자가 네트에 기반한 위장 내에서 또는 방 내에서 타겟을 볼 수 있게 하기 위해서 사용될 수 있다.
타임 게이티드 이미징은 어떤 시점(레이저 발화 시간)에 펄스형 레이저를 작동시키고, 카메라 게이트를 레이저 발화 시간에 비하여 지연된 개방 시간에 개방시킴으로써 달성된다. 카메라 게이트는 레이저 발화 시간에 비하여 더 지연된 게이트 폐쇄 시간에서 폐쇄된다.
이러한 타입의 타임 게이티드 이미징은 세기 정보를 2 차원의 포맷에서 카메라 픽셀 크기에 의해 규정된 공간 분해능으로 제공한다. 이것은 2차원(2D) 이미징이라고 불릴 수 있다.
레이저 펄스의 길이가 타겟보다 작으면, 식별하는 것을 도울 수 있는 더 많은 정보를 타겟 형상에 대해서 획득하는 것이 가능해진다. 이러한 특징은 카메라가 반사된 광의 도달 시간에 대한 정보를 픽셀 레벨 거리측정기와 같이 픽셀별로 제공하도록 요구하고, 타겟 크기 및 형상의 정보를 제공하기 위해서 분석될 수 있는 거리 분해(range resolved) 포인트 클라우드를 제공하는 것이 가능해질 것이다. 이렇게 시간 분해된 타임 게이티드 카메라를 사용하는 것은 흔히 3 차원의 정보(3D)를 제공하는 것을 여겨지는데, 여기에서 두 차원은 픽셀별 세기 데이터이고 제 3 차원은 신호의 도달 시간이다.
2D 타임 게이티드 카메라는 3D 정보를 개발하기 위해서도 사용될 수 있다. 한 가지 접근법은 레이저 발화 시간에 비하여 다소 상이한 지연(게이트 개방 시간)에서 타겟에 대한 정보를 얻기 위해서 여러 레이저 펄스를 사용하는 것이다.
CW 레이저 조명기는 카메라의 자연적인 프레임 레이트를 통해서 2D 이미지를 생성하기 위해서도 채용될 수 있다. 각각의 이미지는 카메라의 프레임 레이트(통상적으로는 0.5초 내지 5ms 이상)에 걸쳐서 노출된다. 레이저에 의해 조명된 모든 대상물은 조명된 장면 내에서 보이게 될 것이고, 이것은 의도된 타겟이 아닌 전경 또는 배경 내의 대상물을 포함할 수도 있다. 이러한 타입의 카메라의 출력은 시간에 기반한 클러터 억제는 가능하지 하지 않는다.
도 2를 참조하면, 능동 이미징 서브-시스템(7)은 능동 이미징 제어기(7A), 조명 레이저(7B), 프로그래밍가능 지연 생성기(7C) 및 타임 게이티드 카메라(7D)를 포함한다.
능동 이미징 제어기(7A)는 제어 및 처리 서브-시스템으로부터 버스(8)를 통해 명령을 수신하고, 그 후에 내부 버스(7E)를 통하여 제 1 펄스형 조명 레이저(7B), 프로그래밍가능 지연(7C) 및 타임 게이티드 카메라(7D)를 제어하도록 구성된다.
능동 이미징 제어기(7A)로부터 수신된 신호에 응답하여, 조명 레이저(7A)는 타겟(9)을 능동 이미징 서브-시스템(7)의 제 1 애퍼쳐(7F)를 통하여 펄스형 광(10)으로 조명한다. 조명 레이저(7B)는, 게이티드 카메라(7D)에게 시간 지연된 신호인 게이트 개방 신호(Gate Open Signal)를 제공하는 프로그래밍가능 시간 지연 생성기(7C)에게 타이밍 신호를 더 제공한다. 게이트 개방 신호를 수신하는 것에 응답하여, 카메라(12)는 자신의 게이트를 열어서 제 2 애퍼쳐(7G)를 통과한 타겟(9)으로부터의 반사된 광(11)을 수집한다. 카메라(7D)는 자신의 게이트를 게이트 개방 신호로부터 미리 결정된 시간에 닫도록 프로그래밍된다.
도 3을 참조하면, 레이저(7B)는 그 심볼 TFWHM에 의해 그 반치전폭(full width at half maximum; FWHM)에 의해 기술되는 지속기간을 가지는 광 펄스(10)를 생성한다. 많은 애플리케이션의 경우 TFWHM에 대하여 5 내지 50ns의 값이 공통이지만, 더 긴 펄스 및 더 짧은 펄스 양자 모두도 사용될 수 있다. 안전성 이유 때문에 조명 레이저(7B)의 바람직한 파장은 1.5μm 내지 1.8μm의 범위에 속하지만, 대기에서 양호하게 전파되는 다른 파장이 사용될 수도 있다. 시간으로 측정된 레이저 펄스 길이는 광속인 c=3x108ms-1(근사적으로)에 의해 승산함으로써 물리적 펄스 길이로 변환될 수 있다. 5ns 내지 50ns의 범위의 물리적 지속기간은 약 1.5m 내지 15m에 대응한다.
레이저(7B)는 레이저 펄스 반복 주기 Tp에 의해서 반복적으로 펄싱될 수 있다. 펄스 반복 주기는 필요에 따라서 변경될 수 있다. Tp에 대한 통상적인 값은 100ms 내지 500μs의 범위에 속한다. 레이저(7B) 및 타임 게이티드 카메라(7D) 사이에서의 개선된 타이밍 정확도를 위하여, 선택적으로 레이저(7B) 출력의 소부분이 T0 검출기(7H)로 지향시킬 수 있는데, 이것은 이에 응답하여, 프로그래밍가능 지연(7C)에 입력을 제공하는 레이저 펄스(10)의 방출에 동기화된 신호를 생성한다. 레이저 펄스의 방출 시간은 T0라고 불릴 수 있다.
레이저 펄스는 거리 L에 위치된 타겟(9)으로 전파된다. L의 값은, 예를 들어 추적 서브-시스템(6) 내의 거리측정기를 사용함으로써 관측 시스템(1)에게 알려질 수 있다. 그러한 경우, 펄스가 타겟(9)에 시간 에 도달하고, 반사된 광(11)이 타임 게이티드 카메라(7D)에 시간 에 도달한다는 것이 알려져 있다. 제어기(7A)는 프로그래밍가능 지연(7C)을 의 T0에 상대적인 시간으로 설정하고, 따라서 반사된 광이 카메라(7D)에 도달하기 전에 카메라 게이트가 열린다. 시간 가 게이트 개방 시간이 되도록, 카메라 게이트는 반사된 광의 펄스가 카메라(7D)에 도달한 이후에 의 T0에 상대적인 시간에 닫힌다. T0의 측정에 있어서의 불확실성을 허용하기 위해서 게이트 시간은 펄스 지속기간 TFWHM보다 길어야 하지만, 시스템의 신호대 잡음비를 개선하기 위해서 최소화될 수 있다.
카메라(7D)는 제 2 애퍼쳐(7G)에 진입하는 광을 수집하고, 이것을 초점면 어레이(focal plane array; FPA)(71) 상으로 이미징하는 렌즈 시스템(70)을 포함한다. 초점면 어레이(71) 레이저 광을 충분한 감도로 검출할 수 있는 적절한 픽셀화(pixilated) 검출기 재료 상에 구성된다. 초점면 어레이(71) 상의 각각의 픽셀은 연결된 판독 집적 회로(readout integrated circuit; ROIC)(72) 상의 전자부에 의해서 처리된다. ROIC(72)는 각각의 픽셀로부터의 광전류를 수집 및 누적시키고, FPA(71)의 감도가 게이트 개방 시간에 따라서 효과적으로 낮음으로부터 높음으로 시간 스위칭되도록 게이트 회로부를 구현한다. 게이트 개방 시간 도중에 수집된 이미지 데이터는 직렬화되고 버스(7E)를 통하여 제어 및 처리 서브-시스템(3)으로 전달된다.
게이티드 카메라(7D)는 초점면 어레이(71)에 도달하는 비-레이저 광의 양을 최소화하기 위한 협대역 필터(73)를 더 포함한다. 예를 들어, 능동 이미징 시스템(7)은 1nm 미만의 선폭을 가지는 고상 레이저(7B) 및 약 1 nm의 통과대역을 가지는 협대역 필터(73)를 포함할 수 있다. 대안적으로, 25nm 미만의 선폭의 반도체 레이저(7B)가 약 25nm의 통과 대역을 가지는 필터(73)와 함께 사용될 수도 있다. 이러한 예의 양자 모두의 필터는 InGaAs에 기반한 단파 적외선 검출기에 대한 배경 잡음의 측면에서 매우 바람직한데, 이것은 통상적으로 0.6 내지 1.7μm의 스펙트럼 범위에 민감하다.
도 2에 도시되는 능동 이미징 시스템은 레이저(7B) 및 시간 게이티드 카메라(7D)가 별개의 송신 및 수신 애퍼쳐(7F, 7G)를 가지는 쌍안정(bistatic) 아키텍처를 예시한다.
단안정(monostatic)이라고 알려져 있는 대안적인 광학 아키텍처는 도 4에 개략적으로 예시된다. 이러한 변형 능동 이미징 시스템(7)은 레이저 광을 송신하고 타겟으로부터 반사된 광을 수광하는 것 양자 모두를 위해서 사용되는 단일 광학 애퍼쳐(7G)를 포함한다. 레이저 파장에서 고도로 반사성을 가지는 미러(7J)가 레이저 빔(10)을 애퍼쳐(7G)를 향해 조향하기 위해서 사용된다. 편광 또는 애퍼쳐 공유와 같이 광을 공간적으로 다중화하기 위하여 공지된 기법을 사용할 수 있는 광학 컴포넌트(7K)는 송신된 레이저 빔(10) 및 반사된 광(11)의 경로들을 결합한다.
도 5는 도 4의 시스템을 사용하는 클러터 억제 프로세스를 예시하지만, 도 2 및 도 3의 시스템도 동일하게 사용될 수 있다. 타겟(9)(이러한 예에서는 탱크)은 레이저(7B)에 의해 조명되고, 귀환본(return)이 타임 게이티드 카메라(7D)에 의해 수집되고 처리되며, 인터페이스(2)를 통하여 제 1 이미지(20) 또는 제 2 이미지(21)로서 사용자에게 제공된다. 제 1 이미지(20)를 취할 때에 게이트 온 시간(gate on time)은 레이저 펄스 지속기간과 비교할 때 크고, 따라서 이미지는 타겟(9)의 표현에 추가하여, 전경 증 일부 및 배경 중 일부의 세부 사항을 포함한다. 반대로, 게이트 개방 시간이 타겟의 물리적 깊이와 비견될 수 있으면, 레이저 펄스 지속기간은 게이트 온 시간보다 짧고, 타겟은 게이트 개방 시간 내에 정확하게 배치되며, 그러면 제 2 이미지(21)가 결과적으로 얻어진다. 제 2 이미지(21) 내에 표현되는 타겟(9)이 전경 및 배경으로부터 깨끗하게 세그멘트화된다. 물리적 레이저 펄스 지속기간이 전체 타겟 치수보다 훨씬 작고 카메라(7D)가 3D 성능이 있으면, 이미지(21) 내의 구조체가 측정될 수 있고, 예를 들어 타겟(9)이 탱크인 경우에는 포신의 길이가 측정될 수 있는데, 이것은 타겟 식별을 돕는 것일 수 있다.
능동 이미징 시스템(7)의 활용성은 능동 이미징 기능을 관측 시스템(1)에 통합시킴으로써 유발되는 추가 비용과 비교할 때의 결과적으로 얻어지는 이미지의 품질에 의존한다. 레이저(7B) 및 카메라(7D) 양자 모두가 생성된 이미지의 품질에 기여한다는 것이 알려져 있다. 더 나아가, 레이저 타입의 선택과 같은 선택, 예를 들어 반도체 레이저에 비교되는 고상 레이저(예를 들어 Nd: YAG, Er: Yag, 또는 Ho: Yag)의 선택도 상이한 전력 요구 사항을 야기한다. 고상 레이저는 파장 및 선폭이 변경될 수 있는 반도체 레이저와 비교할 때 상대적으로 고정된 파장 및 상대적으로 좁은 선폭으로 제공될 수도 있다.
능동 이미징을 위한 이상적인 레이저 소스는 다음 속성을 가진다:
a. 자연광의 속성을 모방하고 이미지에 대한 스페클의 영향을 감소시키기 위한, 큰 선폭, 예를 들어 5nm 내지 50nm 이상의 선폭을 가지는 빔을 생성할 수 있는 능력.
b. 관심 대상인 대상물이 시스템 위치로부터 100m 내지 20km 이상에 놓여 있는 장거라 관측 애플리케이션에서 사용하기에 안전함. 이러한 요구 사항은 1.5μm 내지 1.8μm의 범위 안에 속하는 파장을 사용함으로써 가장 쉽게 만족된다.
c. 레이저 파장에서 적절한 감도의 타임 게이티드 카메라가 사용될 수 있다.
d. 포인트 c에서 식별된 카메라, 및 포인트 a에서 식별된 선폭과 함께 사용될 때 포인트 b에서 식별된 관심 타겟에 도달하기 위해서 펄스별로 충분한 에너지를 생성할 수 있다. 통상적으로, 이러한 레이저는 사용되도록 선택된 정밀 카메라에 의존하여, 펄스마다 10 내지 100mJ의 범위에 속하는 펄스 에너지를 요구한다. 이러한 레이저의 파워는 와 같은 레이저의 반복률을 사용하여 계산될 수 있는데, 여기에서 P는 와트 단위의 파워이고, E는 주울 단위의 펄스 에너지이며, Tp는 펄스 반복 주기이고, 펄스 주파수는 이며 Hz 단위로 측정된다. 특정 레이저 선택에 대해서 반복률을 20Hz로부터 2000Hz로 증가시키면 출력 파워 및 전력 소비를 100의 인자만큼 증가시킬 수 있다.
e. 레이저는 관측 시스템 내의 파워 소비 및 열부하를 최소화하기 위해서 전기적으로 충분히 효율적이어야 한다. 현재 이용가능한 최선의 WPE(wall plug efficiencies)는 패키징된 반도체 레이저로부터 얻어진 40%보다 큰 것이다(개별적인 반도체 디바이스는 50%가 넘는 전력-광력 변환을 가질 수 있음). 반면에, 표준 고상 레이저는 2 미만 내지 5%의 범위에 속하는 WPE에서 동작한다. WPE는 레이저를 동작시키기 위해서 외부 파워 서플라이로부터 유도된 파워이다. 이러한 숫자는 직접적인 전기-광 변환 단계뿐만이 아니라 레이저의 모든 컴포넌트 부품들에 의해서 사용되는 파워를 포함할 것이다. 그러므로 WPE는 레이저 서브시스템을 작동시키기 위하여 요구되는 임의의 전자 제어 카드, 레이저의 부품에 의해서 요구되는 임의의 열제어, 및 레이저 내의 내부 전압 변환 또는 파워 조절부 내에서의 손실 및 전기를 광으로 변환할 때의 손실을 포함하지만 이들로 한정되지는 않을 수 있다. 일반적으로 WPE는 시스템의 동작 온도 범위에 걸쳐서 변한다.
f. 타겟이 전경 및 배경으로부터 깨끗하게 세그먼트화될 수 있도록, 물리적 레이저 펄스 지속기간은 타겟의 치수보다 짧아야 한다(거리에 있어서). 많은 애플리케이션의 경우, 이것은 3m 내지 7.5m의 펄스 길이와 같은 10 내지 25 ns의 범위 내의 펄스 지속기간을 요구한다. 타겟의 3D 이미지 데이터가 요구된다면, 예를 들어 1nm 내지 3 ns의 범위에 속하는 더 짧은 펄스 지속기간이 0.3m 내지 1m 범위에 속하는 공간 분해능을 제공하기 위해서 흔히 필요하다.
h. 예를 들어 장거리 이미징에 있어서 대기 난류에 의해서 초래되는 이미지 열화를 최소화하기 위해서, 레이저는 상대적으로 높은 반복률(1000Hz 이상)에서 동작한다. 포인트 d에서 언급된 바와 같이, 이것은 수 십 Hz에서 동작하는 표준 레이저 소스에 비해서 파워 소모가 크게 증가하는 것을 나타낸다.
i) 레이저가 저렴하다.
표 1은, 조건 c를 만족시키고 그들의 속성을 능동 이미징 소스에 대해서 방금 리뷰된 기준들과 비교하는, 구입가능하고 다양한 공지된 레이저 타입을 보여준다.
레이저 타입(표 아래의 목록 참조)
기준 A B C D E F G
a <1nm <1.8nm <2 25nm 이상 수 십 nm <10nm <8nm
b 1.064μm 1.573μm 1.62μm 1.55μm 4μm 1.53μm 1.561μm
c
d 300 mJ 100 mJ 10 mJ 15 mJ 0.3 mJ 15 mJ 0.6 mJ
e 2% 0.7% 40 내지 45% 0.2% 0.2% 0.5%
f 10-20ns 10-20ns 30-40ns 5μs 10-20ns 1.5ns
h 20Hz 20Hz 2kHz 2kHz 20Hz 2-10kHz
i 낮음 낮음 낮음 낮음 낮은 높음 중간
A. Q-스위치드 Nd: Yag 레이저
B. 광학 파라메트릭 발진기(OPO)가 있는 Q-스위치드 Nd: YAG
C. 광섬유 펌핑된 Er: YAG
D. 다중 공동-패키징된 반도체 레이저
E. 툴륨(Thulium) 섬유 펌핑된 벌크 Ho: YAG 및 ZGB OPO
F. 라인 광폭화된 OPO 광학 파라메트릭 발진기가 있는 Q-스위치드 Nd: YAG
G. Er: 섬유 기반 마스터 발진기 파워 증폭기(Master Oscillator Power Amplifier; MOPA)
짧은 펄스, 높은 전기적 효율 및 큰 선폭을 동시적에 제공할 수 있는 저비용 레이저가 현재 존재하지 않는다는 것을 알 수 있다. 요구 사항을 만족시키는 것으로 보이는, 이러한 레이저 및 다른 레이저의 단펄스 고반복률의 예가 존재할 수 있지만, 이들은 실험실에서 시연된 것이고 효율적이고 신뢰가능한 패키지 내에서 바로 이용될 수는 없을 수도 있다.
본 발명은 전술된 관측 시스템에서 사용되기 위한 개선된 능동 이미징 시스템을 제공하기 위한 것이다.
본 발명의 제 1 양태에 따르면, 능동 이미징 시스템으로서, 타겟을 포함하는 장면을 광의 펄스로 조명하도록 각각 구성된 제 1 레이저 조명기 및 제 2 레이저 조명기 - 상기 광의 펄스는 상기 제 2 레이저 조명기로부터의 광의 펄스와 비교할 때 상대적으로 넓은 스펙트럼 선폭 및 상대적으로 긴 펄스 지속기간을 가지는 제 1 레이저 조명기로부터 방출됨 -; 상기 장면에 의해 반사된, 상기 제 1 레이저 조명기 및 상기 제 2 레이저 조명기 양자 모두로부터의 광을 수광하도록 배치된 카메라 시스템 - 상기 카메라 시스템은, 상기 제 1 레이저 조명기로부터의 귀환본(return)을 수신하기 위하여 상대적으로 긴 게이트 주기를 타겟의 거리 정보와 함께 사용하여 상기 타겟을 포함하는 장면의 제 1 이미지를 획득하고, 상기 제 2 레이저 조명기로부터의 귀환본을 수신하기 위하여 상대적으로 짧은 게이트 주기를 사용하여 상기 장면 내의 비-타겟 요소를 선택적으로 제외하는 상기 타겟의 제 2 이미지를 획득하도록 구성됨 -; 및 상기 제 2 이미지를 상기 제 1 이미지로부터 상기 비-타겟 요소를 선택적으로 제거하기 위한 템플릿으로서 사용하도록 구성된 이미지 처리 수단을 포함하는, 능동 이미징 시스템이 제공된다.
포인트 a로부터 포인트 i까지 나열된 요구 사항을 동시에 만족시키는 것이 현재 기술의 단일 레이저를 가지고는 달성가능하지 않다는 것을 인식하기 때문에, 본 발명은 타겟의 두 가지 소스 이미지에 대한 이미지 데이터를 획득하기 위하여 두 개의 조명기 소스를 사용하는 것, 및 이미징 처리를 사용하여 전경 및 배경 클러터가 없이 제 1 이미지에 의해 제공되는 타겟의 높은 이미지 품질을 포함하는 추가 이미지에 대한 이미지 데이터를 합성하는 것에 의해서 이상적인 레이저를 모사한다.
그 선폭이 더 넓기 때문에, 더 높은 품질의 이미지, 즉 스페클이 더 적은 이미지는 제 2 레이저 조명기로부터의 귀환본과 비교할 때 제 1 레이저 조명기로부터의 귀환본을 사용하여 생성될 수 있다. 제 2 조명기의 더 짧은 펄스 지속기간은 더 양호한 클러터 억제를 허용하고, 충분히 짧다면 타겟의 3D 이미지 세부사항이 허용된다.
타겟의 제 1 이미지, 그리고 따라서 결과적으로 얻어지는 합성된 이미지가 대기 난류에 의해서 초래된 더 적은 노이즈를 포함하기 위해서, 제 1 레이저 조명기는 제 2 레이저 조명기와 비교할 때 더 높은 반복률에서 동작할 수 있다.
더 바람직하게는, 어떠한 레이저도 혼자서는 넓은 선폭, 짧은 펄스 지속기간 및 높은 반복률을 생성할 필요가 없기 때문에, 두 개가 존재한다는 사실에도 불구하고 소망되는 모든 속성을 나타내는 단일 레이저보다는 여전히 능동 이미징 시스템 내에 구현하기가 더 저렴한 두 개의 상대적으로 저렴한 레이저가 사용될 수 있다. 예를 들어: 시스템은 제 1 레이저에 대해서는 타입 B의 레이저(표 1)인 광학 파라메트릭 발진기(OPO)가 있는 Q-스위치드 Nd: YAG, 및 제 2 레이저에 대해서는 타입 D의 레이저인 라인 광폭화된 OPO 광학 파라메트릭 발진기가 있는 Q-스위치드 Nd: YAG를 포함할 수 있다.
하지만, 제 1 및 제 2 레이저 조명기의 특정 선폭 및 반복률은 특정 애플리케이션에 의존하여 선택되고, 예를 들어 제 1 레이저 조명기는 적어도 10nm 및 바람직하게는 적어도 25nm의 선폭으로 동작할 수 있다. 제 1 레이저 조명기는 적어도 1 KHz의 반복률로 동작할 수 있지만, 결과적으로 얻어지는 이미지 내의 대기 노이즈를 감소시키기 위해서 바람직하게는 적어도 2KHz에서 동작할 수 있다.
그 이유는 제 2 이미지 내의 대기 노이즈는 관심 대상이 아니기 때문이다. 제 2 레이저 조명기는 1KHz 미만의 반복률에서 그리고 선택적으로는 100Hz 미만의 반복률에서 동작할 수 있다. 그러면, 제 2 레이저에 대해서 상대적으로 저렴한 레이저를 선택할 수 있다.
제 2 레이저는 타겟을 크기에 있어서 수 미터 이하 정도로 해상하기 위해서, 20ns 이하의 펄스 지속기간으로 동작할 수 있다.
제 2 레이저는 2nm 이하의 선폭으로 동작할 수 있다.
레이저 펄스 에너지는 레이저 거리 방정식에 기반한 표준 기법을 사용하여 추정될 수 있다. 통상적으로, 이것은 카메라 감도, 타겟 거리, 타겟 반사도 및 편광해제(depolarisation), 배경 광(예를 들어 협대역 필터 범위 내의 태양 조명 및 이러한 범위 바깥으로부터의 누설), 레이저 발산, 수광 애퍼쳐 크기, 대기 전파 및 임의의 필터 및 다른 광학 컴포넌트 내에서의 손실에 의해서 제어된다. 결과적으로, 펄스 에너지는 크게 변할 수 있다. 실무 경험에 따르면, 근거리 애플리케이션에 대한 1mJ로부터 장거리 애플리케이션에 대한 100mJ까지 범위를 가지는 펄스 에너지가 유용한 성능을 제공한다는 것이 제안된다.
능동 이미징 시스템은 제 1 및 제 2 레이저 조명기를 상이한 시간에 동작시키기 위해서 적응될 수 있다.
카메라 시스템은 제 1 및 제 2 레이저 조명기로부터의 귀환본을 캡쳐하고 제 1 및 제 2 이미지를 획득하기 위한 단일 카메라를 포함할 수 있다. 대안적으로, 시스템은 상기 제 1 레이저 조명기로부터의 귀환본을 캡쳐하도록 구성된 제 1 카메라 및 상기 제 2 레이저 조명기로부터의 귀환본을 캡쳐하도록 구성된 제 2 카메라를 포함할 수 있다.
제 1 및 제 2 레이저 조명기로부터의 광의 펄스들은 실질적으로 동일한 중심 파장을 가질 수 있다. 대안적으로, 제 1 및 제 2 레이저 조명기로부터의 광의 펄스들은 중첩하지 않는 선폭을 가지는 상이한 중심 파장을 가질 수도 있다.
제 1 및 제 2 레이저 조명기가 상이한 중심 파장에서 동작하는 경우, 시스템은 두 개의 레이저로부터의 귀환본들을 공간적으로 분리시키기 위한 광학 요소, 예를 들어 이색성 분할기를 포함할 수 있어서, 이들이 상이한 카메라로 지향될 수 있게 한다.
하나의 카메라가 사용된다면, 제 1 및 제 2 레이저 조명기가 동일한 파장에서 동작하고 귀환본들이 시간 다중화된 방식으로 캡쳐되는 것이 바람직하다. 그러면, 레이저 광에 대한 카메라의 감도를 증가시키는 매우 좁은 대역의 필더가 카메라에 맞춤되게 되고, 예를 들어 다른 광 방출 소스로부터의 배경 광이 감소된다.
대안적으로, 제 1 및 제 2 레이저 지시기(designator)가 상이한 파장에서 동작하는 경우(양자 모두의 파장을 캡쳐하도록 적응된 단일 카메라의 경우, 또는 두 개의 카메라 각각이 레이저 조명기 중 하나로부터의 귀환본을 캡쳐하도록 배치되는 경우 중 어느 하나), 펄스 및 귀환본들은 동시에 검출된다.
이러한 시스템은 1m 이하 정도의 길이 스케일에서 공간 분해능을 제공하기 위하여, 예를 들어 약 2ns 이하의 제 2 레이저 조명기의 지속시간보다 적은 지속시간의 광 펄스로 장면을 조명하도록 적응된 제 3 레이저 조명기를 포함할 수 있다.
제 3 레이저 조명기로부터의 귀환본은 제 1 또는 제 2 카메라 중 하나에 의하여 또는 제 3 카메라에 의하여 수신될 수 있다.
본 발명은 다음 도면을 참조하여 예시를 통하여 이제부터 설명될 것이다:
도 1은 종래 기술의 관측 시스템의 개략도이다;
도 2는 도 1의 종래 기술 관측 시스템의 능동 이미징 시스템의 개략도이다;
도 3은 추가적인 세부사항을 보여주는 도 2의 능동 이미징 시스템의 개략도이다;
도 4는 종래 기술의 변형된 능동 이미징 시스템의 개략도이다;
도 5는 클러터 억제의 프로세스를 예시하는 종래 기술의 변형된 능동 이미징 시스템의 개략도이다;
도 6은 쌍안정 구조에서 두 개의 레이저 조명기 및 단일 타임 게이티드 카메라를 포함하는 능동 이미징 시스템의 개략도이다;
도 7은 제 1 이미지 내의 타겟을 제 2 이미지를 템플릿으로서 사용하여 고립시키기 위하여 필터 기능을 적용하기 위한 알고리즘을 예시한다; 그리고
도 8은 쌍안정 구조에서 두 개의 조명기 및 두 개의 타임 게이티드 카메라를 포함하는 능동 이미징 시스템의 개략도이다.
도 6은 인터페이스(110), 제어 및 처리 서브-시스템(120) 및 능동 이미징 서브-시스템(130)을 포함하는 관측 시스템(100)을 예시한다. 제어 및 처리 서브-시스템(120)은 개선된 능동 이미징 알고리즘을 실행하도록 적응된 처리 기능을 포함한다.
통상적으로, 관측 시스템(100)은 각각 전술된 바와 같이 기능하는 도 1의 타겟 검출 센서 서브-시스템 및 개략적 추적 서브-시스템을 더 포함한다.
능동 이미징 서브시스템(130)은 제어기(131), 제 1 펄스형 조명 레이저(132), 제 2 펄스형 조명 레이저(133), 제 1 애퍼쳐(134), 제 2 애퍼쳐(135), 프로그래밍가능 지연(136), 및 타임 게이티드 카메라(137)를 포함한다.
제 1 레이저(132)는 제 2 레이저(133)에 의해 방출된 레이저 펄스와 비교할 때 상대적으로 긴 지속기간의 레이저 펄스를 방출하도록 적응된다.
제 1 레이저(132)는 적어도 2 KHz의 반복률에서 동작하도록 적응된다. 제 2 레이저(133)는 2KHz 미만, 바람직하게는 1 KHz 미만, 예를 들어 수 백 MHz 이하의 반복률에서 동작하도록 적응된다.
동작 시에, 제 1 및 제 2 레이저(132, 133) 각각으로부터의 광의 펄스(150, 160)는 제 1 애퍼쳐(134)를 통하여 타겟(미도시)으로 지향된다. 별개의 제 2 애퍼쳐(135)는 반사된 레이저 광(150A, 160A)을 장면으로부터 수집하고, 이것을 양자 모두의 레이저(132, 133)의 귀환본(150A, 160A)의 파장(들)을 검출하도록 적응된 게이티드 카메라(137)의 초점면 어레이(미도시) 상으로 지향시킨다.
제 1 및 제 2 레이저의 파장 및 선폭에 적절한 협대역 필터(미도시)는 타임 게이티드 카메라(137) 앞에 위치된다.
제 1 및 제 2 레이저(132 133)는 동일한 중심 파장 또는 상이한 중심 파장을 가지는 광의 펄스를 방출할 수 있다. 제 1 및 제 2 레이저(132, 133)가 동일하거나 유사한 파장의 펄스를 방출할 경우, 두 개의 레이저의 펄스들은 제 2 애퍼쳐(135)에도 동시에 수신되지 않기 위해서 인터리빙된다(시간-다중화됨). 펄스들이 상이한 중심 파장을 가지는 경우, 카메라가 스펙트럼 분리가 가능하고 및 스펙트럼적으로 분리된 펄스들을 수신하기 위해서 상이한 게이트 시간을 적용할 수 있지 않다면, 인터리빙(시간-다중화)을 하는 것이 여전히 바람직하다.
제어기(131)의 제어 하에서 동작하는 프로그래밍가능 지연 생성기(136)는 레이저 조명기(132, 133) 중 하나로부터의 방출에 의해서 트리거링되어, 각각의 레이저(132, 133)로부터의 반사된 광 귀환본을 검출하기 위해서 타임 게이티드 카메라(137)의 게이트의 열림을 타이밍한다. 지연은 관측 시스템(100)에게 알려져 있는 타겟까지의 거리 L을 사용하여 결정된다.
게이트 개방 시간이 펄스 지속기간보다 길다는 것을 보장하면서 그 전체 지속기간을 최소화하기 위하여, 게이트 개방 시간은 레이저 조명기 펄스 지속기간을 사용하여 유도된다. 이와 같이 게이트 개방 시간은 레이저 조명기(133)로부터의 귀환본을 수신하기 위한 것보다 제 1 레이저 조명기(132)로부터의 귀환본을 수신할 때에 더 길다.
제어기(301)는, 제 2 레이저 조명기(133)에 의해 생성된 각각의 레이저 펄스에 대하여 제 1 레이저 조명기(132)에 의해 생성된 하나 이상의 펄스가 존재하도록 레이저(132, 132)를 동작시킬 수 있다.
각각의 귀환본으로부터의 검출된 이미지는 타임 게이티드 카메라(137) 비아 제어기(131)로부터 제어 및 처리 서브-시스템(120)으로 전달된다.
제 2 레이저(133)의 상대적으로 짧은 펄스 지속기간 덕분에, 제 2 레이저(2)로부터의 귀환본으로부터 유도된 타겟의 이미지(이제부터 제 2 이미지 또는 제 2 이미지들이라고 불림)는, 장면 내의 배경 및 전경 피쳐의 정보를(존재한다고 해도) 상대적으로 거의 포함하지 않는다.
이에 반해, 제 1 레이저(132)로부터의 귀환본으로부터 유도된 타겟의 이미지(이제부터, 제 1 이미지 또는 제 1 이미지들이라고 불림)는 제 1 레이저의 더 긴 펄스 지속기간 덕분에, 장면의 배경 및 전경 피쳐의 더 많은 정보를 포함한다. 그러나, 제 1 레이저의 상대적으로 넓은 스펙트럼 선폭 및 높은 반복률 덕분에, 제 1 이미지는 더 적은 공간적 노이즈를 포함하고, 따라서 제 2 레이저의 품질보다 더 높은 품질일 수 있다.
제어 및 처리 서브-시스템(120)은, 하나 이상의 제 1 이미지로부터 제 2 이미지 내에 나타나지 않는 장면의 비-타겟 피쳐를 절개 또는 필터링하기 위한 템플릿으로서 제 2 이미지를 사용하는 알고리즘(200)(도 7 참조)을 실행하도록 적응된 이미지 프로세서(121)를 포함한다.
당업자들에게 잘 알려져 있는 광학-기계적 설계 원리는 제 1 조명기가 허용가능한 레벨까지(통상적으로 레이저 발산의 1/5 내지 1/20이 될 수 있음) 제 2 조명기에 조준되도록, 일반적으로 시스템이 표준 기법을 사용하여 구축되고 정렬될 수 있게 할 것이다. 바람직하게는, 각각의 조명기(132, 133)는 보통의 광학-기계적 공차, 예를 들어 레이저 발산의 1/5 내에서 동일한 발산 및 방향을 가져야 한다. 다시 말하건대, 공지되어 있고 요구된 정확도까지 달성가능한, 이것을 획득하기 위한 표준 기법이 존재한다. 더 나아가, 타겟 상의 조명기 스폿이 선명하게 보이게 될 것이기 때문에 카메라 자체도 이러한 정렬이 실무에서 보장(archive)되는지를 확인할 것이다.
각각의 조명기 레이저의 발화 시간은 카메라의 게이트 시간과 동기화되어, 전술된 바와 같이 반사된 광이 카메라(137)가 개방된 동안에 카메라에 도달하게 보장한다. 게이트 시간은 각각의 조명기에 대해서 다를 수 있다(일반적으로 제 2 조명기(133)보다 제 1 조명기(132)에 대해서 더 길다). 게이트 개방 이전의 각각의 레이저(132 133)의 적절한 발화 시간이 레이저 거리측정기로부터 유도된 타겟까지의 알려진 거리로부터 계산된다.
도 7은 예시적인 알고리즘을 예시한다. maxn 곱하기 maxs 개의 펄스를 생성하기 위하여 maxn 개의 제 2 조명기 펄스의 각각의 하나에 대해서 maxs 개의 제 1 조명기 펄스가 존재하는 특별한 경우가 고려되는데, 여기에서 maxs는 1 이상이고, maxn은 1 이상이다. 일반적으로 maxs는 maxn보다 크다.
루프 1의 시작 시에, 시스템은 제 2 레이저 조명기(132)를 사용하여 이미지 B(n=1)을 획득한다. 이러한 이미지를 여러 가능한 이미지 처리 기법을 사용하여 템플릿 TB(n=1)로 변환하기 위하여 이미지 처리 함수가 호출된다.
템플릿 TB(n=1)를 획득했으면, 제 1 레이저 조명기(132)를 사용하여 일련의 maxs 개의 이미지가 획득되고, TB(n=1)를 사용하여 처리되어 배경 및 전경을 제거하며, 이미지로서 출력된다.
일련의 maxs 개의 이미지를 레이저 조명기 1을 사용하여 완료하면, 제 2 레이저 조명기 2의 이미지가 획득되고 TB(n=2)로 변환되며, 이것이 다음 maxs 개의 이미지를 처리하기 위해서 사용되는 식이다.
이러한 알고리즘을 실행하기 위해서, 이미지 프로세서(121)는 템플릿 생성기(122) 및 필터(123)의 기능을 포함한다.
템플릿 생성기(122)는 타겟을 포함하는 장면의 제 2 이미지(200)를 능동 이미징 서브-시스템(130)으로부터 수신하고, 이것을 처리하여 템플릿(250)을 생성하도록 적응된다. 이러한 프로세스의 예시적인 방법은 제 2 이미지의 각각의 픽셀에 1 또는 0의 값을 지정하는 것을 포함한다. 의미있는 값을 보유하는 각각의 픽셀에는 값 1이 지정되고, 기대된 배경 노이즈 외에는 값을 실질적으로 보유하지 않는 각각의 픽셀에는 값 0이 지정된다. 따라서, 결과적으로 얻어지는 템플릿(250)은 타겟의 실루엣이라고 여겨질 수 있다.
템플릿(250)이 필터(123)로 출력된다. 필터(123)는 제 1 레이저 조명기(312)에 의해 생성된 동일한 장면의 대응하는 제 1 이미지(들)(300)를 템플릿(250)과의 픽셀 승산에 의해서 처리한다. 이러한 프로세스는 값 0을 가지는 템플릿(250)의 픽셀로 매핑되는 제 1 이미지(300)의 모든 픽셀의 값을 무효화함으로써 모든 배경 및 전경 클러터를 제 1 이미지(300)로부터 제거하여, 출력된 이미지(400) 내에는 타겟만을 남겨두게 된다. 이러한 프로세스는, 이렇게 결과적으로 얻어지는 이미지(400)가 고품질의 제 1 이미지(300)를 보유하기 때문에, 템플릿(250)의 실루엣 내에 속하는 픽셀의 값들에 영향을 주지 않는다.
본 명세서에서 개략화된 특정 템플릿 생성 프로세스는 오직 예시를 위한 것이고, 예를 들어 에지 검출 프로세스와 같이 이미지들의 쌍을 조작하는 여러 다른 방법들이 사용될 수도 있다.
이러한 처리에 후속하여, 배경 및 전경이 제거된 최종 이미지(400)가 인터페이스(110)를 통하여, 예를 들어 인간 사용자 또는 자율 시스템으로 출력된다.
도 8은 능동 이미징 서브-시스템의 변형 아키텍처를 예시한다. 이러한 변형예는, 제 1 프로그래밍가능 지연(136) 및 제 2 프로그래밍가능 지연(136'), 및 제 1 타임 게이티드 카메라(137) 및 제 2 타임 게이티드 카메라(137')를 포함한다는 점에 있어서 도 6의 실시형태와 다르다.
제 1 레이저 조명기(132) 및 제 2 레이저 조명기(133)의 파장들은 다르고 그들의 선폭은 중첩하지 않는다.
제 1 레이저(132)의 방출의 소부분이 제 1 프로그래밍가능 지연(136)에 의해 수신되고 제 2 레이저(133)의 방출의 소부분이 제 2 프로그래밍가능 지연(136')에 의해 수신되어, 제 2 카메라(137')에 대한 게이트 개방 시간을 설정한다.
제 2 애퍼쳐(135)에서 수신된 두 개의 레이저(1312, 133)로부터의 반사된 귀환본(150A, 160A)이 제 2 레이저 조명기(133)의 파장에 대한 높은 반사도 및 제 1 레이저 조명기(132)의 파장에 대한 높은 투과도를 가지는 미러(138)로 지향된다. 그러면, 제 1 레이저 조명기(132)로부터의 귀환본(150A)이 제 1 카메라(137)에서 수신되고 제 2 레이저 조명기(160A)로부터의 귀환본(160A)이 제 2 카메라(137')에 의해 수신되도록 귀환본들이 분할된다.
이러한 장치가 있으면, 귀환본(150A, 160A)이 동시에 수신되도록 제 1 및 제 2 레이저 조명기(132 133)가 동시에 발화되는 것이 가능해진다.
미러(138)에서 수신된 광을 제 1 및 제 2 레이저 조명기(132, 133)의 파장으로 제한하기 위해서 하나 이상의 필터(미도시)가 포함될 수 있다.
양호한 필터링을 제공하기 위해서, 각각의 카메라(132, 133)의 픽셀들 사이의 레지스트레이션이 알려져야 한다. 예를 들어, 제 1 타임 게이티드 카메라 내의 픽셀 크기가 제 2 타임 게이티드 카메라보다 작으면, 보간 또는 다른 표준 이미지 처리 기법을 사용하여 수정된 이미지를 생성함으로써 픽셀의 개수 및 크기가 같아질 수 있다.
제 1 타임 게이티드 카메라 및 제 2 타임 게이티드 카메라로부터 유도된 이미지들은 전술된 방식으로 처리되어, 제 1 게이티드 카메라로부터 유도된 이미지를 처리하기 위해서 사용되는 제 2 레이저 조명기(2)의 귀환본으로부터 템플릿을 생성한다.
제 1 게이티드 카메라(132)의 FoV가 허용가능한 정도까지 제 2 타임 게이티드 카메라(133)의 FoV와 중첩되도록 보장하는 것은, 당업자들에게 잘 알려진 디자인 원리를 사용하여 획득될 수 있다. 카메라들 사이의 픽셀 크기가 다르면, 광학적 기법 또는 처리 기법이 사용되어 데이터를 보간함으로써 각각의 타임 게이티드 카메라에서 균등한 픽셀들이 규정될 수 있게 한다. 마지막으로, 시스템이 제 1 게이티드 카메라 내의 어떤 픽셀이 제 2 타임 게이티드 카메라 내의 어떤 픽셀에 대응하는지를 알고 있는 것을 보장할 필요가 있다. 이것은 수동 정렬을 통해서도 일관적으로 달성될 가능성이 적고, 따라서 능동 공동-조준(co-boresighting) 프로세스가 사용되도록 요구할 수 있다. 예를 들어 두 개의 타임 게이티드 카메라가 장면을 수동적으로 관찰하고 적절한 피쳐들을 상관시켜서 픽셀-픽셀 관계의 정확한 맵을 유도할 수 있는 예들이 알려져 있다.

Claims (9)

  1. 능동 이미징 시스템으로서,
    타겟을 포함하는 장면을 광의 펄스로 조명하도록 각각 구성된 제 1 레이저 조명기 및 제 2 레이저 조명기 - 상기 광의 펄스는 상기 제 2 레이저 조명기로부터의 광의 펄스와 비교할 때 상대적으로 넓은 스펙트럼 선폭 및 상대적으로 긴 펄스 지속기간을 가지는 제 1 레이저 조명기로부터 방출됨 -;
    상기 장면에 의해 반사된, 상기 제 1 레이저 조명기 및 상기 제 2 레이저 조명기 양자 모두로부터의 광을 수광하도록 배치된 카메라 시스템 - 상기 카메라 시스템은,
    상기 제 1 레이저 조명기로부터의 귀환본(return)을 수신하기 위하여 상대적으로 긴 게이트 주기를 사용하여 상기 타겟을 포함하는 장면의 제 1 이미지를 획득하고,
    상기 제 2 레이저 조명기로부터의 귀환본을 수신하기 위하여 상대적으로 짧은 게이트 주기를 사용하여 상기 장면 내의 비-타겟 요소를 선택적으로 제외하는 상기 타겟의 제 2 이미지를 획득하도록 구성됨 -; 및
    상기 제 2 이미지를 상기 제 1 이미지로부터 상기 비-타겟 요소를 선택적으로 제거하기 위한 템플릿으로서 사용하도록 구성된 이미지 처리 수단
    을 포함하는, 능동 이미징 시스템.
  2. 제 1 항에 있어서,
    상기 제 1 레이저 조명기는 상기 제 2 레이저 조명기보다 높은 펄스 반복률에서 동작하도록 구현된, 능동 이미징 시스템.
  3. 제 2 항에 있어서,
    상기 제 1 조명기는 적어도 2 KHz의 펄스 반복률에서 동작하도록 구현된, 능동 이미징 시스템.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 능동 이미징 시스템은 상기 장면을 상이한 시간에 조명하게끔, 상기 제 1 및 제 2 레이저 조명기를 동작시키도록 구성된, 능동 이미징 시스템.
  5. 제 4 항에 있어서,
    상기 제 1 및 제 2 레이저 조명기는 실질적으로 동일한 중심 파장에서 동작하는, 능동 이미징 시스템.
  6. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 제 1 및 제 2 레이저 조명기는 상이한 중심 파장에서 동작하는, 능동 이미징 시스템.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 카메라 시스템은, 상기 제 1 및 제 2 이미지를 획득하도록 상기 제 1 및 제 2 레이저 조명기 양자 모두로부터의 귀환본을 캡쳐하는 단일 검출기를 포함하는, 능동 이미징 시스템.
  8. 제 6 항 또는 제 7 항에 있어서,
    상기 능동 이미징 시스템은 상기 장면을 동시에 조명하게끔, 상기 제 1 및 제 2 레이저 조명기를 동작시키도록 구성된, 능동 이미징 시스템.
  9. 제 6 항 또는 제 8 항에 있어서,
    상기 카메라 시스템은 상기 제 1 레이저 조명기로부터의 귀환본을 캡쳐하도록 구성된 제 1 카메라 및 상기 제 2 레이저 조명기로부터의 귀환본을 캡쳐하도록 구성된 제 2 카메라를 포함하는, 능동 이미징 시스템.
KR1020237029873A 2021-02-02 2022-02-02 능동 이미징 시스템 KR20230136214A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB2101412.1A GB2612284A (en) 2021-02-02 2021-02-02 An active imaging system
GB2101412.1 2021-02-02
PCT/EP2022/052506 WO2022167496A1 (en) 2021-02-02 2022-02-02 An active imaging system

Publications (1)

Publication Number Publication Date
KR20230136214A true KR20230136214A (ko) 2023-09-26

Family

ID=74865379

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237029873A KR20230136214A (ko) 2021-02-02 2022-02-02 능동 이미징 시스템

Country Status (9)

Country Link
US (1) US20240103176A1 (ko)
EP (1) EP4088138A1 (ko)
JP (1) JP2024505977A (ko)
KR (1) KR20230136214A (ko)
AU (1) AU2022217436A1 (ko)
CA (1) CA3210546A1 (ko)
GB (1) GB2612284A (ko)
IL (1) IL304788A (ko)
WO (1) WO2022167496A1 (ko)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104536009B (zh) * 2014-12-30 2016-12-28 华中科技大学 一种激光红外复合的地面建筑物识别及导航方法
US10768301B2 (en) * 2017-12-15 2020-09-08 Xenomatix Nv System and method for determining a distance to an object

Also Published As

Publication number Publication date
US20240103176A1 (en) 2024-03-28
AU2022217436A1 (en) 2023-08-17
EP4088138A1 (en) 2022-11-16
GB202101412D0 (en) 2021-03-17
GB2612284A (en) 2023-05-03
CA3210546A1 (en) 2022-08-11
WO2022167496A1 (en) 2022-08-11
JP2024505977A (ja) 2024-02-08
IL304788A (en) 2023-09-01

Similar Documents

Publication Publication Date Title
US9087387B2 (en) Laser ranging, tracking and designation using 3-D focal planes
US8194126B2 (en) Gated imaging
Gelbart et al. Flash lidar based on multiple-slit streak tube imaging lidar
US6741341B2 (en) Reentry vehicle interceptor with IR and variable FOV laser radar
US7760334B1 (en) Optical multi-discriminant LADAR
EP3341967B1 (en) Imaging apparatus and method
US20140009611A1 (en) Camera System and Method for Observing Objects at Great Distances, in Particular for Monitoring Target Objects at Night, in Mist, Dust or Rain
EP3136712A1 (en) Imaging apparatus and method
GB2541675A (en) Imaging apparatus and method
Monnin et al. A 3D outdoor scene scanner based on a night-vision range-gated active imaging system
US8692889B2 (en) Image magnitude differential based system and method for tracking cooperative, non-incandescent sources
KR20230136214A (ko) 능동 이미징 시스템
Stann et al. Chirped amplitude modulation ladar for range and Doppler measurements and 3-D imaging
Grasso et al. A novel low-cost targeting system (LCTS) based upon a high-resolution 2D imaging laser radar
Trussell 3D imaging for Army applications
Richmond et al. Polarimetric imaging laser radar (PILAR) program
Grasso et al. A High-Resolution 2D Imaging Laser RADAR For Occluded Hard Target Viewing and Identification
DeFlumere et al. Dual mode (MWIR AND LADAR) seeker for missile defense
Li et al. Wide field-of-view target tracking sensor
Schilling et al. Eyesafe active imaging of hard targets: An overview of techniques under investigation by NVESD