KR20050009725A - 항공 정찰 시스템 - Google Patents

항공 정찰 시스템 Download PDF

Info

Publication number
KR20050009725A
KR20050009725A KR10-2004-7019366A KR20047019366A KR20050009725A KR 20050009725 A KR20050009725 A KR 20050009725A KR 20047019366 A KR20047019366 A KR 20047019366A KR 20050009725 A KR20050009725 A KR 20050009725A
Authority
KR
South Korea
Prior art keywords
array
aircraft
center
gimbals
gimbal
Prior art date
Application number
KR10-2004-7019366A
Other languages
English (en)
Other versions
KR100965678B1 (ko
Inventor
이스라엘 그린펠드
즈비 야빈
베른트 우흘
Original Assignee
라파엘 아마먼트 디벨롭먼트 오쏘리티 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=29596295&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20050009725(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 라파엘 아마먼트 디벨롭먼트 오쏘리티 엘티디. filed Critical 라파엘 아마먼트 디벨롭먼트 오쏘리티 엘티디.
Publication of KR20050009725A publication Critical patent/KR20050009725A/ko
Application granted granted Critical
Publication of KR100965678B1 publication Critical patent/KR100965678B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G5/00Elevating or traversing control systems for guns
    • F41G5/14Elevating or traversing control systems for guns for vehicle-borne guns
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2213Homing guidance systems maintaining the axis of an orientable seeking head pointed at the target, e.g. target seeking gyro
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically

Abstract

항공 정찰 시스템은 (1) 적어도 2개의 자유도를 갖는 짐벌, (2) 적어도 2개의 자유도 내에서 짐벌에 의해 지향되는, 짐벌 상에 위치한 적어도 하나의 광 센서 어레이, (3) 부분들(portions)로 분할되어 있는, 관심 지역의 적어도 하나의 디지털 고도 맵(Digital Elevation Map)을 저장하는 맵 저장 수단, (4) 소정의 글로벌 축 시스템(global axes system)에 대한 항공기의 항법 및 방위 데이터를 짐벌 제어 유닛에 실시간 제공하는 관성 항법 시스템(Inertial Navigation System), (5) 관심 지역으로부터 또하나의 지역 부분을 한번에 하나씩 선택하는 부분 선택 유닛(Portion Select unit), 및 (6) 짐벌의 방향을 조정하는 서보 수단을 포함한다. 본 시스템은 관성 항법 시스템으로부터의 데이터 및 디지털 고도 맵으로부터의 데이터를 사용하여 선택된 지역 부분들로의 방향을 계산하고 그 지형으로부터의 광을 통합하는 동안 그 방향을 유지하며 지역 부분들의 대응하는 이미지를 생성한다.

Description

항공 정찰 시스템{AIRBORNE RECONNAISSANCE SYSTEM}
항공 정찰 시스템은 지금까지 수년동안 특히 관심 지역의 상공으로부터 이미지를 획득하기 위해 널리 사용되어져 왔다.
처음에는, 이미지를 포착하기 위해 항공기에 탑재된 필름 카메라가 사용되었다. 항공기 필름 카메라 기반의 정찰 시스템의 주된 문제점은 착륙한 후에만 수행될 수 있는 동작인, 필름의 현상에 걸리는 시간이다. 이 문제점은 보다 최신의 시스템에서는 항공기 내에 전자적으로 저장되거나 및/또는 지상의 기지국으로 전송되는 전자 이미지를 획득하기 위해 카메라 내의 1차원 벡터 또는 2차원 어레이의 감광 센서를 사용함으로써 극복되었다. 이것은 일반적으로 이러한 시스템에서 비행 방향으로 관심 지역의 감광 센서에 의한 스캐닝함으로써 행해진다.
항공 정찰 시스템은 일반적으로 적지의 이미지를 획득하기 위해 사용되며, 따라서 이러한 이미지를 획득하는 작업은 다음과 같은 어떤 특별한 요건을 수반한다.
1. 적의 무기의 표적이 될 위험을 줄이기 위해 또 각 이미지에 의해 포착되는 지역을 넓히기 위해 높은 고도에서 고속으로 항공기를 운행하는 것.
2. 가능한 짧은 비행 동안 가능한 한 많은 관련 이미지 정보를 포착하려고 시도하는 것.
3. 이미지의 해상도 및 그의 품질을 떨어뜨리지 않으면서 여러가지 가시 조건 하에서 동작하도록 시도하는 것.
4. 높은 해상도와 고품질의 이미지로 험난한 지형(예를 들어, 고산 지대, 험준한 지상 변화를 갖는 영역)을 촬영하도록 시도하는 것.
적지 상공이나 그에 근접하여 비행을 하면서 정찰 항공기를 보안할 필요성으로 인하여 비행 비용 및 위험이 상당히 증가되었는데, 그 이유는 때때로 정찰 임무가 다른 전투기에 의한 항공기의 호위를 필요로 하기 때문이다. 따라서, 단기간의 신뢰성있는 임무를 가능하게 할 필요성이 아주 중요하다.
항공 정찰을 수행하는데 일반적으로 수반되는 몇가지 다른 문제점들이 있다. 예를 들어, 고속 항공기로부터 이미지를 포착하는 것은 카메라 셔터의 개방(기계식이든 전자식이든 관계없으며, 후자의 경우 노출을 위한 카메라 셔터의 개방은 감광부품에 의한 광자의 통합에 대응함) 동안 항공기 이동을 보상하기 위해 소위 전방향 움직임 보상(Forward Motion Compensation)(이후, 용어 "전방향 움직임 보상"은 간단히 FMC라고 하고, 움직임 보상은 일반적으로 MC라고 함)의 필요성을 도입한다.
감광 센서가 카메라에 사용될 때(이후부터, 이러한 유형의 이미지 포착은 필름 유형 카메라가 사용되는 "필름 포착"(film capturing)에 대비하여 "전자 포착"(electronic capturing)이라고 함), 3가지의 주요 스캐닝 유형이 사용된다.
i. 어롱-트랙 스캐닝(Along-Track Scanning)("푸시-브룸 스캐닝(push-broom scanning)"이라고도 함) - 어롱-트랙 스캐닝의 제1 구성에서, 감광 센서는 비행 방향에 수직인 1차원 벡터로(로우로) 배열된다. 촬영 지역의 스캐닝은 항공기의 진행에 의해 얻어진다. 일반적으로 어롱-트랙 TDI(Time Delayed Integration) 구성이라고 하는 어롱-트랙 스캐닝의 한 구체적인 구성에서, 비행 방향에 수직인 복수의 이러한 병렬 1차원 벡터(픽셀-로우)가 2차원 어레이를 형성하는 카메라의 전면에 제공된다. 그렇지만, 그 경우에 어레이의 제1 로우는 한 지역 섹션을 포착하는 반면, 모든 후속 로우는 동일한 섹션을 포착하되 항공기 진행에 의해 결정되는 지연을 가지고 사용된다. 이어서, 각 로우의 픽셀에 대해, 개별적으로 측정된 어레이 내의 모든 로우의 복수의 대응하는 픽셀은 먼저 가산되고 이어서 픽셀의 측정된 광의 강도를 결정하기 위해 평균이 구해진다. 보다 상세하게는, 이미지 내의 각 픽셀은 N번 측정되고(N은 로우의 개수임) 이어서 평균이 구해진다. 이러한 어롱-트랙 TDI 구성은 신호 대 잡음비를 개선하고 또 이미지 품질 및 측정의 신뢰성을 향상시키는 것으로 밝혀졌다.
ii. 어크로스-트랙 스캐닝(Across-Track Scanning)("위스크브룸 스캐닝(Whiskbroom Scanning)"이라고도 함) - 어크로스-트랙 스캐닝에서는, 비행 방향에 평행하게 배열된 감광 센서의 1차원 감지 벡터(sensing vector)가 사용된다. 감지 벡터는 하나의 자유도를 갖는 짐벌 상에 배치되며, 비행 중에 비행 방향에 수직인 방향으로 전체 벡터를 좌우로 반복적으로 이동하면서 항상 그 벡터를 비행 방향에 평행인 방위로 유지한다. 또 하나의 어크로스-트랙 스캐닝 구성은 벡터 그 자체를 이동시키는 것 대신에 센서들의 고정된 벡터의 가시선(이하, LOS(line of sight)라 함)을 어크로스-트랙 방향으로 지나가도록 하기 위해 이동 거울 또는 프리즘을 사용한다. 이러한 경우, 항공기의 전방으로의 이동을 유지하면서 하나의 자유도를 갖는 짐벌에 의한 지역의 어크로스-트랙 스캐닝은 포착 지역을 확대시킨다. 어크로스-트랙 스캐닝의 또하나의 구성은 어크로스-트랙 TDI(Across-Track TDI) 구성이다. 이 구성에서는, 복수의 벡터(컬럼)가 2차원 어레이를 형성하면서 비행 방향에 평행한 방향으로 존재한다. 이러한 어크로스-트랙 TDI는 어롱-트랙 스캐닝 TDI와 유사하게 픽셀 값의 측정에 있어서 개선된 신뢰성을, 보다 상세하게는 신호 대 잡음비의 향상을 제공한다.
iii. 디지털 프레이밍 스캐닝(Digital Framing Scanning): 디지털 프레이밍 스캐닝에서는, 2차원 감광 센서 어레이가 풍경에 대해 배치되어 있다. 미국 특허 제5,155,597호 및 제6,256,057호에서, 이 어레이는 그의 컬럼 벡터(컬럼은 어레이의 컬럼들의 그룹임)가 비행 방향에 평행하도록 배치되어 있다. 전방향 움직임 보상(forward motion compensation, FMC)이 센서의 노출 시간("통합 시간(integration time)"이라고도 함) 동안 한 픽셀에서 그 다음의 인접 픽셀로 비행 방향으로 전하를 전송함으로써 온칩으로(검출기 초점면 어레이에서) 전자적으로 제공된다. 전하 전송율(charge transfer rate)은 평평한 지면으로 가정했을 때 포착된 풍경으로부터의 그의 개별적인 거리(범위)에 따라 각 컬럼에 대해(또는 슬릿이 컬럼 방향에 평행하게 이동하는 미국 특허 제6,256,057호에서와 같이 전체 어레이에 대해) 별도로 결정된다. WO 97/42659에서, 이 개념은 확장되어 컬럼 대신에 각 셀(셀은 직사각형 픽셀 그룹임)에 대해 개별적으로 전하의 전송을 처리한다. 미국 특허 제5,692,062호에서, 어레이에 대한 풍경의 속도를 측정하기 위해 각 컬럼에 의해 포착된 연속적인 프레임들 간의 디지털 이미지 상관(correlation)이 수행되고, 그 상관 결과는 변화가 많은 지형에서의 움직임 보상을 위해 풍경에 대한 각 컬럼의 평균 범위를 평가하는데 사용된다. 이러한 보상 방법에서는 각각의 단일 이미지에 대해 3개의 연속적인 프레임, 즉 상관 프로세스를 위한 2개의 프레임과 마지막의 움직임이 보상된 프레임을 위한 하나의 프레임을 포착할 필요가 있다. 미국 특허 제5,668,593호의 시스템은 관심 지역의 커버리지를 확장하기 위해 3축 시선 스테핑 메카니즘(3-axis sightline stepping mechanism)을 사용하고, 이 시스템은 컬럼을 따라 전하를 전송함으로써 움직임 보상 기법을 적용한다. 미국 특허 제6,130,705호는 전술한 바와 같은 디지털 이미지 상관으로부터 획득한 수동적 범위 측정(passive range measurement)에 기초하여 카메라의 시야각(field of view)을 자동적으로 변화시키는 줌 렌즈를 사용한다. 시야각은 커버리지 및 해상도에 대한 이전의 임무 요건에 따라 조정된다.
종래 기술의 정찰 시스템, 특히 상기 전자적 스캐닝 어크로스-트랙 및 어롱-트랙 스캐닝 방법의 특징인 중대한 문제점은 항공기에 대해 기본적으로 직선인 스캐닝 레그(scanning leg)(및 일반적으로 복수의 이러한 평행한 직선 레그)를 사전 정의해야만 하는 것이며, 이러한 레그가 일단 정의되면 소정의 레그로부터의 임의의 편차, 특히 빠르거나 큰 편차가 허용되지 않는데, 그 이유는 종래 기술의 상기 시스템이 사전 정의된 레그로부터의 이러한 빠르고 및/또는 큰 편자 동안에 원하는 가시선을 유지할 수 없으며 그 결과 티어링(tearing)(이미지 라인의 변위), 번짐(smearing)(픽셀의 늘어남) 또는 이미지 정보에서의 상당한 갭 등의 이미지 산물이 나오게 된다. 이것은 특히 적지의 상위 또는 그에 근접하여 정찰 임무를 수행할 때, 항공기가 적의 감지 또는 타겟팅을 피하기 위해 신속한 기동을 수행할 필요가 있을 때 상당한 단점이 된다. 게다가, 때로는 굴곡있는 협곡과 같은 복잡한 지형의 양호한 이미지를 얻기 위해서는, 협곡의 뾰족한 굴곡의 경계부의 코스를 따라가는 것이 최상이다. 그렇지만, 대부분의 경우, 종래 기술의 정찰 시스템은 촬영된 풍경에 대해 가시선의 각도의 가파른 변화를 수반하는 이러한 뾰족한 굴곡의 기동을 수행하지 못한다.
예를 들어 미국 특허 제5,155,597호, 제5,692,062호, 국제 공개 WO 97/42659, 및 미국 특허 제6,256,057호 등의 종래 기술의 정찰 시스템의 또하나의 단점인 특징은 방대한 양의 데이터를 처리해야만 하는 것이다. 종래 기술의 시스템은 관심 지역의 작은 부분의 용이하고 선택적인 촬영을 할 수 없다. 일단 동작되면, 시스템은 기본적으로 가능한 전체 영역 중 특정 부분을 선택하지 않고 카메라가 지향하고 있는 전체 지역을 스캔한다. 따라서, 심지어 관심 지역이 작은 경우에도, 종래 기술의 시스템은 엄청난 양의 데이터를 처리해야만 한다. 즉 카메라의 동작 동안 획득되는 전체 이미지 데이터를 저장하고 이를 지상으로 전송(이러한 옵션이 요망되는 경우)할 수 있어야만 한다. 엄청난 양의 데이터를 지상으로, 때로는 실시간으로 전송하는 일은 아주 넓은 대역폭의 사용을 필요로 한다. 이러한 한계로부터 발생되는 또하나의 특정한 문제점은 획득된 상기 엄청난 양의 전체 데이터 내에서 관심있는 작은 지역을 구분 및 디코딩할 필요가 있다는 것이다.
예를 들어 미국 특허 제5,155,597호, 제5,692,062호, 국제 공개 WO 97/42659, 미국 특허 제6,130,705호, 및 미국 특허 제6,256,057호 등의 종래 기술의 정찰 시스템의 특징인 또다른 단점은 광범위한 탐지각(field of regard)의 이미지를 포착할 수 있는 능력이 제한되어 있다는 것이다. 이후, 용어 "탐지각"은 카메라 가시선이 감쇄없이 지향될 수 있는 공간 섹션을 말한다. 종래 기술의 시스템은 때때로 서로 다른 가시 방향에 대해 별도의 전용 센서(예를 들어, 하방 관찰, 측경사 또는 전방 경사에 대해 별도의 센서)를 사용한다. 본 발명은 항공기가 모든 센서로부터 동시에 전방, 후방, 측방 및 어떤 다른 임의의 방향에서 지역의 이미지를 포착하고 이들 방향 사이를 신속하게 전환할 수 있게 해준다.
예를 들어 미국 특허 제5,155,597호, 제5,668,593호, 제5,692,062호, 국제 공개 WO 97/42659, 미국 특허 제6,130,705호, 및 미국 특허 제6,256,057호 등의 종래 기술의 정찰 시스템의 특징인 또다른 단점은 그의 가시선에 대한 제어가 제한되거나 전혀 없는 시스템에 필요한, 대형의 2차원 센서 어레이를 사용하는 것이다.본 발명은 큰 탐지각 내에서 LOS를 빠르고 정확하게 이동시키고 이미지를 포착하는 동안 지상 풍경 상에 LOS를 안정되게 고정시키며 또 한번에 하나의 큰 프레임보다는 다수의 작은/중간의 프레임에 의해 사진 이미지 데이터를 수집하는 기능을 이용함으로써 소형 또는 중형의 2차원 센서 어레이의 사용을 가능하게 해준다. 소형 어레이는 일반적으로 최대 1 메가픽셀(백만 픽셀)이 되고, 중형의 어레이는 일반적으로 최대 5 메가픽셀이 된다. 이에 비해, 대형 어레이는 일반적으로 최대 50 메가픽셀 및 그보다 훨씬 더 크게 된다. 본 발명의 중요한 특징은 소형 및 중형 어레이는 모두 정지 화상 카메라 및 비디오 카메라 등의 특별히 정찰 용도라기보다는 오히려 상업적 용도로 설계된 범용 센서 어레이로서 상업적으로 구할 수 있으며, 따라서 이들은 일부 판매처로부터 저가에 널리 구입가능하다. 이러한 센서 기술은 또한 상업 시장의 수요로 인해 이러한 상용 제품에 판매처에 의한 엄청난 투자로 이득을 본다. 이에 반해, 대형 정찰 센서 어레이는 정찰 시스템 제조업체에 의해서만 개발되고, 온칩 움직임 보상의 필요성으로 인해 복잡하며 비싸고, 널리 이용가능하지 않다. 종래 기술의 시스템의 한계는 센서가 가시 범위가 아닌 IR 범위에서 동작해야만 하는 경우에 보다 심각한데, 그 이유는 현재의 IR 어레이 기술이 대형 IR 어레이를 제공하지 않기 때문이다. 대형 어레이의 또하나의 단점은 각 이미지에 대해 대량의 픽셀이 처리되기 때문에 소형/중형 어레이에 대해 프레임 레이트가 더 낮다는 것이다.
예를 들어, 미국 특허 제5,155,597호, 제5,692,062호, 및 국제 공개 WO 97/42659에 기술되어 있는 바와 같이, 일부 종래 기술의 시스템은 온칩 움직임 보상을 이용한다. 몇가지 단점은 온칩 움직임 보상 개념과 관련되어 있다. 온칩 움직임 보상은 통합 시간 동안 지정된 레이트로 한 컬럼/셀로부터 인접한 컬럼/셀로 전하를 전송함으로써 수행된다. 이러한 전하 전송 프로세스는 전자 노이즈를 유발하며 컬럼/셀들 사이의 경계 및 칩의 경계부에서 모호성(이 결과 픽셀의 번짐 또는 손실이 있게 됨)을 일으키는데, 그 이유는 요구되는 전하 전송 레이트가 인접한 컬럼/셀들 사이에서 서로 다를 수 있기 때문이다. 종래 기술의 시스템 중 일부는 센서로부터 포착된 이미지 내의 풍경의 각각의 일부까지의 범위를 평가하기 위해 평탄하고 수평인 지면을 가정하고(즉, 풍경의 더 먼 부분에 대해 더 긴 범위 및 보다 가까운 부분에 대해 더 짧은 범위), 평탄한 지면에 대해 간단한 항공기 속도 및 고도 정보에 기초하여 움직임 보상율을 계산한다. 지형이 큰 변화를 갖는 경우, 이것은 일반적으로 본 발명의 예 1에 나타낸 바와 같이 상당한 번짐을 유발한다. 어떤 경우에, 센서는 그의 컬럼이 회전 없이 비행 방향에 정확하게 평행이 되도록 포착 동안에 방위를 맞춰야만 하며, 그에 따라 그 방위로부터 어느 정도 벗어나게 되면 더 번짐이 생겨, 임무 계획을 심각하게 제한한다. 보다 최신의 종래 기술 시스템은 각 셀마다 풍경까지의 범위를 보다 정확하게 평가하기 위해 칩 내의 각 셀에 대해 연속적인 프레임 사이의 디지털 이미지 상관을 이용한다. 이 프로세스는 각각의 사용가능한 이미지에 대해 3개의 연속적인 이미지 포착을 필요로 하며, 따라서 시스템 듀티비를 낭비한다. 상관 정확도는 큰 변화를 갖는 지형을 촬영할 때 처음 2개의 이미지의 번짐에 의해 제한된다. 상관과 관련한 또하나의 문제점은 2개의 연속적인 이미지 사이에서 풍경에 대한 애스펙트 각도(aspect angle)의 큰 변동이다. 예를 들어, 측방 경사에서 풍경까지 15km의 범위에서 250m/s의 속도로 비행하는 항공기는 2Hz 프레임 레이트를 갖는 칩을 사용할 때 250/15 = 16.7 milirad/s의 LOS 각속도(때때로 V/R이라고 함)를 가지며, 그 결과 연속적인 이미지 사이의 애스펙트 각도가 8.3 milirad가 된다. 30 microrad의 일반적인 픽셀의 순간 시야각(Instantaneous FOV)의 경우, 이것은 이미지에서 277 픽셀의 시프트를 의미한다. 게다가, V/R의 값이 임무 중의 임의의 시간에, 특히 항공기가 기동 중일 때 일정하지 않기 때문에, 2개의 연속적인 이미지 사이의 경과 시간은 부가의 에러를 유발하게 된다.
종래 기술 시스템의 일부는 예를 들어 미국 특허 제5,668,593호에 기술되어 있는 바와 같이 넓은 지역을 커버하기 위해 스텝 프레이밍(step framing) 방법을 이용한다. 스텝 프레이밍 방법은 노출 시간 동안 풍경 상에 LOS의 기계적/광학적 고정을 제공하지 않으며, 제한된 탐지각을 갖는다. 온칩 움직임 보상이 사용되지만, 항공기의 진동 및 진동의 측정을 정찰 시스템으로 전송함에 있어서의 지연으로 인해 부정확성이 유발된다.
따라서, 본 발명의 목적은 항공기의 아주 급격한 기동 및 큰 지형 변화를 허용하고 이를 보상하는 반면 여전히 아주 넓은 탐지각 내에 관심 지역의 고해상도 및 고신뢰도의 이미지를 제공할 수 있는 정찰 항공 시스템을 제공하는데 있다.
본 발명의 다른 목적은 무관계한 데이터량이 상당히 감소되고 따라서 전체적으로 획득된 데이터로부터 관련 데이터를 구분하는데 필요한 작업을 감소시키고 항공기 및 지상의 이미지 저장장치 및 통신 요건을 완화시키는 정찰 시스템을 제공하는데 있다.
본 발명의 또다른 목적은 그 이미지가 획득될 수 있는 큰 지역(즉, 탐지각) 내에서 관심있는 아주 작은 지역을 정의할 수 있게 해주는데 있다.
본 발명의 또다른 목적은 항공기로부터 지상으로 이미지를 전달할 때 항공기와 지상 기지국 사이의 통신 부하를 감소시키는데 있다.
본 발명의 또다른 목적은 넓은 범위의 시야각에서 이미지를 포착할 수 있는(즉, 넓은 탐지각을 갖는) 항공 정찰 시스템을 제공하는데 있다.
본 발명의 또다른 목적은 입체도 이미지(stereoscopic-view image)를 생성하는데 요구되는 이미지를 획득하는 새롭고 효율적인 방식을 제공하는데 있다.
본 발명의 또다른 목적은 동일한 정찰 임무에서 수동 모드 동작과 자동 모드 동작 모두를 결합하는 기능을 제공하는데 있다.
본 발명의 다른 목적 및 이점은 설명이 진행됨에 따라 명백하게 될 것이다.
본 발명은 항공 정찰을 수행하는 시스템에 관한 것이다. 보다 상세하게는, 본 발명은 UV, 가시, IR, 멀티/하이퍼 스펙트럼 또는 액티브 일루미네이션(active illumination) 등의 하나 이상의 감광 센서 어레이로서 그의 가시선(line of sight)이 적어도 2개의 자유도를 갖는 짐벌(gimbal)에 의해 조정되는 감광 센서 어레이를 포함하는 항공 정찰 시스템에 관한 것으로서, 상기 시스템은 정확한 추적 및 포착을 제공하고 3D 움직임 보상을 제공하기 위해 관성 항법 시스템(Inertial Navigation System, INS)을 추가로 사용한다. 센서 및 INS는 양호하게는 짐벌 상에 탑재된다.
도 1은 본 발명의 일 실시예에 따른, 포드(pod) 내에 조립된 정찰 시스템의 일반적인 구조를 나타낸 도면.
도 1a는 본 발명의 다른 실시예로서, 이 구성에서 정찰 시스템은 페이로드로서 항공기 본체 내에 조립되어 있는 것을 나타낸 도면.
도 2는 본 발명의 일 실시예에 따른 짐벌 시스템의 기계적 구조를 나타낸 도면.
도 3은 본 발명의 시스템에 일반적인 몇가지 동작 모드를 나타낸 도면.
도 3a는 본 발명의 일 실시예에 따른, 복수의 지역 부분으로 분할된 관심 지역을 나타낸 도면.
도 3b는 본 발명의 시스템에 의해 가능한 몇가지 응시 모드(staring mode)를 나타낸 도면.
도 4는 본 발명의 정찰 시스템의 동작을 나타낸 블록도.
도 5는 본 발명의 정찰 시스템의 동작 원리를 설명하는 흐름도.
도 6은 본 발명의 정찰 시스템의 전용 INS 및 항공기의 주 INS를 포함하는 본 발명의 INS 시스템의 구조를 나타낸 도면.
도 7은 본 발명의 시스템에 의해 입체 이미지가 구성되는 방법을 나타낸 도면.
도 8은 종래 기술의 시스템이 정찰 임무를 수행하는데 요구되는 특정의 경우를 나타낸 도면.
도 8a는 본 발명의 시스템이 도 8의 동일한 정찰 임무를 어떻게 수행하는지를 나타낸 도면.
도 9는 정찰 임무를 수행할 때 고도 인자의 중요성을 예시한 것으로서, 보다 상세하게는 촬영된 지형의 고도를 직접 실시간으로 고려하는 것의 중요성을 나타낸도면.
도 10은 본 발명의 시스템에 따른 백스캔 거울의 사용을 나타낸 도면.
도 11은 본 발명의 시스템에 의해 수행되는 지역 부분들 사이의 일부 오버랩을 포함하는 산악 지형 및 그 지역을 부분들로 분할한 것을 나타낸 사시도.
도 11a는 도 11의 지형의 상측도 및 본 발명의 항공 정찰 시스템에 의한 상기 지형의 스캐닝 방법을 나타낸 도면.
도 12는 본 발명의 시스템이 선택적인 표적을 촬영함으로써 처리되는 데이터를 상당량 감소시키는 방법을 나타낸 예시도.
본 발명은 a. 적어도 2개의 자유도를 갖는 짐벌들(gimbals), b. 적어도 2개의 자유도 내에서 상기 짐벌들에 의해 지향되는, 상기 짐벌들 상에 위치한 적어도 하나의 광 센서 어레이, c. 부분들(portions)로 분할되어 있는, 관심 지역의 적어도 하나의 디지털 고도 맵(Digital Elevation Map)을 저장하는 맵 저장 수단, d. 소정의 글로벌 축 시스템(global axes system)에 대한 항공기의 항법 및 방위 데이터를 짐벌 제어 유닛에 실시간 제공하는 관성 항법 시스템(Inertial Navigation System), e. 상기 관심 지역으로부터 다른 지역 부분을 한번에 하나씩 선택하는 부분 선택 유닛(Portion Select unit),
f. A. 상기 디지털 고도 맵으로부터 한번에 하나씩 상기 선택적인 지역 부분의 좌표 세트를 수신하고, 상기 세트는 상기 지역 부분의 x:y 좌표 및 그 부분의 중심의 고도 z를 포함하고,
B. 상기 관성 항법 시스템으로부터 상기 항공기의 현재의 위치 및 방위를 계속하여 수신하며,
C. a. 지향 기간 동안, 상기 적어도 하나의 감광 유닛 어레이를 포함하는 상기 짐벌을 상기 선택된 지역 부분의 상기 x:y:z 좌표쪽으로 그에 따라 지향시기 위한 신호들, 및
b. 상기 어레이 센서들이 상기 지역 부분으로부터 오는 광을 통합하는 통합 기간 동안, 상기 항공기 이동으로부터 발생되는 상기 선택된 부분의 x:y:z 좌표쪽으로의 방향의 변경을 보상하기 위한 신호들을 상기 짐벌 유닛에 제공하기 위한 신호들
을 실시간, 고속으로 반복적으로 계산하여 짐벌 서보 유닛으로 전달하는 서보 제어 유닛,
g. 상기 서보 제어 유닛으로부터 제공된 상기 신호들에 따라 적어도 2개의 자유도로 상기 짐벌들의 지향을 실시하는 짐벌 서보, h. 상기 통합 기간의 끝에 상기 어레이 센서 각각으로부터의 픽셀 레벨들을 동시에 샘플링하되, 상기 샘플링된 픽셀 레벨 전부의 세트가 상기 지역 부분의 이미지를 형성하는 것인 샘플링 수단, 및 i. 복수의 지역 부분 이미지를 저장하는 저장 수단을 포함하는 항공 정찰 시스템에 관한 것이다.
양호하게는, 상기 하나 이상의 어레이는 적어도 가시 감광 어레이, UV 감광 어레이, 적외선 감광 어레이, 멀티/하이퍼 스펙트럼 어레이(multi/hyper-spectral array), 및 액티브 일루미네이션 어레이(active illumination array)로부터 선택된다.
양호하게는, 상기 항공기의 상기 항법 데이터는 상기 항공기의 3D 위치에 관한 데이터, 소정의 좌표계에 대한 항공기의 속도 및 가속도 벡터들, 및 상기 소정의 좌표계에 대한 상기 항공기의 방위에 관한 항공기의 방위 데이터를 포함한다.
양호하게는, 상기 관성 항법 시스템은 속도, 가속도, 및 방위 센서들을 포함하며, 상기 센서들 중 적어도 일부는 상기 짐벌들 상에 배치되어 있다.
양호하게는, 상기 센서 어레이 중 적어도 일부는 짐벌들 상에 배치되어 있다.
양호하게는, 상기 시스템은 2개의 관성 항법 시스템(INS)을 포함하며, 제1 관성 항법 시스템은 상기 항공기의 주 관성 항법 시스템이고 그의 센서들은 상기 항공기 내에 배치되어 있으며, 제2 관성 항법 시스템은 상기 정찰 시스템에 전용인 시스템이고, 상기 제2 관성 항법 시스템의 센서들 중 적어도 일부는, 짐벌 유닛 상에 배치되어, 상기 제1 INS로부터 상기 제2 INS로의 전달 정렬(transfer alignment)의 프로세스를 사용함으로써, 상기 항공기의 공기 탄성(aero-elastic) 편향 및 진동으로 인한 짐벌 및 LOS와 상기 항공기의 상기 주 관성 항법 시스템 사이에서 발생하는 오정렬을 보다 양호하게 제거하기 위해, 상기 소정의 축 시스템에대한 짐벌들의 항법 및 방위 데이터를 측정한다.
양호하게는, 상기 디지털 고도 맵은 상기 관심 지역의 그리드(grid)를 포함하는 맵이고, 상기 그리드에서의 각각의 노드점에서의 x:y:z 좌표값은 상기 맵에 의해 제공된다.
양호하게는, 상기 부분 선택 유닛은 상기 촬영된 지역 부분과 인접한 이전에 촬영한 지역 부분 사이에서 소정의 오버랩(overlap)을 제공하는 그 다음 지역 부분의 중심을 계산하고 결정하는데 사용된다.
양호하게는, 자동 동작 모드에서, 상기 짐벌들은 순차적, 단계별로 관심 지역을 커버하도록 작동되고, 상기 커버는 소정의 시작 부분으로부터 저장된 임무 계획에 따라 행해지고, 그에 따라 상기 관심 지역의 지역 부분들을 차례로 순차적으로 스캐닝하고, 상기 부분들 각각으로부터의 이미지들을 샘플링한다.
양호하게는, 상기 시스템의 수동 모드에서, 상기 항공기의 조종사는 비행 동안 관심 지역을 정의하고, 상기 관심 지역은 적어도 하나의 지역 부분으로 자동적으로 분할되며, 모든 지역 부분들은 그에 대응하여 온-짐벌 어레이(on-gimbals array)를 그 부분들로 지향시킴으로써 자동적으로 차례로 스캔되어 상기 스캔된 부분들 각각의 이미지들을 포착한다.
양호하게는, 상기 짐벌들은 2개의 짐벌 메카니즘, 외부 짐벌 메카니즘 및 내부 짐벌 메카니즘을 포함한다.
양호하게는, 상기 외부 짐벌 메카니즘은 온-짐벌 어레이를 선택된 지역 부분의 중심으로 대략적으로 지향시키는데 사용된다.
양호하게는, 상기 외부 짐벌 메카니즘은 2개의 자유도, 고도(elevation) 및 롤(roll)을 갖는다.
양호하게는, 상기 내부 짐벌 메카니즘은 온-짐벌 어레이를 선택된 지역 부분의 중심으로 미세 지향시키는데 사용되며, 특히 상기 통합 기간 동안 상기 항공기의 움직임 및 방위 변동에 대해 짐벌 방향을 보상하는데 사용된다.
양호하게는, 상기 내부 짐벌 메카니즘은 2개의 자유도, 편요(yaw) 및 피치(pitch)를 갖는다.
양호하게는, 상기 외부 짐벌 메카니즘은 상기 내부 짐벌 메카니즘에 종속되어 있다.
양호하게는, 상기 통합 기간 동안, 상기 어레이 센서들 각각은 상기 지역 부분의 대응하는 섹션으로부터의 광을 동시에 감지하고, 상기 통합 기간의 끝에, 모든 어레이 센서들로부터의 데이터가 동시에 판독되고 상기 지역 부분의 이미지로서 저장된다.
양호하게는, 상기 광 센서 어레이는 가시광선, IR, UV, 멀티/하이퍼 스펙트럼, 및/또는 액티브 일루미네이션의 범위에 있는 광을 감지한다.
양호하게는, 상기 어레이들은 초점면 어레이들(focal plane arrays)이다.
양호하게는, 상기 소정의 축 시스템은 글로벌 축 시스템(global axes system)이다.
본 발명의 일 실시예에서, 본 발명의 시스템은 상기 항공기에 부착된 포드(pod) 내에 조립되어 있다.
본 발명의 다른 실시예에서, 본 발명의 시스템은 깨끗하고 장애없는 가시선(Line of Sight)을 획득하기 위해 돌출되어있는 윈도우들만을 갖는 항공기 내부에 설치된 페이로드(payload) 내에 조립되어 있다.
양호하게는, 상기 짐벌들은 상기 포드의 전방에서 투명한 윈도우의 후방에 위치된다.
본 발명의 실시예에서, 본 시스템은 상기 짐벌들 상에 배치되어 그에 대해 회전가능한 거울이나 프리즘을 포함하는 백스캔 메카니즘(back-scanning mechanism)을 더 포함하고, 상기 지역 부분으로부터 나오는 광은 먼저 상기 거울을 통과하고 이 거울은 상기 광을 상기 어레이 쪽으로 편향시키며, a. 상기 서보 제어 유닛은 상기 짐벌들에 중단없이 연속적인 로우 및/또는 컬럼 스캐닝 이동을 적용하고, b. 지역 부분쪽으로의 상기 지향이 확립되고 있는 동안, 상기 통합 기간 동안 상기 백스캔 거울에 대해 상기 로우 및/또는 컬럼 스캐닝 연속 움직임에 대한 반대 방향의 움직임을 적용함으로써, 그 연속적인 움직임을 보상하고 상기 촬영된 지역 부분에 대한 상기 어레이의 고정된 방위 관계를 보장한다.
본 발명은 항공 정찰을 수행하는 방법에 관한 것으로서, 이 방법은, a. 적어도 하나의 감광 픽셀 어레이를 제공하는 단계, b. 상기 적어도 하나의 어레이를 적어도 2개의 자유도를 갖는 짐벌들 상에 탑재하여 상기 짐벌들이 상기 어레이를 선택된 가시선(Line of Sight)으로 지향시키는 단계, c. 관심 지역의 디지털 고도 맵을 제공하여 상기 지역으로부터의 정찰 이미지들이 획득되는 단계, d. 비행 중 언제라도 소정의 좌표계와 관련된 상기 어레이의 중심의 갱신된 xa:ya:za좌표를 획득하는 관성 항법 시스템을 제공하는 단계, e. 상기 관심 지역 내의 특정의 지역 부분의 중심의 xp:yp위치 좌표, 및 상기 디지털 고도 맵으로부터 얻어진 바와 같은 상기 부분 중심에서의 zp고도 좌표, 및 동일한 특정 시점에서 상기 어레이 중심의 상기 xa:ya:za좌표가 주어지면, 상기 어레이의 중심과 상기 xp:yp:zp좌표 사이를 연결하는 가시선 방향을 확립하기 위한 정확한 각도들을 결정하기 위한 계산 유닛을 제공하는 단계, f. 단계 e의 계산이 주어지면, 그에 따라 상기 어레이의 가시선의 중심을 상기 지역 부분의 중심으로 지향시키는 단계, g. 통합 기간 동안, 상기 광 센서 어레이 중 임의의 것에 의해 개별적으로 광의 누적을 실시하는 단계, h. 상기 통합 기간 동안, 갱신된 어레이 xa:ya:za좌표를 가지고서 고속으로 단계 e의 계산을 반복하고, 각각의 상기 계산 이후에, 단계 f에서와 같이 방향을 반복적으로 보정하는 단계, i. 통합 기간의 끝에, 모든 어레이 센서들을 샘플링하고 상기 어레이 부분의 이미지들로서 저장 장치 내에 저장하는 단계, j. 상기 관심 영역 내에서 새로운 부분 좌표 xp:yp:zp를 선택하고, 이들 새로운 좌표에 대해 단계 e 내지 단계 j를 반복하는 단계, 및 k. 모든 관심 지역의 커버가 완료된 경우, 그 프로세스를 종료하거나, 새로운 관심 지역의 커버를 시작하는 단계를 포함한다.
양호하게는, 새로운 지역 부분의 xp:yp좌표의 선택은 지상에서 상기 새로운 지역 부분의 3차원 풋프린트(footprint)를 계산한 다음에 이를 이전의 지역 부분의풋프린트 상에 투영함으로써 소정의 범위 내의 인접한 지역 부분들 사이에서 오버랩을 보장하도록 수행된다.
양호하게는, 상기 오버랩 보장은 시행착오 선택, 오버랩 계산, 및 필요한 경우 보정에 의해, 또는 정확한 분석적 계산에 의해 달성된다.
양호하게는, 상기 관성 항법 시스템의 센서들 중 적어도 일부는 상기 선택적인 지역 부분에 관련하여 상기 어레이의 방위의 측정을 개선하기 위해 상기 짐벌들 상에 배치되어 있다.
양호하게는, 상기 감광 센서들 중 적어도 일부는 상기 선택적인 지역 부분에 관련된 상기 가시선(Line of Sight)의 방위의 측정을 개선하기 위해 상기 짐벌들 상에 배치되어 있다.
양호하게는, 상기 관성 항법 시스템은 정찰 시스템의 전용 관성 항법 시스템 및 항공기의 주 관성 항법 시스템을 포함하여 항공기의 관성 항법 시스템으로부터 전용 정찰 시스템의 관성 항법 시스템으로의 전달 정렬 프로세스를 사용함으로써, 상기 선택적인 지역 부분에 관한 상기 어레이의 방위의 측정을 개선한다.
본 발명은 또한 항공 촬영 동안 움직임 보상을 제공하는 방법에 관한 것으로서, 이 방법은, a. 적어도 하나의 감광 픽셀 어레이를 제공하는 단계, b. 상기 적어도 하나의 어레이를 적어도 2개의 자유도를 갖는 짐벌들 상에 탑재하여 상기 짐벌들이 그의 가시선(Line of Sight)을 선택적인 지역 부분쪽으로 지향시킬 수 있도록 하는 단계, c. 관심 지역의 디지털 고도 맵을 제공하여, 상기 지역으로부터의 정찰 이미지들이 획득되는 단계, d. 비행 중 언제라도 소정의 좌표계에 대한 상기어레이의 중심의 갱신된 xa:ya:za좌표를 획득하는 관성 항법 시스템을 제공하는 단계, e. 상기 관심 지역 내의 특정의 지역 부분의 중심의 xp:yp위치 좌표, 및 상기 디지털 고도 맵으로부터 획득된 것과 같은 상기 부분의 중심에서의 zp고도 좌표, 및 동일한 특정 시점에서 상기 어레이 중심의 상기 xa:ya:za좌표가 주어지면, 상기 어레이의 중심과 상기 xp:yp:zp좌표 사이를 연결하는 가시선 방향을 확립하기 위한 정확한 각도들을 결정하기 위한 계산 유닛을 제공하는 단계, f. 통합 기간 동안, 상기 어레이의 가시선의 중심이 지역 부분의 중심으로 지향될 때, 상기 광 센서 어레이 중 임의의 것에 의해 개별적으로 광의 누적을 실시하는 단계, g. 상기 통합 기간 동안, 갱신된 어레이의 xa:ya:za좌표를 가지고 고속으로 단계 e의 계산을 반복하고, 각각의 상기 계산 이후에, 상기 어레이의 중심을 상기 선택된 지역 부분의 중심을 향하도록 유지함으로써 상기 방향을 반복적으로 보정하고 따라서 항공기 움직임을 보상하는 단계, 및 h. 상기 통합 기간의 끝에, 모든 어레이 센서들을 샘플링하여 상기 어레이 부분의 이미지들로서 저장 장치 내에 저장하는 단계를 포함한다.
본 발명은 또한 항공 타겟팅(airborne targeting)을 수행하는 방법에 관한 것으로서, 이 방법은, a. 적어도 하나의 무기를 제공하는 단계, b. 상기 적어도 하나의 무기를 적어도 2개의 자유도를 갖는 짐벌들 상에 탑재하여 상기 짐벌들이 상기 무기를 선택된 가시선(Line of Sight)쪽으로 지향시킬 수 있도록 하는 단계, c.관심 지역의 디지털 고도 맵을 제공하여 상기 지역 내의 선택된 물체들이 타겟팅되는 단계, d. 비행 중 언제라도 소정의 좌표계에 대한 상기 무기의 중심의 갱신된 xa:ya:za좌표를 획득하는 관성 항법 시스템을 제공하는 단계, e. 상기 관심 지역 내의 특정 표적의 중심의 xp:yp위치 좌표, 상기 디지털 고도 맵으로부터 획득된 것과 같은 상기 표적 중심에서의 zp고도 좌표, 및 동일한 특정 시점에서 상기 무기 중심의 상기 xa:ya:za좌표가 주어지면, 상기 무기의 중심과 상기 xp:yp:zp좌표 사이를 연결하는 가시선 방향을 확립하기 위한 정확한 각도들을 결정하기 위한 계산 유닛을 제공하는 단계, f. 단계 e의 계산이 주어지면, 그에 따라 상기 무기 가시선의 중심을 상기 표적의 중심으로 지향시키는 단계, 및 h. 효과적인 타겟팅 및 발포 기간 동안, 항공기의 움직임에 대한 움직임 보상을 행하는 단계를 포함한다.
타겟팅의 움직임 보상은 임의의 공지된 전통적인 방식으로 행해질 수 있다. 본 발명의 일 실시예에 따르면, 단계 h의 움직임 보상은 갱신된 표적의 xa:ya:za좌표를 가지고 고속으로 단계 e의 계산을 반복하고, 각각의 상기 계산 이후에, 단계 f에서와 같이 방향을 반복적으로 보정함으로써 수행된다.
본 발명의 정찰 시스템의 양호한 실시예는 특히 다음의 주요 특징이 있다.
i. 관심 지역으로부터 이미지를 감지하고 포착하는데 사용되는 하나 이상의 초점면 어레이는 적어도 2개의 자유도를 갖는 짐벌에 의해 지향되는 가시선(line of sight, LOS)을 갖는다. 용어 "짐벌(gimbal)"은 본 명세서에서 사용될 때 감광 센서 어레이의 가시선을 적어도 2개의 자유도로 이동시킬 수 있는, 기계적이든 광학적(거울, 프리즘 등을 포함하는 것 등)이든 임의의 유형의 메카니즘 또는 그의 조합을 말한다. 기계적 메카니즘은 때로 "페이로드 안정화된 짐벌(payload-stabilized gimbals)"이라고 하며, 광학적 메카니즘은 때로 "거울 안정화된 짐벌(mirror-stabilized gimbals)"이라고 한다. 상기 어레이 중 하나는 가시 범위에서 감지할 수 있고, 다른 하나는 예를 들어 IR 범위 및/또는 UV 범위에서 감지할 수 있다. 다른 경우에, 멀티/하이퍼 스펙트럼 어레이(multi/hyper spectral array)또는 액티브 일루미네이션 어레이(active illumination array)가 사용될 수 있다. 이하, 본 명세서 전체에 걸쳐, 용어 "어레이"는 관심 지역으로부터 이미지를 획득하기 위한 임의의 유형의 감광 수단의 어레이를 말한다. 본 발명에서 사용되는 어레이는 임의의 가시선 방향으로 급격하게 변하는 지형 조건에서 많은 스냅샷을 촬영함에 있어서 시스템의 유연성을 이용하는, 미국 특허 제5,155,597호, 국제 공개 WO 97/42659, 및 미국 특허 제6,256,057호에서 사용되는 것과 같은 종래 기술 시스템에서 사용되는 대형 어레이이기보다는 소형 또는 중형일 수 있다. 센서 어레이 및 그의 광학 소자는 페이로드-안정화된 짐벌이 사용될 때 짐벌 상에 탑재되고, 거울-안정화된 짐벌의 경우, 센서는 짐벌에서 떨어져 탑재된다.
ii. 정찰 시스템은 가시선의 방향을 연속적으로 계산하기 위해 관성 항법 시스템(INS)를 사용한다. 바람직한 경우, 2개의 INS 시스템이 사용되는데, 첫번째 INS는 항공기의 주 INS이고, 두번째 INS는 정찰 시스템에 탑재된 시스템의 내부 전용 INS이다. 본 발명의 정찰 시스템은 항공기의 탐지각(field of regard) 내에서 짐벌 상에 배치된 하나 이상의 어레이를 지상의 임의의 원하는 지역 부분으로 점지향(point-direct)시키기 위해, 상기 관성 항법 시스템으로부터 고정된 소정의 글로벌 축 시스템에 대한 항공기의 위치에 관한 항법 정보 및 지상에 대한 항공기의 방위 정보 모두를 연속하여 수신한다. 양호하게는 시스템 INS는 페이로드-안정화되어있든지 거울-안정화되어 있든지 간에 짐벌 상에 탑재된다.
iii. 본 발명의 한 실시 형태에서 양호하게는 어레이가 그 위에 탑재되어 있는 적어도 2개의 자유도를 갖는 짐벌은 아주 큰 탐지각 내에 관심 지역을 순차적으로 하나씩 스캔하기 위해 단계별로 체계적으로 작동된다.
iv. 본 발명의 시스템은 작동될 때 그의 어레이에 의해 지역 부분의 2차원 이미지인 스냅샷을 포착하여, 가시선 이동의 보상으로 인한 긴 노출 시간을 가능하게 해준다.
v. 지역의 부분으로 지향될 때, INS로부터 또한 본 발명의 정찰 시스템에 사전 저장되어 있는 관심 지역의 디지털 고도 맵으로부터 제공된 데이터에 의해 관련 지역 부분을 추적하기 위해 짐벌을 조정함으로써 3차원 움직임 보상이 제공된다.
vi. 바람직한 경우에, 관심 지역을 지역 부분으로 분할하는 것은 실시간으로 수행되며, 이 때 각 지역 부분의 크기는 특히 지역 부분의 이미지들 사이의 적절한 오버랩을 보장하기 위해, 지형의 형상 및 디지털 고도 맵(DEM)으로부터 결정된 바와 같은, 항공기로부터 관심 지역의 중심까지의 범위 등의 몇가지 파라미터에 의존한다.
상기한 주요 특징은 물론 본 발명의 다른 구조적 특징은 설명이 진행됨에 따라 분명하게 될 것이다.
전술한 바와 같이, 어롱-트랙 또는 어크로스-트랙 스캐닝 유형의 종래 기술의 정찰 시스템은 기본적으로 하나의 데이터인 특정 레그(leg)의 누적 데이터와 관련되어 있다. 보다 상세하게는, 레그가 정의되면, 항공기가 레그를 따라 비행하는 동안, 누적된 데이터는 기본적으로 하나의 거대한 이미지 파일로서 저장된다. 나중에, 특정의 관련 데이터를 이 이미지와 구분하는 것은 오퍼레이터의 몫이다. 또한, 모든 항공 정찰 시스템은 움직임 보상의 문제를 처리해야만 한다. 이러한 후자의 문제는 복잡하기 때문에, 종래 기술의 시스템에서 제공된 해결책은 정찰 임무 동안 항공기의 급격한 기동을 할 수 있게 하지 않는다. 본 발명은 상기한 2가지 문제점에 대한 해결책을 간결하고 효율적인 방식으로 제공한다.
본 발명의 정찰 시스템은 특히 환경 조건, 기동 역학, 시스템 크기, 공기역학적 한계, 및 지상에 대한 각도 측면이 극단적인 경우 전투기에 의해 수행되도록 구성되어 있지만, 본 시스템은 또한 다른 항공 플랫폼에도 적합하다. 바람직한 경우, 본 시스템은 항공기 날개 또는 동체 아래에 일반적으로 적재되는 포드 또는 페이로드 내에 조립된다. 전투기의 극단적인 동작 조건으로 인해, 예를 들어 미국 특허 제5,668,593호에 개시된 바와 같은 종래 기술의 시스템은 때로는 거울을 사용하여 LOS를 지향시키며, 이는 FOR을 제한하는 해결 방안인데, 그 이유는 거울이 기본적으로 LOS를 꺾어 비교적 작은 각도 변화를 갖는 어떤 방향으로 지향시키기 때문이다. 본 발명에서, LOS는 짐벌에 의해 지향되며, 이는 아주 넓은 탐지각을 가능하게 해주는 해결책인데 그 이유는 짐벌이 임의의 방향으로 회전될 수 있기 때문이다.
도 1은 본 발명의 일 실시예에 따라 포드(pod) 내에 조립된 정찰 시스템의 일반적인 구조를 나타낸 것이다. 포드(1)는 그의 전방 섹션(10)에 감광 어레이 및 필요한 광학 소자(도시 생략)를 갖는 짐벌(도시 생략)을 포함한다. 상기 짐벌 및 광학 소자는 투명한 윈도우(12) 후방에 탑재된다. 이러한 어레이들 중 적어도 하나는 예를 들어 가시 범위의 광을 감지하기 위한 CCD-타입의 어레이 또는 초점면 어레이에 존재한다. 선택적으로, 더 많은 어레이, 예를 들어 IR 범위의 이미지를감지하고 포착하기 위한 IR 어레이가 포함될 수 있다. 사용될 때 복수의 어레이는 물론 INS는 동일한 지역 부분으로 지향되어 이를 정확하게 커버하는 방식으로 짐벌의 동일한 부분에 위치된다. 선택적으로, 덜 양호한 실시예에서, 센서 및/또는 INS는 짐벌의 후방에 위치될 수 있는 반면, 짐벌은 LOS를 센서쪽으로 꺾는 한 세트의 거울 및/또는 프리즘을 가지고 있다. 본 시스템은 또한 센서로부터의 디지털 이미지 정보를 처리하고 그 이미지를 압축하며 지상국에서의 나중의 해석을 용이하게 하기 위해 이 이미지를 임무 데이터와 결합시키는 이미지 처리 유닛(Image Handling Unit, IHU)(2), 고체 상태 레코더(Solid State Recorder, SSR)(3) 또는 관심 지역의 디지털 고도 맵(Digital Elevation Map, DEM) 및 임무 계획을 저장하고 포착된 이미지를 기록하는 유사한 고속 액세스 저장 장치를 포함한다. 본 시스템은 또한 짐벌 서보에 제어 및 전원 신호를 제공하는 서보 유닛(Servo Unit, SU) 및 항공기와의 전원 인터페이스를 가능하게 해주는 인터페이스 유닛(Interface Unit, IU)을 포함한다. 기타의 컴퓨터 시스템 및 제어 전자부품들이 이 시스템 전자부품 유닛(System Electronics Unit, SEU)에 포함된다. 선택적으로, 데이타 링크(Data Link, DL)(16)를 사용하여 이미지와 임무 데이터를 실시간에 가까운 해석을 위하여 기지국에 보낸다. 러그(11)로 포드가 항공기에 부착된다.
도 1a는 본 발명의 또하나의 실시예를 나타낸 것이다. 이 구성에서, 정찰 시스템은 페이로드로서 항공기 본체 내에 조립된다. 전방 섹션은 수직으로 위치되어 아래쪽으로 향해있으며, 그의 윈도우만이 항공기 본체 외부로 돌출되어 있다. 포드 구성에서와 동일한 전자 유닛이 항공기 본체 내부에 설치되어 있다. 이 해결책이 고속 제트 항공기에 의해 사용될 수 있지만, 그의 주된 목적은 헬리콥터, RPV(원격 조종 차량), 그리고 명령 및 제어 항공기 등의 다른 유형의 항공기에 대한 것이다.
도 2는 본 발명의 양호한 실시예에 따른 짐벌 시스템(20)의 기계적 구조를 나타낸 것이다. 항공기의 진행 방향은 번호 27로 나타내어져 있다. 전술한 바와 같이, 정찰을 수행하기 위해, 본 발명에 따른 짐벌 시스템은 적어도 2개의 자유도를 갖는다. 짐벌의 축의 방향 및 짐벌의 차수는 LOS를 그의 지정된 탐지각 내의 임의의 공간 방향쪽으로 조종할 수 있는 한 중요하지 않다.
도 2에 도시한 본 발명의 양호한 실시예에 따르면, 짐벌 시스템(20)은 다음과 같은 2개의 서브 메카니즘을 포함한다.
- 2개의 자유도, 즉편요(Yaw)(축(22)을 중심으로 회전) 및피치(축(21)을 중심으로 회전)를 갖는내부 짐벌 메카니즘(36), 및
- 2개의 자유도, 즉고도(축(21)을 중심으로 회전) 및(축(23)을 중심으로 회전)을 갖는외부 짐벌 메카니즘(37).
피치 및 고도 자유도는 기본적으로 동일한 축(21)을 중심으로 한 회전에 관한 것이다. 그렇지만, 피치 자유도는 내부 짐벌 메카니즘(36)에 의한 미세한 회전에 관한 것인 반면, 고도 자유도는 외부 짐벌 메카니즘(37)의 대략적인 회전에 관한 것이다. 외부 짐벌 메카니즘(37)은 양호하게는 내부 짐벌 메카니즘(36)에 종속되어 있다. 종속은 내부 짐벌이 LOS 조정 명령이 보내지는 주 짐벌이 되도록 하는 프로세스인 반면, 외부 짐벌은 내부 짐벌의 운동을 따라가면서 항상 내부 짐벌과외부 짐벌 사이의 각도 변위를 최소화하려고 노력함으로써 내부 짐벌의 제한된 각도 회전을 보상한다. 포드의 전면 아래의 임의의 특정 지점으로의 추적이 2개의 자유도에 의해 가능하지만, 보다 양호한 추적 정밀도 및 보다 넓은 탐지각을 얻기 위해 2개의 서브 메카니즘으로의 분할이 이루어진다. 외부 짐벌 메카니즘은 특히 대략적인 추적, 예를 들어 짐벌의 방향을 한 지역 부분에서 제2 지역 부분으로 전달하는데 사용되는 반면, 내부 짐벌 메카니즘은 특히 특징 지역 부분의 이미지를 포착하는 동안 움직임 및 방위 보상을 제공하는데 사용된다. 서로 다른 수의 짐벌 또는 서로 다른 방향의 축을 갖는 다른 짐벌 구성도 이들 목표를 달성할 수 있다.
전술한 바와 같이, 외부 짐벌은 탐지각(field of regard, FOR)이 확장을 용이하게 해준다. 포드 실시예에 대한 FOR의 한계가 도 1에 나타내어져 있다. 이 FOR은 롤 짐볼의 360도 완전 회전을 할 수 있는 능력과 함께 외부 고도 짐벌의 전방은 물론 후방을 볼 수 있는 능력에 의해 달성된다. 페이로드 실시예에 대한 FOR의 한계는 도 1a에 도시되어 있다. 이 FOR은 롤 짐벌의 360 완전 회전을 할 수 있는 능력과 함께 외부 고도 짐벌의 하방은 물론 측방을 볼 수 있는 능력에 의해 달성된다. 양쪽 실시예에서 FOR에 대한 유일한 제한은 포드 본체 및 항공기 본체로서, 이는 FOR 엔벨로프의 경계부에서 가시선을 흐릿하게 한다.
도 2의 본 발명의 양호한 실시예에서, 하나 이상의 어레이가 관심 지역의 특정 부분으로의 어레이의 미세 조정을 제공하도록 내부 짐벌 상에 탑재되어 있다. 이것은 예를 들어 움직임 및 방위 보상을 제공하는데 필요하다.
전술한 바와 같이, 하나 이상의 센서 어레이는 그의 관련 광학 소자와 함께적어도 2개의 자유도를 유지하기 위해 짐벌 상에 배치된다. 도 2의 실시예에서, 가시 범위에서 이미지를 포착할 수 있는 예시적인 초점면 어레이(24)가 도식적으로 나타내어져 있다. 센서의 시야각(field of view, FOV)의 경계는 번호 25로 도식적으로 나타내어져 있으며, 어레이에 의해 포착된 장면은 번호 26으로 도식적으로 나타내어져 있다. 본 발명에 따르면, 장면(26)이 선택된 지역 부분일 경우, 짐벌 시스템은 어레이(24)의 중심을 지역 부분(26)의 중심쪽으로 지향시키고, 어레이의 중심을 선택된 지역 부분의 중심에 연결시키는 라인은 본 명세서에서 "가시선(line of sight, LOS)"이라고 한다. 센서의 광학 소자는 각 센서마다 별도의 광학 소자이거나 센서들 모두/그의 일부에 대해 공유하는 광학 소자일 수 있다. 공유 광학 소자는 멀티 스펙트럼 범위에서 광을 수집한 다음에 그의 고유의 스펙트럼 대역(waveband)에 따라 이를 각각의 센서로 분할한다. 공유 광학 소자에 대한 개별적인 광학 소자의 사용은 이용가능한 공간 및 요구되는 성능, 모듈성 및 보수성을 고려하여 특정한 설계 목표에 의존한다.
관성 항법 시스템은 본 기술 분야에 공지된 것으로서, 항공기 및 항공 시스템 위치에서 비행 중에 높은 정밀도로 항공기 또는 항공 시스템 위치, 그의 속도 벡터 및 가속도 벡터, 그리고 고정되어 있는 글로벌 축 시스템에 대한 그의 방위를 결정하는데 널리 사용된다. 관성 항법 시스템은 기본적으로 2개의 개별적인 유닛(즉, 기능), 즉 항공기 또는 항공 시스템의 위치 좌표를 결정하기 위한 항법 유닛, 및 그 중에서도 특히 소정의 고정된, 일반적으로 글로벌 좌표계에 대한 항공기 또는 항공 시스템 방위를 결정하기 위한 관성 유닛을 포함한다. INS는 또한 항공기또는 항공 시스템의 속도 및 가속도 벡터를 제공할 수 있다. 항법 시스템은 예를 들어 GPS 정보를 사용할 수 있고, 관성 시스템은 일반적으로 항공기 또는 항법 시스템 내의 관성 센서를 사용한다. 때로는, 항공 시스템 내에서 덜 정확한 INS가 항공기 내의 보다 정확한 INS와 통신하고 있으며, 그로부터 수신된 데이터를 사용하여 그 자신을 항공기 INS에 연속적으로 정렬한다. 이 프로세스는 "전달 정렬"이라고 하며, 많은 시스템에 의해 2개의 INS를 정렬하는데(예를 들어, 미사일을 항공기로부터 투하하기 전에 그 미사일의 INS를 정렬하는데) 사용된다. 일단 정렬되면, 덜 정확한 INS는 또한 그 다음 정렬이 있을 때까지 글로벌 기준 시스템에 대한 가시선 방향(각도)을 독립적으로 계산한다.
본 발명의 양호한 실시예에 따르면, 정찰 시스템은 시스템의 탐지각을 가지고서 임의의 원하는 방향쪽으로 LOS를 지향시키는 그의 능력으로부터 도출하는 여러가지 동작 모드를 가질 수 있다. 도 3b를 참조하면, LOS 방향은 측방 경사, 전방 경사, 하방 또는 임의의 방향일 수 있다. 도 3을 참조하면, 이하의 동작 모드가 일반적으로 사용될 수 있다.
i. 경로 모드(Path Mode): 이미지는 가시선이 전방 경사, 하방 또는 측방 경사로 지향된 상태에서 항공기의 비행 경로를 따라 포착된다. 경로 궤도는 실제 항공기 비행 경로를 따른다.
ii. 스트립 모드(Strip Mode): 비행 경로를 따라 또는 그에 대해 어떤 각도로 배치된 선형 스트립이 포착된다. 이 모드에서, 가시선은 보통 측방 경사로 지향되어 있다.
iii. 스폿 모드(Spot Mode): 선택된 지역의 이미지가 포착된다. 이 모드에서, 가시선은 임의의 어떤 방향으로도 지향될 수 있다.
iv. 응시 모드(Staring Mode): 동일한 선택된 지역의 이미지가 연속적으로 촬영된다. 이 모드에서, 가시선은 어떤 임의의 방향으로도 지향될 수 있다.
마지막 3가지 모드에서, 항공기가 선택된 지역에 접근하고 있을 때, 진입 관측 각도(entrance observation angle)는 임의의 각도일 수 있으며(즉, 도착하기 한참 전에 포착하기 시작함), 항공기가 선택된 지역을 떠나고 있을 때 탈출 관측 각도(exit observation angle)는 임의의 각도일 수 있다(즉, 떠난 한참 후에 포착을 중단함). 이와 같이, 정찰 시스템은 선택된 지역 상에 더 많은 시간 머무를 수 있다.
기본적으로, 정찰 시스템은 자동 모드나 수동 모드로 동작할 수 있으며, 동일한 임무에서 둘 다를 결합할 수 있다. 자동 모드에서, 정찰 시스템은 사전 계획된 타겟 및 우연한 타겟의 정찰 이미지의 자동 획득을 제공한다. 시스템에 대해 선택된 모드는 경로 모드, 스트립 모드, 스폿 모드, 및 응시 모드의 임의의 조합을 포함할 수 있다. 임무 계획에 기초하여, 본 시스템은 자동적으로 항공기가 타겟의 지역에 접근함에 따라 센서를 구성하고, 선택된 센서를 작동시키며, 센서의 방향을 제어하고, 이미지 데이터의 기록 및 전송을 개시/종료한다. 임무의 계획은 지상 스테이션에서 미리 행해지고, 임무 이전에 시스템으로 업로드된다. 수동 모드에서, 오퍼레이터는 비행 동안 수동으로 임무 계획을 변경할 수 있다. 오퍼레이터는 자동 동작을 중단시키고 정찰 기능을 수동으로 수행할 수 있다. 모든 동작 모드는자동 모드 및 수동 모드 모두로 이용가능하다.
도 3 및 도 3a를 참조하면, 본 발명의 양호한 실시예에 따르면, 관심 지역은 복수의 지역 부분의 매트릭스로 분할된다. 예를 들어, 점 A, B, C 및 D로 정의된 지역(100)은 복수의 지역 부분, 예를 들어 부분 P1,1, P1,2, P1,3, P2,1, P2,2, P2,3,..., Pn,m의 매트릭스로 분할되며, 여기서 첫번째 첨자 번호는 매트릭스 내의 부분의 컬럼을 나타내고, 두번째 첨자 번호는 매트릭스 지역 내의 부분의 로우를 나타낸다. 지역(100)은 임무 계획에 의해 원하는 바와 같은 어떤 임의의 사각형 형상을 가질 수 있다. 지역 부분 Pn,m의 크기는 센서의 FOV 및 각각의 지역 부분의 풍경까지의 범위에 따라 변한다. 어떤 경우에 그리고 나중에 자세히 살펴보는 바와 같이, 그 지역이 급격하게 변하는 지형인 경우에조차도 관심 지역을 완전히 커버하는 것을 보장하기 위해, 지역 매트릭스는 도 11에 도시된 바와 같이, 지역 부분들이 부분적으로, 예를 들어 그 지역의 약 10-20% 정도 서로 오버랩되도록 정의된다. 입체 촬영이 요구되는 경우, 약 56%보다 많은 오버랩이 요구된다. 항공기(102) 비행 중에, 정찰 시스템의 짐벌은 지역 매트릭스(100)를 순차적, 체계적, 단계별로 스캔하고, 그에 의해 짐벌은 먼저 그의 촬상 어레이를 제1 지역 부분으로 지향시키고 모든 센서에서 동시에 그 이미지를 포착한 다음에 제2 지역 부분으로 지향시켜 그 이미지를 포착하고, 이어서 이 절차를 반복하여 짐벌은 관심 지역(100)의 모든 부분의 이미지를 완전히 포착할 때까지 다른 부분 모두를 통해 순차적으로 어레이의 가시선(line of sight) 및 시야각(field of view)을 "점프"한다. 예를 들어, 본 시스템은 예시적인 9-부분 매트릭스(100)을 다음의 순서 P1,1, P1,2, P1,3, P2,1, P2,2, P2,3, P3,1, P3,2, P3,3로 스캔할 수 있다. 시스템의 짐벌이 일반적으로 어레이의 중심을 특정 지역 부분의 중심쪽으로 지향시키고 그에 고정시킴으로써(즉, LOS를 고정시킴으로써) 감광 어레이를 특정의 지역 부분으로 지향시킬 때, "스냅샷"이 촬영되어 이 지역 부분의 이미지를 포착한다. 보다 상세하게는, "스냅샷 촬영"은 2 단계, 즉 관심 지역으로부터의 광이 어레이의 구성요소에 의해 감지되는 동안인 광 통합 단계, 및 어레이의 모든 구성요소들이 통합 기간의 끝에서 동시에 샘플링되는 동안인 샘플링 단계를 수반한다. 전술한 바와 같이, 이 절차는 지역(100)의 모든 지역 부분에 대해 순차적, 체계적으로 반복된다. 부분의 이미지가 포착될 때마다, 그 이미지는 정찰 시스템의 저장 장치(도 1의 고체 상태 레코더(3) 등)에 저장되고, 또한 데이터 링크(Data Link, DL)를 사용하여 선택적으로 지상 기지국(도시 생략)으로 전송된다. 이미지의 정확한 포착을 제공하기 위해, 위치 및 항법 데이터가 INS에 의해 짐벌 제어 유닛으로 실시간 제공된다.
도 4는 본 발명의 정찰 시스템의 동작을 나타낸 블록도이다. 전술한 바와 같이, 본 시스템의 동작은 3가지 주요 단계를 포함한다. 첫번째 단계에서, 어레이의 가시선이 선택된 지역 부분으로 지향된다. 두번째 단계에서, 어레이는 지역 부분으로부터 오는 광에 노출되고 그에 대응하여 어레이 구성요소 내에 전하가 수집된다. 상기 두번째 단계 동안, 노출(수집) 기간 동안 항공기 이동 및 방위 변동을 보상하기 위해, 특히 번짐을 제거하기 위해 짐벌로 가시선을 이동시킴으로써 움직임 보상이 제공된다. 통합 기간의 끝에, 세번째 단계에서 모든 어레이의 감광 센서들이 동시에 샘플링되고 이미지가 저장된다. 이륙 이전에, 적어도 관심 지역이 포함되는 지역의 디지털 고도 맵(DEM)(310)이 정찰 시스템에 저장된다. 디지털 고도 맵(310)은 그리드로 분할된 맵을 반영하는 디지털 파일이며, 여기서 그리드의 각각의 노드점에 대해 (글로벌 또는 소정의 좌표계에 대한) x-y 좌표 및 그 점에서의 고도 z가 제공된다. 부분 선택 블록(311)은 지역 부분을 선택한다. 보다 상세하게는, 부분 선택 블록(311)은 순차적으로 선택된 지역 부분의 중심이 되는 노드점을 DEM(310) 내에 나타내어, DEM(310)으로 하여금 지역 부분의 중심의 좌표를 서보 제어 유닛(305)에 전달하도록 한다. 본 발명에서 기술한 바와 같이 DEM을 사용하여 선택된 표적의 3D 중심 좌표를 찾아내는 개념은 또한 타겟팅 시스템 등의 정찰 시스템 이외의 시스템들에서도 사용될 수 있는데, 여기서는 때로는 능동 범위 탐색기(active range finder)를 이용하지 않고 풍경 또는 선택된 표적까지의 정확한 거리를 측정하는 것이 요망된다. 양호하게는, 이후에 상세히 살펴보는 바와 같이, 지역 부분을 선택하고 그의 경계를 결정하기 위한, 보다 상세하게는 그의 중심 노드점을 결정하기 위한 몇가지 선택 모드가 존재한다. 선택된 지역 부분의 중심점의 xp:yp좌표 및 동일한 지점의 고도 좌표 zp는 서보 제어 유닛(305)으로 전달된다. 서보 제어 유닛의 지역 부분 지향 모듈(306)은 또한 INS(303)로부터 주기적으로 온-짐벌 어레이의 중심의 xa:ya:za좌표를 수신한다. 이들 두 세트의 x-y-z 좌표를 가지고서, 지역 부분 지향 모듈(306)은 기하학적으로 어레이의 중심(xa:ya:za)과 선택된 지역 부분의 중심(xp:yp:zp) 사이의 가시선(LOS)를 확립하는데 필요한 짐벌 각도를 계산하고, 상기 각도를 짐벌(300)의 상기 방향을 확립하기 위해 짐벌 서보 유닛(308)에 의해 요구되는 아날로그 신호로 변환한다. 상기 방향 계산은 항공기 위치 및 방위의 변동을 고려하기 위해 짧은 시간 간격으로 반복되고 갱신된다. 짐벌 서보 유닛(308)은 짐벌 유닛으로부터 원하는 LOS 방향에 대한 짐벌의 상태를 나타내는 신호(315)를 수신한다. 짐벌 서보 유닛이 LOS 방향이 확립된 것으로 결정할 때, 서보 유닛은 통합 기간을 개시하기 위한 신호(321)를 통합/샘플링 유닛(304)으로 전달한다. 통합/샘플링 유닛(304)은 어레이(301)에 신호(322)를 제공하여 어레이로 하여금 지역 부분으로부터 들어오는 광의 광 통합을 시작하도록 한다. 그 순간으로부터, 어레이의 감광 요소는 지역 부분의 각각의 대응하는 섹션에서의 광 레벨에 대한 전하를 축적하기 시작한다. 통합 기간 동안, 움직임 보상 모듈(307)에 의해 움직임 보상이 반복적으로 계산된다. 움직임 보상 모듈(307)은 지역 부분 지향 모듈(306)과 유사하게 DEM으로부터 선택된 지역 부분의 중심의 (xp:yp:zp) 좌표를 수신하고 INS로부터 온-짐벌 어레이(301)의 중심의 (xa:ya:za) 좌표를 수신한다. 움직임 보상 모듈(307)은 INS로부터 수신된 어레이의 중심의 갱신된 좌표 (xa:ya:za)와 선택된 지역 부분의 중심 (xp:yp:zp) 사이의 가시선(LOS)을 확립하는데 요구되는 짐벌 각도를 반복하여 계산하고, 그에 따라 상기 계산된 각도를, 짐벌(300)의 상기 방향(즉, 상기 각도)를 확립하기 위해 또는 환언하면 통합 기간 동안 항공기의 움직임 및 방위의 변동을 반복적으로 보상하기 위해 짐벌 서보유닛(308)에 의해 요구되는 아날로그 신호로 변환한다. LOS를 중심으로 한 이미지 롤에 대한 움직임 보상도 부가의 디롤 짐벌(de-roll gimbals)을 사용하여 행해질 수 있지만, 이것은 일반적으로 소형 또는 중형 어레이에서는 이러한 어레이에서의 롤의 번짐 효과가 작기 때문에 필요하지 않다. 통합 기간의 끝에서, 모든 어레이 센서 내에 누적된 전하 레벨을 동시에 샘플링하고 상기 전하 레벨을 선택된 지역 부분의 이미지로서 저장 장치(302)에 저장하기 위해 "샘플링" 신호(322)가 어레이(301)에 제공된다. 이미지 저장 장치(302)는 기본적으로 도 1의 SSR(3)이다. 이어서, 부분 선택 블록(311)은 DEM(310)으로부터 그 다음 지역 부분의 중심을 선택하고, 이를 지역 부분 지향 모듈(306)로 전달하며, 전술한 것과 동일한 절차가 이 그 다음 지역 부분에 대해 반복된다. 절차는 관심 지역의 모든 지역 부분에 대해 반복된다. 본 명세서에서 부분 선택 블록(311)이 동작하는 몇가지 선택적인 모드가 있음을 유의해야 한다. 한 선택적인 경우, 부분 선택 블록(311)은 먼저 제1 지역 부분의 중심을 선택하고 그 이미지를 획득한 다음에, 임의의 부가적인 부분에 대해 예를 들어 현재의 부분과 이전에 촬영된 부분 사이에 10% 오버랩의 요건을 만족시키는 그 다음 지역 부분의 중심을 실시간으로 결정한다. 이러한 선택적인 경우에 대해서는 이후에 보다 상세히 기술할 것이다. 또하나의 부분 선택 모드에서, 조종사는 부분의 중심에 표시를 하고, 그 부분의 이미지가 그에 따라 지향, 움직임 보상, 통합 및 샘플링의 상기 절차를 수행한 후에 획득된다. 또다른 선택적인 선택 모드에서, 관심 지역의 모든 부분 및 그의 중심이 예를 들어 항공기가 지상에 있는 동안에 사전 정의되고, 이어서 상기 사전 정의된 순서에 따라 선택이 수행되는 한편, 비행 동안에 항공기의 실제 위치 및 고도에 기초하여 정확한 방향이 자동적으로 갱신된다.
연속적인 이미지들 사이에서 소정의 오버랩이 존재하도록 지역 부분을 선택하는 것은 풍경에 대한 항공기 위치 및 포착된 풍경의 지면 변화를 포함한 전체적인 기하학적 시나리오에 의존한다. 도 11 및 도 11a를 참조하면, 각각의 스냅샷에 대해, 지상에서의 센서 FOV의 풋프린트는 DEM의 3차원 지상 데이터를 사용하여 계산된다. 각각의 풋프린트는 지상의 기울기(gradient)에 최상으로 적합하도록 2 방향으로 경사진 3차원 평면 또는 더 고차의 표면이다. 스냅샷을 촬영한 후 그 다음 스냅샷을 촬영하기 전에, 시스템은 이전의 스냅샷으로부터의 외삽 또는 다른 기술을 사용하여 LOS 중심의 방향을 추정하고 그 다음 스냅샷의 추정 지상 풋프린트를 계산한다. 이 추정된 풋프린트와 이전의 스냅샷의 풋프린트 사이의 오버랩은 전자의 것을 후자의 것 상에 투영함으로써 계산되고, 이어서 LOS 중심의 방향은 특정 범위의 값 내에서의 오버랩을 보장하기 위해 수정된다. 이 프로세스는 요구되는 오버랩이 달성될 때까지 몇번 반복하여 행해지고, 이어서 LOS는 물리적으로 새로운 스냅샷의 위치로 이동된다. 계산은 또한 반복없이 수학적 모델 및 정찰 시스템이 이용가능한 컴퓨팅 자원에 의존하여 분석적으로도 행해질 수 있다. 촬영된 스트립의 폭을 결정하는 트랙을 가로지르는(즉, 로우를 따르는) LOS의 점프의 횟수는 항공기의 진행을 보상하기 위해 트랙을 따라 그 다음 로우로 점프함에 있어서 과도한 지연을 발생하지 않고 최대 스트립 폭을 보장하기 위해 연속하여 계산된다.
적어도 2개의 자유도를 갖는 짐벌은 기술 분야에 공지되어 있으며, 예를 들어 관성 지향 및 타겟팅 시스템의 표적 추적을 위한 일부 항공기에 사용되며, 타겟팅 시스템은 표적의 관찰 및 무기 시스템을 그쪽으로 지향시키는 것을 가능하게 한다. 상기 타겟팅 시스템 중 일부는 또한 트래킹을 실시간으로 캘리브레이션하기 위해 관성 항법 시스템으로부터의 항법 및 방위 데이터를 사용한다. 본 발명은 상기 항공 타겟팅 시스템에서 사용된 것과 유사한 짐벌 시스템을 사용한다. 어레이를 갖는 짐벌을 관련 지역 부분들로, 각 부분을 차례대로 "트래킹"하는 것은 일부 항공 타겟팅 시스템이 그의 무기를 표적으로 지향시켜 트래킹할 때와 유사한 방식으로 수행된다. 그렇지만, 이러한 타겟팅 시스템에서, 관심 지역은 복수의 매트릭스 형식의 부분들로 분할되지 않으며, 순차적, 단계별로 관심 지역 내의 관련 지역 부분들을 체계적인 스캐닝하지 않는다. 게다가, 타겟팅 시스템에서, 움직임 보상의 문제가 이미지 정보에 기초한 전자-광학 트래킹 등의 다른 수단에 의해 해결되며, 이 해결책은 본 발명의 정찰 시스템 등의 지역 스캐닝 시스템에 도움이 되지 않는다. 전술한 바와 같이, 움직임 보상의 문제는 종래 기술의 정찰 시스템 중 일부에서는 완전히 다른 방식으로 실시되며, 예를 들어 온칩 움직임 보상은 미국 특허 제5,155,597호, 제5,692,062호, 및 국제 공개 WO 97/42659에 개시되어 있다. 본 발명은 (a) 지역 부분들 사이의 "점프"가 대략적으로 수행되는 지역 스캐닝을 수행하기 위해, 또 (b) 미세하게 수행되는 지역 부분의 통합 기간 동안의 움직임 보상을 위해, INS 및 적어도 2개의 자유도를 갖는 짐벌 시스템의 조합을 사용한다. DEM으로부터 획득된 것과 같은 각각의 선택된 부분의 중심에서의 고도(즉, 표고) 및 짐벌 시스템이 적어도 2개의 자유도를 갖는다는 사실은 모든 축에서의 완전하고미세한 움직임 보상을 가능하게 해준다. 이후에 상세히 기술하게 될 이러한 구조는 항공기가 종래 기술의 정찰 시스템에 비해 우수한 방식으로 급격한 기동을 수행할 수 있게 해준다. 또한, 본 발명자들에 의해 응시 어레이의 사용으로 인해 본 발명의 시스템에서 센서가 광에 노출되는 시간이 더 길어지는 것이 가능하게 됨으로 인해 동일한 지역 픽셀이 N번 스캔된 다음에 평균되는 TDI 구조가 필요없다는 것이 밝혀졌다. 본 시스템은 그 대신에 각 지역 부분의 단일한 "스냅샷" 포착을 이용할 수 있다.
도 5는 본 발명의 정찰 시스템의 동작 원리를 설명하는 흐름도이다. 도 5의 흐름도는 관심 지역이 정의되어 있는 것으로, 보다 상세하게는 관심 지역의 경계가 정의되어 있는 것으로 가정한다. 본 발명의 양호한 실시예에서, 촬영할 관심 지역의 제1 부분의 중심이 자동적으로 결정된다. 예를 들어, 관심 지역을 매트릭스로서 보는 경우, 제1 부분은 가장 멀고 가장 좌측인 부분일 수 있고, 그의 중심은 어떤 소정의 방식에 의해 자동적으로 선택된다. 그 다음에, 전술한 바와 같이 이미지들 사이의 어떤 소정의 범위의 오버랩을 만족시키기 위해, 다른 지역 부분 모두의 중심이 실시간으로 결정된다. 그 범위의 정의는 한편으로는 촬영의 "구멍"이 존재하지 않는다는 것을 보장하고 다른 한편으로는 필요 이상의 많은 이미지를 포함하는 인접 부분들의 이미지 사이의 과도한 오버랩이 존재하지 않도록 하기 위하여 필요하다. 이후에 상세히 기술하는 바와 같이, 이 절차는 DEM(310)의 사용을 포함한다.
블록 500에서, 제1 선택된 부분의 중심 좌표 x1;y1은 DEM(501)로 제공되고, DEM(501)은 이어서 세트 x1:y1:z1(z1은 x1;y1에서의 고도임)을 서보 제어 유닛(305)으로 전달한다. INS(504)로부터 어레이의 중심의 실시간 현재 좌표 xa:ya:za도 역시 수신하는 서보 제어 유닛(305)은 또한 단계 503에서 어레이의 중심과 상기 제1 지역 부분의 중심 x1:y1:z1사이에서 가시선을 확립하는데 요구되는 각도 및 신호를 계산한다. 신호는 단계 505에서 원하는 LOS 방향을 확립하는 짐벌 서보 유닛으로 전달된다. 단계 506에서 적당한 방향의 확립이 완료되었는지를 결정하기 위한 검사가 행해진다. 물론, 이것은 항공기 진행 및 양호한 경우 짐벌 상에 그의 관성 센서를 갖는 INS(504)에 의해 보고되는 예를 들어 탄성이나 항공기의 기동으로 인한 임의의 방위 변동에 따라 보정을 수행하기 위해 아주 빈번하고 빠르게 반복되는 동적인 동작이다. 단계 507에서, 어레이 구성요소에 의한 광 통합이 일어난다. 동시에, 통합 기간 동안, 항공기 진행 및 그의(또는 보다 상세하게는 짐벌 어레이의) 방위의 임의의 변동을 고려하기 위해 또다시 움직임 보상이 행해진다. 이 동작은 또한 반복적으로 실시간으로 일반적으로 약 100 Hz의 높은 주파수로 수행되어, 통합 시간 동안 고도로 정확한 움직임 보상을 보장한다. 단계 509에서, 통합 기간이 만료되었는지를 결정하기 위한 검사가 행해진다. 통합 기간의 끝에, 어레이에 의한 광 통합이 종료되고(단계 511), 단계 508의 움직임 보상도 종료될 수 있다(단계 510). 단계 512에서, 모든 어레이 센서는 동시에 (스냅샷 방식으로) 샘플링되고, 이미지는 저장된다. 단계 513에서, 모든 관심 지역이 이미 촬영된 이미지에 의해커버되었는지의 검사가 행해진다. 긍정적인 경우, 절차는 종료한다(단계 514). 그렇지만, 모든 관심 지역이 아직 커버되지 않은 경우, 애플리케이션은 그 다음 지역 부분의 x:y 좌표를 가정하고(단계 515), 이 좌표는 DEM으로 전달되어 동일한 부분 중심에서의 고도 z를 구한다. 그 다음 지역 부분은 계산된 로우 폭에 따라 항공기 진행에 뒤쳐지지 않으면서 최대 스트립 폭이 달성되도록 이전의 지역 부분으로부터 어크로스-트랙(동일한 로우)에 위치하거나 어롱 트랙(새로운 로우)에 위치할 수 있다. 이어서, 양호한 경우에(단계 516), 상기 x:y:z 좌표로 지향할 때 이미지가 촬영되는 경우 이전의 이미지의 지역과 상기 새로운 이미지의 지역 사이의 오버랩 지역이 사전 정의된 오버랩 범위(예를 들어 10% 내지 20% 오버랩)를 만족시키는지의 시뮬레이션이 행해진다. 오버랩이 너무 큰 것으로 밝혀지는 경우, 이 중심점은 이전의 부분의 중심으로부터 약간 멀리 위치된다. 그렇지만, 오버랩이 너무 작은 것으로 밝혀지는 경우, 부분 중심은 이전 부분의 중심에 약간 더 가깝게 위치된다. 이 시뮬레이션은 기본적으로 모든 그리드 노드점에서의 고도를 포함하는 디지털 맵인 DEM을 사용한다. 그러한 목적으로 DEM을 사용하는 것은, 오버랩 문제를 검사할 때 고도가 아주 중요하기 때문에 유리하다. 한두번의 반복된 시뮬레이션 후에 새로운 부분 중심이 결정될 수 있는 것으로 밝혀졌다. 전술한 바와 같이 단계 516의 정렬은 바람직하지만 필수적인 것은 아니다. 단계 516으로부터, 절차는 단계 516에서 결정된 부분 중심의 새로운 x:y:z 좌표를 사용하는 단계 503으로 계속되고, 절차는 관심 지역의 모든 부분의 커버가 완료될 때까지 반복된다. 이어서, 시스템은 요망되는 경우 새로운 관심 지역을 스캔하도록 전환할 수 있다.유의할 점은 관심 지역을 순차적으로 스캔하는 것이 부분 오버랩 계산을 간단화시키고 스캐닝 효율을 향상시키므로 바람직하지만, 스캐닝은 임의의 다른 소정의(또는 그렇지 않은) 순서로 수행될 수 있다는 것이다.
전술한 바와 같이, 어레이를 지역 부분의 중심으로 지향시키고 항공기 움직임 및 방위의 변동을 보상할 때, 관련 지역 부분의 고도는 높은 정확도를 달성하는데 특히 중요하다. 따라서, 본 발명의 양호한 실시예에 따르면, 디지털 고도 맵(DEM), 즉 관심 지역의 그리드를 포함하는 3-D 맵이 사용된다. 일반적으로 전 세계 거의 모든 지역의 이러한 디지털 고도 맵을 획득하는데에는 문제가 없다. 이러한 정보는 상업적으로 이용가능하거나 그 지역의 지형도로부터 추출될 수 있다. 관심 지역의 DEM은 정찰 임무 전에 항공 시스템에, 일반적으로 SSR(3)에 로드된다.
전술한 바와 같이, 예를 들어 미국 특허 제5,155,597호, 제5,668,593호, 제5,692,062호, 국제 공개 WO 97/42659, 미국 특허 제6,130,705호 및 제6,256,057호에 개시된 바와 같은 종래 기술의 정찰 시스템은 전방향 움직임 보상(FMC) 또는 일반적인 움직임 보상(MC)을 계산하는 동안 촬영 지역 부분에서의 지형의 고도를 직접 고려하지 않는다. 예를 들어 미국 특허 제5,692,062호 및 제6,130,705호에 개시된 바와 같은 시스템들 중 일부는 지형 변화의 번짐 효과를 간접적으로 추정하고 온칩 기술을 사용하여 이를 보정하기 위해 이미지 대 이미지 상관을 사용하지만, 이러한 기술들은 전술한 바와 같은 단점을 가져서 이하의 논의에서 고려되지 않는다. 이들 단점으로는, 각각의 사용가능한 이미지에 대해 3개의 연속적인 이미지 포착의 필요성, 처음 2개의 이미지의 번짐으로 인한 제한된 상관 정확도, 연속적인이미지 간의 큰 픽셀 시프트, 및 3-영상 포착 프로세스 동안의 V/R 변화가 있다. 도 9는 고도(즉, 해발) 인자의 중요성을 예시한 것으로서, 촬영된 지형의 고도를 직접 실시간으로 고려하는 것이 얼마나 중요한지를 보여준다. 일반적으로, 종래 기술의 정찰 시스템에서, 항공기 INS는 사용될 때 글로벌 시스템에 대해 항공기의 위치 및 고도를 계산하지만, 촬영되는 지형(751)의 실제 형상에 대해서는 거의 알지 못한다. 항공기(750)는 따라서 어떤 고정된 지상 레벨(756), 일반적으로 도시한 바와 같은 해수면을 가정한다. 이제, 정찰 시스템이 중심점 A를 갖는 지역을 촬영하는 경우, 노출 시간 동안 항공기(750)는 거리 D만큼 진행한다. 정찰 LOS(Line of Sight, 가시선)는 고정 레벨(756)을 가정할 때 점 C를 계속 가리키게 되며, 따라서 노출 시간 동안 점 A를 점 B로 시프트시키며, 산(757)의 경우 크기 AB의 번짐 또는 에러 각도(752)가 발생된다.
예 1
이하는 전방 경사 시나리오를 나타내는 큰 변화를 갖는 지형을 포착할 때 종래 기술 시스템에서 픽셀 번짐을 평가하는 수치적 예이다. 항공기의 비행 속도는 250 m/s, 항공기에서 풍경까지의 범위는 10 km, 노출 시간은 10 ms, 및 산(757)이 1/2 범위(즉, 5km)에 있고 항공기 고도가 5km인 것으로 가정한다.
따라서, LOS의 각속도는 대략 12.5 milirad/s (항공기 속도/항공기 고도) x SIN2(LOS 경사각)이고, 통합 시간 동안 항공기의 각이동(angular travel)은 12.5 x 0.01 = 125 microrad이다. 각도(752)는 따라서 125 microrad이다. 30 microrad의일반적인 픽셀 순간 시야각(Instantaneous FOV, IFOV)의 경우, 이것은 4개 이상의 픽셀의 번짐을 의미한다.
측방 경사 시나리오의 경우 상황은 더욱 나쁜데, 이 예에서 각속도는 250/10,000 = 25 milirad/s이고, 그 결과의 번짐은 8 픽셀이다.
본 발명의 시스템의 경우, 픽셀 번짐은 이하의 예에서 설명하는 바와 같이 훨씬 적다. 범위 R 및 속도 V의 불확실로 인한 LOS 각속도에서의 에러는 다음의 공식으로 계산된다.
이 200 m/s,이 15 km, LOS 경사 각도가 20도, 지형 경사도가 최대 15%, 일반적인 INS 속도 에러가 0.045 m/s, 일반적인 LOS 각에러가 2 mrad, 일반적인 항공기 위치 에러가 30 m, 일반적인 항공기 고도 에러가 42 m, 그리고 일반적인 DEM 고도 에러가 15m인 경우, (모든 값 3σ) 범위 에러를 160m로서 계산하고 LOS 각속도 에러는 다음과 같다.
그러면 10 ms의 통합 시간 동안의 픽셀 번짐은 0.14 x 0.01 = 1.4 microrad가 되고, 이는 30 microrad의 일반적인 IFOV의 경우 작은 서브픽셀 번짐, 즉 픽셀의 5% 미만의 번짐이다.
다음과 같은 여러가지 유형의 스캐닝이 본 발명의 시스템에서 사용될 수 있다.
a. 순차 매트릭스 스캐닝(sequential matrix scanning): 관심 지역의 부분들이 지역 매트릭스 내에서 그의 순차적인 순서에 따라 포착된다.
b. 선택적 스캐닝(selective scanning): 임의의 선택이 사전 정의될 수 있고, 부분 포착이 그에 따라 수행된다.
c. 수동 포착(manual capturing): 지역 부분의 포착이 조종사 선택에 따라 수동으로 수행된다.
또한 유의할 점은 본 발명의 시스템에 의해 입체 촬영도 달성될 수 있다는 것이다. 특히 미국 특허 제5,155,597호, 제5,692,062호, 및 제6,256,057호에 기술된 것과 같은 종래 기술의 시스템과는 달리, 본 발명의 시스템은 항공기가 지역 부분에 대해 상당한 각변위로 진행한 후에 지역 부분을 "재방문"함으로써 입체 효과를 향상시킬 수 있다. 도 7은 본 발명에 의해 입체 이미지가 어떻게 구성될 수 있는지를 보여준다. 본 기술 분야에서 공지된 바와 같이, 지역 또는 물체의 입체 이미지는 각각이 지역 또는 물체의 상당한 중첩 부분을 커버하는 2개의 이미지가 촬영된 지역에 대해 서로 각도상 충분히 떨어져 있는 2개의 시점으로부터 촬영된 경우 상기 2개의 이미지를 사용함으로써 구성될 수 있다. 도 7에서, 정찰 항공기(200)는 도시된 경로에서 좌측에서 우측으로 비행한다. 예를 들어 점 A를 지나갈 때, 항공기는 그에 따라 온-짐벌 어레이를 이들 부분에 지향시킴으로써 부분 이미지들(201, 202, 203)을 순차적으로 포착한다. 그 후에, 항공기는 계속하여 점 B로가고, 그 점에서 짐벌은 다시 그에 대응하여 그렇지만 지금은 B의 시점으로부터 동일한 지역 부분의 이미지(201'. 202', 203')를 포착하도록 지향된다. 각각의 지역 부분의 상당한 부분, 예를 들어 약 56%가 점 A 및 B로부터 각각 촬영된 이미지들에서 오버랩하는 경우, 지역 부분의 입체 이미지가 공지된 방식으로 구성될 수 있다. 도시한 바와 같이, 본 발명은 입체 이미지를 구성하는데 필요한 이미지를 획득하기 위한 쉽고 간단하며 콤팩트한 방식을 제공한다. 정찰 사진을 해석할 때, 입체 효과는 예를 들어 동일한 지역 부분의 2개의 이미지를 서로 다른 광 극성으로 디스플레이한 다음에 한쪽 이미지를 좌측눈으로 보내고 다른쪽 이미지를 우측눈으로 보내는 편광 안경을 사용하여 그 디스플레이를 봄으로써 획득될 수 있다.
본 발명의 보다 양호한 실시예에서, 2개의 관성 항법 시스템이 본 발명의 정찰 시스템에 의해 사용된다. 보다 상세하게는, 도 6에 도시한 바와 같이, 도 4의 INS(303)는 2개의 개별적인 관성 항법 시스템을 포함한다. 첫번째 INS는 보통 GPS와 결합된 항공기의 주 INS(604)이고, 두번째 INS는 내부 정찰 INS(603)이다. 전술한 바와 같이, INS(303)는 소정의, 양호하게는 글로벌 좌표계에 대한 항공기의 현재의 좌표 등의 항법 데이터, 및 상기 글로벌 좌표계에 대한 항공기의 방위에 관한 방위 데이터를 제공하는데 사용된다. 이 데이터는 포착된 지역으로의 정확한 지향을 보장하기 위해 또한 보다 덜 중요하지만 빠르고 급격한 항공기의 기동 동안에도 정확한 움직임 보상을 보장하기 위해 아주 정확해야만 하고, 계속 갱신되어야만 한다. 이 작업은 훨씬 더 복잡함을 수반하는데, 그 이유는 항공기의 탄성으로 인해 그 부분들이 아주 높은 가속과 아주 심한 기류를 받기 때문이다. 따라서, 감광 센서 어레이를 최상으로 지향시키기 위해 또한 항공기 움직임을 최상으로 보상하기 위해서는, 본 발명자들은 사전 정의된 글로벌 좌표계에 대해 짐벌의 항법 및 방위 데이터를 측정하도록 INS를 정찰 시스템 내부에, 양호하게는 짐벌 자체 상에 배치하는 것이 필수적임을 밝혀내었다. 따라서, 양호하게는 내부 정찰 INS는 양호하게는 역시 짐벌 상에 배치되어 있는 어레이에 근접하여 짐벌 상에 배치되고, 상기 데이터를 정확하게 측정한다. 그렇지만, 내부 INS는 크기가 제한되어야만 하고 따라서 어느 정도의 부정확성 및 드리프트를 겪을 수 있기 때문에, 본 발명에 따르면 내부 INS(603)는 항공기 주 INS(604)에 연결된다. 주 항공기 INS는 전술한 종래 기술의 전달 정렬 프로세스를 사용하여 가능한 드리프트에 대해 그를 정렬하기 위해 주기적으로 항법 데이터로 내부 INS를 갱신한다. 이러한 방식으로, 짐벌 서보의 보다 넓은 대역폭 및 보다 높은 정확도가 달성된다. 항공기와 정찰 시스템 LOS 사이의 기계적 오정렬의 일반적인 값은 10-20 mrad인 반면, 정렬된 온-짐벌 INS는 이 오정렬을 1-2 mrad의 정확도로 측정할 수 있다.
유의할 점은 지역 부분들은 일반적으로 본 발명의 시스템에 의해 "스냅샷" 방식으로 포착되며, 일반적으로 종래 기술의 시스템에서의 벡터 또는 어레이보다 훨씬 더 많은 통합 시간을 갖는다는 것이다. 본 발명의 시스템에서의 일반적인 통합 시간이 밀리초 정도인 반면, 미국 특허 제5,155,597호, 제5,692,062호, 및 제6,256,057호 등의 벡터를 사용하는 종래 기술의 시스템에서, 일반적인 통합 기간은 2자리수 또는 3자리수 정도 더 짧으며(즉, 100배 내지 1000배 더 짧으며), 그 결과 광에 대한 광자 감도가 훨씬 더 낮다. 이것은 본 발명이 각각의 픽셀이 모든 지역포착 시간 동안 광에 노출되는 수백 또는 수천개의 로우와 컬럼을 갖는 어레이를 사용한다는 사실로부터 발생한다. 1차원 벡터를 사용하는 종래 기술의 시스템에서, 동일한 포착 기간은 동일한 지역 부분을 커버하기 위해 수백 또는 수천배 노출되어야만 하는 동일한 벡터의 픽셀들 간에 분할된다. 게다가, 본 발명의 시스템이 지역 및 관심 지역 내의 부분을 선택함에 있어서 큰 유연성이 가능하다는 사실은 본 시스템이 처리(즉, 포착, 저장 및/또는 통신 수단에 의한 전송)해야만 하는데이터량의 상당한 감축을 가능하게 해준다. 보다 상세하게는, 관심 부분 및 지역만의 이미지가 본 발명의 시스템에 의해 포착된다.
예 2
이하는 푸시-브룸이나 대형 어레이 정찰 시스템과 비교하여 본 발명의 시스템이 처리하는데이터량에 있어서의 절감(즉, 저장, 기지국으로 전송 등)을 보여주는 예이다.
- 임무 기간: 2시간,
- 도 12는 이 시나리오를 나타낸 것이다. 촬영된 지역에 관련하여 높은 우선순위를 갖는 표적의 지역: 40% 스냅샷 촬영. 용어 "스냅샷"은 본 명세서에서 모든 어레이 픽셀이 동시에 지역 부분으로부터의 광에 노출되고 모든 어레이 픽셀로부터의 데이터가 상기 노출의 끝에서 동시에 판독되는 방식을 말한다. LOS 및 FOR 임무 게획의 효율성으로 인해 푸시-브룸 또는 대형 어레이의 경우 5%임(이것은 본 발명의 시스템이 관심 지역 내의 높은 우선순위 표적을 보다 양호하게 선택하고 미관심 지역 부분을 무시할 수 있다는 것으로부터 얻어지는 가정임).
- 미압축인 경우 센서의 데이터 쓰루풋 레이트: 20 메가바이트/초.
- 낮은 압축율: 1:5.
- 높은 압축율: 1:10.
- (본 발명에 따른) 스냅샷 정찰에 대한 오버랩 지역: 어롱-트랙 및 어크로스-트랙 오버랩의 총 40%.
- 푸시-브룸의 경우 오버랩 지역: 20%.
전체 기록:
1. 스냅샷 촬영 =
2. 푸시-브룸 =
전술한 바와 같이, (본 발명에 따른) 스냅샷 촬영 정찰을 위해 획득된 높은 우선순위 표적의 개수는 푸시-브룸 또는 대형 어레이 정찰보다 40%/5% = 8배 더 높으며, 따라서 임무의 전체적인 효율은 본 발명의 시스템에 따른 스냅샷 촬영의 경우 8 x (18/28)=5.1 이다.
이것은 상당한 효율의 향상이다.
여기서 유의할 점은 본 발명의 정찰 시스템이 적어도 2개의 자유도를 갖는 짐벌을 사용하여 감광 센서의 어레이의 LOS를 지향시킴으로써, 전체 지역을 커버할 때까지 이들 부분의 이미지를 획득하기 위해 단계별로 체계적이고 정확한 방식으로 순차적으로 스캔되는 복수의 지역 부분으로 양호하게는 실시간으로 분할되는 임의의 형상의 관심 지역의 정의를 가능하게 해준다는 것이다. 본 발명의 시스템은 특정 관심 지역을 효율적으로 커버할 뿐만 아니라 예를 들어 미국 특허 제5,155,597호, 제5,668,593호, 제5,692,062호, 국제 공개 WO 97/42659, 미국 특허 제6,130,705호, 및 제6,256,057호에서의 종래 기술의 정찰 시스템에서 요구되는 것과 같은 전방향 움직임 보상을 위한 전용 수단을 제공할 필요도 없게 해준다. 적어도 2개의 자유도를 갖는 짐벌을 사용하여 어레이의 LOS를 지향시키고 또 "노출" 동안 선택된 지역의 부분으로 방향을 계속하여 보정함으로써, 전방 축에 대한 전방향 움직임 보상이 제공될 뿐만 아니라 3개의 축 모두에 대한 개선된 움직임 및 방위 보상을 제공하기 위해 지형의 3D 형상도 고려된다. 이러한 사실은 특히 중요한데, 그 이유는 이에 의해 항공기의 급격하고 폭넓은 기동이 가능하게 되기 때문이다. 게다가, 항공기가 관심 지역에 대해 또는 상기 지역 내의 임의의 부분에 대해 어디에 위치되어 있는지에 상관없이, 또 어느 방위이든지 상관없이, 본 시스템은 이러한 지역 부분들의 적절한 이미지를 획득하기 위한 수단을 제공한다(항공기 동체로부터 아무런 장해도 없는 것으로 가정함).
예 3
본 발명은 이하의 파라미터로 성공적으로 구현된다.
항공기 포드 구성,
픽셀의 수: 가시 어레이: 2000 x 2000, IR 어레이 640 x 480,
통합 시간: 1-15 ms,
동작 범위: 최대 30 km, 고도 최대 10 km,
스냅샷 레이트: 초당 3회, 두 센서 어레이 모두 동시에 동작함.
FOR: 전체 구면 범위(full spherical coverage), ±30도 후방 원추체 제외.
또한 스캐닝 및 오버랩 프로세스의 실제 시뮬레이션의 결과인 도 11 및 도 11a를 참조하기 바란다.
전술한 바와 같이, 전술한 본 발명의 실시예에서, 지역 스캐닝 동작은 먼저 어레이의 LOS의 중심을 관련 지역 부분의 중심으로 지향시키는 짐벌에 의해 수행되고, 이어서 그 어레이가 지역 부분으로부터 나오는 광에 노출되며(즉, 어레이는 지역 부분으로부터의 광의 통합을 시작하며), 노출 기간의 끝에서 지역 부분의 이미지가 포착된다. 그 다음에, 어레이의 LOS는 그 다음 지역 부분의 중심으로 지향되고, 통합 및 포착 절차가 반복된다. 이 절차는 관심 지역에 대한 모든 지역 부분들에 대해 반복된다. 보다 상세하게는, 상기 실시예에서, 짐벌은 관심 지역의 스캐닝 동안 "점프" 방식으로 동작하고, 그에 의해 짐벌은 먼저 미리 정의된 지역 부분에 대한 정렬이 획득될 때까지 이동하고, 이어서 짐벌은 노출 기간 동안 움직이지 않으며(움직임 보상 이동은 제외), 이어서 짐벌은 다시 어레이를 그 다음 지역 부분의 중심으로 지향시키기 위해 움직이고, 이하 마찬가지이다. 이러한 유형의 동작은 예 3에 나타낸 바와 같이 초당 스냅샷의 수에서 제한을 받는데, 그 이유는 비교적 무거운 짐벌의 가속-감속 및 정지가 시간 소비적이기 때문이다.
본 발명의 또다른 실시예에 따르면, 도 9에 도시한 바와 같은 백스캔 메카니즘을 사용함으로써 스캐닝 효율이 향상된다. 전술한 바와 같이, "점프" 유형 스캐닝에서, 어레이 및 그의 관련 광학 소자는 양호하게는 내부 짐벌 상에 배치되고, 이들 모두는 상기 내부 짐벌에 대해 정지되어 있다. 본 발명의 개선된 백스캔 실시예에서, 백스캔 어레이 어셈블리(860)는 내부 짐벌 상에 탑재된다. 이 어셈블리는 기본적으로 렌즈(861, 862), 정지 거울(864), 및 저질량 단일 또는 이중축 백스캔 회전 거울(low-mass single or dual-axis back-scanning rotating mirror) 또는 프리즘(863)을 포함한다. 백스캔 회전 거울은 전용 모터 상에 탑재된다. 백스캔 방법에서, 지역 부분의 스캐닝은 연속적으로 수행된다. 환언하면, 짐벌은 높은 LOS 각속도로 관심 지역의 컬럼들(또는 로우들)을 연속적으로 스캔하고, 이 스캐닝 동작은 전술한 바와 같이 방향 정렬 및 움직임 보상의 최상부에 온다. 지역 부분의 중심에 대한 정확한 정렬이 달성될 때마다, 광 통합(어레이의 노출) 기간이 사작되고, 백스캔 거울(863)은 각도 이동을 절반의 각속도에서 반대 방향으로 유지함으로써 통합 기간 동안에만 짐벌의 스캐닝 연속 운동을 보상한다. 도 10을 참조하면, 짐벌이 방향(870)에서 스캐닝 일정 각관성 속도(scanning constant angular inertial velocity)를 유지하는 경우, 백스캔 거울(863)은 중간 각속도로 통합 기간 동안(만) 반대 방향(880)으로 회전한다. 이와 같이, 지역 부분은 어레이(305)에 정지된 채로 유지된다. 통합(노출) 기간의 끝에서, 거울(863)은 거울의 동일한 정속 이동이 반복되는 새로운 통합 기간이 도래할 때까지 그의 초기 위치로 복귀한다. 백스캔은 짐벌이 각 스냅샷에 대해 정지할 필요없이 보다 높은 속도로 이동할 수 있게 해준다. 짐벌을 정지시키는 것은 높은 가속/감속 및 짐벌 및 그의 페이로드(즉, 센서)의 높은 관성 질량으로 인해 듀티비 시간의 대부분을 소비한다. 백스캔 거울은 그의 훨씬 더 적은 관성 질량 덕분에 훨씬 더 빨리 이동할 수 있다.
예 4
백스캔 거울의 각범위는 아주 작다. 예를 들어, 짐벌이 60 도/초로 이동하고 노출 시간이 10 ms인 경우, 백스캔 거울의 각변위는 60 x 0.01 = 0.6로, 아주 작다.
일반적 비교: 백스캔이 없는 짐벌의 사용은 일반적인 설치(예를 들면, 예 3)에서 초당 3 프레임의 스냅샷 레이트를 가능하게 해준다. 3도의 시야각에 대한 평균 짐벌 속도는 대략 3 x 3 = 9 도/초가 된다. 한편, 백스캔을 사용하면, 짐벌은 60도/초의 속도로 이동할 수 있으며, 60/3 = 20 스냅샷/초가 되고, 이는 6배 이상 높은 레이트이다. 최대 허용가능 레이트는 일반적으로 30 또는 60 Hz이고 따라서 20 Hz보다 더 높은 센서의 전자적 프레임 레이트에 의해 제한된다.
도 8 및 도 8a는 본 발명이 종래 기술의 정찰 시스템보다 이점이 있는 특정 경우를 나타낸 것이다. 항공기(700)가 2개의 지점(705)의 이미지와 산 사이에 위치한 고속도로(710)의 이미지를 획득하는 임무를 갖는 것으로 가정하자. 카메라(즉, 감광 소자의 벡터)가 기본적으로 제한된 FOR로 고정되어 있는 종래 기술의 정찰 시스템에서, 항공기는 점 Q(라인(701, 702)에 의해 제한된 시야각을 가짐)로부터 첫번째(우측) 산의 점 B와 D 사이의 지역과 두번째(좌측) 산의 점 A와 C 사이의 지역만을 커버할 수 있다. 2개의 지점(705) 및 고속도로(710)의 이미지는 획득되지 않는다. 장거리 경사 촬영(long range oblique photography, LOROP)에 있어서, 항공기는 페이지쪽을 향해 비행하고, LOS는 작은 LOS 경사각으로 인해 상당히 흐릿한 측방 경사가 될 것이다. 그렇지만, 종래 기술의 푸시-브룸 또는 위스크브룸 싯템의 경우에서와 같이 카메라가 고정되어 있지 않은 경우, 지점(705) 및 고속도로(710)의 전체적인 커버에 대한 보장도 없는데, 그 이유는 카메라의 시야각의 이동과 지형의 형상 사이의 동기화가 없기 때문이다. 본 발명에 따르면, 이 문제는 쉽게 해결된다. 임무 및 관심 지역의 분할을 준비하는 동안, 관심 지역의 중심에 대한 임의의 좌표를 선택하고 LOS가 시스템의 FOR 내에 있는 한 정찰 시스템으로 하여금 임의의 사전 정의된 또는 수동으로 선택된 항공기의 위치로부터 그의 어레이의 LOS를 이들 선택된 좌표로 지향시키도록 프로그램할 수 있다. 따라서, 도 8a에 도시한 바와 같이, 위치 R에 있는 동안, 어레이의 LOS는 점 F와 E 사이의 지역을 커버하도록 전방 지향될 수 있고, 나중에 점 S에 도달하는 동안 어레이의 LOS는 점 G와 H 사이의 지역을 커버하도록 후방 지향될 수 있다. 그 경우에, 2개의 지점(705) 및 고속도로의 전체 이미지를 포함한 산들 사이의 전체 지역이 획득될 수 있다. 라인(711, 712)은 점 R로부터의 정찰 시스템의 탐지각의 한계를 나타내는 반면, 라인(721, 722)은 점 S로부터의 정찰 시스템의 탐지각의 한계를 나타낸다.
도 11은 산악 지형(560) 및 지역 부분들 사이의 어떤 오버랩을 포함하는 지역 부분들로의 그의 분할의 사시도이다. 또한 도 11에는 한 지역 부분이 항공기(561)에 의해 포착되는 한 경우와 다른 지역 부분(564)이 동일한 항공기에 의해 포착되는 나중의 경우가 도시되어 있다. 도 11a는 동일한 지형의 상부측 및 화살표 565로 나타낸 바와 같이 항공기 정찰 시스템에 의해 관심 지역의 스캐닝 방식을 나타낸 것이다.
요약하면, 본 발명은 종래 기술의 시스템에 비해 다음의 주요 이점을 특징으로 한다.
- 큰 탐지각(FOR) 내에서 임의의 LOS 방향에서 촬영할 수 있음. 이렇게 할 수 있기 위해서(예를 들어, 전방 경사, 측방 경사, 하방 및 임의의 관측을 할 수 있기 위해서), 종래 기술의 정찰은 별도의 감광 유닛 또는 복수의 개별적인 포드를 필요로 한다. 본 발명의 이러한 능력은 임무 동안에 더 많은 표적(즉, 지역 부분)을 커버할 수 있게 해주어 저장 요건을 완화시켜 준다.
- 큰 FOR 내에서 항공기의 임의의 비행 방향으로 촬영할 수 있음.
- 장기간 동안 선택적인 품질 표적에 초점을 맞추고 항공기가 진행하고 있는 동안 최고의 품질로 많은 사진을 촬영할 수 있음. 전체적인 임무 지역이 아니라 단지 선택적인 부분만이 기록되어 저장 장치를 절감한다.
- 흐릿함이 발생하지 않도록 LOS를 지향시킴으로써 큰 변화를 갖는 지형에서 촬영할 수 있음.
- 항공기가 기동하고 있는 동안 촬영을 할 수 있으며, 그에 따라 임무의 유연성 및 항공기의 생존성을 향상시킨다.
- 동일한 임무에서 수동으로 또는 자동으로 동작할 수 있음.
본 발명의 몇몇 실시예들이 예시로서 기술되어 있지만, 본 발명이 본 발명의 정신을 벗어나지 않고 또 청구항의 범위를 초과하지 않으면서 당업자라면 여러가지 수정, 변화, 및 변형을 실시할 수 있고 여러가지 등가물 또는 대안적인 해결책을 사용할 수 있음은 분명하다.

Claims (33)

  1. - 적어도 2개의 자유도를 갖는 짐벌들(gimbals),
    - 적어도 2개의 자유도 내에서 상기 짐벌들에 의해 지향되는, 상기 짐벌들 상에 위치한 적어도 하나의 광 센서 어레이,
    - 부분들(portions)로 분할되어 있는, 관심 지역의 적어도 하나의 디지털 고도 맵(Digital Elevation Map)을 저장하는 맵 저장 수단,
    - 소정의 글로벌 축 시스템(global axes system)에 대한 항공기의 항법 및 방위 데이터를 짐벌 제어 유닛에 실시간 제공하는 관성 항법 시스템(Inertial Navigation System),
    - 상기 관심 지역으로부터 다른 지역 부분을 한번에 하나씩 선택하는 부분 선택 유닛(Portion Selection unit),
    - A. 상기 디지털 고도 맵으로부터 한번에 하나씩 상기 선택적인 지역 부분의 좌표 세트를 수신하고 - 상기 세트는 상기 지역 부분의 x:y 좌표 및 그 부분의 중심의 고도 z를 포함함 - ,
    B. 상기 관성 항법 시스템으로부터 상기 항공기의 현재의 위치 및 방위를 계속하여 수신하며,
    C. a. 지향 기간 동안, 상기 적어도 하나의 감광 유닛 어레이를 포함하는 상기 짐벌들을 상기 선택된 지역 부분의 상기 x:y:z 좌표쪽으로 그에 따라 지향시기 위한 신호들, 및
    b. 상기 어레이 센서들이 상기 지역 부분으로부터 오는 광을 통합하는 통합 기간 동안, 상기 항공기 이동으로부터 발생되는 상기 선택된 부분의 x:y:z 좌표쪽으로의 방향의 변경을 보상하기 위한 신호들을 상기 짐벌 유닛에 제공하기 위한 신호들
    을 실시간, 고속으로 반복적으로 계산하여 짐벌 서보 유닛으로 전달하는 서보 제어 유닛,
    - 상기 서보 제어 유닛으로부터 제공된 상기 신호들에 따라 적어도 2개의 자유도로 상기 짐벌들의 지향을 실시하는 짐벌 서보
    - 상기 통합 기간의 끝에 상기 어레이 센서 각각으로부터의 픽셀 레벨들을 동시에 샘플링하는 샘플링 수단 - 상기 샘플링된 픽셀 레벨 전부의 세트가 상기 지역 부분의 이미지를 형성함 - , 및
    - 복수의 지역 부분 이미지를 저장하는 저장 수단
    을 포함하는 항공 정찰 시스템.
  2. 제1항에 있어서, 상기 하나 이상의 어레이는 적어도 가시 감광 어레이, UV 감광 어레이, 적외선 감광 어레이, 멀티/하이퍼 스펙트럼 어레이(multi/hyper-spectral array), 및 액티브 일루미네이션 어레이(active illumination array)로부터 선택되는 항공 정찰 시스템.
  3. 제1항에 있어서, 상기 항공기의 상기 항법 데이터는 상기 항공기의 3D 위치에 관한 데이터, 소정의 좌표계에 대한 항공기의 속도 및 가속도 벡터들, 및 상기 소정의 좌표계에 대한 상기 항공기의 방위에 관한 항공기의 방위 데이터를 포함하는 항공 정찰 시스템.
  4. 제1항에 있어서, 상기 관성 항법 시스템은 속도, 가속도, 및 방위 센서들을 포함하며, 상기 센서들 중 적어도 일부는 상기 짐벌들 상에 배치되는 항공 정찰 시스템.
  5. 제1항에 있어서, 상기 센서 어레이 중 적어도 일부는 상기 짐벌들 상에 배치되는 항공 정찰 시스템.
  6. 제1항에 있어서, 2개의 관성 항법 시스템(INS)을 포함하며,
    제1 관성 항법 시스템은 상기 항공기의 주 관성 항법 시스템이고 그의 센서들은 상기 항공기 내에 배치되어 있으며,
    제2 관성 항법 시스템은 상기 정찰 시스템에 전용인 시스템이고, 상기 제2 관성 항법 시스템의 센서들 중 적어도 일부는, 짐벌 유닛 상에 배치되어, 상기 제1 INS로부터 상기 제2 INS로의 전달 정렬(transfer alignment)의 프로세스를 사용함으로써, 상기 항공기의 공기 탄성(aero-elastic) 편향 및 진동으로 인한 상기 짐벌 및 LOS와 상기 항공기의 상기 주 관성 항법 시스템 사이에서 발생하는 오정렬을 보다 양호하게 제거하기 위해, 상기 소정의 축 시스템에 대한 짐벌들의 항법 및 방위데이터를 측정하는 항공 정찰 시스템.
  7. 제1항에 있어서, 상기 디지털 고도 맵은 상기 관심 지역의 그리드(grid)를 포함하는 맵이고,
    상기 그리드에서의 각각의 노드점에서의 x:y:z 좌표값은 상기 맵에 의해 제공되는 항공 정찰 시스템.
  8. 제1항에 있어서, 상기 부분 선택 유닛은 상기 촬영된 지역 부분과 인접한 이전에 촬영한 지역 부분 사이에서 소정의 오버랩(overlap)을 제공하는 그 다음 지역 부분의 중심을 계산하고 결정하는데 사용되는 항공 정찰 시스템.
  9. 제1항에 있어서, 자동 동작 모드에서, 상기 짐벌들은 순차적, 단계별로 관심 지역을 커버하도록 작동되고, 상기 커버는 소정의 시작 부분으로부터 저장된 임무 계획에 따라 행해지고, 그에 따라 상기 관심 지역의 지역 부분들을 차례로 순차적으로 스캐닝하고, 상기 부분들 각각으로부터의 이미지들을 샘플링하는 항공 정찰 시스템.
  10. 제1항에 있어서, 상기 시스템의 수동 모드에서, 상기 항공기의 조종사는 비행 동안 관심 지역을 정의하고, 상기 관심 지역은 적어도 하나의 지역 부분으로 자동적으로 분할되며, 모든 지역 부분들은 그에 대응하여 온-짐벌 어레이(on-gimbalsarray)를 그 부분들로 지향시킴으로써 자동적으로 차례로 스캔되어 상기 스캔된 부분들 각각의 이미지들을 포착하는 항공 정찰 시스템.
  11. 제1항에 있어서, 상기 짐벌들은 2개의 짐벌 메카니즘, 외부 짐벌 메카니즘 및 내부 짐벌 메카니즘을 포함하는 항공 정찰 시스템.
  12. 제1항에 있어서, 상기 외부 짐벌 메카니즘은 온-짐벌 어레이를 선택된 지역 부분의 중심으로 대략적으로 지향시키는데 사용되는 항공 정찰 시스템.
  13. 제11항에 있어서, 상기 외부 짐벌 메카니즘은 2개의 자유도, 고도(elevation) 및 롤(roll)을 갖는 항공 정찰 시스템.
  14. 제10항에 있어서, 상기 내부 짐벌 메카니즘은 온-짐벌 어레이를 선택된 지역 부분의 중심으로 미세하게 지향시키는데 사용되며, 특히 상기 통합 기간 동안 상기 항공기의 움직임 및 방위 변동에 대해 짐벌 방향을 보상하는데 사용되는 항공 정찰 시스템.
  15. 제11항에 있어서, 상기 내부 짐벌 메카니즘은 2개의 자유도, 편요(yaw) 및 피치(pitch)를 갖는 항공 정찰 시스템.
  16. 제10항에 있어서, 상기 외부 짐벌 메카니즘은 상기 내부 짐벌 메카니즘에 종속되어 있는 항공 정찰 시스템.
  17. 제1항에 있어서, 상기 통합 기간 동안, 상기 어레이 센서들 각각은 상기 지역 부분의 대응하는 섹션으로부터의 광을 동시에 감지하고,
    상기 통합 기간의 끝에, 모든 어레이 센서들로부터의 데이터가 동시에 판독되고 상기 지역 부분의 이미지로서 저장되는 항공 정찰 시스템.
  18. 제1항에 있어서, 상기 광 센서 어레이는 가시광선, IR, UV, 멀티/하이퍼 스펙트럼, 및/또는 액티브 일루미네이션의 범위에 있는 광을 감지하는 항공 정찰 시스템.
  19. 제1항에 있어서, 상기 어레이들은 초점면 어레이들(focal plane arrays)인 항공 정찰 시스템.
  20. 제1항에 있어서, 상기 소정의 축 시스템은 글로벌 축 시스템(global axes system)인 항공 정찰 시스템.
  21. 제1항에 있어서, 상기 항공기에 부착된 포드(pod) 내에 조립되어 있는 항공 정찰 시스템.
  22. 제1항에 있어서, 깨끗하고 장애없는 가시선(Line of Sight)을 획득하기 위해 돌출되어 있는 윈도우들만을 갖는 항공기 내부에 설치된 페이로드(payload) 내에 조립되어 있는 항공 정찰 시스템.
  23. 제21항에 있어서, 상기 짐벌들은 상기 포드의 전방에서 투명한 윈도우의 후방에 위치하는 항공 정찰 시스템.
  24. 제1항에 있어서, 상기 짐벌들 상에 배치되어 그에 대해 회전가능한 거울이나 프리즘을 포함하는 백스캔 메카니즘(back-scanning mechanism)을 더 포함하고,
    상기 지역 부분으로부터 나오는 광은 먼저 상기 거울을 통과하고 이 거울은 상기 광을 상기 어레이 쪽으로 편향시키며,
    a. 상기 서보 제어 유닛은 상기 짐벌들에 중단없이 연속적인 로우 및/또는 컬럼 스캐닝 움직임을 적용하고,
    b. 지역 부분쪽으로의 상기 지향이 확립되고 있는 동안, 상기 통합 기간 동안 상기 백스캔 거울에 대해 상기 로우 및/또는 컬럼 스캐닝 연속 움직임에 대한 반대 방향 움직임을 적용함으로써, 그 연속적인 움직임을 보상하고 상기 촬영된 지역 부분에 대한 상기 어레이의 고정된 방위 관계를 보장하는 항공 정찰 시스템.
  25. 항공 정찰을 수행하는 방법으로서,
    a. 적어도 하나의 감광 픽셀 어레이를 제공하는 단계,
    b. 상기 적어도 하나의 어레이를 적어도 2개의 자유도를 갖는 짐벌들 상에 탑재하여 상기 짐벌들이 상기 어레이를 선택된 가시선(Line of Sight)으로 지향시키도록 하는 단계,
    c. 관심 지역의 디지털 고도 맵을 제공하여 상기 지역으로부터의 정찰 이미지들이 획득되는 단계,
    d. 비행 중 언제라도 소정의 좌표계와 관련된 상기 어레이의 중심의 갱신된 xa:ya:za좌표를 획득하는 관성 항법 시스템을 제공하는 단계,
    e. 상기 관심 지역 내의 특정의 지역 부분의 중심의 xp:yp위치 좌표, 및 상기 디지털 고도 맵으로부터 얻어진 바와 같은 상기 부분 중심에서의 zp고도 좌표, 및 동일한 특정 시점에서 상기 어레이 중심의 상기 xa:ya:za좌표가 주어지면, 상기 어레이의 중심과 상기 xp:yp:zp좌표 사이를 연결하는 가시선 방향을 확립하기 위한 정확한 각도들을 결정하기 위한 계산 유닛을 제공하는 단계,
    f. 단계 e의 계산이 주어지면, 그에 따라 상기 어레이의 가시선의 중심을 상기 지역 부분의 중심으로 지향시키는 단계,
    g. 통합 기간 동안, 상기 광 센서 어레이 중 임의의 것에 의해 개별적으로 광의 누적을 실시하는 단계,
    h. 상기 통합 기간 동안, 갱신된 어레이의 xa:ya:za좌표를 가지고 고속으로단계 e의 계산을 반복하고, 각각의 상기 계산 이후에, 단계 f에서와 같이 방향을 반복적으로 보정하는 단계,
    i. 통합 기간의 끝에, 모든 어레이 센서들을 샘플링하고 상기 어레이 부분의 이미지들로서 저장 장치 내에 저장하는 단계,
    j. 상기 관심 영역 내에서 새로운 부분 좌표 xp:yp:zp를 선택하고, 이들 새로운 좌표에 대해 단계 e 내지 단계 j를 반복하는 단계, 및
    k. 모든 관심 지역의 커버가 완료된 경우, 그 프로세스를 종료하거나 새로운 관심 지역의 커버를 시작하는 단계
    를 포함하는 방법.
  26. 제25항에 있어서, 새로운 지역 부분의 xp:yp좌표의 선택은 지상에서 상기 새로운 지역 부분의 3차원 풋프린트(footprint)를 계산한 다음에 이를 이전의 지역 부분의 풋프린트 상에 투영함으로써 소정의 범위 내의 인접한 지역 부분들 사이에서 오버랩을 보장하도록 수행되는 방법.
  27. 제26항에 있어서, 상기 오버랩 보장은 시행착오 선택, 오버랩 계산, 및 필요한 경우 보정에 의해, 또는 정확한 분석적 계산에 의해 달성되는 방법.
  28. 제25항에 있어서, 상기 관성 항법 시스템의 센서들 중 적어도 일부는 상기선택적인 지역 부분에 대하여 상기 어레이의 방위의 측정을 개선하기 위해 상기 짐벌들 상에 배치되는 방법.
  29. 제25항에 있어서, 상기 감광 센서들 중 적어도 일부는 상기 선택적인 지역 부분에 대하여 상기 가시선(Line of Sight)의 방위의 측정을 개선하기 위해 상기 짐벌들 상에 배치되는 방법.
  30. 제25항에 있어서, 상기 관성 항법 시스템은 정찰 시스템의 전용 관성 항법 시스템 및 항공기의 주 관성 항법 시스템을 포함하여, 항공기의 관성 항법 시스템으로부터 전용 정찰 시스템의 관성 항법 시스템으로의 전달 정렬 프로세스를 사용함으로써, 상기 선택적인 지역 부분에 대한 상기 어레이의 방위의 측정을 개선하는 방법.
  31. 항공 촬영 동안 움직임 보상을 제공하는 방법으로서,
    a. 적어도 하나의 감광 픽셀 어레이를 제공하는 단계,
    b. 상기 적어도 하나의 어레이를 적어도 2개의 자유도를 갖는 짐벌들 상에 탑재하여 상기 짐벌들이 그의 가시선(Line of Sight)을 선택적인 지역 부분쪽으로 지향시킬 수 있도록 하는 단계,
    c. 관심 지역의 디지털 고도 맵을 제공하여, 상기 지역으로부터의 정찰 이미지들이 획득되는 단계,
    d. 비행 중 언제라도 소정의 좌표계에 대한 상기 어레이의 중심의 갱신된 xa:ya:za좌표를 획득하는 관성 항법 시스템을 제공하는 단계,
    e. 상기 관심 지역 내의 특정의 지역 부분의 중심의 xp:yp위치 좌표, 및 상기 디지털 고도 맵으로부터 획득된 것과 같은 상기 부분 중심에서의 zp고도 좌표, 및 동일한 특정 시점에서 상기 어레이 중심의 상기 xa:ya:za좌표가 주어지면, 상기 어레이의 중심과 상기 xp:yp:zp좌표 사이를 연결하는 가시선 방향을 확립하기 위한 정확한 각도들을 결정하기 위한 계산 유닛을 제공하는 단계,
    f. 통합 기간 동안, 상기 어레이의 가시선의 중심이 지역 부분의 중심으로 지향될 때, 상기 광 센서 어레이 중 임의의 것에 의해 개별적으로 광의 누적을 실시하는 단계,
    g. 상기 통합 기간 동안, 갱신된 어레이의 xa:ya:za좌표를 가지고 고속으로 단계 e의 계산을 반복하고, 각각의 상기 계산 이후에, 상기 어레이의 중심을 상기 선택된 지역 부분의 중심을 향하도록 유지함으로써 상기 방향을 반복적으로 보정하고 따라서 항공기 움직임을 보상하는 단계, 및
    h. 상기 통합 기간의 끝에, 모든 어레이 센서들을 샘플링하여 상기 어레이 부분의 이미지들로서 저장 장치 내에 저장하는 단계를 포함하는 방법.
  32. 항공 타겟팅(airborne targeting)을 수행하는 방법으로서,
    a. 적어도 하나의 무기를 제공하는 단계,
    b. 상기 적어도 하나의 무기를 적어도 2개의 자유도를 갖는 짐벌들 상에 탑재하여 상기 짐벌들이 상기 무기를 선택된 가시선(Line of Sight)쪽으로 지향시킬 수 있도록 하는 단계,
    c. 관심 지역의 디지털 고도 맵을 제공하여, 상기 지역 내의 선택된 물체들이 타겟팅되는 단계,
    d. 비행 중 언제라도 소정의 좌표계에 대하여 상기 무기의 중심의 갱신된 xa:ya:za좌표를 획득하는 관성 항법 시스템을 제공하는 단계,
    e. 상기 관심 지역 내의 특정 표적의 중심의 xp:yp위치 좌표, 및 상기 디지털 고도 맵으로부터 획득된 것과 같은 상기 표적 중심에서의 zp고도 좌표, 및 동일한 특정 시점에서 상기 무기 중심의 상기 xa:ya:za좌표가 주어지면, 상기 무기의 중심과 상기 xp:yp:zp좌표 사이를 연결하는 가시선 방향을 확립하기 위한 정확한 각도들을 결정하기 위한 계산 유닛을 제공하는 단계,
    f. 단계 e의 계산이 주어지면, 그에 따라 상기 무기 가시선의 중심을 상기 표적의 중심으로 지향시키는 단계, 및
    h. 효과적인 타겟팅 및 발포 기간 동안, 항공기의 움직임에 대한 움직임 보상을 행하는 단계를 포함하는 방법.
  33. 제32항에 있어서, 단계 h의 움직임 보상은 갱신된 표적의 xa:ya:za좌표를 가지고 고속으로 단계 e의 계산을 반복하고, 각각의 상기 계산 이후에, 단계 f에서와 같이 방향을 반복적으로 보정함으로써 수행되는 방법.
KR1020047019366A 2002-05-30 2003-05-22 항공 정찰 시스템 KR100965678B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL149934A IL149934A (en) 2002-05-30 2002-05-30 Airborne intelligence photography system
IL149934 2002-05-30
PCT/IL2003/000422 WO2003102505A1 (en) 2002-05-30 2003-05-22 Airborne reconnaissance system

Publications (2)

Publication Number Publication Date
KR20050009725A true KR20050009725A (ko) 2005-01-25
KR100965678B1 KR100965678B1 (ko) 2010-06-24

Family

ID=29596295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020047019366A KR100965678B1 (ko) 2002-05-30 2003-05-22 항공 정찰 시스템

Country Status (14)

Country Link
US (1) US7136726B2 (ko)
EP (2) EP1783455B1 (ko)
JP (1) JP4302625B2 (ko)
KR (1) KR100965678B1 (ko)
AT (1) ATE360190T1 (ko)
AU (2) AU2003231341B2 (ko)
BR (1) BR0311522A (ko)
DE (2) DE03725555T1 (ko)
DK (1) DK1508020T3 (ko)
ES (1) ES2286431T3 (ko)
IL (1) IL149934A (ko)
PT (1) PT1508020E (ko)
SG (3) SG2013091780A (ko)
WO (1) WO2003102505A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101238748B1 (ko) * 2012-08-30 2013-03-04 국방과학연구소 주사구동 적외선센서장치를 이용한 표적거리 측정시스템
KR20170047230A (ko) * 2014-07-17 2017-05-04 엘비트 시스템스 엘티디. 원격 이미지의 안정화 및 디스플레이
KR20170053587A (ko) * 2015-11-06 2017-05-16 탈레스 광 시야를 갖는 공간 또는 에어본 광학 기기에 의한 이미지들의 획득을 위한 방법

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415335B2 (en) * 2003-11-21 2008-08-19 Harris Corporation Mobile data collection and processing system and methods
US7183967B1 (en) * 2003-12-15 2007-02-27 Rockwell Collins, Inc. System and method for communicating with airborne weapons platforms
IL160265A (en) 2004-02-05 2010-12-30 Rafael Advanced Defense Sys Airborne long- range laser imaging system
US7343051B1 (en) * 2005-03-07 2008-03-11 Hsu Shin-Yi Method of recognizing an object in an image using multi-sensor integration through conditionally optimal geoscene generation and registration
US7899272B1 (en) * 2005-03-07 2011-03-01 Hsu Shin-Yi Method of recognizing an object in an image using multi-sensor integration through conditionally optimal geoscene generation and registration
FR2884312B1 (fr) 2005-04-08 2007-06-22 Thales Sa Systeme de designation et/ou d'illumination de cible et de reconnaissance aerienne
US7266477B2 (en) * 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
IL169482A (en) 2005-06-30 2012-04-30 Rafael Advanced Defense Sys Method for reducing the number of scanning steps in an airborne reconnaissance system and a reconnaissance system operating according to said method
US7597489B2 (en) * 2005-09-12 2009-10-06 Honeywell International Inc. Apparatus and method for providing pointing capability for a fixed camera
ES2369229T3 (es) * 2005-10-07 2011-11-28 Saab Ab Procedimiento y aparato para generar una ruta.
AT503449B1 (de) * 2006-03-10 2007-10-15 Bewag Geoservice Gmbh Verfahren zur erfassung von topographiedaten
US20100245571A1 (en) * 2006-04-24 2010-09-30 Northrop Grumman Corporation Global hawk image mosaic
US8581981B2 (en) * 2006-04-28 2013-11-12 Southwest Research Institute Optical imaging system for unmanned aerial vehicle
US20080100711A1 (en) * 2006-10-26 2008-05-01 Wisted Jeffrey M Integrated Multiple Imaging Device
DE102006053758A1 (de) * 2006-11-13 2008-05-15 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Regelung der Ausrichtung eines Heliostaten auf einen Receiver, Heliostatenvorrichtung und Solarkraftwerk
US10337862B2 (en) * 2006-11-30 2019-07-02 Rafael Advanced Defense Systems Ltd. Digital mapping system based on continuous scanning line of sight
IL180223A0 (en) * 2006-12-20 2007-05-15 Elbit Sys Electro Optics Elop Airborne photogrammetric imaging system and method
FR2912513B1 (fr) * 2007-02-13 2009-04-17 Thales Sa Radar aeroporte notamment pour drone
JP5378660B2 (ja) * 2007-07-19 2013-12-25 日本電気株式会社 ジンバル機構及び赤外線誘導装置並びにジンバル機構の制御方法
AU2007360479B2 (en) * 2007-10-23 2013-05-02 Selex Es S.P.A. System for the precision localization of a target on the ground by a flying platform and associated method of operation
EP2240742A1 (en) * 2008-01-21 2010-10-20 SELEX Galileo S.p.A. Device and method for planning a surveillance mission on areas of interest that can be performed with a reconnoitring system using a reconnaissance aircraft
US9304305B1 (en) * 2008-04-30 2016-04-05 Arete Associates Electrooptical sensor technology with actively controllable optics, for imaging
IL192601A (en) 2008-07-03 2014-07-31 Elta Systems Ltd Discovery / Transmission Device, System and Method
US9310191B1 (en) 2008-07-08 2016-04-12 Bae Systems Information And Electronic Systems Integration Inc. Non-adjustable pointer-tracker gimbal used for directed infrared countermeasures systems
US9441922B2 (en) 2008-07-09 2016-09-13 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for improving gimbal stability
US8675183B1 (en) * 2009-02-27 2014-03-18 Aai Corporation Method and apparatus for target range determination
US20100228406A1 (en) * 2009-03-03 2010-09-09 Honeywell International Inc. UAV Flight Control Method And System
IL198883A (en) * 2009-05-21 2015-03-31 Israel Aerospace Ind Ltd Method and system for stereoscopic scanning
US9490975B1 (en) * 2009-12-22 2016-11-08 The Boeing Company Information assurance for networked systems
JP2011169658A (ja) * 2010-02-17 2011-09-01 Mitsubishi Electric Corp 撮影位置特定装置および撮影位置特定方法
US8655513B2 (en) * 2010-03-12 2014-02-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data
US8477190B2 (en) 2010-07-07 2013-07-02 Pictometry International Corp. Real-time moving platform management system
CN103038628B (zh) * 2010-07-30 2015-07-22 丰田自动车株式会社 移动体用光谱测定装置以及移动体用光谱测定方法
KR101835143B1 (ko) 2011-04-01 2018-03-06 에스케이 주식회사 병렬 처리 기반의 지형모델 생성 방법과 시스템
ITVI20110102A1 (it) * 2011-04-21 2012-10-22 Rta S R L Apparato di rilevamento cartografico
US9482685B1 (en) * 2011-09-13 2016-11-01 BAE Systems Information and Electronic Systems Integreation Inc. On-axis mounting of an inertial measurement unit (IMU) within an optical system
KR101218768B1 (ko) * 2012-05-15 2013-01-09 삼성탈레스 주식회사 조향 거울 제어에 의한 eo/ir 장비의 los 보상 장치 및 방법
KR101218771B1 (ko) * 2012-05-15 2013-01-09 삼성탈레스 주식회사 조향 거울에 의한 상번짐 방지 항공 촬영 시스템
GB2506687B (en) * 2012-10-08 2018-02-07 Bae Systems Plc Hyperspectral imaging of a moving scene
US9071732B2 (en) * 2013-03-15 2015-06-30 Tolo, Inc. Distortion correcting sensors for diagonal collection of oblique imagery
KR101329583B1 (ko) * 2013-07-09 2013-11-14 주식회사 두레텍 회전익 구조체를 이용한 공중관측 지형자료 구축 방법 및 그 시스템
US9464938B2 (en) * 2014-02-06 2016-10-11 The Boeing Company Systems and methods for measuring polarization of light in images
US9052571B1 (en) * 2014-06-20 2015-06-09 nearmap australia pty ltd. Wide-area aerial camera systems
US10303941B2 (en) * 2014-07-30 2019-05-28 The Boeing Company Locating light sources using aircraft
US20170244880A1 (en) * 2014-10-08 2017-08-24 Spookfish Innovations Pty Ltd An aerial camera system
WO2016148619A1 (en) * 2015-03-19 2016-09-22 Vricon Systems Aktiebolag Position determining unit and a method for determining a position of a land or sea based object
CN107735317B (zh) 2015-06-01 2021-01-08 深圳市大疆创新科技有限公司 具有气压传感器的uav和在uav内隔离安置气压传感器的方法
CN105021182B (zh) * 2015-06-03 2018-04-24 北京理工大学 一种重力辅助惯性导航适配区的选择方法
US9928649B2 (en) 2015-08-03 2018-03-27 Amber Garage, Inc. Interface for planning flight path
US9947230B2 (en) 2015-08-03 2018-04-17 Amber Garage, Inc. Planning a flight path by identifying key frames
FR3044101B1 (fr) * 2015-11-20 2020-04-24 Thales Procede d'acquisition d'images d'une scene, a partir d'un capteur a bord d'un porteur en deplacement, avec asservissement de sa ligne de visee
DE102016000873A1 (de) 2016-01-27 2017-07-27 Diehl Defence Gmbh & Co. Kg Verfahren zum Erkennen eines Objekts in einem Suchbild
KR102454917B1 (ko) * 2016-02-05 2022-10-17 한화테크윈 주식회사 무인 비행체 제어 방법
JP6200539B1 (ja) 2016-03-24 2017-09-20 株式会社Subaru 偵察位置算出装置、偵察位置算出方法及び偵察位置算出プログラム
US10864998B2 (en) * 2016-04-14 2020-12-15 National University Corporation Hokkaido University Spectral camera control device and method for controlling spectral camera
FR3051920A1 (fr) * 2016-05-31 2017-12-01 Parrot Drones Drone adapte a la vision d'une scene eloignee
CN107152926B (zh) * 2016-07-18 2018-08-24 哈尔滨工业大学 一种卫星快速旋转超大幅宽摆扫成像方法
WO2018111072A1 (es) * 2016-12-16 2018-06-21 Rodarte Leyva Eduardo Método de captura dinámica de imágenes aéreas para incrementar la resolución
US10392136B2 (en) * 2017-09-18 2019-08-27 Raytheon Company Offload adjustment for satellite image diversity
KR101877214B1 (ko) * 2017-10-31 2018-07-12 엘아이지넥스원 주식회사 비행체 탑재용 탐색 장치
JP6649342B2 (ja) * 2017-11-09 2020-02-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機、及び無人航空機で慣性計測ユニットを分離する方法
US20200283163A1 (en) * 2017-12-14 2020-09-10 Saab Ab Flight vision system and method for presenting images from the surrounding of an airborne vehicle in a flight vision system
JP2021520100A (ja) * 2018-03-30 2021-08-12 ディーアールエス ネットワーク アンド イメージング システムズ、リミテッド ライアビリティー カンパニー 地球観測イメージング中の焦点面アレイのスキャンのための方法およびシステム
CN108985233B (zh) * 2018-07-19 2021-08-03 常州智行科技有限公司 一种基于数字图像相关的高精度车辆跟踪方法
CN109436356A (zh) * 2018-12-14 2019-03-08 广州建通测绘地理信息技术股份有限公司 五相机倾斜摄影测量系统安装装置
FR3097045B1 (fr) * 2019-06-06 2021-05-14 Safran Electronics & Defense Procédé et dispositif de recalage d’une centrale inertielle d’un moyen de transport à partir d’informations délivrées par un viseur du moyen de transport
IL270565A (en) * 2019-11-11 2021-05-31 Israel Aerospace Ind Ltd Image acquisition methods and systems
CN111348208B (zh) * 2020-03-27 2023-04-07 西安应用光学研究所 面向机载广域侦察监视应用的反扫稳定一体化多环架平台
CN111896972B (zh) * 2020-06-16 2022-10-18 中国工程物理研究院应用电子学研究所 一种机载激光雷达同步控制及数码影像外方位元素列表自动创建方法
US11019265B1 (en) * 2020-11-04 2021-05-25 Bae Systems Information And Electronic Systems Integration Inc. Optimized motion compensation via fast steering mirror and roll axis gimbal
CN112363440A (zh) * 2021-01-13 2021-02-12 湖南高至科技有限公司 一体化制导组合体
US11678056B2 (en) 2021-06-21 2023-06-13 Raytheon Company Torsional flexure for deroll controllers
CN113654526B (zh) * 2021-07-30 2023-11-14 北京控制与电子技术研究所 一种低空快速飞行条件下的光电吊舱扫描方法
US20230115712A1 (en) * 2021-10-07 2023-04-13 L3Harris Technologies, Inc. Estimation of Target Location and Sensor Misalignment Angles
WO2023082255A1 (zh) * 2021-11-15 2023-05-19 深圳市大疆创新科技有限公司 无人飞行器的控制方法、无人飞行器及存储介质
WO2023149963A1 (en) 2022-02-01 2023-08-10 Landscan Llc Systems and methods for multispectral landscape mapping
WO2023166502A1 (en) * 2022-03-01 2023-09-07 Rafael Advanced Defense Systems Ltd. Multispectral step-and-stare imaging with single sensor

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2878356A (en) * 1955-11-16 1959-03-17 Dale Products Inc Hole mounted resistor
US4954837A (en) * 1989-07-20 1990-09-04 Harris Corporation Terrain aided passive range estimation
US5166789A (en) * 1989-08-25 1992-11-24 Space Island Products & Services, Inc. Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates
US5155597A (en) * 1990-11-28 1992-10-13 Recon/Optical, Inc. Electro-optical imaging array with motion compensation
US5504686A (en) 1993-11-30 1996-04-02 Honeywell Inc. Mission planning costing surface
US5787333A (en) 1994-08-26 1998-07-28 Honeywell Inc. Aircraft survivability equipment training method and apparatus for low flyers
US5692062A (en) 1994-10-03 1997-11-25 Recon/Optical, Inc. Electro-optical imaging array with profiled foward motion compensation
US6293488B1 (en) 1994-11-15 2001-09-25 Raytheon Company Coordinate transformation system
US5668593A (en) 1995-06-07 1997-09-16 Recon/Optical, Inc. Method and camera system for step frame reconnaissance with motion compensation
US5878356A (en) 1995-06-14 1999-03-02 Agrometrics, Inc. Aircraft based infrared mapping system for earth based resources
EP0750238B1 (en) 1995-06-20 2000-03-01 Honeywell Inc. Integrated ground collision avoidance system
US5672866A (en) * 1996-03-19 1997-09-30 Hughes Electronics System and method for remote image sensing and autocalibration
US5894323A (en) 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
IL139979A (en) 1996-04-01 2004-06-20 Lockheed Corp Laser / FLIR integrated optics system
US5726747A (en) 1996-04-22 1998-03-10 The United States Of America As Represented By The Secretary Of The Navy Computer controlled optical tracking system
US5798786A (en) 1996-05-07 1998-08-25 Recon/Optical, Inc. Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions
DE69739272D1 (de) 1996-11-05 2009-04-02 Bae Systems Information Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation
US6108032A (en) 1996-11-05 2000-08-22 Lockheed Martin Fairchild Systems System and method for image motion compensation of a CCD image sensor
US6597818B2 (en) 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6281970B1 (en) * 1998-03-12 2001-08-28 Synergistix Llc Airborne IR fire surveillance system providing firespot geopositioning
US6181988B1 (en) 1998-04-07 2001-01-30 Raytheon Company Guidance system having a body fixed seeker with an adjustable look angle
US6130705A (en) 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
US6201232B1 (en) 1998-11-24 2001-03-13 Massachusetts Institute Of Technology Imaging system with a two-axis-gimbal mirror scan system apparatus and method
FR2798999B1 (fr) * 1999-09-28 2003-06-27 Sagem Procede et dispositif de localisation d'objectifs par un aeronef
US6222464B1 (en) 1999-12-02 2001-04-24 Sikorsky Aircraft Corporation Self compensating target acquisition system for minimizing areas of threat
AU2001271238A1 (en) 2000-03-16 2001-09-24 The Johns-Hopkins University Light detection and ranging (lidar) mapping system
US6422508B1 (en) * 2000-04-05 2002-07-23 Galileo Group, Inc. System for robotic control of imaging data having a steerable gimbal mounted spectral sensor and methods
US6366734B1 (en) 2000-08-31 2002-04-02 Recon/Optical, Inc. Method of forward motion compensation in an aerial reconnaissance camera
US6894809B2 (en) * 2002-03-01 2005-05-17 Orasee Corp. Multiple angle display produced from remote optical sensing devices
US20030167962A1 (en) * 2002-03-11 2003-09-11 Trn Business Trust Railcar draftsill and method of forming same
US6694228B2 (en) * 2002-05-09 2004-02-17 Sikorsky Aircraft Corporation Control system for remotely operated vehicles for operational payload employment
US7095488B2 (en) * 2003-01-21 2006-08-22 Rosemount Aerospace Inc. System for profiling objects on terrain forward and below an aircraft utilizing a cross-track laser altimeter

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101238748B1 (ko) * 2012-08-30 2013-03-04 국방과학연구소 주사구동 적외선센서장치를 이용한 표적거리 측정시스템
KR20170047230A (ko) * 2014-07-17 2017-05-04 엘비트 시스템스 엘티디. 원격 이미지의 안정화 및 디스플레이
KR20170053587A (ko) * 2015-11-06 2017-05-16 탈레스 광 시야를 갖는 공간 또는 에어본 광학 기기에 의한 이미지들의 획득을 위한 방법

Also Published As

Publication number Publication date
JP4302625B2 (ja) 2009-07-29
EP1783455B1 (en) 2014-12-10
ES2286431T3 (es) 2007-12-01
BR0311522A (pt) 2005-02-22
PT1508020E (pt) 2007-07-20
IL149934A (en) 2007-05-15
IL149934A0 (en) 2004-02-19
SG182034A1 (en) 2012-07-30
EP1508020A1 (en) 2005-02-23
AU2003231341A1 (en) 2003-12-19
EP1783455A3 (en) 2009-05-27
SG143074A1 (en) 2008-06-27
DE60313319D1 (de) 2007-05-31
JP2005528280A (ja) 2005-09-22
DK1508020T3 (da) 2007-08-20
SG2013091780A (en) 2015-05-28
AU2009200781B2 (en) 2011-12-01
US7136726B2 (en) 2006-11-14
US20050177307A1 (en) 2005-08-11
EP1508020B2 (en) 2017-03-08
DE03725555T1 (de) 2006-03-09
EP1783455A2 (en) 2007-05-09
ATE360190T1 (de) 2007-05-15
AU2003231341B2 (en) 2008-12-18
EP1508020B1 (en) 2007-04-18
AU2009200781A1 (en) 2009-03-19
DE60313319T2 (de) 2007-12-20
WO2003102505A1 (en) 2003-12-11
KR100965678B1 (ko) 2010-06-24

Similar Documents

Publication Publication Date Title
KR100965678B1 (ko) 항공 정찰 시스템
US8527115B2 (en) Airborne reconnaissance system
CN108614273B (zh) 一种机载双波段光电广域侦察与跟踪装置及方法
US7417210B2 (en) Multi-spectral sensor system and methods
US9063391B2 (en) Method and system for increasing the size of the area scanned by an airborne electro-optic reconnaissance system in a given time
EP1779060B1 (en) Airborne reconnaissance system
EP2095072A1 (en) Airborne photogrammetric imaging system and method
US20200145568A1 (en) Electro-optical imager field of regard coverage using vehicle motion
EP1899679B1 (en) Method for reducing the number of scanning steps in an airborne reconnaissance system, and a reconnaissance system operating according to said method
PT755407E (pt) Formulações farmacêuticas à base de péptidos para tratamento de alergia aos ácaros do pó
IL180478A (en) Airborne intelligence photography system
Rosiek et al. Exploiting global positioning system and inertial measurement unit-controlled image sensors

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130613

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140616

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150611

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160608

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170612

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180531

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190612

Year of fee payment: 10