KR20230022395A - 미드보디 카메라/센서 네비게이션 및 자동 타겟 인식 - Google Patents

미드보디 카메라/센서 네비게이션 및 자동 타겟 인식 Download PDF

Info

Publication number
KR20230022395A
KR20230022395A KR1020227007535A KR20227007535A KR20230022395A KR 20230022395 A KR20230022395 A KR 20230022395A KR 1020227007535 A KR1020227007535 A KR 1020227007535A KR 20227007535 A KR20227007535 A KR 20227007535A KR 20230022395 A KR20230022395 A KR 20230022395A
Authority
KR
South Korea
Prior art keywords
imager
detector
navigation
targeting
artillery
Prior art date
Application number
KR1020227007535A
Other languages
English (en)
Inventor
미카엘 제이. 초이니에르
Original Assignee
배 시스템즈 인포메이션 앤드 일렉트로닉 시스템즈 인티크레이션, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 배 시스템즈 인포메이션 앤드 일렉트로닉 시스템즈 인티크레이션, 인크. filed Critical 배 시스템즈 인포메이션 앤드 일렉트로닉 시스템즈 인티크레이션, 인크.
Publication of KR20230022395A publication Critical patent/KR20230022395A/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/226Semi-active homing systems, i.e. comprising a receiver and involving auxiliary illuminating means, e.g. using auxiliary guiding missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/008Combinations of different guidance systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/24Beam riding guidance systems
    • F41G7/26Optical guidance systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/346Direction control systems for self-propelled missiles based on predetermined target position data using global navigation satellite systems, e.g. GPS, GALILEO, GLONASS
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/36Direction control systems for self-propelled missiles based on predetermined target position data using inertial references

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

화포를 타겟으로 유도하기 위한 유도 어셈블리 및 방법. 어셈블리는 네비게이션 모드 및 타게팅 모드에서 작동될 수 있고, 매핑을 위한 이미지 데이터 및 종단 탐지기 성능(terminal seeker performance)을 제공하는 대물 렌즈 어셈블리 및 이미징 센서 어레이를 포함하는 영상기/탐지기를 가진다. 영상기/탐지기는 화포에 피벗하도록 장착된다. 액츄에이터가 영상기/탐지기에 커플링되고, 영상기/탐지기를 화포의 세로축에 대해 네비게이션 포지션으로부터 타게팅 포지션으로 피벗시키도록 작동될 수 있다. 비행 제어 유닛이 영상기/탐지기 및 액츄에이터와 통신하고, 이미지 데이터를 분석하고, 화포를 네비게이션 동작 모드에서 유도하기 위한 네비게이션 비행 제어 신호를 제공하며, 자동 타겟 인식 알고리즘 또는 조준 알고리즘(aimpoint algorithm)을 통하여 화포를 타게팅 동작 모드에서 타겟으로 지향시키기 위한 타겟 방향을 결정하는 프로세서를 가진다.

Description

미드보디 카메라/센서 네비게이션 및 자동 타겟 인식
본 발명은 네비게이션 및 자동 타겟 인식을 위한 어셈블리 및 방법에 관한 것이고, 특히 미드-보디(mid-body) 카메라/센서 네비게이션 및 자동 타겟 인식 기능을 가지는 화포에 대한 유도 어셈블리에 관한 것이다.
화포, 미사일, 로켓 또는 다른 발사체를 타겟으로 유도하기 위하여 유도 시스템을 사용하는 것이 알려져 있다. 화포를 타겟으로 유도할 때에, 발사로부터 충돌까지의 화포의 비행을 네비게이션 단계 및 타게팅 단계로 나누는 것이 공통적이다. 이러한 비행 단계 각각 도중에 화포를 유도하고 제어하는 것은 상이한 데이터, 정보 및/또는 파라미터에 기반한다. 네비게이션 비행 단계는 화포의 발사에 후속하고, 화포가 개략적으로 비행기와 유사하게 비행되는 기간에 대응한다. 네비게이션 비행 단계 도중에는, 지구에 상대적인 화포의 자세 또는 배향, 즉 상향, 하향, 좌측 및 우측에 대해서 알 필요가 있다. 화포의 자세를 결정하기 위하여, 화포는 대물 렌즈 어셈블리를 포함하는 제 1 "카메라" 및 그 시계(FOV)가 화포의 세로축에 대해 측방향으로, 즉 화포에 수직으로 개괄적으로 지향되게끔 화포에 고정되는 센서 어레이를 통상적으로 포함한다. 제 1 카메라의 센서 어레이는 네비게이션을 위하여 특유한 센서 판독치를 획득한다. 제 1 카메라의 이러한 센서 판독치 및 다른 센서 및/또는 컴포넌트의 데이터로부터, 유도 시스템은 하나의 세트의 알고리즘들을 사용하여 화포의 자세를 결정한 후, 화포가 타겟에 접근할 때까지(화포가 타겟이 인식될 수 있는 타겟 내에 들어올 때까지를 의미함) 화포의 비행을 제어한다. 비행의 이러한 시점에, 화포는 네비게이션 단계로부터 화포가 종단(termination)을 향해 유도되는 비행의 타게팅 단계로 천이한다. 화포가 타겟에 대해 가까이 있기 때문에, 타게팅 비행 단계에서는 화포의 궤적이 타겟과 적어도 실질적으로 정렬되고, 즉 타겟은 일반적으로 화포의 앞에 정렬되게 되고, 따라서 타겟은 제 1 카메라에 의해서 "목격(seen)"될 수 없다. 다르게 말하면, 타겟은 타게팅 비행 단계 도중에는 제 1 카메라의 FOV 안에 있지 않다. 이를 고려하여, 대물 렌즈 어셈블리 및 센서 어레이를 포함하는 제 2 "카메라(camera)"가 타겟 및 타겟의 위치에 관련된 판독치 및 정보를 수집하기 시작한다. 제 2 카메라는 자동 타겟 인식(Automatic Target Recognition; ATR) 시스템의 일부를 형성할 수 있고, 타겟 판독치 및 정보를 향상시키기 위하여 제 2 카메라는 화포의 비행 방향에 대해 개략적으로 전방 지향 방향으로 정렬된다. 다르게 말하면, 제 2 카메라는 타겟이 "목격(seen)"될 수 있도록, 즉 타겟이 타게팅 비행 단계 도중에 제 2 카메라의 FOV 안에 있도록 전방으로 지향된다. 제 2 카메라에 의해 수집된 판독치 및 정보로부터 그리고 추가적인 센서 및 컴포넌트를 사용하여, 유도 시스템은 타겟의 위치를 인식 및 결정하고, 종단으로 향하는 화포의 비행을 이에 기반하여 유도한다.
여러 대물 렌즈 어셈블리 및 센서 어레이에 대한 필요성을 줄이기 위하여, 일부 유도 시스템은 센서 어레이 및 대물 렌즈 어셈블리를 화포의 날개 상에 화포 보디로부터 일정 거리에 장착시키는 것으로 알려져 있다. 이러한 경우에는 센서 어레이 및 대물 렌즈 어셈블리는 이들이 날개 위에 있기 때문에 유도 시스템에게 전방을 바라보는 큰 FOV를 제공한다. 센서 어레이 및 대물 렌즈 어셈블리를 화포의 날개에 장착하면 이러한 날개를 제작하는 것과 관련된 비용이 증가되고, 날개가 대응하는 날개 슬롯 시일(wing slot seal)을 통해서 접힐 때에 화포 내의 공간이 증가된다.
두 개의 센서 어레이 및 대물 렌즈 어셈블리를 사용하면 유도 시스템에 조합된 큰 FOV가 제공되고, 화포를 발사 시부터 종단 시까지 유도할 수 있게 된다. 그러나, 센서 어레이 및 대물 렌즈 어셈블리가 이중이기 때문에, 이러한 유도 시스템은 화포에 구현하기가 비쌀 수 있고, 화포와 같이 이용가능한 설치 공간이 적은 경우에는 설치하기가 어려울 수 있다.
따라서, 본 발명의 목적은 네비게이션 비행 단계용으로 하나의 센서 어레이 및 대물 렌즈 어셈블리를 가지고 타게팅 비행 단계 도중에 ATR 및 유도를 위하여 다른 센서 어레이 및 대물 렌즈 어셈블리를 가지는 종래의 유도 시스템과 연관된 전술된 결점 및 단점을 극복하는 것이다.
본 발명의 일 양태는 전자기 방사선(UV, 가시광, NIR, SWIR, MWIR 또는 LWIR)을 검출하고, 카메라/센서, 즉 센서 어레이가 네비게이션 기능을 수행하기 위하여 거의 수직인 FOV를 가지도록 화포의 보디에 장착될 수 있는 센서 어레이를 가지는 카메라/센서(영상기/탐지기)를 포함하는 유도 어셈블리이다. 즉, 다시 말하자면 센서 어레이의 FOV가 화포의 세로축에 적어도 실질적으로 옆으로, 측방향으로 또는 수직으로 지향된다. 종단 탐지기 기능을 제공하기 위하여, 유도 어셈블리는 비행 방향에 대해 전방을 바라보는 포지션, 즉 전방 FOW를 가지는 포지션으로 센서 어레이를 피벗시킬 수 있는 액츄에이터를 가진다. 유도 어셈블리는 윈도우 및 윈도우 시일 및 화포의 비행을 제어하는 기능을 하는 처리 전자부품을 더 포함할 수 있다.
개시된 시스템의 일 실시형태에서, 유도 어셈블리는 화포 내에서 윈도우 뒤에 지지되고, 이것은 화포의 표면에 장착되며, 윈도우 시일을 통하여 그 안에 실링되어 날씨 및/또는 다른 환경 상태로부터의 보호를 제공한다. 시스템의 다른 실시형태에서, 윈도우는 대물 렌즈의 외부 렌즈면이다.
화포의 비행 프로파일이 고각이기 때문에(lofted), 타겟은 언제나 화포의 중앙선 아래에 있고, 따라서 유도 시스템은 전체 360 도의 FOV를 가질 필요가 없다. 이것을 유념하면, 본 발명에 따른 유도 시스템은 약 40 내지 50 도의 FOV를 가지고, 이것은 통상적인 유도 시스템의 광학기를 최대 75%까지 줄인다. 또한, 본 발명에 따른 유도 시스템의 광학기는 피벗할 수 있고, 이를 통하여 약 80 내지 100 도의 FOV를 가지는 유도 시스템을 제공하기 때문에, 유도 시스템이 화포의 비행을 발사시부터 종단시까지, 즉 네비게이션 및 타게팅 비행 단계 양자 모두 도중에 제어할 수 있게 된다.
본 발명의 추가적인 양태는 네비게이션 모드 및 타게팅 모드에서 작동될 수 있고, 매핑을 위한 이미지 데이터 및 종단 탐지기 성능(terminal seeker performance)을 제공할 수 있는 대물 렌즈 어셈블리 및 이미징 센서 어레이를 포함하는 영상기/탐지기를 가지는 유도 어셈블리를 제공하는 것이다. 영상기/탐지기는 화포에 피벗하도록 장착된다. 액츄에이터가 영상기/탐지기에 커플링되고, 영상기/탐지기를 화포의 세로축에 대해 네비게이션 포지션으로부터 타게팅 포지션으로 피벗시키도록 작동될 수 있다. 비행 제어 유닛이 영상기/탐지기 및 액츄에이터와 통신하고, 이미지 데이터를 분석하고, 화포를 네비게이션 동작 모드에서 유도하기 위한 네비게이션 비행 제어 신호를 제공하며, 자동 타겟 인식 알고리즘 또는 조준 알고리즘(aimpoint algorithm)을 통하여 화포를 타게팅 동작 모드에서 타겟으로 지향시키기 위한 타겟 방향을 결정하는 프로세서를 가진다.
본 발명의 다른 양태는, 네비게이션 모드 및 타게팅 모드에서 동작하는 유도 어셈블리로써 화포를 유도하는 방법을 제공하는 것이다. 이러한 방법은 유도 어셈블리의 동작 모드에 의존하여 피벗가능한 단일 영상기/탐지기를 가지는 유도 어셈블리를 화포에 제공하는 단계를 포함한다. 영상기/탐지기는 네비게이션 포지션에서 상기 화포 내에 설치된다. 유도 어셈블리는 비행 제어 유닛을 가지고 화포의 자세를 결정하기 위해서 네비게이션 모드에서 작동된다. 그러면, 비행 제어 유닛이 화포의 궤적을 제어한다. 이제, 유도 어셈블리는 네비게이션 동작 모드에서 동작하는 것으로부터 타게팅 동작 모드에서 동작하는 것으로 전환한다. 영상기/탐지기는 타겟과 관련된 빛 에너지를 캡쳐하고 검출한다. 특정 타겟 정보가 비행 제어 유닛을 사용하여 결정되고, 이제 이것이 타겟과 충돌하도록 화포를 유도한다.
본 발명의 이러한 양태는 배타적인 의미를 가지지 않고, 본 발명의 다른 특징, 양태, 및 장점은 후속하는 상세한 설명, 첨부된 청구항, 및 첨부 도면과 함께 정독하면 당업자에게 쉽게 명백해질 것이다.
본 발명의 전술된 것 그리고 그 외의 목적, 피쳐, 및 장점은 유사한 참조 기호가 상이한 도면 전체에 걸쳐서 동일한 부분을 가리키는 첨부 도면에 예시된 바와 같은, 본 발명의 특정 실시형태의 후속하는 설명으로부터 명백해질 것이다. 도면들은 반드시 척도에 맞는 것은 아니고, 그 대신에 본 발명의 원리를 예시하기 위하여 강조된다.
도 1은 본 발명에 따른 미드-보디 유도 어셈블리를 가지는 화포의 개략도이다;
도 2는 윈도우 패널이 닫힌 포지션에서 도시된, 본 발명에 따른 유도 어셈블리의 개략도이다;
도 3은 윈도우 패널이 열린 포지션에서 도시된 유도 어셈블리의 개략도이다;
도 4a는 영상기/탐지기가 네비게이션 포지션에 있는 유도 어셈블리의 제 1 실시형태를 도시하는 미드-보디의 개략 단면도이다;
도 4b는 영상기/탐지기가 다른 네비게이션 포지션에 있는, 도 4a에 따른 유도 어셈블리의 개략 단면도이다;
도 5는 영상기/탐지기가 타게팅 포지션에 있는 유도 어셈블리의 제 1 실시형태를 도시하는 미드-보디의 개략 단면도이다;
도 5a는 슬라이딩 윈도우가 있는 유도 어셈블리의 제 1 실시형태를 도시하는 미드-보디의 개략 단면도이다;
도 5b는 제거식(blow away) 윈도우가 있는 유도 어셈블리의 제 1 실시형태를 도시하는 미드-보디의 개략 단면도이다;
도 6은 영상기/탐지기가 네비게이션 포지션에 있는 유도 어셈블리의 다른 실시형태를 도시하는 미드-보디의 개략 단면도이다;
도 7은 영상기/탐지기가 타게팅 포지션에 있는 유도 어셈블리의 다른 실시형태를 도시하는 미드-보디의 개략 단면도이다; 그리고
도 8은 네비게이션 모드 및 타게팅 모드에서 동작하는 유도 어셈블리로써 화포를 유도하는 방법을 보여주는 흐름도이다.
도 1은 화포, 미사일, 발사체, 글라이더 또는 로켓, 예를 들어 APK(Advanced Precision Kill) 라운드(round)를 예시하는데, 이것은 지금부터 간단히 화포(2) 라고 불린다. 화포(2)는 일반적으로 화포(2)의 순비행 방향(F)에 대응하는 세로축(4)을 규정하는 실질적으로 원통형 보디(30)를 가진다. 화포(2)는, 자신의 비행 방향(F)에 대하여, 전단부(6), 미드-보디(8) 및 후단부(10)를 포함한다. 화포(2)의 전단부(6)는 오자이브(ogive)의 형태이고, 퓨즈(12) 및 탄두(14)를 포함할 수 있는 반면에, 화포(2)의 후단부(10)는 로켓 모터(16)를 포함하고 비행 중에 화포(2)를 안정화시키는 역할을 하는 핀(18)을 가진다.
화포(2)의 미드-보디(8)는 화포(2)를 선택된 타겟으로 유도하기 위해서, 일 그 궤적을 조절 또는 정정함으로써 화포(2)의 비행을 제어하는 기능을 하는 유도 어셈블리(22)를 수용하거나 지지하는 축방향으로 연장되는 원통형 외부 쉘(20)을 가진다. 비록 본 발명에 따른 유도 어셈블리(22)가 화포(2)의 미드-보디(8) 안에서 지지되는 것으로 예시되고 설명되지만, 유도 어셈블리(22)의 컴포넌트 중 적어도 일부가 화포(2)의 전단부 또는 후단부(6, 10) 중 하나 안에 배치될 수 있다는 것이 인식된다. 유도 어셈블리(22)는 미드-보디(8)의 둘레 주위에 장착되는 복수 개의 날개(24)를 포함할 수 있다. 화포(2)의 발사 또는 발포 이전에, 날개(24)는 손상 및/또는 환경적 상태로부터 보호하기 위해서 통상적으로 격납된(stowed) 포지션에 배치된다. 예를 들어, 격납된 포지션에서는 날개(24)가 미드-보디(8) 주위를 감싸거나 미드-보디(8) 내의 슬롯(25)으로 피벗될 수 있다(도 2를 참조한다). 화포(2)의 발사 또는 발포에 후속하여, 날개(24)가 날개(24)가 미드-보디(8)로부터 화포(2)를 따른 공기흐름 안으로 연장되는 비행중 포지션으로 피벗된다. 날개(24)는 공기 제어면, 예를 들어 비행 중에 공기흐름과 소통하고 비행 중의 화포(2)의 궤적을 제어, 변경 또는 정정하기 위해서 조절될 수 있는 선미익을 가질 수 있다.
유도 어셈블리(22)는, 예를 들어 반-액티브 레이저(SAL; Semi-Active Laser) 탐지기, 장파 적외선(Long Wave Infrared; LWIR), 단파 적외선(Short Wave Infrared; SWIR) 영상기, 또는 무선 주파수(RF) 호밍(homing) 탐지기를 포함하는 영상기/탐지기(26)를 더 포함한다. 영상기/탐지기(26)는 대물 렌즈 어셈블리(28) 및 센서 어레이(30)를 일반적으로 포함한다. 대물 렌즈 어셈블리(28)는 영상기/탐지기(26)의 머리쪽 단부(29)에 위치되고, 빛 에너지, 예를 들어 전자기 방사선, 레이저 빛 에너지 또는 IR 빛 에너지를 캡쳐하고 센서 어레이(30) 상에 포커싱하도록 구성되며, 센서 어레이는 빛 에너지를 검출하고 대응하는 센서 신호 또는 이미지 데이터를 매핑 및 종단 탐지기 성능을 위하여 비행 제어 유닛(32)으로 송신한다. 비행 제어 유닛(32)은, 전력원에 연결되고 센서 신호 또는 이미지 데이터를 분석하며 화포(2)의 비행을 제어하는 데에 사용되는 제어 신호를 구축하는 기능을 한다. 본 명세서에서 사용될 때 매핑 및 종단 탐지기 성능이란 유도 어셈블리(22)에 의해 사용될 영상기/탐지기(26)의 네비게이션 및 타게팅 비행 단계 양자 모두에서의 능력을 가리킨다. 유도 어셈블리(22)를 매핑, 네비게이션, 모션, 힘, 범위 및/또는 거리 판독치/데이터를 수집 및/또는 측정하고, 판독치/데이터를 분석을 위하여 그리고, 예를 들어 화포(2)의 자세를 결정하고 화포(2)의 비행을 날개/공기 제어면(24)으로써 제어하는 데에서 고려하기 위하여 비행 제어 유닛(32)으로 통신하거나 송신할 수 있는, GPS(Global Positioning System), 관성 측정 유닛(Inertial Measuring Unit; IMU), 레이저 거리 측정기(Laser Range Finder; LRF)와 같은 하나 이상의 추가적 센서 및/또는 측정 컴포넌트(33)를 포함할 수 있다. 판독치/데이터로부터, 비행 제어 유닛(32)은 "이미지"를 수집하고, 수집된 이미지를 화포(2)의 고도에 기반하여 스케일링하고 이미지를 디워핑한다(de-warp)(이미지의 워핑(warping)은 화포의 자세에 의해서 초래됨). 후속하여, 화포(2)의 지상 위치를 결정하기 위하여 비행 제어 유닛(32)은 수집된 이미지를 이미지의 원격 또는 로컬 데이터 베이스와 비교한다.
본 발명에 따른 유도 어셈블리(22)는 오직 하나의 대물 렌즈 어셈블리(28) 및 센서 어레이(30)를 포함하고, 이것은 유도 어셈블리(22)가 상이한 모드들 중 어느 것에서 동작하고 있는지에 의존하여 상이한 위치에서 미드-보디(8) 내에 지지될 수 있는 단일 영상기/탐지기(26)를 형성한다. 더욱 상세히 후술되는 바와 같이, 네비게이션 비행 단계 도중에, 유도 어셈블리(22)는 화포(2)가 비행기와 같이 비행되는 네비게이션 모드에서 동작한다. 네비게이션 동작 모드에서는, 영상기/탐지기(26)가 옆을 바라보는 포지션으로 고정된다. 이러한 포지션에서, 영상기/탐지기(26)는, 매핑 기능, "매핑 성능"을 수행하기 위하여, 즉 화포를 추적 및 유도하고 발사로부터 비행기의 타게팅 단계로의 전환까지 지구에 대한 화포의 자세 또는 배향을 결정하기 위하여 유도 어셈블리(22)에 의해 사용되는 데이터를 수집하고 제공한다. 타게팅 비행 단계 도중에, 유도 어셈블리(22)는 타겟의 특정 사항들이 결정되고 화포(2)가 종단을 향하여 유도되는 타게팅 모드에서 동작한다. 유도 어셈블리(22)가 타게팅 모드에서 작동하고 있는 경우, 영상기/탐지기(26)는 세로축을 향해 지향되어 전술된 바와 같은 전방 지향 포지션이 된다. 이러한 포지션에서, 영상기/탐지기(26)는 그 안에 타겟이 위치되는 FOV를 가지고, 데이터를 수집하며 종단 탐지기 성능을 위해서 유도 어셈블리(22)로 제공한다. 종단 탐지기 성능 도중에, 유도 어셈블리(22)는 ATR 또는 조준 알고리즘(aimpoint algorithm)을 사용하는데, 이것은 영상기/탐지기(26) 및 다른 센서 및/또는 측정 컴포넌트(33)로부터의 데이터를 분석하고, "이미지" 내에서 타겟을 검출 또는 구별한 후, 타겟을 분류하고 식별한다. 유도 어셈블리(22)는 이러한 결정에 기반하여 화포를 타겟으로 유도하여 종단되게 한다.
본 발명에 따른 유도 어셈블리(22)의 일 실시형태에서, 영상기/탐지기(26)는 영상기/탐지기(26)가 40 내지 50 도의 FOV로 열리게 하는 시-스폿(see-spot imager) 영상기를 가지는 SAL 탐지기를 포함한다. 영상기/탐지기(26)는 대물 렌즈 어셈블리(28)의 중간으로부터 연장되고 도면에 도시된 바와 같이 FOV의 중심을 규정하는 중심축(34)을 가진다. 영상기/탐지기(26)는 다수의 센서 구성을 포함하고, 영상기/탐지기(26)에 6 km에 달하는 검출 범위 및 0.1%의 정확도의 검출 각도를 제공할 수 있다.
일반적으로, 영상기/탐지기(26)는 비행 제어 유닛(32)과 통신하고, 대물 렌즈 어셈블리(28)에 의해서 캡쳐되고 그 위에 포커싱되는 빛 에너지에 관련된 센서 신호를 송신한다. 하나 이상의 추가적 센서 및/또는 측정 컴포넌트(33), 즉 GPS, IMU, 및 LRF로부터 수신된 이러한 센서 신호 및 판독치/데이터로부터, 비행 제어 유닛(32)은 상하좌우의 방향, 및 ATR 목적을 위한 것과 같은 타겟의 아이덴티티, 위치, 및 이동을 포함하는, 타겟에 관련된 특정한 판독치 및 정보를 결정할 수 있다. 단일 대물 렌즈 어셈블리(28) 및 센서 어레이(30)를 사용하여, 비행 제어 유닛(32)은 하나 이상의 추가적 센서 및/또는 측정 컴포넌트(33)로부터의 센서 신호 및 판독치/데이터를 유도 어셈블리(22)가 네비게이션 모드 대 타게팅 모드 중 어느 것에서 동작하고 있는지에 의존하여 ATR 또는 조준 알고리즘을 사용해서 분석한다.
네비게이션 모드에서 이미지를 사용할 때, 유도 어셈블리(22)는 1 내지 10 Hz에서 지형의 이미지를 캡쳐하고, 이러한 이미지를, 예를 들어 위성의 국가 데이터 베이스와 비교한다. 비교는 캡쳐된 이미지를 지상에 대한 화포의 고도(줌인 또는 줌아웃) 및 자세(피치 및 요)에 기반하여 스케일링함으로써 시작된다. 이미지 기반 네비게이션은 화포의 고도 및 속도에 의존하여 GPS와 유사한 성능을 제공한다.
네비게이션은 파도를 레퍼런스로 사용하여 파도의 방향에 대해 비행 경로를 유지함으로써, 열린 바다에 걸쳐서 달성될 수 있다.
위에서 표시된 바와 같이, 영상기/탐지기(26)는 유도 어셈블리(22)의 네비게이션 및 타게팅 동작 모드 양자 모두에서 기능한다. 화포(2)의 발사에 후속하여, 유도 어셈블리(22)는 네비게이션 모드에서 동작하여 화포(2)를 선택된 타겟의 개략적인 방향으로 유도한다. 이러한 동작 모드에서는, 화포가, 위에서 언급된 바와 같이 지구에 상대적인 화포(2)의 자세를 알아야 하는 비행기와 같은 유도 어셈블리(22)에 의해 비행된다. 그 비행 방향(F)에 따라서 지구에 상대적인 화포의 상하 방향 및 좌우 방향을 결정할 수 있기 위해서, 영상기/탐지기(26)는 도 4a, 도 4b 및 도 6에 도시된 바와 같이 옆을 바라보도록 위치된다. 이하, 네비게이션 포지션이라고 불리는 옆을 바라보는 포지션에서는, 영상기/탐지기(26)의 중심축(34)이 화포의 세로축(4)에 실질적으로 수직이 되고, 영상기/탐지기(26)는 미드-보디(8)의 외부 쉘(20)의 내부(36) 내에 적어도 실질적으로 보유된다. 영상기/탐지기(26)의 머리쪽 단부(29)는 반경방향 바깥으로 바라보고 있고, 빛 에너지에 대해서 투명한 패널 또는 윈도우(40)의 내면(38)과 접경하거나 인접하게 된다. 패널 또는 윈도우(40)는 미드-보디(8) 내의 개구(42)에 맞춤되고 이것을 밀폐시키도록 형성되며, 예를 들어 도 2, 도 4a 및 도 4b에 도시된 바와 같이 닫힌 포지션에서 외부 쉘(20)의 외면(44)과 적어도 실질적으로 같은 높이이다. 네비게이션 포지션에서, 전체 영상기/탐지기(26)는 닫힌 패널 또는 윈도우(40) 뒤에서 화포(2) 내에 위치됨으로써, 영상기/탐지기(26)가 환경적 요소, 예컨대 먼지, 오물, 및 강우로부터, 그리고 예를 들어 핸들링 도중에 사람에 의해서 및/또는 클러스터 발사의 경우에 다른 무기에 의해서 초래되는 잠재적인 손상으로부터 보호되도록, 예를 들어 실링되도록 한다. 이러한 목적을 위하여, 개구(42)의 둘레에는 패널 또는 윈도우(40) 및 외부 쉘(20) 사이에 배치되는 윈도우 시일(41)(도 6 참조)이 제공될 수 있다. 패널 또는 윈도우(40)는 빛 에너지 또는 전자기 방사선이 대물 렌즈 어셈블리(28)를 향하여 자유롭게 통과할 수 있게 하는 재료로 형성될 수 있다.
네비게이션 포지션에서, 영상기/탐지기(26)가, 중심축(34)이 비행 방향(F)에 있어서 세로축(4)에 대하여 둔각으로 다른 쉘(20)의 내부(36) 안에 고정될 수 있다는 것이 이해되어야 한다. 다르게 말하면, 도 4b에 도시된 바와 같이 중심축(34)은 후방 또는 역방향으로, 즉 비행 방향(F)의 반대로 정렬된다. 중심축(34)이 후방을 보는 각도를 가지도록 영상기/탐지기(26)가 위치되면, FOV는 발사 위치를 포함할 수 있다. 이것은, 화포(2)가, 영상기/탐지기(26)에 의해서 캡쳐되고 비행 제어 유닛(32)이 비행 도중에 화포(2)의 자세를 추적하고 화포(2)의 피치, 롤 및 요를 결정할 수 있게 하는 신호, 예를 들어 펄스 비콘을 화포(2)로 송신하는 발사 플랫폼 상에 또는 가까이 위치되는 발포 제어 시스템에 의해서 발사되는 경우에 특히 유리하다. 본 발명에 따른 유도 어셈블리(22)의 일 실시형태에서, 영상기/탐지기(26)는, 비행 제어 유닛(32)이 발사 위치에 상대적인 화포(2)의 자세 및 화포(2)의 기수방위(heading)를 결정할 수 있게 하는 신호를 발포 제어 시스템의 LWIR 송신기로부터 수신할 수 있는 LWIR 영상기를 포함한다. 다른 실시형태에서, 영상기/탐지기(26)는 화포(2)의 자세를 구축할 수 있게 하는 펄스 비콘의 신호를 발사 플랫폼에서 수신할 수 있는 SAL 탐지기 및 화포(2)의 고도 및 상승 방향을 결정하기 위한 추가적 센서 및/또는 측정 컴포넌트(33)인 고도 센서 및 자력계를 포함한다.
비행 도중에, 화포(2)는 네비게이션 비행 단계로부터, 유도 어셈블리(2)가 네비게이션 동작 모드로부터 타게팅 동작 모드로 전환되는 타게팅 비행 단계로 천이된다. 이러한 전환(더 상세히 후술될 것임) 도중에, 영상기/탐지기(26)는 네비게이션 포지션으로부터 일반적으로 전방 지향 포지션, 즉 FOV가 비행 방향(F)에 대하여 세로축을 향하여 지향되는 포지션으로 이동된다. 영상기/탐지기(26)의 전방 지향 포지션은 이하, 그 타게팅 포지션이라고 불리고, 도 5, 도 5a, 도 5b 및 도 7에 도시된다. 타게팅 포지션에서, 타겟은 영상기/탐지기(26)의 FOV 내에 적어도 실질적으로 위치됨으로써, 대물 렌즈 어셈블리(28)에 의해서 캡쳐되고 센서 어레이(30)에 의하여 검출되는 빛 에너지에 기반하여, 유도 어셈블리(22)가 선택된 타겟을 식별하고 화포를 타겟과 충돌하도록 정밀하게 지향시킬 수 있게 된다.
네비게이션 모드에서의 영상기/탐지기(26)의 수직 구조로부터 영상기/탐지기(26)의 전방 지향 포지션으로 천이하는 것도 역시 제어된 천이일 수 있다. 화포(2)가 타겟에 접근할 때, 광각 FOV 센서, 예를 들어 45°의 FOV를 가지는 센서가 최저점에서 10° 내지 55° 벗어나도록 전방으로 편향된다. 그러면, 네비게이션(최저점으로부터 10° 벗어난 픽셀들) 및 픽셀들이 수평선으로부터 35° 경사각만큼 벗어나는 타겟 검색 양자 모두가 가능해진다. 타겟이 식별되고 종단 유도가 유도 어셈블리(22)에 의해 구현되면, 화포(2)는 피치 다운을 시작하고, 액츄에이터(50)가 센서 어레이(30)를 전방 지향 포지션으로, 즉 비행 방향(F)으로 전방을 바라보거나 직접적으로 타겟을 향하도록 회전시키도록 요구한다.
도 4a, 도 4b, 도 5, 도 5a 및 도 5b에 도시되는 유도 어셈블리(22)의 일 실시형태에서, 영상기/탐지기(26)의 머리쪽 단부(29)는 개구(42)의 전단부(47)에 위치되는 힌지, 피벗, 스핀들, 또는 교합(articulation; 46)에 의해서 미드-보디(8)의 외부 쉘(20)에 커플링된다. 액츄에이터(50)는 머리쪽 단부(29)로부터 이격된 거리에서 영상기/탐지기(26)에 연결된다. 액츄에이터(50) 및 교합(46)은, 화포(2)의 네비게이션 비행 단계 도중에 영상기/탐지기(26)를 네비게이션 포지션으로 홀딩하거나 유지할 수 있고, 타게팅 비행 단계를 위하여 영상기/탐지기(36)를 타게팅 포지션으로 이동시키기 위해서 비행 제어 유닛(32)에 의하여 작동될 수 있다. 타게팅 포지션에서, 영상기/탐지기(36)는 외부 쉘(20)의 외부에 적어도 부분적으로 위치된다. 액츄에이터(50)가 전기적으로 작동될 수 있는 MEMS 액츄에이터, 솔레노이드 또는 전자기 액츄에이터 중 하나 이상일 수 있다는 것이 이해되어야 한다. 또한, 액츄에이터(50)는, 예를 들어 영상기/탐지기(26)를 홀딩하고 있는 래치가 릴리스될 때에 스프링 힘에 의하여 영상기/탐지기(26)를 편향시키는 스프링 장착 액츄에이터일 수도 있다. 타게팅 포지션으로 이동하기 위하여, 영상기/탐지기(26)의 꼬리쪽 단부(52)는 액츄에이터(50)에 의하여 비행 방향(F)에 반대인 방향으로, 즉 화포(2)의 후단부를 향하여 편향된다. 영상기/탐지기(26)의 머리쪽 단부(29)가 개구(42)의 전단부(47)의 외부 쉘(20)에 고정되면, 영상기/탐지기(26)는 머리쪽 단부(29)가 개구(42)를 통해서 외부 쉘(20)의 바깥쪽으로 돌출되고 일반적으로 순방향, 즉 비행 방향(F)을 바라보도록 피벗한다. 구체적으로 설명하면, 영상기/탐지기(26)의 타게팅 포지션에서, 그 중심축(34)은 비행 방향(F)에서 세로축(4)에 대하여 예각에 정렬되고, 즉 중심축(34)은 비행 방향(F)의 전방으로 연장되어 전체 FOV가 순방향으로 정렬되게 한다(예를 들어, 도 5, 도 5a, 도 5b를 참조한다). 도시된 바와 같이, 영상기/탐지기(26)는 외부 쉘(20)의 개구(42)를 통해서 연장되어, 영상기/탐지기(26)의 머리쪽 단부(29)가 반경방향으로 미드-보디(8) 밖에 위치되게 한다. 영상기/탐지기(26)의 머리쪽 단부가 개구(42)를 통과할 수 있게 하기 위하여, 패널 또는 윈도우(40)는 개방된 포지션으로 피벗됨으로써, 예를 들어 도 1, 도 3 및 도 5에 도시된 바와 같이 패널 또는 윈도우(40)의 전단부(48)가 외부 쉘(20)의 외면(44)으로부터 떨어져서 이격되게 한다. 일 실시형태에서 패널 또는 윈도우(40)의 후단부(56)는 피벗 또는 교합(49)에 의하여 외부 쉘(20)에 고정된다(도 5를 참조한다). 또 다른 실시형태에서, 패널 또는 윈도우(40)는 외부 쉘(20)의 표면을 따라서 접히거나 슬라이드되는 슬라이딩 윈도우일 수 있다(도 5a를 참조한다). 슬라이딩 윈도우(40)는, 외부 쉘(20)에 놓이도록 윈도우(40)가 접혀서, 이를 통하여 개방된 포지션으로 전개될 때 화포(2)가 가질 수 있는 임의의 가능한 부정적인 공기역학적 영향을 적어도 최소화한다는 점에서 유익하다. 또 다른 실시형태에서, 윈도우(40)는 영상기/탐지기(26)가 피벗하고 윈도우(40)의 전단부(48)와 접촉하면 개구(42)로부터 방출되거나 밖으로 밀려나는 간단한 "제거식(blow away)" 윈도우일 수 있다. 이러한 경우에, 제거식 윈도우(40)는 열렸을 때에 단순하게 화포(2) 밖으로 떨어진다.(도 5b를 참조한다). 이러한 제거식 윈도우(40)는, 이러한 윈도우(40)가 화포(2)에 부정적인 공기역학적 영향을 주지 않고, 윈도우(40)를 개구(42) 내에 고정하거나 장착할 때에 최소의 노력을 요구한다는 점에서 유익하다.
패널 또는 윈도우(40)는, 영상기/탐지기(26)가 타게팅 포지션으로 피벗될 때에, 패널 또는 윈도우(40)가 단순하게 개구(42) 밖으로 밀려나와서 화포(2)로부터 떨어지도록 외부 쉘(20)에 고정될 수 있다. 영상기/탐지기(26)의 타게팅 포지션에서, 반경방향으로 화포(2)의 보디로부터 벗어나면서, FOV의 하나의 에지는 외부 쉘(20)의 외면(44)과 나란하게 정렬되고 세로축(4)과 실질적으로 평행하거나 세로축을 향해서 약간의 각도를 가진다. 그러면 유도 어셈블리(22)에게 타겟을 포함할 수직 시계가 비행 방향(F)으로 제공되고, 예를 들어 전체 FOV는 비행 방향(F)의 앞으로 연장된다.
도 6 및 도 7에 도시되는 유도 어셈블리(22)의 일 실시형태에서, 영상기/탐지기(26)의 머리쪽 단부(29)는 개구(42)의 전단부(58)에 위치되는 교합(46)에 의해서 미드-보디(8)의 외부 쉘(20)에 커플링된다. 유도 어셈블리의 이러한 실시형태가 전술된 실시형태와 매우 유사하기 때문에, 차이만이 후술될 것이다. 영상기/탐지기(26)의 머리쪽 단부(29)가 패널 또는 윈도우(40)의 후단부(56)에서 외부 쉘(20)에 고정되면서, 영상기/탐지기(26)를 머리쪽 단부(29)가 대략적으로 순방향을 바라보도록 피벗되지만, 이러한 경우에는 전체적으로 외부 쉘(20)의 내부(36) 안에 유지된다. 이러한 구성은 투명 패널 또는 윈도우(40)가 미드-보디(8)의 개구(42) 내에 고정된 상태로 유지되게 하고, 영상기/탐지기(26)가 영상기/탐지기(26)를 공기흐름 안으로 연장함으로써 초래되는 환경 및 유체역학적 영향에 화포(2)가 노출되는 것을 없앤다. 도 7에 도시된 바와 같이 영상기/탐지기(26)의 타게팅 포지션에서, 중심축(34)은 비행 방향(F)에서 세로축(4)에 대하여 예각으로 정렬된다. 그러면 유도 어셈블리(22)에 비행 방향(F)으로 타겟을 포함하는 전방 지향 수직 FOV가 제공되지만, 순방향에서의 FOV는 전술된 실시형태의 FOV보다 제한될 수 있다.
도 8은 네비게이션 모드 및 타게팅 모드에서 동작하는, 본 발명에 따른 유도 어셈블리(22)로써 화포(2)를 유도하는 방법을 예시하는 흐름도이다. 처음에, 화포(2)에는 유도 어셈블리(22)의 동작 모드에 의존하여 화포(2)의 세로축(4)에 대하여 재정렬될 수 있는 단일 영상기/탐지기(26)를 가지는 유도 어셈블리(22)가 제공된다(S10). 영상기/탐지기(26)는 화포(2)의 내부(36) 내에서 네비게이션 포지션에 설치되는데(S20), 영상기/탐지기(26)의 중심축(34)은 화포(2)의 세로축(4)에 적어도 실질적으로 수직이다. 화포(2)의 발사에 후속하여, 즉 네비게이션 비행 단계 도중에, 유도 어셈블리(22)는 네비게이션 모드에서 동작함으로써 영상기/탐지기(26)의 FOV가 비행 방향(F)에 대하여 아래를 바라보도록 네비게이션 포지션에서 동작하고(S30), 여기에서 영상기/탐지기(26)는 빛 에너지를 캡쳐 및 검출한다. 유도 어셈블리(22)의 네비게이션 동작 모드에서는, 비행 제어 유닛(32)이 영상기/탐지기(26)에 의해 검출되고 그로부터 송신되는 빛 에너지, 및 하나 이상의 추가적 센서 및/또는 측정 컴포넌트로부터의 판독치/데이터에 대응하는 신호로부터 화포(2)의 자세를 결정한다(S40). 화포(2)의 결정된 자세에 기반하여, 비행 제어 유닛(32)은 날개/공기 제어면(24)의 정렬을 조절하여 화포의 궤적을 제어하고(S50 비행기와 같은 화포를 타겟의 방향으로 비행시킨다. 화포(2)가 타겟에 접근함에 따라, 유도 어셈블리(22)는 네비게이션 동작 모드로부터 타게팅 동작 모드로 전환된다(S60).
유도 어셈블리(22)의 동작 모드가 전환되는 것은, 예를 들어 비행 제어 유닛(32)이 화포(2)가 타겟의 특정 거리 안에 있다고 결정할 때에 또는 타겟에 근접하게 위치된 특정한 랜드마크 또는 지형 피쳐를 인식할 때에, 또는 심지어는 설정된 비행 지속기간 이후에, 비행 제어 유닛에 의해서 개시될 수 있다.
네비게이션 모드에서의 영상기/탐지기(26)의 수직 구조로부터 영상기/탐지기(26)의 전방 지향 포지션으로 천이하는 것도 역시 제어된 천이일 수 있다. 화포(2)가 타겟에 접근할 때, 광각 FOV 센서, 예를 들어 45°의 FOV를 가지는 센서가 최저점에서 10° 내지 55° 벗어나도록 전방으로 편향된다. 그러면, 네비게이션(최저점으로부터 10° 벗어난 픽셀들) 및 픽셀들이 수평선으로부터 35° 경사각만큼 벗어나는 타겟 검색 양자 모두가 가능해진다. 타겟이 식별되고 종단 유도가 유도 어셈블리(22)에 의해 구현되면, 화포(2)는 피치 다운을 시작하고, 액츄에이터(50)가 센서 어레이(30)를 전방 지향 포지션으로, 즉 비행 방향(F)으로 전방을 바라보거나 직접적으로 타겟을 향하도록 회전시키도록 요구한다.
유도 어셈블리(22)에 타겟까지의 거리가 제공되면, 영상기/탐지기(26)는 타겟까지의 기대된 거리 또는 비행 시간 및 비행의 종단에서의 화포(2)의 고도 및 거동성에 기반한 화포의 종단 유도를 위하여, 또는 천이하는 동안에 큰 드리프트를 추가함이 없이 기수방위를 유지할 수 있는 IMU의 성능에 의존하여 영상기/탐지기(26)의 FOV 내에서 타겟을 검출함으로써, 네비게이션 모드로부터 타게팅 모드로 간단하게 전환할 수 있다.
네비게이션 모드로부터 타게팅 동작 모드로 전환하면, 비행 제어 유닛(32)은 액츄에이터(50)를 작동시켜서 영상기/탐지기(26)가 네비게이션 포지션으로부터 영상기/탐지기(26)의 중심축(34)이 비행 방향(F)에서 화포(2)의 세로축(4)에 대하여 예각이 되는 타게팅 포지션으로 피벗하게 한다(S70). 타게팅 포지션에서, 즉 타게팅 비행 단계 도중에, 영상기/탐지기(26)는 정면, 즉 비행 방향(F)을 바라보는 FOV를 가지고, 여기에서 영상기/탐지기(26)는 타겟에 관련된 빛 에너지를 캡쳐 및 검출한다(S80). 이를 통하여 검출된 빛 에너지에 대응하는, 영상기/탐지기(26)로부터 송신된 신호, 및 하나 이상의 추가적 센서 및/또는 측정 컴포넌트(33)로부터의 판독치/데이터를 가지고, 비행 제어 유닛(32)은 아이덴티티, 위치, 및 ATR 목적을 위한 것과 같은 타겟의 이동을 포함하는 타겟과 관련된 특정한 판독치 및 정보를 결정한다(S90). 타겟과 관련된 결정된 특정한 판독치 및 정보에 기반하여, 비행 제어 유닛(32)은 날개/공기 제어면(24)의 정렬을 조절하여 화포(2)가 타겟과 충돌하도록 유도한다(S100).
본 발명의 원리가 본 명세서에서 설명되었지만, 이러한 설명은 오직 예를 들기 위해서 이루어진 것이고, 본 발명의 범위에 대한 제한으로서 이루어진 것이 아니라는 것이 이해되어야 한다. 본 명세서에서 도시되고 설명되는 예시적인 실시형태에 추가하여, 다른 실시형태들이 본 발명의 범위에 속하는 것으로 고찰된다. 당업자에 의한 변경과 치환은 본 발명의 범위 안에 속하는 것으로 여겨진다.

Claims (15)

  1. 화포를 타겟으로 유도하기 위하여 네비게이션 모드 및 타게팅 모드에서 동작가능한 유도 어셈블리로서,
    빛 에너지를 캡쳐하고 네비게이션 동작 모드 및 타게팅 동작 모드에 대한 이미지 데이터를 제공하는 대물 렌즈 어셈블리 및 이미징 센서 어레이를 가지는 영상기/탐지기 - 상기 영상기/탐지기는 상기 화포에 피벗하도록 장착됨 -;
    상기 영상기/탐지기에 커플링되고 상기 영상기/탐지기를 상기 화포의 세로축에 대하여 네비게이션 포지션으로부터 타게팅 포지션으로 피벗시키도록 작동가능한 액츄에이터;
    상기 영상기/탐지기와 통신하는 비행 제어 유닛 - 상기 비행 제어 유닛은 상기 이미지 데이터를 분석하고, 네비게이션 동작 모드에서 상기 화포를 유도하기 위한 네비게이션 비행 제어 신호를 제공하며, 자동 타겟 인식 알고리즘을 통하여 타게팅 동작 모드에서 상기 화포를 타겟으로 지향시키기 위한 타겟 방향을 결정하는 프로세서를 가짐 -을 포함하는, 유도 어셈블리.
  2. 제 1 항에 있어서,
    상기 영상기/탐지기는, 상기 네비게이션 동작 모드 도중에 상기 네비게이션 포지션에 배치되고, 상기 타게팅 동작 모드를 위해 상기 세로축에 대하여 상기 타게팅 포지션으로 피벗되며;
    상기 영상기/탐지기는 상기 영상기/탐지기의 네비게이션 포지션에서 상기 화포의 세로축에 대해 옆으로 지향되는 시계(field of view)를 가지고, 상기 영상기/탐지기의 타게팅 포지션에서, 상기 시계는 상기 화포의 비행 방향에 대해 전방으로 지향되는, 유도 어셈블리.
  3. 제 1 항에 있어서,
    상기 영상기/탐지기는 시계 및 중심축을 가지고,
    상기 중심축은 상기 시계의 중심을 규정하며,
    상기 영상기/탐지기의 네비게이션 포지션에서, 상기 영상기/탐지기의 중심축은 상기 화포의 비행 방향에서 상기 세로축에 실질적으로 수직으로 또는 상기 세로축에 대해 둔각으로 연장되고,
    상기 영상기/탐지기의 타게팅 포지션에서, 상기 영상기/탐지기의 중심축은 상기 화포의 비행 방향에서 상기 세로축에 대해 예각으로 연장되는, 유도 어셈블리.
  4. 제 3 항에 있어서,
    상기 영상기/탐지기의 타게팅 포지션에서, 상기 영상기/탐지기의 중심축은 상기 영상기/탐지기의 시계 전부가 상기 화포의 비행 방향에서 전방으로 연장되도록, 상기 화포의 비행 방향에서 전방으로 연장되는, 유도 어셈블리.
  5. 제 1 항에 있어서,
    상기 영상기/탐지기는, 상기 네비게이션 포지션에서 상기 영상기/탐지기가 상기 화포의 내부에 전체적으로 위치되고, 상기 타게팅 포지션에서 상기 영상기/탐지기의 적어도 일부가 상기 화포 내의 개구를 통하여 상기 화포의 외부로 연장되도록, 교합(artibulation)에 의하여 상기 화포에 장착된, 유도 어셈블리.
  6. 제 5 항에 있어서,
    상기 교합은 상기 비행 방향에 대해 상기 개구의 전단부(leading end)에 배치되고,
    상기 영상기/탐지기가 상기 네비게이션 포지션에서 배치되는 경우, 상기 개구를 밀폐하는 윈도우가 상기 화포에 장착되고, 상기 영상기/탐지기가 상기 타게팅 포지션에서 배치되는 경우, 적어도 상기 윈도우의 전단부는 상기 세로축으로부터 멀어지게 상기 개구 밖으로 바이어스된, 유도 어셈블리.
  7. 제 1 항에 있어서,
    상기 영상기/탐지기의 이미지 데이터 및 관성 측정 유닛의 측정치에 기반하여 상기 화포의 자세를 결정하도록, 상기 비행 제어 유닛은 상기 네비게이션 동작 모드 도중에 상기 관성 측정 유닛과 통신하는, 유도 어셈블리.
  8. 제 2 항에 있어서,
    상기 화포는 윈도우가 내부에 장착되는 개구를 포함하고,
    윈도우는 빛 에너지에 대해 투명하며,
    상기 영상기/탐지기는, 상기 네비게이션 포지션 및 타게팅 포지션 양자 모두에서 상기 영상기/탐지기가 상기 화포의 내부 안에 위치되도록, 교합에 의하여 상기 화포에 장착된, 유도 어셈블리.
  9. 제 8 항에 있어서,
    상기 교합은 상기 영상기/탐지기를 상기 화포의 비행 방향에 대해 상기 윈도우의 후단부(trailing end)에 커플링하고,
    상기 영상기/탐지기는 상기 네비게이션 포지션 및 타게팅 포지션 양자 모두에서 상기 화포의 내부 안에 전체적으로 위치된, 유도 어셈블리.
  10. 제 1 항에 있어서,
    상기 영상기/탐지기는 상기 화포 내에서 지지되고,
    상기 대물 렌즈 어셈블리는 상기 화포의 외면에 장착되는 윈도우를 포함하며,
    상기 윈도우는, 상기 영상기/탐지기를 상기 화포의 외부로부터 보호하도록, 상기 화포의 외면에 윈도우 시일(window seal)에 의하여 실링된, 유도 어셈블리.
  11. 제 1 항에 있어서,
    상기 유도 어셈블리는,
    상기 네비게이션 동작 모드에서 상기 화포를 유도하고, 상기 타게팅 동작 모드에서 상기 타겟 방향을 결정하고 상기 화포를 상기 타겟으로 지향시키는 것을 가능하게 하도록 상기 프로세서에 의하여 처리되는 매핑, 네비게이션, 모션, 힘, 범위 및 거리 판독치/데이터 중 적어도 하나를 수집하는, GPS(global positioning system), 관성 측정 유닛, 및 레이저 거리 탐색기를 더 포함하는, 유도 어셈블리.
  12. 제 1 항에 있어서,
    상기 비행 제어 유닛은 상기 네비게이션 동작 모드 도중에, 상기 영상기/탐지기가 상기 네비게이션 포지션에 배치되는 동안에 상기 영상기/탐지기로부터 이미지를 수집하고,
    상기 비행 제어 유닛은 수집된 이미지를 상기 화포의 고도에 기반하여 스케일링하고, 상기 이미지를 디워핑하며(de-warp),
    상기 비행 제어 유닛은 지상 위치(ground position)를 결정하도록, 수집된 이미지를 이미지의 데이터 베이스와 비교하고,
    상기 네비게이션 동작 모드로부터 상기 타게팅 동작 모드로의 천이 도중에, 상기 액츄에이터는 비행 거리에 기반하거나 상기 영상기/탐지기의 시계 내에서 상기 타겟을 검출함으로써, 상기 영상기/탐지기를 상기 타게팅 포지션으로 피벗시키는, 유도 어셈블리.
  13. 네비게이션 모드 및 타게팅 모드에서 동작하는 유도 어셈블리로써 화포를 유도하는 방법으로서,
    상기 유도 어셈블리의 동작 모드에 따라 피벗가능한 단일 영상기/탐지기를 가지는 유도 어셈블리를 상기 화포에 제공하는 단계;
    상기 영상기/탐지기를 네비게이션 포지션에서 상기 화포 내에 설치하는 단계;
    상기 유도 어셈블리를 네비게이션 모드에서 작동시키는 단계;
    비행 제어 유닛을 사용하여, 상기 화포의 자세를 결정하는 단계;
    상기 비행 제어 유닛을 사용하여, 상기 화포의 궤적을 제어하는 단계;
    상기 유도 어셈블리의 동작을 상기 네비게이션 동작 모드로부터 타게팅 동작 모드로 전환하는 단계;
    상기 영상기/탐지기를 상기 네비게이션 포지션으로부터 타게팅 포지션으로 피벗시키는 단계;
    타겟과 관련된 빛 에너지를 상기 영상기/탐지기로써 캡쳐하고 검출하는 단계;
    특정 타겟 정보를 상기 비행 제어 유닛을 사용하여 결정하는 단계; 및
    상기 타겟과 충돌하도록 상기 비행 제어 유닛을 사용하여 상기 화포를 유도하는 단계를 포함하는, 화포 유도 방법.
  14. 제 13 항에 있어서,
    상기 방법은,
    상기 영상기/탐지기를, 상기 영상기/탐지기의 중심축이 상기 화포의 세로축에 적어도 실질적으로 수직인 상기 네비게이션 포지션에서 설치하는 단계; 및
    상기 영상기/탐지기를 상기 네비게이션 포지션으로부터, 상기 영상기/탐지기의 중심축이 상기 화포의 세로축에 대해 비행 방향에서 예각이 되는 상기 타게팅 포지션으로 피벗시키는 단계를 더 포함하는, 화포 유도 방법.
  15. 제 14 항에 있어서,
    상기 방법은,
    상기 영상기/탐지기를, 상기 영상기/탐지기가 상기 유도 어셈블리의 네비게이션 동작 모드 도중에 배치되는 상기 네비게이션 포지션에서 설치하는 단계; 및
    상기 화포의 궤적, 거리 정보 또는 상기 타겟까지의 시간 기간, 및 비행의 종단(termination of flight) 시의 상기 화포의 고도 및 거동성(maneuverability)에 기반하여, 상기 영상기/탐지기를 상기 네비게이션 포지션으로부터 상기 타게팅 포지션으로 피벗시키는 단계를 더 포함하는, 화포 유도 방법.
KR1020227007535A 2019-08-05 2020-08-13 미드보디 카메라/센서 네비게이션 및 자동 타겟 인식 KR20230022395A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/531,224 US11371806B2 (en) 2019-08-05 2019-08-05 Midbody camera/sensor navigation and automatic target recognition
PCT/US2020/046100 WO2021071580A2 (en) 2019-08-05 2020-08-13 Midbody camera/sensor navigation and automatic target recognition

Publications (1)

Publication Number Publication Date
KR20230022395A true KR20230022395A (ko) 2023-02-15

Family

ID=74647402

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227007535A KR20230022395A (ko) 2019-08-05 2020-08-13 미드보디 카메라/센서 네비게이션 및 자동 타겟 인식

Country Status (6)

Country Link
US (1) US11371806B2 (ko)
EP (1) EP4010653A4 (ko)
KR (1) KR20230022395A (ko)
CN (1) CN114364938A (ko)
IL (1) IL290347A (ko)
WO (1) WO2021071580A2 (ko)

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3924826A (en) 1974-12-20 1975-12-09 Us Air Force Rotatable window means
GB2293067B (en) 1984-06-29 1996-07-10 Marconi Avionics Processor arrangement
US5379967A (en) * 1993-04-30 1995-01-10 State Of Israel Ministry Of Defense Armament Development Authority Rafael Day/night optical guiding apparatus
IL107830A (en) * 1993-12-01 1998-07-15 Israel State Controlled scanner head missile
DE19610032C1 (de) * 1996-03-14 1997-07-10 Buck Chem Tech Werke Verfahren zum Entdecken und Bekämpfen feindlicher Hubschrauber
IL117589A (en) * 1996-03-21 2001-10-31 Israel Aircraft Ind Ltd Air-to-air missile guidance system
DE19706958C2 (de) * 1997-02-21 2001-11-08 Lfk Gmbh Schwenkbarer Sucher
IL134189A0 (en) * 2000-01-24 2001-04-30 Israel State Device
WO2006088687A1 (en) * 2005-02-07 2006-08-24 Bae Systems Information And Electronic Systems Integration Inc. Optically guided munition
US7781709B1 (en) * 2008-05-05 2010-08-24 Sandia Corporation Small caliber guided projectile
DE102009029895B4 (de) * 2009-06-23 2018-01-25 Diehl Defence Gmbh & Co. Kg Optisches System für einen Flugkörper und Verfahren zum Abbilden eines Gegenstands
US8344302B1 (en) * 2010-06-07 2013-01-01 Raytheon Company Optically-coupled communication interface for a laser-guided projectile
WO2012119132A2 (en) * 2011-03-02 2012-09-07 Aerovironment, Inc. Unmanned aerial vehicle angular reorientation
IL227982B (en) 2013-08-15 2018-11-29 Rafael Advanced Defense Systems Ltd A missile system with navigation capability based on image processing
US11295458B2 (en) * 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10345087B2 (en) * 2017-08-01 2019-07-09 BAE Systems Informaticn and Electronic Systems Integration Inc. Mid body seeker payload

Also Published As

Publication number Publication date
US20210055079A1 (en) 2021-02-25
IL290347A (en) 2022-04-01
EP4010653A2 (en) 2022-06-15
CN114364938A (zh) 2022-04-15
US11371806B2 (en) 2022-06-28
EP4010653A4 (en) 2023-04-19
WO2021071580A2 (en) 2021-04-15
WO2021071580A3 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
US7494089B2 (en) Multiple kill vehicle (MKV) interceptor and method for intercepting exo and endo-atmospheric targets
TWI643045B (zh) 非全球定位系統支配的導航系統、自動導引飛行載具以及引導飛行中的自動導引飛行載具的方法
US8686326B1 (en) Optical-flow techniques for improved terminal homing and control
JPH08327300A (ja) 全局面の爆弾被害評価システム
EP2816310B1 (en) Laser-aided passive seeker
KR20110034010A (ko) 감지/방출 장치, 시스템, 방법
JP2009535595A (ja) 自律破壊ビークルによる多数の破壊ビークル(mkv)の迎撃装置
US5918305A (en) Imaging self-referencing tracker and associated methodology
EP2529174B1 (en) A system and method for tracking and guiding multiple objects
US20020080061A1 (en) Method and system for active laser imagery guidance of intercepting missiles
KR102619438B1 (ko) 오프-축 타겟을 검출하기 위한 유도탄 시스템
GB2432203A (en) Missile guidance system and method
RU2400690C1 (ru) Система наведения противосамолетных ракет
KR20220037520A (ko) 펄스 비컨 및 저비용의 관성 측정 유닛에 의한 자세 결정
EP3546879A1 (en) Imaging seeker for a spin-stabilized projectile
US11371806B2 (en) Midbody camera/sensor navigation and automatic target recognition
RU2697939C1 (ru) Способ автоматизации целеуказания при прицеливании на вертолетном комплексе
US5848764A (en) Body fixed terminal guidance system for a missile
USH796H (en) Open loop seeker aiming guiding system
Garg et al. Automated detection, locking and hitting a fast moving aerial object by image processing (suitable for guided missile)
US12007204B2 (en) Method for guiding a missile, missile controller and missile
RU2826814C1 (ru) Способ управления полетом ракеты
KR101968330B1 (ko) 다중 센서를 구비한 호밍 장치
Debnath Protection of Cruise Missile from the Threat of Anti-Cruise Missile (ACM) by Using Small Air-to-Air Missile (AAM)
KR20160020779A (ko) 음향센서를 이용한 다중모드 탐색기

Legal Events

Date Code Title Description
A201 Request for examination