KR102540635B1 - 공중 비히클 이미징 및 타켓팅 시스템 - Google Patents

공중 비히클 이미징 및 타켓팅 시스템 Download PDF

Info

Publication number
KR102540635B1
KR102540635B1 KR1020180099229A KR20180099229A KR102540635B1 KR 102540635 B1 KR102540635 B1 KR 102540635B1 KR 1020180099229 A KR1020180099229 A KR 1020180099229A KR 20180099229 A KR20180099229 A KR 20180099229A KR 102540635 B1 KR102540635 B1 KR 102540635B1
Authority
KR
South Korea
Prior art keywords
uav
mirror
light source
camera
aircraft
Prior art date
Application number
KR1020180099229A
Other languages
English (en)
Other versions
KR20190022404A (ko
Inventor
최 재-우
디. 파두아노 제임스
Original Assignee
오로라 플라이트 사이언시스 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오로라 플라이트 사이언시스 코퍼레이션 filed Critical 오로라 플라이트 사이언시스 코퍼레이션
Publication of KR20190022404A publication Critical patent/KR20190022404A/ko
Application granted granted Critical
Publication of KR102540635B1 publication Critical patent/KR102540635B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • F41H11/02Anti-aircraft or anti-guided missile or anti-torpedo defence installations or systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • F41H11/02Anti-aircraft or anti-guided missile or anti-torpedo defence installations or systems
    • F41H11/04Aerial barrages
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H13/00Means of attack or defence not otherwise provided for
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H13/00Means of attack or defence not otherwise provided for
    • F41H13/0043Directed energy weapons, i.e. devices that direct a beam of high energy content toward a target for incapacitating or destroying the target
    • F41H13/005Directed energy weapons, i.e. devices that direct a beam of high energy content toward a target for incapacitating or destroying the target the high-energy beam being a laser beam
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Eye Examination Apparatus (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 항공기에 장착되어 타겟 항공기를 이미징하고 트래킹하기 위한 트래킹 시스템에 관한 것이다. 트래킹 시스템은 프로세서에 동작적으로 결합된 구조화된 광원, 프로세서와 동작적으로 결합된 관성 측정 유닛(IMU), 광원으로부터의 물체를 향하여 빛을 조종하는 미러, 및 제1 카메라와 제2 카메라를 갖는 스테레오 비전 시스템을 포함할 수 있다. IMU는 항공기의 포지션을 나타내는 포지션 데이터를 생성하도록 구성될 수 있다. 스테레오 비전 시스템은 프로세서에 동작적으로 결합될 수 있고, 포지션 데이터의 함수로서 타겟 항공기의 3D 위치를 결정하도록 구성될 수 있다. 프로세서는 미러 포지션의 함수로서 미러 포지션을 조정하도록 구성될 수 있다.

Description

공중 비히클 이미징 및 타겟팅 시스템{AERIAL VEHICLE IMAGING AND TARGETING SYSTEM}
본 발명은 공중 시스템들과 함께 사용하기 위한 항공기, 공중 시스템들 및 가상 현실 시스템들에 관한 것이다.
기존의 공중 방어 시스템들은 급조된 무기들 및/또는 감시 시스템들을 운반하기 위해 사용될 수 있는 상용 무인 공중 비히클들(unmanned aerial vehicles: UAVs)과 같은 침입적인(invasive) 저가 무인 항공기들을 방어하는 데에 적합하지 않다. 예를 들어, 로켓들, 대포 및 박격포들에 대한 전통적인 방어 시스템들은 전형적으로 대공 미사일들 또는 총들(예를 들어, Phalanx 근접 무기 시스템(close-in weapon system), CWIS)을 포함한다. 그러나, 이러한 시스템들은 공중 위협에 기인하는 잠재적인 위험과 비교하여 상대적으로 비싸기 때문에 종종 비실용적이며 비용이 많이 든다. 다른 방어 시스템 솔루션들은 튜브 발사식(tube-launched) 소형 무인 공중 시스템들(UASs)을 사용한다. 그러나, 이러한 튜브 발사(tube-launch) 시스템들은 특히 튜브 내부로 들어갈 필요성이 있기 때문에 느려지거나 및/또는 기동성이 적다. 즉, 사이징 요구 사항들은 설계 희생들(예를 들어, 특정 제어 표면들의 제거)을 야기한다.
이해될 수 있는 바와 같이, 비대칭 공격을 완화하기 위해, 공중 방어 시스템들은 주어진 타겟 항공기 또는 물체들(예를 들어, 침입적인 공격 비히클)의 비용에 필적하는 방어 비히클들/항공기를 채용해야 한다. 공중 방어 시스템들은 타겟 항공기를 가로채고 및/또는 무력화하기에 충분히 빠르고 기동성이 있는 방어 항공기를 사용하면서 많은 수의 타겟 항공기를 방어하도록 더 구성되어야 한다. 타겟 항공기를 트래킹하기 위해, 기존의 대공 시스템들(anti-aircraft systems)은 짐발들(gimbals) 및/또는 포탑들(turrets)에 장착된 센서들을 사용한다. 이들 대공 시스템들은 먼 거리에 위치해 있는 타겟 항공기에 적합하지만, 근접한(즉, 근처의), 고속으로 이동하는 물체들/항공기에는 적합하지 않다. 그러므로, 공중 방어 시스템은 비행 중에 근접한 타겟 항공기를 트래킹, 이미징 및 타겟팅하기 위한 이미징 시스템 및 방법을 채용해야 한다.
공중 방어 시스템 및 그 방어 항공기의 원격 제어, 모니터링 및/또는 테스트를 제공하기 위해, 공중 방어 시스템은 공중 시뮬레이션 환경을 생성하도록 가상 현실 시스템을 더 채용할 수 있다. 공중 시뮬레이션 환경을 통하여, 특히 실험 비행 시간의 수를 줄임으로써, 비행 비히클 사고들과 관련된 기술적인 위험들을 줄임으로써, 및 테스트와 평가 결과들의 적시성과 철저함을 향상시킴으로써 개선된 자율성이 절감된 비용으로 개발되고 평가될 수 있다. 이는 가능한 모든 시나리오들에 대한 알고리즘 강건성의 비행 기반 검증 및 상이한 결과들의 가능성을 모델링하기 위한 시뮬레이션들의 사용을 가능하게 함으로써 이루어진다.
앞서 말한 것에 비추어, 개선된 대공 시스템에 대한 필요성이 존재한다. 다수의 침입적인 비히클들을 경호하도록 구성된 대공 시스템에 대한 필요성이 또한 존재한다. 게다가, 예를 들어 실세계(real world) 입력 및 시뮬레이션 입력 모두를 사용하는 공중 시뮬레이션 환경을 생성하기 위한 가상 또는 증강 현실 시스템이 필요하다.
항공 시스템과 함께 사용하기 위한 항공기, 항공 시스템 및 가상 현실 시스템이 본 명세서에 개시된다.
제1 양상에 따르면, 비히클에 장착되어 물체를 이미징(image)하고 트래킹(track)하기 위한 트래킹 시스템으로서, 상기 트래킹 시스템은: 프로세서에 동작적으로 결합된(operatively coupled) 구조화된 광원; 상기 프로세서와 동작적으로 결합된 관성 측정 유닛(inertial measurement unit: IMU) - 상기 관성 측정 유닛(IMU)은 상기 비히클의 포지션을 나타내는 포지션 데이터를 생성하도록 구성됨 -; 상기 광원으로부터의 빛을 상기 물체를 향하여 조종하는 미러(mirror); 및 제1 카메라 및 제2 카메라를 가지면서 상기 프로세서에 동작적으로 결합된 스테레오 비전 시스템(stereo-vision system) - 상기 스테레오 비전 시스템은 상기 포지션 데이터의 함수로서 상기 물체의 3차원 포지션을 결정하도록 구성됨 -; 을 포함한다.
소정의 양상들에서, 상기 미러는 미러 포지션의 함수로서 상기 광원으로부터의 상기 빛이 상기 물체 쪽으로 지향(direct)하도록 구성되고, 상기 프로세서는 상기 미러 포지션을 조정하도록 구성된다.
소정의 양상들에서, 상기 구조화된 광원은 LED 또는 레이저 광원이다.
소정의 양상들에서, 상기 구조화된 광원은 450-495 nm 광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원이다.
소정의 양상들에서, 상기 스테레오 비전 시스템은 450 nm 대역 통과 필터를 포함한다.
소정의 양상들에서, 상기 구조화된 광원은 청색광 스펙트럼(blue light spectrum)의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원이다.
소정의 양상들에서, 상기 스테레오 비전 시스템은 대역 통과 필터를 포함한다.
소정의 양상들에서, 상기 미러는 전자 기계 시스템(electro-mechanical systems: MEMS) 미러이다.
소정의 양상들에서, 상기 제1 카메라는 제1 시야(field of view: FOV)를 제공하고, 상기 제2 카메라는 제2 시야를 제공한다.
소정의 양상들에서, 상기 제1 시야 및 상기 제2 시야의 각각의 적어도 일부와 겹치는 빛을 생성하도록 구성된다.
소정의 양상들에서, 상기 제1 시야의 적어도 일부는 상기 제2 시야의 일부와 겹친다.
소정의 양상들에서, 상기 스테레오 비전 시스템은 범용 직렬 버스(Universal Serial Bus: USB)를 통해 상기 프로세서에 동작적으로 결합된다.
소정의 양상들에서, 상기 프로세서는 상기 관성 측정 유닛(IMU)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 미러, 상기 제1 카메라 및 상기 제2 카메라의 각각의 포지션들을 제어하도록 구성된다.
소정의 양상들에서, 상기 비히클은 항공기이고 상기 물체는 움직이고 있다.
제2 양상에 따르면, 비히클에 장착된 센서 페이로드를 사용하여 물체를 이미징하고 트래킹하는 방법으로서, 상기 방법은: 프로세서와 동작적으로 결합된 관성 측정 유닛(IMU)을 통해 상기 비히클의 포지션을 반영하는 포지션 데이터를 생성하는 단계; 프로세서에 동작적으로 결합된 구조화된 광원을 통해 빛을 생성하는 단계; 미러 포지션의 함수로서 미러를 통해 상기 구조화된 광원으로부터의 상기 빛을 상기 물체를 향하여 조종하는 단계 - 상기 프로세서는 상기 미러 포지션을 조정하도록 구성됨 -; 및 상기 프로세서에 결합된 스테레오 비전 시스템을 통해 상기 포지션 데이터의 함수로서 상기 물체의 3차원 포지션을 결정하는 단계 - 상기 스테레오 비전 시스템은 제1 카메라 및 제2 카메라를 포함함 -; 를 포함한다.
소정의 양상들에서, 상기 구조화된 광원은 450-495 nm 광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원이다.
소정의 양상들에서, 상기 구조화된 광원은 청색광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원이다.
소정의 양상들에서, 상기 미러는 전자 기계 시스템(MEMS) 미러이다.
소정의 양상들에서, 상기 제1 카메라는 제1 시야를 제공하고, 상기 제2 카메라는 제2 시야를 제공하며, 상기 빛은 상기 제1 시야 및 상기 제2 시야의 각각의 적어도 일부와 겹치는 영역을 비춘다.
소정의 양상들에서, 상기 제1 시야의 적어도 일부는 상기 제2 시야의 일부와 겹친다.
소정의 양상들에서, 상기 프로세서는 상기 관성 측정 유닛(IMU)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 미러, 상기 제1 카메라 및 상기 제2 카메라의 각각의 포지션들을 제어하도록 구성된다.
제3 양상에 따르면, 움직이는 물체를 이미징하고 트래킹하기 위한 항공기로서, 상기 항공기는: 기체; 상기 기체에 장착되고 프로세서에 동작적으로 결합된 구조화된 광원; 상기 프로세서와 동작적으로 결합된 관성 측정 유닛(inertial measurement unit: IMU) - 상기 관성 측정 유닛(IMU)은 상기 항공기의 포지션을 나타내는 포지션 데이터를 생성하도록 구성됨 -; 미러 포지션의 함수로서 상기 광원으로부터의 빛을 조종하는 미러 - 상기 프로세서는 상기 미러 포지션을 조정하도록 구성됨 -; 및 제1 카메라와 제2 카메라를 가지면서 기체에 장착되고 상기 프로세서에 동작적으로 결합된 스테레오 비전 시스템 - 상기 스테레오 비전 시스템은 상기 항공기에 대해 상기 움직이는 물체의 3차원 포지션을 결정하도록 구성됨 -; 을 포함한다.
소정의 양상들에서, 상기 미러는 상기 관성 측정 유닛(IMU)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 광원으로부터의 상기 빛이 상기 움직이는 물체 쪽으로 지향하도록 구성된다.
소정의 양상들에서, 상기 프로세서는 상기 항공기에 갖춰진 음향 센서로부터의 입력에 기초하여 상기 미러의 포지션을 제어하도록 구성된다.
소정의 양상들에서, 상기 구조화된 광원은 LED 또는 레이저 광원이다.
소정의 양상들에서, 상기 구조화된 광원은 450-495 nm 광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원이다.
소정의 양상들에서, 상기 스테레오 비전 시스템은 450 nm 대역 통과 필터를 포함한다.
소정의 양상들에서, 상기 구조화된 광원은 청색광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원이다.
소정의 양상들에서, 상기 스테레오 비전 시스템은 청색 대역 통과 필터를 포함한다.
소정의 양상들에서, 상기 미러는 전자 기계 시스템(MEMS) 미러이다.
소정의 양상들에서, 상기 프로세서는 상기 관성 측정 유닛(IMU)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 미러 포지션, 상기 제1 카메라 및 상기 제2 카메라 각각을 제어하도록 구성된다.
본 발명의 일 실시예는 비히클에 장착되어 물체를 이미징하고 트래킹하기 위한 트래킹 시스템으로서, 상기 트래킹 시스템은 프로세서에 동작적으로 결합된(operatively coupled) 구조화된 광원; 상기 프로세서와 동작적으로 결합된 관성 측정 유닛(inertial measurement unit: IMU) - 상기 관성 측정 유닛(IMU)은 상기 비히클의 포지션을 나타내는 포지션 데이터를 생성하도록 구성됨 -; 상기 광원으로부터 상기 물체를 향하여 빛을 조종하는 미러(mirror); 및 제1 카메라 및 제2 카메라를 가지면서 상기 프로세서에 동작적으로 결합된 스테레오 비전 시스템(stereo-vision system) - 상기 스테레오 비전 시스템은 상기 포지션 데이터의 함수로서 상기 물체의 3차원 포지션을 결정하도록 구성됨 -; 을 포함한다. 상기 미러는 미러 포지션의 함수로서 상기 광원으로부터의 상기 빛이 상기 물체 쪽으로 지향하도록 구성될 수 있고, 상기 프로세서는 상기 미러 포지션을 조정하도록 구성된다. 이는 작동을 향상시킬 것이다. 상기 구조화된 광원은 450-495 nm 광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원일 수 있다. 상기 구조화된 광원은 청색광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원일 수 있다. 상기 스테레오 비전 시스템은 대역 통과 필터를 포함한다. 각 특성은 특정 조건들에서 성능을 향상시킬 수 있다. 상기 미러는 전자 기계 시스템(MEMS) 미러일 수 있다. 상기 제1 카메라는 제1 시야(FOV)를 제공할 수 있고, 상기 제2 카메라는 제2 시야를 제공할 수 있다. 이는 장치의 사용자 친화적 특성을 향상시킨다. 상기 구조화된 광원은 상기 제1 시야 및 상기 제2 시야의 각각의 적어도 일부와 겹치는 빛을 생성하도록 구성될 수 있다. 상기 프로세서는 상기 관성 측정 유닛(IMU)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 미러, 상기 제1 카메라 및 상기 제2 카메라의 각각의 포지션들을 제어하도록 구성될 수 있다. 비히클은 항공기일 수 있으며 물체는 움직일 수 있다.
본 발명의 또 다른 실시예는 비히클에 장착된 센서 페이로드를 사용하여 물체를 이미징하고 트래킹하는 방법으로서, 상기 방법은: 프로세서와 동작적으로 결합된 관성 측정 유닛(IMU)을 통해 상기 비히클의 포지션을 반영하는 포지션 데이터를 생성하는 단계; 프로세서에 동작적으로 결합된 구조화된 광원을 통해 빛을 생성하는 단계; 미러 포지션의 함수로서 미러를 통해 상기 구조화된 광원으로부터의 상기 빛을 상기 물체를 향하여 조종하는 단계 - 상기 프로세서는 상기 미러 포지션을 조정하도록 구성됨 -; 및 상기 프로세서에 결합된 스테레오 비전 시스템을 통해 상기 포지션 데이터의 함수로서 상기 물체의 3차원 포지션을 결정하는 단계 - 상기 스테레오 비전 시스템은 제1 카메라 및 제2 카메라를 포함함 -; 를 포함한다. 상기 구조화된 광원은 450-495 nm 광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원일 수 있다. 상기 구조화된 광원은 청색광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원일 수 있다. 미러는 전기 기계 시스템(MEMS) 미러일 수 있다. 상기 미러는 전자 기계 시스템(MEMS) 미러일 수 있다. 상기 제1 카메라는 제1 시야를 제공할 수 있고, 상기 제2 카메라는 제2 시야를 제공하고, 상기 빛은 상기 제1 시야 및 상기 제2 시야의 각각의 적어도 일부와 겹치는 영역을 비춘다. 상기 제1 시야의 적어도 일부는 상기 제2 시야의 일부와 겹칠 수 있다. 상기 프로세서는 상기 관성 측정 유닛(IMU)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 미러, 상기 제1 카메라 및 상기 제2 카메라의 각각의 포지션들을 제어하도록 구성될 수 있다.
본 발명의 또 다른 실시예는 움직이는 물체를 이미징하고 트래킹하기 위한 항공기로서, 상기 항공기는: 기체; 상기 기체에 장착되고 프로세서에 동작적으로 결합된 구조화된 광원; 상기 프로세서와 동작적으로 결합된 관성 측정 유닛(inertial measurement unit: IMU) - 상기 관성 측정 유닛(IMU)은 상기 항공기의 포지션을 나타내는 포지션 데이터를 생성하도록 구성됨 -; 미러 포지션의 함수로서 상기 광원으로부터의 빛을 조종하는 미러 - 상기 프로세서는 상기 미러 포지션을 조정하도록 구성됨 -; 및 제1 카메라와 제2 카메라를 가지면서 기체에 장착되고 상기 프로세서에 동작적으로 결합된 스테레오 비전 시스템 - 상기 스테레오 비전 시스템은 상기 항공기에 대해 상기 움직이는 물체의 3차원 포지션을 결정하도록 구성됨 -; 을 포함한다. 상기 미러는 상기 관성 측정 유닛(IMU)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 광원으로부터의 상기 빛이 상기 움직이는 물체 쪽으로 지향하도록 구성될 수 있다. 상기 프로세서는 상기 항공기에 갖춰진 음향 센서로부터의 입력에 기초하여 상기 미러의 포지션을 제어하도록 구성될 수 있다.
본 명세서에 기술된 장치들, 시스템들 및 방법들의 상술한 그리고 다른 목적들, 특징들 및 이점들은 첨부된 도면들에 도시된 바와 같은 그 특정 실시예에 대한 다음의 설명으로부터 명백해질 것이고, 동일한 참조 번호들은 동일한 구조물들을 나타낸다. 도면들은 반드시 일정한 비율인 것은 아니며, 대신에 본 명세서에 설명된 장치들, 시스템들 및 방법들의 원리를 도시하는 것에 중점을 둔다.
도 1은 예시적인 공중 방어 시스템을 도시한다.
도 2a 내지 도 2c는 예시적인 다중 로터(multi-rotor) 수직 이착륙(vertical take-off and landing: VTOL) 방어 UAV를 도시한다.
도 2d는 방어 UAV를 위한 예시적인 항공기 제어 시스템의 블록도를 도시한다.
도 2e 내지 도 2g는 예시적인 테더드(tethered) 다중 로터 VTOL 방어 UAV 배치를 도시한다.
도 3a 및 도 3b는 예시적인 카메라 기반 탐색(seeker) 시스템들을 도시한다.
도 4는 예시적인 지상 저장 시스템을 도시한다.
도 5a 내지 도 5c는 예시적인 매달린(suspended) 저장 시스템을 도시한다.
도 6a 내지 도 6d는 다양한 예시적인 디스플레이 스크린들을 갖는 예시적인 HMI 장치를 도시한다.
도 7a는 UAV 등록 동안의 방어 UAV와 C-RAM C2 시스템 간의 예시적인 메시지 교환 시퀀스를 도시한다.
도 7b는 전개(deployment) 및 결합(engagement) 동안의 방어 UAV와 C-RAM C2 시스템 간의 예시적인 메시지 교환 시퀀스를 도시한다.
도 8은 예시적인 가상 현실 시뮬레이션 시스템을 도시한다.
도 9a는 방어 UAV의 센서 페이로드에 의해 캡쳐된 예시적인 실세계 공간을 도시한다.
도 9b는 가상 현실 임의 장애물들로 오버레이된 도 9a에 대한 예시적인 실세계 공간을 도시한다.
첨부된 도면들을 참조하여 본 발명의 바람직한 실시예들이 아래에 상세히 설명될 것이다. 도면들에서의 구성요소들은 반드시 일정한 비율인 것은 아니며, 대신에 본 실시예들의 원리를 명확하게 도시하는 것에 중점을 둔다. 예를 들어, 설명의 명료성 및 편의성를 위해 요소의 크기가 과장될 수 있다. 게다가, 가능하다면, 실시예의 동일하거나 유사한 요소들을 나타내기 위해 도면들 전체에서 동일한 참조 번호들이 사용된다. 다음의 설명에서, 잘 알려진 기능들 또는 구성들은 불필요한 세부 사항으로 발명을 불명료하게 할 수 있기 때문에 상세히 설명되지 않는다. 명세서에서 어떠한 언어도 실시예들의 실시에 필수적인 것으로서 임의의 청구되지 않은 요소를 나타내는 것으로 해석되어서는 안 된다.
본 명세서에서 값들의 범위들을 열거한 것은 한정의 의도는 아니며, 달리 본 명세서에 명시되지 않는 한 범위 내에 있는 임의의 및 모든 값들을 대신에 개별적으로 지칭하며, 그러한 범위 내의 각 개별 값은 그것이 본 명세서에 개별적으로 인용된 것처럼 명세서에 통합된다. 수치를 수반할 때, "약(about)" 및 "근사적으로(approximately)" 등의 단어들은 의도된 목적을 위해 순조롭게 작동시키도록 당업자 중 하나에 의해 이해되는 편차를 나타내는 것으로 해석되어야 한다. 값들의 범위들 및/또는 수치 값들은 단지 예시들로서 본 명세서에 제공되며, 설명된 실시예들의 범위에 대한 제한을 구성하지 않는다. 본 명세서에 제공된 임의의 예시들 또는 예시적인 언어(예를 들어, "~와 같은" 등)의 사용은 실시예들을 보다 잘 나타내기 위한 것이며, 실시 예들의 범위를 제한하지 않는다. 명세서에서 어떠한 언어도 실시예들의 실시에 필수적인 것으로서 임의의 청구되지 않은 요소를 나타내는 것으로 해석되어서는 안 된다.
이하의 설명에서, "제1", "제2", "상부(top)", "하부(bottom)", "측면(side)", "전면(front)", "후면(back)" 등과 같은 용어들은 편의를 위한 단어들이며, 한정하는 용어들로서 해석되어서는 안 된다. 본 명세서에 제공된 다양한 데이터 값들(예를 들어, 전압, 초(seconds) 등)은 하나 이상의 다른 소정의 데이터 값들로 대체될 수 있으므로, 제한하는 것이 아니라 오히려 예시적인 것으로 간주되어야 한다. 본 개시를 위해, 다음의 용어들 및 정의들이 적용될 것이다:
용어들 "공중 비히클(aerial vehicle)" 및 "항공기(aircraft)"는 고정익 항공기(fixed wing aircraft), 무인 공중 비히클들(UAVs), 가변익 항공기(variable wing aircraft) 및 수직 이착륙(VTOL) 항공기를 포함하는 비행이 가능한 기계를 지칭하되, 이에 국한되지 않는다.
"및/또는"이라는 용어는 "및/또는"에 의해 결합된 목록 내의 아이템들 중의 임의의 하나 이상을 의미한다. 예로서, "x 및/또는 y"는 3개-원소의 집합 {(x),(y),(x, y)} 중의 임의의 원소를 의미한다. 다시 말해, "x 및/또는 y"는 "x 및 y 중 하나 또는 둘 다"를 의미한다. 다른 예로서, "x, y, 및/또는 z"는 7개-원소의 집합 {(x),(y),(z),(x, y),(x, z),(y, z),(x, y, z)} 중의 임의의 원소를 의미한다. 다시 말해, "x, y 및/또는 z"는 "x, y, 및 z 중의 하나 이상"을 의미한다.
"회로(circuit)" 및 "회로망(circuitry)"이라는 용어들은 하드웨어를 구성할 수 있고, 하드웨어에 의해 실행될 수 있고, 및/또는 이와 달리 하드웨어와 연관이 있을 수 있는 물리적 전자부품들(예를 들어, 하드웨어) 및 임의의 소프트웨어 및/또는 펌웨어("코드")를 지칭한다. 본 명세서에서 사용될 때, 예를 들어, 특정한 프로세서 및 메모리는 코드의 하나 이상의 라인들의 제1 세트를 실행할 때 제1 "회로"를 포함할 수 있고, 코드의 하나 이상의 라인들의 제2 세트를 실행할 때 제2 "회로"를 포함할 수 있다. 본 명세서에서 사용될 때, 기능의 수행이 (예컨대, 조작자-설정가능 세팅(operator-configurable setting), 공장 트림(factory trim) 등에 의해) 디세이블되어 있는지(disabled) 또는 이네이블되어 있지(enabled) 않은지 여부에 관계없이, 회로망이 기능을 수행하기 위하여 필요한 하드웨어 및 코드(만일 필요하다면)를 포함할 때마다 회로망은 기능을 수행하도록 "동작가능하다(operable)".
본 명세서에서 사용되는 "전달하다(communicate)" 및 "전달하는(communicating)"이라는 용어들은 소스(source)로부터 목적지(destination)에 데이터를 전달(convey)하는 것 및 목적지까지 전달되도록 통신 매체, 시스템, 채널, 네트워크, 장치, 와이어, 케이블, 섬유, 회로, 및/또는 링크에 데이터를 넘겨주는 것(deliver)을 모두 포함한다. 본 명세서에서 사용되는 "통신(communication)"이라는 용어는 이렇게 전달되거나 넘겨진 데이터를 의미한다. 본 명세서에서 사용되는 "통신수단(communications)"라는 용어는 통신 매체, 시스템, 채널, 네트워크, 장치, 와이어, 케이블, 섬유, 회로 및/또는 링크 중 하나 이상을 포함한다.
본 명세서에서 사용되는 "결합된(coupled)", "~에 결합된(coupled to)" 및 "~와 결합된(coupled with)" 이라는 용어들은, 각각 둘 이상의 장치들, 기구들(apparatuses), 파일들, 회로들, 요소들, 기능들, 동작들, 프로세스들, 프로그램들, 매체들, 구성요소들, 네트워크들, 시스템들, 서브시스템들, 및/또는 수단들 중의 또는 그 사이의 관계를 의미하고, 이들은: (i) 직접 또는 하나 이상의 다른 장치들, 기구들, 파일들, 회로들, 요소들, 기능들, 동작들, 프로세스들, 프로그램들, 매체들, 구성요소들, 네트워크들, 시스템들, 서브시스템들 또는 수단들을 통한 연결; (ii) 직접 또는 하나 이상의 다른 장치들, 기구들, 파일들, 회로들, 요소들, 기능들, 동작들, 프로세스들, 프로그램들, 매체들, 구성요소들, 네트워크들, 시스템들, 서브시스템들 또는 수단들을 통한 통신 관계; 및/또는 (iii) 임의의 하나 이상의 장치들, 기구들, 파일들, 회로들, 요소들, 기능들, 동작들, 프로세스들, 프로그램들, 매체들, 구성요소들, 네트워크들, 시스템들, 서브시스템들 또는 수단이 그 임의의 하나 이상의 다른 것들의 동작에 전체적으로 또는 부분적으로 의존하는 기능적 관계; 중 임의의 하나 이상을 구성한다.
본 명세서에서 사용되는 "데이터"라는 용어는 영구적이거나 일시적이든 간에, 가시적이든, 가청적(audible)이든, 청각적(acoustic)이든, 전기적이든, 자기적이든, 전자기적이든 또는 그렇지 않으면 명시된 것이든 간에, 임의의 표시, 신호들, 마크들, 심볼들, 도메인들, 심볼 세트들, 표현들 및 정보를 나타내는 임의의 다른 물리적 형태 또는 형태들을 의미한다. "데이터"라는 용어는 하나의 물리적 형태로 미리 정해진 정보를 나타내기 위해 사용되며, 서로 다른 물리적 형태 또는 형태들로 해당 정보의 임의 및 모든 표현들을 망라한다.
본 명세서에서 사용되는 "데이터베이스"라는 용어는 데이터 또는 데이터의 조직체(organized body)가 표현되는 방식에 상관없이 관련 데이터의 조직체를 의미한다. 예를 들어, 관련 데이터의 조직체는 표(table), 맵(map), 그리드(grid), 패킷(packet), 데이터그램(datagram), 프레임(frame), 파일(file), 이메일(e-mail), 메시지(message), 문서(document), 리포트(report), 목록(list), 또는 임의의 다른 형태로 표현된 데이터 중의 하나 이상의 형태일 수 있다.
"예시적인(exemplary)"이라는 용어는 "예시(example), 사례(instance), 또는 실례(illustration)로서 기능함"을 의미한다. 본 명세서에 기술된 실시예들은 한정이 아니며, 오히려 단지 예시적이다. 기술된 실시예들이 반드시 다른 실시예들보다 바람직하거나 유리한 것으로 해석될 필요는 없다는 것을 이해해야한다. 게다가, "본 발명의 실시예들", "실시예들" 또는 "본 발명"이라는 용어들은 본 발명의 모든 실시예들이 논의된 특징, 이점 또는 동작 모드를 포함할 것을 요구하지 않는다.
"메모리 장치"라는 용어는 프로세서에 의해 사용하기 위한 정보를 저장하는 컴퓨터 하드웨어 또는 회로망을 의미한다. 메모리 장치는 임의의 적합한 유형의 컴퓨터 메모리일 수 있고 또는 예컨대 ROM(read-only memory), RAM(random access memory), 캐시 메모리(cache memory), CDROM(compact disc read-only memory), 전기 광학 메모리(electro-optical memory), 자기 광학 메모리(magneto-optical memory), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically-erasable programmable read-only memory), 컴퓨터 판독 가능 매체(computer-readable medium) 등과 같은 임의의 유형의 전자적 저장 매체일 수 있다.
본 명세서에서 사용되는 "네트워크"라는 용어는 인터넷을 포함하여 모든 종류의 네트워크들 및 인터-네트워크들(inter-networks)을 포함하며, 임의의 특정 네트워크 또는 인터-네트워크에 한정되지 않는다.
"프로세서"라는 용어는 하드웨어, 실재적으로 구현된 소프트웨어(tangibly embodied software) 또는 둘 모두에서 구현되었는지 여부 그리고 프로그래밍 가능한지(programmable) 여부와 상관없이 처리 장치들(processing devices), 기구들(apparatuses), 프로그램들, 회로들, 구성요소들(components), 시스템들 및 서브시스템들을 의미한다. 본 명세서에서 사용된 "프로세서"라는 용어는 제어 시스템들(controlling systems), 중앙 처리 유닛들(central processing units), 프로그래밍 가능한 장치들과 시스템들(programmable devices and systems), 필드-프로그래밍 가능한 게이트 어레이들(field-programmable gate arrays), 어플리케이션-특정 집적 회로들(application-specific integrated circuits), 칩 상의 시스템들(systems on a chip), 이산 소자들(discrete elements) 및/또는 회로들을 포함하는 시스템들, 상태 머신들(state machines), 가상 머신들(virtual machines), 데이터 프로세서들, 프로세싱 시설들(processing facilities) 및 앞서 말한 것들의 임의의 조합들을 위한 하나 이상의 컴퓨터 장치, 하드와이어드 회로들(hardwired circuits), 신호 수정 장치들(signal-modifying devices), 시스템들, 장치들 및 머신들이지만 이에 한정되지 않는다. 예를 들면, 프로세서는 임의의 유형의 범용 마이크로프로세서 또는 마이크로컨트롤러, 디지털 신호 처리(digital signal processing: DSP) 프로세서, 어플리케이션-특정 집적 회로(application-specific integrated circuit: ASIC)일 수 있다. 프로세서는 메모리 장치와 통합(integrated)되거나 결합(coupled)될 수 있다.
본 명세서에 개시된 것은 대상 항공기와 같은 타겟 물체를 가로채기 위한 공중 시스템이다. 일 양상에서, 공중 시스템은 타겟 항공기를 공격하기 위해 하나 이상의 수정된 저비용 상용 기성(commercial off-the-shelf: COTS) 항공기(예를 들어, UAV들)를 사용할 수 있다. 예를 들어, COTS UAV는 개선된 통신 및 센서 페이로드 및/또는 하나 이상의 타겟 무력화(neutralization) 장치들의 설치를 통해 방어 항공기(예를 들어, 요격기 항공기(interceptor aircraft))로 변형될 수 있다.
개시된 공중 방어 시스템의 목적은 다수의 방어 항공기를 갖는 적재-및-준비된 저장 및 발사 시스템을 통해 방어 항공기와 타겟 항공기 사이의 비용의 동등성에 접근하는 것이다. 개시될 바와 같이, 공중 방어 시스템의 저장 및 발사 유닛은 예를 들어 전투 전초(combat outpost: COP), 원격 주작전기지(main operating base: MOB), 및/또는 전진작전기지(forward operating base: FOB)에(또는 그로부터) 배치되기에 충분히 가볍고 간단할 수 있다. 저비용 접근법은 역사적으로 너무 위험한 것으로 간주되어 왔다. 그러나, 개시된 공중 방어 시스템의 모듈식 인프라(modular infrastructure)(예를 들어, 비행 제어장치들(flight controls), 호밍 시스템(homing system), 호밍 및 조종을 위한 알고리즘들 및 하드웨어, 트래킹 시스템과의 통신, 휴먼 머신 인터페이스 장치 등)는 이동성(potability)과 업그레이드 가능성(upgradability)을 허용하므로 구성요소 업그레이드 및 교체가 가능하게 하면서 고능력 비히클들 및 항공기 하드웨어(flight hardware)로 미래의 사용을 가능하게 한다. 게다가, 개시된 공중 방어 시스템은 플랫폼에 구속받지 않을 수 있다(platform agnostic). 따라서 위협들이 보다 신속하고 기동성있게 됨으로써, 인프라는 쓸모없게 되지 않고 한편 방어 UAV들은 그에 상응하여 업그레이드될 수 있다. 예를 들어, 다양한 방어 시스템이 트래킹 시스템, 알고리즘들, 방어 항공기를 조종 및 호밍하기 위한 하드웨어 및 휴먼 머신 인터페이스(들)와 같이 재사용될 수 있다. 주제 개시는 일반적으로 공중 방어의 관점에서 기술되지만, 상기 주제 개시는 (예를 들어, USAID에 의한 영토의 3 차원(3D) 맵핑, 쓰나미 이후의 구호 임무 등을 통하여) 이 특정 임무 또는 그밖에 다른 임무에 상관없이 기존의 국방 시스템들과 통신할 수 있도록 사실상 모든 COTS 항공기(예를 들어, 드론들)와 함께 사용될 수 있다.
특정 양상들에서, 개시된 공중 방어 시스템은 가상 현실 하드웨어의 인루프(in-loop) 센서 시뮬레이션들을 수행하기 위한 시스템들 및 방법들을 통합할 수 있다. 테스트 및 검증을 위한 다양한 기술들은 드론 방어에 국한될 필요는 없으며 오히려 많은 다른 시스템들에 채용될 수 있다. 예를 들어, 공중 시스템은 실제 방어 UAV를 사용하여 제어 알고리즘들, 네이게이션의 기내 테스트 및 가상(또는 증강) 현실을 용이하게할 수 있다. 논의될 바와 같이, 가상 현실 시스템은 예를 들어 (예를 들어, 가상/증강 현실 시뮬레이션 시스템으로부터의) 실세계 입력들 및 시뮬레이션된 입력들을 사용하여 공중 시뮬레이션 환경을 생성할 수 있다. 즉, 가상 세계로부터 시뮬레이션된 센서 피드백 입력들을 수신하는 동안, 물리적 방어 UAV는 실제 환경에서 동작(예를 들어, 비행)될 수 있다. 가상 세계는 소프트웨어가 구현된 비 일시적인(non-transitory) 메모리 장치와 동작적으로 결합된 하나 이상의 원격지에 위치된 하이엔드(high-end) 그래픽 프로세서들을 통해 생성될 수 있다. 작동 시, 공중 시뮬레이션 환경은 가상 또는 증강 현실 소프트웨어 및 하드웨어를 사용하여 실시간 성능을 제공할 수 있으며, 이는 방어 항공기의 실제 측정된 포지션과 밀접하게 결합될 수 있다. 실제 포지션은 온보드 전지구 위치파악 시스템(global positioning system: GPS) 및/또는 관성 항법 시스템(inertial navigation system: INS) 시스템들을 사용하여 실시간 또는 거의 실시간으로 결정될 수 있다. 특정 양상들에서, 실시간 운동학(real-time kinematic: RTK) GPS가 다양한 동작 조건들에서 방어 항공기를 테스트하는 데 사용될 수 있다.
개시된 공중 방어 시스템은 이전의 솔루션들에 비해 다수의 장점들을 제공한다. 예를 들어, 비용이 염려되는 경우, 공중 방어 시스템의 장점은 특히 그 COTS 항공기 기본 구조를 통해 달성될 수 있는 저렴한 비용이다. 더욱이, 가장 비싼 구성요소들(예를 들어, 타겟 시스템, 라디오, 열/배터리 유지보수 하드웨어 및 소프트웨어)이 방어 항공기 마다 반복될 필요가 없기 때문에 공중 방어 시스템을 보다 효율적이고 저렴하게 스케일업하기 위한 능력이 성취될 수 있다. 대신에 그것들은 공중 방어 시스템 마다 반복될 필요가 있다. 특정 양상들에서, 공중 방어 시스템은 또한 다수의 함께 배치되거나 적층된 구성요소들에 확장 가능하고 따르기 쉬운 휴대용 저장 시스템 설계를 채용할 수 있다. VTOL 방어 항공기가 사용되는 경우, 항공기(예를 들어, 튜브 발사식 항공기)를 비행 속도로 가속시키는 강력한 장치가 필요한 다른 솔루션에 비해 배치 비용이 극히 적다. 예를 들어, COTS VTOL 레이싱 드론을 기본 비히클로 사용하는 것이 현재의 튜브 시동 솔루션보다 효과적이다. 온보드 카메라 기반 타겟팅 시스템과 온보드 타겟 무력화 장치의 사용은 저비용 시스템이 훨씬 더 값비싼 솔루션들과 유사한 정확도를 달성할 수 있게 한다. 액티브(예를 들어, 레이더 또는 LiDAR) 센서와 패시브(예를 들어, 적외선, 음향 등) 센서를 포함하는 COTS 센서들의 다른 조합들은 비히클을 타겟 부근으로 안내하는 지상 기반 시스템에 대한 정확도 개선을 처리하는 위치 파악 센서의 개념을 충족시킬 수 있다.
도 1은 주야 방어 동작 능력을 제공할 수 있는 예시적인 공중 방어 시스템(100)을 도시한다. 공중 방어 시스템(100)은 위협 능력들(예를 들어, 더 빠른 속도, 가속도 및 고도)이 증가함에 따라 단기간의 실현 및 보다 능력있는 비히클들로의 전환 능력을 모두 갖는 항공기 방어에 저렴한 비용의 COTS 기반 소형 무인 공중 시스템(small unmanned aerial system: SUAS) 접근법을 가능하게 한다. 공중 방어 시스템(100)의 주요 구성요소들은 일반적으로 다음 세가지 서브시스템들로 나눠질 수 있다: (1) 비행 제어, 호밍 및 통신을 제공하기 위한 온보드 모듈식 요격 드론 항공전자 세트(modular intercept drone avionics set: MIDAS); (2) 조작자 상호 작용을 제공하기 위한 휴먼 머신 인터페이스(human machine interface: HMI) 장치(114); 및 (3) 지상 또는 해상 기반의 기체, 디피트(defeat) 및 발사 구성요소들. 다양한 서브시스템들에 대해서는 아래에서 자세히 기술된다. 공중 방어 시스템(100)의 기체, 디피트 및 발사 구성요소들은 기존의 군사 방어 시스템들과 즉시 통합할 수 있도록 카운터 로켓, 대포 및 박격포(C-RAM) 명령 및 제어(C2) 시스템(110)을 포함하거나 그것들과 호환 가능할 수 있다. C-RAM C2 시스템(110)은 지상 타겟들에 부딪히기 전에 들어오는 대포, 로켓들 및 박격포탄(mortar round)들의 조기 경보를 공중에서 탐지하고 제공하기 위한 센서 슈트(sensor suite)를 제공한다. 도시된 바와 같이, 공중 방어 시스템(100)은 일반적으로 하나 이상의 방어 UAV(102)(예를 들어, VTOL UAV 또는 다른 항공기), HMI 장치(114), 및 기체, 디피트 및 발사 구성 요소들을 포함하며, 이것은 일반적으로 하나 이상의 항공기(예를 들어, UAV) 저장 시스템(106) 및 C-RAM C2 시스템(110)과 통신하는 지상 기반 항공기(예를 들어, UAV) 제어기(108)를 포함한다. 도시된 바와 같이, 기체, 디피트 및 발사 구성요소들은 휴대용 플랫폼(예를 들어, 바퀴 달린 베이스) 또는 고정 장치에 장착될 수 있다.
공중 방어 시스템(100)은 C-RAM C2 시스템(110)(또는 다른 타겟팅 시스템)이 통신하는 상위 레벨 시스템으로서 집합적으로 동작하는 범위의 기능들을 수행할 수 있다. 즉, C-RAM C2 시스템(110)으로부터의 명령들은 하나 이상의 무선 라디오를 통해 입력으로서 기체, 디피트 및 발사 구성요소들과 통합될 수 있다. 이러한 명령들에 적어도 부분적으로 기초하여, 프로토콜들은 C-RAM C2 시스템(110)으로부터의 신호들(예를 들어, C2 신호들)에 응답하여 (예를 들어, UAV 저장 시스템(106)으로부터의) 방어 UAV(102)를 준비하고, 무장(arm)하고 및 (위협이 탐지되었을 때) 발사하도록 따를 수 있다. 특정 양상들에서, C-RAM C2 시스템(110) 대신에 위협 트래킹을 제공하기 위해 경량 카운터 박격포 레이더(lightweight counter mortar radar: LCMR)(예를 들어, AN/TPQ-49 또는 50)가 사용될 수 있다. 조작자가 타겟의 조준선 관측, 핸드헬드(hand-held) 타겟팅 장치 또는 타겟의 포지션, 헤딩, 및 속도를 추정하는 다른 수단들을 기반으로 타겟팅 정보를 제공하는 경우에, 명령 및 제어는 또한 지상의 조작자로부터 올 수 있다. 이러한 각각의 경우들에서, C-RAM C2 또는 다른 시스템(110)과 공중 방어 시스템(100) 간의 통신은 군사 대역(military-band) 라디오 세트(예를 들어, R05010-레이더 데이터 전송 시스템 AN/TSC과 유사한 Rajant 라디오)를 사용하여 수행될 수 있다. 대안으로, 조작자는 다른 온보드 시스템들이 타겟 비히클을 탐지하고 위치 파악하는 데 필요한 범위 내에서 수동으로 비히클을 비행시킬 수 있다.
공중 방어 시스템(100)의 다양한 구성 요소들은 효율적인 저비용 솔루션을 보장하기 위해 통합된 방식으로 협력하여 작동하는 고유한 능력들을 각각 제공한다. UAV 저장 시스템(106)에 하우징될 수 있는 방어 UAV(102)들은 UAV 제어기(108)를 통해 유지되고 업데이트될 수 있다. 항공기 관리 및 통신을 용이하게 하는 UAV 제어기(108)는 전력 연결들(예를 들어, 케이블들, 콘택트들, 무선 충전 등)을 통해 방어 UAV(102)들에 및 유/무선 데이터 링크들에 연결될 수 있다. UAV 제어기(108)는 UAV 저장 시스템(106)과 별개이거나 UAV 저장 시스템(106)과 통합될 수 있다. 각각의 방어 UAV(102)는 직접적으로 또는 중간/중계 장치(예컨대, UAV 제어기(108) 및/또는 HMI 장치(114))를 통해 타겟팅 시스템(예를 들어, C-RAM C2 시스템(110)과 통신하기 위해 온보드 시스템들 및 라디오를 포함할 수 있다. 예를 들어, UAV 제어기(108) 및/또는 HMI 장치(114)는 수신(reception) 및 중계 기능성을 제공하도록 기능할 수 있다. 특정 양상들에서, HMI 장치(114)는 간단한 초기화 및 무장 명령들을 제공하고 방어 UAV들(102) 및 UAV 제어기(108) 모두로부터 상태 정보 및 경고들을 수신하는 표준 태블릿 또는 휴대폰을 통해 하나 이상의 소프트웨어 구성요소들(예를 들어, 어플리케이션들)을 제공할 수 있다. HMI 장치(114)는 타겟을 향해 방어 UAV(102)를 비행시키는 직접 제어 메커니즘으로서 또한 기능할 수 있다.
원할 때, 방어 UAV(102)는 지상 장비(예를 들어, UAV 저장 시스템(106)/UAV 제어기(108))와 통신하기 위한 저비용 라디오와 타겟 항공기(104)를 타겟팅하기 위한 저비용 카메라와 같은 저비용 온보드 COTS 구성요소들을 사용할 수 있다. 실제로, 라디오는 타겟팅 시스템으로부터 공중 방어 시스템(100) 내의 모든 방어 UAV들(102)에게 (예를 들어, 보다 높은 비용의 라디오들을 통해) 명령 및 제어 신호들을 중계하는 한편, 규정된 방어 UAV(102) 각각의 온도, 배터리 충전량, 배터리 온도 및 전반적인 건정성을 유지하는 UAV 제어기(108)와 통신 가능하게 연결될 수 있다; 이로써 전체적인 공중 방어 시스템(100)의 비용을 최소로 유지하면서 다수의 비히클 타겟팅을 가능하게 한다. UAV 저장 시스템(106)은 시스템의 발사 및 지상 부분들 사이에서 관리 가능하고 긍정적인 상호접속을 제공하고, 모든 구성요소들을 보호 및 통합하며, 문제없는 안정적인 발사를 제공한다. HMI 장치(114)는 기능성에 대한 연결성을 제공하고 셋업, 장기 건전성 모니터링 및 발사 후 결정들을 용이하게 한다(이는 마지막 선택 사항임). 비록 저비용의 구성요소들과 접근법들이 선호되긴 하지만, 이들은 더 높은 품질이나 군대-특정적인 구성요소들이 필요하거나 소망되는 곳에서는 필요하지 않다.
방어 UAV(102). 공중 방어 시스템(100)은 저비용, 모듈식, 항공전자 세트 또는 키트를 방어 UAV들(102)로 변형하면서 그것들이 다양한 COTS UAV에 적응하는 것을 가능하게 한다. 모듈식 요격 드론 항공전자 세트(MIDAS)는 거의 모든 COTS UAV를 방어 UAV(102)로 변환하는 데 사용될 수 있다. COTS UAV를 방어 UAV(102)로 변환하는데 필요한 수정 비용을 줄이는 것은 고속 프레임 레이트 카메라들(및 관련 임베디드 소프트웨어)의 사용 및 기존 타겟팅 시스템들과 통신하도록 설계된 보다 중앙 집중적이고 보다 비용이 많이 드는 시스템과의 매우 저렴한 라디오 통신의 사용을 통해 달성될 수 있다. 예를 들어, 공중 방어 시스템(100)은 각각 개선된 비행 제어 법칙들, 특수 타겟팅 카메라, 타겟 무력화 장치 및 저 대기시간 라디오로 수정된 2 이상의 방어 UAV들(102)을 채용할 수 있다. 방어 UAV(102)는 또한 GPS 및 관성 구성요소들로의 업그레이드들을 포함할 수 있다.
이해될 수 있는 바와 같이, 1인칭 뷰(first-person view: FPV) UAV들은 매우 작고, 저비용이고 및 기동성이 있다. 따라서 온보드 MIDAS 시스템의 중량은 FPV 레이서들 및 기타 소형 UAV들과 호환되도록 경량(예를 들어, <100g)이어야 한다. 예를 들어, FPV UAV들은 상승 속도 10,000 ft/min, 120 knots까지의 속도 및 추력/중량 > 4(4g 기동)을 달성하도록 갖춰질 수 있다. 특히, 카메라 기반 타겟팅 시스템을 포함하도록 이들 UAV를 수정하고 그들의 비행 제어 시스템들/소프트웨어를 업그레이드함으로써, UAV들은 전형적인 기성 드론과 매우 짧은 거리(<0.5 m) 내에서 충돌하거나 들어올 수 있는 능력을 가진 방어 UAV(102)로 변환될 수 있다.
동작 시, 방어 UAV(102)는 C-RAM C2 시스템(110)으로부터 (예를 들어, 직접적으로 또는 UAV 제어기(108) 또는 HMI 장치(114)를 통해 간접적으로) 명령들을 수신하고, 검출된 위협(예를 들어, 타겟 항공기(104))을 향하여 기동하고, 복수의 유도 기술들(guidance techniques) 중 하나를 통해 위협에 관여할 수 있다. 예시적인 유도 기술들은 무기가 타겟 항공기(104)에서 훈련되고 스트래핑 패스(strafing pass)를 수행하도록 더 긴 시간을 제공하는 공중전(dogfighting)과 유사한 트레일링(trailing)(추적(chase)) 모드 및 높은 폐쇄율로 빠른 응답의 제1 패스를 제공하는 고속 응답 충돌 모드(fast-response collision mode)를 포함한다. 본 명세서에 사용된 "스트래핑(strafing)"이란 용어는 움직이는 베이스(예를 들어, 항공기)로부터 무기가 한번 또는 여러번 타겟을 저격하는 것 및 타겟의 상대적인 움직임을 고려하는 것(예를 들어, 직접 타격이 보장되도록 타겟을 '선행'하는 것)을 지칭한다. 특정 양상들에서, 방어 UAV(102)는 예를 들어 원격 제어기(232)를 사용하여 파일럿 핸드오프(pilot hand-off) 및 인계 능력을 통합할 수 있다. 방어 UAV(102)는 준비 상태에서 UAV 저장 시스템(106)에 보유될 수 있고, (예컨대, C-RAM C2 시스템(110)에 의해) 신호가 있을 때 타겟의 근접 범위 내에 오도록 요격 기동을 수행할 수 있다.
공중 방어 시스템(100)과 함께 사용하기에 적합한 항공기는 도 2a 내지 도 2c에 도시된 다중 로터 방어 UAV(102)를 포함한다. 도시된 바와 같이, 방어 UAV(102)는 일반적으로 기체(202)(예를 들면, 동체 또는 다른 구조물)와, 기체(202)로부터 방사상으로 및/또는 각 코너로부터 연장하는 복수의 로터 붐들(rotor booms)(204)(예를 들어, 종방향 붐들), 랜딩 기어(210) 및 복수의 추진기(208)들을 포함한다. 랜딩 기어(210) 및 복수의 로터 붐들(204)의 포스트들은 단일 유닛으로서 또는 서로 결합될 개별 구성요소들로서 제조될 수 있다. 다중 로터 VTOL UAV가 도면 전체에 걸쳐 도시되어 있지만, 본 개시의 교시들은 특히 고정익, 회전익, 다중 로터 등을 포함하는 다른 항공기에 유사하게 적용될 수 있다.
기체(202)는 복수의 로터 붐들(204)의 각각의 근위단과 결합될 수 있어서 복수의 로터 붐들(204)의 원위단들이 기체(202)로부터 실질적으로 방사상으로 연장한다. 기체(202) 및 복수의 로터 붐들(204)은 단일 유닛으로서 또는 서로 결합될 개별 구성요소들로서 제조될 수 있다. 프로펠러(208b)에 결합되고 프로펠러(208b)를 구동/회전시키도록 구성된 리프트 모터(208a)로 각각 도시된 추진기(208)와 복수의 로터 붐들(204)의 각각의 원위단이 결합될 수 있다. 상기 복수의 추진기들(208) 각각은 로터 붐(204)의 원위단에 위치되고 (기체(202)에 대해) 아래로 추진력을 지향하도록 배향된다. 리프트 모터(208a)는 전자 속도 제어기(electronic speed controller: ESC)(206)를 통해 제어되는 전기 모터일 수 있다. 이를 위해, ESC(206)는 예를 들어 리프트 모터(208a)에 인접하여 제공될 수 있고 로터 붐(204)의 원위단에 통합(또는 다른 방식으로 결합)될 수 있다. 방어 UAV(102)가 4개의 추진기들(208)을 갖는 것으로 도시되어 있지만 (즉, 쿼드 로터 항공기), 당업자는 예를 들어 추진력 요구사항들에 따라 및 원하는 기능을 달성하기 위해 추가적으로 또는 더 적은 추진기(208)가 사용될 수 있다는 것을 이해할 것이다.
도 2d는 방어 UAV(102)에 대한 예시적인 항공기 제어 시스템의 블록도를 도시한다. 항공기 제어 시스템은 방어 UAV(102)의 다양한 항공기 구성요소들 및 기능들을 제어하도록 구성된다. 도시된 바와 같이, 방어 UAV(102)는 적어도 하나의 메모리 장치(218)와 통신가능하도록 결합된 하나 이상의 항공기 프로세서들(216), 비행 제어기(220), 항공기 무선 송수신기(222)(예를 들어, 원하는 경우, 저비용 라디오), 내비게이션 시스템(224), 및, 원하는 경우 타겟 무력화 장치(234)(예를 들어, 전개가능한 네트(deployable net)(112), 발사 장치(projectile device)(230) 등)를 포함할 수 있다. 항공기 프로세서(216)는 메모리 장치(218)(예를 들어, 하드 드라이브, 플래시 메모리 등)에 저장된 하나 이상의 데이터베이스들 및 지시들(예를 들어, 소프트웨어)에 적어도 부분적으로 기초하여 하나 이상의 동작들을 수행할 수 있다.
항공기 무선 송수신기(222)는 방어 UAV(102)와 HMI 장치(114) 사이에서 데이터를 통신하기 위한 안테나(212), 다른 원격 장치(예를 들어, 스마트 폰들, 태블릿들 및 랩톱 컴퓨터들과 같은 휴대용 전자 장치들) 및/또는 다른 제어기들(예를 들어, 기지국)과 함께 결합될 수 있다. 예를 들어, 방어 UAV(102)는 원격 장치(예를 들어, UAV 저장 시스템(106), UAV 제어기(108), C-RAM C2 시스템(110), HMI 장치(114) 등)와 직접적으로 또는 (예를 들어, 네트워크(228)를 통해 또는 중간 중계 장치를 사용하여) 간접적으로 데이터(처리된 데이터, 미처리된 데이터 등)를 통신할 수 있다. 원격 장치(들)는 센서 페이로드(226)를 포함하는 방어 UAV(102) 및 그 페이로드(들)의 제어 및/또는 모니터링을 용이하게 할 수 있다. 항공기 무선 송수신기(222)는 블루투스(예를 들어, 단파장, 2.4 ~ 2.485 GHz의 산업, 과학 및 의료(Industrial, Scientific, and Medical: ISM) 대역의 초고주파수(Ultra-High Frequency: UHF) 라디오 파), 근거리 통신(near-field communication: NFC), Wi-Fi(예를 들어, IEEE(Institute of Electrical and Electronics Engineers) 802.11 표준들) 등과 같은 하나 이상의 무선 표준을 사용하여 통신할 수 있다. 특정 양상들에서, 무선 송수신기(222)는 핸드헬드 원격 제어기(232)와 무선으로 통신할 수 있다. 예를 들어, 방어 UAV(102)가 조작자의 시야 내에 있는 경우, 조작자는 원격 제어기(232)를 통해 수동 제어를 취하기를 (또는 자동조종장치(autopilot)를 무시하기를) 원할 수 있다.
항공기 프로세서(216)는 항공기 무선 송수신기(222)를 통한 조작자, 자동조종장치, 내비게이션 시스템(224), 또는 다른 하이레벨 시스템으로부터의 명령들에 응답하여 다양한 작동기들(예를 들어, 타겟 무력화 장치(234)를 작동/전개/방출/철회시키기 위한 것들과, 임의의 비행 표면들의 움직임을 제어하기 위한 것들) 및/또는 (예컨대, ESC (206)를 통해) 리프트 모터(208a)의 동작을 제어하도록 비행 제어기(220)에 동작적으로 결합될 수 있다. 특정 양상들에서, 항공기 프로세서(216) 및 비행 제어기(220)는 단일 구성요소 또는 회로로 통합될 수 있다. 동작시, 비행 제어기(220)는 방어 UAV(102)의 롤(roll), 피치(pitch), 또는 요(yaw)를 제어하기 위해 ESC(206)를 통한 비행의 다양한 스테이지들(예를 들어, 이륙, 항법, 착륙) 동안 각 로터 붐(204) 상의 각 리프트 모터(208a)로부터의 추진력을 동적으로(즉, 실시간 또는 거의 실시간으로) 그리고 독립적으로 조정할 수 있다. 특히, 리프트 모터(208a)는 ESC(206)를 통해 전원 공급원(예를 들어, 배터리 팩 또는 배터리 뱅크)으로부터 각 전기 모터에 공급되는 전력을 조정함으로써 제어될 수 있다.
내비게이션 . 항공기 프로세서(216)는 하나 이상의 자이로(gyro) 및 가속도계(accelerometer)를 포함할 수 있는 항공기에 대한 포지션 데이터(예컨대, 그 좌표들, 궤적(trajectory), 방위(bearing), 헤딩 등)를 제공하도록 INS(224b) 및/또는 관성 측정 유닛(inertial measurement: IMU)(224c)과 통신 가능하게 결합된 GPS(224a)를 포함할 수 있는 내비게이션 시스템(224)에 동작적으로 결합될 수 있다. GPS(224a)는 INS 솔루션을 리셋하는데 사용될 수 있는 절대 드리프트-프리 포지션 값(absolute drift-free position value)을 제공하거나, 칼만 필터(Kalman Filter)와 같은 수학적 알고리즘을 사용하여 그것과 혼합될 수 있다. 시스템을 테스트하기 위해서 또는 트래킹된 장치가 협조적인 경우, RTK 위성 항법은 신호의 정보 내용보다는 오히려 신호의 반송파 위상 측정치들을 사용하여 위성 기반 포지셔닝 시스템들(예를 들어, GPS/IMU)로부터 도출된 포지션 데이터의 정밀도를 향상시키는 데에 사용될 수 있다; 이는 캐리어 위상 향상(Carrier-Phase Enhancement)이라고도 한다. RTK는 전형적으로 실시간 보정을 제공하기 위해 단일 기준 스테이션(single reference station) 또는 보간된 가상 스테이션(interpolated virtual station)을 사용하므로, cm 수준의 정밀도를 야기한다. 예를 들어, 방어 UAV(102)는 센티미터(cm) 수준의 정밀도를 갖는 절대 포지션을 제공하기 위해 RTK GPS 장치들이 갖춰진 COTS UAV일 수 있다. 타겟과 방어 UAV(102) 모두에 장착된 RTK GPS 모듈들을 활용함으로써, 정보는 교전 도중에 두 비히클들의 위치 상에 모일 수 있다. 동일한 RTK GPS 접근법이 목적 비히클 상에서 사용될 수 있고, 동일한 유형의 결과들이 이용가능할 것이다. 그러나, 우리는 충돌 코스 접근 도중에 및 트레일링 모드 및/또는 추적 모드 도중에 타겟 상에서 유지될 수 있는 비히클-상대적 포인팅 정확도를 결정하기 위해 MIDAS 카메라 탐색기 데이터(MIDAS camera seeker data)를 추가적으로 사용할 수 있을 것이다.
센서 페이로드. 데이터를 수집하고 및/또는 영역을 모니터링하기 위해, 예를 들어 하나 이상의 카메라(226a)(예를 들어, 라이다(light detection and ranging: LiDAR) 장치들을 포함하는 이미지들 및/또는 비디오를 기록 또는 캡처하기 위한 광학 기기), 오디오 장치들(226b)(예를 들어, 마이크로폰들, 반향정위(echolocation) 센서들 등), 광원들(226c)(예를 들어, 레이저와 같은 구조화된 광원, 및, SLM(Spatial Light Modulator) 또는 DMD(Digital Micro-mirror Device)를 갖는 LED 광원) 또는 DMD(Digital Micro-mirror Device), 및 항법과 원하는 경우 기밀, 감시 및 정찰(intelligence, surveillance, and reconnaissance: ISR) 기능성을 용이하게 하는 데 사용될 수 있는 센서 데이터(예를 들어, 사진들, 비디오, 오디오, 센서 측정치들, 레이더 측정치들 및 X-레이 측정치들 등)를 제공하기 위한 다른 센서(226d)를 포함하는 센서 페이로드(226)를 방어 UAV(102)가 더 갖출 수 있다.
센서 페이로드(226)는 센서 페이로드(226)와 항공기 프로세서(216) 사이에서 센서 데이터의 통신을 용이하게 하도록 항공기 프로세서(216)에 동작적으로 결합된다. 센서 페이로드(226)는, 센서 페이로드(226)가 지하의 및/또는 지상의 물체들을 모니터링하기 위해 보다 쉽게 아래쪽으로 향하게 할 수 있도록, 짐발 시스템(gimbal system)을 통해 예를 들어 기체(202)(또는 로터 붐들(204)과 같은 다른 구조적 구성요소)의 하부면에 회전가능하고 피봇가능하게(pivotally) 동작적으로 결합될 수 있다. 데이터는 항공기 무선 송수신기(222)를 통해 네트워크(228)를 너머 방어 UAV(102)로부터 원격 제어기(232)(예를 들어, HMI 장치(114))로 동적으로 또는 주기적으로 전달되거나, 또는 추후 액세스 또는 처리를 위해 메모리 장치(218)에 저장될 수 있다.
센서 데이터는 방어 UAV(102)를 항법하기 위해 사용될 수 있다. 예를 들어, 센서 페이로드(226)는 후술하는 카메라 기반 탐색 시스템을 위해 필요한 하드웨어(예를 들어, 카메라들(226a), 광원들(226c) 등)를 제공할 수 있다. 공중 시스템은 이미징 및 타게팅을 위해 항공기를 트래킹하는 개선된 시스템들 및 방법들의 이점을 누린다. 예를 들어, 카메라 기반 탐색 시스템을 통해, 방어 항공기는 높은 리프레시 비율(refresh-rate) 카메라, (예를 들어, 반사기/거울을 사용하여) 시야(FOV)를 스캔하기 위한 광원(304)의 조작, 및 입체 영상을 사용하여 저비용 경량 시스템에서 깊이를 추론하기 위한 스테레오 비전을 사용할 수 있다. IMU(224c), 마이크로 전자 기계 시스템(MEMS) 미러(306), 및 고속 카메라들을 사용하여, 불안정한 플랫폼 상에서의 매우 빠른 물체 트래킹이 달성될 수 있다. 카메라 기반 탐색 시스템은 타겟 항공기(104)의 최종(terminal) 이미징을 수행하는 데 사용될 수 있다. 트랜지스터-트랜지스터 로직(transistor-transistor logic: TTL) 라인 동기화 및 관성 측정 유닛(IMU) 피드백이 또한 사용될 수 있다. 방어 항공기의 유도(guidance)는 저비용 라디오들을 통해 라우팅된 업링크 명령들(upliked commands), 시각 기반 유도(vision-based guidance)를 사용한 최종 유도, 및 전반적인 방어 UAV(102) 관리 및 통신, BIT(Built-in Test) 등을 사용하여 달성될 수 있다.
카메라 기반 탐색 시스템은 방어 UAV(102)가 카메라들의 쌍안경의 시야에 있을 때마다 그것을 비추기 위해 스캔하는 조종 가능한 구조화된 광원(304)(예를 들어, 광원(226c))을 사용하여 타겟 항공기(104)를 스캔할 수 있다. 스캐닝 미러를 통해, 매우 강렬한 빛(예를 들어, 레이저)이 매우 높은 대역폭(예를 들어, 약 4-21 kHz)에서 타겟 항공기(104)를 자동추적하고(locking-on) 트래킹하면서 타겟 항공기(104)를 향해 지향될 수 있다. 미러 각도 정보는 방어 UAV(102)의 최종 유도에 사용될 수 있는 타겟에 대한 상대적 방위각 및 고도를 제공한다. 카메라들의 세트(예를 들어, 쌍안 카메라들)는 혼란을 실질적으로 제거하고 최종 유도를 돕도록 깊이가 추론되는 것을 허용한다. 450-495 nm(예를 들어, 450 nm - 청색) 레이저 광원(304) 및 카메라 대역통과 필터들(예를 들어, 450-495 nm/청색광 대역통과 필터)은 낮과 밤 동작들 모두의 성능을 최대화하는 데 사용될 수 있다. 다시 말하면, 필터의 파장은 바람직하게는 광원의 파장과 일치한다. 전반적인 시스템 비용을 낮추기 위해, 시각 기반 호밍 시스템이 최종 교전(마지막 20-50m)을 위해 채용될 수 있다. 스테레오 비전 시스템은 범용 직렬 버스(universal serial bus: USB)를 통해 프로세서에 동작적으로 연결될 수 있다. 예를 들어, USB 3.0 머신 비전 카메라들은 디자이너들이 프레임 속도에 대한 해상도를 교환할 수 있게 한다 - 예를 들어, FLIR/Point Gray 5MP 카메라는 73 fps에서 2448 x 2048 픽셀 해상도를, 199 fps에서 800 x 600px를 달성할 수 있다. 대안으로, Ximea는 640 x 400px @ 1000 fps 또는 210 fps @ 1280 x 1024px를 갖는 USB3.0 카메라를 생산한다. 카메라는 이미지 처리 및 호밍을 범용 그래픽 처리 장치(GPU) 상에 내장될 수 있게 하는 NVIDIA Tegra TK1과 쌍을 이룰 수 있다. 타겟팅은 카메라를 사용하여 기술되지만, 다른 타겟팅 방법들이 더 높은 정확도 및/또는 낮은 비용을 제공할 수도 있다. 예를 들어, 다른 타겟팅 방법들은 레이더 또는 소나(sonar)를 활용할 수 있다. 본 명세서에 기술된 타겟팅은 해상도 및/또는 범위에서 트레이드오프들을 갖는 저비용 레이더 또는 소나를 사용하여 달성될 수 있다(예를 들어, 음향, 적외선, 소형 레이더, LiDAR 또는 레이저 계측 시스템).
도 3a 및 도 3b를 참조하면, 카메라 기반 탐색 시스템은 특정 영역 내에서 이동하도록 광원(304)을 조작하는 MEMS 미러(306)를 갖는 고주파 이미징 시스템, 및 3D 볼륨 내에서 그 특정 영역을 캡처하는 이미저(imager)를 활용할 수 있다. 예를 들어, MEMS 미러(306)는 MEMS에 의해 제어되는 미시적으로 작은 스캐닝 2 축(예를 들어, 팁-틸트) 미러들을 사용하여 광학 빔-조종(또는 2D 광학 스캐닝)을 용이하게 할 수 있는데, 이 경우 그것들의 상태들은 미러 배열들 주변의 두 개의 전극들 사이에 전압을 인가함으로써 제어된다. 도 3a는 단일 카메라(302) 및 광원(304)을 갖는 카메라 기반 탐색 시스템(300a)을 도시하고, 한편 도 3b는 두 개의 카메라(302)(스테레오 비전) 및 광원(304)을 갖는 카메라 기반 탐색 시스템(300b)을 도시한다. 3D 포지션은 또한 단일 카메라와 MEMS 미러를 사용하여 결정될 수 있다; 그러나, 정확도는 타겟이 두 카메라들과 MEMS 미러의 삼중 교차 영역 내에 있을 때 향상된다. 광원(304)은 일반적으로 레이저로 기술되지만, 예를 들어 하나 이상의 발광 다이오드들(LEDs)과 같은 다른 광원들도 고려된다.
카메라 기반 탐색 시스템은 일반적으로 하나 이상의 카메라(302), 광원(304), MEMS 미러(306), IMU(224c) 및 프로세서(308)(예를 들어, 항공기 프로세서(216) 또는 전용 프로세서)를 포함한다. MEMS 미러(306)는 거울 위치의 함수로서 광원(304)으로부터 출력된 빛의 각도를 제어한다. IMU(224c)는 프로세서(308)와 협력하여 MEMS 미러(306) 및 두 카메라의(302)의 관심 영역을 제어한다. 예를 들어, 프로세서(308)는 MEMS 미러(306)의 미러 포지션(예를 들어, 하나 이상의 축을 따르는 그 각도)을 조정해서 광원(304)으로부터 출력된 빛의 각도를 조정하도록 구성될 수 있다. 카메라 기반 탐색 시스템의 대안적인 사용들은 예를 들어 지상에 있는 사람이나 자동차들을 스캐닝하고 트래킹하는 것과 같이 타겟 항공기를 스캐닝하는 것 이상으로 확장한다.
카메라들(302)은 이미지들을 캡처하는 데 사용된다. 카메라 리프레시 비율은 800 Hz 보다 클 수 있는데, 이는 탐색기로서 counter-UAS 어플리케이션들을 위한 보다 큰 능력을 가능하게 할 것이다. 스테레오 비전 카메라 시스템은 타겟의 3D 상대 포지션을 정확하게 결정한다. 그러므로, 2개 이상의 카메라들(302)은 타겟의 3 차원 포지션을 정확하게 탐지하기 위해 스테레오-비전 셋업을 생성하는 데에 사용된다. 도 3b에 도시된 바와 같이, 광원(304)과 두 개의 카메라들(302) 사이에 중첩이 존재한다. 이는 우주에서 타겟의 3D 포지션의 스테레오-비전 또는 다시점(multi-view) 계산을 가능하게 한다.
IMU(224c)는 이미징 시스템을 가지고 비히클 역학(vehicle dynamics)을 캡처하는데 사용될 수 있다. IMU(224c)는 방어 UAV(102)의 실제 포지션에 대한 피드백을 제공한다. IMU(224c) 정보를 통합함으로써, 주어진 시간에 카메라 FOV 내 및 방어 UAV에 대해 타겟 항공기(104)가 어디에 위치될지를 예측하도록 조명 및 이미징이 높은 리프레시 비율로 업데이트된다. 방어 UAV(102)가 끊임없이 움직이기 때문에, IMU(224c)는 일정 기간 동안 정확한 방어 UAV(102)의 실제 위치 및 고도의 피드백을 제공한다. 이것은 (MEMS 미러(306)에 의해) 광원(304) 빔을 이동시키고 2 개의 카메라(302)에서 적절한 관심 영역을 캡처하는 데에 사용될 수 있다. 더 작은 광 빔을 조작하는 것은 주/야간 동작들 동안에 원하는 리프레시 비율(즉, 800 Hz 보다 큰)을 달성하는 데에 사용될 수 있다; 고주파 MEMS 미러(306)는 광원(304)으로부터의 광 빔을 조작하는 데에 사용될 수 있다. 특정 양상들에서, 타겟을 연소하여 무력화하기 위해 매우 짧은 펄스 레이저와 함께 MEMS 미러가 사용될 수 있다. 조명은 카메라(302)의 FOV 내에 있어야하는 타겟 물체에 국한되어 있다; 이 조명은 MEMS 미러(306)에 의해 조작된다. 추가적으로, 광원(304)은 배경 제거를 수행함으로써 이미저 상의 캡처된 광자들(photons)의 신호 대 잡음비(signal to noise ratio)를 최대화하도록 조작된다. 광원(304)은 예를 들어 프로세서(308)를 통해 카메라에 동기화된 TTL 라인으로 변조될 수 있다. 이것은 카메라(302)가 조명이 켜진채로 이미지들을 캡쳐할뿐만 아니라 조명이 꺼진채로 이미지들을 캡처할 수 있게 한다. 두 이미지들을 서로 뺌으로서, 백그라운드를 제거하고 변화하는 물체들을 감지할 수 있다. 전통적으로, 높은 충실도의 이미지를 얻기 위해 조명을 조작하는 것은 잘 되지 않았으나, 높은 신호 대 잡음비를 달성하기 위해 배경을 제거하도록 IMU(224c)를 통합한다. 강력한 광 레이저가 광원(304)으로서 사용되는 경우, 광원(304)(즉, 강력한 레이저)은 또한 타겟 항공기(104)를 디세이블(disable)하기 위해 사용될 수 있다.
타겟 무력화 장치. 타겟 항공기(104)를 디세이블시킬 가능성을 증가시키기 위해, 방어 UAV(102)는 전개가능한 네트(112), 발사 장치(projectile device)(230)(예를 들어, 총(gun), 발사대(projectile launcher) 등), 스트리머들(streamers), 고출력 레이저, 지향성 에너지 무기(direct-energy weapon)(DEW) 등과 같은 타겟 항공기(104)를 타격하기 위한 타겟 무력화 장치를 갖출 수 있다. 예를 들어, 방어 UAV(102)의 전방 영역을 증가시키기 위해 전개가능한 네트(112)를 사용하는 것은 타겟 항공기(104)와 접촉 시 85%-95% 무력화 성공을 야기할 수 있다.
도 2a를 참조하면, 발사 장치(230)는 기체(202)에 장착될 수 있고 (예를 들어, 방어 UAV의 비행선(102)과 마찬가지로 발사체(projectile)를 발사하기 위해) 전방으로 지향하게 될 수 있다. 도 2b 및 도 2c를 참조하면, 전개가능한 네트(112)는 방어 UAV(102)의 하부에 결합된 한 쌍의 기둥부(stanchion)(214)를 통해 방어 UAV(102)에 더 결합될 수 있다. 예를 들어, 기둥부들(214)은 떨어져 있을 수 있어서 (도시된 바와 같이) 각각이 로터 붐(204)의 원위단 또는 기체(202)의 하부에 결합된다. 도시된 바와 같이, 전개가능한 네트(112)는 일반적으로 강성 네트 프레임(rigid netting frame)(112b)에 의해 지지되는 네트(212a)를 포함한다. 전개가능한 네트(112)는 방어 UAV(102)의 전방 단부에 연결될 수 있으며, 타겟 항공기(104)를 캡처하기 위해 역각(reverse angle)으로 지향될 수 있다.
특정 양상들에서, 다수의 방어 UAV들은 탐지된 위협에 관여하기 위해 서로 협력할 수 있다. 예를 들어, 도 2e 내지 도 2f를 참조하면, 전개가능한 네트(112)는 타겟에 의해 생성된 모멘트가 방어 UAV(102)의 운전성을 극복하지 못하도록 다수의 항공기에 묶여있을 수 있다(tethered). 유사하게, 네트의 장력은 캡처의 순간에 (서로 반대편으로 날아가는) 방어 UAV들에 의해 제어될 수 있다. 명확하게는, 도 2e는 테더 와이어(tether wire)(120)를 통해 서로 묶인 방어 UAV(102)의 세트를 도시하고, 한편 도 2f는 테더 와이어(120)를 통해 하나의 방어 UAV(102)에 결합되고 일차 와이어(primary wire)(120) 및 이차 와이어(secondary wire)(116)를 통해 다른 방어 UAV(102)에 결합된 전개가능한 네트(112)를 도시한다. 충격 흡수 장치가 네트와 UAV 사이의 연결부에 배치될 수 있다. 예를 들어, 스프링 및/또는 일련의 도르래들이 사용될 수 있다. 네트는 수축-랩(shrink wrap)처럼 행동할 수 있다. 네트가 당겨질 때 닫히게 되는 입구(예를 들어, 드로스트링들(drawstrings)) 및 네트에 의해 포켓이 생성된다.
이제 도 2e를 보면, 공중 방어 시스템(100)은 전개가능한 네트(112)와 같은 타겟 무력화 장치를 가지고 타겟 항공기(104)를 캡처하기 위해 다수의 방어 UAV(102)들을 활용할 수 있다. 하나 이상의 방어 UAV를 활용함으로써, 캡처 지점에서 상대적으로 강한 모멘트를 발생시키고 및/또는 방어 UAV(102)보다 상대적으로 무거운 중량을 갖는 타겟 항공기를 공중 방어 시스템(100)이 캡처할 수 있다.
일부 실시예들에서, 전개가능한 네트(112)는 뒤에서부터 타겟 항공기(104)를 스크푸(scoop)/캡처하기 위해 전방 각도로 지향될 수 있고 방어 UAV(102)의 후미단(aft end)에 결합될 수 있다. 이 캡처 전략은 캡처 지점에서의 저항력을 최소화하여 타겟 항공기(104)로의 이동 방향을 정렬하는 이점이 있다.
일부 실시예들에서, 도 2e 내지 2g에 도시된 바와 같이, 다수의 방어 UAV(102)들은 타겟 항공기(104)를 캡처하기 위해 협력하여 작동할 수 있다. 이와 같이, 상승 또는 추진력과 같은 더 많은 공기역학적 힘들이 다수의 방어 UAV(102)들에 의해 생성될 수 있다. 특히, 협력된 캡처 방법은 타겟 항공기(104)를 캡처할 때 접근 각도에서 더 큰 유연성을 허용한다. 예를 들어, 다수의 방어 UAV(102)는 증가된 공기역학적 힘들에 기인한 캡처시에 생성된 모멘트를 관리하면서 타겟 항공기(104)를 향한 정면 각도로 접근할 수 있다.
다수의 방어 UAV는 테더 와이어(120)에 의해 묶일 수 있다. 일단 전개가능한 네트(112)가 다수의 방어 UAV(102)들 중 하나(제1 방어 UAV라고도 지칭됨)로부터 타겟 항공기(104)를 향해 전개되면, 전개가능한 네트는 다수의 방어 UAV들 각각에 의해 운반될 수 있다. 전개가능한 네트(112)는 일차 와이어(118) 및 이차 와이어(116)에 의해 제1 방어 UAV에 연결될 수 있다. 제1 방어 UAV는 전개가능한 네트(112)의 사전 전개 동안 전개가능한 네트를 운반할 수 있다. 전개가능한 네트(112)가 타겟 항공기(104)를 향해 배치됨으로써, 테더 와이어(120)는 전개가능한 네트(112)와 함께 연장할 수 있다. 도 2f는 전개가능한 네트(112)가 타겟 항공기(104)를 향해 배치된 후의 다수의 방어 UAV를 기술한다. 이차 와이어(116)는 일단 전개가능한 네트(112)가 배치되면 신장될 수 있어서, 최소한의 장력이 이차 와이어(116)에 의해 유지된다. 일부 실시예들에서, 이차 와이어(116)는 이차 와이어(116)를 따라 최소 장력을 가하기 위해 전개가능한 네트(112)에 슬라이드 가능하게 부착될 수 있다. 묶인(tethered) 방어 UAV(이하, 제2 방어 UAV라고도 지칭됨)는 테더 와이어(120)를 통해 전개가능한 네트(112)에 부착될 수 있다. 전개가능한 네트(112)는 일차 와이어(118) 및 테더 와이어(120)를 통하여 집단적으로 제1 방어 UAV(102) 및 제2 방어 UAV(102) 의해 수행될 수 있다.
제1 방어 UAV 및 제2 방어 UAV는 타겟 항공기(104)가 전개가능한 네트(112)(이하, 페이로드(122)라고도 지칭됨)에 의해 캡처됨에 따라 원(circle) 내에서 배회할 수 있다. 다수의 UAV들이 원형 패턴으로 배회함에 따라, 그 결과로써 얻어지는 원심력은 일차 와이어(118) 및 테더 와이어(120)에 따른 장력들을 부분적으로 완화할 수 있다. 게다가, 이러한 원형 패턴은 페이로드(122)에 양력(lift)을 생성하는 것을 돕는다. 타겟 항공기(104)의 움직임 방향은 제1 방어 UAV의 온보드 센서 페이로드에 의해 탐지될 수 있다.
다수의 방어 UAV들의 경우 - 방어 UAV 중 하나가 선두 UAV가 될 수 있다. 선두 UAV는 타겟 항공기(104)를 탐지 및 트래킹하기 위한 센서 패키지들을 갖출 수 있다(따라서, 선두 UAV는 무게가 더 많이 나갈 수 있고, 추진력은 절충될 수 있다). 그러나 다른 후속 UAV(즉, 제2 방어 UAV와 같은 트레일링/후속 항공기)는 선두 UAV로부터 소정의 거리를 유지하기 위해 하나 이상의 거리 센서를 갖출 수 있지만, 센서 페이로드에서 더 적은 무게를 지닐 수 있고, 따라서 더 빠를 수 있고 더 높은 추진력을 생성할 수 있다. 선두 UAV의 주 목적은 탐지 및 타겟팅하기 위한 것이고, 한편 전개가능한 네트(112)의 운반은 후속 UAV들에 의해 달성된다. 게다가, 함대(즉, 선두 및 트레일링/후속 UAV들)는 소정의 대형으로 배회할 수 있고 또한 소정의 배회 패턴으로 있을 수 있다.
일차 와이어(118) 및/또는 테더 와이어(120)는 전류를 운반할 수 있다. 예시로서, 이차 와이어(116) 및/또는 테더 와이어(120)는 타겟 항공기(104)를 디세이블하기 위해 전기 충격을 발생시킬 수 있다. 방어 UAV(102)는 전도성 와이어들(118, 120) 및 전도성의 전개가능한 네트(112)를 통해 타겟 항공기(104)에 전달되는 전기 충격을 생성할 수 있다. 일부 실시예들에서, 전개가능한 네트(112)는 그것이 타겟 항공기(104)와 접촉하게 설계되도록 크기가 최소일 수 있다(이와 같이, 전개가능한 네트(112)는 후크(hook)와 같은 임의의 유형의 잠금 장치일 수 있다). 일단 접촉이 이루어지면, 불능화(disabling) 전기 충격이 타겟 항공기(104)에 전달될 수 있다.
도 2g를 참조하면, 다수의 방어 UAV(102)들이 타겟 항공기(104)를 캡처하기 위해 사용될 때, 방어 UAV는 원형 비행 경로로 날 수 있으며, 이는 페이로드(122)에 결합된 동안 호버링 도중에 요구되는 디스크 로딩 및 전력을 감소시킨다. 예를 들어, 제1 방어 UAV(102)는 제1 방향에서 전개가능한 네트(112)를 가지고 타겟 항공기(104)를 캡처할 수 있고, 한편 제2 방어 UAV(102)는 전개가능한 네트(112)에 묶이고 제2 방향으로 물체를 향해 날 수 있다. 제1 및 제2 방향은 서로 반대 방향이다. 두 비행 방향들 간의 각도는 90도보다 작다. 예를 들어, 페이로드(122)는 타겟 항공기(104)와 전개가능한 네트(112)의 조합일 수 있다.
전개가능한 네트(112) 또는 스트리머들은 오차 거리가 작을 때 들어오는 타겟 항공기(104)를 가로채고 무력화하는데 사용될 수 있지만 달리 영향을 미치지는 않는다. 전개가능한 네트(112)를 방어 UAV(102)와 함께 유지하는 것은 네트 위치의 불확실성을 감소시키는데, 이는 네트에 의해 도입된 드래그 및 에러를 줄이기 위해 적재될 수 있어서, 네트가 약 25 미터 정도에 또는 타겟에 도달하기 전에 전개될 수 있다. 그러므로, 네트(112a)에 의한 원하지 않는 걸림(snagging)의 위험성 및 드래그를 줄이기 위해 적재되는 경우 강성 네트 프레임(112b)은 접히거나(fold) 그렇지 않으면 붕괴할 수 있다. 예를 들어, 강성 네트 프레임(112b)은 각각 제1 및 제2 종방향 붕괴/폴딩 선형 지지체들(first and second longitudinal collapsing/folding linear supports)을 채용할 수 있으며, 이들 각각은 실질적으로 서로 평행할 수 있고 그 근위단에서 기둥부(stanchion)(214)에 결합된다. 제1 및 제2 종방향 붕괴/폴딩 선형 지지체들 각각의 원위단은 고정되지 않을 수 있다. 대안적으로, 무게가 문제되지 않는 경우, 원위단들은 소정의 거리를 유지하고 및/또는 원위단에서 네트를 팽팽하게 유지하도록 (예를 들어, 제1 및 제2 지지체들에 실질적으로 직각일 수 있는) 제3 선형 지지체를 통해 서로 결합될 수 있다. 타겟 항공기(104)에 가까운 거리에 있을 때, 방어 UAV(102)는 방어 UAV(102)의 전방 영역을 증가시키기 위해 전개가능한 네트(112)를 선택적으로 전개(팝-아웃)할 수 있고, 이로써 타겟 항공기(104)를 타격할 가능성을 증가시킨다. 전개가능한 네트(112)는 전개를 다음 패스로 지연시키거나 또는 놓친 후에 회수(retract)함으로써 다중 패스를 가능하게 한다. 전개가능한 네트(112)는 또한 타겟을 캡처하고 얽히게함으로써 유도된 하중(load) 하에서 방어 UAV(102)로부터 '이탈'하도록 설계될 수 있다; 이 방법에 의해, UAV(102)는 교전 후에 보존될 수 있고 재사용을 위한 시작점으로 복귀할 수 있다. 와이어를 캡처하는 맥락에서 타겟 확률을 논의하는 "Rail Recovery System For Aircraft"이라고 제목이 붙여지고 Gundlach 등에 공동 소유된 특허 제9,010,683호에 기술된 것과 같이, 방어 UAV(102)가 자신을 조종하는 위치를 편향시키는 것(biasing)은 캡처 분포의 원형 공산 오차(산점)의 유사 편향을 초래할 수 있으며, 그러한 편향은 타격의 확률을 높이는데 사용될 수 있다.
UAV 저장 시스템(106). UAV 저장 시스템(106)은 장기간의 준비 경보 상태(배터리 충전, 주기적으로 수행되는 자체 고장 진단, GPS 잠금 유지 및 가열/냉각 등)에서 방어 UAV(102)들을 하우징하고, 엘리먼트들로부터 방어 UAV(102)들을 보호하기 위해 깨끗하고 건조한 관리된 온도를 제공하며, 요구에 따라 방어 UAV(102)들의 신속한 배치를 용이하게 한다. 저비용으로 용이한 설치 및 휴대성(portability)을 가능하게 하기 위해, 공중 방어 시스템(100)의 일부들은 독립적인 저장소 및 발사 시스템으로 구성될 수 있는데, 상기 발사 시스템은 현장에서 쉽게 설치되고, C-RAM C2 시스템(110)과 통신할 수 있고, 지속적으로 준비되고, 및 타겟 항공기(104)를 타켓팅하기에 충분한 속도 및 기동성을 갖는 복수의 방어 UAV들(102)(예를 들어, 2 또는 그 이상, 보다 바람직하게는 4 또는 그 이상)을 포함한다.
UAV 저장 시스템(106)은 여러 가지 목적들을 제공한다: (1) UAV 저장 시스템(106)은 편리하게 하우징, 운반 및 유지되는 패키지 내의 많은 새로운 위협들에 대한 방어를 허용한다; (2) UAV 저장 시스템(106)은 (C-RAM C2 시스템(110)과 같은) 타겟팅 시스템들 및 다양한 방어 UAV(102)들과 통신하기 위해 단일 라디오를 하우징함으로써 방어 UAV(102)들의 비용을 감소시킨다(UAV 저장 시스템(106)은 매우 저가의 라디오를 갖춘 방어 UAV(102)들에 명령 및 제어 데이터를 중계할 수 있다); (3) UAV 저장 시스템(106)은 엘리먼트들이 필요해질 때까지 방어 UAV(102)들의 충전 상태를 유지하고 비교적 시원하고 건조하게 유지하면서 엘리먼트들로부터 방어 UAV(102)들을 보호한다; 및 (4) UAV 저장 시스템(106)은 방어 UAV(102)들의 자동 발사를 위한 시설들을 제공한다.
UAV 저장 시스템(106)은 일반적으로 UAV 저장 시스템(106)의 구성요소들에 전력을 공급하고 방어 UAV(102)를 충전하기 위해 충전 시스템(406), 안테나(408)에 결합된 라디오(404) 및 지상국 제어기(402)를 포함한다. 예를 들어, 지상국 제어기(402)는 메모리 장치(402b)와 동작적으로 결합된 프로세서(402a)를 포함할 수 있다. 예를 들어, 충전 시스템(406)은 선 전류(line current)(예를 들어, AC 전류) 및/또는 충전 회로와 동작적으로 결합된 내장 배터리(예컨대, 납산(lead aid), 리튬, 이온 등)를 포함할 수 있다. 일 실시예에서, 내장 배터리 및 연결된 경우 방어 UAV(102)들을 충전하기 위하여 AC 선 전류를 DC 충전 전류로 변환하도록 AC-DC 컨버터가 사용될 수 있다. 선 전류가 이용 가능하지 않은 또 다른 예에서, DC-DC 컨버터가 방어 UAV(102)를 충전하는 데 사용될 수 있다. 원거리에서 또는 선 전류가 이용가능하지 않은 경우, 대안적으로 전원 공급원들은 예를 들어 태양 전지판들 및/또는 풍력 터빈들을 포함하는 방어 UAV(102) 및 내장 배터리를 충전하는 데 사용될 수 있다. 예를 들어, 하나 이상의 태양 전지판들 또는 배열들이 UAV 저장 시스템(106)의 상부 표면 상에 및/또는 UAV 저장 시스템(106)에 인접하여 제공될 수 있다.
UAV 저장 시스템(106)은 전반적인 방어 시스템을 저비용 및 효율적으로 만들기 위한 통합된 특징들을 포함할 수 있다. 이들은 효과적인 발사를 가능하게 하는 시스템의 설계, 방어 UAV(102)의 수명을 연장시키기 위해 방어 UAV(102) 각각의 충전 및 온도를 보호 및 유지하기 위한 컨테이너의 사용, 및, 초기화, 무장, 앱을 통한 사용자들과의 통신, 건전성 유지 및 자체 고장 진단, 저지연 통신 및 제어 신호들 및 명령의 중계를 위한 소프트웨어를 포함한다.
UAV 저장 시스템(106)은 지상 저장 시스템(ground storage system)(106a) 또는 부유 저장 시스템(suspended storage system)(106b)으로서 제공될 수 있고, 그 중 어느 것이든 휴대가능할 수 있다. UAV 저장 시스템(106)의 구성 및 통합 세부사항들은 하우징된 방어 UAV(102)들의 수만큼 다양할 수 있다. 지상 저장 시스템(106a)이 다중 로터 VTOL 방어 UAV(102)들로 도시되었지만, 다른 항공기 유형들이 고려된다. 예를 들어, 비-VTOL 고정익 항공기가 채용되는 경우, 항공기를 날개에서 생기는 속도까지 추진하기 위해 발사 시스템이 사용될 수 있다. 예시적인 발사 시스템 장치들은 특히 발사 레일들 및 추진체 장치를 포함한다. 추진체 장치는 예를 들어 스프링이 든 것(spring-loaded), 공압식 발사기에 결합된 CO2 탱크 등일 수 있다.
지상 저장 시스템(106a). 도 4에 도시된 바와 같이, 지상 저장 시스템(106a)은 지상에 위치될 수 있고 방어 UAV(102)가 발사할 수 있도록 수납식 상부(retractable top)(또는 작동 덮개(actuated lid))로 구성될 수 있다. 공중 방어 시스템(100)의 구성요소들은 (바퀴들이 있거나 없는) 휴대용 케이스(410) 내에 하우징될 수 있다. 휴대용 케이스(410)는 Pelican Products, Inc. 에서 입수할 수 있는 Pelican?? 0550과 같은 Pelican?? 케이스일 수 있고, 내부 크기는 47.57 x 24.07 x 17.68 인치이다. 인식될 수 있는 바와 같이, 휴대용 케이스는 방어 UAV(102)들의 수의 함수로서 스케일 업 또는 스케일 다운될 수 있다.
부유 저장 시스템(106b). 지상 설치가 비실용적이거나 바람직하지 않은 경우, 도 5a 내지 도 5c에 도시된 바와 같이 부유 저장 시스템(106b)이 채용될 수 있다. 부유 저장 시스템(106b)의 전반적인 구조는 지지 케이블들(504)에 의해 연결된 일련의 적층 플랫폼들(stacked platforms)(502)(예를 들어, 도시된 바와 같이, 4개의 플랫폼들(502a, 502b, 502c, 502d))이다. 플랫폼들의 세트(502)는 장착 포인트(506)(예를 들어, 깃대, 건물 측면 등)로부터 매달려 있고, 하부 플랫폼(502a)과 고정 표면(516)(예를 들어, 지상의 베이스) 사이에 부착된 장력선들(tensioning lines)(508) 및 플랫폼(502)의 자체 중량의 조합을 사용하여 플랫폼들(502) 사이에서 분리를 유지한다. 부유 저장 시스템(106b)을 높은 지점으로부터 매달아 놓는 것은 항공기 비행 관점에서 유익하며, 또한 부당 조작에 대한 잠재성을 감소시킨다.
전력 케이블들(510) 및 데이터 케이블들(512)은 방어 UAV(102)가 발사를 준비하도록 유지하고 지상국 제어기(402)와 연락할 수 있도록 저장 시스템의 플랫폼들(502)을 연결한다. 전력 케이블들(510) 및 데이터 케이블(512)들은 지지 케이블들(504)을 감싸거나 통합할 수 있다. 도 5c에 도시된 바와 같이, 안테나(408)는 더 높은 지점(예를 들어, 최상부 플랫폼(502d))에 위치될 수 있는 한편, 다양한 전기 부품들(예를 들면, 지상국 제어기(402), 라디오(404) 및 충전 시스템(406))은 시스템의 긴장도(tautness)를 증가시키기 위해 하부 플랫폼(502a) 내에 위치될 수 있다. 방어 UAV(102) 및/또는 플랫폼들(502)의 중량에 따라, 전력 케이블들(510), 데이터 케이블들(512) 및 임의의 다른 도체들(예를 들어, 발사 컨덕터들(launch conductors)(514))이 지지 케이블들로서 기능할 수 있으므로, 지지 케이블들(504)에 대한 필요성을 배제한다.
부유 저장 시스템(106b)의 구조는 특히 회로 기판 재료(예를 들어, Rogers RO4003C), 섬유 유리(fiberglass), 비닐 직물(vinyl fabric), 강철 케이블(steel cable) 및/또는 나일론 끈(nylon cord)으로 제작될 수 있다. 각각의 플랫폼(502)은 방어 UAV(102)의 발들(feet) 상에 있는 접점들을 통하여 전력 케이블(510)들을 통해 전력을 분배하고 데이터 케이블(512)을 통해 데이터를 분배한다. 데이터 및/또는 전력은 또한 방어 UAV들(102)에 무선으로 전달될 수 있다(예를 들어, 유도 충전, RF 등). 각각의 플랫폼(502)은 비, 눈 및/또는 파편을 방지하면서 공기가 인클로저(enclosure)를 통해 순환할 수 있도록 배플 공기 통로들(baffled air passages)을 포함할 수 있다. 공기 순환은 수동적이거나, 능동적이거나, 그것의 리프트 모터(208a)들을 저전력으로 운용하고 또한 이 모터들의 자체 고장 진단(built-in test)으로서 기능하는 방어 UAV(102)에 의해 주기적으로(예를 들어, 규칙적인 간격으로) 유도될 수 있다. 공기 순환은 방어 UAV(102)가 온도에 의해 손상(예를 들어, 냉기로 인한 배터리 용량 감소, 극도의 열기로 인한 구성요소 고장 등)되지 않는다는 것을 보장하기 위해 중요하다. 플랫폼(502)은 또한 저온을 견디기 위해 가열 요소들을 통합할 수 있다. 하나의 인클로저 내에서의 공기 순환은 단일 지점 고장(single point failure)들을 방지하면서 다른 것들과는 독립적이다. 인클로저들의 독립성은 또한 방어 UAV(102) 중 일부가 다른 것들의 준비 상태에 영향을 미치지 않고 발사될 수 있음을 보장한다. 인클로저의 측벽(sidewall)들은 비히클이 전개할 수 있도록 힌지 결합되거나 그렇지 않으면 개방되게 접힌다(fold open)(이 관념적 개념에서, 이들은 직물로 보여진다).
비히클은, 운송 중에 또는 날씨에 의해 유도된 움직임으로 인해 여기저기 이동하지 않는다는 것을 보장하기 위해, 및, 전력 및 데이터 소스들과의 접촉을 신뢰성있게 유지하기 위해, 플랫폼(502)에 확실하게 고정된다. 발사 신호가 발사 컨덕터들(514)을 통해 보내질 때, 인클로저의 측벽(518)들이 개방(및 낙하(drop down))하고, 비히클은 포지티브 캡처(positive capture)로부터 해제된다(비히클 방출 신호 캐리어는 발사 컨덕터(514)로서 도시된다). 그런 다음 비히클은 날아 가기 전에 인클로저를 퇴장하기 위한 초기 기동을 수행한다. 이러한 초기 기동은 바람직한 퇴장 방향을 생성하기 위해 플랫폼(502)의 의도적인 기울기에 의해 도움을 받을 수 있다.
UAV 제어기(108). 도 4 및 도 5c에 도시된 바와 같이, UAV 제어기(108) 및 UAV 저장 시스템(106)은 별개의 구성요소들로서 도 1에 도시되어 있지만, UAV 제어기(108)는 UAV 저장 시스템(106)과 함께 통합되거나/UAV 저장 시스템(106)에 위치할 수 있고 전력 및 데이터 링크들을 통해 방어 UAV들(102)에 연결될 수 있다. 상술한 바와 같이, UAV 제어기(108)는 일반적으로 장기간 동안 방어 UAV(102)들을 유지하기 위한 지상국 제어기(402), 라디오(404) 및 충전 시스템(406)을 포함한다.
C-RAM C2 시스템(110)과 호환 가능한 라디오(404) 및 방어 UAV(102)에 대한 저가의 업링크(uplink)를 포함하는 간단한 지상 중계기 유닛을 통해 (예를 들어, UAV 제어기(108) 및/또는 UAV 저장 시스템(106)을 통해) 통신이 달성될 수 있다. 이해될 수 있는 바와 같이, 이 업링크에서의 지연은 효과적인 제어를 제공하기 위해 최소화되어야 한다. C-RAM C2 시스템(110)이 GPS 참조 없이 타겟 항공기(104)를 향하여 조종할 수 있도록 충분히 정확한 상대 포지션 정보를 제공하는 경우, 변환 매트릭스는 방어 UAV(102) 상의 공중 방어 시스템(100)에 의해 C-RAM C2 시스템(110)으로부터의 데이터를 사용가능한 트랙들로 변환하는 데 사용될 수 있다. 통신에서의 주요 장애물들은 크기, 무게, 전력 및 가격(size, weight, power and cost: SWaP-C) 및 보안이고 - Rajant Breadcrumb 및 Persistent Systems MPU-4/5와 같은 라디오들은 C-RAM C2 시스템(110)과 통합할 필요가 있을 수 있지만, 그것들은 무겁고, 값 비싸며 및 전력을 갈구한다(power hungry). 따라서, 공중 방어 시스템(100)의 지상 요소(예를 들어, UAV 제어기(108))에 C-RAM C2 시스템(110)-가능한 라디오를 통합하는 것은 방어 UAV(102)에 대한 암호화된 업링크에 대해 매우 저가의 라디오들을 통해 선호될 수 있다. 이 수신-및-전파 접근법은 C2의 매우 저지연(low latency)의 번역/전달을 요구하지만, 방어 UAV(102)의 비용을 감소시킬 것이다. 예를 들어, 예시적인 저비용 라디오들은 TrellisWare Technologies 및 Silvus Technologies에 의한 것들을 포함한다. 관리 및 통신 구성요소들은 광범위하게 다양할 수 있으며, 또한 최소화될 수 있다. 예를 들어, 통신은 관리 및 통신 시스템에 의해 수신 및 전파되는 대신에 요격기(interceptor)에게/요격기로부터 직접적일 수 있다. 타겟팅 및 유도(guidance) 구성요소들을 포함하는 다양한 소프트웨어 구성요소도 전반적 개념 내에 하우징될 수 있다.
HMI 장치(114). 도 6a 내지 도 6d는 다양한 예시적인 디스플레이 스크린들을 갖는 예시적인 HMI 장치(114)를 도시한다. HMI 장치(114)는 시스템의 상태를 초기화, 무장 및 업데이트하기 위한, 및 발사 후 모니터링 및 상태 경고를 위한 오프 보드(off-board) 컴퓨터 기반 시스템을 제공한다. HMI 장치(114)는 셋업, 모니터링 및 발사 후 제어를 제공한다. HMI 장치(114)는 소프트웨어 애플리케이션들(예컨대, ATAK, KILSWITCH 등)에 통합될 수 있다. HMI 장치(114)는 상황 인식 및 제어 기능성을 제공하면서 방어 UAV(102)들의 효과적인 명령 및 제어를 보장한다. 소프트웨어 애플리케이션에서 제공되는 정보는 건전성 및 상태 및 잠재적 명령 기능들(potentially command functions)뿐만 아니라 현재의 위협들 및 방어 UAV(102)의 위치를 포함할 수 있다. 인터페이스는 링크를 확립하고 외부 타겟팅 및 명령 및 제어 시스템과 함께 동작 가능하게 되는 부팅 프로세스를 지원할 것이다.
HMI 장치(114)는 공중 방어 시스템(100)의 효과적인 명령 및 제어를 보장하는 데 사용될 수 있다. HMI 장치(114)는 상황 인식 및 제어 기능성 제공하기 위해 공중 방어 시스템(100)의 모든 요소들과 통신할 수 있다. 이를 위해, HMI 장치(114)는 방어 UAV(102) 건전성 및 상태 및 방어 UAV(102) 명령 기능들뿐만 아니라 현재 위협들 및 방어 UAV(102) 모두의 위치 상에서의 정보를 수신할 수 있다. HMI 장치(114)는 또한 방어 UAV(102)들의 전체 배터리의 초기화 및 모니터링을 가능하게 하기 위해 지상 저장 시스템의 다양한 요소들과 통신할 수 있다. 시스템은 또한 정적 인터페이스 C-RAM 통신 네트워크(Static Interface C-RAM Communication Network: SI-CCN) 및 암호화 CCN(Encryption CCN: E-CCN)과 통합될 수 있고, 링크를 확립하며 C-RAM C2 시스템(110) C2 시스템과 함께 동작 가능하게 되는 부팅 프로세스를 지원한다. 공중 방어 시스템(100)이 단일 HMI 장치(114)로 도시되어 있지만, 다수의 HMI 장치(114)들이 (예를 들어, UAV 제어기(108)를 통해) 공중 방어 시스템(100)과 통신 가능하게 결합될 수 있다. 예를 들어, 다른 조작자들(예를 들어, 가입자들)이 그들의 HMI 장치들(114)을 통해서 경보들만을 수신할 수 있는 반면, 하나 이상의 조작자는 방어 UAV(102)를 모니터링 및 제어하는 능력 모두를 제공받을 수 있다. HMI 장치(114)는 또한 방어 UAV(102) 궤적 및/또는 파라미터들의 맵 기반 표시(map-based indication)를 용이하게 할 수 있다. HMI 장치(114)는 또한 조작자가 타격/교전을 중단할 수 있게 하는 웨이브 오프 버튼(wave-off button)을 특징으로 할 수 있다. 웨이브 오프 명령이 공중 방어 시스템(100)에 의해 수신되면, (C-RAM C2 시스템(110)의 능력들에 의존하는) 방어 UAV(102)는 복구 루틴(recover routine), 배회 루틴(loiter routine), 지상 배회 루틴(ground loiter routine) 및 중단 루틴(abort routine)을 포함하는 복수의 비행 루틴들 중 하나를 가정할 수 있다. 복구 루틴에서, 방어 UAV(들)(102)는 기지(base)(홈(home)) 또는 다른 지정된 복구 포인트로 복귀할 수 있다. 배회 루틴에서, 방어 UAV(들)(102)는 현재 타겟에 관여하기를 거절하고 C-RAM C2 시스템(110)으로부터 다음 명령이 올 때까지 기다릴 수 있다. 지상 배회 루틴에서, 방어 UAV(102)는 지정된 위치에 착륙하고 (관측하고) 새로운 타겟을 위해 대기할 수 있다. 중단 루틴에서, 방어 무인 항공기(102)는 정지하여 지상으로 떨어질 수 있다. 특정 양상들에서, HMI 장치(114)는 설치의 복잡성을 최소화하기 위해, 시스템을 무장시키기 위해, 사용자들에게 상태를 알기 위해, 및 발사 시 사용자에게 어떻게 요격이 수행될지에 대한 옵션들을 제공하기 위해 태블릿 또는 셀폰 기반 인터페이스를 채용할 수 있다. HMI 장치(114)는 다양한 수준들의 복잡성 및 기능성이 있을 수 있고, 또는 완전히 포기될 수 있어, 타겟팅 시스템이 인터페이스로서 단독으로 행동할 수 있게 한다. HMI 장치(114)가 통합되면 다양한 형태들의 컴퓨터들 또는 핸드헬드 장치들에 있을 수 있으며, 다른 구성요소들과 다양한 방법들로 통신할 수 있다.
도면들을 참조하면, HMI 장치(114)는 툴바 영역(tool bar area)(618a) 및 주 디스플레이 영역(primary display area)(618b)으로 도시된다. HMI 장치(114)는 공중 방어 시스템(100)의 구성요소들과 조작자 사이에서 통신의 채널로서 기능한다. 예를 들어, HMI 장치(114)는 UAV 저장 시스템(106), UAV 제어기(108), 및/또는 방어 UAV(102)들으로부터의 지시들이나 피드백을 수신하고 명령하는 데 사용될 수 있다. HMI 장치(114)는 디스플레이 장치(예를 들어, 액정 디스플레이(liquid crystal display: LCD))를 통해 UAV들(102) 및/또는 항공기의 현재 상태(예를 들어, 현재 설정들)를 디스플레이할 수 있다. HMI 장치(114)의 GUI 디스플레이는 또한 야간 투시 고글들과 양립할 수 있어서 조작자의 안경과 상관없이 알아볼 수 있다. 툴바 영역(618a)은 메인 화면 아이콘(602)을 통한 메인 화면(620), 비디오 아이콘(604)을 통한 비디오 피드 화면(video feed screen)(622), 맵 아이콘(606)을 통한 맵 화면(624), 및/또는 설정 아이콘(608)을 통한 설정 화면 사이에서 토글(toggle) 하는 데 사용될 수 있다.
도 6a에 도시된 바와 같이, 메인 화면(620)은 홈 설정 윈도우(set home window)(610)를 통해 사용자가 홈 위치(즉, 홈 좌표들)를 설정할 수 있게 할 수 있다. 홈 설정 윈도우(610) 내에서, 조작자는 현재의 HMI 위치(610b)(예를 들어, GPS, 통신 타워들을 이용하는 삼각 측량 기술들 등에 기초할 수 있는 온보드 트래킹 장치에 의해 결정되는 HMI의 위치)로서, 또는 내비게이션 시스템(224)로부터의 신호들에 기초할 수 있는 UAV(610c)의 현재 위치로서 맵(610a)을 통해 홈 좌표들을 설정할 수 있다. 메인 화면(620)은 관측 설정 윈도우(set observation window)(612)를 통해 사용자가 관측 좌표들을 설정할 수 있게 할 수 있다. 홈 설정 창(610)과 마찬가지로, 관측 설정 창(612) 내에서, 조작자는 맵(612a)을 통해 현재의 HMI 위치(612b)로서 또는 UAV(612c)의 현재 위치로서 관측 좌표들을 설정할 수 있다. 비행 목적 윈도우(fly to window)(614)를 사용하여, 조작자는 홈 좌표들(614a), 관측 좌표들(614b) 또는 다른 좌표들(614c)로 방어 UAV(102)들이 날아가도록(즉, 항법하도록) 지시할 수 있다. 명령 윈도우(616)는 발사(616a), 착륙(616b), 및/또는 (예를 들어, 타겟 항공기(104)를) 타격(616c)하는 데 사용될 수 있다.
도 6b에 도시된 바와 같이, 비디오 피드 스크린(622)은 센서 페이로드(226)로부터 실시간으로 UAV의 FOV를 사용자에게 제공할 수 있다. 비디오 피드는 온보드 카메라들(226a)(예를 들어, VR/AR 오버레이(overlay) 없는 실제 비디오)에 의해 캡쳐되거나, 측정 데이터로 오버레이되거나, 및/또는 VR 시뮬레이션 시스템(예를 들어, VR 시뮬레이션 시스템(800))으로부터의 가상 현실(virtual reality: VR) 오버레이(overlay)로 심지어 증강될 수 있다. 비디오 피드는 디스플레이 헤드셋(예를 들어, VR 헤드셋) 및/또는 디스플레이 스크린(예를 들어, LCD 디스플레이)과 같은 다른 장치에서 나중에 검색(retrieval) 및/또는 복제되기 위해 기록될 수 있다. 도 6c에 도시된 바와 같이, 맵 화면(624)은 홈 위치, UAV 위치 및 관측 위치를 맵 상에 디스플레이할 수 있다. 위치들 각각은, 특히 좌표들을 제공하는 콜아웃 윈도우(callout window)와 함께 제공될 수 있다. UAV 위치는 연료/배터리 충전 레벨, 고도, 속도 및/또는 헤딩과 같은 방어 UAV(들)(102)의 동작 파라미터들을 더 제공할 수 있다. 메인 화면(620)의 아이콘들은 풀 탭 아이콘(pull tab icon)(626)을 통해 다양한 화면들로부터 액세스될 수 있다. 예를 들어, 도 6d에 도시된 바와 같이, 주 디스플레이 영역(618b)은 메인 화면(620) 아이콘들 및 다른 화면(예를 들어, 맵 화면(624))이나 그 일부를 동시에 디스플레이할 수 있으므로, 조작자가 예를 들어 지도 및/또는 비디오를 모니터링하면서 하나 이상의 파라미터들을 변경/조정할 수 있게 한다.
타겟 무력화. 타겟 무력화 과정은 일반적으로 3 단계로 나눌 수 있다; 사전 교전(pre-engagement), 교전(engagement) 및 사후 교전(post-engagement) 단계이다. 타겟팅은 여러 가지 방법으로 수행될 수 있지만, 하나의 인스턴스화(instantiation)는, 시각 기반 유도 시스템을 사용하는 최종 유도가 뒤를 잇는, (비히클에 직접적으로 라우팅되거나 또는 요격기 관리 및 통신 시스템에 의한 저가 라디오 쌍을 통해 중계된) 외부 타겟팅 시스템으로부터 업링크된 명령들을 사용하여 타겟을 향해 사전 유도(preliminary guidance)를 하는 것이다.
사전 교전. 공중 방어 시스템(100)의 목적은 타겟 항공기(104)와의 교전이다. 즉, 일단 공중 방어 시스템(100)이 타겟 항공기(104)의 발견, 고정, 트래킹 및 타겟팅을 수행하면, 공중 방어 시스템(100)은 C-RAM C2 시스템(110)과 같은 공통 데이터 포맷을 사용하여 외부 시스템으로부터 원격 발사 명령들, 내비게이션 정보, 트랙들(tracks) 및 메타데이터를 인터페이스 세부사항들과 함께 수신한다. 공중 방어 시스템(100)의 전방 배치(forward emplacement)는 각각이 다수의 방어 UAV(102)들을 포함하는 하나 이상의 UAV 저장 시스템(106)과 통신 가능하게 결합된 UAV 제어기(108)를 포함한다. UAV 저장 시스템(106)들은 야영지와 같은 관심 영역을 둘러싸고 있는 높은 지점들에 위치될 수 있다. UAV 제어기(108) 및 하나 이상의 UAV 저장 시스템들(106)은 함께 위치되거나 원격으로 위치될 수 있고, 케이블들을 통해 또는 무선으로 통신 가능하게 결합될 수 있다.
일단 안테나들(예를 들어, 라디오 안테나들)이 설정되고 공중 방어 시스템(100)의 전원이 켜지면, 공중 방어 시스템(100)은 통신 링크를 확립하고, 예를 들어 여단(BDE) 전술작전본부(tactical operations center: TOC)의 C-RAM C2 시스템(100)과 함께 동작가능함을 검증한다. 공중 방어 시스템(100)의 진행 및 상태는 설정 인터페이스 디스플레이 화면을 통해 HMI 장치(114)를 통해 조작자(예를 들어, 군인)에게 디스플레이될 수 있다. HMI 장치(114)를 통해, 조작자는 공중 방어 시스템(100)을 무장할 수 있고 웨이브-오프/복귀(wave-off/return) 포인트들을 정의할 수 있다. 일단 설정이 완료되면, HMI 장치(114)는 설정 화면에서 상태 및 웨이브 오프 인터페이스 화면으로 전환할 수 있다. 다른 조작자들(예를 들어, 군인들)은 그들의 HMI 장치들(114)을 통해 기존 배치들에 가입할 수 있다.
교전. 교전 중에, 하나 이상의 방어 UAV(102)는 C-RAM C2 시스템(110)에 자신의 GPS 위치들을 브로드캐스팅(broadcast)할 수 있는데, 이는 어느 방어 UAV(들)(102)가 발사하여 타겟 항공기(104)를 요격하도록 유도할지를 고르는 데에 이 위치들을 사용한다. 방어 UAV(102)는 타겟 항공기(104)를 찾고 그 궤적을 확립하기 위해 외부의 C-RAM C2 시스템(110) 센서들에 의존한다. C-RAM C2 시스템(110)은 다양한 센서들로부터 타겟 항공기(104)에 관련된 정보를 수신한다. 무장된 시스템들에 의해 통신된 정보에 기초하여, C-RAM C2 시스템(110)은 이용 가능한 방어 UAV들(102)을 결정한다.
C-RAM C2 시스템(110)의 발사 명령은 타겟 항공기(104)의 비행 경로/궤적을 반영하는 궤적 데이터를 포함할 수 있다. 그런 다음 C-RAM C2 시스템(110)은 타겟 항공기(104)로 가는 루트를 업데이트하는 트랙들을 제공하면서 하나 이상의 방어 UAV(102)를 발사할 수 있다. 동작 시에, C-RAM C2 시스템(110)은 방어 UAV(102)를 발사할 뿐만 아니라, 타겟 항공기(104)를 향하여 요격 유도를 수행하기 위해서(즉, 비례 항법(proportional navigation)) 원격 위치(예를 들어, 기지국)에게 통신될 수 있는 포맷으로, 충분한 정보를 전송할 수 있다. 이것은 (미사일에 관한) 가속 명령들 또는 타겟 항공기(104)와 항공기(방어 UAV(102))의 상대 위치의 형태를 취할 수 있으며, 원격 위치에서 항법 명령들을 도출할 것이다.
방어 UAV(102)는 요격 포인트(intercept point)를 계산하고 그 포인트를 향하여 날아간다. 방어 UAV(102)는 비행 중에 C-RAM C2 시스템(110)으로부터 타겟 항공기(104) 업데이트를 계속해서 수신하고, 가능성 있는 인터셉트 포인트를 재계산하고, 그에 따라 비행 궤적을 조정한다. 일단 타겟 항공기(104)에 충분히 가까워지면, 드론은 내부 센서들에게 더 많은 하중을 할당하고, 타겟 항공기(104)를 식별한다. 내장 센서들로부터의 정확한 데이터를 사용하여, 방어 UAV(102)는 비행 능력을 너머 타겟 항공기(104)를 손상시키면서, 및, 어떤 경우에는 스스로를 손상시키면서 타겟 항공기(104)에게로 날도록 계속해서 기동한다. 만약 타겟 항공기(104)가 파괴되면, 임의의 백업 팔로워(backup follower) 방어 UAV(102)들은 기지로 복귀할 수 있고, 이 경우 그 배터리들은 교체(swapped out)되거나 충전될 수 있다.
도 7a는 UAV 등록(700a) 동안의 방어 UAV(들)(102)와 C-RAM C2 시스템(110) 간의 예시적인 메시지 교환 시퀀스를 도시한다. 단계 702에서, 방어 UAV(102)의 전원이 켜진다. 방어 UAV(102)는 원격 제어기 및/또는 물리적 스위치를 통해 전원이 켜질 수 있다. 예를 들어, 방어 UAV(102)는 일단 완전히 충전되면 자동으로 전원이 켜질 수 있다. 단계 704에서, 방어 UAV(102)는 자신의 이용가능성 및 그 고유 식별자(ID)를 무선으로 브로드캐스팅한다(예를 들어, 광고한다). 무선 브로드캐스트는 예를 들어 C-RAM C2 시스템(110) 또는 공중 방어 시스템(100)의 다른 구성요소들에 의해서 암호화되고 이들에 의해서만 판독될 수 있다.
단계 706에서, C-RAM C2 시스템(110)은 방어 UAV(120)를 인증하기 위해 중계기(relay)(예를 들어, UAV 제어기(108))를 사용하여 방어 UAV(120)와 직접적으로 또는 간접적으로 핸드셰이크 프로토콜(마찬가지로 암호화 될 수 있음)을 수행한다. 만약 C-RAM C2 시스템(110) 또는 UAV 제어기(108)가 방어 UAV(102)를 인증할 수 없으면, C-RAM C2 시스템(110) 또는 UAV 제어기(108)는 방어 UAV(102)를 위협으로 표시하거나 및/또는 단계 712에서 인증 프로세스를 종료하기 전에 HMI 장치를 통해 조작자에게 경고할 수 있다. 방어 UAV(102)가 위협으로 간주되는 경우, C-RAM C2 시스템(110)은 (예를 들어, 도 7b의 프로토콜을 사용하여) 인증되지 않은 방어 UAV(102)를 파괴하도록 다른 방어 UAV(102)에게 명령할 수 있다.
일단 인증되면, 방어 UAV(102)는 자신의 다양한 파라미터들을 단계 708에서 보고할 수 있다. 예시적인 파라미터들은 예를 들어 그 포지션, 상태, 배터리 상태/범위 등을 포함한다. 방어 UAV(102)는 자신의 파라미터들을 주기적으로 보고할 수 있다. 예를 들어, 방어 UAV(102)는 정해진 기간에 자신의 파라미터들을 정기적으로 브로드캐스팅할 수 있는데, 이는 방어 UAV(102)가 여전히 이용가능하다는 것을 확인하기 위한 하트비트 메시지(heartbeat message)로서 기능할 수 있다. 대안으로, 방어 UAV(102)는 이벤트에 대한 응답으로 자신의 파라미터를 브로드캐스팅할 수 있다. 예를 들어, 파라미터들 중 하나가 변경되면(예를 들어, 위치가 변경되고, 배터리가 고갈되기 시작할 때 등), 방어 UAV(102)는 C-RAM C2 시스템(110)에 경고할 수 있다. 단계 710에서, C-RAM C2 시스템(110)은 방어 UAV(102)를 그것의 현재 파라미터와 마찬가지로 이용가능한 방어 UAV(102)의 목록에 추가한다.
초기 조종은 C-RAM C2 시스템(110)으로부터의 궤적 업데이트들에 기초하여 지상에서 UAV 제어기(108)를 통해 제공될 수 있다. 최종 유도(terminal guidance)는 범위가 상대적으로 간단하게 호밍을 렌더링할 만큼 충분히 낮은 경우, 온보드 카메라 기반 호밍 시스템을 사용하여 자율적으로 달성될 수 있다. 타겟 무력화 장치(예를 들어, 전개가능한 네트, 총 등)는 필요에 따라 (예를 들어 항공기 프로세서(216)를 통해) 고용될 수 있다. 일단 방어 UAV(102)가 타겟 항공기(104)의 소정의 거리(예컨대, 약 50 미터) 내에 있으면, 카메라 기반 탐색 시스템은 타겟 항공기(104)를 스캔할 수 있다.
즉각적인 스트래핑 패스가 타겟 항공기와의 미사일-유사(missile-like) 충돌 코스 상의 방어 UAV(102)와의 교전 중에 수행될 수 있다. 상대 항공기 속도들 및 직면 각도들(encounter angles)에 따라, 이것은 타격에 충분할 수 있다. 만약 그것이 타격을 야기하지 않거나 폐쇄율(closure rate)들이 타겟 상의 '락(lock)'을 유지하기에는 너무 높다고 간주되는 경우, 방어 UAV(102)는 타겟 항공기(104)를 지나칠 수 있고 제2 패스를 위해 정렬할 수 있다. 제2 패스는 상대적으로 저속 접근법과 타겟 항공기의 스트래핑을 허용하면서, 트레일링 포지션으로 들어가기 위해 방어 UAV(102)의 우수한 속도와 기동성을 활용할 것이다. 스트래핑 조작(또는 조작들의 세트)을 수행할 때, 공중 방어 시스템(100)은 추가 기능들을 수행해야 한다. 첫째, 공중 방어 시스템(100)은 움직이고 잠재적으로 기동하는 타겟 항공기(104)의 트레일링 포지션으로 들어가기 위해, '관여하기 위한 트래킹(track to engage)' 유도 계산들을 수행해야 한다. 두 번째로, 스트래핑을 위해 타겟 항공기(104)에 대해 적절한 포지션을 유지하는 접근법을 설정해야 한다. 셋째, MIDAS는 발사하기 위해 안정적인 플랫폼을 구축하기 위해 속도 제어, 비행 경로 각도 제어, 중력 및 바람에 대한 조정을 포함할 수 있는 스트래핑 접근법을 설정해야 한다. 다음으로, 타겟 무력화 장치(또는 다른 무기) 자체는 타겟 항공기(104)를 향해 조종되어야 한다. 스트레핑하는 동안, 조종 장치(포탑(turret), 짐발 또는 다른 메커니즘)가 무기를 가리킬 것이다. 공중 방어 시스템(100)은 카메라 기반 탐색 장치 입력들에 기초하여 조종 장치의 여분의 자유도를 명령할 것이다. 예를 들어, 탐색기는 동체 자체에 장착될 수 있고('구멍에 위치된(bore-sited)'), 로직은 (중력의 중심을 타겟 방향으로 조종하기 위한) 비히클 가속 명령들을 제공하는 것에서 (스트래핑을 수행하기 위한) 무기 조준 명령들로 스위칭할 수 있다. 게다가, 방어 UAV(102)의 비행 경로에 대한 타겟의 상승 및 방위각 오프셋은 방어 UAV(102) 또는 그 서브 구성요소들이 피칭(pitch) 또는 요잉(yaw)하도록 명령함으로써 수용될 수 있고, 이러한 자유도들이 존재하는 경우, 이는 경로에 대해 과도한 피칭(over-pitched) 또는 측면 미끄러짐(side-slipping)을 초래한다. 이 경우, 요잉 고도/동체 피칭 명령들에 대한 종방향/측면 가속도, 속도 및 비행 경로는 비히클을 카메라 시야에서 유지하고 타겟을 향해 무기를 가리키도록 조심스럽게 혼합되어야 한다.
방어 UAV(102)가 가까워질 때, 타겟 항공기(104)가 조명되고, 탐색 시스템을 사용하여 타겟 무력화 장치가 적절하게 정렬되면, 타겟 무력화 장치는 예를 들어 항공기 프로세서(216)를 통해 트리거될 수 있다. 데미지 평가는 단순히 '스트래핑 모드'에서 타겟을 계속 탐색하고 추적함으로써 수행될 수 있다. 모든 시스템들은 타겟을 더 이상 트래킹할 수 없을 때까지 그 타겟팅 동작들을 계속할 수 있다 - 즉, 그것은 추적하기에 너무 빨리 아래로 가속(추락)한다.
도 7b는 전개 및 교전(700b)(예를 들어, 타격) 동안 방어 UAV(들)(102) 및 C-RAM C2 시스템(110) 간의 예시적인 메시지 교환 시퀀스를 도시한다. 단계 714에서, C-RAM C2 시스템(110)은 위협(예를 들어, 타겟 항공기(104))을 식별한다. C-RAM C2 시스템(110)은 위협의 현재 위치 및 궤적을 결정할 수 있다. 단계 716에서, C-RAM C2 시스템(110)은 (그들의 마지막으로 알려진 위치들에 기초하여) 위협에 근접한 하나 이상의 방어 UAV(102)를 식별한다. 예를 들어, C-RAM C2 시스템(110)은 위협의 현재 위치의 소정의 거리 내에서, 또는 위협의 궤적을 따라 전개하기 위해 2 개 이상의 방어 UAV(102)들을 식별할 수 있다. 단계 718 에서, C-RAM C2 시스템(110)은 단계(716)에서 식별된 하나 이상의 방어 UAV(102)에 발사 명령 메시지를 보낸다(예를 들어 전송한다). 발사 명령 메시지는 타겟 위치 및 궤적을 포함한다. 단계 720에서, 발사 명령 메시지에 응답하여, 하나 이상의 방어 UAV(102)는 승인(확인) 메시지로 응답한다. C-RAM C2 시스템(110)은 하나 이상의 방어 UAV(102)에 궤적 업데이트들을 주기적으로 전송할 수 있고, 각각은 확인들 및 그 예상 요격 포인트로 응답할 수 있다. 단계 721에서, 방어 UAV(102)는 외부 유도 모드 하에서 타겟 항공기쪽으로 조종하도록 구성될 수 있다.
단계 722에서, 방어 UAV(102)는 로컬 유도 모드(local guidance mode)(즉, 온보드 센서들을 이용한 자체 유도)로 스위칭한다. 예를 들어, 방어 UAV(102)는 타겟이 방어 UAV(102)의 온보드 센서 페이로드의 범위 내에 있을 때 로컬 유도 모드로 스위칭할 수 있다. 로컬 유도 모드로 있는 동안, 방어 UAV(102)는 (예를 들어, 변경됨으로써 또는 주기적이고 규칙적인 간격으로 단순히 그것을 공급함으로써) 계산된 요격 포인트로 단계 724에서 C-RAM C2 시스템(110)을 주기적으로 업데이트할 수 있다. 방어 UAV(102)는 타겟 교전(예를 들어, 타겟 타격)까지 로컬 유도 모드를 유지할 수 있다. 예를 들어, 방어 UAV(102)는 온보드 발사체들, 네트들을 사용하여 또는 단순히 타겟 항공기(104)에 충돌함으로써 타겟 항공기(104)를 타격할 수 있다. 방어 UAV(102)가 작전상 사후-교전으로 유지하는 경우, 방어 UAV(102)는 단계 726에서 그 건전성 상태를 C-RAM C2 시스템(110)에 보고할 수 있다. 건전성 상태는 배터리 레벨, 그의 비행 구성요소들의 상태(예를 들어, 온보드 시스템들의 동작 상태)를 포함할 수 있다. 건전성 상태에 따라, C-RAM C2 시스템(110), (예를 들면, HMI 장치(114)를 통한) UAV 제어기(108) 또는 다른 시스템이 추후 회수를 위해 자율적으로 착륙하거나 또는 다른 타겟에 관여하도록 지시할 수 있다. 가능한 경우, 방어 UAV(102)는 기본 메시지로의 복귀를 단계 728에서 보고할 수 있고, 홈 기지 또는 다른 소정의 위치로 자율적으로 복귀하도록 시도할 수 있다.
사후 교전. 타겟 항공기(104)가 살아남으면(예를 들어, 근접하게 놓친 경우), 추가적인 방어 UAV(102)는 타겟 항공기(104)가 무력화될 가능성을 증가시키기 위해 따라갈 수 있다. 특정 양상들에서, 타겟 항공기(104)는 타겟 항공기(104)가 무력화될 가능성을 증가시키기 위해 다중 패스들을 만들 수 있다. 방어 UAV(102)가 성공적인 교전 후에도 살아남는다면, 방어 UAV(102)는 사전에 정의된 복구 포인트로 자율적으로 복귀할 수 있다. 가속 및 배터리 방전으로 인해, 방어 UAV 102는 재사용하기 전에 재충전이 필요할 수 있다.
가상 현실 하드웨어 인루프(In-loop) 센서 시뮬레이션들. 가상 현실(VR) 또는 증강 현실(AR) 시뮬레이션 시스템은, 항법 자율 알고리즘들이 개발될 수 있는 높은 충실도의 사진처럼 현실적인(photo-realistic) 항공 시뮬레이션 환경, 및, 적은 실험 비행 시간들로 그룹 1에서 그룹 5까지 UAS 상에서 비행 특성들을 시뮬레이션 환경에 결합하는 항공 전자 장비 키트 모두를 생산하는 데 사용될 수 있다. VR 및 AR 시뮬레이션 시스템들은 공중 방어 시스템(100) 및 방어 UAV(102)와 관련하여 일반적으로 기술되지만, VR 시뮬레이션 시스템은 사실상 모든 비히클(공기, 육지 또는 바다)에 적용될 수 있다. 예를 들어, 이러한 유형의 시스템은 자동차 또는 보트 용으로 사용될 수 있는데, 공중 시스템들이 3D 솔루션이 필요한 반면 이들은 2D로 제한될 수 있다. 광학적 시뮬레이션 외에도 레이더, LiDAR, 열 또는 기타 감지 방식을 사용하는 시뮬레이션이 고려된다. VR 또는 AR 시뮬레이션 시스템은 공중 조작들 또는 공중 곡예들을 수행할 때 매우 유용하게 기능한다. 공중 조작의 경우, 인공적인 제약들(숨겨진 골목길들 등)을 시뮬레이션하기 위한 능력이 시스템 테스트를 견고하게 할 수 있다. 공중 곡예들의 경우, 이 정확한 포지셔닝 능력이 비행 역학의 비선형성을 보다 잘 모델링할 수 있게 할 것이다.
그래픽 소프트웨어 엔진(예를 들어, Unity3D 또는 Unreal)을 사용하고 방어 UAV(102)의 모션에 단단히 결합하는 공중 시뮬레이션 환경이 사용될 수 있다. 예를 들어, VR 시뮬레이션 시스템은 방어 UAV(102)의 측정된 포지션 및 포즈에 기초한 가상 환경에서 방어 UAV(102) 상의 (예를 들어, 센서 페이로드(226)를 통한) 광학 카메라에 의해 캡처될 모방된 카메라 영상(emulated camera imagery)을 (실시간으로 또는 거의 실시간으로) 렌더링하는 데 사용될 수 있다. 예를 들어, 시뮬레이션된 구조물들/물체들이 AR 시스템에서 실제 이미지 위에 놓일 수 있는 한편, 이미지는 VR 시스템에서 완전히 시뮬레이션될 수 있다.
모방된 센서/카메라 영상으로부터의 피드백에 대한 방어 UAV(102)의 응답은 가상 환경에서 비행 테스트를 구성하는 데 사용될 수 있다. 예를 들어, 레이더, 장파 적외선, 소나(sonar), LiDAR 등을 통합하기 위해 현재의 광학 카메라를 능가하는 센서 기법들을 모방하면서, 내비게이션 시스템(224)(예를 들어, RTK GPS/INS)이 방어 UAV의 위치 및 포즈를 캡처하는데 사용될 수 있다. 이러한 VR 및 AR 시스템을 사용하면 실험 비행 시간들의 수를 줄임으로써 새로운 항법 자율 알고리즘들을 개발하는 프로젝트들이 감소된 비용으로 수행되도록 하고, 비행 비히클 사고들과 관련된 리스크들을 줄이고, 모든 가능한 시나리오들에 대한 알고리즘 견고성의 비행 기반 검증인 몬테-카를로(Monte-Carlo)의 사용을 가능하게 함으로써 테스트 및 평가 결과들의 적시성 및 정확성을 향상시킨다.
VR 시뮬레이션 시스템은 감지 및 회피와 같은 특징들을 테스트하기 위한 알고리즘을 포함할 수 있으며, 이는 비히클-대-비히클 충돌 조우들에서의 유용성을 입증할 수 있을 것이다. Unity3D 또는 Unreal을 그래픽 엔진으로 활용하는 공중 시뮬레이션 환경은, 충돌들을 감지하고 광선 투사법(ray-casting)을 수행하고 강체 동역학, 유체들 및 입자들을 해결함으로써 상호작용들의 강한 행동과 실시간 성능을 가능하게 하는 PhysX SDK의 사용을 지원한다. 이는 스마트폰들에서부터 CPU들 및 GPU들에 이르기까지 넓은 범위의 장치들에서 지원되는 확장 가능한 솔루션이다. 비행에서 실제 방어 UAV(102)들의 공중 능력들을 GPU-구동 물리 엔진들에 의해 가능하게 되는 시각화 능력들과 함께 밀접하게 결합하는 것은, 전통적인 기존(on-the-bench) HIL(hardware-in-the-loop) 시뮬레이션들보다 더 기능적이고 훨씬 정확한 시뮬레이션 인프라를 생성함으로써 더 나은 능력들을 허용한다. 공기 중의 또는 지상의 장애물들을 쉽게 재구성하고 조정할 수 있는 능력을 가진 시뮬레이션 환경에서 실제 비히클에 임베디드 솔루션을 연결함으로써, 테스트의 품질이 현재 표준들보다 훨씬 향상될 것으로 믿는다.
도 8을 참조하면, VR 시뮬레이션 시스템(800)은 일반적으로 로컬 RTK GPS(806), 시뮬레이션 컴퓨터(802) 및 로컬 무선 송수신기(804)를 포함할 수 있다. VR 시뮬레이션 시스템(800)은 네트워크(228)(및 관련 하드웨어)를 통해 간접적으로 결합된 방어 UAV(102)와 직접적으로 통신가능하게 결합될 수 있다. 메모리 장치(802b)와 동작적으로 결합된 프로세서(802a)를 포함하는 시뮬레이션 컴퓨터(802)는 가상 현실 감지 및 자율 알고리즘들(예를 들어, 이하에 논의되는, GPS 거부 시나리오들(SENsinG)에서 SUAS 운항(navigating)을 위한 시뮬레이션 항공전자 키트 및 시뮬레이션 환경) 모두를 제공하는 데 사용될 수 있다. 시뮬레이션 컴퓨터(802)는 디스플레이 장치(예를 들어, 가상 현실 헤드셋(808), 컴퓨터 모니터(810) 등) 및/또는 사용자 인터페이스(812)(예를 들어, 키보드, 마우스, 터치 스크린 오버레이 등)와 같은 하나 이상의 사용자 장치로 동작적으로 제어될 수 있다. 가상 현실 감지 및 자율 알고리즘들에 대한 데이터 입력들로서, 로컬 무선 송수신기(804)의 안테나를 통해 시뮬레이션 컴퓨터(802)는 방어 UAV(102)의 GPS(224a), IMU(224c) 및 항공기 프로세서(216)와 통신하거나 그로부터 데이터를 수신할 수 있다.
방어 UAV(102) 상에서, IMU(224c)는 9-자유도 포즈 정보를 제공하고 한편 GPS(224a)는 방어 UAV(102)의 포지션에 관한 센티미터 레벨의 정확도를 제공할 수 있다. 항공기 프로세서(216)는 항공기 무선 송수신기(222)를 통한 전송을 위해 GPS(224a) 및 IMU(224c)로부터의 데이터를 높은 정확도의 비히클 상태(포즈 및 포지션) 정보로 융합한다. 예를 들어, 항공기 프로세서(216)는 높은 정확도의 비히클 상태 정보를 제공하기 위해 확장된 칼만 필터(EKF)를 사용하여 GPS 및 IMU 데이터를 융합할 수 있다. 동작 시, RTK GPS는 저주파 정보를 제공하는 반면 IMU는 고주파 정보를 제공한다; EKF는 평탄화된(smoothed) 포지션 및 포즈 출력을 제공한다. 이 두 가지를 결합함으로써, 대부분의 계산이 지상에서 이루어지므로 공중 비히클이 최소한의 페이로드를 갖게 한다. RTK GPS 및 IMU를 활용함으로써, 가상 현실 HILSIM이 대형 방어 UAV(102)로 실외에서 수행될 수 있다. 이는 빈 영공에서 자율 알고리즘이 테스트될 수 있도록 하지만, 가상 현실 환경에서는 도시를 시뮬레이션할 수 있다. 예를 들어, 방어 UAV(102)들을 충돌시키지 않고도 많은 알고리즘이 테스트될 수 있다.
시뮬레이션 컴퓨터(802)는 가상 현실 센서 입력들을 생성하기 위해 방어 UAV(102)의 상태 정보를 사용한다. 이러한 입력들은 라디오들을 통해 방어 UAV(102)로 피드백할 수 있고 방어 UAV(102)를 제어할 수 있는 자율 알고리즘들을 테스트하는 데에 사용된다. 예를 들어, 정보는 지상에서 로컬 무선 송수신기(804)의 안테나를 통해 송수신기(222)를 거쳐 VR 시뮬레이션 시스템(800)으로 피드된다. VR 시뮬레이션 시스템(800)을 사용하여 시뮬레이션 컴퓨터(802)는 가상 현실 센서 정보를 결정하고, 그런 다음 이들 지각된(perceived) 입력들(자율 알고리즘)에 기초하여 방어 UAV(102)가 행동을 취하도록 제어한다. 예를 들어, 라디오는 RTK GPS 기지국, 라디오 및 시뮬레이션 컴퓨터(802)를 사용하여 하늘의 방어 UAV(102)와 지상 제어국 사이에서 통신한다.
VR 시뮬레이션 시스템(800)은 측정된 포지션 및 포즈에 기초하여 가상 환경에서 비히클상의 광학 카메라에 의해 캡처될 영상을 (실시간으로) 렌더링한다. 모방된 카메라 영상으로부터의 피드백에 대한 방어 UAV(102)의 응답은 가상 환경에서의 비행 테스트를 구성한다. 이 프로그램 하에서, 방어 UAV(102)들의 포지션 및 포즈를 캡처하는 RTK GPS/INS, 및 현재의 광학 카메라를 능가하는 모방된 감지 기법들을 가지고 방어 UAV(102)가 실외로 날아갈 수 있도록 공중 시각화의 능력이 확장될 것이다.
VR 시뮬레이션 시스템(800)은 다수의 기체 플랫폼들에 의해 활용될 수 있는 모듈식 항공전자 키트를 통해 용이하게 될 수 있다. 예를 들어, VR 시뮬레이션 시스템(800)은 비행 제어기(예를 들어, F4 개선된 비행 제어기) 또는 다른 임베디드 프로세서를 통해 비행 제어장치들과 접속하는 개발 키트(예를 들어, Jetson TX1 또는 TX2) 및 센서들을 채용할 수 있고, RTK GPS/INS는 대부분의 sUAS 플랫폼들을 서비스한다. 일 양상에서, 모듈식 항공전자 키트는 캐리어 보드(Jetson TX1), 하나 이상의 카메라, RTK GPS/INS 및 IMU를 포함할 수 있고, 이는 많은 항법 자율 능력들을 가능하게 한다. RTK GPS/INS를 모듈식 항공전자 키트에 추가하는 것은 야외 실험을 가능하게 하므로, 실제 환경 조건(바람, 돌풍, 온도 등) 하에서 훨씬 더 넓은 범위의 테스트가 가능하다. 모듈식 항공전자 키트는 나노 드론(<60g)(예를 들어, Parrot Rolling Spider Drones)에서부터 대형 화물 적재 항공기에 이르기까지 사실상 항공기에 사용될 수 있다.
도 9a를 참조하면, 방어 UAV(102)가 실세계 공간(600a)(그 포지션 및 포즈에 의해 6 자유도로 기술됨)에서 움직임으로써, 방어 UAV(102)상의 센서들에 의해 감지된 실세계 공간(600a)은 시뮬레이션 컴퓨터(802)에 의해 수정/증강된다. 이러한 시뮬레이션된 환경에서 감지 입력들을 생성함으로써, 도 9b에 도시된 바와 같이 가상 현실 헤드셋(808), 컴퓨터 모니터(810) 또는 HMI 장치(114)를 통해 시뮬레이션된 장애물들(902)이 생성되고 디스플레이/오버레이될 수 있다. 시뮬레이션된 장애물들(902)은 인공물들(예를 들어, 건물, 비히클, 송전선 등) 및/또는 자연물들(예를 들어, 나무, 산, 새 등)과 같이 정적이거나 움직이는 물체들을 포함할 수 있다. 시뮬레이션된 장애물(902)은 쉽게 재구성 가능하다. 따라서, 이러한 조정 가능한 시뮬레이션된 장애물들(902)은 장애물들 및 잠재적인 충돌들이 실험적으로 생성되기보다는 시뮬레이션되기 때문에, 엔지니어가 방어 UAV(102)의 손상의 위험이 최소인 임의의 타겟들로 무한한 수의 비행 테스트들을 수행할 수 있게 한다.
상기 인용된 특허들 및 특허 공보들은 본 명세서의 이 부분에서 그 전체가 참조로서 포함된다. 본 발명에 참조로 통합된 참조문헌에서의 용어의 정의 또는 사용이 본 명세서에 제공된 용어의 이해 또는 정의와 반대되거나 일관성이 없는 경우, 본 명세서에 제공된 용어의 의미가 적용되며 참조문헌에서의 해당 용어의 정의가 반드시 적용되는 것은 아니다. 다양한 실시예들이 부품들의 특정 배열들, 특징들 등의 특정 배치와 관련하여 설명되었지만, 이것들은 모든 가능한 배치들 또는 특징들을 소진시키려는 의도가 아니며, 실제로 많은 다른 실시예들, 수정사항들 및 변형들이 당업자에게 확인될 것이다. 따라서, 본 개시 주제의 교시들은 그러므로 명시적으로 상술된 것과 다르게 실시될 수 있음을 이해될 수 있다.
본 출원은 2017년 8월 25일자로 출원되고 "Aerial Vehicle Imaging and Targeting System"으로 명칭된 미국 가출원 제62/550,331호의 이익을 35 U.S.C.§119(e) 하에서 주장하며, 그 내용들은 본 명세서에 참조로 포함된다.

Claims (15)

  1. 비히클에 장착되어 물체를 이미징(image)하고 트래킹(track)하기 위한 트래킹 시스템으로서, 상기 트래킹 시스템은:
    프로세서(308, 402a, 802)에 동작적으로 결합된(operatively coupled) 구조화된 광원(304);
    상기 프로세서(308, 402a, 802)와 동작적으로 결합된 관성 측정 유닛(inertial measurement unit: IMU)(224c) - 상기 관성 측정 유닛(IMU)(224c)은 상기 비히클의 포지션을 나타내는 포지션 데이터를 생성하도록 구성됨 -;
    상기 광원으로부터 상기 물체를 향하여 빛을 조종하는 미러(mirror)(306); 및
    800 Hz보다 큰 리프레시 비율로 이미지들을 캡처하도록 구성된 제1 카메라 및 제2 카메라를 가지면서, 상기 프로세서(308, 402a, 802)에 동작적으로 결합된 스테레오 비전 시스템(stereo-vision system) - 상기 스테레오 비전 시스템은 상기 포지션 데이터의 함수로서 상기 물체의 3차원 포지션을 결정하도록 구성됨 -;
    을 포함하는, 트래킹 시스템.
  2. 청구항 1에 있어서,
    상기 미러(306)는 미러(306) 포지션의 함수로서 상기 광원으로부터의 상기 빛이 상기 물체 쪽으로 지향(direct)하도록 구성되고, 상기 프로세서(308, 402a, 802)는 상기 미러(306) 포지션을 조정하도록 구성되는, 트래킹 시스템.
  3. 청구항 1 또는 청구항 2에 있어서,
    상기 구조화된 광원(304)은 450-495 nm 광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원인, 트래킹 시스템.
  4. 청구항 1 또는 청구항 2에 있어서,
    상기 구조화된 광원(304)은 청색광 스펙트럼(blue light spectrum)의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원인, 트래킹 시스템.
  5. 청구항 4에 있어서,
    상기 스테레오 비전 시스템은 대역 통과 필터를 포함하는, 트래킹 시스템.
  6. 청구항 1 또는 청구항 2에 있어서,
    상기 미러(306)는 전자 기계 시스템(electro-mechanical systems: MEMS) 미러(306)인, 트래킹 시스템.
  7. 청구항 1 또는 청구항 2에 있어서,
    상기 제1 카메라는 제1 시야(field of view: FOV)를 제공하고, 상기 제2 카메라는 제2 시야를 제공하는, 트래킹 시스템.
  8. 청구항 1 또는 청구항 2에 있어서,
    상기 프로세서(308, 402a, 802)는 상기 관성 측정 유닛(IMU)(224c)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 미러(306), 상기 제1 카메라 및 상기 제2 카메라의 각각의 포지션들을 제어하도록 구성되는, 트래킹 시스템.
  9. 비히클에 장착된 센서 페이로드를 사용하여 물체를 트래킹하는 방법으로서, 상기 방법은:
    프로세서(308, 402a, 802)와 동작적으로 결합된 관성 측정 유닛(IMU)(224c)을 통해 상기 비히클의 포지션을 반영하는 포지션 데이터를 생성하는 단계;
    프로세서(308, 402a, 802)에 동작적으로 결합된 구조화된 광원(304)을 통해 빛을 생성하는 단계;
    미러(306) 포지션의 함수로서 미러(306)를 통해 상기 구조화된 광원으로부터의 상기 빛을 상기 물체를 향하여 조종하는 단계 - 상기 프로세서(308, 402a, 802)는 상기 미러(306) 포지션을 조정하도록 구성됨 -; 및
    상기 프로세서(308, 402a, 802)에 결합된 스테레오 비전 시스템을 통해 상기 포지션 데이터의 함수로서 상기 물체의 3차원 포지션을 결정하는 단계 - 상기 스테레오 비전 시스템은 800 Hz보다 큰 리프레시 비율로 이미지들을 캡처하도록 구성된 제1 카메라 및 제2 카메라를 포함함 -;
    를 포함하는, 물체 트래킹 방법.
  10. 청구항 9에 있어서,
    상기 구조화된 광원(304)은 450-495 nm 광 스펙트럼의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원인, 물체 트래킹 방법.
  11. 청구항 9 또는 청구항 10에 있어서,
    상기 구조화된 광원(304)은 청색광 스펙트럼(blue light spectrum)의 파장을 갖는 빛을 생성하도록 구성되는 레이저 광원인, 물체 트래킹 방법.
  12. 청구항 9 또는 청구항 10에 있어서,
    상기 미러(306)는 전자 기계 시스템(electro-mechanical systems: MEMS) 미러(306)인, 물체 트래킹 방법.
  13. 청구항 9 또는 청구항 10에 있어서,
    상기 제1 카메라는 제1 시야(field of view: FOV)를 제공하고, 상기 제2 카메라는 제2 시야를 제공하며, 상기 빛은 상기 제1 시야 및 상기 제2 시야의 각각의 적어도 일부와 겹치는 영역을 비추는, 물체 트래킹 방법.
  14. 청구항 13에 있어서,
    상기 제1 시야의 적어도 일부는 상기 제2 시야의 일부와 겹치는, 물체 트래킹 방법.
  15. 청구항 9 또는 청구항 10에 있어서,
    상기 프로세서(308, 402a, 802)는 상기 관성 측정 유닛(IMU)(224c)으로부터의 상기 포지션 데이터에 적어도 부분적으로 기초하여 상기 미러(306), 상기 제1 카메라 및 상기 제2 카메라의 각각의 포지션들을 제어하도록 구성되는, 물체 트래킹 방법.
KR1020180099229A 2017-08-25 2018-08-24 공중 비히클 이미징 및 타켓팅 시스템 KR102540635B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762550331P 2017-08-25 2017-08-25
US62/550,331 2017-08-25
US16/027,683 2018-07-05
US16/027,683 US11064184B2 (en) 2017-08-25 2018-07-05 Aerial vehicle imaging and targeting system

Publications (2)

Publication Number Publication Date
KR20190022404A KR20190022404A (ko) 2019-03-06
KR102540635B1 true KR102540635B1 (ko) 2023-06-05

Family

ID=63311805

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180099229A KR102540635B1 (ko) 2017-08-25 2018-08-24 공중 비히클 이미징 및 타켓팅 시스템

Country Status (9)

Country Link
US (1) US11064184B2 (ko)
EP (1) EP3447536A1 (ko)
JP (1) JP7207897B2 (ko)
KR (1) KR102540635B1 (ko)
CN (1) CN109425265B (ko)
AU (1) AU2018220147B2 (ko)
CA (1) CA3011476A1 (ko)
IL (1) IL261223B2 (ko)
RU (1) RU2018126270A (ko)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395544B1 (en) * 2016-08-29 2019-08-27 Amazon Technologies, Inc. Electronic landing marker
WO2018052323A1 (en) * 2016-09-16 2018-03-22 Motorola Solutions, Inc. System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object
DE112016007236T5 (de) * 2016-09-16 2019-07-04 Motorola Solutions, Inc. System und Verfahren für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilenVorrichtung zur Verbesserung der Identifikationssicherheit eines Objektes
US20180186472A1 (en) * 2016-12-30 2018-07-05 Airmada Technology Inc. Method and apparatus for an unmanned aerial vehicle with a 360-degree camera system
CN107071364B (zh) * 2017-05-02 2023-08-18 深圳信息职业技术学院 一种基于多摄像头跟踪定位的反无人机装置及方法
US10890927B2 (en) * 2017-09-21 2021-01-12 The United States Of America, As Represented By The Secretary Of The Navy Persistent surveillance unmanned aerial vehicle and launch/recovery platform system and method of using with secure communication, sensor systems, targeting systems, locating systems, and precision landing and stabilization systems
US10527425B1 (en) * 2017-10-10 2020-01-07 Orbital Research Inc. Multi-IMU guidance measurement and control system with handshake capability to refine guidance control in response to changing conditions
JP7043283B2 (ja) * 2018-02-14 2022-03-29 株式会社トプコン 無人航空機の設置台、測量方法、測量装置、測量システムおよびプログラム
IL258077B (en) * 2018-03-13 2021-02-28 Elta Systems Ltd A drone crash system and methods and computer software products useful by the way
US10935991B2 (en) * 2018-06-08 2021-03-02 Aurora Flight Sciences Corporation System and method to reflect radar using aircraft
US11472550B2 (en) 2018-10-03 2022-10-18 Sarcos Corp. Close proximity countermeasures for neutralizing target aerial vehicles
US11465741B2 (en) * 2018-10-03 2022-10-11 Sarcos Corp. Deployable aerial countermeasures for neutralizing and capturing target aerial vehicles
US11440656B2 (en) 2018-10-03 2022-09-13 Sarcos Corp. Countermeasure deployment system facilitating neutralization of target aerial vehicles
US11192646B2 (en) 2018-10-03 2021-12-07 Sarcos Corp. Anchored aerial countermeasures for rapid deployment and neutralizing of target aerial vehicles
US11697497B2 (en) * 2018-10-03 2023-07-11 Sarcos Corp. Aerial vehicles having countermeasures deployed from a platform for neutralizing target aerial vehicles
US10859346B2 (en) 2018-10-31 2020-12-08 Fortem Technologies, Inc. System and method of managing a projectile module on a flying device
US11498679B2 (en) 2018-10-31 2022-11-15 Fortem Technologies, Inc. System and method of providing a projectile module having a net with a drawstring
US11597517B2 (en) 2018-10-31 2023-03-07 Fortem Technologies, Inc. System and method of providing a cocklebur net in a projectile module
US11099266B2 (en) * 2019-01-11 2021-08-24 International Business Machines Corporation Trajectory based threat alerting with friendly device augmentation
US11604261B2 (en) * 2019-02-06 2023-03-14 Lockeed Martin Corporation Extended laser active ranging system, method and computer readable program product
CN109911192B (zh) * 2019-04-17 2024-02-02 福州大学 一种可在垂直墙体栖息和起飞的四旋翼飞行器
US11153315B2 (en) 2019-05-30 2021-10-19 Bank Of America Corporation Controlling access to secure information resources using rotational datasets and dynamically configurable data containers
US11138328B2 (en) 2019-05-30 2021-10-05 Bank Of America Corporation Controlling access to secure information resources using rotational datasets and dynamically configurable data containers
US11165777B2 (en) 2019-05-30 2021-11-02 Bank Of America Corporation Controlling access to secure information resources using rotational datasets and dynamically configurable data containers
CN110276286B (zh) * 2019-06-13 2022-03-04 中国电子科技集团公司第二十八研究所 一种基于tx2的嵌入式全景视频拼接系统
US11292617B1 (en) * 2019-07-24 2022-04-05 National Technology & Egineering Solutions Of Sandia, Llc Spin-stabilized orbital rocket guidance
CN110412605A (zh) * 2019-08-02 2019-11-05 成都昊图新创科技有限公司 一种辅助瞄准激光测距仪和辅助瞄准测距方法
US11913758B2 (en) * 2019-09-09 2024-02-27 QUISnet, Inc. Airborne drones with non-physical distractors
CN112788227B (zh) * 2019-11-07 2022-06-14 富泰华工业(深圳)有限公司 目标追踪拍摄方法、装置、计算机装置及存储介质
US11401047B2 (en) 2020-01-30 2022-08-02 Performance Drone Works Llc Unmanned aerial vehicle with latched net assembly
US11402857B2 (en) * 2020-01-30 2022-08-02 Performance Drone Works Llc Unmanned aertial vehicle with rotatable net assembly
US11401046B2 (en) * 2020-01-30 2022-08-02 Performance Drone Works Llc Unmanned aerial vehicle with net assembly
US11408712B2 (en) 2020-01-30 2022-08-09 Performance Drone Works Llc Unmanned aerial vehicle with collapsible net assembly
CN111272020A (zh) * 2020-03-27 2020-06-12 牛三库 一种可重复使用智能弹网
CN111272019A (zh) * 2020-03-27 2020-06-12 牛三库 一种智能弹网
AU2021277144B2 (en) * 2020-04-01 2023-11-16 Sarcos Corp. System and methods for early detection of non-biological mobile aerial target
WO2021237042A1 (en) * 2020-05-21 2021-11-25 Hoffer Jr John M Aerial robot positioning system utilizing a light beam measurement device
JP2021188954A (ja) * 2020-05-27 2021-12-13 公立大学法人秋田県立大学 環境センサ
US11776369B2 (en) * 2020-06-09 2023-10-03 Applied Research Associates, Inc. Acoustic detection of small unmanned aircraft systems
EP4172960A4 (en) * 2020-06-25 2024-07-17 Innovative Signal Analysis Inc THREE-DIMENSIONAL MULTI-SOURCE DETECTION AND TRACKING
RU2769037C2 (ru) * 2020-06-26 2022-03-28 Российская Федерация, от имени которой выступает Федеральное государственное казенное учреждение "Войсковая часть 68240" Многофункциональный комплекс средств обнаружения, сопровождения и радиопротиводействия применению беспилотных летательных аппаратов малого класса
IL275792B (en) * 2020-07-01 2021-08-31 Imi Systems Ltd A system and method for defense against an incoming aerial threat
CN112050731B (zh) * 2020-08-14 2021-08-20 大连理工大学 基于大型虚拟计量器的测量数据配准精度评价方法
TWI744001B (zh) * 2020-09-22 2021-10-21 神通資訊科技股份有限公司 無人機飛行控制器之ip化轉換器
CN112330747B (zh) * 2020-09-25 2022-11-11 中国人民解放军军事科学院国防科技创新研究院 基于无人机平台的多传感器联合探测和显示方法
CN112161567B (zh) * 2020-09-28 2022-05-03 北京天玛智控科技股份有限公司 一种综采工作面的定位方法及系统
JP7463254B2 (ja) * 2020-11-13 2024-04-08 三菱重工業株式会社 レーザー照射システム、画像生成装置、及び、プログラム
CN112504121B (zh) * 2020-12-02 2022-07-05 西安航天动力研究所 一种大推力火箭发动机结构姿态分析方法
CN113721656B (zh) * 2020-12-08 2024-03-15 北京航空航天大学 一种导弹时变编队三维协同飞行控制方法
CN114604424B (zh) * 2020-12-09 2024-06-28 北京理工大学 一种巡飞查打一体化平台
US20220260721A1 (en) * 2021-02-17 2022-08-18 Honeywell International Inc. Structured light navigation aid
CN114942024A (zh) * 2021-02-17 2022-08-26 霍尼韦尔国际公司 结构光导航辅助设备
CN113188097A (zh) * 2021-05-29 2021-07-30 李新亚 夜晚城市道路的太阳光照明装置
CN113376666A (zh) * 2021-05-31 2021-09-10 哈尔滨工程大学 一种多模多频rtk定位通用终端
US20230106432A1 (en) * 2021-06-25 2023-04-06 Knightwerx Inc. Unmanned system maneuver controller systems and methods
US11932396B1 (en) * 2021-08-09 2024-03-19 Bluehalo, Llc System and apparatus for a high-power microwave sensor using an unmanned aerial vehicle
CN113566757B (zh) * 2021-08-19 2023-04-28 中铁工程装备集团有限公司 拉线式三维空间定位装置
CN113908480B (zh) * 2021-09-14 2023-05-12 淮海工业集团有限公司 一种灭火弹初速度测量系统
US11623762B1 (en) * 2021-09-17 2023-04-11 Beta Air, Llc System and method for actuator monitoring for an electric aircraft
CN113562173B (zh) * 2021-09-26 2022-01-18 西安羚控电子科技有限公司 飞行装置及飞行控制方法
CN114240933B (zh) * 2022-02-21 2022-05-06 中国民航大学 一种用于空中交通管制的ads-b攻击检测方法
CN114812444A (zh) * 2022-04-27 2022-07-29 东风汽车集团股份有限公司 一种汽车通过性参数测量方法
US11598960B1 (en) * 2022-04-28 2023-03-07 Beta Air, Llc Systems and methods for a heads-up display for an electric aircraft
CN115265285B (zh) * 2022-05-23 2024-01-19 中国人民解放军国防科技大学 一种针对微型飞行目标的反制方法和系统
CN115017759B (zh) * 2022-05-25 2023-04-07 中国航空工业集团公司沈阳飞机设计研究所 一种无人机末端自主防御仿真验证平台
DE102022004187A1 (de) * 2022-09-13 2024-03-14 Bär Technology GmbH Vorrichtung und Verfahren zur Abwehr von fliegenden Objekten
CN115597498B (zh) * 2022-12-13 2023-03-31 成都铂贝科技有限公司 一种无人机定位及速度估计方法
KR102656635B1 (ko) * 2023-06-30 2024-04-11 (주)다츠 자폭무인기 운용 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105759834A (zh) 2016-03-09 2016-07-13 中国科学院上海微系统与信息技术研究所 一种主动捕获低空小型无人飞行器的系统及方法
US20170067734A1 (en) 2015-09-09 2017-03-09 Faro Technologies, Inc. Aerial device that cooperates with an external projector to measure three-dimensional coordinates
US20170094251A1 (en) * 2015-09-30 2017-03-30 Faro Technologies, Inc. Three-dimensional imager that includes a dichroic camera
EP3168704A1 (en) 2015-11-12 2017-05-17 Hexagon Technology Center GmbH 3d surveying of a surface by mobile vehicles
US20170144756A1 (en) * 2015-11-25 2017-05-25 Mohammad Rastgaar Aagaah Drone having drone-catching feature

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0499874A3 (en) 1986-09-11 1992-10-28 Hughes Aircraft Company Digital visual and sensor simulation system for generating realistic scenes
US5953110A (en) * 1998-04-23 1999-09-14 H.N. Burns Engineering Corporation Multichannel laser radar
CN100502762C (zh) * 1998-12-10 2009-06-24 卡尔蔡斯耶拿有限公司 无接触式测量眼睛轴长和角膜曲率半径的组合仪器
US7102496B1 (en) 2002-07-30 2006-09-05 Yazaki North America, Inc. Multi-sensor integration for a vehicle
US20050031169A1 (en) 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
US7818127B1 (en) * 2004-06-18 2010-10-19 Geneva Aerospace, Inc. Collision avoidance for vehicle control systems
US7768527B2 (en) 2006-05-31 2010-08-03 Beihang University Hardware-in-the-loop simulation system and method for computer vision
WO2008056359A2 (en) 2006-11-09 2008-05-15 Israel Aerospace Industries Ltd. Mission training center instructor operator station apparatus and methods useful in conjunction therewith
US8543265B2 (en) 2008-10-20 2013-09-24 Honeywell International Inc. Systems and methods for unmanned aerial vehicle navigation
US20100268069A1 (en) * 2009-04-16 2010-10-21 Rongguang Liang Dental surface imaging using polarized fringe projection
US10108079B2 (en) 2009-05-29 2018-10-23 Soraa Laser Diode, Inc. Laser light source for a vehicle
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
EP2527784A1 (de) 2011-05-19 2012-11-28 Hexagon Technology Center GmbH Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
US8654314B2 (en) * 2011-05-25 2014-02-18 Raytheon Company Rapidly deployable high power laser beam delivery system
US9010683B2 (en) 2011-09-30 2015-04-21 Aurora Flight Sciences Corporation Rail recovery system for aircraft
US9085362B1 (en) * 2012-11-21 2015-07-21 Lockheed Martin Corporation Counter-unmanned aerial vehicle system and method
US10410537B2 (en) 2013-08-30 2019-09-10 Insitu, Inc. Unmanned vehicle simulation
IL234372B (en) 2013-08-31 2020-02-27 Izidor Gabbay Ronen A robotic system and method for complex internal warfare
US9594250B2 (en) 2013-12-18 2017-03-14 Hexagon Metrology, Inc. Ultra-portable coordinate measurement machine
US9817396B1 (en) 2014-06-09 2017-11-14 X Development Llc Supervisory control of an unmanned aerial vehicle
CN105745587B (zh) 2014-07-31 2018-09-21 深圳市大疆创新科技有限公司 使用无人飞行器实现的虚拟观光系统及方法
EP3195010A4 (en) * 2014-08-15 2018-04-11 Aeye, Inc. Methods and systems for ladar transmission
WO2016049924A1 (en) 2014-09-30 2016-04-07 SZ DJI Technology Co., Ltd. Systems and methods for flight simulation
CN113628500A (zh) 2014-09-30 2021-11-09 深圳市大疆创新科技有限公司 用于支持模拟移动的系统和方法
US20160349746A1 (en) * 2015-05-29 2016-12-01 Faro Technologies, Inc. Unmanned aerial vehicle having a projector and being tracked by a laser tracker
US10453348B2 (en) 2015-06-15 2019-10-22 ImageKeeper LLC Unmanned aerial vehicle management
EP3317576B1 (en) * 2015-07-02 2020-09-02 SZ DJI Osmo Technology Co., Ltd. Gimbal for image capturing
EP3195292B1 (en) 2015-07-10 2019-01-09 SZ DJI Technology Co., Ltd. Systems and methods for gimbal simulation
IL256934B (en) 2015-07-27 2022-07-01 Genghiscomm Holdings Llc Airborne relays in cooperative multiple input and multiple output systems
US9928649B2 (en) 2015-08-03 2018-03-27 Amber Garage, Inc. Interface for planning flight path
KR101645722B1 (ko) 2015-08-19 2016-08-05 아이디어주식회사 자동추적 기능을 갖는 무인항공기 및 그 제어방법
US20170059692A1 (en) 2015-08-28 2017-03-02 Laufer Wind Group Llc Mitigation of Small Unmanned Aircraft Systems Threats
CA3000035A1 (en) 2015-09-30 2017-04-06 Alarm.Com Incorporated Drone-augmented emergency response services
US10956980B1 (en) 2016-02-23 2021-03-23 State Farm Mutual Automobile Insurance Company Systems and methods for operating drones in response to an incident
US10073454B2 (en) 2016-03-17 2018-09-11 Northrop Grumman Systems Corporation Machine vision enabled swarm guidance technology
US10315764B2 (en) 2016-06-10 2019-06-11 Wing Aviation Llc Apparatuses for releasing a payload from an aerial tether
US10489972B2 (en) 2016-06-28 2019-11-26 Cognata Ltd. Realistic 3D virtual world creation and simulation for training automated driving systems
US20180164080A1 (en) 2016-08-22 2018-06-14 Richard Chi-Hsueh Land and air defense system having drones
CN106288964A (zh) * 2016-09-18 2017-01-04 公安部第研究所 一种反低慢小飞行器防御系统
US10514711B2 (en) 2016-10-09 2019-12-24 Airspace Systems, Inc. Flight control using computer vision
US10926875B2 (en) * 2016-12-14 2021-02-23 Sanmina Corporation Devices and methods for facilitating capture of unmanned aerial vehicles
WO2018213575A1 (en) * 2017-05-17 2018-11-22 Aerovironment, Inc. System and method for interception and countering unmanned aerial vehicles (uavs)
WO2018227153A1 (en) 2017-06-09 2018-12-13 Resnick Blake Drone implemented border patrol

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170067734A1 (en) 2015-09-09 2017-03-09 Faro Technologies, Inc. Aerial device that cooperates with an external projector to measure three-dimensional coordinates
US20170094251A1 (en) * 2015-09-30 2017-03-30 Faro Technologies, Inc. Three-dimensional imager that includes a dichroic camera
EP3168704A1 (en) 2015-11-12 2017-05-17 Hexagon Technology Center GmbH 3d surveying of a surface by mobile vehicles
US20170144756A1 (en) * 2015-11-25 2017-05-25 Mohammad Rastgaar Aagaah Drone having drone-catching feature
CN105759834A (zh) 2016-03-09 2016-07-13 中国科学院上海微系统与信息技术研究所 一种主动捕获低空小型无人飞行器的系统及方法

Also Published As

Publication number Publication date
CN109425265A (zh) 2019-03-05
US11064184B2 (en) 2021-07-13
JP2019070510A (ja) 2019-05-09
IL261223B2 (en) 2023-03-01
RU2018126270A (ru) 2020-01-17
CN109425265B (zh) 2023-05-16
IL261223B (en) 2022-11-01
AU2018220147B2 (en) 2023-03-16
IL261223A (en) 2019-02-28
EP3447536A1 (en) 2019-02-27
KR20190022404A (ko) 2019-03-06
AU2018220147A1 (en) 2019-03-14
JP7207897B2 (ja) 2023-01-18
US20190068953A1 (en) 2019-02-28
RU2018126270A3 (ko) 2022-03-11
CA3011476A1 (en) 2019-02-25

Similar Documents

Publication Publication Date Title
KR102540635B1 (ko) 공중 비히클 이미징 및 타켓팅 시스템
KR102600479B1 (ko) 공중 비히클 요격 시스템
US11074827B2 (en) Virtual reality system for aerial vehicle
JP6921147B2 (ja) マルチモードの無人航空機
US20210347475A1 (en) Devices and methods for facilitating capture of unmanned aerial vehicles
CN110709320B (zh) 用于拦截和对抗无人飞行器(uav)的系统和方法
JP2022504284A (ja) 目標航空機の無力化及び捕捉のための展開可能な航空上の対策手段
JP2022502621A (ja) 目標航空機の無力化のための密接に近接する対策手段
JP7538808B2 (ja) 兵器ターゲティング訓練システム及びその方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant