KR20170137071A - 적극 식별을 유지하는 머신 대 머신 타겟팅 - Google Patents

적극 식별을 유지하는 머신 대 머신 타겟팅 Download PDF

Info

Publication number
KR20170137071A
KR20170137071A KR1020177026636A KR20177026636A KR20170137071A KR 20170137071 A KR20170137071 A KR 20170137071A KR 1020177026636 A KR1020177026636 A KR 1020177026636A KR 20177026636 A KR20177026636 A KR 20177026636A KR 20170137071 A KR20170137071 A KR 20170137071A
Authority
KR
South Korea
Prior art keywords
aircraft
target
video
targeting
coordinates
Prior art date
Application number
KR1020177026636A
Other languages
English (en)
Other versions
KR102480502B1 (ko
Inventor
맥도날드 존 피블스
앤드류 마틴
찰스 로렌스 베이커
데이지 왕
케빈 제이 아귈라
매튜 알렌 한나
브라이언 영
에릭 손보거
에릭 제임스 아아가드
Original Assignee
에어로바이론먼트, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에어로바이론먼트, 인크. filed Critical 에어로바이론먼트, 인크.
Publication of KR20170137071A publication Critical patent/KR20170137071A/ko
Application granted granted Critical
Publication of KR102480502B1 publication Critical patent/KR102480502B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • B64D1/04Dropping, ejecting, or releasing articles the articles being explosive, e.g. bombs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/16Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/04Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/145Indirect aiming means using a target illuminator
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2206Homing guidance systems using a remote control station
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2233Multimissile systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G9/00Systems for controlling missiles or projectiles, not provided for elsewhere
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • B64C2201/121
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/15UAVs specially adapted for particular uses or applications for conventional or electronic warfare
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

제1 항공기(100) 상의 제1 비디오 센서(102)에 의해 잠재적인 타겟팅 좌표에 대한 장면의 제1 비디오를 캡처하는 단계; 제1 항공기에 의해 제1 비디오(232) 및 연관된 잠재적인 타겟팅 좌표를 송신하는 단계; 프로세서와 통신하는 제1 디스플레이상에서 제1 비디오를 수신하는 단계 - 프로세서는 또한 잠재적인 타겟팅 좌표를 수신함 -; 제1 디스플레이상에서 제1 비디오를 보는 것에 응답하여 잠재적인 타겟팅 좌표를 제2 항공기(116)에 대한 실제 타겟팅 좌표(226)가 되도록 선택하는 단계; 및 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함하며, 실제 타겟팅 좌표에 대응하는 타겟(114)의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 유지되는 타겟팅 방법이 개시된다.

Description

적극 식별을 유지하는 머신 대 머신 타겟팅
제목: 적극 식별을 유지하는 머신 대 머신 타겟팅
발명자들: 앤드류 마틴, 맥 피블스, 척 베이커, 데이지 왕, 케빈 아길라르, 매튜 한나, 브라이언 영, 에릭 손보어, 및 에릭 아가드
관련 출원들에 대한 교차 참조
본 출원은 2015년 3월 25일에 출원된 미국 가특허 출원 번호 제62/138,305호에 대한 우선권 및 그 이익을 주장하며, 그 내용들은 이로써 모든 목적들을 위해 본원에 참조로 통합된다.
본 발명은 무인 항공 시스템들(Unmanned Aerial Systems(UAS))에 관한 것으로서, 보다 구체적으로 타겟들의 UAS 식별에 관한 것이다.
무인 항공 시스템들(Unmanned Aerial Systems(UAS))은 하나 이상의 지상 관제 시스템들(Ground Control Systems(GCS))에서 하나 이상의 오퍼레이터에 의해 원격 제어될 수 있는 무인 항공기들(Unmanned Aerial Vehicles(UAV))을 포함한다. 제한적인 교전 규칙(Restrictive rules of engagement)은 타겟의 적극 식별(positive identification(PID))이 식별에서 최종 접촉(contact)까지 유지되어야 하는 것을 필요로 할 수 있다.
본 발명의 일부 실시예들은 다음을 포함할 수 있는 타겟팅 방법을 포함할 수 있다: 제1 항공기 상의 제1 비디오 센서에 의해 잠재적인 타겟팅 좌표에 대한 장면의 제1 비디오를 캡처하는 단계; 제1 항공기에 의해 제1 비디오 및 연관된 잠재적인 타겟팅 좌표를 송신하는 단계; 프로세서와 통신하는 제1 디스플레이 상에서 제1 비디오를 수신하는 단계 - 프로세서는 또한 잠재적인 타겟팅 좌표를 수신함 -; 제1 디스플레이 상에서 제1 비디오를 보는 것에 응답하여 잠재적인 타겟팅 좌표를 제2 항공기에 대한 실제 타겟팅 좌표가 되도록 선택하는 단계; 및 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하는 단계; 여기서 실제 타겟팅 좌표에 대응하는 타겟의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 유지된다. 추가 예시적 방법 실시예들은 제2 비디오 센서를 갖는 제2 항공기를 발사시키는 단계를 포함할 수 있다.
추가 예시적 방법 실시예들은 실제 타겟팅 좌표에 대한 제1 비디오 센서의 시야(field of view(FOV))를 유지하기 위해 실제 타겟팅 좌표에 대해 제1 항공기를 선회 비행시키는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들은 제2 비디오 센서에 의한 장면의 제2 비디오를 캡처하는 단계, 및 제2 항공기가 실제 타겟팅 좌표에 접근함에 따라 제1 디스플레이 상에서 제2 비디오를 수신하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 타겟의 적극 식별을 유지하는 단계는 프로세서의 사용자에 의해, 제2 항공기가 실제 타겟팅 좌표에 접근하고 있다는 것을 확인하기 위해 제1 디스플레이 상에서 장면의 수신된 제1 비디오와 장면의 수신된 제2 비디오를 비교하는 단계를 더 포함할 수 있다. 추가 예시적 방법 실시예들은 제1 디스플레이 상에서 제1 비디오 및 제2 비디오를 보는 것에 응답하여 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 터미널 호밍 모드는 다음 중 적어도 하나를 더 포함할 수 있다: 제2 항공기에 의해 타겟에 충돌하는 것, 제2 항공기에 의해 전개되는 페이로드에 의해 타겟에 충돌하는 것, 및 제2 항공기에 의해 전개되는 마커에 의해 타겟에 충돌하는 것. 추가 예시적 방법 실시예들은 제1 디스플레이 상에서 제1 비디오를 보는 것에 응답하여 충돌 후에 타겟의 상태를 확인하는 단계를 포함할 수 있다.
추가 예시적 방법 실시예들은 제1 항공기 상의 제1 비디오 센서에 의해 새로운 잠재적인 타겟팅 좌표에 대한 새로운 장면의 제1 비디오를 캡처하는 단계; 제1 항공기에 의해 제1 비디오 및 연관된 새로운 잠재적인 타겟팅 좌표를 송신하는 단계; 프로세서와 통신하는 제1 디스플레이상에서 제1 비디오를 수신하는 단계 - 프로세서는 또한 새로운 잠재적인 타겟팅 좌표를 수신함 -; 제1 디스플레이 상에서 제1 비디오를 보는 것에 응답하여 새로운 잠재적인 타겟팅 좌표를 제3 항공기에 대한 새로운 실제 타겟팅 좌표가 되도록 선택하는 단계; 및 제3 항공기를 새로운 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함할 수 있으며; 여기서 새로운 실제 타겟팅 좌표에 대응하는 새로운 타겟의 적극 식별은 새로운 실제 타겟팅 좌표의 선택으로부터 유지된다. 추가 예시적 방법 실시예들에서, 선택된 잠재적인 타겟팅 좌표는 캡처된 제1 비디오의 중심 시야(center field of view(CFOV))에 대응하는 지리적 좌표 및/또는 캡처된 제1 비디오의 시야(field of view(FOV)) 내의 픽셀에 대응하는 지리적 좌표일 수 있다.
다른 예시적 방법 실시예는 다음을 포함할 수 있다: 지상 관제 시스템(ground control system(GCS))에 의해, 제1 항공기로부터의 제1 비디오 스트림 및 제1 비디오 스트림에 관련되는 잠재적인 타겟팅 좌표를 수신하는 단계; GCS에 의해, 타겟에 대응하는 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하는 단계; GCS에 의해, 제2 항공기로부터 제2 비디오 스트림을 수신하는 단계; 및 GCS에 의해, 실제 타겟팅 좌표를 향하여 제2 항공기를 유도하는 단계; 여기서 타겟의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 GCS에 의해 유지된다.
추가 예시적 방법 실시예들은 GCS에 의해, 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 터미널 호밍 모드는 다음 중 적어도 하나를 포함할 수 있다: 제2 항공기에 의해 타겟에 충돌하는 것, 제2 항공기에 의해 전개되는 페이로드에 의해 타겟에 충돌하는 것, 및 제2 항공기에 의해 전개되는 마커에 의해 타겟에 충돌하는 것. 추가 예시적 방법 실시예들은 GCS를 통해, 제1 항공기로부터의 수신된 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들은 GCS에 의해, 새로운 타겟에 대응하는 새로운 잠재적인 타겟팅 좌표를 새로운 실제 타겟팅 좌표로 선택하는 단계; GCS에 의해, 제3 항공기로부터 제3 비디오 스트림을 수신하는 단계; 및 GCS에 의해, 제3 항공기를 새로운 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 선택된 잠재적인 타겟팅 좌표는 수신된 제1 비디오 스트림의 중심 시야(center field of view(CFOV))에 대응하는 지리적 좌표 및/또는 수신된 제1 비디오 스트림의 시야(field of view(FOV)) 내의 픽셀에 대응하는 지리적 좌표이다.
예시적 시스템 실시예는: 제1 항공기 - 제1 항공기는 제1 프로세서를 포함하고 제1 비디오 스트림 및 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 송신하도록 구성됨 -; 제2 항공기 - 제2 항공기는 제2 프로세서를 포함하고 제2 비디오 스트림을 송신하도록 구성됨 -; 제1 지상 관제 시스템(ground control system(GCS)) - 제1 GCS는 제3 프로세서를 포함하고, 여기서 제1 GCS는 제1 항공기를 유도하도록 구성됨 -; 및 제2 지상 관제 시스템(ground control system(GCS)) - 제2 GCS는 제4 프로세서를 포함함 -을 포함할 수 있고, 여기서 제2 GCS는: 제1 비디오 스트림, 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표, 및 제2 비디오 스트림을 수신하고; 타겟에 대응하는 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하고; 및 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하며; 여기서 타겟의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 제2 GCS에 의해 유지된다.
추가 예시적 시스템 실시예들에서, 제1 GCS는 제1 비디오 스트림을 수신할 수 있다. 추가 예시적 시스템 실시예들에서, 제1 GCS는 제1 항공기를 유도하고 제1 비디오 스트림을 수신하기 위해 제1 디지털 데이터 링크(digital data link(DDL))를 포함할 수 있다. 추가 예시적 시스템 실시예들에서, 제2 GCS는 제1 비디오 스트림, 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표, 및 제2 비디오 스트림을 수신하고, 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하기 위해 제2 DDL을 포함할 수 있다. 추가 예시적 시스템 실시예들에서, 선택된 잠재적인 타겟팅 좌표는 다음 중 적어도 하나에 대응하는 지리적 좌표일 수 있다: 제1 비디오 스트림의 중심 시야(center field of view(CFOV)), 및 제1 비디오 스트림의 시야(field of view(FOV)) 내의 픽셀. 추가 예시적 시스템 실시예들에서, 제2 GCS는 제4 프로세서와 통신하는 그래픽 사용자 인터페이스(graphical user interface(GUI))를 더 포함하고, 여기서 GUI는 제1 비디오 스트림 및 제2 비디오 스트림을 디스플레이하도록 구성된다. 추가 예시적 시스템 실시예들에서, 제2 GCS의 GUI는 제1 항공기의 위치, 제2 항공기의 위치, 제1 항공기의 제1 비디오 스트림의 CFOV, 및 제2 항공기의 제2 비디오 스트림의 CFOV를 갖는 맵을 디스플레이할 수 있다. 추가 예시적 시스템 실시예들에서, 제2 GCS는 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택하고 - 여기서 터미널 호밍 모드는: 제2 항공기에 의해 타겟에 충돌하는 것, 제2 항공기에 의해 전개되는 페이로드에 의해 타겟에 충돌하는 것, 및 제2 항공기에 의해 전개되는 마커에 의해 타겟에 충돌하는 것을 포함할 수 있음 -; 및 제1 항공기로부터의 수신된 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인할 수 있다.
다른 예시적 방법 실시예는: 지상 관제 시스템(GCS)에 의해, 제1 항공기로부터의 제1 비디오 스트림 및 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 수신하는 단계; GCS에 의해, 타겟에 대응하는 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하는 단계; GCS에 의해, 다수의 항공기 중 제2 항공기로부터 제2 비디오 스트림을 수신하는 단계 - 여기서 다수의 항공기 중 제2 항공기는 타겟에 가장 가까이 있음 -; 및 GCS에 의해, 다수의 항공기 중 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함할 수 있으며, 여기서 타겟의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 GCS에 의해 유지된다.
추가 예시적 방법 실시예들은 GCS에 의해, 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 터미널 호밍 모드는 다음 중 적어도 하나를 포함할 수 있다: 제2 항공기에 의해 타겟에 충돌하는 것, 제2 항공기에 의해 전개되는 페이로드에 의해 타겟에 충돌하는 것, 및 제2 항공기에 의해 전개되는 마커에 의해 타겟에 충돌하는 것. 추가 예시적 방법 실시예들은 GCS를 통해, 제1 항공기로부터의 수신된 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들은 GCS에 의해, 다수의 항공기 중 제3 항공기를 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 다수의 항공기는 실제 타겟팅 좌표가 선택될 때까지 사전 설정된 영역 주위를 선회한다(loiter). 추가 예시적 방법 실시예들에서, 다수의 항공기들 중 각각의 항공기는 실제 타겟팅 좌표를 향하여 유도되는 제2 항공기를 따라가고 설정 시간만큼 이격된다.
도면들 내의 구성요소들은 반드시 축척에 따라 도시되는 것은 아니며, 그 대신에 본 발명의 원리들을 예시할 시에 강조될 수 있다. 동일한 참조 번호들은 상이한 도면들 도처에서 대응하는 부분들을 지정한다. 실시예들은 첨부 도면들의 도형들에서 제한이 아닌 예로 예시된다.
도 1a는 제1 항공기가 정보를 하나 이상의 지상 관제 시스템들(Ground Control Systems(GCSs))에 송신하는 무인 항공 시스템(Unmanned Aerial System(UAS))의 일 실시예를 도시한다.
도 1b는 제1 항공기에 의해 식별된 타켓의 선택 후에 제2 항공기가 발사된 UAS의 일 실시예를 도시한다.
도 1c는 제1 항공기가 타겟의 적극 식별을 유지하는 동안에, 제2 항공기가 제1 항공기에 의해 식별된 타겟을 보는 UAS의 일 실시예를 도시한다.
도 1d는 제1 항공기가 타겟의 적극 식별을 유지하는 동안에 제2 항공기가 "커밋(commit)" 모드에 진입하는 UAS의 일 실시예를 도시한다.
도 1e는 타겟이 제2 항공기에 의해 파괴되었고 제1 항공기가 타겟 히트의 시각적 확인을 하나 이상의 GCS에 송신하는 UAS의 일 실시예를 도시한다.
도 2는 송신된 정보 및/또는 비디오를 보고, 수신된 정보 및/또는 비디오에 기초하여 타겟팅 좌표를 선택하는 사용자 인터페이스를 갖는 일 실시예의 예시적 GCS를 도시한다.
도 3은 제1 항공기를 제어하는 제1 GCS와 제2 항공지를 제어하는 제2 GCS 사이의 예시적 연결을 도시한다.
도 4a 내지 도 4c는 타겟의 적극 식별을 유지하는 동안에 2 이상의 항공기로 타켓상의 히트를 식별하고, 제거하고, 확인하는 방법 실시예의 예시적 기능 블록도를 도시한다.
도 5는 타겟이 식별되고 타겟과 관련된 실제 타겟팅 좌표가 선택될 때까지 다수의 항공기가 선회하는 UAS의 일 실시예를 도시한다.
도 6은 다수의 항공기가 단일 타겟에 유도되는 UAS의 일 실시예를 도시하며, 여기서 단일 타겟에 유도되는 항공기 각각은 단일 오퍼레이터가 충돌시에 후속 항공기를 제어하기 위해 전환하는 것을 허용한다.
도 7은 GCS 및/또는 하나 이상의 UAS의 컴퓨팅 장치 실시예의 예시적 최상위 레벨 기능 블록도를 예시한다.
본 발명은 제1 지상 관제 시스템(Ground Control System(GCS))에서 제1 오퍼레이터에 의해 동작되는 제1 항공기가 비디오 스트림 및 캡처된 비디오 스트림에 관한 지리적 좌표들을 포함할 수 있는 장면에 대한 정보를 캡처하는 것을 허용한다. 제1 항공기로부터의 비디오 스트림은 암호화된 데이터로서 하나 이상의 GCS에 송신될 수 있다. 제2 GCS에서의 제2 오퍼레이터는 디스플레이, 예를 들어 그래픽 사용자 인터페이스(graphical user interface(GUI)) 상에서 송신된 비디오 스트림을 보고, 비디오 스트림 상의 타겟의 위치에 대응하는 GUI 상의 타겟팅 좌표를 선택할 수 있다. 타겟의 위치는 비디오의 시야(field of view(FOV)) 내의 임의의 픽셀 또는 중심 시야(center field of view(CFOV))일 수 있다. 타겟의 위치는 항공기 비디오 스트림 내의 임의의 픽셀의 지리적 좌표일 수 있다. 임의의 주어진 픽셀의 지리적 위치는 비디오의 4개의 코너들의 좌표들 및 CFOV로부터 보간될 수 있다. 제2 항공기는 제2 오퍼레이터에 의해 선택된 타겟팅 좌표를 향하여 발사되고 유도될 수 있다. 제1 항공기는 제2 항공기가 선택된 타겟팅 좌표를 향하여 유도되는 동안에 적극 식별(positive identification(PID))을 유지할 수 있다. 제2 항공기는 선택된 타겟팅 좌표에서 타겟에 충돌하기 위해 사용될 수 있다. 제1 항공기로부터의 비디오 스트림은 타겟이 명중되었다는 것을 확인하고 타겟에 대한 임의의 손상의 정도를 확인하기 위해 사용될 수 있다. 제1 항공기는 추가적인 타겟들을 찾기 위해 계속 선회할 수 있다.
도 1a는 제1 항공기(100)가 장면에 대한 정보를 캡처하는 무인 항공 시스템(Unmanned Aerial System(UAS))의 일 실시예를 도시한다. 이러한 정보는 비디오 스트림 및 그러한 비디오 스트림과 관련되는 타겟팅 좌표들일 수 있다. 제1 항공기(100), 예를 들어 캘리포니아주, 먼로비아 소재의 에어로바이론먼트 인크에 의해 제작되는 Puma, Raven, Wasp, 또는 Shrike는 제1 비디오 센서를 갖는 제1 카메라(102)를 가질 수 있으며, 이는 제1 오퍼레이터가 카메라를 그라운드(104) 상의 다양한 위치들을 향하여 지향시키는 것을 허용하기 위해 짐발(gimbal) 상에 장착될 수 있다. 제1 항공기(100) 및/또는 제1 카메라(102)는 제1 GCS(106)와 제1 항공기(100) 사이에서 송신되는 하나 이상의 신호들(105)을 통해 제1 GCS(106)에서 제1 오퍼레이터(101)에 의해 제어될 수 있다. 제1 카메라(102)는 캡처된 비디오 스트림의 중심에 중심 시야(center field of view(CFOV))(110)를 갖는 시야(field of view(FOV))(108)를 가질 수 있다. 제1 항공기(100)의 위치, 제1 카메라(102) 위치, 및/또는 추가 상세들은 잠재적인 타겟팅 좌표로서 제1 카메라(102)의 FOV(108) 내의 임의의 픽셀의 지리적 위치 및/또는 CFOV(110)의 지리적 위치를 계속해서 산출하기 위해 사용될 수 있다. 잠재적인 타겟팅 좌표는 항공기(100) 상에서 산출되고/되거나 비디오 스트림 메타데이터로서 하나 이상의 GCS(106, 112)에 송신될 수 있다. 일부 실시예들에서, 항공기(100)로부터의 데이터는 하나 이상의 GCS(106, 112)에 송신될 수 있고 하나 이상의 GCS(106, 112)는 잠재적인 타겟팅 좌표를 산출할 수 있다. 비디오 스트림 및 잠재적인 타겟팅 좌표들은 하나 이상의 GCS, 예컨대 제1 GCS(106) 및 제2 GCS(112)에 송신될 수 있다. 제2 GCS(112)에서의 제2 오퍼레이터(113)는 타겟(114)이 식별될 때까지 제1 항공기(100)에 의해 송신되는 비디오 스트림(111)을 감시할 수 있다. 타겟(114)이 식별되면, 제2 오퍼레이터(113)는 제2 GCS(112)에서의 입력, 예를 들어 제1 항공기(100)로부터의 비디오 스트림을 도시하는 모니터를 갖는 GUI 상의 버튼을 통해 그러한 타겟(114)에 관련된 잠재적인 타겟팅 좌표를 선택할 수 있다. 잠재적인 타겟팅 좌표는 비디오 스트림의 FOV 내의 임의의 픽셀 또는 CFOV(110)일 수 있다. 잠재적인 타겟팅 좌표가 선택되면, 그것은 타겟(114)과 관련되는 실제 타겟팅 좌표가 된다. 타겟(114)은 정지되거나 이동할 수 있다. 타겟이 이동중에 있으면, 이때, 새로운 잠재적인 타겟팅 좌표는 이동하는 타겟(114)의 새로운 위치, 제1 카메라(102)의 새로운 CFOV(110), 및/또는 카메라(102)의 FOV(108) 내의 타겟(114)의 새로운 위치에 대응하는 새로운 실제 타겟팅 좌표가 되도록 선택될 수 있다. 일부 실시예들에서, 타겟팅 좌표는 이동하는 타겟(114) 및/또는 제1 카메라(102)의 이동하는 CFOV(110)와 적응적으로 이동할 수 있다.
도 1b는 도 1a의 UAS의 실시예를 도시하며, 여기서 제2 항공기(116), 예를 들어 캘리포니아주, 먼로비아 소재의 에어로바이론먼트 인크에 의해 제작되는 Switchblade®은 제2 GCS(112)에서 제2 오퍼레이터(113)에 의한 타겟팅 좌표의 선택에 응답하여 런처(launcher)(120)에 의해 발사되었다(118). 일부 실시예들에서, 제2 항공기(116)는 제2 오퍼레이터(113) 또는 다른 사람에 의해 손으로 발사될 수 있다. 실제 타겟팅 좌표가 이용할 수 있으면, 제1 항공기(100)는 제2 항공기(116)가 타겟(114)과 관련되는 실제 타겟팅 좌표를 향하여 유도되는 동안에, 예를 들어 제1 카메라(102)의 FOV(108) 내에 타겟(114)을 유지함으로써 타겟(114)의 PID를 유지할 수 있다. 제1 항공기(100)는 제1 카메라(102)의 FOV(108)가 타겟(114) 상에 유지되도록 설정된 영역에서 선회 비행하고/하거나, 제자리 비행하고/하거나, 잔류하기 위해 오토파일럿 상에서 유도되고/되거나 설정될 수 있다. 일부 실시예들에서, 제2 항공기(116)는 타겟팅 좌표가 선택된 때 이미 비행중 일 수 있다. 다른 실시예들에서, 제2 항공기(116)는 제1 항공기(100)로부터 발사될 수 있다.
도 1c는 도 1a 및 도 1b의 UAS의 일 실시예를 도시하며, 여기서 제2 항공기(116)는 제1 항공기(100)가 타겟(114)의 PID를 유지하는 동안에 타겟(114)을 향하여 비행중에 있다. 제2 오퍼레이터(113)는 제2 GCS(112)를 통해, 제2 항공기(116)가 타겟(114)을 향하여 유도되는 동안에, 제1 항공기(100)에 의해 송신되는 비디오 스트림(111)을 감시할 수 있다. 제2 오퍼레이터(113)는 또한 예를 들어 제2 카메라에 의해, 제2 항공기(116)와 제2 GCS(112) 사이에서 송신되는 하나 이상의 신호들(122)을 통해, 제2 항공기(116)에 의해 송신되는 비디오 스트림을 감시할 수 있다. 제2 오퍼레이터(113)는 제2 GCS(112)에서 제1 항공기(100) 및 제2 항공기(116) 둘 다에 의해 송신되는 비디오 스트림들을 동시에 볼 수 있다. 타겟(114)이 두 카메라들의 FOV(108, 124)에 있는 경우, PID 전송이 발생하고 제2 오퍼레이터(113)는 미션의 완료를 통해 PID를 유지하기 위해 제2 카메라의 FOV(124)에 집중할 수 있다. 타겟(114)이 제2 항공기(116)의 제2 카메라의 FOV(124)에 있으면, 제2 오퍼레이터(113)는 제2 항공기(116)를 "커밋(commit)" 모드로 배치할 수 있다.
도 1d는 도 1a 내지 도 1c의 UAS의 일 실시예를 도시하며, 여기서 제2 항공기(116)는 제2 항공기(116)와 제2 GCS(112) 사이에서 송신되는 하나 이상의 신호들(122)을 통해, "커밋" 모드로 배치되며, 제2 항공기(116)는 타겟(114)의 실제 타겟팅 좌표를 향하여 터미널 호밍에 진입한다. "커밋" 모드에서, 제2 오퍼레이터(113)는 제2 항공기(116)를 타겟(114)을 향하여 유도한다. 타겟(114)의 PID는 제1 항공기(100)에 의해 유지된다. 일부 실시예들에서, 제2 항공기(116)는 타겟(114)과 접촉하지 않고, 오히려 타겟(114)과 접촉할 수 있는 페이로드 및/또는 마커, 예를 들어 페인트를 전개할 수 있다.
도 1e는 도 1a 내지 도 1d의 UAS의 일 실시예를 도시하며, 여기서 타겟(115)은 예를 들어, 폭발물의 페이로드를 운반하는 제2 항공기와의 접촉에 의해 파괴되었다. 제1 항공기(100)는 타겟팅 좌표의 선택을 통한(도 1a 참조), 제1 식별에서 타겟(115)의 파괴 및/또는 PID 전송까지 타겟(115)의 PID를 유지한다. 제1 항공기(100)는 제1 카메라(102)의 FOV(108)에서 장면을 관측하고 이러한 비디오 스트림을 하나 이상의 GCS, 예컨대 제1 GCS(106) 및 제2 GCS(112)에 송신할 수 있다. 타겟(115)의 파괴는 그들의 각각의 GCS(106, 112)를 통해 제1 오퍼레이터(101) 및/또는 제2 오퍼레이터(113)에 의해 검증될 수 있다. 그 다음, 제1 항공기(100)는 새로운 타겟(124)이 식별될 때까지 비디오 스트림 및 잠재적인 타겟팅 좌표들을 하나 이상의 GCS(106, 112)에 계속해서 송신할 수 있다. 새로운 타겟(124)은 제1 항공기의 제1 카메라(102)의 FOV(108) 내에 있을 수 있다. 새로운 타겟은 또한 제1 항공기(100)의 제1 카메라(102)의 FOV(108)의 외부에 위치될 수 있고, 제1 오퍼레이터(101)는 새로운 타겟의 정확한 위치를 찾아내기 위해 제1 항공기(100) 및/또는 제1 카메라(102)를 제어할 수 있다. 새로운 타겟(124)이 식별되면, 제3 비행기가 제2 GCS(112)를 통해 새로운 활성(active) 타겟팅 좌표를 향하여 발사되고/되거나 유도될 수 있다. 프로세스는 추가적인 비행기들이 없고/없거나 모든 타겟들이 제거되었을 때까지 계속될 수 있다. 일부 실시예들에서, 추가적인 GCS 및/또는 항공기는 타겟들을 식별하고/하거나 제거하기 위해 사용될 수 있다. 다른 실시예들에서, 단일 GCS는 다수의 항공기를 제어하기 위해 사용될 수 있다. 제1 항공기는 잠재적인 타겟팅 좌표를 식별하고 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하기 위해 사용될 수 있다. 이때, 제1 항공기는 예를 들어, PID가 잠재적인 타겟팅 좌표의 초기 선택에서 타겟과의 최종 충돌까지 유지되도록, 오퍼레이터가 제2 항공기를 실제 타겟팅 좌표로 조종하는 동안에, 타겟 위에서 자동 비행 선회(automated flight circling) 또는 그렇지 않으면 호버링(hovering)을 통해, 실제 타겟팅 좌표의 FOV를 유지할 수 있다.
도 2는 하나 이상의 항공기, 예를 들어 제1 항공기(206) 및 제2 항공기(208)에 의해 송신되는 정보를 보고 수신된 송신 정보에 기초하여 타겟 좌표를 선택하기 위한, 컴퓨팅 장치(204), 예를 들어 프로세서 및 어드레서블 메모리를 갖는 랩톱 또는 태블릿 컴퓨터(도 7 참조) 상에 GUI(202)를 갖는 예시적 GCS 실시예(200)를 도시한다. 제1 항공기(206)는 제1 GCS에 의해 제어될 수 있고(도 1a, 106 참조), 제1 항공기는 장면에 대한 정보, 예를 들어 캡처된 비디오 스트림에 관한 비디오 스트림 및 지리적 좌표들을 송신할 수 있다(210). 제1 항공기(206)로부터 송신된(210) 정보는 제1 디지털 데이터 링크(digital data link(DDL))(212), 예를 들어 포켓 DDL에 의해 수신될 수 있다. 제1 DDL(212)은 예를 들어 USB 및/또는 이더넷 케이블에 의해, 컴퓨팅 장치(204)에 연결될 수 있다(214).
컴퓨팅 장치(204)는 GUI(202)와 같은 디스플레이를 가질 수 있으며, 이는 제1 항공기(206)의 위치(218); 제2 항공기의 위치(220); "+"로 디스플레이되는, 제1 항공기(206)의 CFOV(222); "x"로 디스플레이되는, 제2 항공기의 CFOV(224); 실제 타겟팅 좌표(226); 제2 항공기(208)의 엔트리 포인트(228); 및 엔트리 포인트(228)에서 실제 타겟팅 좌표(226)까지의 제2 항공기의 방향(230)을 도시하는 맵(216)을 디스플레이할 수 있다. 일부 실시예들에서, 맵(216)은 또한 각각의 항공기의 FOV를 디스플레이할 수 있다. 예를 들어 5 노트보다 더 큰, 제2 항공기 터미널 단계 동작에 중요한 바람이 있는 경우에, 제2 항공기는 실제 타겟팅 좌표(226) 및 다운윈드(downwind)로부터, 오퍼레이터 선택 가능 최소 거리, 예를 들어 타겟으로부터1,000 미터 다운윈드일 수 있는 엔트리 포인트(228)를 선택할 수 있다. 일부 실시예들에서, 이러한 엔트리 포인트는 추가적인 오퍼레이터 입력을 위한 요구 없이 컴퓨팅 장치(204)에 의해 자동으로 선택될 수 있다. 이러한 엔트리 포인트(228)로부터 실제 타겟팅 좌표(226)에 접근하는 것은 실제 타겟팅 좌표(226)에 대해 제2 항공기(208)의 정확도 및/또는 기동성을 증가시킬 수 있다.
GUI(202)는 또한 제1 항공기(206)에 의해 송신되는(210) 비디오로부터 제1 비디오 스트림(232)을 디스플레이할 수 있다. 오퍼레이터는 원하는 타겟이 제1 비디오 스트림(232)에 나타날 때까지 이러한 제1 비디오 스트림(232)을 볼 수 있다. 그 다음, 오퍼레이터는 예를 들어, 툴바(234), 예를 들어 캘리포니아주, 먼로비아 소재의 에어로바이론먼트 인크에 의한 팔콘뷰 툴바(FalconView toolbar(FVTB)) 상의 하나 이상의 옵션들을 통해, 사용자 인터페이스을 통해, 및/또는 터치 인터페이스를 통해, 제1 비디오 스트림(232)의 FOV 내의 임의의 픽셀 및/또는 CFOV를 타겟팅 좌표로 사용하도록 선택할 수 있다. 일부 실시예들에서, 오퍼레이터는비디오 스트림의 임의의 부분을 타겟팅 좌표가 되도록 선택할 수 있다. 오퍼레이터가 잠재적인 타겟팅 좌표를 선택하는 경우, 그것은 실제 타겟팅 좌표(226)가 된다. 제1 항공기(206)에 의해 송신되고(210) 제1 DDL(212)에 의해 수신되는 정보는 오퍼레이터에 의해 보여지는 제1 비디오 스트림(232)의 FOV 내의 임의의 픽셀 및/또는 CFOV와 관련되는 지리적 정보를 포함한다. 실제 타겟팅 좌표(226)가 활성화되면, 오퍼레이터는 제2 항공기(208)를 발사하고/하거나(도 1b, 118 참조) 이미 비행중인 제2 항공기(208)를 제어할 수 있다. 제2 DDL(236)과 제2 항공기(208) 사이에 송신되는(234) 하나 이상의 신호들은 제2 항공기(208)를 제어하고 제2 항공기(208)로부터 비디오 스트림을 수신하기 위해 사용될 수 있다. 제2 DDL(236)은 제2 항공기(208)와의 가시선(line-of-sight)을 보장하기 위해 타워(238) 상에 장착될 수 있다. 제2 DDL(236)은 컴퓨팅 장치(204) 및/또는 제2 항공기 컨트롤러(242)에 연결될 수 있는 허브(240)에 연결될 수 있다.
GUI는 제2 항공기(208)에 의해 송신되는(234) 비디오로부터 제2 비디오 스트림(244)을 디스플레이한다. 실제 타겟팅 좌표(226)가 활성화되고 제2 항공기(208)가 비행중에 있으면, 오퍼레이터는 제1 항공기(206) 및 제2 항공기(208) 둘 다의 비디오 스트림들(232, 244)을 볼 수 있다. 비디오 스트림들(232, 244) 둘 다를 사용함으로써, 제2 항공기(208)를 실제 타겟팅 좌표(226)를 향하여 유도하는 오퍼레이터는 잠재적인 타겟팅 좌표의 초기 선택에서 타겟과의 최종 충돌까지 타겟의 PID를 유지하기 위해 제2 항공기 컨트롤러(242)를 사용할 수 있다. 일부 실시예들에서, 비디오 스트림들(232, 244)은 단일 스크린 및 장치 및/또는 다수의 스크린들 및/또는 장치들 상에 서로 근접하여 제공될 수 있다.
도 3은 제1 항공기(304)를 제어하는 제1 GCS(302)와 제2 항공기(308)를 제어하는 제2 GCS(306) 사이의 예시적 GCS 실시예(300)를 도시한다. 일부 실시예들에서, 다수의 GCS는 그들 사이의 직접 연결이 예를 들어 이더넷 및/또는 USB 케이블들을 통해, 실현 가능하지 않도록 지리적으로 이격될 수 있다(도 2 참조). 다수의 GCS를 이용하는 것은 타겟의 식별에서 그러한 타겟과의 최종 충돌까지 시간을 감소시키는데 유용할 수 있다. 다른 실시예들에서, 다수의 GCS(302, 306)는 그들이 직접 연결될 수 있도록 지리적으로 충분히 가깝게 이격될 수 있고, 제1 항공기(304) 및/또는 제2 항공기(308)에 의해 송신되는(310, 312) 정보는 추가적인 DDL, 예컨대 포켓 DDL에 대한 요구 없이 공유될 수 있다(도 2, 212 참조). 일부 실시예들에서, 단일 DDL은 2개 이상의 항공기 사이에서, 데이터, 예를 들어 비디오 스트림, 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표들, 및/또는 하나 이상의 항공기 제어들을 수신 및/또는 송신하기 위해 사용될 수 있다.
정보, 예를 들어 비디오 스트림 및 캡처된 비디오 스트림에 관한 지리적 좌표들은 제1 GCS(302)의 제1 DDL(314)로 제1 항공기에 의해 송신될 수 있다(310). 제1 DDL(314)은 수신된 정보를 제1 컴퓨팅 장치(316), 예를 들어 랩톱 또는 태블릿 컴퓨터에 송신할 수 있다. 제1 컴퓨팅 장치(316)는 케이블, 예를 들어 USB 케이블에 의해 제1 어댑터 박스(318)에 연결될 수 있다. 제1 어댑터 박스(318)는 이더넷 케이블(322), 예를 들어 길이가 100 미터까지 이르는 이더넷 케이블에 의해 제2 어댑터 박스(320)에 연결될 수 있다. 제2 어댑터 박스(320)는 케이블, 예를 들어 USB 케이블에 의해 제2 컴퓨팅 장치(324)에 연결될 수 있다. 어댑터 박스들(318, 320)은 USB를 이더넷으로 및 그 반대로 변환시키기 위해 사용될 수 있다. 제2 컴퓨팅 장치(324)에서의 오퍼레이터는 제1 항공기(304)에 이해 캡처된 비디오 스트림을 보고 그러한 비디오 스트림에 기초하여 잠재적인 타겟팅 좌표를 선택할 수 있다(도 2 참조). 제2 컴퓨팅 장치(324)에서의 오퍼레이터는 또한 제2 항공기(308)로부터 비디오 스트림을 수신할 수 있으며, 이는 제2 GCS(306)의 제2 DDL(326)에 송신되고고, 그 다음, 제2 컴퓨팅 장치(324)에 송신된다(312).
도 4a 내지 도 4c는 초기 식별에서 최종 확인까지 타겟의 적극 식별을 유지하는 동안에 2개의 항공기로 타겟에 대한 임의의 손상을 식별하고, 제거하고, 확인하는 방법 실시예의 예시적 기능 블록도를 도시한다(400, 401, 403). 참조 문자들(A 및 B)은 도 4a 내지 도 4c에서 단계들 사이의 연결을 도시하기 위해 사용된다. 제1 항공기의 제1 오퍼레이터는 제1 지상 관제 시스템(GCS)을 통해, 제1 항공기 상에 배치되는 제1 카메라를 통해 잠재적인 타겟의 비디오를 캡처한다(단계 402). 오퍼레이터는 제1 GCS를 통해, PID를 유지하기 위해 타겟 상에 제1 항공기의 제1 카메라를 유지한다(단계 404). 제1 항공기는 제1 카메라로부터의 비디오 스트림 및 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 송신한다(단계 406). 잠재적인 타겟팅 좌표는 메타데이터로 비디오 스트림에 내장될 수 있고, CFOV가 장면에 걸쳐 변함에 따라 계속해서 갱신될 수 있다. 제2 오퍼레이터는 제2 GCS를 통해, 제1 항공기로부터 제1 비디오 스트림 및 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 수신한다(단계 408). 제2 오퍼레이터는 제2 GCS를 통해, 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택한다(단계 410). 일부 실시예들에서, 제2 오퍼레이터는 제2 오퍼레이터가 새로운 타겟, 예를 들어 원래 선택된 타겟보다 더 높은 중요성의 타겟을 식별하면 새로운 실제 타겟팅 좌표를 선택할 수 있다. 제2 카메라를 갖는 제2 항공기는 발사된다(단계 412). 제2 오퍼레이터는 제2 항공기를 발사할 수 있거나, 다른 개인이 사전 발사 체크리스트를 수행하고 제2 항공기를 발사할 수 있다. 일부 실시예들에서, 제2 항공기는 이미 비행중 일 수 있고 제2 오퍼레이터는 제2 항공기로 전환하고/하거나 이를 계속해서 제어할 수 있다. 제2 항공기는 제1 GCS 및/또는 제2 GCS를 통해 발사될 수 있다. 제2 항공기는 제2 카메라로부터 제2 비디오 스트림을 송신한다(단계 414). 제2 오퍼레이터는 제2 GCS를 통해, 제2 비디오 스트림 및 제1 비디오 스트림을 수신한다(단계 416). 제2 오퍼레이터는 제2 GCS를 통해, 제2 항공기를 실제 타겟팅 좌표를 향하여 유도한다(단계 418). 제2 오퍼레이터는 제2 GCS를 통해, 제1 비디오 스트림에서 식별되는 타겟이 실제 타겟팅 좌표에 위치되는 타겟과 동일한 것인지를 확인한다(단계 419). 제2 오퍼레이터는 제2 GCS를 통해, 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택한다(단계 420). 일부 실시예들에서, 타겟은 이동성일 수 있고 그것의 초기 타겟팅 좌표로부터 위치를 변경할 수 있다. 타겟이 이동하였으면, 제2 오퍼레이터는 제2 GCS를 통해, 터미널 호밍 모드를 새로운 타겟 위치에 입력하기 위해 제2 항공기의 경로를 조정할 수 있다. 일부 실시예들에서, 제2 오퍼레이터는 제2 GCS를 통해, PID가 제1 비디오 스트림에 의해 유지되는 한 새로운 타겟 위치에 기초하여 제1 비디오 스트림으로부터 새로운 타겟팅 좌표를 선택할 수 있다. 제2 항공기는 타겟에 충돌한다(단계 422). 일부 실시예들에서, 제2 항공기는 타겟 상에 페이로드, 예를 들어 폭발물, 또는 마커, 예를 들어 페인트를 전개할 수 있다. 제1 오퍼레이터 및/또는 제2 오퍼레이터는 제1 GCS 및/또는 제2 GCS를 통해, 제1 항공기로부터의 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인한다(단계 424). 일부 실시예들에서, 제2 오퍼레이터는 또한 제2 GCS를 통해, 제1 항공기로부터의 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인할 수 있다. 그 다음, 제2 오퍼레이터는 제2 GCS를 통해, 예를 들어 새로운 타겟팅 좌표를 선택하고/하거나 제3 항공기를 발사하는, 추가 액션이 필요한지를 결정할 수 있다. 일부 실시예들에서, 이러한 프로세스는 원하는 효과들이 달성되었을 때까지, 예를 들어 타겟이 제거될 때까지 반복될 수 있다(단계 426).
도 5는 제1 GCS(501)를 통해, 제1 항공기(502)를 제어하는 제1 오퍼레이터(500) 및 제2 GCS(505)를 통해, 비행중인 다수의 항공기(506, 508, 510, 512, 514) 중 하나를 제어할 수 있는 제2 오퍼레이터(504)를 갖는 UAS의 일 실시예를 도시한다. 다수의 항공기(506, 508, 510, 512, 514)는 제2 오퍼레이터(504)에 의해 요구될 때까지 사전 설정된 영역 및/또는 패턴 주위를 선회할 수 있다. 제1 오퍼레이터(502)는 제1 GCS(501)를 통해, 제1 항공기(502) 상의 카메라(520)의 FOV(518) 내의 타겟(516)을 식별할 수 있다. 제2 오퍼레이터(504)는 제2 GCS(505)를 통해, 제1 항공기(502)에 의해 제2 GCS(505)로 송신되는 비디오 스트림을 통해 타겟(516)을 볼 수 있다. 제2 오퍼레이터(504)는 제2 GCS(505)를 통해, 타겟(516)에 관한 잠재적인 타겟팅 좌표를 활성 타겟팅 좌표로 선택할 수 있다(도 2 참조). 제2 오퍼레이터(504)는 제2 GCS(505)를 통해, 선회하고 있는 다수의 항공기(506, 508, 510, 512, 514) 중에서 제2 항공기(506)를 타겟(516)을 향하여 유도되도록(522) 선택할 수 있다. 제2 오퍼레이터(504)는 제2 GCS(505)를 통해, 제2 GCS(505)로 제1 항공기(502)에 의해 송신되는 비디오 스트림을 통해 제2 항공기(506)의 선택 동안에 타겟(516)의 PID를 유지한다. 나머지 다수의 항공기(508, 510, 512, 514)는 제2 오퍼레이터(504)에 의해 타겟(516) 및/또는 새로운 타겟을 향하여 유도될 필요가 있을 때까지 선회를 유지한다.
도 6은 제1 GCS(601)을 통해, 제1 항공기(602)를 제어하는 제1 오퍼레이터(600) 및 제2 GCS(605)를 통해, 설정 시간만큼 서로 이격되고 타겟(616)을 향하여 유도되는 다수의 항공기(606, 608, 610, 612, 614)를 제어하는 제2 오퍼레이터(604)를 갖는 UAS의 일 실시예를 도시한다. 제1 오퍼레이터(600)는 제1 GCS(601)를 통해, 제1 항공기(602) 상의 제1 카메라(620)의 FOV(618) 내의 타겟(616)을 식별할 수 있다. 제2 오퍼레이터(604)는 제2 GCS(605)를 통해, 타겟(616)에 기초하여 활성 타겟팅 좌표를 선택할 수 있다(도 2 참조). 활성 타겟팅 좌표가 제2 오퍼레이터(604)에 의해 선택되면, 다수의 항공기(606, 608, 610, 612, 614)는 따라가기 위해 줄을 서 있고 타겟(616)에 유도될 수 있으며, 다수의 항공기(606, 608, 610, 612, 614) 각각은 설정 시간만큼 이격된다. 제2 오퍼레이터(604)는 제2 GCS(605)를 통해, 타겟(616)의 PID를 유지하기 위해 제1 항공기(602) 및 타겟(616)에 가장 가까운 항공기(606) 모두로부터 공급되는 비디오를 볼 수 있다. 제2 오퍼레이터(604)는 또한 타겟(616)에 가장 가까운 항공기(606)를 제어할 수 있는 반면, 나머지 항공기(608, 610, 612, 614)는 오토파일럿 상에서 계속될 수 있다. 항공기(606)가 타겟과 접촉하면, 제2 오퍼레이터(604)는 제2 GCS(605)를 통해, 제1 항공기(602)로부터 공급되는 비디오를 계속해서 볼 수 있다. 그 다음, 제2 오퍼레이터(604)는 제2 GCS(605)를 통해, 이제 타겟(616)에 가장 가까운 항공기인 항공기(608)를 제어할 수 있고 제3 항공기(608)로부터 제공되는 비디오를 볼 수 있다. 후속 항공기(608, 610, 612, 614)로부터 제어를 전환하고/하거나 비디오 공급들을 보는 것은 각각의 항공기(606, 608, 610, 612, 614)가 타겟을 접촉함에 따라 제2 GCS(605)의 컴퓨팅 장치에 의해 자동으로 제어될 수 있다(도 2 및 도 7 참조). 이러한 프로세스는 타겟(616)이 제거되고/되거나 제2 오퍼레이터(604)가 제어하기 위한 나머지 항공기가 없을 때까지 계속될 수 있다.
도 7은 GCS 및/또는 하나 이상의 UAS(700)의 컴퓨팅 장치 실시예의 예시적 최상위 기능 블록도를 예시한다. 예시적 실시예(700)는 프로세서(724), 예컨대 중앙 처리 유닛(central processing unit(CPU)), 어드레서블 메모리(727), 외부 장치 인터페이스(726), 예를 들어 선택적 범용 직렬 버스 포트 및 관련 프로세싱, 및/또는 이더넷 포트 및 관련 프로세싱, 및 선택적 사용자 인터페이스(729)(도 2 참조), 예를 들어 상태 표시등들(status lights)의 어레이 및 하나 이상의 토글 스위치들, 및/또는 디스플레이, 및/또는 키보드 및/또는 a 포인터-마우스 시스템 및/또는 터치 스크린을 갖는 컴퓨팅 장치(720)로서 도시된다. 선택적으로, 어드레서블 메모리(727)는 예를 들어 다음일 수 있다: 플래시 메모리, 이피롬(eprom), 및/또는 디스크 드리이브 또는 다른 하드 드라이브. 이러한 요소들은 데이터 버스(728)를 통해 서로 통신할 수 있다. 프로세서(724)는 웹 브라우저(723) 및/또는 애플리케이션들(722)을 지원하는 것과 같은 운영 시스템(725)을 가질 수 있으며, 이는 본원에서 설명되는 예시적 실시예들에 따른 프로세스의 단계들을 실행하도록 구성될 수 있다.
위의 실시예들의 특정 특징들 및 측면들의 다양한 조합들 및/또는 서브 조합들이 이루질 수 있고 여전히 본 발명의 범위 내에 있다는 점이 이해된다. 따라서, 개시된 실시예들의 다양한 특징들 및 측면들은 개시된 발명의 다양한 모드들을 형성하기 위해 서로 결합되거나 대체될 수 있다는 점이 이해되어야 한다. 또한, 본원에서 예들로 개시된 본 발명의 범위는 상술한 특정 개시된 실시예들에 의해 제한되지 않아야 한다는 점이 의도된다.

Claims (33)

  1. 타겟팅 방법으로서,
    제1 항공기 상의 제1 비디오 센서에 의해 잠재적인 타겟팅 좌표에 대한 장면의 제1 비디오를 캡처하는 단계;
    상기 제1 항공기에 의해 상기 제1 비디오 및 연관된 잠재적인 타겟팅 좌표를 송신하는 단계;
    프로세서와 통신하는 제1 디스플레이 상에서 상기 제1 비디오를 수신하는 단계;
    상기 제1 디스플레이상에서 상기 제 비디오를 보는 것에 응답하여 상기 잠재적인 타겟팅 좌표를 제2 항공기에 대한 실제 타겟팅 좌표가 되도록 선택하는 단계; 및
    제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함하며,
    상기 실제 타겟팅 좌표에 대응하는 타겟의 적극 식별은 상기 실제 타겟팅 좌표의 선택으로부터 유지되며,
    상기 프로세서는 상기 잠재적인 타겟팅 좌표 또한 수신하는 타겟팅 방법.
  2. 제1항에 있어서,
    상기 제2 항공기를 발사하는 단계
    를 더 포함하며,
    상기 제2 항공기는 제2 비디오 센서를 가지는 타겟팅 방법.
  3. 제2항에 있어서,
    상기 실제 타겟팅 좌표에 대한 상기 제1 비디오 센서의 시야(field of view(FOV))를 유지하기 위해 상기 실제 타겟팅 좌표에 대해 상기 제1 항공기를 유도하는 단계를 더 포함하는 타겟팅 방법.
  4. 제3항에 있어서,
    상기 제2 비디오 센서에 의해 상기 장면의 제2 비디오를 캡처하는 단계; 및
    상기 제2 항공기가 상기 실제 타겟팅 좌표에 접근함에 따라 상기 제1 비디오에 근접한 상기 제2 비디오를 디스플레이하는 단계를 더 포함하는 타겟팅 방법.
  5. 제4항에 있어서,
    상기 타겟의 적극 식별을 유지하는 것은,
    상기 프로세서의 사용자에 의해, 상기 제2 항공기가 상기 실제 타겟팅 좌표에 접근 중인 것을 확인하기 위해 상기 제1 디스플레이 상에서 상기 장면의 상기 수신된 제1 비디오와 상기 장면의 상기 수신된 제2 비디오를 비교하는 단계를 더 포함하는 타겟팅 방법
  6. 제4항에 있어서,
    상기 제1 디스플레이 상에서 상기 제1 비디오 및 상기 제2 비디오를 보는 것에 응답하여 상기 제2 항공기에 의해 상기 타겟 상에 터미널 호밍 모드를 선택하는 단계를 더 포함하는 타겟팅 방법.
  7. 제6항에 있어서,
    상기 터미널 호밍 모드는: 상기 제2 항공기에 의해 상기 타겟에 충돌하는 것, 상기 제2 항공기에 의해 전개되는 페이로드에 의해 상기 타겟에 충돌하는 것, 및 상기 제2 항공기에 의해 전개되는 마커에 의해 상기 타겟에 충돌하는 것 중 적어도 하나를 포함하는 타겟팅 방법.
  8. 제7항에 있어서,
    상기 제1 디스플레이 상에서 상기 제1 비디오를 보는 것에 응답하여 충돌 후에 상기 타겟의 상태를 확인하는 단계를 더 포함하는 타겟팅 방법.
  9. 제8항에 있어서,
    상기 제1 항공기 상의 상기 제1 비디오 센서에 의해 새로운 잠재적인 타겟팅 좌표에 대한 새로운 장면의 새로운 제1 비디오를 캡처하는 단계;
    상기 제1 항공기에 의해 상기 새로운 제1 비디오 및 관련된 새로운 잠재적인 타겟팅 좌표를 송신하는 단계;
    상기 프로세서와 통신하는 상기 제1 디스플레이 상에서 상기 새로운 제1 비디오를 수신하는 단계;
    상기 제1 디스플레이상에서 상기 새로운 제1 비디오를 보는 것에 응답하여 상기 새로운 잠재적인 타겟팅 좌표를 제3 항공기에 대한 새로운 실제 타겟팅 좌표가 되도록 선택하는 단계; 및
    상기 제3 항공기를 상기 새로운 실제 타겟팅 좌표를 향하여 유도하는 단계를 더 포함하며,
    상기 새로운 실제 타겟팅 좌표에 대응하는 새로운 타겟의 적극 식별은 상기 새로운 실제 타겟팅 좌표의 선택으로부터 유지되며,
    상기 프로세서는 상기 새로운 잠재적인 타겟팅 좌표 또한 수신하는 타겟팅 방법.
  10. 제1항에 있어서,
    상기 선택된 잠재적인 타겟팅 좌표는 상기 캡처된 새로운 제1 비디오의 중심 시야(center field of view(CFOV))에 대응하는 지리적 좌표인 타겟팅 방법.
  11. 제1 항에 있어서,
    상기 선택된 잠재적인 타겟팅 좌표는 상기 캡처된 새로운 제1 비디오의 상기 시야(field of view(FOV)) 내의 픽셀에 대응하는 지리적 좌표인 타겟팅 방법.
  12. 지상 관제 시스템(ground control system(GCS))에 의해, 제1 항공기로부터의 제1 비디오 스트림 및 상기 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 수신하는 단계;
    상기 지상 관제 시스템에 의해, 타겟에 대응하는 상기 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하는 단계;
    상기 지상 관제 시스템에 의해, 제2 항공기로부터 제2 비디오 스트림을 수신하는 단계; 및
    상기 지상 관제 시스템에 의해, 상기 제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함하며,
    상기 타겟의 적극 식별은 상기 실제 타겟팅 좌표의 선택으로부터 상기 지상 관제 시스템에 의해 유지되는 방법.
  13. 제12항에 있어서,
    상기 지상 관제 시스템에 의해, 상기 제2 항공기에 의해 상기 타겟 상에 터미널 호밍 모드를 선택하는 단계를 더 포함하는 방법.
  14. 제13항에 있어서,
    상기 터미널 호밍 모드는: 상기 제2 항공기에 의해 상기 타겟에 충돌하는 것, 상기 제2 항공기에 의해 전개되는 페이로드에 의해 상기 타겟에 충돌하는 것, 및 상기 제2 항공기에 의해 전개되는 마커에 의해 상기 타겟에 충돌하는 것 중 적어도 하나를 포함하는 방법.
  15. 제14항에 있어서,
    상기 지상 관제 시스템을 통해, 상기 제1 항공기로부터 상기 수신된 제1 비디오 스트림을 통해 충돌 후에 상기 타겟의 상태를 확인하는 단계를 더 포함하는 방법.
  16. 제15항에 있어서,
    상기 지상 관제 시스템에 의해, 새로운 타겟에 대응하는 새로운 잠재적인 타겟팅 좌표를 새로운 실제 타겟팅 좌표로 선택하는 단계;
    상기 지상 관제 시스템에 의해, 제3 항공기로부터 제3 비디오 스트림을 수신하는 단계; 및
    상기 지상 관제 시스템에 의해, 상기 제3 항공기를 상기 새로운 실제 타겟팅 좌표를 향하여 유도하는 단계를 더 포함하며,
    상기 새로운 실제 타겟팅 좌표에 대응하는 상기 새로운 타겟의 적극 식별은 상기 새로운 실제 타겟팅 좌표의 선택으로부터 유지되는 방법.
  17. 제12항에 있어서,
    상기 선택된 잠재적인 타겟팅 좌표는 상기 수신된 제1 비디오 스트림의 중심 시야(center field of view(CFOV))에 대응하는 지리적 좌표인 방법.
  18. 제12항에 있어서,
    상기 선택된 잠재적인 타겟팅 좌표는 상기 수신된 제1 비디오 스트림의 상기 시야(field of view(FOV)) 내의 픽셀에 대응하는 지리적 좌표인 방법.
  19. 제1 프로세서를 포함하고, 제1 비디오 스트림 및 상기 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 송신하도록 구성되는 제1 항공기;
    제2 프로세서를 포함하고 제2 비디오 스트림을 송신하도록 구성되는 제2 항공기;
    제3 프로세서를 포함하고, 상기 제1 항공기를 유도하도록 구성되는 제1 지상 관제 시스템(ground control system(GCS)); 및
    제4 프로세서를 포함하는 제2 지상 관제 시스템(ground control system(GCS))을 포함하고,
    상기 제2 지상 관제 시스템은:
    상기 제1 비디오 스트림, 상기 제1 비디오 스트림과 관련되는 상기 잠재적인 타켓팅 좌표, 및 상기 제2 비디오 스트림을 수신하고;
    타겟에 대응하는 상기 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하고; 및
    상기 제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하도록 구성되며,
    상기 타겟의 적극 식별은 상기 실제 타겟팅 좌표의 선택으로부터 상기 제2 지상 관제 시스템에 의해 유지되는 시스템.
  20. 제19항에 있어서,
    상기 제1 지상 관제 시스템은 상기 제1 비디오 스트림을 수신하도록 더 구성되는 시스템.
  21. 제20항에 있어서,
    상기 제1 지상 관제 시스템은 상기 제1 항공기를 유도하고 상기 제1 비디오 스트림을 수신하기 위해 제1 디지털 데이터 링크(digital data link(DDL))를 더 포함하는 시스템.
  22. 제21항에 있어서,
    상기 제2 지상 관제 시스템는 상기 제1 비디오 스트림, 상기 제1 비디오 스트림과 관련되는 상기 잠재적인 타겟팅 좌표, 및 상기 제2 비디오 스트림을 수신하고, 상기 제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하기 위해 제2 DDL을 더 포함하는 시스템.
  23. 제19항에 있어서,
    상기 선택된 잠재적인 타겟팅 좌표는 상기 제1 비디오 스트림의 중심 시야(center field of view(CFOV)), 및 상기 제1 비디오 스트림의 시야(field of view(FOV)) 내의 픽셀 중 하나에 대응하는 지리적 좌표인 시스템.
  24. 제19항에 있어서,
    상기 제2 지상 관제 시스템은 상기 제4 프로세서와 통신하는 그래픽 사용자 인터페이스(graphical user interface(GUI))를 더 포함하고, 상기 GUI는 상기 제1 비디오 스트림 및 상기 제2 비디오 스트림을 디스플레이하도록 구성되는 시스템.
  25. 제24항에 있어서,
    상기 제2 지상 관제 시스템의 상기 GUI는 상기 제1 항공기의 위치, 상기 제2 항공기의 위치, 상기 제1 항공기의 상기 제1 비디오 스트림의 CFOV, 및 상기 제2 항공기의 상기 제2 비디오 스트림의 CFOV를 갖는 맵을 디스플레이하도록 더 구성되는 시스템.
  26. 제25항에 있어서,
    상기 제2 지상 관제 시스템은,
    상기 제2 항공기에 의해 상기 타겟 상에 터미널 호밍 모드를 선택하고; 및
    상기 제1 항공기로부터 상기 수신되는 제1 비디오 스트림을 통해 충돌 후에 상기 타겟의 상태를 확인하도록 더 구성되며,
    상기 터미널 호밍 모드는 상기 제2 항공기에 의해 상기 타겟에 충돌하는 것, 상기 제2 항공기에 의해 전개되는 페이로드에 의해 상기 타겟에 충돌하는 것, 및 상기 제2 항공기에 의해 전개되는 마커에 의해 상기 타겟에 충돌하는 것 중 적어도 하나를 포함하는 시스템.
  27. 지상 관제 시스템(ground control system(GCS))에 의해, 제1 항공기로부터의 제1 비디오 스트림 및 상기 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 수신하는 단계;
    상기 지상 관제 시스템에 의해, 타겟에 대응하는 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하는 단계;
    상기 지상 관제 시스템에 의해, 다수의 항공기 중 제2 항공기로부터 제2 비디오 스트림을 수신하는 단계; 및
    상기 지상 관제 시스템에 의해, 상기 다수의 항공기 중 상기 제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함하며,
    상기 타겟의 적극 식별은 상기 실제 타겟팅 좌표의 선택으로부터 상기 지상 관제 시스템에 의해 유지되며,
    상기 다수의 항공기 중 상기 제2 항공기는 상기 실제 타겟팅 좌표에 가장 가까이 있는 방법.
  28. 제27항에 있어서,
    상기 지상 관제 시스템에 의해, 상기 제2 항공기에 의해 상기 타겟 상에 터미널 호밍 모드를 선택하는 단계를 더 포함하는 방법.
  29. 제28항에 있어서
    상기 터미널 호밍 모드는 상기 제2 항공기에 의해 상기 타겟에 충돌하는 것, 상기 제2 항공기에 의해 전개되는 페이로드에 의해 상기 타겟에 충돌하는 것, 및 상기 제2 항공기에 의해 전개되는 마커에 의해 상기 타겟에 충돌하는 것 중 적어도 하나를 포함하는 방법.
  30. 제29항에 있어서,
    상기 지상 관제 시스템을 통해, 상기 제1 항공기로부터 상기 수신된 제1 비디오 스트림을 통해 충돌 후에 상기 타겟의 상태를 확인하는 단계를 더 포함하는 방법.
  31. 제30항에 있어서,
    상기 지상 관제 시스템에 의해, 상기 다수의 항공기 중 제3 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하는 단계를 더 포함하는 방법.
  32. 제27항에 있어서,
    상기 다수의 항공기는 상기 실제 타겟팅 좌표가 선택될 때까지 사전 설정된 영역 주위를 선회하는 방법.
  33. 제32항에 있어서,
    상기 복수의 항공기 중 각각의 항공기는 상기 실제 타겟팅 좌표를 향하여 상기 유도된 제2 항공기를 따라가고 일정 시간만큼 이격되는 방법.
KR1020177026636A 2015-03-25 2016-03-24 적극 식별을 유지하는 머신 대 머신 타겟팅 KR102480502B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562138305P 2015-03-25 2015-03-25
US62/138,305 2015-03-25
PCT/US2016/024088 WO2016154477A1 (en) 2015-03-25 2016-03-24 Machine to machine targeting maintaining positive identification

Publications (2)

Publication Number Publication Date
KR20170137071A true KR20170137071A (ko) 2017-12-12
KR102480502B1 KR102480502B1 (ko) 2022-12-23

Family

ID=56977601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177026636A KR102480502B1 (ko) 2015-03-25 2016-03-24 적극 식별을 유지하는 머신 대 머신 타겟팅

Country Status (10)

Country Link
US (3) US11112787B2 (ko)
EP (1) EP3274660B1 (ko)
JP (1) JP6748102B2 (ko)
KR (1) KR102480502B1 (ko)
CN (2) CN107532921B (ko)
AU (2) AU2016238311B2 (ko)
CA (1) CA2978516C (ko)
DK (1) DK3274660T3 (ko)
SG (2) SG11201706781QA (ko)
WO (1) WO2016154477A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102466459B1 (ko) * 2022-07-14 2022-11-11 국방과학연구소 유도탄의 로이터 제어 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115031581A (zh) 2013-10-31 2022-09-09 威罗门飞行公司 显示目标区域的遥感图像的交互式武器瞄准系统
IL264735B2 (en) * 2016-08-14 2024-01-01 Iron Drone Ltd Flight planning system and methods for interceptor vehicles
WO2018078859A1 (ja) * 2016-10-31 2018-05-03 富士通株式会社 飛行制御プログラム、飛行制御方法、および情報処理装置
CN111099018B (zh) * 2019-12-26 2021-10-22 浙江海洋大学 用于海上无人机的物资投放装置及控制方法
KR20210085463A (ko) * 2019-12-30 2021-07-08 한화디펜스 주식회사 조종기 운용 방법 및 컴퓨터 프로그램과 조종기
KR102656635B1 (ko) * 2023-06-30 2024-04-11 (주)다츠 자폭무인기 운용 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002519619A (ja) * 1998-06-26 2002-07-02 エルエフケー・レンクフルークケルパーズュステーム・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 遠隔制御によって地表付近の標的及び/又は地面に固定された標的を排撃するための方法
US20120210853A1 (en) * 2009-10-22 2012-08-23 Israel Aerospace Industries Ltd. Uav system and method
WO2013163746A1 (en) * 2012-05-04 2013-11-07 Aeryon Labs Inc. System and method for controlling unmanned aerial vehicles

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5458041A (en) * 1994-08-02 1995-10-17 Northrop Grumman Corporation Air defense destruction missile weapon system
US7911497B2 (en) * 2003-04-25 2011-03-22 Lockheed Martin Corporation Method and apparatus for video on demand
US7463753B2 (en) * 2004-09-15 2008-12-09 Raytheon Company FLIR-to-missile boresight correlation and non-uniformity compensation of the missile seeker
US20100157056A1 (en) * 2007-05-20 2010-06-24 Rafael Advanced Defense Systems Ltd. Tracking and imaging data fusion
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
CN106342153B (zh) * 2009-12-31 2014-07-02 中航贵州飞机有限责任公司 飞机武器瞄准误差测量装置及方法
US9057583B2 (en) * 2010-10-28 2015-06-16 Surefire, Llc Sight system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002519619A (ja) * 1998-06-26 2002-07-02 エルエフケー・レンクフルークケルパーズュステーム・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 遠隔制御によって地表付近の標的及び/又は地面に固定された標的を排撃するための方法
US20120210853A1 (en) * 2009-10-22 2012-08-23 Israel Aerospace Industries Ltd. Uav system and method
WO2013163746A1 (en) * 2012-05-04 2013-11-07 Aeryon Labs Inc. System and method for controlling unmanned aerial vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102466459B1 (ko) * 2022-07-14 2022-11-11 국방과학연구소 유도탄의 로이터 제어 방법

Also Published As

Publication number Publication date
JP2018516350A (ja) 2018-06-21
EP3274660A4 (en) 2018-12-19
US20210373554A1 (en) 2021-12-02
AU2016238311A1 (en) 2017-09-07
US20160305745A1 (en) 2016-10-20
US11714407B2 (en) 2023-08-01
CN107532921B (zh) 2021-11-30
CN114152251A (zh) 2022-03-08
WO2016154477A1 (en) 2016-09-29
KR102480502B1 (ko) 2022-12-23
EP3274660A1 (en) 2018-01-31
US20240152137A1 (en) 2024-05-09
EP3274660B1 (en) 2021-07-21
DK3274660T3 (da) 2021-08-23
US11112787B2 (en) 2021-09-07
CA2978516C (en) 2023-09-12
CN107532921A (zh) 2018-01-02
AU2016238311B2 (en) 2021-07-08
JP6748102B2 (ja) 2020-08-26
SG11201706781QA (en) 2017-10-30
CA2978516A1 (en) 2016-09-29
AU2021236490B2 (en) 2024-03-07
SG10201907975SA (en) 2019-10-30
AU2021236490A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
AU2021236490B2 (en) Machine to machine targeting maintaining positive identification
US11126204B2 (en) Aerial vehicle interception system
US11074827B2 (en) Virtual reality system for aerial vehicle
AU2018220147B2 (en) Aerial vehicle imaging and targeting system
CN110709320B (zh) 用于拦截和对抗无人飞行器(uav)的系统和方法
Moon et al. Development of multiple AR. Drone control system for indoor aerial choreography
KR20150145472A (ko) 무인 방어 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant