KR20170137071A - 적극 식별을 유지하는 머신 대 머신 타겟팅 - Google Patents
적극 식별을 유지하는 머신 대 머신 타겟팅 Download PDFInfo
- Publication number
- KR20170137071A KR20170137071A KR1020177026636A KR20177026636A KR20170137071A KR 20170137071 A KR20170137071 A KR 20170137071A KR 1020177026636 A KR1020177026636 A KR 1020177026636A KR 20177026636 A KR20177026636 A KR 20177026636A KR 20170137071 A KR20170137071 A KR 20170137071A
- Authority
- KR
- South Korea
- Prior art keywords
- aircraft
- target
- video
- targeting
- coordinates
- Prior art date
Links
- 230000008685 targeting Effects 0.000 title claims abstract description 166
- 230000004044 response Effects 0.000 claims abstract description 10
- 238000004891 communication Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 61
- 239000003550 marker Substances 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 5
- 230000006378 damage Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000002360 explosive Substances 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 241000287456 Laniidae Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- -1 e.g. Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D1/00—Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
- B64D1/02—Dropping, ejecting, or releasing articles
- B64D1/04—Dropping, ejecting, or releasing articles the articles being explosive, e.g. bombs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D1/00—Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
- B64D1/16—Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/02—Aiming or laying means using an independent line of sight
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/04—Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/145—Indirect aiming means using a target illuminator
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/16—Sighting devices adapted for indirect laying of fire
- F41G3/165—Sighting devices adapted for indirect laying of fire using a TV-monitor
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/007—Preparatory measures taken before the launching of the guided missiles
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2206—Homing guidance systems using a remote control station
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2233—Multimissile systems
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G9/00—Systems for controlling missiles or projectiles, not provided for elsewhere
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0027—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/104—Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
-
- B64C2201/121—
-
- B64C2201/127—
-
- B64C2201/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/15—UAVs specially adapted for particular uses or applications for conventional or electronic warfare
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0004—Transmission of traffic-related information to or from an aircraft
- G08G5/0013—Transmission of traffic-related information to or from an aircraft with a ground station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0026—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/003—Flight plan management
- G08G5/0034—Assembly of a flight plan
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Closed-Circuit Television Systems (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
제1 항공기(100) 상의 제1 비디오 센서(102)에 의해 잠재적인 타겟팅 좌표에 대한 장면의 제1 비디오를 캡처하는 단계; 제1 항공기에 의해 제1 비디오(232) 및 연관된 잠재적인 타겟팅 좌표를 송신하는 단계; 프로세서와 통신하는 제1 디스플레이상에서 제1 비디오를 수신하는 단계 - 프로세서는 또한 잠재적인 타겟팅 좌표를 수신함 -; 제1 디스플레이상에서 제1 비디오를 보는 것에 응답하여 잠재적인 타겟팅 좌표를 제2 항공기(116)에 대한 실제 타겟팅 좌표(226)가 되도록 선택하는 단계; 및 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함하며, 실제 타겟팅 좌표에 대응하는 타겟(114)의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 유지되는 타겟팅 방법이 개시된다.
Description
제목: 적극 식별을 유지하는 머신 대 머신 타겟팅
발명자들: 앤드류 마틴, 맥 피블스, 척 베이커, 데이지 왕, 케빈 아길라르, 매튜 한나, 브라이언 영, 에릭 손보어, 및 에릭 아가드
관련 출원들에 대한 교차 참조
본 출원은 2015년 3월 25일에 출원된 미국 가특허 출원 번호 제62/138,305호에 대한 우선권 및 그 이익을 주장하며, 그 내용들은 이로써 모든 목적들을 위해 본원에 참조로 통합된다.
본 발명은 무인 항공 시스템들(Unmanned Aerial Systems(UAS))에 관한 것으로서, 보다 구체적으로 타겟들의 UAS 식별에 관한 것이다.
무인 항공 시스템들(Unmanned Aerial Systems(UAS))은 하나 이상의 지상 관제 시스템들(Ground Control Systems(GCS))에서 하나 이상의 오퍼레이터에 의해 원격 제어될 수 있는 무인 항공기들(Unmanned Aerial Vehicles(UAV))을 포함한다. 제한적인 교전 규칙(Restrictive rules of engagement)은 타겟의 적극 식별(positive identification(PID))이 식별에서 최종 접촉(contact)까지 유지되어야 하는 것을 필요로 할 수 있다.
본 발명의 일부 실시예들은 다음을 포함할 수 있는 타겟팅 방법을 포함할 수 있다: 제1 항공기 상의 제1 비디오 센서에 의해 잠재적인 타겟팅 좌표에 대한 장면의 제1 비디오를 캡처하는 단계; 제1 항공기에 의해 제1 비디오 및 연관된 잠재적인 타겟팅 좌표를 송신하는 단계; 프로세서와 통신하는 제1 디스플레이 상에서 제1 비디오를 수신하는 단계 - 프로세서는 또한 잠재적인 타겟팅 좌표를 수신함 -; 제1 디스플레이 상에서 제1 비디오를 보는 것에 응답하여 잠재적인 타겟팅 좌표를 제2 항공기에 대한 실제 타겟팅 좌표가 되도록 선택하는 단계; 및 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하는 단계; 여기서 실제 타겟팅 좌표에 대응하는 타겟의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 유지된다. 추가 예시적 방법 실시예들은 제2 비디오 센서를 갖는 제2 항공기를 발사시키는 단계를 포함할 수 있다.
추가 예시적 방법 실시예들은 실제 타겟팅 좌표에 대한 제1 비디오 센서의 시야(field of view(FOV))를 유지하기 위해 실제 타겟팅 좌표에 대해 제1 항공기를 선회 비행시키는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들은 제2 비디오 센서에 의한 장면의 제2 비디오를 캡처하는 단계, 및 제2 항공기가 실제 타겟팅 좌표에 접근함에 따라 제1 디스플레이 상에서 제2 비디오를 수신하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 타겟의 적극 식별을 유지하는 단계는 프로세서의 사용자에 의해, 제2 항공기가 실제 타겟팅 좌표에 접근하고 있다는 것을 확인하기 위해 제1 디스플레이 상에서 장면의 수신된 제1 비디오와 장면의 수신된 제2 비디오를 비교하는 단계를 더 포함할 수 있다. 추가 예시적 방법 실시예들은 제1 디스플레이 상에서 제1 비디오 및 제2 비디오를 보는 것에 응답하여 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 터미널 호밍 모드는 다음 중 적어도 하나를 더 포함할 수 있다: 제2 항공기에 의해 타겟에 충돌하는 것, 제2 항공기에 의해 전개되는 페이로드에 의해 타겟에 충돌하는 것, 및 제2 항공기에 의해 전개되는 마커에 의해 타겟에 충돌하는 것. 추가 예시적 방법 실시예들은 제1 디스플레이 상에서 제1 비디오를 보는 것에 응답하여 충돌 후에 타겟의 상태를 확인하는 단계를 포함할 수 있다.
추가 예시적 방법 실시예들은 제1 항공기 상의 제1 비디오 센서에 의해 새로운 잠재적인 타겟팅 좌표에 대한 새로운 장면의 제1 비디오를 캡처하는 단계; 제1 항공기에 의해 제1 비디오 및 연관된 새로운 잠재적인 타겟팅 좌표를 송신하는 단계; 프로세서와 통신하는 제1 디스플레이상에서 제1 비디오를 수신하는 단계 - 프로세서는 또한 새로운 잠재적인 타겟팅 좌표를 수신함 -; 제1 디스플레이 상에서 제1 비디오를 보는 것에 응답하여 새로운 잠재적인 타겟팅 좌표를 제3 항공기에 대한 새로운 실제 타겟팅 좌표가 되도록 선택하는 단계; 및 제3 항공기를 새로운 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함할 수 있으며; 여기서 새로운 실제 타겟팅 좌표에 대응하는 새로운 타겟의 적극 식별은 새로운 실제 타겟팅 좌표의 선택으로부터 유지된다. 추가 예시적 방법 실시예들에서, 선택된 잠재적인 타겟팅 좌표는 캡처된 제1 비디오의 중심 시야(center field of view(CFOV))에 대응하는 지리적 좌표 및/또는 캡처된 제1 비디오의 시야(field of view(FOV)) 내의 픽셀에 대응하는 지리적 좌표일 수 있다.
다른 예시적 방법 실시예는 다음을 포함할 수 있다: 지상 관제 시스템(ground control system(GCS))에 의해, 제1 항공기로부터의 제1 비디오 스트림 및 제1 비디오 스트림에 관련되는 잠재적인 타겟팅 좌표를 수신하는 단계; GCS에 의해, 타겟에 대응하는 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하는 단계; GCS에 의해, 제2 항공기로부터 제2 비디오 스트림을 수신하는 단계; 및 GCS에 의해, 실제 타겟팅 좌표를 향하여 제2 항공기를 유도하는 단계; 여기서 타겟의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 GCS에 의해 유지된다.
추가 예시적 방법 실시예들은 GCS에 의해, 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 터미널 호밍 모드는 다음 중 적어도 하나를 포함할 수 있다: 제2 항공기에 의해 타겟에 충돌하는 것, 제2 항공기에 의해 전개되는 페이로드에 의해 타겟에 충돌하는 것, 및 제2 항공기에 의해 전개되는 마커에 의해 타겟에 충돌하는 것. 추가 예시적 방법 실시예들은 GCS를 통해, 제1 항공기로부터의 수신된 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들은 GCS에 의해, 새로운 타겟에 대응하는 새로운 잠재적인 타겟팅 좌표를 새로운 실제 타겟팅 좌표로 선택하는 단계; GCS에 의해, 제3 항공기로부터 제3 비디오 스트림을 수신하는 단계; 및 GCS에 의해, 제3 항공기를 새로운 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 선택된 잠재적인 타겟팅 좌표는 수신된 제1 비디오 스트림의 중심 시야(center field of view(CFOV))에 대응하는 지리적 좌표 및/또는 수신된 제1 비디오 스트림의 시야(field of view(FOV)) 내의 픽셀에 대응하는 지리적 좌표이다.
예시적 시스템 실시예는: 제1 항공기 - 제1 항공기는 제1 프로세서를 포함하고 제1 비디오 스트림 및 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 송신하도록 구성됨 -; 제2 항공기 - 제2 항공기는 제2 프로세서를 포함하고 제2 비디오 스트림을 송신하도록 구성됨 -; 제1 지상 관제 시스템(ground control system(GCS)) - 제1 GCS는 제3 프로세서를 포함하고, 여기서 제1 GCS는 제1 항공기를 유도하도록 구성됨 -; 및 제2 지상 관제 시스템(ground control system(GCS)) - 제2 GCS는 제4 프로세서를 포함함 -을 포함할 수 있고, 여기서 제2 GCS는: 제1 비디오 스트림, 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표, 및 제2 비디오 스트림을 수신하고; 타겟에 대응하는 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하고; 및 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하며; 여기서 타겟의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 제2 GCS에 의해 유지된다.
추가 예시적 시스템 실시예들에서, 제1 GCS는 제1 비디오 스트림을 수신할 수 있다. 추가 예시적 시스템 실시예들에서, 제1 GCS는 제1 항공기를 유도하고 제1 비디오 스트림을 수신하기 위해 제1 디지털 데이터 링크(digital data link(DDL))를 포함할 수 있다. 추가 예시적 시스템 실시예들에서, 제2 GCS는 제1 비디오 스트림, 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표, 및 제2 비디오 스트림을 수신하고, 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하기 위해 제2 DDL을 포함할 수 있다. 추가 예시적 시스템 실시예들에서, 선택된 잠재적인 타겟팅 좌표는 다음 중 적어도 하나에 대응하는 지리적 좌표일 수 있다: 제1 비디오 스트림의 중심 시야(center field of view(CFOV)), 및 제1 비디오 스트림의 시야(field of view(FOV)) 내의 픽셀. 추가 예시적 시스템 실시예들에서, 제2 GCS는 제4 프로세서와 통신하는 그래픽 사용자 인터페이스(graphical user interface(GUI))를 더 포함하고, 여기서 GUI는 제1 비디오 스트림 및 제2 비디오 스트림을 디스플레이하도록 구성된다. 추가 예시적 시스템 실시예들에서, 제2 GCS의 GUI는 제1 항공기의 위치, 제2 항공기의 위치, 제1 항공기의 제1 비디오 스트림의 CFOV, 및 제2 항공기의 제2 비디오 스트림의 CFOV를 갖는 맵을 디스플레이할 수 있다. 추가 예시적 시스템 실시예들에서, 제2 GCS는 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택하고 - 여기서 터미널 호밍 모드는: 제2 항공기에 의해 타겟에 충돌하는 것, 제2 항공기에 의해 전개되는 페이로드에 의해 타겟에 충돌하는 것, 및 제2 항공기에 의해 전개되는 마커에 의해 타겟에 충돌하는 것을 포함할 수 있음 -; 및 제1 항공기로부터의 수신된 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인할 수 있다.
다른 예시적 방법 실시예는: 지상 관제 시스템(GCS)에 의해, 제1 항공기로부터의 제1 비디오 스트림 및 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 수신하는 단계; GCS에 의해, 타겟에 대응하는 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하는 단계; GCS에 의해, 다수의 항공기 중 제2 항공기로부터 제2 비디오 스트림을 수신하는 단계 - 여기서 다수의 항공기 중 제2 항공기는 타겟에 가장 가까이 있음 -; 및 GCS에 의해, 다수의 항공기 중 제2 항공기를 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함할 수 있으며, 여기서 타겟의 적극 식별은 실제 타겟팅 좌표의 선택으로부터 GCS에 의해 유지된다.
추가 예시적 방법 실시예들은 GCS에 의해, 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 터미널 호밍 모드는 다음 중 적어도 하나를 포함할 수 있다: 제2 항공기에 의해 타겟에 충돌하는 것, 제2 항공기에 의해 전개되는 페이로드에 의해 타겟에 충돌하는 것, 및 제2 항공기에 의해 전개되는 마커에 의해 타겟에 충돌하는 것. 추가 예시적 방법 실시예들은 GCS를 통해, 제1 항공기로부터의 수신된 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들은 GCS에 의해, 다수의 항공기 중 제3 항공기를 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함할 수 있다. 추가 예시적 방법 실시예들에서, 다수의 항공기는 실제 타겟팅 좌표가 선택될 때까지 사전 설정된 영역 주위를 선회한다(loiter). 추가 예시적 방법 실시예들에서, 다수의 항공기들 중 각각의 항공기는 실제 타겟팅 좌표를 향하여 유도되는 제2 항공기를 따라가고 설정 시간만큼 이격된다.
도면들 내의 구성요소들은 반드시 축척에 따라 도시되는 것은 아니며, 그 대신에 본 발명의 원리들을 예시할 시에 강조될 수 있다. 동일한 참조 번호들은 상이한 도면들 도처에서 대응하는 부분들을 지정한다. 실시예들은 첨부 도면들의 도형들에서 제한이 아닌 예로 예시된다.
도 1a는 제1 항공기가 정보를 하나 이상의 지상 관제 시스템들(Ground Control Systems(GCSs))에 송신하는 무인 항공 시스템(Unmanned Aerial System(UAS))의 일 실시예를 도시한다.
도 1b는 제1 항공기에 의해 식별된 타켓의 선택 후에 제2 항공기가 발사된 UAS의 일 실시예를 도시한다.
도 1c는 제1 항공기가 타겟의 적극 식별을 유지하는 동안에, 제2 항공기가 제1 항공기에 의해 식별된 타겟을 보는 UAS의 일 실시예를 도시한다.
도 1d는 제1 항공기가 타겟의 적극 식별을 유지하는 동안에 제2 항공기가 "커밋(commit)" 모드에 진입하는 UAS의 일 실시예를 도시한다.
도 1e는 타겟이 제2 항공기에 의해 파괴되었고 제1 항공기가 타겟 히트의 시각적 확인을 하나 이상의 GCS에 송신하는 UAS의 일 실시예를 도시한다.
도 2는 송신된 정보 및/또는 비디오를 보고, 수신된 정보 및/또는 비디오에 기초하여 타겟팅 좌표를 선택하는 사용자 인터페이스를 갖는 일 실시예의 예시적 GCS를 도시한다.
도 3은 제1 항공기를 제어하는 제1 GCS와 제2 항공지를 제어하는 제2 GCS 사이의 예시적 연결을 도시한다.
도 4a 내지 도 4c는 타겟의 적극 식별을 유지하는 동안에 2 이상의 항공기로 타켓상의 히트를 식별하고, 제거하고, 확인하는 방법 실시예의 예시적 기능 블록도를 도시한다.
도 5는 타겟이 식별되고 타겟과 관련된 실제 타겟팅 좌표가 선택될 때까지 다수의 항공기가 선회하는 UAS의 일 실시예를 도시한다.
도 6은 다수의 항공기가 단일 타겟에 유도되는 UAS의 일 실시예를 도시하며, 여기서 단일 타겟에 유도되는 항공기 각각은 단일 오퍼레이터가 충돌시에 후속 항공기를 제어하기 위해 전환하는 것을 허용한다.
도 7은 GCS 및/또는 하나 이상의 UAS의 컴퓨팅 장치 실시예의 예시적 최상위 레벨 기능 블록도를 예시한다.
도 1a는 제1 항공기가 정보를 하나 이상의 지상 관제 시스템들(Ground Control Systems(GCSs))에 송신하는 무인 항공 시스템(Unmanned Aerial System(UAS))의 일 실시예를 도시한다.
도 1b는 제1 항공기에 의해 식별된 타켓의 선택 후에 제2 항공기가 발사된 UAS의 일 실시예를 도시한다.
도 1c는 제1 항공기가 타겟의 적극 식별을 유지하는 동안에, 제2 항공기가 제1 항공기에 의해 식별된 타겟을 보는 UAS의 일 실시예를 도시한다.
도 1d는 제1 항공기가 타겟의 적극 식별을 유지하는 동안에 제2 항공기가 "커밋(commit)" 모드에 진입하는 UAS의 일 실시예를 도시한다.
도 1e는 타겟이 제2 항공기에 의해 파괴되었고 제1 항공기가 타겟 히트의 시각적 확인을 하나 이상의 GCS에 송신하는 UAS의 일 실시예를 도시한다.
도 2는 송신된 정보 및/또는 비디오를 보고, 수신된 정보 및/또는 비디오에 기초하여 타겟팅 좌표를 선택하는 사용자 인터페이스를 갖는 일 실시예의 예시적 GCS를 도시한다.
도 3은 제1 항공기를 제어하는 제1 GCS와 제2 항공지를 제어하는 제2 GCS 사이의 예시적 연결을 도시한다.
도 4a 내지 도 4c는 타겟의 적극 식별을 유지하는 동안에 2 이상의 항공기로 타켓상의 히트를 식별하고, 제거하고, 확인하는 방법 실시예의 예시적 기능 블록도를 도시한다.
도 5는 타겟이 식별되고 타겟과 관련된 실제 타겟팅 좌표가 선택될 때까지 다수의 항공기가 선회하는 UAS의 일 실시예를 도시한다.
도 6은 다수의 항공기가 단일 타겟에 유도되는 UAS의 일 실시예를 도시하며, 여기서 단일 타겟에 유도되는 항공기 각각은 단일 오퍼레이터가 충돌시에 후속 항공기를 제어하기 위해 전환하는 것을 허용한다.
도 7은 GCS 및/또는 하나 이상의 UAS의 컴퓨팅 장치 실시예의 예시적 최상위 레벨 기능 블록도를 예시한다.
본 발명은 제1 지상 관제 시스템(Ground Control System(GCS))에서 제1 오퍼레이터에 의해 동작되는 제1 항공기가 비디오 스트림 및 캡처된 비디오 스트림에 관한 지리적 좌표들을 포함할 수 있는 장면에 대한 정보를 캡처하는 것을 허용한다. 제1 항공기로부터의 비디오 스트림은 암호화된 데이터로서 하나 이상의 GCS에 송신될 수 있다. 제2 GCS에서의 제2 오퍼레이터는 디스플레이, 예를 들어 그래픽 사용자 인터페이스(graphical user interface(GUI)) 상에서 송신된 비디오 스트림을 보고, 비디오 스트림 상의 타겟의 위치에 대응하는 GUI 상의 타겟팅 좌표를 선택할 수 있다. 타겟의 위치는 비디오의 시야(field of view(FOV)) 내의 임의의 픽셀 또는 중심 시야(center field of view(CFOV))일 수 있다. 타겟의 위치는 항공기 비디오 스트림 내의 임의의 픽셀의 지리적 좌표일 수 있다. 임의의 주어진 픽셀의 지리적 위치는 비디오의 4개의 코너들의 좌표들 및 CFOV로부터 보간될 수 있다. 제2 항공기는 제2 오퍼레이터에 의해 선택된 타겟팅 좌표를 향하여 발사되고 유도될 수 있다. 제1 항공기는 제2 항공기가 선택된 타겟팅 좌표를 향하여 유도되는 동안에 적극 식별(positive identification(PID))을 유지할 수 있다. 제2 항공기는 선택된 타겟팅 좌표에서 타겟에 충돌하기 위해 사용될 수 있다. 제1 항공기로부터의 비디오 스트림은 타겟이 명중되었다는 것을 확인하고 타겟에 대한 임의의 손상의 정도를 확인하기 위해 사용될 수 있다. 제1 항공기는 추가적인 타겟들을 찾기 위해 계속 선회할 수 있다.
도 1a는 제1 항공기(100)가 장면에 대한 정보를 캡처하는 무인 항공 시스템(Unmanned Aerial System(UAS))의 일 실시예를 도시한다. 이러한 정보는 비디오 스트림 및 그러한 비디오 스트림과 관련되는 타겟팅 좌표들일 수 있다. 제1 항공기(100), 예를 들어 캘리포니아주, 먼로비아 소재의 에어로바이론먼트 인크에 의해 제작되는 Puma, Raven, Wasp, 또는 Shrike는 제1 비디오 센서를 갖는 제1 카메라(102)를 가질 수 있으며, 이는 제1 오퍼레이터가 카메라를 그라운드(104) 상의 다양한 위치들을 향하여 지향시키는 것을 허용하기 위해 짐발(gimbal) 상에 장착될 수 있다. 제1 항공기(100) 및/또는 제1 카메라(102)는 제1 GCS(106)와 제1 항공기(100) 사이에서 송신되는 하나 이상의 신호들(105)을 통해 제1 GCS(106)에서 제1 오퍼레이터(101)에 의해 제어될 수 있다. 제1 카메라(102)는 캡처된 비디오 스트림의 중심에 중심 시야(center field of view(CFOV))(110)를 갖는 시야(field of view(FOV))(108)를 가질 수 있다. 제1 항공기(100)의 위치, 제1 카메라(102) 위치, 및/또는 추가 상세들은 잠재적인 타겟팅 좌표로서 제1 카메라(102)의 FOV(108) 내의 임의의 픽셀의 지리적 위치 및/또는 CFOV(110)의 지리적 위치를 계속해서 산출하기 위해 사용될 수 있다. 잠재적인 타겟팅 좌표는 항공기(100) 상에서 산출되고/되거나 비디오 스트림 메타데이터로서 하나 이상의 GCS(106, 112)에 송신될 수 있다. 일부 실시예들에서, 항공기(100)로부터의 데이터는 하나 이상의 GCS(106, 112)에 송신될 수 있고 하나 이상의 GCS(106, 112)는 잠재적인 타겟팅 좌표를 산출할 수 있다. 비디오 스트림 및 잠재적인 타겟팅 좌표들은 하나 이상의 GCS, 예컨대 제1 GCS(106) 및 제2 GCS(112)에 송신될 수 있다. 제2 GCS(112)에서의 제2 오퍼레이터(113)는 타겟(114)이 식별될 때까지 제1 항공기(100)에 의해 송신되는 비디오 스트림(111)을 감시할 수 있다. 타겟(114)이 식별되면, 제2 오퍼레이터(113)는 제2 GCS(112)에서의 입력, 예를 들어 제1 항공기(100)로부터의 비디오 스트림을 도시하는 모니터를 갖는 GUI 상의 버튼을 통해 그러한 타겟(114)에 관련된 잠재적인 타겟팅 좌표를 선택할 수 있다. 잠재적인 타겟팅 좌표는 비디오 스트림의 FOV 내의 임의의 픽셀 또는 CFOV(110)일 수 있다. 잠재적인 타겟팅 좌표가 선택되면, 그것은 타겟(114)과 관련되는 실제 타겟팅 좌표가 된다. 타겟(114)은 정지되거나 이동할 수 있다. 타겟이 이동중에 있으면, 이때, 새로운 잠재적인 타겟팅 좌표는 이동하는 타겟(114)의 새로운 위치, 제1 카메라(102)의 새로운 CFOV(110), 및/또는 카메라(102)의 FOV(108) 내의 타겟(114)의 새로운 위치에 대응하는 새로운 실제 타겟팅 좌표가 되도록 선택될 수 있다. 일부 실시예들에서, 타겟팅 좌표는 이동하는 타겟(114) 및/또는 제1 카메라(102)의 이동하는 CFOV(110)와 적응적으로 이동할 수 있다.
도 1b는 도 1a의 UAS의 실시예를 도시하며, 여기서 제2 항공기(116), 예를 들어 캘리포니아주, 먼로비아 소재의 에어로바이론먼트 인크에 의해 제작되는 Switchblade®은 제2 GCS(112)에서 제2 오퍼레이터(113)에 의한 타겟팅 좌표의 선택에 응답하여 런처(launcher)(120)에 의해 발사되었다(118). 일부 실시예들에서, 제2 항공기(116)는 제2 오퍼레이터(113) 또는 다른 사람에 의해 손으로 발사될 수 있다. 실제 타겟팅 좌표가 이용할 수 있으면, 제1 항공기(100)는 제2 항공기(116)가 타겟(114)과 관련되는 실제 타겟팅 좌표를 향하여 유도되는 동안에, 예를 들어 제1 카메라(102)의 FOV(108) 내에 타겟(114)을 유지함으로써 타겟(114)의 PID를 유지할 수 있다. 제1 항공기(100)는 제1 카메라(102)의 FOV(108)가 타겟(114) 상에 유지되도록 설정된 영역에서 선회 비행하고/하거나, 제자리 비행하고/하거나, 잔류하기 위해 오토파일럿 상에서 유도되고/되거나 설정될 수 있다. 일부 실시예들에서, 제2 항공기(116)는 타겟팅 좌표가 선택된 때 이미 비행중 일 수 있다. 다른 실시예들에서, 제2 항공기(116)는 제1 항공기(100)로부터 발사될 수 있다.
도 1c는 도 1a 및 도 1b의 UAS의 일 실시예를 도시하며, 여기서 제2 항공기(116)는 제1 항공기(100)가 타겟(114)의 PID를 유지하는 동안에 타겟(114)을 향하여 비행중에 있다. 제2 오퍼레이터(113)는 제2 GCS(112)를 통해, 제2 항공기(116)가 타겟(114)을 향하여 유도되는 동안에, 제1 항공기(100)에 의해 송신되는 비디오 스트림(111)을 감시할 수 있다. 제2 오퍼레이터(113)는 또한 예를 들어 제2 카메라에 의해, 제2 항공기(116)와 제2 GCS(112) 사이에서 송신되는 하나 이상의 신호들(122)을 통해, 제2 항공기(116)에 의해 송신되는 비디오 스트림을 감시할 수 있다. 제2 오퍼레이터(113)는 제2 GCS(112)에서 제1 항공기(100) 및 제2 항공기(116) 둘 다에 의해 송신되는 비디오 스트림들을 동시에 볼 수 있다. 타겟(114)이 두 카메라들의 FOV(108, 124)에 있는 경우, PID 전송이 발생하고 제2 오퍼레이터(113)는 미션의 완료를 통해 PID를 유지하기 위해 제2 카메라의 FOV(124)에 집중할 수 있다. 타겟(114)이 제2 항공기(116)의 제2 카메라의 FOV(124)에 있으면, 제2 오퍼레이터(113)는 제2 항공기(116)를 "커밋(commit)" 모드로 배치할 수 있다.
도 1d는 도 1a 내지 도 1c의 UAS의 일 실시예를 도시하며, 여기서 제2 항공기(116)는 제2 항공기(116)와 제2 GCS(112) 사이에서 송신되는 하나 이상의 신호들(122)을 통해, "커밋" 모드로 배치되며, 제2 항공기(116)는 타겟(114)의 실제 타겟팅 좌표를 향하여 터미널 호밍에 진입한다. "커밋" 모드에서, 제2 오퍼레이터(113)는 제2 항공기(116)를 타겟(114)을 향하여 유도한다. 타겟(114)의 PID는 제1 항공기(100)에 의해 유지된다. 일부 실시예들에서, 제2 항공기(116)는 타겟(114)과 접촉하지 않고, 오히려 타겟(114)과 접촉할 수 있는 페이로드 및/또는 마커, 예를 들어 페인트를 전개할 수 있다.
도 1e는 도 1a 내지 도 1d의 UAS의 일 실시예를 도시하며, 여기서 타겟(115)은 예를 들어, 폭발물의 페이로드를 운반하는 제2 항공기와의 접촉에 의해 파괴되었다. 제1 항공기(100)는 타겟팅 좌표의 선택을 통한(도 1a 참조), 제1 식별에서 타겟(115)의 파괴 및/또는 PID 전송까지 타겟(115)의 PID를 유지한다. 제1 항공기(100)는 제1 카메라(102)의 FOV(108)에서 장면을 관측하고 이러한 비디오 스트림을 하나 이상의 GCS, 예컨대 제1 GCS(106) 및 제2 GCS(112)에 송신할 수 있다. 타겟(115)의 파괴는 그들의 각각의 GCS(106, 112)를 통해 제1 오퍼레이터(101) 및/또는 제2 오퍼레이터(113)에 의해 검증될 수 있다. 그 다음, 제1 항공기(100)는 새로운 타겟(124)이 식별될 때까지 비디오 스트림 및 잠재적인 타겟팅 좌표들을 하나 이상의 GCS(106, 112)에 계속해서 송신할 수 있다. 새로운 타겟(124)은 제1 항공기의 제1 카메라(102)의 FOV(108) 내에 있을 수 있다. 새로운 타겟은 또한 제1 항공기(100)의 제1 카메라(102)의 FOV(108)의 외부에 위치될 수 있고, 제1 오퍼레이터(101)는 새로운 타겟의 정확한 위치를 찾아내기 위해 제1 항공기(100) 및/또는 제1 카메라(102)를 제어할 수 있다. 새로운 타겟(124)이 식별되면, 제3 비행기가 제2 GCS(112)를 통해 새로운 활성(active) 타겟팅 좌표를 향하여 발사되고/되거나 유도될 수 있다. 프로세스는 추가적인 비행기들이 없고/없거나 모든 타겟들이 제거되었을 때까지 계속될 수 있다. 일부 실시예들에서, 추가적인 GCS 및/또는 항공기는 타겟들을 식별하고/하거나 제거하기 위해 사용될 수 있다. 다른 실시예들에서, 단일 GCS는 다수의 항공기를 제어하기 위해 사용될 수 있다. 제1 항공기는 잠재적인 타겟팅 좌표를 식별하고 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하기 위해 사용될 수 있다. 이때, 제1 항공기는 예를 들어, PID가 잠재적인 타겟팅 좌표의 초기 선택에서 타겟과의 최종 충돌까지 유지되도록, 오퍼레이터가 제2 항공기를 실제 타겟팅 좌표로 조종하는 동안에, 타겟 위에서 자동 비행 선회(automated flight circling) 또는 그렇지 않으면 호버링(hovering)을 통해, 실제 타겟팅 좌표의 FOV를 유지할 수 있다.
도 2는 하나 이상의 항공기, 예를 들어 제1 항공기(206) 및 제2 항공기(208)에 의해 송신되는 정보를 보고 수신된 송신 정보에 기초하여 타겟 좌표를 선택하기 위한, 컴퓨팅 장치(204), 예를 들어 프로세서 및 어드레서블 메모리를 갖는 랩톱 또는 태블릿 컴퓨터(도 7 참조) 상에 GUI(202)를 갖는 예시적 GCS 실시예(200)를 도시한다. 제1 항공기(206)는 제1 GCS에 의해 제어될 수 있고(도 1a, 106 참조), 제1 항공기는 장면에 대한 정보, 예를 들어 캡처된 비디오 스트림에 관한 비디오 스트림 및 지리적 좌표들을 송신할 수 있다(210). 제1 항공기(206)로부터 송신된(210) 정보는 제1 디지털 데이터 링크(digital data link(DDL))(212), 예를 들어 포켓 DDL에 의해 수신될 수 있다. 제1 DDL(212)은 예를 들어 USB 및/또는 이더넷 케이블에 의해, 컴퓨팅 장치(204)에 연결될 수 있다(214).
컴퓨팅 장치(204)는 GUI(202)와 같은 디스플레이를 가질 수 있으며, 이는 제1 항공기(206)의 위치(218); 제2 항공기의 위치(220); "+"로 디스플레이되는, 제1 항공기(206)의 CFOV(222); "x"로 디스플레이되는, 제2 항공기의 CFOV(224); 실제 타겟팅 좌표(226); 제2 항공기(208)의 엔트리 포인트(228); 및 엔트리 포인트(228)에서 실제 타겟팅 좌표(226)까지의 제2 항공기의 방향(230)을 도시하는 맵(216)을 디스플레이할 수 있다. 일부 실시예들에서, 맵(216)은 또한 각각의 항공기의 FOV를 디스플레이할 수 있다. 예를 들어 5 노트보다 더 큰, 제2 항공기 터미널 단계 동작에 중요한 바람이 있는 경우에, 제2 항공기는 실제 타겟팅 좌표(226) 및 다운윈드(downwind)로부터, 오퍼레이터 선택 가능 최소 거리, 예를 들어 타겟으로부터1,000 미터 다운윈드일 수 있는 엔트리 포인트(228)를 선택할 수 있다. 일부 실시예들에서, 이러한 엔트리 포인트는 추가적인 오퍼레이터 입력을 위한 요구 없이 컴퓨팅 장치(204)에 의해 자동으로 선택될 수 있다. 이러한 엔트리 포인트(228)로부터 실제 타겟팅 좌표(226)에 접근하는 것은 실제 타겟팅 좌표(226)에 대해 제2 항공기(208)의 정확도 및/또는 기동성을 증가시킬 수 있다.
GUI(202)는 또한 제1 항공기(206)에 의해 송신되는(210) 비디오로부터 제1 비디오 스트림(232)을 디스플레이할 수 있다. 오퍼레이터는 원하는 타겟이 제1 비디오 스트림(232)에 나타날 때까지 이러한 제1 비디오 스트림(232)을 볼 수 있다. 그 다음, 오퍼레이터는 예를 들어, 툴바(234), 예를 들어 캘리포니아주, 먼로비아 소재의 에어로바이론먼트 인크에 의한 팔콘뷰 툴바(FalconView toolbar(FVTB)) 상의 하나 이상의 옵션들을 통해, 사용자 인터페이스을 통해, 및/또는 터치 인터페이스를 통해, 제1 비디오 스트림(232)의 FOV 내의 임의의 픽셀 및/또는 CFOV를 타겟팅 좌표로 사용하도록 선택할 수 있다. 일부 실시예들에서, 오퍼레이터는비디오 스트림의 임의의 부분을 타겟팅 좌표가 되도록 선택할 수 있다. 오퍼레이터가 잠재적인 타겟팅 좌표를 선택하는 경우, 그것은 실제 타겟팅 좌표(226)가 된다. 제1 항공기(206)에 의해 송신되고(210) 제1 DDL(212)에 의해 수신되는 정보는 오퍼레이터에 의해 보여지는 제1 비디오 스트림(232)의 FOV 내의 임의의 픽셀 및/또는 CFOV와 관련되는 지리적 정보를 포함한다. 실제 타겟팅 좌표(226)가 활성화되면, 오퍼레이터는 제2 항공기(208)를 발사하고/하거나(도 1b, 118 참조) 이미 비행중인 제2 항공기(208)를 제어할 수 있다. 제2 DDL(236)과 제2 항공기(208) 사이에 송신되는(234) 하나 이상의 신호들은 제2 항공기(208)를 제어하고 제2 항공기(208)로부터 비디오 스트림을 수신하기 위해 사용될 수 있다. 제2 DDL(236)은 제2 항공기(208)와의 가시선(line-of-sight)을 보장하기 위해 타워(238) 상에 장착될 수 있다. 제2 DDL(236)은 컴퓨팅 장치(204) 및/또는 제2 항공기 컨트롤러(242)에 연결될 수 있는 허브(240)에 연결될 수 있다.
GUI는 제2 항공기(208)에 의해 송신되는(234) 비디오로부터 제2 비디오 스트림(244)을 디스플레이한다. 실제 타겟팅 좌표(226)가 활성화되고 제2 항공기(208)가 비행중에 있으면, 오퍼레이터는 제1 항공기(206) 및 제2 항공기(208) 둘 다의 비디오 스트림들(232, 244)을 볼 수 있다. 비디오 스트림들(232, 244) 둘 다를 사용함으로써, 제2 항공기(208)를 실제 타겟팅 좌표(226)를 향하여 유도하는 오퍼레이터는 잠재적인 타겟팅 좌표의 초기 선택에서 타겟과의 최종 충돌까지 타겟의 PID를 유지하기 위해 제2 항공기 컨트롤러(242)를 사용할 수 있다. 일부 실시예들에서, 비디오 스트림들(232, 244)은 단일 스크린 및 장치 및/또는 다수의 스크린들 및/또는 장치들 상에 서로 근접하여 제공될 수 있다.
도 3은 제1 항공기(304)를 제어하는 제1 GCS(302)와 제2 항공기(308)를 제어하는 제2 GCS(306) 사이의 예시적 GCS 실시예(300)를 도시한다. 일부 실시예들에서, 다수의 GCS는 그들 사이의 직접 연결이 예를 들어 이더넷 및/또는 USB 케이블들을 통해, 실현 가능하지 않도록 지리적으로 이격될 수 있다(도 2 참조). 다수의 GCS를 이용하는 것은 타겟의 식별에서 그러한 타겟과의 최종 충돌까지 시간을 감소시키는데 유용할 수 있다. 다른 실시예들에서, 다수의 GCS(302, 306)는 그들이 직접 연결될 수 있도록 지리적으로 충분히 가깝게 이격될 수 있고, 제1 항공기(304) 및/또는 제2 항공기(308)에 의해 송신되는(310, 312) 정보는 추가적인 DDL, 예컨대 포켓 DDL에 대한 요구 없이 공유될 수 있다(도 2, 212 참조). 일부 실시예들에서, 단일 DDL은 2개 이상의 항공기 사이에서, 데이터, 예를 들어 비디오 스트림, 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표들, 및/또는 하나 이상의 항공기 제어들을 수신 및/또는 송신하기 위해 사용될 수 있다.
정보, 예를 들어 비디오 스트림 및 캡처된 비디오 스트림에 관한 지리적 좌표들은 제1 GCS(302)의 제1 DDL(314)로 제1 항공기에 의해 송신될 수 있다(310). 제1 DDL(314)은 수신된 정보를 제1 컴퓨팅 장치(316), 예를 들어 랩톱 또는 태블릿 컴퓨터에 송신할 수 있다. 제1 컴퓨팅 장치(316)는 케이블, 예를 들어 USB 케이블에 의해 제1 어댑터 박스(318)에 연결될 수 있다. 제1 어댑터 박스(318)는 이더넷 케이블(322), 예를 들어 길이가 100 미터까지 이르는 이더넷 케이블에 의해 제2 어댑터 박스(320)에 연결될 수 있다. 제2 어댑터 박스(320)는 케이블, 예를 들어 USB 케이블에 의해 제2 컴퓨팅 장치(324)에 연결될 수 있다. 어댑터 박스들(318, 320)은 USB를 이더넷으로 및 그 반대로 변환시키기 위해 사용될 수 있다. 제2 컴퓨팅 장치(324)에서의 오퍼레이터는 제1 항공기(304)에 이해 캡처된 비디오 스트림을 보고 그러한 비디오 스트림에 기초하여 잠재적인 타겟팅 좌표를 선택할 수 있다(도 2 참조). 제2 컴퓨팅 장치(324)에서의 오퍼레이터는 또한 제2 항공기(308)로부터 비디오 스트림을 수신할 수 있으며, 이는 제2 GCS(306)의 제2 DDL(326)에 송신되고고, 그 다음, 제2 컴퓨팅 장치(324)에 송신된다(312).
도 4a 내지 도 4c는 초기 식별에서 최종 확인까지 타겟의 적극 식별을 유지하는 동안에 2개의 항공기로 타겟에 대한 임의의 손상을 식별하고, 제거하고, 확인하는 방법 실시예의 예시적 기능 블록도를 도시한다(400, 401, 403). 참조 문자들(A 및 B)은 도 4a 내지 도 4c에서 단계들 사이의 연결을 도시하기 위해 사용된다. 제1 항공기의 제1 오퍼레이터는 제1 지상 관제 시스템(GCS)을 통해, 제1 항공기 상에 배치되는 제1 카메라를 통해 잠재적인 타겟의 비디오를 캡처한다(단계 402). 오퍼레이터는 제1 GCS를 통해, PID를 유지하기 위해 타겟 상에 제1 항공기의 제1 카메라를 유지한다(단계 404). 제1 항공기는 제1 카메라로부터의 비디오 스트림 및 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 송신한다(단계 406). 잠재적인 타겟팅 좌표는 메타데이터로 비디오 스트림에 내장될 수 있고, CFOV가 장면에 걸쳐 변함에 따라 계속해서 갱신될 수 있다. 제2 오퍼레이터는 제2 GCS를 통해, 제1 항공기로부터 제1 비디오 스트림 및 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 수신한다(단계 408). 제2 오퍼레이터는 제2 GCS를 통해, 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택한다(단계 410). 일부 실시예들에서, 제2 오퍼레이터는 제2 오퍼레이터가 새로운 타겟, 예를 들어 원래 선택된 타겟보다 더 높은 중요성의 타겟을 식별하면 새로운 실제 타겟팅 좌표를 선택할 수 있다. 제2 카메라를 갖는 제2 항공기는 발사된다(단계 412). 제2 오퍼레이터는 제2 항공기를 발사할 수 있거나, 다른 개인이 사전 발사 체크리스트를 수행하고 제2 항공기를 발사할 수 있다. 일부 실시예들에서, 제2 항공기는 이미 비행중 일 수 있고 제2 오퍼레이터는 제2 항공기로 전환하고/하거나 이를 계속해서 제어할 수 있다. 제2 항공기는 제1 GCS 및/또는 제2 GCS를 통해 발사될 수 있다. 제2 항공기는 제2 카메라로부터 제2 비디오 스트림을 송신한다(단계 414). 제2 오퍼레이터는 제2 GCS를 통해, 제2 비디오 스트림 및 제1 비디오 스트림을 수신한다(단계 416). 제2 오퍼레이터는 제2 GCS를 통해, 제2 항공기를 실제 타겟팅 좌표를 향하여 유도한다(단계 418). 제2 오퍼레이터는 제2 GCS를 통해, 제1 비디오 스트림에서 식별되는 타겟이 실제 타겟팅 좌표에 위치되는 타겟과 동일한 것인지를 확인한다(단계 419). 제2 오퍼레이터는 제2 GCS를 통해, 제2 항공기에 의해 타겟 상에 터미널 호밍 모드를 선택한다(단계 420). 일부 실시예들에서, 타겟은 이동성일 수 있고 그것의 초기 타겟팅 좌표로부터 위치를 변경할 수 있다. 타겟이 이동하였으면, 제2 오퍼레이터는 제2 GCS를 통해, 터미널 호밍 모드를 새로운 타겟 위치에 입력하기 위해 제2 항공기의 경로를 조정할 수 있다. 일부 실시예들에서, 제2 오퍼레이터는 제2 GCS를 통해, PID가 제1 비디오 스트림에 의해 유지되는 한 새로운 타겟 위치에 기초하여 제1 비디오 스트림으로부터 새로운 타겟팅 좌표를 선택할 수 있다. 제2 항공기는 타겟에 충돌한다(단계 422). 일부 실시예들에서, 제2 항공기는 타겟 상에 페이로드, 예를 들어 폭발물, 또는 마커, 예를 들어 페인트를 전개할 수 있다. 제1 오퍼레이터 및/또는 제2 오퍼레이터는 제1 GCS 및/또는 제2 GCS를 통해, 제1 항공기로부터의 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인한다(단계 424). 일부 실시예들에서, 제2 오퍼레이터는 또한 제2 GCS를 통해, 제1 항공기로부터의 제1 비디오 스트림을 통해 충돌 후에 타겟의 상태를 확인할 수 있다. 그 다음, 제2 오퍼레이터는 제2 GCS를 통해, 예를 들어 새로운 타겟팅 좌표를 선택하고/하거나 제3 항공기를 발사하는, 추가 액션이 필요한지를 결정할 수 있다. 일부 실시예들에서, 이러한 프로세스는 원하는 효과들이 달성되었을 때까지, 예를 들어 타겟이 제거될 때까지 반복될 수 있다(단계 426).
도 5는 제1 GCS(501)를 통해, 제1 항공기(502)를 제어하는 제1 오퍼레이터(500) 및 제2 GCS(505)를 통해, 비행중인 다수의 항공기(506, 508, 510, 512, 514) 중 하나를 제어할 수 있는 제2 오퍼레이터(504)를 갖는 UAS의 일 실시예를 도시한다. 다수의 항공기(506, 508, 510, 512, 514)는 제2 오퍼레이터(504)에 의해 요구될 때까지 사전 설정된 영역 및/또는 패턴 주위를 선회할 수 있다. 제1 오퍼레이터(502)는 제1 GCS(501)를 통해, 제1 항공기(502) 상의 카메라(520)의 FOV(518) 내의 타겟(516)을 식별할 수 있다. 제2 오퍼레이터(504)는 제2 GCS(505)를 통해, 제1 항공기(502)에 의해 제2 GCS(505)로 송신되는 비디오 스트림을 통해 타겟(516)을 볼 수 있다. 제2 오퍼레이터(504)는 제2 GCS(505)를 통해, 타겟(516)에 관한 잠재적인 타겟팅 좌표를 활성 타겟팅 좌표로 선택할 수 있다(도 2 참조). 제2 오퍼레이터(504)는 제2 GCS(505)를 통해, 선회하고 있는 다수의 항공기(506, 508, 510, 512, 514) 중에서 제2 항공기(506)를 타겟(516)을 향하여 유도되도록(522) 선택할 수 있다. 제2 오퍼레이터(504)는 제2 GCS(505)를 통해, 제2 GCS(505)로 제1 항공기(502)에 의해 송신되는 비디오 스트림을 통해 제2 항공기(506)의 선택 동안에 타겟(516)의 PID를 유지한다. 나머지 다수의 항공기(508, 510, 512, 514)는 제2 오퍼레이터(504)에 의해 타겟(516) 및/또는 새로운 타겟을 향하여 유도될 필요가 있을 때까지 선회를 유지한다.
도 6은 제1 GCS(601)을 통해, 제1 항공기(602)를 제어하는 제1 오퍼레이터(600) 및 제2 GCS(605)를 통해, 설정 시간만큼 서로 이격되고 타겟(616)을 향하여 유도되는 다수의 항공기(606, 608, 610, 612, 614)를 제어하는 제2 오퍼레이터(604)를 갖는 UAS의 일 실시예를 도시한다. 제1 오퍼레이터(600)는 제1 GCS(601)를 통해, 제1 항공기(602) 상의 제1 카메라(620)의 FOV(618) 내의 타겟(616)을 식별할 수 있다. 제2 오퍼레이터(604)는 제2 GCS(605)를 통해, 타겟(616)에 기초하여 활성 타겟팅 좌표를 선택할 수 있다(도 2 참조). 활성 타겟팅 좌표가 제2 오퍼레이터(604)에 의해 선택되면, 다수의 항공기(606, 608, 610, 612, 614)는 따라가기 위해 줄을 서 있고 타겟(616)에 유도될 수 있으며, 다수의 항공기(606, 608, 610, 612, 614) 각각은 설정 시간만큼 이격된다. 제2 오퍼레이터(604)는 제2 GCS(605)를 통해, 타겟(616)의 PID를 유지하기 위해 제1 항공기(602) 및 타겟(616)에 가장 가까운 항공기(606) 모두로부터 공급되는 비디오를 볼 수 있다. 제2 오퍼레이터(604)는 또한 타겟(616)에 가장 가까운 항공기(606)를 제어할 수 있는 반면, 나머지 항공기(608, 610, 612, 614)는 오토파일럿 상에서 계속될 수 있다. 항공기(606)가 타겟과 접촉하면, 제2 오퍼레이터(604)는 제2 GCS(605)를 통해, 제1 항공기(602)로부터 공급되는 비디오를 계속해서 볼 수 있다. 그 다음, 제2 오퍼레이터(604)는 제2 GCS(605)를 통해, 이제 타겟(616)에 가장 가까운 항공기인 항공기(608)를 제어할 수 있고 제3 항공기(608)로부터 제공되는 비디오를 볼 수 있다. 후속 항공기(608, 610, 612, 614)로부터 제어를 전환하고/하거나 비디오 공급들을 보는 것은 각각의 항공기(606, 608, 610, 612, 614)가 타겟을 접촉함에 따라 제2 GCS(605)의 컴퓨팅 장치에 의해 자동으로 제어될 수 있다(도 2 및 도 7 참조). 이러한 프로세스는 타겟(616)이 제거되고/되거나 제2 오퍼레이터(604)가 제어하기 위한 나머지 항공기가 없을 때까지 계속될 수 있다.
도 7은 GCS 및/또는 하나 이상의 UAS(700)의 컴퓨팅 장치 실시예의 예시적 최상위 기능 블록도를 예시한다. 예시적 실시예(700)는 프로세서(724), 예컨대 중앙 처리 유닛(central processing unit(CPU)), 어드레서블 메모리(727), 외부 장치 인터페이스(726), 예를 들어 선택적 범용 직렬 버스 포트 및 관련 프로세싱, 및/또는 이더넷 포트 및 관련 프로세싱, 및 선택적 사용자 인터페이스(729)(도 2 참조), 예를 들어 상태 표시등들(status lights)의 어레이 및 하나 이상의 토글 스위치들, 및/또는 디스플레이, 및/또는 키보드 및/또는 a 포인터-마우스 시스템 및/또는 터치 스크린을 갖는 컴퓨팅 장치(720)로서 도시된다. 선택적으로, 어드레서블 메모리(727)는 예를 들어 다음일 수 있다: 플래시 메모리, 이피롬(eprom), 및/또는 디스크 드리이브 또는 다른 하드 드라이브. 이러한 요소들은 데이터 버스(728)를 통해 서로 통신할 수 있다. 프로세서(724)는 웹 브라우저(723) 및/또는 애플리케이션들(722)을 지원하는 것과 같은 운영 시스템(725)을 가질 수 있으며, 이는 본원에서 설명되는 예시적 실시예들에 따른 프로세스의 단계들을 실행하도록 구성될 수 있다.
위의 실시예들의 특정 특징들 및 측면들의 다양한 조합들 및/또는 서브 조합들이 이루질 수 있고 여전히 본 발명의 범위 내에 있다는 점이 이해된다. 따라서, 개시된 실시예들의 다양한 특징들 및 측면들은 개시된 발명의 다양한 모드들을 형성하기 위해 서로 결합되거나 대체될 수 있다는 점이 이해되어야 한다. 또한, 본원에서 예들로 개시된 본 발명의 범위는 상술한 특정 개시된 실시예들에 의해 제한되지 않아야 한다는 점이 의도된다.
Claims (33)
- 타겟팅 방법으로서,
제1 항공기 상의 제1 비디오 센서에 의해 잠재적인 타겟팅 좌표에 대한 장면의 제1 비디오를 캡처하는 단계;
상기 제1 항공기에 의해 상기 제1 비디오 및 연관된 잠재적인 타겟팅 좌표를 송신하는 단계;
프로세서와 통신하는 제1 디스플레이 상에서 상기 제1 비디오를 수신하는 단계;
상기 제1 디스플레이상에서 상기 제 비디오를 보는 것에 응답하여 상기 잠재적인 타겟팅 좌표를 제2 항공기에 대한 실제 타겟팅 좌표가 되도록 선택하는 단계; 및
제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함하며,
상기 실제 타겟팅 좌표에 대응하는 타겟의 적극 식별은 상기 실제 타겟팅 좌표의 선택으로부터 유지되며,
상기 프로세서는 상기 잠재적인 타겟팅 좌표 또한 수신하는 타겟팅 방법. - 제1항에 있어서,
상기 제2 항공기를 발사하는 단계
를 더 포함하며,
상기 제2 항공기는 제2 비디오 센서를 가지는 타겟팅 방법. - 제2항에 있어서,
상기 실제 타겟팅 좌표에 대한 상기 제1 비디오 센서의 시야(field of view(FOV))를 유지하기 위해 상기 실제 타겟팅 좌표에 대해 상기 제1 항공기를 유도하는 단계를 더 포함하는 타겟팅 방법. - 제3항에 있어서,
상기 제2 비디오 센서에 의해 상기 장면의 제2 비디오를 캡처하는 단계; 및
상기 제2 항공기가 상기 실제 타겟팅 좌표에 접근함에 따라 상기 제1 비디오에 근접한 상기 제2 비디오를 디스플레이하는 단계를 더 포함하는 타겟팅 방법. - 제4항에 있어서,
상기 타겟의 적극 식별을 유지하는 것은,
상기 프로세서의 사용자에 의해, 상기 제2 항공기가 상기 실제 타겟팅 좌표에 접근 중인 것을 확인하기 위해 상기 제1 디스플레이 상에서 상기 장면의 상기 수신된 제1 비디오와 상기 장면의 상기 수신된 제2 비디오를 비교하는 단계를 더 포함하는 타겟팅 방법 - 제4항에 있어서,
상기 제1 디스플레이 상에서 상기 제1 비디오 및 상기 제2 비디오를 보는 것에 응답하여 상기 제2 항공기에 의해 상기 타겟 상에 터미널 호밍 모드를 선택하는 단계를 더 포함하는 타겟팅 방법. - 제6항에 있어서,
상기 터미널 호밍 모드는: 상기 제2 항공기에 의해 상기 타겟에 충돌하는 것, 상기 제2 항공기에 의해 전개되는 페이로드에 의해 상기 타겟에 충돌하는 것, 및 상기 제2 항공기에 의해 전개되는 마커에 의해 상기 타겟에 충돌하는 것 중 적어도 하나를 포함하는 타겟팅 방법. - 제7항에 있어서,
상기 제1 디스플레이 상에서 상기 제1 비디오를 보는 것에 응답하여 충돌 후에 상기 타겟의 상태를 확인하는 단계를 더 포함하는 타겟팅 방법. - 제8항에 있어서,
상기 제1 항공기 상의 상기 제1 비디오 센서에 의해 새로운 잠재적인 타겟팅 좌표에 대한 새로운 장면의 새로운 제1 비디오를 캡처하는 단계;
상기 제1 항공기에 의해 상기 새로운 제1 비디오 및 관련된 새로운 잠재적인 타겟팅 좌표를 송신하는 단계;
상기 프로세서와 통신하는 상기 제1 디스플레이 상에서 상기 새로운 제1 비디오를 수신하는 단계;
상기 제1 디스플레이상에서 상기 새로운 제1 비디오를 보는 것에 응답하여 상기 새로운 잠재적인 타겟팅 좌표를 제3 항공기에 대한 새로운 실제 타겟팅 좌표가 되도록 선택하는 단계; 및
상기 제3 항공기를 상기 새로운 실제 타겟팅 좌표를 향하여 유도하는 단계를 더 포함하며,
상기 새로운 실제 타겟팅 좌표에 대응하는 새로운 타겟의 적극 식별은 상기 새로운 실제 타겟팅 좌표의 선택으로부터 유지되며,
상기 프로세서는 상기 새로운 잠재적인 타겟팅 좌표 또한 수신하는 타겟팅 방법. - 제1항에 있어서,
상기 선택된 잠재적인 타겟팅 좌표는 상기 캡처된 새로운 제1 비디오의 중심 시야(center field of view(CFOV))에 대응하는 지리적 좌표인 타겟팅 방법. - 제1 항에 있어서,
상기 선택된 잠재적인 타겟팅 좌표는 상기 캡처된 새로운 제1 비디오의 상기 시야(field of view(FOV)) 내의 픽셀에 대응하는 지리적 좌표인 타겟팅 방법. - 지상 관제 시스템(ground control system(GCS))에 의해, 제1 항공기로부터의 제1 비디오 스트림 및 상기 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 수신하는 단계;
상기 지상 관제 시스템에 의해, 타겟에 대응하는 상기 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하는 단계;
상기 지상 관제 시스템에 의해, 제2 항공기로부터 제2 비디오 스트림을 수신하는 단계; 및
상기 지상 관제 시스템에 의해, 상기 제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함하며,
상기 타겟의 적극 식별은 상기 실제 타겟팅 좌표의 선택으로부터 상기 지상 관제 시스템에 의해 유지되는 방법. - 제12항에 있어서,
상기 지상 관제 시스템에 의해, 상기 제2 항공기에 의해 상기 타겟 상에 터미널 호밍 모드를 선택하는 단계를 더 포함하는 방법. - 제13항에 있어서,
상기 터미널 호밍 모드는: 상기 제2 항공기에 의해 상기 타겟에 충돌하는 것, 상기 제2 항공기에 의해 전개되는 페이로드에 의해 상기 타겟에 충돌하는 것, 및 상기 제2 항공기에 의해 전개되는 마커에 의해 상기 타겟에 충돌하는 것 중 적어도 하나를 포함하는 방법. - 제14항에 있어서,
상기 지상 관제 시스템을 통해, 상기 제1 항공기로부터 상기 수신된 제1 비디오 스트림을 통해 충돌 후에 상기 타겟의 상태를 확인하는 단계를 더 포함하는 방법. - 제15항에 있어서,
상기 지상 관제 시스템에 의해, 새로운 타겟에 대응하는 새로운 잠재적인 타겟팅 좌표를 새로운 실제 타겟팅 좌표로 선택하는 단계;
상기 지상 관제 시스템에 의해, 제3 항공기로부터 제3 비디오 스트림을 수신하는 단계; 및
상기 지상 관제 시스템에 의해, 상기 제3 항공기를 상기 새로운 실제 타겟팅 좌표를 향하여 유도하는 단계를 더 포함하며,
상기 새로운 실제 타겟팅 좌표에 대응하는 상기 새로운 타겟의 적극 식별은 상기 새로운 실제 타겟팅 좌표의 선택으로부터 유지되는 방법. - 제12항에 있어서,
상기 선택된 잠재적인 타겟팅 좌표는 상기 수신된 제1 비디오 스트림의 중심 시야(center field of view(CFOV))에 대응하는 지리적 좌표인 방법. - 제12항에 있어서,
상기 선택된 잠재적인 타겟팅 좌표는 상기 수신된 제1 비디오 스트림의 상기 시야(field of view(FOV)) 내의 픽셀에 대응하는 지리적 좌표인 방법. - 제1 프로세서를 포함하고, 제1 비디오 스트림 및 상기 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 송신하도록 구성되는 제1 항공기;
제2 프로세서를 포함하고 제2 비디오 스트림을 송신하도록 구성되는 제2 항공기;
제3 프로세서를 포함하고, 상기 제1 항공기를 유도하도록 구성되는 제1 지상 관제 시스템(ground control system(GCS)); 및
제4 프로세서를 포함하는 제2 지상 관제 시스템(ground control system(GCS))을 포함하고,
상기 제2 지상 관제 시스템은:
상기 제1 비디오 스트림, 상기 제1 비디오 스트림과 관련되는 상기 잠재적인 타켓팅 좌표, 및 상기 제2 비디오 스트림을 수신하고;
타겟에 대응하는 상기 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하고; 및
상기 제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하도록 구성되며,
상기 타겟의 적극 식별은 상기 실제 타겟팅 좌표의 선택으로부터 상기 제2 지상 관제 시스템에 의해 유지되는 시스템. - 제19항에 있어서,
상기 제1 지상 관제 시스템은 상기 제1 비디오 스트림을 수신하도록 더 구성되는 시스템. - 제20항에 있어서,
상기 제1 지상 관제 시스템은 상기 제1 항공기를 유도하고 상기 제1 비디오 스트림을 수신하기 위해 제1 디지털 데이터 링크(digital data link(DDL))를 더 포함하는 시스템. - 제21항에 있어서,
상기 제2 지상 관제 시스템는 상기 제1 비디오 스트림, 상기 제1 비디오 스트림과 관련되는 상기 잠재적인 타겟팅 좌표, 및 상기 제2 비디오 스트림을 수신하고, 상기 제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하기 위해 제2 DDL을 더 포함하는 시스템. - 제19항에 있어서,
상기 선택된 잠재적인 타겟팅 좌표는 상기 제1 비디오 스트림의 중심 시야(center field of view(CFOV)), 및 상기 제1 비디오 스트림의 시야(field of view(FOV)) 내의 픽셀 중 하나에 대응하는 지리적 좌표인 시스템. - 제19항에 있어서,
상기 제2 지상 관제 시스템은 상기 제4 프로세서와 통신하는 그래픽 사용자 인터페이스(graphical user interface(GUI))를 더 포함하고, 상기 GUI는 상기 제1 비디오 스트림 및 상기 제2 비디오 스트림을 디스플레이하도록 구성되는 시스템. - 제24항에 있어서,
상기 제2 지상 관제 시스템의 상기 GUI는 상기 제1 항공기의 위치, 상기 제2 항공기의 위치, 상기 제1 항공기의 상기 제1 비디오 스트림의 CFOV, 및 상기 제2 항공기의 상기 제2 비디오 스트림의 CFOV를 갖는 맵을 디스플레이하도록 더 구성되는 시스템. - 제25항에 있어서,
상기 제2 지상 관제 시스템은,
상기 제2 항공기에 의해 상기 타겟 상에 터미널 호밍 모드를 선택하고; 및
상기 제1 항공기로부터 상기 수신되는 제1 비디오 스트림을 통해 충돌 후에 상기 타겟의 상태를 확인하도록 더 구성되며,
상기 터미널 호밍 모드는 상기 제2 항공기에 의해 상기 타겟에 충돌하는 것, 상기 제2 항공기에 의해 전개되는 페이로드에 의해 상기 타겟에 충돌하는 것, 및 상기 제2 항공기에 의해 전개되는 마커에 의해 상기 타겟에 충돌하는 것 중 적어도 하나를 포함하는 시스템. - 지상 관제 시스템(ground control system(GCS))에 의해, 제1 항공기로부터의 제1 비디오 스트림 및 상기 제1 비디오 스트림과 관련되는 잠재적인 타겟팅 좌표를 수신하는 단계;
상기 지상 관제 시스템에 의해, 타겟에 대응하는 잠재적인 타겟팅 좌표를 실제 타겟팅 좌표로 선택하는 단계;
상기 지상 관제 시스템에 의해, 다수의 항공기 중 제2 항공기로부터 제2 비디오 스트림을 수신하는 단계; 및
상기 지상 관제 시스템에 의해, 상기 다수의 항공기 중 상기 제2 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하는 단계를 포함하며,
상기 타겟의 적극 식별은 상기 실제 타겟팅 좌표의 선택으로부터 상기 지상 관제 시스템에 의해 유지되며,
상기 다수의 항공기 중 상기 제2 항공기는 상기 실제 타겟팅 좌표에 가장 가까이 있는 방법. - 제27항에 있어서,
상기 지상 관제 시스템에 의해, 상기 제2 항공기에 의해 상기 타겟 상에 터미널 호밍 모드를 선택하는 단계를 더 포함하는 방법. - 제28항에 있어서
상기 터미널 호밍 모드는 상기 제2 항공기에 의해 상기 타겟에 충돌하는 것, 상기 제2 항공기에 의해 전개되는 페이로드에 의해 상기 타겟에 충돌하는 것, 및 상기 제2 항공기에 의해 전개되는 마커에 의해 상기 타겟에 충돌하는 것 중 적어도 하나를 포함하는 방법. - 제29항에 있어서,
상기 지상 관제 시스템을 통해, 상기 제1 항공기로부터 상기 수신된 제1 비디오 스트림을 통해 충돌 후에 상기 타겟의 상태를 확인하는 단계를 더 포함하는 방법. - 제30항에 있어서,
상기 지상 관제 시스템에 의해, 상기 다수의 항공기 중 제3 항공기를 상기 실제 타겟팅 좌표를 향하여 유도하는 단계를 더 포함하는 방법. - 제27항에 있어서,
상기 다수의 항공기는 상기 실제 타겟팅 좌표가 선택될 때까지 사전 설정된 영역 주위를 선회하는 방법. - 제32항에 있어서,
상기 복수의 항공기 중 각각의 항공기는 상기 실제 타겟팅 좌표를 향하여 상기 유도된 제2 항공기를 따라가고 일정 시간만큼 이격되는 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562138305P | 2015-03-25 | 2015-03-25 | |
US62/138,305 | 2015-03-25 | ||
PCT/US2016/024088 WO2016154477A1 (en) | 2015-03-25 | 2016-03-24 | Machine to machine targeting maintaining positive identification |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170137071A true KR20170137071A (ko) | 2017-12-12 |
KR102480502B1 KR102480502B1 (ko) | 2022-12-23 |
Family
ID=56977601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177026636A KR102480502B1 (ko) | 2015-03-25 | 2016-03-24 | 적극 식별을 유지하는 머신 대 머신 타겟팅 |
Country Status (10)
Country | Link |
---|---|
US (3) | US11112787B2 (ko) |
EP (1) | EP3274660B1 (ko) |
JP (1) | JP6748102B2 (ko) |
KR (1) | KR102480502B1 (ko) |
CN (2) | CN107532921B (ko) |
AU (2) | AU2016238311B2 (ko) |
CA (1) | CA2978516C (ko) |
DK (1) | DK3274660T3 (ko) |
SG (2) | SG11201706781QA (ko) |
WO (1) | WO2016154477A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102466459B1 (ko) * | 2022-07-14 | 2022-11-11 | 국방과학연구소 | 유도탄의 로이터 제어 방법 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115031581A (zh) | 2013-10-31 | 2022-09-09 | 威罗门飞行公司 | 显示目标区域的遥感图像的交互式武器瞄准系统 |
IL264735B2 (en) * | 2016-08-14 | 2024-01-01 | Iron Drone Ltd | Flight planning system and methods for interceptor vehicles |
WO2018078859A1 (ja) * | 2016-10-31 | 2018-05-03 | 富士通株式会社 | 飛行制御プログラム、飛行制御方法、および情報処理装置 |
CN111099018B (zh) * | 2019-12-26 | 2021-10-22 | 浙江海洋大学 | 用于海上无人机的物资投放装置及控制方法 |
KR20210085463A (ko) * | 2019-12-30 | 2021-07-08 | 한화디펜스 주식회사 | 조종기 운용 방법 및 컴퓨터 프로그램과 조종기 |
KR102656635B1 (ko) * | 2023-06-30 | 2024-04-11 | (주)다츠 | 자폭무인기 운용 시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002519619A (ja) * | 1998-06-26 | 2002-07-02 | エルエフケー・レンクフルークケルパーズュステーム・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | 遠隔制御によって地表付近の標的及び/又は地面に固定された標的を排撃するための方法 |
US20120210853A1 (en) * | 2009-10-22 | 2012-08-23 | Israel Aerospace Industries Ltd. | Uav system and method |
WO2013163746A1 (en) * | 2012-05-04 | 2013-11-07 | Aeryon Labs Inc. | System and method for controlling unmanned aerial vehicles |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5458041A (en) * | 1994-08-02 | 1995-10-17 | Northrop Grumman Corporation | Air defense destruction missile weapon system |
US7911497B2 (en) * | 2003-04-25 | 2011-03-22 | Lockheed Martin Corporation | Method and apparatus for video on demand |
US7463753B2 (en) * | 2004-09-15 | 2008-12-09 | Raytheon Company | FLIR-to-missile boresight correlation and non-uniformity compensation of the missile seeker |
US20100157056A1 (en) * | 2007-05-20 | 2010-06-24 | Rafael Advanced Defense Systems Ltd. | Tracking and imaging data fusion |
US8244469B2 (en) * | 2008-03-16 | 2012-08-14 | Irobot Corporation | Collaborative engagement for target identification and tracking |
CN106342153B (zh) * | 2009-12-31 | 2014-07-02 | 中航贵州飞机有限责任公司 | 飞机武器瞄准误差测量装置及方法 |
US9057583B2 (en) * | 2010-10-28 | 2015-06-16 | Surefire, Llc | Sight system |
-
2016
- 2016-03-24 CN CN201680018100.4A patent/CN107532921B/zh active Active
- 2016-03-24 SG SG11201706781QA patent/SG11201706781QA/en unknown
- 2016-03-24 US US15/080,389 patent/US11112787B2/en active Active
- 2016-03-24 AU AU2016238311A patent/AU2016238311B2/en active Active
- 2016-03-24 JP JP2017549254A patent/JP6748102B2/ja active Active
- 2016-03-24 CA CA2978516A patent/CA2978516C/en active Active
- 2016-03-24 WO PCT/US2016/024088 patent/WO2016154477A1/en active Application Filing
- 2016-03-24 KR KR1020177026636A patent/KR102480502B1/ko active IP Right Grant
- 2016-03-24 EP EP16769721.8A patent/EP3274660B1/en active Active
- 2016-03-24 SG SG10201907975S patent/SG10201907975SA/en unknown
- 2016-03-24 CN CN202111387065.2A patent/CN114152251A/zh active Pending
- 2016-03-24 DK DK16769721.8T patent/DK3274660T3/da active
-
2021
- 2021-08-05 US US17/395,102 patent/US11714407B2/en active Active
- 2021-09-22 AU AU2021236490A patent/AU2021236490B2/en active Active
-
2023
- 2023-06-13 US US18/208,987 patent/US20240152137A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002519619A (ja) * | 1998-06-26 | 2002-07-02 | エルエフケー・レンクフルークケルパーズュステーム・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | 遠隔制御によって地表付近の標的及び/又は地面に固定された標的を排撃するための方法 |
US20120210853A1 (en) * | 2009-10-22 | 2012-08-23 | Israel Aerospace Industries Ltd. | Uav system and method |
WO2013163746A1 (en) * | 2012-05-04 | 2013-11-07 | Aeryon Labs Inc. | System and method for controlling unmanned aerial vehicles |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102466459B1 (ko) * | 2022-07-14 | 2022-11-11 | 국방과학연구소 | 유도탄의 로이터 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP2018516350A (ja) | 2018-06-21 |
EP3274660A4 (en) | 2018-12-19 |
US20210373554A1 (en) | 2021-12-02 |
AU2016238311A1 (en) | 2017-09-07 |
US20160305745A1 (en) | 2016-10-20 |
US11714407B2 (en) | 2023-08-01 |
CN107532921B (zh) | 2021-11-30 |
CN114152251A (zh) | 2022-03-08 |
WO2016154477A1 (en) | 2016-09-29 |
KR102480502B1 (ko) | 2022-12-23 |
EP3274660A1 (en) | 2018-01-31 |
US20240152137A1 (en) | 2024-05-09 |
EP3274660B1 (en) | 2021-07-21 |
DK3274660T3 (da) | 2021-08-23 |
US11112787B2 (en) | 2021-09-07 |
CA2978516C (en) | 2023-09-12 |
CN107532921A (zh) | 2018-01-02 |
AU2016238311B2 (en) | 2021-07-08 |
JP6748102B2 (ja) | 2020-08-26 |
SG11201706781QA (en) | 2017-10-30 |
CA2978516A1 (en) | 2016-09-29 |
AU2021236490B2 (en) | 2024-03-07 |
SG10201907975SA (en) | 2019-10-30 |
AU2021236490A1 (en) | 2021-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2021236490B2 (en) | Machine to machine targeting maintaining positive identification | |
US11126204B2 (en) | Aerial vehicle interception system | |
US11074827B2 (en) | Virtual reality system for aerial vehicle | |
AU2018220147B2 (en) | Aerial vehicle imaging and targeting system | |
CN110709320B (zh) | 用于拦截和对抗无人飞行器(uav)的系统和方法 | |
Moon et al. | Development of multiple AR. Drone control system for indoor aerial choreography | |
KR20150145472A (ko) | 무인 방어 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
GRNT | Written decision to grant |