CN107532921A - 维持肯定性识别的机器对机器瞄准 - Google Patents
维持肯定性识别的机器对机器瞄准 Download PDFInfo
- Publication number
- CN107532921A CN107532921A CN201680018100.4A CN201680018100A CN107532921A CN 107532921 A CN107532921 A CN 107532921A CN 201680018100 A CN201680018100 A CN 201680018100A CN 107532921 A CN107532921 A CN 107532921A
- Authority
- CN
- China
- Prior art keywords
- airborne vehicle
- coordinate
- target
- gcs
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 56
- 230000004044 response Effects 0.000 claims abstract description 10
- 238000004891 communication Methods 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims description 12
- 235000006508 Nelumbo nucifera Nutrition 0.000 claims description 2
- 240000002853 Nelumbo nucifera Species 0.000 claims description 2
- 235000006510 Nelumbo pentapetala Nutrition 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- RTZKZFJDLAIYFH-UHFFFAOYSA-N Diethyl ether Chemical compound CCOCC RTZKZFJDLAIYFH-UHFFFAOYSA-N 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 239000002360 explosive Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000287456 Laniidae Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000036299 sexual function Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0027—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D1/00—Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
- B64D1/02—Dropping, ejecting, or releasing articles
- B64D1/04—Dropping, ejecting, or releasing articles the articles being explosive, e.g. bombs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D1/00—Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
- B64D1/16—Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/02—Aiming or laying means using an independent line of sight
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/04—Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/145—Indirect aiming means using a target illuminator
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/16—Sighting devices adapted for indirect laying of fire
- F41G3/165—Sighting devices adapted for indirect laying of fire using a TV-monitor
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/007—Preparatory measures taken before the launching of the guided missiles
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2206—Homing guidance systems using a remote control station
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2233—Multimissile systems
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G9/00—Systems for controlling missiles or projectiles, not provided for elsewhere
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/69—Coordinated control of the position or course of two or more vehicles
- G05D1/692—Coordinated control of the position or course of two or more vehicles involving a plurality of disparate vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/15—UAVs specially adapted for particular uses or applications for conventional or electronic warfare
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0004—Transmission of traffic-related information to or from an aircraft
- G08G5/0013—Transmission of traffic-related information to or from an aircraft with a ground station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0026—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/003—Flight plan management
- G08G5/0034—Assembly of a flight plan
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
一种瞄准方法,其涉及:通过在第一航空器(100)上的第一视频传感器(102)捕获关于潜在瞄准坐标的场景的第一视频;通过第一航空器发送第一视频(232)和相关联的潜在瞄准坐标;在与处理器通信的第一显示器上接收第一视频,该处理器还接收潜在瞄准坐标;响应于观察到在第一显示器上的第一视频,将潜在瞄准坐标选择为对于第二航空器(116)的实际瞄准坐标(226);以及将第二航空器引导向实际瞄准坐标;其中,对应于实际瞄准坐标的对于目标(114)的肯定性识别从选择实际瞄准坐标开始维持。
Description
相关申请的交叉引用
本申请要求享有于2015年3月25日提交的第62/138,305号美国临时专利申请的优先权和权益,在此将其内容针对全部目的通过引用的方式并入。
技术领域
本发明涉及无人驾驶航空系统(UAS),更具体地涉及对于目标的UAS识别。
背景
无人驾驶航空系统(UAS)包括可以由在一个或更多个地面控制系统(GCS)处的一个或更多个操作者远程控制的无人驾驶飞行器(UAV)。限制性的交战规则可要求对于目标的肯定性识别(PID)从识别开始维持到最终接触。
概述
本发明的一些实施例可以包括瞄准方法,其可以包括:通过在第一航空器上的第一视频传感器捕获关于潜在瞄准坐标的场景的第一视频;通过第一航空器发送第一视频和相关联的潜在瞄准坐标;在与处理器通信的第一显示器上接收第一视频,处理器还接收潜在瞄准坐标;响应于观察到在第一显示器上的第一视频,将潜在瞄准坐标选为对于第二航空器的实际瞄准坐标;以及将第二航空器引导向实际瞄准坐标;其中,对应于实际瞄准坐标的对于目标的肯定性识别从选择实际瞄准坐标开始维持。另外的示例性方法实施例可以包括发射具有第二视频传感器的第二航空器。
另外的示例性方法实施例可以包括使第一航空器在实际瞄准坐标周围绕轨道而行,以维持第一视频传感器的视场(FOV)在实际瞄准坐标周围。另外的示例性方法实施例可以包括通过第二视频传感器捕获场景的第二视频,以及当第二航空器接近实际瞄准坐标时在第一显示器上接收第二视频。在另外的示例性方法实施例中,维持对于目标的肯定性识别还可以包括由处理器的用户比较在第一显示器上的所接收的场景的第一视频和所接收的场景的第二视频,以确认第二航空器正在接近实际瞄准坐标。另外的示例性方法实施例可以包括响应于观察到在第一显示器上的第一视频和第二视频,选择由第二航空器对准的目标的末段自导引模式。在另外的示例性方法实施例中,末段自导引模式还可以包括下列各项中的至少一项:由第二航空器撞击目标,由第二航空器部署的载荷撞击目标,以及由第二航空器部署的标记物撞击目标。另外的示例性方法实施例可以包括响应于观察到在第一显示器上的第一视频,确认目标在撞击之后的状况。
另外的示例性方法实施例可以包括:通过在第一航空器上的第一视频传感器捕获关于新的潜在瞄准坐标的新场景的第一视频;通过第一航空器发送第一视频和相关联的新的潜在瞄准坐标;在与处理器通信的第一显示器上接收第一视频,该处理器还接收新的潜在瞄准坐标;响应于观察到在第一显示器上的第一视频,将新的潜在瞄准坐标选为对于第三航空器的新的实际瞄准坐标;以及将第三航空器引导向新的实际瞄准坐标;其中,对应于新的实际瞄准坐标的对于新目标的肯定性识别从选择新的实际瞄准坐标开始维持。在另外的示例性方法实施例中,所选择的潜在瞄准坐标可以是与所捕获的第一视频的中心视场(CFOV)对应的地理坐标和/或与所捕获的第一视频的视场(FOV)中的像素对应的地理坐标。
另一示例性方法实施例可以包括:通过地面控制系统(GCS)接收来自第一航空器的第一视频流和与第一视频流相关的潜在瞄准坐标;由GCS将与目标对应的潜在瞄准坐标选作实际瞄准坐标;由GCS接收来自第二航空器的第二视频流;以及由GCS将第二航空器引导向实际瞄准坐标;其中,对于目标的肯定性识别通过GCS从选择实际瞄准坐标开始维持。
另外的示例性方法实施例可以包括通过GCS选择由第二航空器对准目标的末段自导引模式。在另外的示例性方法实施例中,末段自导引模式可以包括下列各项中的至少一项:由第二航空器撞击目标,由第二航空器部署的载荷撞击目标,以及由第二航空器部署的标记物撞击目标。另外的示例性方法实施例可以包括:经由GCS经由来自第一航空器的接收到的第一视频流确认目标在撞击之后的状况。另外的示例性方法实施例可以包括:由GCS将与新的目标对应的新的潜在瞄准坐标选作新的实际瞄准坐标;由GCS接收来自第三航空器的第三视频流;以及由GCS将第三航空器引导向新的实际瞄准坐标。在另外的示例性方法实施例中,所选择的潜在瞄准坐标是与所接收的第一视频流的中心视场(CFOV)对应的地理坐标和/或与所接收的第一视频流的视场(FOV)中的像素对应的地理坐标。
示例性系统实施例可以包括:第一航空器,该第一航空器包括第一处理器并且被配置成发送第一视频流以及与第一视频流相关的潜在瞄准坐标;第二航空器,该第二航空器包括第二处理器并且被配置成发送第二视频流;第一地面控制系统(GCS),该第一GCS包括第三处理器,并且其中第一GCS被配置成引导第一航空器;以及第二地面控制系统(GCS),该第二GCS包括第四处理器,并且其中第二GCS可以:接收第一视频流、与第一视频流相关的潜在瞄准坐标、以及第二视频流;将与目标对应的潜在瞄准坐标选作实际瞄准坐标;以及将第二航空器引导向实际瞄准坐标;其中,对于目标的肯定性识别通过第二GCS从选择实际瞄准坐标开始维持。
在另外的示例性系统实施例中,第一GCS可以接收第一视频流。在另外的示例性系统实施例中,第一GCS可以包括第一数字数据链路(DDL),以引导第一航空器并且接收第一视频流。在另外的示例性系统实施例中,第二GCS可以包括第二DDL,以接收第一视频流、与第一视频流相关的潜在瞄准坐标、以及第二视频流,并且将第二航空器引导向实际瞄准坐标。在另外的示例性系统实施例中,所选择的潜在瞄准坐标可以是与下列各项中的至少一项对应的地理坐标:第一视频流的中心视场(CFOV)、以及第一视频流的视场(FOV)中的像素。在另外的示例性系统实施例中,第二GCS还包括与第四处理器通信的图形用户界面(GUI),并且其中GUI被配置成显示第一视频流和第二视频流。在另外的示例性系统实施例中,第二GCS的GUI可以显示具有第一航空器的位置、第二航空器的位置、第一航空器的第一视频流的CFOV以及第二航空器的第二视频流的CFOV的地图。在另外的示例性系统实施例中,第二GCS可以选择第二航空器对准的目标的末段自导引模式,其中,末段自导引模式可以包括下列各项中的至少一项:由第二航空器撞击目标,由第二航空器部署的载荷撞击目标,以及由第二航空器部署的标记物撞击目标;并且经由来自第一航空器的接收到的第一视频流确认目标在撞击之后的状况。
另一示例性方法实施例可以包括:通过地面控制系统(GCS)接收来自第一航空器的第一视频流和与第一视频流相关的潜在瞄准坐标;由GCS将与目标对应的潜在瞄准坐标选作实际瞄准坐标;由GCS接收来自在多个航空器中的第二航空器的第二视频流,其中,在多个航空器中的第二航空器最靠近目标;由GCS将在多个航空器中的第二航空器引导向实际瞄准坐标;其中,对于目标的肯定性识别通过GCS从选择实际瞄准坐标开始维持。
另外的示例性方法实施例可以包括通过GCS选择由第二航空器对准目标的末段自导引模式。在另外的示例性方法实施例中,末段自导引模式可以包括下列各项中的至少一项:由第二航空器撞击目标,由第二航空器部署的载荷撞击目标,以及由第二航空器部署的标记物撞击目标。另外的示例性方法实施例可以包括:经由GCS经由来自第一航空器的接收到的第一视频流确认目标在撞击之后的状况。另外的示例性方法实施例可以包括:通过GCS将多个航空器中的第三航空器引导向实际瞄准坐标。在另外的示例性方法实施例中,多个航空器在预设区域周围徘徊,直到实际瞄准坐标被选定时为止。在另外的示例性方法实施例中,在多个航空器中的每个航空器跟随朝向实际瞄准坐标被引导的第二航空器,并且间隔开设定的时间。
附图简述
图中的部件不一定按比例绘制,相反强调了说明本发明的原理。在全部不同的视图中,相同的参考数字指示相应的部分。在附图的图中通过示例而非限制的方式示出实施例,其中:
图1A描绘了具有向一个或更多个地面控制系统(GCS)发送信息的第一航空器的无人驾驶航空系统(UAS)的实施例;
图1B描绘了具有在选定由第一航空器识别出的目标之后发射的第二航空器的UAS的实施例;
图1C描绘了具有在第一航空器维持对于目标的肯定性识别的同时观察由第一航空器识别出的目标的第二航空器的UAS的实施例;
图1D描绘了具有在第一航空器维持对于目标的肯定性识别的同时进入“委托(commit)”模式并且向目标移动的第二航空器的UAS的实施例;
图1E描绘了其中目标受第二航空器破坏并且第一航空器将目标命中的视觉确认发送到一个或更多个GCS的UAS的实施例;
图2描绘了具有用于观察所发送的信息和/或视频并且基于接收到的信息和/或视频来选择瞄准坐标的用户界面的实施例的示例性GCS;
图3描绘了在控制第一航空器的第一GCS和控制第二航空器的第二GCS之间的示例性连接;
图4A-4C描绘了用于在维持对于目标的肯定性识别的同时采用两个或更多个航空器识别、消除和确认命中目标的方法实施例的示例性功能框图;
图5描绘了具有直到目标被识别出并且与目标相关的实际瞄准坐标被选定为止徘徊的多个航空器的UAS的实施例;
图6描绘了具有被引导到单个目标的多个航空器的UAS的实施例,其中,被引导到单个目标的航空器中的每个航空器自动间隔开,以允许单个操作者切换以在撞击时控制随后的航空器;并且
图7示出了GCS和/或一个或更多个UAS的计算设备实施例的示例性顶级功能框图。
详细描述
本发明允许由在第一地面控制系统(GCS)处的第一操作者操作的第一航空器捕获关于可以包括视频流和与所捕获的视频流相关的地理坐标的场景的信息。来自第一航空器的视频流可以作为加密数据被发送到一个或更多个GCS。在第二GCS处的第二操作者可以在显示器(例如,图形用户界面(GUI))上观察所发送的视频流,并且在GUI上选择对应于视频流上的目标的位置的瞄准坐标。目标的位置可以是视频的中心视场(CFOV)或视频的视场(FOV)中的任意像素。目标的位置可以是航空器视频流中的任意像素的地理坐标。可以从CFOV坐标和视频的四个角的坐标中内插任意给定像素的地理位置。第二航空器可以被发射并被引导向由第二操作者选择的瞄准坐标。第一航空器可以在第二航空器被引导向所选择的瞄准坐标的同时维持对于目标的肯定性识别(PID)。第二航空器可用于撞击在所选择的瞄准坐标处的目标。来自第一航空器的视频流可用于确认目标已被命中,并确认对目标的任何损坏的程度。第一航空器可继续徘徊寻找其他目标。
图1A描绘了具有捕获关于场景的信息的第一航空器100的无人驾驶航空系统(UAS)的实施例。该信息可以是视频流和与该视频流相关的瞄准坐标。第一航空器100(例如,加利福尼亚州蒙罗维亚的AeroVironment公司制造的Puma、Raven、Wasp或Shrike)可以具有第一相机102,该第一相机102具有第一视频传感器,该第一视频传感器可安装在万向节上以允许第一操作者将相机引导到地面104上的各个位置。第一航空器100和/或第一相机102可以由在第一GCS 106处的第一操作者101经由在第一GCS 106和第一航空器100之间发送105的一个或更多个信号来控制。第一相机102可以具有在捕获的视频流的中心中的、具有中心视场(CFOV)110的视场(FOV)108。第一航空器100的位置、第一相机102的位置和/或额外的细节可以用于连续地计算CFOV 110的地理位置和/或第一相机102的FOV 108中的任意像素的地理位置,作为潜在瞄准坐标。潜在瞄准坐标可在航空器100上被计算和/或作为视频流元数据被发送到一个或更多个GCS(106、112)。在一些实施例中,可以将来自航空器100的数据发送到一个或更多个GCS(106、112),并且一个或更多个GCS(106、112)可以计算潜在瞄准坐标。可以将视频流和潜在瞄准坐标发送(105、111)到一个或更多个GCS,诸如第一GCS 106和第二GCS 112。在第二GCS 112处的第二操作者113可以监视由第一航空器100发送的视频流111,直到目标114被识别出为止。一旦目标114被识别出,第二操作者113就可以经由在第二GCS 112处的输入端(例如,具有显示来自第一航空器100的视频流的监视器的GUI上的按钮)来选择与该目标114相关的潜在瞄准坐标。潜在的瞄准坐标可以是CFOV 110或视频流的FOV中的任意像素。一旦选定了潜在瞄准坐标,潜在瞄准坐标就变成了与目标114相关的实际瞄准坐标。目标114可以是静止的或移动的。如果目标正在移动,则可以选定新的潜在瞄准坐标以变成对应于移动的目标114的新位置、第一相机102的新CFOV110和/或在相机102的FOV 108中的目标114的新位置的新的实际瞄准坐标。在一些实施例中,瞄准坐标可以随着移动目标114和/或第一相机102的移动的CFOV 110自适应地移动。
图1B描绘了图1A的UAS的实施例,其中,响应于由在第二GCS 112处的第二操作者113对瞄准坐标的选择,发射器120发射118第二航空器116(例如,由加利福尼亚州蒙罗维亚的AeroVironment公司制造的)。在一些实施例中,第二航空器116可由第二操作者113或其他人手动发射。一旦实际的瞄准坐标可用,第一航空器100可以保持目标114的PID(例如,通过将目标114保持在第一相机102的FOV 108内),同时第二航空器116被引导向与目标114相关的实际的瞄准坐标。第一航空器100可以在自动驾驶仪上引导和/或设置为绕轨道而行、盘旋和/或保持在设定的区域中,使得维持第一相机102的FOV 108对准目标114。在一些实施例中,当选定瞄准坐标时,第二航空器116可能已经在飞行中。在其他实施例中,可以从第一航空器100发射第二航空器116。
图1C描绘了图1A-1B的UAS的实施例,其中,第二航空器116正在朝向目标114飞行,同时第一航空器100保持目标114的PID。第二操作者113可以经由第二GCS 112监视由第一航空器100发送的视频流111,同时第二航空器116被引导向目标114。第二操作者113还可以经由在第二航空器116和第二GCS 112之间发送的一个或更多个信号122来监视由第二航空器116(例如,由第二相机)发送的视频流。第二操作者113可以在第二GCS 112处同时观察由第一航空器100和第二航空器116两者发送的视频流。当目标114在两个相机的FOV(108、124)中时,发生PID转移,并且第二操作者113可以聚焦于第二相机的FOV 124,以在任务的整个完成过程中维持PID。一旦目标114在第二航空器116的第二相机的FOV 124中,第二操作者113就可以将第二航空器116置于“委托”模式。
图1D描绘了图1A-1C的UAS的实施例,其中,经由在第二航空器116和第二GCS 112之间发送122的一个或更多个信号,第二航空器116被置于“委托”模式,其中第二航空器116朝向目标114的实际瞄准坐标进入末段自导引。在“委托”模式中,第二操作者113将第二航空器116引向目标114。目标114的PID由第一航空器100维持。在一些实施例中,第二航空器116可以不接触目标114,而是部署可以接触目标114的载荷和/或标记物(例如,油漆)。
图1E描绘了图1A-1D的UAS的实施例,其中,目标115已经被破坏(例如,通过与携带有一定载荷的爆炸物的第二航空器接触)。第一航空器100经由对瞄准坐标的选择(参见图1A)从第一识别开始将目标115的PID维持到目标115的毁坏和/或PID转移。第一航空器100可以观察第一相机102的FOV 108中的场景,并将该视频流发送(105、111)到一个或更多个GCS,诸如第一GCS 106和第二GCS 112。对于目标115的毁坏可以由第一操作者101和/或第二操作者113经由他们各自的GCS(106、112)来验证。然后,第一航空器100可以继续将视频流和潜在瞄准坐标发送(105、111)到一个或更多个GCS(106、112),直到新的目标124被识别出为止。新的目标124可以在第一航空器的第一相机102的FOV 108内。新的目标还可以位于第一航空器100的第一相机102的FOV 108之外,并且第一操作者101可以控制第一航空器100和/或第一相机102以定位新的目标。一旦新的目标124被识别出,可以经由第二GCS 112发射第三飞机和/或将第三飞机引向新的有效瞄准坐标。该过程可以继续,直到没有额外的飞机和/或所有目标已被消除为止。在一些实施例中,额外的GCS和/或航空器可用于识别和/或消除目标。在其他实施例中,单个GCS可用于控制多个航空器。第一航空器可用于识别潜在瞄准坐标,并且选择潜在瞄准坐标作为实际瞄准坐标。然后,第一航空器可以维持实际瞄准坐标的FOV,(例如,经由在目标上方自动飞行回旋或以其它方式盘旋),同时操作者使第二航空器飞到实际瞄准坐标,使得从对潜在瞄准坐标的初始选择开始将PID维持到与目标的最终撞击。
图2描绘了GCS实施例200,其具有在计算设备204(例如,具有处理器和可寻址存储器(参见图7)的膝上型或平板计算机)上的用于观察由一个或更多个航空器(例如,第一航空器206和第二航空器208)发送的信息并且基于接收到的所发送的信息来选择瞄准坐标的GUI 202。第一航空器206可以由第一GCS(参见图1A,106)控制,并且第一航空器可以发送210关于场景的信息,例如,与捕获的视频流相关的视频流和地理坐标。来自第一航空器206的所发送210的信息可以由第一数字数据链路(DDL)212(例如,包(pocket)DDL)接收。第一DDL 212可以例如通过USB和/或以太网电缆连接214到计算设备204。
计算设备204可以具有显示器(诸如,GUI 202),其可以显示地图216,地图216显示了第一航空器206的位置218、第二航空器的位置220、第一航空器206的CFOV 222(显示为“+”)、第二航空器的CFOV 224(显示为“x”)、实际瞄准坐标226、第二航空器208的进入点228、以及第二航空器从进入点228到实际瞄准坐标226的方向230。在一些实施例中,地图216还可以显示每个航空器的FOV。在存在对于第二航空器末期操作来说显著的风(例如,大于5节)的情况下,第二航空器可以选择进入点228,其可以是操作者可选择的距离实际瞄准坐标226和顺风向的最小距离(例如,顺风向距离目标1000米)。在一些实施例中,该进入点可以由计算设备204自动选择,而不需要额外的操作者输入。从该进入点228开始接近实际瞄准坐标226可以增加第二航空器208相对于实际瞄准坐标226的精度和/或机动性。
GUI 202还可以显示来自由第一航空器206所发送的视频210的第一视频流232。操作者可以观察该第一视频流232,直到期望的目标出现在第一视频流232中为止。然后,操作者可以例如经由工具栏234(例如,来自加利福尼亚州蒙罗维亚的AeroVironment公司的FalconView工具栏(FVTB))上的一个或更多个选项、经由用户界面和/或经由触摸界面选择以使用第一视频流232的CFOV和/或FOV中的任意像素作为瞄准坐标。在一些实施例中,操作者可以选择视频流的任意部分作为瞄准坐标。当操作者选择潜在瞄准坐标时,它成为实际瞄准坐标226。由第一航空器206发送210并由第一DDL 212接收的信息包括与操作者正在观察的第一视频流232的CFOV和/或FOV中的任意像素相关的地理信息。一旦实际瞄准坐标226是有效的,操作者就可以发射第二航空器208(参见图1B,118)和/或控制已经在飞行中的第二航空器208。在第二DDL 236和第二航空器208之间发送234的一个或更多个信号可用于控制第二航空器208并从第二航空器208接收视频流。第二DDL 236可以安装在塔架238上,以确保视线随着第二航空器208。第二DDL 236可以连接到集线器240,集线器240可以连接到计算设备204和/或第二航空器控制器242。
GUI可以显示来自第二航空器208所发送234的视频的第二视频流244。一旦实际瞄准坐标226有效并且第二航空器208处于飞行中,操作者就可以观察第一航空器206和第二航空器208两者的视频流(232、244)。通过使用两个视频流(232、244),将第二航空器208引导向实际瞄准坐标226的操作者可以使用第二航空器控制器242以从潜在瞄准坐标的初始选择开始将目标的PID维持到最终撞击目标。在一些实施例中,可以在单个屏幕和设备和/或多个屏幕和/或设备上彼此靠近地呈现视频流(232、244)。
图3描绘了在控制第一航空器304的第一GCS 302和控制第二航空器308的第二GCS306之间的示例性GCS实施例300。在一些实施例中,多个GCS可以在地理上间隔开,使得它们之间的直接连接(例如,经由以太网和/或USB电缆)是不可行的(参见图2)。利用多个GCS可有助于减少从识别目标到最终撞击该目标的时间。在其他实施例中,多个GCS(302、306)可以在地理上被间隔得足够近,使得它们可以直接连接,并且由第一航空器304和/或第二航空器308发送的(310、312)信息可以被共享而不需要额外的DDL(诸如,包DDL(参见图2,212))。在一些实施例中,单个DDL可用于在两个或更多个航空器之间接收和/或发送数据,例如,视频流、与视频流相关的潜在瞄准坐标和/或一个或更多个航空器控制。
信息(例如,视频流和与捕获的视频流相关的地理坐标)可以由第一航空器发送310到第一GCS 302的第一DDL 314。第一DDL 314可以将所接收的信息发送到第一计算设备316,例如,膝上型计算机或平板计算机。第一计算设备316可以通过电缆(例如,USB电缆)连接到第一适配器盒318。第一适配器盒318可以通过以太网电缆322(例如,长达100米的以太网电缆)连接到第二适配器盒320。第二适配器盒320可以通过电缆(例如,USB电缆)连接到第二计算设备324。适配器盒(318、320)可以用于将USB转换成以太网,反之亦然。在第二计算设备324处的操作者可以观察由第一航空器304捕获的视频流,并且基于该视频流选择潜在瞄准坐标(参见图2)。在第二计算设备324处的操作者还可以接收来自第二航空器308的视频流,其被发送312到第二GCS 306的第二DDL 326然后被发送到第二计算设备324。
图4A-4C描绘了用于在从初始识别到最终确认(400、401、403)维持对于目标的肯定性识别的同时采用两个航空器识别、消除和确认对目标的任何破坏的方法实施例的示例性功能框图。参考字符A和B用于显示图4A-图4C中的步骤之间的连接。经由第一地面控制系统(GCS),第一航空器的第一操作者经由设置在第一航空器上的第一相机捕获潜在目标的视频(步骤402)。操作者经由第一GCS维持第一航空器的第一相机对准目标,以维持PID(步骤404)。第一航空器发送来自第一相机的视频流和与第一视频流相关的潜在瞄准坐标(步骤406)。潜在瞄准坐标可以作为元数据嵌入到视频流中,并且可以随着CFOV在场景中的变化而连续更新。第二操作者经由第二GCS接收来自第一航空器的第一视频流和与第一视频流相关的潜在瞄准坐标(步骤408)。第二操作者经由第二GCS选择潜在瞄准坐标作为实际瞄准坐标(步骤410)。在一些实施例中,如果第二操作者识别出新的目标(例如,比原始选择的目标具有更高重要性的目标),则第二操作者可以选择新的实际瞄准坐标。发射具有第二相机的第二航空器(步骤412)。第二操作者可以发射第二航空器,或者另一个体可以执行发射前的检查清单并发射第二航空器。在一些实施例中,第二航空器可能已经在飞行中,并且第二操作者可以切换到和/或继续控制第二航空器。可以经由第一GCS和/或第二GCS发射第二航空器。第二航空器发送来自第二相机的第二视频流(步骤414)。第二操作者经由第二GCS接收第二视频流和第一视频流(步骤416)。第二操作者经由第二GCS将第二航空器引导向实际瞄准坐标(步骤418)。第二操作者经由第二GCS确认在第一视频流中识别出的目标与位于实际瞄准坐标处的目标相同(步骤419)。第二操作者经由第二GCS选择第二航空器对准目标的末段自导引模式(步骤420)。在一些实施例中,目标可以是移动的并且可以具有从其初始瞄准坐标改变的位置。如果目标已经移动,则第二操作者可以经由第二GCS调整第二航空器的路径以进入对新的目标位置的末段自导引模式。在一些实施例中,只要已由第一视频流维持PID,第二操作者就可以基于新的目标位置经由第二GCS从第一视频流选择新的瞄准坐标。第二航空器撞击目标(步骤422)。在一些实施例中,第二航空器可以部署对准目标的载荷,例如,爆炸物或标记物(例如,油漆)。经由第一GCS和/或第二GCS,第一操作者和/或第二操作者经由来自第一航空器的第一视频流来确认撞击后目标的状况(步骤424)。在一些实施例中,经由第二GCS,第二操作者还可以经由来自第一航空器的第一视频流确认撞击后目标的状况。然后,第二操作者可以经由第二GCS来决定是否需要进一步的动作,例如,选择新的瞄准坐标和/或发射第三航空器。在一些实施例中,可以重复该过程,直到已实现所期望的效果(例如,消除目标)为止(步骤426)。
图5描绘了具有经由第一GCS 501控制第一航空器502的第一操作者500和可以经由第二GCS 505控制飞行中的多个航空器(506、508、510、512、514)之一的第二操作者504的UAS的实施例。多个航空器(506、508、510、512、514)可以围绕预设区域和/或图案徘徊,直到第二操作者504需要时为止。第一操作者502可以经由第一GCS 501识别在第一航空器502上的相机520的FOV 518内的目标516。经由第二GCS 505,第二操作者504可以经由由第一航空器502发送到第二GCS 505的视频流来观察目标516。第二操作者504可以经由第二GCS 505选择与目标516相关的潜在瞄准坐标作为有效的瞄准坐标(参见图2)。第二操作者504可以经由第二GCS 505选择正在徘徊的多个航空器(506、508、510、512、514)中的第二航空器506,使其被引导522向目标516。经由第二GCS 505,第二操作者504在经由由第一航空器502发送到第二GCS 505的视频流在选择第二航空器506期间维持目标516的PID。剩余的多个航空器(508、510、512、514)保持徘徊,直到需要由第二操作者504引导向目标516和/或新目标时为止。
图6描绘了具有经由第一GCS 601控制第一航空器602的第一操作者600和经由第二GCS 605控制每个间隔设定的时间并正在被引导向目标616的多个航空器(606、608、610、612、614)的第二操作者604的UAS的实施例。第一操作者600可以经由第一GCS 601识别在第一航空器602上的第一相机620的FOV 618中的目标616。第二操作者604可以经由第二GCS605基于目标616选择有效瞄准坐标(参见图2)。一旦由第二操作者604选定了有效瞄准坐标,多个航空器(606、608、610、612、614)就可以排队以跟随并被引导到目标616,使得多个航空器(606、608、610、612、614)中的每个航空器间隔开设定的时间。第二操作者604可以经由第二GCS 605观察来自第一航空器602和最靠近目标616的航空器606的视频馈送,以维持目标616的PID。第二操作者604还可以控制最靠近目标616的航空器606,而剩余的航空器(608、610、612、614)可以依靠自动驾驶仪继续。一旦航空器606接触到目标,第二操作者604就可以经由第二GCS 605继续观察来自第一航空器602的视频馈送。然后,第二操作者604可以经由第二GCS 605控制航空器608(它现在是最靠近目标616的航空器),并且观察来自第三航空器608的视频馈送。在每个航空器(606、608、610、612、614)接触目标时,可由第二GCS605的计算设备自动控制切换控制和/或观察来自后续航空器(608、610、612、614)的视频馈送(参见图2和图7)。该过程可以继续,直到目标616被消除和/或不存在用于第二操作者604控制的剩余航空器时为止。
图7示出了GCS和/或一个或更多个UAS 700的计算设备实施例的示例性顶级功能框图。示例性实施例700被显示为具有处理器724(诸如,中央处理单元(CPU))、可寻址存储器727、外部设备接口726(例如,可选的通用串行总线端口和相关的处理和/或以太网端口和相关的处理)、以及可选的用户界面729(参见图2)(例如,状态灯阵列和一个或更多个拨动开关、和/或显示器、和/或键盘、和/或指针-鼠标系统、和/或触摸屏)的计算设备720。可选地,可寻址存储器727可以例如是:闪存、eprom和/或磁盘驱动器或其他硬盘驱动器。这些元件可以经由数据总线728彼此通信。处理器724可以具有操作系统725(诸如,支持网络浏览器723和/或应用722的操作系统),其可以被配置成执行根据在本文中描述的示例性实施例的过程步骤。
可以想到,上述实施例的特定特征和方面的各种组合和/或子组合可以进行,并且仍然落在本发明的范围内。因此,应当理解,所公开的实施例的各种特征和方面可以彼此组合或替代,以便形成所公开的发明的变化模式。此外,意图在本文中通过示例的方式公开的本发明的范围不应受限于上述特定公开的实施例。
Claims (33)
1.一种瞄准方法,包括:
通过在第一航空器上的第一视频传感器捕获关于潜在瞄准坐标的场景的第一视频;
通过所述第一航空器发送所述第一视频和相关联的潜在瞄准坐标;
在与处理器通信的第一显示器上接收所述第一视频,所述处理器还接收所述潜在的瞄准坐标;
响应于观察到在所述第一显示器上的所述第一视频,将所述潜在瞄准坐标选择为对于第二航空器的实际瞄准坐标;以及
将第二航空器引导向所述实际瞄准坐标;
其中,对应于所述实际瞄准坐标的对于目标的肯定性识别从选择所述实际瞄准坐标开始维持。
2.根据权利要求1所述的方法,还包括:
发射所述第二航空器,所述第二航空器具有第二视频传感器。
3.根据权利要求2所述的方法,还包括:
引导在所述实际瞄准坐标周围的所述第一航空器,以维持所述第一视频传感器的视场(FOV)在所述实际瞄准坐标周围。
4.根据权利要求3所述的方法,还包括:
通过所述第二视频传感器捕获所述场景的第二视频;以及
当所述第二航空器接近所述实际瞄准坐标时,显示靠近所述第一视频的所述第二视频。
5.根据权利要求4所述的方法,其中,维持对于所述目标的肯定性识别还包括:
由所述处理器的用户比较在所述第一显示器上的所接收的所述场景的第一视频和所接收的所述场景的第二视频,以确认所述第二航空器正在接近所述实际瞄准坐标。
6.根据权利要求4所述的方法,还包括:
响应于观察到在所述第一显示器上的所述第一视频和所述第二视频,选择所述第二航空器对准所述目标的末段自导引模式。
7.根据权利要求6所述的方法,其中,所述末段自导引模式还包括下列各项中的至少一项:由所述第二航空器撞击所述目标,由所述第二航空器部署的载荷撞击所述目标,以及由所述第二航空器部署的标记物撞击所述目标。
8.根据权利要求7所述的方法,还包括:
响应于观察到在所述第一显示器上的所述第一视频,确认所述目标在撞击之后的状况。
9.根据权利要求8所述的方法,还包括:
通过在所述第一航空器上的所述第一视频传感器捕获在新的潜在瞄准坐标周围的新场景的新的第一视频;
通过所述第一航空器发送所述新的第一视频和相关联的新的潜在瞄准坐标;
在与所述处理器通信的所述第一显示器上接收所述新的第一视频,所述处理器还接收所述新的潜在瞄准坐标;
响应于观察到在所述第一显示器上的所述新的第一视频,将所述新的潜在瞄准坐标选择为对于第三航空器的新的实际瞄准坐标;以及
将所述第三航空器引导向所述新的实际瞄准坐标;
其中,对应于所述新的实际瞄准坐标的对于新的目标的肯定性识别从选择所述新的实际瞄准坐标开始维持。
10.根据权利要求1所述的方法,其中,所选择的潜在瞄准坐标是与所捕获的新的第一视频的中心视场(CFOV)对应的地理坐标。
11.根据权利要求1所述的方法,其中,所选择的潜在瞄准坐标是与所捕获的新的第一视频的视场(FOV)中的像素对应的地理坐标。
12.一种方法,包括:
通过地面控制系统(GCS)接收来自第一航空器的第一视频流和与所述第一视频流相关的潜在瞄准坐标;
由所述GCS将与目标对应的所述潜在瞄准坐标选择为实际瞄准坐标;
由所述GCS接收来自第二航空器的第二视频流;以及
由所述GCS将所述第二航空器引导向所述实际瞄准坐标;
其中,对于所述目标的肯定性识别是通过所述GCS从选择所述实际瞄准坐标开始维持。
13.根据权利要求12所述的方法,还包括:
通过所述GCS选择由所述第二航空器对准所述目标的末段自导引模式。
14.根据权利要求13所述的方法,其中,所述末段自导引模式包括下列各项中的至少一项:由所述第二航空器撞击所述目标,由所述第二航空器部署的载荷撞击所述目标,以及由所述第二航空器部署的标记物撞击所述目标。
15.根据权利要求14所述的方法,还包括:
经由所述GCS经由来自所述第一航空器的所接收到的第一视频流确认所述目标在撞击之后的状况。
16.根据权利要求15所述的方法,还包括:
由所述GCS将与新的目标对应的新的潜在瞄准坐标选择为新的实际瞄准坐标;
由所述GCS接收来自第三航空器的第三视频流;以及
由所述GCS将所述第三航空器引导向所述新的实际瞄准坐标;
其中,对应于所述新的实际瞄准坐标的对于所述新的目标的肯定性识别从选择所述新的实际瞄准坐标开始维持。
17.根据权利要求12所述的方法,其中,所选择的潜在瞄准坐标是与所接收的第一视频流的中心视场(CFOV)对应的地理坐标。
18.根据权利要求12所述的方法,其中,所选择的潜在瞄准坐标是与所接收的第一视频流的视场(CFOV)中的像素对应的地理坐标。
19.一种系统,包括:
第一航空器,所述第一航空器包括第一处理器并且被配置成发送第一视频流以及与所述第一视频流相关的潜在瞄准坐标;
第二航空器,所述第二航空器包括第二处理器并且被配置成发送第二视频流;
第一地面控制系统(GCS),所述第一GCS包括第三处理器,并且其中所述第一GCS被配置成引导所述第一航空器;以及
第二地面控制系统(GCS),所述第二GCS包括第四处理器,并且其中所述第二GCS被配置成:
接收所述第一视频流、与所述第一视频流相关的所述潜在瞄准坐标、以及所述第二视频流;
将与目标对应的所述潜在瞄准坐标选择为实际瞄准坐标;以及
将所述第二航空器引导向所述实际瞄准坐标;
其中,对于所述目标的肯定性识别通过所述第二GCS从选择所述实际瞄准坐标开始维持。
20.根据权利要求19所述的系统,其中,所述第一GCS还被配置成接收所述第一视频流。
21.根据权利要求20所述的系统,其中,所述第一GCS还包括第一数字数据链路(DDL),以引导所述第一航空器并且接收所述第一视频流。
22.根据权利要求21所述的系统,其中,所述第二GCS还包括第二DDL,以接收所述第一视频流、与所述第一视频流相关的所述潜在瞄准坐标、以及所述第二视频流,并且将所述第二航空器引导向所述实际瞄准坐标。
23.根据权利要求19所述的系统,其中,所选择的潜在瞄准坐标是与下列各项中的至少一项对应的地理坐标:所述第一视频流的中心视场(CFOV)、以及所述第一视频流的视场(FOV)中的像素。
24.根据权利要求19所述的系统,其中,所述第二GCS还包括与所述第四处理器通信的图形用户界面(GUI),并且其中所述GUI被配置成显示所述第一视频流和所述第二视频流。
25.根据权利要求24所述的系统,其中,所述第二GCS的所述GUI还被配置成显示具有所述第一航空器的位置、所述第二航空器的位置、所述第一航空器的所述第一视频流的CFOV以及所述第二航空器的所述第二视频流的CFOV的地图。
26.根据权利要求25所述的系统,其中,所述第二GCS还被配置成:
选择所述第二航空器对准所述目标的末段自导引模式,其中,所述末段自导引模式包括下列各项中的至少一项:由所述第二航空器撞击所述目标,由所述第二航空器部署的载荷撞击所述目标,以及由所述第二航空器部署的标记物撞击所述目标;以及
经由来自所述第一航空器的所接收到的第一视频流确认所述目标在撞击之后的状况。
27.一种方法,包括:
通过地面控制系统(GCS)接收来自第一航空器的第一视频流和与所述第一视频流相关的潜在瞄准坐标;
由所述GCS将与目标对应的所述潜在瞄准坐标选择为实际瞄准坐标;
由所述GCS接收来自多个航空器中的第二航空器的第二视频流,其中,所述多个航空器中的所述第二航空器最接近所述实际瞄准坐标;
由所述GCS将所述多个航空器中的所述第二航空器引导向所述实际瞄准坐标;
其中,对于所述目标的肯定性识别通过所述GCS从选择所述实际瞄准坐标开始维持。
28.如权利要求27所述的方法,还包括:
通过所述GCS选择由所述第二航空器对准所述目标的末段自导引模式。
29.根据权利要求28所述的方法,其中,所述末段自导引模式包括下列各项中的至少一项:由所述第二航空器撞击所述目标,由所述第二航空器部署的载荷撞击所述目标,以及由所述第二航空器部署的标记物撞击所述目标。
30.如权利要求29所述的方法,还包括:
经由所述GCS,经由来自所述第一航空器的所接收到的第一视频流确认所述目标在撞击之后的状况。
31.如权利要求30所述的方法,还包括:
通过所述GCS将所述多个航空器中的第三航空器引导向所述实际瞄准坐标。
32.根据权利要求27所述的方法,其中,所述多个航空器在预设区域周围徘徊,直到所述实际瞄准坐标被选定时为止。
33.根据权利要求32所述的方法,其中,所述多个航空器中的每个航空器跟随朝向所述实际瞄准坐标的被引导的第二航空器,并且间隔开设定的时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111387065.2A CN114152251A (zh) | 2015-03-25 | 2016-03-24 | 维持肯定性识别的机器对机器瞄准 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562138305P | 2015-03-25 | 2015-03-25 | |
US62/138,305 | 2015-03-25 | ||
PCT/US2016/024088 WO2016154477A1 (en) | 2015-03-25 | 2016-03-24 | Machine to machine targeting maintaining positive identification |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111387065.2A Division CN114152251A (zh) | 2015-03-25 | 2016-03-24 | 维持肯定性识别的机器对机器瞄准 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107532921A true CN107532921A (zh) | 2018-01-02 |
CN107532921B CN107532921B (zh) | 2021-11-30 |
Family
ID=56977601
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680018100.4A Active CN107532921B (zh) | 2015-03-25 | 2016-03-24 | 维持肯定性识别的机器对机器瞄准 |
CN202111387065.2A Pending CN114152251A (zh) | 2015-03-25 | 2016-03-24 | 维持肯定性识别的机器对机器瞄准 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111387065.2A Pending CN114152251A (zh) | 2015-03-25 | 2016-03-24 | 维持肯定性识别的机器对机器瞄准 |
Country Status (10)
Country | Link |
---|---|
US (3) | US11112787B2 (zh) |
EP (1) | EP3274660B1 (zh) |
JP (1) | JP6748102B2 (zh) |
KR (1) | KR102480502B1 (zh) |
CN (2) | CN107532921B (zh) |
AU (2) | AU2016238311B2 (zh) |
CA (1) | CA2978516C (zh) |
DK (1) | DK3274660T3 (zh) |
SG (2) | SG11201706781QA (zh) |
WO (1) | WO2016154477A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111099018A (zh) * | 2019-12-26 | 2020-05-05 | 浙江海洋大学 | 用于海上无人机的物资投放装置及控制方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK3063696T3 (da) * | 2013-10-31 | 2021-09-20 | Aerovironment Inc | Interaktivt våbenmålsøgningssystem, som viser fjernregistreret billede af målområde |
WO2018089072A2 (en) * | 2016-08-14 | 2018-05-17 | Iron Drone Ltd. | Flight planning system and method for interception vehicles |
WO2018078859A1 (ja) * | 2016-10-31 | 2018-05-03 | 富士通株式会社 | 飛行制御プログラム、飛行制御方法、および情報処理装置 |
KR20210085463A (ko) * | 2019-12-30 | 2021-07-08 | 한화디펜스 주식회사 | 조종기 운용 방법 및 컴퓨터 프로그램과 조종기 |
KR102466459B1 (ko) * | 2022-07-14 | 2022-11-11 | 국방과학연구소 | 유도탄의 로이터 제어 방법 |
KR102656635B1 (ko) * | 2023-06-30 | 2024-04-11 | (주)다츠 | 자폭무인기 운용 시스템 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5458041A (en) * | 1994-08-02 | 1995-10-17 | Northrop Grumman Corporation | Air defense destruction missile weapon system |
CN101065953A (zh) * | 2004-09-15 | 2007-10-31 | 雷斯昂公司 | 导弹制导头的flir到导弹瞄准线相关和非均匀补偿 |
US20100017046A1 (en) * | 2008-03-16 | 2010-01-21 | Carol Carlin Cheung | Collaborative engagement for target identification and tracking |
US20120210853A1 (en) * | 2009-10-22 | 2012-08-23 | Israel Aerospace Industries Ltd. | Uav system and method |
CN103339463A (zh) * | 2010-10-28 | 2013-10-02 | 神火公司 | 瞄准系统 |
WO2013163746A1 (en) * | 2012-05-04 | 2013-11-07 | Aeryon Labs Inc. | System and method for controlling unmanned aerial vehicles |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19828644C2 (de) * | 1998-06-26 | 2001-12-06 | Lfk Gmbh | Verfahren zum ferngesteuerten Bekämpfen bodennaher und/oder bodengebundener Ziele |
US7911497B2 (en) * | 2003-04-25 | 2011-03-22 | Lockheed Martin Corporation | Method and apparatus for video on demand |
US20100157056A1 (en) | 2007-05-20 | 2010-06-24 | Rafael Advanced Defense Systems Ltd. | Tracking and imaging data fusion |
CN106342153B (zh) * | 2009-12-31 | 2014-07-02 | 中航贵州飞机有限责任公司 | 飞机武器瞄准误差测量装置及方法 |
-
2016
- 2016-03-24 SG SG11201706781QA patent/SG11201706781QA/en unknown
- 2016-03-24 JP JP2017549254A patent/JP6748102B2/ja active Active
- 2016-03-24 CN CN201680018100.4A patent/CN107532921B/zh active Active
- 2016-03-24 US US15/080,389 patent/US11112787B2/en active Active
- 2016-03-24 EP EP16769721.8A patent/EP3274660B1/en active Active
- 2016-03-24 SG SG10201907975S patent/SG10201907975SA/en unknown
- 2016-03-24 DK DK16769721.8T patent/DK3274660T3/da active
- 2016-03-24 KR KR1020177026636A patent/KR102480502B1/ko active IP Right Grant
- 2016-03-24 AU AU2016238311A patent/AU2016238311B2/en active Active
- 2016-03-24 CN CN202111387065.2A patent/CN114152251A/zh active Pending
- 2016-03-24 WO PCT/US2016/024088 patent/WO2016154477A1/en active Application Filing
- 2016-03-24 CA CA2978516A patent/CA2978516C/en active Active
-
2021
- 2021-08-05 US US17/395,102 patent/US11714407B2/en active Active
- 2021-09-22 AU AU2021236490A patent/AU2021236490B2/en active Active
-
2023
- 2023-06-13 US US18/208,987 patent/US12117830B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5458041A (en) * | 1994-08-02 | 1995-10-17 | Northrop Grumman Corporation | Air defense destruction missile weapon system |
CN101065953A (zh) * | 2004-09-15 | 2007-10-31 | 雷斯昂公司 | 导弹制导头的flir到导弹瞄准线相关和非均匀补偿 |
US20100017046A1 (en) * | 2008-03-16 | 2010-01-21 | Carol Carlin Cheung | Collaborative engagement for target identification and tracking |
US20120210853A1 (en) * | 2009-10-22 | 2012-08-23 | Israel Aerospace Industries Ltd. | Uav system and method |
CN103339463A (zh) * | 2010-10-28 | 2013-10-02 | 神火公司 | 瞄准系统 |
WO2013163746A1 (en) * | 2012-05-04 | 2013-11-07 | Aeryon Labs Inc. | System and method for controlling unmanned aerial vehicles |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111099018A (zh) * | 2019-12-26 | 2020-05-05 | 浙江海洋大学 | 用于海上无人机的物资投放装置及控制方法 |
CN111099018B (zh) * | 2019-12-26 | 2021-10-22 | 浙江海洋大学 | 用于海上无人机的物资投放装置及控制方法 |
Also Published As
Publication number | Publication date |
---|---|
AU2021236490A1 (en) | 2021-10-21 |
AU2016238311B2 (en) | 2021-07-08 |
SG11201706781QA (en) | 2017-10-30 |
US11714407B2 (en) | 2023-08-01 |
EP3274660B1 (en) | 2021-07-21 |
CN114152251A (zh) | 2022-03-08 |
SG10201907975SA (en) | 2019-10-30 |
DK3274660T3 (da) | 2021-08-23 |
EP3274660A4 (en) | 2018-12-19 |
US20210373554A1 (en) | 2021-12-02 |
AU2021236490B2 (en) | 2024-03-07 |
CN107532921B (zh) | 2021-11-30 |
AU2016238311A1 (en) | 2017-09-07 |
JP2018516350A (ja) | 2018-06-21 |
JP6748102B2 (ja) | 2020-08-26 |
KR102480502B1 (ko) | 2022-12-23 |
EP3274660A1 (en) | 2018-01-31 |
WO2016154477A1 (en) | 2016-09-29 |
US20160305745A1 (en) | 2016-10-20 |
CA2978516A1 (en) | 2016-09-29 |
CA2978516C (en) | 2023-09-12 |
US11112787B2 (en) | 2021-09-07 |
US20240152137A1 (en) | 2024-05-09 |
US12117830B2 (en) | 2024-10-15 |
KR20170137071A (ko) | 2017-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107532921A (zh) | 维持肯定性识别的机器对机器瞄准 | |
US11126204B2 (en) | Aerial vehicle interception system | |
US20190088156A1 (en) | Virtual Reality System for Aerial Vehicle | |
US20190068953A1 (en) | Aerial Vehicle Imaging and Targeting System | |
KR102355046B1 (ko) | 타겟영역의 원격 감지 영상을 디스플레이하는 대화형 무기 조준 시스템 | |
KR101683275B1 (ko) | 무인 비행체를 이용한 원격 비행 체험 시스템 | |
EP3629309A2 (en) | Drone real-time interactive communications system | |
CN108139759A (zh) | 用于无人飞行器路径规划和控制的系统和方法 | |
US11961407B2 (en) | Methods and associated systems for managing 3D flight paths | |
EP2828717A1 (en) | Method and device for controlling and monitoring the surrounding areas of an unmanned aerial vehicle | |
CN107168352A (zh) | 目标追踪系统及方法 | |
US20230162431A1 (en) | Photogrammetry | |
KR20150145472A (ko) | 무인 방어 시스템 | |
US11631339B2 (en) | Training simulation system and method for detection of hazardous materials |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |