JP2019163928A - 遠隔検知した標的地帯の画像を表示する双方向兵器照準システム - Google Patents

遠隔検知した標的地帯の画像を表示する双方向兵器照準システム Download PDF

Info

Publication number
JP2019163928A
JP2019163928A JP2019086237A JP2019086237A JP2019163928A JP 2019163928 A JP2019163928 A JP 2019163928A JP 2019086237 A JP2019086237 A JP 2019086237A JP 2019086237 A JP2019086237 A JP 2019086237A JP 2019163928 A JP2019163928 A JP 2019163928A
Authority
JP
Japan
Prior art keywords
weapon
uav
sensor
display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019086237A
Other languages
English (en)
Other versions
JP6772334B2 (ja
Inventor
シー. マクニール,ジョン
C Mcneil John
シー. マクニール,ジョン
クライド コックス,アール
clyde cox Earl
クライド コックス,アール
ウエノ,マコト
Makoto Ueno
アンドリュー ロス,ジョン
andrew ross Jon
アンドリュー ロス,ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aerovironment Inc
Original Assignee
Aerovironment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aerovironment Inc filed Critical Aerovironment Inc
Publication of JP2019163928A publication Critical patent/JP2019163928A/ja
Application granted granted Critical
Publication of JP6772334B2 publication Critical patent/JP6772334B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G5/00Elevating or traversing control systems for guns
    • F41G5/14Elevating or traversing control systems for guns for vehicle-borne guns
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G11/00Details of sighting or aiming apparatus; Accessories
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/142Indirect aiming means based on observation of a first shoot; using a simulated shoot
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/20Indirect aiming means specially adapted for mountain artillery
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

【課題】遠隔検知した標的地帯の画像を表示する兵器照準システムを提供する。【解決手段】遠隔照準システムが、兵器110と、兵器110のディスプレイ120と、無線周波数(RF)受信機140と、兵器110から遠隔にあり、予測着弾点Bの画像メタデータを兵器のディスプレイ120上に提供するよう構成されたセンサ150と、複数の兵器および関連する弾薬に関する弾道情報を有するデータストアを含む照準装置130と、発射制御コントローラとを具えており、発射制御コントローラは、弾道情報、慣性測定ユニットから受信した高度データ、磁気コンパスから受信したアジマスデータ、位置特定要素から受信した位置データに基づいて予測着弾点Bを特定し、慣性測定ユニット、磁気コンパス、および位置特定要素と通信する。【選択図】図1

Description

関連出願の相互参照
本出願は2013年10月31日出願の米国仮特許出願第61/898,342号の優先権および利益を主張するものであり、その内容は全ての目的のために本書に参照により援用されている。
複数の実施形態は概して、兵器システムおよび無人航空システム(UAS)に係るシステム、方法、および装置に関するものであり、より具体的には、双方向で兵器の照準を定めるために遠隔検知した標的地帯の画像を表示することに関するものである。
兵器の照準合わせは兵器を発射する火器オペレータによって通常実行される。間接的に兵器を発射するための兵器照準システムおよび発射制御システムは、オペレータに直接的な標的の光景を提供することはない。
装置が開示されており、当該装置は、発射制御コントローラと、発射制御コントローラと通信し、高度データを発射制御コントローラに提供するよう構成された慣性測定ユニットと、発射制御コントローラと通信し、アジマスデータを発射制御コントローラに提供することができる磁気コンパスと、発射制御コントローラと通信し、位置データを発射制御コントローラに提供するよう構成された航法ユニットと、発射制御コントローラと通信し、複数の兵器および関連する弾薬に関する弾道情報を有するデータストアとを具えており、これにより、発射制御コントローラは、記憶された弾道情報、提供された高度データ、提供されたアジマスデータ、および提供された位置データに基づいて、選択された兵器および関連する弾薬の予測着弾点を特定する。一実施形態では、発射制御コントローラは画像メタデータを遠隔センサから受信することができ、この画像メタデータは遠隔センサの中心視野(CFOV)の地上位置を含むことができ、CFOVを特定した予測着弾点に向けることができる。発射制御コントローラは、遠隔センサから受信した画像メタデータに基づいてアイコンオーバーレイを決定することができ、このアイコンオーバーレイはCFOVの位置および特定した予測着弾点を含みうる。発射制御コントローラは、特定の兵器に関する距離の更なる予測に基づいて予測着弾点を特定することもでき、この距離は兵器弾薬の現在地と地上に着弾する地点との間の距離とすることができる。複数の実施形態はさらに、予測着弾点を特定するためにエリアの地形の視覚表示に関する情報を発射制御コントローラに提供するよう構成された地図データベースを具え、この発射制御コントローラは地図データベースの情報に更に基づいて予測着弾点を特定することもできる。
他の実施形態では、この装置はさらに、発射制御コントローラが予測着弾点を特定するために、予測着弾点の周辺領域の環境状態に関する情報を提供するよう構成された環境状態測定器を有する。このような実施形態では、発射制御コントローラは環境状態情報に更に基づいて予測着弾点を特定することができ、これにより、発射制御コントローラはさらに電磁放射を送受信するよう構成された電磁放射送受信機と通信するように構成される。電磁放射送受信機は、無線周波数(RF)受信機とRF送信機とすることもできる。代替的な実施形態では、電磁放射送受信機はさらに、映像コンテンツと画像メタデータを遠隔センサから受信するように構成することができ、遠隔センサは画像メタデータを遠隔センサを収容する航空機上のセンサコントローラの通信装置を介して送信することができる。遠隔センサは航空機に搭載することができ、電磁放射送受信機はさらに情報を航空機のセンサコントローラに送信するよう構成することができる。発射制御コントローラは、特定した予測着弾点を含む情報を航空機のセンサコントローラに送信して、航空機に搭載された遠隔センサの照準を方向付けることができる。
他の実施形態では、弾道範囲測定器が、兵器位置、アジマス、高度、および弾薬の種類に基づいて予測着弾点を特定するように構成されうる。さらに、データストアは、ルックアップテーブル、1以上のアルゴリズム、ルックアップテーブルと1以上のアルゴリズムの組み合わせのうち少なくとも1つを含むデータベースとすることができる。この位置特定要素はさらに、地上ベースの位置特定要素;衛星ベースの位置算出要素;および地上ベースと衛星ベースの位置特定要素の組み合わせの少なくとも1つを含みうる。発射制御コントローラは、触覚反応要素;電気機械放射反応要素;電磁放射反応要素の少なくとも1つを含むユーザインタフェースと通信し、当該ユーザインタフェースは一組の指令をユーザインタフェースを介して受信して、受信した一組の指令を発射制御コントローラに送信するよう構成することができる。
他の実施形態では、この装置はさらに、ユーザインタフェースに生じる所定の活動を識別して記録選択するよう構成されたユーザインタフェースと、遠隔通信装置と通信する通信インタフェースの少なくとも一方を有する指令作成要素を具えることができ、遠隔通信装置は、使用者がユーザインタフェースで遠隔センサに対して予想した兵器照準位置に照準を定めることを要求するように、遠隔センサをセンサコントローラを介して方向付けるよう構成される。指令作成要素は、遠隔センサを収容する航空機と通信して指令を航空機に送信し、兵器照準位置を遠隔センサの視認範囲に維持し続けるようにすることができる。
遠隔照準システムがさらに開示されており、当該システムは、兵器と、兵器のディスプレイと、無線周波数(RF)受信機と、兵器から離れるセンサであって、兵器ディスプレイに予測着弾点の画像メタデータを提供するよう構成されたセンサと、照準装置であって、当該装置自体が、複数の兵器および関連する弾薬に関する弾道情報を有するデータストアと発射制御コントローラを有する照準装置と、を具えており、発射制御コントローラは、弾道情報、慣性測定ユニットから受信した高度データ、磁気コンパスから受信したアジマスデータ、および位置算出要素から受信した位置データに基づいて予測着弾点を特定し、発射制御コントローラは、慣性測定ユニット、磁気コンパス、および位置特定要素と通信する。遠隔センサは、無人航空機に搭載することができる。この照準システムは、兵器の位置や向きを特定し、弾道ルックアップテーブルを用いて兵器の予測着弾点をさらに特定することができる。遠隔センサは兵器の予測着弾点を受信し、センサの照準を兵器の予測着弾点に定めることができる。このシステムはさらに、第2の兵器、第2の兵器の第2のディスプレイ、および第2の照準装置を具えることもでき、これにより、遠隔センサによって提供される兵器ディスプレイ上の予測着弾点は、第2の兵器ディスプレイ上の予測画像位置と同じとなる。一実施形態では、第2の兵器は遠隔センサの制御を有さない。また、第2の兵器は第2の兵器の予測着弾点情報を遠隔センサに送信しなくともよい。特定した兵器の予測着弾点は、特定した第2の兵器の予測着弾点と異なる場合がある。センサは、ビデオ画像を遠隔照準システムに提供して兵器ディスプレイ上に表示するよう構成された光学カメラとすることができる。
複数の実施形態は例示として図示されたものであり、これらの実施形態を添付図面の形態に限定するものではない。
図1は、兵器照準システム環境の一実施形態である。 図2は、計算装置を搭載した手持ち型または搭載型の火器またはグレネードランチャーと、遠隔センサを有する無人航空機(UAV)を具えるシステムの一実施形態である。 図3は、最初は標的および兵器の予測着弾点から離れて位置している、遠隔センサを有するUAVの上面図を示している。 図4は、兵器照準システムの実施形態のフローチャートである。 図5は、例示的な兵器照準システムを示す機能ブロック図である。 図6は、予測着弾地点(GP)周囲の標的地帯を示し、中心視野を中心としたディスプレイまたは照準器付き兵器を有する兵器照準システムの一実施形態を示している。 図7は、UAV上の遠隔カメラを制御するよう構成された兵器照準システムの実施形態を示している。 図8は、受動制御センサ/UAV制御を有する兵器照準システムの一実施形態の例示的なディスプレイのセットを示している。 図9は、遠隔センサからの画像が兵器使用者の視点に対して回転した、あるいは回転していない実施形態を示している。 図10は、1つの遠隔センサから画像を受信している複数の兵器を有しうる兵器照準システムの実施形態を示している。 図11は、兵器が使用者によって操作されると兵器の予測着弾GPが様々な領域を通過するシナリオを図示している。 図12は、計算装置の実施形態の例示的なトップレベル機能ブロック図を示している。
本書には兵器照準システムが開示されており、当該システムは火器データ計算機または弾道計算機と、発射制御コントローラと、通信装置と、任意で目標検出システムまたはレーダーを有することができ、これらは全て、兵器照準システムが特定した標的をより迅速かつ正確に攻撃するのに役立つように設計されている。例示的な兵器照準システムの実施形態では、双方向に兵器の照準を定めるために遠隔検知した標的地帯の画像を表示して、兵器の弾薬を標的地帯に向けて精確に狙いを定めることができる。一実施形態は、無人航空機(UAV)のような無人航空システム(UAS)を含みうる。UAVは固定翼機であってもよく、UAVが相対的な静止位置でホバリングできるようにするためにシャシーに接続された1以上のプロペラを有していてもよい。さらに、UAVはセンサを有することができ、このセンサは兵器照準システムに対して遠隔にあり、このセンサは画像取込装置とすることができる。センサは、識別した標的周辺地帯の視認範囲を有するように狙いを定めることができる。UAV上のセンサは、異なる発生源、例えば、UAVのパイロットあるいは地上オペレータから受信した命令によって動かすことができる。このセンサをさらに、地上オペレータから受信した方向に基づいて継続的に、特定の標的に焦点を合わせるように命令することができる。
兵器照準システムの一実施形態では、システムを使用して、兵器の使用者に、兵器の標的地帯、例えば、特定あるいは計算した兵器の着弾するかもしれない場所の周辺地帯を、兵器から遠隔にあるセンサから見るように表示することができる。これにより、使用者は、リアルタイム(または、ほぼリアルタイム)で標的地帯内での兵器の効果を見て、兵器に対して照準調整をすることが可能となる。兵器の照準合わせを補助するために、ディスプレイは、ディスプレイ上の標的地帯の範囲内に、例えば、レチクル、十字線、または誤差概算楕円/領域といった表示を用いて特定あるいは予測した着弾地を示すことができる。遠隔センサを使用することにより、標的が丘などの障害物の後側に位置している場合など、使用者から標的まで直接的な見通しがなくとも標的と交戦させることができる。遠隔センサは、様々なプラットフォームによって担持されうる様々な既知のセンサとすることができる。幾つかの実施形態では、このセンサは、兵器から離れて配置され、標的の周辺地帯の視認範囲内にある航空機に搭載されたカメラとすることができる。このような航空機は、小型無人航空システム(SUAS)といったUAVとすることができる。
図1は、兵器110と、ディスプレイ120と、照準装置130と、通信装置140と、遠隔センサ150と、遠隔通信装置160と、センサコントローラ170とを有する兵器照準システム環境100を図示している。さらに、標的A、予想兵器効果位置あるいは予測照準位置B、視認標的地帯C、および実際の兵器効果Dを示している。この兵器照準システム環境100はさらに、丘などの一連の障害物、兵器を回転させるための兵器台、および遠隔センサ150と、遠隔通信装置160と、センサコントローラ170とを搭載できる航空機180を含みうる。
兵器110は、グレネードランチャー、迫撃砲、大砲、戦車砲、シップ砲、甲板砲、あるいは砲弾を発射して兵器効果位置に衝突するその他の兵器といった種々の兵器とすることができる。幾つかの実施形態では、兵器110は移動することができ、砲や当該兵器に関連する弾薬と共に容易に移動できるようにする。照準装置130は磁力計、ジャイロスコープ、加速度計、磁気コンパスを含む慣性計測装置(IMU)、および航法システムを有することができ、航法システムは全地球測位システム(GPS)であってもよく、兵器110の位置や向きを特定する。ユーザが兵器110を操作または配置すると、照準装置130は兵器の位置をモニタし、それにより、兵器が向いている方向(これはコンパス向首方向となりうる)、および、兵器の向き、例えば、地表に対して平行な局所水平面に対する兵器の角度を特定する。さらに、照準装置は、兵器やその砲弾の特徴に基づいて、弾道計算機、ルックアップテーブル等といった標的特定手段132を使用し、特定した兵器効果地点を提供することができる。兵器効果地点は予想した砲弾衝突地点であってもよく、これが予想した兵器効果位置となりうる。標的特定手段132は高度情報を有するデータベースあるいは地図を参照して、より精確な兵器効果位置あるいは予測標的位置Bの特定ができるようにしてもよい。標的位置情報はその位置の経度、緯度、および高度を含んでもよく、さらに標的位置周辺またはその付近の天候状況といった誤差値をさらに含んでもよい。
複数の実施形態では、照準装置130は例えば、大韓民国ソウル、サムソンタウンのサムソングループ(ニュージャージー州リッジフィールドパーク、米国Samsung Electronics経由)から市販されているNexus7、カリフォルニア州クパチーノのアップル社から市販されているiPad、あるいは台湾台北市のASUSTeK Computer社(カリフォルニア州ASUS Fremont経由)から市販されているNexus7といった、慣性測定ユニットを有するタブレットコンピュータとすることができる。
標的地点Bに関する標的位置情報は、次に通信装置140を介してセンサコントローラ170に接続された遠隔通信装置160に送信することができ、ここでセンサコントローラ170は遠隔センサ150を方向付けることができる。一実施形態では、通信装置140は標的情報を遠隔通信装置160を介してUAV地上制御局に送信することができ、次いでUAV地上制御局は標的情報を遠隔通信装置160に返信し、遠隔通信装置160はそれをセンサコントローラ170に送ることができる。遠隔センサ150は次に、予想した兵器照準位置Bを視認するように狙いを定めることができ、この予想した兵器照準位置Bは当該位置周辺の隣接地帯を含みうる。この位置周辺の隣接地帯は、視認標的地帯Cとして図1に図示されている。遠隔センサ150の狙いを定めるための制御はセンサコントローラ170によって決定することができ、ここで、センサコントローラ170はプロセッサとアドレス指定可能なメモリを有し、遠隔センサ150の位置、遠隔センサ150の向き、すなわちそのコンパス方向、および水平面に対する角度を利用して、センサが地上のどこに狙いを定めているかを特定することができ、その狙いは画像中心、画像境界、あるいは画像中心と画像境界の両方とすることができる。一実施形態では、遠隔センサ150の位置はUAVの機上GPSセンサから任意に取得することができる。他の実施形態では、センサの向き、例えば、コンパス方向や水平面に対する角度は、UAVの向きおよび水平面に対する角度と、UAVに対するセンサの向きおよび角度によって特定することができる。幾つかの実施形態では、センサコントローラ170は、センサが予想した兵器照準位置Bおよび/または視認標的地帯Cに狙いを定めるようにすることができる。任意で、センサコントローラ170による遠隔センサ150の照準合わせは、センサの拡大を含みうる。
複数の実施形態では、通信装置140は、例えば、カリフォルニア州モンロビアのAeroVironment社から市販されているような地上制御局(GCS)(http://www.avinc.com/uas/small_uas/gcs/)に接続することができ、例えば、カリフォルニア州モンロビアのAeroVironment社から市販されているデジタルデータリンク(DDL)送受信機の双方向デジタルワイヤレスデータリンク(http://www.avinc.com/uas/ddl/)を含みうる。
幾つかの実施形態では、遠隔通信装置160および遠隔センサ150は、有人航空機あるいは無人航空機(UAV)180にかかわらず、標的地帯Cの視認距離内を飛行する衛星あるいは航空機といった飛行マシンに搭載することができる。UAV180は、固定翼機、ヘリコプター、クワッドローター、小型飛行船、係留気球等の様々な既知の航空機とすることができる。UAV180は、GPSモジュール等の位置特定装置182、およびIMUおよび/またはコンパス等の向きまたは方向特定装置184を有しうる。GPS182およびIMU184はデータを制御システム186に提供してUAVの位置および向きを特定し、次に予想した兵器標的地点Bと共に使用して、遠隔センサ150を方向付けて位置Bを視認することができる。幾つかの実施形態では、センサコントローラ170は、制御システム186から受信したデータおよび兵器照準システムから受信した予想兵器標的地点に基づいて、遠隔センサ150を動かす、すなわち傾けたり、首振りをしたり、拡大させることができる。
一実施形態では、IMU184あるいは制御システム186のいずれかは、UAV180の姿勢、すなわち、ピッチ、ロール、ヨー、位置、およびヘディングを特定することができる。一旦特定をすると、IMU184(またはシステム186)はデジタル地形高度データ(DTED)(UAV機上のデータベースなどのデータストアに保存されている)の入力を利用して、特定の地球基準のグリッド位置(位置Bなど)が機体などのUAV上の基準に対してどこに位置してるかを特定することができる。この実施形態では、この情報がセンサコントローラ170によって使用され、UAVの機体に対して所望の標的位置に狙いを定めるように遠隔センサ150を位置付けることができる。
標的位置Bにカメラを向けることに加えて、UAVのオペレータ(VO)が許可した場合には、UAVは標的位置Bを中心とした軌道に乗るように試みることもできる。VOは、火器上のディスプレイによって特定された位置に基づいて、UAVが安全に飛行できる安全エアボリュームを特定することが理想的である。幾つかの実施形態では、このシステムは、実際の位置がUAV軌道の中心とするのに所望の標的位置にない場合には、火器オペレータがUAVにとって飛行するのが望ましい「ステアフロム」位置を特定することが可能である。さらに、安全エアボリュームは、選択された地理的領域を規定する地理データと、任意で選択された地理的領域に関連する動作モードを受信することに基づいて特定することができ、ここで、受信した動作モードは安全エアボリューム外となりうるエアボリューム上空をUAVが飛行するのを制限することができる。すなわち、VOは、選択された地理的領域と受信した動作モードに基づいてUAVの飛行を制御することができる。したがって、一実施形態では、兵器のオペレータは、UAVの動作と飛行経路を完全に制御することが可能となる。さらに、地上オペレータあるいはUAVのパイロットは、UAVの画像データに基づいて標的を向くように兵器に指令を出し、兵器を方向付けることができる。
兵器システムからUAVあるいはセンサへの指令は、例えば、カーソルオンターゲット(CoT)、STANAG4586(NATOの無人制御システム標準インタフェース−無人航空機の相互運用)、あるいは無人システム用統合アーキテクチャ(JAUS)を含む任意の指令言語を介して送信することができる。
遠隔センサ150の視野は、所与の時間で取り込まれる観察可能な地帯の範囲として規定することができる。したがって、センサ150の中心視野(CFOV)は、表示した兵器標的位置Bを指すことができる。ユーザは手動で標的地点Bの画像を拡大または縮小撮影して、周囲の標的地帯と標的を含む予想した兵器着弾地に関する最適表示を得ることができる。遠隔センサ150は画像データを取り込み、センサコントローラ170は遠隔通信装置160を介して関連するメタデータと共に取り込んだデータを送信することができる。幾つかの実施形態におけるメタデータは、遠隔センサ150によって取り込まれた画像に関連し、かつ付随する他のデータを含みうる。一実施形態では、画像に付随するメタデータは実際のCFOVを示すことができ、例えば、表示位置および送信される画像の各角部の実際のグリッド位置へと未だに回転している状態とすることができる。これにより、ディスプレイは、予想兵器標的地点Bが画像上のどこにあるかを示し、その場所に十字線などのレチクルを描くことができる。
幾つかの実施形態では、遠隔センサ150は、UAVに対して首振り動作をしたり、傾くことができるように、ジンバルに搭載された光学カメラとすることができる。他の実施形態では、センサ150はUAVの固定位置に搭載された光学カメラとすることができ、UAVはカメラが標的地帯Cを視認した状態に維持するように配置される。遠隔センサには、光学またはデジタル拡大機能を装備させることができる。一実施形態では、UAV上に赤外線または光学波長を含む複数のカメラがあってもよく、オペレータは任意で切り替えることができる。複数の実施形態によると、遠隔センサ150によって生成された画像は、遠隔通信装置160によって通信装置140を介してディスプレイ120に送信することができる。一実施形態では、CFOVおよびグリッド位置のような表示の各角部、例えば各地点の地上経度、緯度、高度を含む情報を提供する画像メタデータなどのデータは、遠隔センサ150から画像と共に送信することができる。ディスプレイ120は、兵器の使用者に、図1に示すような予想した兵器標的地点Bを含む視認標的地帯Cを表示することができ、このディスプレイはCFOVとして照準レチクルとすることができる。幾つかの実施形態では、兵器110が移動していたり、遠隔センサ150が回転している、例えば、傾いている、および/または偏揺れして、新たな位置Bを捕捉し、CFOVを新たな位置に再度位置決めするような場合に、予想標的地点BをCFOVとは別個に示すことができる。このように、使用者が兵器110を操作する、例えば、兵器を回転させる、および/または角度を変えると、使用者は、兵器110の予想標的地点Bがどこにあるかを、遠隔センサ150で視認するようにディスプレイ120上で見ることができる。これにより、兵器使用者は、標的が障害物の後側に位置している状態にあるように、兵器から照準位置Bまでの直接的な見通しがなくとも照準位置、すなわち、標的と兵器の着弾を見ることが可能となる。
一実施形態では、使用者を補助するために、表示された画像をディスプレイに対して回転させてコンパス方向と整合するようにすることができ、これにより、兵器は、例えば、北が常にディスプレイの上側となるように、規定した固定方向に向けられる。画像は、UAVあるいは遠隔センサの他の取付台の位置に関わらず、兵器使用者の向きと一致するように回転させることができる。複数の実施形態では、ディスプレイ上の画像の向きは、照準装置、例えば発射制御計算機によって計算されるような砲身あるいは迫撃砲管の砲孔発射方位によって制御される。幾つかの実施形態では、ディスプレイ120はさらに、視認標的地帯C範囲内の兵器の位置を示すこともできる。
複数の実施形態では、遠隔通信装置160、遠隔センサ150、およびセンサコントローラ170は、例えば、カリフォルニア州モンロビアのAeroVironment社から市販されている、人を収容可能な小型垂直離着陸航空機(VTOL MAV)システムであるシュライクVTOL(http://www.avinc.com/uas/small_uas/shrike/)に全て組み込むことができる。
さらに、照準システムの幾つかの実施形態は、照準誤差修正を有することができる。一実施形態では、航空機の風予想が弾薬の着弾予想と共に使用されるライブ映像として提供され、より正確な誤差修正をもたらす。兵器の弾薬の実際の着弾地上地点が予想着弾地上地点(GP)からずれている場合、兵器の位置を変更することなく、使用者はディスプレイ上で実際の着弾GPを強調させることができ、照準システムは修正値を特定して予想着弾GPの特定にそれを適用し、この新たな予想GPを遠隔センサに提供して、兵器ディスプレイ上に表示させることができる。このような一実施形態が図1に図示されており、ディスプレイ120では、実際の着弾地点Dが予想着弾GP Bからオフセットしている。この実施形態では、使用者は地点Dを強調して、照準システムにその地点を実際の着弾地点として入力して照準誤差修正を提供する。したがって、標的着弾地点は、第1の弾薬の着弾を追跡し、次いで標的上に兵器を調整することによって修正することができる。誤差修正または較正をする他の実施形態では、このシステムは、着弾前後の着弾地点を表す受信画像への画像処理を用いて、着弾地点を検出することができる。この実施形態は、使用した弾薬に関して計算した飛行時間の特定に基づいて着弾が発生したという宣言をいつすることができるかを特定することができる。このシステムは次いで、弾薬に関して予想した着弾エリアと、発射された最終的な実際の弾薬に基づいて位置を調整することができる。
図2は、タブレットコンピュータ220のような、ビデオディスプレイ222、慣性測定ユニット(IMU)230、および弾道範囲モジュール232を有する手持ち型あるいは搭載型の銃器またはグレネードランチャー210と、通信モジュール240と、画像センサ252などの遠隔センサを有するUAV250とを含む実施形態を示している。UAV250はさらに、GPSなどの航法ユニット254と、センサ252がUAV250に対して首振り動作をしたり傾くことができるようにジンバル256に搭載されたセンサとを有しうる。IMU230は、加速度計、ジャイロ、エンコーダ、あるいは磁力計の組み合わせを用いて、兵器210のアジマスや高度を特定することができる。IMU230は、タブレットコンピュータ220のハードウェアモジュール、姿勢を測定する自立装置、あるいは兵器搭載装置における一連の位置センサを有しうる。例えば、幾つかの実施形態では、IMUは、タブレットコンピュータ220のセンサを読み込むことによって装置の速度、向き、および重力を測定し、それらを通知する電子装置を使用することができる。
弾道範囲モジュール232は、兵器の位置(すなわち、緯度、経度、高度)、アジマス、高度、および弾薬の種類を鑑みて、推定または予測着弾点を算出する。一実施形態では、この予測着弾点は、風予想の算出を含む弾道範囲モジュールによってさらに改善することができる。弾道範囲モジュール232は、タブレットコンピュータ内のモジュール、あるいは別個のプロセッサとメモリを有する独立したコンピュータとすることができる。この算出は、兵器の範囲実験に基づいて構成されたルックアップテーブルによってなされる。弾道範囲モジュールの出力は、予測着弾点B(すなわち、緯度、経度、高度)を含む一連のメッセージとすることができる。弾道範囲モジュール232は、タブレット220にアプリケーションプログラムとしてダウンロードできる非一時的なコンピュータ利用可能な指令の形態とすることができる。
通信モジュール240は、推定または予測着弾点をUAV250にRFリンクなどの無線通信リンクを介して送信することができる。通信モジュール240は、計算装置、例えば、振動、落下、限界温度、および他の乱暴な取り扱いに耐えるように設計された計算装置とすることができる。通信モジュール240は、UAVの地上制御局、またはカリフォルニア州モンロビアのAeroVironment社から市販されているポケットDDL RFモジュールに接続する、または通信することができる。一実施形態では、着弾地点メッセージは、「カーソルオンターゲット」のフォーマット、地理空間グリッド、あるいは他の緯度と経度の書式とすることができる。
UAV250は、RFメッセージを受信し、兵器から離れている画像センサ252が予測着弾点Bに照準を定めるようにすることができる。一実施形態では、画像センサ252は、映像をUAVのRFリンクに介して通信モジュール240に送信する。一実施形態では、映像やメタデータを、モーション画像基準審議会(MISB)フォーマットで送信することができる。通信モジュールは次に、この映像ストリームをタブレットコンピュータ220に返信することができる。ビデオプロセッサ234を有するタブレットコンピュータ220は映像を回転させて、砲手の基準フレームに位置合わせさせると共に、砲手に映像内の予測着弾点Bを表示するレチクルのオーバーレイを加える。砲手が見る画像の上部が、砲210が指しているコンパス方向、あるいは代替的に砲のアジマスから特定されるコンパス方向、あるいは標的地点と砲位置の間のコンパス方向と一致するように、ビデオ画像を回転させることができる。
幾つかの実施形態では、兵器210の使用者に提供されるタブレットコンピュータ220のビデオディスプレイ222上に表示されるビデオ画像は、予測着弾点Bと、算出した誤差楕円Cを含みうる。さらに、ビデオ画像222にはUAVの中心視野(CFOV)Dが示される。
一実施形態では、センサまたはカメラのジンバルを予測着弾点に向かって自動的に方向づけることに加えて、UAVはさらに予測着弾点に向かって飛行する、あるいはその周辺にUAVを位置付けることができる。予測着弾点に向かう飛行は、UAVが最初(予測着弾点の座標を受信したとき)に、予測着弾点が視認する、あるいはUAVのセンサによる十分な解像度を用いて視認するには距離が離れすぎている位置にある場合に起こりうる。さらに、予測着弾点を利用して、UAVは当該UAVに対する保持パターンあるいは保持位置を自動的に確立することができ、このような保持パターン/位置により、UAVのセンサが観察範囲内かつ障害物の範囲外にあるようにすることができる。このような保持パターンは、UAVを固定サイドビューカメラまたはセンサが予測着弾点を視認した状態に維持することができるように配置するようなパターンとすることができる。
図3は遠隔センサ312を有するUAV310の上面図を示しており、当該UAV310は最初に標的304および兵器302の予測着弾点Bから離れて位置しており、そのため、予測着弾点Bと標的地帯(おそらくは、標的304を含む)の画像がセンサ312によって生成されるが、画像線320に示すように、センサは使用者にとって十分有用な兵器302の照準を提供するのに十分な解像度を欠いている。そのため、UAV310はその航路を変更して、より予測着弾点Bに近づくようにセンサを移動させることができる。この航路変更は、UAVが追随するように設定された場合には自動であってもよく、兵器302によって制御されてもよく、あるいは航路変更は兵器の使用者から要求あるいは命令された時にUAVオペレータによってなされてもよい。一実施形態では、UAVの制御をUAVオペレータによって維持することにより、空域制限、UAVの航続時間、UAVの安全性、任務の割り当てなどといった要因を考慮したり、それらの要因に対応したりすることが可能となる。
図3に示すように、UAVは右ターンを実行し、予測着弾点Bに向かって前進する。兵器照準システムの幾つかの実施形態では、UAVは、航路線340に示すように、予測着弾点Bから距離dだけ離れている特定の位置Cまで飛行することができる。この移動により、センサ312は予測着弾点Bを適切に観察すると共に、兵器302の照準を標的304に定めることが可能となる。距離dは変化させることができ、例えば、拡大、解像度、安定性等のセンサ312の機能、解像度等の兵器302の表示スクリーンの機能、画像を利用する使用者の能力、さらにはUAVを標的にどれだけ接近して配置すべきかといった要因を含む様々な要因に左右されうる。この実施形態では、位置Cに到達したUAVは次いで、UAV自体を保持パターンまたは観察位置350に配置させて、予測着弾点Bを視認し続けることができる。図示のように、保持パターン350は予測着弾点B周囲の円形であり、他のパターンもこれらの実施形態に応じて使用される。UAV310’が保持パターン350にある状態では、UAVは継続的にセンサ312’を再配置して、予測着弾点Bの視界322を維持することができる。すなわち、UAVが標的の周囲を飛行している間、センサは予測着弾点位置を見ている、あるいは当該位置を追跡する。この実施形態では、保持パターンの期間中、UAVはビデオ画像を兵器302に返信することができる。兵器302の使用者が兵器の照準を再配置すると、UAVは再度センサ312’の照準を定める、および/またはUAV310’自体を再配置して、新たな予想兵器照準位置をセンサの視界に維持することができる。一実施形態では、遠隔センサは任意に、予想照準位置が標的と一致するように、兵器を誘導している間に標的を視認していることができる。
図4は、兵器照準システム400の実施形態のフローチャートである。本図に示す方法は:例えば、兵器を使用者によって定位置に配置すること(ステップ410);照準装置が予想兵器効果位置を特定すること(ステップ420);通信装置が予想兵器効果位置を遠隔通信装置に送信すること(ステップ430);遠隔センサコントローラが効果位置を遠隔通信装置から受信して、遠隔センサを効果位置へと方向付けること(ステップ440);センサが効果位置の画像を兵器ディスプレイスクリーンに遠隔通信装置および兵器通信装置を介して送信すること(ステップ450);使用者が予想兵器効果位置および標的地帯(標的を含みうる)を視認すること(ステップ460)、を含む。効果位置は、誤差を伴う、あるいは伴うことなく、着弾地点を算出、予測、あるいは見積もることができる。ステップ460の後、このプロセスはステップ410からやり直すことができる。このようにして、使用者は、兵器の照準を定めて、既に受信した効果位置の画像に基づいて標的上あるいは標的に対する発射を調整することができる。一実施形態では、ステップ450は、画像が兵器の方向と合うように画像を回転させて、使用者の照準合わせを補助することを含みうる。
図5は兵器照準システム500の機能ブロック図を示しており、当該システムは、ディスプレイ520と、照準装置530と、UAV遠隔ビデオ端子540と、RF受信機542とを具えている。ディスプレイ520および照準装置530は、火器または他の兵器(図示せず)に脱着可能に取り付け、あるいは装着され、またはそれらと共に動作しうる。ディスプレイ520は、兵器の使用者が照準合わせや発射の方向付けを容易にできるように見やすいものとすることができる。照準装置530は、プロセッサとアドレス指定可能なメモリを有する発射制御コントローラ532、IMU534、磁気コンパス535、GPS536、および火器および弾薬データベース537(すなわち、データストア)上の弾道データを有しうる。IMU534は兵器の高度位置または水平面からの角度を発生させて、この情報を発射制御コントローラ532に提供する。磁気コンパス535は、兵器が狙いを定めるコンパス向首方向といった兵器のアジマスをコントローラ532に提供する。GPS536のような位置特定要素は兵器の位置を発射制御コントローラ532に提供し、この位置は一般に緯度、経度、および標高(または高度)を含む。データベース537は、兵器およびその弾薬(砲弾)の双方に関する弾道情報を発射制御コントローラ532に提供する。データベース537は、ルックアップテーブル、1以上のアルゴリズム、またはその両方とすることができるが、通常はルックアップテーブルが提供される。発射制御コントローラ532は、IMU534、コンパス535、GPS536、およびデータベース537と通信することができる。
さらに、発射制御コントローラ532は、構成要素、すなわちIMU534、コンパス535、およびGPS536からの兵器の位置および向きの情報を利用して、データベース537からの兵器および弾薬の弾道データと共に処理し、推定あるいは予想地上着弾点(図示せず)を特定することができる。幾つかの実施形態では、コントローラ532は、IMU534からの兵器の高度を利用して、規定の種類の兵器や弾薬と共に、データベース537のルックアップテーブルを介して処理し、弾薬が地上との衝突地点まで移動することになる兵器からの予想範囲または距離を特定することができる。兵器や弾薬の種類は、兵器の使用者が兵器を動作させる前に設定することができ、幾つかの実施形態では、弾薬の選択を兵器の使用時に変更することができる。一旦距離が特定されると、発射制御コントローラ532は、GPS536からの兵器位置と、コンパス535からの兵器のアジマスを利用して、予測着弾点を特定することができる。さらに、コンピュータ532は、RF受信機542あるいはUAV遠隔ビデオ端末(RVT)540から受信した、UAVからの画像メタデータを利用することができ、このメタデータは例えば、光学カメラ(図示せず)などの遠隔センサのCFOVの地上位置を含むことができ、システム500に返信したビデオ画像の一部または全ての角部の地上位置を含むこともできる。発射制御コントローラ532は次いでこのメタデータと予測着弾点を利用して、ディスプレイ520上に示されるアイコンオーバーレイ533を作り出すことができる。このオーバーレイ533は、CFOVと予測着弾点Bの位置を含むことができる。
発射制御コントローラ532の幾つかの実施形態は、接続されている上記構成要素によってもたらされた誤差入力を利用して、ディスプレイ520上に予測着弾点周囲の誤差領域(楕円等)を特定して表示することができる。一実施形態では、発射制御コントローラ532は、予想着弾GP545をRF送信機542および関連するアンテナを介してUAVに送信して、UAV上の遠隔センサを向くべき場所へと方向付けて画像を取り込むこともできる。一実施形態では、発射制御コントローラ532は要求を中継物に送信することができ、この要求は、発射制御コントローラ532のオペレータが視認することを所望する標的地点や、UAV上のセンサからの画像を受信するための要求を含む。
さらに、幾つかの実施形態では、発射制御コントローラ532はさらに、地図データベース538からの入力も含み、予測着弾GPを特定することができる。予測着弾GPの精度は、兵器と予測着弾GPとが異なる標高、あるいは地表からの高さに位置している場合などの状況では、地図データベースを利用することで向上させることができる。他の実施形態は、入力として受信して発射制御コントローラ532で使用することができる環境状態データ539を含みうる。環境状態データ539は、風速、空気密度、温度等を含みうる。少なくとも1つの実施形態では、発射制御コントローラ532は、IMUやUAVから受信した風予測などの環境状態によって提供されるような、兵器状態の推定に基づいて、弾薬軌道を算出することができる。
図6は兵器照準システム600の一実施形態を図示しており、当該システムは、例えば、迫撃砲、大砲、あるいはグレネードランチャーといった兵器610を有すると共に、ディスプレイあるいは照準器620を有しており、予想着弾GP Bの周囲の標的地帯Cを表示し、ジンバルカメラ650を有するUAV680によって視認されたときのCFOV Dを中心としている。UAV680は、カメラ650を送信機/受信器660によって兵器610から受信した予想着弾GP Bに方向付けるジンバルカメラのコントローラ670を有している。一実施形態では、UAVは、電気光学(EO)画像および赤外線(IR)フルモーションビデオ(EO/IR)画像にCFOVを提供することができる。すなわち、送信機/受信器660は、センサまたはカメラ650からディスプレイ620へと映像を送信することができる。兵器照準システムの複数の実施形態においては、兵器と遠隔センサの間の相互作用に関して2つのオプション、すなわちセンサの能動制御または受動制御がある場合がある。能動制御の実施形態では、火器または兵器位置がセンサあるいはカメラを制御することができ、カメラは着弾場所にCFOVを据えるように回転し、さらに当該カメラは実際の拡大機能についての制御をもたらす。受動制御の実施形態では、UAVのオペレータがセンサまたはカメラを制御することができ、そのため、着弾場所はカメラの視野範囲内にあるときにのみ現れることができる。この受動制御の実施形態では、カメラの拡大機能を利用することはできないが、カメラから受信した圧縮データ(または他のビデオ処理)を拡大効果を得るために利用することができる。
能動制御を伴う実施形態では、兵器のオペレータはセンサの制御を管理している。照準システムは予測着弾地点(GP)の座標を遠隔センサコントローラに送信する(カーソルオンターゲット(CoT)メッセージを含む様々なメッセージフォーマットの何れかによってなされうる)。遠隔センサコントローラは、カメラのCFOVに関する指令として予測着弾GPを利用する。遠隔センサコントローラは次に、カメラの中心をこの予測着弾GPとする。兵器の位置決めするときと、センサが回転してその視界の中心を予測着弾点とするときの間に時間のずれが存在する場合には、発射制御コントローラなどの照準装置は、CFOVが実際に予想着弾GPと整合するまで表示画像上に十字線などのレチクルをグレー表示し、CFOVに向かって移動するにつれて、予想着弾GPを画像上に表示させる。幾つかの実施形態では、兵器の砲身の向きはUAVの中心視野の動きに変化をもたらすことができ、その結果、兵器のオペレータは着弾照準ディスプレイ620上に現れる複数の標的を素早く探し出して、識別することが可能となる。
図7は兵器照準システムの実施形態を図示しており、当該照準システムはUAV上の遠隔カメラを制御するように構成されている。ディスプレイ710は、表示中央におけるCFOV Eの左上に予測着弾GP Bを示している。ディスプレイ710では、カメラは予測着弾点GPに向かって回転している過程にある。ディスプレイ720では、予測着弾GP Bが画像の表示中央におけるCFOV Eと一直線になっている。ディスプレイ730は、予測着弾GP Bがカメラの視界の外、すなわち図示した画像の左上にある状態を示している。この場合、センサまたはカメラの何れかはGP Bを視認するように未だ回転していないか、回転することができない。これは、センサのジンバル取付台の傾き、および/または回転の限界といった要因によることがある。一実施形態では、ディスプレイ730は矢印Fあるいは他の記号を図示し、この矢印は予測着弾GP Bの位置に向かう方向を表示することもできる。こうして、使用者は、彼らが兵器の照準を合わせている場所の少なくとも概略表示を得ることが可能となる。
受動制御を伴う実施形態では、兵器の使用者は遠隔センサからの画像表示を有することができるが、遠隔センサ、UAVあるいは遠隔センサを保持する他の手段の制御を有さない。兵器の使用者は遠隔センサから、画像上に投影された、どこに予測着弾GPが位置しているかを示すオーバーレイを含む画像を見ることができる。予測着弾GPがカメラの視界外にある場合、画像の縁部にある矢印は、(ディスプレイ730に示すように)この画像に対して算出した着弾点がどの方向であるかを示している。このような実施形態では、使用者は兵器を動かして視界範囲内に予測着弾地点を配置させることができる、および/またはUAVオペレータに対して予測着弾GPが視界内となるように遠隔センサおよび/またはUAVの向きを変えることを要求することができる。この実施形態では、受動制御モードでシステムを操作する兵器の使用者は画像の拡大制御を有し、予測着弾GPの配置と操作を容易にすることが可能となる。受動制御の実施形態は、例えば、同一の遠隔カメラからの同一ディスプレイ画像を用いる2以上の兵器システムがあり、別個の兵器それぞれの照準を定めるように方向付ける場合に利用することができると理解されたい。予測着弾点の算出は、兵器において、画像の座標(CFOV、角部)が与えられた照準システムあるいは発射制御計算機を用いて行われるため、照準システムはいかなる情報も遠隔センサに送信する必要なく、使用者のディスプレイ画像を生成することができる。すなわち、受動モードでは、遠隔センサがGPに向かって方向付けられないため、遠隔カメラに予測着弾GPを送信する必要はない。
図8は、受動制御センサ/UAV制御を有する兵器照準システムの一実施形態のディスプレイを図示している。ディスプレイ810は、カメラの視界の外、すなわち、図示した画像の左上にある予測着弾GP Bを示している。この場合、カメラはGP Bを視認するように未だ回転していないか、センサのジンバル取付台の傾き、および/または回転の限界といった要因によって回転することができないかの何れかである。一実施形態では、ディスプレイ810は、予測着弾GP Bの位置に向かう方向を示す矢印Eあるいは他の記号を示している。こうして、使用者は、彼らが兵器の照準を合わせている場所の少なくとも概略表示を得ることが可能となる。ディスプレイ820は、CFOVの左下に予測着弾GP Bを示している。遠隔センサの制御が受動的であるため、GP Bは、兵器を操作することによってディスプレイ820の画像内を移動することがきるが、センサはCFOVを移動させてGP Bと整列するように方向付けることはできない。ディスプレイ830および840は、ユーザがカメラの倍率変更、すなわち拡大や縮小それぞれの制御を有する実施形態を示している。
図9は、遠隔センサからの画像が兵器の使用者の視点、すなわち兵器の向きへと回転している、あるいは回転していない実施形態を示している。ディスプレイ910は、兵器の向きへと回転させた画像を図示しており、予測着弾GP B、CFOV E、および兵器の位置Gを示している。ディスプレイ920は、兵器の向きへと回転していない画像を図示しており、予測着弾GP B、CFOV E、および兵器の位置Gを示している。受動モードの一実施形態では、ディスプレイは、兵器の標的の向きへと、すなわち、兵器が向けられていない標的へとさらに回転させることができる。この場合、兵器の位置Gは未だにディスプレイの底部にあるが、予測着弾GP BはCFOVにはない。
幾つかの実施形態では、このシステムは、複数の兵器および/または複数の遠隔センサの何れか、またはその両方を有しうる。複数の兵器の実施形態は、1つの遠隔センサからの同一の画像を表示し、各兵器システムが自身の予測着弾GPを表示する2以上の兵器を有する。このようにして、幾つかの兵器は、同一または異なる標的に照準を定めるのに連携して協働することができる。これらの実施形態では、兵器の1つについては遠隔センサ/UAVの能動制御であり、その他については受動モードとすることができる。さらに、各兵器それぞれの照準装置はUAVにその予測着弾GPを提供し、遠隔センサが次いで、全ての兵器の全ての照準装置にメタデータにおけるそれぞれの兵器の予測着弾GPを提供することができる。このように、照準装置それぞれについてメタデータがある場合には、メタデータを各兵器のディスプレイのオーバーレイに含めることができる。このメタデータは、兵器および/または兵器の位置についての識別子を含みうる。
図10は兵器照準システムの一実施形態を示しており、当該システムは、1つの遠隔センサから画像を受信する複数の兵器を含むことができる。UAV1002は、画像境界1006と画像角部1008を有する標的地帯を視認するジンバルカメラ1004を有することができる。画像中心はCFOVである。兵器1010は、CFOVを有するディスプレイ1012上に示すような予測着弾GP1014を有している。兵器1020は、CFOVを有するディスプレイ1022上に示すような予測着弾GP1024を有しうる。兵器1030は、ディスプレイ1032に示すような、CFOVにおける予測着弾GP1034を有しうる。CFOVは、兵器1030が遠隔センサ/UAVの能動制御モードにある実施形態では、GP1034に位置合わせすることができる。兵器1040は、CFOVを有するディスプレイ1042上に示すような予測着弾GP1044を有する。各兵器の予測着弾GPを他の兵器と、UAVを介して、あるいは直接的に共有する実施形態では、各兵器は他の兵器の予測着弾GPを表示することができる。一実施形態では、UAV1002のオペレータは、ジンバルカメラ1004から受信した画像を利用して、例えば、兵器1010、1020、1030、1040のセットのうち、どの兵器がそれぞれの予測着弾GP1044を考慮して標的と関連させるのに最適な位置にいる可能性があるかを特定することができる。
幾つかの実施形態では、最も効果的な兵器を、1つの遠隔センサから受信した画像、および任意で、弾薬に関連付けられた弾道テーブルに基づいて利用することができる。したがって、異なる兵器が標的や予測着弾GPが常に絶え間なく変化する場合の標的に対して使用されうる場合に、動的な環境を作り出すことができる。この制御は火器オペレータ、UAVオペレータ、および/または制御司令官の間で動的に交代させることができ、各オペレータは兵器照準システムの異なる局面を担当することができる。すなわち、UAVまたは兵器の制御または指令は、あるオペレータから次のオペレータへと動的に変更することができる。さらに、このシステムは、UAV上のセンサから受信した画像や指令制御に基づいて、異なる兵器を自動で命令し、複数の兵器を同期させることが可能である。
幾つかの実施形態では、1つの兵器が複数の遠隔センサを利用することができ、兵器ディスプレイは、予測着弾GPを示している、GPがオフスクリーンにある状態、あるいは複数の入力画像上でGPがある状態の何れかの遠隔センサからの画像を示すように自動的に切り替わり、予測着弾GPに最も近い画像を表示する。この実施形態は、予測着弾GPの最適な表示を利用する。代替的に、予測着弾GPを表示する2以上の遠隔センサがある場合には、兵器の使用者は、表示される画像を切り換えることができる、あるいは、そのディスプレイに入力された各画像、例えば隣り合った表示を映し出すことができる。
図11は、兵器1102が使用者によって操作されるシナリオを示しており、兵器の予測着弾GPは、別個の遠隔センサによって観察されるような異なる領域を通過する。兵器ディスプレイは、兵器の予測GPが画像内に位置している遠隔センサの画像へと自動的に切り換えることができる。兵器の予測着弾GP1110がUAV1の遠隔カメラの視認領域1112内にある場合は、ディスプレイはUAV1からのビデオ画像Aを表示することができる。次に、図示のように兵器が右へと操作され、兵器の予測着弾GP1120がUAV2の遠隔カメラの視認領域1122内にある場合には、ディスプレイはUAV2からのビデオ画像Bを表示する。最後に、図示のように兵器が右へとさらに操作され、兵器の予測着弾GP1130がUAV3の遠隔カメラの視認領域1132内にある場合は、ディスプレイはUAV3からのビデオ画像Cを表示する。
図12は、計算装置1200の実施形態の例示的なトップレベル機能ブロック図を図示している。この例示的な動作環境は、中央処理装置(CPU)のようなプロセッサ1224と、ルックアップテーブル、例えば配列のようなアドレス指定可能なメモリ1227と、例えば任意のユニバーサルシリアルバスポートおよび関連する処理、および/またはイーサネットポートおよび関連する処理のような外付けの装置インタフェース1226と、ウェブブラウザのような出力装置インタフェース1223と、アプリケーション処理カーネル1222と、例えば、ステータスライトのアレイ、および1以上のトグルスイッチ、および/またはディスプレイ、および/またはキーボード、ジョイスティック、トラックボール、または他の位置入力機器および/または、ポインタマウスシステム、および/またはタッチスクリーンのような任意のユーザインタフェース1229と、を有する計算装置1220、すなわちコンピュータとして図示されている。任意で、アドレス指定可能なメモリは、例えば、フラッシュメモリ、SSD、EPROM、および/またはディスクドライブ、および/または他の記憶媒体とすることができる。これらの要素は、データバス1228を介して互いに通信することができる。任意のウェブブラウザとアプリケーションをサポートするような動作システム1225では、プロセッサ1224は、高度データを発射制御コントローラに提供するよう構成された慣性測定ユニット;アジマスデータを発射制御コントローラに提供することができる磁気コンパス;位置データを発射制御コントローラに提供するよう構成された全地球測位システム(GPS)機器;および複数の兵器および関連する弾薬に関する弾道情報を有するデータストアと通信する発射制御コントローラのステップを実行するように構成することができ、発射制御コントローラは選択された兵器と関連する弾薬の予測着弾点を、記録されている弾道情報、提供された高度データ、提供されたアジマスデータ、および提供された位置データに基づいて算出する。一実施形態では、経路のクリアランスチェックを発射制御コントローラによって行うことができ、発射した場合に兵器の経路上に障害物が存在する、あるいは存在することになることをシステムが検出した場合には弾薬を発射しない機能を提供する。
上記実施形態の特定の特徴および態様について様々な組み合わせ、および/または半組み合わせをすることができると共に、これらは本発明の範囲内に収まることを意図している。したがって、開示された実施形態の様々な特徴および態様は、開示された発明の異なるモードを形成するために互いに組み合わせる、あるいは置換することができると理解されたい。さらに、本発明の範囲は例示として本書に開示されており、特に開示された上記実施形態に限定すべきものではないことを意図している。

Claims (1)

  1. 発射制御コントローラと;
    前記発射制御コントローラと通信し、高度データを前記発射制御コントローラに提供するよう構成された慣性測定ユニットと;
    前記発射制御コントローラと通信し、アジマスデータを前記発射制御コントローラに提供することができる磁気コンパスと;
    前記発射制御コントローラと通信し、位置データを前記発射制御コントローラに提供するよう構成された航法ユニットと;
    前記発射制御コントローラと通信し、複数の兵器および関連する弾薬に関する弾道情報を有するデータストアと;
    を具える装置であって、
    前記発射制御コントローラが、記憶された前記弾道情報、提供された前記高度データ、提供された前記アジマスデータ、および提供された前記位置データに基づいて、選択された兵器および関連する弾薬の予測着弾点を特定することを特徴とする装置。
JP2019086237A 2013-10-31 2019-04-26 遠隔検知した標的地帯の画像を表示する双方向兵器照準システム Active JP6772334B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361898342P 2013-10-31 2013-10-31
US61/898,342 2013-10-31

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016526116A Division JP6525337B2 (ja) 2013-10-31 2014-10-31 遠隔検知した標的地帯の画像を表示する双方向兵器照準システム

Publications (2)

Publication Number Publication Date
JP2019163928A true JP2019163928A (ja) 2019-09-26
JP6772334B2 JP6772334B2 (ja) 2020-10-21

Family

ID=53005221

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016526116A Active JP6525337B2 (ja) 2013-10-31 2014-10-31 遠隔検知した標的地帯の画像を表示する双方向兵器照準システム
JP2019086237A Active JP6772334B2 (ja) 2013-10-31 2019-04-26 遠隔検知した標的地帯の画像を表示する双方向兵器照準システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016526116A Active JP6525337B2 (ja) 2013-10-31 2014-10-31 遠隔検知した標的地帯の画像を表示する双方向兵器照準システム

Country Status (11)

Country Link
US (7) US9816785B2 (ja)
EP (2) EP3929525A1 (ja)
JP (2) JP6525337B2 (ja)
KR (1) KR102355046B1 (ja)
CN (3) CN111256537A (ja)
AU (2) AU2014342000B2 (ja)
CA (1) CA2928840C (ja)
DK (1) DK3063696T3 (ja)
HK (1) HK1226174A1 (ja)
SG (2) SG10201800839QA (ja)
WO (1) WO2015066531A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102142604B1 (ko) * 2020-05-14 2020-08-07 한화시스템 주식회사 함포 사격 제어 장치 및 방법

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111256537A (zh) * 2013-10-31 2020-06-09 威罗门飞行公司 显示目标区域的遥感图像的交互式武器瞄准系统
US9501855B2 (en) * 2014-09-11 2016-11-22 Sony Corporation Image processing apparatus and image processing method
FR3036818B1 (fr) * 2015-06-01 2017-06-09 Sagem Defense Securite Systeme de visee comportant un ecran recouvert d'une interface tactile et procede de visee correspondant
CN105004266A (zh) * 2015-06-26 2015-10-28 哈尔滨工程大学 一种具有滤波器的多管火箭射击精度测量仪
CN108026715B (zh) 2015-09-15 2021-06-18 住友建机株式会社 挖土机
JP6938389B2 (ja) 2016-01-29 2021-09-22 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
US10627821B2 (en) * 2016-04-22 2020-04-21 Yuneec International (China) Co, Ltd Aerial shooting method and system using a drone
US20180025651A1 (en) * 2016-07-19 2018-01-25 Taoglas Group Holdings Limited Systems and devices to control antenna azimuth orientation in an omni-directional unmanned aerial vehicle
US20180061037A1 (en) * 2016-08-24 2018-03-01 The Boeing Company Dynamic, persistent tracking of multiple field elements
CN113895641A (zh) * 2016-08-31 2022-01-07 深圳市大疆创新科技有限公司 无人的可移动物体
WO2018053877A1 (zh) * 2016-09-26 2018-03-29 深圳市大疆创新科技有限公司 控制方法、控制设备和运载系统
KR101776614B1 (ko) * 2017-01-16 2017-09-11 주식회사 네비웍스 지능형 포병사격지원장치 및 그 동작 방법
US20180231379A1 (en) * 2017-02-14 2018-08-16 Honeywell International Inc. Image processing system
DE102017204107A1 (de) * 2017-03-13 2018-09-13 Mbda Deutschland Gmbh Informationsverarbeitungssystem und Informationsverarbeitungsverfahren
CN110199235A (zh) * 2017-04-21 2019-09-03 深圳市大疆创新科技有限公司 一种用于与无人机通信的天线组件及无人机系统
AU2017415705A1 (en) * 2017-05-22 2019-02-07 China Intelligent Building & Energy Technology Co. Ltd Remote control gun
FR3070497B1 (fr) * 2017-08-24 2019-09-06 Safran Electronics & Defense Instrument d'imagerie pour controler une designation de cible
US11257184B1 (en) 2018-02-21 2022-02-22 Northrop Grumman Systems Corporation Image scaler
US11157003B1 (en) * 2018-04-05 2021-10-26 Northrop Grumman Systems Corporation Software framework for autonomous system
WO2019217624A1 (en) * 2018-05-11 2019-11-14 Cubic Corporation Tactical engagement simulation (tes) ground-based air defense platform
WO2020077387A1 (en) * 2018-10-15 2020-04-23 Towarra Holdings Pty. Ltd. Target display device
US11392284B1 (en) 2018-11-01 2022-07-19 Northrop Grumman Systems Corporation System and method for implementing a dynamically stylable open graphics library
CN113939706B (zh) * 2019-03-18 2023-10-31 丹尼尔·鲍姆加特纳 计算射弹的弹道解的无人机辅助系统和方法
CN110132049A (zh) * 2019-06-11 2019-08-16 南京森林警察学院 一种基于无人机平台的自动瞄准式狙击步枪
KR102069327B1 (ko) * 2019-08-20 2020-01-22 한화시스템(주) 무인 비행체를 이용한 사격 제어 시스템 및 그 방법
US12000674B1 (en) * 2019-11-18 2024-06-04 Loran Ambs Handheld integrated targeting system (HITS)
CN111023902A (zh) * 2019-12-03 2020-04-17 山西北方机械制造有限责任公司 一种森林灭火装备的侦查操瞄系统
KR102253057B1 (ko) * 2019-12-04 2021-05-17 국방과학연구소 유인 및 무인 전투체계 협동교전 모의 장치 및 그 모의 장치의 교전 모의 방법
JP7406360B2 (ja) * 2019-12-06 2023-12-27 株式会社Subaru 画像表示システム
FI20205352A1 (fi) * 2020-04-03 2021-10-04 Code Planet Saver Oy Maalinosoitusjärjestelmä epäsuoran tulen aseelle
US11089118B1 (en) 2020-06-19 2021-08-10 Northrop Grumman Systems Corporation Interlock for mesh network
DE102020127430A1 (de) * 2020-10-19 2022-04-21 Krauss-Maffei Wegmann Gmbh & Co. Kg Ermittlung einer Feuerleitlösung einer artilleristischen Waffe
IL280020B (en) 2021-01-07 2022-02-01 Israel Weapon Ind I W I Ltd A control system for the direction of a grenade launcher
CN113008080B (zh) * 2021-01-26 2023-01-13 河北汉光重工有限责任公司 一种基于刚性原理对近海目标进行火控解算方法
US11545040B2 (en) * 2021-04-13 2023-01-03 Rockwell Collins, Inc. MUM-T route emphasis
US20230106432A1 (en) * 2021-06-25 2023-04-06 Knightwerx Inc. Unmanned system maneuver controller systems and methods
CN114265497A (zh) * 2021-12-10 2022-04-01 中国兵器装备集团自动化研究所有限公司 发射器操瞄系统人机交互方法及设备
CN114427803A (zh) * 2021-12-24 2022-05-03 湖南金翎箭信息技术有限公司 一种反蛙人榴弹的定位控制系统及控制方法
KR102488430B1 (ko) * 2022-09-01 2023-01-13 한화시스템(주) 함포의 고사격 설정 시스템 및 그 방법
IL296452B1 (en) * 2022-09-13 2024-04-01 Trajectal Ltd Aim correction in indirect fire
CN115790271A (zh) * 2022-10-10 2023-03-14 中国人民解放军陆军边海防学院乌鲁木齐校区 一种迫击炮快反实现方法以及平台
KR102567616B1 (ko) * 2022-10-27 2023-08-17 한화시스템 주식회사 탄착 오차 확인 장치
KR102567619B1 (ko) * 2022-10-27 2023-08-17 한화시스템 주식회사 탄착 오차 확인 방법
KR102667098B1 (ko) * 2023-03-30 2024-05-20 한화시스템 주식회사 무기 체계 및 탄착 오차 출력 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070057840A1 (en) * 2005-06-10 2007-03-15 Honeywell International Inc. Methods and systems using relative sensing to locate targets
US20080204361A1 (en) * 2007-02-28 2008-08-28 Science Applications International Corporation System and Method for Video Image Registration and/or Providing Supplemental Data in a Heads Up Display
US20080290164A1 (en) * 2007-05-21 2008-11-27 Papale Thomas F Handheld automatic target acquisition system
JP2009173263A (ja) * 2008-01-23 2009-08-06 Honeywell Internatl Inc 無人航空機(uav)によって移動目標物を自律的に追跡するための方法及びシステム
JP2010276262A (ja) * 2009-05-28 2010-12-09 Ihi Aerospace Co Ltd レーザ照準装置
US20110071706A1 (en) * 2009-09-23 2011-03-24 Adaptive Materials, Inc. Method for managing power and energy in a fuel cell powered aerial vehicle based on secondary operation priority
US20120145786A1 (en) * 2010-12-07 2012-06-14 Bae Systems Controls, Inc. Weapons system and targeting method
US20130021475A1 (en) * 2011-07-21 2013-01-24 Canant Ross L Systems and methods for sensor control

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0275900A (ja) * 1988-09-12 1990-03-15 Mitsubishi Electric Corp 照準装置
JPH02100093U (ja) * 1989-01-26 1990-08-09
DE19532743C2 (de) * 1995-09-05 1998-07-02 Rheinmetall Ind Ag Vorrichtung zum Richten einer Waffe eines bewaffneten Fahrzeuges
DE19718947B4 (de) 1997-05-05 2005-04-28 Rheinmetall W & M Gmbh Pilotgeschoß
BR0015057A (pt) * 1999-11-03 2002-07-23 Metal Storm Ltd Conjunto de dispositivos de defesa
WO2001058756A2 (en) * 2000-02-14 2001-08-16 Aerovironment Inc. Aircraft
WO2004004157A2 (en) * 2002-04-17 2004-01-08 Aerovironment, Inc. High altitude platform deployment system
JP5092169B2 (ja) * 2003-02-07 2012-12-05 株式会社小松製作所 弾の誘導装置および誘導方法
JP3910551B2 (ja) * 2003-03-25 2007-04-25 日本無線株式会社 照準位置検出システム
JP2005308282A (ja) * 2004-04-20 2005-11-04 Komatsu Ltd 火器装置
IL163565A (en) * 2004-08-16 2010-06-16 Rafael Advanced Defense Sys Airborne reconnaissance system
US7623676B2 (en) * 2004-12-21 2009-11-24 Sarnoff Corporation Method and apparatus for tracking objects over a wide area using a network of stereo sensors
US8371202B2 (en) * 2005-06-01 2013-02-12 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for protecting vehicles and personnel against incoming projectiles
US20070127008A1 (en) * 2005-11-08 2007-06-07 Honeywell International Inc. Passive-optical locator
US8275544B1 (en) * 2005-11-21 2012-09-25 Miltec Missiles & Space Magnetically stabilized forward observation platform
US7746391B2 (en) * 2006-03-30 2010-06-29 Jai Pulnix, Inc. Resolution proportional digital zoom
WO2007113842A2 (en) * 2006-04-04 2007-10-11 David Cohen Deployment control system
JP2008096065A (ja) * 2006-10-13 2008-04-24 Toshiba Corp 射撃統制システムとその連携処理方法
US20080207209A1 (en) * 2007-02-22 2008-08-28 Fujitsu Limited Cellular mobile radio communication system
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
US20100228406A1 (en) 2009-03-03 2010-09-09 Honeywell International Inc. UAV Flight Control Method And System
IL199763B (en) * 2009-07-08 2018-07-31 Elbit Systems Ltd Automatic contractual system and method for observation
EP3133019B1 (en) * 2009-09-09 2018-12-05 AeroVironment, Inc. Noise suppression device for a drone launch tube
US9163909B2 (en) * 2009-12-11 2015-10-20 The Boeing Company Unmanned multi-purpose ground vehicle with different levels of control
US8408115B2 (en) * 2010-09-20 2013-04-02 Raytheon Bbn Technologies Corp. Systems and methods for an indicator for a weapon sight
WO2012121735A1 (en) * 2011-03-10 2012-09-13 Tesfor, Llc Apparatus and method of targeting small weapons
US8660338B2 (en) * 2011-03-22 2014-02-25 Honeywell International Inc. Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints
US8788121B2 (en) * 2012-03-09 2014-07-22 Proxy Technologies, Inc. Autonomous vehicle and method for coordinating the paths of multiple autonomous vehicles
US8525088B1 (en) 2012-03-21 2013-09-03 Rosemont Aerospace, Inc. View-point guided weapon system and target designation method
US8939081B1 (en) * 2013-01-15 2015-01-27 Raytheon Company Ladar backtracking of wake turbulence trailing an airborne target for point-of-origin estimation and target classification
CN103134386B (zh) * 2013-02-05 2016-08-10 中山市神剑警用器材科技有限公司 一种非直瞄视频瞄准系统
US9696430B2 (en) * 2013-08-27 2017-07-04 Massachusetts Institute Of Technology Method and apparatus for locating a target using an autonomous unmanned aerial vehicle
US20160252325A1 (en) * 2013-10-08 2016-09-01 Horus Vision Llc Compositions, methods and systems for external and internal environmental sensing
CN111256537A (zh) * 2013-10-31 2020-06-09 威罗门飞行公司 显示目标区域的遥感图像的交互式武器瞄准系统
US9022324B1 (en) * 2014-05-05 2015-05-05 Fatdoor, Inc. Coordination of aerial vehicles through a central server
US9087451B1 (en) * 2014-07-14 2015-07-21 John A. Jarrell Unmanned aerial vehicle communication, monitoring, and traffic management
CN104457744B (zh) * 2014-12-18 2018-04-27 扬州天目光电科技有限公司 手持目标侦测仪及其侦测方法和弹道解算方法
US11112787B2 (en) * 2015-03-25 2021-09-07 Aerovironment, Inc. Machine to machine targeting maintaining positive identification
US9508263B1 (en) * 2015-10-20 2016-11-29 Skycatch, Inc. Generating a mission plan for capturing aerial images with an unmanned aerial vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070057840A1 (en) * 2005-06-10 2007-03-15 Honeywell International Inc. Methods and systems using relative sensing to locate targets
US20080204361A1 (en) * 2007-02-28 2008-08-28 Science Applications International Corporation System and Method for Video Image Registration and/or Providing Supplemental Data in a Heads Up Display
US20080290164A1 (en) * 2007-05-21 2008-11-27 Papale Thomas F Handheld automatic target acquisition system
JP2009173263A (ja) * 2008-01-23 2009-08-06 Honeywell Internatl Inc 無人航空機(uav)によって移動目標物を自律的に追跡するための方法及びシステム
JP2010276262A (ja) * 2009-05-28 2010-12-09 Ihi Aerospace Co Ltd レーザ照準装置
US20110071706A1 (en) * 2009-09-23 2011-03-24 Adaptive Materials, Inc. Method for managing power and energy in a fuel cell powered aerial vehicle based on secondary operation priority
US20120145786A1 (en) * 2010-12-07 2012-06-14 Bae Systems Controls, Inc. Weapons system and targeting method
US20130021475A1 (en) * 2011-07-21 2013-01-24 Canant Ross L Systems and methods for sensor control

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102142604B1 (ko) * 2020-05-14 2020-08-07 한화시스템 주식회사 함포 사격 제어 장치 및 방법

Also Published As

Publication number Publication date
US11592267B2 (en) 2023-02-28
US10247518B2 (en) 2019-04-02
SG11201603140WA (en) 2016-05-30
CA2928840C (en) 2021-08-10
WO2015066531A1 (en) 2015-05-07
AU2020204166B2 (en) 2021-11-18
AU2020204166A1 (en) 2020-07-09
US20220163291A1 (en) 2022-05-26
US20230160662A1 (en) 2023-05-25
EP3063696B1 (en) 2021-08-25
US10539394B1 (en) 2020-01-21
SG10201800839QA (en) 2018-03-28
DK3063696T3 (da) 2021-09-20
US11118867B2 (en) 2021-09-14
HK1226174A1 (zh) 2017-09-22
KR102355046B1 (ko) 2022-01-25
KR20160087388A (ko) 2016-07-21
JP2016540949A (ja) 2016-12-28
EP3063696A4 (en) 2017-07-19
CN115031581A (zh) 2022-09-09
AU2014342000A1 (en) 2016-06-09
CA2928840A1 (en) 2015-05-07
US11867479B2 (en) 2024-01-09
JP6772334B2 (ja) 2020-10-21
US20200025519A1 (en) 2020-01-23
CN111256537A (zh) 2020-06-09
JP6525337B2 (ja) 2019-06-05
US20200326156A1 (en) 2020-10-15
CN105765602A (zh) 2016-07-13
EP3929525A1 (en) 2021-12-29
AU2014342000B2 (en) 2020-05-28
US20160216072A1 (en) 2016-07-28
US20240093966A1 (en) 2024-03-21
US20180094902A1 (en) 2018-04-05
US9816785B2 (en) 2017-11-14
EP3063696A1 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
US11867479B2 (en) Interactive weapon targeting system displaying remote sensed image of target area
US20230168675A1 (en) System and method for interception and countering unmanned aerial vehicles (uavs)
US11074827B2 (en) Virtual reality system for aerial vehicle
US11064184B2 (en) Aerial vehicle imaging and targeting system
US20190063881A1 (en) Aerial Vehicle Interception System
KR20130009894A (ko) 공간정보기술을 이용한 근거리 정밀타격 무인항공기시스템
KR20210133972A (ko) 타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치
JP2020502465A (ja) 軸外標的を検知するための誘導弾薬システム
US20230088169A1 (en) System and methods for aiming and guiding interceptor UAV
US20230140441A1 (en) Target acquisition system for an indirect-fire weapon

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200930

R150 Certificate of patent or registration of utility model

Ref document number: 6772334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250