JP6001980B2 - Visible relationship deriving method, visible relationship deriving device, and visible relationship deriving program - Google Patents
Visible relationship deriving method, visible relationship deriving device, and visible relationship deriving program Download PDFInfo
- Publication number
- JP6001980B2 JP6001980B2 JP2012212828A JP2012212828A JP6001980B2 JP 6001980 B2 JP6001980 B2 JP 6001980B2 JP 2012212828 A JP2012212828 A JP 2012212828A JP 2012212828 A JP2012212828 A JP 2012212828A JP 6001980 B2 JP6001980 B2 JP 6001980B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- point
- altitude
- distance
- visible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 30
- 230000000007 visual effect Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000009795 derivation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 235000015842 Hesperis Nutrition 0.000 description 1
- 235000012633 Iberis amara Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001141 propulsive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Description
本発明は、航空機(自機)が攻撃対象となる目標物に対して可視状態となる(暴露する)か否かといった可視関係を導出する可視関係導出方法、可視関係導出装置、および、可視関係導出プログラムに関する。 The present invention relates to a visible relationship deriving method, a visible relationship deriving device, and a visible relationship for deriving a visible relationship such as whether or not an aircraft (self-machine) is visible (exposed) to a target to be attacked. It relates to the derivation program.
戦闘用の航空機、例えば、回転翼機(ヘリコプター)には、ロケットや砲(ガン)等の無誘導弾が搭載され、地上に存在する脅威(目標物)を撃破する。回転翼機は、空中に位置している状態で目標物を攻撃するため、自機や目標物が地図上のいずれに位置し、自機と目標物との間の地形がどのようになっているかを把握しなくてはならない。 Non-guided bullets such as rockets and guns are mounted on combat aircraft such as rotary wing aircraft (helicopters) to destroy threats (targets) existing on the ground. Since the rotary wing aircraft attacks the target in the air, the aircraft and the target are located on the map, and the terrain between the aircraft and the target is changed. You have to figure out if
そこで、地図上に自機や目標物を示すのみならず、地図上に目標物と、その撃破確率を可視化した技術が開示されている(例えば、特許文献1)。また、地形図における自機の位置を特定し、自機に対して脅威となる地形図の視覚的指示を表示する技術も知られている(例えば、特許文献2)。 Thus, a technique is disclosed in which not only the own device and the target are displayed on the map, but also the target and the probability of destroying the target are visualized on the map (for example, Patent Document 1). There is also known a technique for specifying the position of the own machine in the topographic map and displaying a visual instruction of the topographic map that is a threat to the own machine (for example, Patent Document 2).
しかし、自機の射程圏内に目標物を捉えるためには、自機も目標物に近づかなくてはならず、目標物に自機が暴露(視認)されると逆に攻撃されてしまうおそれがある。特に、航空機は、地上の目標物と異なり、背景が空となる位置では、背景(空)による自機のカモフラージュが困難であり、目標物を攻撃する際には、目標物に対して自機が暴露される可能性が高い。 However, in order to capture the target within the range of the aircraft, the aircraft must also approach the target, and if the aircraft is exposed (viewed) to the target, it may be attacked. is there. In particular, aircraft is difficult to camouflage with its background (sky) at positions where the background is empty, unlike ground targets. When attacking a target, the aircraft Is likely to be exposed.
したがって、例えば、目標物の視界に入らないように山陰に隠れながら移動や待機をしたり、目標物に対して背景が山肌となる位置で攻撃するといった、地形の起伏(地勢)を利用した攻撃が有効となる。しかし、このような攻撃位置の選択判断は、従来、パイロットに委ねられていたため、パイロット個人の能力や経験によっては最適な攻撃位置が選択されない場合もあった。 Therefore, for example, attacks using topographic undulations (terrain), such as moving or waiting while hiding in the shade so as not to enter the field of view of the target, or attacking the target at a position where the background is a mountain surface Becomes effective. However, since the selection of such an attack position is conventionally left to the pilot, the optimum attack position may not be selected depending on the individual pilot's ability and experience.
そこで本発明は、このような課題に鑑み、パイロットに、自機と目標物との可視関係を客観的かつ正確に把握させ、適切な攻撃位置を選択させることが可能な可視関係導出方法、可視関係導出装置、および、可視関係導出プログラムを提供することを目的としている。 Therefore, in view of such problems, the present invention makes it possible for the pilot to objectively and accurately grasp the visual relationship between the aircraft and the target, and to select an appropriate attack position. It is an object to provide a relationship deriving device and a visible relationship deriving program.
上記課題を解決するために、本発明の可視関係導出方法は、目標物から水平面上に延長した任意の直線上の任意の2つの対象点に関し、2つの対象点と目標物との距離、および、2つの対象点の標高に相当する標高点と目標物との結線と水平面との成す角度を導出し、2つの対象点の目標物との距離と角度とに基づいて、目標物との距離が長い対象点の標高点が、目標物との距離が短い対象点の標高点との位置関係により、目標物に対して可視状態となるか否か判定し、目標物との距離が長い対象点の標高点が、目標物に対して可視状態とならない場合、さらに、目標物との距離が長い対象点の標高点が、直線上において目標物との距離がさらに長い対象点の標高点との位置関係により、航空機が目標物を視認できる位置まで浮上した場合に、航空機が目標物に対して地上を背景とした可視状態となるか否かを判定することを特徴とする。 In order to solve the above-mentioned problem, the visual relationship deriving method of the present invention relates to any two target points on an arbitrary straight line extending from the target onto the horizontal plane, and the distance between the two target points and the target, and Deriving the angle between the connection between the elevation point corresponding to the elevation of the two target points and the target and the horizontal plane, and the distance to the target based on the distance and angle between the target of the two target points A target with a long distance to the target is determined by determining whether the elevation point of the target point with a long distance is visible to the target object based on the positional relationship with the elevation point of the target point with a short distance to the target object. If the elevation point of the point is not visible to the target, the elevation point of the target point that is further away from the target is the elevation point of the target point that is further away from the target on the straight line. When the aircraft ascends to a position where the target can visually recognize the target Aircraft and judging whether the visible state of the background of the earth with respect to target.
上記課題を解決するために、本発明の可視関係導出装置は、目標物から水平面上に延長した任意の直線上の任意の2つの対象点に関し、2つの対象点と目標物との距離、および、2つの対象点の標高に相当する標高点と目標物との結線と水平面との成す角度を導出する角度導出部と、2つの対象点の目標物との距離と角度とに基づいて、目標物との距離が長い対象点の標高点が、目標物との距離が短い対象点の標高点との位置関係により、目標物に対して可視状態となるか否か判定し、目標物との距離が長い対象点の標高点が、目標物に対して可視状態とならない場合、さらに、目標物との距離が長い対象点の標高点が、直線上において目標物との距離がさらに長い対象点の標高点との位置関係により、航空機が目標物を視認できる位置まで浮上した場合に、航空機が目標物に対して地上を背景とした可視状態となるか否かを判定する可視判定部と、を備えることを特徴とする。 In order to solve the above-described problem, the visual relationship deriving device of the present invention relates to any two target points on an arbitrary straight line extending on the horizontal plane from the target, and the distance between the two target points and the target, and Based on the angle derivation unit that derives the angle between the connection between the elevation point corresponding to the elevation of the two target points and the target and the horizontal plane, and the distance and angle between the target of the two target points, the target Determine whether the elevation point of the target point with a long distance to the object is visible to the target object based on the positional relationship with the elevation point of the target point with a short distance to the target object. If the elevation point of an object point with a long distance does not become visible to the target object, the elevation point of the object point with a long distance to the target object is an object point with a longer distance to the target object on a straight line. To the position where the aircraft can see the target by the positional relationship with the altitude point of When above, characterized in that it comprises a visible determination unit to determine whether the visible state of the background of the earth with respect to aircraft target, the.
上記課題を解決するために、本発明の可視関係導出プログラムは、コンピュータを、目標物から水平面上に延長した任意の直線上の任意の2つの対象点に関し、2つの対象点と目標物との距離、および、2つの対象点の標高に相当する標高点と目標物との結線と水平面との成す角度を導出する角度導出部と、2つの対象点の目標物との距離と角度とに基づいて、目標物との距離が長い対象点の標高点が、目標物との距離が短い対象点の標高点との位置関係により、目標物に対して可視状態となるか否か判定し、目標物との距離が長い対象点の標高点が、目標物に対して可視状態とならない場合、さらに、目標物との距離が長い対象点の標高点が、直線上において目標物との距離がさらに長い対象点の標高点との位置関係により、航空機が目標物を視認できる位置まで浮上した場合に、航空機が目標物に対して地上を背景とした可視状態となるか否かを判定する可視判定部として機能させる。
In order to solve the above-described problem, the visual relationship derivation program according to the present invention relates to any two target points on an arbitrary straight line extending from the target object on the horizontal plane, and between the two target points and the target object. Based on the distance, the angle deriving unit for deriving the angle between the connection between the elevation point corresponding to the elevation of the two target points and the target and the horizontal plane, and the distance and the angle between the target of the two target points Then, determine whether the elevation point of the target point with a long distance to the target is visible with respect to the target according to the positional relationship with the elevation point of the target point with a short distance to the target. If the altitude point of the target point with a long distance to the object is not visible with respect to the target object, the altitude point of the target point with a long distance to the target object will further increase the distance to the target object on the straight line. Due to the positional relationship between the long target point and the elevation point, the aircraft When it surfaced to a position that is visible to, to function as a visible determination unit to determine whether the visible aircraft has a background ground against target.
本発明によれば、パイロットに、自機と目標物との可視関係を客観的かつ正確に把握させることができるので、適切な攻撃位置を選択させることが可能となる。 According to the present invention, the pilot can be made to objectively and accurately grasp the visual relationship between the aircraft and the target object, so that an appropriate attack position can be selected.
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.
(航空機100)
図1は、航空機100の概略的な構成を示す機能ブロック図である。ここでは、航空機100として回転翼機(ヘリコプター)を例示する。そして、攻撃対象となる目標物102に攻撃を行う適切な攻撃位置に航空機100を移動すべく、自機が目標物に対して可視状態となる(暴露する)か否かといった可視関係を導出し、パイロットに示す。航空機100は、情報取得部110と、中央制御部112と、飛行機構114と、無誘導弾発射機構116とを含んで構成される。ここでは、本実施形態に必要な構成のみを説明し、本実施形態に関係のない構成については説明を省略する。
(Aircraft 100)
FIG. 1 is a functional block diagram showing a schematic configuration of
情報取得部110は、通信部110a、操作部110b、センサ110c、表示部110d等を含む。通信部110aは、放送型自動従属監視(ADS−B:Automatic Dependent Surveillance-Broadcast)等のデータリンク手法を用い、飛行中または陸上(船上)において、地上設備との通信を行う。操作部110bは、操縦桿、操作キー、タッチパネル等で構成され、パイロットの操作入力を受け付ける。本実施形態では、通信部110aまたは操作部110bを通じて目標物102の位置等の情報を取得する。センサ110cは、飛行位置(経度、緯度、高度を含む)、機体速度、機体姿勢、機体が受ける風力、風向き、天候、機体周囲の気圧、温度、湿度等の現在の飛行状態を検出する。表示部110dは、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成され、通信部110a、操作部110b、センサ110c等を通じて取得された様々な情報の一部を表示し、パイロットに伝達する。
The
中央制御部112は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、航空機100全体を管理および制御する。また、中央制御部112は、メッシュ生成部120、角度導出部122、一方向特定部124、可視判定部126、完了判定部128、地図反映部130として機能する。
The
飛行機構114は、機体上部にある回転翼(メインローター)と、推進力を得る内燃機関(例えばジェットエンジンやレシプロエンジン)とで構成され、回転翼で揚力を生じさせることで、機体が大気中に浮上した状態を維持する。ただし、揚力を生じさせる機構はかかる場合に限らず、推進力により固定翼周りに揚力を得ることも可能である。
The
無誘導弾発射機構116は、航空機100が適切な攻撃位置に到達した後、パイロットの操作に応じて、ロケットや砲等の無誘導弾を目標物102に対して発射する。
After the
このような航空機100においては、目標物102に暴露されないように山陰に隠れながら移動や待機をしたり、背景が山肌となる位置で攻撃するといった、地形の起伏(地勢)を利用した攻撃が必要となる。従来、このような攻撃位置の選択判断をパイロットに委ねていたが、本実施形態においては、自機(航空機100)と目標物102との可視関係を客観的に導出し、地図に重ねて表示部110dに表示する。こうして、パイロットに、自機と目標物との可視関係を客観的かつ正確に把握させ、適切な攻撃位置を選択させることができる。ここでは、特に、航空機100が、山陰に隠れながら待機可能であり、かつ、攻撃時に背景が山肌となる位置を導出することを目的とする。
In such an
かかる目的を実現するため、中央制御部112の各機能部は、以下のように動作する。メッシュ生成部120は、目標物102周囲の平面図を網目状に分割し、複数のメッシュおよび対象点を生成する。角度導出部122は、複数の対象点に関し、対象点と目標物102との距離、および、対象点の標高に相当する標高点と目標物102との結線と水平面との成す角度を導出する。ただし、本実施形態では、角度に相当する正接を用いる。一方向特定部124は、目標物102から延長される演算対象となる直線を特定する。可視判定部126は、任意の2つの対象点の目標物102との距離と角度とに基づいて、目標物102との距離が長い対象点の標高点が、目標物102との距離が短い対象点の標高点との位置関係により、目標物102に対して可視状態となるか否か判定する。完了判定部128は、このような処理が、想定された直線全てにおいて完了したか否か判定する。地図反映部130は、導出された可視関係を地図に重畳して表示部110dに表示する。以下、このような各機能部の詳細な動作を具体的に説明する。
In order to realize this object, each functional unit of the
(可視関係導出方法)
図2は、可視関係導出方法の処理の流れを示したフローチャートである。ここでは、目標物102が設定されると、図2のフローチャートにしたがって、自機と目標物102との可視関係が導出され、地図と共に表示される。
(Visibility relationship derivation method)
FIG. 2 is a flowchart showing the flow of processing of the visible relationship deriving method. Here, when the
(メッシュ生成処理S1)
図3は、目標物102とその周囲の地形を示した平面図150である。平面図150に示された曲線152は等高線を示す。また、図3および以下の図の説明では、図に対する相対的な位置を、図を正面に見た場合の上下左右で示す。
(Mesh generation process S1)
FIG. 3 is a
メッシュ生成部120は、例えば、地形図を、目標物102を中心とする一辺が1kmとなる正方形に切り出して平面図150とする。そして、メッシュ生成部120は、交点間の距離が50mとなる網目状に平面図150を分割し、その網目状に分割された領域を、計算対象の最小単位であるメッシュとして定義する。ここでは、メッシュを50m×50mの正方形で示すが、かかる場合に限らず、長方形や多角形であってもよい。
For example, the
また、以後の演算においては、分割されたメッシュの代表となる点(以下、「対象点」という。)154を、メッシュの左上の角の点(図3中、白丸で示す)とする。このように対象点154を定義することで、メッシュ内の各点の標高は、対象点と等しいと見なされ、メッシュ全体が、標高を対象点と等しくするフラットな面で示されることとなる。なお、メッシュの左上の角を対象点154としたので、平面図150の右端において上下に延びる線分および下端において左右に延びる線分には対象点154が存在しないこととなる。
In subsequent calculations, a point (hereinafter referred to as “target point”) 154 that is a representative of the divided mesh is assumed to be a point at the upper left corner of the mesh (indicated by a white circle in FIG. 3). By defining the
(角度導出処理S2)
図4は、対象点154の正接を説明するための説明図である。角度導出部122は、平面図150の全ての対象点154に対して、対象点154の標高に相当する標高点と目標物102との結線と水平面との成す角度をθとしたときの正接tanθを求め、対象点154から目標物102までの距離と共に、それぞれの対象点に対応付ける。正接tanθは、下記数式1のように、対象点154と目標物102との距離lと対象点154の鉛直方向の標高zとの三角関数で示される。対象点154と目標物102との距離lは、下記数式2のように、対象点154と目標物102との左右方向の距離xと対象点154と目標物102との上下方向の距離yによって表すことができる。
ここでは、角度の代わりに正接を求めている。これは、2つの角度を比較したときの大小関係が正接の大小関係と等しく、また、後述する数式8や数式9の計算において、正接tanθの値をそのまま利用することができるからである。ただし、正接に限らず、角度そのもので表してもよい。
(Angle derivation process S2)
FIG. 4 is an explanatory diagram for explaining the tangent of the
Here, the tangent is obtained instead of the angle. This is because the magnitude relationship when the two angles are compared is equal to the magnitude relationship of the tangent, and the value of the tangent tan θ can be used as it is in the calculation of
(一方向特定処理S3)
図5は、一方向特定部124の処理を説明するための説明図である。一方向特定部124は、平面図150の周囲端に相当する全ての対象点154に対し、図5に白抜き矢印で示すように、時計回りに順次、周囲端に相当する対象点D154と目標物102を結ぶ一方向の直線160を仮設定し、その直線に対応する複数の対象点154を特定する。
(One-way identification process S3)
FIG. 5 is an explanatory diagram for explaining the processing of the one-
図6は、任意の1の直線160に対する対象点154の特定手順を説明するための説明図である。本実施形態では、対象点154を対象として演算を行うので、一方向特定部124は、まず、直線160に近い対象点154を特定する。ここでは、図6に示すように、周囲端に相当する対象点154から任意に1の対象点154を選択し、その対象点154の座標を(i,j)=(0,0)と定義する。そして、その対象点154から目標物102まで、図6中左右方向にi(i=0〜8)を、上下方向にj(j=0〜10)を定義する。
FIG. 6 is an explanatory diagram for explaining a procedure for identifying the
一方向特定部124は、まず、対象点154と目標物102との左右方向の距離xと、対象点154と目標物102との上下方向の距離yとのいずれが長いかを判定する。そして、xが長い場合(x>y)は、下記数式3および数式4を用い、iを基準にして対象点154となるべきjを導出する。また、yが長い場合(x≦y)は、下記数式5および数式6を用い、jを基準にして対象点154となるべきiを導出する。このように場合分けした理由は、数式3や数式5で示される縦横比Ratioが1を越えないように(分子≦分母)するためである。
ただし、intは整数への変換関数であり、ここでは導出された値に0.5を加え、小数以下の値を切り捨てることで、小数点の四捨五入を実現している。
The one-
Here, int is a conversion function to an integer, and here, 0.5 is added to the derived value, and the value below the decimal is rounded down to realize rounding of the decimal point.
図6の例では、x≦yとなるので、数式5および数式6が用いられ、縦横比Ratio=400/500=4/5となる。例えば、j=1を数式6に代入すると、以下の数式7が導かれる。
したがって、j=1において左右に延びる線分上で、直線160に最も近い対象点154は、i=1((i,j)=(1,1))となることが分かる。かかる対象点154は、図6に示した黒丸154aの位置となる。また、同様に、j=2〜9に対応するiの値を求めると図6にそれぞれ示した黒丸の位置(目標物102を除く)が順次導き出される。
In the example of FIG. 6, since x ≦ y,
Therefore, it can be seen that the
(可視判定処理S4)
図7は、直線160における地形の起伏を例示した鉛直断面図である。上記で求めたj=1〜9に対応する対象点154、基点となる対象点(i,j)=(0,0)および目標物102である対象点(i,j)=(8,10)それぞれの標高zを直線160の鉛直面上に投影すると、図7のようになる。ここで、投影は、対象点154の標高zを、対象点154を通り直線160と垂直に交わる線分と直線160との交点の標高zとして反映することを示す。
(Visibility determination processing S4)
FIG. 7 is a vertical cross-sectional view illustrating terrain undulations on the
図7を参照して理解できるように、地形の起伏により自機と目標物102との可視関係が異なる。例えば、航空機100が目標物に暴露してしまう領域があったり、山陰に隠れながら待機できる領域があったりする。特に、山陰に隠れながら待機できる場合において、暴露する位置に浮上したとしても背景が山肌となれば、背景が空の場合と比較して目標物102に暴露されにくく、最適な攻撃位置で攻撃することができる。ここでは、平面図150のメッシュを5つの領域に対応付けて、パイロットに自機と目標物102との可視関係を容易に把握させる。
As can be understood with reference to FIG. 7, the visible relationship between the own aircraft and the
図8は、自機と目標物102との可視関係を識別するための種類を示した説明図であり、図9〜図12は、個別判定の結果を反映した説明図である。
FIG. 8 is an explanatory diagram showing types for identifying the visible relationship between the own device and the
図8を参照すると、本実施形態では、最終的に、平面図150のメッシュを5つの領域に識別する。領域1は、目標物102から暴露される領域であり、背景(例えば山肌)としても利用できない領域を示す。領域2は、山陰とはなるものの、地上から暴露高度(暴露される高度)まで150ftに満たず、航空機100が安定して空間位置を維持できない(ホバリングできない)領域である。領域3は、山陰となり、かつ、地上から暴露高度まで150ft以上ある領域であり、航空機100が安定して空間位置を維持できる。ただし、攻撃時に目標物102を視認できる位置まで浮上すると、背景が空となって暴露してしまう領域である。領域4は、領域1同様、目標物102から暴露される領域ではあるが、背景(例えば山肌)として利用できる領域を示す。領域5は、領域3同様、山陰となり、かつ、地上から暴露高度まで150ftある領域であり、航空機100が安定して空間位置を維持でき、さらに、攻撃時に目標物102を視認できる位置まで浮上したとしても、背景が山肌となって目標物102に暴露されにくい領域である。
Referring to FIG. 8, in the present embodiment, finally, the mesh of the
ここで、地上から暴露高度までの判定置を判定するための150ftは、航空機100が安定して空間位置を維持できる高さ(100ft)に、地上の植栽の高さ(50ft)を加えた値である。また、背景が山肌となるのは、暴露高度から山肌限界高度(背景が空となる高度)まで100ft以上あることを条件とする。
Here, 150 ft for determining the judgment position from the ground to the exposure altitude is obtained by adding the height of planting on the ground (50 ft) to the height at which the
このとき、攻撃位置として適している順は、領域5>領域3>領域2>領域4>領域1となる。
At this time, the order suitable for the attack position is
ここでは、図7のような直線160における対象点154を、図8に基づいて判定し、対象点154に対応するメッシュを各領域に識別する。
Here, the
まず、可視判定部126は、2つの対象点154の目標物102との距離と角度(ここでは正接)とに基づいて、目標物102との距離が長い対象点154の標高点が、目標物102との距離が短い対象点154の標高点との位置関係により、目標物102に対して可視状態となるか否か判定する。
First, the
具体的に、可視判定部126は、図7に示す対象点154を目標物102から近い順に抽出し、その任意の対象点154の標高点が目標物102に対して可視状態となるか判定する。すなわち、その任意の対象点154より目標物102に近い対象点154に、任意の対象点154の正接より大きい正接を有しているか否か判定する。可視判定部126は、正接の大きい対象点154が存在しない場合、その対象点154のメッシュを領域1とし、正接の大きい対象点154が存在する場合、その対象点154のメッシュを領域2とする。すると、鉛直断面図は図9(a)のように、平面図150は図9(b)のように、一方向特定部124に特定された対象点154のメッシュが、領域1と領域2とに識別される。
Specifically, the
次に、可視判定部126は、領域2と判定された対象点154(メッシュ)に関し、地上から暴露高度までの距離を判定し、150ft以上となる領域を、領域2から領域3に置換する。かかる暴露高度までの距離hは、領域2と判定された対象点154の目標物102からの距離をl、その正接をtanθ、その対象点154より目標物102に近い対象点154のうち正接が最も大きい対象点154の正接をtanθmaxとすると、以下の数式8で表すことができる。
すると、鉛直断面図は図10(a)のように、平面図150は図10(b)のように、領域2が、地上から暴露高度までの距離が150ft未満の領域2と、150ft以上の領域3とに識別される。
Next, the
Then, the vertical sectional view is as shown in FIG. 10 (a), and the
次に、可視判定部126は、領域1と判定された対象点154より目標物102に近い対象点154に領域3と判定された領域があるか否か判定し、領域3があると判定されると、その領域を、領域1から領域4に置換する。すると、鉛直断面図は図11(a)のように、平面図150は図11(b)のように、領域1が、背景として利用できない領域1と、背景として利用できる領域4とに識別される。
Next, the
最後に、可視判定部126は、目標物102と距離が長い対象点の標高点が、目標物102に対して可視状態とならない場合、さらに、目標物102との距離が長い対象点154の標高点が、直線上において目標物102との距離がさらに長い対象点154の標高点との位置関係により、目標物102に対して地上を背景とした可視状態となるか否かを判定する。
Finally, when the elevation point of the target point having a long distance from the
すなわち、可視判定部126は、領域3と判定された対象点154より目標物102に遠い対象点154に領域4と判定された領域があるか否か、また領域4と判定された領域がある場合、領域3と判定された対象点154の暴露高度から山肌限界高度までの距離が100ft以上であるか判定する。ここで、領域4があり、かつ、領域3と判定された対象点154の暴露高度から山肌限界高度までの距離が100ft以上であれば、その領域3を領域5に置換する。かかる暴露高度から山肌限界高度までの距離dは、領域3と判定された対象点154の目標物102からの距離をl、その対象点154より目標物102に近い対象点154のうち正接が最も大きい対象点154の正接をtanθmax、領域4の正接をtanθdとすると、以下の数式9で表すことができる。
すると、鉛直断面図は図12(a)のように、平面図150は図12(b)のように、領域3が、攻撃時に背景が空となる領域3と、攻撃時に背景が山肌となる領域5とに識別される。かかる領域5は、山陰に隠れながら待機でき、暴露する位置に浮上したとしても背景が山肌となるので、最適な攻撃位置となる。このように領域5の有無が判定されると、1の直線160に関する可視判定が終了する。
That is, the
Then, the vertical sectional view is as shown in FIG. 12 (a), and the
(完了判定処理S5)
完了判定部128は、平面図150の周囲端に相当する全ての対象点154に対し、一方向特定処理S3および可視判定処理S4が完了したか否か判定する。そして、全てが完了していれば、地図反映処理S6に処理を移行し、完了していなければ、図5に白抜き矢印で示した方向に直線160を移動し、一方向特定処理S3からの処理を繰り返す。
(Completion determination processing S5)
The
また、ここでは、移動した直線160に近い対象点154が既に他の直線160に対応した対象点154であっても、すなわち、その対象点154に関して既に領域が対応付けられていたとしても、その対象点154に関して再度、領域の判定を行う。これは、直線160上の他の対象点154との位置関係によって判定結果が変わることがあり、その場合、対象点154に適切な領域を対応付ける必要があるからである。このとき、既に対応付けられた領域と異なる領域が導出された場合、攻撃位置として適していない順(領域1>領域4>領域2>領域3>領域5)に従い、優先順位の高い領域を選択して対応付ける。ただし、かかる場合に限らず、処理負担を軽減すべく、再度の領域判定を行わないとしてもよい。
Here, even if the
(地図反映処理S6)
地図反映部130は、導出された可視関係を地図に重畳して、表示部110dに表示する。こうして、図13に示すような平面図150全体における可視関係を表示することができ、パイロットは、自機と目標物との可視関係を客観的かつ正確に把握することが可能となる。
(Map reflection process S6)
The
(目標物102が複数の場合)
上述した実施形態では、目標物102が1つであることを前提に可視関係を導出したが、目標物102が複数であっても同様のアルゴリズムを適用できる。
(When there are multiple targets 102)
In the above-described embodiment, the visual relationship is derived on the assumption that there is one
図14は、自機と目標物102との可視関係を識別するための種類を示した説明図であり、図15は、可視関係の個別判定から総合判定への変換手順を示す説明図である。
FIG. 14 is an explanatory diagram showing types for identifying the visible relationship between the own device and the
図8における個別判定に対し、図14の総合判定において、領域Aは、全ての目標物102から暴露される領域であり、いずれの目標物102に対しても背景(例えば山肌)として利用できない領域を示す。領域Bは、全ての目標物102に対して山陰とはなるものの、地上から暴露高度(暴露される高度)まで150ftに満たず、航空機100が安定して空間位置を維持できない(ホバリングできない)領域である。領域Cは、全ての目標物102に対して山陰となり、かつ、地上から暴露高度まで150ft以上ある領域であり、航空機100が安定して空間位置を維持できる。ただし、攻撃時に目標物102を視認できる位置まで浮上すると、いずれかの目標物102に対して背景が空となって暴露してしまう領域である。
In contrast to the individual determination in FIG. 8, in the comprehensive determination in FIG. 14, the area A is an area that is exposed from all the target objects 102, and cannot be used as a background (for example, a mountain skin) for any
領域Eは、領域A同様、全ての目標物102から暴露される領域ではあるが、全ての目標物102に対して背景(例えば山肌)として利用できる領域を示す。領域Eは、領域C同様、全ての目標物102に対して山陰となり、かつ、地上から暴露高度まで150ft以上ある領域であり、航空機100が安定して空間位置を維持できる領域である。また、さらに、攻撃時に目標物102を視認できる位置まで浮上したとしても、全ての目標物102に対して背景が山肌となって目標物102に暴露されにくい領域である。
The area E is an area that is exposed from all the
ここでは、まず、複数の目標物102それぞれについて、図2のフローチャートに基づき図8の個別判定を行う。そして、図15に基づいて、目標物102が1つの場合の個別判定を、目標物102が複数の場合の総合判定に変換する。なお、図15における縦のパラメータと横のパラメータは、それぞれ異なる目標物102の個別判定の結果であり、それぞれの個別判定の交点が総合判定の結果を示している。
Here, first, the individual determination of FIG. 8 is performed based on the flowchart of FIG. Then, based on FIG. 15, the individual determination when there is one
このとき、攻撃位置として適している順は、上述したように、目標物102が1の場合であっても、複数の場合であっても領域5>領域3>領域2>領域4>領域1(領域E>領域C>領域B>領域D>領域A)となる。したがって、複数の目標物102それぞれからの攻撃位置の個別判定が同じ場合、その判定結果を複数の目標物102の総合判定にも用いるべきである。ただし、いずれか一方で、攻撃位置として劣る判定がある場合は、その劣る方の判定結果を目標物102の総合判定にも用いる。
At this time, as described above, the order suitable for the attack position is as follows:
したがって、以下のような手順で複数の目標物102それぞれの個別判定を、図15の如く、総合判定に変換する。具体的に説明すると、可視判定部126は、まず、目標物102のいずれかに対して領域1の判定結果を得ている場合、総合判定も領域Aとする(1)。次に、可視判定部126は、(1)によって変換された領域以外の領域4について、いずれの目標物102に対しても領域4の場合にのみ総合判定も領域Dとし、それ以外の領域を領域Aとする(2)。
Therefore, individual determination of each of the plurality of
続いて、(1)、(2)によって変換された領域以外について、可視判定部126は、いずれか一方でも領域2と判定されている領域を全て領域Bとする(3)。そして、(1)、(2)、(3)によって変換された領域以外について、いずれか一方でも領域3と判定されている領域を全て領域Cとする(4)。最後に、残った、いずれの目標物102に対しても領域5と判定されている領域を領域Eとする(5)。こうして、図15のように、全ての領域が総合判定される。
Subsequently, for the areas other than the areas converted in (1) and (2), the
以上、説明したように本実施形態の可視関係導出方法によれば、自機と目標物との可視関係、特に、パイロットが、航空機100が、山陰に隠れながら待機可能であり、かつ、攻撃時に背景が山肌となる位置を、客観的かつ正確に把握することができ、適切な攻撃位置を選択することが可能となる。
As described above, according to the visible relationship deriving method of the present embodiment, the visible relationship between the aircraft and the target, in particular, the
また、上述したメッシュ生成部120と、角度導出部122と、一方向特定部124と、可視判定部126と、完了判定部128と、地図反映部130とを備える可視関係導出装置も提供される。さらに、コンピュータを、メッシュ生成部120と、角度導出部122と、一方向特定部124と、可視判定部126と、完了判定部128と、地図反映部130として機能させるための可視関係導出プログラムも提供される。また、当該可視関係導出プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。
Also provided is a visual relationship deriving device including the
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.
例えば、上述した実施形態においては、平面図150を複数のメッシュに分割し、メッシュ毎に領域を識別しているが、かかる場合に限らず、目標物102から直線上の任意の点を判定できれば、攻撃位置として適しているか否かを把握することができる。
For example, in the above-described embodiment, the
また、上述した可視関係導出方法は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 Further, the visual relationship deriving method described above does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.
本発明は、航空機が攻撃対象となる目標物に対して可視状態となる(暴露する)か否かといった可視関係を導出する可視関係導出方法、可視関係導出装置、および、可視関係導出プログラムに利用することができる。 The present invention is used for a visible relationship deriving method, a visible relationship deriving device, and a visible relationship deriving program for deriving a visible relationship such as whether or not an aircraft is visible (exposed) to a target to be attacked. can do.
100 …航空機
102 …目標物
122 …角度導出部
126 …可視判定部
154 …対象点
160 …直線
DESCRIPTION OF
Claims (3)
前記2つの対象点の前記目標物との距離と前記角度とに基づいて、該目標物との距離が長い対象点の標高点が、該目標物との距離が短い対象点の標高点との位置関係により、該目標物に対して可視状態となるか否か判定し、
前記目標物との距離が長い対象点の標高点が、該目標物に対して可視状態とならない場合、さらに、該目標物との距離が長い対象点の標高点が、前記直線上において該目標物との距離がさらに長い対象点の標高点との位置関係により、航空機が該目標物を視認できる位置まで浮上した場合に、該航空機が該目標物に対して地上を背景とした可視状態となるか否かを判定することを特徴とする可視関係導出方法。 With respect to any two object points on an arbitrary straight line extending on the horizontal plane from the target object, the distance between the two object points and the target object, the altitude point corresponding to the altitude of the two object points, and the Deriving the angle between the connection with the target and the horizontal plane,
Based on the distance between the two target points to the target and the angle, the elevation point of the target point having a long distance to the target is the elevation point of the target point having a short distance to the target. It is determined whether or not the target object is visible according to the positional relationship ,
When the altitude point of the target point having a long distance to the target is not visible with respect to the target, the altitude point of the target point having a long distance to the target is further When the aircraft ascends to a position where the target can visually recognize the target due to the positional relationship with the altitude point of the target point having a longer distance from the target, the aircraft is in a visible state with the ground as a background with respect to the target. A method of deriving a visible relationship, characterized by determining whether or not
前記2つの対象点の前記目標物との距離と前記角度とに基づいて、該目標物との距離が長い対象点の標高点が、該目標物との距離が短い対象点の標高点との位置関係により、該目標物に対して可視状態となるか否か判定し、該目標物との距離が長い対象点の標高点が、該目標物に対して可視状態とならない場合、さらに、該目標物との距離が長い対象点の標高点が、前記直線上において該目標物との距離がさらに長い対象点の標高点との位置関係により、航空機が該目標物を視認できる位置まで浮上した場合に、該航空機が該目標物に対して地上を背景とした可視状態となるか否かを判定する可視判定部と、
を備えることを特徴とする可視関係導出装置。 With respect to any two object points on an arbitrary straight line extending on the horizontal plane from the target object, the distance between the two object points and the target object, the altitude point corresponding to the altitude of the two object points, and the An angle deriving unit for deriving an angle between the connection with the target and the horizontal plane;
Based on the distance between the two target points to the target and the angle, the elevation point of the target point having a long distance to the target is the elevation point of the target point having a short distance to the target. It is determined whether or not the target object is visible according to the positional relationship, and when the altitude point of the target point having a long distance to the target object is not visible to the target object, The altitude point of the target point with a long distance to the target has risen to a position where the aircraft can visually recognize the target object due to the positional relationship with the altitude point of the target point with a longer distance to the target on the straight line. If a visual determination unit that the aircraft to determine whether the visible state of the background of the earth with respect to the target,
A visual relationship deriving device comprising:
目標物から水平面上に延長した任意の直線上の任意の2つの対象点に関し、該2つの対象点と該目標物との距離、および、該2つの対象点の標高に相当する標高点と該目標物との結線と水平面との成す角度を導出する角度導出部と、
前記2つの対象点の前記目標物との距離と前記角度とに基づいて、該目標物との距離が長い対象点の標高点が、該目標物との距離が短い対象点の標高点との位置関係により、該目標物に対して可視状態となるか否か判定し、該目標物との距離が長い対象点の標高点が、該目標物に対して可視状態とならない場合、さらに、該目標物との距離が長い対象点の標高点が、前記直線上において該目標物との距離がさらに長い対象点の標高点との位置関係により、航空機が該目標物を視認できる位置まで浮上した場合に、該航空機が該目標物に対して地上を背景とした可視状態となるか否かを判定する可視判定部と、
して機能させるための可視関係導出プログラム。 Computer
With respect to any two object points on an arbitrary straight line extending on the horizontal plane from the target object, the distance between the two object points and the target object, the altitude point corresponding to the altitude of the two object points, and the An angle deriving unit for deriving an angle between the connection with the target and the horizontal plane;
Based on the distance between the two target points to the target and the angle, the elevation point of the target point having a long distance to the target is the elevation point of the target point having a short distance to the target. It is determined whether or not the target object is visible according to the positional relationship, and when the altitude point of the target point having a long distance to the target object is not visible to the target object, The altitude point of the target point with a long distance to the target has risen to a position where the aircraft can visually recognize the target object due to the positional relationship with the altitude point of the target point with a longer distance to the target on the straight line. If a visual determination unit that the aircraft to determine whether the visible state of the background of the earth with respect to the target,
Visibility relationship derivation program to make it function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012212828A JP6001980B2 (en) | 2012-09-26 | 2012-09-26 | Visible relationship deriving method, visible relationship deriving device, and visible relationship deriving program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012212828A JP6001980B2 (en) | 2012-09-26 | 2012-09-26 | Visible relationship deriving method, visible relationship deriving device, and visible relationship deriving program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014066461A JP2014066461A (en) | 2014-04-17 |
JP6001980B2 true JP6001980B2 (en) | 2016-10-05 |
Family
ID=50743033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012212828A Active JP6001980B2 (en) | 2012-09-26 | 2012-09-26 | Visible relationship deriving method, visible relationship deriving device, and visible relationship deriving program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6001980B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0381178A1 (en) * | 1989-02-02 | 1990-08-08 | Honeywell Inc. | Method and apparatus for aircraft navigation |
IL112940A (en) * | 1995-03-08 | 1998-01-04 | Simtech Advanced Training & Si | Apparatus and method for simulating a terrain and objects thereabove |
JP3553446B2 (en) * | 1999-12-17 | 2004-08-11 | 三菱電機株式会社 | Information visualization device |
US7027046B2 (en) * | 2001-02-09 | 2006-04-11 | Vicarious Visions, Inc. | Method, system, and computer program product for visibility culling of terrain |
JP2007271869A (en) * | 2006-03-31 | 2007-10-18 | Digital Service International Co Ltd | Map creating method by image processing, its device and its computer program |
-
2012
- 2012-09-26 JP JP2012212828A patent/JP6001980B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014066461A (en) | 2014-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10748435B2 (en) | Obstacle avoidance system | |
CN107202982B (en) | A kind of beacon arrangement and image processing method based on UAV position and orientation calculating | |
EP3903164B1 (en) | Collision avoidance system, depth imaging system, vehicle, map generator, amd methods thereof | |
RU2461889C2 (en) | Manoeuvre recognition system and method for vehicle in conflict situations | |
US10096254B2 (en) | System for guiding an aircraft to a reference point in low visibility conditions | |
EP1908022B1 (en) | Displaying obstacles in perspective view | |
US7427943B1 (en) | Method of generating three-dimensional weather information from airborne weather radar imagery | |
US9533769B1 (en) | Terrain warning systems and methods | |
CN106326892A (en) | Visual landing pose estimation method of rotary wing type unmanned aerial vehicle | |
EP3809368B1 (en) | Measurement target top-surface estimation method, guide information display device, and crane | |
EP2647960A2 (en) | Synthetic vision systems and methods for displaying detached objects | |
JP2016133321A (en) | Flight route retrieval device and flight route retrieval program | |
CN108716919A (en) | Plant protection drone path planning method based on arbitrary polygon clear area | |
CN109613530B (en) | Control method for multi-source information fusion of low-small slow air target | |
US11414305B2 (en) | Measurement target top-surface estimation method, guide information display device, and crane | |
US11532125B2 (en) | Three-dimensional model-based coverage path planning method for unmanned aerial vehicles | |
JP2637551B2 (en) | How to display visibility data | |
US20220165164A1 (en) | Real time sonic boom warning system | |
EP2630433B1 (en) | Method and apparatus to protect a target against a minimum of one attacking missile | |
CN110927685A (en) | Evaluation method for finding probability of search radar | |
US10861342B2 (en) | System for displaying information related to a flight of an aircraft and associated method | |
CN112185180B (en) | Virtual three-dimensional landing landmark auxiliary landing method | |
JP6001980B2 (en) | Visible relationship deriving method, visible relationship deriving device, and visible relationship deriving program | |
US10339820B2 (en) | System for displaying information related to a flight of an aircraft and associated method | |
JP6200539B1 (en) | Reconnaissance position calculation device, reconnaissance position calculation method, and reconnaissance position calculation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160902 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6001980 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |