JP5567805B2 - Flying object detection method, system, and program - Google Patents
Flying object detection method, system, and program Download PDFInfo
- Publication number
- JP5567805B2 JP5567805B2 JP2009199998A JP2009199998A JP5567805B2 JP 5567805 B2 JP5567805 B2 JP 5567805B2 JP 2009199998 A JP2009199998 A JP 2009199998A JP 2009199998 A JP2009199998 A JP 2009199998A JP 5567805 B2 JP5567805 B2 JP 5567805B2
- Authority
- JP
- Japan
- Prior art keywords
- flying object
- information
- vector
- satellite
- equation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 37
- 238000012545 processing Methods 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 42
- 239000011159 matrix material Substances 0.000 claims description 40
- 230000009466 transformation Effects 0.000 claims description 36
- 238000004458 analytical method Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000014509 gene expression Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004880 explosion Methods 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 235000015842 Hesperis Nutrition 0.000 description 1
- 235000012633 Iberis amara Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、飛翔するロケット、ミサイル等を探知する方法及びシステムに関し、より詳細には、数km〜数十kmの上空を飛翔する物体(以下、「飛翔体」という。)を探知し、飛翔方向や到達地点等を推測する方法及びシステムに関する。 The present invention relates to a method and system for detecting flying rockets, missiles, and the like. More specifically, the present invention detects an object flying in the sky of several kilometers to several tens of kilometers (hereinafter, referred to as a “flying object”). The present invention relates to a method and system for estimating a direction, a destination, and the like.
近年、ロケット、ミサイル等の飛翔体は、いずれも不慮の墜落や爆発といった事故を引き起こしてしまった場合には、墜落による飛翔体それ自体についての人的損害及び物的損害にとどまらず、墜落地点や着弾点に対する被害が極めて大きくなることが予想され、重大な損害を及ぼしかねない。 In recent years, if a flying object such as a rocket or missile has caused an accident such as an accidental crash or explosion, not only the human damage and property damage caused by the crash but also the crash point. And damage to the impact point is expected to become extremely large, and may cause serious damage.
そのため、従来、レーダシステムを搭載した車両や船舶を地上あるいは海上に展開し、飛翔体が正常に飛行しているか、あるいは、飛翔体がどこからどこに向かって飛翔しているのか等について監視するシステムの構築が行われてきた。 For this reason, a conventional system for monitoring a vehicle or a ship equipped with a radar system on the ground or the sea to monitor whether the flying object is flying normally or where the flying object is flying from where. Construction has been done.
しかしながら、地上に展開した車両ないし海上に展開した船舶の行動範囲は主として国内に限られてくるために、その監視領域は、そもそも全地球的規模から見れば限定されたものとなっている。したがって、国や地域をまたがるような遠方から発射された飛翔体の探知は非常に困難であった。また、レーダシステムを搭載した車両を地上に展開した場合、地形によっては山等の障害物がその監視領域を狭めることになるという課題もあった。 However, since the range of action of vehicles deployed on the ground or ships deployed on the sea is mainly limited within Japan, the monitoring area is limited from the global scale. Therefore, it was very difficult to detect a projectile that was launched from a distance that crossed countries and regions. In addition, when a vehicle equipped with a radar system is deployed on the ground, there is a problem that an obstacle such as a mountain narrows the monitoring area depending on the terrain.
そこで、車両や船舶を使用した飛翔体監視システムを補完すべく、人工衛星を使ったシステムを構築する試みもなされ、例えば、非特許文献1などのような早期警戒衛星システムの研究開発が行われている。 Therefore, an attempt has been made to construct a system using artificial satellites to complement the flying object monitoring system using vehicles and ships. For example, research and development of an early warning satellite system such as Non-Patent Document 1 has been conducted. ing.
非特許文献1に開示された技術は、長楕円軌道を有し、観測機を搭載した2機の人工衛星を使用するものである。一般に、長楕円軌道を有する人工衛星は高高度(例えば高度4万km)を飛翔するので、地球上の多くの領域を監視下におくことができるものと推察される。 The technology disclosed in Non-Patent Document 1 uses two artificial satellites having a long elliptical orbit and equipped with an observation device. In general, since an artificial satellite having a long elliptical orbit flies at a high altitude (for example, an altitude of 40,000 km), it is assumed that many areas on the earth can be under surveillance.
図19に、2機の人工衛星を周回させた場合(Satellite1軌道、Satellite2軌道)に監視可能な領域を示す。図19において、Satellite1及びSatellite2は、交互に北半球と南半球とを行ったり来たりする周回を行っている。具体的には、1日のうち12時間は、Satellite1が北半球を飛翔(北半球を監視)し、Satellite2が南半球を飛翔(南半球を監視)する一方で、次の12時間は、Satellite1が南半球を飛翔(南半球を監視)し、Satellite2が北半球を飛翔(北半球を監視)する。 FIG. 19 shows a region that can be monitored when two artificial satellites are orbited (Satellite 1 orbit, Satellite 2 orbit). In FIG. 19, Satlite 1 and Satlite 2 are orbiting back and forth between the northern and southern hemispheres alternately. Specifically, Satelite1 flies in the northern hemisphere (monitors the northern hemisphere) and Satelite2 flies in the southern hemisphere (monitors the southern hemisphere) for 12 hours a day, while Satelite1 flies in the southern hemisphere for the next 12 hours. (Monitoring the southern hemisphere) and Satellite 2 flies in the northern hemisphere (monitors the northern hemisphere).
しかしながら、この方法では、北半球及び南半球をそれぞれ1機の人工衛星が周回するために、2機が同時に監視(ステレオ視)できる領域は、図19のハッチング部分のみとなり領域としては狭い。つまり、1機の人工衛星の監視によって飛翔体の存在は確認できるものの、2機の人工衛星によるステレオ視によって飛翔体の3次元位置を正確に突き止めることが可能なエリア、及び飛翔方向を正確に予測することが可能なエリアは限定的である。 However, in this method, since one artificial satellite orbits the northern hemisphere and the southern hemisphere, the area where two aircraft can simultaneously monitor (stereoscopic view) is only the hatched portion of FIG. In other words, although the presence of a flying object can be confirmed by monitoring one artificial satellite, the area in which the three-dimensional position of the flying object can be accurately identified by stereo vision using two artificial satellites and the flying direction are accurately determined. The area that can be predicted is limited.
また、図20に示すよう複数の静止衛星(Satellite3、Satellite4)を使用して広い監視領域を確保しようとする試みもある。この場合、おおむね図20において示したハッチング部分のエリアを確保できる。 In addition, there is an attempt to secure a wide monitoring area using a plurality of geostationary satellites (Satelite 3 and Satelite 4) as shown in FIG. In this case, the hatched area shown in FIG.
しかしながら、静止衛星の位置は事前に容易に特定されることから、第三者がこの静止衛星の監視領域外での飛翔体の発射を行うことは容易となる。また、静止衛星は通常赤道上を飛翔していることから、監視可能エリアの内であっても地球上の高緯度の場所は雲を通しての画像となるため位置特定の信頼性低下してしまうという問題がある。また、ステレオ視による位置決め可能エリアは上述のとおり広範囲となるが、静止衛星は赤道上に位置するため高緯度になるほど位置特定精度が悪くなるという問題が生じる。 However, since the position of the geostationary satellite is easily specified in advance, it is easy for a third party to launch the flying object outside the monitoring area of the geostationary satellite. In addition, since geostationary satellites usually fly on the equator, the location of high latitudes on the earth becomes an image through clouds even within the area that can be monitored. There is. In addition, although the area that can be positioned by stereo vision is wide as described above, since the geostationary satellite is located on the equator, there is a problem that the position specifying accuracy becomes worse as the latitude becomes higher.
あるいは、複数の低高度の人工衛星で監視する方法も考えられるが、低高度であるが故にその監視領域は極めて狭く、せいぜい500km四方にとどまるものであって、広い監視領域からの飛翔体探知を迅速に行おうとすると、数十機の低高度人工衛星を必要とする。更に言えば、これら低高度人工衛星によりステレオ視で観測を行って、飛翔体の3次元位置を正確に推定するためには、精度上倍の数の低高度人工衛星が必要となるなど、システム構築を考えるうえで現実的でない。 Alternatively, a method of monitoring with a plurality of low-altitude satellites is also conceivable. However, because the altitude is low, the monitoring area is extremely narrow and remains at most 500 km square, and it can detect a flying object from a wide monitoring area. To do it quickly, dozens of low-altitude satellites are required. Furthermore, in order to accurately estimate the three-dimensional position of the flying object by observing with these low-altitude satellites in stereo, the number of low-altitude satellites that are double the accuracy is required. It is not realistic in thinking about construction.
そこで、本願発明の目的は、かかる従来技術における諸問題を解決することである。すなわち、本願発明は、複数の人工衛星から構成される飛翔体検出システムであって、観測器の出力であるデータ(例えば、撮像画像データ)をステレオ(立体)視することにより飛翔体の3次元位置を正確に推定ないし特定する飛翔体探知方法及びシステムを提供することを目的とする。 Accordingly, an object of the present invention is to solve various problems in the prior art. That is, the present invention is a flying object detection system composed of a plurality of artificial satellites, and the three-dimensional flying object is obtained by viewing the data (for example, captured image data) output from the observer in stereo (stereoscopic). It is an object of the present invention to provide a flying object detection method and system for accurately estimating or specifying a position.
本発明は、少なくとも2機の人工衛星による、地上を飛翔する飛翔体を撮影し撮影画像データとして送信する段階と、前記少なくとも2機の人工衛星による、各々の人工衛星の位置情報、速度情報、及び姿勢情報を送信する段階と、受信アンテナを備えた基地局による、前記少なくとも2機の人工衛星より送信される少なくとも2枚の画像データと、前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とを受信する段階と、前記基地局における位置解析装置による、前記アンテナにより受信した少なくとも2枚の画像データを解析して前記各々の人工衛星の頂角及び方位角を算出する段階と、前記頂角及び方位角と、前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とを用いて前記飛翔体の位置を解析する段階とを含む飛翔体探知方法であって、前記各々の人工衛星の頂角及び方位角から観測ベクトルを生成する段階と、前記各々の人工衛星の位置情報、速度情報、及び姿勢情報に基づいて座標変換行列を生成する段階と、飛翔体位置初期値をXrefとしたとき、前記飛翔体位置初期値と前記人工衛星の位置情報と前記座標変換行列とから係数を生成する段階と、前記係数と、前記観測ベクトルとから定められるパラメータ推定処理を実行することによって飛翔体位置を特定する段階とを含むことを特徴とする。 The present invention includes a step of photographing a flying object flying on the ground by at least two artificial satellites and transmitting it as photographed image data, and position information, velocity information of each artificial satellite by the at least two artificial satellites, Transmitting at least two pieces of image data transmitted from the at least two artificial satellites by a base station equipped with a receiving antenna, position information, velocity information, and Receiving the attitude information, and calculating the vertex angle and azimuth angle of each artificial satellite by analyzing at least two pieces of image data received by the antenna by the position analysis device in the base station; A flying object including the step of analyzing the position of the flying object using the apex angle and the azimuth angle, and the position information, velocity information, and attitude information of each artificial satellite. A method of generating an observation vector from an apex angle and an azimuth of each artificial satellite, and generating a coordinate transformation matrix based on position information, velocity information, and attitude information of each artificial satellite A step of generating a coefficient from the initial position value of the flying object, position information of the artificial satellite, and the coordinate transformation matrix when the initial position value of the flying object is X ref , the coefficient, the observation vector, And a step of specifying a flying object position by executing a parameter estimation process defined by:
また、本発明は、地上を飛翔する飛翔体を撮影可能な観測器と、撮影した画像データと各々の位置情報、速度情報、及び姿勢情報とを送信する送信器とを備えた少なくとも2機の人工衛星と、前記少なくとも2機の人工衛星より送信される少なくとも2枚の画像データと前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とを受信するためのアンテナと、前記アンテナにより受信した前記少なくとも2枚の画像データと前記各々の位置情報、速度情報、及び姿勢情報とに基づいて前記飛翔体の位置を解析する位置解析装置とを備えた基地局とで構成される飛翔体探知システムであって、前記位置解析装置は、前記少なくとも2枚の画像データを解析して前記各々の人工衛星の頂角及び方位角を算出する算出部と、前記各々の人工衛星の頂角及び方位角から観測ベクトルを生成する観測ベクトル生成部と、前記各々の人工衛星の位置情報、速度情報、及び姿勢情報に基づいて座標変換行列を生成する座標変換行列生成部と、飛翔体位置初期値をXrefとしたとき、前記飛翔体位置初期値と前記人工衛星の位置情報と前記座標変換行列とから係数を生成する係数生部と、前記係数と、前記観測ベクトルとから定められるパラメータ推定処理を実行するパラメータ推定処理部とを備えたことを特徴とする。 In addition, the present invention provides at least two apparatuses including an observer capable of photographing a flying object flying on the ground, and a transmitter that transmits the photographed image data and each position information, speed information, and posture information. An artificial satellite, an antenna for receiving at least two pieces of image data transmitted from the at least two artificial satellites, position information, velocity information, and attitude information of each artificial satellite; and reception by the antenna A flying object detection comprising: a base station comprising a position analysis device that analyzes the position of the flying object based on the at least two pieces of image data and the position information, velocity information, and attitude information of each of the image data In the system, the position analysis device analyzes the at least two pieces of image data to calculate a vertex angle and an azimuth angle of each artificial satellite, and each of the artificial satellites. An observation vector generation unit that generates an observation vector from an angle and an azimuth, a coordinate conversion matrix generation unit that generates a coordinate conversion matrix based on the position information, velocity information, and attitude information of each artificial satellite, and a flying object position When the initial value is X ref , a parameter defined by the coefficient generation unit that generates a coefficient from the initial position value of the flying object, the position information of the artificial satellite, and the coordinate transformation matrix, the coefficient, and the observation vector And a parameter estimation processing unit that executes the estimation process.
本発明にかかる飛翔体探知方法及びシステム等によれば、複数の人工衛星から送信されてくる複数の撮像データに写しだされた飛翔体を立体視的に解析することにより、従来技術に比べて正確に飛翔体の3次元位置を特定することができる。また、かかる撮像データを所定の時間間隔(Δt)で連続して受信及び解析等処理することにより、飛翔体の3次元位置のみならず速度ベクトルも推定することもでき、飛翔体の不慮の墜落や爆発といった事故に際しても、その飛翔体の墜落地点や着弾点を正確に予測することが可能となり、墜落地点や着弾点における被害を未然に防ぐ、ないし最小限に抑止することができる。 According to the flying object detection method and system and the like according to the present invention, the flying object shown in a plurality of imaging data transmitted from a plurality of artificial satellites is analyzed stereoscopically, compared with the prior art. The three-dimensional position of the flying object can be specified accurately. In addition, by continuously receiving and analyzing the imaging data at a predetermined time interval (Δt), it is possible to estimate not only the three-dimensional position of the flying object but also the velocity vector, so that the flying object may be accidentally dropped. In the event of an accident such as an explosion or explosion, it is possible to accurately predict the crash point and landing point of the flying object, and prevent or minimize the damage at the crash point and landing point.
以下、本発明にかかる飛翔体探知方法及びシステム等を実施するための形態について詳述する。 Hereinafter, embodiments for carrying out the flying object detection method and system according to the present invention will be described in detail.
[システム構成例]
図1に、本発明の一実施形態にかかる飛翔体探知システムの構成例を示す。システム100は、地球を周回する2機(ないし3機)の人工衛星101a〜人工衛星101b(101c)と、人工衛星101a〜人工衛星101b(101c)から送信される、目標とする飛翔体が撮影された画像データや各人工衛星自体の位置や姿勢等の各種データを受信するためのアンテナ103を備えた基地局102とからなる。基地局102内には、アンテナ103が受信した画像データ等を解析して目標とする飛翔体の位置を解析するための位置解析装置105が備えられており、アンテナ103と位置解析装置105とは有線信号線104で接続されている。なお、有線信号線104は、その一部又は全部を無線インタフェース(例えば、無線LANを含む)としてもよい。また、基地局102は建屋として説明したが、航空機、船舶、車両等の移動体であってもよい。あるいは小型のアンテナ103を搭載した携帯用の位置解析装置105を携行する形態であってもよい(この場合、アンテナ103を備えた位置解析装置105それ自体が基地局となる)。
[System configuration example]
FIG. 1 shows a configuration example of a flying object detection system according to an embodiment of the present invention. The system 100 captures images of target flying objects transmitted from two (or three) artificial satellites 101a to 101b (101c) and artificial satellites 101a to 101b (101c) that orbit the earth. And a base station 102 provided with an antenna 103 for receiving various data such as the image data and the position and orientation of each artificial satellite itself. The base station 102 is provided with a position analysis device 105 for analyzing the image data received by the antenna 103 and analyzing the position of the target flying object. The antenna 103 and the position analysis device 105 are They are connected by a wired signal line 104. Note that part or all of the wired signal line 104 may be a wireless interface (including a wireless LAN, for example). Further, although the base station 102 has been described as a building, it may be a moving body such as an aircraft, a ship, or a vehicle. Alternatively, a portable position analysis device 105 equipped with a small antenna 103 may be carried (in this case, the position analysis device 105 provided with the antenna 103 itself becomes a base station).
なお、人工衛星101a〜人工衛星101cには、地球表面を観測しその画像データを撮影する観測器(不図示)と、撮影した画像データと人工衛星自身の位置情報及び姿勢情報とを地球上の基地局に送信するための送信器(不図示)とが少なくとも備わっている。 The artificial satellite 101a to the artificial satellite 101c include an observer (not shown) for observing the surface of the earth and photographing the image data, and the captured image data and the position information and attitude information of the artificial satellite itself on the earth. At least a transmitter (not shown) for transmitting to the base station is provided.
図2に、位置解析装置105の本発明の一実施形態にかかる飛翔体探知システムにおける位置解析装置の構成例を示す。位置解析装置105は、地球を周回する2機ないし3機の人工衛星から送信される目標とする飛翔体が撮影された画像データと、人工衛星それ自体の位置及び姿勢等の各種データとを受信するためのアンテナ103及び受信部201と、有線若しくは無線インタフェース104を介して接続されている。 FIG. 2 shows a configuration example of the position analysis apparatus in the flying object detection system according to the embodiment of the present invention of the position analysis apparatus 105. The position analysis device 105 receives image data of a target flying object transmitted from two or three artificial satellites orbiting the earth and various data such as the position and attitude of the artificial satellite itself. The antenna 103 and the receiving unit 201 are connected via a wired or wireless interface 104.
また、位置解析装置105は、アンテナ103及び受信部201が受信した信号をデータとして装置本体に送信するための通信インタフェース1051と、プログラムによって様々な数値計算や論理演算、機器制御などを行う中央処理装置(CPU)1052と、RAM及び/又はROM等で構成されるメモリ1053と、磁気又は光学媒体等で構成される記憶ディスク1054とで構成されている。本発明の実施に必要なソフトウェア及び/又はプログラムは、通常、記憶ディスク1055にインストールないし記憶され、ソフトウェア及び/又はプログラムの実行時には、必要に応じてメモリ1053内のRAM等にその全部又は一部のソフトウェアモジュールが読み出され、CPU1052において演算実行される。 In addition, the position analysis device 105 includes a communication interface 1051 for transmitting signals received by the antenna 103 and the reception unit 201 to the device main body as data, and a central processing for performing various numerical calculations, logical operations, device control, and the like by a program A device (CPU) 1052, a memory 1053 configured with a RAM and / or a ROM, and a storage disk 1054 configured with a magnetic or optical medium or the like are included. The software and / or program necessary for implementing the present invention is normally installed or stored in the storage disk 1055, and when executing the software and / or program, all or a part thereof is stored in the RAM or the like in the memory 1053 as necessary. These software modules are read out and executed by the CPU 1052.
さらに、必要に応じて、特定の行列演算等を高速に処理するよう設計されたディジタルシグナルプロセッサ(DSP)1054、処理結果等を表示するためのディスプレイ装置等で構成される表示部1056、キーボード、マウス、ペン、OCR、光学又は磁気等のリーダ等からなる入力部1057を含むように構成してもよい。 Furthermore, if necessary, a display unit 1056 configured with a digital signal processor (DSP) 1054 designed to process a specific matrix operation or the like at high speed, a display device for displaying processing results, etc., a keyboard, You may comprise so that the input part 1057 which consists of readers, such as a mouse | mouth, a pen, OCR, optics, or a magnet, may be included.
なお、図2においては図示していないが、位置解析装置105内の各ユニットはバス等の信号線で適宜接続されている。また、位置解析装置105は、後述する本発明にかかる計算処理ないし論理演算処理を実行可能なプログラムをインストール可能であり、アンテナ103及び受信部201と適切に接続可能なインタフェースを備えたものであれば、汎用コンピュータないし携帯情報端末(携帯電話等通信機能を備えた機器を含む)等を位置解析装置105として用いることもできる。 Although not shown in FIG. 2, each unit in the position analysis device 105 is appropriately connected by a signal line such as a bus. Further, the position analysis device 105 can be installed with a program capable of executing calculation processing or logical operation processing according to the present invention, which will be described later, and has an interface that can be appropriately connected to the antenna 103 and the receiving unit 201. For example, a general-purpose computer or a portable information terminal (including a device having a communication function such as a cellular phone) can be used as the position analysis device 105.
また、本明細書においては、いくつかの実施例に基づいて本発明にかかる飛翔体探知方法及びシステム等を説明するが、数式等で例示したものを含めた計算及び演算の各々は、主として位置解析装置105とコンピュータプログラムとが協調動作して実行される演算処理によるものである。以下、本発明にかかる飛翔体探知方法及びシステム等が前提とする理論的技術的背景(例えば、衛星の軌道について、種々の座標系について等)を踏まえた実装上の処理について詳述する。 Further, in the present specification, the flying object detection method and system according to the present invention will be described based on some embodiments. However, each of calculations and operations including those exemplified by mathematical formulas are mainly positions. This is based on arithmetic processing executed by the analysis apparatus 105 and the computer program in cooperation. In the following, detailed description will be given of mounting processing based on the theoretical technical background (for example, various orbital systems for satellite orbits) on which the flying object detection method and system according to the present invention is premised.
図3に、本発明の一実施形態にかかる飛翔体探知方法及びシステムにおいて実施される人工衛星の構成(及び周回軌道例)を示す。地球表面を監視するための人工衛星は3機(Satellite1〜Satellite3)で構成されており、主として北半球を監視領域とした飛翔体探知システムとなっている。なお、図においては3機の人工衛星を用いているが、2機の人工衛星のみ(例えば、Satellite1及びSatellite2)を使用することも可能である。あるいは図3に示した3機の人工衛星のうちの2機を適宜切り替え選択して用いるように実施することも可能である。 FIG. 3 shows a configuration of an artificial satellite (and an example of a circular orbit) implemented in a flying object detection method and system according to an embodiment of the present invention. Artificial satellites for monitoring the earth's surface are composed of three aircraft (Satelite 1 to Satelite 3), which is a flying object detection system mainly using the northern hemisphere as a monitoring area. Although three artificial satellites are used in the figure, only two artificial satellites (for example, Satelite 1 and Satelite 2) can be used. Alternatively, two of the three artificial satellites shown in FIG. 3 can be appropriately switched and used.
Satellite1〜Satellite3までの3機それぞれの人工衛星の軌道は、離心率が0.075、軌道傾斜角が45度、昇交点赤経は120度ずつ、均等に配置されるものである。また、近点離角はいずれも270度となっている。 The orbits of each of the three satellites from Satelite 1 to Satelite 3 are equally arranged with an eccentricity of 0.075, an orbital inclination angle of 45 degrees, and an ascending intersection red longitude of 120 degrees. The near point separation angle is 270 degrees.
また、北半球を監視領域とするためには、北半球上空では(南半球に対して)相対的にゆっくりとした速度で飛翔するような軌道とすることが望ましい。これを踏まえて一実施形態においては、離心率0.75、近点離角270度にそれぞれ設定される。ここで、軌道傾斜角を45度に設定すると、人工衛星は緯度の高い日本上空なども飛翔するようになり、図4に示すように日本付近上空を飛翔している(図中ちょうど原点付近に衛星があるものとする)場合には北極点を越えた領域まで監視することが可能になる。 In order to set the northern hemisphere as a monitoring region, it is desirable that the trajectory fly at a relatively slow speed (relative to the southern hemisphere) over the northern hemisphere. Based on this, in one embodiment, the eccentricity is set to 0.75 and the near point separation angle is 270 degrees. Here, if the orbital inclination angle is set to 45 degrees, the artificial satellite also flies over Japan with high latitudes, etc., and flies over Japan as shown in FIG. In the case of a satellite), it is possible to monitor the area beyond the North Pole.
さらに、3機の人工衛星を使用して北半球を監視するためには、3機が順次北半球上空に飛来するように、互いの軌道の関係を調整する必要がある。この場合、一実施形態において、昇交点赤径は120度ずつ均等に配置されることが望ましい。 Furthermore, in order to monitor the northern hemisphere using three artificial satellites, it is necessary to adjust the relationship between each other's orbits so that the three aircraft sequentially fly over the northern hemisphere. In this case, in one embodiment, it is desirable that the ascending intersection red diameters are equally arranged by 120 degrees.
以上の条件を備えた構成によれば、3機の人工衛星のうちの2機によってステレオ視可能な範囲は、図3のハッチング部に示すとおりとなり広範である。 According to the configuration provided with the above conditions, the range that can be viewed in stereo by two of the three artificial satellites is as shown in the hatched portion of FIG. 3 and is wide.
[地球中心固定座標系定義]
次に、地球固定座標系(ECEF)について説明する。地球中心固定座標系(ECEF)とは、地球重心を原点とし、z軸は地球の地殻に固定された慣用地軸極を通り、x軸は赤道面と平均グリニッジ子午線との交点を通り、y軸はこれらのx、z軸と右手系をなすような座標系である。
[Earth center fixed coordinate system definition]
Next, the earth fixed coordinate system (ECEF) will be described. The Earth Center Fixed Coordinate System (ECEF) has the Earth's center of gravity as the origin, the z-axis passes through a conventional earth pole fixed to the earth's crust, the x-axis passes through the intersection of the equatorial plane and the average Greenwich meridian, and the y-axis Is a coordinate system that forms a right-handed system with these x and z axes.
[衛星機体座標系定義]
次に、図5に基づいて、衛星機体の座標系(S)について説明する。いま、地球固定座標系原点(図中に示したxyz座標の原点)から見た衛星の位置ベクトルを
とし、地球中心から見た飛翔体の位置ベクトルを
とし、飛翔体から衛星へのベクトルを
とする。このとき、rSと、衛星の位置ベクトルRSと、飛翔体の位置ベクトルR0との間には次式の関係がある。
[Satellite body coordinate system definition]
Next, the coordinate system (S) of the satellite aircraft will be described with reference to FIG. Now, the position vector of the satellite as seen from the origin of the earth fixed coordinate system (the origin of the xyz coordinates shown in the figure)
And the position vector of the flying object as seen from the center of the earth
And the vector from the flying object to the satellite
And At this time, the relationship of r S , the satellite position vector R S, and the flying object position vector R 0 is expressed by the following equation.
なお、衛星機体の太陽電池パネル方向の単位ベクトルは
衛星機体のセンサー軸方向の単位ベクトルは
YSとPSと右手系を成す単位ベクトルは
飛翔体頂角は
で表されている。
The unit vector in the direction of the solar battery panel of the satellite
The unit vector in the sensor axis direction of the satellite
The unit vector that forms the right-handed system with YS and PS is
The flying object apex angle is
It is represented by
[衛星軌道座標系定義]
次に、図6(a)に基づいて、衛星軌道座標系(O)について説明する。いま、図6(a)において示す位置に楕円軌道上を周回する衛星Sがあるとすると、衛星Sにおける軌道座標系(O)は、軌道面内で速度ベクトル方向の単位ベクトル
をx軸、上記速度ベクトル方向とそれに直交する軌道面外方向ベクトルに直交する単位ベクトル
をy軸、及びこれらのx、y軸と右手系をなす軸をz軸とする座標系となる。
[Satellite orbit coordinate system definition]
Next, the satellite orbit coordinate system (O) will be described with reference to FIG. If there is a satellite S that orbits the elliptical orbit at the position shown in FIG. 6A, the orbital coordinate system (O) in the satellite S is a unit vector in the velocity vector direction in the orbital plane.
Is the unit vector orthogonal to the x-axis, the velocity vector direction and the orbital out-of-plane direction vector orthogonal thereto
Is a coordinate system with the y-axis and the x- and y-axes and the axis that forms the right hand system as the z-axis.
[観測方程式の導出]
次に、図8に、2機の人工衛星に搭載された観測機器が同時に観測を行った場合の撮影画像の様子を示す。図8(a)は一方の人工衛星が撮影した地球の画像であり、図8(b)は他方の人工衛星が撮影した地球の画像である。図8(a)(b)における
は、飛翔体を示す。原理的にこの2枚の撮影画像データを解析することによって地球に対するステレオ視(立体視)が実現されている。ここで、図8(a)(b)に示された撮像データから直接得られる観測量は、画像中心からの角度(頂角)である
と、画像の縦横を基準にしたときの画像回転角(方位角)である
とからなる4つのパラメータである。このとき、図9に示すように、衛星機体座標系(S)から見た飛翔体位置は、これら2つの角度と、飛翔体から衛星へのベクトルrSとを用いて次式のとおり表される。
[Derivation of observation equations]
Next, FIG. 8 shows the state of a captured image when observation devices mounted on two artificial satellites simultaneously observe. FIG. 8A is an image of the earth taken by one artificial satellite, and FIG. 8B is an image of the earth taken by the other artificial satellite. 8 (a) and 8 (b)
Indicates a flying object. In principle, a stereo view (stereoscopic view) with respect to the earth is realized by analyzing the two photographed image data. Here, the observation amount directly obtained from the imaging data shown in FIGS. 8A and 8B is an angle (vertical angle) from the image center.
And the image rotation angle (azimuth angle) based on the vertical and horizontal directions of the image.
Are four parameters. At this time, as shown in FIG. 9, the position of the flying object viewed from the satellite body coordinate system (S) is expressed by the following equation using these two angles and the vector r S from the flying object to the satellite. The
ここで、ベクトルrSに付されている|Sは、そのベクトルの基底が衛星機体座標系(S)であることを意味する。 Here, | S attached to the vector r S means that the basis of the vector is the satellite body coordinate system (S).
そして、最終的に求めるべきベクトルは、地球の中心を原点とした地球中心固定座標系(ECEF)における飛翔体の3次元位置ベクトル
であるが、R0は、衛星機体座標系(S)から地球中心固定座標系(ECEF)への座標変換行列CS2ECEFと(式1)及び(式2)との関係より、各衛星の撮像画像における観測量
に基づいて、次式で示される観測方程式を解くことで求められる。
The vector to be finally obtained is the three-dimensional position vector of the flying object in the Earth Center Fixed Coordinate System (ECEF) with the center of the Earth as the origin.
However, R 0 is an image of each satellite based on the relationship between the coordinate transformation matrix C S2ECEF from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) and (Equation 1) and (Equation 2). Observables in images
Is obtained by solving the observation equation shown by the following equation.
<2衛星、衛星姿勢情報有の場合の座標系変換>
ここで、衛星機体座標系(S)から地球中心固定座標系(ECEF)への座標変換行列CS2ECEFは、図13に示されるように衛星軌道座標系(O)を介して行われる。
<Coordinate system conversion with 2 satellites and satellite attitude information>
Here, the coordinate transformation matrix C S2ECEF from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) is performed via the satellite orbit coordinate system (O) as shown in FIG.
各衛星の既知のロール姿勢角
ピッチ姿勢角
ヨー姿勢角
に基づく衛星機体座標系(S)から軌道座標系(O)への座標変換行列
及び各衛星の既知の3次元ベクトルRS(s=1,2)と速度ベクトルvS(s=1,2)に基づく軌道座標系(O)から地球中心固定座標系(ECEF)への座標変換行列
により衛星機体座標系(S)から地球中心固定座標系(ECEF)への座標変換行列CS2ECEFは次式のとおり決定される。
Known roll attitude angle for each satellite
Pitch attitude angle
Yaw attitude angle
Transformation matrix from satellite body coordinate system (S) to orbital coordinate system (O) based on
And coordinates from the orbital coordinate system (O) to the earth center fixed coordinate system (ECEF) based on the known three-dimensional vector R S (s = 1, 2) and velocity vector v S (s = 1, 2) of each satellite. Transformation matrix
Thus, a coordinate transformation matrix C S2ECEF from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) is determined as follows.
ここで、C1(θR)、C2(θP)、C3(θY)は、それぞれ、 Here, C 1 (θ R ), C 2 (θ P ), and C 3 (θ Y ) are respectively
・・・・・・(式6b)
・・・・・・(式6c)
で表される。
・ ・ ・ ・ ・ ・ (Formula 6b)
... (Formula 6c)
It is represented by
そして、CO2ECEFは、 And C O2ECEF is
で表され、es xO,es yO,es zOについては、それぞれ、
In expressed, e s xO, e s yO , for e s zO, respectively,
・・・・・・(式8b)
・・・・・・(式8c)
... (Formula 8b)
... (Formula 8c)
で表される。演算子×は、ベクトル積を意味する。 It is represented by The operator x means a vector product.
<2衛星、衛星姿勢情報有の場合の演算処理フロー>
さらに、上記理論と計算機の特性とをより具体的に踏まえた演算処理例について詳説する。すわなち、観測方程式(式3)は、非線形の方程式となっているため、演算解を得るためには、変数xに関するxref(飛翔体位置の初期値とする)周りの1次テイラー級数近似による線形化を行い、繰り返し演算処理を実行することで解を得ることが現実的である。
<Calculation process flow with 2 satellites and satellite attitude information>
Further, an example of arithmetic processing based on the above theory and the characteristics of the computer will be described in detail. In other words, since the observation equation (Equation 3) is a nonlinear equation, in order to obtain an operational solution, the first-order Taylor series around x ref (which is the initial value of the flying object position) for the variable x It is realistic to obtain a solution by performing linearization by approximation and repeatedly performing arithmetic processing.
[一般的な非線形方程式の解法]
いま、(式9a)に示されるような一般的な非線形方程式が与えられた場合、一次テイラー級数展開により近似を行うと(式9b)となり、(式9b)を変数xについて解くと(式9c)となる。変数xの具体的な計算は(式9d)に示されるように初期値xrefを与えて、繰り返し計算により、所定範囲に収束するまで行うことで求められる。
[Solution of general nonlinear equations]
Now, when a general nonlinear equation as shown in (Equation 9a) is given, when approximation is performed by first-order Taylor series expansion, (Equation 9b) is obtained, and when (Equation 9b) is solved for the variable x, (Equation 9c) ) The specific calculation of the variable x is obtained by giving an initial value x ref as shown in (Equation 9d) and performing iterative calculation until it converges to a predetermined range.
・・・・・・(式9b)
・・・・・・(式9c)
・・・・・・(式9d)
ここで、
... (Formula 9b)
... (Formula 9c)
... (Formula 9d)
here,
[飛翔体の位置算出アルゴリズム]
したがって、(式3)で表わされる非線形な観測方程式の解法を本発明にかかる飛翔体探知方法ないしシステムに適用した場合には、図16に示される処理フローとなる。以下、図16に基づいて説明する。
[Aircraft position calculation algorithm]
Therefore, when the solution of the nonlinear observation equation represented by (Equation 3) is applied to the flying object detection method or system according to the present invention, the processing flow shown in FIG. 16 is obtained. Hereinafter, a description will be given based on FIG.
まず、S1601において処理をスタートする。具体的には、衛星101a〜101cのうちの2機の衛星から得られる撮像画像から、観測量算出処理により飛翔体頂角及び方位角を求めるものである。すわなち、人工衛星より送信された撮像画像データは、アンテナ103及び受信部201により受信され、位置解析装置105内のCPU1052の制御により通信インタフェース1051を介してメモリ1053ないしディスク1055に記録され、撮像画像が解析処理されて飛翔体頂角及び方位角が求められる(S1602)。このとき、処理に必要なプログラムが、例えばディスク1055から適宜メモリ1053に読み込まれ実行される。併せて、各衛星の姿勢情報、速度情報、3次元位置情報が各衛星からそれぞれ送信されて、適宜アンテナ103及び受信部201により受信され位置解析装置105内に取り込まれる(S1605、S1606、S1607)。 First, processing is started in S1601. Specifically, the flying object apex angle and azimuth angle are obtained from the captured images obtained from two of the satellites 101a to 101c by observation amount calculation processing. In other words, the captured image data transmitted from the artificial satellite is received by the antenna 103 and the receiving unit 201 and recorded in the memory 1053 or the disk 1055 via the communication interface 1051 under the control of the CPU 1052 in the position analysis device 105. The captured image is analyzed and the flying object apex angle and azimuth angle are obtained (S1602). At this time, a program necessary for the processing is read from the disk 1055 to the memory 1053 as appropriate and executed. In addition, attitude information, velocity information, and three-dimensional position information of each satellite are transmitted from each satellite, received by the antenna 103 and the receiving unit 201 as appropriate, and taken into the position analysis device 105 (S1605, S1606, S1607). .
次に、S1603において、飛翔体頂角及び方位角から、次式で示される観測量算出処理により、観測ベクトルyを算出生成する(S1604)。 Next, in S1603, the observation vector y is calculated and generated from the flying object apex angle and azimuth by the observation amount calculation process represented by the following equation (S1604).
次に、S1608において、各衛星の位置、速度、姿勢角から式4,5,7に示した座標変換行列を算出する。 Next, in S1608, the coordinate transformation matrix shown in Equations 4, 5, and 7 is calculated from the position, velocity, and attitude angle of each satellite.
次に、飛翔体位置の初期値(上述の変数xに関するxref参照)を決定し(S1609)、上記座標変換行列(式4,5,7)と衛星の位置と飛翔体の初期値とから次式で示される各係数を算出する(S1610)。 Next, an initial value of the flying object position (see x ref related to the variable x described above) is determined (S1609), and the coordinate transformation matrix (Equations 4, 5, and 7), the position of the satellite, and the initial value of the flying object are determined. Each coefficient represented by the following equation is calculated (S1610).
・・・・・・(式11b)
・・・・・・(式11c)
... (Formula 11b)
... (Formula 11c)
次に、求めた係数を用いて次式を繰り返し計算することにより最終的に求める飛翔体の位置ベクトルが算出される。 Next, the position vector of the flying object finally obtained is calculated by repeatedly calculating the following equation using the obtained coefficient.
すなわち、S1611において(式12)に示されるパラメータ推定処理が実行されると、都度飛翔体位置が算出され(S1612)、この位置が予め定めた所定の範囲内かどうかが判断される(S1613)。所定の範囲内でなければ(S1613において、No)、S1610に戻り係数生成処理を行う。S1613において所定の範囲に入っていると判断されれば(Yes)、S1614に進み処理を終了する。 That is, when the parameter estimation process shown in (Equation 12) is executed in S1611, the flying object position is calculated each time (S1612), and it is determined whether this position is within a predetermined range (S1613). . If it is not within the predetermined range (No in S1613), the process returns to S1610 to perform coefficient generation processing. If it is determined in S1613 that it is within the predetermined range (Yes), the process proceeds to S1614 and the process is terminated.
なお、(式11c)に示した係数は関数f(・)のxによる偏微分であり、次式により導出される。 The coefficient shown in (Expression 11c) is a partial differentiation of the function f (•) by x, and is derived from the following expression.
ここで、L及びIは、それぞれ
Where L and I are
・・・・・・(式14b)
で表される。
... (Formula 14b)
It is represented by
[飛翔体の飛翔方向(速度)算出]
また、飛翔体の飛翔方向(速度)は、Δtを人工衛星に搭載された観測器における観測時間間隔としたとき、(式12)から求められる時刻tにおける飛翔体の位置ベクトル
と時刻t-Δtにおける飛翔体の位置ベクトル
とを用いて次式より算出される。
[Calculation of flying direction (speed) of flying object]
The flying direction (velocity) of the flying object is the position vector of the flying object at time t obtained from (Equation 12), where Δt is the observation time interval of the observation device mounted on the artificial satellite.
And the position vector of the flying object at time t-Δt
And is calculated from the following equation.
以上のように処理された結果、飛翔体が撮影された衛星画像(衛星写真)から飛翔体の位置及び速度方向(ベクトル)を特定することができる。 As a result of the processing as described above, the position and velocity direction (vector) of the flying object can be specified from the satellite image (satellite photograph) obtained by shooting the flying object.
実施例1においては、2機の人工衛星の観測時刻が「同時」であることを前提としたが、例えばカルマンフィルタのような動的な状態遷移を組み入れた推定アルゴリズムを用いると、次に示すように観測時刻は必ずしも「同時」である必要はない。以下に詳述する。 In the first embodiment, it is assumed that the observation times of two artificial satellites are “simultaneous”. However, when an estimation algorithm incorporating a dynamic state transition such as a Kalman filter is used, the following is shown. In addition, the observation times do not necessarily have to be “simultaneous”. This will be described in detail below.
一般的にカルマンフィルタは、観測更新及び時間伝播の2つの処理構成をとり、それぞれ次式にて表されるものである。
<観測更新処理>
In general, the Kalman filter has two processing configurations of observation update and time propagation, and each is represented by the following equation.
<Observation update processing>
ここで、f(・)は観測関数、xは状態変数、yは観測量、Pは状態変数の共分散行列、Rは観測量の分散、Hは観測関数の状態変数による偏微分である。また、下付き添え字iはそれがi番目の時刻におけるものであることを示し、上付き添え字は、−が更新前、+が更新後をそれぞれ意味する。 Here, f (•) is an observation function, x is a state variable, y is an observation amount, P is a covariance matrix of the state variable, R is a variance of the observation amount, and H is a partial differentiation of the observation function by the state variable. The subscript i indicates that it is at the i-th time, and the superscript indicates that “−” is before update and “+” is after update.
<時間伝播処理>
ここで、g(・)は時間伝播関数、Φiは状態変数xの状態遷移行列、Qは状態変数xのプロセスノイズである。 Here, g (•) is a time propagation function, Φ i is a state transition matrix of the state variable x, and Q is a process noise of the state variable x.
以上説明したカルマンフィルタを本発明にかかる飛翔体探知方法ないしシステムに適用した場合、観測関数f(・)、状態変数x、観測量y等の各要素は次のとおりとすればよい。 When the Kalman filter described above is applied to the flying object detection method or system according to the present invention, the elements such as the observation function f (•), the state variable x, and the observation amount y may be as follows.
・・・・・・(式18b)
・・・・・・(式18c)
・・・・・・(式18d)
・・・・・・(式18e)
・・・・・・(式18f)
・・・・・・(式18g)
・・・・・・(式18h)
... (Formula 18b)
... (Formula 18c)
... (Formula 18d)
・ ・ ・ ・ ・ ・ (Formula 18e)
... (Formula 18f)
・ ・ ・ ・ ・ ・ (Formula 18g)
・ ・ ・ ・ ・ ・ (Formula 18h)
実施例1及び実施例2においては、人工衛星の姿勢角が既知であることを前提にし、衛星機体座標系(S)から地球中心固定座標系(ECEF)までの座標変換を軌道座標系(O)を介して算出したが、本発明はこれに限定されない。すわなち、姿勢角が既知でない場合であっても本発明の実施は可能であり、例えば、代替的な座標系(後述のNED座標系など)を介して演算処理すればよい。 In the first and second embodiments, assuming that the attitude angle of the artificial satellite is known, coordinate transformation from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) is performed in the orbit coordinate system (O However, the present invention is not limited to this. In other words, even if the posture angle is not known, the present invention can be implemented, and for example, arithmetic processing may be performed via an alternative coordinate system (such as a NED coordinate system described later).
加えて、人工衛星の姿勢角が既知の場合であっても未知の場合であっても人工衛星の姿勢は精密に制御されている必要はなく、かかる人工衛星から撮影された画像に飛翔体が含まれていれば足りる。例えば、撮影された画像における地球は、必ずしもその中心が画面に収まっている必要はなく、例え地球の中心が撮影画像から大きくはみ出ていたとしても、画像処理によってその中心位置を推定演算可能である。このことは、人工衛星のロール角とピッチ角とが画像によって推定可能であることを意味している。 In addition, even if the attitude angle of the satellite is known or unknown, the attitude of the satellite does not need to be precisely controlled, and the flying object is not captured in the image taken from the satellite. It is enough if it is included. For example, the center of the image in the captured image does not necessarily need to be centered on the screen, and even if the center of the earth protrudes greatly from the captured image, the center position can be estimated and calculated by image processing. . This means that the roll angle and pitch angle of the artificial satellite can be estimated from the image.
また、例えば撮影画像は、地球の画像の一部が撮影されていれば回転していても良い。この場合、観測画像データと地図における地形データとのパターンマッチング処理技術によって、地球の北方向及び東方向を推定可能である。このことは、人工衛星のヨー角に相当する角度が画像によって推定可能であることを意味している。より詳細には、画像処理により地球中心及び地球の北方向、東方向を特定し、各衛星のロール角、ピッチ角、ヨー角に相当する
を推定できれば、衛星機体座標系(S)から地球中心固定座標系(ECEF)までの座標変換を、例えば図10に示すNED(North−east−down)座標系を介して演算すればよい。
For example, the captured image may be rotated as long as a part of the image of the earth is captured. In this case, the north direction and the east direction of the earth can be estimated by a pattern matching processing technique between the observed image data and the terrain data on the map. This means that the angle corresponding to the yaw angle of the artificial satellite can be estimated from the image. More specifically, the center of the earth and the north and east directions of the earth are specified by image processing and correspond to the roll angle, pitch angle, and yaw angle of each satellite.
Can be estimated, a coordinate transformation from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) may be calculated via a NED (North-east-down) coordinate system shown in FIG.
[NED座標系の定義及び地球中心固定座標系との関係]
図10において、地球中心Oを原点とするxyz座標系(ECEF座標系)において人工衛星Sが図に示した位置(x軸からz軸の周りに回転させた方位角λs,xy平面からの仰角θs)にあるとすると、NED座標系は衛星Sを原点とした3つの座標軸N,E,Dで表される。
[Definition of NED coordinate system and relationship with fixed center of earth]
In FIG. 10, the position of the artificial satellite S in the xyz coordinate system (ECEF coordinate system) with the earth center O as the origin (azimuth angle λ s rotated from the x axis around the z axis, from the xy plane) If it is at an elevation angle θ s ), the NED coordinate system is represented by three coordinate axes N, E, and D with the satellite S as the origin.
[撮像画像とNED座標系との関係]
次に、図11を用いて撮像画面におけるNED座標系と衛星ロール角、ピッチ角、ヨー角との関係を説明する。図中では、撮像画面の中心O1と地球の中心O2とは若干のずれを伴っている。そして、衛星機体座標系におけるピッチ軸
がO2を原点とする横座標(X軸)と一致し、衛星機体座標系におけるロール軸
がO2を原点とする縦座標(Y軸)と一致するものとする。
[Relationship between captured image and NED coordinate system]
Next, the relationship between the NED coordinate system on the imaging screen and the satellite roll angle, pitch angle, and yaw angle will be described with reference to FIG. In the drawing, the center O 1 of the imaging screen and the center O 2 of the earth are slightly shifted. And the pitch axis in the satellite body coordinate system
Matches the abscissa (X axis) with O 2 as the origin, and the roll axis in the satellite body coordinate system
Is coincident with the ordinate (Y axis) with O 2 as the origin.
また、NED座標系における東方向の軸をE、同座標系における北方向の軸をNとすると、
衛星のピッチ角は
衛星のロール角は
衛星のヨー角は
となる。図中右下に示した時計回りの矢印は、上記角度を定義するときの正の方向を示す。
Also, if the east axis in the NED coordinate system is E and the north axis in the coordinate system is N,
The pitch angle of the satellite
The roll angle of the satellite
The yaw angle of the satellite
It becomes. A clockwise arrow shown at the lower right in the figure indicates a positive direction when the angle is defined.
なお、図11においては全地球が画像に納まったものとして説明しているが、本発明はこれに限定されないことは上述したとおりである。地球の画像は一部分が納まっていればよく、地球の部分的な画像であっても地球の中心、北方向、東方向は推定可能である。 In FIG. 11, it is assumed that the whole earth is contained in the image, but as described above, the present invention is not limited to this. It is only necessary that a part of the image of the earth is accommodated, and the center, north direction, and east direction of the earth can be estimated even if the image is a partial image of the earth.
<2衛星、衛星姿勢情報無の場合の座標系変換>
衛星機体座標系(S)から地球中心固定座標系(ECEF)までの座標変換行列CS2ECEFは、図14に示されるようにNED座標系を介して行われる。
<2 satellites, coordinate system conversion without satellite attitude information>
The coordinate transformation matrix C S2ECEF from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) is performed via the NED coordinate system as shown in FIG.
衛星機体座標系(S)からNED座標系への座標変換行列
と、各衛星の既知の3次元位置ベクトル
に基づく、NED座標系から地球中心固定座標系(ECEF)までの座標変換行列CNED2ECEF(RS)により、衛星機体座標系(S)から地球中心固定座標系(ECEF)までの座標変換行列CS2ECEFは次のとおり決定される。
Coordinate transformation matrix from satellite body coordinate system (S) to NED coordinate system
And a known 3D position vector for each satellite
Based on the coordinate transformation matrix C NED2ECEF (R S ) from the NED coordinate system to the earth center fixed coordinate system (ECEF), the coordinate transformation matrix C from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) S2ECEF is determined as follows.
・・・・・・(式20b)
ここで、
.... (Formula 20b)
here,
・・・・・・(式21b)
・・・・・・(式21c)
・・・・・・(式21d)
である。なお、
... (Formula 21b)
... (Formula 21c)
... (Formula 21d)
It is. In addition,
・・・・・・(式22b)
となる。
... (Formula 22b)
It becomes.
<2衛星、衛星姿勢情報無の場合の演算処理フロー>
本実施例における具体的演算処理例について説明する。
<Calculation process flow for 2 satellites and no satellite attitude information>
A specific calculation processing example in this embodiment will be described.
[飛翔体の位置算出アルゴリズム]
次に、(式3)で表わされる非線形な観測方程式を現実的に演算処理することを踏まえた処理フローは、図17に示されるとおりである。以下、図17に基づいて説明する。
[Aircraft position calculation algorithm]
Next, FIG. 17 shows a processing flow based on the realistic calculation processing of the nonlinear observation equation represented by (Equation 3). Hereinafter, a description will be given with reference to FIG.
まず、S1701において処理をスタートする。具体的には、衛星101a〜101cのうちの2機の衛星から得られる撮像画像から、観測量算出処理により飛翔体頂角及び方位角を求めるものである。すわなち、送信された画像は、アンテナ103及び受信部201により受信されて位置解析装置105内のCPU1052の制御により通信インタフェース1051を介してメモリ1053ないしディスク1055に記録され、撮像画像が解析処理されて飛翔体頂角及び方位角が求められる(S1702)。このとき、処理に必要なプログラムが、例えばディスク1055から適宜メモリ1053に読み込まれ実行される。 First, processing is started in S1701. Specifically, the flying object apex angle and azimuth angle are obtained from the captured images obtained from two of the satellites 101a to 101c by observation amount calculation processing. In other words, the transmitted image is received by the antenna 103 and the receiving unit 201 and recorded in the memory 1053 or the disk 1055 via the communication interface 1051 under the control of the CPU 1052 in the position analysis device 105, and the captured image is analyzed. Thus, the flying object apex angle and azimuth angle are obtained (S1702). At this time, a program necessary for the processing is read from the disk 1055 to the memory 1053 as appropriate and executed.
次に、S1703において、飛翔体頂角及び方位角から、次式で示される観測量算出処理により、観測ベクトルyが算出生成される(S1704)。 Next, in S1703, an observation vector y is calculated and generated from the flying object apex angle and azimuth by an observation amount calculation process represented by the following equation (S1704).
次に、S1705において、撮像画像における地球表面の地形形状と、他の地図データにおける地形形状とをパターンマッチング処理技術により比較し、人工衛星自身の姿勢差(ロール角、ピッチ角、ヨー角)を算出する。これによって、2衛星のロール角、ピッチ角、ヨー角
が求められてメモリ1053に格納される(S1706)。
Next, in S1705, the terrain shape of the earth surface in the captured image is compared with the terrain shape in other map data by the pattern matching processing technique, and the attitude difference (roll angle, pitch angle, yaw angle) of the artificial satellite itself is calculated. calculate. As a result, the roll angle, pitch angle, and yaw angle of the two satellites
Is obtained and stored in the memory 1053 (S1706).
併せて、各衛星の速度情報及び3次元位置情報が各衛星からそれぞれ送信されて、適宜アンテナ103及び受信部201で受信して位置解析装置105内に取り込まれる(S1707、S1708)。 In addition, the velocity information and the three-dimensional position information of each satellite are transmitted from each satellite, and are appropriately received by the antenna 103 and the receiving unit 201 and taken into the position analysis device 105 (S1707, S1708).
次に、S1709において、各衛星の位置、速度、姿勢角から(式20a,20b,21d)に示した座標変換行列を算出する。 Next, in S1709, the coordinate transformation matrix shown in (Expressions 20a, 20b, 21d) is calculated from the position, velocity, and attitude angle of each satellite.
次に、飛翔体位置の初期値(上述の変数xに関するxref参照)を決定し(S1710)、上記座標変換行列(式20a,20b,21d)と衛星の位置と飛翔体の初期値とから次式で示される各係数を算出する(S1711)。 Next, an initial value of the flying object position (see x ref related to the variable x described above) is determined (S1710), and the coordinate transformation matrix (Equations 20a, 20b, 21d), the position of the satellite, and the initial value of the flying object are determined. Each coefficient indicated by the following equation is calculated (S1711).
・・・・・・(式24b)
・・・・・・(式24c)
... (Formula 24b)
... (Formula 24c)
次に、求めた係数を用いて次式を繰り返し計算することにより最終的に求める飛翔体の位置ベクトルが算出される。 Next, the position vector of the flying object finally obtained is calculated by repeatedly calculating the following equation using the obtained coefficient.
すなわち、S1712において(式25)に示されるパラメータ推定処理が実行されると、都度飛翔体位置が算出され(S1713)、この位置が予め定めた所定の範囲内かどうかが判断される(S1714)。所定の範囲内でなければ(S1714において、No)、S1711に戻り係数生成処理を行う。S1714において所定の範囲に入っていると判断されれば(Yes)、S1715に進み処理を終了する。 That is, when the parameter estimation process shown in (Equation 25) is executed in S1712, the flying object position is calculated each time (S1713), and it is determined whether this position is within a predetermined range (S1714). . If it is not within the predetermined range (No in S1714), the process returns to S1711 to perform coefficient generation processing. If it is determined in S1714 that it is within the predetermined range (Yes), the process proceeds to S1715 and the process is terminated.
[飛翔体の飛翔方向(速度)算出]
また、飛翔体の飛翔方向(速度)は、Δtを人工衛星に搭載された観測器における観測時間間隔としたとき、(式25)から求められる時刻tにおける飛翔体の位置ベクトル
と時刻t-Δtにおける飛翔体の位置ベクトル
とを用いて次式より算出される。
[Calculation of flying direction (speed) of flying object]
The flying direction (velocity) of the flying object is the position vector of the flying object at time t obtained from (Equation 25), where Δt is the observation time interval of the observation device mounted on the artificial satellite.
And the position vector of the flying object at time t-Δt
And is calculated from the following equation.
以上のように処理された結果、飛翔体が撮影された衛星画像(衛星写真)から飛翔体の位置及び速度方向(ベクトル)を特定することができる。 As a result of the processing as described above, the position and velocity direction (vector) of the flying object can be specified from the satellite image (satellite photograph) obtained by shooting the flying object.
実施例1〜実施例3においては、2機の人工衛星によって観測された2枚の画像データに対して上述したとおりのステレオ視(立体視)アルゴリズムを用いて飛翔体の3次元位置及び飛翔方向(速度)を算出する例について説明した。実施例4では、3機の人工衛星によって観測された3枚の画像データを用いて飛翔体の3次元位置及び飛翔方向(速度)を算出する方法等について説明する。 In the first to third embodiments, the three-dimensional position and flight direction of the flying object using the stereo vision (stereoscopic) algorithm as described above for two pieces of image data observed by two artificial satellites. An example of calculating (speed) has been described. In the fourth embodiment, a method for calculating a three-dimensional position and a flight direction (speed) of a flying object using three pieces of image data observed by three artificial satellites will be described.
3機の人工衛星を使用した場合の特徴の1つは、人工衛星のヨー軸周りのヨー角姿勢
も同時に推定できることである。そのため、人工衛星のロール角、ピッチ角、ヨー角姿勢が未知な場合、あるいは画像パターンマッチングを正確に行えずに北方向ないし東方向を正確に把握できない場合であっても、地球の中心さえ撮影画像から推定できれば対象とする飛翔体の3次元位置を特定することができる。図12は、これら3機の人工衛星に搭載されている観測機器から観測された画像データを示している。
One of the characteristics when using three satellites is the yaw angle attitude around the yaw axis of the satellite.
Can also be estimated at the same time. Therefore, even if the roll angle, pitch angle, and yaw angle attitude of the satellite are unknown, or even if the center of the earth cannot be accurately grasped without accurately performing image pattern matching, the center of the earth is photographed. If it can be estimated from the image, the three-dimensional position of the target flying object can be specified. FIG. 12 shows image data observed from the observation equipment mounted on these three artificial satellites.
この場合、直接的に得られる観測量は、撮影画像中心からの角度(頂角)である
と、画像の縦横を基準にしたときの画像回転角(方位角)である
とからなる6つのパラメータである。
In this case, the directly obtained observation amount is an angle (vertical angle) from the center of the captured image.
And the image rotation angle (azimuth angle) based on the vertical and horizontal directions of the image.
Are six parameters.
このとき、対象となる飛翔体の3次元位置
は、2機の人工衛星の場合でも説明したように、衛星機体座標系(S)から地球中心固定座標系(ECEF)への座標変換行列CS2ECEFと前述(式1)及び(式2)との関係から、各衛星の撮像画面での観測量
との間の下記の関係を導くことができる。
At this time, the three-dimensional position of the target flying object
As described in the case of two artificial satellites, the coordinate transformation matrix C S2ECEF from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) and the above (formula 1) and (formula 2) Therefore, the amount of observation on the imaging screen of each satellite
The following relationship can be derived:
そして、3機の人工衛星を使用し、人工衛星のヨー軸周りのヨー角姿勢も推定する場合は、衛星機体座標系(S)から地球中心固定座標系(ECEF)への座標変換は地心方向軌道座標系(EDO)を経由して行う。 When three artificial satellites are used and the yaw angle attitude around the yaw axis of the artificial satellite is estimated, the coordinate conversion from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) This is done via the directional orbit coordinate system (EDO).
[衛星の地心方向軌道座標系(EDO)の定義]
まず、図6(b)に基づいて、衛星軌道座標系(O)と衛星の地心方向軌道座標系(EDO)との関係から地心方向軌道座標系(EDO)について説明する。一般に、衛星軌道の離心率はゼロでは無い(すなわち衛星軌道は真円では無い)ので、衛星軌道座標系(O)と衛星の地心方向軌道座標系(EDO)とは異なるものとなる。
[Definition of satellite orbital coordinate system (EDO)]
First, the geocentric orbit coordinate system (EDO) will be described based on the relationship between the satellite orbit coordinate system (O) and the satellite's geocentric orbit coordinate system (EDO) based on FIG. Generally, since the eccentricity of the satellite orbit is not zero (that is, the satellite orbit is not a perfect circle), the satellite orbit coordinate system (O) and the satellite's geocentric orbit coordinate system (EDO) are different.
いま、図6(b)において示す位置に楕円軌道上を周回する衛星Sがあるとすると、軌道座標系(O)における衛星Sは、軌道面内で速度ベクトル方向の単位ベクトル
と、上記速度ベクトル方向とそれに直交する面外方向ベクトルに直交する単位ベクトル
とで表される。一方で、地心方向軌道座標系(EDO)における衛星Sは、地心方向の単位ベクトル
と、地心方向に直交し、軌道面内にある単位ベクトル
とで表される。
Now, assuming that there is a satellite S orbiting the elliptical orbit at the position shown in FIG. 6B, the satellite S in the orbital coordinate system (O) is a unit vector in the velocity vector direction in the orbital plane.
And the unit vector orthogonal to the velocity vector direction and the out-of-plane direction vector orthogonal to the direction
It is expressed as On the other hand, the satellite S in the geocentric orbit coordinate system (EDO) is a unit vector in the geocentric direction.
And a unit vector perpendicular to the geocentric direction and in the orbital plane
It is expressed as
[撮像画像と地心方向軌道座標系(EDO)との関係]
次に、図7に撮像画像と地心方向軌道座標系(EDO)との関係を示す。いま、図中の矩形外枠が撮像画面の外枠であったとすると、その撮像画面の中心O1と地球の中心O2とは若干のずれを伴っている。そして、衛星機体座標系におけるピッチ軸
がO2を原点とする横座標(X軸)と一致し、衛星機体座標系におけるロール軸
がO2を原点とする縦座標(Y軸)と一致するものとし、地心方向に直交し、軌道面内にあるベクトル方向のRS−PS平面への射影された単位ベクトルを
とし、xEDO,zEDOと右手系を成す単位ベクトル方向のRS−PS平面への射影された単位ベクトルを
とすれば、
衛星のピッチ角は
衛星のロール角は
衛星のヨー角は
となる。なお、図中右下に示した時計回りの矢印は、上記角度を定義するときの正の方向を示す。
[Relationship between captured image and geocentric orbit coordinate system (EDO)]
Next, FIG. 7 shows the relationship between the captured image and the geocentric orbit coordinate system (EDO). Now, if the rectangular outer frame in the figure is the outer frame of the imaging screen, the center O 1 of the imaging screen is slightly shifted from the center O 2 of the earth. And the pitch axis in the satellite body coordinate system
Matches the abscissa (X axis) with O 2 as the origin, and the roll axis in the satellite body coordinate system
Is the same as the ordinate (Y axis) with O 2 as the origin, and the unit vector projected onto the RS-PS plane in the vector direction perpendicular to the geocentric direction and in the orbital plane is
And the unit vector projected onto the RS-PS plane in the unit vector direction forming the right-handed system with xEDO and zEDO
given that,
The pitch angle of the satellite
The roll angle of the satellite
The yaw angle of the satellite
It becomes. In addition, the clockwise arrow shown at the lower right in the figure indicates a positive direction when the angle is defined.
<3衛星の場合の座標系変換>
衛星機体座標系(S)から地球中心固定座標系(ECEF)への座標変換行列CS2ECEFは、図15に示されるように地心方向軌道座標系を介して行われる。
<Coordinate system conversion for 3 satellites>
The coordinate transformation matrix C S2ECEF from the satellite body coordinate system (S) to the earth center fixed coordinate system (ECEF) is performed via the geocentric orbit coordinate system as shown in FIG.
衛星機体座標系(S)から地心方向軌道座標系(EDO)への座標変換行列CS2EDOと、地心方向軌道座標系(EDO)から地球中心固定座標系(ECEF)への座標変換行列CEDO2ECEFとから次式で表される。 Coordinate transformation matrix C S2EDO from satellite body coordinate system (S) to geocentric orbit coordinate system (EDO) and coordinate transformation matrix C from geocentric orbit coordinate system (EDO) to earth center fixed coordinate system (ECEF) It is expressed by the following formula from EDO2ECEF .
・・・・・・(式34b)
ここで、
・・・・・・(式34c)
・・・・・・(式34d)
・・・・・・(式34e)
である。
... (Formula 34b)
here,
... (Formula 34c)
... (Formula 34d)
... (Formula 34e)
It is.
また、衛星機体座標系(S)から地心方向軌道座標系(EDO)への座標変換行列CS2EDOは、画像から地球中心を推定することで得られる各衛星のロール角、ピッチ角
と、推定パラメータとして扱うヨー角
とに基づき、各軸周りの回転行列を用いて次式で表される。
The coordinate transformation matrix C S2EDO from the satellite body coordinate system (S) to the geocentric orbit coordinate system (EDO) is the roll angle and pitch angle of each satellite obtained by estimating the earth center from the image.
And the yaw angle treated as an estimated parameter
Based on the above, it is expressed by the following equation using a rotation matrix around each axis.
ここで、
here,
・・・・・・(式36b)
・・・・・・(式36c)
である。
... (Formula 36b)
... (Formula 36c)
It is.
[観測方程式の導出]
以上より、3衛星のステレオ視(立体視)により、各衛星のヨー軸も推定する場合には、次式で示される観測方程式を解くことで
飛翔体の3次元位置
及び各衛星のヨー軸
を算出することができる。
[Derivation of observation equations]
From the above, when estimating the yaw axis of each satellite by stereo viewing (stereoscopic viewing) of the three satellites, the observation equation shown below is solved.
3D position of the flying object
And the yaw axis of each satellite
Can be calculated.
<3衛星の場合の演算処理フロー>
本実施例における具体的演算処理例について説明する。
<Calculation processing flow for 3 satellites>
A specific calculation processing example in this embodiment will be described.
[飛翔体の位置算出アルゴリズム]
次に、(式37)で表わされる非線形な観測方程式を現実的に演算処理することを踏まえた処理フローは、図18に示されるとおりである。以下、図18に基づいて説明する。
[Aircraft position calculation algorithm]
Next, the processing flow based on the realistic processing of the nonlinear observation equation represented by (Equation 37) is as shown in FIG. Hereinafter, a description will be given based on FIG.
まず、S1801において処理をスタートするが、具体的には、衛星101a〜101cの3機の衛星から得られる撮像画像から、観測量算出処理により飛翔体頂角及び方位角が求められる。すわなち、送信された画像は、アンテナ103及び受信部201により受信され位置解析装置105内のCPU1052の制御により通信インタフェース1051を介してメモリ1053ないしディスク1055に記録され、撮像画像が解析処理されて飛翔体頂角及び方位角が求められる(S1802)。このとき、処理に必要なプログラムが、例えばディスク1055から適宜メモリ1053に読み込まれ実行される。 First, the process is started in S1801. Specifically, the flying object apex angle and azimuth angle are obtained by the observation amount calculation process from the captured images obtained from the three satellites 101a to 101c. In other words, the transmitted image is received by the antenna 103 and the receiving unit 201 and recorded in the memory 1053 or the disk 1055 via the communication interface 1051 under the control of the CPU 1052 in the position analysis device 105, and the captured image is analyzed. Thus, the flying object apex angle and azimuth angle are obtained (S1802). At this time, a program necessary for the processing is read from the disk 1055 to the memory 1053 as appropriate and executed.
次に、S1803において、飛翔体頂角及び方位角から、次式で示される観測量算出処理により、観測ベクトルyが算出生成される(S1804)。
次に、S1805において、撮像画像における地球表面の地形形状と、他の地図データにおける地形形状とをパターンマッチング処理技術により比較し、人工衛星自身の姿勢差(ロール角、ピッチ角)を算出する。これによって、3衛星のロール角、ピッチ角
が求められてメモリ1053に格納される(S1806)。
Next, in S1805, the terrain shape of the earth surface in the captured image is compared with the terrain shape in other map data using a pattern matching processing technique, and the attitude difference (roll angle, pitch angle) of the artificial satellite itself is calculated. As a result, the roll angle and pitch angle of the three satellites
Is obtained and stored in the memory 1053 (S1806).
併せて、各衛星の速度情報、3次元位置情報が各衛星からそれぞれ送信されて、適宜アンテナ103及び受信部201で受信して位置解析装置105内に取り込まれる(S1807、S1808)。 In addition, speed information and three-dimensional position information of each satellite are transmitted from each satellite, and are appropriately received by the antenna 103 and the receiving unit 201 and taken into the position analysis apparatus 105 (S1807, S1808).
次に、S1809において、各衛星の位置、速度、姿勢角から(式34b,36b,36c)に示した座標変換行列を算出する。 Next, in S1809, the coordinate transformation matrix shown in (Expressions 34b, 36b, 36c) is calculated from the position, velocity, and attitude angle of each satellite.
次に、飛翔体位置の初期値(上述の変数xに関するxref参照)を決定し(S1810)、上記座標変換行列(式34b,36b,36c)と衛星の位置と飛翔体の初期値とから次式で示される各係数を算出する(S1811)。
・・(式40b)
・・・・・・(式40c)
・・・(式40d)
・・(式40e)
Next, an initial value of the flying object position (see x ref related to the variable x described above) is determined (S1810), and the coordinate transformation matrix (Equations 34b, 36b, 36c), the position of the satellite, and the initial value of the flying object are determined. Each coefficient indicated by the following equation is calculated (S1811).
.. (Formula 40b)
・ ・ ・ ・ ・ ・ (Formula 40c)
... (Formula 40d)
.. (Formula 40e)
以上求めた係数を用いて次式を繰り返し計算することにより最終的に求める飛翔体の位置ベクトルが算出される。 The position vector of the flying object finally obtained is calculated by repeatedly calculating the following equation using the obtained coefficient.
すなわち、S1812において(式41)に示されるパラメータ推定処理が実行されると、都度飛翔体位置及び衛星姿勢が算出され(S1813)、この位置が予め定めた所定の範囲内かどうかが判断される(S1814)。所定の範囲内でなければ(S1814において、No)、S1811に戻り係数生成処理を行う。S1814において所定の範囲に入っていると判断されれば(Yes)、S1815に進み処理を終了する。 That is, when the parameter estimation process shown in (Equation 41) is executed in S1812, the flying object position and satellite attitude are calculated each time (S1813), and it is determined whether this position is within a predetermined range. (S1814). If it is not within the predetermined range (No in S1814), the process returns to S1811 to perform coefficient generation processing. If it is determined in S1814 that it is within the predetermined range (Yes), the process proceeds to S1815 and the process is terminated.
なお、(式40c、40d、40e)に示した係数は関数f(・)の推定パラメータである飛翔体の3次元位置
による偏微分、及び各衛星のヨー軸
による偏微分であり、次式により導出される。
The coefficients shown in (Equations 40c, 40d, 40e) are the three-dimensional position of the flying object which is the estimation parameter of the function f (•).
By partial differential and yaw axis of each satellite
And is derived from the following equation.
ここで、
here,
であり、
And
・・・(式45b)
・・・(式45c)
である。また、
... (Formula 45b)
... (Formula 45c)
It is. Also,
である。
It is.
[飛翔体の飛翔方向(速度)算出]
また、飛翔体の飛翔方向(速度)は、Δtを人工衛星に搭載された観測器における観測時間間隔としたとき、(式41)から求められる時刻tにおける飛翔体の位置ベクトル
と時刻t-Δtにおける飛翔体の位置ベクトル
とを用いて次式より算出される。
[Calculation of flying direction (speed) of flying object]
The flying direction (velocity) of the flying object is the position vector of the flying object at time t obtained from (Equation 41), where Δt is the observation time interval of the observation device mounted on the artificial satellite.
And the position vector of the flying object at time t-Δt
And is calculated from the following equation.
以上のとおり、2機の人工衛星より撮影された画像から飛翔体の位置及び速度ベクトルを特定可能であるとともに(実施例1〜実施例3)、3機の人工衛星より撮影された画像を使用すれば、さらにヨー角姿勢を推定することが可能となる(実施例4)。 As described above, the position and velocity vector of the flying object can be specified from images taken from two artificial satellites (Examples 1 to 3), and images taken from three artificial satellites are used. Then, it becomes possible to further estimate the yaw angle posture (Example 4).
また、本発明は必ずしも図1に示したシステム全体として構成してはじめて完成し得るものではなく、2機ないし3機の人工衛星が撮影した画像(及び必要であれば撮影した人工衛星の位置情報等)データのみを使用し、対象とする飛翔体の3位次元位置及び速度ベクトルの特定を行うプログラムないしかかるプログラムが実行されるコンピュータという構成をとることもできる。 In addition, the present invention is not necessarily completed only when the entire system shown in FIG. 1 is configured. Images taken by two or three artificial satellites (and, if necessary, positional information of the artificial satellites taken). Etc.) It is also possible to use a program that uses only data and specifies the three-dimensional position and velocity vector of the target flying object, or a computer that executes such a program.
なお、念のために申し添えておくが、特許請求の範囲、明細書、要約書、図面に記載された全ての技術的要素、ならびに、方法ないし処理ステップは、これら要素及び/又はステップの少なくとも一部が相互に排他的となる組み合わせを除く任意の組み合わせによって本発明にかかる方法及びシステムならびにプログラムの構成要素となりうる。 It should be noted that all technical elements and methods or processing steps described in the claims, the description, the abstract, the drawings, and the method or processing step are at least of these elements and / or steps. Arbitrary combinations other than combinations that are mutually exclusive can be components of the method, system, and program according to the present invention.
なお、本発明は、上述した実施形態のいずれの個別具体的な詳細記載に制限されることはない。さらに、本発明の技術的範囲は、上述の説明のみによってではなく、特許請求の範囲の記載によってその外延が特定されるものであり、特許請求の範囲と均等となる置換ないし変更も本発明の技術的範囲となるものである。 In addition, this invention is not restrict | limited to any individual specific detailed description of embodiment mentioned above. Further, the technical scope of the present invention is not limited only to the above description, but the extension thereof is specified by the description of the scope of claims, and substitutions or modifications equivalent to the scope of the claims are also included in the scope of the present invention. It is within the technical scope.
100 飛翔体探知システム
101a〜c 人工衛星
102 基地局
103 アンテナ
104 信号線
105 位置解析装置
201 受信部
1051 通信インタフェース
1052 CPU
1053 メモリ
1054 DSP
1055 ディスク
1056 表示部
1057 入力部
DESCRIPTION OF SYMBOLS 100 Flying object detection system 101a-c Artificial satellite 102 Base station 103 Antenna 104 Signal line 105 Position analysis apparatus 201 Reception part 1051 Communication interface 1052 CPU
1053 Memory 1054 DSP
1055 Disc 1056 Display unit 1057 Input unit
Claims (8)
前記少なくとも2機の人工衛星による、各々の人工衛星の位置情報、速度情報、及び姿勢情報を送信する段階と、
受信アンテナを備えた基地局による、前記少なくとも2機の人工衛星より送信される少なくとも2枚の画像データと、前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とを受信する段階と、
前記基地局における位置解析装置による、前記アンテナにより受信した少なくとも2枚の画像データを解析して前記各々の人工衛星の頂角及び方位角を算出する段階と、
前記頂角及び方位角と、前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とを用いて前記飛翔体の位置を解析する段階と
を含む飛翔体探知方法であって、
前記各々の人工衛星の頂角及び方位角をそれぞれ
としたとき、次式によって定義される観測ベクトルyを生成し、
一方で、前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とから次式に基づいて座標変換行列を生成し、
一方で、飛翔体位置初期値をXrefとしたとき、
前記飛翔体位置初期値と前記人工衛星の位置情報と前記座標変換行列(式4)、(式5)、(式7)とから次式で定められる係数を生成し、
さらに、前記(式11a)〜(式11c)により定められる係数と、前記観測ベクトルyとから次式で定められるパラメータ推定処理
を実行することによって飛翔体位置を特定する
ことを特徴とする方法。 Photographing at least two artificial satellites flying on the ground and transmitting them as photographed image data;
Transmitting the position information, velocity information, and attitude information of each satellite by the at least two satellites;
Receiving at least two pieces of image data transmitted from the at least two artificial satellites, and positional information, velocity information, and attitude information of each of the artificial satellites by a base station equipped with a receiving antenna;
Analyzing the at least two pieces of image data received by the antenna by the position analysis device in the base station and calculating the apex angle and azimuth angle of each artificial satellite;
A flying object detection method including the step of analyzing the position of the flying object using the apex angle and the azimuth angle, and the position information, velocity information, and attitude information of each of the artificial satellites,
The apex angle and azimuth angle of each artificial satellite
And generate an observation vector y defined by the following equation:
On the other hand, a coordinate transformation matrix is generated based on the following expression from the position information, velocity information, and attitude information of each artificial satellite,
On the other hand, when the initial position of the flying object is X ref ,
A coefficient defined by the following equation is generated from the initial position value of the flying object, the position information of the artificial satellite, and the coordinate transformation matrix (Equation 4), (Equation 5), and (Equation 7).
Further, a parameter estimation process defined by the following equation from the coefficient defined by the (expression 11a) to (expression 11c) and the observation vector y:
A method characterized by specifying a flying object position by executing
前記少なくとも2機の人工衛星より送信される少なくとも2枚の画像データと前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とを受信するためのアンテナと、前記アンテナにより受信した前記少なくとも2枚の画像データと前記各々の位置情報、速度情報、及び姿勢情報とに基づいて前記飛翔体の位置を解析する位置解析装置とを備えた基地局と
で構成される飛翔体探知システムであって、
前記位置解析装置は、
前記少なくとも2枚の画像データを解析して前記各々の人工衛星の頂角及び方位角を算出する算出部と、
前記各々の人工衛星の頂角及び方位角をそれぞれ
としたとき、次式によって定義される観測ベクトル
を生成する観測ベクトル生成部と、
前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とから次式に基づいて座標変換行列
を生成する座標変換行列生成部と、
飛翔体位置初期値をXrefとしたとき、
前記飛翔体位置初期値と前記人工衛星の位置情報と前記座標変換行列(式4)、(式5)、(式7)とから次式で定められる係数
を生成する係数生成部と、
前記(式11a)〜(式11c)により定められる係数と、前記観測ベクトルyとから次式で定められるパラメータ推定処理
を実行するパラメータ推定処理部と
を備えたことを特徴とするシステム。 At least two artificial satellites comprising an observation device capable of photographing a flying object flying on the ground, and a transmitter that transmits the photographed image data and position information, velocity information, and attitude information of each of the photographed image data;
An antenna for receiving at least two pieces of image data transmitted from the at least two satellites and position information, velocity information, and attitude information of each of the satellites; and at least the two received by the antennas A flying object detection system comprising a base station including a piece of image data and a position analysis device that analyzes the position of the flying object based on each position information, velocity information, and attitude information. ,
The position analysis device
A calculation unit for analyzing the at least two pieces of image data and calculating an apex angle and an azimuth angle of each artificial satellite;
The apex angle and azimuth angle of each artificial satellite
The observation vector defined by
An observation vector generation unit for generating
A coordinate transformation matrix based on the following equation from the position information, velocity information, and attitude information of each artificial satellite
A coordinate transformation matrix generation unit for generating
When the initial position of the flying object is X ref
A coefficient defined by the following equation from the initial position value of the flying object, position information of the artificial satellite, and the coordinate transformation matrix (Equation 4), (Equation 5), and (Equation 7)
A coefficient generation unit for generating
A parameter estimation process defined by the following equation from the coefficient defined by the (expression 11a) to (expression 11c) and the observation vector y:
And a parameter estimation processing unit for executing the above.
前記少なくとも2機の人工衛星より送信される少なくとも2枚の画像データと前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とを受信するためのアンテナと、前記アンテナにより受信した少なくとも2枚の画像データと前記各々の位置情報、速度情報、及び姿勢情報とに基づいて前記飛翔体の位置を解析する位置解析装置とを備えた基地局と
で構成される飛翔体探知システムにおける位置解析装置であって、
前記少なくとも2枚の画像データを解析して前記各々の人工衛星の頂角及び方位角を算出する算出部と、
前記各々の人工衛星の頂角及び方位角をそれぞれ
としたとき、次式によって定義される観測ベクトル
を生成する観測ベクトル生成部と、
前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とから次式に基づいて座標変換行列
を生成する座標変換行列生成部と、
飛翔体位置初期値をXrefとしたとき、
前記飛翔体位置初期値と前記人工衛星の位置情報と前記座標変換行列(式4)、(式5)、(7)とから次式で定められる係数
を生成する係数生成部と、
前記(式11a)〜(式11c)により定められる係数と、前記観測ベクトルyとから次式で定められるパラメータ推定処理
を実行するパラメータ推定処理部と
を備えたことを特徴とする装置。 At least two artificial satellites equipped with an observer capable of capturing a flying object flying on the ground, and a transmitter for transmitting the captured image data and each position information, velocity information, and attitude information;
An antenna for receiving at least two pieces of image data transmitted from the at least two artificial satellites and position information, velocity information, and attitude information of each of the artificial satellites, and at least two pieces received by the antennas Position analysis apparatus in a flying object detection system comprising a base station provided with a position analysis apparatus that analyzes the position of the flying object based on the image data of the image and each position information, velocity information, and attitude information Because
A calculation unit for analyzing the at least two pieces of image data and calculating an apex angle and an azimuth angle of each artificial satellite;
The apex angle and azimuth angle of each artificial satellite
The observation vector defined by
An observation vector generation unit for generating
A coordinate transformation matrix based on the following equation from the position information, velocity information, and attitude information of each artificial satellite
A coordinate transformation matrix generation unit for generating
When the initial position of the flying object is X ref
A coefficient defined by the following equation from the initial position value of the flying object, the position information of the artificial satellite, and the coordinate transformation matrix (Equation 4), (Equation 5), (7)
A coefficient generation unit for generating
A parameter estimation process defined by the following equation from the coefficient defined by the (expression 11a) to (expression 11c) and the observation vector y:
And a parameter estimation processing unit for executing the above.
前記少なくとも2機の人工衛星より送信される少なくとも2枚の画像データと前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とを受信するためのアンテナと、前記アンテナにより受信した前記少なくとも2枚の画像データと前記各々の位置情報、速度情報、及び姿勢情報とに基づいて前記飛翔体の位置を解析する位置解析装置とを備えた基地局と
で構成される飛翔体探知システムの位置解析装置において実行されるコンピュータプログラムであって、
前記少なくとも2枚の画像データを解析して前記各々の人工衛星の頂角及び方位角を算出する算出ステップと、
前記各々の人工衛星の頂角及び方位角をそれぞれ
としたとき、次式によって定義される観測ベクトル
を生成する観測ベクトル生成ステップと、
前記各々の人工衛星の位置情報、速度情報、及び姿勢情報とから次式に基づいて座標変換行列
を生成する座標変換行列生成ステップと、
飛翔体位置初期値をXrefとしたとき、
前記飛翔体位置初期値と前記人工衛星の位置情報と前記座標変換行列(式4)、(式5)、(式7)とから次式で定められる係数
を生成する係数生成ステップと、
前記(式11a)〜(式11c)により定められる係数と、前記観測ベクトルyとから次式で定められるパラメータ推定処理
を実行するパラメータ推定処理ステップと
を備えたことを特徴とするコンピュータプログラム。 At least two artificial satellites comprising an observation device capable of photographing a flying object flying on the ground, and a transmitter that transmits the photographed image data and position information, velocity information, and attitude information of each of the photographed image data;
An antenna for receiving at least two pieces of image data transmitted from the at least two satellites and position information, velocity information, and attitude information of each of the satellites; and at least the two received by the antennas Position analysis of a flying object detection system comprising a base station including a piece of image data and a position analysis device that analyzes the position of the flying object based on the position information, velocity information, and attitude information of each A computer program executed in an apparatus,
A calculation step of analyzing the at least two pieces of image data and calculating an apex angle and an azimuth angle of each artificial satellite;
The apex angle and azimuth angle of each artificial satellite
The observation vector defined by
An observation vector generation step for generating
A coordinate transformation matrix based on the following equation from the position information, velocity information, and attitude information of each artificial satellite
A coordinate transformation matrix generation step for generating
When the initial position of the flying object is X ref
A coefficient defined by the following equation from the initial position value of the flying object, position information of the artificial satellite, and the coordinate transformation matrix (Equation 4), (Equation 5), and (Equation 7)
A coefficient generation step for generating
A parameter estimation process defined by the following equation from the coefficient defined by the (expression 11a) to (expression 11c) and the observation vector y:
A computer program comprising: a parameter estimation processing step for executing
と時刻t-Δtにおける飛翔体の位置ベクトル
とを用いて次式
により前記飛翔体の速度ベクトルを算出する段階をさらに含む請求項1記載の方法。 When Δt is the observation time interval of the observation device mounted on the artificial satellite, the position vector of the flying object at time t obtained from (Equation 12)
And the position vector of the flying object at time t-Δt
And use
The method of claim 1, further comprising the step of calculating a velocity vector of the flying object by.
と時刻t-Δtにおける飛翔体の位置ベクトル
とを用いて次式
により前記飛翔体の速度ベクトルを算出する速度ベクトル算出部をさらに備えたことを特徴とする請求項2記載のシステム。 When Δt is the observation time interval of the observation device mounted on the artificial satellite, the position vector of the flying object at time t obtained from (Equation 12)
And the position vector of the flying object at time t-Δt
And use
The system according to claim 2 , further comprising a velocity vector calculation unit that calculates a velocity vector of the flying object according to the above.
と時刻t-Δtにおける飛翔体の位置ベクトル
とを用いて次式
により前記飛翔体の速度ベクトルを算出する速度ベクトル算出部をさらに備えたことを特徴とする請求項3記載の装置。 When Δt is the observation time interval of the observation device mounted on the artificial satellite, the position vector of the flying object at time t obtained from (Equation 12)
And the position vector of the flying object at time t-Δt
And use
The apparatus according to claim 3 , further comprising: a velocity vector calculation unit that calculates a velocity vector of the flying object.
と時刻t-Δtにおける飛翔体の位置ベクトル
とを用いて次式
により前記飛翔体の速度ベクトルを算出する速度ベクトル算出ステップをさらに備えたことを特徴とする請求項4記載のコンピュータプログラム。 When Δt is the observation time interval of the observation device mounted on the artificial satellite, the position vector of the flying object at time t obtained from (Equation 12)
And the position vector of the flying object at time t-Δt
And use
The computer program according to claim 4 , further comprising a velocity vector calculation step of calculating a velocity vector of the flying object by the method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009199998A JP5567805B2 (en) | 2009-08-31 | 2009-08-31 | Flying object detection method, system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009199998A JP5567805B2 (en) | 2009-08-31 | 2009-08-31 | Flying object detection method, system, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011052999A JP2011052999A (en) | 2011-03-17 |
JP5567805B2 true JP5567805B2 (en) | 2014-08-06 |
Family
ID=43942175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009199998A Active JP5567805B2 (en) | 2009-08-31 | 2009-08-31 | Flying object detection method, system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5567805B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105509689B (en) * | 2015-11-10 | 2018-01-05 | 中国航天空气动力技术研究院 | A kind of three axis calibration methods for unmanned aerial vehicle onboard arm discharge |
CN111624584B (en) * | 2020-03-20 | 2023-06-20 | 中国人民解放军火箭军工程大学 | Non-cooperative target laser induced polarization distance measurement system and method |
CN111366953B (en) * | 2020-03-20 | 2022-11-18 | 中国西安卫星测控中心 | Beidou Ka complex phased array antenna tracking visible report generation algorithm |
CN112255606A (en) * | 2020-09-29 | 2021-01-22 | 北京空间飞行器总体设计部 | Method for calculating front side-view imaging attitude angle of Geo-SAR (synthetic aperture radar) satellite based on single reflector antenna |
US20240124161A1 (en) * | 2021-02-19 | 2024-04-18 | Mitsubishi Electric Corporation | Flight path model selection method, flying object tracking system, flying object handling system, and ground system |
WO2022176890A1 (en) * | 2021-02-19 | 2022-08-25 | 三菱電機株式会社 | Flying object handling system, defense information integration center, communication route search device, flight path prediction device, handling asset selection device, satellite system above equator, polar-orbit satellite system, and monitoring satellite |
US20240101279A1 (en) | 2021-02-19 | 2024-03-28 | Mitsubishi Electric Corporation | Flight position derivation method, flying object tracking system, ground system, and flying object handling system |
US20240101282A1 (en) * | 2021-02-19 | 2024-03-28 | Mitsubishi Electric Corporation | Flying object coping system, satellite unified ordering center, communication route search device, flight path prediction device, above-equator satellite system, above-equator satellite, inclined orbit satellite system, inclined orbit satellite, unified data library, and satellite constellation |
US20240109673A1 (en) * | 2021-02-19 | 2024-04-04 | Mitsubishi Electric Corporation | Flying path prediction method, ground system, flying object's flying path model, flying path prediction device, flying object tracking system, flying object coping system, unified data library, surveillance satellite, and satellite constellation |
JP7394802B2 (en) * | 2021-02-19 | 2023-12-08 | 三菱電機株式会社 | Gliding flying object identification method, flying object tracking system, flying object countermeasure system, and ground system |
US20240092507A1 (en) | 2021-02-19 | 2024-03-21 | Mitsubishi Electric Corporation | Flying object coping system, monitoring ground center, communication route search device, flight path prediction device, polar orbit satellite system, polar orbit satellite, inclined orbit satellite system, and inclined orbit satellite |
JP7499957B2 (en) | 2021-04-27 | 2024-06-14 | 三菱電機株式会社 | Flying object monitoring system, communication satellite, monitoring satellite, and flying object monitoring method |
CN113884005B (en) * | 2021-09-23 | 2023-08-22 | 中国人民解放军63620部队 | Estimation method for measuring point position of carrier rocket optical measuring system |
CN114036780B (en) * | 2021-12-06 | 2024-09-10 | 航天科工火箭技术有限公司 | Rocket attitude angle design method constrained by space-based measurement and control |
WO2024202279A1 (en) * | 2023-03-30 | 2024-10-03 | 日本電気株式会社 | Information processing system, information processing device, information processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2879146B1 (en) * | 1998-03-23 | 1999-04-05 | 宇宙開発事業団 | Positioning system for moving objects using multiple satellites |
JP2009509125A (en) * | 2005-06-24 | 2009-03-05 | デジタルグローブ インコーポレイテッド | Method and apparatus for determining a position associated with an image |
JP2009063319A (en) * | 2007-09-04 | 2009-03-26 | Shimizu Corp | Apparatus and method for distance measurement |
-
2009
- 2009-08-31 JP JP2009199998A patent/JP5567805B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011052999A (en) | 2011-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5567805B2 (en) | Flying object detection method, system, and program | |
CN108759819B (en) | Polarization navigation real-time positioning method based on all-sky-domain polarization degree information | |
JP5544838B2 (en) | Signal source search method and signal source search system | |
CN109690250B (en) | Unmanned aerial vehicle system assisted navigation system and method | |
WO2018200039A1 (en) | Multi-source distributed navigation system architecture | |
Progri | Geolocation of RF signals: principles and simulations | |
CN110192122A (en) | Radar-directed system and method on unmanned moveable platform | |
WO2018151844A1 (en) | Systems and methods for determining quality and integrity of source information to determine navigation information of an object | |
GB2494505A (en) | Image based position determination based on perspective shift | |
US20190272732A1 (en) | Search system and transmitter for use in search system | |
Mukherjee et al. | Unmanned aerial system for post disaster identification | |
US20200264676A1 (en) | Imaging Sensor-Based Position Detection | |
EP3751233B1 (en) | Multi-aircraft vision and datalink based navigation system and method | |
Albrektsen et al. | Robust and secure UAV navigation using GNSS, phased-array radio system and inertial sensor fusion | |
Suzuki et al. | Robust UAV position and attitude estimation using multiple GNSS receivers for laser-based 3D mapping | |
WO2022176891A1 (en) | Flying object countermeasure system, monitoring ground center, countermeasure ground center, communication route search device, flight path predicting device, countermeasure asset selecting device, equatorial satellite system, equatorial satellite, polar orbit satellite system, polar orbit satellite, inclined orbit satellite system, and inclined orbit satellite | |
El Habchi et al. | CGA: A new approach to estimate the geolocation of a ground target from drone aerial imagery | |
JP7394802B2 (en) | Gliding flying object identification method, flying object tracking system, flying object countermeasure system, and ground system | |
JP7394801B2 (en) | Gliding flying object tracking method, flying object tracking system, flying object countermeasure system, and ground system | |
Martinez-Heredia et al. | Development of an emergency radio beacon for small unmanned aerial vehicles | |
RU157041U1 (en) | SMALL SPACE DEVICE FOR OBSERVING THE ORBITAL STATION | |
RU82678U1 (en) | OBSERVING SYSTEM FOR SPACE OBJECTS | |
Albrektsen et al. | Navigation of uav using phased array radio | |
Wallace et al. | Cooperative relative UAV attitude estimation using DoA and RF polarization | |
CN111156956B (en) | Space attitude parameter acquisition method based on atmospheric polarization E-vector mode features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120828 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131107 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20131209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140603 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5567805 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |