WO2017195340A1 - Self-position estimation device, self-position estimation method, and self-position estimation processing program - Google Patents

Self-position estimation device, self-position estimation method, and self-position estimation processing program Download PDF

Info

Publication number
WO2017195340A1
WO2017195340A1 PCT/JP2016/064237 JP2016064237W WO2017195340A1 WO 2017195340 A1 WO2017195340 A1 WO 2017195340A1 JP 2016064237 W JP2016064237 W JP 2016064237W WO 2017195340 A1 WO2017195340 A1 WO 2017195340A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion
evaluation value
candidate
self
motion candidate
Prior art date
Application number
PCT/JP2016/064237
Other languages
French (fr)
Japanese (ja)
Inventor
廣愛 浅見
尾崎 敦夫
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2016/064237 priority Critical patent/WO2017195340A1/en
Publication of WO2017195340A1 publication Critical patent/WO2017195340A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

A self-position estimation processing device according to the present invention comprises: an image reproduction processing means (3) for reproducing a synthetic aperture radar image on the basis of synthetic aperture radar input data and movement data indicating the movement of a platform; a movement candidate searching means (6, 16, 26, 36) for generating a plurality of movement candidates that indicate values serving as candidates of movement data; an evaluation value calculating means (7, 17, 27, 37) for calculating, on the basis of the input data and the movement candidates, evaluation values that represent the sharpness of the synthetic aperture radar image for when the movement data is the movement candidate, and selecting, on the basis of the calculated evaluation value for each of the plurality of movement candidates generated by the movement candidate searching means, movement candidates from among the plurality of movement candidates; and a movement candidate determining means (8) for updating the movement data by using the movement candidates selected by the evaluation value calculating means. As a result, it is possible to estimate with high precision the position and speed information of the platform, without acquiring map information or the like in advance, and without increasing the computational burden.

Description

自己位置推定装置、自己位置推定方法、および自己位置推定処理プログラムSelf-position estimation apparatus, self-position estimation method, and self-position estimation processing program
 この発明は、合成開口レーダ(SAR:Synthetic Aperture Radar)を搭載した航空機や人工衛星などのプラットフォームなどの位置や速度を推定する自己位置推定装置、自己位置推定方法、および自己位置推定処理プログラムに関するものである。 The present invention relates to a self-position estimation device, a self-position estimation method, and a self-position estimation processing program for estimating the position and speed of a platform such as an aircraft or a satellite equipped with a synthetic aperture radar (SAR). It is.
 航空機や衛星などのプラットフォームに搭載される合成開口レーダ用信号処理装置は、アンテナを有するSARセンサを備え、プラットフォームの移動とともにSARセンサが電波を送受信して得られる電波信号を信号処理することにより、二次元のSAR画像を得る。高分解能なSAR画像を得るためには、プラットフォームの運動、具体的には位置や速度などを高精度に知る必要がある。 A signal processing apparatus for a synthetic aperture radar mounted on a platform such as an aircraft or a satellite includes a SAR sensor having an antenna, and performs signal processing on a radio signal obtained by the SAR sensor transmitting and receiving radio waves as the platform moves. A two-dimensional SAR image is obtained. In order to obtain a high-resolution SAR image, it is necessary to know the motion of the platform, specifically the position and velocity, with high accuracy.
 プラットフォームの位置や速度情報を取得する技術として、慣性航法装置やGPS(Global Positioning  System)を使用する方法がある。しかしながら、慣性航法装置やGPSを用いてプラットフォームの位置や速度を取得する場合、測定誤差が含まれるため、高精度な情報の取得は困難である。また、より高精度な情報を取得しようとすると装置が大がかりになり、コストが増大したり、プラットフォームの搭載重量が増大したりするという問題がある。 As a technique for acquiring platform position and velocity information, there are methods using an inertial navigation system and GPS (Global Positioning System). However, when acquiring the position and speed of the platform using an inertial navigation device or GPS, it is difficult to acquire highly accurate information because measurement errors are included. Further, when trying to acquire more accurate information, the apparatus becomes large, and there is a problem that the cost increases and the mounting weight of the platform increases.
 これに対して、特許文献1では、画像の輝度情報などからプラットフォームの速度を推定している。また、非特許文献1では、SAR画像から得られる特定の目標物の位置と保有している地図情報とを照合してプラットフォームの位置を推定している。 On the other hand, in Patent Document 1, the speed of the platform is estimated from the luminance information of the image. Further, in Non-Patent Document 1, the position of the platform is estimated by collating the position of a specific target obtained from the SAR image with the map information held.
特開2007-292531号公報JP 2007-292531 A
 特許文献1では、可能性のある速度推定値すべてに対して、SAR画像再生処理を繰り返すため、演算負荷が非常に大きい。そのため、SAR画像取得までに時間がかかる、もしくは計算機のコストが増大するという問題があった。また、非特許文献1では、あらかじめ入手した地図情報が必要であり、震災などで地形が変化した場合などには対応できないという問題があった。 In Patent Document 1, since the SAR image reproduction process is repeated for all possible speed estimation values, the calculation load is very large. Therefore, there is a problem that it takes time to acquire the SAR image or the cost of the computer increases. Further, in Non-Patent Document 1, map information obtained in advance is necessary, and there is a problem that it is not possible to deal with a case where the terrain changes due to an earthquake disaster or the like.
 この発明は、上記のような課題を解決するためになされたもので、事前に地図情報などを入手することなく、さらに演算負荷を増大させることなく、プラットフォームの位置や速度情報を推定する自己位置推定装置、自己位置推定方法、および自己位置推定処理プログラムを得ることを目的とする。 The present invention was made to solve the above-described problems, and self-position for estimating platform position and speed information without obtaining map information in advance and without further increasing the calculation load. An object is to obtain an estimation device, a self-position estimation method, and a self-position estimation processing program.
 この発明に係る自己位置推定処理装置は、合成開口レーダの入力データとプラットフォームの運動を示す運動データとに基づいて合成開口レーダ画像を再生する画像再生処理手段と、運動データの候補となる値を示す運動候補を複数生成する運動候補探索手段と、入力データと運動候補とに基づいて、運動データが運動候補のときの合成開口レーダ画像の鮮明度を表す評価値を算出し、運動候補探索手段で生成された複数の運動候補ごとにそれぞれ算出された評価値に基づいて複数の運動候補の中から運動候補を選択する評価値算出手段と、評価値算出手段で選択された運動候補を用いて運動データを更新する運動候補決定手段とを備えた自己位置推定装置である。 The self-position estimation processing device according to the present invention includes an image reproduction processing means for reproducing a synthetic aperture radar image based on synthetic aperture radar input data and motion data indicating platform motion, and values for motion data candidates. A motion candidate search means for generating a plurality of motion candidates to be shown; and an evaluation value representing the sharpness of the synthetic aperture radar image when the motion data is a motion candidate based on the input data and the motion candidates; Using an evaluation value calculating means for selecting a motion candidate from a plurality of motion candidates based on the evaluation value calculated for each of the plurality of motion candidates generated in step, and the motion candidate selected by the evaluation value calculating means It is a self-position estimation apparatus provided with a motion candidate determination means for updating motion data.
 この発明によれば、上記のように構成したことにより、事前に地図情報などを入手することなく、さらに、演算負荷を増大させることなく、プラットフォームの位置や速度情報を高精度に推定することができる。 According to the present invention, the configuration as described above makes it possible to estimate the platform position and speed information with high accuracy without obtaining map information in advance and without increasing the calculation load. it can.
この発明の実施の形態1における自己位置推定装置の構成を示す構成図である。It is a block diagram which shows the structure of the self-position estimation apparatus in Embodiment 1 of this invention. この発明の実施の形態1における自己位置推定装置がコンピュータで構成される場合のハードウェア構成図である。It is a hardware block diagram in case the self-position estimation apparatus in Embodiment 1 of this invention is comprised with a computer. この発明の実施の形態1における自己位置推定装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the self-position estimation apparatus in Embodiment 1 of this invention. この発明の実施の形態1における運動候補探索部6と評価値算出部7での動作を示すフローチャートである。It is a flowchart which shows the operation | movement in the exercise candidate search part 6 and the evaluation value calculation part 7 in Embodiment 1 of this invention. この発明の実施の形態1における自己位置推定装置を用いた観測処理の概念図である。It is a conceptual diagram of the observation process using the self-position estimation apparatus in Embodiment 1 of this invention. この発明の実施の形態1におけるプラットフォームの閾値領域と孤立点の位置関係を示す概念図である。It is a conceptual diagram which shows the positional relationship of the threshold value area | region of a platform and isolated point in Embodiment 1 of this invention. この発明の実施の形態2における運動候補探索部16と評価値算出部17での動作を示すフローチャートである。It is a flowchart which shows the operation | movement in the exercise candidate search part 16 and the evaluation value calculation part 17 in Embodiment 2 of this invention. この発明の実施の形態3における運動候補探索部26と評価値算出部27での動作を示すフローチャートである。It is a flowchart which shows the operation | movement in the exercise candidate search part 26 and the evaluation value calculation part 27 in Embodiment 3 of this invention. この発明の実施の形態4における自己位置推定装置の構成を示す構成図である。It is a block diagram which shows the structure of the self-position estimation apparatus in Embodiment 4 of this invention. この発明の実施の形態4における自己位置推定装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the self-position estimation apparatus in Embodiment 4 of this invention.
 本発明は、プラットフォームに搭載される合成開口レーダの入力データと、プラットフォームの運動の候補となる値とを用いて、プラットフォームの実際の運動を推定する自己位置推定装置に関するものであり、特に、少ない演算量で推定することを特徴とするものである。プラットフォームの運動とは、例えば、プラットフォームの位置や速度などを指す。以下では、プラットフォームの位置を推定する場合について説明するが、速度なども同様の方法で推定することができる。以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面にしたがって説明する。 The present invention relates to a self-position estimation device that estimates the actual motion of a platform using input data of a synthetic aperture radar mounted on the platform and values that are candidates for motion of the platform. It is characterized by estimating with a calculation amount. The movement of the platform refers to, for example, the position and speed of the platform. In the following, the case where the position of the platform is estimated will be described, but the speed and the like can be estimated by the same method. Hereinafter, in order to describe the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.
 実施の形態1.
 図1は、この発明の実施の形態1による自己位置推定装置の構成を示すブロック図である。図1において、自己位置推定装置100は、入力データ格納部1、運動データ格納部2、画像再生処理部3、SAR画像格納部4、孤立点抽出部5、運動候補探索部6、評価値算出部7、運動候補決定部8および制御部9により構成される。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a self-position estimation apparatus according to Embodiment 1 of the present invention. In FIG. 1, a self-position estimation apparatus 100 includes an input data storage unit 1, an exercise data storage unit 2, an image reproduction processing unit 3, a SAR image storage unit 4, an isolated point extraction unit 5, an exercise candidate search unit 6, and an evaluation value calculation. The unit 7, the motion candidate determination unit 8, and the control unit 9 are configured.
 入力データ格納部1は、SAR画像再生処理前のデジタル信号の入力データを格納するRAMやハードディスクなどの記録媒体である。入力データは、プラットフォームに搭載されたアンテナ、送信機、受信機、パルス圧縮手段(いずれも図示せず)などを用いて取得される。具体的には、アンテナから高周波パルス信号が空間に放射されるとともに、目標物から反射したエコー信号がアンテナで受信される。続いて、受信機は、アンテナの受信信号を増幅して中間周波数に変換した後、デジタル信号に変換する。その後、パルス圧縮手段は、デジタル信号をパルス圧縮し、入力データを取得する。 The input data storage unit 1 is a recording medium such as a RAM or a hard disk that stores digital signal input data before the SAR image reproduction process. Input data is acquired using an antenna, a transmitter, a receiver, pulse compression means (all not shown) mounted on the platform. Specifically, a high frequency pulse signal is radiated from the antenna to the space, and an echo signal reflected from the target is received by the antenna. Subsequently, the receiver amplifies the received signal of the antenna and converts it to an intermediate frequency, and then converts it to a digital signal. Thereafter, the pulse compression means performs pulse compression on the digital signal to obtain input data.
 運動データ格納部2は、プラットフォームの運動を示した運動データを格納するRAMやハードディスクなどの記録媒体である。運動データは、例えば、プラットフォームの緯度・経度・高さの位置、速度、加速度、ロール・ピッチ・ヨウで表されるプラットフォームの姿勢などである。 The exercise data storage unit 2 is a recording medium such as a RAM or a hard disk that stores exercise data indicating the exercise of the platform. The motion data is, for example, the platform latitude / longitude / height position, velocity, acceleration, platform posture represented by roll, pitch, and yaw.
 画像再生処理部3は、例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、入力データ格納部1に格納された入力データと、運動データ格納部2に格納された運動データとを用いて画像再生処理を行い、処理結果として出力される二次元のSAR画像をSAR画像格納部4に格納する。 The image reproduction processing unit 3 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer. The image reproduction processing unit 3 stores input data stored in the input data storage unit 1 and motion data storage unit 2. An image reproduction process is performed using the obtained motion data, and a two-dimensional SAR image output as a processing result is stored in the SAR image storage unit 4.
 SAR画像格納部4は、画像再生処理部3から出力されるSAR画像を格納するRAMやハードディスクなどの記録媒体である。 The SAR image storage unit 4 is a recording medium such as a RAM or a hard disk that stores the SAR image output from the image reproduction processing unit 3.
 孤立点抽出部5は、例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、SAR画像格納部4に格納されたSAR画像から孤立点を抽出する。 The isolated point extraction unit 5 is composed of, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and extracts isolated points from the SAR image stored in the SAR image storage unit 4.
 運動候補探索部6は、例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、プラットフォームの運動を示す位置や速度などの候補となる値(運動候補とも言う)を特定の条件の下で複数作成して評価値算出部7へ出力する。 The motion candidate search unit 6 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and values that are candidates for the position and speed indicating the motion of the platform (also referred to as motion candidates). Are created under specific conditions and output to the evaluation value calculation unit 7.
 評価値算出部7は、例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、運動候補探索部6が算出した運動候補ごとに、孤立点抽出部5が抽出した各孤立点に対する評価値をそれぞれ算出する。また、評価値算出部7は、算出した評価値に基づいて、最も確からしい運動候補を孤立点ごとに選択して運動候補決定部8へ出力する。 The evaluation value calculation unit 7 is composed of, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and the isolated point extraction unit 5 extracts each motion candidate calculated by the motion candidate search unit 6. An evaluation value for each isolated point is calculated. Further, the evaluation value calculation unit 7 selects the most likely exercise candidate for each isolated point based on the calculated evaluation value, and outputs it to the exercise candidate determination unit 8.
 運動候補決定部8は、例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、評価値算出部7が選択した運動候補を用いて運動データ格納部2に格納された運動データを更新する。 The exercise candidate determination unit 8 is composed of, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and is stored in the exercise data storage unit 2 using the exercise candidate selected by the evaluation value calculation unit 7. Update exercise data.
 制御部9は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、画像再生処理部3、孤立点抽出部5、運動候補探索部6、評価値算出部7及び運動候補決定部8の動作を制御する。 The control unit 9 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer. The image reproduction processing unit 3, the isolated point extraction unit 5, the motion candidate search unit 6, and the evaluation value calculation unit 7 And the operation | movement of the exercise | movement candidate determination part 8 is controlled.
 図1の例では、自己位置推定装置100の構成要素である入力データ格納部1、運動データ格納部2、画像再生処理部3、SAR画像格納部4、孤立点抽出部5、運動候補探索部6、評価値算出部7、運動候補決定部8及び制御部9のそれぞれが専用のハードウェアで構成されているものを想定しているが、自己位置推定装置100がコンピュータで構成されていてもよい。 In the example of FIG. 1, the input data storage unit 1, the motion data storage unit 2, the image reproduction processing unit 3, the SAR image storage unit 4, the isolated point extraction unit 5, and the motion candidate search unit that are components of the self-position estimation apparatus 100. 6, it is assumed that each of the evaluation value calculation unit 7, the motion candidate determination unit 8 and the control unit 9 is configured by dedicated hardware, but the self-position estimation apparatus 100 may be configured by a computer. Good.
 図2は、自己位置推定装置100がコンピュータで構成される場合のハードウェア構成図である。自己位置推定装置100がコンピュータで構成される場合、入力データ格納部1、運動データ格納部2およびSAR画像格納部4をコンピュータのメモリ51上に構成するとともに、画像再生処理部3、孤立点抽出部5、運動候補探索部6、評価値算出部7、運動候補決定部8および制御部9の処理内容(画像再生処理ステップ、孤立点抽出ステップ、運動候補探索ステップ、評価値算出ステップ、運動候補決定ステップおよび制御ステップ)を記述している自己位置推定処理プログラムをコンピュータのメモリ51に格納し、当該コンピュータのCPUなどのプロセッサ52がメモリ51に格納されている自己位置推定処理プログラムを実行するようにすればよい。 FIG. 2 is a hardware configuration diagram when the self-position estimation apparatus 100 is configured by a computer. When the self-position estimation apparatus 100 is configured by a computer, the input data storage unit 1, the motion data storage unit 2 and the SAR image storage unit 4 are configured on the computer memory 51, and the image reproduction processing unit 3, isolated point extraction Processing contents of unit 5, exercise candidate search unit 6, evaluation value calculation unit 7, exercise candidate determination unit 8 and control unit 9 (image reproduction processing step, isolated point extraction step, exercise candidate search step, evaluation value calculation step, exercise candidate A self-position estimation processing program describing a determination step and a control step) is stored in the memory 51 of the computer, and a processor 52 such as a CPU of the computer executes the self-position estimation processing program stored in the memory 51 You can do it.
 次に、図3と図4のフローチャートを参照しながら、図1に示したこの発明の実施の形態1による自己位置推定装置100の全体の動作(自己位置推定方法)について説明する。図3は自己位置推定装置100の全体の動作を示すフローチャート、図4は運動候補探索部6および評価値算出部7での動作を示すフローチャートである。 Next, the overall operation (self-position estimation method) of the self-position estimation apparatus 100 according to Embodiment 1 of the present invention shown in FIG. 1 will be described with reference to the flowcharts of FIGS. FIG. 3 is a flowchart showing the overall operation of the self-position estimation apparatus 100, and FIG. 4 is a flowchart showing the operations of the motion candidate search unit 6 and the evaluation value calculation unit 7.
 図3において、まず、画像再生処理部3は、入力データ格納部1に格納された入力データと運動データ格納部2に格納された運動データとを用いて、SAR画像を生成し、SAR画像格納部4に格納する(ステップST1)。この時点では、運動データは、プラットフォームの高精度な位置や速度を示したものではなく、プラットフォームが飛行する前に策定した計画値であるか、安価なGPSや加速度センサなどの簡易的な手段によって取得した精度の低い情報であるものとする。また、画像再生処理部3は、従来から知られている任意のSAR画像再生手段で良く、後述するバックプロジェクションアルゴリズムによる処理でSAR画像を再生しても良いし、他のアルゴリズムによる処理でSAR画像を再生しても良い。これらの処理は従来と同様のものなので、詳細な説明は省略する。 In FIG. 3, first, the image reproduction processing unit 3 generates a SAR image using the input data stored in the input data storage unit 1 and the exercise data stored in the exercise data storage unit 2, and stores the SAR image. Store in the unit 4 (step ST1). At this point, the motion data does not indicate the precise position or velocity of the platform, but is a planned value established before the platform flies, or by simple means such as an inexpensive GPS or acceleration sensor. It is assumed that the acquired information has low accuracy. Further, the image reproduction processing unit 3 may be any conventionally known SAR image reproduction means, and may reproduce an SAR image by a process using a back projection algorithm described later, or a SAR image by a process using another algorithm. May be played. Since these processes are the same as those in the prior art, detailed description thereof is omitted.
 次に、孤立点抽出部5は、SAR画像格納部4に格納されたSAR画像から、複数の孤立点を抽出する(ステップST2)。ここで、孤立点とは、SAR画像の中で、周りの画素に対して輝度が極端に高い画素であり、例えば、特許文献2のオートフォーカス処理などで動揺補正の評価の際に用いられる。よって、孤立点の抽出方法に関しても、従来から知られている任意の手法でよい。ここでは、SAR画像全体をアジマス方向(プラットフォームの進行方向)に8等分、レンジ方向(レーダの送信方向)に8等分して8×8=64個のブロックを作り、各ブロックで最も輝度が高い点を簡易的に孤立点として抽出するものとする。孤立点抽出部5は、孤立点の位置情報を運動候補探索部6へ出力する。 Next, the isolated point extraction unit 5 extracts a plurality of isolated points from the SAR image stored in the SAR image storage unit 4 (step ST2). Here, the isolated point is a pixel whose luminance is extremely higher than the surrounding pixels in the SAR image, and is used, for example, in the evaluation of the shake correction in the autofocus process of Patent Document 2. Therefore, any conventionally known method may be used as a method for extracting isolated points. Here, the entire SAR image is divided into 8 equal parts in the azimuth direction (platform traveling direction) and 8 parts in the range direction (radar transmission direction) to create 8 × 8 = 64 blocks, and each block has the highest luminance. A point having a high value is extracted as an isolated point easily. The isolated point extraction unit 5 outputs the position information of the isolated point to the motion candidate search unit 6.
特開2003-130950号公報JP 2003-130950 A
 次に、運動候補探索部6は、孤立点抽出部5から出力された孤立点のうち、一つを選択する(ステップST3)。 Next, the motion candidate search unit 6 selects one of the isolated points output from the isolated point extraction unit 5 (step ST3).
 次に、運動候補探索部6は、プラットフォームのアジマス方向の位置(アジマス位置とも言う)およびレンジ方向の位置(レンジ位置とも言う)を、運動データ格納部2に格納された運動データの示す位置からずらした位置を運動候補として複数生成して評価値算出部7へ出力する。評価値算出部7は、プラットフォームのアジマス方向の位置およびレンジ方向の位置をずらしたときに得られるSAR画像の要素画素値pを算出する。本実施の形態では、この要素画素値pを評価値とする。評価値算出部7は、各アジマス方向の位置において、要素画素値pが最適となるレンジ方向の位置をそれぞれ決定する。また、評価値算出部7は、各アジマス方向の位置と、各アジマス方向の位置に対応して決定したレンジ方向の位置との組を、ステップST3で選択された孤立点に対応するプラットフォームの航跡として運動候補決定部8へ出力する。(ステップST4)。ステップST4の詳細な処理については後述する。 Next, the motion candidate search unit 6 determines the position of the platform in the azimuth direction (also referred to as azimuth position) and the position in the range direction (also referred to as range position) from the position indicated by the motion data stored in the motion data storage unit 2. A plurality of shifted positions are generated as motion candidates and output to the evaluation value calculation unit 7. The evaluation value calculation unit 7 calculates the element pixel value p of the SAR image obtained when the position of the platform in the azimuth direction and the position in the range direction are shifted. In this embodiment, this element pixel value p is used as an evaluation value. The evaluation value calculation unit 7 determines the position in the range direction where the element pixel value p is optimum at the position in each azimuth direction. In addition, the evaluation value calculation unit 7 uses the set of the position in each azimuth direction and the position in the range direction determined corresponding to the position in each azimuth direction to track the platform corresponding to the isolated point selected in step ST3. Is output to the motion candidate determination unit 8. (Step ST4). Detailed processing of step ST4 will be described later.
 次に、運動候補探索部6は、別の孤立点を選択し、運動候補探索部6および評価値算出部7は、別の孤立点に対応するプラットフォームの航跡を選択して運動候補決定部8へ出力する。このように、全ての孤立点が選択されるまで、ステップST3とステップST4の処理が繰り返される(ステップST5)。 Next, the motion candidate search unit 6 selects another isolated point, and the motion candidate search unit 6 and the evaluation value calculation unit 7 select a platform track corresponding to another isolated point and select the motion candidate determination unit 8. Output to. In this way, the processes of step ST3 and step ST4 are repeated until all isolated points are selected (step ST5).
 運動候補決定部8は、評価値算出部7から出力された孤立点ごとの航跡を平滑化して最終的な航跡を決定し、これを新たな運動データとして、運動データ格納部2に格納された運動データを更新する(ステップST6)。平滑化に関しては、従来からあるような任意の処理でよいが、ここでは、アジマス位置ごとに、レンジ位置の平均値を算出する。 The motion candidate determination unit 8 smoothes the track for each isolated point output from the evaluation value calculation unit 7 to determine the final track, and stores this in the motion data storage unit 2 as new motion data. The exercise data is updated (step ST6). For smoothing, any conventional processing may be used, but here, the average value of the range position is calculated for each azimuth position.
 次に、図3のステップST4の詳細な処理について、図4を用いて説明する。 Next, detailed processing in step ST4 in FIG. 3 will be described with reference to FIG.
 まず、運動候補探索部6は、プラットフォームのアジマス方向の位置を一つ選択し、選択した位置をアジマス方向の開始位置とする(ステップST11)。この場合の開始位置は、プラットフォームから見たときに、選択された孤立点の位置が高周波パルス信号の照射領域のアジマス方向の上端となる位置に相当する。次に、運動候補探索部6は、プラットフォームのレンジ方向の位置を一つ選択し、選択した位置をレンジ方向の開始位置とする(ステップST12)。この場合の開始位置は、プラットフォームの位置が、後述する閾値領域の左端(レンジ方向の下限)となる位置に相当する。 First, the motion candidate search unit 6 selects one position of the platform in the azimuth direction, and sets the selected position as the start position in the azimuth direction (step ST11). The start position in this case corresponds to a position where the position of the selected isolated point is the upper end in the azimuth direction of the irradiation region of the high frequency pulse signal when viewed from the platform. Next, the motion candidate search unit 6 selects one position in the range direction of the platform, and sets the selected position as the start position in the range direction (step ST12). The start position in this case corresponds to a position where the platform position is at the left end (lower limit in the range direction) of a threshold area described later.
 次に、評価値算出部7は、運動候補探索部6により選択されたプラットフォームの位置および孤立点の位置に基づいて、対応する入力データを入力データ格納部1から取り出す。評価値算出部7は、取り出した入力データに、プラットフォームの位置と孤立点の位置との距離差から算出される位相を乗算し、その結果を選択された孤立点の要素画素値pとする(ステップST13)。要素画素値pは、SAR画像の孤立点の位置における輝度、あるいは鮮明度に相当する。この場合、対応するデータを入力データ格納部1から取得する手法や、位相を算出して乗算する処理は、SARのバックプロジェクションアルゴリズムと同様の手法でもよい(例えば、特許文献3)。バックプロジェクションアルゴリズムの詳細は後述する。 Next, the evaluation value calculation unit 7 extracts the corresponding input data from the input data storage unit 1 based on the platform position and the isolated point position selected by the motion candidate search unit 6. The evaluation value calculation unit 7 multiplies the extracted input data by the phase calculated from the distance difference between the platform position and the isolated point position, and sets the result as the element pixel value p of the selected isolated point ( Step ST13). The element pixel value p corresponds to the luminance or the sharpness at the position of the isolated point of the SAR image. In this case, the method of acquiring the corresponding data from the input data storage unit 1 and the process of calculating and multiplying the phase may be the same method as the SAR back projection algorithm (for example, Patent Document 3). Details of the back projection algorithm will be described later.
特表平11-512531号公報Japanese National Patent Publication No. 11-512531
 次に、評価値算出部7は、算出された要素画素値pを「最大要素値pm」とし、その値とレンジ位置を記録する(ステップST14)。 Next, the evaluation value calculation unit 7 sets the calculated element pixel value p as “maximum element value pm”, and records the value and the range position (step ST14).
 次に、再びステップST13へ戻り、運動候補探索部6は、プラットフォームのレンジ方向の位置を一つずらしてその情報を評価値算出部7に渡す。評価値算出部7は、運動候補探索部6より渡されたプラットフォームの位置を用いて要素画素値pを算出する。その後、評価値算出部7は、ステップST14において、算出された要素画素値pが「最大要素値pm」よりも大きければ、それを新たな「最大要素値pm」とし、その値とレンジ位置とを記録する。具体的には、要素画素値pは複素数なので、評価値算出部7は、算出した要素画素値pと「最大要素値pm」のうち、絶対値が大きい方を選択して記録する。 Next, the process returns to step ST13 again, and the motion candidate search unit 6 shifts the platform position in the range direction by one and passes the information to the evaluation value calculation unit 7. The evaluation value calculation unit 7 calculates the element pixel value p using the platform position passed from the motion candidate search unit 6. Thereafter, in step ST14, if the calculated element pixel value p is larger than the “maximum element value pm”, the evaluation value calculation unit 7 sets it as a new “maximum element value pm”, and the value and the range position. Record. Specifically, since the element pixel value p is a complex number, the evaluation value calculation unit 7 selects and records the calculated element pixel value p and “maximum element value pm” having the larger absolute value.
 同様に、運動候補探索部6および評価値算出部7は、後述する閾値領域の右端(レンジ方向の上限)に相当する位置に達するまで、プラットフォームのレンジ方向の位置をずらして要素画素値pを算出し、算出した各要素画素値pと「最大要素値pm」との輝度の判定を行う処理を繰り返す。これにより、最終的に記録されたレンジ位置、つまり、要素画素値pが「最大要素値pm」となるレンジ位置が、アジマス位置の開始位置における最適なレンジ位置として記録される(ステップST15)。 Similarly, the motion candidate search unit 6 and the evaluation value calculation unit 7 shift the position in the range direction of the platform and shift the element pixel value p until reaching a position corresponding to the right end (upper limit of the range direction) of a threshold region described later. The process of calculating and determining the luminance of each calculated element pixel value p and “maximum element value pm” is repeated. Thereby, the finally recorded range position, that is, the range position where the element pixel value p is “maximum element value pm” is recorded as the optimum range position at the start position of the azimuth position (step ST15).
 次に、運動候補探索部6および評価値算出部7は、プラットフォームのアジマス方向の位置を一つずらして、ステップST12~ステップST15までの処理を実行する。同様に、プラットフォームから見たときに、選択された孤立点が高周波パルス信号の照射領域の下端となる位置に達するまで、プラットフォームのアジマス方向の位置をずらしながら、ステップST12~ステップST15までの処理を繰り返す(ステップST16)。 Next, the motion candidate search unit 6 and the evaluation value calculation unit 7 shift the position of the platform in the azimuth direction and execute the processing from step ST12 to step ST15. Similarly, the processing from step ST12 to step ST15 is performed while shifting the position of the platform in the azimuth direction until the selected isolated point reaches the lower end of the irradiation region of the high-frequency pulse signal when viewed from the platform. Repeat (step ST16).
 最後に、評価値算出部7は、ステップST11~ステップST16までの処理で記録された、プラットフォームの各アジマス方向の位置に対応するレンジ方向の位置を、選択された孤立点の航跡として運動候補決定部8へ出力する(ステップST17)。 Finally, the evaluation value calculation unit 7 determines a motion candidate by using the position in the range direction corresponding to the position in each azimuth direction of the platform recorded in the processing from step ST11 to step ST16 as the wake of the selected isolated point. It outputs to the part 8 (step ST17).
 以上の処理内容により、ステップST4において、選択された孤立点に対応する航跡が算出される。 Based on the above processing contents, a wake corresponding to the selected isolated point is calculated in step ST4.
 次に、評価値算出部7におけるステップST13での、プラットフォームの位置と孤立点の位置に対応する入力データの取り出し方法、および要素画素値pの算出方法について、図5を用いて説明する。図5は、合成開口レーダを用いた観測により、入力データを取得する際の観測処理の概念図である。 Next, a method of extracting input data corresponding to the position of the platform and the position of the isolated point and a method of calculating the element pixel value p in step ST13 in the evaluation value calculation unit 7 will be described with reference to FIG. FIG. 5 is a conceptual diagram of observation processing when acquiring input data by observation using a synthetic aperture radar.
 図5では、プラットフォームは、所定の時間移動しながらアンテナから高周波パルス信号を送信するとともに、観測対象からの反射信号を受信信号として取得している。このとき、プラットフォームは等速直線運動するものとし、プラットフォームの進行方向に対して垂直に高周波パルス信号を送信するものとする。なお、図5では、簡易的に、プラットフォームの進行方向(アジマス方向)をy軸、レーダの送信方向(レンジ方向)をx軸、プラットフォームの高度方向をz軸とし、z軸は鉛直上向きとする。また、観測対象は、z=0の平面に広がるものとする。また、プラットフォームは、x=0、z=一定で表される直線上を移動するものとする。 In FIG. 5, the platform transmits a high-frequency pulse signal from the antenna while moving for a predetermined time, and acquires a reflected signal from the observation target as a received signal. At this time, the platform is assumed to move at a constant linear velocity, and a high-frequency pulse signal is transmitted perpendicularly to the traveling direction of the platform. In FIG. 5, for simplicity, the platform traveling direction (azimuth direction) is the y-axis, the radar transmission direction (range direction) is the x-axis, the platform altitude direction is the z-axis, and the z-axis is vertically upward. . In addition, the observation target is assumed to spread on a plane with z = 0. The platform moves on a straight line represented by x = 0 and z = constant.
 図5に示すように、高周波パルス信号を送信した時刻tでのプラットフォームの位置を(x(t),y(t),z(t))、観測対象の中のi番目の孤立点Aの位置を(a(i),b(i),0)とし、この2点間の距離をRとすると、一般的にRは以下の式で表せる。 As shown in FIG. 5, the platform position at time t at which the high-frequency pulse signal is transmitted is (x (t), y (t), z (t)), and the i-th isolated point A in the observation target is If the position is (a (i), b (i), 0) and the distance between these two points is R, generally R can be expressed by the following equation.
Figure JPOXMLDOC01-appb-I000001
Figure JPOXMLDOC01-appb-I000001
 合成開口レーダは、一定間隔で何回も高周波パルス信号を送信する。また、一般に、送信される高周波パルス信号は、アジマス方向に広がりをもつため、点(a(i),b(i),0)には、異なる位置のプラットフォームから、高周波パルス信号が複数回照射される。バックプロジェクションアルゴリズムでは、これらの信号を以下の式(2)のように積和することによりSAR画像を算出する。式(2)において、λは送信パルスの波長、jは虚数単位、f(a(i),b(i))は算出後のSAR画像内の位置(a(i),b(i))における画素値である。S()は、受信信号をパルス圧縮した後の複素数の入力データであり、時刻tに送信したパルスに対応するプラットフォームの位置y(t)、および距離Rを要素とするデータである。式(2)は従来と同様のものなので、導出方法などの詳細は省略する。 Synthetic aperture radar transmits high-frequency pulse signals many times at regular intervals. In general, since the transmitted high-frequency pulse signal has a spread in the azimuth direction, the point (a (i), b (i), 0) is irradiated with the high-frequency pulse signal a plurality of times from platforms at different positions. Is done. In the back projection algorithm, the SAR image is calculated by multiplying and summing these signals as in the following equation (2). In Expression (2), λ is the wavelength of the transmission pulse, j is an imaginary unit, and f (a (i), b (i)) is a position (a (i), b (i)) in the SAR image after calculation. Is the pixel value. S () is complex number input data after pulse compression of the received signal, and is data having the platform position y (t) corresponding to the pulse transmitted at time t and the distance R as elements. Since Equation (2) is the same as the conventional one, details such as the derivation method are omitted.
Figure JPOXMLDOC01-appb-I000002
Figure JPOXMLDOC01-appb-I000002
 式(2)は、孤立点(a(i),b(i),0)に対して、式(1)で示す距離Rをプラットフォームと入力データとの拘束条件とするような積分処理であり、積分処理後に、孤立点(a(i),b(i),0)の最終的なSAR画像の画素値が得られる。これと同様の考え方で、評価値算出部7では、運動候補探索部6により決定されたプラットフォームの位置から、式(3)のようにR’(運動候補探索部6により決定されたプラットフォームの位置とi番目の孤立点との間の距離)を決定し、さらに式(4)のようにi番目の孤立点の要素画素値p(i,t,Δx)を決定する。ここで、Δxは、本来想定された、時刻tでのプラットフォームの位置(x(t),y(t),z(t))に対するレンジ方向のずれに相当する。 Expression (2) is an integration process in which the distance R shown in Expression (1) is used as a constraint condition between the platform and the input data with respect to the isolated point (a (i), b (i), 0). After the integration process, the final pixel value of the SAR image of the isolated points (a (i), b (i), 0) is obtained. In the same way of thinking, the evaluation value calculation unit 7 calculates R ′ (the position of the platform determined by the motion candidate search unit 6) from the position of the platform determined by the motion candidate search unit 6 as in Expression (3). And the i-th isolated point), and the element pixel value p (i, t, Δx) of the i-th isolated point is determined as shown in Equation (4). Here, Δx corresponds to a shift in the range direction with respect to the platform position (x (t), y (t), z (t)) at time t, which is originally assumed.
Figure JPOXMLDOC01-appb-I000003
Figure JPOXMLDOC01-appb-I000003
 次に、運動候補探索部6におけるステップST12でのレンジ方向の位置の選択方法と、評価値算出部7におけるステップST14での判定処理と、ステップST5での航跡候補の決定方法について、図6を用いて具体的に説明する。図6は、プラットフォームのレンジ位置の閾値領域と孤立点との位置関係を示す概念図である。 Next, FIG. 6 shows a method for selecting a position in the range direction in step ST12 in the motion candidate search unit 6, a determination process in step ST14 in the evaluation value calculation unit 7, and a method for determining a wake candidate in step ST5. This will be described in detail. FIG. 6 is a conceptual diagram showing a positional relationship between a threshold range area of the platform range position and an isolated point.
 図6は、図5の配置をz方向からみた模式図に相当し、図6では、前述のように、プラットフォームは等速直線運動を想定してアジマス方向のy軸上を移動するが、時刻tにおいて、レンジ方向に誤差Δxがあるものとする。つまり、誤差Δxは、運動データ格納部2に格納されているプラットフォームのレンジ方向の位置と、実際のプラットフォームのレンジ方向の位置とのずれ量を示す。ただし、自己位置推定装置100は、Δxを精密に観測する手段をもたないため、以下のように計算でΔxを推定する。 6 corresponds to a schematic diagram of the arrangement of FIG. 5 viewed from the z direction. In FIG. 6, as described above, the platform moves on the y axis in the azimuth direction assuming constant velocity linear motion. It is assumed that there is an error Δx in the range direction at t. That is, the error Δx indicates the amount of deviation between the platform position in the range direction stored in the motion data storage unit 2 and the actual platform position in the range direction. However, since self-position estimation apparatus 100 does not have means for precisely observing Δx, Δx is estimated by calculation as follows.
 図6では、レンジ方向の誤差Δxは、運動データ格納部2に格納されているプラットフォームのレンジ方向の位置を基準として、-Lから+Lの閾値の範囲(閾値領域)内であると想定する。Lは、プラットフォームの想定位置からのずれの最大値に相当する。Lは、入力データを取得した際の風向きや風速、プラットフォームの重量などにより決定する。また、ステップST12におけるレンジ方向の位置の選択の際にプラットフォームの位置をスライドおよび決定することは、Δxを-Lから+Lまで変化させることに相当するが、その際に、LはL/LNずつ変化させることとする。LNの値を大きく取ることにより、Δxをより正確に求めることができるため、LNは要求される精度に応じて設定される。図6では、LN=2とし、プラットフォームのレンジ方向の位置の候補、つまり運動候補として、白色と黒色の5つの点(レンジ方向の位置が-L,-L/2,0,+L/2,+L)で図示している。 In FIG. 6, it is assumed that the error Δx in the range direction is within a threshold range (threshold region) from −L to + L with reference to the position in the range direction of the platform stored in the motion data storage unit 2. L corresponds to the maximum deviation from the assumed position of the platform. L is determined by the wind direction and speed when the input data is acquired, the weight of the platform, and the like. In addition, sliding and determining the platform position when selecting the position in the range direction in step ST12 corresponds to changing Δx from −L to + L. In this case, L is L / LN. It will be changed. Since Δx can be obtained more accurately by taking a large value of LN, LN is set according to the required accuracy. In FIG. 6, it is assumed that LN = 2, and the position candidate in the range direction of the platform, that is, the motion candidate, five points of white and black (the positions in the range direction are -L, -L / 2, 0, + L / 2, + L).
 まず、評価値算出部7におけるステップST14での判定処理では、図6の時刻tにおける、(-L,y(t))から(+L,y(t))の5点のプラットフォームの候補となる位置に対して各々算出された要素画素値p()の中で絶対値が最大のものを選択する。図6では、白色で示す(0,y(t))の点が選択されたものとする。同様にして、時刻t+1とt+2における、5点のプラットフォームの候補位置に対して各々算出された要素画素値p()の中で最大のものを選択する。図6では、白色で示す(-L/2,y(t+1))、(+L/2,y(t+2))の点が選択されたものとする。 First, in the determination process in step ST14 in the evaluation value calculation unit 7, the platform candidates of five points from (−L, y (t)) to (+ L, y (t)) at time t in FIG. 6 are obtained. The element pixel value p () calculated for each position is selected with the maximum absolute value. In FIG. 6, it is assumed that the point (0, y (t)) shown in white is selected. Similarly, the largest element pixel value p () calculated for each of the five candidate positions of the platform at times t + 1 and t + 2 is selected. In FIG. 6, it is assumed that the points (−L / 2, y (t + 1)) and (+ L / 2, y (t + 2)) shown in white are selected.
 これらの選択された候補位置をつなぎ合わせたものが、孤立点Aに対する航跡の候補となる。上記の処理では、単純に絶対値が最大のものを選択しており、位相を考慮して積分した最終的な画素値の絶対値が最大とならない場合も考えられる。しかし、最終的に運動候補決定部8において、複数の孤立点の航跡を平滑化することにより、統計的に各画素値の絶対値が最大値に近づく。なお、本実施の形態では、評価値が最大となる運動候補を選択したが、評価値が極大となる運動候補を選択するようにしてもよい。 The connection of these selected candidate positions is a wake candidate for the isolated point A. In the above processing, the absolute value of the absolute value is simply selected, and the final absolute value of the pixel value integrated in consideration of the phase may not be maximized. However, by finally smoothing the tracks of a plurality of isolated points in the motion candidate determination unit 8, the absolute value of each pixel value statistically approaches the maximum value. In this embodiment, the exercise candidate having the maximum evaluation value is selected, but the exercise candidate having the maximum evaluation value may be selected.
 なお、上記では、一連の処理により運動データが更新されるようにしたが、更新後の運動データに基づいて画像再生処理部3により、再度、画像再生処理を行い、SAR画像を取得し直すようにしても良い。これにより、より高精度なSAR画像を得るという副次的な効果が得られる。さらには、一連のSAR画像の取得と運動データの更新とのサイクルを複数回繰り返し実行するようにしてもよい。これにより、より精度の高い運動データを得ることができる。 In the above description, the exercise data is updated by a series of processes. However, the image reproduction processing unit 3 performs the image reproduction process again based on the updated exercise data so as to reacquire the SAR image. Anyway. As a result, a secondary effect of obtaining a SAR image with higher accuracy can be obtained. Furthermore, a series of SAR image acquisition and exercise data update cycles may be repeatedly executed a plurality of times. Thereby, motion data with higher accuracy can be obtained.
 また、上記では、SAR画像を64分割して孤立点を簡易的に64点として処理を行ったが、分割する数や孤立点の算出方法は他のいかなる手法でも問題ない。つまり、孤立点が1点であってもよい良い。また、上記では、プラットフォームのレンジ方向の誤差の範囲を示す閾値領域を分割する際にN=2としたが、分割する数Nは他のいかなる値であってもよい。 In the above description, the SAR image is divided into 64 and the isolated points are simply processed as 64 points. However, any other method may be used for the number of divisions and the calculation method of isolated points. That is, the number of isolated points may be one. In the above description, N = 2 when dividing the threshold region indicating the range of error in the platform range direction, but the number N to be divided may be any other value.
 また、上記では、プラットフォームが等速直線運動をするものとして処理を行った。これに対して、プラットフォームが等速直線運動以外、例えば、曲線を描くような運動を示す運動データが初期の値として設定されているような場合であっても同様に処理することができる。この場合には、アジマス方向の位置毎に、設定された閾値の範囲でレンジ方向の位置を変化させ、等速直線運動のときと同様に要素画素値を算出すればよい。もしくは、曲線の軌道を複数の短い区間で区切り、各区間においてプラットフォームが直線で移動するものと仮定して処理してもよい。 Also, in the above, processing was performed on the assumption that the platform has a constant velocity linear motion. On the other hand, the same processing can be performed even when the platform is set as an initial value other than the constant-velocity linear motion, for example, motion data indicating a motion that draws a curve. In this case, for each position in the azimuth direction, the position in the range direction may be changed within the set threshold range, and the element pixel value may be calculated in the same manner as in the case of constant velocity linear motion. Alternatively, the trajectory of the curve may be divided into a plurality of short sections, and processing may be performed assuming that the platform moves in a straight line in each section.
 以上のように、本実施の形態によれば、合成開口レーダの入力データとプラットフォームの運動を示す運動データとに基づいて合成開口レーダ画像を再生する画像再生処理手段と、運動データの候補となる値を示す運動候補を複数生成する運動候補探索手段と、入力データと運動候補とに基づいて、運動データが運動候補のときの合成開口レーダ画像の鮮明度を表す評価値を算出し、運動候補探索手段で生成された複数の運動候補ごとにそれぞれ算出された評価値に基づいて複数の運動候補の中から運動候補を選択する評価値算出手段と、評価値算出手段で選択された運動候補を用いて前記運動データを更新する運動候補決定手段とを備えるように構成したので、事前に地図情報などを入手することなく、さらに、演算負荷を増大させることなく、プラットフォームの運動を示す運動データを高精度に推定することができる。その結果、装置の小型化や軽量化、コストダウンなどが可能になる。 As described above, according to the present embodiment, the image reproduction processing means for reproducing the synthetic aperture radar image based on the synthetic aperture radar input data and the motion data indicating the motion of the platform, and the motion data candidate. Based on the motion candidate search means for generating a plurality of motion candidates indicating values and the input data and motion candidates, an evaluation value representing the sharpness of the synthetic aperture radar image when the motion data is the motion candidates is calculated, and the motion candidates Evaluation value calculation means for selecting a motion candidate from a plurality of motion candidates based on the evaluation values calculated for each of the plurality of motion candidates generated by the search means, and the motion candidate selected by the evaluation value calculation means Using the motion candidate determination means for updating the motion data, the calculation load can be further increased without obtaining map information or the like in advance. No, it is possible to estimate the motion data representing the movement of the platform with high accuracy. As a result, it is possible to reduce the size and weight of the apparatus and reduce the cost.
 また、本実施の形態によれば、合成開口レーダ画像から孤立点を抽出する孤立点抽出手段をさらに備え、評価値算出手段は、孤立点の位置と運動候補との関係に基づいて評価値を算出する。このように、周りの画素と比べて輝度が高い画素である孤立点を用いることで、より高精度に運動データを推定することができる。 In addition, according to the present embodiment, the camera further includes an isolated point extracting unit that extracts an isolated point from the synthetic aperture radar image, and the evaluation value calculating unit calculates the evaluation value based on the relationship between the position of the isolated point and the motion candidate. calculate. In this way, motion data can be estimated with higher accuracy by using an isolated point that is a pixel having higher brightness than surrounding pixels.
 さらに、本実施の形態によれば、孤立点抽出手段は、孤立点を複数抽出し、評価値算出手段は、孤立点抽出手段で抽出した複数の孤立点ごとに、複数の運動候補に対応する複数の評価値を算出し、複数の孤立点ごとに算出した複数の評価値に基づいて、複数の孤立点ごとに複数の運動候補の中からに運動候補を選択し、運動候補決定手段は、評価値算出手段で複数の孤立点ごとに選択された運動候補の平均値を用いて運動データを更新する。このように、複数の孤立点を用いて探索した結果を平滑化することにより、統計的に適切な運動データに近い値を得ることができる。 Furthermore, according to the present embodiment, the isolated point extracting unit extracts a plurality of isolated points, and the evaluation value calculating unit corresponds to a plurality of motion candidates for each of the plurality of isolated points extracted by the isolated point extracting unit. A plurality of evaluation values are calculated, and based on a plurality of evaluation values calculated for each of a plurality of isolated points, a motion candidate is selected from a plurality of motion candidates for each of a plurality of isolated points. The motion data is updated using the average value of motion candidates selected for each of a plurality of isolated points by the evaluation value calculation means. Thus, by smoothing the search result using a plurality of isolated points, a value close to statistically appropriate motion data can be obtained.
 また、本実施の形態によれば、孤立点の位置と運動候補とに対応する入力データを孤立点の位置と運動候補とに応じて補償して得られる要素画素値を評価値とする。このように、SAR画像の鮮明度に対応する要素画素値を評価値とすることにより、少ない演算量で運動データを推定することができる。 Further, according to the present embodiment, the element pixel value obtained by compensating the input data corresponding to the position of the isolated point and the motion candidate according to the position of the isolated point and the motion candidate is used as the evaluation value. Thus, by using the element pixel value corresponding to the definition of the SAR image as the evaluation value, the motion data can be estimated with a small amount of calculation.
 また、本実施の形態によれば、運動候補探索手段は、プラットフォームの運動データが変化する範囲を示す閾値を設定し、閾値で設定した範囲内で運動候補を作成する。また、閾値は、入力データを取得したときの風向きまたは風速またはプラットフォームの重量に基づいて定める。これにより、SAR画像全体を処理することなく、運動データを推定することができる。 Further, according to the present embodiment, the motion candidate search means sets a threshold value indicating a range in which the motion data of the platform changes, and creates a motion candidate within the range set by the threshold value. The threshold value is determined based on the wind direction or wind speed when the input data is acquired or the weight of the platform. Thereby, motion data can be estimated without processing the entire SAR image.
 実施の形態2.
 上述の実施の形態1では、プラットフォームのアジマス方向の位置ごとに、レンジ方向の位置を閾値の範囲内で変化させたときに、要素画素値の絶対値が最大となるレンジ方向の位置を最も確からしい運動候補として選択していた。これに対して、実施の形態2では、レンジ方向の位置ごとに再生したSAR画像の孤立点の位置における画素値を求め、この値の絶対値が最大となるレンジ方向の位置を最も確からしい運動候補として選択する点が実施の形態1と異なる。実施の形態2では、この異なる点を中心に説明する。
Embodiment 2. FIG.
In the first embodiment described above, the position in the range direction where the absolute value of the element pixel value becomes the maximum when the position in the range direction is changed within the threshold range for each position in the azimuth direction of the platform is the most reliable. He was selected as a candidate for a possible exercise. On the other hand, in the second embodiment, the pixel value at the position of the isolated point of the SAR image reproduced for each position in the range direction is obtained, and the position in the range direction where the absolute value of this value is maximum is determined as the most probable motion. The point of selecting as a candidate is different from the first embodiment. In the second embodiment, this different point will be mainly described.
 この発明の実施の形態2による自己位置推定装置101の構成は、図1に示した構成と同様である。また、全体の動作も、図3に示したフローチャートと同様だが、ステップST4における、運動候補探索部6および評価値算出部7の動作は異なる。図7は、実施の形態2の運動候補探索部16および評価値算出部17の動作を示すフローチャートである。 The configuration of the self-position estimation apparatus 101 according to the second embodiment of the present invention is the same as the configuration shown in FIG. The overall operation is the same as that in the flowchart shown in FIG. 3, but the operations of the exercise candidate search unit 6 and the evaluation value calculation unit 7 in step ST4 are different. FIG. 7 is a flowchart illustrating the operations of the motion candidate search unit 16 and the evaluation value calculation unit 17 according to the second embodiment.
 次に、図7のフローチャートを参照しながら、この発明の実施の形態2における、ステップST4の動作について説明する。 Next, the operation of step ST4 in the second embodiment of the present invention will be described with reference to the flowchart of FIG.
 まず、運動候補探索部16は、運動データ格納部2から運動データを読み出し、プラットフォームのアジマス方向の位置とレンジ方向の位置との組を含む、各時刻の運動データを評価値算出部17に出力する。評価値算出部17は、運動データに基づいて、ステップST3で選択された孤立点に対応する、積算された画素値f(積分画素値fとも言う)を算出し、その値を「最大画素値Fmax」として記録する(ステップST21)。積分画素値とは、具体的には、式(2)に示されるような、プラットフォームの経路に基づいた積分により得られるSAR画像の画素値である。本実施の形態では、この積分画素値fを評価値とする。また、ここで記録された「最大画素値Fmax」を最大画素値の初期値とする。 First, the exercise candidate search unit 16 reads the exercise data from the exercise data storage unit 2 and outputs the exercise data at each time to the evaluation value calculation unit 17 including a set of the platform position in the azimuth direction and the position in the range direction. To do. The evaluation value calculation unit 17 calculates an integrated pixel value f (also referred to as an integrated pixel value f) corresponding to the isolated point selected in step ST3 based on the motion data, and calculates the value as “maximum pixel value”. Fmax "is recorded (step ST21). Specifically, the integration pixel value is a pixel value of the SAR image obtained by integration based on the platform path as shown in Expression (2). In the present embodiment, this integrated pixel value f is used as an evaluation value. Also, the “maximum pixel value Fmax” recorded here is set as the initial value of the maximum pixel value.
 次に、運動候補探索部16は、プラットフォームのアジマス方向の位置を一つ選択して開始位置とする。この処理は、実施の形態1のステップST11の処理と同じである(ステップST22)。次に、運動候補探索部16は、プラットフォームのレンジ方向の位置を一つ選択して開始位置とする(ステップST23)。この場合の開始位置は、運動データ格納部2に記録されたレンジ方向の位置のうち、ステップST22で選択されたアジマス方向の位置に対応するレンジ方向の位置である。次に、評価値算出部17は、実施の形態1のステップST13と同様に、要素画素値pを算出する(ステップST24)。評価値算出部17は、開始位置において算出された要素画素値pを「最大要素値pm」として記録する(ステップST25)。 Next, the motion candidate search unit 16 selects one position in the azimuth direction of the platform as a start position. This process is the same as the process in step ST11 of the first embodiment (step ST22). Next, the motion candidate search unit 16 selects one position in the range direction of the platform as a start position (step ST23). The start position in this case is a position in the range direction corresponding to the position in the azimuth direction selected in step ST22 among the positions in the range direction recorded in the motion data storage unit 2. Next, the evaluation value calculation unit 17 calculates the element pixel value p as in step ST13 of the first embodiment (step ST24). The evaluation value calculation unit 17 records the element pixel value p calculated at the start position as the “maximum element value pm” (step ST25).
 次に、運動候補探索部16は、ステップST23において、プラットフォームのレンジ方向の位置を一つずらし、評価値算出部17は、ステップST24おいて、要素画素値pを算出する。このとき、運動候補探索部16は、レンジ方向の位置が減少する方向にプラットフォームの位置をずらす、つまり、プラットフォームのレンジ方向の位置を「開始位置-1」の位置に設定する。その後、評価値算出部17は、ステップST25において、以下の式(5)を用いて積分画素値f’を算出し、積分画素値f’が「最大画素値Fmax」より大きいか否かの判定を行う。積分画素値f’が「最大画素値Fmax」より大きい場合には、その積分画素値f’を「最大画素値Fmax」として更新し、そのときのレンジ位置を記録し、そのときの要素画素値pを「最大要素値pm」として記録する。 Next, the motion candidate search unit 16 shifts the position of the platform in the range direction by one in step ST23, and the evaluation value calculation unit 17 calculates the element pixel value p in step ST24. At this time, the motion candidate searching unit 16 shifts the platform position in the direction in which the position in the range direction decreases, that is, sets the position in the range direction of the platform to the position of “start position−1”. Thereafter, in step ST25, the evaluation value calculation unit 17 calculates an integral pixel value f ′ using the following formula (5), and determines whether or not the integral pixel value f ′ is greater than the “maximum pixel value Fmax”. I do. When the integrated pixel value f ′ is larger than the “maximum pixel value Fmax”, the integral pixel value f ′ is updated as the “maximum pixel value Fmax”, the range position at that time is recorded, and the element pixel value at that time is recorded p is recorded as “maximum element value pm”.
Figure JPOXMLDOC01-appb-I000004
Figure JPOXMLDOC01-appb-I000004
 式(5)に示す積分画素値f’の算出処理は、レンジ方向の位置をずらした大きさに対応して、積分画素値から要素画素値を加減算する処理であるが、ずれたレンジ位置に基づいて式(2)に示す積分を行う処理と同じであり、少ない演算で式(2)と同じ結果を得ることができる。なお、式(5)において、Δxは運動候補探索部16において選択したレンジ位置に相当する。 The calculation process of the integral pixel value f ′ shown in Expression (5) is a process of adding / subtracting the element pixel value from the integral pixel value corresponding to the magnitude of the shift in the position in the range direction. Based on this, it is the same as the process of performing the integration shown in Expression (2), and the same result as Expression (2) can be obtained with a small number of operations. In Expression (5), Δx corresponds to the range position selected by the motion candidate search unit 16.
 同様に、運動候補探索部16および評価値算出部17は、プラットフォームの閾値領域の左端(レンジ位置の下限)に相当する位置に達するまで、プラットフォームのレンジ方向の位置をずらして判定を行うが、上記の積分画素値f’が「最大画素値Fmax」より小さい場合には、その時点でレンジ位置の下限方向の探索を終了する(ステップST26)。 Similarly, the motion candidate search unit 16 and the evaluation value calculation unit 17 perform the determination by shifting the position of the platform in the range direction until reaching the position corresponding to the left end (lower limit of the range position) of the platform threshold area. If the integrated pixel value f ′ is smaller than the “maximum pixel value Fmax”, the search for the lower limit direction of the range position is terminated at that time (step ST26).
 次に、運動候補探索部16はアジマス方向の位置はそのままで、レンジ方向の位置を開始位置から逆の方向、つまり、レンジ方向の位置が増加する方向にプラットフォームの位置を一つずらす。このように、運動候補探索部16および評価値算出部17は、プラットフォームのレンジ方向の位置を「開始位置+1」の位置に設定して、ステップST24、ステップST25の処理を行う。なお、「最大画素値Fmax」は初期値に設定し直される。 Next, the motion candidate search unit 16 keeps the position in the azimuth direction, and shifts the position of the platform by one in the reverse direction from the start position, that is, in the direction in which the position in the range direction increases. As described above, the motion candidate searching unit 16 and the evaluation value calculating unit 17 set the position of the platform in the range direction to the position of “start position + 1”, and perform the processes of step ST24 and step ST25. The “maximum pixel value Fmax” is reset to the initial value.
 以降も同様に、運動候補探索部16および評価値算出部17は、レンジ方向の位置が増大する方向にプラットフォームの位置をずらし、ステップST24、ステップST25の処理を行う。その後、運動候補探索部16および評価値算出部17は、ステップST26において、同様に、プラットフォームの閾値領域の右端(レンジ位置の上限)に相当する位置に達するまで、プラットフォームのレンジ方向の位置をずらして判定を行うが、上記の積分画素値f’が「最大画素値Fmax」より小さい場合には、その時点でレンジ位置の上限方向の探索を終了する(ステップST26)。 Thereafter, similarly, the motion candidate search unit 16 and the evaluation value calculation unit 17 shift the platform position in the direction in which the range direction position increases, and perform the processes of step ST24 and step ST25. Thereafter, the motion candidate searching unit 16 and the evaluation value calculating unit 17 similarly shift the position of the platform in the range direction until reaching a position corresponding to the right end (upper limit of the range position) of the threshold region of the platform in step ST26. However, if the integrated pixel value f ′ is smaller than the “maximum pixel value Fmax”, the search for the upper limit direction of the range position is terminated at that time (step ST26).
 その後、評価値算出部17は、レンジ方向の位置が減少する方向にプラットフォームの位置をずらしたときに、最終的に記録された最大画素値Fmaxと、レンジ方向の位置が増加する方向にプラットフォームの位置をずらしたときに、最終的に記録された最大画素値Fmaxとを比較し、最大画素値Fmaxが大きい方のレンジ位置とそのときのアジマス位置とを記録する(ステップST25)。 Thereafter, when the platform position is shifted in the direction in which the position in the range direction decreases, the evaluation value calculation unit 17 finally records the maximum pixel value Fmax and the platform in the direction in which the position in the range direction increases. When the position is shifted, the finally recorded maximum pixel value Fmax is compared, and the range position having the larger maximum pixel value Fmax and the azimuth position at that time are recorded (step ST25).
 以降の処理は、実施の形態1のステップST16、ステップST17と同様である。つまり、運動候補探索部16および評価値算出部17は、プラットフォームからみて、選択された孤立点が高周波パルス信号の照射領域の下端となる位置に達するまで、プラットフォームのアジマス方向の位置をずらして、処理を繰り返す(ステップST28)。評価値算出部17は、ステップST21~ステップST28までの処理で記録された、プラットフォームの各アジマス方向の位置に対応するレンジ方向の位置を、選択された孤立点の航跡として運動候補決定部8へ出力する(ステップST29)。 The subsequent processing is the same as step ST16 and step ST17 of the first embodiment. That is, the motion candidate search unit 16 and the evaluation value calculation unit 17 shift the position of the platform in the azimuth direction until the selected isolated point reaches the position that becomes the lower end of the irradiation region of the high-frequency pulse signal when viewed from the platform. The process is repeated (step ST28). The evaluation value calculation unit 17 sends the position in the range direction corresponding to the position in each azimuth direction of the platform recorded in the processing from step ST21 to step ST28 to the motion candidate determination unit 8 as the wake of the selected isolated point. Output (step ST29).
 次に、運動候補探索部16および評価値算出部17における、ステップST21からステップST27までの探索手法について、図6を用いて具体的に説明する。 Next, the search method from step ST21 to step ST27 in the exercise candidate search unit 16 and the evaluation value calculation unit 17 will be specifically described with reference to FIG.
 実施の形態1では、図6のレンジ方向位置の-Lから+Lの閾値の全範囲において、要素画素値pを算出して評価値とした。これに対して、実施の形態2では、初期の運動データに相当するレンジ方向位置を開始位置「0」として、式(5)の値が増大する方向にレンジ方向の位置をずらして判定を行い、極大となる位置を探索する。これは、探索問題において山登り法として知られている局所探索法と同様の処理である。山登り法については、一般的に知られている手法のため、説明は省略する。なお、局所探索法の一つとして山登り法を示したが、他の探索手法を用いて同様の処理を行っても良い。 In the first embodiment, the element pixel value p is calculated and used as the evaluation value in the entire range of threshold values from −L to + L at the position in the range direction in FIG. On the other hand, in the second embodiment, the range direction position corresponding to the initial motion data is set to the start position “0”, and the determination is performed by shifting the position in the range direction in the direction in which the value of the equation (5) increases. Search for the position where it becomes maximum. This is the same processing as the local search method known as the hill-climbing method in the search problem. Since the hill-climbing method is a generally known method, description thereof is omitted. In addition, although the hill-climbing method was shown as one of the local search methods, you may perform the same process using another search method.
 この場合、式(5)の値が多峰性を有するような場合には、適切なレンジ位置を算出する事ができず局所解に陥るが、開始位置から適切なレンジ位置まで、式(5)の値が単調増加であるような場合は、少ない演算回数で探索を終えることが可能となり、処理負荷を削減することができる。また、複数の孤立点を用いて探索した結果を平滑化することで、統計的に適切な運動データを推定することができる。また、実施の形態1では、要素画素値pの大小のみで評価を行っていた。これに対して、実施の形態2では、積分後の画素値を用いて評価するため、入力データに混ざっている観測雑音などの影響を受けにくくなり、適切なレンジ位置を算出できる。 In this case, when the value of Equation (5) has multimodality, an appropriate range position cannot be calculated and falls into a local solution, but from the start position to the appropriate range position, Equation (5) ) Is monotonically increasing, the search can be completed with a small number of computations, and the processing load can be reduced. Further, by smoothing the search result using a plurality of isolated points, it is possible to estimate statistically appropriate motion data. In the first embodiment, the evaluation is performed only with the magnitude of the element pixel value p. On the other hand, in the second embodiment, since evaluation is performed using the pixel value after integration, it is difficult to be influenced by observation noise mixed in input data, and an appropriate range position can be calculated.
 なお、上記では、実施の形態1と同様に、アジマス方向の位置を下限から上限まで一つずつずらしていたが、開始位置からレンジ方向の位置をずらしたときの式(5)の積分画素値f’をアジマス位置ごとに算出し、それらの中で積分画素値f’が最大となるときのアジマス位置およびレンジ位置を選択してもよい。この場合、評価値算出部17での処理回数が増加して演算負荷が増大するが、より適切な運動データを算出することができる。 In the above description, as in the first embodiment, the position in the azimuth direction is shifted one by one from the lower limit to the upper limit. However, the integrated pixel value of Expression (5) when the position in the range direction is shifted from the start position. f ′ may be calculated for each azimuth position, and among them, the azimuth position and the range position when the integrated pixel value f ′ is maximized may be selected. In this case, the number of processes in the evaluation value calculation unit 17 increases and the calculation load increases, but more appropriate exercise data can be calculated.
 以上のように、本実施の形態によれば、孤立点の位置と運動候補とに基づいて再生した合成開口レーダ画像の孤立点に対応する位置の画素値を評価値とする。このように、SAR画像の鮮明度をより正確に表す評価値を用いることで、より高精度に運動データを推定することができる。 As described above, according to the present embodiment, the pixel value at the position corresponding to the isolated point of the synthetic aperture radar image reproduced based on the position of the isolated point and the motion candidate is used as the evaluation value. In this way, motion data can be estimated with higher accuracy by using an evaluation value that more accurately represents the definition of the SAR image.
 また、本実施の形態によれば、評価値算出手段は、第1の運動候補に基づいて再生した合成開口レーダ画像の孤立点に対応する位置の画素値から、孤立点の位置と第1の運動候補とに対応する入力データを孤立点の位置と第1の運動候補とに応じて補償して得られる第1の要素画素値を減算し、孤立点の位置と第2の運動候補とに対応する前記入力データを孤立点の位置と第2の運動候補とに応じて補償して得られる第2の要素画素値を加算して得られる値を第2の運動候補に対応した画素値とする。これにより、少ない演算量で運動データを推定することができる。 Further, according to the present embodiment, the evaluation value calculating means calculates the position of the isolated point and the first value from the pixel value of the position corresponding to the isolated point of the synthetic aperture radar image reproduced based on the first motion candidate. The first element pixel value obtained by compensating the input data corresponding to the motion candidate according to the position of the isolated point and the first motion candidate is subtracted to obtain the position of the isolated point and the second motion candidate. A pixel value corresponding to the second motion candidate is obtained by adding a second element pixel value obtained by compensating the corresponding input data according to the position of the isolated point and the second motion candidate. To do. Thereby, motion data can be estimated with a small amount of calculation.
 また、本実施の形態によれば、選択した孤立点に対応する評価値が極大となる位置で探索を打ち切るようにして、適切なレンジ位置を判定することにより、少ない演算回数で運動データを得ることができる。これにより、SAR画像全体を処理することなく、運動データを推定することができるため、装置の小型化、軽量化およびコストダウンなどが可能になるという効果が得られる。 Further, according to the present embodiment, motion data is obtained with a small number of computations by determining an appropriate range position by aborting the search at a position where the evaluation value corresponding to the selected isolated point is maximized. be able to. As a result, since motion data can be estimated without processing the entire SAR image, the apparatus can be reduced in size, weight, cost, and the like.
 実施の形態3.
 上述の実施の形態1および2では、孤立点に対応する画素値、具体的には、要素画素値または積分画素値を評価値として適切なレンジ位置を探索した。これに対して、本実施の形態では、孤立点の位置の近傍の領域に含まれる画素値の自己相関から求められる点像応答関数に基づく値を評価値として適切なレンジ位置を探索する点が実施の形態1および2と異なる。実施の形態3では、この異なる点を中心に説明する。
Embodiment 3 FIG.
In the first and second embodiments described above, an appropriate range position is searched using the pixel value corresponding to the isolated point, specifically, the element pixel value or the integrated pixel value as the evaluation value. On the other hand, in the present embodiment, there is a point to search for an appropriate range position using a value based on the point image response function obtained from the autocorrelation of the pixel value included in the region near the position of the isolated point as an evaluation value. Different from the first and second embodiments. In the third embodiment, this different point will be mainly described.
 この発明の実施の形態3による自己位置推定装置102の構成については、図1に示した構成と同様である。また、全体の動作は、図3に示したフローチャートと同様だが、ステップST4における、運動候補探索部6および評価値算出部7の動作は異なる。図8は、実施の形態3の運動候補探索部26および評価値算出部27の動作を示すフローチャートである。 The configuration of the self-position estimation apparatus 102 according to Embodiment 3 of the present invention is the same as that shown in FIG. The overall operation is the same as that in the flowchart shown in FIG. 3, but the operations of the motion candidate search unit 6 and the evaluation value calculation unit 7 in step ST4 are different. FIG. 8 is a flowchart illustrating operations of the motion candidate search unit 26 and the evaluation value calculation unit 27 according to the third embodiment.
 次に、図8のフローチャートを参照しながら、この発明の実施の形態3による自己相関を用いた判定処理について説明する。図8のステップST32、ステップST33、ステップST37、ステップST38、ステップST39の動作は、実施の形態2のステップST22、ステップST23、ステップST27、ステップST28、ステップST29の動作と同様である。よって、以下では、ステップST31、ステップST34、ステップST35、ステップST36の動作を中心に説明する。 Next, a determination process using autocorrelation according to Embodiment 3 of the present invention will be described with reference to the flowchart of FIG. The operations in step ST32, step ST33, step ST37, step ST38, and step ST39 in FIG. 8 are the same as those in step ST22, step ST23, step ST27, step ST28, and step ST29 in the second embodiment. Therefore, below, it demonstrates centering around operation | movement of step ST31, step ST34, step ST35, and step ST36.
 評価値算出部27は、図8のステップST31の処理において、選択された孤立点の積分画素値の代わりに自己相関関数を求め、その後、点像応答関数を求める。点像応答関数の算出方法については、従来技術で示されている(例えば、特許文献4)。 The evaluation value calculation unit 27 obtains an autocorrelation function instead of the integral pixel value of the selected isolated point in the process of step ST31 in FIG. 8, and then obtains a point image response function. The point image response function calculation method is shown in the prior art (for example, Patent Document 4).
特開昭62-115387号公報Japanese Patent Laid-Open No. 62-115387
 i番目の孤立点に対応する自己相関関数Gの算出方法は、特許文献4で示されるように、式(6)のようになる。Mは自己相関処理を行う画像の大きさ、Nは自己相関関数の定義域である。なお、式(6)において、f()は、積分画素値f()の共役複素数を示す。 The method of calculating the autocorrelation function G i corresponding to the i-th isolated points, as in Patent Document 4 is as shown in equation (6). M is the size of the image to be subjected to autocorrelation processing, and N is the domain of the autocorrelation function. In Expression (6), f * () represents a conjugate complex number of the integral pixel value f ().
Figure JPOXMLDOC01-appb-I000005
Figure JPOXMLDOC01-appb-I000005
 式(6)に示す自己相関関数Gi(p,q)は、i番目の孤立点に対応する位置(a(i),b(i))を中心とする(2M+1)×(2M+1)画素の領域をx軸方向にp画素、y軸方向にq画素ずらして算出した自己相関値を示す。p,qは、領域をどの程度ずらしたかを示す値であり、-Nから+Nの範囲内の値とする。ここでは、孤立点の近傍の5×5画素の範囲のみを評価すると想定して、M=5、N=5とする。N=5の場合、孤立点ごとに11×11個のG()が算出され、この後の処理でフーリエ変換される。 The autocorrelation function Gi (p, q) shown in the equation (6) has (2M + 1) × (2M + 1) pixels centered on the position (a (i), b (i)) corresponding to the i th isolated point. The autocorrelation value calculated by shifting the region by p pixels in the x-axis direction and q pixels in the y-axis direction is shown. p and q are values indicating how much the region is shifted, and are values in the range of −N to + N. Here, assuming that only a 5 × 5 pixel range in the vicinity of the isolated point is evaluated, M = 5 and N = 5. When N = 5, 11 × 11 G i () are calculated for each isolated point, and Fourier transform is performed in the subsequent processing.
 評価値算出部27は、選択した孤立点に対応する自己相関関数G()を2次元フーリエ変換した後、平方根をとり、2次元逆フーリエ変換して点像応答関数を算出する。その後、評価値算出部27は、点像応答関数から、ピーク値に対する半分の値を与える座標間の幅、すなわち半値幅を求める。この処理についても、特許文献4と同様である。なお、本実施の形態では、この半値幅を評価値とする。 The evaluation value calculation unit 27 calculates a point image response function by performing a two-dimensional Fourier transform on the autocorrelation function G i () corresponding to the selected isolated point, taking a square root, and performing a two-dimensional inverse Fourier transform. Thereafter, the evaluation value calculation unit 27 obtains a width between coordinates that gives a half value with respect to the peak value, that is, a half value width, from the point image response function. This process is also the same as that of Patent Document 4. In the present embodiment, this half width is used as an evaluation value.
 実施の形態2では、ステップST21において、孤立点の積分画素値を「最大画素値Fmax」として記録していた。これに対して、本実施の形態では、ステップST31において、上記で算出した半値幅を「最小半値幅」として記録する。 In Embodiment 2, the integrated pixel value of the isolated point is recorded as “maximum pixel value Fmax” in step ST21. On the other hand, in the present embodiment, the half width calculated above is recorded as “minimum half width” in step ST31.
 次に、運動候補探索部26は、プラットフォームのアジマス方向の開始位置を選択する。この処理は、実施の形態2のステップST22の処理と同じである(ステップST32)。次に、運動候補探索部26は、プラットフォームのレンジ方向の開始位置を選択する。この処理は、実施の形態2のステップST23の処理と同じである(ステップST33)。次に、評価値算出部27は、ステップST32およびステップST33において選択されたアジマス位置とレンジ位置とに基づいて、ステップST31と同様に、選択された孤立点に対応する自己相関関数を求めた後、点像応答関数を算出し、半値幅を算出する(ステップST34)。 Next, the motion candidate search unit 26 selects the starting position of the platform in the azimuth direction. This process is the same as the process in step ST22 of the second embodiment (step ST32). Next, the motion candidate search unit 26 selects the start position of the platform in the range direction. This process is the same as the process in step ST23 of the second embodiment (step ST33). Next, the evaluation value calculation unit 27 obtains an autocorrelation function corresponding to the selected isolated point based on the azimuth position and range position selected in step ST32 and step ST33, as in step ST31. Then, the point image response function is calculated, and the half width is calculated (step ST34).
 その後、評価値算出部27は、算出された半値幅が「最小半値幅」より小さい場合には、算出された半値幅を新たな「最小半値幅」として更新し、そのときのレンジ位置を記録する(ステップST35)。一方、算出された半値幅が「最小半値幅」より大きい場合には、実施の形態2のステップST26と同様に、レンジ位置の探索を終了する(ステップST36)。 Thereafter, when the calculated half-value width is smaller than the “minimum half-value width”, the evaluation value calculation unit 27 updates the calculated half-value width as a new “minimum half-value width” and records the range position at that time. (Step ST35). On the other hand, when the calculated half-value width is larger than the “minimum half-value width”, the search for the range position is ended as in step ST26 of the second embodiment (step ST36).
 その後、評価値算出部27は、レンジ方向の位置が減少する方向にプラットフォームの位置を変えながら最小半値幅の探索を行い、最終的に記録されたレンジ方向の位置とそのときのアジマス位置とを記録する(ステップST37)。以降の処理は、実施の形態2のステップST28、ステップST29と同様である。 Thereafter, the evaluation value calculation unit 27 searches for the minimum half-value width while changing the position of the platform in the direction in which the position in the range direction decreases, and finally determines the position in the range direction and the azimuth position at that time. Record (step ST37). The subsequent processing is the same as step ST28 and step ST29 of the second embodiment.
 半値幅を用いたプラットフォームの位置の推定処理は、半値幅が小さいほど、孤立点を中心とする点像応答関数のピークが鋭くなり、SAR画像がシャープになるという推測に基づくものである。つまり、半値幅がより小さくなれば、プラットフォームの推定位置がより確からしいと推定できる。 The platform position estimation process using the half-value width is based on the assumption that the smaller the half-value width, the sharper the point image response function centered on the isolated point and the sharper the SAR image. That is, if the half width becomes smaller, it can be estimated that the estimated position of the platform is more likely.
 なお、自己相関関数に関しては、ステップST34において、式(6)に示した演算を行うとしたが、実施の形態2の式(5)のように、レンジ位置のずれ分のみを加減算する演算を行うことで、式(6)より少ない演算量で式(6)と同様の値を算出することができる。これに関しては、実施の形態2から容易に類推できるため、詳細な説明は省略する。 As for the autocorrelation function, the calculation shown in the equation (6) is performed in step ST34. However, as in the equation (5) in the second embodiment, the calculation for adding and subtracting only the shift amount of the range position is performed. By performing the calculation, it is possible to calculate the same value as that of Expression (6) with a smaller amount of calculation than Expression (6). Since this can be easily inferred from the second embodiment, detailed description thereof is omitted.
 また、自己相関関数を算出する際のMやNの値は、これに限定するものではなく、孤立点の近傍を評価できるのであれば他の値でもよい。また、MやNの値が大きくなるに従い演算量が増えるため、使用する計算機の性能に応じてMやNの値を定めるようにしてもよい。 Further, the values of M and N when calculating the autocorrelation function are not limited to this, and may be other values as long as the vicinity of the isolated point can be evaluated. Further, since the amount of calculation increases as the values of M and N increase, the values of M and N may be determined according to the performance of the computer used.
 以上のように、本実施の形態によれば、孤立点の位置と運動候補とに基づいて再生した合成開口レーダ画像の孤立点の位置の近傍における画素値の自己相関から得られる半値幅を評価値とした。このように、SAR画像の鮮明度に対応する半値幅を用いることで、高精度に運動データを推定することができる。 As described above, according to the present embodiment, the half-value width obtained from the autocorrelation of pixel values in the vicinity of the isolated point position of the synthetic aperture radar image reproduced based on the isolated point position and the motion candidate is evaluated. Value. In this way, motion data can be estimated with high accuracy by using the half width corresponding to the definition of the SAR image.
 実施の形態4.
 実施の形態1から3では、孤立点ごとに推定した航跡を平滑化して最終的な航跡を決定し、これを用いて運動データを更新していた。これに対して、本実施の形態は、孤立点ごとに評価値を算出して航跡を推定するのではなく、画像全体に対して評価値を算出して推定した航跡で運動データを更新する点が実施の形態1から3と異なる。実施の形態4では、この異なる点を中心に説明する。なお、本実施の形態では、実施の形態3のように自己相関関数に基づく評価値を用いて説明するが、これに限定するものではなく、実施の形態1および2のように、要素画素値や積分画素値に基づく評価値を用いても差し支えない。
Embodiment 4 FIG.
In Embodiments 1 to 3, the wake estimated for each isolated point is smoothed to determine the final wake, and the motion data is updated using this. On the other hand, this embodiment does not estimate the track by calculating the evaluation value for each isolated point, but updates the motion data with the estimated track by calculating the evaluation value for the entire image. Is different from the first to third embodiments. In the fourth embodiment, this different point will be mainly described. In this embodiment, the evaluation value based on the autocorrelation function is described as in the third embodiment. However, the present invention is not limited to this, and the element pixel value as in the first and second embodiments. Alternatively, an evaluation value based on the integration pixel value may be used.
 この発明の実施の形態4による自己位置推定装置200の構成を図9に示す。自己位置推定装置200は、入力データ格納部1、運動データ格納部2、画像再生処理部3、SAR画像格納部4、運動候補探索部36、評価値算出部37、運動候補決定部8および制御部9により構成される。自己位置推定装置200の構成は、図1に示した自己位置推定装置100から孤立点抽出部5を除いた構成と同様だが、運動候補探索部6および評価値算出部7の動作は異なる。 FIG. 9 shows the configuration of a self-position estimation apparatus 200 according to Embodiment 4 of the present invention. The self-position estimation apparatus 200 includes an input data storage unit 1, an exercise data storage unit 2, an image reproduction processing unit 3, a SAR image storage unit 4, an exercise candidate search unit 36, an evaluation value calculation unit 37, an exercise candidate determination unit 8, and a control. It is comprised by the part 9. The configuration of the self-position estimation apparatus 200 is the same as that of the self-position estimation apparatus 100 shown in FIG. 1 except the isolated point extraction unit 5, but the operations of the motion candidate search unit 6 and the evaluation value calculation unit 7 are different.
 図10は、実施の形態4の全体の動作を示すフローチャートである。実施の形態4の自己位置推定装置200の全体の動作は、実施の形態3の自己位置推定装置102において、画像の中心点を孤立点(a(i),b(i))とし、Mを画像のサイズ相当にして処理した場合の動作と同様である。この場合、実施の形態3の孤立点抽出と孤立点選択に相当する処理は不要となり、自己相関関数Gの対象とする画像領域の大きさMは、画像全体の大きさより少し小さい値となる。それ以外の評価値の算出方法や探索手法は実施の形態3と同じである。 FIG. 10 is a flowchart showing the overall operation of the fourth embodiment. The overall operation of the self-position estimation apparatus 200 according to the fourth embodiment is as follows. In the self-position estimation apparatus 102 according to the third embodiment, the center point of the image is an isolated point (a (i), b (i)), and M is This is the same as the operation when processing is performed corresponding to the size of the image. In this case, the processing corresponding to isolated point extraction and isolated point selection according to the third embodiment is not necessary, and the size M of the image area targeted by the autocorrelation function G is slightly smaller than the size of the entire image. The other evaluation value calculation methods and search methods are the same as those in the third embodiment.
 以下、図10のフローチャートを参照しながら、本実施の形態の自己位置推定装置200の動作について説明する。 Hereinafter, the operation of the self-position estimation apparatus 200 of the present embodiment will be described with reference to the flowchart of FIG.
 まず、ステップST40において、画像再生処理部3は、図3のステップST1と同様にSAR画像を生成してSAR画像格納部4に格納する。 First, in step ST40, the image reproduction processing unit 3 generates a SAR image and stores it in the SAR image storage unit 4 as in step ST1 of FIG.
 次に、ステップST41において、評価値算出部37は、画像全体を対象として自己相関関数を算出する。具体的には、評価値算出部37は、画像の中心点を孤立点(a(i),b(i))として、式(6)に示す自己相関関数を算出する。例えば、SAR画像のサイズが101×101画素(0≦x≦100、0≦y≦100)の場合、画像の中心点(50,50)を(a(i),b(i))とし、N=5、M=45として算出すればよい。これにより、画像の中心点から±45画素(5≦x≦95、5≦y≦95)の領域と、画像の中心点から±N=±5画素の範囲だけずらした位置を中心とする±45画素の領域との間の相関が得られる。その後、評価値算出部37は、画像全体に対して求めた自己相関関数から、実施の形態3のステップST31と同様に半値幅を求めて評価値とする。 Next, in step ST41, the evaluation value calculation unit 37 calculates an autocorrelation function for the entire image. Specifically, the evaluation value calculation unit 37 calculates the autocorrelation function shown in Expression (6) with the center point of the image as an isolated point (a (i), b (i)). For example, if the size of the SAR image is 101 × 101 pixels (0 ≦ x ≦ 100, 0 ≦ y ≦ 100), the center point (50, 50) of the image is (a (i), b (i)) What is necessary is just to calculate as N = 5 and M = 45. As a result, ± 45 pixels (5 ≦ x ≦ 95, 5 ≦ y ≦ 95) from the center point of the image, and a position shifted by a range of ± N = ± 5 pixels from the center point of the image ± A correlation between the 45 pixel area is obtained. Thereafter, the evaluation value calculation unit 37 obtains a half-value width from the autocorrelation function obtained for the entire image in the same manner as in step ST31 of the third embodiment, and sets it as an evaluation value.
 次に、運動候補探索部36は、ステップST42において、プラットフォームのアジマス方向の開始位置を選択し、ステップST43において、プラットフォームのレンジ方向の開始位置を選択する。これらの処理は、実施の形態3のステップST32、ステップST33の処理と同じである。 Next, the motion candidate search unit 36 selects the start position of the platform in the azimuth direction in step ST42, and selects the start position of the platform in the range direction in step ST43. These processes are the same as those in step ST32 and step ST33 of the third embodiment.
 次に、評価値算出部37は、ステップST42およびステップST43で選択されたアジマス位置とレンジ位置とに基づいて、ステップST41と同様に、画像全体に対応する自己相関関数を求めた後、点像応答関数を算出し、半値幅を算出する(ステップST44)。以降、ステップST48までの処理は実施の形態3のステップST38までの処理と同じである。 Next, the evaluation value calculation unit 37 obtains an autocorrelation function corresponding to the entire image based on the azimuth position and the range position selected in step ST42 and step ST43, and then calculates a point image. A response function is calculated, and a half width is calculated (step ST44). Henceforth, the process to step ST48 is the same as the process to step ST38 of Embodiment 3.
 評価値算出部37は、ステップST41からステップST38までの処理で最終的に記録された、各アジマス方向の位置に対応するレンジ方向の位置をプラットフォームの航跡として運動候補決定部8へ出力する(ステップST49)。運動候補決定部8は、評価値算出部37から出力された航跡を用いて運動データ格納部2に格納された運動データを更新する(ステップST50)。 The evaluation value calculation unit 37 outputs the position in the range direction corresponding to the position in each azimuth direction, which is finally recorded in the processing from step ST41 to step ST38, to the motion candidate determination unit 8 as a wake of the platform (step). ST49). The exercise candidate determination unit 8 updates the exercise data stored in the exercise data storage unit 2 using the wake output from the evaluation value calculation unit 37 (step ST50).
 以上のように、この発明の実施の形態4によれば、画像全体に対する自己相関に基づいて評価値を算出するようにしたため、適切な孤立点が算出できないような場合であっても、プラットフォームの位置を推定することができるという効果が得られる。 As described above, according to the fourth embodiment of the present invention, the evaluation value is calculated based on the autocorrelation with respect to the entire image, so even if a suitable isolated point cannot be calculated, The effect that the position can be estimated is obtained.
1 入力データ格納部、2 運動データ格納部、3 画像再生処理部、4 SAR画像格納部、5 孤立点抽出部、6 運動候補探索部、7 評価値算出部、8 運動候補決定部、9 制御部、16 運動候補探索部、17 評価値算出部、26 運動候補探索部、27 評価値算出部、36 運動候補探索部、37 評価値算出部、51 メモリ、52 プロセッサ、100 自己位置推定装置、101 自己位置推定装置、102 自己位置推定装置、200 自己位置推定装置。 1 input data storage unit, 2 motion data storage unit, 3 image reproduction processing unit, 4 SAR image storage unit, 5 isolated point extraction unit, 6 motion candidate search unit, 7 evaluation value calculation unit, 8 motion candidate determination unit, 9 control Unit, 16 exercise candidate search unit, 17 evaluation value calculation unit, 26 exercise candidate search unit, 27 evaluation value calculation unit, 36 exercise candidate search unit, 37 evaluation value calculation unit, 51 memory, 52 processor, 100 self-position estimation device, 101 self-position estimation apparatus, 102 self-position estimation apparatus, 200 self-position estimation apparatus.

Claims (18)

  1.  合成開口レーダの入力データとプラットフォームの運動を示す運動データとに基づいて合成開口レーダ画像を再生する画像再生処理手段と、
     前記運動データの候補となる値を示す運動候補を複数生成する運動候補探索手段と、
     前記入力データと前記運動候補とに基づいて、前記運動データが前記運動候補のときの前記合成開口レーダ画像の鮮明度を表す評価値を算出し、前記運動候補探索手段で生成された複数の運動候補ごとにそれぞれ算出された前記評価値に基づいて前記複数の運動候補の中から運動候補を選択する評価値算出手段と、
     前記評価値算出手段で選択された運動候補を用いて前記運動データを更新する運動候補決定手段と
    を備えた自己位置推定装置。
    Image reproduction processing means for reproducing a synthetic aperture radar image based on synthetic aperture radar input data and motion data indicating platform motion;
    Exercise candidate search means for generating a plurality of exercise candidates indicating values that are candidates for the exercise data;
    Based on the input data and the motion candidate, an evaluation value representing the definition of the synthetic aperture radar image when the motion data is the motion candidate is calculated, and a plurality of motions generated by the motion candidate search means Evaluation value calculating means for selecting an exercise candidate from the plurality of exercise candidates based on the evaluation value calculated for each candidate;
    A self-position estimation apparatus comprising: a motion candidate determination unit that updates the motion data using a motion candidate selected by the evaluation value calculation unit.
  2.  前記合成開口レーダ画像から孤立点を抽出する孤立点抽出手段をさらに備え、
     前記評価値算出手段は、前記孤立点の位置と前記運動候補との関係に基づいて評価値を算出することを特徴とする請求項1に記載の自己位置推定装置。
    Further comprising an isolated point extracting means for extracting an isolated point from the synthetic aperture radar image;
    The self-position estimation apparatus according to claim 1, wherein the evaluation value calculation unit calculates an evaluation value based on a relationship between the position of the isolated point and the motion candidate.
  3.  前記孤立点抽出手段は、前記孤立点を複数抽出し、
     前記評価値算出手段は、前記孤立点抽出手段で抽出した複数の孤立点ごとに、前記複数の運動候補に対応する複数の評価値を算出し、前記複数の孤立点ごとに算出した複数の評価値に基づいて、前記複数の孤立点ごとに前記複数の運動候補の中からに運動候補を選択し、
     前記運動候補決定手段は、前記評価値算出手段で前記複数の孤立点ごとに選択された運動候補の平均値を用いて前記運動データを更新することを特徴とする請求項2に記載の自己位置推定装置。
    The isolated point extracting means extracts a plurality of the isolated points,
    The evaluation value calculating unit calculates a plurality of evaluation values corresponding to the plurality of motion candidates for each of a plurality of isolated points extracted by the isolated point extracting unit, and a plurality of evaluations calculated for each of the plurality of isolated points. Based on the value, a motion candidate is selected from the plurality of motion candidates for each of the plurality of isolated points,
    3. The self-position according to claim 2, wherein the motion candidate determination unit updates the motion data using an average value of motion candidates selected for each of the plurality of isolated points by the evaluation value calculation unit. Estimating device.
  4.  前記評価値は、前記孤立点の位置と前記運動候補とに対応する前記入力データを前記孤立点の位置と前記運動候補とに応じて補償して得られる要素画素値であることを特徴とする請求項2または請求項3のいずれか1項に記載の自己位置推定装置。 The evaluation value is an element pixel value obtained by compensating the input data corresponding to the position of the isolated point and the motion candidate according to the position of the isolated point and the motion candidate. The self-position estimation apparatus according to any one of claims 2 and 3.
  5.  前記評価値は、前記孤立点の位置と前記運動候補とに基づいて再生した合成開口レーダ画像の前記孤立点に対応する位置の画素値であることを特徴とする請求項2または請求項3のいずれか1項に記載の自己位置推定装置。 4. The evaluation value according to claim 2, wherein the evaluation value is a pixel value at a position corresponding to the isolated point of the synthetic aperture radar image reproduced based on the position of the isolated point and the motion candidate. The self-position estimation apparatus according to any one of claims.
  6.  前記評価値算出手段は、第1の運動候補に基づいて再生した合成開口レーダ画像の前記孤立点に対応する位置の画素値から、前記孤立点の位置と前記第1の運動候補とに対応する前記入力データを前記孤立点の位置と前記第1の運動候補とに応じて補償して得られる第1の要素画素値を減算し、前記孤立点の位置と第2の運動候補とに対応する前記入力データを前記孤立点の位置と前記第2の運動候補とに応じて補償して得られる第2の要素画素値を加算して得られる値を前記第2の運動候補に対応した画素値とすることを特徴とする請求項5に記載の自己位置推定装置。 The evaluation value calculation means corresponds to the position of the isolated point and the first motion candidate from the pixel value of the position corresponding to the isolated point of the synthetic aperture radar image reproduced based on the first motion candidate. A first element pixel value obtained by compensating the input data according to the position of the isolated point and the first motion candidate is subtracted to correspond to the position of the isolated point and the second motion candidate. A pixel value corresponding to the second motion candidate is obtained by adding a second element pixel value obtained by compensating the input data according to the position of the isolated point and the second motion candidate. The self-position estimation apparatus according to claim 5, wherein
  7.  前記評価値は、前記孤立点の位置と前記運動候補とに基づいて再生した合成開口レーダ画像の前記孤立点の位置の近傍における画素値の自己相関から得られる半値幅であることを特徴とする請求項2または請求項3のいずれか1項に記載の自己位置推定装置。 The evaluation value is a half-value width obtained from an autocorrelation of pixel values in the vicinity of the position of the isolated point of the synthetic aperture radar image reproduced based on the position of the isolated point and the motion candidate. The self-position estimation apparatus according to any one of claims 2 and 3.
  8.  前記評価値は、前記運動候補に基づいて再生した合成開口レーダ画像の画素値の自己相関から得られる半値幅であることを特徴とする請求項1に記載の自己位置推定装置。 The self-position estimation apparatus according to claim 1, wherein the evaluation value is a half-value width obtained from an autocorrelation of pixel values of a synthetic aperture radar image reproduced based on the motion candidate.
  9.  前記運動データは、前記プラットフォームの位置または速度を含むことを特徴とする請求項1に記載の自己位置推定装置。 The self-position estimation apparatus according to claim 1, wherein the movement data includes a position or a speed of the platform.
  10.  前記運動候補探索手段は、前記プラットフォームの運動データが変化する範囲を示す閾値を設定し、前記閾値で設定した範囲内で前記運動候補を作成することを特徴とする請求項1に記載の自己位置推定装置。 2. The self-position according to claim 1, wherein the motion candidate search unit sets a threshold value indicating a range in which the motion data of the platform changes, and creates the motion candidate within the range set by the threshold value. Estimating device.
  11.  前記閾値は、前記入力データを取得したときの風向きまたは風速またはプラットフォームの重量に基づいて定めることを特徴とする請求項10に記載の自己位置推定装置。 The self-position estimation apparatus according to claim 10, wherein the threshold is determined based on a wind direction or a wind speed when the input data is acquired or a weight of the platform.
  12.  前記画像再生処理手段は、更新された前記運動データに基づいて前記合成開口レーダ画像の再生をやり直すことを特徴とする請求項1に記載の自己位置推定装置。 The self-position estimation apparatus according to claim 1, wherein the image reproduction processing unit regenerates the synthetic aperture radar image based on the updated motion data.
  13.  更新された前記運動データを用いて一連の処理を繰り返し実行することを特徴とする請求項1に記載の自己位置推定装置。 The self-position estimation apparatus according to claim 1, wherein a series of processing is repeatedly executed using the updated motion data.
  14.  前記プラットフォームの運動が曲線を描く場合、前記曲線を複数の区間に区切り、各区間において前記プラットフォームが直線で移動するものとして処理を行うことを特徴とする請求項1に記載の自己位置推定装置。 2. The self-position estimation apparatus according to claim 1, wherein when the platform motion draws a curve, the process is performed by dividing the curve into a plurality of sections and moving the platform in a straight line in each section.
  15.  前記運動候補決定手段は、前記評価値が最大値となる運動候補を選択することを特徴とする請求項1に記載の自己位置推定装置。 2. The self-position estimation apparatus according to claim 1, wherein the motion candidate determination means selects a motion candidate having the maximum evaluation value.
  16.  前記運動候補決定手段は、前記評価値が極大値となる運動候補を選択することを特徴とする請求項1に記載の自己位置推定装置。 The self-position estimation apparatus according to claim 1, wherein the motion candidate determination means selects a motion candidate whose evaluation value is a maximum value.
  17.  合成開口レーダの入力データとプラットフォームの運動を示す運動データとに基づいて合成開口レーダ画像を再生する画像再生処理ステップと、
     前記運動データの候補となる値を示す運動候補を複数生成する運動候補探索ステップと、
     前記入力データと前記運動候補とに基づいて、前記運動データが前記運動候補のときの前記合成開口レーダ画像の鮮明度を表す評価値を算出し、前記運動候補探索ステップで生成された複数の運動候補ごとにそれぞれ算出された前記評価値に基づいて前記複数の運動候補の中から運動候補を選択する評価値算出ステップと、
     前記評価値算出ステップで選択された運動候補を用いて前記運動データを更新する運動候補決定ステップと
    を備えた自己位置推定方法。
    An image reproduction processing step for reproducing a synthetic aperture radar image based on the input data of the synthetic aperture radar and the motion data indicating the motion of the platform;
    A motion candidate search step for generating a plurality of motion candidates indicating values that are candidates for the motion data;
    Based on the input data and the motion candidate, an evaluation value representing the definition of the synthetic aperture radar image when the motion data is the motion candidate is calculated, and a plurality of motions generated in the motion candidate search step An evaluation value calculating step of selecting an exercise candidate from the plurality of exercise candidates based on the evaluation value calculated for each candidate;
    A self-position estimation method comprising: a motion candidate determination step that updates the motion data using the motion candidate selected in the evaluation value calculation step.
  18.  コンピュータが実行する自己位置推定処理の処理手順を記述している自己位置推定処理プログラムであって、
     合成開口レーダの入力データとプラットフォームの運動を示す運動データとに基づいて合成開口レーダ画像を再生する画像再生処理手段と、
     前記運動データの候補となる値を示す運動候補を複数生成する運動候補探索手段と、
     前記入力データと前記運動候補とに基づいて、前記運動データが前記運動候補のときの前記合成開口レーダ画像の鮮明度を表す評価値を算出し、前記運動候補探索手段で生成された複数の運動候補ごとにそれぞれ算出された前記評価値に基づいて前記複数の運動候補の中から運動候補を選択する評価値算出手段と、
     前記評価値算出手段で選択された運動候補を用いて前記運動データを更新する運動候補決定手段と
    が記述されている自己位置推定処理プログラム。
    A self-position estimation processing program describing a processing procedure of self-position estimation processing executed by a computer,
    Image reproduction processing means for reproducing a synthetic aperture radar image based on synthetic aperture radar input data and motion data indicating platform motion;
    Exercise candidate search means for generating a plurality of exercise candidates indicating values that are candidates for the exercise data;
    Based on the input data and the motion candidate, an evaluation value representing the definition of the synthetic aperture radar image when the motion data is the motion candidate is calculated, and a plurality of motions generated by the motion candidate search means Evaluation value calculating means for selecting an exercise candidate from the plurality of exercise candidates based on the evaluation value calculated for each candidate;
    A self-position estimation processing program in which exercise candidate determination means for updating the exercise data using the exercise candidate selected by the evaluation value calculation means is described.
PCT/JP2016/064237 2016-05-13 2016-05-13 Self-position estimation device, self-position estimation method, and self-position estimation processing program WO2017195340A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/064237 WO2017195340A1 (en) 2016-05-13 2016-05-13 Self-position estimation device, self-position estimation method, and self-position estimation processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/064237 WO2017195340A1 (en) 2016-05-13 2016-05-13 Self-position estimation device, self-position estimation method, and self-position estimation processing program

Publications (1)

Publication Number Publication Date
WO2017195340A1 true WO2017195340A1 (en) 2017-11-16

Family

ID=60267165

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/064237 WO2017195340A1 (en) 2016-05-13 2016-05-13 Self-position estimation device, self-position estimation method, and self-position estimation processing program

Country Status (1)

Country Link
WO (1) WO2017195340A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4963877A (en) * 1987-06-24 1990-10-16 The Secretary Of State For Defence In Her Britannic Majesty's Government Of The United Kingdom Of Great Britain And Northern Ireland Synthetic aperture radar
JP2007292531A (en) * 2006-04-24 2007-11-08 Mitsubishi Space Software Kk Sar-mounted machine velocity measuring instrument, program, and method, and image enhancement device and program
US20130300599A1 (en) * 2012-05-11 2013-11-14 Raytheon Company On-Board INS Quadratic Correction Method Using Maximum Likelihood Motion Estimation Of Ground Scatterers From Radar Data
JP2015529800A (en) * 2012-06-28 2015-10-08 レイセオン カンパニー Wide beam SAR focusing method using navigation solutions derived from autofocus data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4963877A (en) * 1987-06-24 1990-10-16 The Secretary Of State For Defence In Her Britannic Majesty's Government Of The United Kingdom Of Great Britain And Northern Ireland Synthetic aperture radar
JP2007292531A (en) * 2006-04-24 2007-11-08 Mitsubishi Space Software Kk Sar-mounted machine velocity measuring instrument, program, and method, and image enhancement device and program
US20130300599A1 (en) * 2012-05-11 2013-11-14 Raytheon Company On-Board INS Quadratic Correction Method Using Maximum Likelihood Motion Estimation Of Ground Scatterers From Radar Data
JP2015529800A (en) * 2012-06-28 2015-10-08 レイセオン カンパニー Wide beam SAR focusing method using navigation solutions derived from autofocus data

Similar Documents

Publication Publication Date Title
US11506512B2 (en) Method and system using tightly coupled radar positioning to improve map performance
CN107850673B (en) Vision inertial ranging attitude drift calibration
KR101753267B1 (en) Exterior hybrid photo mapping
EP2133662B1 (en) Methods and system of navigation using terrain features
JP4926127B2 (en) Front imaging control device for moving body
JP6249110B1 (en) Synthetic aperture radar equipment
JP2020067439A (en) System and method for estimating position of moving body
JP5590010B2 (en) Positioning device and program
US20210278549A1 (en) Lane-level navigation system for ground vehicles with lidar and cellular signals
US9230335B2 (en) Video-assisted target location
JP2012207919A (en) Abnormal value determination device, positioning device, and program
US20140286537A1 (en) Measurement device, measurement method, and computer program product
JP7351040B2 (en) Graph-based array signal denoising for perturbed synthetic aperture radar
US20130082873A1 (en) Moving Information Determination Apparatus, a Receiver, and a Method Thereby
US9369835B2 (en) Method and apparatus for enhancing access point databases
CN115166714B (en) Single-channel SAR moving ship two-dimensional speed estimation and repositioning method and device
Wallrath et al. Egomotion estimation for a sensor platform by fusion of radar and IMU data
JP2013113789A (en) Speed estimation device and program
US7123749B2 (en) Height measurement apparatus
JP4902868B2 (en) Information processing apparatus and program
US20210255335A1 (en) System and Method for GNSS Ambiguity Resolution
Zhai et al. The robust residual-based adaptive estimation Kalman filter method for strap-down inertial and geomagnetic tightly integrated navigation system
WO2017195340A1 (en) Self-position estimation device, self-position estimation method, and self-position estimation processing program
JP6289672B2 (en) Synthetic aperture radar signal processing apparatus and synthetic aperture radar signal processing program
JP2013108961A (en) Positioning device and program

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16901688

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16901688

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP