JP2004191052A - Synthetic aperture radar signal processing device - Google Patents

Synthetic aperture radar signal processing device Download PDF

Info

Publication number
JP2004191052A
JP2004191052A JP2002355408A JP2002355408A JP2004191052A JP 2004191052 A JP2004191052 A JP 2004191052A JP 2002355408 A JP2002355408 A JP 2002355408A JP 2002355408 A JP2002355408 A JP 2002355408A JP 2004191052 A JP2004191052 A JP 2004191052A
Authority
JP
Japan
Prior art keywords
image
subpatch
range
signal processing
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002355408A
Other languages
Japanese (ja)
Other versions
JP2004191052A5 (en
JP4016824B2 (en
Inventor
Ryoji Tsuchiyama
了士 土山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002355408A priority Critical patent/JP4016824B2/en
Publication of JP2004191052A publication Critical patent/JP2004191052A/en
Publication of JP2004191052A5 publication Critical patent/JP2004191052A5/ja
Application granted granted Critical
Publication of JP4016824B2 publication Critical patent/JP4016824B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem wherein imaging efficiency is lowered because the difference of imaging conditions between each range becomes remarkable following observation width enlargement of the range direction in a synthetic aperture radar signal processing device. <P>SOLUTION: This device is provided with a parameter calculation part 3 for performing sub-patch split in the range direction and calculating the synthetic aperture length and the imaging length in the azimuth direction relative to each sub-patch, and a timing control part 4 for determining timing for imaging relative to each sub-patch image, to thereby effectively utilize the beam irradiation width in the azimuth direction of each sub-patch image. The device is also provided with a signal processing device for imaging relative to each sub-patch image, to thereby enable efficient imaging. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、移動する飛行体に搭載される合成開口レーダ(Synthetic Aperture Radar、以下SARとも記述する)によって得られるSAR画像生成用パルスデータを画像化して表示する合成開口レーダ信号処理装置に関するものである。
【0002】
【従来の技術】
リモートセンシングの分野において、航空機や衛星などの移動する飛行体に搭載し、資源探査や環境調査、偵察などを目的とした合成開口レーダ信号処理装置が実用化されている。
【0003】
このような合成開口レーダ信号処理装置において、アジマス方向にビームを複数照射することによりアジマス方向に高分解能化すると同時に、レンジ方向の観測幅拡大を行うマルチビーム合成開口レーダに関する技術が知られている(例えば、非特許文献1)。
【0004】
【非特許文献1】
藤坂貴彦他著「アジマス方向高分解能化とレンジ方向観測幅拡大を可能とするマルチビーム合成開口レーダ」、電子情報通信学会論文誌Vol. J82−B No.12、1999年12月、p.2345−2354
【0005】
【発明が解決しようとする課題】
すなわち、上記で述べられているようなアジマス方向のマルチビーム化などにより、アジマス方向の解像度を高分解能化しつつレンジ方向の観測幅拡大を行うと、アジマス方向のビーム照射幅はレンジが遠くなるに従って拡がりが大きくなるので、各レンジにおけるアジマス方向のビーム照射幅の違いが顕著になり、長方形領域の画像化を基本とする現在の信号処理装置では、画像化の対象となる最も近いレンジのアジマス方向のビーム照射幅に合わせたアジマス長分の画像化を行うため、遠いレンジでビームが照射されており、本来画像化が可能な領域であるにもかかわらず一度の信号処理で画像化が行われず、効率が悪いという問題がある。
【0006】
また、同様にアジマス方向の解像度を高分解能化しつつレンジ方向の観測幅拡大を行うと、各レンジにおいて所望のアジマス分解能を得るために必要となる飛行体の移動距離(以降、合成開口長)はレンジが遠くなるに従って長くなるので、各レンジにおいて必要となる合成開口長の違いが顕著になり、長方形領域の画像化を基本とする現在の信号処理装置では、画像化の対象となる最も遠いレンジの合成開口長を利用して全レンジの画像化を行うため、近いレンジにおいて画像化に必要な合成開口長に飛行体が達しているにも関わらず、画像化が直ちに行われないという問題があるだけでなく、近いレンジにおいて本来画像化可能な領域であるにもかかわらず一度の信号処理で画像化が行われず、効率が悪いという問題がある。
【0007】
さらに、同様にアジマス方向の解像度を高分解能化しつつレンジ方向の観測幅拡大を行うと、アジマス方向のビーム照射幅はレンジが近くなるに従って狭くなることから、長方形領域の画像化を基本とする現在の信号処理装置では、画像化の対象となる最も遠いレンジで必要となる合成開口長を利用して全レンジの画像化を行うため、飛行体が最も遠いレンジの合成開口長分を飛行する間、近いレンジにおいて継続してビームが照射されない領域が出てくる可能性があり、各レンジで必要となる合成開口長を用いれば、本来画像化可能な近いレンジの領域が画像化できないことになるという問題がある。
【0008】
この様な従来の技術などにより、アジマス方向の解像度を高分解能化しつつレンジ方向の観測幅を拡大する目的で、長方形領域の画像化を基本とする現在の信号処理装置を用いて画像化を行うには、レンジによって異なる画像化条件について配慮する余地がある。特に、リアルタイム性が求められる運用における画像化処理においては、効率よい処理方式が必要となるが、レンジによって異なる画像化条件を考慮に入れて画像化処理の効率化を行う装置は実現化されていない。
【0009】
この発明は、係る課題を解決するためになされたものであり、レンジ方向に観測幅が拡大した場合にも、各レンジにおけるアジマス方向のビーム照射幅に応じて効率よく画像化の信号処理を行わせ、継続して画像を得ることを目的とする。また、レンジ方向に観測幅が拡大した場合にも、各レンジにおける合成開口長に応じて効率よく画像化の信号処理を行わせ、継続して画像を得ることを目的とする。
【0010】
【課題を解決するための手段】
この発明に係る合成開口レーダ信号処理装置は、移動する飛行体に搭載された合成開口レーダ(SAR)によって得られるSAR画像生成用パルスデータ及び飛行体の慣性データを入力するデータ入力部と、SAR画像生成に用いるパラメータをレンジ方向のサブパッチ画像毎に計算するパラメータ計算部と、パラメータ計算部により得られたパラメータに基づきサブパッチ画像毎に画像生成処理の開始及び終了を決定するタイミング制御部と、パラメータ計算部によって得られるパラメータ、並びにタイミング制御部によって得られるタイミングに基づきデータ入力部から継続して入力されるパルスデータをサブパッチ画像毎にSAR画像生成処理を行う信号処理装置と、信号処理装置より継続して得られる複数のサブパッチ画像をその位置に応じて表示する画像表示装置とを備えたものである。
【0011】
【発明の実施の形態】
実施の形態1.
図1は、実施の形態1における合成開口レーダ信号処理装置の構成を示している。図に記載する合成開口レーダ1は、レーダパルスを送受信するアンテナや、飛行体の慣性データを計測する慣性センサ装置などによって構成されるが、ここではこの発明の要旨とする部分を説明するために詳細な構成は省略する。
【0012】
合成開口レーダ1は後述する飛行体8に搭載され、SAR画像生成用のパルスデータ及び飛行体8の慣性データを継続して観測を行い、合成開口レーダ信号処理装置7を構成するデータ入力部2へ出力する。
【0013】
データ入力部2は、合成開口レーダ1によって観測されたパルスデータ及び飛行体8の慣性データを継続して入力し、飛行体8の慣性データをタイミング制御部4へ、パルスデータを信号処理装置5へそれぞれ出力する。
【0014】
パラメータ計算部3はレンジ方向に分割される各サブパッチ画像毎の合成開口長及びアジマス方向の画像長を含めた画像化に必要なパラメータを計算してタイミング制御部4及び信号処理装置5へ出力する。
【0015】
タイミング制御部4は、パラメータ計算部3から入力されるレンジ方向に分割された各サブパッチ画像の合成開口長及びアジマス方向の画像長に基づき、データ入力部2から継続して入力される慣性データより飛行体8の自機位置計算を行うことによって、各サブパッチ画像がアジマス方向に連続して出力されるように画像化処理を開始するタイミングを決定するとともに、各サブパッチ画像の画像化に必要なパルスデータの入力が終了するタイミングを決定し、信号処理装置5へ出力する。
また、タイミング制御部4によって計算されるパルスデータ毎の飛行体8の自機位置は継続して信号処理装置5へ出力する。
【0016】
信号処理装置5は、データ入力部2、パラメータ計算部3、タイミング制御部4からそれぞれ入力される各データを用いて、レンジ方向に分割されたサブパッチ画像を、各々のサブパッチ画像についてタイミング制御部4より入力される画像化処理を開始するタイミングに従い、ストリップマップポーラフォーマット方式によって生成する信号処理を行い、生成されたサブパッチ画像及びタイミング制御部3より入力される飛行体の自機位置を画像表示装置6へ出力する。
【0017】
画像表示装置6は、信号処理装置5より入力されたサブパッチ画像及び飛行体8の自機位置を用いて複数のサブパッチ画像をレンジ方向及びアジマス方向に揃えて連続するようにしてディスプレイ装置へ画像の表示を行う。
以上説明したデータ入力部2、パラメータ計算部3、タイミング制御部4、信号処理装置5、画像表示装置6により、この実施の形態による合成開口レーダ信号処理装置7を構成する。
【0018】
図2は、パラメータ計算部3が計算を行うレンジ方向に分割された各サブパッチ画像の合成開口長とアジマス方向の画像長の詳細について示している。合成開口レーダ1を搭載した飛行体8が観測を開始した位置を基準点Oとし、レンジ方向をX軸、飛行体8の進行方向であるアジマス方向をY軸とした座標系を設定し、画像化を行うレンジ範囲13をレンジ方向に3つにサブパッチ分割を行った例を用いて説明する。
【0019】
図2では、X座標X0〜X1間のレンジ範囲のサブパッチ画像9を得るために、飛行体8は基準点OからY座標Y1まで移動する必要があることを示している。この移動距離Y1はサブパッチ画像9の最も遠いレンジ距離であるレンジX1を画像化するために必要となる合成開口長であり、レンジX1及び画像化が行われるアジマス分解能などによって計算される。ここで合成開口長は、アジマス分解能が一定であれば、画像化を行うレンジ範囲の最も遠いレンジ距離に比例して長くなる性質を持つ。
【0020】
また、図2ではサブパッチ画像9のアジマス方向の画像長がL1になることを示している。ここで画像長L1は、飛行体8が照射する基準点Oにおけるビーム照射範囲14と、飛行体8がサブパッチ画像9を得るために必要となる合成開口長分を移動したY座標Y1におけるビーム照射範囲15と、サブパッチ画像9の最も近いレンジ距離であるレンジX0によって計算される。ここでアジマス方向の画像長は、飛行体8が合成開口長分を飛行する間、常にビームが照射されている範囲によって計算され、各レンジにおけるアジマス方向のビーム照射幅が一定であれば合成開口長に反比例して短くなり、かつ、画像化を行うレンジ範囲の最も近いレンジ距離に比例して長くなる性質を持つ。
【0021】
以上のように、パラメータ計算部3はX座標X0〜X1間のサブパッチ画像9とそれに続く同一レンジ範囲のサブパッチ画像を得るために必要となる合成開口長Y1とアジマス方向の画像長L1を計算する。同様に、X座標X1〜X2間のサブパッチ画像10とそれに続く同一レンジ範囲のサブパッチ画像を得るためにレンジX2を用いて必要となる合成開口長Y2と、Y座標Y2におけるビーム照射範囲16を用いてアジマス方向の画像長L2を計算し、また、同様にX座標X2〜X3間のサブパッチ画像11とそれに続く同一レンジ範囲のサブパッチ画像を得るためにレンジX3を用いて必要となる合成開口長Y3と、Y座標Y3におけるビーム照射範囲17を用いてアジマス方向の画像長L3を計算する。
計算結果は全てタイミング制御部4及び信号処理装置5へ出力する。
【0022】
既に述べたように、合成開口長は画像化を行うレンジ範囲の最も遠いレンジ距離に比例して長くなるので、サブパッチ画像9、10、11とレンジ距離が遠くなるに従ってパラメータ計算部3によって計算される合成開口長はY1、Y2、Y3と長くなる。また、各サブパッチ画像のアジマス方向の画像長は、各サブパッチに必要となる合成開口長が長くなるにつれて狭くなる常にビームが照射されている範囲に影響され、かつ、各サブパッチ画像の最も近いレンジ距離に比例して長くなるので、各サブパッチ画像についてパラメータ計算部3によって計算されるアジマス方向の画像長L1、L2、L3の長さは揃わない。
【0023】
一方、図2において画像12はレンジ方向にサブパッチ分割せずに、上記と同一レンジ範囲13を画像化した場合を示している。また、たとえサブパッチ分割を行い画像化を行った場合でも、サブパッチ画像毎の合成開口長の計算とアジマス方向の画像長の計算を行わなければ、これらサブパッチ画像を連結した結果、同様の画像12が得られる。ここで画像12の合成開口長はレンジX3を用いて計算されるためサブパッチ画像11と同様のY3となるが、アジマス方向の画像長はY座標Y3におけるビーム照射範囲17とビーム照射範囲14、及び画像化を行うレンジ範囲13の最も近いレンジX0を用いて計算されるため、非常に短いL0となる。
【0024】
後述するが、パラメータ計算部3において計算されるアジマス方向の画像長は、タイミング制御部4において決定される画像化処理開始の間隔と信号処理装置5における処理負荷に大きく影響する。
【0025】
図3は、タイミング制御部4が行うレンジ方向に分割された各サブパッチ画像毎の画像生成処理の開始及び終了のタイミング決定の詳細について示している。ここでは、図2におけるサブパッチ画像9とそれに続く同一レンジ範囲のサブパッチ画像を得る場合を例にして説明する。
【0026】
図3では、飛行体8が観測を開始した位置である基準点Oは、サブパッチ画像9を得るために画像生成処理を開始するY座標S0と同じであることを示している。また図3では、既に図2で示したようにサブパッチ画像9を得るための合成開口長はY1、及びアジマス方向の画像長はL1であり、飛行体8がY座標S0からY座標Y1を移動する間、継続して観測されるパルスデータ全てがアジマス方向の画像長L1のサブパッチ画像9を得るために必要となることも示している。
【0027】
また図3では、サブパッチ画像9に続いて同一レンジ範囲のサブパッチ画像18を得る場合、飛行体8がY座標S1からY座標Y4まで移動する必要があることを示している。Y座標S1は前のサブパッチ画像9の画像化処理開始位置S0からアジマス方向の画像長L1分を移動した距離となる。また、Y座標Y4はサブパッチ画像18を得るためにY座標S1から画像化処理を開始していることから、Y座標S1から合成開口長Y1分を移動した距離となる。飛行体8のY座標S1及びY座標Y4にある時のそれぞれの位置におけるビーム照射範囲19及びビーム照射範囲20と、画像化を行うレンジ範囲の最も近いレンジ距離X0との関係から、サブパッチ画像18はサブパッチ画像9に続いてアジマス方向に連続した画像になる。
【0028】
画像化を行うレンジ範囲やアジマス分解能などの条件が変化しなければ、パラメータ計算部3が出力する同一レンジ範囲において、連続して生成されるサブパッチ画像の合成開口長及びアジマス方向の画像長は変化しないため、サブパッチ画像18以降のサブパッチ画像を得る場合の合成開口長及びアジマス方向の画像長はサブパッチ画像9と同一である。
【0029】
以上のことから、タイミング制御部4は、あるサブパッチ画像とそれに続く同一レンジ範囲のサブパッチ画像の画像化処理を開始するために、あるサブパッチ画像の画像化処理開始位置からアジマス方向の画像長分を飛行体8が移動すると、次のサブパッチ画像の処理開始を決定して信号処理装置5へ次のサブパッチ画像の画像化処理を開始することを出力する。また同時に、あるサブパッチ画像の画像化処理開始位置から合成開口長分を飛行体8が移動すると、該当するサブパッチ画像の画像化処理に必要となるパルスデータの入力が終わったことを信号処理装置5へ出力する。タイミング制御部4は、係る処理をレンジ方向に分割されている全てのサブパッチ画像分について飛行体8の移動分に応じて行う。
ここで、飛行体8の移動距離は、データ入力部2から継続して入力される慣性データによって計算できる自機位置により導出される。またここで計算される飛行体8の自機位置はパルスデータ毎に信号処理装置5へ出力される。
【0030】
この例では、アジマス方向の画像長に対して合成開口長が長いため、ある時点、例えば図3において、Y座標S1からY座標Y1において観測されるパルスデータは、アジマス方向に分かれる2つのサブパッチ画像を生成するために利用される。後述する信号処理装置5においては、1つの入力パルスデータに対して2通りの処理を行う必要が出てくるため負荷が増大することを示している。
【0031】
さらに、図2で示したようにパラメータ計算部3において行うレンジ方向のサブパッチ毎に合成開口長の計算を行わなず、画像化レンジ範囲13の最も遠いレンジ距離のみで合成開口長を計算し、最も近いレンジ距離でアジマス方向の画像長を計算することにより、アジマス方向の画像長L0が合成開口長Y3に対して極端に短くなり、後述する信号処理装置5においては、1つのパルスデータに対してアジマス方向の複数のサブパッチ画像についてそれぞれ処理を行う必要が出てくるため非常に負荷が増大する。
【0032】
図4は、この実施の形態において信号処理装置5が行うレンジ方向にサブパッチ分割された各サブパッチ画像を生成する処理手順をPAD図で示している。以下、図4に示したPAD図を用いて信号処理装置5における処理手順を説明する。
【0033】
信号処理装置5は、データ入力21においてデータ入力部2、パラメータ計算部3、タイミング制御部4からパルスデータ、画像化に用いるパラメータ、画像化のタイミング、飛行体8の自機位置を入力する。データ入力処理21はパルスデータ毎に引き続いて行われる処理を起動する。
【0034】
次にレンジ圧縮22では、データ入力21で入力されたパルスデータのレンジ方向の解像度を上げるレンジ圧縮処理を行う。次にレンジ方向のサブパッチ分割23では、レンジ圧縮されたパルスデータをレンジ方向にサブパッチ分割を行う。次に、レンジ方向のサブパッチ数分のループ24において引き続き行われる処理をレンジ方向のサブパッチ数分起動する。
【0035】
画像処理開始分岐25では、タイミング制御部4によって決定される該当するレンジ方向に分割されたサブパッチの画像化処理が行われるかどうかの情報により、画像処理を開始するならば、処理26において該当するレンジ方向に分割されたサブパッチにおいて、処理中であるアジマス方向のサブパッチ数を1加算する。
【0036】
次に、処理中のアジマス方向のサブパッチ数分のループ27では、該当するレンジ方向に分割されたサブパッチで処理が行われているアジマス方向のサブパッチ数分、引き続き行われる該当サブパッチ画像の画像化処理を起動する。
【0037】
次に、自機動揺補償28、レンジ補間29、アジマス補間30と続く処理では、ストリップマップ方式に従い、タイミング制御部4より入力される自機位置を用いて補償及び補間処理を行う。ここで、この3つの処理方式の詳細は割愛する。
【0038】
次にデータ終了分岐31ではタイミング制御部4によって決定される、該当するサブパッチ画像の生成に用いられるパルスデータが合成開口長に達したのでデータ入力が終了したかどうかの情報により、データ終了ならば、アジマス圧縮32以降の処理を実行する。データ終了でない場合、該当するサブパッチ画像のアジマス圧縮32を行うためにアジマス補間30まで処理を行ったデータをメモリ領域に保存し、ループ中の処理27、24、21のいずれかを継続する。
【0039】
次にアジマス圧縮32では、上記メモリ領域に保存された該当サブパッチ画像のアジマス方向の画像化を行うアジマス圧縮処理を各レンジ毎に行う。アジマス圧縮処理により生成された画像は、画像出力33により画像表示装置6へ出力される。次に処理34において処理中のアジマス方向のサブパッチ数を1減算する。
ここで、タイミング制御部4より入力される自機位置は、画像と共に画像表示装置6へ出力される。
以上のように、信号処理装置5では、継続して入力されるパルスデータの画像化処理を各サブパッチ画像について行う。
【0040】
また、レンジ方向のサブパッチ数分のループ処理24以降の各レンジ方向のサブパッチ画像化処理は、複数の演算処理ハードウェアによって信号処理装置5が構成されていれば、各サブパッチ画像の画像化処理を、複数の演算処理ハードウェアによって並列して行う。
【0041】
図5は、この実施の形態において画像表示装置6の動作を示している。図5において、画像表示装置6は、信号処理装置5から入力されるサブパッチ画像を保存するバッファ領域35と、入力された画像についてディスプレイ装置へ表示する位置を計算する画像位置演算部36と、画像位置演算部36によって得られる位置に基づきバッファ領域35上のサブパッチ画像を表示するディスプレイ装置37から構成されることを示している。
【0042】
図5では、飛行体8の進行方向であるアジマス方向を左から右、レンジ方向を下から上に設定し、複数のサブパッチ画像38を表示している。画像表示装置6は、信号処理装置5から入力されるサブパッチ画像をバッファ領域35へ保存し、入力された各サブパッチ画像の位置及び大きさと、同じく信号処理装置5から入力される自機位置によりアジマス方向、並びにレンジ方向に各サブパッチ画像が連続するようにディスプレイ装置上の表示位置を画像位置演算部36によって計算し、ディスプレイ装置37は画像位置演算部36によって得られた位置に基づきバッファ領域35に保存された画像の表示を行う。
【0043】
この例では、サブパッチ画像が出力される順番は、飛行体の進行方向に対して手前のサブパッチ画像GaからGb、Gc、Gd、Ge、Gf、…という順序で信号処理装置5から入力されるので、この順番の通りにディスプレイ装置37に出力されている。
また、この例では、左右にアジマス方向、上下にレンジ方向を設定したが、それぞれ逆向きに表示を行ってもよいし、左右にレンジ方向、上下にアジマス方向を設定して表示を行ってもよい。
【0044】
この実施の形態によれば、画像化を行うレンジ方向のサブパッチ画像毎に合成開口長及びアジマス方向の画像長の計算を行うパラメータ計算部3を設けたことにより、サブパッチ画像毎のアジマス方向のビーム照射幅を有効に利用して、アジマス方向により広い範囲の画像を得る画像生成を行なうことが可能となる。
【0045】
さらに、サブパッチ画像毎に画像処理開始を決定するタイミング制御部4を設けたことにより、サブパッチ画像毎のアジマス方向のビーム照射幅を有効に利用してアジマス方向に連続した一連のサブパッチ画像を得る画像生成を行うことが可能となる。
【0046】
また、サブパッチ画像毎に画像処理終了を決定するタイミング制御部4を設けたことにより、サブパッチ画像毎に画像を表示することが可能になるだけではなく、該当するサブパッチ画像の画像生成に利用するパルスデータの入力終了が明確になり、信号処理装置5の処理負荷を下げることができる。
【0047】
特に、パラメータ計算部3よって計算されるサブパッチ画像毎のアジマス方向の画像長が長くなることにより、タイミング制御部4によって決定される引き続き行われるサブパッチ画像の画像処理開始の間隔が長くなり、信号処理装置5の処理負荷を下げることができる。
さらに、レンジ方向の画像化範囲が長い場合で、画像生成に必要な合成開口長が長くなることにより、近いレンジにおいて常にビームが照射される幅が狭くなり、画像化が行えなくなるような場合にも、レンジ方向にサブパッチ分割を行い、パラメータ計算部3によってサブパッチ画像毎の合成開口長とアジマス方向の画像長を得ることにより、この近いレンジにおける画像化が可能となる。
【0048】
さらに、信号処理装置5を設けたことにより、パラメータ計算部3及びタイミング制御部4からの入力によりサブパッチ画像毎に画像を生成することが可能となる。
【0049】
また、複数の演算処理ハードウェアによって実現される信号処理装置5により、各サブパッチ画像の画像生成を並列に行うことが可能であり、より高速に画像を得ることができる。
【0050】
さらに、信号処理装置5が生成する各サブパッチ画像をバッファ領域35に保存し出力する画像表示装置6を設けたことにより、継続して信号処理装置5から出力されるサブパッチ画像を途切れることなく表示することができる。
【0051】
特に、信号処理装置5によって出力される各サブパッチ画像の位置と大きさに応じてディスプレイ装置に出力する表示位置を計算する画像位置演算部36を設けたことによって、サブパッチ画像毎に大きさや位置の異なる信号処理装置5の出力画像を、アジマス方向、並びにレンジ方向に連続した画像として表示することができる。
【0052】
実施の形態2.
実施の形態1における信号処理装置5の処理手順を示した図4において、レンジ圧縮22の後、レンジ方向のサブパッチ分割23を行っているが、サブパッチ分割後のパルスデータ毎にレンジ圧縮処理が可能であれば、この順序を入れ替えても同じ効果を得ることができる。
【0053】
さらに、この実施の形態2によればレンジ圧縮22をサブパッチ毎に処理することになることから並列処理が可能となり、複数の演算処理ハードウェアによって構成された信号処理装置5によってより高速に画像を得ることができる。
【0054】
実施の形態3.
上記実施の形態1もしくは実施の形態2において、画像表示装置6を図6に示すような画像表示装置39に置き換えることができる。
図6においてこの実施の形態における画像表示装置39の動作を説明する。
【0055】
図6において、画像表示装置39は、信号処理装置5から入力されるサブパッチ画像を保存するバッファ領域35と、入力された画像についてその位置と大きさ及び飛行体8の移動距離に応じてディスプレイ装置へ表示する位置を計算し、さらに、バッファ領域35上の画像をレンジ方向に連結して出力できるように画像を切り出す位置を計算する画像位置選択部40と、画像位置選択部40によって得られる表示位置及び画像の切り出し位置に基づきバッファ領域35上の各サブパッチ画像から画像を切り出し表示するディスプレイ装置41から構成されていることを示している。
【0056】
図6では、飛行体8の進行方向であるアジマス方向を左から右、レンジ方向を下から上に設定し、ストリップ状の複数の画像42を表示している。画像表示装置39は、信号処理装置5から入力されるサブパッチ画像をバッファ領域35へ保存し、入力された各サブパッチ画像の位置及び大きさと、同じく信号処理装置5から入力される自機位置によりアジマス方向、並びにレンジ方向に各サブパッチ画像が連続するようにディスプレイ装置上の表示位置を計算するだけでなく、飛行体8の移動距離に応じたアジマス方向の画像長分をレンジ方向に連結して、ディスプレイ装置上へ表示できるような切り出し位置の計算を画像位置選択部40によって行い、ディスプレイ装置41は画像位置選択部40によって得られた表示位置と切り出し位置に基づき、バッファ領域35に保存された画像の表示を行う。
【0057】
この例では、左右にアジマス方向、上下にレンジ方向を設定したが、それぞれ逆向きに表示を行ってもよいし、左右にレンジ方向、上下にアジマス方向を設定して表示を行ってもよい。また、ストリップ状の画像G1、G2、G3とそれ以降を続けてディスプレイ装置41へ表示する各ストリップ状画像の表示時間の間隔は、画像表示装置39を構成するバッファ領域35の大きさや画像位置選択部40の演算性能及びディスプレイ装置41の表示速度などの装置を実現するハードウェア性能を上限として、画像を見る人間によって決めることができるようにしてもよい。
【0058】
この実施の形態3によれば、飛行体の移動距離に応じた画像を表示する画像表示装置39を設けたことにより、飛行体の移動と画像の関係をより明確に表現することができる。信号処理装置においてレンジ方向に分割して画像化を行うことは画像化処理の都合であり、最終的に画像を見る人間にとっては、飛行体の移動距離に応じてストリップ状の全レンジ方向の画像が逐次表示される方がより自然で理解しやすいことは明らかである。
【0059】
【発明の効果】
この発明によれば、レンジ方向の画像化範囲が長くなった場合でもアジマス方向のビーム照射範囲を有効に利用し、かつ画像化の信号処理の負荷を下げてSAR画像を得ることができるため、効率のよい合成開口レーダ信号処理装置が実現できる。
【図面の簡単な説明】
【図1】この発明の実施の形態1による合成開口レーダ信号処理装置の構成を説明するための図である。
【図2】この発明の実施の形態1によるパラメータ計算部を説明するための図である。
【図3】この発明の実施の形態1によるタイミング制御部を説明するための図である。
【図4】この発明の実施の形態1による信号処理装置を説明するための図である。
【図5】この発明の実施の形態1による画像表示装置を説明するための図である。
【図6】この発明の実施の形態3による画像表示装置を説明するための図である。
【符号の説明】
1 合成開口レーダ、2 データ入力部、3 パラメータ計算部、4 タイミング制御部、5 信号処理装置、6 画像表示装置、7 合成開口レーダ信号処理装置、8 飛行体、35 バッファ領域、36 画像位置演算部、37 ディスプレイ装置、39 画像表示装置、40 画像位置選択部、41 ディスプレイ装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a synthetic aperture radar signal processing apparatus that images and displays SAR image generation pulse data obtained by a synthetic aperture radar (hereinafter, also referred to as SAR) mounted on a moving flying object. is there.
[0002]
[Prior art]
2. Description of the Related Art In the field of remote sensing, a synthetic aperture radar signal processing device mounted on a moving flying object such as an aircraft or a satellite for resource exploration, environmental investigation, reconnaissance, and the like has been put to practical use.
[0003]
In such a synthetic aperture radar signal processing device, there is known a technique related to a multi-beam synthetic aperture radar that irradiates a plurality of beams in the azimuth direction to increase the resolution in the azimuth direction and expand the observation width in the range direction. (For example, Non-Patent Document 1).
[0004]
[Non-patent document 1]
Takahiko Fujisaka et al., "Multibeam Synthetic Aperture Radar Enabling Higher Resolution in Azimuth Direction and Wider Observation Width in Range," IEICE Transactions, Vol. J82-B No. 12, December 1999, p. 2345-2354
[0005]
[Problems to be solved by the invention]
That is, when the observation width is expanded in the range direction while increasing the resolution in the azimuth direction by multi-beam formation in the azimuth direction as described above, the beam irradiation width in the azimuth direction becomes larger as the range becomes farther. Since the spread becomes large, the difference in the beam irradiation width in the azimuth direction in each range becomes remarkable, and in the current signal processing device based on the imaging of the rectangular area, the azimuth direction in the closest range to be imaged is used. In order to perform imaging for the azimuth length according to the beam irradiation width of the beam, the beam is irradiated in a far range, and even though it is an area that can be imaged originally, imaging is not performed by one signal processing However, there is a problem that the efficiency is low.
[0006]
Similarly, if the observation width is increased in the range direction while increasing the resolution in the azimuth direction, the moving distance (hereinafter referred to as a synthetic aperture length) of the flying object required to obtain a desired azimuth resolution in each range is obtained. As the range becomes longer, the difference in the required synthetic aperture length in each range becomes conspicuous, and in the current signal processing apparatus based on imaging of a rectangular area, the farthest range to be imaged is used. Since the entire range of imaging is performed using the synthetic aperture length of the above, there is a problem that imaging is not performed immediately even though the flying object has reached the synthetic aperture length necessary for imaging in a close range. In addition to this, there is a problem that the imaging is not performed by one signal processing even though the area is originally an imageable area in a close range, resulting in poor efficiency.
[0007]
Similarly, if the observation width is expanded in the range direction while increasing the resolution in the azimuth direction, the beam irradiation width in the azimuth direction becomes narrower as the range gets closer. Because the signal processing device of the above uses the synthetic aperture length required in the farthest range to be imaged to perform imaging of the entire range, while the flying object flies over the synthetic aperture length of the farthest range, However, there is a possibility that an area where a beam is not continuously irradiated in a close range may appear, and if a synthetic aperture length required in each range is used, a close range area that can be originally imaged cannot be imaged. There is a problem.
[0008]
With such conventional techniques, imaging is performed using a current signal processing apparatus based on imaging of a rectangular area in order to increase the observation width in the range direction while increasing the resolution in the azimuth direction. Has room for consideration of imaging conditions that differ depending on the range. In particular, an efficient processing method is required for an imaging process in an operation requiring real-time properties. However, an apparatus that increases the efficiency of the imaging process by taking into account different imaging conditions depending on the range has been realized. Absent.
[0009]
The present invention has been made to solve such a problem, and performs signal processing for efficient imaging according to the beam irradiation width in the azimuth direction in each range even when the observation width is increased in the range direction. And to obtain an image continuously. Further, even when the observation width is increased in the range direction, it is another object of the present invention to efficiently perform signal processing for imaging according to the synthetic aperture length in each range and to continuously obtain an image.
[0010]
[Means for Solving the Problems]
A synthetic aperture radar signal processing device according to the present invention includes: a data input unit for inputting SAR image generation pulse data and inertial data of a flying object obtained by a synthetic aperture radar (SAR) mounted on a moving flying object; A parameter calculation unit that calculates parameters used for image generation for each subpatch image in the range direction, a timing control unit that determines start and end of image generation processing for each subpatch image based on parameters obtained by the parameter calculation unit, A signal processing device that performs SAR image generation processing for each subpatch image based on the parameters obtained by the calculation unit and the pulse data continuously input from the data input unit based on the timing obtained by the timing control unit; Multiple subpatch images obtained by It is obtained by an image display apparatus for displaying according to.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiment 1 FIG.
FIG. 1 shows the configuration of the synthetic aperture radar signal processing device according to the first embodiment. The synthetic aperture radar 1 shown in the figure includes an antenna that transmits and receives radar pulses, an inertial sensor device that measures inertial data of a flying object, and the like. Here, in order to explain a part that is the gist of the present invention, Detailed configuration is omitted.
[0012]
The synthetic aperture radar 1 is mounted on a flying vehicle 8 to be described later, continuously observes pulse data for generating a SAR image and inertial data of the flying vehicle 8, and a data input unit 2 constituting a synthetic aperture radar signal processing device 7. Output to
[0013]
The data input unit 2 continuously inputs the pulse data and the inertia data of the flying vehicle 8 observed by the synthetic aperture radar 1, the inertial data of the flying vehicle 8 to the timing control unit 4, and the pulse data to the signal processing device 5. Output to
[0014]
The parameter calculation unit 3 calculates parameters necessary for imaging including the synthetic aperture length and the image length in the azimuth direction for each subpatch image divided in the range direction, and outputs the calculated parameters to the timing control unit 4 and the signal processing device 5. .
[0015]
The timing control unit 4 is based on the synthetic aperture length of each subpatch image divided in the range direction and the image length in the azimuth direction input from the parameter calculation unit 3 and based on the inertia data continuously input from the data input unit 2. By calculating the position of the aircraft 8 itself, the timing for starting the imaging process is determined so that each subpatch image is continuously output in the azimuth direction, and the pulse required for imaging each subpatch image is determined. The timing at which the data input ends is determined and output to the signal processing device 5.
Further, the own position of the flying object 8 for each pulse data calculated by the timing control unit 4 is continuously output to the signal processing device 5.
[0016]
The signal processing device 5 uses the data input from the data input unit 2, the parameter calculation unit 3, and the timing control unit 4 to convert the subpatch image divided in the range direction into the timing control unit 4 for each subpatch image. In accordance with the timing at which the imaging process is started, the signal processing for generating the strip patch polar format is performed, and the generated subpatch image and the own position of the flying vehicle input from the timing control unit 3 are displayed on the image display device. 6 is output.
[0017]
The image display device 6 aligns the plurality of subpatch images in the range direction and the azimuth direction using the subpatch image input from the signal processing device 5 and the own position of the flying object 8 so as to be continuous and outputs the image to the display device. Display.
The data input unit 2, the parameter calculation unit 3, the timing control unit 4, the signal processing device 5, and the image display device 6 described above constitute a synthetic aperture radar signal processing device 7 according to this embodiment.
[0018]
FIG. 2 shows details of the synthetic aperture length and the image length in the azimuth direction of each subpatch image divided in the range direction in which the parameter calculation unit 3 calculates. A coordinate system is set in which the position at which the flying object 8 equipped with the synthetic aperture radar 1 starts observation is defined as a reference point O, the range direction is the X axis, and the azimuth direction which is the traveling direction of the flying object 8 is the Y axis. A description will be made using an example in which the range range 13 to be converted is divided into three sub-patches in the range direction.
[0019]
FIG. 2 shows that the flying object 8 needs to move from the reference point O to the Y coordinate Y1 in order to obtain the subpatch image 9 in the range of the X coordinates X0 to X1. The moving distance Y1 is a synthetic aperture length necessary for imaging the range X1 which is the farthest range distance of the subpatch image 9, and is calculated based on the range X1, the azimuth resolution at which imaging is performed, and the like. Here, if the azimuth resolution is constant, the synthetic aperture length has a property of increasing in proportion to the farthest range distance of the range range in which imaging is performed.
[0020]
FIG. 2 shows that the image length of the subpatch image 9 in the azimuth direction is L1. Here, the image length L1 is the beam irradiation range 14 at the reference point O irradiated by the flying object 8 and the beam irradiation at the Y coordinate Y1 where the flying object 8 has moved by the synthetic aperture length necessary for obtaining the subpatch image 9. It is calculated by the range 15 and the range X0 that is the closest range distance of the subpatch image 9. Here, the image length in the azimuth direction is calculated based on the range in which the beam is constantly irradiated while the flying object 8 flies over the synthetic aperture length. If the beam irradiation width in the azimuth direction in each range is constant, the synthetic aperture is calculated. It has the property of becoming shorter in inverse proportion to the length and becoming longer in proportion to the closest range distance of the range range to be imaged.
[0021]
As described above, the parameter calculation unit 3 calculates the synthetic aperture length Y1 and the image length L1 in the azimuth direction required to obtain the subpatch image 9 between the X coordinates X0 to X1 and the subsequent subpatch image in the same range. . Similarly, a synthetic aperture length Y2 required using the range X2 to obtain a subpatch image 10 between the X coordinates X1 and X2 and a subsequent subpatch image in the same range, and a beam irradiation range 16 at the Y coordinate Y2 are used. To calculate the image length L2 in the azimuth direction, and similarly use the range X3 to obtain the subpatch image 11 between the X coordinates X2 and X3 and the subsequent subpatch image in the same range. Then, the image length L3 in the azimuth direction is calculated using the beam irradiation range 17 at the Y coordinate Y3.
All the calculation results are output to the timing control unit 4 and the signal processing device 5.
[0022]
As described above, since the synthetic aperture length increases in proportion to the farthest range distance of the range range to be imaged, it is calculated by the parameter calculation unit 3 as the range distance between the subpatch images 9, 10, and 11 increases. The synthetic aperture length becomes longer as Y1, Y2, and Y3. In addition, the image length in the azimuth direction of each subpatch image is affected by the range where the beam is constantly irradiated, which becomes narrower as the synthetic aperture length required for each subpatch becomes longer, and the closest range distance of each subpatch image. Therefore, the image lengths L1, L2, and L3 in the azimuth direction calculated by the parameter calculation unit 3 for the respective subpatch images are not uniform.
[0023]
On the other hand, FIG. 2 shows a case where the image 12 is not divided into sub-patches in the range direction, and the same range range 13 is imaged. Even if the subpatch division is performed and the imaging is performed, unless the calculation of the synthetic aperture length and the calculation of the image length in the azimuth direction for each subpatch image are performed, a similar image 12 is obtained as a result of linking these subpatch images. can get. Here, since the synthetic aperture length of the image 12 is calculated using the range X3, it becomes Y3 similar to the subpatch image 11, but the image length in the azimuth direction is the beam irradiation range 17 and the beam irradiation range 14 at the Y coordinate Y3, and Since the calculation is performed using the closest range X0 of the range range 13 to be imaged, L0 is very short.
[0024]
As will be described later, the image length in the azimuth direction calculated by the parameter calculation unit 3 greatly affects the interval between the start of the imaging processing determined by the timing control unit 4 and the processing load on the signal processing device 5.
[0025]
FIG. 3 shows details of the determination of the start and end timings of the image generation processing for each subpatch image divided in the range direction performed by the timing control unit 4. Here, an example will be described in which a subpatch image 9 in FIG. 2 and a subsequent subpatch image in the same range are obtained.
[0026]
FIG. 3 shows that the reference point O, which is the position where the observation of the flying object 8 has started, is the same as the Y coordinate S0 at which the image generation processing is started to obtain the subpatch image 9. 3, the synthetic aperture length for obtaining the subpatch image 9 is Y1 and the image length in the azimuth direction is L1 as shown in FIG. 2, and the flying object 8 moves from the Y coordinate S0 to the Y coordinate Y1. In this case, all the pulse data continuously observed are required to obtain the subpatch image 9 having the image length L1 in the azimuth direction.
[0027]
FIG. 3 also shows that, when obtaining the subpatch image 18 in the same range following the subpatch image 9, the flying object 8 needs to move from the Y coordinate S1 to the Y coordinate Y4. The Y coordinate S1 is a distance moved by the image length L1 in the azimuth direction from the imaging start position S0 of the previous subpatch image 9. Further, since the imaging process has been started from the Y coordinate S1 in order to obtain the subpatch image 18, the Y coordinate Y4 is the distance moved by the synthetic aperture length Y1 from the Y coordinate S1. The subpatch image 18 is obtained from the relationship between the beam irradiation range 19 and the beam irradiation range 20 at the respective positions when the flying object 8 is at the Y coordinate S1 and the Y coordinate Y4 and the closest range distance X0 of the range range to be imaged. Becomes an image continuous in the azimuth direction following the subpatch image 9.
[0028]
If the conditions such as the range range for imaging and the azimuth resolution do not change, the synthetic aperture length and the image length in the azimuth direction of the continuously generated subpatch images change in the same range range output by the parameter calculator 3. Therefore, when obtaining sub-patch images subsequent to the sub-patch image 18, the synthetic aperture length and the image length in the azimuth direction are the same as those of the sub-patch image 9.
[0029]
From the above, the timing control unit 4 calculates the image length in the azimuth direction from the imaging processing start position of a certain subpatch image in order to start the imaging processing of a certain subpatch image and the subsequent subpatch image in the same range. When the flying object 8 moves, the start of the processing of the next subpatch image is determined, and the signal processing device 5 is instructed to start the imaging processing of the next subpatch image. At the same time, when the flying object 8 moves by the synthetic aperture length from the imaging processing start position of a certain subpatch image, the signal processing device 5 informs that the input of pulse data necessary for the imaging processing of the corresponding subpatch image has been completed. Output to The timing control unit 4 performs such processing according to the amount of movement of the flying object 8 for all subpatch images divided in the range direction.
Here, the moving distance of the flying object 8 is derived from its own position which can be calculated based on inertia data continuously input from the data input unit 2. The own position of the flying object 8 calculated here is output to the signal processing device 5 for each pulse data.
[0030]
In this example, since the synthetic aperture length is longer than the image length in the azimuth direction, the pulse data observed from the Y coordinate S1 to the Y coordinate Y1 at a certain point in time, for example, in FIG. Is used to generate In the signal processing device 5 described later, it is necessary to perform two types of processing on one input pulse data, so that the load increases.
[0031]
Further, as shown in FIG. 2, the calculation of the synthetic aperture length for each subpatch in the range direction performed by the parameter calculation unit 3 is not performed, and the synthetic aperture length is calculated only at the farthest range distance of the imaging range range 13. By calculating the image length in the azimuth direction at the closest range distance, the image length L0 in the azimuth direction becomes extremely short with respect to the synthetic aperture length Y3. Therefore, it becomes necessary to perform processing on each of a plurality of sub-patch images in the azimuth direction, so that the load is greatly increased.
[0032]
FIG. 4 is a PAD diagram showing a processing procedure of generating each sub-patch image divided into sub-patches in the range direction performed by the signal processing device 5 in this embodiment. Hereinafter, the processing procedure in the signal processing device 5 will be described with reference to the PAD diagram shown in FIG.
[0033]
The signal processing device 5 inputs pulse data, parameters used for imaging, imaging timing, and the own position of the flying object 8 from the data input unit 2, the parameter calculation unit 3, and the timing control unit 4 in the data input 21. The data input process 21 starts a process to be performed subsequently for each pulse data.
[0034]
Next, in the range compression 22, a range compression process for increasing the resolution in the range direction of the pulse data input at the data input 21 is performed. Next, in the sub-patch division 23 in the range direction, sub-patch division is performed on the range-compressed pulse data in the range direction. Next, the processing that is continuously performed in the loop 24 for the number of sub-patches in the range direction is activated for the number of sub-patches in the range direction.
[0035]
In the image processing start branch 25, if the image processing is started based on the information as to whether or not the imaging processing of the subpatch divided in the corresponding range direction determined by the timing control unit 4 is to be performed, the processing corresponds to the processing 26. In the sub-patches divided in the range direction, the number of sub-patches in the azimuth direction being processed is increased by one.
[0036]
Next, in the loop 27 for the number of sub-patches in the azimuth direction being processed, the imaging process of the corresponding sub-patch image is continuously performed for the number of sub-patches in the azimuth direction being processed by the sub-patches divided in the corresponding range direction. Start
[0037]
Next, in the following processing including the own motion compensation 28, the range interpolation 29, and the azimuth interpolation 30, the compensation and interpolation processing is performed using the own position input from the timing control unit 4 according to the strip map method. Here, the details of these three processing methods are omitted.
[0038]
Next, in the data end branch 31, if the pulse data used for generating the corresponding subpatch image has reached the synthetic aperture length, which is determined by the timing control section 4, information indicating whether or not data input has been completed indicates that the data has ended. , The processing after the azimuth compression 32 is executed. If the data has not ended, the data processed up to the azimuth interpolation 30 to perform the azimuth compression 32 of the corresponding subpatch image is stored in the memory area, and any of the processes 27, 24, and 21 in the loop is continued.
[0039]
Next, in the azimuth compression 32, azimuth compression processing for imaging the corresponding subpatch image stored in the memory area in the azimuth direction is performed for each range. The image generated by the azimuth compression process is output to the image display device 6 by the image output 33. Next, in process 34, the number of sub-patches in the azimuth direction being processed is decremented by one.
Here, the own position input from the timing control unit 4 is output to the image display device 6 together with the image.
As described above, the signal processing device 5 performs an imaging process on pulse data that is continuously input for each subpatch image.
[0040]
The sub-patch imaging process in each range direction after the loop process 24 for the number of sub-patches in the range direction is performed if the signal processing device 5 is configured by a plurality of arithmetic processing hardware. , In parallel by a plurality of arithmetic processing hardware.
[0041]
FIG. 5 shows the operation of the image display device 6 in this embodiment. In FIG. 5, an image display device 6 includes a buffer area 35 for storing a subpatch image input from the signal processing device 5, an image position calculator 36 for calculating a position of the input image to be displayed on a display device, The figure shows that the display device 37 is configured to display a subpatch image on the buffer area 35 based on the position obtained by the position calculation unit 36.
[0042]
In FIG. 5, the azimuth direction which is the traveling direction of the flying object 8 is set from left to right, and the range direction is set from bottom to top, and a plurality of subpatch images 38 are displayed. The image display device 6 stores the subpatch image input from the signal processing device 5 in the buffer area 35, and controls the azimuth based on the position and size of each input subpatch image and its own position also input from the signal processing device 5. The display position on the display device is calculated by the image position calculator 36 so that each subpatch image is continuous in the direction and the range direction, and the display device 37 stores the image in the buffer area 35 based on the position obtained by the image position calculator 36. Display the stored image.
[0043]
In this example, the order in which the subpatch images are output is from the signal processing device 5 in the order of Gb, Gc, Gd, Ge, Gf,... Are output to the display device 37 in this order.
Further, in this example, the azimuth direction is set to the left and right, and the range direction is set to the up and down. Good.
[0044]
According to this embodiment, by providing the parameter calculation unit 3 for calculating the synthetic aperture length and the image length in the azimuth direction for each subpatch image in the range direction to be imaged, the beam in the azimuth direction for each subpatch image is provided. By effectively utilizing the irradiation width, it is possible to generate an image that obtains an image in a wider range in the azimuth direction.
[0045]
Further, by providing the timing control unit 4 for determining the start of image processing for each subpatch image, an image for obtaining a series of subpatch images continuous in the azimuth direction by effectively utilizing the beam irradiation width in the azimuth direction for each subpatch image Generation can be performed.
[0046]
The provision of the timing control unit 4 for determining the end of the image processing for each sub-patch image not only makes it possible to display an image for each sub-patch image, but also provides a pulse used for generating an image of the corresponding sub-patch image. The end of the data input becomes clear, and the processing load of the signal processing device 5 can be reduced.
[0047]
In particular, as the image length in the azimuth direction for each subpatch image calculated by the parameter calculation unit 3 increases, the interval of the subsequent image processing start of the subpatch image determined by the timing control unit 4 increases, and the signal processing increases. The processing load on the device 5 can be reduced.
Furthermore, in the case where the imaging range in the range direction is long and the synthetic aperture length required for image generation is long, the width where the beam is constantly irradiated in a close range is narrowed, and imaging cannot be performed. Also, by performing sub-patch division in the range direction and obtaining the synthetic aperture length and the image length in the azimuth direction for each sub-patch image by the parameter calculation unit 3, imaging in this close range is possible.
[0048]
Further, by providing the signal processing device 5, it becomes possible to generate an image for each subpatch image based on inputs from the parameter calculation unit 3 and the timing control unit 4.
[0049]
Further, the signal processing device 5 realized by a plurality of arithmetic processing hardware can perform image generation of each subpatch image in parallel, and can obtain images at higher speed.
[0050]
Further, by providing the image display device 6 for storing and outputting each subpatch image generated by the signal processing device 5 in the buffer area 35, the subpatch images continuously output from the signal processing device 5 are displayed without interruption. be able to.
[0051]
In particular, by providing the image position calculation unit 36 that calculates the display position to be output to the display device according to the position and size of each subpatch image output by the signal processing device 5, the size and position of each subpatch image Output images of different signal processing devices 5 can be displayed as continuous images in the azimuth direction and the range direction.
[0052]
Embodiment 2 FIG.
In FIG. 4 showing the processing procedure of the signal processing device 5 in the first embodiment, the sub-patch division 23 in the range direction is performed after the range compression 22, but the range compression processing can be performed for each pulse data after the sub-patch division. Then, the same effect can be obtained even if this order is changed.
[0053]
Further, according to the second embodiment, since the range compression 22 is processed for each sub-patch, parallel processing becomes possible, and the signal processing device 5 composed of a plurality of arithmetic processing hardware can process an image at higher speed. Obtainable.
[0054]
Embodiment 3 FIG.
In the first embodiment or the second embodiment, the image display device 6 can be replaced with an image display device 39 as shown in FIG.
The operation of the image display device 39 according to this embodiment will be described with reference to FIG.
[0055]
In FIG. 6, an image display device 39 includes a buffer area 35 for storing a subpatch image input from the signal processing device 5 and a display device according to the position and size of the input image and the moving distance of the flying object 8. An image position selection unit 40 that calculates a position to be displayed on the image, further calculates a position where the image on the buffer area 35 is cut out so that the image can be connected and output in the range direction, and a display obtained by the image position selection unit 40. This shows that the display device 41 is configured to cut out and display an image from each subpatch image on the buffer area 35 based on the position and the cutout position of the image.
[0056]
In FIG. 6, the azimuth direction which is the traveling direction of the flying object 8 is set from left to right, and the range direction is set from bottom to top, and a plurality of strip-shaped images 42 are displayed. The image display device 39 stores the subpatch image input from the signal processing device 5 in the buffer area 35, and determines the azimuth based on the position and size of each input subpatch image and its own position also input from the signal processing device 5. In addition to calculating the display position on the display device so that each subpatch image is continuous in the direction and the range direction, the image length in the azimuth direction according to the moving distance of the flying object 8 is connected in the range direction, The image position selection unit 40 calculates a cutout position that can be displayed on the display device, and the display device 41 uses the image position stored in the buffer area 35 based on the display position and the cutout position obtained by the image position selection unit 40. Is displayed.
[0057]
In this example, the azimuth direction is set on the left and right and the range direction is set on the upper and lower sides. However, the display may be performed in the opposite direction, or the range direction may be set on the left and right and the azimuth direction may be set on the upper and lower sides. The display time interval between the strip images G1, G2, and G3 and the subsequent display of the strip images on the display device 41 is determined by the size of the buffer area 35 constituting the image display device 39 and the image position selection. The hardware performance for realizing the device such as the calculation performance of the unit 40 and the display speed of the display device 41 may be set as an upper limit so that it can be determined by a person who views the image.
[0058]
According to the third embodiment, by providing the image display device 39 for displaying an image corresponding to the moving distance of the flying object, the relationship between the movement of the flying object and the image can be expressed more clearly. It is convenient for the image processing to divide the image in the range direction and perform the imaging in the signal processing device, and for a person who finally sees the image, the strip-shaped image in the entire range direction according to the moving distance of the flying object. Obviously, it is more natural and easy to understand if are displayed sequentially.
[0059]
【The invention's effect】
According to the present invention, even when the imaging range in the range direction becomes longer, the SAR image can be obtained by effectively utilizing the beam irradiation range in the azimuth direction and reducing the load of signal processing for imaging. An efficient synthetic aperture radar signal processing device can be realized.
[Brief description of the drawings]
FIG. 1 is a diagram for describing a configuration of a synthetic aperture radar signal processing device according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining a parameter calculator according to the first embodiment of the present invention.
FIG. 3 is a diagram for explaining a timing control unit according to the first embodiment of the present invention.
FIG. 4 is a diagram for explaining a signal processing device according to the first embodiment of the present invention.
FIG. 5 is a diagram for explaining the image display device according to the first embodiment of the present invention.
FIG. 6 is a diagram for explaining an image display device according to a third embodiment of the present invention.
[Explanation of symbols]
Reference Signs List 1 synthetic aperture radar, 2 data input section, 3 parameter calculation section, 4 timing control section, 5 signal processing device, 6 image display device, 7 synthetic aperture radar signal processing device, 8 flying object, 35 buffer area, 36 image position calculation Unit, 37 display device, 39 image display device, 40 image position selection unit, 41 display device

Claims (10)

移動する飛行体に搭載された合成開口レーダ(SAR)によって得られるSAR画像生成用パルスデータ及び飛行体の慣性データを入力するデータ入力部と、
SAR画像生成に用いるパラメータをレンジ方向のサブパッチ画像毎に計算するパラメータ計算部と、
上記パラメータ計算部により得られたパラメータに基づきサブパッチ画像毎に画像生成処理の開始及び終了を決定するタイミング制御部と、
上記パラメータ計算部によって得られるパラメータ、並びにタイミング制御部によって得られるタイミングに基づき上記データ入力部から継続して入力されるパルスデータをサブパッチ画像毎に画像生成処理を行う信号処理装置と、
上記信号処理装置より継続して得られる複数のサブパッチ画像をその位置に応じて表示する画像表示装置とを備えたことを特徴とする合成開口レーダ信号処理装置。
A data input unit for inputting SAR image generation pulse data and inertial data of the flying object obtained by a synthetic aperture radar (SAR) mounted on the moving flying object;
A parameter calculation unit that calculates parameters used for SAR image generation for each subpatch image in the range direction,
A timing control unit that determines the start and end of the image generation process for each subpatch image based on the parameters obtained by the parameter calculation unit;
A signal processing device that performs an image generation process for each subpatch image based on the parameters obtained by the parameter calculation unit and the pulse data continuously input from the data input unit based on the timing obtained by the timing control unit;
A synthetic aperture radar signal processing device comprising: an image display device that displays a plurality of subpatch images continuously obtained from the signal processing device according to their positions.
上記パラメータ計算部は、レンジ方向の各サブパッチ画像毎に最も遠いレンジを計算してそれぞれのサブパッチ画像を生成するために必要となるサブパッチ画像毎の飛行体の移動距離を計算し、アジマス方向のビーム照射幅と上記サブパッチ画像毎の移動距離から各サブパッチ毎に画像化可能なアジマス方向の画像長を計算することを特徴とする請求項1記載の合成開口レーダ信号処理装置。The parameter calculation unit calculates the farthest range for each subpatch image in the range direction, calculates the moving distance of the flying object for each subpatch image required to generate each subpatch image, and calculates the beam in the azimuth direction. 2. The synthetic aperture radar signal processing apparatus according to claim 1, wherein an image length in the azimuth direction that can be imaged for each subpatch is calculated from an irradiation width and a moving distance of each subpatch image. 上記タイミング制御部は、上記データ入力部から継続して入力される各パルスデータが得られた時点の飛行体の慣性データから各パルスデータを得た飛行体の自機位置を計算し、
上記パラメータ計算部より得られる各サブパッチ画像のアジマス方向のそれぞれの画像長に飛行体が達した時点で当該サブパッチ画像の次の同一レンジのサブパッチ画像を得る画像生成処理開始を決定することを特徴とする請求項1記載の合成開口レーダ信号処理装置。
The timing control unit calculates the own aircraft position of the flying object that obtained each pulse data from the inertial data of the flying object at the time when each pulse data continuously input from the data input unit was obtained,
When the flying object reaches the image length in the azimuth direction of each subpatch image obtained from the parameter calculation unit, an image generation process start to obtain a subpatch image of the same range next to the subpatch image is determined. The synthetic aperture radar signal processing device according to claim 1.
上記タイミング制御部は、上記データ入力部から継続して入力される各パルスデータが得られた時点の飛行体の慣性データから各パルスデータを得た飛行体の自機位置を計算し、
上記パラメータ計算部より得られる各サブパッチ画像を生成するために必要となる飛行体の移動距離に飛行体が達した時点で当該サブパッチ画像に必要なパルスデータの入力が終了したことを決定することを特徴とする請求項1記載の合成開口レーダ信号処理装置。
The timing control unit calculates the own aircraft position of the flying object that obtained each pulse data from the inertial data of the flying object at the time when each pulse data continuously input from the data input unit was obtained,
It is determined that the input of the pulse data necessary for the subpatch image has been completed when the flying object has reached the moving distance of the flying object required to generate each subpatch image obtained from the parameter calculation unit. 2. The synthetic aperture radar signal processing device according to claim 1, wherein:
上記入力データ部より継続して入力されるパルスデータをレンジ方向に高解像度化するためにレンジ圧縮を行うレンジ圧縮処理と、レンジ圧縮後の各パルスデータをレンジ方向にサブパッチ分割を行うサブパッチ分割処理と、各サブパッチデータ毎に上記タイミング制御部より得ることができる各パルスデータ毎の飛行体の自機位置を用いてストリップマップ方式による自機動揺補償、レンジ補間、アジマス補間、アジマス圧縮を行い画像化する信号処理装置を備えたことを特徴とする請求項1記載の合成開口レーダ信号処理装置。Range compression processing for performing range compression to increase the resolution of pulse data continuously input from the input data section in the range direction, and subpatch division processing for subpatch division of each pulse data after range compression in the range direction And, using the own position of the flying object for each pulse data that can be obtained from the timing control unit for each subpatch data, self-movement compensation by the strip map method, range interpolation, azimuth interpolation, azimuth compression and image 2. The synthetic aperture radar signal processing device according to claim 1, further comprising: 上記入力データ部より継続して入力されるパルスデータをレンジ方向にサブパッチ分割を行うサブパッチ分割処理と、
各サブパッチデータ毎にレンジ方向に高解像度化するためにレンジ圧縮を行うレンジ圧縮処理と、
レンジ圧縮後の各サブパッチデータ毎に上記タイミング制御部より得ることができる各パルスデータ毎の飛行体の自機位置を用いてストリップマップ方式による自機動揺補償、レンジ補間、アジマス補間、アジマス圧縮を行い画像化する信号処理装置を備えたことを特徴とする請求項1記載の合成開口レーダ信号処理装置。
A sub-patch division process for dividing the pulse data continuously input from the input data section in the range direction,
Range compression processing for performing range compression to increase the resolution in the range direction for each subpatch data;
Using the own position of the flying object for each pulse data that can be obtained from the timing control unit for each sub-patch data after range compression, self-movement compensation, range interpolation, azimuth interpolation, and azimuth compression using the strip map method are performed. 2. The synthetic aperture radar signal processing device according to claim 1, further comprising a signal processing device for performing an image processing.
上記サブパッチ分割以降の処理をサブパッチ画像毎に並列処理を行うことを特徴とする請求項5もしくは請求項6のいずれかに記載の信号処理装置。7. The signal processing apparatus according to claim 5, wherein the processing after the sub-patch division is performed in parallel for each sub-patch image. 上記信号処理装置より得られる各サブパッチ画像を保存するバッファ領域を備え、
上記バッファ領域上の画像を表示するディスプレイ装置とを有する画像表示装置を備えたことを特徴とする請求項1記載の合成開口レーダ信号処理装置。
A buffer area for storing each subpatch image obtained from the signal processing device,
2. The synthetic aperture radar signal processing device according to claim 1, further comprising an image display device having a display device for displaying an image on the buffer area.
上記信号処理装置より得られる各サブパッチ画像を、これら画像が得られた時点で画像の位置座標に基づきアジマス方向、並びにレンジ方向に連続するよう画像を揃える画像位置演算部を備え、
上記バッファ領域からディスプレイ装置へ少なくとも一度で表示することを特徴とする請求項8記載の合成開口レーダ信号処理装置。
Each sub-patch image obtained from the signal processing device, at the time when these images are obtained, based on the position coordinates of the image, in the azimuth direction, as well as an image position calculation unit that aligns images so as to be continuous in the range direction,
9. The synthetic aperture radar signal processing device according to claim 8, wherein the signal is displayed at least once from the buffer area to a display device.
上記信号処理装置より得られる各サブパッチ画像を、上記タイミング制御部より得ることができる飛行体の自機位置に応じたアジマス方向の移動距離に相当するアジマス方向の画像領域とレンジ方向全サブパッチ分の画像領域を切り出す画像位置選択部を備え、
上記バッファ領域から上記ディスプレイ装置へ逐次表示することを特徴とする請求項8記載の合成開口レーダ信号処理装置。
Each subpatch image obtained from the signal processing device is obtained by the azimuth direction image area corresponding to the azimuth direction movement distance according to the own aircraft position of the flying object that can be obtained by the timing control unit and the sub-patch image for all range direction subpatches. An image position selection unit that cuts out an image area is provided
9. The synthetic aperture radar signal processing device according to claim 8, wherein the display is sequentially performed from the buffer area to the display device.
JP2002355408A 2002-12-06 2002-12-06 Synthetic aperture radar signal processor Expired - Fee Related JP4016824B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002355408A JP4016824B2 (en) 2002-12-06 2002-12-06 Synthetic aperture radar signal processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002355408A JP4016824B2 (en) 2002-12-06 2002-12-06 Synthetic aperture radar signal processor

Publications (3)

Publication Number Publication Date
JP2004191052A true JP2004191052A (en) 2004-07-08
JP2004191052A5 JP2004191052A5 (en) 2005-10-27
JP4016824B2 JP4016824B2 (en) 2007-12-05

Family

ID=32756118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002355408A Expired - Fee Related JP4016824B2 (en) 2002-12-06 2002-12-06 Synthetic aperture radar signal processor

Country Status (1)

Country Link
JP (1) JP4016824B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139206A (en) * 2006-12-04 2008-06-19 Mitsubishi Electric Corp High-resolution radar system
KR101058773B1 (en) 2010-01-25 2011-08-24 (주)쎄트렉아이 Image Processing Method and System of Synthetic Open Surface Radar
JP2011220824A (en) * 2010-04-09 2011-11-04 Mitsubishi Electric Corp Radar device
JP2014228339A (en) * 2013-05-21 2014-12-08 三菱電機株式会社 Radar image processing apparatus
JP2015215257A (en) * 2014-05-12 2015-12-03 株式会社東芝 Synthetic aperture radar device and image processing method thereof
KR101833239B1 (en) * 2017-09-12 2018-03-02 엘아이지넥스원 주식회사 Apparatus Processing ISAR Signal for Compensating Noise Signal
KR101833240B1 (en) * 2017-09-12 2018-03-02 엘아이지넥스원 주식회사 ISAR Signal Processing Method and Recording Medium Storing Computer Program thereof
KR101839046B1 (en) * 2017-10-11 2018-03-15 엘아이지넥스원 주식회사 Apparatus and method for obtaining SAR image can miniaturize
CN113960602A (en) * 2021-12-22 2022-01-21 中科星睿科技(北京)有限公司 Track error information generation method and device, electronic equipment and readable medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62502144A (en) * 1985-04-08 1987-08-20 ヒユ−ズ・エアクラフト・カンパニ− High-speed composite area radar processing system
JPH10268045A (en) * 1997-03-26 1998-10-09 Mitsubishi Electric Corp Synthetic-aperture radar device and its observation process design method
JP2000147113A (en) * 1998-11-12 2000-05-26 Mitsubishi Electric Corp Synthetic aperture radar signal processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62502144A (en) * 1985-04-08 1987-08-20 ヒユ−ズ・エアクラフト・カンパニ− High-speed composite area radar processing system
JPH10268045A (en) * 1997-03-26 1998-10-09 Mitsubishi Electric Corp Synthetic-aperture radar device and its observation process design method
JP2000147113A (en) * 1998-11-12 2000-05-26 Mitsubishi Electric Corp Synthetic aperture radar signal processor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139206A (en) * 2006-12-04 2008-06-19 Mitsubishi Electric Corp High-resolution radar system
KR101058773B1 (en) 2010-01-25 2011-08-24 (주)쎄트렉아이 Image Processing Method and System of Synthetic Open Surface Radar
JP2011220824A (en) * 2010-04-09 2011-11-04 Mitsubishi Electric Corp Radar device
JP2014228339A (en) * 2013-05-21 2014-12-08 三菱電機株式会社 Radar image processing apparatus
JP2015215257A (en) * 2014-05-12 2015-12-03 株式会社東芝 Synthetic aperture radar device and image processing method thereof
KR101833239B1 (en) * 2017-09-12 2018-03-02 엘아이지넥스원 주식회사 Apparatus Processing ISAR Signal for Compensating Noise Signal
KR101833240B1 (en) * 2017-09-12 2018-03-02 엘아이지넥스원 주식회사 ISAR Signal Processing Method and Recording Medium Storing Computer Program thereof
KR101839046B1 (en) * 2017-10-11 2018-03-15 엘아이지넥스원 주식회사 Apparatus and method for obtaining SAR image can miniaturize
CN113960602A (en) * 2021-12-22 2022-01-21 中科星睿科技(北京)有限公司 Track error information generation method and device, electronic equipment and readable medium

Also Published As

Publication number Publication date
JP4016824B2 (en) 2007-12-05

Similar Documents

Publication Publication Date Title
US7221364B2 (en) Image generating apparatus, image generating method, and computer program
CN110347769A (en) Processing method, device, equipment and the storage medium of multi-layer map tile
JP5654223B2 (en) Image processing apparatus, radar apparatus equipped with the same, image processing method, and image processing program
WO2018077295A1 (en) Data processing method and apparatus for convolutional neural network
JP4016824B2 (en) Synthetic aperture radar signal processor
JP2009118416A (en) Vehicle-periphery image generating apparatus and method of correcting distortion of vehicle-periphery image
JP2002209208A (en) Image processing unit and its method, and storage medium
JP7195073B2 (en) graph generator
US9626765B2 (en) Position detection device detecting a position of target object and a position detection program
JP3579775B2 (en) Video generator
EP3712646A1 (en) Distance measurement apparatus and distance measurement method
JP2009014596A (en) Target tracking device and target tracking method
US20030071809A1 (en) Image generating apparatus, image generating method, and computer program
WO2013150917A1 (en) Ultrasound diagnostic device and ultrasound image super-resolution image generation method
JP2022029239A (en) Image processing apparatus, image processing method, and program
JP2690422B2 (en) Video display
JP2006084184A (en) Three-dimensional gis navigation method, three-dimensional gis navigation server and three-dimensional gis navigation system
JP2001170057A (en) Ultrasonograph
EP4372692A1 (en) Information processing apparatus, information processing method, and computer program
JP3290845B2 (en) Radar image processing device
US11954777B2 (en) Image processing apparatus, image processing method, and program
JP6107527B2 (en) Map display system, method and program
JP2004159354A (en) Interpolated image generating apparatus and concealed region estimating method
JP3535339B2 (en) Interpolated image generation device and contour data generation method
WO2023188510A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees