JP2004101299A - Imaging radar installation - Google Patents

Imaging radar installation Download PDF

Info

Publication number
JP2004101299A
JP2004101299A JP2002261854A JP2002261854A JP2004101299A JP 2004101299 A JP2004101299 A JP 2004101299A JP 2002261854 A JP2002261854 A JP 2002261854A JP 2002261854 A JP2002261854 A JP 2002261854A JP 2004101299 A JP2004101299 A JP 2004101299A
Authority
JP
Japan
Prior art keywords
dimensional
image
radar
unit
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002261854A
Other languages
Japanese (ja)
Inventor
Masafumi Iwamoto
岩本 雅史
Yoshio Kosuge
小菅 義夫
Kouichi Ema
江馬 浩一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002261854A priority Critical patent/JP2004101299A/en
Publication of JP2004101299A publication Critical patent/JP2004101299A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that a large error corresponding to an integer multiple of 2π of phase difference is locally generated in a solid figure, since the height of ground surface 21 is obtained by converting the phase difference into phase difference in a range from 0 radian to 2π radians when the phase difference between two high resolution radar images exceeds 2π radians. <P>SOLUTION: This imaging radar installation obtains difference ▵h of a solid figure X formed by a first solid figure forming part 38 and a solid figure Y formed by a second solid figure forming part 39, estimates error of the solid figure Y formed by the second solid figure forming part 39 from the difference ▵h, and subtracts the estimated result from the solid figure Y formed by the second solid figure forming part 39. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、遠方に位置する目標を観測して、その目標の立体図を作成する画像レーダ装置に関するものである。
【0002】
【従来の技術】
図11は例えば特許文献1に示された従来の画像レーダ装置(以下、第1の従来例という)を示す構成図であり、図において、1は高周波信号を出力する送信機、2は送信機1から出力された高周波信号を目標に向けて放射するとともに、その目標に反射された高周波信号を受信する送受信アンテナ、3は送受切替器、4は目標の反射信号である高周波信号を受信する受信機、5は受信機4により受信された高周波信号から目標のRCS分布を表すレーダ画像を順次再生する画像再生部である。
【0003】
6は画像再生部5により再生されたレーダ画像を一定時間保持してから出力する遅延部、7は画像再生部5が出力するレーダ画像と遅延部6が出力するレーダ画像を比較して、そのレーダ画像における輝点の速度分布を求める画像比較部、8は目標とレーダの相対運動を要素とする3次元の変換行列を求める変換行列生成部、9は変換行列生成部8により求められた変換行列の逆行列(正方行列)を求める逆行列生成部、10は逆行列生成部9が出力する変換行列の逆行列と、画像再生部5が出力するレーダ画像と、画像比較部7が出力する輝点の速度分布とから目標の3次元形状を算出する目標形状算出部である。
【0004】
図12はレーダ画像の時間変化を説明する説明図である。
ここでは、船舶のレーダ画像を例として用いており、横軸uがレンジ、縦軸vがクロスレンジである。また、濃度がRCS分布を表しており、船舶の2次元画像が濃淡で示されていることが分かる。
図12(a)と(b)は僅かな時間差をおいて観測された2枚のレーダ画像であり、(b)は(a)に対して若干回転していることが分かる。11は船首に近い部分の画像(a)における位置ベクトルである。
図12(c)は(a)のレーダ画像と(b)のレーダ画像の差分から検出されたレーダ画像の速度ベクトルを説明する説明図であり、12は図12(a)のレーダ画像における位置ベクトル11の点の速度ベクトルである。
【0005】
図13及び図14は画像レーダ装置の観測座標系を説明する説明図であり、特に、図13はレーダの送受信アンテナ2と目標の位置関係を示す説明図である。図において、13は目標の中心点である。
XYZは目標の中心点13を基準とする座標系であり、Ω1,Ω2,Ω3はそれぞれXYZ軸の回りの回転角速度、W1,W2,W3はそれぞれXYZ軸に沿った平行移動速度である。また、Sは目標の中心点13から送受信アンテナ2を見る方位ベクトルである。
図14は観測座標系を説明する補助的な説明図であり、図において、14はレーダ画像が投影される仮想的な平面である。Pは目標上のある反射点の位置ベクトルであり、pはこの反射点のレーダ画像上での位置ベクトル11である。
また、図15は第1の従来例において、特に地表面を観測する場合のジオメトリを示す説明図である。
【0006】
次に動作について説明する。
まず、送信機1が高周波信号を送受切替器3に出力すると、送受信アンテナ2が高周波信号を目標に向けて放射する。
また、送受信アンテナ2は、目標に向けて放射した高周波信号のうち、その目標に反射された高周波信号を受信し、送受切替器3に出力する。
【0007】
受信機4は、送受切替器3から高周波信号を受けると、その高周波信号を増幅・検波し、画像再生部5は、受信機4が出力する高周波信号から目標のRCS分布を表すレーダ画像を順次再生し、そのレーダ画像を画像比較部7,遅延部6及び目標形状算出部10に出力する。
なお、画像再生部5は、レンジ及びクロスレンジの両方向について高分解能化を図るため、レンジ圧縮処理,動き補償処理及びクロスレンジ圧縮処理を実施する。
【0008】
画像比較部7は、画像再生部5が出力するレーダ画像の振幅(図12(b)を参照)と、遅延部6が出力するレーダ画像の振幅(図12(a)を参照)とを比較して、そのレーダ画像における輝点の速度分布を求める。ここで、遅延部6は、画像比較部7が時間差のある2枚のレーダ画像を比較するために設けられている。
具体的には、画像比較部7は、2枚のレーダ画像の振幅を比較することにより、位置ベクトル11における反射点の速度ベクトル12を求めるものである。
その方法は、例えば、パターンマッチングによって、その反射点の周囲の形状や反射強度を手がかりに実現できる。あるいは、光学画像において知られているオプチカルフローなどの手法を利用することができる。
【0009】
一方、変換行列生成部8は、目標とレーダの相対運動を要素とする3次元の変換行列を求め、逆行列生成部9は、変換行列生成部8により求められた変換行列の逆行列を求める。
目標形状算出部10は、逆行列生成部9が出力する変換行列の逆行列を、レーダ画像及び輝点の速度分布に乗ずることにより、目標の3次元形状を算出する。
【0010】
次に画像レーダ装置の理解を深めるため、画像レーダ装置の動作原理を説明する。
始めにレーダ画像における速度ベクトル分布を求める。図13に示す座標系において、X,Y,Zは目標の中心点13を基準とする座標系であり、Ω=(Ω1,Ω2,Ω3)は目標の回転運動の角速度、W=(W1,W2,W3)は目標の平行移動を表す速度、Pは目標上の点の位置ベクトルである。
XYZ座標の中心点13から距離rには送受信アンテナ2があって、目標の中心点13と送受信アンテナ2を結ぶLOS(Line of Sight)上の単位ベクトルをSとする。
【0011】
このとき、レーダ画像は、下式のベクトルu,v(下記の数式においては、u,vの書体をボールドで表記している)を座標軸とするスクリーン上に、目標のRCS分布を投影した像として取り扱うことができる。
【数1】

Figure 2004101299
ただし、ベクトルvはドップラー周波数の軸であるため回転角速度によって伸縮し、その大きさは1でないことに注意する必要がある。また、チルトΩは次式で与えられるベクトルであり、回転角速度Ωと平行移動速度Wを合成した等価回転角速度である。なお、λは高周波信号の波長である。
【数2】
Figure 2004101299
【0012】
図14はレーダ画像のスクリーンの概念を示しており、図において、p=(u,v)はスクリーン上に投影された位置ベクトルP=(X,Y,Z)における点の目標の像である。このとき、スクリーン上の画像の座標(u,v)は次式で表される。
【数3】
Figure 2004101299
【0013】
また、スクリーン上の画像の速度は、式(4)及び式(5)を時間で微分して得られる。
まず、u軸におけるスクリーン上の画像の速度は下記の通りとなる。
【数4】
Figure 2004101299
【0014】
式(6)において、Pドット(Pドットは、位置ベクトルPを時間微分したものである)と、Sドット(Sドットは、単位ベクトルSを時間微分したものである)は、次のようになるので、式(6)は式(9)のように表せる。
【数5】
Figure 2004101299
【0015】
また、v軸におけるスクリーン上の画像の速度は下記の通りとなる。
【数6】
Figure 2004101299
【0016】
したがって、レーダ画像と、レーダ画像上の輝点の速度分布は、式(4),式(5),式(9)及び式(10)の4つの式で与えられるが、式(9)はレンジ方向の変化であるu軸の画像の速度がベクトルvと等価であることを示しているので、独立な方程式は高々3本である。
そこで、レーダ画像と位置ベクトルPの関係は、新たにベクトルbと行列Aを定義すると、次式で表される。
【数7】
Figure 2004101299
【0017】
ただし、行列Aの要素は、それぞれ次のように書き下せる。
【数8】
Figure 2004101299
【0018】
ただし,添字の1,2,3は、それぞれのベクトルにおけるX,Y,Z軸の要素である。
従って、式(11)を変形すると、下記の式(24)になるので、行列Aの逆行列A−1が存在すれば、目標上の位置ベクトルPを求めることができる。
【数9】
Figure 2004101299
【0019】
ここで、行列Aの逆行列A−1は次式で与えられる。
【数10】
Figure 2004101299
また、|A|は行列Aの行列式であり、次式で与えられる。
【数11】
Figure 2004101299
【0020】
即ち、式(24)から位置ベクトルPを求めることができる条件は、行列Aの逆行列A−1が存在する条件から、|A|が零にならないことである。
このように、目標のレーダ画像と、画像上の輝点の速度ベクトル分布が観測できて、しかもレーダと目標の相対運動が既知であれば、|A|が零にならない条件の下で、目標の三次元形状を求めることが可能であることが理解される。
【0021】
ここで、特に地表面を観測する場合について、図15を用いて説明する。アンテナ2は航空機等に搭載されて地表面を観測するものとし、目標の中心点13は地表面上に定められる。また、アンテナ2を搭載した航空機等は、一定速度Vで、かつ、高度Hを保ったまま、目標の中心点13を中心とする半径Rの円周上を移動するものとする。
【0022】
このとき、X軸とY軸のまわりの回転角速度はゼロであり、次の式の関係にある。
【数12】
Figure 2004101299
以上で明らかなように、図11の画像レーダ装置によって、地形の立体図を生成することができる。
【0023】
図16は例えば特許文献2に示された従来の画像レーダ装置(以下、第2の従来例という)を示す構成図であり、図において、21は観測する地表、22,23は送受信アンテナ、24は高周波パルス信号を送受信アンテナ22に出力する一方、送受信アンテナ22の受信信号(地表21の反射波)を受信する送受信部、25は高周波パルス信号を送受信アンテナ23に出力する一方、送受信アンテナ23の受信信号(地表21の反射波)を受信する送受信部、26は送受信部24,25により受信された地表21の反射波から観測領域の高分解能レーダ画像を再生する画像再生部、27は画像再生部26により再生された2枚の高分解能レーダ画像の位相差を求め、その位相差に基づいて地表21の立体図を生成する干渉処理部である。
【0024】
次に動作について説明する。
送受信アンテナ22は、送受信部24から出力された高周波パルス信号を観測領域へ向けて照射し、地表21の反射波を受信する。
また、送受信アンテナ23は、送受信部25から出力された高周波パルス信号を観測領域へ向けて照射し、地表21の反射波を受信する。
二つの送受信アンテナ22,23は、図17に示すように、地上の同じ領域を照射するようにビームの角度が調節されているものとする。
【0025】
画像再生部26は、送受信アンテナ22により受信された地表21の反射波から観測領域の高分解能レーダ画像を再生し、また、送受信アンテナ23により受信された地表21の反射波から観測領域の高分解能レーダ画像を再生する。
通常、この種のレーダでは、送信パルスは距離分解能を改善するためにリニアFM変調して帯域幅を拡張しており、周波数対遅延時間特性が送信側と対になる分散型遅延線を利用して分解能の高いパルス波形を復元する。また、プラットフォームの移動に伴って発生するドップラー周波数の時間変化を利用して、これと共役なリファレンス関数とのマッチドフィルタによってアジマス分解能を改善する。このように合成開口レーダの画像再生処理として良く知られた分解能向上の処理により高分解能レーダ画像が得られる。
【0026】
干渉処理部27は、画像再生部26により再生された2枚の高分解能レーダ画像の位相差を求める。
そして、干渉処理部27は、2枚の高分解能レーダ画像の位相差から地表21の等高線に相当する等位相線を求める。即ち、2枚の高分解能レーダ画像の位相差から、送受信アンテナ22,23と高低差のない理想的な地球ジオイド面におけるターゲットとの位置関係から決まる位相変化を取り除くことにより、地表21の等高線に相当する等位相線を求める。
【0027】
この操作は、合成開口レーダのインターフェロメトリ処理として知られており、位相差φと地形の高さh間の次の関係式を利用して,等位相線から3次元地形を知る方法である。ただし、Bは送受信アンテナ22と送受信アンテナ23の間隔(ベースラインの長さ)、λは波長、rは送受信アンテナ22,23と観測領域の距離、θはオフナディア角、αはベースラインの水平面からの傾きである。
【数13】
Figure 2004101299
これにより、図16の画像レーダ装置を用いて地表21の立体図を求めることができる。
【0028】
【特許文献1】
特開2001−337163公報
【特許文献2】
特開平7−72244号公報
【0029】
【発明が解決しようとする課題】
従来の画像レーダ装置(第2の従来例)は以上のように構成されているので、2枚の高分解能レーダ画像の位相差に対する地表21の高さの感度を実用上十分高くとることが可能であり(式(29)を参照)、地表21の立体図を精度よく生成することができる。しかし、2枚の高分解能レーダ画像の位相差が2πラジアンを越えると、その位相差を0ラジアンから2πラジアンの範囲内の位相差に折り返して計測される(例えば、2枚の高分解能レーダ画像の位相差が3πラジアンであれば、その位相差はπラジアン(=3π−2π)として計測される)ので、地表21の高さを求めるため、この2πラジアンの折り返しを検出して、補正する必要があった。このため、局所的に位相差の2πの整数倍に相当する大きな誤差が立体図に生じることがある課題があった。
また、第1の従来例では、目標の立体図の精度が画像比較部7の精度と、画像の分解能の精度に依存して決まるので、画像比較部7の精度等を高めても、原理的に立体図の精度が画像の分解能に制約されるため、本来なら滑らかな地表にランダムな誤差が生じる課題があった。
【0030】
この発明は上記のような課題を解決するためになされたもので、局所的に生じる大きな誤差を除去して、精度の高い立体図を得ることができる画像レーダ装置を得ることを目的とする。
【0031】
【課題を解決するための手段】
この発明に係る画像レーダ装置は、第1の立体図生成手段により生成された立体図と第2の立体図生成手段により生成された立体図の差分を求めて、その差分から第2の立体図生成手段により生成された立体図の誤差を推定し、第2の立体図生成手段により生成された立体図から当該推定結果を減算するようにしたものである。
【0032】
この発明に係る画像レーダ装置は、アンテナ及び画像再生手段が3以上設置される場合、第2の立体図生成手段及び補正手段を2以上設置し、複数の補正手段から出力される立体図を統合する統合手段を設けたものである。
【0033】
この発明に係る画像レーダ装置は、アンテナ及び画像再生手段が3以上設置される場合、第2の立体図生成手段を2以上設置し、複数の第2の立体図生成手段により生成された立体図を統合して補正手段に出力する統合手段を設けたものである。
【0034】
この発明に係る画像レーダ装置は、アンテナ及び画像再生手段が3以上設置される場合、遅延手段、第1の立体図生成手段及び補正手段を2以上設置し、複数の補正手段から出力される立体図を統合する統合手段を設けたものである。
【0035】
この発明に係る画像レーダ装置は、第1の立体図生成手段により生成された立体図と第2の立体図生成手段により生成された立体図の差分を求める差分器と、複数のレーダ画像の位相差に対する目標の高さの感度を計算して、その感度に2πを乗算する演算器と、その差分器から出力された立体図の差分を演算器の乗算結果で除算する除算器と、その除算器の除算結果を整数化し、その整数化後の除算結果に演算器の乗算結果を乗算する整数化乗算器と、第2の立体図生成手段により生成された立体図から整数化乗算器の乗算結果を減算する減算器とから補正手段を構成したものである。
【0036】
この発明に係る画像レーダ装置は、目標の立体図を生成する際、遅延手段による遅延前後のレーダ画像の振幅を比較して、そのレーダ画像における輝点の速度分布を求める一方、目標とレーダの相対運動を要素とする3次元の正方行列を求め、その3次元の正方行列、レーダ画像及び輝点の速度分布から目標の立体図を生成するようにしたものである。
【0037】
この発明に係る画像レーダ装置は、目標の立体図を生成する際、複数の画像再生手段により再生されたレーダ画像の位相差を求め、その位相差から複数のアンテナと目標の位置関係から決まる位相変化を除去して、目標の立体図を生成するようにしたものである。
【0038】
【発明の実施の形態】
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による画像レーダ装置を示す構成図であり、図において、31,32は相互に異なる位置に設置され、目標に向けて高周波信号を送信する一方、目標に反射された高周波信号(目標の反射信号)を受信するアンテナ、33,34は高周波信号をアンテナ31,32に出力する一方、アンテナ31,32から出力された目標の反射信号を受信する送受信部、35,36は送受信部33,34により受信された目標の反射信号からレーダ画像A,Bを再生する画像再生部である。なお、送受信部33,34及び画像再生部35,36から画像再生手段が構成されている。
【0039】
37は画像再生部35により再生されたレーダ画像Aを一定時間遅延させる遅延部(遅延手段)、38は遅延部37による遅延前後のレーダ画像Aの振幅に基づいて目標の立体図Xを生成する第1の立体図生成部(第1の立体図生成手段)であり、第1の立体図生成部38は図11の画像比較部7,変換行生成部8,逆行列生成部9及び目標形状算出部10から為る構成に相当している。
39は画像再生部35,36により再生されたレーダ画像A,Bの位相に基づいて目標の立体図Yを生成する第2の立体図生成部(第2の立体図生成手段)であり、第2の立体図生成部39は図16の干渉処理部27の構成に相当している。
【0040】
40は第2の立体図生成部39により生成された立体図Yから第1の立体図生成部38により生成された立体図Xを減算して、双方の立体図の差分Δhを求める差分器、41は差分器40により求められた立体図の差分Δhから第2の立体図生成部39により生成された立体図Yの誤差を推定する誤差推定部、42は第2の立体図生成部39により生成された立体図Yから、誤差推定部41により推定された誤差を減算する減算器である。なお、差分器40,誤差推定部41及び減算器42から補正手段が構成されている。
【0041】
図2は誤差推定部41の内部構成を示す構成図であり、図において、51は画像再生部35,36により再生されたレーダ画像A,Bの位相差に対する目標の高さの感度を計算する測定感度計算部(演算器)、52は測定感度計算部51により計算された感度に2πを乗算する乗算器(演算器)、53は差分器40から出力された立体図の差分Δhを乗算器52の乗算結果で除算する除算器、54は除算器53の除算結果を整数化する整数化部(整数化乗算器)、55は整数化部54による整数化後の除算結果に乗算器52の乗算結果を乗算する乗算器(整数化乗算器)である。
【0042】
図3はこの発明の実施の形態1による画像レーダ装置の処理内容を示すフローチャートである。
図4〜図7は実施の形態1の効果を説明するための模式図であり、特に図4は観測対象である地形(目標)を示し、図5は第1の立体図生成部38により生成された立体図X(局所的な大きな誤差は生じないが、本来滑らかな地表にランダムな誤差が生じている)を示し、図6は第2の立体図生成部39により生成された立体図Y(全体的には精度の高い立体図が得られるが、局所的に大きな誤差が生じている)を示し、図7は減算器42から出力された補正後の立体図を示している。
【0043】
次に動作について説明する。
アンテナ31は、送受信部33から出力された高周波信号を目標に向けて照射し、目標の反射信号を受信する。
また、アンテナ32は、送受信部34から出力された高周波信号を目標に向けて照射し、目標の反射信号を受信する。
【0044】
画像再生部35は、送受信部33がアンテナ31により受信された目標の反射信号を増幅して出力すると、その目標の反射信号からレーダ画像Aを再生する(ステップST1)。
また、画像再生部36は、送受信部34がアンテナ32により受信された目標の反射信号を増幅して出力すると、その目標の反射信号からレーダ画像Bを再生する(ステップST2)。
遅延部37は、画像再生部35がレーダ画像Aを再生すると、そのレーダ画像Aを一定時間保持してから出力することにより、そのレーダ画像Aを一定時間遅延させる(ステップST3)。なお、一定時間は予め遅延部37に設定されているものとする。
【0045】
第1の立体図生成部38は、遅延部37による遅延前のレーダ画像Aの振幅と遅延部37による遅延後のレーダ画像Aの振幅とに基づいて目標の立体図Xを生成する(ステップST4)。
第1の立体図生成部38は、図11の画像比較部7,変換行生成部8,逆行列生成部9及び目標形状算出部10から為る構成に相当しているため詳細な説明は省略するが、遅延部37による遅延前後のレーダ画像Aの振幅を比較して、そのレーダ画像Aにおける輝点の速度分布を求めるとともに、目標とレーダの相対運動を要素とする3次元の正方行列を求める。
そして、その3次元の正方行列、レーダ画像A及び輝点の速度分布から目標の立体図Xを生成する。
なお、第1の立体図生成部38により生成される立体図Xは、上述したように原理的に立体図の精度が画像の分解能に制約されるため、本来なら滑らかな地表にランダムな誤差が生じる(図5を参照)。
【0046】
第2の立体図生成部39は、画像再生部35,36により再生されたレーダ画像の位相に基づいて目標の立体図Yを生成する(ステップST5)。
第2の立体図生成部39は、図16の干渉処理部27の構成に相当しているため詳細な説明は省略するが、画像再生部35により再生されたレーダ画像Aと画像再生部36により再生されたレーダ画像Bの位相差を求め、その位相差からアンテナ31,32と目標の位置関係から決まる位相変化を除去して、目標の立体図Yを生成する。
なお、第2の立体図生成部39により生成される立体図Yは、第1の立体図生成部38により生成される立体図Xよりも原理的に精度を高めることができるが、上述したようにレーダ画像A,Bの位相差に基づいて立体図Yを計算するため、位相が2πで折り返すことに起因して、局所的に大きな誤差が発生する(図6を参照)。
【0047】
差分器40は、第1及び第2の立体図生成部38,39が立体図X,Yを生成すると、第2の立体図生成部39により生成された立体図Yから第1の立体図生成部38により生成された立体図Xを減算して、双方の立体図の差分Δhを求める(ステップST6)。
誤差推定部41は、差分器40が立体図Xと立体図Yの差分Δhを求めると、その差分Δhから位相2πの折り返しに起因する立体図Yの誤差を推定する(ステップST7)。
【0048】
具体的には、誤差推定部41の測定感度計算部51は、式(29)を計算することにより、画像再生部35,36により再生されたレーダ画像A,Bの位相差φに対する目標の高さhの感度を計算する。
誤差推定部41の乗算器52は、測定感度計算部51により計算された感度に2πを乗算して、位相の折り返しに起因する地形の高さhの誤差を求める。
【0049】
誤差推定部41の除算器53は、差分器40から出力された立体図の差分Δhを乗算器52の乗算結果で除算する。即ち、差分器40から出力された立体図の差分Δhが位相の折り返しに起因する誤差の何倍に相当するか計算する。
誤差推定部41の整数化部54は、除算器53の除算結果を整数化して、位相の折り返し数を計算する。なお、除算器53の除算結果を切り上げ、あるいは、切り下げて整数化してもよいし、除算器53の除算結果を四捨五入して整数化してもよい。
誤差推定部41の乗算器55は、整数化部54による整数化後の除算結果に乗算器52の乗算結果を乗算して、位相の折り返しに起因する地形の高さhの誤差を算出する。
【0050】
減算器42は、上記のようにして誤差推定部41が位相2πの折り返しに起因する立体図Yの誤差を推定すると、第2の立体図生成部39により生成された立体図Yから誤差推定部41により推定された誤差を減算して(ステップST8)、位相2πの折り返しに起因する立体図Yの誤差を抑圧する(図7を参照)。
【0051】
以上で明らかなように、この実施の形態1によれば、第1の立体図生成部38により生成された立体図Xと第2の立体図生成部39により生成された立体図Yの差分Δhを求めて、その差分Δhから第2の立体図生成部39により生成された立体図Yの誤差を推定し、第2の立体図生成部39により生成された立体図Yから当該推定結果を減算するように構成したので、局所的に生じる大きな誤差を除去して、精度の高い立体図を得ることができる効果を奏する。
なお、この実施の形態1では、地形を観測する場合について説明したが、地形以外の物体を観測する場合においても同様の効果を得られる。
【0052】
実施の形態2.
図8はこの発明の実施の形態2による画像レーダ装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
61はアンテナ31,32と異なる位置に設置され、目標に向けて高周波信号を送信する一方、目標に反射された高周波信号(目標の反射信号)を受信するアンテナ、62は高周波信号をアンテナ61に出力する一方、アンテナ61から出力された目標の反射信号を受信する送受信部、63は送受信部62により受信された目標の反射信号からレーダ画像Cを再生する画像再生部である。なお、送受信部62及び画像再生部63から画像再生手段が構成されている。
64は画像再生部35,63により再生されたレーダ画像A,Cの位相に基づいて目標の立体図Zを生成する第2の立体図生成部(第2の立体図生成手段)であり、第2の立体図生成部39と同一の原理により立体図を生成する。
【0053】
65は第2の立体図生成部64により生成された立体図Zから第1の立体図生成部38により生成された立体図Xを減算して、双方の立体図の差分Δhを求める差分器、66は差分器65により求められた立体図の差分Δhから第2の立体図生成部39により生成された立体図Zの誤差を推定する誤差推定部、67は第2の立体図生成部64により生成された立体図Zから、誤差推定部66により推定された誤差を減算する減算器である。なお、差分器65,誤差推定部66及び減算器67から補正手段が構成されている。
68は減算器42から出力される補正後の立体図と減算器67から出力される補正後の立体図を統合する統合部(統合手段)である。
【0054】
上記実施の形態1では、アンテナ及び画像再生部が2個づつ設置されるものについて示したが、アンテナ及び画像再生部が3個づつ設置される場合、図8に示すように、第2の立体図生成部39,差分器40,誤差推定部41及び減算器42に相当する第2の立体図生成部64,差分器65,誤差推定部66及び減算器67を追加して、減算器42から出力される補正後の立体図と減算器67から出力される補正後の立体図を統合する統合部68を設けるようにしてもよい。
【0055】
この場合、上記実施の形態1と同様にして、アンテナ31,32により受信された目標の反射信号に基づいて生成された補正後の立体図が減算器42から出力される他、同一の原理にしたがって、アンテナ31,61により受信された目標の反射信号に基づいて生成された補正後の立体図が減算器67から出力される。
統合部68は、上述したように、減算器42から出力される補正後の立体図と減算器67から出力される補正後の立体図を統合するので、誤差の抑圧処理が冗長的になり、局所的に生じる大きな誤差の抑圧度を高めることができる効果を奏する。
【0056】
なお、統合部68による立体図の統合は、双方の立体図の平均を求めてもよいし、中央値を求めてもよい。あるいは、周囲の高さの平均に最も近い高さを出力するようにしてもよい。
この実施の形態2では、アンテナ及び画像再生部が3個づつ設置される場合について示したが、アンテナ及び画像再生部が4個以上設置される場合にも拡張できることは容易に想像できる。即ち、アンテナ及び画像再生部が4個以上設置される場合、第2の立体図生成部64や誤差推定部66等を2個以上追加すればよい。
【0057】
実施の形態3.
図9はこの発明の実施の形態3による画像レーダ装置を示す構成図であり、図において、図8と同一符号は同一または相当部分を示すので説明を省略する。
69は第2の立体図生成部39,64により生成された立体図Y,Zを統合して差分器40及び減算器42に出力する統合部(統合手段)である。
【0058】
上記実施の形態2では、アンテナ及び画像再生部が3個づつ設置される場合、画像レーダ装置の最終段に統合部68を設けるものについて示したが、図9に示すように、第2の立体図生成部39,64の後段に統合部69を設けて、統合部69が第2の立体図生成部39,64により生成された立体図Y,Zを統合して差分器40及び減算器42に出力するようにしてもよい。
この場合も、上記実施の形態2と同様の理由から局所的に生じる大きな誤差の抑圧度を高めることができる効果を奏する。
また、この実施の形態3の場合、上記実施の形態2のように、差分器65,誤差推定部66及び減算器67を追加する必要がないので、上記実施の形態2よりも構成の簡略化を図ることができる効果も奏する。
【0059】
この実施の形態3では、アンテナ及び画像再生部が3個づつ設置される場合について示したが、アンテナ及び画像再生部が4個以上設置される場合にも拡張できることは容易に想像できる。即ち、アンテナ及び画像再生部が4個以上設置される場合、第2の立体図生成部64を2個以上追加すればよい。
【0060】
実施の形態4.
図10はこの発明の実施の形態4による画像レーダ装置を示す構成図であり、図において、図8と同一符号は同一または相当部分を示すので説明を省略する。
70は画像再生部63により再生されたレーダ画像Cを一定時間遅延させる遅延部(遅延手段)、71は遅延部70による遅延前後のレーダ画像Cの振幅に基づいて目標の立体図Wを生成する第1の立体図生成部(第1の立体図生成手段)であり、第1の立体図生成部38と同一の原理により立体図を生成する。
【0061】
72は第2の立体図生成部39により生成された立体図Yから第1の立体図生成部71により生成された立体図Wを減算して、双方の立体図の差分Δhを求める差分器、73は差分器72により求められた立体図の差分Δhから第2の立体図生成部39により生成された立体図Yの誤差を推定する誤差推定部、74は第2の立体図生成部39により生成された立体図Yから、誤差推定部73により推定された誤差を減算する減算器である。なお、差分器72,誤差推定部73及び減算器74から補正手段が構成されている。
75は減算器42から出力される補正後の立体図と減算器74から出力される補正後の立体図を統合する統合部(統合手段)である。
【0062】
上記実施の形態1では、アンテナ及び画像再生部が2個づつ設置されるものについて示したが、アンテナ及び画像再生部が3個づつ設置される場合、図10に示すように、遅延部37,第1の立体図生成部38,差分器40,誤差推定部41及び減算器42に相当する遅延部70,第1の立体図生成部71,差分器72,誤差推定部73及び減算器74を追加して、減算器42から出力される補正後の立体図と減算器74から出力される補正後の立体図を統合する統合部75を設けるようにしてもよい。
【0063】
この場合、上記実施の形態1と同様にして、アンテナ31,32により受信された目標の反射信号に基づいて生成された補正後の立体図が減算器42から出力される他、同一の原理にしたがって、アンテナ32,61により受信された目標の反射信号に基づいて生成された補正後の立体図が減算器74から出力される。
統合部75は、上述したように、減算器42から出力される補正後の立体図と減算器74から出力される補正後の立体図を統合するので、誤差の抑圧処理が冗長的になり、局所的に生じる大きな誤差の抑圧度を高めることができる効果を奏する。
【0064】
なお、統合部75による立体図の統合は、双方の立体図の平均を求めてもよいし、中央値を求めてもよい。あるいは、周囲の高さの平均に最も近い高さを出力するようにしてもよい。
この実施の形態4では、アンテナ及び画像再生部が3個づつ設置される場合について示したが、アンテナ及び画像再生部が4個以上設置される場合にも拡張できることは容易に想像できる。即ち、アンテナ及び画像再生部が4個以上設置される場合、第1の立体図生成部71や誤差推定部73等を2個以上追加すればよい。
【0065】
【発明の効果】
以上のように、この発明によれば、第1の立体図生成手段により生成された立体図と第2の立体図生成手段により生成された立体図の差分を求めて、その差分から第2の立体図生成手段により生成された立体図の誤差を推定し、第2の立体図生成手段により生成された立体図から当該推定結果を減算するように構成したので、局所的に生じる大きな誤差を除去して、精度の高い立体図を得ることができる効果がある。
【0066】
この発明によれば、アンテナ及び画像再生手段が3以上設置される場合、第2の立体図生成手段及び補正手段を2以上設置し、複数の補正手段から出力される立体図を統合するように構成したので、局所的に生じる大きな誤差の抑圧度を高めることができる効果がある。
【0067】
この発明によれば、アンテナ及び画像再生手段が3以上設置される場合、第2の立体図生成手段を2以上設置し、複数の第2の立体図生成手段により生成された立体図を統合して補正手段に出力するように構成したので、局所的に生じる大きな誤差の抑圧度を高めることができる効果がある。
【0068】
この発明によれば、アンテナ及び画像再生手段が3以上設置される場合、遅延手段、第1の立体図生成手段及び補正手段を2以上設置し、複数の補正手段から出力される立体図を統合するように構成したので、局所的に生じる大きな誤差の抑圧度を高めることができる効果がある。
【0069】
この発明によれば、第1の立体図生成手段により生成された立体図と第2の立体図生成手段により生成された立体図の差分を求める差分器と、複数のレーダ画像の位相差に対する目標の高さの感度を計算して、その感度に2πを乗算する演算器と、その差分器から出力された立体図の差分を演算器の乗算結果で除算する除算器と、その除算器の除算結果を整数化し、その整数化後の除算結果に演算器の乗算結果を乗算する整数化乗算器と、第2の立体図生成手段により生成された立体図から整数化乗算器の乗算結果を減算する減算器とから補正手段を構成したので、構成の複雑化を招くことなく、局所的に生じる大きな誤差を除去することができる効果がある。
【0070】
この発明によれば、目標の立体図を生成する際、遅延手段による遅延前後のレーダ画像の振幅を比較して、そのレーダ画像における輝点の速度分布を求める一方、目標とレーダの相対運動を要素とする3次元の正方行列を求め、その3次元の正方行列、レーダ画像及び輝点の速度分布から目標の立体図を生成するように構成したので、局所的に大きな誤差が生じない立体図が得られる効果がある。
【0071】
この発明によれば、目標の立体図を生成する際、複数の画像再生手段により再生されたレーダ画像の位相差を求め、その位相差から複数のアンテナと目標の位置関係から決まる位相変化を除去して、目標の立体図を生成するように構成したので、局所的に大きな誤差が生じても、全体的には精度の高い立体図が得られる効果がある。
【図面の簡単な説明】
【図1】この発明の実施の形態1による画像レーダ装置を示す構成図である。
【図2】誤差推定部の内部構成を示す構成図である。
【図3】この発明の実施の形態1による画像レーダ装置の処理内容を示すフローチャートである。
【図4】観測対象である地形(目標)を示す説明図である。
【図5】第1の立体図生成部により生成された立体図Xを示す説明図である。
【図6】第2の立体図生成部により生成された立体図Yを示す説明図である。
【図7】減算器から出力された補正後の立体図を示す説明図である。
【図8】この発明の実施の形態2による画像レーダ装置を示す構成図である。
【図9】この発明の実施の形態3による画像レーダ装置を示す構成図である。
【図10】この発明の実施の形態4による画像レーダ装置を示す構成図である。
【図11】従来の画像レーダ装置(第1の従来例)を示す構成図である。
【図12】レーダ画像の時間変化を説明する説明図である。
【図13】送受信アンテナと目標の位置関係を示す説明図である。
【図14】観測座標系を説明する補助的な説明図である。
【図15】地表面を観測する場合のジオメトリを示す説明図である。
【図16】従来の画像レーダ装置(第2の従来例)を示す構成図である。
【図17】従来の画像レーダ装置(第2の従来例)の観測方法を示す説明図である。
【符号の説明】
31,32 アンテナ、33,34 送受信部(画像再生手段)、35,36画像再生部(画像再生手段)、37 遅延部(遅延手段)、38 第1の立体図生成部(第1の立体図生成手段)、39 第2の立体図生成部(第2の立体図生成手段)、40 差分器(補正手段)、41 誤差推定部(補正手段)、42減算器(補正手段)、51 測定感度計算部(演算器)、52 乗算器(演算器)、53 除算器、54 整数化部(整数化乗算器)、55 乗算器(整数化乗算器)、61 アンテナ、62 送受信部(画像再生手段)、63 画像再生部(画像再生手段)、64 第2の立体図生成部(第2の立体図生成手段)、65 差分器(補正手段)、66 誤差推定部(補正手段)、67 減算器(補正手段)、68 統合部(統合手段)、69 統合部(統合手段)、70 遅延部(遅延手段)、71 第1の立体図生成部(第1の立体図生成手段)、72 差分器(補正手段)、73 誤差推定部(補正手段)、74 減算器(補正手段)、75 統合部(統合手段)。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image radar apparatus for observing a target located at a distance and creating a three-dimensional view of the target.
[0002]
[Prior art]
FIG. 11 is a configuration diagram showing a conventional image radar device (hereinafter, referred to as a first conventional example) disclosed in Patent Document 1, for example, wherein 1 is a transmitter for outputting a high-frequency signal, and 2 is a transmitter. A transmission / reception antenna that radiates a high-frequency signal output from 1 to a target and receives a high-frequency signal reflected by the target, 3 is a transmission / reception switch, and 4 is a reception that receives a high-frequency signal that is a target reflection signal. And 5, an image reproducing unit that sequentially reproduces a radar image representing a target RCS distribution from the high-frequency signal received by the receiver 4.
[0003]
Reference numeral 6 denotes a delay unit that holds the radar image reproduced by the image reproducing unit 5 for a predetermined time and then outputs the same. An image comparison unit for obtaining the velocity distribution of the bright spots in the radar image, 8 is a conversion matrix generation unit for obtaining a three-dimensional conversion matrix using the relative motion of the target and the radar as an element, and 9 is a conversion obtained by the conversion matrix generation unit 8 The inverse matrix generator 10 for obtaining the inverse matrix (square matrix) of the matrix, the inverse matrix of the transformation matrix output by the inverse matrix generator 9, the radar image output by the image reproduction unit 5, and the image comparison unit 7 output The target shape calculation unit calculates a target three-dimensional shape from the speed distribution of the bright spots.
[0004]
FIG. 12 is an explanatory diagram illustrating a temporal change of a radar image.
Here, a radar image of a ship is used as an example, and the horizontal axis u is a range, and the vertical axis v is a cross range. Further, it can be seen that the density represents the RCS distribution, and the two-dimensional image of the ship is shown in shades.
12A and 12B are two radar images observed with a slight time difference, and it can be seen that FIG. 12B is slightly rotated with respect to FIG. Reference numeral 11 denotes a position vector in the image (a) near the bow.
FIG. 12C is an explanatory diagram for explaining a velocity vector of the radar image detected from a difference between the radar image of FIG. 12A and the radar image of FIG. 12B, and FIG. 12 shows a position in the radar image of FIG. This is the velocity vector at the point of vector 11.
[0005]
13 and 14 are explanatory diagrams for explaining the observation coordinate system of the image radar device. In particular, FIG. 13 is an explanatory diagram showing the positional relationship between the transmitting / receiving antenna 2 of the radar and the target. In the figure, reference numeral 13 denotes a center point of the target.
XYZ is a coordinate system based on the target center point 13, Ω1, Ω2, and Ω3 are rotational angular velocities around the XYZ axes, respectively, and W1, W2, and W3 are parallel translation velocities along the XYZ axes, respectively. S is an azimuth vector for viewing the transmitting / receiving antenna 2 from the target center point 13.
FIG. 14 is an auxiliary explanatory diagram for explaining the observation coordinate system. In the drawing, reference numeral 14 denotes a virtual plane on which a radar image is projected. P is a position vector of a certain reflection point on the target, and p is a position vector 11 of this reflection point on the radar image.
FIG. 15 is an explanatory diagram showing a geometry in the first conventional example, particularly when the ground surface is observed.
[0006]
Next, the operation will be described.
First, when the transmitter 1 outputs a high-frequency signal to the transmission / reception switch 3, the transmission / reception antenna 2 radiates the high-frequency signal toward a target.
The transmission / reception antenna 2 receives a high-frequency signal reflected from the target among the high-frequency signals radiated toward the target, and outputs the high-frequency signal to the transmission / reception switch 3.
[0007]
When the receiver 4 receives the high-frequency signal from the transmission / reception switch 3, the receiver 4 amplifies and detects the high-frequency signal, and the image reproducing unit 5 sequentially reads the radar image representing the target RCS distribution from the high-frequency signal output from the receiver 4. The radar image is reproduced, and the radar image is output to the image comparison unit 7, the delay unit 6, and the target shape calculation unit 10.
The image reproducing unit 5 performs a range compression process, a motion compensation process, and a cross range compression process in order to increase the resolution in both the range and the cross range.
[0008]
The image comparing unit 7 compares the amplitude of the radar image output by the image reproducing unit 5 (see FIG. 12B) with the amplitude of the radar image output by the delay unit 6 (see FIG. 12A). Then, the speed distribution of the bright spots in the radar image is obtained. Here, the delay unit 6 is provided for the image comparison unit 7 to compare two radar images having a time difference.
Specifically, the image comparison unit 7 obtains the velocity vector 12 of the reflection point in the position vector 11 by comparing the amplitudes of two radar images.
This method can be realized by pattern matching, for example, based on the shape and reflection intensity around the reflection point. Alternatively, a method such as an optical flow known in an optical image can be used.
[0009]
On the other hand, the conversion matrix generation unit 8 obtains a three-dimensional conversion matrix having the relative motion of the target and the radar as elements, and the inverse matrix generation unit 9 obtains an inverse matrix of the conversion matrix obtained by the conversion matrix generation unit 8. .
The target shape calculation unit 10 calculates a target three-dimensional shape by multiplying the inverse matrix of the transformation matrix output by the inverse matrix generation unit 9 with the velocity distribution of the radar image and the bright spot.
[0010]
Next, the operation principle of the image radar device will be described in order to deepen the understanding of the image radar device.
First, a velocity vector distribution in a radar image is obtained. In the coordinate system shown in FIG. 13, X, Y, and Z are coordinate systems based on the center point 13 of the target, Ω = (Ω1, Ω2, Ω3) is the angular velocity of the rotational motion of the target, and W = (W1, W2 and W3) are speeds representing the translation of the target, and P is a position vector of a point on the target.
Distance r from center point 13 of XYZ coordinates 0 Has a transmitting / receiving antenna 2, and a unit vector on an LOS (Line of Sight) connecting the target center point 13 and the transmitting / receiving antenna 2 is represented by S.
[0011]
At this time, the radar image is an image obtained by projecting the target RCS distribution on a screen whose coordinate axes are vectors u and v of the following equation (in the following equation, the fonts of u and v are represented in bold). Can be treated as
(Equation 1)
Figure 2004101299
However, it should be noted that the vector v is an axis of the Doppler frequency and therefore expands and contracts according to the rotational angular velocity, and its magnitude is not 1. The tilt Ω is a vector given by the following equation, and is an equivalent rotational angular velocity obtained by combining the rotational angular velocity Ω and the translation speed W. Here, λ is the wavelength of the high frequency signal.
(Equation 2)
Figure 2004101299
[0012]
FIG. 14 shows the concept of a screen of a radar image. In the figure, p = (u, v) is a target image of a point at a position vector P = (X, Y, Z) projected on the screen. . At this time, the coordinates (u, v) of the image on the screen are represented by the following equation.
[Equation 3]
Figure 2004101299
[0013]
The speed of the image on the screen can be obtained by differentiating the expressions (4) and (5) with respect to time.
First, the speed of the image on the screen in the u-axis is as follows.
(Equation 4)
Figure 2004101299
[0014]
In the equation (6), a P dot (P dot is a time derivative of the position vector P) and an S dot (S dot is a time derivative of the unit vector S) are as follows: Therefore, Expression (6) can be expressed as Expression (9).
(Equation 5)
Figure 2004101299
[0015]
The speed of the image on the screen in the v-axis is as follows.
(Equation 6)
Figure 2004101299
[0016]
Therefore, the velocity distribution of the radar image and the bright spots on the radar image is given by the four equations of Equations (4), (5), (9) and (10). Since the speed of the u-axis image, which is a change in the range direction, is equivalent to the vector v, there are at most three independent equations.
Therefore, the relationship between the radar image and the position vector P is expressed by the following equation when a vector b and a matrix A are newly defined.
(Equation 7)
Figure 2004101299
[0017]
However, the elements of the matrix A can be written down as follows.
(Equation 8)
Figure 2004101299
[0018]
However, the subscripts 1, 2, and 3 are the X, Y, and Z axis elements in each vector.
Therefore, when the equation (11) is modified, the following equation (24) is obtained. -1 Is present, the position vector P on the target can be obtained.
(Equation 9)
Figure 2004101299
[0019]
Here, the inverse matrix A of the matrix A -1 Is given by the following equation.
(Equation 10)
Figure 2004101299
| A | is the determinant of the matrix A and is given by the following equation.
[Equation 11]
Figure 2004101299
[0020]
That is, the condition that the position vector P can be obtained from the equation (24) is the inverse matrix A of the matrix A. -1 | A | does not become zero from the condition that exists.
In this way, if the target radar image and the velocity vector distribution of the luminescent spot on the image can be observed, and the relative motion between the radar and the target is known, the target can be obtained under the condition that | A | It is understood that it is possible to obtain the three-dimensional shape of
[0021]
Here, the case of observing the ground surface will be particularly described with reference to FIG. The antenna 2 is mounted on an aircraft or the like to observe the ground surface, and the target center point 13 is set on the ground surface. Also, an aircraft equipped with the antenna 2 has a constant speed V e It is assumed that the robot moves on the circumference of the radius R centered on the target center point 13 while maintaining the altitude H.
[0022]
At this time, the rotational angular velocities around the X axis and the Y axis are zero, and have the relationship of the following equation.
(Equation 12)
Figure 2004101299
As is clear from the above, a three-dimensional map of the terrain can be generated by the image radar device of FIG.
[0023]
FIG. 16 is a configuration diagram showing a conventional image radar device (hereinafter, referred to as a second conventional example) disclosed in Patent Document 2, for example, where 21 is the ground surface to be observed, 22 and 23 are transmitting / receiving antennas, and 24 Is a transmitting / receiving unit that outputs a high-frequency pulse signal to the transmitting / receiving antenna 22 and receives a received signal (a reflected wave of the ground surface 21) from the transmitting / receiving antenna 22. A transmitting / receiving unit 25 outputs a high-frequency pulse signal to the transmitting / receiving antenna 23. A transmitting / receiving unit for receiving a received signal (reflected wave of the ground surface 21), an image reproducing unit 26 for reproducing a high-resolution radar image of an observation area from the reflected waves of the ground surface 21 received by the transmitting / receiving units 24 and 25, and an image reproducing unit 27 An interference processing unit that obtains a phase difference between two high-resolution radar images reproduced by the unit 26, and generates a three-dimensional map of the ground surface 21 based on the phase difference.
[0024]
Next, the operation will be described.
The transmission / reception antenna 22 irradiates the high-frequency pulse signal output from the transmission / reception unit 24 toward the observation region, and receives a reflected wave of the ground surface 21.
The transmission / reception antenna 23 irradiates the high-frequency pulse signal output from the transmission / reception unit 25 toward the observation region, and receives a reflected wave of the ground surface 21.
It is assumed that the two transmitting and receiving antennas 22 and 23 have their beam angles adjusted so as to irradiate the same area on the ground as shown in FIG.
[0025]
The image reproducing unit 26 reproduces a high-resolution radar image of the observation area from the reflected wave of the ground surface 21 received by the transmitting / receiving antenna 22, and reproduces the high-resolution radar image of the observation area from the reflected wave of the ground surface 21 received by the transmitting / receiving antenna 23. Play radar images.
Normally, in this type of radar, the transmission pulse is linearly FM-modulated to improve the distance resolution and the bandwidth is extended, and a distributed delay line whose frequency versus delay time characteristic is paired with the transmission side is used. To restore a high-resolution pulse waveform. In addition, the azimuth resolution is improved by using a time-dependent change in the Doppler frequency caused by the movement of the platform and using a matched filter with a conjugate reference function. As described above, a high-resolution radar image can be obtained by the resolution improvement processing well known as the synthetic aperture radar image reproduction processing.
[0026]
The interference processing unit 27 calculates a phase difference between the two high-resolution radar images reproduced by the image reproduction unit 26.
Then, the interference processing unit 27 obtains a contour line corresponding to the contour line of the ground surface 21 from the phase difference between the two high-resolution radar images. That is, by removing the phase change determined by the positional relationship between the transmitting and receiving antennas 22 and 23 and the target on the ideal earth geoid surface having no height difference from the phase difference between the two high-resolution radar images, Find the corresponding isophase line.
[0027]
This operation is known as the interferometry processing of the synthetic aperture radar, and is a method of knowing the three-dimensional terrain from the equal phase line using the following relational expression between the phase difference φ and the terrain height h. . Where B is the distance between the transmitting and receiving antennas 22 and 23 (the length of the baseline), λ is the wavelength, r is the distance between the transmitting and receiving antennas 22 and 23 and the observation area, θ is the off-nadir angle, and α is the horizontal plane of the baseline. It is the inclination from.
(Equation 13)
Figure 2004101299
Thus, a three-dimensional view of the ground surface 21 can be obtained using the image radar device of FIG.
[0028]
[Patent Document 1]
JP 2001-337163 A
[Patent Document 2]
JP-A-7-72244
[0029]
[Problems to be solved by the invention]
Since the conventional image radar apparatus (second conventional example) is configured as described above, the sensitivity of the height of the ground surface 21 to the phase difference between two high-resolution radar images can be sufficiently high for practical use. (See equation (29)), and a three-dimensional map of the ground surface 21 can be generated with high accuracy. However, when the phase difference between the two high-resolution radar images exceeds 2π radians, the phase difference is measured by folding back the phase difference within the range of 0 radians to 2π radians (for example, two high-resolution radar images). Is 3π radians, the phase difference is measured as π radians (= 3π−2π). Therefore, in order to obtain the height of the ground surface 21, the turning back of 2π radians is detected and corrected. Needed. For this reason, there is a problem that a large error corresponding to an integral multiple of 2π of the phase difference may locally occur in the three-dimensional view.
Further, in the first conventional example, the accuracy of the target stereogram is determined depending on the accuracy of the image comparison unit 7 and the accuracy of the resolution of the image. In addition, since the accuracy of the three-dimensional map is limited by the resolution of the image, there is a problem that a random error occurs on a smooth ground surface.
[0030]
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and has as its object to obtain an image radar apparatus capable of removing a large local error and obtaining a high-precision stereogram.
[0031]
[Means for Solving the Problems]
An image radar apparatus according to the present invention obtains a difference between a three-dimensional view generated by a first three-dimensional view generating means and a three-dimensional view generated by a second three-dimensional view generating means, and obtains a second three-dimensional view from the difference. An error of the three-dimensional diagram generated by the generating unit is estimated, and the estimation result is subtracted from the three-dimensional diagram generated by the second three-dimensional diagram generating unit.
[0032]
In the image radar apparatus according to the present invention, when three or more antennas and image reproducing means are installed, two or more second three-dimensional figure generating means and two or more correcting means are installed, and three-dimensional figures output from a plurality of correcting means are integrated. This is provided with an integrating means.
[0033]
In the image radar device according to the present invention, when three or more antennas and image reproducing means are installed, two or more second three-dimensional figure generating means are installed, and the three-dimensional figure generated by the plurality of second three-dimensional figure generating means is provided. And an integrating means for integrating and outputting the result to the correcting means.
[0034]
In the image radar apparatus according to the present invention, when three or more antennas and image reproduction means are installed, two or more delay means, first three-dimensional diagram generation means and correction means are installed, and three-dimensional images output from a plurality of correction means are provided. An integrated means for integrating the figures is provided.
[0035]
An image radar apparatus according to the present invention includes a differentiator for calculating a difference between a three-dimensional view generated by a first three-dimensional view generating means and a three-dimensional view generated by a second three-dimensional view generating means, and a position of a plurality of radar images. A calculator for calculating the sensitivity of the target height to the phase difference and multiplying the sensitivity by 2π, a divider for dividing the difference of the three-dimensional diagram output from the differentiator by the multiplication result of the calculator, and the division thereof Multiplier that converts the result of division by the integer into an integer, multiplies the result of the division by the multiplier with the result of multiplication by the arithmetic unit, and multiplies the integer-based multiplier from the three-dimensional diagram generated by the second three-dimensional diagram generating means. The correction means is constituted by a subtractor for subtracting the result.
[0036]
The image radar device according to the present invention compares the amplitudes of the radar images before and after the delay by the delay unit when generating the three-dimensional view of the target, and obtains the velocity distribution of the bright spots in the radar image. A three-dimensional square matrix having relative motion as an element is obtained, and a target three-dimensional diagram is generated from the three-dimensional square matrix, the radar image, and the velocity distribution of the bright spots.
[0037]
An image radar apparatus according to the present invention obtains a phase difference between radar images reproduced by a plurality of image reproducing means when generating a stereoscopic view of a target, and determines a phase determined from a positional relationship between a plurality of antennas and the target from the phase difference. The change is removed to generate a target three-dimensional view.
[0038]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image radar apparatus according to Embodiment 1 of the present invention. In the figure, reference numerals 31 and 32 are installed at different positions from each other to transmit a high-frequency signal toward a target while reflecting the target. Antennas 33 and 34 for receiving the received high-frequency signals (target reflected signals); transmitting and receiving sections 35 and 34 for receiving the target reflected signals output from the antennas 31 and 32 while outputting the high-frequency signals to the antennas 31 and 32; , 36 are image reproducing units for reproducing radar images A, B from target reflected signals received by the transmitting / receiving units 33, 34. Note that the transmitting / receiving units 33 and 34 and the image reproducing units 35 and 36 constitute an image reproducing unit.
[0039]
Reference numeral 37 denotes a delay unit (delay means) for delaying the radar image A reproduced by the image reproduction unit 35 for a predetermined time, and 38 generates a target stereogram X based on the amplitude of the radar image A before and after the delay by the delay unit 37. This is a first three-dimensional diagram generation unit (first three-dimensional diagram generation unit), and the first three-dimensional diagram generation unit 38 includes the image comparison unit 7, the conversion row generation unit 8, the inverse matrix generation unit 9, and the target shape in FIG. This corresponds to the configuration made by the calculation unit 10.
Reference numeral 39 denotes a second three-dimensional diagram generation unit (second three-dimensional diagram generation means) that generates a target three-dimensional diagram Y based on the phases of the radar images A and B reproduced by the image reproduction units 35 and 36, respectively. 2 corresponds to the configuration of the interference processing unit 27 in FIG.
[0040]
A subtractor 40 for subtracting the three-dimensional view X generated by the first three-dimensional view generator 38 from the three-dimensional view Y generated by the second three-dimensional view generator 39 to obtain a difference Δh between the two three-dimensional views; 41 is an error estimator for estimating the error of the three-dimensional diagram Y generated by the second three-dimensional diagram generator 39 from the difference Δh of the three-dimensional diagram obtained by the differentiator 40, and 42 is an error estimator for the second three-dimensional diagram generator 39. This is a subtractor that subtracts the error estimated by the error estimating unit 41 from the generated three-dimensional diagram Y. The difference unit 40, the error estimating unit 41, and the subtractor 42 constitute a correction unit.
[0041]
FIG. 2 is a configuration diagram showing the internal configuration of the error estimation unit 41. In the figure, reference numeral 51 calculates the sensitivity of the target height to the phase difference between the radar images A and B reproduced by the image reproduction units 35 and 36. A measurement sensitivity calculator (arithmetic unit), 52 is a multiplier (arithmetic unit) that multiplies the sensitivity calculated by the measurement sensitivity calculator 51 by 2π, and 53 is a multiplier that multiplies the difference Δh of the three-dimensional diagram output from the differentiator 40. A divider that divides the result of the multiplication by 52, an integer conversion unit (an integer multiplier) that converts the result of the division by the integer 53 into an integer, and 55 a division result of the multiplier 52 by This is a multiplier (integerization multiplier) that multiplies the multiplication result.
[0042]
FIG. 3 is a flowchart showing the processing content of the image radar apparatus according to Embodiment 1 of the present invention.
4 to 7 are schematic diagrams for explaining the effect of the first embodiment. In particular, FIG. 4 shows the terrain (target) to be observed, and FIG. 5 is generated by the first three-dimensional map generation unit 38. FIG. 6 shows a three-dimensional diagram X (a local error is not generated, but a random error is originally generated on a smooth ground), and FIG. 6 is a three-dimensional diagram Y generated by the second three-dimensional diagram generation unit 39. (A high-accuracy three-dimensional figure is obtained as a whole, but a large error locally occurs). FIG. 7 shows the three-dimensional figure after correction output from the subtractor 42.
[0043]
Next, the operation will be described.
The antenna 31 irradiates the high-frequency signal output from the transmission / reception unit 33 toward a target, and receives a reflected signal of the target.
The antenna 32 irradiates the high-frequency signal output from the transmission / reception unit 34 toward the target, and receives the target reflected signal.
[0044]
When the transmission / reception unit 33 amplifies and outputs the target reflection signal received by the antenna 31, the image reproduction unit 35 reproduces the radar image A from the target reflection signal (step ST1).
When the transmitting / receiving unit amplifies and outputs the target reflected signal received by the antenna 32, the image reproducing unit reproduces the radar image B from the target reflected signal (step ST2).
When the image reproducing unit 35 reproduces the radar image A, the delay unit 37 delays the radar image A for a predetermined period of time by holding the radar image A for a predetermined period of time and outputting it (step ST3). It is assumed that the certain time is set in the delay unit 37 in advance.
[0045]
The first three-dimensional diagram generation unit 38 generates the target three-dimensional diagram X based on the amplitude of the radar image A before the delay by the delay unit 37 and the amplitude of the radar image A after the delay by the delay unit 37 (step ST4). ).
The first three-dimensional diagram generation unit 38 corresponds to a configuration including the image comparison unit 7, the converted row generation unit 8, the inverse matrix generation unit 9, and the target shape calculation unit 10 in FIG. However, the amplitude distribution of the radar image A before and after the delay by the delay unit 37 is compared, the speed distribution of the bright spots in the radar image A is obtained, and the three-dimensional square matrix having the relative motion between the target and the radar as an element is obtained. Ask.
Then, a target three-dimensional view X is generated from the three-dimensional square matrix, the radar image A, and the speed distribution of the bright spots.
Note that, as described above, since the accuracy of the three-dimensional diagram generated by the first three-dimensional diagram generation unit 38 is restricted by the resolution of the image in principle, random errors appear on a smooth ground surface. (See FIG. 5).
[0046]
The second three-dimensional diagram generation unit 39 generates a target three-dimensional diagram Y based on the phases of the radar images reproduced by the image reproduction units 35 and 36 (step ST5).
The second three-dimensional diagram generation unit 39 corresponds to the configuration of the interference processing unit 27 in FIG. 16 and will not be described in detail, but the radar image A reproduced by the image reproduction unit 35 and the image reproduction unit 36 The phase difference of the reproduced radar image B is obtained, and the phase change determined by the positional relationship between the antennas 31 and 32 and the target is removed from the phase difference, thereby generating the target three-dimensional view Y.
In addition, the three-dimensional view Y generated by the second three-dimensional view generation unit 39 can be higher in principle in accuracy than the three-dimensional view X generated by the first three-dimensional view generation unit 38, but as described above. Since the three-dimensional view Y is calculated based on the phase difference between the radar images A and B, a large error locally occurs due to the phase turning back at 2π (see FIG. 6).
[0047]
When the first and second three-dimensional figure generators 38 and 39 generate the three-dimensional figures X and Y, the differentiator 40 generates the first three-dimensional figure from the three-dimensional figure Y generated by the second three-dimensional figure generator 39. By subtracting the three-dimensional view X generated by the unit 38, a difference Δh between the two-dimensional views is obtained (step ST6).
When the differentiator 40 obtains the difference Δh between the three-dimensional view X and the three-dimensional view Y, the error estimating unit 41 estimates an error of the three-dimensional view Y due to the return of the phase 2π from the difference Δh (step ST7).
[0048]
More specifically, the measurement sensitivity calculator 51 of the error estimator 41 calculates Equation (29) to calculate the target height with respect to the phase difference φ of the radar images A and B reproduced by the image reproducers 35 and 36. Calculate the sensitivity of h.
The multiplier 52 of the error estimating unit 41 multiplies the sensitivity calculated by the measurement sensitivity calculating unit 51 by 2π, and obtains an error in the height h of the terrain caused by the return of the phase.
[0049]
The divider 53 of the error estimator 41 divides the difference Δh of the three-dimensional diagram output from the differentiator 40 by the multiplication result of the multiplier 52. That is, it calculates how many times the difference Δh of the three-dimensional view output from the differentiator 40 corresponds to the error caused by the phase wrapping.
The integer converting unit 54 of the error estimating unit 41 converts the division result of the divider 53 into an integer, and calculates the number of phase wraps. Note that the division result of the divider 53 may be rounded up or down to be converted to an integer, or the division result of the divider 53 may be rounded to an integer.
The multiplier 55 of the error estimating unit 41 multiplies the result of the division performed by the integer converting unit 54 after the conversion into an integer by the result of the multiplication by the multiplier 52, and calculates an error in the height h of the terrain caused by the return of the phase.
[0050]
When the error estimating unit 41 estimates the error of the three-dimensional diagram Y due to the folding of the phase 2π as described above, the subtractor 42 calculates the error estimating unit from the three-dimensional diagram Y generated by the second three-dimensional diagram generating unit 39. By subtracting the error estimated by 41 (step ST8), the error of the three-dimensional view Y due to the folding of the phase 2π is suppressed (see FIG. 7).
[0051]
As is clear from the above, according to the first embodiment, the difference Δh between the three-dimensional view X generated by the first three-dimensional view generator 38 and the three-dimensional view Y generated by the second three-dimensional view generator 39 is used. Is calculated, the error of the three-dimensional view Y generated by the second three-dimensional view generator 39 is estimated from the difference Δh, and the estimation result is subtracted from the three-dimensional view Y generated by the second three-dimensional view generator 39. Therefore, there is an effect that a large error locally generated is removed and a highly accurate three-dimensional view can be obtained.
In the first embodiment, the case where the terrain is observed has been described. However, the same effect can be obtained when the object other than the terrain is observed.
[0052]
Embodiment 2 FIG.
FIG. 8 is a configuration diagram showing an image radar apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG. 1 denote the same or corresponding parts, and a description thereof will be omitted.
An antenna 61 is installed at a position different from the antennas 31 and 32 to transmit a high-frequency signal toward a target while receiving a high-frequency signal reflected by the target (a target reflected signal). A transmitting / receiving unit that receives the target reflected signal output from the antenna 61 while outputting the signal, and an image reproducing unit 63 that reproduces the radar image C from the target reflected signal received by the transmitting / receiving unit 62. Note that the transmitting / receiving unit 62 and the image reproducing unit 63 constitute an image reproducing unit.
Reference numeral 64 denotes a second three-dimensional diagram generation unit (second three-dimensional diagram generation means) that generates a target three-dimensional diagram Z based on the phases of the radar images A and C reproduced by the image reproduction units 35 and 63. A three-dimensional figure is generated based on the same principle as that of the two-dimensional figure generating unit 39.
[0053]
65 is a differentiator for subtracting the three-dimensional view X generated by the first three-dimensional view generator 38 from the three-dimensional view Z generated by the second three-dimensional view generator 64 to obtain a difference Δh between the two three-dimensional views; 66 is an error estimator for estimating the error of the three-dimensional figure Z generated by the second three-dimensional figure generator 39 from the difference Δh of the three-dimensional figure obtained by the differentiator 65, and 67 is an error estimator for the second three-dimensional figure generator 64. This is a subtractor that subtracts the error estimated by the error estimating unit 66 from the generated three-dimensional diagram Z. The difference unit 65, the error estimating unit 66, and the subtractor 67 constitute a correction unit.
Reference numeral 68 denotes an integrating unit (integrating means) that integrates the corrected three-dimensional view output from the subtractor 42 and the corrected three-dimensional view output from the subtractor 67.
[0054]
In the first embodiment, the case where two antennas and two image reproduction units are installed has been described. However, when three antennas and three image reproduction units are installed, as shown in FIG. A second three-dimensional diagram generator 64, a differentiator 65, an error estimator 66, and a subtractor 67 corresponding to the diagram generator 39, the differentiator 40, the error estimator 41, and the subtractor 42 are added. An integrating unit 68 may be provided to integrate the output corrected stereoscopic view and the corrected stereoscopic view output from the subtractor 67.
[0055]
In this case, similarly to the first embodiment, the corrected stereogram generated based on the target reflected signals received by the antennas 31 and 32 is output from the subtractor 42, and the same principle is applied. Therefore, the corrected stereogram generated based on the target reflected signals received by the antennas 31 and 61 is output from the subtractor 67.
As described above, since the integrating unit 68 integrates the corrected stereogram output from the subtractor 42 and the corrected stereogram output from the subtractor 67, the error suppression process becomes redundant, There is an effect that the degree of suppression of a locally generated large error can be increased.
[0056]
The integration of the three-dimensional figures by the integrating unit 68 may be performed by calculating the average of the two-dimensional figures or by calculating the median value. Alternatively, a height closest to the average of the surrounding heights may be output.
In the second embodiment, the case where three antennas and three image reproducing units are installed is shown. However, it is easily imaginable that the present invention can be extended to a case where four or more antennas and image reproducing units are installed. That is, when four or more antennas and image reproduction units are installed, two or more second stereoscopic diagram generation units 64 and error estimation units 66 may be added.
[0057]
Embodiment 3 FIG.
FIG. 9 is a configuration diagram showing an image radar apparatus according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG. 8 denote the same or corresponding parts, and a description thereof will be omitted.
Reference numeral 69 denotes an integrating unit (integrating means) that integrates the three-dimensional views Y and Z generated by the second three-dimensional view generating units 39 and 64 and outputs the integrated three-dimensional views Y and Z to the subtractor 40 and the subtractor 42.
[0058]
In the second embodiment, in the case where three antennas and three image reproduction units are installed, the integration unit 68 is provided at the last stage of the image radar device. However, as shown in FIG. An integrating unit 69 is provided at a subsequent stage of the diagram generating units 39 and 64, and the integrating unit 69 integrates the three-dimensional diagrams Y and Z generated by the second three-dimensional diagram generating units 39 and 64, and integrates the differentiator 40 and the subtractor 42. May be output.
Also in this case, there is an effect that the degree of suppression of a large error locally occurring can be increased for the same reason as in the second embodiment.
Further, in the case of the third embodiment, since it is not necessary to add a differentiator 65, an error estimator 66, and a subtractor 67 as in the second embodiment, the configuration is simplified compared to the second embodiment. The effect which can aim at is also produced.
[0059]
In the third embodiment, the case where three antennas and three image reproducing units are installed is shown. However, it can be easily imagined that the present invention can be extended to a case where four or more antennas and image reproducing units are installed. That is, when four or more antennas and image reproducing units are installed, two or more second stereogram generating units 64 may be added.
[0060]
Embodiment 4 FIG.
FIG. 10 is a configuration diagram showing an image radar apparatus according to Embodiment 4 of the present invention. In the figure, the same reference numerals as in FIG. 8 denote the same or corresponding parts, and a description thereof will be omitted.
Reference numeral 70 denotes a delay unit (delay means) for delaying the radar image C reproduced by the image reproducing unit 63 for a predetermined time, and 71 generates a target stereogram W based on the amplitude of the radar image C before and after the delay by the delay unit 70. The first three-dimensional diagram generation unit (first three-dimensional diagram generation unit) generates a three-dimensional diagram based on the same principle as that of the first three-dimensional diagram generation unit 38.
[0061]
72 is a differentiator for subtracting the three-dimensional view W generated by the first three-dimensional view generator 71 from the three-dimensional view Y generated by the second three-dimensional view generator 39 to obtain a difference Δh between the two three-dimensional views; 73 is an error estimator for estimating the error of the three-dimensional figure Y generated by the second three-dimensional figure generator 39 from the difference Δh of the three-dimensional figure obtained by the differentiator 72, and 74 is an error estimator for the second three-dimensional figure generator 39. This is a subtractor that subtracts the error estimated by the error estimating unit 73 from the generated three-dimensional diagram Y. The difference unit 72, the error estimating unit 73, and the subtractor 74 constitute a correction unit.
Reference numeral 75 denotes an integrating unit (integrating means) that integrates the corrected stereogram output from the subtractor 42 and the corrected stereogram output from the subtractor 74.
[0062]
In the first embodiment, the case where two antennas and two image reproduction units are installed is described. However, when three antennas and three image reproduction units are installed, as shown in FIG. The delay unit 70 corresponding to the first three-dimensional diagram generation unit 38, the difference unit 40, the error estimation unit 41, and the subtractor 42, the first three-dimensional diagram generation unit 71, the difference unit 72, the error estimation unit 73, and the subtractor 74 In addition, an integrating unit 75 that integrates the corrected three-dimensional view output from the subtractor 42 and the corrected three-dimensional view output from the subtractor 74 may be provided.
[0063]
In this case, similarly to the first embodiment, the corrected stereogram generated based on the target reflected signals received by the antennas 31 and 32 is output from the subtractor 42, and the same principle is applied. Therefore, the corrected stereogram generated based on the target reflected signals received by the antennas 32 and 61 is output from the subtractor 74.
As described above, since the integrating unit 75 integrates the corrected stereogram output from the subtractor 42 and the corrected stereogram output from the subtractor 74, the error suppression process becomes redundant, There is an effect that the degree of suppression of a locally generated large error can be increased.
[0064]
The integration of the three-dimensional figures by the integrating unit 75 may be performed by calculating the average of the two-dimensional figures or by calculating the median value. Alternatively, a height closest to the average of the surrounding heights may be output.
In the fourth embodiment, the case where three antennas and three image reproducing units are installed is shown. However, it can be easily imagined that the present invention can be extended to a case where four or more antennas and image reproducing units are installed. That is, when four or more antennas and image reproducing units are installed, two or more first stereoscopic diagram generating units 71 and error estimating units 73 may be added.
[0065]
【The invention's effect】
As described above, according to the present invention, the difference between the three-dimensional view generated by the first three-dimensional view generation means and the three-dimensional view generated by the second three-dimensional view generation means is obtained, and the second difference is obtained from the difference. Since the configuration is such that the error of the three-dimensional view generated by the three-dimensional view generation means is estimated and the estimation result is subtracted from the three-dimensional view generated by the second three-dimensional view generation means, a large error locally generated is removed. Thus, there is an effect that a three-dimensional figure with high accuracy can be obtained.
[0066]
According to the present invention, when three or more antennas and image reproducing means are provided, two or more second three-dimensional figure generating means and two or more correcting means are provided so that three-dimensional figures output from a plurality of correcting means are integrated. With the configuration, there is an effect that the degree of suppression of a locally generated large error can be increased.
[0067]
According to the present invention, when three or more antennas and image reproducing means are provided, two or more second three-dimensional figure generating means are provided, and the three-dimensional figures generated by the plurality of second three-dimensional figure generating means are integrated. Output to the correction means, there is an effect that the degree of suppression of a large locally generated error can be increased.
[0068]
According to the present invention, when three or more antennas and image reproducing means are provided, two or more delay means, first three-dimensional figure generating means and correcting means are provided, and three-dimensional figures output from a plurality of correcting means are integrated. With such a configuration, there is an effect that the degree of suppression of a locally generated large error can be increased.
[0069]
According to the present invention, a differentiator for calculating a difference between a three-dimensional view generated by the first three-dimensional view generating means and a three-dimensional view generated by the second three-dimensional view generating means, and a target for a phase difference between a plurality of radar images. Calculator that calculates the sensitivity of the height and multiplies the sensitivity by 2π, a divider that divides the difference of the three-dimensional view output from the differentiator by the multiplication result of the arithmetic unit, and division of the divider An integer conversion unit that converts the result into an integer, multiplies the multiplication result of the arithmetic unit by the division result after the conversion into an integer, and subtracts the multiplication result of the integer conversion multiplier from the three-dimensional diagram generated by the second three-dimensional diagram generation unit Since the compensating means is constituted by the subtractor that performs the operation, there is an effect that a large error locally generated can be removed without complicating the structure.
[0070]
According to the present invention, when generating a three-dimensional view of a target, the amplitude distribution of the radar image before and after the delay by the delay unit is compared to determine the velocity distribution of the bright spots in the radar image, and the relative movement between the target and the radar is determined. Because a three-dimensional square matrix as an element is obtained and a target three-dimensional figure is generated from the three-dimensional square matrix, the radar image, and the velocity distribution of the bright spots, a three-dimensional figure that does not cause a large local error. The effect is obtained.
[0071]
According to the present invention, when generating a target stereogram, a phase difference between radar images reproduced by a plurality of image reproducing means is obtained, and a phase change determined from a positional relationship between the plurality of antennas and the target is removed from the phase difference. Then, since the target three-dimensional figure is configured to be generated, even if a large error occurs locally, there is an effect that a highly accurate three-dimensional figure can be obtained as a whole.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an image radar apparatus according to Embodiment 1 of the present invention.
FIG. 2 is a configuration diagram illustrating an internal configuration of an error estimating unit.
FIG. 3 is a flowchart showing processing contents of the image radar device according to the first embodiment of the present invention.
FIG. 4 is an explanatory diagram showing terrain (target) to be observed.
FIG. 5 is an explanatory diagram showing a three-dimensional view X generated by a first three-dimensional view generation unit.
FIG. 6 is an explanatory diagram illustrating a three-dimensional view Y generated by a second three-dimensional view generation unit.
FIG. 7 is an explanatory diagram showing a corrected three-dimensional view output from a subtractor.
FIG. 8 is a configuration diagram showing an image radar apparatus according to Embodiment 2 of the present invention.
FIG. 9 is a configuration diagram showing an image radar device according to Embodiment 3 of the present invention.
FIG. 10 is a configuration diagram showing an image radar apparatus according to Embodiment 4 of the present invention.
FIG. 11 is a configuration diagram showing a conventional image radar apparatus (first conventional example).
FIG. 12 is an explanatory diagram illustrating a temporal change of a radar image.
FIG. 13 is an explanatory diagram showing a positional relationship between a transmitting / receiving antenna and a target.
FIG. 14 is an auxiliary explanatory diagram illustrating an observation coordinate system.
FIG. 15 is an explanatory diagram showing a geometry when observing the ground surface.
FIG. 16 is a configuration diagram showing a conventional image radar device (second conventional example).
FIG. 17 is an explanatory diagram showing an observation method of a conventional image radar device (second conventional example).
[Explanation of symbols]
31, 32 antenna, 33, 34 transmitting / receiving unit (image reproducing unit), 35, 36 image reproducing unit (image reproducing unit), 37 delay unit (delaying unit), 38 first three-dimensional diagram generation unit (first three-dimensional diagram) Generating means), 39 second three-dimensional figure generating unit (second three-dimensional figure generating means), 40 differentiator (correcting means), 41 error estimating unit (correcting means), 42 subtractor (correcting means), 51 measurement sensitivity Calculation unit (arithmetic unit), 52 multiplier (arithmetic unit), 53 divider, 54 integer unit (integer multiplier), 55 multiplier (integer multiplier), 61 antenna, 62 transmitting / receiving unit (image reproducing means) ), 63 image reproducing unit (image reproducing unit), 64 second stereoscopic diagram generating unit (second stereoscopic diagram generating unit), 65 differentiator (correcting unit), 66 error estimating unit (correcting unit), 67 subtractor (Correction unit), 68 integration unit (integration unit), 69 integration unit (integration unit) Stage), 70 delay unit (delay means), 71 first three-dimensional diagram generation unit (first three-dimensional diagram generation unit), 72 difference unit (correction unit), 73 error estimation unit (correction unit), 74 subtractor ( Correction means), 75 integration unit (integration means).

Claims (7)

相互に異なる位置に設置された複数のアンテナと、上記アンテナが目標の反射信号を受信すると、その反射信号からレーダ画像を再生する複数の画像再生手段と、上記複数の画像再生手段により再生されたレーダ画像のうち、任意のレーダ画像を一定時間遅延させる遅延手段と、上記遅延手段による遅延前後のレーダ画像の振幅に基づいて目標の立体図を生成する第1の立体図生成手段と、上記複数の画像再生手段により再生されたレーダ画像の位相に基づいて目標の立体図を生成する第2の立体図生成手段と、上記第1の立体図生成手段により生成された立体図と上記第2の立体図生成手段により生成された立体図の差分を求めて、その差分から上記第2の立体図生成手段により生成された立体図の誤差を推定し、上記第2の立体図生成手段により生成された立体図から当該推定結果を減算する補正手段とを備えた画像レーダ装置。A plurality of antennas installed at different positions, a plurality of image reproducing means for reproducing a radar image from the reflected signal when the antenna receives a target reflected signal, and a plurality of image reproducing means for reproducing the radar image from the reflected signal. A delay unit for delaying an arbitrary radar image among the radar images for a predetermined time; a first three-dimensional diagram generation unit for generating a target three-dimensional diagram based on the amplitude of the radar image before and after the delay by the delay unit; A second three-dimensional figure generating means for generating a target three-dimensional figure based on the phase of the radar image reproduced by the image reproducing means, and a three-dimensional figure generated by the first three-dimensional figure generating means and the second three-dimensional figure A difference between the three-dimensional figures generated by the three-dimensional figure generation means is obtained, and an error of the three-dimensional figure generated by the second three-dimensional figure generation means is estimated from the difference. Image radar apparatus provided with a correction means for subtracting the estimated results from the stereoscopic view generated by. アンテナ及び画像再生手段が3以上設置される場合、第2の立体図生成手段及び補正手段を2以上設置し、上記複数の補正手段から出力される立体図を統合する統合手段を設けたことを特徴とする請求項1記載の画像レーダ装置。When three or more antennas and image reproducing means are provided, two or more second three-dimensional drawing generating means and two or more correcting means are provided, and integrating means for integrating the three-dimensional figures output from the plurality of correcting means is provided. The image radar device according to claim 1, wherein: アンテナ及び画像再生手段が3以上設置される場合、第2の立体図生成手段を2以上設置し、上記複数の第2の立体図生成手段により生成された立体図を統合して補正手段に出力する統合手段を設けたことを特徴とする請求項1記載の画像レーダ装置。When three or more antennas and image reproducing means are provided, two or more second three-dimensional figure generating means are provided, and the three-dimensional figures generated by the plurality of second three-dimensional figure generating means are integrated and output to the correcting means. 2. The image radar device according to claim 1, further comprising an integrating unit that performs the operation. アンテナ及び画像再生手段が3以上設置される場合、遅延手段、第1の立体図生成手段及び補正手段を2以上設置し、上記複数の補正手段から出力される立体図を統合する統合手段を設けたことを特徴とする請求項1記載の画像レーダ装置。When three or more antennas and image reproducing means are provided, two or more delay means, first three-dimensional figure generating means and correcting means are provided, and integrating means for integrating three-dimensional figures output from the plurality of correcting means is provided. The image radar device according to claim 1, wherein: 第1の立体図生成手段により生成された立体図と第2の立体図生成手段により生成された立体図の差分を求める差分器と、複数のレーダ画像の位相差に対する目標の高さの感度を計算して、その感度に2πを乗算する演算器と、上記差分器から出力された立体図の差分を上記演算器の乗算結果で除算する除算器と、上記除算器の除算結果を整数化し、その整数化後の除算結果に上記演算器の乗算結果を乗算する整数化乗算器と、上記第2の立体図生成手段により生成された立体図から上記整数化乗算器の乗算結果を減算する減算器とから補正手段を構成したことを特徴とする請求項1から請求項4のうちのいずれか1項記載の画像レーダ装置。A differentiator for calculating a difference between the three-dimensional view generated by the first three-dimensional view generator and the three-dimensional view generated by the second three-dimensional view generator, and a sensitivity of a target height to a phase difference between a plurality of radar images. Calculating, multiplying the sensitivity by 2π, a divider that divides the difference of the stereogram output from the differentiator by the multiplication result of the arithmetic unit, and converts the division result of the divider into an integer, An integer multiplier for multiplying the division result after the integer conversion by the multiplication result of the arithmetic unit; and subtraction for subtracting the multiplication result of the integer conversion multiplier from the three-dimensional diagram generated by the second three-dimensional diagram generation means. The image radar apparatus according to any one of claims 1 to 4, wherein a correction unit is constituted by the device. 第1の立体図生成手段は、目標の立体図を生成する際、遅延手段による遅延前後のレーダ画像の振幅を比較して、そのレーダ画像における輝点の速度分布を求める一方、目標とレーダの相対運動を要素とする3次元の正方行列を求め、その3次元の正方行列、上記レーダ画像及び上記輝点の速度分布から目標の立体図を生成することを特徴とする請求項1から請求項5のうちのいずれか1項記載の画像レーダ装置。The first three-dimensional map generating means compares the amplitudes of the radar images before and after the delay by the delay means to determine the speed distribution of the bright spots in the radar image when generating the three-dimensional figure of the target. The three-dimensional square matrix having relative motion as an element is obtained, and a target three-dimensional diagram is generated from the three-dimensional square matrix, the radar image, and the velocity distribution of the bright spots. 6. The image radar device according to claim 5, wherein: 第2の立体図生成手段は、目標の立体図を生成する際、複数の画像再生手段により再生されたレーダ画像の位相差を求め、その位相差から複数のアンテナと目標の位置関係から決まる位相変化を除去して、目標の立体図を生成することを特徴とする請求項1から請求項6のうちのいずれか1項記載の画像レーダ装置。The second three-dimensional map generating means determines a phase difference between the radar images reproduced by the plurality of image reproducing means when generating the target three-dimensional figure, and determines a phase determined from a positional relationship between the plurality of antennas and the target based on the phase difference. The image radar apparatus according to any one of claims 1 to 6, wherein a change is removed to generate a target three-dimensional view.
JP2002261854A 2002-09-06 2002-09-06 Imaging radar installation Pending JP2004101299A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002261854A JP2004101299A (en) 2002-09-06 2002-09-06 Imaging radar installation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002261854A JP2004101299A (en) 2002-09-06 2002-09-06 Imaging radar installation

Publications (1)

Publication Number Publication Date
JP2004101299A true JP2004101299A (en) 2004-04-02

Family

ID=32262106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002261854A Pending JP2004101299A (en) 2002-09-06 2002-09-06 Imaging radar installation

Country Status (1)

Country Link
JP (1) JP2004101299A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011247597A (en) * 2010-05-21 2011-12-08 Mitsubishi Electric Corp Radar signal processor
WO2016125206A1 (en) * 2015-02-06 2016-08-11 三菱電機株式会社 Synthetic-aperture-radar-signal processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011247597A (en) * 2010-05-21 2011-12-08 Mitsubishi Electric Corp Radar signal processor
WO2016125206A1 (en) * 2015-02-06 2016-08-11 三菱電機株式会社 Synthetic-aperture-radar-signal processing device
JPWO2016125206A1 (en) * 2015-02-06 2017-07-27 三菱電機株式会社 Synthetic aperture radar signal processor

Similar Documents

Publication Publication Date Title
US5394151A (en) Apparatus and method for producing three-dimensional images
Ma et al. Three-dimensional ISAR imaging based on antenna array
Chen et al. Simulation of ISAR imaging of moving targets
CN107102333B (en) Satellite-borne InSAR long and short baseline fusion unwrapping method
NO170786B (en) PROCEDURE AND APPARATUS FOR IMPROVED SAR IMAGE (SYNTHETIZED APERTUR RADAR) FOR SHIP CLASSIFICATION.
JP3003701B2 (en) Signal processing device for synthetic aperture radar
JPH045156B2 (en)
US20180011187A1 (en) Synthetic-aperture radar signal processing apparatus
CN109655821A (en) For determining the angular range of target, place and/or the radar method and radar system of speed
CN109507667B (en) Double-station SAR receiver motion error compensation method based on navigation satellite signal
CN111896955A (en) Shipborne SAR (synthetic aperture radar) rail-crossing interference processing method
Callow et al. Stripmap phase gradient autofocus
JPH0772244A (en) Interference-type synthetic aperture radar equipment and topographic change observation system
Madsen Absolute phase determination techniques in SAR interferometry
JP6324108B2 (en) Synthetic aperture radar equipment
JPH10232282A (en) Synthetic aperture radar and moving target detecting method
JPH09230039A (en) Interference synthetic aperture radar equipment and terrain height measuring method using the synthetic aperture radar equipment
JPH07199804A (en) Topographical map generating device employing three-dimensional information obtained by interference type synthetic aperture radar
KR20190084730A (en) Sar and sar signal processor for squinted spotlight mode under nonlinear flight path and method thereof
US5805099A (en) Synthetic aperture radar and target image production method
Reigber et al. Wavenumber domain SAR focusing with integrated motion compensation
JP2655136B2 (en) Interferometric synthetic aperture radar image processing method and interferometric synthetic aperture radar apparatus
JP2004101299A (en) Imaging radar installation
KR100425283B1 (en) Topography Measurement Method using InSAR
JP3301292B2 (en) Interferometric high-resolution radar device and terrain height measuring method using high-resolution radar device