JP2004233124A - Radar image processing device - Google Patents

Radar image processing device Download PDF

Info

Publication number
JP2004233124A
JP2004233124A JP2003019880A JP2003019880A JP2004233124A JP 2004233124 A JP2004233124 A JP 2004233124A JP 2003019880 A JP2003019880 A JP 2003019880A JP 2003019880 A JP2003019880 A JP 2003019880A JP 2004233124 A JP2004233124 A JP 2004233124A
Authority
JP
Japan
Prior art keywords
unit
radar image
filter
feedback
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003019880A
Other languages
Japanese (ja)
Other versions
JP4177128B2 (en
Inventor
Masayoshi Tsuchida
正芳 土田
Isao Aoyama
功 青山
Kazuhiko Yamamoto
山本  和彦
Masafumi Iwamoto
雅史 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003019880A priority Critical patent/JP4177128B2/en
Publication of JP2004233124A publication Critical patent/JP2004233124A/en
Application granted granted Critical
Publication of JP4177128B2 publication Critical patent/JP4177128B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a radar image processing device that can reduce noise contained in radar images while avoiding the deterioration of resolution caused by filtering. <P>SOLUTION: This radar image processing device is provided with a first image storing area 101 in which first radar images Go obtained by performing observation with radar equipment are stored, a filtering section 110 which acquires second radar images Gf by filtering out the noise contained in the first radar images Go, and a variable component detecting section 120 which detects the variable components C of the second radar images Gf. This processing device is also provided with a resolution-deteriorated portion extracting section 130 which detects a portion blurred after filtering from the variable components C as a resolution deteriorated portion D, a feedback discriminating section 140 which feeds back the information on the resolution deteriorated portion D to the filtering section 110 when a prescribed feedback ending condition does not come into existence, and a second image storing area 102 in which filtered images Gr derived from the second radar images Gf are stored when the feedback ending condition comes into existence. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、レーダを用いた観測で得られるレーダ画像から、画像中に含まれる雑音を除去するレーダ画像処理装置に関し、特にレーダ画像に対するフィルタ処理時のぼけ発生による分解能の劣化を回避しつつ、画像中に含まれる雑音を低減させたレーダ画像処理装置に関するものである。
【0002】
【従来の技術】
従来より、この種のレーダ画像処理装置は、レーダ画像を格納するレーダ画像格納エリアと、観測領域を識別して分割する領域分割処理部と、各分割領域に対してフィルタ処理を行うフィルタ処理部と、フィルタ後の画像を格納するフィルタ後画像格納エリアとを備えている(たとえば、非特許文献1参照)。
また、領域分割処理部は、平坦部検出部と、エッジまたはライン検出部と、点構造物検出部とにより構成され、フィルタ処理部は、フィルタ適用部と、結果合成部とにより構成されている。
【0003】
このような従来装置において、レーダ画像は、領域分割処理部に入力されて、画像中の平坦な部分と、エッジまたはラインと、点構造物とが検出され、さらに、これら以外の部分はテクスチャを持つ部分として検出される。
ここで、従来装置による上記検出処理について説明する。
まず、平坦部の検出処理について説明すると、画像中の所定範囲を示す観測領域内の平均
【数1】

Figure 2004233124
と分散
【数2】
Figure 2004233124
とから、
【数3】
Figure 2004233124
を算出する。このとき、
【数4】
Figure 2004233124
が或る閾値内の値を示す場合には、その所定範囲の中心位置を、平坦部として検出する。
【0004】
次に、エッジまたはラインの検出処理について説明する。
この場合、観測領域を左右の2つの範囲に分割し、各分割領域での平均強度を求め、これらの比を算出する。
一般に、エッジやラインでは、平均強度が大きく異なることから、2つの分割領域の平均強度の比が或る閾値を超えたときに、これらの中心位置にエッジまたはラインが存在するものと判定する。
また、点構造物の検出処理について説明する。
この場合、観測領域内の中心位置に近接する範囲での平均強度と、その周りの範囲での強度とを求め、これらの比が閾値内を示すときに、中心位置に点構造物が存在するものと判定する。
【0005】
こうして、領域分割処理部で得られた、平坦部と、エッジまたはライン部と、点構造部と、テクスチャを持つ部分との各データは、フィルタ処理部に入力されてフィルタ処理が適用される。
ここで、フィルタ処理とは、観測により得られた画像
【数5】
Figure 2004233124
から雑音
【数6】
Figure 2004233124
を取り除く処理であり、観測画像から雑音を含まない所望画像
【数7】
Figure 2004233124
を推定する処理である。
【0006】
一般に、レーダによる観測においては、スペックル雑音や受信機雑音などが存在し、地表面での後方散乱強度を示す画像が所望画像となる。また、レーダ画像中の主な雑音は、乗法性を有することが知られており、観測により得られた画像
【数8】
Figure 2004233124
は、以下の式のようにモデル化される。
【0007】
【数9】
Figure 2004233124
【0008】
次に、検出された各領域でのフィルタ処理について説明する。
平坦部およびテクスチャを持つ部分において、所望画像
【数10】
Figure 2004233124
の推定値である強度
【数11】
Figure 2004233124
は、その地点を中心とした所定範囲を有する窓内のデータから推定される。この推定式は、所望画像
【数12】
Figure 2004233124
の確率
【数13】
Figure 2004233124
および条件付き確率
【数14】
Figure 2004233124
をガンマ分布に仮定し、事後確率
【数15】
Figure 2004233124
を最大にするという基準により、以下の式のように表される。
【0009】
【数16】
Figure 2004233124
【0010】
ここで、
【数17】
Figure 2004233124
は所定範囲のデータから得られた平均、Lはレーダ画像のルック数、
【数18】
Figure 2004233124
は窓の中心位置における強度である。また、
【数19】
Figure 2004233124
はオーダパラメータ(フィルタのパラメータ)であり、所定範囲内の分散
【数20】
Figure 2004233124
を用いて、以下の式のように表される。
【0011】
【数21】
Figure 2004233124
【0012】
エッジやライン部においては、推定に適用されるデータの範囲(所定範囲を有する窓の形)をエッジやラインの形状に合わせて、窓内の中心位置の平均強度が、その窓内のデータから、上記式を用いて推定される。
また、点構造物部分においては、以下の式で表されるように、全域通過フィルタが適用される。
【数22】
Figure 2004233124
これは、点構造部が、レーダ画像中の雑音の発生原理から、雑音を含まないためである。
最後に、フィルタ処理部内の結果合成部は、各領域のフィルタ処理の結果を加算して合成し、合成結果をフィルタ後画像格納エリアに出力する。
【0013】
【非特許文献1】
A. Lopes, E. Nezry, R. Touzi and H. Laur, ”Structure detection and statistical adaptive speckle filtering in SAR images,” J. Remote Sensing, Vol. 14, No. 9, pp.1735−1758, 1993.
【0014】
【発明が解決しようとする課題】
従来のレーダ画像処理装置は以上のように、レーダ画像から雑音を除去するために、点構造体、エッジやラインなどの構造物の検出が不十分な部分において、平坦部またはテクスチャ部分に適用する処理が適用されているので、過度の雑音低減が行われた場合に、構造物がぼけるという問題点があった。
また、フィルタの推定式で用いた仮定が成り立たないレーダ画像中の部分においては、ぼけが生じたり雑音が残留するという問題点があった。
また、上記一連の流れで処理が完結しているので、フィルタを適用した際に画像中にぼけが生じる場合には、フィルタ後の画像にもぼけが生じるという問題点があった。
【0015】
この発明は上記のような問題点を解決するためになされたもので、フィルタ処理前後のレーダ画像の比較結果から、フィルタ処理によって生じた分解能劣化部分(ぼけが生じた部分)を特定してフィルタ処理部に帰還させ、ぼけが生じないようにフィルタ条件を変更して適用することにより、点構造体、エッジやラインなどの構造物において、ぼけ発生による分解能の劣化を回避しつつ、レーダ画像中のスペックル雑音や受信機雑音を低減したレーダ画像処理装置を得ることを目的とする。
【0016】
【課題を解決するための手段】
この発明に係るレーダ画像処理装置は、レーダによる観測で得られた第1のレーダ画像を格納する第1の画像格納エリアと、第1のレーダ画像に含まれる雑音を除去して第2のレーダ画像を得るフィルタ処理部と、第1および第2のレーダ画像を比較して第2のレーダ画像の変化成分を検出する変化成分検出部と、変化成分の中から、フィルタ処理後にぼけが生じた部分を分解能劣化部分として検出する分解能劣化部分抽出部と、所定の帰還終了条件が成立しない場合に分解能劣化部分の情報をフィルタ処理部に帰還する帰還処理判定部と、帰還終了条件が成立した場合に、第2のレーダ画像に基づくフィルタ後画像を格納する第2の画像格納エリアとを備えたものである。
【0017】
【発明の実施の形態】
実施の形態1.
以下、図面を参照しながら、この発明の実施の形態1について詳細に説明する。
図1はこの発明の実施の形態1を示すブロック構成図である。
図1において、レーダ画像処理装置は、レーダ画像Goを格納するレーダ画像格納エリア101と、フィルタ後(雑音低減後)のレーダ画像Grを格納するフィルタ後画像格納エリア102と、レーダ画像Goに対してフィルタ処理を施すフィルタ処理部110と、フィルタ処理前のレーダ画像Goとフィルタ処理後のレーダ画像Gfとの比を変化成分Cとして検出する変化成分検出部120と、変化成分Cに基づいて分解能劣化部分Dを抽出する分解能劣化部分抽出部130と、分解能劣化部分Dに基づいて生成されたフィルタ後画像Gr(D)をフィルタ処理部110に帰還処理するか否かを判定する帰還処理判定部140とを備えている。
【0018】
帰還処理判定部140から生成されるフィルタ後画像Gr(D)は、必要に応じてフィルタ処理部110に帰還されるとともに、帰還不要と判定された時点(後述する)で、最終的なフィルタ後画像Grとして、フィルタ後画像格納エリア102に格納される。
したがって、フィルタ処理部110には、初期のレーダ画像Goおよびフィルタ後画像Gr(D)(分解能劣化部分Dを含む)が入力される。
フィルタ処理部110は、複数のフィルタ条件を設定するフィルタ設定部111と、設定された各条件にしたがってフィルタ処理を適用するフィルタ適用部112と、各フィルタ処理結果を加算する結果合成部113とを備えている。
【0019】
図2は図1内の分解能劣化部抽出部130を示すブロック構成図である。
図2において、分解能劣化部分抽出部130は、変化成分Cのデータを2値化データに変換する2値化部131と、2値化された変化成分に基づいて分解能劣化部分D(ぼけが発生した連続成分)を検出する連続成分検出部132とを備えている。
【0020】
次に、図3を参照しながら、図1および図2に示したこの発明の実施の形態1による具体的な処理動作について説明する。
図3はこの発明の実施の形態1による処理手順を図1内の各ブロックに関連付けて示すフローチャートであり、各ステップST101、ST111〜ST113、ST120、ST131、ST132およびST140は、それぞれ、各構成要素101、111〜113、120、131、132および140(図1、図2参照)の処理動作に対応している。
【0021】
図3において、まず、フィルタ処理部110は、レーダ画像格納エリア101からレーダ画像Goを入力データとして読み込む(ステップST101)。
続いて、フィルタ処理部110内のフィルタ設定部111は、フィルタの設定条件として、フィルタ処理対象となるフィルタ後画像Gr(D)が補正部分であるか否かを判定する(ステップST111)。
【0022】
なお、フィルタ設定とは、フィルタ処理で適用されるパラメータ(推定式の種類や、窓のサイズなど)を設定することであり、初回の処理においては、レーダ画像Goの全体に対して同一のフィルタ設定が行われる。
上記フィルタ処理で適用される推定式としては、以下の式があげられる。
【0023】
【数23】
Figure 2004233124
【0024】
ここで、
【数24】
Figure 2004233124
はフィルタのパラメータである。なお、フィルタ用の推定式としては、上記式に限らず、他の推定式を用いてもよい。
【0025】
帰還操作による2回目以降のフィルタ処理においては、帰還処理判定部140から帰還された分解能劣化部分Dの情報に基づいて、ぼけが生じた補正部分に適用するフィルタ条件と、それ以外の部分に適用するフィルタ条件とをそれぞれ異なるように設定する。
たとえば、ステップST111において、補正部分でない(すなわち、NO)と判定されれば、フィルタf1を選択し、補正部分である(すなわち、YES)と判定されれば、フィルタf2を選択する(ステップST112)。
【0026】
ここで、分解能劣化部分Dの情報とは、ぼけが生じた部分の位置を示した情報を示す。
ステップST112によるフィルタ変更においては、ぼけが生じた補正部分に対しては、雑音成分(ノイズ)の低減効果を低減する代わりに、ぼけの発生の小さなフィルタf2が設定され、ぼけが生じなかった部分に対しては、雑音の低減効果を増大させるためのフィルタf1が設定される。
なぜなら、フィルタ設定においては、一般に、雑音低減効果が低いほど、ぼけの発生率が低くなり、雑音低減効果が高いほど、ぼけの発生率が高くなるからである。
【0027】
なお、上記フィルタ設定(ステップST111、ST112)において、初回に設定したフィルタ処理による雑音低減効果が高い場合には、ぼけが生じた補正部分のみに対して、ぼけを低減するようなフィルタ条件に設定変更してもよい。また、初回に設定したフィルタ処理によるぼけが小さい場合には、ぼけが生じない部分のみに対して、雑音低減効果を増大させるようなフィルタ条件に設定変更してもよい。
【0028】
フィルタ設定部111は、フィルタ処理のパラメータ(たとえば、フィルタで適用される窓のサイズなど)が或る規定値に達した場合には、それ以上のフィルタ設定を変更せずに更新処理を終了する。
なお、フィルタ設定部111におけるフィルタ更新の終了条件としては、たとえば、着目中の画素に適用する更新後のパラメータ(窓のサイズなど)が、その周囲の画素に適用するパラメータに対して規定値以上異なる場合に、フィルタ更新を終了するように設定してもよく、または、他の条件を用いてもよい。
【0029】
フィルタ適用部112は、フィルタ設定部111で設定したフィルタ条件(フィルタf1またはフィルタf2)を、レーダ画像Goに対して適用する(ステップST112)。
続いて、結果合成部113は、異なるフィルタ条件が適用された画像中の各部分の結果を加算合成し(ステップST113)、フィルタ処理後のレーダ画像Gfとして変化成分検出部120に入力する。
【0030】
変化成分検出部120は、フィルタ処理部110が読み込んだ(レーダ画像格納エリア101からの)レーダ画像Goと、フィルタ処理部110を介してフィルタが適用された後のレーダ画像Gfとから、フィルタ処理後の画像Gfの変化成分Cを検出する(ステップST120)。
ここで、変化成分Cには、除去された雑音成分と、ぼけにより生じた部分とが含まれている。また、レーダ画像Go中の雑音は、前述のように、主に乗法性を有するスペックル雑音である。
したがって、フィルタ後のレーダ画像Gfの変化成分Cは、以下の式(1)により求められる。
【0031】
【数25】
Figure 2004233124
【0032】
式(1)において、
【数26】
Figure 2004233124
は読み込んだレーダ画像Go、
【数27】
Figure 2004233124
はフィルタを適用した後のレーダ画像Gfを示す。
なお、ここでは、変化成分Cを式(1)により求めたが、他の式を用いてもよい。
【0033】
こうして求められた変化成分Cは、分解能劣化部分抽出部130に入力され、まず、2値化部131により2値化データに変換される(ステップST131)。
続いて、連続成分検出部132は、2値化された変化成分の中で、空間的にランダムに分布するものは雑音であるとして取り除き、空間的に連続している部分(直線または曲線部分)を、ぼけにより生じた連続成分(分解能劣化部分D)として検出する(ステップST132)。
【0034】
ここで、図4を参照しながら、分解能劣化部分抽出部130内の連続成分検出部132による動作原理について説明する。
図4は分解能劣化部分Dを抽出する処理原理を示す説明図であり、レーダ画像Goとフィルタ処理後のレーダ画像Gfとの除算から変化成分Cが求められ、さらに、変化成分Cに基づいて分解能劣化部分Dが抽出される状態を、具体的な画像例とともに示している。
【0035】
図4に示すように、初期のレーダ画像Goには、構造物A(建物など)のみならず、多数の雑音成分(ノイズ)Eが含まれている。
一方、フィルタを適用した結果のレーダ画像Gfにおいては、雑音成分Eは低減(または、除去)されているものの、構造物Aの近傍に、ぼけ部分(連続成分)Bが生じている可能性がある。
この場合、レーダ画像Goとフィルタ処理後のレーダ画像Gfとの比較(変化成分検出部120による除算)から検出される変化成分Cには、除去された雑音成分Eと、ぼけにより生じた部分(連続成分)Bが含まれる。
【0036】
図4から明らかなように、雑音成分Eは空間的にランダムに発生するが、ぼけ部分Bは、構造物Aのエッジやラインの近傍で発生するので、直線的または曲線的に連続成分として発生する。
したがって、空間的にランダムに発生する成分を雑音成分Eとして除去することにより、ぼけにより生じた部分B(連続的な成分)を、最終的な分解能劣化部分Dとして検出することができる。
【0037】
このとき、ランダム成分の除去は、ランダムな部分の面積が構造物Aよりも小さいことを利用して、たとえば面積の小さい部分を除去することにより実現することができる。
なお、ぼけ部分Bの検出処理は、面積の違いを利用する代わりに、直線抽出アルゴリズム(ハフ変換やラドン変換など)を利用してもよい。
【0038】
最後に、帰還処理判定部140は、フィルタ後画像Gr(D)の帰還操作を行うか否かを判定し(ステップST140)、帰還操作が必要(すなわち、YES)と判定されれば、ステップST111に戻って、レーダ画像Goに対して上記処理(ステップST111〜ST132)を繰り返す。
一方、ステップST140において、帰還操作が不要(すなわち、NO)と判定されれば、フィルタ後画像Gr(D)を最終的なフィルタ結果(フィルタ後画像Gr)としてフィルタ後画像格納エリア102に格納し、図3の処理ルーチンを終了する。
【0039】
具体的には、ステップST140において、帰還が必要と判定された場合には、検出された分解能劣化部分Dを含むフィルタ後画像Gr(D)をフィルタ処理部110に帰還させ、帰還操作による反復処理の回数が規定回数(上限値)に達した場合、または、検出された分解能劣化部分Dの画素数が規定数(下限値)以下に低減された場合、または、フィルタ処理部110でのフィルタ更新が実行されなくなった場合に、帰還不要として処理を終了する。
なお、フィルタ後画像Gr(D)の帰還終了条件は、上記に限らず、他の条件を用いてもよい。
【0040】
このように、フィルタ処理部110の適用に起因して発生したぼけ部分Bを検出し、これを分解能劣化部分Dとして帰還させ、ぼけ部分Bが十分に低減されるまで、フィルタ条件を変更しつつフィルタ処理を繰り返し適用することにより、最終的なフィルタ結果として、ぼけ部分が生じていない雑音低減後のフィルタ後画像Grを得ることができる。
また、ぼけが発生しない部分では、雑音の低減効果の高いフィルタ条件を適用することにより、雑音が大幅に低減された雑音低減後のフィルタ後画像Grを得ることができる。
【0041】
実施の形態2.
なお、上記実施の形態1では、2値化部131および連続成分抽出部132により分解能劣化抽出部130(図2参照)を構成したが、2次元直交変換部、連続成分検出部および2次元直交逆変換部により分解能劣化部分抽出部を構成してもよい。
【0042】
以下、図5および図6を参照しながら、分解能劣化部分抽出部の構成を変更したこの発明の実施の形態2について説明する。
図5はこの発明の実施の形態2による分解能劣化抽出部230を示すブロック構成図であり、図6はこの発明の実施の形態2による処理動作を示すフローチャートである。
【0043】
図5において、分解能劣化部分抽出部230は、2次元直交変換部231と、連続成分検出部232と、2次元直交逆変換部233とを備えている。
図5に示されない他の構成要素については、前述(図1参照)に示した通りである。
また、図6において、前述(図3参照)と同様の処理ステップについては、前述と同一符号を付して詳述を省略する。
【0044】
次に、図1および図4とともに、図6を参照しながら、図5に示したこの発明の実施の形態2による具体的な動作について説明する。
図6においては、2次元直交変換部231、連続成分検出部232および2次元直交逆変換部233に対応したステップST231〜ST233の処理のみが前述と異なる。
まず、前述のステップST101〜ST120により、変化成分Cが検出されて分解能劣化部分抽出部230に入力されると、変化成分Cは、分解能劣化部分抽出部230内の2次元直交変換部231により、2次元直交変換されて直交変換データとなる(ステップST231)。
【0045】
なお、2次元直交変換とは、画像のような2次元信号の直交変換を意味している。また、直交変換とは、たとえばフーリエ変換のように、空間座標を周波数座標に変換する変換である。
ここで、直交変換を、フーリエ変換を例にとって説明すると、離散信号である変化成分の画像
【数28】
Figure 2004233124
の2次元離散フーリエ変換
【数29】
Figure 2004233124
は、以下の式(2)で示される。
【0046】
【数30】
Figure 2004233124
【0047】
式(2)において、N、Mはそれぞれ画像の一辺の画素数を示す。
【0048】
次に、連続成分検出部232は、直交変換データの周波数空間における
【数31】
Figure 2004233124
の中から、ぼけによる連続成分Bを取り出す(ステップST232)。
ここで、ステップST232による連続成分Bの抽出原理について説明すると、空間上の変化成分
【数32】
Figure 2004233124
中のランダムに変化する雑音成分Eは、周波数空間において高周波域に存在する。したがって、低域通過フィルタを用いて、
【数33】
Figure 2004233124
のうちランダムな雑音成分が主に存在する周波数帯域の成分を除去することにより、ぼけによる成分のみを取り出すことができる。
【0049】
続いて、2次元直交逆変換部233は、2次元離散フーリエ逆変換により、連続成分検出部232によって特定された周波数空間上でのぼけ成分を、空間上の信号に戻して、分解能劣化部分Dとして生成する(ステップST233)。
このとき、2次元離散フーリエ逆変換は、以下の式(3)で示される。
【0050】
【数34】
Figure 2004233124
【0051】
以下、前述と同様に、帰還処理判定部140を介して、最終的なフィルタ後画像Grがフィルタ後画像格納エリア102に格納される。
このように、分解能劣化部分抽出部230を図5のように構成することで、前述と同様の作用効果を奏することができる。
なお、ここでは、直交変換にフーリエ変換を用いたが、他の直交変換を用いてもよい。
また、ぼけによる連続部分を特定するために、低域通過フィルタを使用したが、他の方法で特定してもよい。
【0052】
実施の形態3.
なお、上記実施の形態1、2では、フィルタ後画像Gr(D)をそのまま帰還情報としてフィルタ処理部110に入力したが、帰還情報を認識して領域分割処理した後にフィルタ処理部に入力してもよい。
以下、図7および図8を参照しながら、帰還情報を領域分割処理したこの発明の実施の形態3について説明する。
図7はこの発明の実施の形態3を示すブロック構成図であり、図8はこの発明の実施の形態3による処理動作を示すフローチャートである。
【0053】
図7および図8において、前述(図1、図3参照)と同様のものについては、前述と同一符号を付して詳述を省略する。
図7において、フィルタ処理部310は、フィルタ設定部311、フィルタ適用部312および結果合成部313を備えている。フィルタ処理部310の構成は、前述(図1)のフィルタ処理部110に対応している。
レーダ画像格納エリア101とフィルタ処理部310との間には、領域分割処理部301が挿入されている。
また、帰還処理判定部140と領域分割処理部301との間には、領域分割処理設定変更部300が挿入されている。
【0054】
次に、図8を参照しながら、図7に示したこの発明の実施の形態3による処理動作について説明する。
図8において、ステップST300、ST301およびST311〜ST313は、それぞれ、図7内の各構成要素300、301および311〜313の処理動作に対応している。
【0055】
まず、領域分割処理部301が、レーダ画像格納エリア101からレーダ画像を読み込むと(ステップST101)、領域分割処理設定変更部300は、帰還処理判定部140からの帰還情報Gr(D)に基づいて、領域分割処理の設定を変更する(ステップST300)。
このとき、初回の処理においては、帰還情報が存在しないので、事前に定めた設定が行われる。
【0056】
なお、変更される領域分割処理の設定条件としては、たとえば、エッジの検出に使用される所定範囲の大きさや閾値などがあげられる。
具体的には、ぼけの発生が検出された部分においては、エッジやラインなどの構造物A(図4参照)の検出が不十分であるため、検出閾値が低減設定される。
【0057】
続いて、領域分割処理部301は、レーダ画像中の平坦部分、エッジやライン構造部分、点構造部分を検出し、その他の部分をテクスチャを持つ部分とする(ステップST301)。
具体的には、図8内のステップST301(破線内参照)に示したように、まず、平坦部であるか否かを判定し、平坦部でない(すなわち、NO)と判定されれば、続いて、エッジやラインであるか否かを判定し、エッジやラインでない(すなわち、NO)と判定されれば、さらに、点構造物であるか否かを判定し、点構造物でない(すなわち、NO)と判定されれば、テクスチャ部分と見なす。また、各判定ステップにおいて「YES」と判定されれば、ぞれぞれの部分と見なして、フィルタ条件の設定処理(ステップST311)に進む。
なお、ここでは、検出領域を、平坦部分、エッジやライン部分、点構造部分、テクスチャを持つ部分、と設定したが、さらに細分して検出してもよい。
【0058】
次に、フィルタ設定部311は、検出した各領域に対して適用するフィルタの設定を行う(ステップST311)。
たとえば、ステップST301で認識された各部分に応じて、フィルタ設定1〜4のいずれかの条件が設定される。また、フィルタ条件の設定は、帰還による反復処理の進行につれて変更される。
このとき、フィルタの変更処理においては、ぼけが生じて領域分割処理の設定を変更した部分に対しては、雑音低減効果を下げる代わりにぼけ発生率の低いフィルタ条件を設定し、その他のぼけが生じなかった部分に対しては、雑音低減効果を増大させるようにフィルタ条件を設定する。
【0059】
また、上記フィルタ条件は、前述と同様に、初回に設定したフィルタ処理の雑音低減効果が高い場合には、ぼけが生じて領域分割処理の設定を変更した部分のみに対して、ぼけを低減するように変更し、初回に設定したフィルタ処理のぼけが小さい場合には、ぼけが生じずに領域分割処理の設定を変更しなかった部分のみに対して、雑音低減効果を増大させるように変更してもよい。
【0060】
次に、フィルタ適用部312は、検出された各領域に対するフィルタ設定1〜4に応じて、フィルタF1〜F4を選択的に適用する(ステップST312)。また、結果合成部313は、フィルタが適用された各領域の結果を加算して合成する(ステップST313)。
以下、前述と同様に、変化成分の検出処理(ステップST120)、2値化処理(ステップST131)、連続成分検出処理(ステップST132)および帰還処理判定(ステップST140)を介して、最終的なフィルタ後画像Grを生成し、フィルタ後画像格納エリア102に格納する。
【0061】
帰還処理判定部140は、ステップST140において、帰還操作が必要と判定されれば、分解能劣化部分を含むフィルタ後画像Gr(D)を領域分割処理設定変更部300に帰還し、帰還終了条件が成立して帰還操作が不要と判定されれば、最終的なフィルタ結果をフィルタ後画像格納エリア102に入力する。
なお、帰還終了条件としては、前述と同様に、反復処理の回数が規定回数に達した場合、検出された分解能劣化部分の画素数が規定数以下に低減された場合、または、フィルタ処理部110でのフィルタ更新が実行されなくなった場合があげられるが、他の条件を用いてもよい。
【0062】
また、ここでは、前述の実施の形態1(図2参照)と同様に、2値化部131および連続成分検出部132からなる分解能劣化部分抽出部130を用いたが、実施の形態2(図5参照)と同様に、2次元直交変換部231、連続成分検出部232および2次元直交逆変換部233からなる分解能劣化部分抽出部230を用いてもよい。
【0063】
このように、画像中の構造を事前に検出して、構造物Aが存在する部分と構造物Aが存在しない部分とで、それぞれ適したフィルタ条件を適用することにより、画像中の構造物Aの近傍において、ぼけの発生を抑制した雑音低減後のフィルタ後画像Grを得ることができる。
また、ぼけが発生した場合には、領域分割処理の設定を変更して(ステップST300)、再度、構造物Aを検出した後に、フィルタ処理を適用するので、最終的なフィルタ結果として、ぼけの発生がない雑音低減後のフィルタ後画像Grを得ることができる。
さらに、ぼけが発生しない部分では、雑音低減効果の高いフィルタ条件を適用するので、雑音が大幅に低減された雑音低減後のフィルタ後画像Grを得ることができる。
【0064】
実施の形態4.
なお、上記実施の形態3では、領域分割処理設定変更部300を設け、帰還処理判定部140から領域分割処理設定変更部300に対して帰還操作を実行したが、領域分割処理設定変更部300を削除して、帰還処理判定部140からフィルタ処理部に対して帰還操作を実行してもよい。
以下、図9および図10を参照しながら、帰還情報をフィルタ処理部に直接入力したこの発明の実施の形態4について説明する。
図9はこの発明の実施の形態4を示すブロック構成図であり、図10はこの発明の実施の形態4による処理動作を示すフローチャートである。
【0065】
図9および図10において、前述(図1〜図8参照)と同様のものについては、前述と同一符号を付して詳述を省略する。
図9において、フィルタ処理部410は、フィルタ設定部411、フィルタ適用部412および結果合成部413を備えており、レーダ画像格納エリア101とフィルタ処理部410との間には、領域分割処理部401が挿入されている。領域分割処理部401およびフィルタ処理部410の構成は、それぞれ、前述(図7)の領域分割処理部301およびフィルタ処理部310に対応している。この場合、帰還処理判定部140からの帰還情報は、フィルタ処理部410に直接入力されている。
【0066】
次に、図10を参照しながら、図9に示したこの発明の実施の形態4による処理動作について説明する。
図10において、ステップST401およびST411〜ST413は、それぞれ、図9内の各構成要素401および411〜413の処理動作に対応している。なお、ステップ401については、前述(図8内)のステップST301と同様なので、ここでは説明を省略する。
【0067】
まず、画像識別に基づく領域分割処理(ステップST401)に続いて、フィルタ処理部410内のフィルタ設定部411は、帰還処理判定部140からの帰還情報に基づいて、領域分割処理部401で検出された各領域に適用するフィルタの設定を行い(ステップST411)、フィルタ適用部412は、検出された各領域に対して設定されたフィルタ処理を適用する(ステップST412)。
ステップST411においては、各領域において、ぼけが生じた補正部分と、それ以外の部分に対するフィルタ設定を、帰還による反復毎に更新する。
【0068】
すなわち、図10の破線内で示すように、ステップST411においては、ステップST401で検出された領域毎に、補正部分であるか否かが個別に判定され、ステップST412においては、ステップST411の各判定結果に応じて、フィルタF1a、F1b〜F4a、F4bのいずれかが選択的に適用される。このとき、ぼけが生じた部分に対しては、雑音低減効果が低い代わりに、ぼけ発生率の低いフィルタ条件が設定され、ぼけが生じなかった部分に対しては、雑音低減効果の高いフィルタ条件に設定される。
【0069】
なお、初回の処理においては、帰還情報が存在しないので、事前に規定されたフィルタ設定が行われる。
また、フィルタ条件は、前述と同様に、初回に設定したフィルタ処理の雑音の低減効果が高い場合には、ぼけが生じた部分のみに対して、ぼけの発生を抑制するように変更し、初回に設定したフィルタ処理のぼけが小さい場合には、ぼけが生じない部分のみに対して、雑音低減効果をあげるように変更してもよい。
【0070】
次に、結果合成部413は、各領域でのぼけの生じた補正部分とそれ以外の部分とのフィルタ結果を加算合成し、続いて、これら各領域の合成結果をさらに加算合成し、フィルタ後画像Gfとして変化成分検出部120に入力する(ステップST413)。
以下、前述と同様に、ステップST120〜ST140を介して、最終的なフィルタ後画像Grを生成し、フィルタ後画像格納エリア102に格納する。
【0071】
このように、画像中の構造を事前に検出して、構造物Aが存在する部分と、構造物Aが存在しない部分とで、各部分に適したフィルタ条件を適用することにより、ぼけの発生を効果的に抑制することができる。
また、各領域に適したフィルタ条件を適用した上で、ぼけが発生した補正部分については、ぼけが発生しないように、さらにフィルタ条件を変更して適用するので、最終的なフィルタ結果として、ぼけが生じていない雑音低減後のフィルタ後画像Grを得ることができる。
また、ぼけが発生しない部分では、雑音低減効果の高いフィルタ条件を適用するので、雑音が大幅に低減された雑音低減後画像Grを得ることができる。
なお、ここでは、前述の実施の形態1(図2参照)と同様に、2値化部131および連続成分検出部132からなる分解能劣化部分抽出部130を用いたが、実施の形態2(図5参照)と同様に、2次元直交変換部231、連続成分検出部232および2次元直交逆変換部233からなる分解能劣化部分抽出部230を用いてもよい。
【0072】
【発明の効果】
以上のように、この発明によれば、レーダによる観測で得られた第1のレーダ画像を格納するレーダ画像格納エリアと、第1のレーダ画像に含まれる雑音を除去してフィルタ処理後の第2のレーダ画像を生成するフィルタ処理部と、第1および第2のレーダ画像を比較して第2のレーダ画像の変化成分を検出する変化成分検出部と、変化成分の中から、フィルタ処理後にぼけが生じた部分を分解能劣化部分として検出する分解能劣化部分抽出部と、所定の帰還終了条件に基づいて、フィルタ処理部への分解能劣化部分の情報の帰還操作を実行するか否かを判定する帰還処理判定部と、帰還終了条件が成立して帰還処理判定部による帰還操作が実行されなくなった時点で、第2のレーダ画像に基づくフィルタ後画像を格納するフィルタ後画像格納エリアとを備えたので、点構造体、エッジやラインなどの構造物において、ぼけ発生による分解能の劣化を回避しつつ、レーダ画像中のスペックル雑音や受信機雑音を低減したレーダ画像処理装置が得られる効果がある。
【図面の簡単な説明】
【図1】この発明の実施の形態1を示すブロック構成図である。
【図2】この発明の実施の形態1による分解能劣化部分抽出部を示すブロック構成図である。
【図3】この発明の実施の形態1による処理動作を示すフローチャートである。
【図4】この発明の実施の形態1による分解能劣化部分(ぼけ部分)抽出処理を示す説明図である。
【図5】この発明の実施の形態2による分解能劣化部分抽出部を示すブロック構成図である。
【図6】この発明の実施の形態2による処理動作を示すフローチャートである。
【図7】この発明の実施の形態3を示すブロック構成図である。
【図8】この発明の実施の形態3による処理動作を示すフローチャートである。
【図9】この発明の実施の形態4を示すブロック構成図である。
【図10】この発明の実施の形態4による処理動作を示すフローチャートである。
【符号の説明】
101 レーダ画像格納エリア、102 フィルタ後画像格納エリア、110、310、410 フィルタ処理部、111、311、411 フィルタ設定部、112、312、412 フィルタ適用部、113、313、413 結果合成部、120 変化成分検出部、130 分解能劣化部分抽出部、131 2値化部、132 連続成分検出部、140 帰還処理判定部、300 領域分割処理設定変更部、301、401 領域分割処理部、A 構造物、B ぼけ部分、C 変化成分、D 分解能劣化部分、E 雑音成分(ノイズ)、Go レーダ画像、Gf フィルタ処理後のレーダ画像、Gr、Gr(D) フィルタ後画像。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a radar image processing apparatus that removes noise included in an image from a radar image obtained by observation using a radar, and in particular, while avoiding deterioration in resolution due to blurring during filtering of the radar image, The present invention relates to a radar image processing apparatus that reduces noise included in an image.
[0002]
[Prior art]
Conventionally, this type of radar image processing apparatus includes a radar image storage area for storing a radar image, an area division processing section for identifying and dividing an observation area, and a filter processing section for performing filter processing on each divided area. And a filtered image storage area for storing a filtered image (for example, see Non-Patent Document 1).
The region division processing unit includes a flat portion detection unit, an edge or line detection unit, and a point structure detection unit, and the filter processing unit includes a filter application unit and a result synthesis unit. .
[0003]
In such a conventional apparatus, a radar image is input to an area division processing unit, where a flat portion, an edge or a line, and a point structure in the image are detected. Detected as having
Here, the detection processing by the conventional device will be described.
First, the flat portion detection process will be described.
(Equation 1)
Figure 2004233124
And dispersion
(Equation 2)
Figure 2004233124
And from
[Equation 3]
Figure 2004233124
Is calculated. At this time,
(Equation 4)
Figure 2004233124
Indicates a value within a certain threshold, the center position of the predetermined range is detected as a flat portion.
[0004]
Next, edge or line detection processing will be described.
In this case, the observation region is divided into two left and right ranges, the average intensity in each divided region is obtained, and the ratio between them is calculated.
In general, edges and lines have significantly different average intensities. Therefore, when the ratio of the average intensities of two divided regions exceeds a certain threshold value, it is determined that an edge or a line exists at the center of these regions.
The detection processing of a point structure will be described.
In this case, the average intensity in the range close to the center position in the observation region and the intensity in the surrounding area are obtained, and when the ratio indicates a value within the threshold, a point structure exists at the center position. Is determined.
[0005]
Thus, the data of the flat portion, the edge or line portion, the point structure portion, and the portion having the texture obtained by the region division processing portion are input to the filter processing portion and subjected to the filtering process.
Here, the filter processing refers to the image obtained by observation.
(Equation 5)
Figure 2004233124
From noise
(Equation 6)
Figure 2004233124
Is a process that removes noise from the observed image.
(Equation 7)
Figure 2004233124
Is a process of estimating.
[0006]
Generally, in observation by radar, speckle noise, receiver noise, and the like are present, and an image showing the backscattering intensity on the ground surface is a desired image. In addition, the main noise in radar images is known to have a multiplicative property, and the image obtained by observation
(Equation 8)
Figure 2004233124
Is modeled as follows:
[0007]
(Equation 9)
Figure 2004233124
[0008]
Next, the filtering process in each of the detected areas will be described.
In the flat part and the part with texture, the desired image
(Equation 10)
Figure 2004233124
Intensity, which is an estimate of
[Equation 11]
Figure 2004233124
Is estimated from data in a window having a predetermined range centered on the point. This estimation equation is
(Equation 12)
Figure 2004233124
Probability of
(Equation 13)
Figure 2004233124
And conditional probabilities
[Equation 14]
Figure 2004233124
Is assumed to be a gamma distribution, and the posterior probability
(Equation 15)
Figure 2004233124
Is expressed by the following equation based on the criterion of maximizing
[0009]
(Equation 16)
Figure 2004233124
[0010]
here,
[Equation 17]
Figure 2004233124
Is the average obtained from a predetermined range of data, L is the number of looks of the radar image,
(Equation 18)
Figure 2004233124
Is the intensity at the center of the window. Also,
[Equation 19]
Figure 2004233124
Is an order parameter (filter parameter), and the variance within a predetermined range
(Equation 20)
Figure 2004233124
Is represented by the following equation.
[0011]
(Equation 21)
Figure 2004233124
[0012]
In the edge or line portion, the average intensity of the center position in the window is calculated from the data in the window by adjusting the range of data applied to the estimation (the shape of a window having a predetermined range) to the shape of the edge or line. , Using the above equation.
In the point structure portion, an all-pass filter is applied as represented by the following equation.
(Equation 22)
Figure 2004233124
This is because the point structure does not include noise from the principle of noise generation in the radar image.
Finally, the result synthesizing unit in the filter processing unit adds and synthesizes the results of the filter processing of each area, and outputs the synthesized result to the filtered image storage area.
[0013]
[Non-patent document 1]
A. Loops, E.C. Nezry, R .; Touzi and H.S. J. Laur, "Structure detection and statistical adaptive filtering in SAR images," Remote Sensing, Vol. 14, No. 9, pp. 1735-1758, 1993.
[0014]
[Problems to be solved by the invention]
As described above, the conventional radar image processing apparatus is applied to a flat portion or a texture portion in a portion where detection of a structure such as a point structure, an edge or a line is insufficient in order to remove noise from a radar image. Since the processing is applied, there is a problem that the structure is blurred when excessive noise reduction is performed.
Further, there is a problem that blur occurs or noise remains in a portion in the radar image where the assumption used in the filter estimation formula does not hold.
In addition, since the processing is completed in the above-described series of flows, if a blur occurs in an image when a filter is applied, there is a problem that a blur occurs in an image after filtering.
[0015]
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and it is possible to specify a resolution-degraded portion (a blurred portion) caused by a filtering process from a comparison result of a radar image before and after the filtering process. By returning to the processing unit and changing and applying the filter conditions so that blur does not occur, it is possible to avoid deterioration in resolution due to blurring in structures such as point structures, edges and lines, It is an object of the present invention to obtain a radar image processing apparatus in which speckle noise and receiver noise are reduced.
[0016]
[Means for Solving the Problems]
A radar image processing apparatus according to the present invention includes a first image storage area for storing a first radar image obtained by radar observation, and a second radar for removing noise included in the first radar image. A filter processing unit for obtaining an image; a change component detection unit for comparing the first and second radar images to detect a change component of the second radar image; A resolution degraded portion extraction unit that detects a portion as a resolution degraded portion, a feedback process determination unit that feeds back information of the resolution degraded portion to the filter processing unit when a predetermined feedback termination condition is not satisfied, and a feedback termination condition that is satisfied. And a second image storage area for storing a filtered image based on the second radar image.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiment 1 FIG.
Hereinafter, Embodiment 1 of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a first embodiment of the present invention.
In FIG. 1, a radar image processing apparatus includes a radar image storage area 101 for storing a radar image Go, a filtered image storage area 102 for storing a filtered (noise-reduced) radar image Gr, and a radar image Go. Filtering section 110 for performing filtering processing, a changing component detecting section 120 for detecting a ratio between a radar image Go before filtering and a radar image Gf after filtering as a changing component C, and a resolution based on the changing component C. A resolution-degraded-portion extracting unit 130 for extracting the degraded portion D, and a feedback-process determining unit that determines whether or not the filtered image Gr (D) generated based on the resolution-degraded portion D is to be fed back to the filter processing unit 110. 140.
[0018]
The filtered image Gr (D) generated from the feedback processing determination unit 140 is fed back to the filter processing unit 110 as necessary, and when it is determined that feedback is unnecessary (described later), a final filtered image Gr (D) is obtained. The image Gr is stored in the filtered image storage area 102.
Therefore, the initial radar image Go and the filtered image Gr (D) (including the resolution degraded portion D) are input to the filter processing unit 110.
The filter processing unit 110 includes a filter setting unit 111 that sets a plurality of filter conditions, a filter application unit 112 that applies filter processing according to each set condition, and a result synthesis unit 113 that adds each filter processing result. Have.
[0019]
FIG. 2 is a block diagram showing the resolution degradation section extraction section 130 in FIG.
In FIG. 2, a resolution-degraded portion extraction unit 130 converts a data of the change component C into binary data, and a resolution-degraded portion D (in which a blur is generated) based on the binarized change component. And a continuous component detecting unit 132 for detecting the detected continuous component).
[0020]
Next, a specific processing operation according to the first embodiment of the present invention shown in FIGS. 1 and 2 will be described with reference to FIG.
FIG. 3 is a flowchart showing a processing procedure according to the first embodiment of the present invention in association with each block in FIG. 1. Each of steps ST101, ST111 to ST113, ST120, ST131, ST132, and ST140 includes These correspond to the processing operations of 101, 111 to 113, 120, 131, 132 and 140 (see FIGS. 1 and 2).
[0021]
In FIG. 3, first, the filter processing unit 110 reads a radar image Go from the radar image storage area 101 as input data (step ST101).
Subsequently, the filter setting unit 111 in the filter processing unit 110 determines whether or not the filtered image Gr (D) to be subjected to the filtering process is a correction portion as a filter setting condition (step ST111).
[0022]
Note that the filter setting is to set a parameter (a type of an estimation formula, a window size, and the like) applied in the filtering process. In the first process, the same filtering is performed on the entire radar image Go. The settings are made.
The following equations are given as estimation equations applied in the above filter processing.
[0023]
[Equation 23]
Figure 2004233124
[0024]
here,
(Equation 24)
Figure 2004233124
Is a filter parameter. Note that the estimation equation for the filter is not limited to the above equation, and another estimation equation may be used.
[0025]
In the second and subsequent filtering processes by the feedback operation, based on the information of the resolution degraded portion D fed back from the feedback processing determination unit 140, the filter condition applied to the blurred correction portion and the filter condition applied to other portions Are set to be different from each other.
For example, if it is determined in step ST111 that it is not the correction part (that is, NO), the filter f1 is selected, and if it is determined that it is the correction part (that is, YES), the filter f2 is selected (step ST112). .
[0026]
Here, the information of the resolution-deteriorated portion D indicates information indicating the position of the blurred portion.
In the filter change in step ST112, instead of reducing the noise component (noise) reduction effect, a filter f2 with a small blur is set for the corrected portion where the blur has occurred, and a portion where the blur has not occurred is set. , A filter f1 for increasing the noise reduction effect is set.
This is because, in the filter setting, generally, the lower the noise reduction effect, the lower the blurring rate, and the higher the noise reduction effect, the higher the blurring rate.
[0027]
In the above filter setting (steps ST111 and ST112), if the noise reduction effect obtained by the initially set filter processing is high, the filter conditions are set to reduce the blur only in the corrected portion where the blur occurs. May be changed. Further, when the blur caused by the filter processing set at the first time is small, the filter condition may be changed to a filter condition that increases the noise reduction effect only in a portion where no blur occurs.
[0028]
When the parameters of the filter processing (for example, the size of the window applied by the filter) reach a certain specified value, the filter setting unit 111 ends the update processing without changing any further filter settings. .
Note that the filter update section ending condition in the filter setting unit 111 may be, for example, that a parameter after update (such as a window size) applied to a pixel of interest is equal to or greater than a specified value with respect to a parameter applied to surrounding pixels. If different, the filter update may be set to end, or another condition may be used.
[0029]
Filter application section 112 applies the filter condition (filter f1 or filter f2) set by filter setting section 111 to radar image Go (step ST112).
Subsequently, the result combining unit 113 adds and combines the results of the respective parts in the image to which different filter conditions are applied (step ST113), and inputs the result to the change component detecting unit 120 as the filtered radar image Gf.
[0030]
The change component detection unit 120 performs a filtering process on the radar image Go (from the radar image storage area 101) read by the filtering unit 110 and the radar image Gf to which the filter has been applied via the filtering unit 110. The change component C of the subsequent image Gf is detected (step ST120).
Here, the change component C includes a removed noise component and a portion caused by blurring. Further, the noise in the radar image Go is speckle noise mainly having multiplication as described above.
Therefore, the change component C of the filtered radar image Gf is obtained by the following equation (1).
[0031]
(Equation 25)
Figure 2004233124
[0032]
In equation (1),
(Equation 26)
Figure 2004233124
Is the loaded radar image Go,
[Equation 27]
Figure 2004233124
Shows the radar image Gf after applying the filter.
Note that, here, the change component C is obtained by Expression (1), but another expression may be used.
[0033]
The change component C thus obtained is input to the resolution degradation portion extraction unit 130, and is first converted into binary data by the binarization unit 131 (step ST131).
Subsequently, the continuous component detection unit 132 removes the spatially randomly distributed components of the binarized change components as noise, and removes the spatially continuous portions (linear or curved portions). Is detected as a continuous component (resolution degradation portion D) caused by blurring (step ST132).
[0034]
Here, the principle of operation of the continuous component detection unit 132 in the resolution degradation portion extraction unit 130 will be described with reference to FIG.
FIG. 4 is an explanatory diagram showing a processing principle for extracting the resolution degraded portion D. A change component C is obtained by dividing the radar image Go and the filtered radar image Gf. The state in which the deteriorated portion D is extracted is shown together with a specific image example.
[0035]
As shown in FIG. 4, the initial radar image Go includes not only the structure A (such as a building) but also a large number of noise components (noise) E.
On the other hand, in the radar image Gf obtained by applying the filter, the noise component E is reduced (or removed), but there is a possibility that a blurred portion (continuous component) B occurs near the structure A. is there.
In this case, the change component C detected by comparing the radar image Go with the filtered radar image Gf (division by the change component detection unit 120) includes the removed noise component E and the portion generated by the blur ( B) is included.
[0036]
As is clear from FIG. 4, the noise component E is generated randomly in space, but the blurred portion B is generated as a continuous component linearly or curvedly because the blurred portion B occurs near the edge or line of the structure A. I do.
Therefore, by removing a component that occurs randomly in space as the noise component E, the portion B (continuous component) caused by blur can be detected as the final resolution-degraded portion D.
[0037]
At this time, the removal of the random component can be realized by using a fact that the area of the random portion is smaller than that of the structure A, for example, by removing a portion having a small area.
Note that the detection processing of the blurred portion B may use a straight line extraction algorithm (Hough transform, Radon transform, or the like) instead of using the difference in area.
[0038]
Finally, the feedback processing determination unit 140 determines whether or not to perform the feedback operation on the filtered image Gr (D) (step ST140). If it is determined that the feedback operation is necessary (that is, YES), the process returns to step ST111. And the above processing (steps ST111 to ST132) is repeated for the radar image Go.
On the other hand, if it is determined in step ST140 that the feedback operation is unnecessary (that is, NO), the filtered image Gr (D) is stored in the filtered image storage area 102 as a final filtered result (filtered image Gr). Then, the processing routine of FIG. 3 ends.
[0039]
Specifically, if it is determined in step ST140 that feedback is necessary, the filtered image Gr (D) including the detected resolution-deteriorated portion D is fed back to the filter processing unit 110, and the iterative processing by the feedback operation is performed. Has reached the specified number (upper limit), or the number of pixels of the detected resolution-deteriorated portion D has been reduced to the specified number (lower limit) or less, or the filter processing unit 110 updates the filter. Is not executed, the process is terminated because no feedback is required.
Note that the feedback end condition of the filtered image Gr (D) is not limited to the above, and other conditions may be used.
[0040]
As described above, the blurred portion B generated due to the application of the filter processing unit 110 is detected, and this is fed back as the resolution degraded portion D, and the filter conditions are changed until the blurred portion B is sufficiently reduced. By repeatedly applying the filter processing, it is possible to obtain a filtered image Gr after noise reduction without blurring as a final filter result.
In a portion where no blur occurs, by applying a filter condition having a high noise reduction effect, a noise-reduced filtered image Gr in which noise is significantly reduced can be obtained.
[0041]
Embodiment 2 FIG.
In the first embodiment, the binarizing unit 131 and the continuous component extracting unit 132 constitute the resolution deterioration extracting unit 130 (see FIG. 2). However, the two-dimensional orthogonal transform unit, the continuous component detecting unit, and the two-dimensional orthogonal A resolution degradation portion extraction unit may be configured by the inverse conversion unit.
[0042]
Hereinafter, a second embodiment of the present invention in which the configuration of the resolution degradation portion extraction unit is changed will be described with reference to FIGS.
FIG. 5 is a block diagram showing a resolution degradation extracting unit 230 according to the second embodiment of the present invention, and FIG. 6 is a flowchart showing a processing operation according to the second embodiment of the present invention.
[0043]
In FIG. 5, the resolution degradation portion extraction unit 230 includes a two-dimensional orthogonal transform unit 231, a continuous component detection unit 232, and a two-dimensional orthogonal inverse transform unit 233.
Other components not shown in FIG. 5 are as described above (see FIG. 1).
In FIG. 6, the same processing steps as those described above (see FIG. 3) are denoted by the same reference numerals as those described above, and detailed description thereof will be omitted.
[0044]
Next, a specific operation according to the second embodiment of the present invention shown in FIG. 5 will be described with reference to FIG. 6 together with FIG. 1 and FIG.
In FIG. 6, only the processes of steps ST231 to ST233 corresponding to the two-dimensional orthogonal transform unit 231, the continuous component detection unit 232, and the two-dimensional orthogonal inverse transform unit 233 are different from those described above.
First, in steps ST101 to ST120 described above, when the change component C is detected and input to the resolution degradation part extraction unit 230, the change component C is converted by the two-dimensional orthogonal transformation unit 231 in the resolution degradation part extraction unit 230. The data is subjected to two-dimensional orthogonal transformation to become orthogonal transformation data (step ST231).
[0045]
Here, the two-dimensional orthogonal transform means an orthogonal transform of a two-dimensional signal such as an image. In addition, the orthogonal transform is a transform that transforms spatial coordinates into frequency coordinates, such as Fourier transform.
Here, the orthogonal transform will be described by taking a Fourier transform as an example.
[Equation 28]
Figure 2004233124
Two-dimensional discrete Fourier transform of
(Equation 29)
Figure 2004233124
Is represented by the following equation (2).
[0046]
[Equation 30]
Figure 2004233124
[0047]
In Equation (2), N and M indicate the number of pixels on one side of the image, respectively.
[0048]
Next, the continuous component detection unit 232 determines whether or not the orthogonal
[Equation 31]
Figure 2004233124
, A blurred continuous component B is extracted (step ST232).
Here, the principle of extracting the continuous component B in step ST232 will be described.
(Equation 32)
Figure 2004233124
The noise component E that changes at random in the middle exists in the high frequency range in the frequency space. Therefore, using a low-pass filter,
[Equation 33]
Figure 2004233124
By removing components in the frequency band in which random noise components mainly exist, only components due to blur can be extracted.
[0049]
Subsequently, the two-dimensional orthogonal inverse transform unit 233 converts the blur component in the frequency space specified by the continuous component detection unit 232 into a signal in the space by the two-dimensional discrete Fourier inverse transform, and converts the resolution degradation portion D (Step ST233).
At this time, the two-dimensional inverse discrete Fourier transform is represented by the following equation (3).
[0050]
(Equation 34)
Figure 2004233124
[0051]
Hereinafter, the final filtered image Gr is stored in the filtered image storage area 102 via the feedback processing determination unit 140 as described above.
In this way, by configuring the resolution degradation portion extraction unit 230 as shown in FIG. 5, the same operation and effect as described above can be achieved.
Here, the Fourier transform is used for the orthogonal transform, but another orthogonal transform may be used.
Further, although a low-pass filter is used to specify a continuous portion due to blur, it may be specified by another method.
[0052]
Embodiment 3 FIG.
In the first and second embodiments, the filtered image Gr (D) is input as it is to the filter processing unit 110 as feedback information. Is also good.
Hereinafter, a third embodiment of the present invention in which feedback information is divided into regions will be described with reference to FIGS. 7 and 8.
FIG. 7 is a block diagram showing a third embodiment of the present invention, and FIG. 8 is a flowchart showing a processing operation according to the third embodiment of the present invention.
[0053]
7 and 8, the same components as those described above (see FIGS. 1 and 3) are denoted by the same reference numerals as those described above, and detailed description thereof will be omitted.
7, the filter processing unit 310 includes a filter setting unit 311, a filter application unit 312, and a result synthesis unit 313. The configuration of the filter processing unit 310 corresponds to the filter processing unit 110 described above (FIG. 1).
An area division processing unit 301 is inserted between the radar image storage area 101 and the filter processing unit 310.
An area division processing setting change section 300 is inserted between the feedback processing determination section 140 and the area division processing section 301.
[0054]
Next, the processing operation according to the third embodiment of the present invention shown in FIG. 7 will be described with reference to FIG.
8, steps ST300, ST301 and ST311 to ST313 correspond to the processing operations of the components 300, 301 and 311 to 313 in FIG. 7, respectively.
[0055]
First, when the area division processing unit 301 reads a radar image from the radar image storage area 101 (step ST101), the area division processing setting change unit 300 performs processing based on the feedback information Gr (D) from the feedback processing determination unit 140. Then, the setting of the area dividing process is changed (step ST300).
At this time, in the first process, since there is no return information, a predetermined setting is performed.
[0056]
The setting conditions of the area division processing to be changed include, for example, the size of a predetermined range used for edge detection, a threshold value, and the like.
More specifically, in the portion where the occurrence of blur is detected, the detection threshold is set to be reduced because the detection of the structure A (see FIG. 4) such as an edge or a line is insufficient.
[0057]
Subsequently, the area division processing unit 301 detects a flat part, an edge, a line structure part, and a point structure part in the radar image, and sets the other part as a part having a texture (step ST301).
Specifically, as shown in step ST301 in FIG. 8 (see the inside of the broken line), first, it is determined whether or not it is a flat portion, and if it is determined that it is not a flat portion (that is, NO), Then, it is determined whether or not it is an edge or a line. If it is determined that the object is not an edge or a line (that is, NO), it is further determined whether or not the object is a point structure. If NO), it is regarded as a texture portion. If “YES” is determined in each determination step, it is regarded as each part, and the process proceeds to filter condition setting processing (step ST311).
Here, the detection region is set as a flat portion, an edge or a line portion, a point structure portion, or a portion having a texture, but the detection region may be further subdivided and detected.
[0058]
Next, the filter setting unit 311 sets a filter to be applied to each detected area (step ST311).
For example, any one of the filter settings 1 to 4 is set according to each portion recognized in step ST301. Further, the setting of the filter condition is changed as the iterative processing by feedback progresses.
At this time, in the filter changing process, a filter condition with a low blurring occurrence rate is set instead of the noise reduction effect for a portion where the setting of the region dividing process is changed due to blurring, and other blurring is performed. The filter condition is set so as to increase the noise reduction effect for the portion where no noise occurs.
[0059]
In addition, as described above, when the noise reduction effect of the filter processing set for the first time is high, blur is reduced only for the portion where the setting of the region division processing is changed, as described above. If the filter processing initially set has a small blur, the noise reduction effect is increased only for the part where the setting of the area division processing is not changed without blur. You may.
[0060]
Next, the filter application unit 312 selectively applies the filters F1 to F4 according to the filter settings 1 to 4 for the detected areas (step ST312). Further, result combining section 313 adds and combines the results of the respective regions to which the filter has been applied (step ST313).
Hereinafter, as described above, the final filter is obtained through the change component detection process (step ST120), the binarization process (step ST131), the continuous component detection process (step ST132), and the feedback process determination (step ST140). A post-image Gr is generated and stored in the post-filter image storage area 102.
[0061]
If it is determined in step ST140 that the feedback operation is necessary, the feedback processing determination unit 140 returns the filtered image Gr (D) including the degraded portion to the region division processing setting change unit 300, and the feedback end condition is satisfied. If it is determined that the feedback operation is unnecessary, the final filter result is input to the filtered image storage area 102.
Note that, as described above, the feedback termination condition is that the number of repetition processes reaches the specified number, the number of pixels of the detected resolution-deteriorated portion is reduced to the specified number or less, or the filter processing unit 110 May not be executed, but other conditions may be used.
[0062]
Further, here, similarly to the first embodiment (see FIG. 2), the resolution degradation portion extraction unit 130 including the binarization unit 131 and the continuous component detection unit 132 is used. 5), a resolution degradation portion extraction unit 230 including a two-dimensional orthogonal transformation unit 231, a continuous component detection unit 232, and a two-dimensional orthogonal inverse transformation unit 233 may be used.
[0063]
As described above, by detecting the structure in the image in advance and applying appropriate filter conditions to the portion where the structure A exists and the portion where the structure A does not exist, the structure A in the image is obtained. , A filtered image Gr after noise reduction in which blurring is suppressed can be obtained.
When blur occurs, the setting of the area dividing process is changed (step ST300), and the filtering process is applied after the structure A is detected again. It is possible to obtain a filtered image Gr after noise reduction without generation.
Furthermore, since a filter condition with a high noise reduction effect is applied to a portion where no blur occurs, a noise-reduced filtered image Gr in which noise is significantly reduced can be obtained.
[0064]
Embodiment 4 FIG.
In the third embodiment, the area division processing setting change unit 300 is provided, and the feedback operation determination unit 140 performs the feedback operation on the area division processing setting change unit 300. Alternatively, the feedback operation may be performed from the feedback processing determination unit 140 to the filter processing unit.
Hereinafter, a fourth embodiment of the present invention in which feedback information is directly input to the filter processing unit will be described with reference to FIGS.
FIG. 9 is a block diagram showing a fourth embodiment of the present invention, and FIG. 10 is a flowchart showing a processing operation according to the fourth embodiment of the present invention.
[0065]
9 and 10, the same components as those described above (see FIGS. 1 to 8) are denoted by the same reference numerals as those described above, and detailed description thereof will be omitted.
9, the filter processing unit 410 includes a filter setting unit 411, a filter application unit 412, and a result synthesis unit 413. An area division processing unit 401 is provided between the radar image storage area 101 and the filter processing unit 410. Is inserted. The configurations of the region division processing unit 401 and the filter processing unit 410 correspond to the region division processing unit 301 and the filter processing unit 310 described above (FIG. 7), respectively. In this case, the feedback information from feedback processing determination section 140 is directly input to filter processing section 410.
[0066]
Next, the processing operation according to the fourth embodiment of the present invention shown in FIG. 9 will be described with reference to FIG.
In FIG. 10, steps ST401 and ST411 to ST413 correspond to the processing operations of the components 401 and 411 to 413 in FIG. 9, respectively. Step 401 is the same as step ST301 described above (in FIG. 8), and a description thereof will not be repeated.
[0067]
First, following the area division processing based on image identification (step ST401), the filter setting section 411 in the filter processing section 410 is detected by the area division processing section 401 based on the feedback information from the feedback processing determination section 140. A filter to be applied to each area is set (step ST411), and the filter application unit 412 applies the set filter processing to each detected area (step ST412).
In step ST411, in each area, the filter setting for the blurred correction part and the filter setting for the other part are updated for each iteration by feedback.
[0068]
That is, as shown in the broken line in FIG. 10, in step ST411, it is individually determined whether or not each area detected in step ST401 is a correction part. In step ST412, each determination in step ST411 is performed. One of the filters F1a, F1b to F4a, F4b is selectively applied according to the result. At this time, a filter condition with a low blurring rate is set instead of a low noise reduction effect for a blurred portion, and a filter condition with a high noise reduction effect is set for a portion where no blurring occurs. Is set to
[0069]
In the first process, since there is no feedback information, a filter setting defined in advance is performed.
In addition, as described above, when the noise reduction effect of the filter processing set at the first time is high, the filter condition is changed so as to suppress the occurrence of the blur only in the portion where the blur has occurred. In the case where the blur of the filter processing set to is small, the noise reduction effect may be increased only for the portion where no blur occurs.
[0070]
Next, the result synthesizing unit 413 adds and synthesizes the filter results of the corrected portion where the blur has occurred in each region and the other portions, and then further adds and synthesizes the combined results of these regions, The image is input to the change component detection unit 120 as an image Gf (step ST413).
Hereinafter, the final filtered image Gr is generated through steps ST120 to ST140 and stored in the filtered image storage area 102 in the same manner as described above.
[0071]
As described above, the structure in the image is detected in advance, and the filter condition suitable for each part is applied to the part where the structure A exists and the part where the structure A does not exist, thereby generating the blur. Can be effectively suppressed.
In addition, after applying filter conditions suitable for each area, for the corrected part where blur has occurred, the filter conditions are further changed and applied so that blur does not occur. Can be obtained as a filtered image Gr after noise reduction in which no noise occurs.
In addition, since a filter condition having a high noise reduction effect is applied to a portion where no blur occurs, it is possible to obtain a noise-reduced image Gr in which noise is significantly reduced.
Here, similarly to the above-described first embodiment (see FIG. 2), the resolution degradation portion extraction unit 130 including the binarization unit 131 and the continuous component detection unit 132 is used. 5), a resolution degradation portion extraction unit 230 including a two-dimensional orthogonal transformation unit 231, a continuous component detection unit 232, and a two-dimensional orthogonal inverse transformation unit 233 may be used.
[0072]
【The invention's effect】
As described above, according to the present invention, the radar image storage area for storing the first radar image obtained by the radar observation, and the second radar image after filtering and removing the noise included in the first radar image A filter processing unit that generates a second radar image; a change component detection unit that compares the first and second radar images to detect a change component of the second radar image; A resolution-reduced portion extraction unit that detects a blurred portion as a resolution-degraded portion, and determines whether to execute a feedback operation of information on the resolution-degraded portion to the filter processing unit based on a predetermined feedback end condition. A feedback processing determining unit that stores a filtered image based on the second radar image when a feedback end condition is satisfied and feedback operation by the feedback processing determining unit is not performed; A radar image processing device that reduces speckle noise and receiver noise in radar images while avoiding degradation in resolution due to blurring in structures such as point structures, edges, and lines. There is an effect that can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a first embodiment of the present invention.
FIG. 2 is a block diagram showing a resolution degradation portion extraction unit according to Embodiment 1 of the present invention;
FIG. 3 is a flowchart showing a processing operation according to the first embodiment of the present invention.
FIG. 4 is an explanatory diagram showing a process of extracting a resolution-degraded portion (blurred portion) according to the first embodiment of the present invention;
FIG. 5 is a block diagram showing a resolution degradation portion extraction unit according to a second embodiment of the present invention.
FIG. 6 is a flowchart showing a processing operation according to the second embodiment of the present invention.
FIG. 7 is a block diagram showing a third embodiment of the present invention.
FIG. 8 is a flowchart showing a processing operation according to the third embodiment of the present invention.
FIG. 9 is a block diagram showing a fourth embodiment of the present invention.
FIG. 10 is a flowchart showing a processing operation according to the fourth embodiment of the present invention.
[Explanation of symbols]
101 radar image storage area, 102 filtered image storage area, 110, 310, 410 filter processing section, 111, 311, 411 filter setting section, 112, 312, 412 filter application section, 113, 313, 413 result synthesis section, 120 Change component detection unit, 130 resolution degradation part extraction unit, 131 binarization unit, 132 continuous component detection unit, 140 feedback processing determination unit, 300 area division processing setting change unit, 301, 401 area division processing unit, A structure, B Blurred portion, C change component, D resolution degraded portion, E noise component (noise), Go radar image, radar image after Gf filter processing, Gr, Gr (D) filtered image.

Claims (11)

レーダによる観測で得られた第1のレーダ画像を格納する第1の画像格納エリアと、
前記第1のレーダ画像に含まれる雑音を除去して第2のレーダ画像を得るフィルタ処理部と、
前記第1および第2のレーダ画像を比較して前記第2のレーダ画像の変化成分を検出する変化成分検出部と、
前記変化成分の中から、前記フィルタ処理後にぼけが生じた部分を分解能劣化部分として検出する分解能劣化部分抽出部と、
所定の帰還終了条件が成立しない場合に前記分解能劣化部分の情報を前記フィルタ処理部に帰還する帰還処理判定部と、
前記帰還終了条件が成立した場合に、前記第2のレーダ画像に基づくフィルタ後画像を格納する第2の画像格納エリアと
を備えたレーダ画像処理装置。
A first image storage area for storing a first radar image obtained by radar observation,
A filter processing unit that removes noise included in the first radar image to obtain a second radar image;
A change component detector that compares the first and second radar images to detect a change component of the second radar image;
From among the change components, a resolution-degraded portion extraction unit that detects a portion where blur has occurred after the filter processing as a resolution-degraded portion,
When a predetermined feedback termination condition is not satisfied, information of the resolution degraded portion is fed back to the filter processing unit.
And a second image storage area for storing a filtered image based on the second radar image when the feedback end condition is satisfied.
前記分解能劣化部分抽出部は、
前記変化成分に対して2値化処理を行い2値化データを生成する2値化部と、前記2値化データにおける空間的に連続した連続成分を前記分解能劣化部分として検出する連続成分検出部と
を含むことを特徴とする請求項1に記載のレーダ画像処理装置。
The resolution degradation portion extraction unit,
A binarization unit that performs binarization processing on the change component to generate binarized data, and a continuous component detection unit that detects a spatially continuous component in the binarized data as the resolution degradation portion The radar image processing apparatus according to claim 1, comprising:
前記分解能劣化成分検出部は、
前記変化成分に対して直交変換を行い直交変換データを生成する直交変換部と、
前記直交変換データにおける空間的に連続した連続成分を検出する連続成分検出部と、
前記連続成分を直交逆変換して前記分解能劣化部分として出力する直交逆変換部と
を含むことを特徴とする請求項1に記載のレーダ画像処理装置。
The resolution degradation component detection unit,
An orthogonal transformation unit that performs orthogonal transformation on the change component to generate orthogonal transformation data,
A continuous component detector that detects a spatially continuous component in the orthogonal transform data,
2. The radar image processing apparatus according to claim 1, further comprising: an orthogonal inverse transform unit that performs an orthogonal inverse transform on the continuous component and outputs the result as the resolution degradation portion.
前記直交変換部は、2次元離散フーリエ変換を行う2次元直交変換部により構成され、
前記直交逆変換部は、2次元離散フーリエ逆変換を行う2次元直交逆変換部により構成されたことを特徴とする請求項3に記載のレーダ画像処理装置。
The orthogonal transform unit includes a two-dimensional orthogonal transform unit that performs a two-dimensional discrete Fourier transform,
4. The radar image processing apparatus according to claim 3, wherein the orthogonal inverse transform unit includes a two-dimensional orthogonal inverse transform unit that performs two-dimensional discrete Fourier inverse transform.
前記レーダ画像格納エリアと前記フィルタ処理部との間に挿入された領域分割処理部を備え、
前記領域分割処理部は、前記第1または第2のレーダ画像に含まれる構造物に対応した複数の分割領域を個別に検出し、
前記フィルタ処理部は、前記分割領域毎に異なるフィルタ条件で前記雑音を除去することを特徴とする請求項1から請求項4までのいずれか1項に記載のレーダ画像処理装置。
An area division processing unit inserted between the radar image storage area and the filter processing unit,
The area division processing unit individually detects a plurality of divided areas corresponding to a structure included in the first or second radar image,
The radar image processing device according to claim 1, wherein the filter processing unit removes the noise under different filter conditions for each of the divided regions.
前記帰還処理判定部と前記領域分割処理部との間に挿入された領域分割処理設定変更部を備え、
前記帰還処理判定部は、前記分解能劣化部分の情報を、前記領域分割処理設定変更部および前記領域分割処理部を介して、前記フィルタ処理部に帰還させることを特徴とする請求項5に記載のレーダ画像処理装置。
An area division processing setting change unit inserted between the feedback processing determination unit and the area division processing unit,
The said feedback process determination part returns the information of the said resolution degradation part to the said filter process part via the said area | region division process setting change part and the said area | region division process part, The Claims 5 characterized by the above-mentioned. Radar image processing device.
前記帰還処理判定部は、前記分解能劣化部分の情報を、前記フィルタ処理部に対して直接帰還させることを特徴とする請求項1から請求項5までのいずれか1項に記載のレーダ画像処理装置。The radar image processing apparatus according to any one of claims 1 to 5, wherein the feedback processing determination unit directly feeds back information of the resolution-deteriorated portion to the filter processing unit. . 前記フィルタ処理部は、前記分解能劣化部分の情報の帰還による反復処理が進むにつれて、前記第2のレーダ画像に適用するフィルタ条件を、所定の更新終了条件を満たすまで順次更新することを特徴とする請求項1から請求項7までのいずれか1項に記載のレーダ画像処理装置。The filter processing unit sequentially updates a filter condition applied to the second radar image until a predetermined update end condition is satisfied, as the repetition processing by feedback of the information of the resolution degradation portion progresses. The radar image processing device according to claim 1. 前記更新終了条件は、
前記フィルタ処理部で適用されるパラメータ値が規定値に達した場合と、
前記フィルタ処理部で適用される着目画素に適用するパラメータ値が、前記着目画素の周囲の画素に適用するパラメータ値と規定値以上異なる場合と
の少なくとも一方を含むことを特徴とする請求項8に記載のレーダ画像処理装置。
The update end condition is:
When the parameter value applied in the filter processing unit reaches a specified value,
9. The method according to claim 8, wherein the parameter value applied to the pixel of interest applied by the filter processing unit includes at least one of a case where the parameter value applied to pixels around the pixel of interest is different from a parameter value by a specified value or more. The radar image processing apparatus according to the above.
前記帰還操作終了条件は、前記更新終了条件を含むことを特徴とする請求項8または請求項9に記載のレーダ画像処理装置。10. The radar image processing device according to claim 8, wherein the feedback operation end condition includes the update end condition. 前記帰還操作終了条件は、
前記帰還処理判定部による帰還操作処理の反復回数と、
前記分解能劣化部分の個数と
の少なくとも一方を含むことを特徴とする請求項1から請求項10までのいずれか1項に記載のレーダ画像処理装置。
The return operation end condition is as follows:
The number of repetitions of the feedback operation processing by the feedback processing determination unit,
The radar image processing apparatus according to claim 1, wherein the radar image processing apparatus includes at least one of the number of the resolution degradation portions.
JP2003019880A 2003-01-29 2003-01-29 Radar image processing device Expired - Fee Related JP4177128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003019880A JP4177128B2 (en) 2003-01-29 2003-01-29 Radar image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003019880A JP4177128B2 (en) 2003-01-29 2003-01-29 Radar image processing device

Publications (2)

Publication Number Publication Date
JP2004233124A true JP2004233124A (en) 2004-08-19
JP4177128B2 JP4177128B2 (en) 2008-11-05

Family

ID=32949653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003019880A Expired - Fee Related JP4177128B2 (en) 2003-01-29 2003-01-29 Radar image processing device

Country Status (1)

Country Link
JP (1) JP4177128B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010524109A (en) * 2007-04-13 2010-07-15 アンスティテュ・パストゥール Feature-modified beamlet transform apparatus and associated method for detecting an object consisting of a curve in an image
JP2015021823A (en) * 2013-07-18 2015-02-02 三菱電機株式会社 Radar image processing apparatus and radar image processing method
JP2015503383A (en) * 2011-12-30 2015-02-02 コーニンクレッカ フィリップス エヌ ヴェ Method and apparatus for improved needle visualization in ultrasound imaging
WO2019085433A1 (en) * 2017-11-06 2019-05-09 上海斐讯数据通信技术有限公司 Total variation-based image restoration method and system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010524109A (en) * 2007-04-13 2010-07-15 アンスティテュ・パストゥール Feature-modified beamlet transform apparatus and associated method for detecting an object consisting of a curve in an image
JP2015503383A (en) * 2011-12-30 2015-02-02 コーニンクレッカ フィリップス エヌ ヴェ Method and apparatus for improved needle visualization in ultrasound imaging
JP2015021823A (en) * 2013-07-18 2015-02-02 三菱電機株式会社 Radar image processing apparatus and radar image processing method
WO2019085433A1 (en) * 2017-11-06 2019-05-09 上海斐讯数据通信技术有限公司 Total variation-based image restoration method and system

Also Published As

Publication number Publication date
JP4177128B2 (en) 2008-11-05

Similar Documents

Publication Publication Date Title
US7876973B2 (en) Edge ringing artifact suppression methods and apparatuses
US6754398B1 (en) Method of and system for image processing and recording medium for carrying out the method
JP3995854B2 (en) Image processing method and apparatus, and recording medium
US6621937B1 (en) Removing chroma noise from digital images by using variable shape pixel neighborhood regions
JP2008146643A (en) Method and device for reducing blur caused by movement in image blurred by movement, and computer-readable medium executing computer program for reducing blur caused by movement in image blurred by movement
JP2004038984A (en) Interpolated image filtering method and apparatus
EP1909227B1 (en) Method of and apparatus for minimizing ringing artifacts in an input image
EP2993642A1 (en) Method and apparatus for generating sharp image based on blurry image
KR101766536B1 (en) Method and apparatus of image denoising using multi-scale block region detection
JP5672527B2 (en) Image processing apparatus and image processing method
JP5027757B2 (en) Moving image denoising device, method and program thereof
KR101362011B1 (en) Method for blur removing ringing-atifactless
CN114240941B (en) Endoscope image noise reduction method, device, electronic apparatus, and storage medium
KR100560027B1 (en) Compression edge adaptive video and image sharpening and scaling
JP5105286B2 (en) Image restoration apparatus, image restoration method, and image restoration program
KR101552680B1 (en) apparatus and method for eliminating noise
JP4879938B2 (en) Image processing apparatus and method, and program
JP2007316983A (en) Image processor, image processing method and program
JP4177128B2 (en) Radar image processing device
JP2005150903A (en) Image processing apparatus, noise elimination method, and noise elimination program
Sinha An optimized framework using adaptive wavelet thresholding and total variation technique for de-noising medical images
KR101910894B1 (en) Apparatus and method for reconstructing image
JP4040512B2 (en) Image processing method and image processing apparatus
JP6647394B2 (en) Image processing apparatus, image processing program, image processing method, image transmission / reception system, and image transmission / reception method
JP2006157584A (en) Image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080821

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees