JP3642775B2 - Method and apparatus for detecting an object in the ground, and moving body - Google Patents
Method and apparatus for detecting an object in the ground, and moving body Download PDFInfo
- Publication number
- JP3642775B2 JP3642775B2 JP2002365467A JP2002365467A JP3642775B2 JP 3642775 B2 JP3642775 B2 JP 3642775B2 JP 2002365467 A JP2002365467 A JP 2002365467A JP 2002365467 A JP2002365467 A JP 2002365467A JP 3642775 B2 JP3642775 B2 JP 3642775B2
- Authority
- JP
- Japan
- Prior art keywords
- ground
- target
- neural network
- detected
- sensors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41H—ARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
- F41H11/00—Defence installations; Defence devices
- F41H11/12—Means for clearing land minefields; Systems specially adapted for detection of landmines
- F41H11/13—Systems specially adapted for detection of landmines
- F41H11/136—Magnetic, electromagnetic, acoustic or radiation systems, e.g. ground penetrating radars or metal-detectors
Landscapes
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
【0001】
【発明の属する技術分野】
本願発明は、従来の方法では探知に熟練を要していた地中の物体であっても、軽易な訓練で効果的に探知することができ、探知処理を自動化することが可能な地中の物体を探知する方法及びその実施に使用する装置、並びに当該装置を搭載した移動体に関する。
【0002】
【従来の技術】
対戦車地雷(ATM: Anti-tank Mines)及び対人地雷(APM: Anti-personnel Mines)に代表される地雷は、世界中の紛争地域で使用されている。現在、世界中で1億個を超える数の地雷が埋設されたままとなっており、紛争後におけるこれらの除去は困難を極めている。
【0003】
紛争後の地雷除去、所謂、人道的地雷除去においては、地雷原となっている土地での生活を前提としていることから、その地雷原に埋設された地雷のすべてを除去しなければならないが、これらの地雷に付与された例えば「アンチ・ハンドリング・デバイス(Anti-handling Devices)」及び「アンチ・ディスターバンス・デバイス(Anti-disturbance Devices)」等の技術により、埋設された地雷の探知及び除去は困難となっているのが実情である。
【0004】
これらの技術には、例えば、地雷探知器の磁場に反応して起爆するもの、数回の圧力付加によって起爆する種類のもの等があり、前者の種類では、作動中の地雷探知器を近付けただけで起爆する可能性がある。また、後者の種類では、地雷処理車が通過したときには起爆せず、これに続いて通過する地雷処理車以外の車両が通過したときに起爆する可能性がある。
【0005】
このような実情の中、地雷を除去する方法としては以下の如きものが一般的である。例えば、地表からの圧力付加により起爆する種類の地雷に対しては、ホイールローラの如き態様の地雷処理車で地雷原を走行することにより爆破除去することができる。しかしながら、地雷原は平坦な土地ばかりではなく、地雷処理車が走行できない土地も多い。また、地雷処理車が走行できるような平坦な土地であっても、前述したような複数回の圧力付加によって起爆する種類の地雷にあっては、その信管の起爆までの圧力付加回数の設定が不明である以上、地雷処理車による地雷の完全な除去は望めない。
【0006】
また、地雷原において外部から爆発を発生させ、そのときの爆風及び地面の振動等により、埋設された地雷の起爆を誘発させることも行なわれている。しかしながら、地雷の信管がその外部からの爆発により確実に作動するかどうかは不明であり、地雷の中には、非作動率が5%〜30%と言われる自己不活性化機能付きのものもあり、やはり確実な除去は望めない。
【0007】
そこで、従来から以上の如き除去方法に加え、残った地雷を探知して手作業にて掘り出すことによって除去することに頼らざるを得ないのである。
【0008】
地雷の探知方法としては、金属探知器を利用する方法が主流であるが、対人地雷の多くは金属以外の材料を利用しているものが多いため、対人地雷を金属探知器のみで探知することは困難である。
【0009】
別の探知方法としては、地中レーダ,磁気センサ,X線センサ,及び赤外線センサ等を利用し、発生した電磁波を地中に伝播させ、その反射波を検出して可聴音に変換して人間の聴覚をもって地雷を識別したり、反射波に基づいて地中の状態を画像表示して人間が視覚的に地雷を識別するものがある。この方法によれば、非金属,非磁性材料等からなる地雷であっても探知することができる(例えば、特許文献1乃至3参照)。
【0010】
【特許文献1】
特許第3309242号明細書
【特許文献2】
特開平8-122279号明細書
【特許文献3】
特許第3015643号明細書
【0011】
【発明が解決しようとする課題】
しかしながら、地中には、例えば金属製の異物が埋まっており、特に、紛争地帯であった土地には武器,弾薬,及び爆発物等の破片が多量に埋まっていることから、誤認識の割合が高くなるのが現状である。誤認識の割合を下げるために探知感度(反射波の信号強度の閾値)を下げることも考えられるが、そうすると小型の対人地雷を探知することができなくなるという新たな問題が生じる。
【0012】
また、例えば、土中の水分が多い場合には、土中の水分が反射体となって誤認識を招いたり、土地によっては金属成分(多くは、鉄分)を多く含む土質である場合もあり、また、土質が不均一である場合もあって、このような土地における探知精度は更に低下する。
【0013】
さらには、センサ類による聴音又は画像から地雷を識別するのは人間の判断に頼っており、その特定には多くの熟練を要することから、地雷探知にかかる需要に十分応えることができない。
【0014】
しかし、現状においては上記の如き探知方法に頼らざるを得ないことから、たとえ誤認識であったとしても、その確証がない以上その場所をすべて手作業で掘り起こす必要があり、その作業量は甚大である。
【0015】
本願発明は、上記状況に鑑みて行なわれたものであり、センサによる反射波の画像化情報を2値化し、2値化画像をニューラルネットワークを利用して識別することにより、探知処理を自動化することができ、また、オペレータの熟練を要しない高い探知精度を提供することができる地中の物体を探知する方法及びその実施に使用する装置、並びに当該装置を搭載した移動体を提供することを目的とする。
【0016】
【課題を解決するための手段】
本願発明は、上記課題を以下のような構成からなる地中の物体を探知する方法及び装置、並びに当該装置を搭載した移動体によって解決することができる。
【0017】
本願発明に係る地中の物体を探知する方法は、発生した電磁波を地中に伝播させ、地中からの反射波をセンサにより検出し、検出結果を画像化し、画像化した前記反射波の状態に基づいて地中の物体を探知する方法において、前記反射波の画像化情報を2値化し、2値化画像に基づいて、地中の物体をニューラルネットワークを利用して識別することを特徴とする。
【0018】
また、本願発明に係る地中の物体を探知する装置は、発生した電磁波を地中に伝播させ、地中からの反射波をセンサにより検出し、検出結果を画像化し、画像化した前記反射波の状態に基づいて地中の物体を探知する装置において、前記反射波の画像化情報を2値化する2値化手段と、該2値化手段による2値化画像に基づいて、地中の物体をニューラルネットワークを利用して識別する識別手段とを備えることを特徴とする。
【0019】
上記発明によれば、検出後に画像化(可視化)可能な電磁波を地中に伝播させ、センサにより、地中からの反射波に基づいて地中の状態を画像化し、まず、前記センサによる画像化情報(通常は、階調画像である)を2値化することによって、コンピュータ等の演算装置による自動処理を可能とする。そして、前記演算装置により、2値化画像をニューラルネットワークを利用して処理し、探知対象となる地中の物体(例えば、地中に埋設された地雷)を識別することにより、単純な閾値による従来の識別方法と比べて、高度な訓練なしに非常に高精度な探知を行なうことが可能となる。
【0020】
なお、地中に伝播させる電磁波の発生機能は、本願発明に係る装置に備えさせてもよく、また、当該装置とは別体に設ける構成とすることも可能である。
【0021】
上記センサとしては、地中レーダ、能動型及び受動型の磁気センサ,X線センサ,及び赤外線センサ等のその検出信号を画像化可能な種々のセンサを採用することが可能である。また、物体の識別精度を向上させるために、これら複数種類のセンサを組み合わせて利用することも可能である。好ましくは、例えば、インパルスセンサを備えた地中レーダ、及び能動型の磁気センサ(所謂、アクティブ磁気センサ)の2つを採用する。
【0022】
上記ニューラルネットワークとしては、階層型であり、オンライン又はオフラインでの教育が可能なバックプロパーゲーション・ニューラルネットワーク(BPNN:Back-propagation Neural Network)を採用することが望ましく、このようなバックプロパーゲーション・ニューラルネットワークによれば、学習によって、より高精度な識別を行なうことができる。
【0023】
このニューラルネットワークの入力層には、上記センサの検出結果(出力)の2値化画像から抽出した検出物の一又は複数の任意の特徴量を入力し、出力層としては、例えば、「地雷」,「非地雷」,「金属対人地雷」,「非金属対人地雷」,「金属対戦車地雷」,及び「非金属対戦車地雷」等の探知対象となる物体の種類に応じたカテゴリを設けることができる。
【0024】
上記入力層に入力する検出物の特徴量としては、例えば、上記センサが地中レーダである場合には、地中レーダの「検出物の走査方向サイズ」,「検出物の深度方向サイズ」,「検出物の断面積」,「検出物の断面円形度」,及び「検出物のレーダ後方断面積(RCS:Radar Cross Section)」等とすることができる。なお、地中レーダとして、複数の地中レーダを採用することも可能であり、これら複数の地中レーダを走査方向に対して略直交するようにアレイ状に配置することも可能である。
【0025】
また、上記センサが磁気センサである場合には、磁気センサの「検出物の走査方向サイズ」,「検出物の平面面積」,及び「検出物の平面円形度」等とすることができる。また、複数の磁気センサを採用することも可能であり、これら複数の磁気センサを走査方向に対して直交するようにアレイ状に配置することも可能である。このような場合には、上記特徴量として「検出物のセンサアレイ方向サイズ」を含めることが可能である。
【0026】
また、複数種類のセンサを採用する場合には、例えば、複数種類のセンサによる検出物の特徴量をそれぞれ入力することができる複数のニューラルネットワークを採用し、これら複数のニューラルネットワークにそれぞれ単独処理又は並列処理するように構成することが可能である。このように、複数のニューラルネットワークを採用することにより、より正確な識別を行なうことができる。
【0027】
また、例えば、複数種類のセンサによる検出物の特徴量を組み合わせて入力することができる複合的なニューラルネットワークを採用することも可能であり、さらにこれに加えて、このような複合的なニューラルネットワークに対して並列処理することが可能な、一又は複数のセンサによる検出物の特徴量を入力することができる別のニューラルネットワークを採用することもできる。
【0028】
この具体的な例としては、第1、第2、及び第3の3つのニューラルネットワークを採用し、地中レーダによる検出物の特徴量を第1のニューラルネットワークの入力層に入力し、磁気センサによる検出物の特徴量を第2のニューラルネットワークの入力層に入力し、地中レーダ及び磁気センサの両方による検出物の特徴量を第3のニューラルネットワークの入力層に入力する。
【0029】
このように、複数のニューラルネットワークで並列に処理した結果を利用することにより、何れかのニューラルネットワークで識別できないような検出物に対して、更に正確な識別を行なうことが可能である。
【0030】
以上の如き本願発明に係る方法を地雷探知に適用することにより、従来から探知することが困難であった対人地雷でさえも、高度な訓練なしに非常に高精度な探知を行なうことが可能となる。
【0031】
さらに、上記の如き本願発明に係る方法を実施することができる装置を地雷処理車の如き移動体に搭載して利用することも可能であり、また、オペレータが運搬することが可能な小型のものとすることも可能である。
【0032】
【発明の実施の形態】
以下、本願発明に係る地中の物体を探知する方法を実施するための装置について、地雷探知の用に供される当該装置を搭載した移動体を例として添付の図面を参照しながら具体的に説明する。
【0033】
図1は、本願発明の実施の形態に係る方法を実施するための装置(例えば、地雷探知装置)の機能ブロック図である。なお、図1に示した本実施の形態に係る装置又は地雷探知装置は単なる例示であり、本願発明においては、このような構成に限定されるものではない。
【0034】
図1において、本実施の形態に係る地雷探知装置は、インパルスセンサを有する地中レーダ1と、アクティブ磁気センサ2との2種類のセンサを備えている。これら2種類のセンサは、能動型のセンサであり、地中レーダ1は、地中にパルス状の電磁波を放射し、その反射波を対応するセンサ部分で検出するようになっており、また、アクティブ磁気センサ2は、一定の周波数の送信磁界を与え、それにより得られる誘導磁界を対応するセンサ部分で検出するようになっている。また、上記両センサは、それぞれ複数の素センサを有し、該複数の素センサは、走査方向に略直交する方向にアレイ状に配置されている。
【0035】
地中レーダ1は、地中の状態を深度方向に検出することができる一方、磁気センサ2は、地中の状態をアレイ方向(即ち、センサチャンネル方向)に検出することができ、地中レーダ1及び磁気センサ2による検出信号は、それぞれの信号処理部11,21に与えられる。
【0036】
図2(a)〜(c)は、本実施の形態に係る地雷探知装置の地中レーダによる後述の各処理における画像データの形態を示す模式図であり、これらの図においては、縦軸に深度方向を、横軸に走査方向をそれぞれとってある。また、図3(a)〜(c)は、本実施の形態に係る地雷探知装置の磁気センサによる後述の各処理における画像データの形態を示す模式図であり、これらの図においては、縦軸にチャンネル方向を、横軸に走査方向をそれぞれとってある。
【0037】
地中レーダ1及び磁気センサ2のそれぞれの検出時点での画像データは、図2(a)及び図3(a)の如くなっており、各図において、各センサによる検出物は、大きい楕円(破線で示す)で示す範囲内にある。なお、図3(a)においては、白色の楕円領域(磁気センサ2による検出信号が「負」の部分)と灰色の楕円領域(磁気センサ2による検出信号が「正」の部分)との間の中間位置が磁気センサ2による検出物である。
【0038】
信号処理部11,21は、一般的なフィルタリング処理機能を有し、各検出信号からノイズ成分を除去する。信号処理部11によりノイズ除去された地中レーダ1の検出信号は、分解能向上処理部12に与えられ、一方、信号処理部21によりノイズ除去された磁気センサ2の検出信号は、目標領域抽出処理部31へ与えられる。
【0039】
分解能向上処理部12は、合成開口処理等による高分解能化・画像化機能を有し、信号処理部11から与えられたノイズ除去後の検出信号の空間的分布及び時間的な応答を強調して画像化すると共に、探知目標となる地雷の外形形状(一般的には短寸円柱形状)に対応した特有のパターンを生成する。
【0040】
本実施の形態においては、合成開口処理が実施され、該合成開口処理では、具体的には、走査方向(所謂、アジマス方向)毎に取得した時間軸上の検出信号群(以後、「検出データ」という)を、或る点反射体と地中レーダ1との間の距離(即ち、伝播距離)の変化量に基づいた参照関数との相関を用いてアジマス方向に圧縮(所謂、アジマス圧縮)することにより、空間分解能を向上させる。この合成開口処理後の画像データの例は、図2(b)に示してある。なお、地中レーダ1の検出信号に対して合成開口処理を実施する場合には、上記アジマス圧縮と併せて、レーダ波の帯域幅に応じたレンジ方向での検出データの圧縮(レンジ圧縮又はパルス圧縮)によるレンジ方向分解能向上がなされる。
【0041】
分解能向上処理部12による処理結果は、上記目標領域抽出処理部31に与えられ、該目標領域抽出処理部31は、信号処理部21から与えられたノイズ除去後の検出信号に基づいて走査方向毎に取得した時間軸上の検出信号群(以後、「検出データ」という)と、分解能向上処理部12から与えられたノイズ除去及び強調処理後の検出データとからそれぞれ生成される画像データに対して、2値化処理後にラベリング処理を施すことによって、検出した地中の物体(以後、「目標物」という)にラベル番号を付与する。
【0042】
具体的には、目標領域抽出処理部31は、一般的な画像処理機能を有し、地中レーダ1の画像データに対しては、図4のフローチャートに示す如く、上記ラベリング処理(ステップS14)に先立って、メディアンフィルタによる平滑化処理(ステップS11)、2値化処理(ステップS12)、及び収縮/膨張処理(ステップS13)を施し、目標物画像を背景画像から分離・抽出する。
【0043】
また、目標領域抽出処理部31は、磁気センサ2の画像データに対しては、図5のフローチャートに示す如く、上記ラベリング処理(ステップS25)に先立って、微分処理(ステップS21)、メディアンフィルタによる平滑化処理(ステップS22)、2値化処理(ステップS23)、及び収縮/膨張処理(ステップS24)を施し、目標物画像を背景画像から分離・抽出する。
【0044】
なお、磁気センサ2の画像データに対しては、ステップS23の2値化処理に先立って、微分処理を施している。これは、図3(a)に示した如き検出時点での画像データを2値化した場合、前述した「正」の部分のみを抽出する可能性があり、また、微分処理を施すことによって、目標物の中心部分を抽出することができるからである。この微分処理後の画像データの例は、図3(b)に示してある。
【0045】
上記ステップS11及びS22における平滑化処理では、より詳しくは、メディアンフィルタを利用し、画像データから、信号強度が大きいスパイク状のノイズを除去するために、次の(1)式で示すように、注目画素の近傍領域内の中間値(median)を出力する。
【0046】
【数1】
【0047】
また、ステップS12及びS23における2値化処理では、統計的な振幅変動の分散等を用いたデータ選別を行なうため、p-tile法を利用する。p-tile法において、背景画像よりも明るい目標物画像を切り出す場合の2値化閾値ftは、次の(2)式で与えられる。なお、本願発明においては、2値化の方法をp-tile法に限定するものではないことは言うまでもない。
【0048】
【数2】
【0049】
但し、上記2値化閾値ftのみでは、目標物が含まれていない背景画像までも切り出す虞があるため、画像データの分散値と、予め求めておいた背景画像の分散値の上限とを比較し、分散値が上限よりも大きい場合にだけ、画像データを2値化処理する。なお、p-tile法に用いる2値化閾値ftは、予め実験等により求めておく。また、平均値m及び標準偏差σを求める領域は、目標物の大きさを基準とし、予め実験等により求めておく。
【0050】
ステップS13及びS24における収縮/膨張処理では、後に続くラベリング処理での負荷を軽減すべく、次の(3)式及び(4)式を用いて収縮/膨張処理を行ない、孤立ノイズを除去する。
【0051】
【数3】
【0052】
この収縮/膨張処理は、収縮処理を数回実施し、その後、膨張処理を同じ回数実施することが望ましく、その回数は、実験結果等に応じて調整可能なパラメータとしておく。
【0053】
ステップS14及びS25におけるラベリング処理では、抽出された領域(即ち、値1の画素群)を個々の目標候補に分離する。具体的には、画像データ全体を走査し、図6に示す如く、「値1の注目画素」とその近傍領域内の「値1の画素」との連結性を調べ、連結した「値1の画素」には同一ラベルを付与する一方、連結していない「値1の画素」には新規のラベルを付与する。次に、湾曲パターンでは、同一目標物に対して複数のラベルが付与されるため、ラベルの統合処理を実施する。
【0054】
より詳しく説明すれば、図6において画素を矩形領域で示し、注目画素が黒色領域で示される画素であるものとする。この場合、当該注目画素に「aij」のラベルを付与し、4連結型のラベリングを採用した場合には、この注目画素「aij」の四方4つの隣接画素を調べる。図6では注目画素「aij」の上側及び左側の画素がそれぞれ当該注目画素に「aij」に連結しているものとすれば、上側の画素に「ai-1 j」、左側の画素に「ai j-1」という「a」のラベルを付与する(図6においてはそれぞれの画素をクロスハッチング領域で示してある)。また、8連結型のラベリングを採用した場合には、上記注目画素「aij」の周囲8つの隣接画素を調べ、上述と同様の方法にて同一のラベルを付与する(図6においてはそれぞれの画素を白色領域で示してある)。
【0055】
以上の如く、地中レーダ1及び磁気センサ2のそれぞれの画像データについてラベリング処理が完了すると、目標領域抽出処理部31は、ラベリング後の各画像データを目標位置判定処理部32に与える。
【0056】
目標位置判定処理部32は、地中レーダ1の画像データと磁気センサ2の画像データとの抽出された目標物の位置の整合と、同一目標物であるか否かの判定とを行なう。
【0057】
地中レーダ1及び磁気センサ2を併用して使用する場合には、これらを水平面上の同一位置に配置することができない場合、また、両者の計測周期が一致していない場合には、地中レーダ1及び磁気センサ2のそれぞれの画像データを位置的に整合させる必要がある。
【0058】
まず、図7に示す如く、本実施の形態においては、走査方向に向かって、地中レーダ1,磁気センサ2の順で配置してあり、地中レーダ1及び磁気センサ2の間の距離がdであるものとする。
【0059】
この場合、図8(a)に示す如く、地中レーダ1の計測周期(即ち、計測間隔)がΔSrであるとすれば、Kr回目の計測位置は、KrΔSrとなる。一方、図8(b)に示す如く、磁気センサ2の計測周期(即ち、計測間隔)がΔSmであるとすれば、Km回目の計測位置は、KmΔSmとなる。これら各計測位置の整合は次の(5)式を用いて行なう。
【0060】
【数4】
【0061】
次いで、地中レーダ1では、1つの目標物を複数のチャンネルで検出する可能性があるため、各チャンネルで検出した目標物が同一の目標物であるか否かを、目標物の位置を推定することによって行なう。
【0062】
例えば、或るチャンネルn1で検出された目標物の位置(ラベリングされた目標物の最も信号強度が高い位置)の信号強度をTn1(n1,yn1,zn1)とし、これに隣接するチャンネルn2で検出された目標物の位置の信号強度をTn2(n2,yn2,zn 2)とし、n1とn2との間の距離をdcとする。また、ここでは、yは走査方向の位置又は距離を表わし、zは深度方向の位置又は距離を表わす。
【0063】
このとき、図9に示す如く、それぞれのチャンネルで検出された目標物の走査方向の距離が判定値ydよりも近いこと((6)式参照)、それぞれのチャンネルで検出された目標物の深度方向の距離が判定値zdよりも近いこと((7)式参照)の2つの条件の双方に合致しているものを1つの目標物としてラベリングし直す。なお、判定距離yd,zdは、予め実験等により求めておく。
【0064】
【数5】
【0065】
上記のような、検出された目標物の同一性の判断においては、考慮するチャンネルの相互距離が大きいと精度が低下する可能性があるため、可及的に隣接するチャンネル同士で考慮することが望ましい。
【0066】
次に、図10(a)及び(b)に示す如く、同一目標物としてラベリングされた領域について、隣接チャンネル間でチャンネルアレイ方向に直線近似により内挿補間して見掛け上の分解能を向上させた平面画像データを得る。その後、再びp-tile法により目標物画像を抽出し、その面積重心位置xを採用する。また、1つのチャンネルでしか検出しなかった目標物に対しても、その隣接チャンネルのデータと内挿補間し、その後、p-tile法により目標物画像を抽出する。
【0067】
一方、磁気センサ2では、目標物の位置を、前述の目標領域抽出処理でラベリングされた目標物の領域の面積重心位置とし、その位置をTm(xm,ym)とする。なお、磁気センサ2では、深度方向の情報は得られず、目標物の水平方向位置のみ特定することが可能である。
【0068】
次いで、地中レーダ1により検出された目標物の位置Tr(xr,yr,zr)と、磁気センサ2により検出された目標物の位置Tm(xm,ym)とが、同一の目標物のものであるか否かを判定する。即ち、両者の位置が平面上で所定範囲内にある場合(次の(8)式参照)に、双方により検出された目標物に対して、同一目標物としてラベリングをし直す。このとき、磁気センサ2により検出された1つの目標物に対して、上記所定範囲内に、地中レーダ1により検出された複数の目標物がある場合には、その信号強度が強い方を採用する。なお、上記所定範囲は、種々の実験により決定する。
【0069】
【数6】
【0070】
具体的には、図11(a)に示す如く、例えば、地中レーダ1により検出された目標物▲1▼の領域(図中ハッチングで示す)の面積重心位置を中心とした距離Dを半径とする円形範囲(図中破線で示す)を上記所定範囲とし、この所定範囲内に、磁気センサ2により検出された目標物aの領域の面積重心位置があれば、両者の目標物は同一物であると判定する。
【0071】
一方、図11(b)に示す如く、例えば、地中レーダ1により検出された目標物▲2▼の領域(図中ハッチングで示す)の面積重心位置を中心とした距離Dを半径とする円形領域(図中破線で示す)を上記所定範囲とし、この所定範囲内に、磁気センサ2により検出された目標物bの領域の面積重心位置がなければ、両者の目標物は同一物でないと判定する。図11(c)の例では、目標物c及び目標物dは、上記所定範囲内にあるが、例えば、目標物cの信号強度が目標物dの信号強度よりも強い場合には、この信号強度が強い目標物cが地中レーダ1の目標物▲2▼と同一物であると判定し、目標物dは同一物でないと判定する。
【0072】
また、地中レーダ1及び磁気センサ2の両方で検出された目標に対しては、走査方向の位置及び深さは、地中レーダ1の情報を、アレイ方向の位置は、磁気センサ2の情報をそれぞれ採用する。
【0073】
なお、目標位置判定処理後の地中レーダ1及び磁気センサ2の2値化画像は、それぞれ図2(c)及び図3(c)に示す如きものである。
【0074】
以上のような、地中レーダ1により検出された目標物に関する情報、磁気センサ2により検出された目標物に関する情報、並びに地中レーダ1及び磁気センサ2の双方で検出された目標物に関する情報は、目標位置判定処理部32から特徴量抽出処理部33にそれぞれ与えられ、特徴量抽出処理部33は、ラベリングされた各目標物から、その目標物らしさ(つまり、本願発明においては、地雷らしい形状をなしているということ)を表わす特徴量を、2値化画像データから抽出する。本実施の形態においては、地中レーダ1及び磁気センサ2に関する特徴量として、図12に示す如きものを採用しており、対応するパラメータを割り当ててある。なお、本願発明においては、これらの特徴量に限定されるものではなく、センサの種類,及び後で詳述するニューラルネットワークの構成等に応じて適宜に決定すればよい(図14参照)。
【0075】
2値化画像データから上記特徴量を抽出する方法を次に説明する。
【0076】
まず、地中レーダ1に関する特徴量にあっては、図13(a)に示す如く演算する。
(1)目標物の走査方向サイズ(即ち、「R size x」)は、当該目標物の走査方向(図においてはx方向)の画素数(図においては8画素)である。
(2)目標物の深度方向サイズ(即ち、「R size y」)は、当該目標物の深度方向(図においてはy方向)の画素数を(図においては5画素)である。
(3)目標物の断面積(即ち、「R area」)は、当該目標物の総画素数(図においては28画素)である。
(4)目標物の断面円形度(即ち、「R roundness」)は、当該目標物の周囲長の画素数(図においては26画素)を「R perimeter」としたときに、(R roundness)= 4π×(R area)/(R perimeter)2 で演算される値(図においては、(R roundness)= 4π×(28)/(26)2 = 0.5205である)である。
(5)目標物のレーダ後方断面積(低域)(即ち、「Rcs Low」)は、当該目標物の低域RCSであり、次の(9)式で演算される。
(6)目標物のレーダ後方断面積(高域)(即ち、「Rcs High」)は、当該目標物の高域RCSであり、次の(10)式で演算される。
【0077】
【数7】
【0078】
一方、磁気センサ2に関する特徴量にあっては、図13(b)に示す如く演算する。
(1)目標物の走査方向サイズ(即ち、「M size x」)は、当該目標物の走査方向(図においてはx方向)の画素数(図においては8画素)である。
(2)目標物のチャンネル方向サイズ(即ち、「M size z」)は、当該目標物のチャンネル方向(図においてはz方向)の画素数を(図においては5画素)である。
(3)目標物の平面面積(即ち、「M area」)は、当該目標物の総画素数(図においては28画素)である。
(4)目標物の平面円形度(即ち、「M roundness」)は、当該目標物の周囲長の画素数(図においては26画素)を「M perimeter」としたときに、(M roundness)= 4π×(M area)/(M perimeter)2 で演算される値(図においては、(M roundness)= 4π×(28)/(26)2 = 0.5205である)である。
【0079】
特徴量抽出処理部33は、以上の如くにそれぞれのセンサの2値化画像データから抽出した特徴量、即ちパラメータの値を識別処理部4に与える。
【0080】
識別処理部4は、学習機能付きの所謂「階層型バックプロパゲーションニューラルネットワーク(BPNN)」機能を備えた演算装置であり、図14に示す如く、特徴量抽出処理部33から与えられた各目標物に対応する特徴量をそのニューラルネットワークの入力層に入力し、予め設定してある出力カテゴリへの該当度合を出力するように構成されている。
【0081】
より詳しくは、図15に示す如く、識別処理部4は、地中レーダ/磁気センサ同時検出用バックプロパゲーションニューラルネットワーク41,地中レーダ検出用バックプロパゲーションニューラルネットワーク42,及び磁気センサ検出用バックプロパゲーションニューラルネットワーク43の3つのニューラルネットワーク機能を備えており、地中レーダ1及び磁気センサ2の両方で同時に検出された目標物に関する特徴量は、地中レーダ/磁気センサ同時検出用バックプロパゲーションニューラルネットワーク41の入力層へ、地中レーダ1のみで単独に検出された目標物に関する特徴量は、地中レーダ検出用バックプロパゲーションニューラルネットワーク42の入力層へ、そして、磁気センサ2のみで単独に検出された目標物に関する特徴量は、磁気センサ検出用バックプロパゲーションニューラルネットワーク43の入力層へそれぞれ入力されるようになっている。
【0082】
図15からも判る通り、図14に示したニューラルネットワークの構成は、図15に示した地中レーダ/磁気センサ同時検出用バックプロパゲーションニューラルネットワーク41のものであり、他のニューラルネットワークについては、パラメータを各センサに対応するもののみとする等して、全体としては同様の構成とすることができるため、詳細な説明は省略する。
【0083】
識別処理部4が備える各ニューラルネットワークは、予めオフラインで学習させておく。具体的には、まず、既知の地雷サンプルを、土質及び埋設深度等の埋設条件を変えながら、本願発明に係る地雷探知装置によりこれらの地雷サンプルの探知トライアルを繰り返す。そして、各トライアルにおいて当該地雷探知装置が検出した目標物の中から、実際に地雷を埋設した位置と略一致する目標物を選択し、この目標物に、埋設した地雷の出力カテゴリを割り当て、ニューラルネットワークの誤差逆伝播学習機能を利用し、結合荷重の修正を行う。なお、本実施の形態においては、上記出力カテゴリを、図14に示す如く「地雷」,「非地雷」,「金属対人地雷」,「非金属対人地雷」,「金属対戦車地雷」,及び「非金属対戦車地雷」等としてあるが、これらに限定するものではない。なお、地雷の埋設位置以外の位置には、すべて「非地雷」を割り当てるようにする。
【0084】
ニューラルネットワークの学習アルゴリズムは、図16のフローチャートに示す一般的な手順である。具体的には、識別処理部4は、まず、記憶している結合荷重の初期化をし(ステップS101)、識別処理部4に接続された入力部5から入力される上記埋設条件、及び該当する出力カテゴリ(所謂、教師信号)等を含む学習パターンをセットする(ステップS102)。
【0085】
次に、識別処理部4は、探知トライアルを開始し、中間層ユニットの出力計算(ステップS103)、出力層ユニットの出力計算(ステップS104)を順次行なう。
【0086】
続いて、識別処理部4は、入力された出力カテゴリに対する、出力層ユニットの誤差計算(ステップS105)、中間層ユニットの誤差演算(ステップS106)を順次行ない、演算誤差に基づいて、出力層ユニットの出力が、上記入力された出力カテゴリに近づくように、中間層及び出力層間の結合荷重の修正(ステップS107)、入力層及び中間層間の結合荷重の修正(ステップS108)を順次行なう。
【0087】
そして、識別処理部4は、探知トライアルの条件を変更すべく、セットした学習パターンを更新し(ステップS109)、学習繰り返し回数が、学習パターンのバリエーションに応じた所定の学習繰り返し回数以内か否かを確認する(ステップS110)。識別処理部4は、学習繰り返し回数以内である場合(ステップS110で“YES”)には、更新した別の学習パターンで学習すべくステップS103に戻り、一方、学習繰り返し回数以内でない場合(ステップS110で“NO”)には、全ての学習パターンのトライアルを終了したものと判断して学習を終了する。
【0088】
以上の如き学習は、識別処理部4が備える地中レーダ/磁気センサ同時検出用バックプロパゲーションニューラルネットワーク41,地中レーダ検出用バックプロパゲーションニューラルネットワーク42,及び磁気センサ検出用バックプロパゲーションニューラルネットワーク43の3つのニューラルネットワークについてそれぞれ実施する。なお、本実施の形態においてはオフライン学習を想定して説明したが、オンラインで学習を実施することも可能である。
【0089】
このような識別処理部4による識別結果は、図17(a)及び(b)並びに図18に示すような形態で、該識別処理部4に接続された表示部6に表示させる。
【0090】
図17(a)及び(b)においては、地中レーダ1のみにより検出された目標物と、磁気センサ2のみにより検出された目標物と、地中レーダ1及び磁気センサ2の両方で検出された目標物とを視覚的に区別して表示するとともに、各目標物の3次元位置が視覚的に判り易いように、地中の状態を水平断面視及び垂直断面視で表現してある。
【0091】
より詳しくは、図17(a)においては、横軸に走査方向、縦軸にチャンネル方向の水平距離をそれぞれとった矩形領域内に、検出された目標物が抽出後の形状でそれぞれ表示されている。一方、図17(b)においては、横軸に走査方向、縦軸に深度方向をそれぞれとった矩形領域内に、検出された目標物が抽出後の形状でそれぞれ表示されている。
【0092】
また、図17(a)及び図17(b)に示す如く表示された各目標物に対しては、上記ニューラルネットワークを利用して演算されたそれぞれの出力カテゴリに対する該当度合(識別率)を数値で表示してもよく、また、図18に示す如く棒グラフの形態で表示してもよい。
【0093】
図18の例において、「地雷」及び「非地雷」の2つの出力カテゴリでは、地雷の確率の方が非常に大きく、地雷であることが判る。次いで、地雷であればどのような種類のものであるかは、残りの「金属対人地雷」,「非金属対人地雷」,「金属対戦車地雷」,及び「非金属対戦車地雷」の4つの出力カテゴリを見ることにより判る。つまり、この例では、金属対人地雷の確率が他に比べて大きく、金属対人地雷であると判断できる。
【0094】
本実施の形態においては、図17(a)及び(b)並びに図18に示すような画面表示をオペレータが見て、目標物の最終的な判定を行うように説明したが、このような判定処理をコンピュータに行なわせる構成とすることも可能である。
【0095】
以上に説明した本実施の形態に係る地雷探知装置は、図19に示す如く、適宜の移動体100に搭載することも可能である。移動体100には、地雷探知装置の全体部分を搭載する構成としてもよいし、また、少なくともそのアクティブセンサ部分(地中レーダ1及び磁気センサ2等)のみを搭載し、別の位置に配置された地雷探知装置の残りの部分と例えば無線通信によりデータを授受をなし得るように構成してもよい。
【0096】
図19の例では、移動体100は、ホイールローダの如き態様をなしており、その前方部分に昇降自在に動作可能な一対のアーム101を備え、該アームの先端部には、地中レーダ1及び磁気センサ2を収納した箱形の走査部102が水平に支持されている。該走査部102は、地表から所定距離離隔してアーム101に支持されており、その下側面から地雷探知のための電磁波を地中に放射し、地中からの反射波を受信することが可能なように、走査部102の下側の部位に地中レーダ1及び磁気センサ2が配置されている。
【0097】
また、他の実施の形態に係る地雷探知装置は、図20に示す如く、可搬型の小型のものとすることができる。この可搬型地雷探知装置200は、全体として棒状をなし、その上側となる一方の端部にオペレータが把持する把持部203,204,205等を備えている。また、他方の端部には、円盤状の走査部202を備えている。該走査部202の内部には、地中レーダ1及び磁気センサ2を収納しており、これらのアクティブセンサ部分が、その下側面から地雷探知のための電磁波を地中に放射し、地中からの反射波を受信することが可能なように配置されている。これらのアクティブセンサ部分は、棒状の装置本体の上部に配置された箱形のコントローラ201に接続され、該コントローラ201は、入力部5及び表示部6等を含む、上記アクティブセンサ部分以外の地雷探知装置の部分を備えている。
【0098】
【発明の効果】
本願発明に係る地中の物体を探知する方法及びその実施に使用する装置、並びに当該装置を搭載した移動体によれば、センサによる反射波の画像化情報を2値化し、2値化画像をニューラルネットワークを利用して処理することにより、探知処理を自動化することができ、また、オペレータの熟練を要しない高い探知精度を提供することができる。
【図面の簡単な説明】
【図1】 本願発明の実施の形態に係る地雷探知装置の構成を示す機能ブロック図である。
【図2】 本実施の形態に係る地雷探知装置の地中レーダにより検出された地中の状態を示す画像データの模式図であり、(a)は地中レーダによる検出時点での元画像、(b)は合成開口処理後の画像、(c)は目標判定処理後の画像である。
【図3】 本実施の形態に係る地雷探知装置の磁気センサにより検出された地中の状態を示す画像データの模式図であり、(a)は磁気センサによる検出時点での元画像、(b)は微分処理後の画像、(c)は目標判定処理後の画像である。
【図4】 図1に示した目標領域抽出処理部が地中レーダによる画像データを処理する手順を示すフローチャートである。
【図5】 図1に示した目標領域抽出処理部が磁気センサによる画像データを処理する手順を示すフローチャートである。
【図6】 図1に示した目標領域抽出処理部のラベリング処理を説明するための図である。
【図7】 図1に示した目標位置判定処理部が、検出された複数の目標物の同一性を判定する処理を説明するための図である。
【図8】 図1に示した目標位置判定処理部が、検出された複数の目標物の同一性を判定する処理を説明するための図である。
【図9】 図1に示した目標位置判定処理部が、検出された複数の目標物の同一性を判定する処理を説明するための図である。
【図10】 図1に示した目標位置判定処理部が、地中レーダの見掛け上の分解能を向上させる内挿補間を説明するための目標物画像の模式図である。
【図11】 図1に示した目標位置判定処理部が、地中レーダにより検出された目標物と、磁気センサにより検出された目標物との同一性を判定する処理を説明するための図である。
【図12】 図1に示した特徴量抽出処理部が識別処理部のニューラルネットワークの入力層に与えるパラメータ、即ち地中レーダ及び磁気センサによる目標物の特徴量を示す図表である。
【図13】 図1に示した特徴量抽出処理部が2値化画像から各特徴量を演算する方法を説明するための図である。
【図14】 図1に示した識別処理部のニューラルネットワークの構成を示す模式図である。
【図15】 図1に示した識別処理部のニューラルネットワークの構成を示すブロック図である。
【図16】 図1に示した識別処理部のニューラルネットワークの学習アルゴリズムを示すフローチャートである。
【図17】 図1に示した識別処理部が、地雷探知結果を表示部に表示させる形態を示す模式図であり、(a)は地中の状態の水平断面視による表示、(b)は地中の状態の垂直断面視による表示をそれぞれ示している。
【図18】 図1に示した識別処理部が、地雷探知結果を表示部に表示させる形態を示す模式図であり、各目標物の出力カテゴリに対する該当度合(識別率)を示している。
【図19】 本願発明の実施の形態に係る地雷探知装置を搭載した移動体の実施の形態を示す正面図である。
【図20】 本願発明の他の実施の形態に係る地雷探知装置を可搬型とした実施の形態を示す斜視図である。
【符号の説明】
1 地中レーダ
2 磁気センサ
4 識別処理部(バックプロパゲーション・ニューラルネットワーク)
5 入力部
6 表示部
31 目標領域抽出処理部
33 特徴量抽出処理部
100 移動体
200 可搬型地雷探知装置[0001]
BACKGROUND OF THE INVENTION
In the present invention, even an underground object that requires skill in detection by the conventional method can be detected effectively by simple training, and the detection process can be automated. The present invention relates to a method for detecting an object, a device used for implementing the method, and a moving body equipped with the device.
[0002]
[Prior art]
Landmines represented by Anti-tank Mines (ATM) and Anti-personnel Mines (APM) are used in conflict areas around the world. Currently, over 100 million landmines remain buried all over the world, and their removal after the conflict is extremely difficult.
[0003]
In the post-conflict mine removal, so-called humanitarian mine removal, life on the land that is the minefield is assumed, so all the landmines buried in the minefield must be removed. Detection and removal of buried landmines using technologies such as “Anti-handling Devices” and “Anti-disturbance Devices” attached to these mines. The situation is difficult.
[0004]
These technologies include, for example, those that detonate in response to the magnetic field of a mine detector, and those that detonate by applying pressure several times. In the former type, the active mine detector was brought closer. There is a possibility of detonation alone. In the latter type, there is a possibility that when a mine disposal vehicle passes, it does not detonate, and when a vehicle other than the mine disposal vehicle that passes through the mine disposal vehicle passes, it may detonate.
[0005]
Under such circumstances, the following methods are generally used for removing landmines. For example, a landmine of a type that is detonated by applying pressure from the surface of the earth can be removed by blasting by running on a landmine field with a landmine disposal vehicle having a mode such as a wheel roller. However, minefields are not only flat, but there are many places where landmine vehicles cannot run. In addition, even in a flat land where mine disposal vehicles can run, for the type of mine that detonates by applying multiple pressures as described above, the number of times of pressure addition until the detonation of the fuze can be set. As long as it is unknown, it is not possible to completely remove landmines with landmine vehicles.
[0006]
In addition, an explosion is generated from the outside in a minefield, and an explosion of a buried mine is induced by a blast and a vibration of the ground at that time. However, it is unclear whether or not the mine fuze will operate reliably due to an explosion from the outside, and some mine have a self-inactivating function that is said to have a non-operation rate of 5% to 30%. Yes, I can't hope for reliable removal.
[0007]
Therefore, in addition to the above-described removal methods, it is necessary to rely on detecting the remaining landmines and removing them manually.
[0008]
As a method of detecting landmines, metal detectors are the mainstream, but many antipersonnel mines use materials other than metal, so antipersonnel mines should be detected using only metal detectors. It is difficult.
[0009]
As another detection method, a ground radar, a magnetic sensor, an X-ray sensor, an infrared sensor, or the like is used, the generated electromagnetic wave is propagated into the ground, and the reflected wave is detected and converted into an audible sound. In some cases, humans can identify landmines visually by identifying landmines or by displaying images of underground conditions based on reflected waves. According to this method, even landmines made of nonmetals, nonmagnetic materials, etc. can be detected (see, for example,
[0010]
[Patent Document 1]
Japanese Patent No. 3309242
[Patent Document 2]
Japanese Patent Laid-Open No. 8-122279
[Patent Document 3]
Japanese Patent No. 3015643
[0011]
[Problems to be solved by the invention]
However, for example, metal foreign objects are buried in the ground, and in particular, a lot of debris such as weapons, ammunition, and explosives are buried in the land that was a conflict zone. Is currently high. Although it is conceivable to lower the detection sensitivity (threshold value of the reflected wave signal intensity) in order to reduce the misrecognition rate, this causes a new problem that a small anti-personnel landmine cannot be detected.
[0012]
In addition, for example, when there is a lot of moisture in the soil, the moisture in the soil becomes a reflector, which may cause misrecognition, or depending on the land, the soil may contain a lot of metal components (mostly iron). In addition, since the soil quality is not uniform, the detection accuracy in such land is further lowered.
[0013]
Furthermore, identifying landmines from sounds or images obtained by sensors relies on human judgment, and since it requires a lot of skill to identify them, it cannot sufficiently meet the demand for landmine detection.
[0014]
However, since there is no choice but to rely on the detection method as described above, even if it is a misrecognition, it is necessary to dig up all the places manually without confirmation, and the amount of work is enormous. It is.
[0015]
The present invention has been made in view of the above circumstances, and automates the detection process by binarizing the imaging information of the reflected wave by the sensor and identifying the binarized image using a neural network. It is possible to provide a method for detecting an object in the ground, which can provide high detection accuracy that does not require the skill of an operator, a device used for the implementation, and a moving body equipped with the device. Objective.
[0016]
[Means for Solving the Problems]
The present invention can solve the above-described problems by a method and apparatus for detecting an object in the ground having the following configuration, and a moving body on which the apparatus is mounted.
[0017]
The method of detecting an object in the ground according to the present invention is a method of propagating the generated electromagnetic wave to the ground, detecting a reflected wave from the ground with a sensor, imaging the detection result, and imaging the state of the reflected wave In the method for detecting an object in the ground based on the above, the imaging information of the reflected wave is binarized, and the object in the ground is identified using a neural network based on the binarized image. To do.
[0018]
Further, the device for detecting an object in the ground according to the present invention propagates the generated electromagnetic wave to the ground, detects a reflected wave from the ground by a sensor, images the detection result, and images the reflected wave. In an apparatus for detecting an object in the ground based on the state of the image, a binarizing unit for binarizing the imaging information of the reflected wave, and a binarized image by the binarizing unit And identifying means for identifying the object using a neural network.
[0019]
According to the above invention, an electromagnetic wave that can be imaged (visualized) after detection is propagated in the ground, and the state of the ground is imaged by the sensor based on the reflected wave from the ground. By binarizing information (usually a gradation image), automatic processing by a computing device such as a computer is enabled. Then, by using the arithmetic device, the binarized image is processed using a neural network, and an underground object to be detected (for example, a land mine buried in the ground) is identified. Compared with the conventional identification method, it becomes possible to perform very highly accurate detection without advanced training.
[0020]
Note that the function of generating electromagnetic waves to be propagated into the ground may be provided in the device according to the present invention, or may be provided separately from the device.
[0021]
As the sensor, it is possible to employ various sensors capable of imaging the detection signals, such as ground penetrating radar, active and passive magnetic sensors, X-ray sensors, and infrared sensors. Further, in order to improve the object identification accuracy, it is also possible to use a combination of these plural types of sensors. Preferably, for example, a ground penetrating radar provided with an impulse sensor and an active magnetic sensor (so-called active magnetic sensor) are employed.
[0022]
As the above-mentioned neural network, it is desirable to adopt a back-propagation neural network (BPNN) that is hierarchical and enables online or offline education, and such back-propagation neural network is used. According to the network, more accurate identification can be performed by learning.
[0023]
One or more arbitrary feature quantities of the detection object extracted from the binarized image of the detection result (output) of the sensor are input to the input layer of the neural network. As the output layer, for example, “mine” , “Non-mine”, “Metal-to-person landmine”, “Non-metal-to-person landmine”, “Metal-to-tank landmine”, “Non-metal-to-tank landmine” and other categories according to the type of object to be detected Can do.
[0024]
For example, when the sensor is a ground penetrating radar, the feature quantity of the sensing object input to the input layer is “the scanning direction size of the detecting object”, “the depth direction size of the detecting object”, For example, “cross-sectional area of the detected object”, “circularity of the cross-section of the detected object”, and “radar cross section (RCS) of the detected object”. Note that a plurality of underground radars may be employed as the underground radar, and the plurality of underground radars may be arranged in an array so as to be substantially orthogonal to the scanning direction.
[0025]
When the sensor is a magnetic sensor, the “detection object scanning direction size”, “detection object planar area”, “detection object planar circularity”, and the like can be set. Also, a plurality of magnetic sensors can be employed, and the plurality of magnetic sensors can be arranged in an array so as to be orthogonal to the scanning direction. In such a case, it is possible to include “the size of the detected object in the sensor array direction” as the feature amount.
[0026]
Further, when a plurality of types of sensors are employed, for example, a plurality of neural networks that can respectively input feature amounts of detected objects by the plurality of types of sensors are employed, and each of the plurality of neural networks is individually processed or It can be configured to process in parallel. Thus, more accurate identification can be performed by employing a plurality of neural networks.
[0027]
In addition, for example, it is possible to employ a complex neural network that can input a combination of feature quantities of detected objects by a plurality of types of sensors, and in addition to this, such a complex neural network can be adopted. It is also possible to adopt another neural network that can input the feature quantity of the detected object by one or a plurality of sensors that can be processed in parallel.
[0028]
As a specific example, the first, second, and third neural networks are adopted, and the feature amount of the detected object by the ground radar is input to the input layer of the first neural network, and the magnetic sensor. Is input to the input layer of the second neural network, and the feature amount of the detected object from both the ground radar and the magnetic sensor is input to the input layer of the third neural network.
[0029]
In this way, by using the results of processing in parallel by a plurality of neural networks, it is possible to perform more accurate identification for a detected object that cannot be identified by any neural network.
[0030]
By applying the method according to the present invention as described above to landmine detection, even antipersonnel landmines that have been difficult to detect conventionally can be detected with very high accuracy without advanced training. Become.
[0031]
Furthermore, a device capable of carrying out the method according to the present invention as described above can be used by being mounted on a moving body such as a landmine disposal vehicle, and can be transported by an operator. It is also possible.
[0032]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an apparatus for carrying out a method for detecting an object in the ground according to the present invention will be specifically described with reference to the accompanying drawings, taking as an example a mobile object equipped with the apparatus to be used for landmine detection. explain.
[0033]
FIG. 1 is a functional block diagram of an apparatus (for example, a landmine detection apparatus) for carrying out a method according to an embodiment of the present invention. The device or the landmine detection device according to the present embodiment shown in FIG. 1 is merely an example, and the present invention is not limited to such a configuration.
[0034]
In FIG. 1, the landmine detection device according to the present embodiment includes two types of sensors, a
[0035]
The
[0036]
2 (a) to 2 (c) are schematic diagrams showing the form of image data in each processing described later by the underground radar of the mine detection apparatus according to the present embodiment. In these figures, the vertical axis represents The depth direction is taken along the horizontal axis, and the scanning direction is taken along the horizontal axis. 3 (a) to 3 (c) are schematic diagrams showing the form of image data in each process described later by the magnetic sensor of the landmine detection device according to the present embodiment. The channel direction is taken along the horizontal axis, and the scanning direction is taken along the horizontal axis.
[0037]
The image data at the time of detection by the
[0038]
The
[0039]
The resolution
[0040]
In the present embodiment, synthetic aperture processing is performed. Specifically, in the synthetic aperture processing, specifically, a detection signal group on the time axis (hereinafter referred to as “detection data”) obtained for each scanning direction (so-called azimuth direction). ”) In the azimuth direction using a correlation with a reference function based on the amount of change in the distance (ie, propagation distance) between a point reflector and the ground penetrating radar 1 (so-called azimuth compression). By doing so, the spatial resolution is improved. An example of the image data after this synthetic aperture processing is shown in FIG. When performing synthetic aperture processing on the detection signal of the
[0041]
The processing result by the resolution
[0042]
Specifically, the target area
[0043]
Further, as shown in the flowchart of FIG. 5, the target area
[0044]
The image data of the
[0045]
More specifically, in the smoothing process in steps S11 and S22, in order to remove spiked noise having a large signal intensity from the image data using a median filter, as shown by the following equation (1), An intermediate value (median) in the vicinity region of the target pixel is output.
[0046]
[Expression 1]
[0047]
Further, in the binarization processing in steps S12 and S23, the p-tile method is used to perform data selection using statistical dispersion of amplitude fluctuation or the like. In the p-tile method, a binarization threshold f when a target image brighter than the background image is cut outtIs given by the following equation (2). Needless to say, in the present invention, the binarization method is not limited to the p-tile method.
[0048]
[Expression 2]
[0049]
However, the above binarization threshold ftSince there is a possibility that even a background image that does not include the target is cut out, the variance value of the image data is compared with the upper limit of the variance value of the background image obtained in advance, and the variance value is larger than the upper limit. Only when it is large, the image data is binarized. The binarization threshold f used for the p-tile methodtIs obtained in advance by experiments or the like. In addition, the area for obtaining the average value m and the standard deviation σ is obtained in advance by experiments or the like with reference to the size of the target.
[0050]
In the contraction / expansion process in steps S13 and S24, the contraction / expansion process is performed using the following formulas (3) and (4) in order to reduce the load in the subsequent labeling process, and the isolated noise is removed.
[0051]
[Equation 3]
[0052]
In this contraction / expansion process, it is desirable that the contraction process is performed several times, and then the expansion process is performed the same number of times, and the number of times is set as a parameter that can be adjusted according to the experimental result or the like.
[0053]
In the labeling process in steps S14 and S25, the extracted region (that is, a pixel group having a value of 1) is separated into individual target candidates. Specifically, the entire image data is scanned, and as shown in FIG. 6, the connectivity between the “target pixel of
[0054]
More specifically, in FIG. 6, it is assumed that the pixel is indicated by a rectangular region and the target pixel is a pixel indicated by a black region. In this case, “aij”And a four-link type labeling is used, the pixel of interest“ aij”Are examined on four adjacent pixels. In FIG. 6, the target pixel “aij"And the pixels on the left side of"ij”In the upper pixel.i-1 j”And“ a ”i j-1"A" label is given (in FIG. 6, each pixel is indicated by a cross-hatched area). In addition, in the case of using 8-connected labeling, the pixel of interest “aij”Is examined, and the same label is given in the same manner as described above (in FIG. 6, each pixel is indicated by a white area).
[0055]
As described above, when the labeling process is completed for the respective image data of the
[0056]
The target position
[0057]
When the
[0058]
First, as shown in FIG. 7, in the present embodiment, the
[0059]
In this case, as shown in FIG. 8A, the measurement period (ie, measurement interval) of the
[0060]
[Expression 4]
[0061]
Next, in the
[0062]
For example, the signal strength of the target position detected at a certain channel n1 (the position where the labeled signal has the highest signal strength) is expressed as Tn1(N1, yn1, Zn1), And the signal strength of the target position detected in the channel n2 adjacent to this is Tn2(N2, yn2, Zn 2) And the distance between n1 and n2 is dcAnd Here, y represents the position or distance in the scanning direction, and z represents the position or distance in the depth direction.
[0063]
At this time, as shown in FIG. 9, the distance in the scanning direction of the target detected in each channel is determined as the determination value y.d(See equation (6)), the distance in the depth direction of the target detected in each channel is the judgment value zdRe-labeling a target that meets both of the two conditions (see equation (7)) as a single target. Judgment distance yd, ZdIs obtained in advance by experiments or the like.
[0064]
[Equation 5]
[0065]
In the determination of the identity of the detected target as described above, the accuracy may decrease if the mutual distance between the channels to be considered is large. Therefore, it is necessary to consider between adjacent channels as much as possible. desirable.
[0066]
Next, as shown in FIGS. 10A and 10B, the apparent resolution of the regions labeled as the same target is improved by performing interpolation by linear approximation in the channel array direction between adjacent channels. Plane image data is obtained. Thereafter, the target image is extracted again by the p-tile method, and the area centroid position x is adopted. Further, even for a target detected only in one channel, interpolation with the data of the adjacent channel is performed, and then a target image is extracted by the p-tile method.
[0067]
On the other hand, in the
[0068]
Next, the position T of the target detected by the ground penetrating radar 1r(Xr, Yr, Zr) And the position T of the target detected by the magnetic sensor 2m(Xm, Ym) Are of the same target. That is, when both positions are within a predetermined range on the plane (see the following equation (8)), the target detected by both is relabeled as the same target. At this time, if there are multiple targets detected by the
[0069]
[Formula 6]
[0070]
Specifically, as shown in FIG. 11A, for example, a distance D centered on the area centroid position of the area (indicated by hatching in the figure) of the target {circle around (1)} detected by the
[0071]
On the other hand, as shown in FIG. 11B, for example, a circle whose radius is a distance D centered on the area center of gravity of the area (indicated by hatching) of the target (2) detected by the
[0072]
For the targets detected by both the
[0073]
The binarized images of the
[0074]
Information regarding the target detected by the
[0075]
A method for extracting the feature amount from the binarized image data will be described next.
[0076]
First, the feature amount related to the
(1) The size of the target in the scanning direction (that is, “R size x”) is the number of pixels (eight pixels in the drawing) in the scanning direction (x direction in the drawing) of the target.
(2) The depth direction size (that is, “R size y”) of the target is the number of pixels in the depth direction (y direction in the figure) of the target (five pixels in the figure).
(3) The cross-sectional area (ie, “R area”) of the target is the total number of pixels of the target (28 pixels in the figure).
(4) The cross-sectional circularity of the target (that is, “R roundness”) is (R roundness) = (R roundness) = (R roundness) = “R perimeter”. 4π × (R area) / (R perimeter)2 (R roundness in the figure) = 4π × (28) / (26)2 = 0.5205).
(5) The radar rear cross-sectional area (low range) (that is, “Rcs Low”) of the target is the low range RCS of the target and is calculated by the following equation (9).
(6) The radar rear sectional area (high range) (that is, “Rcs High”) of the target is the high range RCS of the target and is calculated by the following equation (10).
[0077]
[Expression 7]
[0078]
On the other hand, the feature amount related to the
(1) The size of the target in the scanning direction (that is, “M size x”) is the number of pixels (eight pixels in the drawing) in the scanning direction (x direction in the drawing) of the target.
(2) The size of the target in the channel direction (that is, “M size z”) is the number of pixels in the channel direction of the target (z direction in the figure) (five pixels in the figure).
(3) The planar area (that is, “M area”) of the target is the total number of pixels of the target (28 pixels in the figure).
(4) The planar circularity (ie, “M roundness”) of the target is (M roundness) = (M roundness) = when the number of pixels of the perimeter of the target (26 pixels in the figure) is “M perimeter”. 4π × (M area) / (M perimeter)2 (Mroundness in the figure) = 4π × (28) / (26)2 = 0.5205).
[0079]
The feature amount
[0080]
The identification processing unit 4 is an arithmetic device having a so-called “hierarchical backpropagation neural network (BPNN)” function with a learning function, and each target given from the feature amount
[0081]
More specifically, as shown in FIG. 15, the identification processing unit 4 includes a back-propagation
[0082]
As can be seen from FIG. 15, the configuration of the neural network shown in FIG. 14 is that of the back-propagation
[0083]
Each neural network included in the identification processing unit 4 is previously learned offline. Specifically, first, detection trials of these landmine samples are repeated by using the landmine detection device according to the present invention while changing the embedding conditions such as soil quality and embedding depth. Then, from among the targets detected by the mine detector in each trial, a target that substantially matches the actual location where the mine was buried is selected, and the output category of the buried mine is assigned to this target, The connection weight is corrected by using the error back propagation learning function of the network. In the present embodiment, as shown in FIG. 14, the output categories are “mine”, “non-mine”, “metal-to-person mine”, “non-metal-to-person mine”, “metal-to-tank mine”, and “ Non-metal anti-tank landmines ”, but not limited to these. Note that “non-mine” is assigned to all positions other than the landmine buried position.
[0084]
The neural network learning algorithm is a general procedure shown in the flowchart of FIG. Specifically, the identification processing unit 4 first initializes the stored connection load (step S101), and the embedding condition input from the
[0085]
Next, the identification processing unit 4 starts a detection trial, and sequentially performs output calculation of the intermediate layer unit (step S103) and output calculation of the output layer unit (step S104).
[0086]
Subsequently, the identification processing unit 4 sequentially performs error calculation of the output layer unit (step S105) and error calculation of the intermediate layer unit (step S106) for the input output category, and based on the calculation error, the output layer unit Are corrected in order so as to approximate the output category inputted above (step S107) and the coupling load between the input layer and the intermediate layer (step S108).
[0087]
Then, the identification processing unit 4 updates the set learning pattern to change the condition of the detection trial (step S109), and whether or not the number of learning repetitions is within a predetermined number of learning repetitions according to the variation of the learning pattern. Is confirmed (step S110). If the number is less than the number of learning repetitions (“YES” in step S110), the identification processing unit 4 returns to step S103 to learn with another updated learning pattern, and if not less than the number of learning repetitions (step S110). In “NO”), it is determined that the trial of all the learning patterns has been completed, and the learning is ended.
[0088]
The learning as described above is performed by the backpropagation
[0089]
Such identification results by the identification processing unit 4 are displayed on the display unit 6 connected to the identification processing unit 4 in the form shown in FIGS. 17A and 17B and FIG.
[0090]
In FIGS. 17A and 17B, the target detected only by the
[0091]
More specifically, in FIG. 17A, the detected target is displayed in a shape after extraction in a rectangular area in which the horizontal axis represents the scanning direction and the vertical axis represents the horizontal distance in the channel direction. Yes. On the other hand, in FIG. 17B, the detected target is displayed in a shape after extraction in a rectangular area in which the horizontal axis indicates the scanning direction and the vertical axis indicates the depth direction.
[0092]
In addition, for each target displayed as shown in FIGS. 17A and 17B, the corresponding degree (identification rate) for each output category calculated using the neural network is a numerical value. Or may be displayed in the form of a bar graph as shown in FIG.
[0093]
In the example of FIG. 18, in the two output categories of “mine” and “non-mine”, the probability of landmine is much larger, and it can be seen that the landmine is a landmine. Next, there are four types of landmines: the remaining “metal-to-person mine”, “non-metal-to-person mine”, “metal-to-tank landmine”, and “non-metal-to-tank landmine”. This can be seen by looking at the output category. That is, in this example, the probability of a metal antipersonnel mine is greater than others, and it can be determined that the antipersonnel mine is a metal antipersonnel mine.
[0094]
In the present embodiment, it has been described that the operator sees the screen display as shown in FIGS. 17A and 17B and FIG. 18 to perform the final determination of the target. It is also possible to adopt a configuration in which processing is performed by a computer.
[0095]
The mine detection device according to the present embodiment described above can also be mounted on an appropriate moving
[0096]
In the example of FIG. 19, the moving
[0097]
In addition, a landmine detection device according to another embodiment can be made portable and small as shown in FIG. The portable
[0098]
【The invention's effect】
According to the method for detecting an object in the ground according to the present invention, the apparatus used for implementing the method, and the moving body equipped with the apparatus, the imaging information of the reflected wave by the sensor is binarized, and the binarized image is By performing processing using a neural network, detection processing can be automated, and high detection accuracy that does not require operator skill can be provided.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a configuration of a landmine detection device according to an embodiment of the present invention.
FIG. 2 is a schematic diagram of image data showing an underground state detected by the underground radar of the landmine detection device according to the present embodiment, and (a) is an original image at the time of detection by the underground radar, (B) is an image after synthetic aperture processing, and (c) is an image after target determination processing.
FIG. 3 is a schematic diagram of image data showing an underground state detected by the magnetic sensor of the landmine detection device according to the present embodiment, where (a) is an original image at the time of detection by the magnetic sensor; ) Is an image after differentiation processing, and (c) is an image after target determination processing.
FIG. 4 is a flowchart showing a procedure by which the target area extraction processing unit shown in FIG.
FIG. 5 is a flowchart showing a procedure by which the target area extraction processing unit shown in FIG. 1 processes image data by a magnetic sensor.
6 is a diagram for explaining a labeling process of a target area extraction processing unit shown in FIG. 1; FIG.
FIG. 7 is a diagram for explaining processing in which the target position determination processing unit shown in FIG. 1 determines the identity of a plurality of detected targets.
FIG. 8 is a diagram for explaining a process in which the target position determination processing unit shown in FIG. 1 determines the identity of a plurality of detected targets.
FIG. 9 is a diagram for explaining processing in which the target position determination processing unit shown in FIG. 1 determines the identity of a plurality of detected targets.
FIG. 10 is a schematic diagram of a target image for explaining interpolation by which the target position determination processing unit shown in FIG. 1 improves the apparent resolution of the ground penetrating radar.
FIG. 11 is a diagram for explaining processing in which the target position determination processing unit shown in FIG. 1 determines the identity between a target detected by a ground penetrating radar and a target detected by a magnetic sensor. is there.
12 is a table showing parameters that the feature quantity extraction processing section shown in FIG. 1 gives to the input layer of the neural network of the identification processing section, that is, feature quantities of the target by the ground radar and magnetic sensor. FIG.
13 is a diagram for explaining a method by which a feature amount extraction processing unit illustrated in FIG. 1 calculates each feature amount from a binarized image. FIG.
14 is a schematic diagram illustrating a configuration of a neural network of the identification processing unit illustrated in FIG. 1. FIG.
15 is a block diagram showing a configuration of a neural network of the identification processing unit shown in FIG. 1. FIG.
16 is a flowchart showing a learning algorithm of the neural network of the identification processing unit shown in FIG.
17 is a schematic diagram showing a form in which the identification processing unit shown in FIG. 1 displays a mine detection result on a display unit, where (a) is a display in a horizontal sectional view of an underground state, and (b) is a diagram. The display by the vertical cross section view of the state in the ground is shown, respectively.
FIG. 18 is a schematic diagram showing a form in which the identification processing unit shown in FIG. 1 displays the mine detection result on the display unit, and shows the corresponding degree (identification rate) for the output category of each target.
FIG. 19 is a front view showing an embodiment of a mobile object equipped with a landmine detection device according to an embodiment of the present invention.
FIG. 20 is a perspective view showing an embodiment in which a landmine detection device according to another embodiment of the present invention is portable.
[Explanation of symbols]
1 Ground penetrating radar
2 Magnetic sensor
4 Identification processing unit (back-propagation neural network)
5 Input section
6 Display section
31 Target area extraction processing unit
33 Feature extraction processing unit
100 mobile
200 Portable landmine detector
Claims (11)
複数種類のセンサの反射波の画像化情報をそれぞれ2値化し、
2値化画像から、前記複数種類のセンサの検出特性に応じた検出物の特徴量をそれぞれ抽出し、
抽出したそれぞれの種類のセンサに対応する特徴量を、対応するそれぞれのニューラルネットワークの入力層に入力すると共に、抽出した複数種類のセンサに対応する特徴量を、対応する別のニューラルネットワークの入力層に入力して、地中の物体を識別し、
少なくともいずれか1つのニューラルネットワークにより対象とする物体であると識別された場合に、探知したものと判断することを特徴とする方法。In the method of propagating the generated electromagnetic wave to the ground, detecting the reflected wave from the ground with a sensor, imaging the detection result, and detecting the object in the ground based on the imaged state of the reflected wave,
A plurality of types of imaging information of the reflected waves of sensor binarized respectively,
From the binarized image, each feature amount of the detected object corresponding to the detection characteristics of the plurality of types of sensors is extracted,
The feature quantity corresponding to each extracted type of sensor is input to the input layer of each corresponding neural network, and the feature quantity corresponding to the extracted multiple types of sensors is input to the corresponding input layer of another neural network. To identify objects in the ground,
If it is identified as an object of interest by at least one of the neural networks, wherein that you determined that the detected.
複数種類のセンサの反射波の画像化情報をそれぞれ2値化する2値化手段と、
該2値化手段による2値化画像から、前記複数種類のセンサの検出特性に応じた検出物の特徴量をそれぞれ抽出する特徴量抽出手段と、
該特徴量抽出手段により抽出されたそれぞれの種類のセンサに対応する特徴量を、対応するそれぞれのニューラルネットワークの入力層に入力すると共に、抽出された複数種類のセンサに対応する特徴量を、対応する別のニューラルネットワークの入力層に入力して、地中の物体を識別する識別手段と、
を備え、
前記識別手段は、少なくともいずれか1つのニューラルネットワークにより対象とする物体であると識別した場合に、探知したものと判断することを特徴とする装置。In an apparatus for propagating the generated electromagnetic wave to the ground, detecting a reflected wave from the ground with a sensor, imaging the detection result, and detecting an object in the ground based on the state of the reflected wave imaged,
And binarizing means for binarizing each imaging information of the reflected waves of a plurality of types of sensors,
Feature quantity extraction means for extracting the feature quantities of the detected objects corresponding to the detection characteristics of the plurality of types of sensors from the binarized image by the binarization means;
The feature quantity corresponding to each type of sensor extracted by the feature quantity extraction means is input to the input layer of each corresponding neural network, and the feature quantity corresponding to the plurality of types of extracted sensors is handled. Identifying means for inputting into an input layer of another neural network to identify an object in the ground ,
Equipped with a,
The identification means, if it is identified as an object of interest by at least one of neural networks, characterized that you determined that the detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002365467A JP3642775B2 (en) | 2002-12-17 | 2002-12-17 | Method and apparatus for detecting an object in the ground, and moving body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002365467A JP3642775B2 (en) | 2002-12-17 | 2002-12-17 | Method and apparatus for detecting an object in the ground, and moving body |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004198195A JP2004198195A (en) | 2004-07-15 |
JP3642775B2 true JP3642775B2 (en) | 2005-04-27 |
Family
ID=32763012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002365467A Expired - Fee Related JP3642775B2 (en) | 2002-12-17 | 2002-12-17 | Method and apparatus for detecting an object in the ground, and moving body |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3642775B2 (en) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4688626B2 (en) * | 2005-10-21 | 2011-05-25 | 三菱スペース・ソフトウエア株式会社 | Radar image processing apparatus, structure height calculation method, radar image identification method, structure height calculation program, and radar image identification program |
JP4950474B2 (en) * | 2005-10-26 | 2012-06-13 | パナソニック株式会社 | Object detection device |
JP5521594B2 (en) * | 2010-02-05 | 2014-06-18 | 三菱電機株式会社 | Guided flying vehicle device |
JP2011247597A (en) * | 2010-05-21 | 2011-12-08 | Mitsubishi Electric Corp | Radar signal processor |
JP2012037204A (en) * | 2010-08-11 | 2012-02-23 | Yasuaki Iwai | Device and method for searching mine |
KR101362451B1 (en) | 2013-03-20 | 2014-02-12 | 국방과학연구소 | Method and device for determining a kind of land mind based on various characteristics |
JP5935108B1 (en) * | 2015-01-29 | 2016-06-15 | 防衛装備庁長官 | Front and side simultaneous monitoring type ground penetrating radar equipment |
US10775163B2 (en) | 2016-09-05 | 2020-09-15 | Mitsubishi Electric Corporation | Dielectric boundary surface estimation device |
JP7065422B2 (en) | 2017-07-21 | 2022-05-12 | パナソニックIpマネジメント株式会社 | Display control device, display control method and program |
KR101984266B1 (en) * | 2018-07-04 | 2019-05-30 | 한화시스템 주식회사 | Signal processing method and apparatus for ultra wide band ground penetrating radar based land mine detection |
KR102041200B1 (en) * | 2019-05-24 | 2019-11-06 | 한화시스템 주식회사 | Signal processing method and apparatus for ultra wide band ground penetrating radar based land mine detection |
KR102041199B1 (en) * | 2019-05-24 | 2019-11-06 | 한화시스템 주식회사 | Signal processing method and apparatus for ultra wide band ground penetrating radar based land mine detection |
KR102041198B1 (en) * | 2019-05-24 | 2019-11-06 | 한화시스템 주식회사 | Signal processing method and apparatus for ultra wide band ground penetrating radar based land mine detection |
CN110223342B (en) * | 2019-06-17 | 2022-06-24 | 电子科技大学 | Space target size estimation method based on deep neural network |
JP7322616B2 (en) * | 2019-09-12 | 2023-08-08 | 東京電力ホールディングス株式会社 | Information processing device, information processing method, program and drilling system |
JP7413049B2 (en) * | 2020-01-31 | 2024-01-15 | 日本信号株式会社 | Underground radar data processing method, data processing program, and underground radar device |
WO2021157065A1 (en) * | 2020-02-07 | 2021-08-12 | 三菱電機株式会社 | Buried object identification device, buried object identification method, and exploration device |
JP7361255B2 (en) * | 2020-03-10 | 2023-10-16 | 興亜開発株式会社 | Vertical magnetic survey analysis system, vertical magnetic survey analysis device, and computer readable program |
CN112731381A (en) * | 2020-12-16 | 2021-04-30 | 华南农业大学 | Method for intelligently detecting hard foreign matters in soil by utilizing android debugging bridge and vehicle-mounted radar |
JP7145249B2 (en) * | 2021-02-05 | 2022-09-30 | 株式会社日立製作所 | Buried object discrimination system and buried object discrimination method |
JP2022142602A (en) * | 2021-03-16 | 2022-09-30 | 独立行政法人国立高等専門学校機構 | Electromagnetic wave rader device and method for learning electromagnetic wave rader device |
KR102676249B1 (en) * | 2021-07-27 | 2024-06-19 | 국방과학연구소 | Method for detecting metal using recurrent neural network and method for training recurrent neural network |
CN115291200B (en) * | 2022-08-02 | 2024-09-03 | 广州迪升探测工程技术有限公司 | Digital display-based buried pipeline positioning method |
KR102711302B1 (en) * | 2023-08-09 | 2024-09-30 | 한국해양과학기술원 | Apparatus for detecting mines and method for detecting mines using the apparatus and recoding medium storing program to implement the method |
-
2002
- 2002-12-17 JP JP2002365467A patent/JP3642775B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004198195A (en) | 2004-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3642775B2 (en) | Method and apparatus for detecting an object in the ground, and moving body | |
Lameri et al. | Landmine detection from GPR data using convolutional neural networks | |
Gamba et al. | Neural detection of pipe signatures in ground penetrating radar images | |
Paik et al. | Image processing-based mine detection techniques: A review | |
CN103927514B (en) | A kind of Coal-rock identification method based on random local image characteristics | |
CN102928435A (en) | Aircraft skin damage identification method and device based on image and ultrasound information fusion | |
US5883969A (en) | Procedure and device for detecting the movement of a target and their applications | |
Lee et al. | Automatic target detection in GPR images using Histogram of Oriented Gradients (HOG) | |
Stanley et al. | Feature and decision level sensor fusion of electromagnetic induction and ground penetrating radar sensors for landmine detection with hand-held units | |
US8275172B2 (en) | Multipass data integration for automatic detection and classification of objects | |
Colreavy-Donnelly et al. | Shallow buried improvised explosive device detection via convolutional neural networks | |
CN103942576B (en) | A kind of method that multiple dimensioned random character in use spatial domain recognizes coal petrography | |
Ivashov et al. | Wide-span systems of mine detection | |
Ram et al. | Machine Learning based Underwater Mine Detection | |
Gharamohammadi et al. | Electromagnetic sensor to detect objects by classification and neural networks | |
Bossi et al. | Design of a robotic platform for landmine detection based on Industry 4.0 paradigm with data sensors integration | |
US5345242A (en) | Clutter rejection using connectivity | |
Peng et al. | Automated detection of lunar ridges based on dem data | |
RU2707710C1 (en) | Method of selecting a feature vector for recognizing images of objects | |
US20140067748A1 (en) | System and method for ocean object detection | |
Nath et al. | A geometrical feature based sensor fusion model of GPR and IR for the detection and classification of anti-personnel mines | |
Reichman et al. | gprHOG and the popularity of histogram of oriented gradients (HOG) for buried threat detection in ground-penetrating radar | |
Bhuiyan et al. | Anti-personnel landmine detection based on GPR and IR imaging: A review | |
Schultz et al. | Multisensor, Remotely-Operated force Protection Mine Detection | |
Larionova et al. | Multi-stage sensor fusion for landmine detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050125 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090204 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100204 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110204 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120204 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120204 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130204 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130204 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |