JP6446005B2 - 地中探査装置 - Google Patents
地中探査装置 Download PDFInfo
- Publication number
- JP6446005B2 JP6446005B2 JP2016161333A JP2016161333A JP6446005B2 JP 6446005 B2 JP6446005 B2 JP 6446005B2 JP 2016161333 A JP2016161333 A JP 2016161333A JP 2016161333 A JP2016161333 A JP 2016161333A JP 6446005 B2 JP6446005 B2 JP 6446005B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- exploration
- dimensional
- underground
- ground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Geophysics And Detection Of Objects (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
特に、地震や異常気象,老朽化等による地中や構造物の異常が増加しており、例えばコンクリート内部の劣化状況や道路路面下などの空洞調査を正確・迅速に行うことが急務となっている。
このため、地中探査技術の重要性は益々高まっている。
そして、一次調査で得られた探査データの解析の結果、地中に例えば空洞が生じていると思われる箇所があれば、その周辺領域を詳細に調査し、空洞の位置や大きさ,規模等を正確に把握するための二次調査が行われ、陥没の危険性等が判定・評価される。その後、道路管理者等によって、空洞の補修等の必要な措置が取られることになる。
従来の地中探査技術では、一次調査で得られた探査データに基づいて、手押し型のセンサ等を用いた現地での位置特定作業や、地上の構造物の形状や道路周辺物等の計測作業等を行う必要があり、そのような位置特定作業等が大きな負担となっていた。
このような、地中探査データを対応する地表面を示す地図や路面映像とともに表示する技術としては、例えば特許文献1に開示されている「地中探査方法」などに提案されている。
このため、地中探査データを、対応する地図や路面映像中の位置として確認しただけの状態で二次調査を行うと、実際に二次調査で地表を破壊・掘削等しても、目的とする空洞や埋設管等から位置がずれていたり、最悪の場合、空洞等の目的物が存在しない箇所を破壊等してしまうといった問題が発生した。
このため、地中探査データを地図等と並べて表示するだけではない、より正確で信頼性のある出力・表示等が望まれたが、これまで有効な技術や解決手段等は提案されていなかった。
このため、地中探査データと地表面の位置を正確に精度良く対応させるためには、GPSを用いた位置情報の取得・生成では不十分であり、特に空洞や埋設管等の位置をセンチメートルの範囲で特定する必要のなる地中探査技術では、より正確で信頼性の高い位置情報の取得が望まれていた。
このような形態では、地中レーダ等のセンサから路面・地表までの距離が大きく、また、探査車両の移動や振動等にセンサが追従することができず、正確なデータを取得するのには一定の限界があった。また、レーダ等が車両の前方や後方に突出したりけん引される形態では、路側や障害物等と干渉・衝突するおそれがあり、また、むき出しのレーダ等は、路面や路面からの異物などの跳ね返りなどによって破損等する危険性もあった。
このため、探査車両やセンサの構成や配置等に更なる改善が望まれたが、現在までに有効な解決手段等は実現されていない。
これによって、地中探査データと地表面の情報を、単に並べて表示させるのではなく、地中探査データと地表面の情報を一元化された単一の情報として生成・表示させることができ、空洞や埋設管等を示す地中探査データを、地表面を示す正確なオルソ画像中に一体的に表示・出力させることが可能となる。
したがって、本発明によれば、従来にはない正確・高精度な地中探査を実現することができる。
ここで、以下に示す本発明の地中探査装置における地中三次元情報・地上三次元映像の生成・出力・一元化処理・カメラベクトル演算等は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示す本発明に係る所定の処理や機能等を行わせることができる。
すなわち、本発明における各処理や手段,機能は、プログラムとコンピュータとが協働した具体的手段によって実現される。
また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。また、本発明に係る地中探査装置に備えられる、単一の情報処理装置(例えば1台のパーソナルコンピュータ等)で構成することもでき、複数の情報処理装置(例えば複数台のコンピュータ群等)で構成することもできる。
図1に、本発明の一実施形態に係る地中探査装置の構成を示す。
同図に示す本発明の一実施形態に係る地中探査装置は、探査車両10と、探査車両10に搭載される三次元地中レーダ20及び全方位カメラ30を備える構成となっている。
そして、図1に示すように、探査車両10が探査対象となる任意の路面を走行しながら、三次元地中レーダによって路面下の地中三次元情報を取得・生成するとともに、全方位カメラ30によって路面上の地上三次元映像を取得・生成し、その後、地中三次元情報と地上三次元映像とを、一元化された単一の三次元情報(後述する図7参照)として生成・出力するようになっている。
以下、地中探査装置の各構成を具体的に説明する。
探査車両10は、地中探査の対象・範囲となる道路や地面などの路面を走行可能な車両であり、例えば乗用車やトラック,ライトバン,各種作業車,軽自動車などの自動車で構成される。なお、探査対象・目的となる所望の路面を走行可能である限り、探査車両10の具体的な構成は特に限定されるものではない。
図2に、本実施形態の探査車両10の動作イメージを模式的に示す。
同図(a)に示すように、探査車両10には、屋根上面に車載装備としてのGPS(高精度GNSS)11が取り付けられ、車両底面に三次元地中レーダ20のアンテナ22が、屋根後方に全方位カメラ30が配置されている。
また、探査車両10の車内には、三次元地中レーダ20のレーダ本体21が配置されるとともに、CV演算部40,一元化処理部50が備えられる。なお、CV演算部40及び一元化処理部50は、具体的には所定のソフトウェア(プログラム)が実装されたPCなどの情報処理装置で構成される。
探査車両10に備えられる三次元地中レーダ20は、探査車両10が走行する路面下の地中三次元情報を生成するための地中探査手段(センサ)であり、図2に示すように、探査車両10の車内に搭載されるレーダ本体21と、探査車両10の底面に配置されるアンテナ22とで構成される。
本実施形態に係る三次元地中レーダ20は、地中の物理的境界面で電磁波が反射する現象を利用して地中の空洞や埋設管等の存在を探査・検出する物理探査レーダであり、レーダ本体21の制御によってアンテナ22から電磁波を送受信させながら探査車両10を所定速度(例えば最大時速60km)で走行させることで、地下2mまでの情報を三次元で簡単にマッピングすることが可能となっている(後述する図4参照)。
ここで、従来技術の手押し型のセンサ等で使用されていた地中レーダは1チャンネル(シングルチャンネル)であった。シングルチャンネルは、電磁波の発信と受信のセンサが一対となっているアンテナ方式である。
従来はシングルチャンネルのアンテナを複数並べて、例えば約0.5mピッチで二次元断面の情報を取得していたのに対して、本実施形態に係るマルチチャンネルアンテナは、例えば7.5cmピッチで高密度に配置することで、地中の状態を高精細な三次元情報として取得できる。
このように三次元地中レーダ20のアンテナ22を探査車両10の底面に配置することにより、図2(b)に示すように、探査対象となる路面を複数回(例えば同じ道路を2回)、車幅方向にずらして走行させることで、アンテナ22の電磁波の照射範囲(照射幅)を超える道路であっても、路面の全幅にわたる地中探査データを取得することができる。図2(b)では、探査車両10を同一路面で2回走行させることにより、7.5cm間隔の地中探査データを、道路幅2.5mの全範囲で取得できる場合を示している。
エア型は、未舗装地帯の地雷撤去での使用を想定しており、アンテナを地表より約20〜30cm浮かせて測定を行うようになっている。このため、車両の前方に大きく突出するように取り付けたり、車両でけん引するなど、車両への装着等は簡単にできるが、アンテナと地表の距離が大きいことから、電磁波が減衰して探査深度が浅くなるという欠点がある。
このように、従来のエア型は、地表から20〜30cm浮かせる必要があるアンテナ特性と、アンテナ自体の高さも約20cmと厚さがあるため、アンテナを直接車両に配置する車載型(グランド型)としては使用できなかった。
このため、電磁波が減衰しにくく、探査深度はエア型と比較して約1.5〜2倍程度深くなる。
また、グランド型は、可能な限りアンテナを地表に近接させることができ、また、車両に直接配置するために、アンテナ高さも10cm程度と薄いため、地中探査における測定の安定性及び安全性に優れる。
具体的には、上述したノルウェーの3d−Radar社製のグランド型アンテナを採用し、三次元地中レーダ20のアンテナ22を、探査車両10の前後輪の車軸間(ホイルベース間)に取り付けるようにしている。
3d−Radar社のグランド型アンテナは、従来製品のエア型アンテナや他社のグランド型アンテナに比べて、アンテナ高さが半分以上薄く、自動車等の前後輪車軸間の最も安定した位置に設置することが可能となる。
・探査車両10の車両全長を短くすることにより内輪差を小さくできる。
・探査車両10の車両全長を短くすることにより小回りがきく。
・けん引型のように後方を気にする必要がない。
・けん引型に比べて後進が容易になる。
・後輪後方設置型よりアンテナが路面に対して一定の高さになり、安定したデータが取得できる。
なお、探査車両10のホイルベース間に配置されるアンテナ22の位置は、探査車両10の前輪と後輪の間、あるいは複数の車輪の間において、車長方向の最適な位置に配置される。すなわち、探査車両10の車長や前後輪の配置,レーダの出力や特性などに応じて、探査車両10の車長方向(車両進行方向の前後)の適切・最適な位置にアンテナ22を配置する。
したがって、アンテナ22は、探査車両10の車長方向に移動可能・調整可能に構成されることが好ましい。
具体的には、図3(a),(b)に示すように、三次元地中レーダ20のアンテナ22を、探査車両10の車幅方向の左右にスライド移動できるようになっており、車幅方向の所望の位置で固定可能となっている。これによって、探査対象となる路面の大きさ(道路幅)に応じて、アンテナ22を移動・調整することができ、様々な大きさ(幅)の路面に対応することができる。
このように、三次元地中レーダ20のアンテナ22を探査車両10のホイルベース間において車幅方向に移動可能とすることで、アンテナ幅(例えば1.8m)のアンテナ1台を探査車両の左右寄りにスライドさせて複数回(例えば2回)走行することで、アンテナ幅を超える範囲(例えば最大3.5m)の幅でデータを取得することができる(図3参照)。
また、図3に示すように、探査車両10の側面左右への飛び出しは、片側15cm程度とすることで、例えば従来のエア型アンテナで使用されている2.5m幅のアンテナに比べて、路側の障害物や第三者等との接触事故の危険性を抑制乃至回避することできる。
また、アンテナ22の移動構造も、スライド構造や、ボルト等による固定位置を複数設ける段階構造など、アンテナ22を車幅方向に移動できる限り、特に限定されるものではない。
また、アンテナ22は、探査車両10の底面に露出した剥き出しの状態で配置することもできるが、異物の跳ね返りや衝突、地面や障害物との接触等による破損などに備えて、アンテナ22の全部又は一部をカバー等で覆うこともできる。例えばアンテナ22の電磁波の送受信に影響のないプラスチック製のカバーを備えることができる。
図4(a)に示すように、探査車両10の走行に伴って移動する三次元地中レーダ20では、マルチチャンネルのアンテナ22によって、所定間隔(例えば7.5cmピッチ)で地中の二次元情報が車両進行方向に沿って取得され、地中三次元情報として取得・生成される。
このような地中三次元情報は、図4(b)に示すように、アンテナ22の配列方向(車幅方向)とアンテナ22の進行方向(車長方向)の地中データによって、地中の垂直断面(アンテナ方向)・垂直断面(進行方向)・水平断面の三次元の地中断面情報を示しており、これらを画像生成することで、地中の三次元画像情報として出力することができる。
なお、これらの地中三次元情報の生成・出力は、三次元地中レーダ20のレーダ本体21や、レーダ本体21に接続されるPC等によって行われる。
全方位カメラ30は、探査車両10の例えば屋根上面などに配置され、探査車両10が走行する路面上の地上三次元映像を生成する地上映像生成手段である。
具体的には、全方位カメラ30は、走行する探査車両10の周囲を360°撮影できる1台又は複数台のビデオカメラであり、探査車両10の走行に伴って、上述した三次元地中レーダ20が取得する地中データに対応する、地上の三次元映像(全周映像)を撮像できるようになっている。
全方位カメラ30は、周囲360°の全周映像を撮像できるため、例えば図5(a)に示すように、路面を走行する探査車両10を中心とした半径15mの地上の状態・風景が撮像される。同図の例では、全幅員14.55m,有効幅員13.75mの道路や橋梁等で、片側車線の中央を走行する探査車両10を中心とした車道部3.5m,路肩0.5m,側帯0.5m,歩道部2.0m,分離帯0.75,地覆0.4mの範囲について、360°の全周映像が撮像・取得できることが分かる。
また、図5(b)に示すように、路面を走行する探査車両10を中心とした半径40mの範囲で地上の状態・風景が撮像され、路面横にある斜面(法面)についても360°の全周映像が撮像・取得できることが分かる。
図5(c)は、全方位カメラ30で撮像された360°の全周映像の出力例である。
一般に、探査車両を構成する自動車等に搭載されているGPSや4方向カメラによる位置情報は、GPSの受信状況により例えば0.5m〜数m程度の誤差が出る。このため、それだけでは任意の異常箇所等の位置特定を行うことは困難である。また、トンネルの中や高架橋の下ではGPSが受信できないので、位置情報は車両に搭載された4方向カメラの映像のみとなり、任意の箇所の位置特定は更に困難となる。
そこで、本実施形態では、全方位カメラ30で取得された360°全周映像に基づいて、カメラベクトル演算部40において所定のカメラベクトル演算を行うことで、GPSに依ることなく、また、現地での測量・計測等を行うことなく、高精度な三次元地上マッピングを行うようになっている。
CV(カメラベクトル)演算部40は、上述した全方位カメラ30で撮像された地上三次元映像の画像データから、高精度の位置情報を演算により算出・生成することができるカメラベクトル演算手段である。
具体的には、本実施形態に係るCV演算部40は、所定数の特徴点を自動抽出する特徴点抽出部41と、抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部42と、対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部43などの手段で構成される(後述する図8参照)。
カメラベクトル演算は、本出願人に係る特許第4446041号公報等で開示している技術であり、360°全周映像の中に特徴点を自動抽出し、それを隣接する複数フレームにトラッキングし、カメラ移動のベースとトラッキング点で校正する三角形を構成し、そのトラッキングデータを解析することで、特徴点の三次元座標と、カメラ位置と姿勢を持つ全周CV(カメラベクトル)映像を取得するものである。
これによって、任意の全周映像について、CV値を生成・付与することができ、このCV値に基づいて、全周映像と、上述した三次元地中レーダ20で取得された地中三次元情報とを一元化する三次元情報一元化処理が実行される。
このCV演算部40におけるCV演算の具体的な詳細内容については、図8〜17を参照しつつ後述する。
一元化処理部50は、三次元地中レーダ20で生成される地中三次元情報と、全周カメラ30で生成される地上三次元映像を、所定のデータ一元化処理により、地中から地上空間まで一元化された三次元情報として生成する三次元情報一元化処理手段である。
具体的には、本実施形態に係る一元化処理部50は、上記のCV演算部40で生成されるカメラベクトルと、三次元地中レーダ20で取得された地中三次元情報が有する位置座標情報に基づいて、地中三次元情報と地上三次元映像を一元化する。
同図に示すように、本実施形態の一元化処理では、まず、三次元地中レーダ20で取得された地中探査データ(ステップ1)と、全方位カメラ30で取得された地上の360°全周映像(ステップ2)が、一元化処理部50に入力される。
このとき、三次元地中レーダ20で取得された地中探査データには、探査車両10に搭載されたGPS(高精度GNSS)11で取得される位置情報や時間情報などに基づく位置情報が含まれている。
全方位カメラ30の360°全周映像には、探査車両10に搭載されたGPS(高精度GNSS)11で取得される位置情報や時間情報などに基づく位置情報が含まれ、また、上述したCV演算部40において演算処理され(ステップ3)、三次元一座標となるCV値が付与されている。
これにより、地中探査データは、位置座標としてCV値が与えられた高精度マッピングされた地中三次元情報となる(ステップ5)。
また、360°全周映像は、オルソ画像処理されて、CV値が付与された高精度のオルソ画像からなる地上三次元映像として生成される(ステップ6)。ここで、オルソ画像の生成は、公知の画像生成技術を用いることができるが、本実施形態では、CV値が付与された全周映像に基づくことで、高精度なオルソ画像を生成・出力することができる。具体的には、CV値を位置情報として、360°全周映像を中心投影から真上から見たような歪みがない正射投影画像に変換し、複数の正射画像をつなぎ目が目立たないよう接合(モザイク)して、統合された一枚のオルソ画像を生成し、所望の範囲や大きさに分割されたオルソ画像データを生成・記憶することができる。
その後、対応するCV値に基づいて、地中三次元情報とオルソ画像からなる地上三次元映像が一元化処理され、地中地上一元化データとして生成・出力される(ステップ7)。
また、オルソ画像は、真上から見たような歪のない画像に変換し、位置情報を付与したもので、路面のオルソ画像は三次元座標データが付加された全方位カメラの映像から生成することができる。このようなオルソ画像は、平面地図と同様の精度を持つため、三次元地中レーダ結果を表示するのに適した画像となる。
図7(a)は、三次元地中レーダ20により得られた空洞及び埋設管の地下情報と、路面ひび割れ等の地上情報を、CV演算部40で求められた三次元位置情報から生成した路面のオルソ画像に一元化した出力結果である。同図に現れる路面のひび割れや陥没状況は、画像解析により読み取ることができる。
図7(b)は、三次元地中レーダ20で発見された橋梁床板の内部の異常(鉄筋腐食)を、CV演算部40で求められた三次元位置情報から生成した路面のオルソ画像と併記したものである。このような情報により、鉄筋腐食の位置が明確となり、次回調査や補修工事後の時系列のデータ変化を視覚的に比較し、データベース化することができる。また、異常箇所のデータベース化は、例えば補修計画等の維持管理に役立つ有用な情報となる。
このような本実施形態に係る一元化処理画像は、例えばPC等の情報処理装置で任意に加工・編集したり、表示装置(ディスプレイ)で表示させることができ、また、プリンタ等の印刷装置で印刷することができる。
(1)高精度三次元座標が得られるため、二次元地中レーダによる位置特定が不要になる。
(2)位置補正装置により、トンネルや高架橋のGPSが受信できない場所でも高精度の三次元座標を得ることができる。
(3)効率よく地上の高精度三次元座標が得られるので、現地で構造物の形状や道路周辺物などを計測する必要がない。
(4)三次元地中レーダの地下情報と、全周カメラ30及びCV演算部40の地上情報のデータベース化で一元管理ができる。
(5)高精度のオルソ画像による視覚情報から、次回調査や補修工事後との比較といった情報の時系列管理ができる。
(6)オルソ画像は平面地図と同様の精度を持ちながら、視覚的に地図より優れているので、発注者に効果的な成果が提供できる。
(7)調査の効率化、一元化に及び映像から簡単に高精度の三次元座標情報が得られることから、災害時の供給道路の安全確保などの緊急時に迅速な対応ができる。
次に、上述した本実施形態に係る地中探査装置のCV演算部40で実行されるCV演算の具体的な内容について、図8〜図25を参照しつつ説明する。
上記のとおり、CV演算とはCV値を求める方法の一つであり、CV演算により求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:CameraVectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
但し、CV値は、例えば、他の方法による計測手段(GPSとジャイロ、又はIMU等)より求めることもできる。従って、CV値の取得はCV演算による場合には限られない。
なお、GPSとジャイロ、又はIMU等によりCV値を取得する場合には、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、かつ完全に同期させる必要がある。
また、CVデータを画像から取得する場合は、取得されたデータは相対値であり、絶対値に変換するには既知の地点でのキャリブレーションが必要であるが、CV値と同時に取得される特徴点三次元位置座標と姿勢により、又は新たに画像内に指定して取得した特徴点により、画像内の任意の対象物との位置関係を計測することができるという、他の方法では実現困難な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像との相性が良く、画像から取得したCV値である限り、その画像内では矛盾が無いので、画像以外から求めるCV値と比較して、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明では、このCV演算により得られたCV値データに基づいて、上述した地上オルソ画像の生成、地中三次元データと地上オルソ画像の一元化処理画像を生成するものである。
CV演算部40は、上述した全方位カメラ30で撮像されるビデオ映像について所定のCV演算処理を行うことでCV値を求めるようになっており、具体的には、図8に示すように、特徴点抽出部41と、特徴点対応処理部42と、カメラベクトル演算部43と、誤差最小化部44と、三次元情報追跡部45と、高精度カメラベクトル演算部46とを備えている。
また、映像は、一般には予め記録した動画映像を使うことになるが、自動車等の移動体の移動に合わせてリアルタイムに取り込んだ映像を使用することも勿論可能である。
全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図9参照)、これを例えば等距離図法のように平面展開表示することで、通常の遠近法映像に変換表示できるからである。
なお、探査車両10には、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、探査車両10に搭載される全方位カメラ30としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、上述したように、探査車両10に一台又は複数台のカメラが一体的に固定され、探査車両10の移動に伴って広範囲映像を撮影する全方位カメラ30を使用している。
ここで、全方位カメラ30は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図9(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
CV演算部40では、まず、特徴点抽出部41が、全方位カメラ30で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部42は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部43は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部44は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
高精度カメラベクトル演算部46は、三次元情報追跡部45で得られた追跡データに基づいて、カメラベクトル演算部43で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが、上述した一元化処理部50に入力され、地上オルソ画像の生成、地中三次元データと地上オルソ画像の一元化処理に利用されることになる。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することで、三地点の座標で構成される単位の三角形を、その十倍以上の多くの特徴点から求めることになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の係数を決定することである。
まず、上述した全方位カメラ30で取得された画像データは、間接に又は直接に、CV演算部40の特徴点抽出部41に入力され、特徴点抽出部41で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部42で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図10〜図12に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図12に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図13に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図13の○印参照)、例えば、100点程度の特徴点を抽出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。また、これを三角測量として説明すれば、方位と俯角仰角を測量する機器を車載して、対象となる複数の測量地点を、移動する測量機器により同一対象物を計測して取得したデータから、各対象地点の座標と測量機器の移動の軌跡を求める場合と同じである。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、全周映像は対象物の方向がそのまま緯度経度で表現されていることから、きわめて有利である。図12に示す360度全周画像のような広角レンズによる画像の方が特徴点を数多く選択し、複数フレームに渡って追跡し易くなる。また、狭角レンズによる映像あっても、同一対象物の周りを移動しながら様々な方向から撮影する場合には特徴点が視界から逃げないので有効である。
なお、図12は、CV演算部2における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
さらに、誤差の分布が大きい特徴点については削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図14では、図12の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図15及び図16は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
具体的には、CV演算部40では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。
具体的には、まず、三次元情報追跡部45で、カメラベクトル演算部43,誤差最小化部44を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部45で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部46においてより高精度なカメラベクトルが求められる。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部43により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
例えば、図18に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねて表示した画像例を図18に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図18に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
まず、CV演算に基づく高精度三次元座標が得られるため、上述した従来技術のような手押し型のセンサ等による位置特定工程が不要になり、地中データが一元化されたオルソ画像のみによって空洞・埋設管等の地中対象物を特定することが可能となる。
特に、従来技術では、例えば車両の前後左右を撮影する4方向カメラとGPSによる簡易位置特定に基づく位置特定作業が必須であったことから、本実施形態による効果は非常に大きなものとなる。
また、このようにCV演算により効率良く地上の高精度三次元座標が得られることから、検出位置特定のために、例えば現地での構造物の形状や道路周辺物等を計測する工程なども不要となり、作業効率は格段に向上することになる。
また、このように一元管理された地下・地上情報のデータベースは、例えば米国ESRI社製「ArcGIS」(登録商標)など、GIS(地理情報システム:Geographic Information System)関連のソフトウェア(アプリケーション)に対応させることができ、取扱性や汎用性,拡張性等にも優れたデータベース管理が可能となる。
また、本実施形態で得られるオルソ画像は、例えば1/500の平面図(地図)と同じ精度を持ちながら、映像に基づいて視覚的に現地状況等を把握することでき、視覚的に地図等より優れ、単なる平面図(地図)では得られない有用な付加価値のある成果・情報を提供することができる。
さらに、本実施形態の地中探査装置によれば、探査車両を走行させるだけで、探査結果の全方位連続一元化処理及び映像から、簡単に高精度の三次元座標情報が得られることから、空洞等の地中探査だけでなく、例えば災害時の緊急輸送道路等の安全確保等、緊急時にも迅速な対応ができるという優れた効果もある。
したがって、本実施形態によれば、地中探査データと地表面の情報を、従来技術のような地中探査データと平面図(地図等)を単に並べて表示させたものとは異なる、地中探査データと地上のオルソ画像を一元化した単一の三次元情報として生成・表示させることができる。これによって、空洞や埋設管等を示す地中探査データを、地上の映像を示す正確なオルソ画像中に一体的に表示させて特定・把握でき、従来技術では得られない正確・高精度な地中探査が可能となる。
例えば、上述した実施形態では、本発明に係る地中探査手段(センサ)として、電磁波を利用したレーダ(三次元地中レーダ20)を例に取って説明したが、地中探査手段は、地中の三次元情報を取得・生成できる限り、電磁波を用いるレーダに限定されるものではない。具体的には、地中探査手段としては、電磁波を用いる場合の他、地震波や電気比抵抗,超音波,レーダなどを用いるセンサ等であっても良い。
11 GPS(高精度GNSS)
20 三次元地中レーダ(地中探査手段)
21 レーダ本体
22 アンテナ
30 全方位カメラ(地上映像生成手段)
40 CV(カメラベクトル)演算部
50 一元化処理部(三次元情報一元化処理手段)
Claims (2)
- 前輪及び後輪を含む複数の車輪を備え、路面を走行可能な自動車からなる探査車両と、
前記探査車両に配置され、当該探査車両が走行する路面下の地中三次元情報を生成する地中探査手段と、
前記探査車両に配置され、当該探査車両が走行する路面上の地上三次元映像を生成する地上映像生成手段と、
前記地中探査手段で生成される地中三次元情報と、前記地上映像生成手段で生成される地上三次元映像を、所定のデータ一元化処理により、地中から地上空間まで一元化された三次元情報として生成する三次元情報一元化処理手段と、を備え、
前記地中探査手段が、前記探査車両の底面の、前記前輪と後輪の間、あるいは前記複数の車輪の車軸間に配置され、
前記地上映像生成手段が、前記探査車両が走行する路面上の地上三次元映像を真上から見た正射投影画像に変換した地上オルソ画像を生成し、
前記三次元情報一元化処理手段が、前記地中三次元情報を、前記地上オルソ画像中に一体的に表示した一元化処理画像を生成する
ことを特徴とする地中探査装置。 - 前記地上映像生成手段が、
前記地上三次元映像の画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、
抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部と、を有するカメラベクトル演算手段を備え、
前記三次元情報一元化処理手段が、
前記カメラベクトル演算手段で生成されたカメラベクトルと、前記地中三次元情報が有する位置座標情報に基づいて、前記地中三次元情報と前記地上三次元映像を一元化する
ことを特徴とする請求項1記載の地中探査装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016161333A JP6446005B2 (ja) | 2016-08-19 | 2016-08-19 | 地中探査装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016161333A JP6446005B2 (ja) | 2016-08-19 | 2016-08-19 | 地中探査装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018028507A JP2018028507A (ja) | 2018-02-22 |
JP6446005B2 true JP6446005B2 (ja) | 2018-12-26 |
Family
ID=61247868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016161333A Active JP6446005B2 (ja) | 2016-08-19 | 2016-08-19 | 地中探査装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6446005B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7162208B2 (ja) * | 2018-06-22 | 2022-10-28 | 株式会社カナン・ジオリサーチ | 含水比マッピング方法及び含水比マッピング装置 |
JP7271116B2 (ja) * | 2018-09-18 | 2023-05-11 | 日本信号株式会社 | 画像処理方法、画像処理装置、及び地中レーダ装置 |
JP7227533B2 (ja) * | 2019-05-27 | 2023-02-22 | 日本電信電話株式会社 | 地中レーダ装置及び計測方法 |
JP2021070945A (ja) * | 2019-10-30 | 2021-05-06 | 中日本ハイウェイ・エンジニアリング名古屋株式会社 | 透視図を用いた高速道路コンクリート床版の内部欠陥検出表示方法及びそのシステム |
JP2021117199A (ja) * | 2020-01-29 | 2021-08-10 | 株式会社日立情報通信エンジニアリング | 埋設物情報生成システム、及び埋設物情報生成方法 |
CN113704945B (zh) * | 2021-10-25 | 2022-01-07 | 武汉幻城经纬科技有限公司 | 管网道路的关联分析方法及装置、存储介质、电子设备 |
WO2024047798A1 (ja) * | 2022-08-31 | 2024-03-07 | 日本電信電話株式会社 | データ解析装置、探査システム、データ解析方法、及びプログラム |
KR102590442B1 (ko) * | 2023-04-17 | 2023-10-19 | 주식회사 제이에스이앤씨 | 야간 주행을 위한 차량형 gpr 탐사장치 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04194693A (ja) * | 1990-11-28 | 1992-07-14 | Mitsui Eng & Shipbuild Co Ltd | 道路空洞探査レーダシステム |
JPH0990029A (ja) * | 1995-09-20 | 1997-04-04 | Japan Radio Co Ltd | 地中レーダ |
JP4511147B2 (ja) * | 2003-10-02 | 2010-07-28 | 株式会社岩根研究所 | 三次元形状生成装置 |
JP2008111725A (ja) * | 2006-10-30 | 2008-05-15 | Tokyo Electric Power Co Inc:The | 葉面積指数算出装置、葉面積指数算出方法及びそのプログラム |
JP5671184B1 (ja) * | 2013-11-06 | 2015-02-18 | アジア航測株式会社 | 断層図作成装置及び断層図作成方法並びに断層図作成プログラム |
JP6381100B2 (ja) * | 2013-11-07 | 2018-08-29 | 株式会社環境総合テクノス | 3次元路面下診断システムおよび3次元路面下診断方法 |
-
2016
- 2016-08-19 JP JP2016161333A patent/JP6446005B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018028507A (ja) | 2018-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6446005B2 (ja) | 地中探査装置 | |
US20230010498A1 (en) | System and method for data acquisition | |
JP6694395B2 (ja) | デジタル地図に対する位置を決定する方法およびシステム | |
JP4273119B2 (ja) | ナビゲーション装置 | |
Li | Mobile mapping: An emerging technology for spatial data acquisition | |
JP5227065B2 (ja) | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 | |
JP4767578B2 (ja) | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 | |
US11237005B2 (en) | Method and arrangement for sourcing of location information, generating and updating maps representing the location | |
US11818625B2 (en) | Sensitive area management | |
JP4980606B2 (ja) | 移動型自動監視装置 | |
US20130236107A1 (en) | Moving image processing device, moving image processing method, and recording medium having moving image processing program | |
JP2018081008A (ja) | 基準映像地図を用いた自己位置姿勢標定装置 | |
CN112292582A (zh) | 用于生成高清晰度地图的方法和系统 | |
JP7162208B2 (ja) | 含水比マッピング方法及び含水比マッピング装置 | |
US11733041B2 (en) | Apparatus and method for fault-proof collection of imagery for underwater survey | |
JP2022553750A (ja) | 地中線ネットワークのインフラストラクチャ要素を検出する方法およびその移動型検出装置 | |
Soheilian et al. | Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas | |
JP4545093B2 (ja) | 3d自動測量装置 | |
Matthies et al. | Visual localization methods for Mars rovers using lander, rover, and descent imagery | |
JP2000338865A (ja) | デジタル道路地図のデータ収集装置 | |
KR101730296B1 (ko) | 지하매설물 3차원 공간정보 구축을 위한 모바일 매핑 시스템 및 그 매칭 시스템을 이용한 지하매설물 3차원 공간정보 구축방법 | |
JP2007114916A (ja) | 新旧映像座標統合装置 | |
Tamimi et al. | Performance Assessment of a Mini Mobile Mapping System: Iphone 14 pro Installed on a e-Scooter | |
Sukumar et al. | Multi-sensor integration for unmanned terrain modeling | |
JP6168380B2 (ja) | 障害物検出方法、及び障害物検出システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171122 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180928 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6446005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |