JP2018028507A - Underground survey device - Google Patents

Underground survey device Download PDF

Info

Publication number
JP2018028507A
JP2018028507A JP2016161333A JP2016161333A JP2018028507A JP 2018028507 A JP2018028507 A JP 2018028507A JP 2016161333 A JP2016161333 A JP 2016161333A JP 2016161333 A JP2016161333 A JP 2016161333A JP 2018028507 A JP2018028507 A JP 2018028507A
Authority
JP
Japan
Prior art keywords
image
underground
exploration
dimensional
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016161333A
Other languages
Japanese (ja)
Other versions
JP6446005B2 (en
Inventor
潤 篠原
Jun Shinohara
潤 篠原
務 馬場
Tsutomu Baba
務 馬場
茂之 中前
Shigeyuki Nakamae
茂之 中前
岩根 和郎
Kazuo Iwane
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canaan Geo Res Ltd
Canaan Geo Research Ltd
IWANE LABORATORIES Ltd
Original Assignee
Canaan Geo Res Ltd
Canaan Geo Research Ltd
IWANE LABORATORIES Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canaan Geo Res Ltd, Canaan Geo Research Ltd, IWANE LABORATORIES Ltd filed Critical Canaan Geo Res Ltd
Priority to JP2016161333A priority Critical patent/JP6446005B2/en
Publication of JP2018028507A publication Critical patent/JP2018028507A/en
Application granted granted Critical
Publication of JP6446005B2 publication Critical patent/JP6446005B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to acquire accurate and precise data as underground survey data while effectively protecting a sensor for underground survey, and create and display the underground survey data and information on the ground surface as single centralized information.SOLUTION: An underground survey device comprises: a survey vehicle 10 that includes a plurality of wheels including front wheels and rear wheels and can travel on a road surface; a three-dimensional underground radar 20 that is arranged in the survey vehicle 10 and creates underground three-dimensional information on the underground below the road surface on which the survey vehicle 10 travels; and an omnidirectional camera 30 that creates an overground three-dimensional video over the road surface on which the survey vehicle 10 travels. The three-dimensional underground radar 20 is arranged on a bottom face of the survey vehicle 10 between the front wheels and rear wheels or between axles of the plurality of wheels.SELECTED DRAWING: Figure 1

Description

本発明は、地中レーダ探査に代表される、地震波や電気比抵抗,電磁波,超音波等に対する地盤の物理的性質を利用して、地中(地下)の状況を非破壊で間接的に探査・調査する地中探査技術に関する。   The present invention uses the physical properties of the ground against seismic waves, electrical resistivity, electromagnetic waves, ultrasonic waves, etc., as represented by underground radar exploration, and conducts non-destructive and indirect exploration of underground conditions. -Regarding the underground exploration technology to be investigated.

近年、道路やトンネル,橋梁,港湾施設などの社会インフラの老朽化に伴い、それらの施設を補修して寿命を延ばし、安全な社会環境を維持することが求められており、そのために道路等の構造物の調査・診断を行うための地中探査技術が極めて重要となっている。
特に、地震や異常気象,老朽化等による地中や構造物の異常が増加しており、例えばコンクリート内部の劣化状況や道路路面下などの空洞調査を正確・迅速に行うことが急務となっている。
このため、地中探査技術の重要性は益々高まっている。
In recent years, along with the aging of social infrastructure such as roads, tunnels, bridges, and harbor facilities, it is required to repair those facilities to extend their life and maintain a safe social environment. Underground exploration technology for investigating and diagnosing structures is extremely important.
In particular, there is an increase in underground and structural abnormalities due to earthquakes, abnormal weather, aging, etc. For example, it is an urgent task to accurately and promptly conduct cavity surveys such as deterioration inside concrete and under road surfaces. Yes.
For this reason, the importance of underground exploration technology is increasing.

地中探査は、例えば舗装道路下における空洞探査の場合は、地中に向けて電磁波を投射して地中からの反射波を受信する地中レーダ等のセンサを搭載した探査車両を用意し、探査車両を一般車両と同様に道路を走行させながらセンサで得られた探査データを記録し、記録した探査データを解析することで、地中に存在する空洞や亀裂,埋設管などの存在や位置を特定する一次調査が行われる。
そして、一次調査で得られた探査データの解析の結果、地中に例えば空洞が生じていると思われる箇所があれば、その周辺領域を詳細に調査し、空洞の位置や大きさ,規模等を正確に把握するための二次調査が行われ、陥没の危険性等が判定・評価される。その後、道路管理者等によって、空洞の補修等の必要な措置が取られることになる。
Underground exploration, for example, in the case of hollow exploration under a paved road, prepare an exploration vehicle equipped with a sensor such as an underground radar that projects electromagnetic waves toward the ground and receives reflected waves from the ground, Record the exploration data obtained by the sensor while driving the exploration vehicle on the road in the same way as a general vehicle, and analyze the recorded exploration data, so that the presence and location of cavities, cracks, buried pipes, etc. that exist in the ground A primary survey is conducted to identify
As a result of analysis of the exploration data obtained in the primary survey, if there is a part that seems to have a cavity in the ground, for example, the surrounding area is investigated in detail, and the position, size, scale, etc. of the cavity A secondary survey is conducted to accurately grasp the situation, and the risk of depression is determined and evaluated. After that, necessary measures such as repair of cavities will be taken by road managers.

このような地中探査の一次調査で得られる探査データは、探査車両の走行方向における道路下の縦断面や横断面を波形データとして得るものであるが、データ中に示される地中の対象物、例えば空洞や埋設管などが、地表面から見てどの位置に存在するかを特定することが必要となる。
従来の地中探査技術では、一次調査で得られた探査データに基づいて、手押し型のセンサ等を用いた現地での位置特定作業や、地上の構造物の形状や道路周辺物等の計測作業等を行う必要があり、そのような位置特定作業等が大きな負担となっていた。
The exploration data obtained in the primary survey of such underground exploration is obtained as waveform data of vertical and horizontal sections under the road in the traveling direction of the exploration vehicle, but the underground object indicated in the data For example, it is necessary to specify the position where a cavity or a buried pipe is present from the ground surface.
In conventional underground exploration technology, based on the exploration data obtained in the primary survey, location work using a hand-held sensor, etc., and measurement work such as the shape of structures on the ground and road surroundings Etc., and such position identification work has been a heavy burden.

ここで、このような従来の地中探査技術における地中探査データに基づく位置特定作業の負担を軽減するために、一次調査で得られた探査データを、対応する地表面を示す地図や路面映像などとともに配置・表示することで、空洞,埋設管等の位置や大きさなどを、地図や路面映像中の位置として特定することが行われている。
このような、地中探査データを対応する地表面を示す地図や路面映像とともに表示する技術としては、例えば特許文献1に開示されている「地中探査方法」などに提案されている。
Here, in order to reduce the burden of the location work based on the underground exploration data in such conventional underground exploration technology, the exploration data obtained in the primary survey is converted to a map or road surface image showing the corresponding ground surface. The positions and sizes of cavities, buried pipes and the like are specified as positions in maps and road surface images by arranging and displaying them together.
As such a technique for displaying the underground exploration data together with a map showing the corresponding ground surface and a road surface image, for example, the “underground exploration method” disclosed in Patent Document 1 is proposed.

特開平11−352223号公報JP-A-11-352223

しかしながら、特許文献1に開示されているような従来の地中探査技術では、地中レーダ等で得られた地中探査データを、単に対応する地図や路面映像と並べて表示するだけであり、探査された空洞や埋設管等が、地表面のどの位置に存在しているかを正確に特定・把握することは困難であった。
このため、地中探査データを、対応する地図や路面映像中の位置として確認しただけの状態で二次調査を行うと、実際に二次調査で地表を破壊・掘削等しても、目的とする空洞や埋設管等から位置がずれていたり、最悪の場合、空洞等の目的物が存在しない箇所を破壊等してしまうといった問題が発生した。
However, the conventional underground exploration technique disclosed in Patent Document 1 simply displays the underground exploration data obtained by the underground radar or the like along with the corresponding map or road surface image. It was difficult to accurately identify and grasp where the cavities, buried pipes, etc. existed on the ground surface.
For this reason, if a secondary survey is performed with the underground survey data only confirmed as the position in the corresponding map or road surface image, even if the ground surface is actually destroyed or excavated in the secondary survey, In such a case, the position is shifted from the cavity or the buried pipe, or in the worst case, the part where the target object such as the cavity does not exist is destroyed.

したがって、地中探査データを、単に対応する地図や路面映像と並べて表示して、目視で見比べて参照するだけでは、空洞,埋設管等の位置を地表面の正確な位置として特定することは極めて困難であった。
このため、地中探査データを地図等と並べて表示するだけではない、より正確で信頼性のある出力・表示等が望まれたが、これまで有効な技術や解決手段等は提案されていなかった。
Therefore, it is extremely difficult to identify the position of cavities, buried pipes, etc. as the exact position of the ground surface simply by displaying the underground exploration data side by side with the corresponding map or road surface image and comparing it visually. It was difficult.
For this reason, more accurate and reliable output / display, etc., than just displaying the underground exploration data side by side with a map, etc. were desired, but no effective technology or solution has been proposed so far. .

また、地中探査データや地表面の映像について位置情報を付与するには、探査・撮像を行う探査車両に装備されるGPS情報を用いることが一般的である。しかしながら、GPSで得られる位置情報は数メートル〜10数メートルの誤差がある。
このため、地中探査データと地表面の位置を正確に精度良く対応させるためには、GPSを用いた位置情報の取得・生成では不十分であり、特に空洞や埋設管等の位置をセンチメートルの範囲で特定する必要のなる地中探査技術では、より正確で信頼性の高い位置情報の取得が望まれていた。
In addition, in order to provide position information for underground exploration data and ground surface images, it is common to use GPS information that is provided in an exploration vehicle that performs exploration and imaging. However, the positional information obtained by GPS has an error of several meters to several tens of meters.
For this reason, in order to accurately and accurately correspond the underground exploration data to the position of the ground surface, it is not sufficient to acquire and generate position information using GPS. In the underground exploration technology that needs to be specified within the range, it has been desired to obtain more accurate and reliable position information.

さらに、特許文献1に開示されているように、従来の地中探査技術では、地中レーダ等の地中探査データを取得するためのセンサが、探査車両の前方や後方に大きく突き出た形態や、レーダ等を搭載した荷台等をけん引する形態(エア型)となっていた。
このような形態では、地中レーダ等のセンサから路面・地表までの距離が大きく、また、探査車両の移動や振動等にセンサが追従することができず、正確なデータを取得するのには一定の限界があった。また、レーダ等が車両の前方や後方に突出したりけん引される形態では、路側や障害物等と干渉・衝突するおそれがあり、また、むき出しのレーダ等は、路面や路面からの異物などの跳ね返りなどによって破損等する危険性もあった。
このため、探査車両やセンサの構成や配置等に更なる改善が望まれたが、現在までに有効な解決手段等は実現されていない。
Furthermore, as disclosed in Patent Document 1, in the conventional underground exploration technology, a sensor for acquiring underground exploration data such as a ground penetrating radar is protruded largely in front of or behind the exploration vehicle. In addition, it has a form (air type) for towing a loading platform equipped with a radar or the like.
In such a form, the distance from the sensor such as a ground penetrating radar to the road surface / surface is large, and the sensor cannot follow the movement or vibration of the exploration vehicle. There was a certain limit. In addition, when radar or the like is projected or towed forward or rearward of the vehicle, there is a risk of interference or collision with roadsides or obstacles. In addition, bare radar or the like may rebound foreign matter from the road surface or road surface. There was also a risk of damage due to such factors.
For this reason, further improvements have been desired in the configuration and arrangement of the exploration vehicles and sensors, but no effective solution means has been realized so far.

本発明は、以上のような従来の技術が有する課題を解決するために提案されたものであり、地中探査用のセンサを有効に保護しつつ、地中探査データとして高精度で正確なデータの取得を可能とするとともに、地中及び地上の位置情報として、GPSによることなく、より正確で高精度な位置情報を付与することで、地中探査データと地表面の情報を一元化された単一の情報として生成・表示させることを可能とし、地表面を示す正確なオルソ画像中に地中探査データを一体的に表示・出力させることができる地中探査装置の提供を目的とする。   The present invention has been proposed in order to solve the problems of the conventional techniques as described above, and provides highly accurate and accurate data as underground exploration data while effectively protecting the sensor for underground exploration. It is possible to obtain the location information of the ground and the ground, and by adding more accurate and high-precision location information without using GPS, the underground exploration data and the ground surface information are unified. It is an object of the present invention to provide an underground exploration device that can be generated and displayed as a single piece of information and can display and output underground exploration data integrally in an accurate ortho image showing the ground surface.

上記目的を達成するため、本発明の地中探査装置は、前輪及び後輪を含む複数の車輪を備え、路面を走行可能な探査車両と、前記探査車両に配置され、当該探査車両が走行する路面下の地中三次元情報を生成する地中探査手段と、を備え、前記地中探査手段が、前記探査車両の底面の、前記前輪と後輪の間、あるいは前記複数の車輪の車軸間に配置される構成としてある。   In order to achieve the above object, an underground exploration device according to the present invention includes a plurality of wheels including a front wheel and a rear wheel, and is disposed on the exploration vehicle that can travel on a road surface, and the exploration vehicle travels. An underground exploration means for generating underground three-dimensional information under the road surface, and the underground exploration means is located between the front wheels and the rear wheels, or between the axles of the plurality of wheels on the bottom surface of the exploration vehicle. It is set as the structure arrange | positioned.

また、本発明の地中探査装置は、前記探査車両に配置され、当該探査車両が走行する路面上の地上三次元映像を生成する地上映像生成手段と、前記地中探査手段で生成される地中三次元情報と、前記地上映像生成手段で生成される地上三次元映像を、所定のデータ一元化処理により、地中から地上空間まで一元化された三次元情報として生成する三次元情報一元化処理手段と、を備える構成としてある。   The underground exploration device of the present invention is disposed on the exploration vehicle and generates ground 3D images on the road surface on which the exploration vehicle travels, and a ground image generated by the underground exploration means. Three-dimensional information unification processing means for generating middle three-dimensional information and three-dimensional information generated by the terrestrial image generation means as three-dimensional information unified from the ground to the ground space by a predetermined data unification process; Are provided.

さらに、本発明の地中探査装置は、前記地上映像生成手段が、前記地上三次元映像の画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部と、を有するカメラベクトル演算手段を備え、前記三次元情報一元化処理手段が、前記カメラベクトル演算手段で生成されたカメラベクトルと、前記地中三次元情報が有する位置座標情報に基づいて、前記地中三次元情報と前記地上三次元映像を一元化する構成としてある。   Further, in the underground exploration device of the present invention, the ground image generation means automatically extracts a predetermined number of feature points from the image data of the ground 3D image, and the extracted feature points, A feature point correspondence processing unit that automatically tracks within each frame image of a moving image and obtains a correspondence relationship between the frame images, and obtains a three-dimensional position coordinate of the feature point for which the correspondence relationship is obtained. A camera vector calculation unit that obtains a camera vector composed of the three-dimensional position coordinates and the three-dimensional rotation coordinates of the camera corresponding to each frame image, and the three-dimensional information unification processing unit includes the camera Based on the camera vector generated by the vector calculation means and the position coordinate information of the underground 3D information, the underground 3D information and the ground 3D image are integrated. There is a configuration in which reduction.

本発明によれば、地中探査用のセンサを有効に保護しつつ、地中探査データとして高精度で正確なデータの取得を可能とするとともに、地中及び地上の位置情報として、GPSによることなく、より正確で高精度な位置情報を付与することができる。
これによって、地中探査データと地表面の情報を、単に並べて表示させるのではなく、地中探査データと地表面の情報を一元化された単一の情報として生成・表示させることができ、空洞や埋設管等を示す地中探査データを、地表面を示す正確なオルソ画像中に一体的に表示・出力させることが可能となる。
したがって、本発明によれば、従来にはない正確・高精度な地中探査を実現することができる。
According to the present invention, it is possible to obtain highly accurate and accurate data as underground exploration data while effectively protecting the sensor for underground exploration, and the GPS is used as position information on the ground and ground. More accurate and highly accurate position information can be given.
As a result, the underground exploration data and the ground surface information are not simply displayed side by side, but the underground exploration data and the ground surface information can be generated and displayed as a single unified information. Underground exploration data indicating buried pipes and the like can be integrally displayed and output in an accurate ortho image showing the ground surface.
Therefore, according to the present invention, an unprecedented accurate and highly accurate underground exploration can be realized.

本発明の一実施形態に係る地中探査装置による地中探査の全体像を模式的に示す説明図である。It is explanatory drawing which shows typically the whole image of underground exploration by the underground exploration apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る地中探査装置の地中探査データを取得・生成する探査車両の動作イメージを模式的に示す説明図であり、(a)は探査車両が走行する路面の断面図、(b)は同じく探査車両が走行する路面の平面図である。It is explanatory drawing which shows typically the operation | movement image of the exploration vehicle which acquires and produces | generates the underground exploration data of the underground exploration apparatus which concerns on one Embodiment of this invention, (a) is sectional drawing of the road surface which an exploration vehicle travels (B) is a plan view of the road surface on which the exploration vehicle travels. 本発明の一実施形態に係る地中探査装置の探査車両とセンサの位置関係を模式的に示す説明図であり、(a)及び(b)は探査車両の底面図、(c)は(a)及び(b)に対応するセンサの探査範囲を示す路面の平面図である。It is explanatory drawing which shows typically the positional relationship of the exploration vehicle and sensor of the underground exploration apparatus which concern on one Embodiment of this invention, (a) And (b) is a bottom view of an exploration vehicle, (c) is (a It is a top view of the road surface which shows the search range of the sensor corresponding to () and (b). 本発明の一実施形態に係る地中探査装置で取得・生成される地中探査データを模式的に示す説明図であり、(a)はセンサで取得される地中三次元データのイメージ図、(b)はセンサで取得されたデータに基づいて生成・出力される出力画像のイメージ図である。It is explanatory drawing which shows typically the underground exploration data acquired and produced | generated with the underground exploration apparatus which concerns on one Embodiment of this invention, (a) is an image figure of underground 3D data acquired with a sensor, b) is an image diagram of an output image generated and output based on data acquired by a sensor. 本発明の一実施形態に係る地中探査装置で取得される地上360度の全周立体映像の撮像範囲を模式的に示す説明図であり、(a)は路面・橋梁等における撮像範囲を示す、(b)は道路側方の斜面(法面)の撮像範囲を示す、それぞれ路面の正面断面図である。また、(c)は360度全周映像の一例である。It is explanatory drawing which shows typically the imaging range of 360 degree | round | round 360-degree three-dimensional video acquired with the underground exploration apparatus which concerns on one Embodiment of this invention, (a) shows the imaging range in a road surface, a bridge, etc. (B) is front sectional drawing of a road surface which shows the imaging range of the road side slope (slope), respectively. Moreover, (c) is an example of a 360-degree all-around video. 本発明の一実施形態に係る地中探査装置における地中探査データと地上映像の一元化処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the unification process of the underground exploration data and the ground image | video in the underground exploration apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る地中探査装置で取得・生成される地中三次元データ及び地中三次元データを地上オルソ画像に一元化処理した画像のイメージ図であり、(a)は路面下空洞調査用のデータ、(b)は橋梁床板の鉄筋腐食調査用のデータの場合である。It is an image figure of the image which unified the ground 3D data acquired by the underground exploration device concerning one embodiment of the present invention, and the ground 3D data into a ground ortho image, (a) is a subsurface cavity The data for investigation, (b) is the case of the data for investigation of steel bar corrosion of bridge floor boards. 本発明の一実施形態に係る地中探査装置において地上360度立体映像から生成されるカメラベクトル画像を生成するCV(カメラベクトル)演算部の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the CV (camera vector) calculating part which produces | generates the camera vector image produced | generated from the ground 360 degree | times stereoscopic image in the underground exploration apparatus which concerns on one Embodiment of this invention. 地上360度立体映像から得られる変換画像を示す説明図であり、(a)は球面画像が貼り付けられる仮想球面を、(b)は仮想球面に貼り付けられた球面画像の一例を、(c)は(b)に示した球面画像をメルカトール図法に従って平面展開した画像を示している。It is explanatory drawing which shows the conversion image obtained from a ground 360 degree | times stereoscopic image, (a) is a virtual spherical surface to which a spherical image is affixed, (b) is an example of a spherical image affixed to a virtual spherical surface, (c ) Shows an image obtained by developing the spherical image shown in (b) on a plane according to the Mercator projection. 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the specific camera vector in the CV calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the specific camera vector in the CV calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the specific camera vector in the CV calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV演算部によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。It is explanatory drawing which shows the designation | designated aspect of the desirable feature point in the detection method of the camera vector by the CV calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the CV calculating part which concerns on one Embodiment of this invention, and a camera vector. 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the CV calculating part which concerns on one Embodiment of this invention, and a camera vector. 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the CV calculating part which concerns on one Embodiment of this invention, and a camera vector. 本発明の一実施形態に係るCV演算部において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。In the CV calculating part which concerns on one Embodiment of this invention, it is explanatory drawing which shows the case where a some feature point is set according to the distance of a feature point from a camera, and a some calculation is repeated. 本発明の一実施形態に係るCV演算部求められたカメラベクトルの軌跡をビデオ映像中に表示した場合の図である。It is a figure at the time of displaying the locus | trajectory of the camera vector calculated | required by the CV calculating part which concerns on one Embodiment of this invention in a video image | video.

以下、本発明に係る地中探査装置の実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明の地中探査装置における地中三次元情報・地上三次元映像の生成・出力・一元化処理・カメラベクトル演算等は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示す本発明に係る所定の処理や機能等を行わせることができる。
すなわち、本発明における各処理や手段,機能は、プログラムとコンピュータとが協働した具体的手段によって実現される。
Hereinafter, embodiments of the underground exploration device according to the present invention will be described with reference to the drawings.
Here, in the underground exploration apparatus of the present invention shown below, underground 3D information, ground 3D image generation / output, unification processing, camera vector calculation, etc. are executed by a computer according to a program (software) instruction. Realized by processing, means, and function. The program can send commands to each component of the computer to perform the following predetermined processing and functions according to the present invention.
That is, each process, means, and function in the present invention are realized by specific means in which a program and a computer cooperate.

なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。
また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。また、本発明に係る地中探査装置に備えられる、単一の情報処理装置(例えば1台のパーソナルコンピュータ等)で構成することもでき、複数の情報処理装置(例えば複数台のコンピュータ群等)で構成することもできる。
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and the program read from the recording medium is installed in the computer and executed. The
The program can also be loaded and executed directly on a computer through a communication line without using a recording medium. Moreover, it can also be comprised with the single information processing apparatus (for example, one personal computer etc.) with which the underground exploration apparatus which concerns on this invention is equipped, and several information processing apparatuses (for example, a plurality of computer group etc.) Can also be configured.

[地中探査装置]
図1に、本発明の一実施形態に係る地中探査装置の構成を示す。
同図に示す本発明の一実施形態に係る地中探査装置は、探査車両10と、探査車両10に搭載される三次元地中レーダ20及び全方位カメラ30を備える構成となっている。
そして、図1に示すように、探査車両10が探査対象となる任意の路面を走行しながら、三次元地中レーダによって路面下の地中三次元情報を取得・生成するとともに、全方位カメラ30によって路面上の地上三次元映像を取得・生成し、その後、地中三次元情報と地上三次元映像とを、一元化された単一の三次元情報(後述する図7参照)として生成・出力するようになっている。
以下、地中探査装置の各構成を具体的に説明する。
[Ground exploration equipment]
In FIG. 1, the structure of the underground exploration apparatus which concerns on one Embodiment of this invention is shown.
The underground exploration apparatus according to an embodiment of the present invention shown in FIG. 1 includes an exploration vehicle 10, a three-dimensional underground radar 20 and an omnidirectional camera 30 mounted on the exploration vehicle 10.
As shown in FIG. 1, while the exploration vehicle 10 travels on an arbitrary road surface to be explored, the 3D underground radar acquires and generates underground 3D information below the road surface, and the omnidirectional camera 30. To obtain and generate ground 3D images on the road surface, and then generate and output ground 3D information and ground 3D images as unified single 3D information (see FIG. 7 described later). It is like that.
Hereinafter, each configuration of the underground exploration device will be specifically described.

[探査車両10]
探査車両10は、地中探査の対象・範囲となる道路や地面などの路面を走行可能な車両であり、例えば乗用車やトラック,ライトバン,各種作業車,軽自動車などの自動車で構成される。なお、探査対象・目的となる所望の路面を走行可能である限り、探査車両10の具体的な構成は特に限定されるものではない。
図2に、本実施形態の探査車両10の動作イメージを模式的に示す。
同図(a)に示すように、探査車両10には、屋根上面に車載装備としてのGPS(高精度GNSS)11が取り付けられ、車両底面に三次元地中レーダ20のアンテナ22が、屋根後方に全方位カメラ30が配置されている。
また、探査車両10の車内には、三次元地中レーダ20のレーダ本体21が配置されるとともに、CV演算部40,一元化処理部50が備えられる。なお、CV演算部40及び一元化処理部50は、具体的には所定のソフトウェア(プログラム)が実装されたPCなどの情報処理装置で構成される。
[Exploration vehicle 10]
The exploration vehicle 10 is a vehicle capable of traveling on a road surface such as a road or the ground, which is a target and range of underground exploration, and is configured by a car such as a passenger car, a truck, a light van, various work vehicles, and a light vehicle. In addition, the specific configuration of the exploration vehicle 10 is not particularly limited as long as it can travel on a desired road surface that is an exploration target / target.
FIG. 2 schematically shows an operation image of the exploration vehicle 10 of the present embodiment.
As shown in FIG. 1A, the exploration vehicle 10 has a GPS (high precision GNSS) 11 as an on-vehicle equipment attached to the top surface of the roof, and an antenna 22 of the three-dimensional ground penetrating radar 20 on the bottom surface of the vehicle. The omnidirectional camera 30 is disposed at the center.
In addition, a radar main body 21 of the three-dimensional underground radar 20 is disposed in the vehicle of the exploration vehicle 10, and a CV calculation unit 40 and a centralization processing unit 50 are provided. Note that the CV calculation unit 40 and the unification processing unit 50 are specifically configured by an information processing apparatus such as a PC on which predetermined software (program) is installed.

[三次元地中レーダ20]
探査車両10に備えられる三次元地中レーダ20は、探査車両10が走行する路面下の地中三次元情報を生成するための地中探査手段(センサ)であり、図2に示すように、探査車両10の車内に搭載されるレーダ本体21と、探査車両10の底面に配置されるアンテナ22とで構成される。
本実施形態に係る三次元地中レーダ20は、地中の物理的境界面で電磁波が反射する現象を利用して地中の空洞や埋設管等の存在を探査・検出する物理探査レーダであり、レーダ本体21の制御によってアンテナ22から電磁波を送受信させながら探査車両10を所定速度(例えば最大時速60km)で走行させることで、地下2mまでの情報を三次元で簡単にマッピングすることが可能となっている(後述する図4参照)。
[Three-dimensional ground penetrating radar 20]
The three-dimensional underground radar 20 provided in the exploration vehicle 10 is an underground exploration means (sensor) for generating underground three-dimensional information below the road surface on which the exploration vehicle 10 travels. As shown in FIG. The radar main body 21 is mounted on the inside of the exploration vehicle 10 and the antenna 22 is arranged on the bottom surface of the exploration vehicle 10.
The three-dimensional ground penetrating radar 20 according to the present embodiment is a physical exploration radar that searches and detects the presence of underground cavities, buried pipes, and the like using a phenomenon in which electromagnetic waves are reflected at a physical boundary surface in the ground. By moving the exploration vehicle 10 at a predetermined speed (for example, a maximum speed of 60 km) while transmitting and receiving electromagnetic waves from the antenna 22 under the control of the radar main body 21, it is possible to easily map information up to 2 m underground in three dimensions. (See FIG. 4 described later).

具体的には、三次元地中レーダ20は、電磁波を利用した走る地下CTスキャナーとして、ノルウェーの3d−Radar社製の最大41チャンネルの地中レーダアンテナ(マルチチャンネル)を使用し、探査車両10を走行させながら地中のイメージを3Dで可視化することができるようになっている。
ここで、従来技術の手押し型のセンサ等で使用されていた地中レーダは1チャンネル(シングルチャンネル)であった。シングルチャンネルは、電磁波の発信と受信のセンサが一対となっているアンテナ方式である。
Specifically, the three-dimensional ground penetrating radar 20 uses an underground radar antenna (multi-channel) having a maximum of 41 channels manufactured by 3d-Radar, Norway, as an underground CT scanner that uses electromagnetic waves. It is possible to visualize the underground image in 3D while driving.
Here, the underground radar used in the conventional hand-held type sensor or the like has one channel (single channel). The single channel is an antenna system in which electromagnetic wave transmission and reception sensors are paired.

これに対して、本実施形態の三次元地中レーダ20で採用するマルチチャンネルは、アンテナ内に複数の発信部と受信部からなるセンサ(受発信手段)が備えられ、二次元断面を複数取得できることから、地中の状態を三次元の情報として探査・生成することができるものである。
従来はシングルチャンネルのアンテナを複数並べて、例えば約0.5mピッチで二次元断面の情報を取得していたのに対して、本実施形態に係るマルチチャンネルアンテナは、例えば7.5cmピッチで高密度に配置することで、地中の状態を高精細な三次元情報として取得できる。
On the other hand, the multi-channel employed in the three-dimensional ground penetrating radar 20 of this embodiment includes a sensor (receiving / transmitting means) including a plurality of transmitters and receivers in the antenna, and acquires a plurality of two-dimensional sections. Since it is possible, the underground state can be explored and generated as three-dimensional information.
Conventionally, a plurality of single-channel antennas are arranged, and information on a two-dimensional cross section is acquired at a pitch of about 0.5 m, for example. On the other hand, the multi-channel antenna according to this embodiment is a high-density at a pitch of 7.5 cm, for example. By arranging in, the underground state can be acquired as high-definition three-dimensional information.

そして、本実施形態では、上記のような三次元地中レーダ20のアンテナ22が、図2(a)に示すように、探査車両10の底面の前輪と後輪の間、あるいは複数の車輪の車軸間に配置されるようになっている。
このように三次元地中レーダ20のアンテナ22を探査車両10の底面に配置することにより、図2(b)に示すように、探査対象となる路面を複数回(例えば同じ道路を2回)、車幅方向にずらして走行させることで、アンテナ22の電磁波の照射範囲(照射幅)を超える道路であっても、路面の全幅にわたる地中探査データを取得することができる。図2(b)では、探査車両10を同一路面で2回走行させることにより、7.5cm間隔の地中探査データを、道路幅2.5mの全範囲で取得できる場合を示している。
In the present embodiment, the antenna 22 of the three-dimensional underground radar 20 as described above is provided between the front and rear wheels on the bottom surface of the exploration vehicle 10 or a plurality of wheels as shown in FIG. It is arranged between the axles.
By arranging the antenna 22 of the three-dimensional ground penetrating radar 20 on the bottom surface of the exploration vehicle 10 in this way, as shown in FIG. 2 (b), the road surface to be explored is multiple times (for example, twice on the same road). By traveling in the vehicle width direction, underground survey data over the entire width of the road surface can be acquired even on a road that exceeds the irradiation range (irradiation width) of the electromagnetic wave of the antenna 22. FIG. 2B shows a case where the underground exploration data at 7.5 cm intervals can be acquired over the entire range of the road width of 2.5 m by causing the exploration vehicle 10 to travel twice on the same road surface.

ここで、車両の底面にアンテナを配置する形態は、「グランド型」と呼ばれ、従来のアンテナが車両の前方や後方に大きく突き出たり、アンテナを搭載した荷台等をけん引する形態の「エア型」と比較して多くの利点を有する。
エア型は、未舗装地帯の地雷撤去での使用を想定しており、アンテナを地表より約20〜30cm浮かせて測定を行うようになっている。このため、車両の前方に大きく突出するように取り付けたり、車両でけん引するなど、車両への装着等は簡単にできるが、アンテナと地表の距離が大きいことから、電磁波が減衰して探査深度が浅くなるという欠点がある。
このように、従来のエア型は、地表から20〜30cm浮かせる必要があるアンテナ特性と、アンテナ自体の高さも約20cmと厚さがあるため、アンテナを直接車両に配置する車載型(グランド型)としては使用できなかった。
Here, the form in which the antenna is arranged on the bottom surface of the vehicle is called a “ground type”, and the “air type” is a form in which a conventional antenna protrudes largely forward or rearward of the vehicle or pulls a loading platform equipped with the antenna. Has many advantages compared to.
The air type is assumed to be used for removing landmines in unpaved areas, and the antenna is measured by floating about 20 to 30 cm from the ground surface. For this reason, it can be easily mounted on the vehicle, such as mounted so that it protrudes greatly in front of the vehicle, or towed by the vehicle, but because the distance between the antenna and the ground surface is large, the electromagnetic wave is attenuated and the exploration depth is increased. There is a disadvantage that it becomes shallow.
As described above, the conventional air type has an antenna characteristic that needs to be lifted from 20 to 30 cm from the ground surface, and the antenna itself has a thickness of about 20 cm, so that the antenna is directly mounted on the vehicle (ground type). Could not be used.

これに対して、グランド型は、レーダのアンテナを路面から近距離での使用を前提とするもので、具体的には地表より約3〜10cmで測定することができる。
このため、電磁波が減衰しにくく、探査深度はエア型と比較して約1.5〜2倍程度深くなる。
また、グランド型は、可能な限りアンテナを地表に近接させることができ、また、車両に直接配置するために、アンテナ高さも10cm程度と薄いため、地中探査における測定の安定性及び安全性に優れる。
On the other hand, the ground type is based on the assumption that the radar antenna is used at a short distance from the road surface. Specifically, it can be measured from about 3 to 10 cm from the ground surface.
For this reason, electromagnetic waves are not easily attenuated, and the exploration depth is about 1.5 to 2 times deeper than the air type.
In addition, the ground type allows the antenna to be as close to the ground surface as possible, and because the antenna height is as thin as about 10 cm in order to be placed directly on the vehicle, the stability and safety of underground surveys are improved. Excellent.

本実施形態では、上記のようなメリットの大きいグランド型を採用し、地中探査手段となる三次元地中レーダ20のアンテナ22を探査車両10の底面に配置している。
具体的には、上述したノルウェーの3d−Radar社製のグランド型アンテナを採用し、三次元地中レーダ20のアンテナ22を、探査車両10の前後輪の車軸間(ホイルベース間)に取り付けるようにしている。
3d−Radar社のグランド型アンテナは、従来製品のエア型アンテナや他社のグランド型アンテナに比べて、アンテナ高さが半分以上薄く、自動車等の前後輪車軸間の最も安定した位置に設置することが可能となる。
In the present embodiment, the ground type having a large merit as described above is adopted, and the antenna 22 of the three-dimensional underground radar 20 serving as the underground exploration means is disposed on the bottom surface of the exploration vehicle 10.
Specifically, the above-mentioned ground type antenna manufactured by 3d-Radar in Norway is employed, and the antenna 22 of the three-dimensional ground penetrating radar 20 is attached between the front and rear wheel axles (between the wheel bases) of the exploration vehicle 10. ing.
3d-Radar's ground type antenna should be installed at the most stable position between the front and rear axles of automobiles, etc., because the antenna height is more than half thinner than conventional air antennas and other companies' ground type antennas. Is possible.

ここで、三次元地中レーダ20のアンテナ22を探査車両10のホイルベース間に設置することで、以下のようなメリットがある。
・探査車両10の車両全長を短くすることにより内輪差を小さくできる。
・探査車両10の車両全長を短くすることにより小回りがきく。
・けん引型のように後方を気にする必要がない。
・けん引型に比べて後進が容易になる。
・後輪後方設置型よりアンテナが路面に対して一定の高さになり、安定したデータが取得できる。
Here, installing the antenna 22 of the three-dimensional underground radar 20 between the wheel bases of the exploration vehicle 10 has the following advantages.
-The inner ring difference can be reduced by shortening the total vehicle length of the exploration vehicle 10.
・ Small turning is achieved by shortening the total vehicle length of the exploration vehicle 10.
・ There is no need to worry about the rear as in the towing type.
・ Backward movement is easier than towing type.
・ Since the rear wheel type is installed, the antenna is at a certain height relative to the road surface, and stable data can be acquired.

地中レーダ探査にとって、アンテナの高さが一定であることはデータの精度上きわめて重要であり、三次元地中レーダ20のアンテナ22を探査車両10のホイルベース間に配置することのメリットは非常に大きなものとなる。
なお、探査車両10のホイルベース間に配置されるアンテナ22の位置は、探査車両10の前輪と後輪の間、あるいは複数の車輪の間において、車長方向の最適な位置に配置される。すなわち、探査車両10の車長や前後輪の配置,レーダの出力や特性などに応じて、探査車両10の車長方向(車両進行方向の前後)の適切・最適な位置にアンテナ22を配置する。
したがって、アンテナ22は、探査車両10の車長方向に移動可能・調整可能に構成されることが好ましい。
For ground penetrating radar exploration, it is very important for the accuracy of the data that the antenna height is constant, and the merit of arranging the antenna 22 of the three-dimensional ground penetrating radar 20 between the wheel bases of the exploration vehicle 10 is very high. It will be big.
The position of the antenna 22 disposed between the wheel bases of the exploration vehicle 10 is disposed at an optimal position in the vehicle length direction between the front and rear wheels of the exploration vehicle 10 or between a plurality of wheels. That is, the antenna 22 is arranged at an appropriate and optimal position in the vehicle length direction (front and rear in the vehicle traveling direction) of the exploration vehicle 10 according to the vehicle length of the exploration vehicle 10, the arrangement of front and rear wheels, the output and characteristics of the radar, and the like. .
Therefore, the antenna 22 is preferably configured to be movable / adjustable in the vehicle length direction of the exploration vehicle 10.

また、本実施形態では、上記のような三次元地中レーダ20のアンテナ22を探査車両10のホイルベース間において、車幅方向(車両進行方向の左右)に移動可能・調整可能に構成してある。
具体的には、図3(a),(b)に示すように、三次元地中レーダ20のアンテナ22を、探査車両10の車幅方向の左右にスライド移動できるようになっており、車幅方向の所望の位置で固定可能となっている。これによって、探査対象となる路面の大きさ(道路幅)に応じて、アンテナ22を移動・調整することができ、様々な大きさ(幅)の路面に対応することができる。
In the present embodiment, the antenna 22 of the three-dimensional underground radar 20 as described above is configured to be movable / adjustable in the vehicle width direction (left and right in the vehicle traveling direction) between the wheel bases of the exploration vehicle 10. .
Specifically, as shown in FIGS. 3A and 3B, the antenna 22 of the three-dimensional underground radar 20 can be slid to the left and right in the vehicle width direction of the exploration vehicle 10. It can be fixed at a desired position in the width direction. Accordingly, the antenna 22 can be moved and adjusted according to the size (road width) of the road surface to be searched, and can correspond to road surfaces of various sizes (widths).

図3に示す例では、探査幅1.8mのアンテナ22を、探査車両10の左右側面からそれぞれ15cm突出させるように移動させることで、道路幅3.5mの路面について、b)では、2回の走行により地中探査データを取得することができる場合を示している。
このように、三次元地中レーダ20のアンテナ22を探査車両10のホイルベース間において車幅方向に移動可能とすることで、アンテナ幅(例えば1.8m)のアンテナ1台を探査車両の左右寄りにスライドさせて複数回(例えば2回)走行することで、アンテナ幅を超える範囲(例えば最大3.5m)の幅でデータを取得することができる(図3参照)。
また、図3に示すように、探査車両10の側面左右への飛び出しは、片側15cm程度とすることで、例えば従来のエア型アンテナで使用されている2.5m幅のアンテナに比べて、路側の障害物や第三者等との接触事故の危険性を抑制乃至回避することできる。
In the example shown in FIG. 3, the antenna 22 having the exploration width of 1.8 m is moved so as to protrude 15 cm from the left and right side surfaces of the exploration vehicle 10. The case where underground exploration data can be acquired by traveling is shown.
In this way, by enabling the antenna 22 of the three-dimensional ground penetrating radar 20 to move in the vehicle width direction between the wheel bases of the exploration vehicle 10, one antenna having an antenna width (for example, 1.8 m) is moved to the left and right of the exploration vehicle. By sliding a plurality of times (for example, twice), it is possible to acquire data in a range that exceeds the antenna width (for example, a maximum of 3.5 m) (see FIG. 3).
Also, as shown in FIG. 3, the exploration of the side surface of the exploration vehicle 10 is about 15 cm on one side, for example, compared to a 2.5 m wide antenna used in a conventional air type antenna, for example, The risk of contact accidents with other obstacles or third parties can be suppressed or avoided.

なお、以上のようなアンテナ22の車幅方向への移動可能な範囲は、アンテナ幅や探査車両10の車幅等に応じて任意に設定することができる。
また、アンテナ22の移動構造も、スライド構造や、ボルト等による固定位置を複数設ける段階構造など、アンテナ22を車幅方向に移動できる限り、特に限定されるものではない。
また、アンテナ22は、探査車両10の底面に露出した剥き出しの状態で配置することもできるが、異物の跳ね返りや衝突、地面や障害物との接触等による破損などに備えて、アンテナ22の全部又は一部をカバー等で覆うこともできる。例えばアンテナ22の電磁波の送受信に影響のないプラスチック製のカバーを備えることができる。
The range in which the antenna 22 can move in the vehicle width direction as described above can be arbitrarily set according to the antenna width, the vehicle width of the exploration vehicle 10, and the like.
Also, the moving structure of the antenna 22 is not particularly limited as long as the antenna 22 can be moved in the vehicle width direction, such as a slide structure or a stage structure in which a plurality of fixing positions using bolts or the like are provided.
Further, the antenna 22 can be arranged in an exposed state exposed on the bottom surface of the exploration vehicle 10, but the entire antenna 22 is prepared in preparation for damage such as rebound or collision of a foreign object or contact with the ground or an obstacle. Alternatively, a part can be covered with a cover or the like. For example, a plastic cover that does not affect the transmission and reception of electromagnetic waves from the antenna 22 can be provided.

以上のような本実施形態に係る三次元地中レーダ20で取得・生成される地中探査データを図4に示す。
図4(a)に示すように、探査車両10の走行に伴って移動する三次元地中レーダ20では、マルチチャンネルのアンテナ22によって、所定間隔(例えば7.5cmピッチ)で地中の二次元情報が車両進行方向に沿って取得され、地中三次元情報として取得・生成される。
このような地中三次元情報は、図4(b)に示すように、アンテナ22の配列方向(車幅方向)とアンテナ22の進行方向(車長方向)の地中データによって、地中の垂直断面(アンテナ方向)・垂直断面(進行方向)・水平断面の三次元の地中断面情報を示しており、これらを画像生成することで、地中の三次元画像情報として出力することができる。
なお、これらの地中三次元情報の生成・出力は、三次元地中レーダ20のレーダ本体21や、レーダ本体21に接続されるPC等によって行われる。
FIG. 4 shows the underground exploration data acquired and generated by the three-dimensional underground radar 20 according to the present embodiment as described above.
As shown in FIG. 4A, in the three-dimensional ground penetrating radar 20 that moves as the exploration vehicle 10 travels, the multi-channel antenna 22 uses the two-dimensional ground in a predetermined interval (for example, 7.5 cm pitch). Information is acquired along the traveling direction of the vehicle, and acquired and generated as underground three-dimensional information.
As shown in FIG. 4 (b), such underground three-dimensional information is obtained by using underground data in the arrangement direction of the antennas 22 (vehicle width direction) and the traveling direction of the antennas 22 (vehicle length direction). 3D underground section information of vertical section (antenna direction), vertical section (traveling direction), and horizontal section is shown. By generating these images, it can be output as underground 3D image information. .
The generation and output of these three-dimensional underground information is performed by the radar main body 21 of the three-dimensional underground radar 20, a PC connected to the radar main body 21, or the like.

[全方位カメラ30]
全方位カメラ30は、探査車両10の例えば屋根上面などに配置され、探査車両10が走行する路面上の地上三次元映像を生成する地上映像生成手段である。
具体的には、全方位カメラ30は、走行する探査車両10の周囲を360°撮影できる1台又は複数台のビデオカメラであり、探査車両10の走行に伴って、上述した三次元地中レーダ20が取得する地中データに対応する、地上の三次元映像(全周映像)を撮像できるようになっている。
[Omnidirectional camera 30]
The omnidirectional camera 30 is a terrestrial image generation means that is arranged on the roof surface of the exploration vehicle 10 and generates a terrestrial 3D image on the road surface on which the exploration vehicle 10 travels.
Specifically, the omnidirectional camera 30 is one or a plurality of video cameras that can photograph 360 ° around the traveling exploration vehicle 10, and the three-dimensional underground radar described above as the exploration vehicle 10 travels. A ground three-dimensional image (all-around image) corresponding to the underground data acquired by 20 can be captured.

図5に、本実施形態の全方位カメラ30で取得・生成される地上360度の立体全周映像の一例を示す。
全方位カメラ30は、周囲360°の全周映像を撮像できるため、例えば図5(a)に示すように、路面を走行する探査車両10を中心とした半径15mの地上の状態・風景が撮像される。同図の例では、全幅員14.55m,有効幅員13.75mの道路や橋梁等で、片側車線の中央を走行する探査車両10を中心とした車道部3.5m,路肩0.5m,側帯0.5m,歩道部2.0m,分離帯0.75,地覆0.4mの範囲について、360°の全周映像が撮像・取得できることが分かる。
また、図5(b)に示すように、路面を走行する探査車両10を中心とした半径40mの範囲で地上の状態・風景が撮像され、路面横にある斜面(法面)についても360°の全周映像が撮像・取得できることが分かる。
図5(c)は、全方位カメラ30で撮像された360°の全周映像の出力例である。
FIG. 5 shows an example of a 360-degree stereoscopic all-round image acquired and generated by the omnidirectional camera 30 of the present embodiment.
Since the omnidirectional camera 30 can capture a 360-degree all-around video, for example, as shown in FIG. 5A, the ground state / landscape with a radius of 15 m centering on the exploration vehicle 10 traveling on the road surface is imaged. Is done. In the example in the figure, the road width is 3.5m, the road shoulder is 0.5m, the side belt, centering on the exploration vehicle 10 traveling in the center of one side lane on a road or bridge with a total width of 14.55m and an effective width of 13.75m. It can be seen that 360 ° all-around video can be captured and acquired in the range of 0.5 m, sidewalk part 2.0 m, separation zone 0.75, and ground cover 0.4 m.
Further, as shown in FIG. 5B, the ground state / landscape is imaged within a radius of 40 m centering on the exploration vehicle 10 traveling on the road surface, and the slope (slope) next to the road surface is 360 °. It can be seen that all-round video can be captured and acquired.
FIG. 5C is an output example of a 360 ° omnidirectional video imaged by the omnidirectional camera 30.

そして、本実施形態では、全方位カメラ30で取得・生成される360°の全周映像に基づいて、所定のカメラベクトル演算を行うことで、現地での測量を行うことなく、また、GPSの位置情報に依存することなく、探査車両10に全方位カメラ30を取り付けて走行(例えば最大速度60km/h程度)するだけで、簡単に高精度な三次元地上マッピングができるようになっている。
一般に、探査車両を構成する自動車等に搭載されているGPSや4方向カメラによる位置情報は、GPSの受信状況により例えば0.5m〜数m程度の誤差が出る。このため、それだけでは任意の異常箇所等の位置特定を行うことは困難である。また、トンネルの中や高架橋の下ではGPSが受信できないので、位置情報は車両に搭載された4方向カメラの映像のみとなり、任意の箇所の位置特定は更に困難となる。
そこで、本実施形態では、全方位カメラ30で取得された360°全周映像に基づいて、カメラベクトル演算部40において所定のカメラベクトル演算を行うことで、GPSに依ることなく、また、現地での測量・計測等を行うことなく、高精度な三次元地上マッピングを行うようになっている。
In this embodiment, a predetermined camera vector calculation is performed on the basis of a 360 ° all-round image acquired and generated by the omnidirectional camera 30, so that no GPS surveying can be performed. Regardless of position information, simply attaching an omnidirectional camera 30 to the exploration vehicle 10 and traveling (for example, a maximum speed of about 60 km / h) enables easy and highly accurate three-dimensional ground mapping.
In general, position information obtained by GPS or a four-directional camera mounted on an automobile or the like constituting an exploration vehicle has an error of, for example, about 0.5 m to several meters depending on the GPS reception status. For this reason, it is difficult to specify the position of an arbitrary abnormal point or the like by itself. In addition, since GPS cannot be received in a tunnel or under a viaduct, the position information is only an image of a four-way camera mounted on the vehicle, and it becomes more difficult to specify the position of an arbitrary location.
Therefore, in the present embodiment, a predetermined camera vector calculation is performed in the camera vector calculation unit 40 based on the 360 ° all-round video acquired by the omnidirectional camera 30, so that it does not depend on the GPS and can be performed locally. High-precision three-dimensional ground mapping is performed without performing surveying and measurement.

[CV演算部40]
CV(カメラベクトル)演算部40は、上述した全方位カメラ30で撮像された地上三次元映像の画像データから、高精度の位置情報を演算により算出・生成することができるカメラベクトル演算手段である。
具体的には、本実施形態に係るCV演算部40は、所定数の特徴点を自動抽出する特徴点抽出部41と、抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部42と、対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部43などの手段で構成される(後述する図8参照)。
カメラベクトル演算は、本出願人に係る特許第4446041号公報等で開示している技術であり、360°全周映像の中に特徴点を自動抽出し、それを隣接する複数フレームにトラッキングし、カメラ移動のベースとトラッキング点で校正する三角形を構成し、そのトラッキングデータを解析することで、特徴点の三次元座標と、カメラ位置と姿勢を持つ全周CV(カメラベクトル)映像を取得するものである。
[CV calculation unit 40]
The CV (camera vector) calculation unit 40 is a camera vector calculation unit that can calculate and generate high-accuracy position information by calculation from the image data of the terrestrial 3D video imaged by the omnidirectional camera 30 described above. .
Specifically, the CV calculation unit 40 according to the present embodiment automatically tracks a feature point extraction unit 41 that automatically extracts a predetermined number of feature points in each frame image of the moving image and the extracted feature points. A feature point correspondence processing unit 42 for obtaining a correspondence relationship between the frame images, and obtaining a three-dimensional position coordinate of the feature point for which the correspondence relationship is obtained, and obtaining a third order of the camera corresponding to each frame image from the three-dimensional position coordinate. It is configured by means such as a camera vector calculation unit 43 for obtaining a camera vector composed of original position coordinates and three-dimensional rotation coordinates (see FIG. 8 described later).
Camera vector calculation is a technique disclosed in Japanese Patent No. 4446041 related to the present applicant, and feature points are automatically extracted from 360 ° all-around video and tracked in a plurality of adjacent frames. A triangle that is calibrated with the base of the camera movement and the tracking point is constructed, and the tracking data is analyzed to obtain a full-circle CV (camera vector) image having the three-dimensional coordinates of the feature point and the camera position and orientation. It is.

そして、CV演算で得られるCV(カメラベクトル)値は、カメラ(全方位カメラ30)の位置と姿勢を6自由度で表現したものである。すなわち、全方位カメラ30で撮像される360°全周映像の全フレームについて、x,y,z,θx,θy,θz,の6自由度のそれぞれの係数を演算で決定するものであり、GPSや測量等による位置情報に依ることなく、360°映像中に相対的な位置情報・三次元座標情報を演算のみによって生成・付与できるものである。
これによって、任意の全周映像について、CV値を生成・付与することができ、このCV値に基づいて、全周映像と、上述した三次元地中レーダ20で取得された地中三次元情報とを一元化する三次元情報一元化処理が実行される。
このCV演算部40におけるCV演算の具体的な詳細内容については、図8〜17を参照しつつ後述する。
The CV (camera vector) value obtained by the CV calculation represents the position and orientation of the camera (omnidirectional camera 30) with six degrees of freedom. That is, the coefficients of 6 degrees of freedom of x, y, z, θx, θy, θz are determined by calculation for all the frames of the 360 ° all-round video imaged by the omnidirectional camera 30. Relative position information and three-dimensional coordinate information can be generated and attached only by calculation in a 360 ° video without depending on position information obtained by surveying or the like.
As a result, a CV value can be generated / applied for an arbitrary all-round image, and based on this CV value, the all-around image and the three-dimensional underground information acquired by the three-dimensional ground penetrating radar 20 described above. A three-dimensional information unification process is performed for unifying.
Specific details of the CV calculation in the CV calculation unit 40 will be described later with reference to FIGS.

[一元化処理部50]
一元化処理部50は、三次元地中レーダ20で生成される地中三次元情報と、全周カメラ30で生成される地上三次元映像を、所定のデータ一元化処理により、地中から地上空間まで一元化された三次元情報として生成する三次元情報一元化処理手段である。
具体的には、本実施形態に係る一元化処理部50は、上記のCV演算部40で生成されるカメラベクトルと、三次元地中レーダ20で取得された地中三次元情報が有する位置座標情報に基づいて、地中三次元情報と地上三次元映像を一元化する。
[Unification processing unit 50]
The unification processing unit 50 converts the underground 3D information generated by the 3D underground radar 20 and the ground 3D image generated by the all-around camera 30 from the ground to the ground space by a predetermined data centralization process. It is a three-dimensional information unification processing means that is generated as unified three-dimensional information.
Specifically, the unification processing unit 50 according to this embodiment includes the position coordinate information included in the camera vector generated by the CV calculation unit 40 and the underground 3D information acquired by the 3D underground radar 20. Based on the above, 3D information in the ground and 3D images on the ground are unified.

図6は、本実施形態の一元化処理部50による地中探査データと地上映像の一元化処理の手順を示すフローチャートである。
同図に示すように、本実施形態の一元化処理では、まず、三次元地中レーダ20で取得された地中探査データ(ステップ1)と、全方位カメラ30で取得された地上の360°全周映像(ステップ2)が、一元化処理部50に入力される。
このとき、三次元地中レーダ20で取得された地中探査データには、探査車両10に搭載されたGPS(高精度GNSS)11で取得される位置情報や時間情報などに基づく位置情報が含まれている。
全方位カメラ30の360°全周映像には、探査車両10に搭載されたGPS(高精度GNSS)11で取得される位置情報や時間情報などに基づく位置情報が含まれ、また、上述したCV演算部40において演算処理され(ステップ3)、三次元一座標となるCV値が付与されている。
FIG. 6 is a flowchart showing the procedure of the unification processing of the underground exploration data and the ground image by the unification processing unit 50 of the present embodiment.
As shown in the figure, in the unification processing of the present embodiment, first, the underground exploration data (step 1) acquired by the three-dimensional ground penetrating radar 20 and the entire 360 ° of the ground acquired by the omnidirectional camera 30 are displayed. The peripheral video (step 2) is input to the unification processing unit 50.
At this time, the underground exploration data acquired by the three-dimensional ground penetrating radar 20 includes position information based on position information or time information acquired by the GPS (high precision GNSS) 11 mounted on the exploration vehicle 10. It is.
The 360 ° all-round video of the omnidirectional camera 30 includes position information based on position information and time information acquired by the GPS (high precision GNSS) 11 mounted on the exploration vehicle 10, and the CV described above. Calculation processing is performed in the calculation unit 40 (step 3), and a CV value that is a three-dimensional one coordinate is given.

そして、これらの地中探査データと360°全周映像とが、対応する位置情報に基づいて関連付けられ、CV演算部40で演算・付与されたCV値が、360°全周映像と対応する地中探査データに付与され、同一の位置座標によって紐付けられる(ステップ4)。
これにより、地中探査データは、位置座標としてCV値が与えられた高精度マッピングされた地中三次元情報となる(ステップ5)。
また、360°全周映像は、オルソ画像処理されて、CV値が付与された高精度のオルソ画像からなる地上三次元映像として生成される(ステップ6)。ここで、オルソ画像の生成は、公知の画像生成技術を用いることができるが、本実施形態では、CV値が付与された全周映像に基づくことで、高精度なオルソ画像を生成・出力することができる。具体的には、CV値を位置情報として、360°全周映像を中心投影から真上から見たような歪みがない正射投影画像に変換し、複数の正射画像をつなぎ目が目立たないよう接合(モザイク)して、統合された一枚のオルソ画像を生成し、所望の範囲や大きさに分割されたオルソ画像データを生成・記憶することができる。
その後、対応するCV値に基づいて、地中三次元情報とオルソ画像からなる地上三次元映像が一元化処理され、地中地上一元化データとして生成・出力される(ステップ7)。
These underground exploration data and 360 ° all-round video are associated with each other based on the corresponding position information, and the CV value calculated and given by the CV calculation unit 40 corresponds to the 360 ° all-round video. It is given to the medium exploration data and tied by the same position coordinate (step 4).
As a result, the underground exploration data becomes high-accuracy mapped underground three-dimensional information given CV values as position coordinates (step 5).
Further, the 360 ° all-round video is subjected to ortho image processing and is generated as a terrestrial 3D video consisting of a high-precision ortho image to which a CV value is given (step 6). Here, for the generation of the ortho image, a known image generation technique can be used. However, in the present embodiment, a highly accurate ortho image is generated and output based on the all-around video to which the CV value is given. be able to. Specifically, using the CV value as position information, the 360 ° all-round video is converted from the central projection into an orthographic projection image having no distortion as seen from directly above, so that the plural orthographic images are not conspicuous. By joining (mosaic), an integrated ortho image can be generated, and ortho image data divided into a desired range and size can be generated and stored.
Thereafter, based on the corresponding CV value, the ground three-dimensional video composed of the ground three-dimensional information and the ortho image is unified, and is generated and output as ground ground unified data (step 7).

以上のような地中三次元情報と地上オルソ画像の一元化処理による高精度三次元マッピングにより、地中及び地上データの三次元位置座標を、GPSの受信状況等に左右されることなく、CV演算に基づく約5〜15cm程度の誤差で取得することができる。
また、オルソ画像は、真上から見たような歪のない画像に変換し、位置情報を付与したもので、路面のオルソ画像は三次元座標データが付加された全方位カメラの映像から生成することができる。このようなオルソ画像は、平面地図と同様の精度を持つため、三次元地中レーダ結果を表示するのに適した画像となる。
High-accuracy 3D mapping by unification processing of the above ground 3D information and ground ortho image, CV calculation of the 3D position coordinates of the ground and ground data is not affected by the GPS reception status, etc. It can be acquired with an error of about 5 to 15 cm based on the above.
The ortho image is converted to an image without distortion as seen from directly above and is given position information. The ortho image of the road surface is generated from the video of the omnidirectional camera to which the three-dimensional coordinate data is added. be able to. Such an ortho image has an accuracy similar to that of a planar map, and thus is an image suitable for displaying a three-dimensional ground radar result.

図7に、地中三次元データ及び地中三次元データを地上オルソ画像に一元化処理した画像の一例を示す。
図7(a)は、三次元地中レーダ20により得られた空洞及び埋設管の地下情報と、路面ひび割れ等の地上情報を、CV演算部40で求められた三次元位置情報から生成した路面のオルソ画像に一元化した出力結果である。同図に現れる路面のひび割れや陥没状況は、画像解析により読み取ることができる。
図7(b)は、三次元地中レーダ20で発見された橋梁床板の内部の異常(鉄筋腐食)を、CV演算部40で求められた三次元位置情報から生成した路面のオルソ画像と併記したものである。このような情報により、鉄筋腐食の位置が明確となり、次回調査や補修工事後の時系列のデータ変化を視覚的に比較し、データベース化することができる。また、異常箇所のデータベース化は、例えば補修計画等の維持管理に役立つ有用な情報となる。
このような本実施形態に係る一元化処理画像は、例えばPC等の情報処理装置で任意に加工・編集したり、表示装置(ディスプレイ)で表示させることができ、また、プリンタ等の印刷装置で印刷することができる。
FIG. 7 shows an example of an image obtained by unifying the ground three-dimensional data and the ground three-dimensional data into a ground ortho image.
FIG. 7A shows a road surface in which the underground information of the cavities and buried pipes obtained by the three-dimensional ground penetrating radar 20 and the ground information such as road surface cracks are generated from the three-dimensional position information obtained by the CV calculation unit 40. It is the output result unified to the ortho image of. The cracks and depressions on the road surface appearing in the figure can be read by image analysis.
FIG. 7B shows an abnormality (rebar corrosion) inside the bridge floor plate discovered by the three-dimensional ground penetrating radar 20 together with an orthoimage of the road surface generated from the three-dimensional position information obtained by the CV calculation unit 40. It is a thing. With such information, the position of rebar corrosion can be clarified, and time-series data changes after the next survey or repair work can be visually compared and databased. In addition, the creation of a database of abnormal locations becomes useful information useful for maintenance management such as a repair plan.
Such a unified processing image according to the present embodiment can be arbitrarily processed / edited by an information processing apparatus such as a PC, or can be displayed on a display device (display), or can be printed by a printing device such as a printer. can do.

以上のような本実施形態で得られる地中三次元データを地上オルソ画像に一元化した一元化処理画像により、以下のような効果が得られる。
(1)高精度三次元座標が得られるため、二次元地中レーダによる位置特定が不要になる。
(2)位置補正装置により、トンネルや高架橋のGPSが受信できない場所でも高精度の三次元座標を得ることができる。
(3)効率よく地上の高精度三次元座標が得られるので、現地で構造物の形状や道路周辺物などを計測する必要がない。
(4)三次元地中レーダの地下情報と、全周カメラ30及びCV演算部40の地上情報のデータベース化で一元管理ができる。
(5)高精度のオルソ画像による視覚情報から、次回調査や補修工事後との比較といった情報の時系列管理ができる。
(6)オルソ画像は平面地図と同様の精度を持ちながら、視覚的に地図より優れているので、発注者に効果的な成果が提供できる。
(7)調査の効率化、一元化に及び映像から簡単に高精度の三次元座標情報が得られることから、災害時の供給道路の安全確保などの緊急時に迅速な対応ができる。
The following effects are obtained by the unified processing image obtained by unifying the ground three-dimensional data obtained in the present embodiment as described above into the ground ortho image.
(1) Since high-accuracy three-dimensional coordinates can be obtained, position identification by a two-dimensional ground penetrating radar becomes unnecessary.
(2) With the position correction device, highly accurate three-dimensional coordinates can be obtained even in places where GPS of tunnels and viaducts cannot be received.
(3) Since high-precision three-dimensional coordinates on the ground can be obtained efficiently, there is no need to measure the shape of the structure or the surrounding objects on the road.
(4) Centralized management is possible by creating a database of 3D underground radar underground information and ground information of the all-around camera 30 and the CV calculation unit 40.
(5) From visual information using high-precision ortho images, time series management of information such as comparison with the next survey and after repair work can be performed.
(6) The ortho image has the same accuracy as the planar map, but is visually superior to the map, so that it can provide effective results to the orderer.
(7) Since highly accurate three-dimensional coordinate information can be easily obtained from the video for efficiency and unification of surveys, it is possible to quickly respond to emergencies such as ensuring the safety of supply roads in the event of a disaster.

[CV演算処理]
次に、上述した本実施形態に係る地中探査装置のCV演算部40で実行されるCV演算の具体的な内容について、図8〜図25を参照しつつ説明する。
上記のとおり、CV演算とはCV値を求める方法の一つであり、CV演算により求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:CameraVectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
[CV calculation processing]
Next, specific contents of the CV calculation executed by the CV calculation unit 40 of the underground exploration apparatus according to the present embodiment described above will be described with reference to FIGS.
As described above, the CV calculation is one of methods for obtaining the CV value, and the result obtained by the CV calculation is referred to as CV value and CV data. The notation CV is an abbreviation for camera vector: CameraVector, and the camera vector (CV) is a value indicating a three-dimensional position and a three-axis rotation posture of a camera such as a video camera that acquires an image for measurement or the like.
The CV calculation acquires a moving image (video image), detects a feature point in the image, tracks it in a plurality of adjacent frames, and creates a triangle formed by the camera position and the tracking locus of the feature point in the image. The three-dimensional position of the camera and the three-axis rotational posture of the camera are obtained by generating a large number of images and analyzing the triangle.

CV演算では、CV値を求める過程で、同時に映像内の特徴点(基準点)についても三次元座標が同時に求まることが重要な特性である。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
但し、CV値は、例えば、他の方法による計測手段(GPSとジャイロ、又はIMU等)より求めることもできる。従って、CV値の取得はCV演算による場合には限られない。
なお、GPSとジャイロ、又はIMU等によりCV値を取得する場合には、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、かつ完全に同期させる必要がある。
In the CV calculation, it is an important characteristic that, in the process of obtaining the CV value, three-dimensional coordinates are simultaneously obtained for feature points (reference points) in the video at the same time.
Further, the CV value obtained by calculation from the moving image is obtained simultaneously with the three-dimensional camera position and the three-dimensional camera posture corresponding to each frame of the moving image. Moreover, in principle, the characteristic that a CV value is obtained corresponding to an image with a single camera is an excellent feature that can be realized only by CV calculation.
However, the CV value can also be obtained from, for example, measurement means (GPS and gyro, IMU, or the like) using another method. Therefore, acquisition of the CV value is not limited to the case of CV calculation.
In addition, when acquiring a CV value by GPS and a gyro, IMU, etc., in order to acquire each frame of a moving image and its 3D camera position and 3D camera posture at the same time, an image frame and measurement It is necessary to synchronize the sampling time with high accuracy and completely.

動画像から演算で求められるCVデータは、加工しない段階では相対値であるが、短区間であれば高精度で三次元位置情報と3軸回転の角度情報を取得できる。
また、CVデータを画像から取得する場合は、取得されたデータは相対値であり、絶対値に変換するには既知の地点でのキャリブレーションが必要であるが、CV値と同時に取得される特徴点三次元位置座標と姿勢により、又は新たに画像内に指定して取得した特徴点により、画像内の任意の対象物との位置関係を計測することができるという、他の方法では実現困難な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像との相性が良く、画像から取得したCV値である限り、その画像内では矛盾が無いので、画像以外から求めるCV値と比較して、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明では、このCV演算により得られたCV値データに基づいて、上述した地上オルソ画像の生成、地中三次元データと地上オルソ画像の一元化処理画像を生成するものである。
CV data obtained by calculation from a moving image is a relative value when not processed, but if it is a short section, three-dimensional position information and three-axis rotation angle information can be acquired with high accuracy.
Also, when CV data is acquired from an image, the acquired data is a relative value, and calibration at a known point is necessary to convert it to an absolute value. It is difficult to realize by other methods that can measure the positional relationship with an arbitrary object in the image by the point three-dimensional position coordinates and orientation, or by the feature point newly specified and acquired in the image. It has excellent characteristics.
In addition, since the CV value corresponding to the image is obtained, the compatibility with the image is good, and as long as the CV value is acquired from the image, there is no contradiction in the image. The CV calculation that can directly determine the camera position and its three-axis rotation posture from is suitable for in-image measurement and in-image survey.
In the present invention, based on the CV value data obtained by the CV calculation, the above-described generation of the ground ortho image and the unified processing image of the ground three-dimensional data and the ground ortho image are generated.

[CV演算部]
CV演算部40は、上述した全方位カメラ30で撮像されるビデオ映像について所定のCV演算処理を行うことでCV値を求めるようになっており、具体的には、図8に示すように、特徴点抽出部41と、特徴点対応処理部42と、カメラベクトル演算部43と、誤差最小化部44と、三次元情報追跡部45と、高精度カメラベクトル演算部46とを備えている。
[CV calculation unit]
The CV calculation unit 40 obtains a CV value by performing a predetermined CV calculation process on the video image captured by the above-described omnidirectional camera 30. Specifically, as shown in FIG. A feature point extraction unit 41, a feature point correspondence processing unit 42, a camera vector calculation unit 43, an error minimization unit 44, a three-dimensional information tracking unit 45, and a high-precision camera vector calculation unit 46 are provided.

まず、CV演算に使用する映像としては、原理的にはどのような映像でもよいが、画角の限られた映像では視点方向を移動した場合に映像がとぎれてしまうので、実用的には全周映像(図5(c),図9参照)か、広角映像を全周映像の一部として扱うことが望ましい。なお、動画映像は連続する静止画と同様であり、複数の静止画として扱うことができる。
また、映像は、一般には予め記録した動画映像を使うことになるが、自動車等の移動体の移動に合わせてリアルタイムに取り込んだ映像を使用することも勿論可能である。
First, in principle, any video can be used for CV calculation. However, in the case of a video with a limited angle of view, the video is interrupted when the viewpoint direction is moved. It is desirable to treat a peripheral image (see FIGS. 5C and 9) or a wide-angle image as a part of the entire peripheral image. Note that a moving image is similar to a continuous still image and can be handled as a plurality of still images.
In general, a moving image recorded in advance is used as the video, but it is also possible to use a video captured in real time in accordance with the movement of a moving body such as an automobile.

そこで、本実施形態では、CV演算に使用する映像として、車両等の移動体の360度の全周囲を撮影した全周映像(図5(c),図9参照)か、又は全周映像に近い広角映像を用いて、その全周映像を視点方向に平面展開することにより、全周映像の一部として扱うことができる。
全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図9参照)、これを例えば等距離図法のように平面展開表示することで、通常の遠近法映像に変換表示できるからである。
Therefore, in this embodiment, the video used for the CV calculation is an all-round video (see FIGS. 5C and 9) obtained by shooting the entire 360 ° circumference of a moving body such as a vehicle, or an all-round video. By using the near wide-angle video and expanding the entire circumference image in the viewpoint direction, it can be handled as a part of the entire circumference image.
The planar development of the all-around video is to express the all-around video as a normal image in perspective. Here, the term “perspective” refers to the fact that the entire circumference image itself is displayed by a method different from the perspective method, such as Mercator projection and spherical projection projection (see FIG. 9). This is because it can be converted and displayed into a normal perspective image by performing planar development display like the equidistant projection.

本実施形態においては、まず、探査車両10を走行させて、CV値データを取得する目的で、探査車両10に固定された全方位カメラ30で、探査車両10の移動とともに探査車両10の周辺の360°全周映像(図5(c),図9参照)を撮影する。
なお、探査車両10には、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、探査車両10に搭載される全方位カメラ30としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、上述したように、探査車両10に一台又は複数台のカメラが一体的に固定され、探査車両10の移動に伴って広範囲映像を撮影する全方位カメラ30を使用している。
In the present embodiment, first, for the purpose of obtaining the CV value data by running the exploration vehicle 10, the omnidirectional camera 30 fixed to the exploration vehicle 10 moves around the exploration vehicle 10 along with the movement of the exploration vehicle 10. A 360 ° all-round image (see FIGS. 5C and 9) is taken.
In addition, for the purpose of acquiring the position coordinates, the exploration vehicle 10 may include, for example, a position measuring device configured by a GPS device alone or an IMU device to which absolute coordinates are acquired.
The omnidirectional camera 30 mounted on the exploration vehicle 10 may have any configuration as long as it captures and acquires a wide range of images. For example, a camera with a wide-angle lens, a fisheye lens, a moving camera, a fixed camera, and the like. There are cameras, cameras with a plurality of cameras fixed, cameras that can rotate around 360 degrees, and the like. In the present embodiment, as described above, one or a plurality of cameras are integrally fixed to the exploration vehicle 10, and the omnidirectional camera 30 that captures a wide range image as the exploration vehicle 10 moves is used. .

そして、以上のような全方位カメラ30によれば、探査車両10の屋根上部等に設置されることで、カメラの360度全周囲の映像を一台又は複数のカメラで同時に撮影することができ、探査車両10が走行・移動することで、広範囲映像を動画データとして取得できる。
ここで、全方位カメラ30は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
Then, according to the omnidirectional camera 30 as described above, by being installed on the top of the roof of the exploration vehicle 10 or the like, it is possible to simultaneously capture images of the entire 360 degrees of the camera with one or a plurality of cameras. As the exploration vehicle 10 travels and moves, a wide range image can be acquired as moving image data.
Here, the omnidirectional camera 30 is a video camera that can directly acquire the entire circumference of the camera. However, if more than half of the entire circumference of the camera can be acquired as an image, it can be used as the entire circumference.
Even in the case of a normal camera with a limited angle of view, the accuracy of the CV calculation is reduced, but it can be handled as a part of the entire peripheral video.

なお、全方位カメラ30で撮影された広範囲映像は、一枚の画像として、撮影時の画角に一致する仮想球面に貼り付けることができる。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図9(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
Note that the wide-area video imaged by the omnidirectional camera 30 can be pasted as a single image on a virtual spherical surface that matches the angle of view at the time of imaging.
The spherical image data pasted on the virtual spherical surface is stored and output as spherical image (360 degree image) data pasted on the virtual spherical surface. The virtual spherical surface can be set to an arbitrary spherical shape centered on the camera unit that acquires a wide range image.
FIG. 9A is an appearance image of a virtual spherical surface to which a spherical image is pasted, and FIG. 9B is an example of a spherical image pasted to the virtual spherical surface. FIG. 4C shows an example of an image obtained by developing the spherical image of FIG.

そして、以上のように生成・取得された全周ビデオ映像が、CV演算部40に入力されてCV値データが求められる(図8参照)。
CV演算部40では、まず、特徴点抽出部41が、全方位カメラ30で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部42は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部43は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部44は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
Then, the all-round video image generated / acquired as described above is input to the CV calculation unit 40 to obtain CV value data (see FIG. 8).
In the CV calculation unit 40, first, the feature point extraction unit 41 automatically extracts a sufficient number of feature points (reference points) from the moving image data shot and temporarily recorded by the omnidirectional camera 30.
The feature point correspondence processing unit 42 automatically obtains the correspondence relationship by automatically tracking the feature points automatically extracted in each frame image between the frames.
The camera vector calculation unit 43 automatically calculates a camera vector corresponding to each frame image from the three-dimensional position coordinates of the feature points for which the correspondence relationship has been determined.
The error minimizing unit 44 performs statistical processing so that the solution distribution of each camera vector is minimized by overlapping calculation of a plurality of camera positions, and automatically determines the camera position direction subjected to the error minimizing process. .

三次元情報追跡部45は、カメラベクトル演算部43で得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで順次画像の一部として得られる三次元情報に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレームの画像に沿って自動追跡を行う。ここで、三次元情報(三次元形状)とは、主に特徴点の三次元分布情報であり、すなわち、三次元の点の集まりであり、この三次元の点の集まりが三次元形状を構成する。
高精度カメラベクトル演算部46は、三次元情報追跡部45で得られた追跡データに基づいて、カメラベクトル演算部43で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが、上述した一元化処理部50に入力され、地上オルソ画像の生成、地中三次元データと地上オルソ画像の一元化処理に利用されることになる。
The three-dimensional information tracking unit 45 positions the camera vector obtained by the camera vector calculation unit 43 as an approximate camera vector, and a plurality of frame images based on the three-dimensional information sequentially obtained as part of the image in the subsequent process. 3D information is automatically tracked along an image of an adjacent frame. Here, three-dimensional information (three-dimensional shape) is mainly three-dimensional distribution information of feature points, that is, a collection of three-dimensional points, and this collection of three-dimensional points constitutes a three-dimensional shape. To do.
The high-precision camera vector calculation unit 46 generates and outputs a camera vector with higher accuracy than the camera vector obtained by the camera vector calculation unit 43 based on the tracking data obtained by the three-dimensional information tracking unit 45.
The camera vector obtained as described above is input to the unification processing unit 50 described above, and is used for the generation of the ground ortho image and the unification processing of the ground three-dimensional data and the ground ortho image.

複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するにはいくつかの方法があるが、図8に示す本実施形態のCV演算部40では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、三角測量幾何学、及びエピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することで、三地点の座標で構成される単位の三角形を、その十倍以上の多くの特徴点から求めることになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
There are several methods for detecting a camera vector from feature points of a plurality of images (moving images or continuous still images). In the CV calculation unit 40 of the present embodiment shown in FIG. By automatically extracting a number of feature points and automatically tracking them, a three-dimensional vector and a three-axis rotation vector of the camera are obtained by triangulation geometry and epipolar geometry.
By taking a large number of feature points, camera vector information is duplicated, so that a unit triangle composed of the coordinates of three points can be obtained from many feature points more than ten times, and duplicate information Therefore, it is possible to obtain a more accurate camera vector by minimizing the error.

カメラベクトルとは、移動するカメラの持つ六個の自由度のベクトルである。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
A camera vector is a vector of six degrees of freedom possessed by a moving camera.
In general, a stationary three-dimensional object has six degrees of freedom of position coordinates (X, Y, Z) and rotation angles (Φx, Φy, Φz) of the respective coordinate axes. Therefore, the camera vector refers to a vector of six degrees of freedom of the camera position coordinates (X, Y, Z) and the rotation angles (Φx, Φy, Φz) of the respective coordinate axes. When the camera moves, the direction of movement also enters the degree of freedom, which can be derived by differentiation from the above six degrees of freedom.
Thus, the detection of the camera vector in the present embodiment means that the camera takes six degrees of freedom values for each frame and determines six different degrees of freedom for each frame.

以下、CV演算部40における具体的なカメラベクトルの検出方法について、図10以下を参照しつつ説明する。
まず、上述した全方位カメラ30で取得された画像データは、間接に又は直接に、CV演算部40の特徴点抽出部41に入力され、特徴点抽出部41で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部42で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図10〜図12に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図12に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図13に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図13の○印参照)、例えば、100点程度の特徴点を抽出する。
Hereinafter, a specific camera vector detection method in the CV calculation unit 40 will be described with reference to FIG.
First, the image data acquired by the omnidirectional camera 30 described above is input to the feature point extraction unit 41 of the CV calculation unit 40 indirectly or directly, and the frame image appropriately sampled by the feature point extraction unit 41. A point or a small area image to be a feature point is automatically extracted, and a feature point correspondence processing unit 42 automatically obtains a correspondence relationship between the feature points among a plurality of frame images.
Specifically, more than a sufficient number of feature points that are used as a reference for detecting a camera vector are obtained. An example of feature points between images and their corresponding relationships are shown in FIGS. In the figure, “+” is a feature point that is automatically extracted, and the correspondence is automatically tracked between a plurality of frame images (see correspondence points 1 to 4 shown in FIG. 12).
Here, for extracting feature points, it is desirable to specify and extract a sufficient number of feature points in each image as shown in FIG. 13 (see the circles in FIG. 13). For example, about 100 feature points are extracted. Extract points.

続いて、カメラベクトル演算部43で、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、カメラベクトル演算部43は、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。また、これを三角測量として説明すれば、方位と俯角仰角を測量する機器を車載して、対象となる複数の測量地点を、移動する測量機器により同一対象物を計測して取得したデータから、各対象地点の座標と測量機器の移動の軌跡を求める場合と同じである。
Subsequently, the camera vector calculation unit 43 calculates the three-dimensional coordinates of the extracted feature points, and calculates the camera vector based on the three-dimensional coordinates. Specifically, the camera vector calculation unit 43 includes a sufficient number of feature positions that exist between successive frames, a position vector between moving cameras, a three-axis rotation vector of the camera, and each camera position and feature. Relative values of various three-dimensional vectors such as vectors connecting points are continuously calculated by calculation.
In this embodiment, for example, camera motion (camera position and camera rotation) is calculated by solving an epipolar equation from the epipolar geometry of a 360-degree all-round image. In addition, if this is described as triangulation, the equipment that surveys the azimuth and depression angle elevation angle is mounted on the vehicle, and from the data obtained by measuring the same object with the moving surveying instrument, multiple target survey points, This is the same as the case of obtaining the coordinates of each target point and the trajectory of the surveying instrument.

図12に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
Images 1 and 2 shown in FIG. 12 are images obtained by developing a 360-degree all-round image with Mercator development. When latitude φ and light θ are assumed, points on image 1 are (θ1, φ1) and points on image 2 are ( θ2, φ2). The spatial coordinates of each camera are z1 = (cos φ1 cos θ1, cos φ1 sin θ1, sin φ1), z2 = (cos φ2 cos θ2, cos φ2 sin θ2, sin φ2). If the camera movement vector is t and the camera rotation matrix is R, z1T [t] × Rz2 = 0 is the epipolar equation.
By providing a sufficient number of feature points, t and R can be calculated as a solution by the method of least squares by linear algebra calculation. This calculation is applied to a plurality of corresponding frames.

ここで、カメラベクトルの演算に利用する画像としては、360度全周画像を用いることが好ましい。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、全周映像は対象物の方向がそのまま緯度経度で表現されていることから、きわめて有利である。図12に示す360度全周画像のような広角レンズによる画像の方が特徴点を数多く選択し、複数フレームに渡って追跡し易くなる。また、狭角レンズによる映像あっても、同一対象物の周りを移動しながら様々な方向から撮影する場合には特徴点が視界から逃げないので有効である。
Here, it is preferable to use a 360-degree all-round image as an image used for the calculation of the camera vector.
The image used for the camera vector calculation may be any image in principle, but the all-around video is extremely advantageous because the direction of the object is expressed as it is in latitude and longitude. An image using a wide-angle lens such as a 360-degree all-round image shown in FIG. 12 makes it easier to select many feature points and track them over a plurality of frames. Further, even when an image is obtained by a narrow-angle lens, it is effective because the feature point does not escape from the field of view when shooting from various directions while moving around the same object.

そこで、本実施形態では、CV演算に360度全周画像を用いており、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図12は、CV演算部2における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
Therefore, in this embodiment, a 360-degree all-round image is used for the CV calculation, whereby the tracking distance of the feature points can be increased, and a sufficiently large number of feature points can be selected. It becomes possible to select a feature point convenient for each short distance. In addition, when correcting the rotation vector, the calculation process can be easily performed by adding the polar rotation conversion process. As a result, a calculation result with higher accuracy can be obtained.
In FIG. 12, in order to make it easy to understand the processing in the CV calculation unit 2, a 360-degree all-round spherical image obtained by synthesizing images taken by one or a plurality of cameras is developed by a Mercator projection called map projection. However, in an actual CV calculation, it is not necessarily a developed image by the Mercator projection.

次に、誤差最小化部44では、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点については削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
Next, the error minimizing unit 44 calculates and calculates a plurality of vectors based on each feature point by a plurality of calculation equations based on a plurality of camera positions and a plurality of feature points corresponding to each frame, Statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized to obtain a final vector. For example, the optimal solution of the least square method is estimated by the Levenberg-Marquardt method for multiple frame camera positions, camera rotations, and multiple feature points, and errors are converged to determine the camera position, camera rotation matrix, and feature point coordinates. .
Further, feature points having a large error distribution are deleted, and recalculation is performed based on other feature points, thereby improving the accuracy of computation at each feature point and camera position.
In this way, the position of the feature point and the camera vector can be obtained with high accuracy.

図14〜図16に、CV演算により得られる特徴点の三次元座標とカメラベクトルの例を示す。図14〜図16は、本実施形態のCV演算によるベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図14では、図12の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図15及び図16は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
14 to 16 show examples of the three-dimensional coordinates of feature points and camera vectors obtained by CV calculation. FIG. 14 to FIG. 16 are explanatory diagrams showing the vector detection method by the CV calculation of the present embodiment, and showing the relative positional relationship between the camera and the object obtained from a plurality of frame images acquired by the moving camera. FIG.
In FIG. 14, the three-dimensional coordinates of the feature points 1 to 4 shown in the images 1 and 2 in FIG. 12 and the camera vector (X, Y, Z) that moves between the images 1 and 2 are shown.
FIGS. 15 and 16 show a sufficiently large number of feature points, the positions of the feature points obtained from the frame image, and the position of the moving camera. In the figure, a circle mark that continues in a straight line at the center of the graph is the camera position, and a circle mark located around the circle indicates the position and height of the feature point.

ここで、CV演算部40におけるCV演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図17に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、CV演算部40では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
Here, in the CV calculation in the CV calculation unit 40, in order to obtain more accurate three-dimensional information of feature points and camera positions, as shown in FIG. Set feature points and repeat multiple operations.
Specifically, the CV calculation unit 40 automatically detects feature points having image characteristics in the image, and obtains the corresponding points of the feature points in each frame image. And the n + m-th two frame images Fn and Fn + m are used as unit calculations, and unit calculations with n and m appropriately set can be repeated.
m is the frame interval, and the feature points are classified into a plurality of stages according to the distance from the camera to the feature point in the image. The distance from the camera to the feature point is set so that m becomes larger. M is set to be smaller as the distance to is shorter. This is because the change in position between images is less as the distance from the camera to the feature point is longer.

そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
Then, while sufficiently overlapping the classification of the feature points by the m value, a plurality of stages of m are set, and as n progresses continuously with the progress of the image, the calculation proceeds continuously. Then, the overlap calculation is performed a plurality of times for the same feature point in each step of n and m.
In this way, by performing unit calculation focusing on the frame images Fn and Fn + m, a precise camera vector is calculated over a long time between frames sampled every m frames (frames are dropped). However, in m frames (minimum unit frames) between the frame images Fn and Fn + m, a simple calculation that can be performed in a short time can be performed.

m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
If there is no error in the precision camera vector calculation for every m frames, both ends of the camera vector of the m frames overlap with the Fn and Fn + m camera vectors that have been subjected to the high precision calculation. Accordingly, m minimum unit frames between Fn and Fn + m are obtained by a simple calculation, and both ends of the camera vector of the m minimum unit frames obtained by the simple calculation are Fn and Fn + m obtained by high precision calculation. The scale adjustment of m consecutive camera vectors can be made to match the camera vectors.
In this way, as n progresses continuously with the progress of the image, the scale adjustment is performed so that the error of each camera vector obtained by calculating a plurality of times for the same feature point is minimized, and integration is performed. A camera vector can be determined. Accordingly, it is possible to speed up the arithmetic processing by combining simple arithmetic operations while obtaining a highly accurate camera vector having no error.

ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
Here, there are various simple calculation methods depending on the accuracy. For example, when (1) many feature points of 100 or more are used in high-precision calculation, the minimum number of simple calculation is about ten. (2) Even if the number of the same feature points is the same as the feature points and camera positions, innumerable triangles are established there, and equations for that number are established. By reducing the number of equations, it can be simplified.
In this way, integration is performed by adjusting the scale so that the error of each feature point and camera position is minimized, distance calculation is performed, and feature points with large error distribution are deleted, and other features are added as necessary. By recalculating the points, the calculation accuracy at each feature point and camera position can be improved.

また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。
カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。
In addition, by performing high-speed simple calculation in this way, camera vector real-time processing becomes possible.
In real-time processing of camera vectors, calculation is performed with the minimum number of frames that can achieve the target accuracy and the minimum number of feature points that are automatically extracted, the approximate value of the camera vector is obtained and displayed in real time, and then the image is accumulated. Accordingly, the number of frames can be increased, the number of feature points can be increased, camera vector calculation with higher accuracy can be performed, and approximate values can be replaced with camera vector values with higher accuracy for display.

さらに、本実施形態では、より高精度のカメラベクトルを求めるために、三次元情報(三次元形状)の追跡を行うことができる。
具体的には、まず、三次元情報追跡部45で、カメラベクトル演算部43,誤差最小化部44を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部45で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部46においてより高精度なカメラベクトルが求められる。
Furthermore, in this embodiment, it is possible to track three-dimensional information (three-dimensional shape) in order to obtain a more accurate camera vector.
Specifically, first, the three-dimensional information tracking unit 45 positions the camera vector obtained through the camera vector calculation unit 43 and the error minimization unit 44 as an approximate camera vector, and the image generated in the subsequent process Based on the three-dimensional information (three-dimensional shape) obtained as a part, partial three-dimensional information included in a plurality of frame images is continuously tracked between adjacent frames to automatically track the three-dimensional shape.
Then, from the tracking result of the three-dimensional information obtained by the three-dimensional information tracking unit 45, a high-precision camera vector calculation unit 46 obtains a higher-precision camera vector.

上述した特徴点抽出部41及び特徴点対応処理部42では、特徴点を複数のフレーム間画像内に自動追跡するが、特徴点が消失するなどして特徴点の追跡フレーム数に制限が出てくることがある。また、画像は二次元であり、追跡途中で形状が変化するために追跡精度にも一定の限界がある。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部43により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
The feature point extraction unit 41 and the feature point correspondence processing unit 42 described above automatically track feature points in a plurality of inter-frame images, but the number of feature point tracking frames is limited due to disappearance of feature points. May come. In addition, since the image is two-dimensional and the shape changes during tracking, there is a certain limit in tracking accuracy.
Therefore, the camera vector obtained by the feature point tracking is regarded as an approximate value, and the three-dimensional information (three-dimensional shape) obtained in the subsequent process is traced on each frame image, and a high-precision camera vector is obtained from the trajectory. Can do.
The tracking of 3D shapes is easy to obtain matching and correlation accuracy, and the 3D shape does not change in size and size depending on the frame image, so it can be tracked over many frames. The accuracy of the camera vector calculation can be improved. This is possible because the approximate camera vector is already known by the camera vector computing unit 43 and the three-dimensional shape is already known.

カメラベクトルが概略値の場合、非常に多くのフレームに亘る三次元座標の誤差は、特徴点追跡による各フレームに関係するフレームが少ないので、誤差が累積して長距離では次第に大きな誤差になるが、画像の一部分を切り取ったときの三次元形状の誤差は相対的に少なく、形状の変化と大きさに及ぼす影響はかなり少ないものとなる。このため、三次元形状での比較や追跡は、二次元形状追跡の時よりも極めて有利となる。追跡において、二次元形状での追跡の場合、複数のフレームにおける形状の変化と大きさの変化を避けられないまま追跡することになるので、誤差が大きかったり、対応点が見つからないなどの問題があったが、三次元形状での追跡においては形状の変化が極めて少なく、しかも原理的に大きさの変化もないので、正確な追跡が可能となる。   When the camera vector is an approximate value, the error of 3D coordinates over a very large number of frames is small because there are few frames related to each frame by feature point tracking. The error of the three-dimensional shape when a part of the image is cut is relatively small, and the influence on the change and size of the shape is considerably small. For this reason, the comparison and tracking in the three-dimensional shape is extremely advantageous over the two-dimensional shape tracking. In tracking, when tracking with 2D shape, tracking changes in shape and size in multiple frames are unavoidable, so there are problems such as large errors and missing corresponding points. However, in tracking with a three-dimensional shape, there is very little change in shape, and in principle there is no change in size, so accurate tracking is possible.

ここで、追跡の対象となる三次元形状データとしては、例えば、特徴点の三次元分布形状や、特徴点の三次元分布形状から求められるポリゴン面等がある。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
Here, as the three-dimensional shape data to be tracked, there are, for example, a three-dimensional distribution shape of feature points, a polygon surface obtained from the three-dimensional distribution shape of feature points, and the like.
It is also possible to convert the obtained three-dimensional shape from a camera position into a two-dimensional image and track it as a two-dimensional image. Since the approximate value of the camera vector is known, projection conversion can be performed on a two-dimensional image from the camera viewpoint, and it is also possible to follow a change in the shape of the object due to movement of the camera viewpoint.

以上のようにして求められたカメラベクトルは、全方位カメラ30で撮影されたビデオ映像中に重ねて表示することができる。
例えば、図18に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねて表示した画像例を図18に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図18に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
The camera vector obtained as described above can be displayed in a superimposed manner in the video image captured by the omnidirectional camera 30.
For example, as shown in FIG. 18, the image from the in-vehicle camera is developed in a plane, the corresponding points on the target plane in each frame image are automatically searched, and the corresponding points are combined to match the target plane. A combined image is generated and displayed in the same coordinate system.
Furthermore, the camera position and the camera direction can be detected one after another in the common coordinate system, and the position, direction, and locus can be plotted. The CV data indicates the three-dimensional position and the three-axis rotation, and the CV value can be observed simultaneously in each frame of the video image by displaying it over the video image. An example of an image in which CV data is displayed superimposed on a video image is shown in FIG.
If the camera position is correctly displayed in the video image, the position in the video image indicated by the CV value is the center of the image, and if the camera movement is close to a straight line, the CV values of all frames are displayed overlapping. Therefore, for example, as shown in FIG. 18, it is appropriate to display a position 1 meter right below the camera position. Alternatively, it is more appropriate to display the CV value at the height of the road surface based on the distance to the road surface.

以上説明したように、本実施形態の地中探査装置によれば、以下のような優れた作用効果を奏することができる。
まず、CV演算に基づく高精度三次元座標が得られるため、上述した従来技術のような手押し型のセンサ等による位置特定工程が不要になり、地中データが一元化されたオルソ画像のみによって空洞・埋設管等の地中対象物を特定することが可能となる。
特に、従来技術では、例えば車両の前後左右を撮影する4方向カメラとGPSによる簡易位置特定に基づく位置特定作業が必須であったことから、本実施形態による効果は非常に大きなものとなる。
また、このようにCV演算により効率良く地上の高精度三次元座標が得られることから、検出位置特定のために、例えば現地での構造物の形状や道路周辺物等を計測する工程なども不要となり、作業効率は格段に向上することになる。
As described above, according to the underground exploration device of the present embodiment, the following excellent operational effects can be achieved.
First, since high-accuracy three-dimensional coordinates based on CV calculation are obtained, the position specifying step by a hand-held sensor or the like as in the above-described prior art is not required, and only a hollow image is obtained by using an ortho image in which underground data is unified. It is possible to specify underground objects such as buried pipes.
In particular, in the prior art, for example, a position specifying operation based on simple position specification using GPS and a four-way camera that captures the front, rear, left, and right of the vehicle is essential, so the effect of the present embodiment is very significant.
In addition, since high-precision three-dimensional coordinates on the ground can be obtained efficiently by the CV calculation in this way, for example, a process of measuring the shape of a structure on the site, road surroundings, etc. is not necessary for specifying the detection position. As a result, the work efficiency is remarkably improved.

また、本実施形態によれば、探査対象・範囲となる地下情報と地上情報について、全方位の情報を連続して取得することができ、地下・地上の全方位三次元情報を一元管理することができる。
また、このように一元管理された地下・地上情報のデータベースは、例えば米国ESRI社製「ArcGIS」(登録商標)など、GIS(地理情報システム:Geographic Information System)関連のソフトウェア(アプリケーション)に対応させることができ、取扱性や汎用性,拡張性等にも優れたデータベース管理が可能となる。
In addition, according to the present embodiment, the omnidirectional information can be continuously acquired for the underground information and the ground information as the search target / range, and the omnidirectional three-dimensional information of the underground and the ground can be centrally managed. Can do.
In addition, the database of underground / ground information managed in a unified manner in this way corresponds to software (applications) related to GIS (Geographic Information System) such as “ArcGIS” (registered trademark) manufactured by ESRI, USA. This makes it possible to manage the database with excellent handling, versatility, and expandability.

また、本実施形態で生成・出力される地下・地上の三次元情報が一元化されたオルソ画像は、時系列に従って蓄積・管理することができ、例えば将来の調査点の抽出や補修工事前後の比較と整合といった、地中探査情報の時系列管理を補正作業無しに容易かつ迅速に行うことができる。
また、本実施形態で得られるオルソ画像は、例えば1/500の平面図(地図)と同じ精度を持ちながら、映像に基づいて視覚的に現地状況等を把握することでき、視覚的に地図等より優れ、単なる平面図(地図)では得られない有用な付加価値のある成果・情報を提供することができる。
さらに、本実施形態の地中探査装置によれば、探査車両を走行させるだけで、探査結果の全方位連続一元化処理及び映像から、簡単に高精度の三次元座標情報が得られることから、空洞等の地中探査だけでなく、例えば災害時の緊急輸送道路等の安全確保等、緊急時にも迅速な対応ができるという優れた効果もある。
In addition, the orthographic image that is generated and output in this embodiment and is unified with the three-dimensional information on the ground and the ground can be stored and managed according to the time series.For example, future survey points can be extracted and compared before and after repair work. And time series management of underground exploration information, such as matching, can be performed easily and quickly without correction work.
In addition, the ortho image obtained in the present embodiment has the same accuracy as, for example, a 1/500 plan view (map), and can visually grasp the local situation based on the video, and visually It is possible to provide more useful results and information with added value that cannot be obtained by a simple plan (map).
Furthermore, according to the underground exploration device of the present embodiment, it is possible to easily obtain highly accurate three-dimensional coordinate information from the omnidirectional continuous unification processing and images of the exploration result only by running the exploration vehicle. In addition to underground exploration such as the above, there is also an excellent effect of being able to promptly respond to emergencies, such as ensuring the safety of emergency transport roads and the like in the event of a disaster.

このように、本発明の一実施形態に係る地中探査装置によれば、地中探査用のセンサとなる三次元地中レーダ20を有効に保護しつつ、地中探査データとして高精度で正確なデータの取得を可能とし、また、地中及び地上の位置情報として、GPSでは得られない、より正確で高精度な位置情報を生成して、地中と地上の情報が一元化された高精度な三次元情報を得ることができる。
したがって、本実施形態によれば、地中探査データと地表面の情報を、従来技術のような地中探査データと平面図(地図等)を単に並べて表示させたものとは異なる、地中探査データと地上のオルソ画像を一元化した単一の三次元情報として生成・表示させることができる。これによって、空洞や埋設管等を示す地中探査データを、地上の映像を示す正確なオルソ画像中に一体的に表示させて特定・把握でき、従来技術では得られない正確・高精度な地中探査が可能となる。
As described above, according to the underground exploration device according to the embodiment of the present invention, the three-dimensional underground radar 20 serving as the underground exploration sensor is effectively protected, and the underground exploration data is highly accurate and accurate. High-precision data that enables accurate data acquisition, and more accurate and high-accuracy position information that cannot be obtained by GPS as ground and ground position information. 3D information can be obtained.
Therefore, according to the present embodiment, the underground exploration data and the ground surface information are different from those obtained by simply displaying the underground exploration data and the plan view (such as a map) as in the prior art. It is possible to generate and display the data and the ground ortho image as a single 3D information. As a result, underground exploration data indicating cavities, buried pipes, etc. can be identified and grasped in an accurate ortho image showing ground images in an integrated manner, and accurate and highly accurate ground that cannot be obtained with conventional technology. Medium exploration becomes possible.

なお、本発明の地中探査装置について、好ましい実施形態を示して説明したが、本発明は、上述した実施形態に限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
例えば、上述した実施形態では、本発明に係る地中探査手段(センサ)として、電磁波を利用したレーダ(三次元地中レーダ20)を例に取って説明したが、地中探査手段は、地中の三次元情報を取得・生成できる限り、電磁波を用いるレーダに限定されるものではない。具体的には、地中探査手段としては、電磁波を用いる場合の他、地震波や電気比抵抗,超音波,レーダなどを用いるセンサ等であっても良い。
In addition, although the preferred embodiment was shown and demonstrated about the underground exploration apparatus of this invention, this invention is not limited to embodiment mentioned above, A various change implementation is possible in the scope of the present invention. Needless to say.
For example, in the above-described embodiment, the explanation has been made taking the radar (three-dimensional underground radar 20) using electromagnetic waves as an example of the underground exploration means (sensor) according to the present invention. As long as the three-dimensional information therein can be acquired and generated, the radar is not limited to the radar using electromagnetic waves. Specifically, the underground exploration means may be a sensor using seismic waves, electrical resistivity, ultrasonic waves, radar, etc., in addition to using electromagnetic waves.

本発明は、地震波や電気比抵抗,電磁波,超音波等に対する地盤の物理的性質を利用して、地中(地下)の状況を非破壊で間接的に探査・調査する、地中レーダ探査等の地中探査技術に好適に利用可能である。   The present invention makes use of the physical properties of the ground against seismic waves, electrical resistivity, electromagnetic waves, ultrasonic waves, etc. to search and investigate underground (underground) conditions indirectly and non-destructively, such as underground radar exploration It can be suitably used for underground exploration technology.

10 探査車両
11 GPS(高精度GNSS)
20 三次元地中レーダ(地中探査手段)
21 レーダ本体
22 アンテナ
30 全方位カメラ(地上映像生成手段)
40 CV(カメラベクトル)演算部
50 一元化処理部(三次元情報一元化処理手段)
10 Exploration vehicle 11 GPS (High precision GNSS)
20 3D ground penetrating radar
21 Radar body 22 Antenna 30 Omnidirectional camera (ground image generation means)
40 CV (camera vector) calculation unit 50 Unification processing unit (three-dimensional information unification processing means)

そして、本実施形態では、上記のような三次元地中レーダ20のアンテナ22が、図2(a)に示すように、探査車両10の底面の前輪と後輪の間、あるいは複数の車輪の車軸間に配置されるようになっている。
このように三次元地中レーダ20のアンテナ22を探査車両10の底面に配置することにより、図2(b)に示すように、探査対象となる路面を複数回(例えば同じ道路を2回)、車幅方向にずらして走行させることで、アンテナ22の電磁波の照射範囲(照射幅)を超える道路であっても、路面の全幅にわたる地中探査データを取得することができる。図2(b)では、探査車両10を同一路面で2回走行させることにより、7.5cm間隔の地中探査データを、例えば道路幅3.0mの全範囲で取得できる場合を示している。
In the present embodiment, the antenna 22 of the three-dimensional underground radar 20 as described above is provided between the front and rear wheels on the bottom surface of the exploration vehicle 10 or a plurality of wheels as shown in FIG. It is arranged between the axles.
By arranging the antenna 22 of the three-dimensional ground penetrating radar 20 on the bottom surface of the exploration vehicle 10 in this way, as shown in FIG. 2 (b), the road surface to be explored is multiple times (for example, twice on the same road). By traveling in the vehicle width direction, underground survey data over the entire width of the road surface can be acquired even on a road that exceeds the irradiation range (irradiation width) of the electromagnetic wave of the antenna 22. FIG. 2B shows a case where the underground exploration data at intervals of 7.5 cm can be acquired over the entire range of the road width of 3.0 m, for example , by causing the exploration vehicle 10 to travel twice on the same road surface. .

図5に、本実施形態の全方位カメラ30で取得・生成される地上360度の立体全周映像の一例を示す。
全方位カメラ30は、周囲360°の全周映像を撮像できるため、例えば図5(a)に示すように、路面を走行する探査車両10を中心とした半径約5mの地上の状態・風景が撮像される。同図の例では、全幅員14.55m,有効幅員13.75mの道路や橋梁等で、片側車線の中央を走行する探査車両10を中心とした車道部3.5m,路肩0.5m,側帯0.5m,歩道部2.0m,分離帯0.75,地覆0.4mの範囲について、360°の全周映像が撮像・取得できることが分かる。
また、図5(b)に示すように、路面を走行する探査車両10を中心とした半径約5〜25mの範囲で地上の状態・風景が撮像され、路面横にある斜面(法面)についても360°の全周映像が撮像・取得できることが分かる。
図5(c)は、全方位カメラ30で撮像された360°の全周映像の出力例である。
FIG. 5 shows an example of a 360-degree stereoscopic all-round image acquired and generated by the omnidirectional camera 30 of the present embodiment.
Since the omnidirectional camera 30 can capture a 360-degree all-around video, for example, as shown in FIG. 5A, the ground state / landscape with a radius of about 5 m centered on the exploration vehicle 10 traveling on the road surface. Is imaged. In the example in the figure, the road width is 3.5m, the road shoulder is 0.5m, the side belt, centering on the exploration vehicle 10 traveling in the center of one side lane on a road or bridge with a total width of 14.55m and an effective width of 13.75m. It can be seen that 360 ° all-around video can be captured and acquired in the range of 0.5 m, sidewalk part 2.0 m, separation zone 0.75, and ground cover 0.4 m.
In addition, as shown in FIG. 5 (b), a ground state / landscape is imaged within a radius of about 5 to 25 m with the exploration vehicle 10 traveling on the road surface as a slope (slope) next to the road surface. It can also be seen that a 360 ° all-round image can be captured and acquired.
FIG. 5C is an output example of a 360 ° omnidirectional video imaged by the omnidirectional camera 30.

カメラベクトルとは、移動するカメラの持つ六個の自由度のベクトルである。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の係数を決定することである。
A camera vector is a vector of six degrees of freedom possessed by a moving camera.
In general, a stationary three-dimensional object has six degrees of freedom of position coordinates (X, Y, Z) and rotation angles (Φx, Φy, Φz) of the respective coordinate axes. Therefore, the camera vector refers to a vector of six degrees of freedom of the camera position coordinates (X, Y, Z) and the rotation angles (Φx, Φy, Φz) of the respective coordinate axes. When the camera moves, the direction of movement also enters the degree of freedom, which can be derived by differentiation from the above six degrees of freedom.
Thus, the detection of the camera vector in the present embodiment means that the camera takes six degrees of freedom for each frame and determines six different coefficients for each frame.

図12に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
Image 1 and 2 shown in FIG. 12 is an image obtained by developing Mercator 360 degrees all around the image, the latitude phi, when the through degree theta, a point on the image 1 (.theta.1, .phi.1), a point on the image 2 (Θ2, φ2). The spatial coordinates of each camera are z1 = (cos φ1 cos θ1, cos φ1 sin θ1, sin φ1), z2 = (cos φ2 cos θ2, cos φ2 sin θ2, sin φ2). If the camera movement vector is t and the camera rotation matrix is R, z1T [t] × Rz2 = 0 is the epipolar equation.
By providing a sufficient number of feature points, t and R can be calculated as a solution by the method of least squares by linear algebra calculation. This calculation is applied to a plurality of corresponding frames.

Claims (3)

前輪及び後輪を含む複数の車輪を備え、路面を走行可能な探査車両と、
前記探査車両に配置され、当該探査車両が走行する路面下の地中三次元情報を生成する地中探査手段と、を備え、
前記地中探査手段が、前記探査車両の底面の、前記前輪と後輪の間、あるいは前記複数の車輪の車軸間に配置される
ことを特徴とする地中探査装置。
An exploration vehicle having a plurality of wheels including front wheels and rear wheels and capable of traveling on a road surface;
An underground exploration means that is arranged in the exploration vehicle and generates underground three-dimensional information under the road surface on which the exploration vehicle travels,
The underground exploration device is characterized in that the underground exploration means is disposed between the front and rear wheels or between the axles of the plurality of wheels on the bottom surface of the exploration vehicle.
前記探査車両に配置され、当該探査車両が走行する路面上の地上三次元映像を生成する地上映像生成手段と、
前記地中探査手段で生成される地中三次元情報と、前記地上映像生成手段で生成される地上三次元映像を、所定のデータ一元化処理により、地中から地上空間まで一元化された三次元情報として生成する三次元情報一元化処理手段と、を備える
ことを特徴とする請求項1記載の地中探査装置。
A terrestrial image generation means for generating a terrestrial 3D image disposed on the exploration vehicle and traveling on the road surface on which the exploration vehicle runs;
Three-dimensional information in which the underground three-dimensional information generated by the underground exploration means and the ground three-dimensional video generated by the ground image generating means are unified from the ground to the ground space by a predetermined data unification process. The underground exploration device according to claim 1, further comprising: three-dimensional information unification processing means that is generated as follows.
前記地上映像生成手段が、
前記地上三次元映像の画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、
抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部と、を有するカメラベクトル演算手段を備え、
前記三次元情報一元化処理手段が、
前記カメラベクトル演算手段で生成されたカメラベクトルと、前記地中三次元情報が有する位置座標情報に基づいて、前記地中三次元情報と前記地上三次元映像を一元化する
ことを特徴とする請求項1又は2記載の地中探査装置。
The terrestrial video generation means is
A feature point extraction unit for automatically extracting a predetermined number of feature points from the image data of the terrestrial 3D video;
About the extracted feature points, a feature point correspondence processing unit that automatically tracks within each frame image of the moving image and obtains a correspondence relationship between the frame images;
A camera vector calculation unit that obtains the three-dimensional position coordinates of the feature point for which the correspondence relationship is obtained, and obtains a camera vector composed of the three-dimensional position coordinates and the three-dimensional rotation coordinates of the camera corresponding to each frame image from the three-dimensional position coordinates. And a camera vector calculation means having
The three-dimensional information unification processing means
The ground 3D information and the ground 3D image are unified based on the camera vector generated by the camera vector calculation means and the position coordinate information of the ground 3D information. The underground exploration device according to 1 or 2.
JP2016161333A 2016-08-19 2016-08-19 Underground exploration equipment Active JP6446005B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016161333A JP6446005B2 (en) 2016-08-19 2016-08-19 Underground exploration equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016161333A JP6446005B2 (en) 2016-08-19 2016-08-19 Underground exploration equipment

Publications (2)

Publication Number Publication Date
JP2018028507A true JP2018028507A (en) 2018-02-22
JP6446005B2 JP6446005B2 (en) 2018-12-26

Family

ID=61247868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016161333A Active JP6446005B2 (en) 2016-08-19 2016-08-19 Underground exploration equipment

Country Status (1)

Country Link
JP (1) JP6446005B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219348A (en) * 2018-06-22 2019-12-26 株式会社カナン・ジオリサーチ Moisture ratio mapping method, and moisture ratio mapping device
JP2020046239A (en) * 2018-09-18 2020-03-26 日本信号株式会社 Image processing method, image processing apparatus and underground radar device
WO2020240662A1 (en) * 2019-05-27 2020-12-03 日本電信電話株式会社 Ground penetrating radar device and measurement method
JP2021070945A (en) * 2019-10-30 2021-05-06 中日本ハイウェイ・エンジニアリング名古屋株式会社 Internal defect detection display method for highway concrete floor slabs using perspectives and system for the same
JP2021117199A (en) * 2020-01-29 2021-08-10 株式会社日立情報通信エンジニアリング Buried object information generation system and buried object information generation method
CN113704945A (en) * 2021-10-25 2021-11-26 武汉幻城经纬科技有限公司 Pipe network road correlation analysis method and device, storage medium and electronic equipment
KR102590442B1 (en) * 2023-04-17 2023-10-19 주식회사 제이에스이앤씨 Vehicle-type GPR Device for Night Driving
WO2024047798A1 (en) * 2022-08-31 2024-03-07 日本電信電話株式会社 Data analysis device, exploration system, data analysis method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04194693A (en) * 1990-11-28 1992-07-14 Mitsui Eng & Shipbuild Co Ltd Radar system for detecting cavity under road
JPH0990029A (en) * 1995-09-20 1997-04-04 Japan Radio Co Ltd Underground radar
JP2005115420A (en) * 2003-10-02 2005-04-28 Kazuo Iwane Three-dimensional shape generation device
JP2008111725A (en) * 2006-10-30 2008-05-15 Tokyo Electric Power Co Inc:The Leaf area index calculator, leaf area index calculation method, and its program
JP2015090345A (en) * 2013-11-07 2015-05-11 株式会社環境総合テクノス Three-dimensional diagnostic system for deformation beneath road surface, and three-dimensional diagnostic method for deformation beneath road surface
JP2015111248A (en) * 2013-11-06 2015-06-18 アジア航測株式会社 Fault diagram creation device, fault diagram creation method and fault diagram creation program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04194693A (en) * 1990-11-28 1992-07-14 Mitsui Eng & Shipbuild Co Ltd Radar system for detecting cavity under road
JPH0990029A (en) * 1995-09-20 1997-04-04 Japan Radio Co Ltd Underground radar
JP2005115420A (en) * 2003-10-02 2005-04-28 Kazuo Iwane Three-dimensional shape generation device
JP2008111725A (en) * 2006-10-30 2008-05-15 Tokyo Electric Power Co Inc:The Leaf area index calculator, leaf area index calculation method, and its program
JP2015111248A (en) * 2013-11-06 2015-06-18 アジア航測株式会社 Fault diagram creation device, fault diagram creation method and fault diagram creation program
JP2015090345A (en) * 2013-11-07 2015-05-11 株式会社環境総合テクノス Three-dimensional diagnostic system for deformation beneath road surface, and three-dimensional diagnostic method for deformation beneath road surface

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7162208B2 (en) 2018-06-22 2022-10-28 株式会社カナン・ジオリサーチ Water content ratio mapping method and water content ratio mapping device
JP2019219348A (en) * 2018-06-22 2019-12-26 株式会社カナン・ジオリサーチ Moisture ratio mapping method, and moisture ratio mapping device
JP2020046239A (en) * 2018-09-18 2020-03-26 日本信号株式会社 Image processing method, image processing apparatus and underground radar device
JP7227533B2 (en) 2019-05-27 2023-02-22 日本電信電話株式会社 GROUND PENETRATION RADAR DEVICE AND MEASUREMENT METHOD
JPWO2020240662A1 (en) * 2019-05-27 2020-12-03
WO2020240662A1 (en) * 2019-05-27 2020-12-03 日本電信電話株式会社 Ground penetrating radar device and measurement method
JP2021070945A (en) * 2019-10-30 2021-05-06 中日本ハイウェイ・エンジニアリング名古屋株式会社 Internal defect detection display method for highway concrete floor slabs using perspectives and system for the same
JP2021117199A (en) * 2020-01-29 2021-08-10 株式会社日立情報通信エンジニアリング Buried object information generation system and buried object information generation method
CN113704945A (en) * 2021-10-25 2021-11-26 武汉幻城经纬科技有限公司 Pipe network road correlation analysis method and device, storage medium and electronic equipment
CN113704945B (en) * 2021-10-25 2022-01-07 武汉幻城经纬科技有限公司 Pipe network road correlation analysis method and device, storage medium and electronic equipment
WO2024047798A1 (en) * 2022-08-31 2024-03-07 日本電信電話株式会社 Data analysis device, exploration system, data analysis method, and program
WO2024048056A1 (en) * 2022-08-31 2024-03-07 日本電信電話株式会社 Data analysis device, search system, data analysis method, and program
KR102590442B1 (en) * 2023-04-17 2023-10-19 주식회사 제이에스이앤씨 Vehicle-type GPR Device for Night Driving

Also Published As

Publication number Publication date
JP6446005B2 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
JP6446005B2 (en) Underground exploration equipment
JP6694395B2 (en) Method and system for determining position relative to a digital map
JP4273119B2 (en) Navigation device
Li Mobile mapping: An emerging technology for spatial data acquisition
JP5227065B2 (en) 3D machine map, 3D machine map generation device, navigation device and automatic driving device
US11818625B2 (en) Sensitive area management
JP4980606B2 (en) Mobile automatic monitoring device
US11237005B2 (en) Method and arrangement for sourcing of location information, generating and updating maps representing the location
US20130236107A1 (en) Moving image processing device, moving image processing method, and recording medium having moving image processing program
JP2018081008A (en) Self position posture locating device using reference video map
CN112292582A (en) Method and system for generating high definition map
JP7162208B2 (en) Water content ratio mapping method and water content ratio mapping device
US11733041B2 (en) Apparatus and method for fault-proof collection of imagery for underwater survey
JP2022553750A (en) Method for detecting infrastructure elements of an underground network and its mobile detector
Soheilian et al. Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas
JPWO2005040721A1 (en) 3D automatic surveying device
KR101730296B1 (en) Mobile mapping system for generating buried object 3D space information data and method for generating buried objects 3D space information data using the mobile mapping system
Sukumar et al. Multi-sensor integration for unmanned terrain modeling
JP6168380B2 (en) Obstacle detection method and obstacle detection system
Poręba et al. Assessing the accuracy of land-based mobile laser scanning data
Tamimi et al. Performance Assessment of a Mini Mobile Mapping System: Iphone 14 pro Installed on a e-Scooter
Shinohara et al. GMS3 a unified system of ground penetrating radar and camera vector for efficient road infrastructure maintenance
Trusheim et al. Cooperative localisation using image sensors in a dynamic traffic scenario
US12008780B2 (en) System and method for data acquisition
Chu et al. The performance analysis of a portable mobile mapping system with different gnss processing strategies

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181130

R150 Certificate of patent or registration of utility model

Ref document number: 6446005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250