JP6230678B2 - Terminal device, terminal device program, and invisible object displacement state visualization method - Google Patents

Terminal device, terminal device program, and invisible object displacement state visualization method Download PDF

Info

Publication number
JP6230678B2
JP6230678B2 JP2016208258A JP2016208258A JP6230678B2 JP 6230678 B2 JP6230678 B2 JP 6230678B2 JP 2016208258 A JP2016208258 A JP 2016208258A JP 2016208258 A JP2016208258 A JP 2016208258A JP 6230678 B2 JP6230678 B2 JP 6230678B2
Authority
JP
Japan
Prior art keywords
terminal device
image
unit
information
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016208258A
Other languages
Japanese (ja)
Other versions
JP2017073139A (en
Inventor
健太 國本
健太 國本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016208258A priority Critical patent/JP6230678B2/en
Publication of JP2017073139A publication Critical patent/JP2017073139A/en
Application granted granted Critical
Publication of JP6230678B2 publication Critical patent/JP6230678B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

この発明は、例えば道路に埋設され直視できない不可視物である上下水道管や電線、通信ケーブル等設備の補修点検や、あるいは部分交換作業を実施する際、前記設備の埋設位置、形状や変形変位状態を現実空間の動画像として可視化する端末装置、端末装置用プログラム、および不可視物の変位状態可視化方法に関するものである。   This invention is, for example, when performing repair inspection or partial replacement work of equipment such as water and sewage pipes, electric wires, communication cables, etc., which are invisible objects that are embedded in the road and cannot be directly viewed, The present invention relates to a terminal device, a terminal device program, and a method for visualizing a displacement state of an invisible object.

従来、道路下の地下埋設物である上水道管や、ガス管、光ファイバーケーブル等が存在している現場において、道路改良工事や地下埋設物の補修工事等で道路を掘削する場合、不可視物である地下埋設物を直観的に確認できて、さらに仮想画像の表示位置精度を適切なものとすることのできる画像合成装置、画像合成プログラム、および画像合成システムとして、実空間画像を取得する画像取得手段と、画像取得手段の位置および姿勢を計測する計測手段と、空間モデルを記憶する記憶手段と、演算処置を行い表示画面で遠近表示された透視図となるように仮想空間画像を作成する画像作成手段と、実空間画像と遠近表示された仮想空間画像とを表示画面に重畳して表示される表示手段とを備えたものが示されている(例えば、特許文献1)。   Conventionally, when excavating a road for road improvement work or repair work for underground burials at sites where water supply pipes, gas pipes, optical fiber cables, etc., which are underground buried under the roads, are invisible Image acquisition means for acquiring a real space image as an image composition apparatus, an image composition program, and an image composition system capable of intuitively confirming an underground buried object and further ensuring appropriate display position accuracy of a virtual image And a measuring means for measuring the position and orientation of the image acquiring means, a storage means for storing a space model, and an image creation for creating a virtual space image so as to obtain a perspective view that is processed and displayed on a display screen. And a display means for displaying a real space image and a virtual space image displayed in perspective in a superimposed manner on a display screen (for example, Patent Document 1).

特開2012−133471号公報JP 2012-133471 A

しかしながら、上記特許文献1に示された技術は、不可視物である地下埋設物を仮想的に可視化した仮想画像を、現実空間の動画像に重畳表示するものであり、地下埋設物の位置情報の測定誤差によりずれが発生することを防ぐため、仮想画像を前後左右にずらして補正を行っているが、深さ方向の補正が不可能であり、例えば上水道管の漏水箇所の補修点検作業において、どの程度道路を掘り下げればよいか、上記特許文献1に示された技術では、適切な対応を可能とするものではないという問題点がある。   However, the technique disclosed in Patent Document 1 displays a virtual image obtained by virtually visualizing an underground object that is an invisible object on a moving image in a real space. In order to prevent deviation due to measurement error, the virtual image is corrected by shifting it back and forth, left and right, but correction in the depth direction is impossible, for example, in repair and inspection work for water leaks in water pipes, To what extent the road should be dug, there is a problem that the technique disclosed in Patent Document 1 does not enable an appropriate response.

この発明は上記のような課題を解決するためになされたものであり、道路に埋設されている不可視物設備の補修点検や部分交換の作業を実施する際、不可視物設備を現実空間の画像に重畳表示する場合において、補正作業の効率化、省力化を可能とした端末装置、端末装置用プログラム、および不可視物の変位状態可視化方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and when performing repair inspection and partial replacement work of invisible object facilities embedded in the road, the invisible object facilities are converted into an image of real space. An object of the present invention is to provide a terminal device, a program for a terminal device, and a method for visualizing a displacement state of an invisible object that can make correction work more efficient and labor-saving in the case of superimposed display.

第1の発明は、端末装置であって、
前記端末装置の位置の情報を取得する位置情報取得部と、
前記端末装置の姿勢の情報を取得する姿勢情報取得部と、
不可視物を覆う部材に設けられたマークの位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報に基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行う演算部と、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得する設備情報取得部と、
前記設備情報を基に仮想画像を生成する仮想画像生成部と、
前記端末装置によって撮影された所定領域の画像が表示される前記表示部に表示された補正対象体に対する操作により、前記基準平面からの変位を取得する重畳補正部と、
前記変位を前記仮想画像に反映することにより前記仮想画像生成部で生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成する画像重畳部と
が設けられたものである。
第2の発明は、端末装置であって、
前記端末装置の位置の情報を取得する位置情報取得部と、
前記端末装置の姿勢の情報を取得する姿勢情報取得部と、
不可視物を覆う部材の位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報に基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行う演算部と、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得する設備情報取得部と、
前記設備情報を基に仮想画像を生成する仮想画像生成部と、
前記端末装置によって撮影された所定領域の画像が表示される前記表示部に表示された補正対象体に対する操作により、前記基準平面からの変位を取得する重畳補正部と、
前記変位を前記仮想画像に反映することにより前記仮想画像生成部で生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成する画像重畳部と
が設けられたものである。
第3の発明は、端末装置に不可視物の変位状態可視化を実行させるプログラムであって、
前記端末装置の位置および姿勢の情報を取得するステップと、
不可視物を覆う部材位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報とに基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行うステップと、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得するステップと、
前記設備情報を基に仮想画像を生成するステップと、
前記端末装置によって撮影された所定領域の画像を表示するステップと、
前記表示部に表示された補正対象体に対する操作により前記基準平面からの変位を取得するステップと、
前記変位を前記仮想画像に反映することによって生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成するステップと
を実行させるものである。
第4の発明は、端末装置の位置および姿勢の情報を取得するステップと、
不可視物を覆う部材位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報とに基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行うステップと、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得するステップと、
前記設備情報を基に仮想画像を生成するステップと、
前記端末装置によって撮影された所定領域の画像を表示するステップと、
前記表示部に表示された補正対象体に対する操作により前記基準平面からの変位を取得するステップと、
前記変位を前記仮想画像に反映することによって生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成するステップと
を備えたものである。
1st invention is a terminal device,
A location information acquisition unit for acquiring location information of the terminal device;
An attitude information acquisition unit for acquiring information on the attitude of the terminal device;
An area displayed on a display unit provided in the terminal device based on the position information and the posture information, by inputting position information of a mark provided on a member covering an invisible object, setting a reference plane A calculation unit for calculating the plane coordinates of
A facility information acquisition unit for acquiring facility information of the invisible object in the plane coordinates from a facility information database;
A virtual image generation unit that generates a virtual image based on the facility information;
A superimposition correction unit that acquires a displacement from the reference plane by an operation on a correction target displayed on the display unit on which an image of a predetermined area photographed by the terminal device is displayed;
By reflecting the displacement on the virtual image, a reference point of the virtual image for superimposition generated by the virtual image generation unit and a reference point displayed on the display unit are superimposed to generate an image of the real space And an image superimposing unit to be provided.
A second invention is a terminal device,
A location information acquisition unit for acquiring location information of the terminal device;
An attitude information acquisition unit for acquiring information on the attitude of the terminal device;
The position information of the member covering the invisible object is input, the reference plane is set, and the plane coordinates of the area displayed on the display unit provided in the terminal device are calculated based on the position information and the posture information An arithmetic unit for performing
A facility information acquisition unit for acquiring facility information of the invisible object in the plane coordinates from a facility information database;
A virtual image generation unit that generates a virtual image based on the facility information;
A superimposition correction unit that acquires a displacement from the reference plane by an operation on a correction target displayed on the display unit on which an image of a predetermined area photographed by the terminal device is displayed;
By reflecting the displacement on the virtual image, a reference point of the virtual image for superimposition generated by the virtual image generation unit and a reference point displayed on the display unit are superimposed to generate an image of the real space And an image superimposing unit to be provided.
A third invention is a program for causing a terminal device to visualize a displacement state of an invisible object,
Obtaining information on the position and orientation of the terminal device;
Input the position information of the member covering the invisible object, set the reference plane, and calculate the plane coordinates of the area displayed on the display unit provided in the terminal device based on the position information and the posture information The steps of
Obtaining facility information of the invisible object in the plane coordinates from a facility information database;
Generating a virtual image based on the facility information;
Displaying an image of a predetermined area photographed by the terminal device;
Obtaining a displacement from the reference plane by an operation on the correction object displayed on the display unit;
Generating a real space image by superimposing a reference point of the virtual image for superimposition generated by reflecting the displacement on the virtual image and a reference point displayed on the display unit; Is.
4th invention acquires the information of the position and attitude | position of a terminal device,
Input the position information of the member covering the invisible object, set the reference plane, and calculate the plane coordinates of the area displayed on the display unit provided in the terminal device based on the position information and the posture information The steps of
Obtaining facility information of the invisible object in the plane coordinates from a facility information database;
Generating a virtual image based on the facility information;
Displaying an image of a predetermined area photographed by the terminal device;
Obtaining a displacement from the reference plane by an operation on the correction object displayed on the display unit;
Generating a real space image by superimposing a reference point of the superimposing virtual image generated by reflecting the displacement on the virtual image and a reference point displayed on the display unit. Is.

この第1、第2、第3の発明に係る端末装置は、上記のような構成とプログラムを備え、また第4の発明は上記のような方法であるので、道路に埋設されている例えば上下水道管や通信ケーブルあるいは、鉄筋コンクリート装設備の鉄筋等外部から直視できない不可視物の位置を、現実空間の画像として動画像表示部に表示でき、俯瞰した画像となり、地震等自然災害発生による例えば液状化現象による上水道管の浮き上がりの補修工事において、上水道管の初期布設時からの深度変位を正確に把握でき、補修工法の設定、工期の見積もりの確度向上、現場作業の効率化ひいては、コストの低減につながるという効果がある。   Since the terminal device according to the first, second, and third inventions has the above-described configuration and program, and the fourth invention is the above-described method, it is embedded in a road, for example The position of invisible objects that cannot be seen directly from the outside, such as sewer pipes, communication cables, or reinforcing bars of reinforced concrete equipment, can be displayed on the video display as a real space image, resulting in a bird's-eye view, such as liquefaction due to the occurrence of natural disasters such as earthquakes In the repair work of the rise of the water supply pipe due to the phenomenon, it is possible to accurately grasp the depth displacement from the initial installation of the water supply pipe, setting the repair method, improving the accuracy of the construction period estimate, improving the efficiency of the work on site, and reducing the cost It has the effect of being connected.

実施の形態1による携帯用端末装置を示すブロック図である。1 is a block diagram showing a portable terminal device according to Embodiment 1. FIG. 実施の形態1による上水道管の浮き上がり状態を示す図である。It is a figure which shows the floating state of the waterworks pipe by Embodiment 1. FIG. 実施の形態1による携帯用端末装置の動画像表示部を示す図である。4 is a diagram showing a moving image display unit of the portable terminal device according to Embodiment 1. FIG. 実施の形態1による動作ステップを示すフローチャートである。3 is a flowchart showing operation steps according to the first embodiment. 実施の形態1による仮想画面を示す図である。6 is a diagram illustrating a virtual screen according to Embodiment 1. FIG.

実施の形態1.
以下、この発明を図に基づいて説明する。
図1は実施の形態1による道路工事等の現場作業を支援するための携帯用端末装置(以下、端末と称す)100を示すブロック図であり、図1において、端末100は後述する例えば、道路に埋設された不可視物である上水道管32が、地震等の自然災害発生に伴い部分的な損傷を受け、水漏れ現象が発生した場合の補修作業において、現場技術員(以下ユーザと称す)が端末100によって撮影する第1、第2の位置情報から得られる保持状態情報と、前記上水道管32の埋設時の位置情報を格納する設備情報データベース1とを比較して、埋設当時の位置からの変位を特定するものである。
この端末100が用いられる現場の1例を図2に示す。図2は地震発生による地面液状化現象によって上水道管32が地表面方向に持ち上がった状態を示しており、マンホール31のマンホール蓋31aは本来ならば道路面33と同じ高さにあるべきだが、液状化現象によってマンホール31、および上水道管32とともに、持ち上がっている状態である。不可視物を覆う部材に相当する道路面33には3箇所以上の複数箇所にペンキ等で描かれたマーク(標識)34が設けられており、このマーク34は基準平面を決定するのに利用される。ユーザ30は端末100を保持して利用し、この端末100によって図2に示すようにマーク34を含む所定領域内の撮影角度θ内の道路面33を撮影し、後述の演算等によって所要の補正が行われて上水道管32の変位を特定する構成を有している。
Embodiment 1 FIG.
Hereinafter, the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a portable terminal device (hereinafter referred to as a terminal) 100 for supporting field work such as road construction according to the first embodiment. In FIG. In the repair work when the water pipe 32, which is an invisible material buried in the building, is partially damaged due to a natural disaster such as an earthquake and a water leakage phenomenon occurs, a field engineer (hereinafter referred to as a user) The displacement from the position at the time of embedding is compared by comparing the holding state information obtained from the first and second position information photographed by 100 with the equipment information database 1 storing the position information at the time of embedding the water pipe 32. Is specified.
An example of the site where this terminal 100 is used is shown in FIG. FIG. 2 shows a state where the water pipe 32 is lifted in the direction of the ground surface due to the ground liquefaction phenomenon due to the occurrence of an earthquake. It is in a state of being lifted together with the manhole 31 and the water pipe 32 due to the chemical phenomenon. The road surface 33 corresponding to the member covering the invisible object is provided with marks (signs) 34 drawn with paint or the like at a plurality of three or more places, and this mark 34 is used to determine a reference plane. The The user 30 holds and uses the terminal 100, and uses the terminal 100 to photograph the road surface 33 within the photographing angle θ within the predetermined area including the mark 34 as shown in FIG. Is performed and the displacement of the water supply pipe 32 is specified.

端末100を構成する各要素を図1に基づいて説明する。位置情報取得部2は、端末100に内蔵されているGPS(全地球測位システム)や無線LANあるいは携帯電話基地局からの電波を利用した3点測量を可能とする機能を備え、端末100の現在位置の緯度、経度、高度情報を取得する。設備情報取得部3は、前記位置情報取得部2および後述する姿勢情報取得部4が取得した保持状態情報とをキーとして、その位置における前記上水道管32の埋設時の設備情報を格納している設備情報データベース1より、設備情報12を取得する。この際、前記設備情報取得部3は3点以上の座標で指定された領域、つまり、マーク34が設けられた領域に埋設されている設備に関する情報であって、この場合、領域内における上水道管32の布設の始点、終点、管の寸法、材質や道路面33からの深さ等の情報を取得する。姿勢情報取得部4は、端末100に内蔵された地磁気センサ、加速度センサ等を利用して、端末100の仰俯角、方位角、回転角を取得する。仮想画像生成部5は、設備情報12を基に仮想画像を生成する。重畳補正部6は後述する画像重畳部7でもって、仮装画像と現実空間の動画像を重畳した場合に、仰俯角や方位角、回転角によっては正しく重畳できない場合があり、それを補正するパラメータを生成するとともに、動画像表示部9を介して補正量の入力可能となるような機能を備えている。撮影部8は、端末100に設けられたカメラであり、静止画および動画像撮影を行う。図3に示す動画像表示部9は前記撮影部8で撮影した動画像および現実空間と仮想画像を重畳した動画像を表示する。尚、撮影部8は端末100の裏面に設けられている。演算部10は各種演算を行うものであり、その結果は記憶部11に記憶される。   Each element which comprises the terminal 100 is demonstrated based on FIG. The location information acquisition unit 2 has a function that enables three-point surveying using radio waves from a GPS (Global Positioning System), a wireless LAN, or a mobile phone base station built in the terminal 100. Get the latitude, longitude and altitude information of the location. The facility information acquisition unit 3 stores facility information at the time of embedding the water supply pipe 32 at the position using the position information acquisition unit 2 and the holding state information acquired by the posture information acquisition unit 4 described later as a key. The facility information 12 is acquired from the facility information database 1. At this time, the facility information acquisition unit 3 is information regarding the facility embedded in the region designated by the coordinates of three or more points, that is, the region where the mark 34 is provided, and in this case, the water pipe in the region Information such as 32 laying start points, end points, pipe dimensions, material, and depth from the road surface 33 is acquired. The posture information acquisition unit 4 acquires the elevation angle, the azimuth angle, and the rotation angle of the terminal 100 using a geomagnetic sensor, an acceleration sensor, and the like built in the terminal 100. The virtual image generation unit 5 generates a virtual image based on the facility information 12. The superimposing correction unit 6 is an image superimposing unit 7 to be described later. When a disguise image and a moving image in the real space are superimposed, there is a case where the superimposition angle, the azimuth angle, and the rotation angle may not be correctly superimposed. And a function that enables the input of a correction amount via the moving image display unit 9. The imaging unit 8 is a camera provided in the terminal 100 and performs still image and moving image imaging. A moving image display unit 9 shown in FIG. 3 displays a moving image captured by the imaging unit 8 and a moving image in which a real space and a virtual image are superimposed. Note that the photographing unit 8 is provided on the back surface of the terminal 100. The calculation unit 10 performs various calculations, and the result is stored in the storage unit 11.

次に端末100を用いた現場作業の支援動作を、次の動作STおよび図4に基づいて説明を行う。
ST0.後述する基準平面を設定する際の基準点となるマーク34をユーザ30によって道路面33にペンキ等で3箇所以上の複数箇所を記入するステップ。
ST1.位置情報取得部2によってユーザ30が保持する端末100の第1の位置情報である現在位置の緯度、経度、高度の情報を取得するステップ。
ST2.姿勢情報取得部4によって、端末100の第2の位置情報である仰角、方位角、回転角の情報を取得するステップ。
ST3.撮影部8によって道路面33に記入された複数のマーク34を含む所定領域の画像を撮影し、前記マーク34の位置情報を入力する演算部10は基準平面を設定し、その基準平面のデータが記憶部11に記憶されるステップ。
ST4.演算部10は、ST1、ST2で取得した第1の位置情報および第2の位置情報とから得られる端末100の保持状態情報と、撮影部8の画角とから、動画像表示部9に表示される領域の平面座標を演算するステップ。
ST5.設備情報取得部3は、ST4で得られた平面座標内における道路面33下の上水道管の布設始点、終点、管の寸法、道路面33からの深さ等の設備情報12を設備情報データベース1から取得するステップ。
ST6.仮想画像生成部5はST5の設備情報12を基にして、仮想画像を生成するステップ。
ST7.動画像表示部9にユーザ30によって撮影された図2に示す撮影角θ内の所定領域の画像が図5に示すように、補正情報入力画面として表示されるステップ。
ST8.ST7の補正情報入力画面に表示され、所望の補正の対象体である道路面33から浮き上がっているマンホール蓋31aまでの部分を指または他の手段によってタッチされることで、前記ST3で設定された基準平面からのマンホール蓋31aの浮き上がりを求め、この値を入力する重畳補正部6は写像変換にて高さのでデータに変換、補正量を取得するステップ。
ST9.ST5で取得した設備情報12の内の上水道管32の埋設深さのデータに、ST8で得られた補正量をST6で作成した仮想画像に反映して、仮想画像生成部5で重畳用の仮想画像を生成するステップ。
ST10.画像重畳部7にて、ST9で生成した重畳用の仮想画像の基準点であるマンホール31と、動画像表示部9で表示される基準点であるマンホール31とを重畳することによって現実空間の動画像とするステップ。
Next, the field work support operation using the terminal 100 will be described based on the next operation ST and FIG.
ST0. A step of entering a plurality of three or more places on the road surface 33 by a user 30 with a mark 34 as a reference point when setting a reference plane to be described later.
ST1. A step of acquiring the latitude, longitude, and altitude information of the current position, which is the first position information of the terminal 100 held by the user 30, by the position information acquisition unit 2.
ST2. A step of acquiring information of elevation angle, azimuth angle, and rotation angle, which is second position information of the terminal 100, by the posture information acquisition unit 4.
ST3. The image capturing unit 8 captures an image of a predetermined area including a plurality of marks 34 written on the road surface 33, and the arithmetic unit 10 that inputs the position information of the marks 34 sets a reference plane, and the data of the reference plane is Steps stored in the storage unit 11.
ST4. The calculation unit 10 displays on the moving image display unit 9 from the holding state information of the terminal 100 obtained from the first position information and the second position information acquired in ST1 and ST2 and the angle of view of the photographing unit 8. Calculating the plane coordinates of the region to be processed.
ST5. The equipment information acquisition unit 3 obtains equipment information 12 such as the installation start point, end point, pipe dimensions, and depth from the road surface 33 of the water pipe below the road surface 33 in the plane coordinates obtained in ST4. Step to get from.
ST6. The virtual image generation unit 5 generates a virtual image based on the facility information 12 of ST5.
ST7. A step of displaying an image of a predetermined area within the photographing angle θ shown in FIG. 2 taken by the user 30 on the moving image display unit 9 as a correction information input screen as shown in FIG.
ST8. It is displayed on the correction information input screen in ST7, and is set in ST3 by touching the part from the road surface 33, which is a target for correction, to the manhole cover 31a that is lifted by a finger or other means. The step of obtaining the floating amount of the manhole cover 31a from the reference plane, and the superimposing correction unit 6 that inputs this value converts it into data by mapping conversion and acquires the correction amount.
ST9. The correction amount obtained in ST8 is reflected in the virtual image created in ST6 in the embedded depth data of the water supply pipe 32 in the facility information 12 acquired in ST5, and the virtual image generator 5 performs the virtual for superimposition. Generating an image;
ST10. The image superimposing unit 7 superimposes the manhole 31 which is the reference point of the virtual image for superimposition generated in ST9 and the manhole 31 which is the reference point displayed on the moving image display unit 9, thereby moving the moving image in the real space. Step to image.

以上のように、この実施の形態1によれば、ユーザ30は道路面33にマーク34の設置と端末100を用いた動画像表示部9上での操作によって、埋設された上水道管32の道路面33からの深さ方向の補正が容易に行えるとともに、前記ST10において動画像表示部9上で視認可能となり、例えば地震発生後の地下埋設物である上水道管32の初期布設時からの深度変位の正確な把握が可能となり、作業工法の設定、工期の見積もり等の現場作業の効率化がはかれ、ひいてはコスト低減につながるという効果がある。   As described above, according to the first embodiment, the user 30 installs the mark 34 on the road surface 33 and operates on the moving image display unit 9 using the terminal 100, so that the road of the water pipe 32 embedded therein. The depth direction from the surface 33 can be easily corrected, and can be visually recognized on the moving image display unit 9 in ST10. For example, the depth displacement from the initial laying of the water supply pipe 32 which is an underground buried object after an earthquake occurs This makes it possible to accurately grasp the field work, improve the efficiency of on-site work such as setting the work method, estimating the work period, and the like, leading to cost reduction.

実施の形態2.
前述した実施の形態1における端末100は、この端末100に内蔵されたGPSや、無線LANあるいは携帯電話局からの電波を利用した3点測量が可能なものであった。この実施の形態2では、スマートフォンやタブレットで利用可能なGPSに加え、GPS専用端末で実現されているGDPS(Differential GPS)やRTK−GPS(Real Time Kinematic−GPS)等の測位方法によって取得した位置情報を設備情報取得部3の入力として利用する構成としてもよい。これにより、より高精度な位置合わせが可能で画像の重畳もより正確となる。
Embodiment 2. FIG.
The terminal 100 according to the first embodiment described above is capable of three-point surveying using a GPS built in the terminal 100, a radio wave from a wireless LAN, or a mobile phone station. In the second embodiment, in addition to GPS that can be used on a smartphone or tablet, a position acquired by a positioning method such as GDPS (Differential GPS) or RTK-GPS (Real Time Kinetic-GPS) that is realized by a GPS dedicated terminal. It is good also as a structure which utilizes information as an input of the facility information acquisition part 3. FIG. As a result, more accurate alignment is possible, and image superimposition is more accurate.

実施の形態3.
実施の形態1では不可視物である上水道管32の埋設された位置の深度情報を補正して、端末100の動画像表示部9に表示するものであるが、この実施の形態3では前述したST10で得られた前記動画像表示部9の画像情報を入力する設備情報取得部3は、設備情報12として設備情報データベース1に格納する、すなわち書き戻す機能を備えたものである。この場合、設備情報データベース1は端末100に設けてもよく、あるいは通信回線を介してアクセス可能な場所に配置されているものであってもよい。
このように、この実施の形態3によって、深度補正された上水道管32の位置情報が、設備情報データベース1に書き戻されることで、最新の情報が格納され次施工時等における作業効率が向上する。
Embodiment 3 FIG.
In the first embodiment, the depth information of the position where the water pipe 32, which is an invisible object, is buried is corrected and displayed on the moving image display unit 9 of the terminal 100. In the third embodiment, ST10 described above is used. The facility information acquisition unit 3 for inputting the image information of the moving image display unit 9 obtained in (1) has a function of storing it in the facility information database 1 as the facility information 12, that is, a function of rewriting. In this case, the facility information database 1 may be provided in the terminal 100 or may be located at a location accessible via a communication line.
As described above, according to the third embodiment, the position information of the water pipe 32 whose depth has been corrected is written back to the facility information database 1, so that the latest information is stored and the work efficiency at the time of the next construction and the like is improved. .

実施の形態4.
実施の形態1では端末100が図2に示したように、いわゆる携帯型であったがこの実施の形態4では、端末100に設けられた要素機能を2つに分け、一方を眼鏡型に収納し、残りを図2に示したようないわゆる携帯型に収納したものである。すなわち図1に示した各構成要素の内、位置情報取得部2、姿勢情報取得部4、撮影部8、動画像表示部9とが一体化された眼鏡型端末装置に収納され、設備情報取得部3、仮想画像生成部5、重畳補正部6、画像重畳部7、演算部10、記憶部11を図2に示したような携帯型端末装置に収納したものである。この場合、携帯型端末装置に設けられる前記設備情報取得部3、仮想画像生成部5、重畳補正部6、画像重畳部7、演算部10、記憶部11は必ずしも作業現場に配置する必要はなく、例えば、作業現場に隣接した事務所内や市役所に配置して通信手段によるアクセス可能な方式を採用してもよい。
以上のように2分割構造とすることにより可能性が向上し、ユーザ30が端末100を保持する必要がなく作業効率が上昇する効果がある。
Embodiment 4 FIG.
In the first embodiment, the terminal 100 is a so-called portable type as shown in FIG. 2, but in this fourth embodiment, the element function provided in the terminal 100 is divided into two, and one is stored in a glasses type. The rest is stored in a so-called portable type as shown in FIG. That is, among the components shown in FIG. 1, the position information acquisition unit 2, the posture information acquisition unit 4, the imaging unit 8, and the moving image display unit 9 are housed in an integrated eyeglass-type terminal device to acquire facility information. The unit 3, the virtual image generation unit 5, the superimposition correction unit 6, the image superposition unit 7, the calculation unit 10, and the storage unit 11 are housed in a portable terminal device as shown in FIG. 2. In this case, the facility information acquisition unit 3, virtual image generation unit 5, superimposition correction unit 6, image superimposition unit 7, calculation unit 10, and storage unit 11 provided in the portable terminal device are not necessarily arranged on the work site. For example, a system that is arranged in an office adjacent to the work site or in a city hall and can be accessed by communication means may be adopted.
As described above, the two-divided structure improves the possibility, and there is an effect that the user 30 does not need to hold the terminal 100 and the working efficiency is increased.

実施の形態5.
実施の形態1では、マーク(標識)34を道路面33にペンキ等で描く場合について述べたが、不可視物を覆う部材であって既存設備である道路のセンタラインや横断歩道等の目印となるものを利用して基準平面が設定されるようにしてもよい。このことにより、端末100の利便性が向上する。
Embodiment 5. FIG.
In the first embodiment, the case where the mark (sign) 34 is drawn on the road surface 33 with paint or the like has been described. A reference plane may be set by using an object. This improves the convenience of the terminal 100.

実施の形態6.
前述した実施の形態1のST5において、設備情報取得部3が取得する上水道管32に関する設備情報12は、上水道管32の布設の始点、終点、管の寸法、道路面33からの深度等であったが、この実施の形態6では前記取得する設備情報に代替して、設備情報データベース1に格納されている設備図面とするものである。すなわち、設備情報データベース1には加えて、前記不可視物の設備情報である設備図面が格納されており、ユーザ30は端末100を操作することによって、設備情報取得部3を介して、設備情報データベース1より前述した平面座標内における、設備図面を設備情報12として取得し、引き続き実施の形態1で述べたST7の設備情報12に代替して取得した設備図面を基にして仮想画像生成部5で仮想画像を生成するものである。すなわち、前述した実施の形態1における現場作業のステップにおいて、ST5とST6とを以下のST5a、ST6aとしたものであり、これ以外は、実施の形態1と同様である。
ST5a.設備情報取得部3は、前記ST4で得られた平面座標内における不可視物の設備図面を設備情報12として設備情報データベース1から取得するステップ。
ST6a.ST5aの設備図面を仮想画像生成部5で仮想画面として生成するステップ。
以上のように、この実施の形態6では設備情報データベース1に格納されている設備図面を設備情報12として取得するので、ST10で得られる現実空間の動画像には、設備図面に記載されている上水道管32以外であって、この上水道管32に隣接して設けられている他の埋設物も表示されることになり、補修作業実施時のより安住性が確保できるという効果がある。尚、設備図面は前記設備情報データベース1に格納されている例を示したが、別途設けられた設備図面データベースから取得するものであってもよい。
Embodiment 6 FIG.
In ST5 of the first embodiment described above, the facility information 12 regarding the water supply pipe 32 acquired by the facility information acquisition unit 3 is the starting point, the end point, the dimension of the pipe, the depth from the road surface 33, and the like. However, in the sixth embodiment, instead of the acquired facility information, the facility drawing stored in the facility information database 1 is used. That is, in addition to the equipment information database 1, equipment drawings that are equipment information of the invisible material are stored, and the user 30 operates the terminal 100 to operate the equipment information database via the equipment information acquisition unit 3. 1, the equipment drawing in the plane coordinates described above is acquired as equipment information 12, and the virtual image generation unit 5 continues to use the equipment drawing obtained in place of the equipment information 12 of ST7 described in the first embodiment. A virtual image is generated. That is, in the field work steps in the first embodiment described above, ST5 and ST6 are changed to the following ST5a and ST6a, and the other steps are the same as in the first embodiment.
ST5a. The facility information acquisition unit 3 acquires from the facility information database 1 as facility information 12 a facility drawing of an invisible object in the plane coordinates obtained in ST4.
ST6a. A step of generating the equipment drawing of ST5a as a virtual screen by the virtual image generation unit 5.
As described above, since the facility drawing stored in the facility information database 1 is acquired as the facility information 12 in the sixth embodiment, the moving image in the real space obtained in ST10 is described in the facility drawing. Other than the water supply pipe 32, other buried objects provided adjacent to the water supply pipe 32 are also displayed, and there is an effect that it is possible to secure a safer habitation when performing repair work. In addition, although the equipment drawing showed the example stored in the said equipment information database 1, you may acquire from the equipment drawing database provided separately.

上記実施の形態1〜6は、道路下に布設された上水道管32を不可視物としたが、これに限らず置物等における鉄筋コンクリートの鉄筋等であってもよい。   In the first to sixth embodiments, the water pipe 32 installed under the road is invisible, but is not limited thereto, and may be a reinforced concrete reinforcing bar or the like in a figurine or the like.

尚、この発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、その実施の形態を適宜、変形、省略することが可能である。   It should be noted that within the scope of the present invention, the embodiments can be freely combined, or the embodiments can be appropriately modified or omitted.

1 設備情報データベース、2 位置情報取得部、3 設備情報取得部、
4 姿勢情報取得部、5 仮想画像生成部、6 重畳補正部、7 画像重畳部、
8 撮影部、9 動画像表示部、10 演算部、12 設備情報、31 マンホール、
31a マンホール蓋、32 上水道管、33 道路面、34 マーク、100 端末。
1 equipment information database, 2 position information acquisition unit, 3 equipment information acquisition unit,
4 posture information acquisition unit, 5 virtual image generation unit, 6 superimposition correction unit, 7 image superimposition unit,
8 shooting section, 9 moving image display section, 10 calculation section, 12 equipment information, 31 manhole,
31a Manhole cover, 32 Water pipe, 33 Road surface, 34 mark, 100 terminal.

Claims (8)

端末装置であって、
前記端末装置の位置の情報を取得する位置情報取得部と、
前記端末装置の姿勢の情報を取得する姿勢情報取得部と、
不可視物を覆う部材に設けられたマークの位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報に基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行う演算部と、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得する設備情報取得部と、
前記設備情報を基に仮想画像を生成する仮想画像生成部と、
前記端末装置によって撮影された所定領域の画像が表示される前記表示部に表示された補正対象体に対する操作により、前記基準平面からの変位を取得する重畳補正部と、
前記変位を前記仮想画像に反映することにより前記仮想画像生成部で生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成する画像重畳部と
が設けられた端末装置。
A terminal device,
A location information acquisition unit for acquiring location information of the terminal device;
An attitude information acquisition unit for acquiring information on the attitude of the terminal device;
An area displayed on a display unit provided in the terminal device based on the position information and the posture information, by inputting position information of a mark provided on a member covering an invisible object, setting a reference plane A calculation unit for calculating the plane coordinates of
A facility information acquisition unit for acquiring facility information of the invisible object in the plane coordinates from a facility information database;
A virtual image generation unit that generates a virtual image based on the facility information;
A superimposition correction unit that acquires a displacement from the reference plane by an operation on a correction target displayed on the display unit on which an image of a predetermined area photographed by the terminal device is displayed;
By reflecting the displacement on the virtual image, a reference point of the virtual image for superimposition generated by the virtual image generation unit and a reference point displayed on the display unit are superimposed to generate an image of the real space A terminal device provided with an image superimposing unit.
端末装置であって、
前記端末装置の位置の情報を取得する位置情報取得部と、
前記端末装置の姿勢の情報を取得する姿勢情報取得部と、
不可視物を覆う部材の位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報に基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行う演算部と、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得する設備情報取得部と、
前記設備情報を基に仮想画像を生成する仮想画像生成部と、
前記端末装置によって撮影された所定領域の画像が表示される前記表示部に表示された補正対象体に対する操作により、前記基準平面からの変位を取得する重畳補正部と、
前記変位を前記仮想画像に反映することにより前記仮想画像生成部で生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成する画像重畳部と
が設けられた端末装置。
A terminal device,
A location information acquisition unit for acquiring location information of the terminal device;
An attitude information acquisition unit for acquiring information on the attitude of the terminal device;
The position information of the member covering the invisible object is input, the reference plane is set, and the plane coordinates of the area displayed on the display unit provided in the terminal device are calculated based on the position information and the posture information An arithmetic unit for performing
A facility information acquisition unit for acquiring facility information of the invisible object in the plane coordinates from a facility information database;
A virtual image generation unit that generates a virtual image based on the facility information;
A superimposition correction unit that acquires a displacement from the reference plane by an operation on a correction target displayed on the display unit on which an image of a predetermined area photographed by the terminal device is displayed;
By reflecting the displacement on the virtual image, a reference point of the virtual image for superimposition generated by the virtual image generation unit and a reference point displayed on the display unit are superimposed to generate an image of the real space A terminal device provided with an image superimposing unit.
前記画像重畳部が生成する現実空間の画像は、前記設備情報取得部を介して、前記設備情報データベースに格納される請求項1または請求項2に記載の端末装置。 The terminal device according to claim 1, wherein an image of the real space generated by the image superimposing unit is stored in the facility information database via the facility information acquisition unit. 前記端末装置に設けられた前記位置情報取得部、前記姿勢情報取得部は、一体化されて眼鏡型端末装置に収納されているとともに、残る前記設備情報取得部、前記仮想画像生成部、前記重畳補正部、前記画像重畳部、前記演算部は、携帯型端末装置に収納されている請求項1から請求項3のいずれか1項に記載の端末装置。 The position information acquisition unit and the posture information acquisition unit provided in the terminal device are integrated and stored in the eyeglass-type terminal device, and the remaining facility information acquisition unit, the virtual image generation unit, and the superimposition The terminal device according to any one of claims 1 to 3, wherein the correction unit, the image superimposing unit, and the computing unit are housed in a portable terminal device. 端末装置に不可視物の変位状態可視化を実行させるプログラムであって、
前記端末装置の位置および姿勢の情報を取得するステップと、
不可視物を覆う部材位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報とに基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行うステップと、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得するステップと、
前記設備情報を基に仮想画像を生成するステップと、
前記端末装置によって撮影された所定領域の画像を表示するステップと、
前記表示部に表示された補正対象体に対する操作により前記基準平面からの変位を取得するステップと、
前記変位を前記仮想画像に反映することによって生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成するステップと
を実行させる端末装置用プログラム。
A program for causing a terminal device to visualize the displacement state of an invisible object,
Obtaining information on the position and orientation of the terminal device;
Input the position information of the member covering the invisible object, set the reference plane, and calculate the plane coordinates of the area displayed on the display unit provided in the terminal device based on the position information and the posture information The steps of
Obtaining facility information of the invisible object in the plane coordinates from a facility information database;
Generating a virtual image based on the facility information;
Displaying an image of a predetermined area photographed by the terminal device;
Obtaining a displacement from the reference plane by an operation on the correction object displayed on the display unit;
Generating a real space image by superimposing a reference point of the virtual image for superimposition generated by reflecting the displacement on the virtual image and a reference point displayed on the display unit; Terminal device program.
前記現実空間の画像を生成するステップは、
前記現実空間の画像を前記設備情報データベースに格納するステップを含む請求項5に記載の端末装置用プログラム。
The step of generating an image of the real space includes
The terminal device program according to claim 5, comprising a step of storing the real space image in the facility information database.
端末装置の位置および姿勢の情報を取得するステップと、
不可視物を覆う部材位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報とに基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行うステップと、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得するステップと、
前記設備情報を基に仮想画像を生成するステップと、
前記端末装置によって撮影された所定領域の画像を表示するステップと、
前記表示部に表示された補正対象体に対する操作により前記基準平面からの変位を取得するステップと、
前記変位を前記仮想画像に反映することによって生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成するステップと
を備えた不可視物の変位状態可視化方法。
Obtaining information on the position and orientation of the terminal device;
Input the position information of the member covering the invisible object, set the reference plane, and calculate the plane coordinates of the area displayed on the display unit provided in the terminal device based on the position information and the posture information The steps of
Obtaining facility information of the invisible object in the plane coordinates from a facility information database;
Generating a virtual image based on the facility information;
Displaying an image of a predetermined area photographed by the terminal device;
Obtaining a displacement from the reference plane by an operation on the correction object displayed on the display unit;
Generating a real space image by superimposing a reference point of the superimposing virtual image generated by reflecting the displacement on the virtual image and a reference point displayed on the display unit. Displacement state visualization method for invisible objects.
前記現実空間の画像を生成するステップは、
前記現実空間の画像を前記設備情報データベースに格納するステップを含む請求項7に記載の不可視物の変位状態可視化方法。
The step of generating an image of the real space includes
The method for visualizing a displacement state of an invisible object according to claim 7, further comprising the step of storing an image of the real space in the facility information database.
JP2016208258A 2016-10-25 2016-10-25 Terminal device, terminal device program, and invisible object displacement state visualization method Expired - Fee Related JP6230678B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016208258A JP6230678B2 (en) 2016-10-25 2016-10-25 Terminal device, terminal device program, and invisible object displacement state visualization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016208258A JP6230678B2 (en) 2016-10-25 2016-10-25 Terminal device, terminal device program, and invisible object displacement state visualization method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013256113A Division JP6033209B2 (en) 2013-12-11 2013-12-11 Portable terminal device

Publications (2)

Publication Number Publication Date
JP2017073139A JP2017073139A (en) 2017-04-13
JP6230678B2 true JP6230678B2 (en) 2017-11-15

Family

ID=58538284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016208258A Expired - Fee Related JP6230678B2 (en) 2016-10-25 2016-10-25 Terminal device, terminal device program, and invisible object displacement state visualization method

Country Status (1)

Country Link
JP (1) JP6230678B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6849634B2 (en) * 2018-06-08 2021-03-24 朝日航洋株式会社 Terminal device and control method of terminal device
JP7277410B2 (en) * 2020-03-30 2023-05-18 東邦ガスネットワーク株式会社 augmented reality display
CN114491878B (en) * 2021-11-18 2023-02-28 广州泰禾大数据服务有限公司 Linear full real-time data dynamic visual analysis method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094625A (en) * 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
JP4537557B2 (en) * 2000-09-19 2010-09-01 オリンパス株式会社 Information presentation system
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US9552669B2 (en) * 2010-09-02 2017-01-24 Underground Imaging Technologies, Llc System, apparatus, and method for utilizing geographic information systems
JP5682060B2 (en) * 2010-12-20 2015-03-11 国際航業株式会社 Image composition apparatus, image composition program, and image composition system

Also Published As

Publication number Publication date
JP2017073139A (en) 2017-04-13

Similar Documents

Publication Publication Date Title
JP6033209B2 (en) Portable terminal device
US9619944B2 (en) Coordinate geometry augmented reality process for internal elements concealed behind an external element
JP5682060B2 (en) Image composition apparatus, image composition program, and image composition system
JP4940036B2 (en) Image display system with stereoscopic measure display function and image display program with stereoscopic measure display function
JP6230678B2 (en) Terminal device, terminal device program, and invisible object displacement state visualization method
KR101852368B1 (en) Method for underground information based on vrs geometric-correction used by uav taking picture
KR100822814B1 (en) Method for overlapping real-time landscape image and gis data
Hansen et al. Augmented reality for subsurface utility engineering, revisited
JP6064269B2 (en) Information processing apparatus, information processing method, and program
JP2011243076A (en) Object management image generation device and object management image generation program
JP7277410B2 (en) augmented reality display
KR20130007142A (en) Method and recording medium for providing information based on augmented reality in mobile terminal
JP2019078033A (en) Off-set diagram creation support system, off-set diagram creation support method, flying body used for the off-set diagram creation support system, and off-set diagram creation support device
JP2003329440A (en) Ground displacement positioning system
JP5817012B2 (en) Information processing apparatus, information processing method, and program
KR101401265B1 (en) an apparatus for offering the location of underground facilities
US10185787B1 (en) Tool for accurate onsite model visualization that facilitates environment interaction
JP2008009855A (en) Facility planning system by three-dimensional photogrammetry
JP2012194002A (en) Measurement system
JP2021163295A (en) Work support device
JP7492160B2 (en) Display device, display method, and program
TWI780734B (en) Method for displaying hidden object through augmented reality
KR102474883B1 (en) Device and Mehtod for measuring underground facility location
Hernández-López et al. Calibration and direct georeferencing analysis of a multi-sensor system for cultural heritage recording
JP2023035370A (en) Information processing system, image processing device and image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171017

R150 Certificate of patent or registration of utility model

Ref document number: 6230678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees