JP2015011620A - Progress management terminal, progress management system, progress management method, and progress management program - Google Patents

Progress management terminal, progress management system, progress management method, and progress management program Download PDF

Info

Publication number
JP2015011620A
JP2015011620A JP2013138168A JP2013138168A JP2015011620A JP 2015011620 A JP2015011620 A JP 2015011620A JP 2013138168 A JP2013138168 A JP 2013138168A JP 2013138168 A JP2013138168 A JP 2013138168A JP 2015011620 A JP2015011620 A JP 2015011620A
Authority
JP
Japan
Prior art keywords
progress management
virtual
progress
space
management terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013138168A
Other languages
Japanese (ja)
Other versions
JP6121268B2 (en
Inventor
裕一 屋代
Yuichi Yashiro
裕一 屋代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2013138168A priority Critical patent/JP6121268B2/en
Publication of JP2015011620A publication Critical patent/JP2015011620A/en
Application granted granted Critical
Publication of JP6121268B2 publication Critical patent/JP6121268B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system supporting construction of a plant and maintenance and management work, at the plant which is being constructed.SOLUTION: A tablet 1, from an actual position that is measured, acquires a virtual position of a virtual camera for displaying cubic shape in virtual space that is stored in memory means. At an acquired view point of the virtual camera, an object in the virtual space is displayed on display means in a display mode which varies depending on progress state. ID of the displayed object is associated with inspection data of an inputted object, which is stored in the memory means.

Description

本発明は、進捗管理端末、進捗管理システム、進捗管理方法、および、進捗管理プログラムに関する。   The present invention relates to a progress management terminal, a progress management system, a progress management method, and a progress management program.

化学プラントなどの建設現場において、作業者に携帯端末を所持させるプラントの建設、維持管理システムが提案されている。携帯端末の表示画面には、作業者のプラントの建設、維持管理作業を支援するための情報が表示される。これにより、作業者は、作業指示を受ける事務所と、作業指示を実行する作業現場とを往復せずに、作業現場で作業内容を容易に把握することができる。   In construction sites such as chemical plants, plant construction and maintenance systems that allow workers to carry mobile terminals have been proposed. On the display screen of the portable terminal, information for supporting the worker's plant construction and maintenance work is displayed. Thus, the worker can easily grasp the work contents at the work site without reciprocating between the office that receives the work instruction and the work site that executes the work instruction.

特許文献1には、作業者が見ている位置・方向データをジャイロコンパスで検出し、その検出結果から作業者が見ているはずの3D画像を計算し、その3D画像に必要な情報も付加して作業者に見せるプラント保守支援システムが記載されている。これにより、3D−CAD(Computer Aided Design)で作成された建設物系の3D画像(仮想空間)を実空間とリンクして作業者に把握させることができる。   In Patent Document 1, position / direction data viewed by an operator is detected by a gyro compass, a 3D image that the operator should be viewing is calculated from the detection result, and necessary information is added to the 3D image. A plant maintenance support system to be shown to the worker is described. Thereby, the 3D image (virtual space) of the construction system created by 3D-CAD (Computer Aided Design) can be linked to the real space and can be grasped by the worker.

特許文献2には、検査者が現場で撮影した証拠写真を、検査対象の撮影ポイントと関連づけて簡易に入力できるようにする検査システムが記載されている。これにより、証拠写真がどの位置からどの方向で撮影されたかが自動で関連づけられるので、撮影ポイントの入力の手間を削減できる。   Patent Document 2 describes an inspection system that enables an evidence photograph taken by an inspector on site to be easily input in association with an imaging point to be inspected. This automatically associates from which position the evidence photograph was taken and in which direction, so that it is possible to reduce the trouble of inputting the photographing point.

特開2008−269310号公報JP 2008-269310 A 特開2011−8764号公報Japanese Patent Application Laid-Open No. 2011-8864

プラントが建設中のときには、作業者の携帯端末に表示される3D画像(仮想空間)と、作業者が実際に目視している現場の空間(実空間)とは、大きく異なっていることもある。建設の初期状態では、建設用の資材が徐々に建設現場に運ばれて組み立てられているので、実空間では建設資材がまばらに存在して、組み上がっていない。一方、仮想空間はあらかじめ建設事務所が作成したプラントの完成図のデータを利用しているので、建設資材がすべて配置され、それらの資材が正確に組み立てられている状態である。   When the plant is under construction, the 3D image (virtual space) displayed on the worker's mobile terminal may be significantly different from the space (real space) in the field that the worker is actually viewing. . In the initial state of construction, since construction materials are gradually transported to the construction site and assembled, the construction materials are sparsely present in the real space and are not assembled. On the other hand, since the virtual space uses the data of the completed drawing of the plant created in advance by the construction office, all the construction materials are arranged and the materials are assembled accurately.

よって、建設中プラントの現場にいる作業者は、実空間と仮想空間とが目視でかなり異なるために、携帯端末の表示画面をみても、充分に現場の作業を支援する情報を得ることができない。よって、建設中のプラントにおいて、そのプラント内の現場作業を支援するプラントシステムが望まれる。   Therefore, the worker at the site of the plant under construction cannot obtain sufficient information for supporting the work at the site even when viewing the display screen of the mobile terminal because the real space and the virtual space are visually different. . Therefore, a plant system that supports field work in the plant under construction is desired.

そこで、本発明は、建設中のプラントにおけるプラントの建設、維持管理作業を支援するシステムを提供することを、主な目的とする。   Therefore, a main object of the present invention is to provide a system that supports plant construction and maintenance work in a plant under construction.

前記課題を解決するために、本発明の進捗管理端末は、
実空間の建設現場において作業者に所持される前記進捗管理端末と、
前記実空間の空間位置を対応付けた仮想空間を用意し、前記実空間に配置されるオブジェクトごとに、そのオブジェクトのIDと、そのオブジェクトの作業における進捗状態と、そのオブジェクトの前記仮想空間内の立体形状および配置される仮想位置と、を対応付けて格納する記憶手段と、
前記作業者自身の実空間内の空間位置である実位置を測定する位置処理部と、
前記位置処理部で測定された前記実位置から、前記記憶手段に格納されている前記仮想空間内の立体形状を表示するための仮想カメラの仮想位置を求め、求めた前記仮想カメラの視点で前記仮想空間内の前記オブジェクトを、前記進捗状態ごとに異なる表示形態にて表示手段に表示する処理、ならびに、表示される前記オブジェクトの選択を受け付ける処理をおこなうインタフェース部と、
前記インタフェース部により選択された前記オブジェクトについての検査データの入力を受け付けると、その入力された検査データと、前記インタフェース部で選択された前記オブジェクトのIDとを対応付けて前記記憶手段に格納する制御手段と、を有することを特徴とする。
その他の手段は、後記する。
In order to solve the above problems, the progress management terminal of the present invention provides:
The progress management terminal possessed by an operator at a construction site in real space;
A virtual space in which the space position of the real space is associated is prepared, and for each object arranged in the real space, the ID of the object, the progress state of the work of the object, and the object in the virtual space Storage means for associating and storing the three-dimensional shape and the arranged virtual position;
A position processing unit for measuring a real position which is a spatial position in the real space of the worker himself,
A virtual position of a virtual camera for displaying a three-dimensional shape in the virtual space stored in the storage unit is obtained from the actual position measured by the position processing unit, and the viewpoint of the obtained virtual camera is used to obtain the virtual position. An interface unit for performing processing for displaying the object in the virtual space on a display unit in a different display form for each progress state, and processing for receiving selection of the displayed object;
Upon receiving input of inspection data for the object selected by the interface unit, the control unit stores the input inspection data and the ID of the object selected by the interface unit in association with each other. And means.
Other means will be described later.

本発明によれば、建設中のプラントにおけるプラントの建設、維持管理作業を支援するシステムを提供することができる。   According to the present invention, it is possible to provide a system that supports plant construction and maintenance work in a plant under construction.

本発明の一実施形態に関する進捗管理システムの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the progress management system regarding one Embodiment of this invention. 本発明の一実施形態に関する進捗管理システムのタブレットを示す構成図である。It is a block diagram which shows the tablet of the progress management system regarding one Embodiment of this invention. 本発明の一実施形態に関する進捗管理システムの処理を示すフローチャートである。It is a flowchart which shows the process of the progress management system regarding one Embodiment of this invention. 本発明の一実施形態に関するタブレットの表示画面を示す画面図である。It is a screen figure which shows the display screen of the tablet regarding one Embodiment of this invention. 本発明の一実施形態に関する表示画面内の仮想空間欄を示す画面図である。It is a screen figure which shows the virtual space column in the display screen regarding one Embodiment of this invention. 本発明の一実施形態に関する図1とは別の実空間と仮想空間との対応を示す説明図である。It is explanatory drawing which shows a response | compatibility with the real space and virtual space different from FIG. 1 regarding one Embodiment of this invention. 本発明の一実施形態に関する表示画面内の仮想空間欄を示す画面図である。It is a screen figure which shows the virtual space column in the display screen regarding one Embodiment of this invention. 本発明の一実施形態に関する統合サーバの表示画面を示す画面図である。It is a screen figure which shows the display screen of the integrated server regarding one Embodiment of this invention.

以下、本発明の一実施形態を、図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、進捗管理システムの概要を示す説明図である。進捗管理システムは、化学プラントなどの建設現場において、機器の据付状況の確認、機材の性能試験や検査などの建設に関する進捗管理業務を支援する。   FIG. 1 is an explanatory diagram showing an overview of the progress management system. The progress management system supports progress management related to construction such as confirmation of equipment installation status, equipment performance tests and inspections at construction sites such as chemical plants.

図1(a)は、進捗管理の対象であるプラントの実空間を示す。なお、「実空間」という用語は、作業者101(ここでは、実際に建設作業を行う人だけでなく、その作業監督なども含めたユーザ全般を指す)に所持されるタブレット1(進捗管理端末)の表示画面である「仮想空間」と対比させるために、用いている。作業者101は、タブレット1に表示される仮想空間内のタンクなどのオブジェクトの形状データと、目の前に存在する実空間の建設対象102の形状とを比較することで、目の前に存在するオブジェクトがどのオブジェクトなのかを容易に特定できる。なお、オブジェクトの形状データは、3D−CADなどで用いられる立体データであり、あらかじめ図1(b)の統合データベース2a内に登録されている。   Fig.1 (a) shows the real space of the plant which is the object of progress management. Note that the term “real space” refers to the tablet 1 (progress management terminal) possessed by the worker 101 (in this case, not only the person who actually performs the construction work but also the general user including the work supervisor). ) Is used for comparison with the “virtual space” which is the display screen. The worker 101 is present in front of the eyes by comparing the shape data of an object such as a tank in the virtual space displayed on the tablet 1 with the shape of the construction target 102 in the real space in front of the eyes. It is possible to easily identify the object to be operated. The shape data of the object is stereoscopic data used in 3D-CAD or the like, and is registered in advance in the integrated database 2a in FIG.

さらに、作業者101により入力される検査データについて、タブレット1が、検査データと特定したオブジェクト(のID)とを対応付けて格納することにより、作業者101によるオブジェクトの選択ミスを発生させないようにできる。なお、オブジェクトごとの検査データとは、例えば、オブジェクトの建設工程における進捗データ、オブジェクトを撮影した写真データ、および、オブジェクトに対する検査項目を記載した検査帳票データなどにより構成される。   Further, the inspection data input by the worker 101 is stored in the tablet 1 by associating the inspection data with the identified object (ID) so as not to cause an object selection error by the worker 101. it can. The inspection data for each object includes, for example, progress data in the object construction process, photograph data obtained by photographing the object, and inspection form data describing inspection items for the object.

図1(b)は、進捗管理システムの構成図である。進捗管理システムは、建設事務所側に設置される統合サーバ2(進捗管理サーバ)と、建設現場の作業者101ごとに所持されるタブレット1とが無線LAN(Local Area Network)などの通信手段により接続されている。統合サーバ2は、それぞれのタブレット1から入力される検査データをとりまとめて、統合データベース2a内に管理する。これにより、ある作業者101による入力データは、統合サーバ2を中継して、別の作業者101により参照可能である。   FIG. 1B is a configuration diagram of the progress management system. In the progress management system, the integrated server 2 (progress management server) installed on the construction office side and the tablet 1 possessed for each worker 101 at the construction site are connected by communication means such as a wireless LAN (Local Area Network). It is connected. The integrated server 2 collects the inspection data input from each tablet 1 and manages it in the integrated database 2a. Thereby, input data by a certain worker 101 can be referred to by another worker 101 via the integration server 2.

図2は、進捗管理システムのタブレットを示す構成図である。タブレット1は、基本構成部10と、インタフェース部20と、位置処理部30とから構成される。
基本構成部10は、コンピュータの基本構成として、制御手段としてのCPU(Central Processing Unit)11、記憶手段としてのRAM(Random Access Memory)12、ROM(Read Only Memory)13、および、他装置と通信するためのインタフェースである通信部14から構成される。
FIG. 2 is a configuration diagram illustrating a tablet of the progress management system. The tablet 1 includes a basic configuration unit 10, an interface unit 20, and a position processing unit 30.
The basic configuration unit 10 communicates with a CPU (Central Processing Unit) 11 as a control means, a RAM (Random Access Memory) 12 as a storage means, a ROM (Read Only Memory) 13 and other devices as a basic configuration of the computer. It is comprised from the communication part 14 which is an interface for doing.

インタフェース部20は、作業者101によって操作される構成として、タッチパネル21と、タッチパネル21への表示内容を制御する表示制御部22と、タッチパネル21からの入力内容を制御する入力制御部23と、タッチパネル21と同じ面(前面)または逆の面(背面)に設置されるカメラ24とから構成される。
位置処理部30は、実空間内のタブレット1の位置や、仮想空間内の仮想カメラの位置を決定するためのセンサとして、GPS(Global Positioning System)31と、3軸加速度センサ(ジャイロセンサ32)と、地磁気センサ33と、気圧センサ34とのうちの少なくとも1つのセンサとして構成される。
The interface unit 20 is configured to be operated by the worker 101, and includes a touch panel 21, a display control unit 22 that controls display contents on the touch panel 21, an input control unit 23 that controls input contents from the touch panel 21, and a touch panel. And a camera 24 installed on the same surface (front surface) as 21 or on the opposite surface (rear surface).
The position processing unit 30 includes a GPS (Global Positioning System) 31 and a three-axis acceleration sensor (gyro sensor 32) as sensors for determining the position of the tablet 1 in the real space and the position of the virtual camera in the virtual space. And at least one of the geomagnetic sensor 33 and the atmospheric pressure sensor 34.

以下、作業者101(タブレット1)についての実空間の空間位置(緯度、経度、標高)を(X,Y,Z)とし、実空間の空間位置を中心としたカメラ24の向き(ピッチ、ヨー、ロール)を(A,B,C)とする。同様に、仮想空間の空間位置を(x,y,z)とし、仮想空間の空間位置を中心としたカメラ24の向きを(a,b,c)とする。   Hereinafter, the space position (latitude, longitude, altitude) of the real space for the worker 101 (tablet 1) is (X, Y, Z), and the direction (pitch, yaw) of the camera 24 centered on the space position of the real space. , Roll) is (A, B, C). Similarly, the spatial position of the virtual space is (x, y, z), and the orientation of the camera 24 around the spatial position of the virtual space is (a, b, c).

GPS31の測定値は、タブレット1の位置である(X,Y,Z)を求めるために使用される。なお、GPS31は、(X,Y,Z)を求めるための手がかりとして、衛星からの電波を用いてもよいし、D(Differential)−GPSや、RTK(Real Time Kinematic)−GPSのように、タブレット1の周囲にあらかじめ配置した電子基準点からの電波により、位置(X,Y,Z)を補正してもよい。   The measured value of the GPS 31 is used to obtain (X, Y, Z) which is the position of the tablet 1. The GPS 31 may use radio waves from a satellite as a clue for obtaining (X, Y, Z), or D (Differential) -GPS or RTK (Real Time Kinematic) -GPS. The position (X, Y, Z) may be corrected by radio waves from an electronic reference point previously arranged around the tablet 1.

さらに、タブレット1の位置のうちのZ(標高)は、気圧センサ34により求めた気圧値によって補正または代替することができる。なお、GPS31を単独で使用するだけでは、測定用電波が周囲の遮蔽物によって微弱化してしまい、位置の測定精度が落ちてしまう。しかし、気圧センサ34を用いることにより、周囲の遮蔽物の影響を受けずに、高精度のZ(標高)を求めることができる。   Further, Z (elevation) of the position of the tablet 1 can be corrected or replaced by the atmospheric pressure value obtained by the atmospheric pressure sensor 34. If the GPS 31 is used alone, the measurement radio wave is weakened by the surrounding shielding object, and the position measurement accuracy is lowered. However, by using the atmospheric pressure sensor 34, it is possible to obtain a highly accurate Z (elevation) without being affected by surrounding shielding.

ジャイロセンサ32の測定値は、カメラ24の向きである(A,B,C)を求めるために使用される。その(A,B,C)は、地磁気センサ33の測定値により補正が可能である。
そして、CPU11は、実空間内のカメラ24の空間位置(X,Y,Z)と、仮想空間内の仮想カメラの空間位置(x,y,z)とを相互に変換するとともに、カメラ24の向き(A,B,C)と仮想カメラの向き(a,b,c)とを相互に変換する。
The measured value of the gyro sensor 32 is used to obtain (A, B, C) which is the direction of the camera 24. The (A, B, C) can be corrected by the measured value of the geomagnetic sensor 33.
Then, the CPU 11 mutually converts the spatial position (X, Y, Z) of the camera 24 in the real space and the spatial position (x, y, z) of the virtual camera in the virtual space. The direction (A, B, C) and the direction (a, b, c) of the virtual camera are mutually converted.

タブレット1は、
実空間の建設現場において作業者に所持される進捗管理端末と、
実空間の空間位置を対応付けた仮想空間を用意し、実空間に配置されるオブジェクトごとに、そのオブジェクトのIDと、そのオブジェクトの作業における進捗状態と、そのオブジェクトの仮想空間内の立体形状および配置される仮想位置と、を対応付けて格納するRAM12と、
作業者自身の実空間内の空間位置である実位置を測定する位置処理部30と、
位置処理部30で測定された実位置から、RAM12に格納されている仮想空間内の立体形状を表示するための仮想カメラ24の仮想位置を求め、求めた仮想カメラ24の視点で仮想空間内のオブジェクトを、進捗状態ごとに異なる表示形態にて表示手段に表示する処理、ならびに、表示されるオブジェクトの選択を受け付ける処理をおこなうインタフェース部20と、
インタフェース部20により選択されたオブジェクトについての検査データの入力を受け付けると、その入力された検査データと、インタフェース部20で選択されたオブジェクトのIDとを対応付けてRAM12に格納するCPU11と、を有する。
Tablet 1
A progress management terminal possessed by the worker at the construction site in the real space;
A virtual space in which the space position of the real space is associated is prepared, and for each object arranged in the real space, the ID of the object, the progress status of the work of the object, the solid shape of the object in the virtual space, and A RAM 12 for storing the virtual positions to be arranged in association with each other;
A position processing unit 30 that measures a real position, which is a spatial position in the real space of the worker himself,
A virtual position of the virtual camera 24 for displaying a three-dimensional shape in the virtual space stored in the RAM 12 is obtained from the actual position measured by the position processing unit 30, and the virtual camera 24 is viewed from the viewpoint of the obtained virtual camera 24. An interface unit 20 that performs processing for displaying an object on a display unit in a display form that differs for each progress state, and processing for receiving selection of an object to be displayed;
When receiving input of inspection data for the object selected by the interface unit 20, the CPU 11 stores the input inspection data and the ID of the object selected by the interface unit 20 in association with each other in the RAM 12. .

図3は、進捗管理システムの処理を示すフローチャートである。
S101として、統合サーバ2は、あらかじめ登録されている統合データベース2aの内容を、タブレット1に送信する。なお、前記したように、統合データベース2aには、建設対象102(オブジェクト)の立体形状と、その立体形状が配置される位置情報と、その検査データ(他のタブレット1によって登録済みのデータ)とが、オブジェクトIDに対応付けられた状態で登録されている。
S102として、タブレット1は、通信部14を介してS101の統合データベース2aの内容を受信し、その受信内容を自身のRAM12の仮想空間データ内へと反映する。この反映処理により、以降の処理でタブレット1は建設対象102の立体形状をタッチパネル21に表示することができる。
FIG. 3 is a flowchart showing processing of the progress management system.
As S101, the integrated server 2 transmits the contents of the integrated database 2a registered in advance to the tablet 1. As described above, in the integrated database 2a, the three-dimensional shape of the construction object 102 (object), the position information where the three-dimensional shape is arranged, the inspection data (data registered by other tablets 1), and Are registered in association with the object ID.
As S <b> 102, the tablet 1 receives the contents of the integrated database 2 a of S <b> 101 via the communication unit 14 and reflects the received contents in the virtual space data of its own RAM 12. By this reflection process, the tablet 1 can display the three-dimensional shape of the construction object 102 on the touch panel 21 in the subsequent processes.

S111として、タブレット1は、仮想カメラの空間位置(x,y,z)と向き(a,b,c)とを検出する契機であるか否かを判定する。
S112として、位置処理部30は、実空間のユーザ(タブレット1)の位置(X,Y,Z)と、そのカメラ24の向き(A,B,C)とを検出する。
S113として、CPU11は、S112で求めた実空間内のカメラ24の空間位置(X,Y,Z)を、仮想空間内の仮想カメラの空間位置(x,y,z)へと変換し、かつ、S112で求めたカメラ24の向き(A,B,C)を、仮想カメラの向き(a,b,c)へと変換することで、仮想空間内の仮想カメラの視点(位置と向きの組み合わせ)を更新する。
As S111, the tablet 1 determines whether or not it is an opportunity to detect the spatial position (x, y, z) and orientation (a, b, c) of the virtual camera.
As S112, the position processing unit 30 detects the position (X, Y, Z) of the user (tablet 1) in the real space and the direction (A, B, C) of the camera 24.
As S113, the CPU 11 converts the spatial position (X, Y, Z) of the camera 24 in the real space obtained in S112 into the spatial position (x, y, z) of the virtual camera in the virtual space, and , By converting the orientation (A, B, C) of the camera 24 obtained in S112 into the orientation (a, b, c) of the virtual camera, the viewpoint of the virtual camera in the virtual space (combination of position and orientation) ).

なお、前記したS111〜S113は、実空間の視点をそのまま仮想空間の視点へと連動させる方法を、仮想カメラの視点更新処理の一例として示した。一方、実空間の視点とは関係なしに、作業者101に直接タッチパネル21を介して仮想空間内の仮想カメラの視点を更新させてもよい。   Note that the above-described S111 to S113 have shown a method of linking the viewpoint of the real space directly with the viewpoint of the virtual space as an example of the viewpoint update processing of the virtual camera. On the other hand, the viewpoint of the virtual camera in the virtual space may be updated directly by the worker 101 via the touch panel 21 regardless of the viewpoint of the real space.

作業者101は、タッチパネル21に対して、例えば、指1本で上下左右にドラッグすることで、仮想カメラの位置を移動し、指2本でつまむ(ピンチする)ことで、仮想カメラをズームし、指2本でタッチした状態でその指を回転させることで、仮想カメラを回転させる。入力制御部23は、これらのタッチパネル21に対する操作を受け付けると、その操作に合わせて仮想カメラの視点を更新する。なお、入力制御部23は、指の代わりにスタイラスペンなどの操作手段をもちいて、タッチパネル21への操作を受け付けてもよい。   For example, the worker 101 moves the position of the virtual camera by dragging the touch panel 21 up, down, left and right with one finger, and pinches with two fingers to zoom the virtual camera. The virtual camera is rotated by rotating the finger while touching with two fingers. When receiving an operation on these touch panels 21, the input control unit 23 updates the viewpoint of the virtual camera in accordance with the operation. The input control unit 23 may accept an operation on the touch panel 21 using an operation unit such as a stylus pen instead of a finger.

一方、作業者101は、タッチパネル21に対して、これから注目(全画面表示)するオブジェクトの特定情報(IDや名称などの検索条件)を入力し、CPU11に統合データベース2aのデータを検索させてもよい。CPU11は、統合データベース2aのデータから検索条件に合致するオブジェクトのデータを取得し、そのオブジェクトのデータに関連づけられる空間位置が見やすいように、仮想カメラの視点を更新させてもよい。   On the other hand, the worker 101 inputs specific information (search conditions such as ID and name) of an object to be noted (full screen display) to the touch panel 21 and causes the CPU 11 to search the data in the integrated database 2a. Good. The CPU 11 may acquire the data of the object that matches the search condition from the data of the integrated database 2a, and update the viewpoint of the virtual camera so that the spatial position associated with the data of the object is easy to see.

S114として、入力制御部23は、S113で更新された仮想カメラの視点が映し出す、仮想空間内の対象オブジェクトの選択を、タッチ操作などにより受け付ける。
S121として、入力制御部23は、S114で選択された対象オブジェクトについての検査データの入力を受け付ける。これにより、紙ベースの平面図面を用いて行っていた検査業務(検査・写真撮影・進捗入力)よりも、現場での大幅な工数削減が見込まれる。
As S114, the input control unit 23 accepts selection of a target object in the virtual space in which the viewpoint of the virtual camera updated in S113 is projected by a touch operation or the like.
As S121, the input control unit 23 receives input of inspection data for the target object selected in S114. As a result, it is expected that the number of man-hours on site will be greatly reduced compared to the inspection work (inspection / photographing / progress input) performed using paper-based plan drawings.

なお、S121で入力される検査データとは、対象オブジェクトが進捗状態「据付中」のタンクであれば、そのタンクの写真や、そのタンクの帳票への入力データである。さらに、入力制御部23は、据付工事が一通り終われば、進捗状態「据付中」を、次の状態「仮溶接」へと遷移させる旨の入力を検査データとして受け付ける。
CPU11は、S114で選択された対象オブジェクトのオブジェクトIDと、S121で入力された各検査データとを対応付ける。そして、通信部14は、対応付けられた検査データを、統合サーバ2へと送信する。
Note that the inspection data input in S121 is a photograph of the tank or input data to the tank form if the target object is a tank in the progress state “installing”. Furthermore, when the installation work is completed, the input control unit 23 receives, as inspection data, an input indicating that the progress state “Installing” is changed to the next state “Temporary welding”.
The CPU 11 associates the object ID of the target object selected in S114 with each inspection data input in S121. Then, the communication unit 14 transmits the associated inspection data to the integrated server 2.

S122として、統合サーバ2は、S121の対象オブジェクトのデータを受信し、その受信データを統合データベース2aに書き出す。ここで、S121のデータにおいて各検査データがオブジェクトIDと対応付けられているので、統合データベース2aにおいても、各検査データがオブジェクトIDと対応付けられた状態で保存される。これにより、設計情報(オブジェクトID)と施工情報(各検査データ)とがリンクされるので、これらのデータを統合的に管理することができる。   As S122, the integrated server 2 receives the data of the target object of S121 and writes the received data to the integrated database 2a. Here, since each inspection data is associated with the object ID in the data of S121, each inspection data is stored in a state associated with the object ID also in the integrated database 2a. Thereby, since design information (object ID) and construction information (each inspection data) are linked, these data can be managed collectively.

さらに、S122で書き出されたA部署に属する作業者101の各検査データは、B部署に属する作業者101のタブレット1にもS101で送信される。これにより、現場部署と設計部署などの複数の部署にまたがって、シームレスにプラントの建設状況を共有したり管理したりできる。このように、各現場からの各種情報がタブレット1から統合サーバ2へと吸い上げられて共有されることで、部署間での意思決定スピードの向上に繋がる。特に、設計側の意図しない施工がされていた場合などに早期発見できる可能性が高く、戻り作業を低減できる。また、タブレット1に入力された各検査データを、統合サーバ2のオペレータが入力し直す必要がなくなるため、事務所内のオペレータの負担を軽減できる。   Furthermore, each inspection data of the worker 101 belonging to the A department written out in S122 is also transmitted to the tablet 1 of the worker 101 belonging to the B department in S101. As a result, the construction status of the plant can be shared and managed seamlessly across multiple departments such as the field department and the design department. In this way, various information from each site is sucked up from the tablet 1 to the integrated server 2 and shared, leading to an improvement in the speed of decision making between departments. In particular, there is a high possibility of early detection when, for example, unintended construction on the design side has been performed, and the return work can be reduced. In addition, since it is not necessary for the operator of the integrated server 2 to re-input each inspection data input to the tablet 1, the burden on the operator in the office can be reduced.

S123として、統合サーバ2は、S122で書き出された統合データベース2aの内容から各種報告書を作成する。この各種報告書の作成処理は、図8の説明にて後記する。   In S123, the integrated server 2 creates various reports from the contents of the integrated database 2a written in S122. The process of creating various reports will be described later with reference to FIG.

図4は、タブレット(タッチパネル21)の表示画面を示す画面図である。
タッチパネル21には、仮想空間欄141と、進捗状態欄142と、対象オブジェクト欄143と、データ入力欄144と、統合サーバ欄145とがそれぞれ表示されている。
FIG. 4 is a screen diagram showing a display screen of the tablet (touch panel 21).
On the touch panel 21, a virtual space column 141, a progress state column 142, a target object column 143, a data input column 144, and an integrated server column 145 are displayed.

仮想空間欄141は、仮想空間を見た3D−CADの表示画面を示す。仮想空間欄141の視点は、S113で更新された仮想カメラの視点である。なお、仮想空間欄141には、S114で対象オブジェクトを選択するための選択カーソル141aも併せて表示されている。
進捗状態欄142は、選択カーソル141aで選択された対象オブジェクトについての進捗状態として取り得る状態のリスト(図4では14個の状態を例示)を、状態ID(例えば、「1」)と状態名(例えば、「資材到着」)との組み合わせによって示す。なお、図4の進捗状態欄142では、状態IDの数値が小さいほど建設工程における前工程(完成に遠い状態)を示し、状態IDの数値が大きいほど建設工程における後工程(完成に近い状態)を示す。
The virtual space column 141 shows a 3D-CAD display screen viewing the virtual space. The viewpoint of the virtual space column 141 is the viewpoint of the virtual camera updated in S113. In the virtual space column 141, a selection cursor 141a for selecting a target object in S114 is also displayed.
The progress state column 142 includes a list of states that can be taken as the progress state of the target object selected by the selection cursor 141a (14 states are illustrated in FIG. 4), a state ID (for example, “1”), and a state name. (For example, “material arrival”). In the progress state column 142 of FIG. 4, the smaller the value of the state ID, the earlier the process in the construction process (the state far from completion), and the larger the value of the state ID, the subsequent process in the construction process (the state close to completion). Indicates.

対象オブジェクト欄143は、選択カーソル141aで選択された対象オブジェクトについて、そのオブジェクトIDと、その進捗状態(例えば、「据付中」)を示すボタンと、その視点を更新するためのボタンとを表示する欄である。
「進捗状態」のボタンがタッチされる(S121で入力される)と、進捗状態欄142における次の状態(例えば、「(6)据付中」→「(7)仮溶接」)へと遷移する。
The target object column 143 displays the object ID of the target object selected by the selection cursor 141a, a button indicating the progress state (for example, “installing”), and a button for updating the viewpoint. It is a column.
When the “progress state” button is touched (input in S121), the state changes to the next state in the progress state column 142 (for example, “(6) Installation in progress” → “(7) Temporary welding”). .

「視点更新」のボタンがタッチされるたびに、S111の検出契機が発生する。これにより、作業者101の所望するタイミングで、仮想空間欄141の仮想カメラの視点が更新されるため、過剰に仮想カメラの視点を更新するシステムに比べ、視点が安定する上に、視点更新のための余分な計算を行わないので、タブレット1のバッテリの節約になる。   Every time the “viewpoint update” button is touched, a detection trigger in S111 occurs. Thereby, since the viewpoint of the virtual camera in the virtual space column 141 is updated at a timing desired by the worker 101, the viewpoint is stabilized and the viewpoint is updated as compared with the system that updates the viewpoint of the virtual camera excessively. Therefore, the battery of the tablet 1 is saved.

データ入力欄144は、S121での各検査データの入力を受け付けるためのボタン群(写真撮影、検査入力、進捗入力)により構成される。これらの各ボタンがタッチされると、それぞれの検査データの入力画面(図示省略)が起動する。そして、入力画面を介して入力された各検査データは、選択カーソル141aで選択された対象オブジェクトのオブジェクトIDと対応付けられる。   The data input column 144 is configured by a button group (photographing, inspection input, progress input) for receiving input of each inspection data in S121. When these buttons are touched, an inspection data input screen (not shown) is activated. Each inspection data input via the input screen is associated with the object ID of the target object selected by the selection cursor 141a.

なお、データ入力欄144のボタン群は、そのボタンに対応する各検査データが入力可能なときにアクティブにし(例えば、ボタン内文字をはっきり表示)、入力不可能なときに非アクティブ(例えば、ボタン内文字をぼやかして表示)することが、望ましい。例えば、対象オブジェクト欄143の進捗状態が「5:検査」や「9:検査」以外のときは、データ入力欄144の「検査入力」ボタンは非アクティブにされる。   The button group in the data input field 144 is activated when each inspection data corresponding to the button can be input (for example, the characters in the button are clearly displayed), and inactive when the input cannot be performed (for example, the button It is desirable to display the internal characters in a blurred manner. For example, when the progress state of the target object column 143 is other than “5: inspection” or “9: inspection”, the “inspection input” button in the data input column 144 is deactivated.

統合サーバ欄145は、統合サーバ2とデータの通信を行う契機を指示するボタン群(データ受信、データ送信)により構成される。「データ受信」がタッチされると、S102の受信処理が起動する。「データ送信」がタッチされると、S121の送信処理が起動する。
なお、1回の各検査データの入力処理のたびに、統合サーバ欄145の「データ送信」を1回タッチしてS121の送信処理を起動させてもよいし、複数回の入力処理でそれぞれ入力された各検査データをまとめて、1回の送信処理を起動させてもよい。
The integrated server column 145 is configured by a button group (data reception, data transmission) for instructing an opportunity to perform data communication with the integrated server 2. When “data reception” is touched, the reception process of S102 is activated. When “data transmission” is touched, the transmission process of S121 is started.
It should be noted that for each inspection data input process once, the “data transmission” in the integrated server column 145 may be touched once to start the transmission process of S121, or each input may be performed by a plurality of input processes. The transmitted inspection data may be collected and one transmission process may be activated.

図5は、表示画面内の仮想空間欄を示す画面図である。
仮想空間欄141に表示される仮想空間は、S113の仮想カメラの視点更新処理により、映し出される表示内容が変化する。例えば、図5(a)では、仮想カメラの視点が初期値(プラント上空からの俯瞰視点)に設定されている。そして、仮想空間欄141に表示される仮想空間は、S113の仮想カメラの視点更新処理により、図5(b)に示すように、プラントの一部を地上から見た視点になる。
FIG. 5 is a screen diagram showing a virtual space column in the display screen.
The displayed contents of the virtual space displayed in the virtual space column 141 change due to the viewpoint update processing of the virtual camera in S113. For example, in FIG. 5A, the viewpoint of the virtual camera is set to an initial value (overhead viewpoint from above the plant). Then, the virtual space displayed in the virtual space column 141 becomes a viewpoint when a part of the plant is viewed from the ground as shown in FIG. 5B by the viewpoint update processing of the virtual camera in S113.

なお、図5(b)は、進捗状態欄142に示す対象オブジェクトごとの進捗状態がわかるように、表示制御部22が仮想空間欄141に直接進捗状態を表示する表示例である。例えば、表示制御部22は、土台151,152に支えられる容器153の立体形状の表示について、土台151,152がそれぞれ進捗状態「6(据付)」であることを示し、かつ、容器153が進捗状態「1(資材到着)」であることを、タッチパネル21に表示する。   FIG. 5B is a display example in which the display control unit 22 directly displays the progress state in the virtual space column 141 so that the progress state of each target object shown in the progress state column 142 can be understood. For example, regarding the display of the three-dimensional shape of the container 153 supported by the bases 151 and 152, the display control unit 22 indicates that the bases 151 and 152 are in the progress state “6 (installation)” and the container 153 is in progress. The state “1 (material arrival)” is displayed on the touch panel 21.

このような対象オブジェクトごとの進捗状態を示す表示は、様々な形態により実現される。例えば、進捗状態を色別に規定し、現在の進捗状態を示す色で対象オブジェクトを着色してもよい。なお、図4では、進捗状態欄142の各進捗状態を、IDが小さいほど前工程であるように定義したが、現在の進捗状態を示す色を前工程であるほど目立たなくする(色を薄くする、暗くするなど)ように描画してもよい。   Such a display indicating the progress state of each target object is realized in various forms. For example, the progress state may be defined for each color, and the target object may be colored with a color indicating the current progress state. In FIG. 4, each progress state in the progress state column 142 is defined to be the previous process as the ID is smaller. However, the color indicating the current progress state is less conspicuous as the previous process (the color is lighter). Or darken).

なお、進捗状態欄142の各進捗状態は、その進捗作業がどの場所で行われるかを示す情報(工場、現場など)も含まれている。例えば、進捗状態「1(資材到着)」〜進捗状態「5(検査)」は、工場で行われる。
そこで、作業者101の実空間上での現在位置に対応する(現在位置で作業が行われる)進捗状態と、その他の(別の場所で作業が行われる)進捗状態とを区別して表示してもよい。例えば、仮想カメラが「工場」ではなく「現場」の位置を映しているときには、「工場」で作業が行われる建築資材などのオブジェクトは、現時点では「現場」には到着していない。
Each progress status in the progress status column 142 also includes information (factory, site, etc.) indicating where the progress work is performed. For example, the progress state “1 (material arrival)” to the progress state “5 (inspection)” are performed at the factory.
Therefore, the progress state corresponding to the current position of the worker 101 in the real space (work is performed at the current position) and the other progress state (work is performed at another location) are displayed separately. Also good. For example, when the virtual camera reflects the position of the “site” instead of the “factory”, an object such as a building material that is operated in the “factory” has not arrived at the “site” at the present time.

そのため、作業者101がいる「現場」には、実際に目視できるオブジェクト(土台151,152)だけが存在するものの、仮想空間には目視できないオブジェクト(例えば、容器153)も表示される。そこで、まだ「現場」に到着していない(「工場」で作業が行われる)容器153の表示を、非表示にする、透過表示にする、他のオブジェクトよりも目立たなく表示する、などの区別をする表示をすることで、作業者101は、容器153が「現場」に到着していないオブジェクト(今後到着するであろうオブジェクト)であることを容易に把握することができる。   For this reason, in the “site” where the worker 101 is present, only objects (bases 151 and 152) that can actually be seen exist, but objects that cannot be seen in the virtual space (for example, containers 153) are also displayed. Therefore, the display of the container 153 that has not yet arrived at the “on-site” (the work is performed at the “factory”) is hidden, displayed transparently, or displayed less conspicuously than other objects. By performing the display, the worker 101 can easily grasp that the container 153 is an object that has not arrived at the “site” (an object that will arrive in the future).

図6は、図1とは別の実空間と仮想空間との対応を示す説明図である。図6(a)では、実空間のプラント内の球形状のタンクを階段で登る作業者101が、タンクの頂上付近の建設対象102をタブレット1で撮影している様子を示している。図6(b)では、図6(a)の撮影内容(カメラ24の視点)から計算される仮想空間欄141の表示内容が示されている。   FIG. 6 is an explanatory diagram showing the correspondence between the real space and the virtual space different from FIG. FIG. 6A shows a situation where an operator 101 climbing a spherical tank in a real space plant on a staircase is photographing the construction object 102 near the top of the tank with the tablet 1. FIG. 6B shows the display contents of the virtual space column 141 calculated from the shooting contents (the viewpoint of the camera 24) of FIG.

図7は、表示画面内の仮想空間欄を示す画面図である。表示制御部22は、図4の仮想空間欄141で示した各オブジェクトの立体形状データについて、選択カーソル141aで選択された対象オブジェクトを、周囲のオブジェクトよりも目立たせる表示を行うことで、作業者101に目視で対象オブジェクトを発見させることを支援する。
例えば、表示制御部22は、同じ仮想カメラの視点でも、手前側容器171が選択されているとき(図7(a))と、各容器を接続する配管172が選択されているとき(図7(b))と、奥側容器173が選択されているとき(図7(c))とで、それぞれ選択された対象オブジェクトを太線で強調するとともに、選択されていないオブジェクトを細線で透過表示する。
FIG. 7 is a screen diagram showing a virtual space column in the display screen. The display control unit 22 displays the target object selected by the selection cursor 141a with respect to the three-dimensional shape data of each object shown in the virtual space column 141 of FIG. 101 is supported to visually detect the target object.
For example, the display control unit 22 also has the same virtual camera viewpoint when the near side container 171 is selected (FIG. 7A) and when the pipe 172 connecting each container is selected (FIG. 7). (B)) and when the back container 173 is selected (FIG. 7C), the selected target objects are highlighted with bold lines, and the unselected objects are transparently displayed with thin lines. .

図8は、統合サーバの表示画面を示す画面図である。この表示画面には、仮想空間欄181と、進捗状態欄182と、対象オブジェクト欄183と、関連写真欄184と、関連検査帳票欄185と、施工履歴欄186と、報告書出力欄187とがそれぞれ表示されている。   FIG. 8 is a screen diagram showing a display screen of the integrated server. This display screen includes a virtual space column 181, a progress status column 182, a target object column 183, a related photo column 184, a related inspection form column 185, a construction history column 186, and a report output column 187. Each is displayed.

仮想空間欄181、進捗状態欄182、および、対象オブジェクト欄183は、それぞれ図4の仮想空間欄141、進捗状態欄142、および、対象オブジェクト欄143と同じ表示内容である。つまり、タブレット1だけでなく統合サーバ2においても、仮想空間の3D−CAD表示を見ることができ、仮想空間欄181内のオブジェクトを選択できる。
なお、統合サーバ2の設置位置は、建設事務所であるので、実位置と仮想位置とを連動させるための対象オブジェクト欄143の「視点更新」ボタンは、対象オブジェクト欄183では省略している。
The virtual space column 181, the progress state column 182 and the target object column 183 have the same display contents as the virtual space column 141, progress state column 142 and target object column 143 of FIG. That is, the 3D-CAD display of the virtual space can be viewed not only on the tablet 1 but also on the integrated server 2, and an object in the virtual space column 181 can be selected.
Since the installation position of the integrated server 2 is a construction office, the “viewpoint update” button in the target object column 143 for linking the real position and the virtual position is omitted in the target object column 183.

関連写真欄184は、S121で入力を受け付ける検査データのうちの「関連写真」の表示欄である。作業者101は、関連写真欄184にタッチすることで、カメラ24で撮影された関連写真の画像ファイルを入力対象として選択させるためのファイルダイアログ(図示省略)から、検査データの画像ファイルを選択する。   The related photo column 184 is a display column for “related photo” in the inspection data for which input is received in S121. The operator 101 touches the related photo column 184 to select an image file of inspection data from a file dialog (not shown) for selecting an image file of a related photo captured by the camera 24 as an input target. .

関連検査帳票欄185は、S121で入力を受け付ける検査データのうちの「検査入力」されたファイル(検査帳票のファイル)の表示欄である。作業者101は、関連検査帳票欄185にタッチすることで、検査項目に対する項目値がリスト化された表計算ファイル(拡張子「xls」のファイル)を入力対象として選択させるためのファイルダイアログ(図示省略)から、検査データの表計算ファイルを選択する。   The related inspection form field 185 is a display field for a file (inspection form file) that has been “inspected” in the inspection data that is accepted in S121. The worker 101 touches the related inspection form column 185 to select a spreadsheet file (file with the extension “xls”) in which item values for the inspection items are listed as an input target (illustrated). Select a spreadsheet file for inspection data.

施工履歴欄186は、対象オブジェクト欄183のオブジェクトIDで示されるオブジェクトの進捗状態の更新履歴を示す。入力制御部23は、対象オブジェクト欄143内の「進捗状態」のボタンがタッチされると、遷移先の進捗状態と、タッチされた時刻(遷移時刻)の日付とを対応付けて、対象オブジェクト欄183の更新履歴を更新する。
以上説明したように、仮想空間欄181で選択されている対象オブジェクトに関する(オブジェクトIDに対応付けられる)一連の検査データが、同じ画面で一望できるので、施工状態を効率的に管理でき、不具合の早期発見を支援する。
The construction history column 186 shows an update history of the progress state of the object indicated by the object ID in the target object column 183. When the “progress state” button in the target object field 143 is touched, the input control unit 23 associates the progress state of the transition destination with the date of the touched time (transition time), and sets the target object field. The update history of 183 is updated.
As described above, since a series of inspection data (corresponding to the object ID) related to the target object selected in the virtual space column 181 can be overlooked on the same screen, the construction state can be managed efficiently, Support early detection.

さらに、報告書出力欄187には、対象オブジェクトに関する入力された検査データを素材として、各種の報告書を作成する(S123)ための作成指示ボタンが表示されている。これにより、現場では作業者が検査報告書などの作成に係る業務時間を低減できる。   Further, the report output field 187 displays a creation instruction button for creating various reports using the input inspection data related to the target object as a material (S123). As a result, it is possible to reduce the work time required for an operator to create an inspection report or the like at the site.

報告書出力欄187の「工事進捗報告書」がタッチされると、統合サーバ2は、統合データベース2aから読み取った検査データから、進捗により色分された3D−CADの図と、選択パーツの施工履歴と、それぞれの施工履歴での写真とがリンクされた「工事進捗報告書」を作成する。「工事進捗報告書」には、工場に着荷したときの写真、加工したときの写真といった形で進捗状態の順番に写真が記載されている。   When the “construction progress report” in the report output column 187 is touched, the integrated server 2 performs the 3D-CAD diagram color-coded by the progress from the inspection data read from the integrated database 2a and the construction of the selected part. A “construction progress report” is created in which the history and the photos of each construction history are linked. In the “Construction Progress Report”, photographs are written in the order of progress in the form of photographs when they arrive at the factory and photographs when they are processed.

報告書出力欄187の「検査報告書」がタッチされると、統合サーバ2は、統合データベース2aから読み取った検査データから、検査帳票に入力された情報と、その際に撮影した写真とがリンクされた「検査報告書」を作成する。なお、「検査報告書」は、検査フェーズがある場合に作成可能であり、作成不可能な場合には、報告書出力欄187の「検査報告書」ボタンは無効化(タッチできない状態)になる。   When “inspection report” in the report output field 187 is touched, the integrated server 2 links the information input to the inspection form from the inspection data read from the integrated database 2a and the photograph taken at that time. Prepared “inspection report”. The “inspection report” can be created when there is an inspection phase, and if it cannot be created, the “inspection report” button in the report output column 187 is invalidated (cannot be touched). .

以上説明した本実施形態では、作業者101の実位置を仮想位置に反映された仮想カメラの視点で(S113)、仮想空間欄141をタッチパネル21に表示する。これにより、作業者101は、自己の3次元位置および視線を反映した3D−CAD形式の仮想空間を、保持するタブレット1上で即座に閲覧できる。よって、作業者101は、複雑に入り組んだプラント建設現場にいながら、検査対象のオブジェクトを正確に特定できることで、検査ミスを少なくすることができる。   In the present embodiment described above, the virtual space column 141 is displayed on the touch panel 21 from the viewpoint of the virtual camera in which the actual position of the worker 101 is reflected in the virtual position (S113). Thereby, the worker 101 can immediately browse on the tablet 1 holding the virtual space in the 3D-CAD format reflecting his / her three-dimensional position and line of sight. Therefore, the operator 101 can accurately specify the object to be inspected while staying at a complicated construction site of the plant, thereby reducing inspection errors.

さらに、タブレット1は、図5(b)に示したように、オブジェクトごとの進捗状態を仮想空間欄141に表示する。これにより、進捗管理が3D−CADの表示と連携する。よって、作業者101は、検査対象のオブジェクトだけでなく、その周囲のオブジェクトの進捗状況を把握でき、オブジェクトの検査精度を向上させることができる。   Furthermore, as shown in FIG. 5B, the tablet 1 displays the progress state for each object in the virtual space column 141. Thereby, the progress management is linked with the display of 3D-CAD. Therefore, the worker 101 can grasp the progress of not only the object to be inspected but also the surrounding objects, and can improve the inspection accuracy of the object.

そして、タブレット1は、オブジェクトごとにそのオブジェクトの進捗状態に対応する場所を参照し、仮想カメラの視点の場所に存在するオブジェクトと、存在しないオブジェクトとで表示形態を別々のものにしてもよい。これにより、存在するオブジェクトだけでなく、その周囲の存在しないオブジェクトも考慮した検査が実行できる。
例えば、作業者101は、図5(b)の土台151,152の周囲に存在する遮蔽物(木など)が、これから運ばれてくる容器153と干渉することを、タッチパネル21の表示画面と、実空間の建設現場とを見比べて把握することができる。
または、作業者101は、図5(b)の土台151,152の設置向きと、これから運ばれてくる容器153の設置向きとを、タッチパネル21の表示画面で確認し、実空間の建設現場とを見比べることで、土台151,152の設置向きが、容器153と不整合に(逆に)なっている事象を、早期に(容器153が運ばれてくる前に)把握することができる。
Then, the tablet 1 may refer to a place corresponding to the progress state of the object for each object, and the display form may be different depending on the object existing at the position of the viewpoint of the virtual camera and the object not existing. Thereby, not only the existing object but also the surrounding nonexistent object can be considered.
For example, the worker 101 confirms that a shield (such as a tree) existing around the bases 151 and 152 in FIG. 5B interferes with the container 153 to be transported, It can be grasped by comparing with a construction site in real space.
Alternatively, the worker 101 confirms the installation direction of the bases 151 and 152 in FIG. 5B and the installation direction of the container 153 to be carried on the display screen of the touch panel 21, and By comparing the above, it is possible to grasp at an early stage (before the container 153 is transported) that the installation direction of the bases 151 and 152 is inconsistent with the container 153 (reverse).

なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment. Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.

各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
Information such as programs, tables, and files for realizing each function is stored in memory, a hard disk, a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, an SD card, a DVD (Digital Versatile Disc), etc. Can be placed on any recording medium.
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

1 タブレット(進捗管理端末)
2 統合サーバ(進捗管理サーバ)
2a 統合データベース
10 基本構成部
20 インタフェース部
30 位置処理部
11 CPU(制御手段)
12 RAM(記憶手段)
13 ROM(記憶手段)
14 通信部
21 タッチパネル
22 表示制御部
23 入力制御部
24 カメラ
31 GPS
32 ジャイロセンサ
33 地磁気センサ
34 気圧センサ
1 tablet (progress management terminal)
2 Integrated server (progress management server)
2a Integrated database 10 Basic configuration unit 20 Interface unit 30 Position processing unit 11 CPU (control means)
12 RAM (storage means)
13 ROM (storage means)
14 Communication Unit 21 Touch Panel 22 Display Control Unit 23 Input Control Unit 24 Camera 31 GPS
32 Gyro sensor 33 Geomagnetic sensor 34 Barometric pressure sensor

Claims (8)

実空間の建設現場において作業者に所持される進捗管理端末と、
前記実空間の空間位置を対応付けた仮想空間を用意し、前記実空間に配置されるオブジェクトごとに、そのオブジェクトのIDと、そのオブジェクトの作業における進捗状態と、そのオブジェクトの前記仮想空間内の立体形状および配置される仮想位置と、を対応付けて格納する記憶手段と、
前記作業者自身の実空間内の空間位置である実位置を測定する位置処理部と、
前記位置処理部で測定された前記実位置から、前記記憶手段に格納されている前記仮想空間内の立体形状を表示するための仮想カメラの仮想位置を求め、求めた前記仮想カメラの視点で前記仮想空間内の前記オブジェクトを、前記進捗状態ごとに異なる表示形態にて表示手段に表示する処理、ならびに、表示される前記オブジェクトの選択を受け付ける処理をおこなうインタフェース部と、
前記インタフェース部により選択された前記オブジェクトについての検査データの入力を受け付けると、その入力された検査データと、前記インタフェース部で選択された前記オブジェクトのIDとを対応付けて前記記憶手段に格納する制御手段と、を有することを特徴とする
進捗管理端末。
A progress management terminal possessed by the worker at the construction site in the real space;
A virtual space in which the space position of the real space is associated is prepared, and for each object arranged in the real space, the ID of the object, the progress state of the work of the object, and the object in the virtual space Storage means for associating and storing the three-dimensional shape and the arranged virtual position;
A position processing unit for measuring a real position which is a spatial position in the real space of the worker himself,
A virtual position of a virtual camera for displaying a three-dimensional shape in the virtual space stored in the storage unit is obtained from the actual position measured by the position processing unit, and the viewpoint of the obtained virtual camera is used to obtain the virtual position. An interface unit for performing processing for displaying the object in the virtual space on a display unit in a different display form for each progress state, and processing for receiving selection of the displayed object;
Upon receiving input of inspection data for the object selected by the interface unit, the control unit stores the input inspection data and the ID of the object selected by the interface unit in association with each other. And a progress management terminal.
前記記憶手段には、前記進捗状態ごとにその作業場所である実位置が対応付けられており、
前記インタフェース部は、前記仮想空間内の前記オブジェクトを表示するときに、その表示するオブジェクトの前記進捗状態に対応する実位置が、前記測定された実位置と同じ場合と異なる場合とで、前記表示形態を変えて表示することを特徴とする
請求項1に記載の進捗管理端末。
The storage means is associated with an actual position that is the work place for each progress state,
When the interface unit displays the object in the virtual space, the actual position corresponding to the progress state of the object to be displayed is different from the case where the actual position is the same as the measured actual position. The progress management terminal according to claim 1, wherein the progress management terminal displays in a different form.
前記位置処理部は、気圧センサを用いて測定した自身の標高データを、前記実位置の測定結果のうちの高さ位置のデータとすることを特徴とする
請求項1または請求項2に記載の進捗管理端末。
The said position processing part makes self altitude data measured using the atmospheric | air pressure sensor the data of the height position among the measurement results of the said actual position, The Claim 1 or Claim 2 characterized by the above-mentioned. Progress management terminal.
前記位置処理部は、GPS(Global Positioning System)センサを用いて衛星電波から測定した自身の実位置を、前記作業者自身の周囲に設置されている電子基準点からの電波により補正することを特徴とする
請求項1ないし請求項3のいずれか1項に記載の進捗管理端末。
The position processing unit corrects its own actual position measured from satellite radio waves using a GPS (Global Positioning System) sensor by radio waves from an electronic reference point installed around the worker himself / herself. The progress management terminal according to any one of claims 1 to 3.
前記位置処理部は、前記インタフェース部を介して受け付けた位置検出指示を契機に、前記実位置を測定する処理を起動することを特徴とする
請求項1ないし請求項4のいずれか1項に記載の進捗管理端末。
The said position process part starts the process which measures the said actual position in response to the position detection instruction received via the said interface part, The Claim 1 thru | or 4 characterized by the above-mentioned. Progress management terminal.
請求項1ないし請求項5のいずれか1項に記載の進捗管理端末と、所定の前記進捗管理端末から前記オブジェクトのIDと対応付けられた前記検査データを受信し、別の前記進捗管理端末へと受信した前記検査データを送信する進捗管理サーバとを含めて構成される
進捗管理システム。
6. The progress management terminal according to claim 1, and the inspection data associated with the ID of the object are received from the predetermined progress management terminal and sent to another progress management terminal. And a progress management server that transmits the received inspection data.
進捗管理端末が、
実空間の空間位置を対応付けた仮想空間を用意し、前記実空間に配置されるオブジェクトごとに、そのオブジェクトのIDと、そのオブジェクトの作業における進捗状態と、そのオブジェクトの前記仮想空間内の立体形状および配置される仮想位置と、を対応付けて記憶手段に格納し、
作業者自身の実空間内の空間位置である実位置を測定し、
前記測定された実位置から、前記記憶手段に格納されている前記仮想空間内の立体形状を表示するための仮想カメラの仮想位置を求め、求めた前記仮想カメラの視点で前記仮想空間内の前記オブジェクトを、前記進捗状態ごとに異なる表示形態にて表示手段に表示する処理、ならびに、表示される前記オブジェクトの選択を受け付ける処理をおこない、
前記選択された前記オブジェクトについての検査データの入力を受け付けると、その入力された検査データと、前記インタフェース部で選択された前記オブジェクトのIDとを対応付けて前記記憶手段に格納することを特徴とする
進捗管理方法。
The progress management terminal
A virtual space in which a space position of the real space is associated is prepared, and for each object arranged in the real space, an ID of the object, a progress state in the work of the object, and a solid in the virtual space of the object The shape and the virtual position to be arranged are associated with each other and stored in the storage means,
Measure the actual position, which is the spatial position in the worker's own real space,
A virtual position of a virtual camera for displaying a three-dimensional shape in the virtual space stored in the storage means is obtained from the measured actual position, and the virtual camera in the virtual space is obtained from the viewpoint of the obtained virtual camera. A process of displaying an object on a display means in a different display form for each progress state, and a process of accepting selection of the displayed object;
When input of inspection data for the selected object is received, the input inspection data and the ID of the object selected by the interface unit are stored in the storage unit in association with each other. Progress management method.
請求項7に記載の進捗管理方法を、前記進捗管理端末に実行させるための進捗管理プログラム。   A progress management program for causing the progress management terminal to execute the progress management method according to claim 7.
JP2013138168A 2013-07-01 2013-07-01 Progress management terminal, progress management system, progress management method, and progress management program Active JP6121268B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013138168A JP6121268B2 (en) 2013-07-01 2013-07-01 Progress management terminal, progress management system, progress management method, and progress management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013138168A JP6121268B2 (en) 2013-07-01 2013-07-01 Progress management terminal, progress management system, progress management method, and progress management program

Publications (2)

Publication Number Publication Date
JP2015011620A true JP2015011620A (en) 2015-01-19
JP6121268B2 JP6121268B2 (en) 2017-04-26

Family

ID=52304698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013138168A Active JP6121268B2 (en) 2013-07-01 2013-07-01 Progress management terminal, progress management system, progress management method, and progress management program

Country Status (1)

Country Link
JP (1) JP6121268B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5977880B1 (en) * 2015-12-11 2016-08-24 株式会社東急コミュニティー Display control apparatus, display control method, and program
JP2017004227A (en) * 2015-06-09 2017-01-05 前田建設工業株式会社 Building management support method, building management support program, and building management support device
KR101988350B1 (en) * 2018-03-30 2019-09-30 (주)대우건설 Automated site-process management system through ai analysis of work display and process inspection using virtual process module
JP7265295B1 (en) 2022-06-27 2023-04-26 株式会社コルク Process control system
WO2023162613A1 (en) * 2022-02-25 2023-08-31 パナソニックIpマネジメント株式会社 Image management system, image management method, and program
US12021111B2 (en) 2017-11-27 2024-06-25 Seoul Viosys Co., Ltd. Light emitting diode stack including hydrophilic material layer

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0545436A (en) * 1991-08-13 1993-02-23 Matsushita Electric Ind Co Ltd Gps receiver
JPH05241540A (en) * 1992-02-28 1993-09-21 Fujita Corp Visual information display device
JP2003215228A (en) * 2002-01-23 2003-07-30 Hitachi Ltd Mobile terminal with position indication function and position indication method
JP2008269310A (en) * 2007-04-20 2008-11-06 Yokogawa Electric Corp Plant maintenance support system
JP2009210403A (en) * 2008-03-04 2009-09-17 Japan Atomic Energy Agency System for assisting management of installation dismantling work
JP2012022551A (en) * 2010-07-15 2012-02-02 Hisatomo Takeuchi Electric information apparatus for processing 3d building texture model
JP2012123546A (en) * 2010-12-07 2012-06-28 Casio Comput Co Ltd Information display system, information display apparatus, information provision apparatus and program
JP2013054569A (en) * 2011-09-05 2013-03-21 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0545436A (en) * 1991-08-13 1993-02-23 Matsushita Electric Ind Co Ltd Gps receiver
JPH05241540A (en) * 1992-02-28 1993-09-21 Fujita Corp Visual information display device
JP2003215228A (en) * 2002-01-23 2003-07-30 Hitachi Ltd Mobile terminal with position indication function and position indication method
JP2008269310A (en) * 2007-04-20 2008-11-06 Yokogawa Electric Corp Plant maintenance support system
JP2009210403A (en) * 2008-03-04 2009-09-17 Japan Atomic Energy Agency System for assisting management of installation dismantling work
JP2012022551A (en) * 2010-07-15 2012-02-02 Hisatomo Takeuchi Electric information apparatus for processing 3d building texture model
JP2012123546A (en) * 2010-12-07 2012-06-28 Casio Comput Co Ltd Information display system, information display apparatus, information provision apparatus and program
JP2013054569A (en) * 2011-09-05 2013-03-21 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石井裕剛他: "拡張現実感を利用した原子力発電プラントの解体支援手法の提案と評価", 日本バーチャルリアリティ学会論文誌, vol. 13, no. 2, JPN6017001775, 30 June 2008 (2008-06-30), pages 289 - 300, ISSN: 0003518726 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004227A (en) * 2015-06-09 2017-01-05 前田建設工業株式会社 Building management support method, building management support program, and building management support device
JP5977880B1 (en) * 2015-12-11 2016-08-24 株式会社東急コミュニティー Display control apparatus, display control method, and program
JP2017107476A (en) * 2015-12-11 2017-06-15 株式会社東急コミュニティー Display control device, display control method, and program
US12021111B2 (en) 2017-11-27 2024-06-25 Seoul Viosys Co., Ltd. Light emitting diode stack including hydrophilic material layer
KR101988350B1 (en) * 2018-03-30 2019-09-30 (주)대우건설 Automated site-process management system through ai analysis of work display and process inspection using virtual process module
WO2023162613A1 (en) * 2022-02-25 2023-08-31 パナソニックIpマネジメント株式会社 Image management system, image management method, and program
JP7265295B1 (en) 2022-06-27 2023-04-26 株式会社コルク Process control system
JP2024003452A (en) * 2022-06-27 2024-01-15 株式会社コルク Process control system

Also Published As

Publication number Publication date
JP6121268B2 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
JP6121268B2 (en) Progress management terminal, progress management system, progress management method, and progress management program
JP6364241B2 (en) Inspection support device, inspection support method, inspection support program
US10026227B2 (en) Portable augmented reality
US9618360B2 (en) Methods and systems for performing charting tasks
US8902254B1 (en) Portable augmented reality
US20110221776A1 (en) Display input device and navigation device
EP3639221B1 (en) Onscene command vision
JP6316176B2 (en) Inspection history management system, inspection history management method
JP2013250268A (en) Sensor-enhanced localization in virtual and physical environments
US11682168B1 (en) Method and system for virtual area visualization
WO2010047150A1 (en) Work information processor, program, and work information processing method
KR102207719B1 (en) Augmented reality display apparatus for non-destructive inspection of concrete structures and control method thereof
CN107806862B (en) Aerial survey field measurement method and system
JP2012252499A (en) Test object management support device, test object management support method and program
JP5379043B2 (en) Three-dimensional position information generating apparatus, method and program
CA2960205A1 (en) Stack of maps
JP6940670B1 (en) Flight path creation method and system for unmanned aircraft
JP6953291B2 (en) Survey support device and survey support program
JP7042715B2 (en) Head mount device, server device and work support system
CN108062786B (en) Comprehensive perception positioning technology application system based on three-dimensional information model
JP7424092B2 (en) Information processing device and computer program
CN113377255B (en) Geological disaster slippage azimuth processing method and device and electronic equipment
WO2023224030A1 (en) Information processing method, information processing device, and information processing program
JPWO2022180975A5 (en)
KR20240024589A (en) Method for managing item information and electronic apparatus providing thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170329

R150 Certificate of patent or registration of utility model

Ref document number: 6121268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250