JP2022161770A - Work support system and work support method - Google Patents
Work support system and work support method Download PDFInfo
- Publication number
- JP2022161770A JP2022161770A JP2021085471A JP2021085471A JP2022161770A JP 2022161770 A JP2022161770 A JP 2022161770A JP 2021085471 A JP2021085471 A JP 2021085471A JP 2021085471 A JP2021085471 A JP 2021085471A JP 2022161770 A JP2022161770 A JP 2022161770A
- Authority
- JP
- Japan
- Prior art keywords
- work support
- virtual space
- bim
- information
- position correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 239000003550 marker Substances 0.000 claims abstract description 68
- 238000012937 correction Methods 0.000 claims abstract description 56
- 238000013461 design Methods 0.000 claims abstract description 33
- 238000012790 confirmation Methods 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 84
- 238000007689 inspection Methods 0.000 description 57
- VTTONGPRPXSUTJ-UHFFFAOYSA-N bufotenin Chemical compound C1=C(O)C=C2C(CCN(C)C)=CNC2=C1 VTTONGPRPXSUTJ-UHFFFAOYSA-N 0.000 description 14
- 238000010276 construction Methods 0.000 description 12
- 238000011960 computer-aided design Methods 0.000 description 9
- 239000000463 material Substances 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000011900 installation process Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000012938 design process Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本開示は、作業現場での確認作業を支援する作業支援システム及び作業支援方法に関する。 The present disclosure relates to a work support system and a work support method that support confirmation work at a work site.
現場において、作業者が、現場図面等を参照しながら、現場状況を確認することがある。この場合、コンピュータ端末を用いることもある(例えば、特許文献1参照)。この文献に開示された技術においては、建設中のプラントにおけるプラントの建設や、維持管理作業を支援するため、タブレットは、測定された実位置から、記憶手段に格納されている仮想空間内の立体形状を表示するための仮想カメラの仮想位置を求める。そして、仮想カメラの視点で仮想空間内のオブジェクトを、進捗状態ごとに異なる表示形態にて表示手段に表示する。表示されたオブジェクトのIDと、入力されたオブジェクトの検査データとを対応付けて記憶手段に格納する。 At the site, workers sometimes check the site conditions while referring to site drawings and the like. In this case, a computer terminal may be used (see Patent Document 1, for example). According to the technique disclosed in this document, in order to support plant construction and maintenance work in a plant under construction, the tablet is used to convert the measured actual position into a three-dimensional space in a virtual space stored in a storage means. Find the virtual position of the virtual camera for displaying the shape. Then, the object in the virtual space from the virtual camera's viewpoint is displayed on the display means in different display forms for each progress state. The ID of the displayed object and the input inspection data of the object are associated with each other and stored in the storage means.
また、建築物の設計においては、BIM(Building Information Modeling)を用いることがある。そして、このBIMを用いて、構造物の検査を行なうこともある(例えば、特許文献2参照)。この文献に開示された技術においては、ユーザ端末の制御部は、現在位置を特定し、現在位置に応じた3次元モデルの仮想画像を、カメラから取得した構造物画像に合わせて重畳表示する。更に、制御部は、構造物画像を用いて、検査対象の評価項目の評価結果を取得し、評価結果を、3次元モデルにおける検査対象の位置に関連付けて、検査情報記憶部に記録する。 BIM (Building Information Modeling) is sometimes used in the design of buildings. Then, this BIM is sometimes used to inspect structures (see Patent Document 2, for example). In the technique disclosed in this document, the control unit of the user terminal specifies the current position, and superimposes a virtual image of a three-dimensional model corresponding to the current position on the structure image obtained from the camera. Further, the control unit uses the structure image to obtain evaluation results of the evaluation items of the inspection target, associates the evaluation results with the position of the inspection target in the three-dimensional model, and records them in the inspection information storage unit.
しかしながら、仮想空間の3次元モデルと現在位置との位置合わせがずれていると、的確な作業を行なうことができない。また、BIMデータは、このような位置合わせを考慮して生成されていない。 However, if the three-dimensional model of the virtual space is misaligned with the current position, the work cannot be performed accurately. Also, BIM data is not generated with such alignment in mind.
上記課題を解決するための作業支援システムは、BIMを用いて、仮想空間に要素を配置して設計を行なう設計装置と、仮想空間に配置された要素の3次元モデルを表示する作業支援装置とを備える。前記設計装置が、前記BIMを用いて、前記仮想空間に第1位置補正マーカを配置する。そして、前記作業支援装置が、現実空間において、カメラにより撮影された第2位置補正マーカと、前記仮想空間に配置された第1位置補正マーカとの位置関係により、前記現実空間と前記仮想空間との位置合わせを行ない、前記仮想空間に配置された要素の3次元モデルを、前記カメラによる撮影画像に重畳した複合現実画像を出力する。 A work support system for solving the above problems includes a design device that uses BIM to design elements by arranging them in a virtual space, and a work support device that displays a three-dimensional model of the elements arranged in the virtual space. Prepare. The design device uses the BIM to place a first position correction marker in the virtual space. Then, the work support device determines the positional relationship between the second position correction marker photographed by the camera and the first position correction marker arranged in the virtual space in the real space. and outputs a mixed reality image in which the three-dimensional model of the element arranged in the virtual space is superimposed on the image taken by the camera.
本開示によれば、作業現場において、効率的かつ的確な確認作業を支援することができる。 According to the present disclosure, it is possible to support efficient and accurate confirmation work at the work site.
以下、図1~図20を用いて、作業支援システム及び作業支援方法を具体化した一実施形態を説明する。本実施形態では、建物の建築現場において、BIM画像と現場状況とを比較しながら検査を行なう場合に用いる作業支援システム及び作業支援方法として説明する。
本実施形態では、図1に示すように、ネットワークを介して相互に接続された設計装置10、支援サーバ20、作業支援装置30を用いる。
An embodiment of a work support system and a work support method will be described below with reference to FIGS. 1 to 20. FIG. In the present embodiment, a work support system and a work support method that are used when performing an inspection while comparing a BIM image with a site situation at a construction site of a building will be described.
In this embodiment, as shown in FIG. 1, a
(ハードウェア構成の説明)
図2を用いて、設計装置10、支援サーバ20、作業支援装置30を構成する情報処理装置H10のハードウェア構成を説明する。情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を備える。なお、このハードウェア構成は一例であり、他のハードウェアにより実現することも可能である。
(Description of hardware configuration)
The hardware configuration of the information processing device H10 that constitutes the
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースや無線インタフェース等である。 The communication device H11 is an interface that establishes a communication path with another device and executes data transmission/reception, such as a network interface or a wireless interface.
入力装置H12は、各種情報の入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイ等である。なお、入力装置H12及び表示装置H13として、タッチパネルディスプレイを用いてもよい。 The input device H12 is a device that receives input of various information, such as a mouse and a keyboard. The display device H13 is a display or the like that displays various information. A touch panel display may be used as the input device H12 and the display device H13.
記憶装置H14は、設計装置10、支援サーバ20、作業支援装置30の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
The storage device H14 is a storage device that stores data and various programs for executing various functions of the
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、設計装置10、支援サーバ20、作業支援装置30における各処理を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各処理のための各種プロセスを実行する。
The processor H15 controls each process in the
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、以下で構成し得る。 Processor H15 is not limited to performing software processing for all the processing that it itself executes. For example, the processor H15 may include a dedicated hardware circuit (for example, an application specific integrated circuit: ASIC) that performs hardware processing for at least part of the processing performed by the processor H15. That is, the processor H15 can be configured as follows.
〔1〕コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ
〔2〕各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路
〔3〕それらの組み合わせ、を含む回路(circuitry)
プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
[1] One or more processors that operate according to a computer program (software) [2] One or more dedicated hardware circuits that perform at least part of various processes [3] Combinations thereof (circuitry)
A processor includes a CPU and memory, such as RAM and ROM, which stores program code or instructions configured to cause the CPU to perform processes. Memory or computer-readable media includes any available media that can be accessed by a general purpose or special purpose computer.
(システム構成)
次に、図1を用いて、作業支援システムA1の各機能を説明する。
設計装置10は、BIM(Building Information Modeling)を用いて、構造物の設計処理(3次元CAD処理)を行なうためのコンピュータ端末である。このBIMでは、建築に用いる要素の形状だけではなく、建物要素の属性(プロパティ)を管理することができる。この設計装置10は、オペレーティングシステム上で動作するBIMアプリケーションにより、BIM実行部11として機能する。
(System configuration)
Next, each function of the work support system A1 will be described with reference to FIG.
The
BIM実行部11は、BIM技術により、3次元モデル(オブジェクト)を仮想3次元空間上で配置することにより、3次元CAD(computer-aided design)を実現する。各3次元モデルは、建築に関する各種情報を属性として保持している。
The
支援サーバ20は、複合現実(MR:Mixed Reality)を利用して、現場状況の管理を支援する処理を実行するコンピュータシステムである。この支援サーバ20は、制御部21、BIM情報記憶部22、表示モデル記憶部23、検査情報記憶部24を備える。
The
制御部21は、後述する処理(変換段階、管理段階等を含む処理)を行なう。このための処理プログラムを実行することにより、制御部21は、変換部211、管理部212等として機能する。
The
変換部211は、3次元CADデータを、複合現実の仮想空間に表示可能なデータに変換する。ここでは、BIMを利用して設計された3次元CADデータを、軽量化、ポリゴン化して、作業支援装置30の表示アプリケーションで利用可能なフォーマットに変換する。
管理部212は、作業支援装置30から現場状況における検査結果を取得し、検査情報記憶部24に記録する。
The
The
図3に示すように、BIM情報記憶部22には、BIMにおいて作成したBIMモデル情報220が記録される。このBIMモデル情報220は、3次元CADを用いて、建築物の設計を行なった場合に記録される。BIMモデル情報220は、プロジェクト情報に対して、BIMモデル(要素モデル、配置情報、属性情報)を含む。
As shown in FIG. 3,
プロジェクト情報は、プロジェクトID、建築現場の名称、経度・緯度、建設現場の方位等に関する情報を含む。
要素モデルは、建築現場を構成する各要素の3次元形状(3次元モデル)に関する情報である。本実施形態では、要素として、建築要素オブジェクト、空間オブジェクト、マーカオブジェクトが用いられる。建築要素オブジェクトは、建築に用いる資機材に関するオブジェクトである。空間オブジェクトは、部屋や領域等を仕切る空間を特定するオブジェクトである。マーカオブジェクトは、仮想空間と現実空間との位置合わせに用いるオブジェクトである。
The project information includes project ID, name of construction site, longitude/latitude, direction of construction site, and the like.
The element model is information on the three-dimensional shape (three-dimensional model) of each element that constitutes the construction site. In this embodiment, architectural element objects, spatial objects, and marker objects are used as elements. A building element object is an object related to materials and equipment used for construction. A space object is an object that identifies a space that partitions a room, area, or the like. A marker object is an object used for aligning the virtual space and the real space.
配置情報は、3次元モデルを配置(仮想空間内の座標)に関する情報を含む。
属性情報は、この要素モデルのオブジェクトIDを含む。建築要素オブジェクトには、更に、仕様(資機材の種類、規格、寸法、面積、体積、素材、価格等)、工程に関するプロパティ情報が記録される。マーカオブジェクトには、属性情報としてマーカIDが記録される。マップピンオブジェクトには、属性情報として指摘IDが記録される。
The placement information includes information on placement of the 3D model (coordinates in virtual space).
Attribute information includes the object ID of this element model. The building element object further records property information regarding specifications (types of materials and equipment, standards, dimensions, areas, volumes, materials, prices, etc.) and processes. A marker ID is recorded in the marker object as attribute information. A pointing ID is recorded in the map pin object as attribute information.
表示モデル記憶部23は、複合現実の仮想空間において表示可能な3次元モデル(MRモデル情報)が記録される。このMRモデル情報は、BIMモデル情報220の変換処理を行なった場合に記録される。このMRモデル情報にも、BIMモデル情報220と同様に、仮想空間における配置情報、属性情報が記録されている。
The display
図4に示すように、検査情報記憶部24には、現場での検査における指摘に関する検査結果情報240が記録される。この検査結果情報240は、作業支援装置30から指摘情報を取得した場合に記録される。検査結果情報240は、プロジェクトID、指摘ID、指摘箇所座標、カメラ座標、日時、部屋、部位、検査項目、メモ、写真、音声に関する情報を含む。
As shown in FIG. 4, the inspection
プロジェクトIDは、指摘があったプロジェクトを特定するための識別子である。
指摘IDは、このプロジェクトにおける各指摘を特定するための識別子である。
指摘箇所座標情報は、この指摘の位置(仮想空間内の座標)に関する情報を含む。
カメラ座標情報は、この指摘を作成した際のカメラ位置(仮想空間内の座標)に関する情報を含む。
The project ID is an identifier for identifying the pointed project.
An indication ID is an identifier for specifying each indication in this project.
Pointed-out location coordinate information includes information about the position of this point (coordinates in virtual space).
The camera coordinate information includes information on the camera position (coordinates in virtual space) when this indication was created.
日時情報は、この指摘が登録された年月日及び時刻に関する情報を含む。
部屋情報は、この指摘が行なわれた空間を特定するための識別子に関する情報を含む。例えば、指摘が行なわれた空間のオブジェクトIDを用いてもよい。
The date and time information includes information on the date and time when this indication was registered.
The room information includes information on an identifier for specifying the space in which this indication has been made. For example, the object ID of the space in which the indication was made may be used.
部位情報は、この指摘が行なわれた建築要素に関する情報を含む。例えば、指摘が行なわれた資材(建築要素)のオブジェクトIDを用いてもよい。
検査項目情報は、指摘された項目に関する情報を含む。例えば、資材における「キズ」等が記録される。
メモ情報は、検査項目における具体的な説明に関する情報を含む。
写真情報は、必要に応じて、この指摘箇所を撮影した画像である。
音声情報は、必要に応じて、検査項目における具体的な説明の音声、もしくは環境音の録音情報を含む。
The site information includes information about the building element for which this indication has been made. For example, the object ID of the indicated material (construction element) may be used.
Inspection item information includes information about the indicated item. For example, "scratches" in the material are recorded.
The memo information includes information on specific explanations for inspection items.
The photographic information is an image obtained by photographing the indicated portion, if necessary.
The audio information includes audio recordings of specific explanations of inspection items or environmental sounds as required.
図1に示す作業支援装置30は、現場において構造物の検査を支援するコンピュータ端末(例えば、タブレット端末)である。この作業支援装置30は、タッチパネルディスプレイ30a、カメラ30b、位置特定部30cを備える。更に、作業支援装置30は、作業支援プログラムを実行することにより、MR処理部31、検査支援部32を実現するとともに、表示モデル記憶部35を備える。
A
タッチパネルディスプレイ30aは、各種情報を入力するための入力部として機能するとともに、各種情報を出力するための出力部として機能する。なお、入力部、出力部は、情報の入力や出力が可能なハードウェアであれば、タッチパネルディスプレイ30aに限定されるものではない。
The
カメラ30bは、被写体を撮影する撮影部である。
位置特定部30cは、自己位置推定により、作業支援装置30の現在地を特定する処理を実行する。この自己位置推定には、例えば、カメラ30bで逐次撮影された画像の相対的な変化に応じて移動距離を推定する視覚オドメトリー技術(VO:visual odometry)を用いることができる。この技術では、位置特定部30cは、撮影画像内の特徴点の検出、特徴点の相関位置関係に応じて、カメラ30bの動きを推定する。なお、位置の特定は、視覚オドメトリー技術を用いる方法に限定されるものではない。例えば、3軸の加速度センサやジャイロセンサ等のIMU(Inertial Measurement Unit)を用いたり、併用したりして、VIO(visual-inertial odometry)を行なうようにしてもよい。
The
The
MR処理部31は、カメラ30bによって撮影した画像に対して、表示モデル記憶部35に記録されたMRモデルを重畳して表示する処理を実行する。
検査支援部32は、カメラ30bによる撮影画像とMRモデルとを比較して、建築要素の検査を支援する処理を実行する。
The
The
表示モデル記憶部35には、支援サーバ20から取得した表示モデルが記録される。更に、検査において、指摘事項が登録された場合、マップピンオブジェクトの3次元モデルが登録される。このマップピンオブジェクトは、指摘事項の配置を示すオブジェクトである。マップピンオブジェクトは、属性情報として指摘ID、検査項目を保持する。
The display model acquired from the
〔作業支援処理〕
図5~図20を用いて、作業支援処理を説明する。以下では、設計処理(図5)、作業開始処理(図6)、作業時処理(図7)、指摘支援処理(図8)、検査支援処理(図9)の順番で説明する。
[Work support processing]
The work support processing will be described with reference to FIGS. 5 to 20. FIG. The design process (FIG. 5), work start process (FIG. 6), work process (FIG. 7), indication support process (FIG. 8), and inspection support process (FIG. 9) will be described below in this order.
(設計処理)
まず、図5を用いて、設計処理を説明する。
ここでは、設計装置10のBIM実行部11は、BIMモデル生成処理を実行する(ステップS101)。具体的には、ユーザは、設計装置10のBIM実行部11を用いて、プロジェクト情報を入力する。この場合、BIM実行部11は、プロジェクト情報を含めたBIMモデル情報220を、支援サーバ20のBIM情報記憶部22に記録する。
(design processing)
First, the design process will be described with reference to FIG.
Here, the
そして、ユーザは、BIM実行部11によって出力されたCAD画面上で、建物を構成する各要素(オブジェクト)の3次元要素モデルを配置することにより、設計を行なう。各要素についての属性情報が入力された場合、BIM実行部11は、BIMモデルの属性情報として記録する。そして、BIM実行部11は、作成したBIMモデル情報220を、支援サーバ20のBIM情報記憶部22に記録する。
Then, the user designs the building by arranging a three-dimensional element model of each element (object) that constitutes the building on the CAD screen output by the
次に、設計装置10のBIM実行部11は、位置補正マーカの設置処理を実行する(ステップS102)。具体的には、ユーザは、設計装置10のBIM実行部11を用いて、建物の所定位置に、所定の向きで、位置補正マーカ(第1位置補正マーカ)を設置する。この位置補正マーカも、BIM上での一つのオブジェクトである。この場合、BIM実行部11は、このオブジェクトの属性情報として「マーカ」、「マーカID」、「マーカ寸法」を設定する。本実施形態では、位置補正マーカを、例えば、通り芯の交点等、現場において、位置決め容易で、配置し易い場所に設定する。
図10に示すように、BIMのCAD図面500に位置補正マーカ501を設置する。
Next, the
As shown in FIG. 10, a
次に、支援サーバ20の制御部21は、MR用データ変換処理を実行する(ステップS103)。具体的には、設計装置10に設計完了が入力された場合、制御部21の変換部211は、BIM情報記憶部22に記録されたBIMモデル情報220のBIMモデルを、複合現実の仮想空間内で表示可能なMRモデルに変換する。ここでは、BIMモデルを軽量化してポリゴン化し、作業支援装置30のMR処理部31で表示可能な形式のMRモデルを生成する。このMRモデルには、建築要素オブジェクト、空間オブジェクト、マーカオブジェクトの3次元モデルが含まれる。
Next, the
(作業開始処理)
次に、図6を用いて、作業開始処理を説明する。ここでは、現場において、BIMにおいて設定された位置補正マーカに対応する位置に、予め位置補正マーカ(第2位置補正マーカ)を印刷したシートを配置しておく。位置補正マーカとしては、マーカIDをコード化した2次元コード画像を用いる。この2次元コード画像は、BIMで設計した所定の大きさの矩形状の外枠を有しており、BIMで配置された向きに置く。そして、作業支援装置30において、作業支援プログラムを実行させて、MR処理部31を起動する。
(work start processing)
Next, the work start process will be described with reference to FIG. Here, at the site, a sheet on which a position correction marker (second position correction marker) is printed in advance is arranged at a position corresponding to the position correction marker set in BIM. A two-dimensional code image in which the marker ID is encoded is used as the position correction marker. This two-dimensional code image has a rectangular outer frame of a predetermined size designed by BIM, and is placed in the orientation arranged by BIM. Then, in the
ここでは、作業支援装置30は、プロジェクト選択処理を実行する(ステップS201)。具体的には、ユーザは、支援サーバ20の表示モデル記憶部23に記録されたプロジェクトを選択する。この場合、MR処理部31は、表示モデル記憶部23から、選択されたプロジェクトのMRモデルを取得し、表示モデル記憶部35に記録する。
Here, the
次に、作業支援装置30は、位置補正マーカ撮影処理を実行する(ステップS202)。具体的には、ユーザは、位置補正マーカが配置されている場所まで移動する。そして、タッチパネルディスプレイ30aで位置補正マーカを確認する。
Next, the
この場合、タッチパネルディスプレイ30aの表示画面において、マーカ位置合わせの作業指示項目ボタンを選択すると、画面に、マーカを特定する四角形枠が表示される。
そして、図11に示す表示画面510のように、現場に配置されたシート511を作業支援装置30のカメラ30bで捉える。シート511には、マーカIDをコード化した2次元コード画像が所定の大きさで、位置補正マーカとして印刷されている。そして、画面に表示された四角形枠を、シート511の位置補正マーカ512に重なるように一致させた状態を確認した後、タッチパネルディスプレイ30aで撮影する。
In this case, when the work instruction item button for marker alignment is selected on the display screen of the
Then, as shown in a
次に、作業支援装置30は、位置補正マーカのデコード処理を実行する(ステップS203)。具体的には、MR処理部31は、位置補正マーカ512をデコードして、マーカID、マーカ寸法を取得する。
Next, the
次に、作業支援装置30は、位置合わせ処理を実行する(ステップS204)。具体的には、MR処理部31は、撮影された2次元コード画像の撮影画像内の配置(形状、大きさ、向き)を、デコードしたマーカIDの仮想空間内の位置補正マーカの配置に対応させる。この対応付けにより、撮影された位置(座標)や向きを特定して、仮想空間内の座標軸を、現実空間内の座標軸に合わせるとともに、マーカ寸法に応じて縮尺を決定する。この結果、取得したMRモデルを用いて、作業支援装置30のカメラ30bを視点とする仮想空間の視野画像を、カメラ30bの撮影画像に写像可能なように位置合わせを実現する。
Next, the
次に、作業支援装置30は、空間オブジェクトの特定処理を実行する(ステップS205)。具体的には、MR処理部31は、仮想空間内の視点が、空間オブジェクト内に含まれる場合には、この空間オブジェクトの属性情報を、タッチパネルディスプレイ30aに出力する。
Next, the
次に、作業支援装置30は、重畳度に応じて、オブジェクトの表示処理を実行する(ステップS206)。具体的には、MR処理部31は、タッチパネルディスプレイ30aに、カメラ30bの撮影画像と、仮想空間の視野内の表示対象のMRモデル画像とを重畳させた複合現実画像を表示する。更に、MR処理部31は、タッチパネルディスプレイ30aに、スライダを表示する。このスライダを用いることにより、タッチパネルディスプレイ30aに表示されるMRモデル画像の重畳度を調整することができる。
Next, the
図12の表示画像520に示すように、スライダSD1により重畳度「100%」にすると、MRモデル画像のみとなる。
図13に示すように、表示画像530のスライダSD1により重畳度を下げると、MRモデルが透過するようになり、現場の実像とMRモデル画像が重畳した形態で表示される。
As shown in the
As shown in FIG. 13, when the degree of superimposition is lowered by the slider SD1 of the
図14に示すように、表示画像540のスライダSD1により重畳度「0%」にすると、MRモデルが透明になり、現場の撮影画像のみが表示される。
そして、後述するようにユーザは、作業支援装置30を携帯して移動しながら、検査を行なう。
As shown in FIG. 14, when the degree of superimposition is set to "0%" by the slider SD1 of the
Then, as will be described later, the user carries the
また、後述するように、移動後に、新たなシート511を見つけることもある。
図15に示すように、この場合には、再び、マーカ位置合わせの作業指示項目ボタンを選択する。そして、表示画像550に表示される四角形枠の位置補正マーカ552を用いて、作業支援装置30は、位置補正マーカ撮影処理(ステップS202)~位置合わせ処理(ステップS204)を実行する。
Also, as will be described later, a
As shown in FIG. 15, in this case, the work instruction item button for marker alignment is selected again. Then, using the square-frame
(作業時処理)
次に、図7を用いて、作業時処理を説明する。ユーザは、検査を行なうために、作業支援装置30を携帯して移動する。この処理は、継続して実行される。
(processing during work)
Next, with reference to FIG. 7, the working process will be described. The user carries
この場合、作業支援装置30は、自己位置の推定処理を実行する(ステップS301)。具体的には、位置特定部30cは、逐次撮影された画像において、自己位置推定により、仮想空間内において、視点の配置(カメラ位置や向き)を特定する。
In this case, the
次に、作業支援装置30は、視野内の指摘事項の表示処理を実行する(ステップS302)。具体的には、MR処理部31は、表示しているプロジェクトIDに関連付けられた検査結果情報240を、検査情報記憶部24から取得する。そして、MR処理部31は、検査結果情報240の指摘箇所座標情報を用いて、指摘の位置を特定する。次に、MR処理部31は、検査結果情報240の検査項目を取得する。そして、MR処理部31は、指摘の位置に、検査項目を表示したマップピンオブジェクトを、仮想空間において、他の3次元オブジェクトと識別できるように、明示的に表示する。なお、このマップピンオブジェクトは、仮想空間と現実空間の重畳度の影響を受けず、視野内に常に表示される。この場合、距離が遠ければマップピンオブジェクトが小さくなるように表示する。
Next, the
次に、作業支援装置30は、ステップS205と同様に、空間オブジェクトの特定処理を実行する(ステップS303)。
次に、作業支援装置30は、表示対象属性の選択の判定処理を実行する(ステップS304)。具体的には、仮想空間に特定の種類のオブジェクトのみを表示させる場合には、タッチパネルディスプレイ30aにおいて表示対象属性を指定する。
Next, the
Next, the
表示対象属性が選択された場合(ステップS304において「YES」の場合)、表示対象属性に応じてオブジェクトの特定処理を実行する(ステップS305)。この場合、MR処理部31は、表示モデル記憶部35において、指定された表示対象属性を有するMRモデルを表示対象として特定する。
If a display target attribute is selected ("YES" in step S304), object identification processing is executed according to the display target attribute (step S305). In this case, the
一方、表示対象属性が選択されていない場合(ステップS304において「NO」の場合)、表示対象属性に応じてオブジェクトの特定処理(ステップS305)をスキップして、表示モデル記憶部35において、すべてのMRモデルを表示対象として特定する。
On the other hand, if the display target attribute is not selected ("NO" in step S304), the object specifying process (step S305) is skipped according to the display target attribute, and the display
そして、作業支援装置30は、ステップS206と同様に、重畳度に応じてオブジェクトの表示処理を実行する(ステップS306)。具体的には、MR処理部31は、表示モデル記憶部35において、指定された表示対象のMRモデルを表示する。
Then, the
(指摘支援処理)
次に、図8を用いて、指摘支援処理を説明する。
まず、作業支援装置30は、オブジェクト選択処理を実行する(ステップS401)。具体的には、ユーザが、検査対象を確認する場合、タッチパネルディスプレイ30aにMRモデル画像を表示させた状態で、選択するオブジェクトを指で指定する。この場合、MR処理部31は、指定されたオブジェクトのオブジェクトIDを特定する。
(Indication support processing)
Next, referring to FIG. 8, the indication support processing will be described.
First, the
次に、作業支援装置30は、属性情報の表示処理を実行する(ステップS402)。具体的には、MR処理部31は、表示モデル記憶部23から、指定されたオブジェクトの属性情報を取得し、タッチパネルディスプレイ30aに出力する。
Next, the
例えば、図16に示すように、表示画面560において、オブジェクト561を指定する場合を想定する。
この場合、図17に示すように、表示画面560には、属性情報562が表示される。
For example, assume that an
In this case, attribute
次に、作業支援装置30は、指摘事項の設定処理を実行する(ステップS403)。具体的には、ユーザが指摘事項を入力する場合、タッチパネルディスプレイ30aにおいて、指摘箇所をタッチする。この場合、MR処理部31は、指摘事項入力画面572をタッチパネルディスプレイ30aに出力する。
Next, the
図18に示すように、表示画面570において、タッチ位置にマップピンオブジェクト571を配置し、指摘事項入力画面572をタッチパネルディスプレイ30aに出力する。そして、検査項目が入力された場合、MR処理部31は、マップピンオブジェクト571の近傍に検査項目を表示する。なお、この段階では、まだ、指摘事項は支援サーバ20に登録されていないので、マップピンオブジェクト571には光彩が付加された形態で、第1色(例えば白色等)で表示される。
更に、指摘箇所を、必要に応じて、カメラ30bを用いて撮影する。この場合、作業支援装置30は、指摘箇所座標、カメラ座標を特定する。
図19に示すように、指摘箇所をカメラ30bで撮影した場合には、撮影画像573は指摘事項入力画面572に設定される。
また、MR処理部31は、ユーザの指示に応じて、検査項目における具体的な説明の音声、もしくは環境音を録音し、音声情報として検査情報記憶部24に記録する。
As shown in FIG. 18, on the
Furthermore, the indicated point is photographed using the
As shown in FIG. 19, when the indicated point is photographed by the
In addition, the
次に、作業支援装置30は、サーバ登録処理を実行する(ステップS404)。具体的には、ユーザが指摘事項の入力を完了した場合、指摘事項入力画面572の「記録を保存」ボタンを選択する。この場合、MR処理部31は、指摘事項入力画面572の入力内容を支援サーバ20に送信する。この指摘事項には、タッチ位置に応じた指摘箇所座標、カメラ座標、日時、部屋、部位、検査項目、メモに関するデータを含める。そして、支援サーバ20の管理部212は、指摘IDを付与した検査結果情報240を生成し、検査情報記憶部24に記録する。
Next, the
図20の表示画面580に示すように、登録済みの表示形態(光彩を削除した形態)に変化させたマップピンオブジェクト581が表示される。MR処理部31は、このマップピンオブジェクト581を、指摘項目に応じた第2色(例えば、黄色や赤色)で表示する。
As shown in the
(検査支援処理)
次に、図9を用いて、検査支援処理を説明する。
ここでは、作業支援装置30は、ステップS401と同様に、オブジェクト選択処理を実行する(ステップS501)。
(Inspection support processing)
Next, the examination support processing will be described with reference to FIG.
Here, the
次に、作業支援装置30は、撮影画像の取得処理を実行する(ステップS502)。具体的には、検査支援部32は、カメラ30bによって撮影した画像において、選択されたオブジェクトに対応する建築要素画像を抽出する。
Next, the
次に、作業支援装置30は、画像の比較処理を実行する(ステップS503)。具体的には、検査支援部32は、建築要素画像の性状と、選択されたオブジェクトのMRモデル情報(要素モデル、属性)を用いて、両者の性状を比較する。性状としては、例えば、形状、大きさ、材質、色彩等の少なくとも一つを用いる。
Next, the
次に、作業支援装置30は、現場状況の正否評価処理を実行する(ステップS504)。具体的には、検査支援部32は、資機材画像により特定した性状と、MRモデル情報の性状との一致又は不一致に応じて正否を判定する。
Next, the
次に、作業支援装置30は、現場状況の登録処理を実行する(ステップS505)。具体的には、検査支援部32は、支援サーバ20に判定結果を送信する。この判定結果には、選択されたオブジェクトのオブジェクトID、空間オブジェクトのオブジェクトID、判定結果に関するデータを含める。支援サーバ20の管理部212は、受信した判定結果に対して指摘IDを付与する。そして、管理部212は、検査結果情報240を生成し、検査情報記憶部24に記録する。ここで、検査結果情報240の日時データ領域には、現在日時を記録する。部屋データ領域には、空間オブジェクトのオブジェクトIDを記録する。部位データ領域には、選択されたオブジェクトのオブジェクトIDを記録する。検査項目データ領域には、性状相違を示す情報を記録する。メモデータ領域には、性状相違の内容(形状、大きさ、材質、色彩等)を記録する。
Next, the
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、設計装置10のBIM実行部11は、位置補正マーカの設置処理を実行する(ステップS102)。そして、作業支援装置30は、位置補正マーカ撮影処理(ステップS202)、位置補正マーカのデコード処理(ステップS203)、位置合わせ処理(ステップS204)を実行する。これにより、BIMにより設計されたオブジェクトと、現実空間のオブジェクトとの位置合わせを行なうことができる。
According to this embodiment, the following effects can be obtained.
(1) In the present embodiment, the
(2)本実施形態では、設計装置10のBIM実行部11は、位置補正マーカの設置処理を実行する(ステップS102)。ここでは、位置補正マーカを、現場において、位置決め容易で、配置し易い場所に設定する。これにより、構造物の設計に用いる基準位置を用いて、位置合わせのためのマーカを配置することができる。例えば、通り芯等の基準位置では、現実空間において墨出し(水平位置や中心位置の表示)が行なわれているので、的確に位置補正マーカが付されたシートを配置することができる。
(2) In the present embodiment, the
(3)本実施形態では、新たなシート511を見つけた場合には、位置補正マーカ552により、作業支援装置30は、位置補正マーカ撮影処理(ステップS202)~位置合わせ処理(ステップS204)を実行する。これにより、自己位置推定により生じた誤差を是正することができる。
(3) In the present embodiment, when a
(4)本実施形態では、作業支援装置30は、視野内の指摘事項の表示処理を実行する(ステップS302)。これにより、MRモデル画像において視認しにくい位置にある指摘事項を容易に把握することができる。
(4) In the present embodiment, the
(5)本実施形態では、作業支援装置30は、サーバ登録処理を実行する(ステップS404)。これにより、複数の作業支援装置30を用いる場合にも、指摘事項等の情報共有を行なうことができる。
(5) In the present embodiment, the
(6)本実施形態では、作業支援装置30は、撮影画像の取得処理(ステップS502)、画像の比較処理(ステップS503)、現場状況の正否評価処理(ステップS504)を実行する。これにより、現場において、効率的に検査を行なうことができる。
(6) In the present embodiment, the
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、建物の建築現場において、BIM画像と現場状況とを比較しながら検査を行なう場合に用いる。本開示の適用対象は、建築現場に限定されるものではない。すなわち、本開示のBIMは、例えば、土木等の建設設計に用いられるCIM(Construction Information Modeling)を含む技術である。
This embodiment can be implemented with the following modifications. This embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
- The above-described embodiment is used when inspecting a building construction site while comparing the BIM image with the site situation. The application of the present disclosure is not limited to construction sites. That is, the BIM of the present disclosure is technology including, for example, CIM (Construction Information Modeling) used for construction design such as civil engineering.
・上記実施形態では、設計装置10、支援サーバ20及び作業支援装置30を用いる。ハードウェア構成は、これに限定されるものではない。例えば、設計装置10や作業支援装置30において、BIMモデル情報からMRモデル情報に変換するようにしてもよい。この場合には、変換部211を各端末に設ける。
- In the above embodiment, the
また、検査情報記憶部24を、BIM情報を管理する支援サーバ20とは異なる検査管理サーバに設けてもよい。この場合には、作業支援装置30は、検査結果を検査管理サーバにアップロードする。
Also, the examination
・上記実施形態では、作業支援装置30として、タッチパネルディスプレイ30aを備えたタブレット端末を用いる。これに代えて、HoloLens(登録商標)等のHMD(Head Mounted Display)を用いてもよい。この場合には、音声認識、使用者の手を利用したハンドジェスチャー等の操作により、入力を行なう。
- In the above-described embodiment, a tablet terminal equipped with a
・上記実施形態では、作業支援装置30の位置特定部30cは、自己位置推定により、作業支援装置30の現在地を特定する処理を実行する。作業支援装置30の現在位置の特定方法は、これに限定されるものではない。例えば、GPS(Global Positioning System)を用いてもよい。また、LIDAR(Light Detection and Ranging)技術を用いてもよい。
- In the above-described embodiment, the
・上記実施形態では、設計装置10のBIM実行部11は、位置補正マーカの設置処理を実行する(ステップS102)。ここでは、位置補正マーカを、例えば、通り芯の交点等、現場において、位置決め容易で、配置し易い場所に設定する。これに代えて、設計装置10が、位置補正マーカを設定するようにしてもよい。例えば、設計装置10に、現場において基準となる部分を認識するためのマーカ位置選択情報を保持させておく。マーカ位置選択情報としては、複数の通り芯の交点等を用いることができる。また、複数の位置補正マーカを配置する場合には、所定間隔毎に、配置位置を特定する。そして、BIM実行部11が、マーカ位置選択情報を用いて、特定した配置位置に位置補正マーカを設定する。この場合、現場の工程に応じて、位置補正マーカを配置する場所を決定するようにしてもよい。例えば、工程に応じて、外部から視認可能なオブジェクトを特定し、このオブジェクトに応じて、位置補正マーカの配置を決定する。
- In the above-described embodiment, the
また、位置合わせに用いる位置補正マーカも、2次元コード画像に限定されるものではない。固有の識別子として認識できるものであれば、2次元画像だけでなく3次元形状でもよい。この場合も、BIMの建築要素オブジェクトにマーカ属性を付与することで、2次元コード画像と同様に位置合わせが可能となる。例えば、現場において、既に配置されている既設オブジェクトを位置補正マーカとして利用してもよい。既設オブジェクトとしては、早い段階で配置される非常灯等を用いることができる。この場合には、位置特定部30cが、画像認識処理により、既設オブジェクトを認識する。そして、位置特定部30cが、認識したオブジェクト配置及び形状と、BIMモデル情報の要素モデルの配置(形状、大きさ、向き)とを比較して、位置合わせを行なう。
Also, the position correction marker used for alignment is not limited to the two-dimensional code image. A three-dimensional shape as well as a two-dimensional image may be used as long as it can be recognized as a unique identifier. In this case as well, by assigning a marker attribute to the BIM building element object, alignment can be performed in the same manner as in the case of the two-dimensional code image. For example, existing objects that have already been placed on site may be used as position correction markers. As an existing object, an emergency light or the like that is placed at an early stage can be used. In this case, the
・上記実施形態では、位置補正マーカを、床に配置するが、位置補正マーカの配置は、床等の平面に限定されない。例えば、柱の側面に垂直に配置してもよい。床スラブのコンクリートがまだ打設されずに鉄筋だけが組まれているような工程において、位置補正マーカを床スラブ上に配置した場合には、位置補正マーカが歪むことがある。このような施工状況においても、柱の側面は、歪みが少ないため、撮影位置を特定して、位置合わせの誤差を少なくすることができる。 - In the above embodiment, the position correction markers are placed on the floor, but the placement of the position correction markers is not limited to a plane such as the floor. For example, it may be arranged perpendicular to the side of the pillar. When the position correction markers are arranged on the floor slab in a process in which concrete is not yet placed in the floor slab and only reinforcing bars are assembled, the position correction markers may be distorted. Even in such a construction situation, since the side surface of the pillar is less distorted, it is possible to specify the photographing position and reduce the alignment error.
・上記実施形態では、作業支援装置30は、表示対象属性の特定処理を実行する(ステップS305)。ここで、MRモデル情報に含まれる工程に応じて、表示対象属性を特定するようにしてもよい。例えば、MRモデル情報の工程実施日に基づいて、現在日時の時点で構築されている建築要素を表示対象属性として特定する。また、次の工程において、構築される建築要素を表示対象として特定してもよい。また、工程ごとに建築要素のプリセットを登録できるようにしておき、プリセットに応じて、表示対象を特定するようにしてもよい。
- In the above-described embodiment, the
更に、後工程で配置される建築要素により、撮影位置から視認できなくなるオブジェクトについては、後工程においても視認可能なオブジェクトと異なる表示形態(例えば、半透明や点線等)に変更して表示するようにしてもよい。 Furthermore, for objects that cannot be seen from the shooting position due to architectural elements that will be placed in the post-process, they will be displayed in a different display format (e.g. semi-transparent, dotted line, etc.) from the visible object in the post-process. can be
・上記実施形態では、作業支援装置30は、指摘事項の設定処理を実行する(ステップS403)。ここで、指摘事項入力画面の部屋欄に、空間オブジェクトのオブジェクトIDを初期設定するようにしてもよい。
- In the above-described embodiment, the
・上記実施形態では、作業支援装置30は、画像の比較処理(ステップS503)、現場状況の正否評価処理(ステップS504)を実行する。検査方法は、画像比較に限定されるものではない。例えば、カメラ30bによる撮影画像の画像認識処理を用いてもよい。この場合には、検査支援部32が画像認識処理により、被写体の形状、大きさ、材質を特定する。そして、検査支援部32は、表示モデル記憶部35に記録されたオブジェクトの属性情報と比較して、正否を判定して出力する。
In the above-described embodiment, the
・上記実施形態では、作業支援装置30は、画像の比較処理(ステップS503)、現場状況の正否評価処理(ステップS504)を実行する。ここで、正否評価結果に基づいて、MRモデル画像の表示形態を変更するようにしてもよい。例えば、MRモデル画像の配色を変更する。具体的には、検査支援部32は、MRモデル画像と構造物画像との差異を領域毎に算出し、差異が大きい領域については、濃いはっきりとした配色でMRモデル画像を表示する。一方、MRモデル画像と構造物画像との差異が小さい領域については、MR処理部31は、BIM画像の透明度を高くして表示する。
In the above-described embodiment, the
・上記実施形態では、作業支援装置30は、視野内の指摘事項の表示処理を実行する(ステップS302)。ここでは、MR処理部31は、仮想空間において、指摘の位置に、検査項目を表示したマップピンオブジェクトを表示する。指摘事項の表示は、マップピンオブジェクトを用いる場合に限定されない。例えば、建築要素オブジェクトに指摘事項を表示するようにしてもよい。
- In the above-described embodiment, the
次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
(a)BIMを用いて、仮想空間に配置されたオブジェクトの3次元モデルを記録する表示モデル記憶部に接続された作業支援装置であって、
前記作業支援装置が、
現実空間において、カメラにより撮影された位置補正マーカと、前記BIMの前記仮想空間に配置された位置補正マーカの3次元モデルとの位置関係により、前記現実空間と前記仮想空間との位置合わせを行ない、
前記仮想空間に配置されたオブジェクトを、前記カメラによる撮影画像に重畳した複合現実画像を出力するMR処理部を備えることを特徴とする作業支援装置。
(b)前記MR処理部が、
現在位置を特定し、
前記現在地が含まれる空間オブジェクトを特定し、
前記空間オブジェクトの属性情報を出力することを特徴とする(a)に記載の作業支援装置。
Next, technical ideas that can be grasped from the above embodiment and another example will be added below.
(a) A work support device connected to a display model storage unit that records a three-dimensional model of an object placed in a virtual space using BIM,
The work support device is
In the physical space, the physical space and the virtual space are aligned based on the positional relationship between the position correction marker captured by the camera and the three-dimensional model of the position correction marker arranged in the virtual space of the BIM. ,
A work support device comprising an MR processing unit that outputs a mixed reality image in which an object placed in the virtual space is superimposed on an image captured by the camera.
(b) the MR processing unit
Identify your current location,
identifying a spatial object that includes the current location;
The work support device according to (a), wherein attribute information of the spatial object is output.
(c)前記MR処理部が、
前記仮想空間に配置されたオブジェクトの属性情報において工程を特定し、
前記工程を用いて、前記複合現実画像に出力するオブジェクトを特定することを特徴とする請求項(a)又は(b)に記載の作業支援装置。
(c) the MR processing unit
identifying a step in the attribute information of the object placed in the virtual space;
4. The work support apparatus according to claim 1, wherein an object to be output to said mixed reality image is specified using said step.
(d)前記MR処理部が、前記撮影画像に入力された指摘事項を示すオブジェクトを生成し、前記仮想空間内に表示することを特徴とする請求項(a)~(c)の何れか一項に記載の作業支援装置。 (d) The MR processing unit generates an object indicating the pointed out item input to the captured image, and displays the object in the virtual space. Work support device according to the item.
(e)前記複合現実画像を用いて入力された指摘事項を、前記仮想空間内の位置に関連付けて記録する検査支援部を更に備えることを特徴とする請求項(a)~(d)の何れか一項に記載の作業支援装置。
(f)前記検査支援部が、前記撮影画像に含まれるオブジェクトの性状と、仮想空間に配置されたオブジェクトの性状とを比較し、比較結果を出力することを特徴とする(e)に記載の作業支援装置。
(e) further comprising an inspection support unit that records the indications input using the mixed reality image in association with a position in the virtual space. or the work support device according to item 1.
(f) The examination support unit according to (e), wherein the property of the object included in the photographed image is compared with the property of the object placed in the virtual space, and the comparison result is output. Work support device.
(g)位置補正マーカとして、仮想空間内において、マーカ位置選択情報を用いて選択したオブジェクト又は前記オブジェクトの基準線を設定することを特徴とする(a)~(f)の何れか一項に記載の作業支援装置。 (g) An object selected by using marker position selection information or a reference line of the object is set in virtual space as a position correction marker. Work support device as described.
A1…作業支援システム、10…設計装置、11…BIM実行部、20…支援サーバ、21…制御部、211…変換部、212…管理部、22…BIM情報記憶部、23…表示モデル記憶部、24…検査情報記憶部、30…作業支援装置、30a…タッチパネルディスプレイ、30b…カメラ、30c…位置特定部、31…MR処理部、32…検査支援部、35…表示モデル記憶部
A1
Claims (2)
前記設計装置が、前記BIMを用いて、前記仮想空間に第1位置補正マーカを配置し、
前記作業支援装置が、
現実空間において、カメラにより撮影された第2位置補正マーカと、前記仮想空間に配置された第1位置補正マーカとの位置関係により、前記現実空間と前記仮想空間との位置合わせを行ない、
前記仮想空間に配置された要素の3次元モデルを、前記カメラによる撮影画像に重畳した複合現実画像を出力することを特徴とする作業支援システム。 A work support system comprising a design device for designing by arranging elements in a virtual space using BIM, and a work support device for displaying a three-dimensional model of the elements arranged in the virtual space,
The design device places a first position correction marker in the virtual space using the BIM,
The work support device is
aligning the physical space and the virtual space based on the positional relationship between the second position correction marker photographed by a camera and the first position correction marker arranged in the virtual space in the physical space;
A work support system that outputs a mixed reality image in which a three-dimensional model of elements placed in the virtual space is superimposed on an image captured by the camera.
前記設計装置が、前記BIMを用いて、前記仮想空間に第1位置補正マーカを配置し、
前記作業支援装置が、
現実空間において、カメラにより撮影された第2位置補正マーカと、前記仮想空間に配置された第1位置補正マーカとの位置関係により、前記現実空間と前記仮想空間との位置合わせを行ない、
前記仮想空間に配置された要素の3次元モデルを、前記カメラによる撮影画像に重畳した複合現実画像を出力することを特徴とする作業支援方法。 Work support using a work support system using a design device for designing by arranging elements in a virtual space using BIM and a work support device for displaying a three-dimensional model of the elements arranged in the virtual space a method of performing
The design device places a first position correction marker in the virtual space using the BIM,
The work support device is
aligning the physical space and the virtual space based on the positional relationship between the second position correction marker photographed by a camera and the first position correction marker arranged in the virtual space in the physical space;
A work support method comprising: outputting a mixed reality image in which a three-dimensional model of an element arranged in the virtual space is superimposed on an image captured by the camera.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163173456P | 2021-04-11 | 2021-04-11 | |
US63/173,456 | 2021-04-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022161770A true JP2022161770A (en) | 2022-10-21 |
Family
ID=83658607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021085471A Pending JP2022161770A (en) | 2021-04-11 | 2021-05-20 | Work support system and work support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022161770A (en) |
-
2021
- 2021-05-20 JP JP2021085471A patent/JP2022161770A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | A BIM-based location aware AR collaborative framework for facility maintenance management. | |
US9619944B2 (en) | Coordinate geometry augmented reality process for internal elements concealed behind an external element | |
Irizarry et al. | InfoSPOT: A mobile Augmented Reality method for accessing building information through a situation awareness approach | |
Williams et al. | BIM2MAR: an efficient BIM translation to mobile augmented reality applications | |
US12038279B2 (en) | Inspection processing system, inspection processing method, and inspection processing program | |
US7139685B2 (en) | Video-supported planning of equipment installation and/or room design | |
TWI661210B (en) | Method and apparatus for establishing coordinate system and data structure product | |
CN101833115B (en) | Life detection and rescue system based on augment reality technology and realization method thereof | |
JP6640294B1 (en) | Mixed reality system, program, portable terminal device, and method | |
JP2019153274A (en) | Position calculation device, position calculation program, position calculation method, and content addition system | |
US11395102B2 (en) | Field cooperation system and management device | |
JPWO2012077662A1 (en) | CAD information generation system, CAD information generation program, and CAD information generation method | |
JP2022155553A (en) | Business management support device, business management support system, business management support method, and business management support program | |
JP6886670B2 (en) | Construction site terminals, construction site systems, and programs | |
JP2023102537A (en) | Work support system, work support method, and work support program | |
CN201673267U (en) | Life detection and rescue system based on augmented reality | |
JP2015075389A (en) | Photographic measurement plotting method and photographic measurement plotting device | |
JP2022161770A (en) | Work support system and work support method | |
Liu et al. | System development of an augmented reality on-site BIM viewer based on the integration of SLAM and BLE indoor positioning | |
JP2023181036A (en) | Pointing-out support system, pointing-out support method, and pointing-out support program | |
JP2024035457A (en) | Work support system, work support method, and work support program | |
KR20210112551A (en) | Construction management system and method using mobile electric device | |
JP2023102447A (en) | Work support system, work support method, and work support program | |
US20170211937A1 (en) | Indoor Positioning System with Fast Plan Mapping | |
US20240169565A1 (en) | System and method for setting a viewpoint for displaying geospatial data on a mediated reality device using geotags |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240410 |