JP2024035457A - 作業支援システム、作業支援方法及び作業支援プログラム - Google Patents

作業支援システム、作業支援方法及び作業支援プログラム Download PDF

Info

Publication number
JP2024035457A
JP2024035457A JP2022139921A JP2022139921A JP2024035457A JP 2024035457 A JP2024035457 A JP 2024035457A JP 2022139921 A JP2022139921 A JP 2022139921A JP 2022139921 A JP2022139921 A JP 2022139921A JP 2024035457 A JP2024035457 A JP 2024035457A
Authority
JP
Japan
Prior art keywords
work support
work
virtual space
model
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022139921A
Other languages
English (en)
Inventor
允哉 中村
Mitsuya Nakamura
雄一 池田
Yuichi Ikeda
憲一 宮部
Kenichi Miyabe
典良 木股
Noriyoshi Kimata
数馬 石原
Kazuma Ishihara
裕之 富野
Hiroyuki Tomino
結衣 深谷
Yui Fukaya
慧音 伊藤
Kein Ito
さくら 森澤
Sakura Morisawa
友香 水谷
Yuka Mizutani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obayashi Corp
Original Assignee
Obayashi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Obayashi Corp filed Critical Obayashi Corp
Priority to JP2022139921A priority Critical patent/JP2024035457A/ja
Publication of JP2024035457A publication Critical patent/JP2024035457A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】作業現場において、効率的かつ的確な墨出し作業を支援するための作業支援システム、作業支援方法及び作業支援プログラムを提供する。【解決手段】作業支援システムA1は、BIMを用いて、仮想空間に3次元モデルを配置して設計を行なう管理装置10と、仮想空間に配置された要素の3次元モデルを表示する作業支援装置30と、を備える。そして、作業支援装置30が、視野に含まれる範囲の3次元モデルを特定し、現実空間に既設のオブジェクトと、仮想空間内の3次元モデルとの位置合わせを行ない、仮想空間内に、基準線を含むグリッドと、グリッドを用いた作業位置を示すマーカとを設定し、視野に対応させて、仮想空間の複合現実画像を表示する。【選択図】図1

Description

本開示は、工事現場での作業を支援する作業支援システム、作業支援方法及び作業支援プログラムに関する。
建築工事において、各種作業のために、工事の進行に必要な線・形や寸法を表示する墨出しが行なわれている。この墨出し作業では、複数の基準点を設定し、それを結ぶ基準線に基づいて、寸法測定、角度出しを行なって、線引き図を実寸描写する。この墨出し作業の効率化を図るための技術が検討されている(特許文献1を参照)。この文献に記載された技術では、施工空間における任意の位置に、MR(複合現実)の相関位置を認識させる基準点を設置する。そして、MR視野に表示される、線引き図の線の寸法精度を維持するために基準点切替え時に設置する基準点の相関位置の誤差修正を行なう。
特開2020-019129号公報
しかしながら、墨出し作業後に、この墨出しを用いて施工作業を行なう場合、墨出し作業と施工作業とを別個に行なうため、作業やコストの負担が大きい。また、墨出し作業後に、臨機応変な対応が困難であった。
上記課題を解決するための作業支援システムは、BIMを用いて、仮想空間に3次元モデルを配置して設計を行なう管理装置と、現実空間の視野に対応した仮想空間に配置された要素の3次元モデルを表示する作業支援装置と、を備える。そして、前記作業支援装置が、前記視野に含まれる範囲の3次元モデルを特定し、前記現実空間に既設のオブジェクトと、前記仮想空間内の前記3次元モデルとの位置合わせを行ない、前記仮想空間内に、基準線を含むグリッドと、前記グリッドを用いた作業位置を示すマーカとを設定し、前記視野に対応させて、前記仮想空間の複合現実画像を表示する。
本開示は、作業現場において、効率的かつ的確な作業を支援することができる。
実施形態のシステムの説明図である。 実施形態のハードウェア構成の説明図である。 実施形態のBIM情報記憶部の説明図である。 実施形態で用いる情報の関係を説明する説明図である。 実施形態の処理手順の説明図である。 実施形態の処理手順の説明図である。 実施形態の仮想空間内における3次元モデルを説明する説明図である。 実施形態の表示画面の説明図である。 実施形態の表示画面の説明図であって、(a)は仮想空間、(b)は現実空間の説明図である。 実施形態の表示画面の説明図である。 実施形態の表示画面の説明図である。
以下、図1~図11を用いて、作業支援システム、作業支援方法及び作業支援プログラムを具体化した一実施形態を説明する。本実施形態では、建物の建設現場において、施工作業を行なう場合に用いる作業支援システム、作業支援方法及び作業支援プログラムとして説明する。ここでは、天井に部材を設置するためのアンカー(天井インサート)の施工作業を想定する。この場合、デッキプレートに天井インサート用の孔を設ける施工作業を行なう。
本実施形態では、図1に示すように、作業支援システムA1は、ネットワークを介して相互に接続された管理装置10、支援サーバ20、作業支援装置30を用いる。
(ハードウェア構成の説明)
図2を用いて、管理装置10、支援サーバ20、作業支援装置30を構成する情報処理装置H10のハードウェア構成を説明する。情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を備える。なお、このハードウェア構成は一例であり、他のハードウェアによって実現することも可能である。
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースや無線インタフェース等である。
入力装置H12は、各種情報の入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイ等である。なお、入力装置H12及び表示装置H13として、タッチパネルディスプレイを用いてもよい。
記憶装置H14は、管理装置10、支援サーバ20、作業支援装置30の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、管理装置10、支援サーバ20、作業支援装置30における各処理を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各処理のための各種プロセスを実行する。
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、以下で構成し得る。
〔1〕コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ
〔2〕各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路
〔3〕それらの組み合わせ、を含む回路(circuitry)
プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
(システム構成)
次に、図1を用いて、作業支援システムA1の各機能を説明する。
管理装置10は、BIM(Building Information Modeling)を用いて、構造物の設計処理(3次元CAD処理)を行なうためのコンピュータ端末である。このBIMでは、建築に用いる要素の形状だけではなく、建物要素の属性(プロパティ)を管理することができる。この管理装置10は、オペレーティングシステム上で動作するBIMアプリケーションにより、BIM実行部11として機能する。
BIM実行部11は、BIM技術により、各要素を3次元モデル(オブジェクト)により表現して仮想3次元空間内に配置することにより、3次元CAD(computer-aided design)を実現する。各3次元モデルは、建築に関する各種情報を属性として保持している。
支援サーバ20は、複合現実(MR:Mixed Reality)を利用して、現場状況の管理を支援する処理を実行するコンピュータシステムである。この支援サーバ20は、制御部21、BIM情報記憶部22、表示モデル記憶部23を備える。
制御部21は、後述する処理(変換段階、管理段階等を含む処理)を行なう。このための処理プログラムを実行することにより、制御部21は、変換部211、管理部212等として機能する。
変換部211は、3次元CADデータを、複合現実の3次元仮想空間に表示可能なデータに変換する。ここでは、BIMを利用して設計された3次元CADデータを、軽量化、ポリゴン化して、作業支援装置30の表示アプリケーションで利用可能なフォーマットに変換する。
管理部212は、作業支援装置30から現場状況を取得し、BIM情報記憶部22に記録する。
図3に示すように、BIM情報記憶部22には、BIMを用いて作成したBIMモデル情報220が記録される。このBIMモデル情報220は、3次元CADを用いて、建築物の設計を行なった場合に記録される。BIMモデル情報220は、プロジェクト情報に対して、3次元モデル情報(要素モデル、配置情報、属性情報)を含む。本実施形態では、構造部材(柱、梁)等の3次元モデルを用いる。
プロジェクト情報は、プロジェクトID、作業現場の名称、経度・緯度、建設現場の方位等に関する情報を含む。
要素モデルは、作業現場を構成する各要素の3次元形状(3次元モデル)に関する情報である。本実施形態では、建築要素オブジェクト、マーカオブジェクト、作業位置オブジェクトが用いられる。建築要素オブジェクトは、建築に用いる資機材に関するオブジェクトである。この建築要素オブジェクトとして、柱、大梁、小梁等のオブジェクトが含まれる。マーカオブジェクトは、3次元仮想空間と現実空間との位置合わせに用いるオブジェクトである。また、作業位置オブジェクトは、作業位置を示すオブジェクトであって、作業位置マーカやグリッドを含む。作業位置マーカは、インサートを設ける施工位置を示すオブジェクトであり、グリッドは、墨出しに対応して、施工位置を示す基準線である。
配置情報は、3次元モデルを配置(3次元仮想空間内の座標)に関する情報を含む。
属性情報は、この要素モデルのオブジェクトIDを含む。オブジェクトIDは、各要素の3次元形状(3次元モデル)を特定するための識別子に関する情報である。建築要素オブジェクトには、更に、仕様(資機材の種類、規格、寸法、面積、体積、素材、価格等)、工程に関するプロパティ情報が記録される。マーカオブジェクトや作業位置オブジェクトには、属性情報としてマーカIDが記録される。
表示モデル記憶部23は、複合現実の3次元仮想空間において表示可能な3次元モデル(MRモデル情報)が記録される。このMRモデル情報は、BIMモデル情報220の変換処理を行なった場合に記録される。このMRモデル情報にも、BIMモデル情報220と同様に、3次元仮想空間における配置情報、属性情報が記録されている。
図1に示す作業支援装置30は、現場において施工作業を支援するコンピュータ端末(モバイル端末)である。例えば、HoloLens(登録商標)等のヘッドマウント(HMD:Head Mounted Display)端末を用いる。この作業支援装置30は、表示部30a、カメラ30b、操作部30c、位置特定部30dを備える。更に、作業支援装置30は、表示モデル記憶部35を備え、作業支援プログラムを実行することにより、MR処理部31、作業支援部32を実現する。
表示部30aは、透過型ディスプレイであり、各種情報を出力するための出力部として機能する。透過型であるため、現実空間の視野範囲を透視しながら、重畳された画像を閲覧することができる。
カメラ30bは、被写体を撮影する撮影部である。
操作部30cは、各種情報を入力するための操作に用いる。例えば、マイクで集音した音声の音声認識や、カメラ30bで撮影した画像によるジェスチャを用いて操作入力を行なう。
位置特定部30dは、自己位置推定により、作業支援装置30の現在地を特定する処理を実行する。この自己位置推定には、例えば、カメラ30bで逐次撮影された画像の相対的な変化に応じて移動距離を推定する視覚オドメトリー技術(VO:visual odometry)を用いることができる。この技術では、位置特定部30dは、撮影画像内の特徴点の検出、特徴点の相関位置関係に応じて、カメラ30bの動きを推定する。なお、位置の特定は、視覚オドメトリー技術を用いる方法に限定されるものではない。例えば、3軸の加速度センサやジャイロセンサ等のIMU(Inertial Measurement Unit)を用いたり、併用したりして、VIO(visual-inertial odometry)を行なうようにしてもよい。
MR処理部31は、現実空間の視野範囲に対して、表示モデル記憶部35に記録されたMRモデルを重畳して表示する処理を実行する。
作業支援部32は、現実空間の視野範囲とMRモデルとを用いて、作業現場における施工作業を支援する処理を実行する。
表示モデル記憶部35には、支援サーバ20から取得した表示モデルが記録される。
〔作業支援処理〕
図4~図11を用いて、作業支援処理を説明する。
本実施形態では、図4に示す構造部材情報410の3次元モデル、作業位置情報420の3次元モデル、設備情報430の3次元モデルを用いて、MR表示440を行なう。ここでは、構造部材情報410の3次元モデル(サーフェスモデル)は、現実空間の配置と仮想空間との配置を確認するために用いる。作業位置情報420は、作業位置450を特定するための情報である。作業位置情報420は、作業位置450を示すマーカと、作業位置450と同じ高さに配置された平面に配置された交差する基準線(グリッド)とを含む。この作業位置450で、天井インサート用の孔を設ける施工作業を行なう。なお、後述するように、設備情報430の3次元モデルは、ワイヤーフレームで表示することにより、処理負荷を軽減する。
以下では、施工作業を支援するための設計処理(図5)、作業支援処理(図6)を説明する。
(設計処理)
図5を用いて、設計処理を説明する。ここでは、建物の構造部材(柱、梁等)や設備の設計を行なう。
まず、管理装置10のBIM実行部11は、3次元モデル生成処理を実行する(ステップS101)。具体的には、管理装置10のBIM実行部11は、プロジェクト情報に関連付けたCAD画面を表示装置H13に出力する。
そして、ユーザは、BIM実行部11によって出力されたCAD画面上で、建物を構成する各要素(オブジェクト)の3次元要素モデルを配置することにより、設計を行なう。各要素についての属性情報が入力された場合、BIM実行部11は、BIMモデルの属性情報として記録する。
本実施形態では、図7に示すように、作業フロアの3次元モデル500を生成する。3次元モデル500には、建築要素オブジェクトとして、柱501、大梁502、小梁503等の3次元モデルが含まれる。更に、建築要素オブジェクトとして、設備の3次元モデルも配置する。
更に、3次元モデル500には、グリッド505が設定される。このグリッド505は、上述したように、天井インサート用の孔を設ける作業位置と同じ高さに配置される。更に、グリッド505において、所定の交点(施工位置)には、作業位置マーカ506が配置される。
次に、管理装置10のBIM実行部11は、位置補正マーカの設置処理を実行する(ステップS102)。具体的には、ユーザは、管理装置10のBIM実行部11を用いて、建物の所定位置に、所定の向きで、位置補正マーカ(第1位置補正マーカ)を設置する。この位置補正マーカも、BIM上での一つのオブジェクトである。この場合、BIM実行部11は、このオブジェクトの属性情報として「マーカ」、「マーカID」、「マーカ寸法」を設定する。本実施形態では、位置補正マーカを、例えば、杭の通り芯の交点等、現場において、位置決め容易で、配置し易い場所に設定する。
ここでは、図8に示すように、作業フロアの3次元モデル510の通り芯上に、マーカオブジェクト511の3次元モデルを配置する。なお、3次元モデル510には、設備512の3次元モデルも配置されている。
次に、支援サーバ20の制御部21は、MR用データ変換処理を実行する(ステップS103)。具体的には、管理装置10に設定完了が入力された場合、制御部21の変換部211は、BIM情報記憶部22に記録されたBIMモデル情報220のBIMモデルを、複合現実の仮想空間内で表示可能なMRモデルに変換する。ここでは、3次元モデルを軽量化してポリゴン化し、作業支援装置30のMR処理部31で表示可能な形式のMRモデルを生成する。このMRモデルには、建築要素(構造部材、設備)、位置補正マーカ、作業位置情報の3次元モデルが含まれる。
(作業支援処理)
次に、図6を用いて、作業支援処理を説明する。ここでは、現場において、BIMにおいて設定された位置補正マーカに対応する位置に、予め位置補正マーカ(第2位置補正マーカ)を印刷したシートを配置しておく。このシートには、位置補正マーカが、BIMで作成された所定の大きさで、位置補正マーカが印刷されている。位置補正マーカとしては、マーカIDをコード化した2次元コード画像を用いる。この2次元コード画像は、3次元で設計した所定の大きさの矩形状の外枠を有しており、3次元仮想空間で配置された向きに置く。
図9(a)に示すように、作業フロアの仮想空間520内に、マーカオブジェクト511の3次元モデルが配置されている場合を想定する。仮想空間520内のマーカオブジェクト511の配置位置に対応させて、図9(b)に示すように、現実空間内に位置補正マーカ521(2次元コード画像)が付されたシート522を配置する。ここでは、測量工作業により、作業支援装置30の位置合わせ精度に応じた間隔(例えば、5m)で位置補正マーカ521を設置する場所の墨出しを行なう。本実施形態のデッキプレートD0は、山部D1と溝部D2とを有する。そして、山部D1の上面で孔を開け施工作業を行なうため、上面高さ位置にシート522を配置する。
そして、作業支援装置30において、作業支援プログラムを実行させて、MR処理部31を起動する。
まず、作業支援装置30は、プロジェクト選択処理を実行する(ステップS201)。具体的には、ユーザは、支援サーバ20の表示モデル記憶部23に記録されたプロジェクトを選択する。この場合、MR処理部31は、表示モデル記憶部23から、選択されたプロジェクトのMRモデルを取得し、表示モデル記憶部35に記録する。
次に、作業支援装置30は、配色決定処理を実行する(ステップS202)。具体的には、作業支援部32は、カメラ30bを用いて、現実空間(背景)の撮影画像を生成する。そして、作業支援部32は、撮影画像(背景)の色分布を算出する。次に、作業支援部32は、背景の色分布に対して、目立つ強調色(例えば補色)を特定する。そして、MR処理部31は、後述するMRモデルの表示において、この強調色を用いる。
次に、作業支援装置30は、位置補正マーカ撮影処理を実行する(ステップS203)。具体的には、ユーザは、位置補正マーカが配置されている場所まで移動する。そして、表示部30aで位置補正マーカを確認する。
この場合、図9(b)に示す表示画面530が、作業支援装置30の表示部30aに表示される。そして、現場に配置されたシート522を、作業支援装置30のカメラ30bで撮影する。作業支援装置30は、カメラ30bの撮影画像で位置補正マーカ521を認識した場合、表示部30aに、位置補正マーカ521を特定する四角形枠を表示する。
次に、作業支援装置30は、位置補正マーカのデコード処理を実行する(ステップS204)。具体的には、MR処理部31は、シート522の位置補正マーカをデコードして、マーカID、マーカ寸法を取得する。
次に、作業支援装置30は、マーカ位置合わせ処理を実行する(ステップS205)。具体的には、MR処理部31は、撮影された2次元コード画像の撮影画像内の配置(形状、大きさ、向き)を、デコードしたマーカIDの仮想空間内の位置補正マーカの配置に対応させる。この対応付けにより、撮影された位置(座標)や向きを特定して、仮想空間内の座標軸を、現実空間内の座標軸に合わせるとともに、マーカ寸法に応じて縮尺を決定する。
なお、作業中に位置補正マーカ521を、再度、利用する場合には、作業支援装置30は、位置補正マーカ撮影処理(ステップS203)以降の処理を繰り返す。
更に、作業者が、作業中に、構造部材のMRモデルの配置と、実際の構造部材の配置とのずれを認識した場合、操作部30cを用いて、両者が一致するように、MRモデル画像全体を移動させる。これにより、現実空間内の座標軸と仮想空間の座標軸との位置調整を行なうことができる。
次に、施工作業のために、作業者が移動する場合を説明する。
この場合、作業支援装置30は、動き判定処理を実行する(ステップS206)。具体的には、MR処理部31は、位置特定部30dの自己位置推定により、カメラ30bを視点として、表示部30aを介して、作業者が閲覧する視野を特定する。
次に、作業支援装置30は、表示オブジェクトの特定処理を実行する(ステップS207)。具体的には、MR処理部31は、表示モデル記憶部35を用いて、特定した視野において、所定範囲内に配置されているオブジェクト(MRモデル)を特定する。MRモデルには、作業位置、グリッド等に関するオブジェクトが含まれる。ここでは、特定する所定範囲は、位置ずれを抑制できる許容可視範囲を用いる。そして、MR処理部31は、特定したMRモデルを用いて、作業支援装置30の仮想空間の視野画像を生成する。
次に、作業支援装置30は、重畳表示処理を実行する(ステップS208)。具体的には、MR処理部31は、表示部30aにおける仮想空間の視野画像を、透過視野に写像可能なように位置合わせを行なう。この位置合わせにより、MR処理部31は、透過視野と、3次元仮想空間の視野内の表示対象のMRモデル画像とを重畳させた複合現実を実現する。更に、MR処理部31は、操作部30cによるスライダー操作を検知した場合、MRモデル画像の重畳度を調整する。この重畳度の調整により、透過視野におけるMRモデルの線の濃淡を調整する。
図10に示すように、透過視野540に対して、MRモデルが重畳される。ここでは、透過視野のデッキプレートD0に対して、MRモデルとして、柱501、大梁502、小梁503が表示される。この柱501、大梁502、小梁503は、構造部材の位置と一致している。更に、デッキプレートD0の山部D1の上面高さに、グリッド505、作業位置マーカ506が表示される。
そして、作業者は、施工作業を行なっていない作業位置に移動する。そして、所望の作業位置において、孔を設ける施工作業を行なう。この場合、現場状況(例えば、他の設備等の競合等)に応じて、施工位置を変更してもよい。
図11に示すように、作業位置マーカ506の位置において、工具T1を用いて、施工作業(開孔作業)を行なう。
この場合、作業支援装置30は、作業状況判定処理を実行する(ステップS209)。具体的には、作業支援部32は、作業位置に対して、作業状況を判定する。ここでは、作業支援部32は、カメラ30bを用いた画像認識により、孔を設ける作業を認識する。
次に、作業支援装置30は、作業記録処理を実行する(ステップS210)。具体的には、作業支援部32は、画像認識により、施工作業の完了を判定した場合、実際の施工位置と、MRモデルの作業位置との位置関係を特定する。そして、作業支援部32は、作業状況情報(オブジェクトID、作業位置)を支援サーバ20に送信する。そして、制御部21の管理部212は、作業状況情報に応じて、施工位置がBIM情報記憶部22に記録された作業位置オブジェクトと異なる場合には、作業位置オブジェクトを移動させる。そして、管理部212は、実際の施工位置を、完了情報に関連付けて、BIM情報記憶部22に記録する。
そして、作業支援装置30は、動き判定処理(ステップS206)以降の処理を実行する。
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、管理装置10のBIM実行部11は、位置補正マーカの設置処理を実行する(ステップS102)。そして、作業支援装置30は、位置補正マーカ撮影処理(ステップS203)、位置補正マーカのデコード処理(ステップS204)、マーカ位置合わせ処理(ステップS205)を実行する。これにより、3次元により設計されたオブジェクトと、現実空間のオブジェクトとの位置合わせを行なうことができる。
(2)本実施形態では、管理装置10のBIM実行部11は、位置補正マーカの設置処理を実行する(ステップS102)。ここでは、位置補正マーカを、現場において、位置決め容易で、配置し易い場所に設定する。これにより、作業現場での基準位置を用いて、位置合わせのためのマーカを配置することができる。
(3)本実施形態では、作業支援装置30は、動き判定処理(ステップS206)、表示オブジェクトの特定処理(ステップS207)、重畳表示処理(ステップS208)を実行する。これにより、透過型ディスプレイを用いて、施工位置を確認しながら、施工作業を行なうことができる。従って、グリッドは、墨出しに対応しており、施工作業のための墨出しの手間を軽減することができる。
(4)本実施形態では、作業支援装置30は、重畳表示処理を実行する(ステップS208)。この場合、デッキプレートD0の山部D1の上面高さに、グリッド505、作業位置マーカ506が表示される。これにより、作業位置マーカ506が、作業位置に張り付くので、作業時の視差による位置ずれを抑制できる。
(5)本実施形態では、作業支援装置30は、作業状況判定処理(ステップS209)、作業記録処理(ステップS210)を実行する。これにより、効率的に施工実績を残すことができる。
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、建物の建設現場において、3次元画像と現場状況とを比較しながら墨出しを行なう。ここでは、天井に部材を設置するためのアンカー(天井インサート)の施工作業を行なった。本開示の適用対象は、天井インサートの施工作業に限定されるものではない。例えば、既設の要素で現実空間と仮想空間との位置合わせを行なうことにより、墨出しを行なうことなく施工作業を行なうことができる。
・上記実施形態では、作業支援装置30は、重畳表示処理を実行する(ステップS208)。この場合、透過視野にMRモデル画像を重畳させた複合現実を実現する。ここで、オクルージョンを実現するようにしてもよい。このオクルージョンでは、現実空間の物体の所在位置を特定し、手前にある物体が後ろにあるMRモデル画像を隠す状態で、MRモデル画像の重畳を制御する。
・上記実施形態では、作業支援装置30は、重畳表示処理を実行する(ステップS208)。この場合、作業者の動きに応じて、重畳度を変更してもよい。例えば、作業位置オブジェクトに対して、他の建築要素オブジェクトの透過度を高くする。これにより、作業者の状況に応じて、手間なく複合現実画像を調整することができる。すなわち、作業者の移動時に目標位置(作業位置)を明示するとともに、歩行の障害となる建築要素オブジェクトの表示を抑制することができる。
・上記実施形態では、管理装置10、支援サーバ20及び作業支援装置30を用いる。ハードウェア構成は、これらに限定されるものではない。例えば、管理装置10や作業支援装置30において、3次元モデル情報からMRモデル情報に変換するようにしてもよい。この場合には、変換部211を各端末に設ける。
・上記実施形態では、作業支援装置30の位置特定部30dは、自己位置推定により、作業支援装置30の現在地を特定する処理を実行する。作業支援装置30の現在位置の特定方法は、これに限定されるものではない。例えば、GPS(Global Positioning System)を用いてもよい。また、LIDAR(Light Detection and Ranging)技術を用いてもよい。
・上記実施形態では、管理装置10のBIM実行部11は、位置補正マーカの設置処理を実行する(ステップS102)。位置合わせに用いる位置補正マーカは、2次元コード画像に限定されるものではない。固有の識別子として認識できるものであれば、2次元画像だけでなく3次元形状でもよい。この場合も、3次元のマーカオブジェクトにマーカ属性を付与することで、2次元コード画像と同様に位置合わせが可能となる。例えば、現場において、既に配置されている既設オブジェクトを位置補正マーカとして利用してもよい。既設オブジェクトとしては、早い段階で配置される建築要素を用いることができる。この場合には、位置特定部30dが、画像認識処理により、既設オブジェクトを認識する。そして、位置特定部30dが、認識したオブジェクト配置及び形状と、3次元モデル情報の要素モデルの配置(形状、大きさ、向き)とを比較して、位置合わせを行なう。
・上記実施形態では、作業支援装置30は、作業状況判定処理(ステップS209)、作業記録処理(ステップS210)を実行する。作業支援装置30の代わりに、作業者が、操作部30cを用いて、作業記録を行なうようにしてもよい。
・上記実施形態では、作業支援装置30は、配色決定処理を実行する(ステップS202)。ここで、作業者が、操作部30cを用いて、配色を設定できるようにしてもよい。
また、施工対象の資材に応じた強調色を設定しておいてもよい。この場合、施工対象の資材の種類に応じて、作業位置マーカ(MRモデル)の配色を決定する。
また、作業現場の種類に応じた強調色を予め設定しておいてもよい。この場合、作業支援装置30は、作業現場の撮影画像のパターン認識により、作業現場の種類を特定し、この作業現場の種類に応じて、作業位置マーカ(MRモデル)の配色を決定する。
また、作業時間帯に応じた強調色を予め設定しておいてもよい。この場合、作業支援装置30は、システムタイマから現在時刻を取得し、現在時刻が属する作業時間帯に応じて、作業位置マーカ(MRモデル)の配色を決定する。
・上記実施形態では、作業支援装置30は、表示オブジェクトの特定処理を実行する(ステップS207)。ここで、完了情報が記録されている作業位置オブジェクトを省略してもよい。そして、作業支援装置30は、完了情報が記録されていない作業位置オブジェクトを特定し、現実空間に重畳させた仮想空間に表示する。
次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
(a)前記グリッドを、作業位置の高さに配置することを特徴とする請求項1に記載の作業支援システム。
(b)前記作業支援装置が、前記現実空間の撮影画像に含まれる色分布に応じて、前記作業位置マーカの配色を決定することを特徴とする請求項1又は(a)に記載の作業支援システム。
(c)前記作業支援装置が、前記作業位置マーカの位置での作業状況を認識することを特徴とする請求項1、(a)又は(b)の何れか一項に記載の作業支援システム。
(d)前記作業支援装置が、前記作業位置マーカに関連付けて前記作業状況を記録することを特徴とする(c)に記載の作業支援システム。
(e)前記作業支援装置が、前記作業状況に応じて、仮想空間に3次元モデルの表示を変更することを特徴とする(c)又は(d)に記載の作業支援システム。
(f)前記作業支援装置が、現実空間において、作業位置の高さに配置された位置補正マーカと、前記3次元の前記仮想空間に配置された位置補正マーカの3次元モデルとの位置関係により、前記現実空間と前記仮想空間との位置合わせを行なうことを特徴とする請求項1又は(a)~(e)の何れか一項に記載の作業支援システム。
A1…作業支援システム、10…管理装置、11…BIM実行部、20…支援サーバ、21…制御部、211…変換部、212…管理部、22…BIM情報記憶部、23…表示モデル記憶部、30…作業支援装置、30a…表示部、30b…カメラ、30c…操作部、30d…位置特定部、31…MR処理部、32…作業支援部、35…表示モデル記憶部。

Claims (3)

  1. BIMを用いて、仮想空間に3次元モデルを配置して設計を行なう管理装置と、現実空間の視野に対応した仮想空間に配置された要素の3次元モデルを表示する作業支援装置と、を備えた作業支援システムであって、
    前記作業支援装置が、
    前記視野に含まれる範囲の3次元モデルを特定し、
    前記現実空間に既設のオブジェクトと、前記仮想空間内の前記3次元モデルとの位置合わせを行ない、
    前記仮想空間内に、基準線を含むグリッドと、前記グリッドを用いた作業位置を示すマーカとを設定し、
    前記視野に対応させて、前記仮想空間の複合現実画像を表示することを特徴とする作業支援システム。
  2. BIMを用いて、仮想空間に3次元モデルを配置して設計を行なう管理装置と、現実空間の視野に対応した仮想空間に配置された要素の3次元モデルを表示する作業支援装置と、を備えた作業支援システムを用いて、作業支援を行なう方法であって、
    前記作業支援装置が、
    前記視野に含まれる範囲の3次元モデルを特定し、
    前記現実空間に既設のオブジェクトと、前記仮想空間内の前記3次元モデルとの位置合わせを行ない、
    前記仮想空間内に、基準線を含むグリッドと、前記グリッドを用いた作業位置を示すマーカとを設定し、
    前記視野に対応させて、前記仮想空間の複合現実画像を表示することを特徴とする作業支援方法。
  3. BIMを用いて、仮想空間に3次元モデルを配置して設計を行なう管理装置と、現実空間の視野に対応した仮想空間に配置された要素の3次元モデルを表示する作業支援装置と、を備えた作業支援システムを用いて、作業支援を行なうプログラムであって、
    前記作業支援装置を、
    前記視野に含まれる範囲の3次元モデルを特定し、
    前記現実空間に既設のオブジェクトと、前記仮想空間内の前記3次元モデルとの位置合わせを行ない、
    前記仮想空間内に、基準線を含むグリッドと、前記グリッドを用いた作業位置を示すマーカとを設定し、
    前記視野に対応させて、前記仮想空間の複合現実画像を表示する手段として機能させることを特徴とする作業支援プログラム。
JP2022139921A 2022-09-02 2022-09-02 作業支援システム、作業支援方法及び作業支援プログラム Pending JP2024035457A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022139921A JP2024035457A (ja) 2022-09-02 2022-09-02 作業支援システム、作業支援方法及び作業支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022139921A JP2024035457A (ja) 2022-09-02 2022-09-02 作業支援システム、作業支援方法及び作業支援プログラム

Publications (1)

Publication Number Publication Date
JP2024035457A true JP2024035457A (ja) 2024-03-14

Family

ID=90194913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022139921A Pending JP2024035457A (ja) 2022-09-02 2022-09-02 作業支援システム、作業支援方法及び作業支援プログラム

Country Status (1)

Country Link
JP (1) JP2024035457A (ja)

Similar Documents

Publication Publication Date Title
US9619944B2 (en) Coordinate geometry augmented reality process for internal elements concealed behind an external element
US20190272676A1 (en) Local positioning system for augmented reality applications
KR102027856B1 (ko) 2d 도면과 bim모델을 기반으로, 건설용 골조 3d도면·3d형상을 생성하고 건설정보를 운용하는 가상·증강현실 시스템 및 모바일 어플리케이션
JP6326996B2 (ja) 端末装置、情報処理システム、及び表示制御プログラム
JP4940036B2 (ja) 立体メジャー表示機能付き画像表示システム及び立体メジャー表示機能付き画像表示のプログラム
JP2009543220A (ja) 多次元空間の調査を自動的に実行する方法及びシステム
US20190347746A1 (en) Building construction tracking device and methods
TWI661210B (zh) 座標系統制定方法、裝置及資料結構產品
KR101989969B1 (ko) 증강현실 기반 건축 유적의 실감형 콘텐츠 체험시스템
JP7184001B2 (ja) シミュレーション装置
US20150186559A1 (en) X-ray vision for buildings
JP6438995B2 (ja) 図面投影システム、図面投影方法及びプログラム
JP6095369B2 (ja) Cad情報生成システム、cad情報生成プログラムおよびcad情報生成方法
CN111724485B (zh) 实现虚实融合的方法、装置、电子设备及存储介质
JP2023102537A (ja) 作業支援システム、作業支援方法及び作業支援プログラム
JP5492343B1 (ja) 写真計測図化方法、及び写真計測図化装置
JP2024035457A (ja) 作業支援システム、作業支援方法及び作業支援プログラム
KR101733681B1 (ko) 모바일 단말기, 이를 이용한 위치정보 제공 시스템 및 방법
JP2005241386A (ja) 歩行者用ナビゲーションシステムおよび歩行者用ナビゲーションプログラム
JP7423389B2 (ja) 作業支援装置
JP2022161770A (ja) 作業支援システム及び作業支援方法
KR100782152B1 (ko) 3차원 수치지도를 제작하기 위하여 항공사진 db로부터건물의 3차원 데이터를 획득하는 방법
JP2020173211A (ja) 角度測定装置、距離測定装置、速度測定装置、標高測定装置、座標測定装置、角度測定方法、およびプログラム
JP2023181036A (ja) 指摘支援システム、指摘支援方法及び指摘支援プログラム
US20240169565A1 (en) System and method for setting a viewpoint for displaying geospatial data on a mediated reality device using geotags