JP2024070131A - 作業認識方法、プログラム及び装置 - Google Patents
作業認識方法、プログラム及び装置 Download PDFInfo
- Publication number
- JP2024070131A JP2024070131A JP2022180543A JP2022180543A JP2024070131A JP 2024070131 A JP2024070131 A JP 2024070131A JP 2022180543 A JP2022180543 A JP 2022180543A JP 2022180543 A JP2022180543 A JP 2022180543A JP 2024070131 A JP2024070131 A JP 2024070131A
- Authority
- JP
- Japan
- Prior art keywords
- task
- state
- camera
- work
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012545 processing Methods 0.000 claims description 7
- 239000003550 marker Substances 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 238000002347 injection Methods 0.000 description 8
- 239000007924 injection Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000005056 compaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- On-Site Construction Work That Accompanies The Preparation And Application Of Concrete (AREA)
- Image Analysis (AREA)
Abstract
【課題】作業を簡単に認識できる作業認識方法、プログラム及び装置を提供する。【解決手段】作業認識方法は、現実空間内でカメラ1aによって作業の画像2を取得する作業撮影ステップS2と、画像2に基づいて、現実空間内でのカメラ1aの位置を含むカメラ状態に対応するマップ内でのカメラ状態を特定するカメラ状態特定ステップS3と、マップ内でのカメラ状態と、画像2内での作業の位置を含む作業状態である画像内作業状態とに基づいて、現実空間内での作業状態を特定する作業状態特定ステップS4とを有する。【選択図】図1
Description
本発明は作業認識方法、プログラム及び装置に関する。
所定領域内の様々な場所に設置した位置測位センサによって滞在者の位置を特定する滞在者認識方法が知られている(例えば特許文献1参照)。
建設現場などでのコンクリートの打設作業などの作業を認識するために、作業が行われる領域内の様々な場所にセンサを設置することは煩雑であり実現性に欠ける。
そこで本発明の目的は、作業を簡単に認識できる作業認識方法、プログラム及び装置を提供することにある。
本発明の一態様は以下のとおりである。
[1]
現実空間内でカメラによって作業の画像を取得する作業撮影ステップと、
前記画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定するカメラ状態特定ステップと、
前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する作業状態特定ステップとを有する、作業認識方法。
現実空間内でカメラによって作業の画像を取得する作業撮影ステップと、
前記画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定するカメラ状態特定ステップと、
前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する作業状態特定ステップとを有する、作業認識方法。
[2]
前記カメラ状態特定ステップは、前記画像に含まれる前記現実空間内の特徴点群と、当該特徴点群に対応する前記マップ内での前記特徴点群とを比較することで、前記マップ内での前記カメラ状態を特定する、[1]に記載の作業認識方法。
前記カメラ状態特定ステップは、前記画像に含まれる前記現実空間内の特徴点群と、当該特徴点群に対応する前記マップ内での前記特徴点群とを比較することで、前記マップ内での前記カメラ状態を特定する、[1]に記載の作業認識方法。
[3]
前記マップ内での前記特徴点群を構築するために、前記現実空間内で前記カメラを移動させながら前記現実空間内の前記特徴点群を撮影する特徴点群撮影ステップを有する、[2]に記載の作業認識方法。
前記マップ内での前記特徴点群を構築するために、前記現実空間内で前記カメラを移動させながら前記現実空間内の前記特徴点群を撮影する特徴点群撮影ステップを有する、[2]に記載の作業認識方法。
[4]
前記カメラ状態は前記カメラの前記位置と向きを含み、
前記作業状態は前記作業の前記位置と向きを含む、[1]~[3]の何れか1項に記載の作業認識方法。
前記カメラ状態は前記カメラの前記位置と向きを含み、
前記作業状態は前記作業の前記位置と向きを含む、[1]~[3]の何れか1項に記載の作業認識方法。
[5]
前記作業は作業手段を含む、[1]~[4]の何れか1項に記載の作業認識方法。
前記作業は作業手段を含む、[1]~[4]の何れか1項に記載の作業認識方法。
[6]
前記作業状態は前記作業手段の作動状態を含む、[5]に記載の作業認識方法。
前記作業状態は前記作業手段の作動状態を含む、[5]に記載の作業認識方法。
[7]
前記作業状態特定ステップは、前記作業手段に付され前記画像に含まれる大きさが既知のマーカーによって前記画像内での前記作業状態を特定する、[5]又は[6]に記載の作業認識方法。
前記作業状態特定ステップは、前記作業手段に付され前記画像に含まれる大きさが既知のマーカーによって前記画像内での前記作業状態を特定する、[5]又は[6]に記載の作業認識方法。
[8]
前記作業手段は振動発生装置を含む、[5]~[7]の何れか1項に記載の作業認識方法。
前記作業手段は振動発生装置を含む、[5]~[7]の何れか1項に記載の作業認識方法。
[9]
前記現実空間内での前記作業状態に基づいて前記作業の進捗状況を特定する進捗状況特定ステップを有する、[1]~[8]の何れか1項に記載の作業認識方法。
前記現実空間内での前記作業状態に基づいて前記作業の進捗状況を特定する進捗状況特定ステップを有する、[1]~[8]の何れか1項に記載の作業認識方法。
[10]
前記作業の進捗状況の特定は、作業完了領域と作業未完了領域の特定を含む、[9]に記載の作業認識方法。
前記作業の進捗状況の特定は、作業完了領域と作業未完了領域の特定を含む、[9]に記載の作業認識方法。
[11]
前記現実空間内での前記作業状態又は当該作業状態に基づいて特定した情報を報知する報知ステップを有する、[1]~[10]の何れか1項に記載の作業認識方法。
前記現実空間内での前記作業状態又は当該作業状態に基づいて特定した情報を報知する報知ステップを有する、[1]~[10]の何れか1項に記載の作業認識方法。
[12]
前記現実空間は、GPS測定ができない空間である、[1]~[11]の何れか1項に記載の作業認識方法。
前記現実空間は、GPS測定ができない空間である、[1]~[11]の何れか1項に記載の作業認識方法。
[13]
現実空間内でカメラによって取得された作業の画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定するカメラ状態特定ステップと、
前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する作業状態特定ステップとをコンピュータに実行させる、作業認識プログラム。
現実空間内でカメラによって取得された作業の画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定するカメラ状態特定ステップと、
前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する作業状態特定ステップとをコンピュータに実行させる、作業認識プログラム。
[14]
カメラと、
現実空間内でカメラによって取得された作業の画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定し、前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する処理装置とを有する、作業認識装置。
カメラと、
現実空間内でカメラによって取得された作業の画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定し、前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する処理装置とを有する、作業認識装置。
本発明によれば、作業を簡単に認識できる作業認識方法、プログラム及び装置を提供することができる。
以下、図面を参照しつつ本発明の実施形態を例示説明する。
図1に示すように、本発明の一実施形態において、作業認識方法は、現実空間内でカメラ1a(図2参照)によって作業の画像2(図4参照)を取得する作業撮影ステップS2と、画像2に基づいて、現実空間内でのカメラ1aの位置を含むカメラ状態に対応するマップ内でのカメラ状態を特定するカメラ状態特定ステップS3と、マップ内でのカメラ状態と、画像2内での作業の位置を含む作業状態である画像内作業状態とに基づいて、現実空間内での作業状態を特定する作業状態特定ステップS4とを有する。
このような構成によれば、まずカメラ状態特定ステップS3により、現実空間内での画像2を取得した時のカメラ1aの位置の推定結果を、マップ内でのカメラ1aの位置として認識し、次に作業状態特定ステップS4により、当該カメラ1aの位置と当該画像2内での作業の位置の推定結果とに基づいて、現実空間内での作業の位置を認識できる。このように、上記構成によれば、カメラ1aによって取得された画像2に基づいて作業を認識できるので、作業が行われる領域内の様々な場所にセンサを設置する煩雑な作業等の必要性を低減できる。また上記構成によれば、GPS(Global Positioning System)測定ができない空間においても、作業の位置を認識できる。
画像2は単眼画像でよいが、例えば、ステレオ画像などであってもよい。画像2は、作業を連続して撮影して得られた動画を構成する1コマであってもよいし、作業を断続して撮影して得られた複数の静止画像の1つであってもよい。カメラ1aは特に限定されず例えば、ウェアラブルカメラや、スマートグラスなどのウェアラブル端末に内蔵されたカメラなどであってよい。作業は人によるものであってもよいし、完全に自動化された無人作業であってもよい。
カメラ状態特定ステップS3は、画像2に含まれる現実空間内の特徴点群(周囲の構造物の稜線など、位置を知るための目印となる特徴点の集合)と、当該特徴点群に対応するマップ内での特徴点群とを比較することで、マップ内でのカメラ状態を特定する。このような構成によれば、カメラ状態特定ステップS3において、カメラ1aの急な移動等による現実空間内でのカメラ1aの位置の推定誤差(すなわち、現実空間内でのカメラ1aの位置とマップ内でのカメラ1aの位置との間のずれ)の発生とその蓄積を抑制でき、その結果、現実空間内での作業の位置の推定精度を高めることができる。しかし、カメラ状態特定ステップS3の構成はこれに限らない。
作業認識方法は、マップ内での特徴点群を構築するために、現実空間内でカメラ1aを移動させながら現実空間内の特徴点群を撮影する特徴点群撮影ステップS1を有する。このような構成によれば、マップ内での特徴点群をカメラ1aによって簡単に構築できる。しかし、マップ内での特徴点群の構築方法はこれに限らない。
特徴点群撮影ステップS1、作業撮影ステップS2及びカメラ状態特定ステップS3は、例えば、Visual SLAM(Visual Simultaneous Localization and Mapping)技術を用いて実行することができる。
カメラ状態はカメラ1aの位置と向きを含み、作業状態は作業の位置と向きを含む。このような構成によれば、カメラ1aによって取得された画像2に基づいて、作業の位置に加えて作業の向きも認識できる。しかし、カメラ状態の構成はこれに限らない。
作業は作業手段3(図3~4参照)を含む。このような構成によれば、カメラ1aによって取得された画像2に基づいて作業手段3の位置を含む作業状態を認識できる。しかし、作業の構成はこれに限らない。
作業状態は作業手段3の作動状態を含む。このような構成によれば、カメラ1aによって取得された画像2に基づいて、作業手段3の位置に加えて作業手段3の作動状態(電源のON/OFF状態など)も認識できる。しかし、作業状態の構成はこれに限らない。
作業状態特定ステップS4は、例えば図4に示すように、作業手段3に付され画像2に含まれる大きさが既知のマーカー4によって画像2内での作業状態を特定する。このような構成によれば、画像2内での作業手段3の作業状態の推定精度を高めることができる。しかし、作業状態特定ステップS4はこれに限らず、例えば、視差(単眼画像の時間視差、ステレオ画像視差など)や遠近法などによって画像2内での作業状態を特定する構成としてもよい。
作業状態特定ステップS4による処理の一例を図4に示す。本例では、長尺状の1つの作業手段3に対して長手方向にずらして2つのマーカー4を付し、画像2内のこれらのマーカー4の位置と大きさに基づいて当該作業手段3の先端位置(床面位置)を推定する。
作業手段3は、図3~図4に示すように、振動発生装置3aを含む。このような構成によれば、振動による動作不良のリスクなどから位置検出用センサを搭載しにくい振動発生装置3aの位置を、カメラ1aによって取得された画像2に基づいて認識できる。しかし、作業手段3の構成はこれに限らない。
作業は、図3~図4に示すように、建設現場などでのコンクリートの打設作業(締め固め作業)である。このような構成によれば、カメラ1aによって取得された画像2に基づいてコンクリートの打設作業を簡単に認識できる。しかし作業はこれに限らない。図3~図4に示すように、振動発生装置3aは注入済みコンクリートを均すために振動を与える。
作業は、例えば、クレーン作業であってもよい。この場合、作業手段3は例えば、クレーンのブームを含み、作業対象5は例えば、クレーンによる運搬対象物を含み、作業状態は例えば、ブームの先端(フック)の位置を含む。
作業手段3は、図3~図4に示すように、コンクリートの注入パイプ3bを含む。注入パイプ3bは、コンクリート注入予定領域5bに対してコンクリートを注入する。このような構成によれば、注入パイプ3bの位置を、カメラ1aによって取得された画像2に基づいて認識できる。しかし、作業手段3の構成はこれに限らない。
作業は、図3~図4に示すように作業者6を含む。このような構成によれば、カメラ1aによって取得された画像2に基づいて作業者6の位置を認識できる。しかし、作業の構成はこれに限らない。
作業は、図3~図4に示すように作業対象5を含む。このような構成によれば、カメラ1aによって取得された画像2に基づいて作業対象5の位置を認識できる。しかし、作業の構成はこれに限らない。振動発生装置3aの作業対象5はコンクリート注入済み領域5aである。注入パイプ3bの作業対象5はコンクリート注入予定領域5bである。
作業認識方法は、図1に示すように、現実空間内での作業状態に基づいて作業の進捗状況を特定する進捗状況特定ステップS5を有する。このような構成によれば、カメラ1aによって取得された画像2に基づいて作業の進捗状況を簡単に認識できる。しかし、進捗状況特定ステップS5を有さない構成としてもよい。作業の進捗状況の特定は、例えば、作業完了領域と作業未完了領域の特定を含む。作業完了領域の特定は、マップ内でのカメラ状態と、画像2内での作業手段3の位置と作動状態を含む画像内作業状態とに基づいて特定できる。
作業認識方法は、図1に示すように、現実空間内での作業状態又は当該作業状態に基づいて特定した情報を報知する報知ステップS6を有する。このような構成によれば、カメラ1aによって取得された画像2に基づいて推定した作業状態又は当該作業状態に基づいて推定した情報(作業の進捗状況など)を、作業者6又は(例えば作業管理事務所内の)作業管理者などに(無線又は有線の)通信を介して報知することで、適切な作業を簡単に実現できる。しかし、報知ステップS6を設けない構成としてもよい。
報知ステップS6による報知の一例を図3に示す。本例では、図3に示すように、振動装置を操作する作業者6の位置、振動装置の位置(現在及び過去)、コンクリート注入済み領域5a(着手中の領域の一部)の位置、注入パイプ3bを操作する作業者6の位置、注入パイプ3bの位置、コンクリート注入予定領域5b(着手中の領域の他の一部)、及び、作業の進捗状況(作業対象面積に対する作業済み面積の割合、作業対象層数に対する作業済み層数)を報知する。報知の方式は特に限定されないが、図3に示すように、現実世界に仮想世界を重ね合わせて表示する拡張現実方式が好ましい。
コンクリートの締め固め作業は、振動発生装置3aによるコンクリートの均し作業が完了した領域と未完了の領域との区別が肉眼では難しいため、上記の作業認識方法の利用が特に適する。
作業認識方法は、カメラ状態特定ステップS3、作業状態特定ステップS4、進捗状況特定ステップS5及び報知ステップS6をコンピュータに実行させる作業認識プログラムを用いて実行される。しかし、作業認識方法の構成はこれに限らない。
作業認識方法は、図2に示すような、カメラ1a、処理装置1b及び報知装置1cを有する作業認識装置1を用いて実行される。処理装置1bはコンピュータによって構成され、作業認識プログラムによってカメラ状態特定ステップS3、作業状態特定ステップS4及び進捗状況特定ステップS5を実行する。また処理装置1bは作業認識プログラムと報知装置1cによって報知ステップS6を実行する。しかし、作業認識方法の構成はこれに限らない。
報知装置1cは特に限定されないが、ディスプレイによって構成することが好ましい。ディスプレイは特に限定されず例えば、スマートグラスなどのウェアラブル端末や、スマートフォン、タブレット、ノートパソコンなどの携帯端末や、デスクトップパソコンなどの固定端末などの、任意の端末に設けられる。
本発明は前述した実施形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。
1 作業認識装置
1a カメラ
1b 処理装置
1c 報知装置
2 画像
3 作業手段
3a 振動発生装置
3b 注入パイプ
4 マーカー
5 作業対象
5a コンクリート注入済み領域
5b コンクリート注入予定領域
6 作業者
S1 特徴点群撮影ステップ
S2 作業撮影ステップ
S3 カメラ状態特定ステップ
S4 作業状態特定ステップ
S5 進捗状況特定ステップ
S6 報知ステップ
1a カメラ
1b 処理装置
1c 報知装置
2 画像
3 作業手段
3a 振動発生装置
3b 注入パイプ
4 マーカー
5 作業対象
5a コンクリート注入済み領域
5b コンクリート注入予定領域
6 作業者
S1 特徴点群撮影ステップ
S2 作業撮影ステップ
S3 カメラ状態特定ステップ
S4 作業状態特定ステップ
S5 進捗状況特定ステップ
S6 報知ステップ
Claims (14)
- 現実空間内でカメラによって作業の画像を取得する作業撮影ステップと、
前記画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定するカメラ状態特定ステップと、
前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する作業状態特定ステップとを有する、作業認識方法。 - 前記カメラ状態特定ステップは、前記画像に含まれる前記現実空間内の特徴点群と、当該特徴点群に対応する前記マップ内での前記特徴点群とを比較することで、前記マップ内での前記カメラ状態を特定する、請求項1に記載の作業認識方法。
- 前記マップ内での前記特徴点群を構築するために、前記現実空間内で前記カメラを移動させながら前記現実空間内の前記特徴点群を撮影する特徴点群撮影ステップを有する、請求項2に記載の作業認識方法。
- 前記カメラ状態は前記カメラの前記位置と向きを含み、
前記作業状態は前記作業の前記位置と向きを含む、請求項1に記載の作業認識方法。 - 前記作業は作業手段を含む、請求項1に記載の作業認識方法。
- 前記作業状態は前記作業手段の作動状態を含む、請求項5に記載の作業認識方法。
- 前記作業状態特定ステップは、前記作業手段に付され前記画像に含まれる大きさが既知のマーカーによって前記画像内での前記作業状態を特定する、請求項5に記載の作業認識方法。
- 前記作業手段は振動発生装置を含む、請求項5に記載の作業認識方法。
- 前記現実空間内での前記作業状態に基づいて前記作業の進捗状況を特定する進捗状況特定ステップを有する、請求項1に記載の作業認識方法。
- 前記作業の進捗状況の特定は、作業完了領域と作業未完了領域の特定を含む、請求項9に記載の作業認識方法。
- 前記現実空間内での前記作業状態又は当該作業状態に基づいて特定した情報を報知する報知ステップを有する、請求項1に記載の作業認識方法。
- 前記現実空間は、GPS測定ができない空間である、請求項1に記載の作業認識方法。
- 現実空間内でカメラによって取得された作業の画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定するカメラ状態特定ステップと、
前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する作業状態特定ステップとをコンピュータに実行させる、作業認識プログラム。 - カメラと、
現実空間内でカメラによって取得された作業の画像に基づいて、前記現実空間内での前記カメラの位置を含むカメラ状態に対応するマップ内での前記カメラ状態を特定し、前記マップ内での前記カメラ状態と、前記画像内での前記作業の位置を含む作業状態である画像内作業状態とに基づいて、前記現実空間内での前記作業状態を特定する処理装置とを有する、作業認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022180543A JP2024070131A (ja) | 2022-11-10 | 2022-11-10 | 作業認識方法、プログラム及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022180543A JP2024070131A (ja) | 2022-11-10 | 2022-11-10 | 作業認識方法、プログラム及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024070131A true JP2024070131A (ja) | 2024-05-22 |
Family
ID=91121772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022180543A Pending JP2024070131A (ja) | 2022-11-10 | 2022-11-10 | 作業認識方法、プログラム及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024070131A (ja) |
-
2022
- 2022-11-10 JP JP2022180543A patent/JP2024070131A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102399630B1 (ko) | 굴착기의 버킷의 포즈 결정 방법 및 장치 | |
KR101329111B1 (ko) | 실내 네비게이션 시스템 및 방법 | |
US20200325656A1 (en) | Management system | |
US11873948B2 (en) | Management system | |
JP5390813B2 (ja) | 空間情報表示装置及び支援装置 | |
JP6532412B2 (ja) | 自己位置推定システム、自己位置推定方法、モバイル端末、サーバおよび自己位置推定プログラム | |
CN105486311A (zh) | 室内机器人定位导航方法及装置 | |
KR102315535B1 (ko) | 공작 기계 설비의 회전 각도 결정 방법 및 장치 | |
US20090274362A1 (en) | Road Image Analyzing Apparatus and Road Image Analyzing Method | |
JP2014217052A (ja) | シーン解析を使用する交通カメラキャリブレーション更新 | |
JP6094240B2 (ja) | 部材設置判定システム | |
JP5710752B2 (ja) | 検出装置、方法及びプログラム | |
US20220245856A1 (en) | Position identification system for construction machinery | |
JP2019027817A (ja) | 施工出来高データ取得システム | |
CN112655027A (zh) | 维护辅助系统、维护辅助方法、程序、加工图像的生成方法以及加工图像 | |
JP2023064882A (ja) | 工事進捗把握システム | |
JP2017076943A (ja) | コンテンツ投影装置、コンテンツ投影方法及びコンテンツ投影プログラム | |
US20180020203A1 (en) | Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium | |
KR20160070874A (ko) | 모바일 기기를 이용한 위치기반 시설물 관리 시스템 | |
Braun et al. | Bim-based progress monitoring | |
JP2022547608A (ja) | 画像ベースの生産性追跡システム | |
JP7179583B2 (ja) | 画像処理装置および画像処理方法 | |
JP6478305B1 (ja) | Slamの手法を応用した矢板の地中位置測定方法とその装置 | |
JP2024070131A (ja) | 作業認識方法、プログラム及び装置 | |
JP2020135737A (ja) | 注視行動調査システム、及び制御プログラム |