JP7106175B1 - 作業判別システム - Google Patents

作業判別システム Download PDF

Info

Publication number
JP7106175B1
JP7106175B1 JP2021140947A JP2021140947A JP7106175B1 JP 7106175 B1 JP7106175 B1 JP 7106175B1 JP 2021140947 A JP2021140947 A JP 2021140947A JP 2021140947 A JP2021140947 A JP 2021140947A JP 7106175 B1 JP7106175 B1 JP 7106175B1
Authority
JP
Japan
Prior art keywords
work
information
attribute information
pattern
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021140947A
Other languages
English (en)
Other versions
JP2023034621A (ja
Inventor
武 三木
Original Assignee
スリーフィールズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スリーフィールズ株式会社 filed Critical スリーフィールズ株式会社
Priority to JP2021140947A priority Critical patent/JP7106175B1/ja
Priority to JP2022109174A priority patent/JP2023035846A/ja
Application granted granted Critical
Publication of JP7106175B1 publication Critical patent/JP7106175B1/ja
Publication of JP2023034621A publication Critical patent/JP2023034621A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】作業実績の蓄積ポイントを取得して有益な情報活用や賃金等に反映するする作業判別システムを提供する。【解決手段】作業判別システム100において、作業分析学習部106は、処理済み映像情報112及び位置情報111に基づいて作業を構成する複数の作業要素の組合せからなる推定した作業パターンと、映像情報110に対して属性情報抽出部104が抽出した属性情報113との組合せに基づいて属性情報毎の標準作業パターン114を決定する。ポイント算出部108は、処理済み映像情報112及び位置情報111に基づいて推定した作業パターンを、属性情報113と同じ属性情報を有する標準作業パターン114と比較することにより一致度115を算出し、その一致度115に対応するポイント値116を算出し、通知部109を介して、発報通知117又はメール通知118される。【選択図】図1

Description

本発明は、作業現場等における人間や機械等の作業を分析して判別するシステムに関する。
従来、建設・工事現場や生産現場等において、作業の抜けや作業者ごとの作業時間を把握するため、作業者が作業を行っている映像や作業者の位置情報を用いて、作業を構成する作業要素を分析する技術が知られている(例えば特許文献1に記載の技術)。この従来技術では、ある時刻における作業者の体の部位や物体の位置情報から、作業者による作業要素を推論している。
国際公開第2018/087844号公報
しかしながら、上記従来技術のように、ある時刻に取得した体や物体の位置情報のみから作業要素を推論しその結果を表示等するだけでは、作業工程の改善を行うことはできても、例えば作業要素の分析結果を作業実績や賃金等に客観的に反映させることはできず、活用範囲が限られるという課題があった。
また、上記従来技術では、例えば建設現場における重機等の機械に対する作業要素を推論することはできなかった。
そこで、本発明の目的は、映像や位置情報を用いて特定の作業員や機械の作業の動きをポイント化(数値化)して視覚化することで、作業実績の蓄積ポイントを取得して有益な情報活用や賃金等に反映することを可能とし、それによって、作業員のやる気を促進したり、逆に、作業員や機械の危険な又は誤った動きに対して警告をすることで、安全性の確保、最終的には労働生産性の向上と品質の向上に繋げることを可能とすることにある。
態様の一例の作業判別システムは、作業員又は作業機械が行う作業に関する作業情報を取得する作業情報取得部と、作業情報から作業の属性を表す属性情報を抽出する属性情報抽出部と、作業情報取得部が取得した作業情報に基づいて作業を構成する複数の作業要素の組合せからなる作業パターンを推定し、その推定した作業パターンと作業情報に対して属性情報抽出部が抽出した属性情報との組合せに基づいて属性情報毎の標準作業パターンを決定し、標準作業パターン記憶部に記憶する作業分析学習部と、作業情報取得部が取得した作業情報に基づいて作業を構成する複数の作業要素の組合せからなる作業パターンを推定し、その推定した作業パターンを、作業情報に対して属性情報抽出部が抽出した属性情報と同じ属性情報を有する標準作業パターン記憶部に記憶されている標準作業パターンと比較することにより一致度を算出し、その一致度に対応するポイント値を算出するポイント算出部と、を備える。
本発明によれば、映像や位置情報を用いて特定の作業員や機械の作業の動きをポイント化(数値化)して視覚化することで、作業実績の蓄積ポイントを取得して有益な情報活用や賃金等に反映することが可能となり、それによって、作業員のやる気を促進したり、逆に、作業員や機械の危険な又は誤った動きに対して警告をすることで、安全性の確保、最終的には労働生産性の向上と品質の向上に繋げることが可能となる。
作業判別システムの実施形態のブロック図である。 映像情報取得部の具体例を示す構成図である。 位置情報取得部の具体例を示す構成図である。 作業分析学習処理の例を示すフローチャートである。 ポイント算出処理の例を示すフローチャートである。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、作業判別システムの実施形態のブロック図である。作業判別システム100は、共に作業情報取得部の一部であって、映像情報取得部101及び位置情報取得部102と、映像情報処理部103と、属性情報抽出部104と、属性情報データベース105(以下「属性情報DB105」と記載)と、作業分析学習部106と、標準作業パターン記憶部107と、ポイント算出部108と、通知部109とを備える。
映像情報取得部101は、建設現場、工事現場、又は生産現場等の作業員又は作業機械が行う作業を撮像して得られる映像情報110を作業情報として取得する。図2は、映像情報取得部101の具体例を示す構成図である。
例えば、建設現場、工事現場、又は生産現場に設置された1台以上のカメラ201が撮像した映像情報が、校内に設置されたWiFiルータ装置202からインターネット203を介して、映像情報110として、図1の作業判別システム100であるインターネット203に接続された特には図示しないサーバ装置に集約される。
また、作業員のヘルメットに装着されたウェアラブルカメラ204が撮像した映像情報が、上記と同様のWiFiルータ装置202からインターネット203を介して、映像情報110として、上記サーバ装置に集約される。
位置情報取得部102は、作業員又は作業機械の作業位置を示す位置情報111を作業情報として取得する。図3は、位置情報取得部102の具体例を示す構成図である。
例えば、作業機械300には、準天頂衛星301、302、303などからの、GPS、GLONASS、QZSSなどの高精度の測位情報を毎秒受信するマルチGNSS端末が、位置情報取得部102として搭載される。この端末はまた、QZSSL1‐S(サブメータ級)やL6(センチメータ級)の補強信号を利用して、位置測位誤差の補正を行う。
また、ビルなどの屋内にはIMES端末が、位置情報取得部102として設置される。
これらの端末から得られる位置情報111は、インターネット等を介して、前述したサーバ装置に集約される。
図1の説明に戻り、属性情報DB105は、作業員又は作業機械の外観画像と作業員又は作業機械が属する属性とのデータ組を記憶する。
属性情報抽出部104は、映像情報110から、作業の属性を表す属性情報113を抽出する。より具体的には、属性情報抽出部104は、属性情報DB105に記憶された各データ組のうち、夫々のデータ組の外観画像が映像情報110に対して外観認識処理を実行して得られる外観画像と一致するデータ組に対応する属性情報を、属性情報113として抽出する、
上述の外観画像は例えば、作業員に対応する映像情報110に対して外観認識処理である顔認識処理を実行して得られる顔画像である。
又は、上述の外観画像は例えば、作業機械に対応する映像情報110に対して外観認識処理である機械輪郭の認識処理を実行して得られる機械輪郭画像である。
映像情報処理部103は、映像情報110に対して所定の処理を行うことにより、処理済み映像情報112を出力する。
処理済み映像情報112は例えば、動画である映像情報110に対して、上記所定の処理としてタイムラプス処理を実行して得られるタイムラプス映像データであってよい。
又は、処理済み映像情報112は例えば、動画である映像情報110の各フレーム画像から、画像の特徴量抽出を行って得られる画像特徴量データであってよい。
作業分析学習部106は、作業分析学習処理を実行する。図4は、作業分析学習処理の例を示すフローチャートである。この処理は例えば、特には図示しないが、前述したサーバ装置のプロセッサが、メモリに記憶された作業分析学習処理プログラムを実行する動作である。
図4のフローチャートの処理において、まず、図1の映像情報処理部103から、処理済み映像情報112が入力されるまで待機する(ステップS401の判定がNOの繰返し)。
ステップS401の判定がYESになったら、位置情報取得部102から位置情報111が取得される(ステップS402)。
次に、ステップS401で取得された処理済み映像情報112とステップS402で取得された位置情報111とに基づいて、一連の作業を構成する複数の作業要素が抽出される(ステップS403)。作業要素は例えば、作業員であれば、資材を運ぶ、資材を組み立てる、ネジを締める等の個々の作業である。
次に、処理済み映像情報112から、ステップS403で抽出された作業要素毎の時間が抽出される(ステップS404)。
そして、ステップS401~S404で得られた情報に基づいて、作業パターンが推定される(ステップS405)。
更に、ステップS401の処理済み映像情報112のもとの映像情報110に対して属性情報抽出部104で得られている属性情報113が取得される(ステップS406)。
そして、ステップS405で推定された作業パターンと、ステップS406で取得された属性情報113との組合せに基づいて、属性情報毎の標準作業パターン114が決定され、その標準作業パターン114が、上記属性情報113とともに、図1の標準作業パターン記憶部107に記憶される(ステップS406)。その後再び、ステップS401の待機状態に戻る。
ここで、図1の作業分析学習部106は、属性情報113毎の標準作業パターン114を、例えば機械学習により決定してよい。より具体的には、作業分析学習部106は、属性情報113毎の標準作業パターン114をディープニューラルネットワークを用いた機械学習により決定してよい。
図1のポイント算出部108は、ポイント算出処理を実行する。図5は、ポイント算出処理の例を示すフローチャートである。この処理は例えば、図4の場合と同様に、特には図示しないが、前述したサーバ装置のプロセッサが、メモリに記憶されたポイント算出処理プログラムを実行する動作である。
図5のフローチャートの処理において、まず、図1の映像情報処理部103から、処理済み映像情報112が入力されるまで待機する(ステップS501の判定がNOの繰返し)。
ステップS501の判定がYESになったら、位置情報取得部102から位置情報111が取得される(ステップS502)。
次に、ステップS501で取得された処理済み映像情報112とステップS502で取得された位置情報111とに基づいて、一連の作業を構成する複数の作業要素が抽出される(ステップS503)。
次に、処理済み映像情報112から、ステップS503で抽出された作業要素毎の時間が抽出される(ステップS504)。
そして、ステップS501~S504で得られた情報に基づいて、作業パターンが推定される(ステップS505)。
その後、ステップS501の処理済み映像情報112のもとの映像情報110に対して属性情報抽出部104で得られている属性情報113が取得される(ステップS506)。
そして、図1の標準作業パターン記憶部107がアクセスされて、ステップS505で推定された作業パターンが、ステップS506で取得された属性情報113と同じ属性情報113を有する標準作業パターン記憶部107内の標準作業パターン114と比較されて、両者の一致度115が算出される(ステップS507)。
最後に、ステップS507で算出された一致度に対応するポイント値116が、図1のポイント算出部108から通知部109に出力される(ステップS508)。その後再び、ステップS501の待機状態に戻る。
図1の説明に戻り、通知部109は、ポイント算出部108が算出したポイント値に応じて、発報通知117又はメール通知118の何れか又は両方を実施する。
以上説明した実施形態により、例えば、映像、位置情報を用いて特定の行動、作業等の動きをポイント化(数値化)して視覚化することで、行動実績の蓄積ポイントを取得して有益な情報活用や賃金等に反映し、やる気を促進したり、逆に危険な行為を蓄積ポイントとして警告をする事で安全性の確保、最終的には労働生産性の向上と品質の向上に繋げることが可能となる。
例えば、工場の作業工程において作業始点を指定して作業判別システム100が動作を開始する。次に、図1において、映像情報110と位置情報111を用いて作業員や作業機械等の動作が自動計測され、作業分析学習部106により、AI等を用いて動きが標準作業パターン114として解析される。更に、ポイント算出部108が、各作業員や作業機械の作業をポイント化して、データの良し悪しなどの判断されたポイントデータが出力され、特には図示しないハードディスクなどに蓄積される。
このように、各業務に従事する従業員や作業機械の動作を映像情報110及び位置情報111に基づいてポイント化することで、業務の実績管理(時間、工程を厳守しているか否か、不穏な動きをしていないか否か)に繋げることが可能となる。
また、業者、正社員、業務委託、アルバイト毎の人事データ等の個々の様々な属性情報113にポイントを付与して蓄積することで、将来的には例えば特定の顧客毎にビッグデータ化し、データマイニング等を活用してあらゆる業種向けの行動分析、マーケティングデータや、重機、自動清掃車等の作業機械の解析データの基礎データとして活用することが可能となる。
このように、本実施形態では、業者なのか正社員なのか業務委託なのかアルバイトなのか、他の危険人物なのか等を属性情報113として判別し、作業パターンを証拠として利用することが可能となる。正当な人物であれば、真面目に働いている等の人事評価、勤怠記録等ができる。建設土木現場等には、業者、正社員、業務委託(例えば親方や職人)、アルバイト等の様々な人間がおり、良い人間、悪い人間等がいろいろ入り込んでいるが、そういった個々の人間が所定の動線を守っているか、普通の動きをしている人間が或る動線を超える傾向があるか否か等を行動分析するための基礎データが得られる。本実施形態では、これらが数値データ、ポイントデータとして取得することが可能となる。
本実施形態では、映像情報110(諸映像情報110)や位置情報111について、夫々が正しい動きをしているか否か、安全な動きをしているか否か等について、例えばディープラーニング等の機械学習による作業分析学習処理により、判別することが可能となる。
また、作業員の場合、RFIDのような位置情報を把握できるデバイスをIDカード等に付けることで、あまり動いてはいけない部屋、そもそも入室できない部屋等の判別も含めて、どの部屋で正しい動きをしているかが判別可能となる。
更に、本実施形態では、図1の通知部109の機能により、よっぽど危険な作業パターンについては、発報117を行うことができる。
或いは、通知部109は、それほど危険ではない作業パターンについては、詳細データと共に、メール118で飛ばす等の処理を実行することができる。
本実施形態によれば、間違った区域(部屋)に間違った重機が入っていないか否か、入った場合のアラート発報を、映像情報110と位置情報111とに基づいて判別・検出することが可能となる。
本実施形態によれば、朝9時から夕方17時まで重機が区域から出ることなく反復の動きをすることの確認なども可能となる。
或いは、本実施形態によれば、例えば道路舗装工事において、業者の重機が所定の反復回数のローラを実施したか否か、実施していない場合のアラート発報の判別・検出等が可能となる。従来は、業者任せであったため、孫請けの職人までは施工の正当性を追うことが難しかったが、本実施形態の導入によりそれが可能となる。
例えば河川工事の場合、川辺りに行きやすく、重機の存在で危険になったり、沼地に作業員が沈んでしまったりする場合がある。映像情報110を軸にして位置情報111と合わせて、作業員や作業機械の行動を分析して数値化することが可能となる。
作業始点の特定としては、時刻とIDが特定できればどのような方法でもよい。例えば、バーコード読取り、映像の開始時点、RFIDで読み取った時点などが利用できる。
位置情報111としては、図3で説明したように、GPSだけではなく、準天頂衛星のL1(メートル級)とL6(センチメートル級)の補正信号を使ったセンチメートル誤差の位置情報を使うことが可能である。屋内では、衛星からの位置情報は補足できないので、RFIDやビーコンとの併用が可能である。また、行動に伴う位置情報111は、英所に基づく特定の作業員や作業機械の認識と、その空間座標の算出に基づいて抽出してもよい。
本実施形態によれば、作業員の場合、危険な機械の周辺には一般人は立ち入らせない、担当者でも限定する等の措置が可能である。属性情報113に基づいて、運転する資格の無い(無免許、免許失効の)人がフォークリフトに近づいてきている等を検出することもできる。
本実施形態により算出されるポイント値を用いることにより、人事評価、安全評価等が可能になる。
100 作業判別システム
101 映像情報取得部
102 位置情報取得部
103 映像情報処理部
104 属性情報抽出部
105 属性情報DB
106 作業分析学習部
107 標準作業パターン記憶部
108 ポイント算出部
109 通知部
110 映像情報
111 位置情報
112 処理済み映像情報
113 属性情報
114 標準作業パターン
115 一致度
116 ポイント値
117 発報
118 メール

Claims (7)

  1. 作業員又は作業機械が行う作業に関する作業情報を取得する作業情報取得部と、
    標準作業パターンを決定するために用いられる前記作業情報から前記作業の属性を表す属性情報を抽出する属性情報抽出部と、
    前記作業情報取得部が取得した標準作業パターンを決定するために用いられ、建設現場、工事現場、又は生産現場の作業員又は作業機械が行う作業を撮像して得られる映像情報と、作業員又は作業機械の作業位置を示す位置情報とに基づき、一連の作業を構成する複数の作業要素を抽出し、前記作業要素毎の時間を抽出し、前記位置情報と前記作業要素と前記作業要素毎の時間とに基づいて前記作業を構成する複数の作業要素の組合せからなる作業パターンを推定し、該推定した作業パターンと標準作業パターンを決定するために用いられる前記作業情報に対して前記属性情報抽出部が抽出した前記属性情報と前記作業要素毎の時間との組合せに基づいて前記属性情報毎の標準作業パターンを決定し、標準作業パターン記憶部に記憶する作業分析学習部と、
    前記作業情報取得部が取得した前記標準作業パターンと比較される作業パターンを推定するために用いられ、建設現場、工事現場、又は生産現場の作業員又は作業機械が行う作業を撮像して得られる映像情報と、業員又は作業機械の作業位置を示す位置情報とに基づき、一連の作業を構成する複数の作業要素を抽出し、前記作業要素毎の時間を抽出し、前記位置情報と前記作業要素と記作業要素毎の時間とに基づいて前記作業を構成する複数の作業要素の組合せからなる前記属性情報毎の作業パターンを推定し、該推定した前記属性情報毎の作業パターンを、前記標準作業パターンと比較される作業パターンを推定するために用いられる前記作業情報に対して前記属性情報抽出部が抽出した前記属性情報と前記作業要素毎の時間との組み合わせに基づいて決定される前記標準作業パターン記憶部に記憶されている前記属性情報毎の前記標準作業パターンと比較することにより一致度を算出し、該一致度に対応するポイント値を算出するポイント算出部と、
    を備える作業判別システム。
  2. 前記作業員又は前記作業機械の外観画像と前記作業員又は前記作業機械が属する属性とのデータ組を記憶する属性情報データベースを更に備え、
    前記属性情報抽出部は、前記属性情報データベースに記憶された前記各データ組のうち、該データ組の外観画像が前記映像情報に対して外観認識処理を実行して得られる外観画像と一致するデータ組に対応する属性情報を抽出する、
    請求項1に記載の作業判別システム。
  3. 前記外観画像は、前記作業員に対応する映像情報に対して前記外観認識処理である顔認識処理を実行して得られる顔画像である、請求項2に記載の作業判別システム。
  4. 前記外観画像は、前記作業機械に対応する映像情報に対して前記外観認識処理である機械輪郭の認識処理を実行して得られる機械輪郭画像である、請求項2に記載の作業判別システム。
  5. 前記作業分析学習部は、前記属性情報毎の標準作業パターンを機械学習により決定する、請求項1乃至4の何れかに記載の作業判別システム。
  6. 前記作業分析学習部は、前記属性情報毎の標準作業パターンをディープニューラルネットワークを用いた機械学習により決定する、請求項5に記載の作業判別システム。
  7. 前記ポイント算出部が算出した前記ポイント値に応じて、発報通知又はメール通知の何れか又は両方を実施する通知部を更に備える、請求項1乃至6の何れかに記載の作業判別システム。
JP2021140947A 2021-08-31 2021-08-31 作業判別システム Active JP7106175B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021140947A JP7106175B1 (ja) 2021-08-31 2021-08-31 作業判別システム
JP2022109174A JP2023035846A (ja) 2021-08-31 2022-07-06 作業判別システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021140947A JP7106175B1 (ja) 2021-08-31 2021-08-31 作業判別システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022109174A Division JP2023035846A (ja) 2021-08-31 2022-07-06 作業判別システム

Publications (2)

Publication Number Publication Date
JP7106175B1 true JP7106175B1 (ja) 2022-07-26
JP2023034621A JP2023034621A (ja) 2023-03-13

Family

ID=82593793

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021140947A Active JP7106175B1 (ja) 2021-08-31 2021-08-31 作業判別システム
JP2022109174A Pending JP2023035846A (ja) 2021-08-31 2022-07-06 作業判別システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022109174A Pending JP2023035846A (ja) 2021-08-31 2022-07-06 作業判別システム

Country Status (1)

Country Link
JP (2) JP7106175B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171184A (ja) 2004-12-14 2006-06-29 Toshiba Corp 技能評価システムおよび技能評価方法
JP2019200560A (ja) 2018-05-16 2019-11-21 パナソニックIpマネジメント株式会社 作業分析装置および作業分析方法
JP2020034849A (ja) 2018-08-31 2020-03-05 オムロン株式会社 作業支援装置、作業支援方法及び作業支援プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171184A (ja) 2004-12-14 2006-06-29 Toshiba Corp 技能評価システムおよび技能評価方法
JP2019200560A (ja) 2018-05-16 2019-11-21 パナソニックIpマネジメント株式会社 作業分析装置および作業分析方法
JP2020034849A (ja) 2018-08-31 2020-03-05 オムロン株式会社 作業支援装置、作業支援方法及び作業支援プログラム

Also Published As

Publication number Publication date
JP2023034621A (ja) 2023-03-13
JP2023035846A (ja) 2023-03-13

Similar Documents

Publication Publication Date Title
Fang et al. A deep learning-based method for detecting non-certified work on construction sites
US9911041B2 (en) Monitoring device, monitoring system and monitoring method
JP2018537772A (ja) 複数の写真の一致性に基づく保険賠償詐欺防止方法、システム、装置及び読み取り可能な記録媒体
KR101536410B1 (ko) 에너지 관리 시스템의 데이터 관리 장치 및 방법
CN114140999B (zh) 一种基于物联网通信的工程监理系统
CN110874583A (zh) 一种客流统计的方法、装置、存储介质及电子设备
CN111724496A (zh) 一种考勤方法、考勤装置及计算机可读存储介质
CN113344745A (zh) 基于远程视频监控和云计算的工程项目智慧工地数据采集分析一体化云平台
CN110717358A (zh) 访客人数统计方法、装置、电子设备及存储介质
CN111457854A (zh) 一种基于建筑物的变形监测方法及装置
Qureshi et al. Automated progress monitoring technological model for construction projects
CN111444570A (zh) 一种施工误差信息的获取方法及装置
JP7106175B1 (ja) 作業判別システム
KR20230086087A (ko) 3차원 스캐닝을 이용한 건설 현장 감리 장치 및 감리 방법
JP5498880B2 (ja) シミュレーション装置、シミュレーション方法、およびプログラム
CN112367397A (zh) 外勤作业的监控预警方法、系统、计算机设备及存储介质
CN103049465A (zh) 信息处理设备和信息处理方法
JP7496955B2 (ja) 評価システム
CN110111904B (zh) 一种应急作业评估数据的处理方法及装置
Bosche et al. Automated retrieval of project three-dimensional CAD objects in range point clouds to support automated dimensional QA/QC
US10121470B2 (en) Computer-generated speech device for site survey and maintenance
Hui et al. Automated in-placed brick counting for façade construction progress estimation
JP7330043B2 (ja) 作業状態判別装置、作業状態判別方法およびプログラム
CN114511301A (zh) 一种工地台风预警期安全隐患快速识别方法及系统
Ibrahimkhil et al. Enhanced Construction Progress Monitoring through Mobile Mapping and As-built Modeling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7106175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150