JP2023020547A - 作業管理装置、作業管理方法、および実施作業推定モデル - Google Patents
作業管理装置、作業管理方法、および実施作業推定モデル Download PDFInfo
- Publication number
- JP2023020547A JP2023020547A JP2021125962A JP2021125962A JP2023020547A JP 2023020547 A JP2023020547 A JP 2023020547A JP 2021125962 A JP2021125962 A JP 2021125962A JP 2021125962 A JP2021125962 A JP 2021125962A JP 2023020547 A JP2023020547 A JP 2023020547A
- Authority
- JP
- Japan
- Prior art keywords
- work
- image
- coordinates
- data
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007726 management method Methods 0.000 title claims description 73
- 239000000284 extract Substances 0.000 claims abstract description 33
- 238000013075 data extraction Methods 0.000 claims abstract description 30
- 230000033001 locomotion Effects 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 13
- 238000010801 machine learning Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 76
- 238000009428 plumbing Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 25
- 238000000034 method Methods 0.000 description 23
- 230000000875 corresponding effect Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 15
- 238000012937 correction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000012549 training Methods 0.000 description 11
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000013450 outlier detection Methods 0.000 description 5
- RWSOTUBLDIXVET-UHFFFAOYSA-N Dihydrogen sulfide Chemical compound S RWSOTUBLDIXVET-UHFFFAOYSA-N 0.000 description 4
- 238000012886 linear function Methods 0.000 description 4
- 238000009412 basement excavation Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000010426 asphalt Substances 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Human Resources & Organizations (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Water Supply & Treatment (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
Abstract
【課題】実施中の作業を精度よく推定する。【解決手段】作業管理装置(3)は、座標の時系列データを生成するデータ生成部(336)と、座標の時系列データから線形データを抽出する線形データ抽出部(337)と、線形データと、撮影画像に含まれる対象物と、に基づき、撮影画像の取得時点において実施されている作業を推定する作業推定部(339)と、を備える。【選択図】図1
Description
本発明は、作業管理装置等に関する。
特許文献1の水道工事管理システムは、水道工事における作業対象領域が含まれる撮影画像から検出された特徴画像から、水道工事における現在の作業状態を推定し、推定した現在の作業状態に対応して、水道工事の関係者に対する報知内容を決定する。
しかしながら、特許文献1には、撮影画像における特徴画像の経時的な動きを考慮して、実施中の作業を推定することについての具体的な開示は無い。本発明の一態様は、撮影画像に含まれる対象物の動きを考慮して、実施中の作業を精度よく推定することが可能な作業管理装置等を実現することを目的とする。
上記の課題を解決するために、本発明の一態様に係る作業管理装置は、水道工事における作業対象領域が含まれる撮影画像を経時的に取得する画像取得部と、経時的に取得した前記撮影画像のそれぞれから、前記水道工事に関与する少なくとも1つの対象物の画像を抽出する画像抽出部と、前記撮影画像のそれぞれにおいて同一と推定される対象物の画像毎に、当該画像を含む領域内の座標を経時的に抽出することにより、前記座標の時系列データを生成するデータ生成部と、前記座標の時系列データから、連続的かつ規則的に値が変化する部分である線形データを抽出する線形データ抽出部と、前記線形データと、前記撮影画像に含まれる対象物の画像と、に基づき、前記撮影画像の取得時点において実施されている作業を推定する作業推定部と、を備える。
上記の課題を解決するために、本発明の一態様に係る作業管理方法は、水道工事における作業対象領域が含まれる撮影画像を経時的に取得する画像取得工程と、経時的に取得した前記撮影画像のそれぞれから、前記水道工事に関与する少なくとも1つの対象物の画像を抽出する画像抽出工程と、前記撮影画像のそれぞれにおいて同一と推定される対象物の画像毎に、当該画像を含む領域内の座標を経時的に抽出することにより、前記座標の時系列データを生成するデータ生成工程と、前記座標の時系列データから、連続的かつ規則的に値が変化する部分である線形データを抽出する線形データ抽出工程と、前記線形データと、前記線形データを抽出した前記座標の時系列データの生成元である対象物と、に基づき、前記撮影画像の取得時点において実施されている作業を推定する作業推定工程と、を含む。
座標の時系列データにおいて連続的かつ規則的に値が変化する部分は、当該部分を抽出した時間帯において、座標の時系列データの生成元の対象物が動いていることを示しているものといえる。
そのため、上記構成によれば、作業管理装置は、撮影画像に含まれる対象物に基づく実施中の作業の推定において線形データも用いることにより、上記時間帯における対象物の動きを加味して、当該作業を推定できる。従って、作業管理装置は、実施中の作業の推定精度を向上させることができる。
本発明の一態様に係る作業管理装置では、前記対象物の画像の周囲または前記対象物の画像の一部分の周囲に、前記対象物の画像の大きさに応じた枠を設定する枠設定部を備え、前記データ生成部は、前記枠において予め設定された位置の座標を、前記領域内の座標として抽出してもよい。
上記構成によれば、作業管理装置は、抽出した対象物の画像の領域内の座標を、簡易に抽出できる。
本発明の一態様に係る作業管理装置では、前記データ生成部は、前記座標を、前記座標の抽出元である前記対象物の画像の大きさを用いて正規化してもよい。
対象物の画像の大きさは撮影画像における位置に依存する。上記構成によれば、作業管理装置は、座標の抽出元である対象物の画像の大きさにより座標を正規化することにより、撮影画像における遠近の影響を受ける可能性を低減させた状態で、座標を抽出できる。
本発明の一態様に係る作業管理装置では、前記データ生成部は、前記座標の時系列データから外れ値を除去し、前記線形データ抽出部は、前記外れ値を除去した前記座標の時系列データから、前記線形データを抽出してもよい。
上記構成によれば、作業管理装置は、線形データをより正確に抽出できる。
本発明の一態様に係る作業管理装置は、機械学習を用いて、前記水道工事における作業状態を評価するための、前記対象物を含む複数の指標のうち、ある時点での作業において出現している少なくとも1つの指標を推定するように構築された指標推定モデルに、前記撮影画像を入力することにより、前記撮影画像の取得時点での作業において出現していると推定される少なくとも1つの指標を出力する指標出力部を備え、前記作業推定部は、前記線形データと、前記指標出力部の出力結果と、に基づき、前記撮影画像の取得時点において実施されている作業を推定してもよい。
上記構成によれば、作業管理装置は、指標推定モデルへの撮影画像の入力により、撮影画像の取得時点における指標(対象物)の組合せを推定できる。そのため、推定された指標の組合せに基づき、実施中の作業を推定できる。
本発明の一態様に係る作業管理装置では、前記線形データ抽出部が前記線形データを抽出した場合、前記線形データを抽出した前記座標の時系列データの生成元である対象物として出力された前記指標において、前記線形データを抽出した時間帯に対して、前記対象物に動きが生じているものとして、前記時間帯以外の時間帯よりも重みづけする重みづけ処理部を備えてもよい。
上記構成によれば、作業管理装置は、指標推定モデルから出力された指標(対象物)において、動きが生じている時間帯に対して、当該時間帯以外の時間帯よりも重みづけできる。
本発明の一態様に係る作業管理装置は、前記作業対象領域を撮影するカメラを備え、前記データ生成部は、予め設定された前記カメラの基準位置と、前記撮影画像を取得したときの前記カメラの位置と、に基づき、前記座標を補正してもよい。
上記構成によれば、作業管理装置は、カメラの移動が与える座標抽出への影響を低減した状態で、すなわち固定された状態のカメラで撮影したときと略同一の条件で、座標の時系列データを生成できる。
本発明の一態様に係る作業管理装置では、前記作業推定部は、機械学習を用いて、前記撮影画像の取得時点において実施している作業を推定するように構築された実施作業推定モデルに、(i)前記水道工事における作業状態を評価するための、前記対象物を含む複数の指標のうちの少なくとも1つと、(ii)前記線形データと、を入力することにより、前記撮影画像の取得時点において実施している作業を推定してもよい。
上記構成によれば、作業管理装置は、実施作業推定モデルに指標(対象物)及び線形データを入力することにより、実施中の作業を推定できる。そのため、作業管理装置は、作業の推定精度をより向上させることができる。
本発明の一態様に係る作業管理装置は、報知部と通信可能に接続でき、前記作業推定部の推定結果、および、前記座標の時系列データの少なくとも何れかを、前記報知部から出力する出力部を備えてもよい。
上記構成によれば、作業管理装置は、作業推定部の推定結果、および、座標の時系列データの少なくとも何れかをユーザに提示できる。
上記の課題を解決するために、本発明の一態様に係る実施作業推定モデルは、(i)水道工事における作業状態を評価するための複数の指標の少なくとも1つと、(ii)前記水道工事における作業対象領域が含まれる撮影画像を経時的に取得した結果抽出される、前記撮影画像に含まれる前記指標の1つである対象物の画像に含まれる座標の時系列データにおいて、連続的かつ規則的に値が変化する部分である線形データと、が入力される入力層と、前記水道工事における作業を出力する出力層と、前記複数の指標および複数の前記線形データと、複数の前記作業と、に基づき、パラメータが学習された中間層と、を備え、前記指標と前記線形データとが前記入力層に入力された場合に、前記中間層による演算を経て、前記撮影画像の取得時点において行われている作業を前記出力層から出力するように、コンピュータを機能させる。
上記構成によれば、実施作業推定モデルへの指標(対象物)および線形データの入力により、作業管理装置は、実施中の作業を推定することが可能となる。
本発明の一態様によれば、撮影画像に含まれる対象物の動きを考慮して、実施中の作業を精度よく推定することができる。
〔水道工事管理システムの構成〕
図1は、本発明の実施の形態に係る水道工事管理システム1の概略構成の一例を示すブロック図である。水道工事管理システム1は、管を設置する水道工事の各種作業(例:水道工事の進捗)を管理する。水道工事管理システム1は、カメラ2、作業管理装置3、および表示装置4を備えている。
図1は、本発明の実施の形態に係る水道工事管理システム1の概略構成の一例を示すブロック図である。水道工事管理システム1は、管を設置する水道工事の各種作業(例:水道工事の進捗)を管理する。水道工事管理システム1は、カメラ2、作業管理装置3、および表示装置4を備えている。
カメラ2は、1または複数の水道工事の現場において実施される各種作業を撮影する。カメラ2は、各種作業が行われる作業対象領域を撮影できればよい。カメラ2としては、例えば、作業者(水道工事の関係者)のヘルメット又は作業服(例:作業服の腕部)に取り付けられ手元の作業を撮影するカメラ、または、各種作業用具(例:バックホウ)に搭載されたカメラが挙げられる。また、カメラ2としては、例えば、作業対象領域の近傍に据置されたカメラが挙げられる。
図2は、カメラ2を搭載したバックホウBHの一例を示す図である。バックホウBHには、カメラ2として、第1カメラ2Aと第2カメラ2Bとが搭載されている。第1カメラ2Aは、バックホウBHのキャビンCAの上面部に取り付けられている。第1カメラ2Aの撮影方向は、キャビンCAの運転席の前方および後方であってよい。第2カメラ2Bは、撮影方向がバケットBU側を向くようにアームARに取り付けられている。これにより、カメラ2は、バックホウBHの周囲と、バケットBUおよびバケットBUの周囲と、を撮影できる。但し、バックホウBHは、第1カメラ2Aおよび第2カメラ2Bの何れかのみを搭載する構成であってもよい。また、第1カメラ2Aの撮影方向は、運転席の前方および後方の何れかのみであってもよい。また、第1カメラ2Aは、鉛直方向を回転軸として回転することにより、バックホウBHの周囲の環境を撮影できてもよい。
撮影部21は、水道工事における少なくとも作業対象領域を撮影する。撮影部21は、静止画像を撮影してもよいし、動画像を撮影してもよい。同一の水道工事内で、複数回の撮影が行われてもよい。作業対象領域(ひいては、カメラ2)は、固定であってもよいし、1回の撮影を単位として可動であってもよい。換言すれば、撮影部21は、撮影の度に、作業対象領域が含まれる撮影画像を作成する。
位置センサ23は、地上におけるカメラ2の位置(絶対座標)および方位を測定するセンサである。位置センサ23は、例えば、GPS(Global positioning system)信号を受信することにより、上記カメラ2の位置を測定する。また、位置センサ23は、方位を測定するセンサとして、例えば地磁気センサを含む。位置センサ23が測定した方位により、作業管理装置3は、カメラ2の撮影方向を特定できる。
第1通信部22は、作業管理装置3と通信可能に接続し、撮影部21が撮影した撮影画像のデータ、および位置センサ23が測定したカメラ2の位置および方位を示すデータを、作業管理装置3へと転送する。第1通信部22と作業管理装置3の第2通信部31との通信形態は無線であるが、有線であってもよい。
なお、カメラ2が据置である場合、カメラ2は、位置センサ23を備えている必要は必ずしもない。すなわち、この場合、カメラ2は、位置センサ23が測定したカメラ2の位置および方位を示すデータを送信しない。
作業管理装置3は、水道工事として実施されている各種作業を管理する。作業管理装置3は、複数の水道工事の現場における作業を管理する場合、現場毎に作業を管理する。作業管理装置3の詳細については後述する。
表示装置4は、水道工事を管理する管理者(水道工事の関係者)に対して、水道工事に関連する各種情報を表示する。表示装置4は、例えば、作業管理装置3から出力される各種情報を表示する。表示装置4は、例えば、作業管理装置3による作業の推定結果を表示する。
表示装置4は、管理者が各種作業を管理するモニタまたはパーソナルコンピュータである。但し、表示装置4は、作業者が所持する電子機器(例:タブレットおよびスマートフォン)であってもよい。この場合、表示装置4は、作業者に対して、水道工事に関連する各種情報を表示できる。また、水道工事管理システム1は、上記各種情報を音声により出力する音出力装置(例:スピーカ)を備えていてもよい。換言すれば、水道工事管理システム1は、表示装置4および音出力装置等、作業管理装置3と通信可能に接続でき、作業管理装置3から送信される種々のデータを報知する報知部を備えていればよい。
〔作業管理装置の構成〕
作業管理装置3は、第2通信部31、制御部33および記憶部35を備えている。第2通信部31は、カメラ2から、撮影画像のデータと、カメラ2の位置および方位を示すデータと、を受信する。制御部33は、作業管理装置3の各部を統括的に制御する。記憶部35は、制御部33により使用される各種プログラムおよび各種データを記憶する。記憶部35は、例えば、後述する指標推定モデル351および実施作業推定モデル352を記憶する。記憶部35は、作業管理装置3と通信可能に接続された、作業管理装置3とは異なる記憶装置により、実現されていてもよい。
作業管理装置3は、第2通信部31、制御部33および記憶部35を備えている。第2通信部31は、カメラ2から、撮影画像のデータと、カメラ2の位置および方位を示すデータと、を受信する。制御部33は、作業管理装置3の各部を統括的に制御する。記憶部35は、制御部33により使用される各種プログラムおよび各種データを記憶する。記憶部35は、例えば、後述する指標推定モデル351および実施作業推定モデル352を記憶する。記憶部35は、作業管理装置3と通信可能に接続された、作業管理装置3とは異なる記憶装置により、実現されていてもよい。
制御部33は、画像取得部331、指標出力部332、位置特定部333、画像抽出部334、枠設定部335、データ生成部336、線形データ抽出部337、重みづけ処理部338、作業推定部339、および表示制御部340を備えている。
画像取得部331は、カメラ2から転送される、水道工事における作業対象領域が含まれる撮影画像を経時的に取得する。
指標出力部332は、画像取得部331が取得した撮影画像を、記憶部35に記憶された指標推定モデル351に入力する。指標推定モデル351は、機械学習を用いて、水道工事における作業状態を評価するための複数の指標のうち、ある時点での作業において出現している少なくとも1つの指標を推定するように構築された学習済みモデルである。本実施形態では、上記指標を、作業状態を評価するために撮影画像からの検出を要する検出クラスと称する。
検出クラスとしては、例えば、水道工事に用いられる各種管(管路)、作業者、作業者以外の一般人、水道工事に用いられる各種作業用具、管が配置される溝といった単一の物体が挙げられる。検出クラスは、これらの単一の物体を複数組合せたものであってもよく、例えば、溝と、溝に入っている作業者との組合せを、1つの検出クラスとして設定してもよい。
各種管としては、例えば、直管および異形管が挙げられる。各種作業用具(例:作業機械(作業車両)および工具)としては、例えば、アスファルトカッター、バックホウ、ダンプトラック、ランマー、コーン(またはポール)、矢板、歯止め、枕木、および梯子が挙げられる。また、検出クラスとして設定される作業用具は作業用具の一部であってもよく、例えば、バックホウの一部であるバケットおよびスリングベルトが検出クラスとして設定されてもよい。
検出クラスとして、作業状態が判別可能となる物体が設定されてもよい。例えば、検出クラスとして、例えば、適切な作業(標準作業)が行われていることを特徴づける物体、および、危険作業を特徴づける物体が設定されてもよい。標準作業が行われていることを特徴づける物体としては、例えば、標準作業を行っているときの作業者の作業姿勢が挙げられる。危険作業を特徴づける物体としては、例えば、安全コーンが設置されていない溝が挙げられる。
指標推定モデル351は、撮影画像が入力された結果として、撮影画像に含まれる上述したような検出クラスを抽出および出力するように構築された学習済みモデルである。指標推定モデル351は、例えば、入力層、中間層および出力層を少なくとも含むニューラルネットワーク(例:畳み込みニューラルネットワーク(Convolutional Neural Network:CNN))であってよい。
指標推定モデル351において、入力層は、撮影画像が入力される層である。中間層は、作業対象領域を含む領域画像、および水道工事での使用物品を示す物品画像と、検出クラスと、に基づき、パラメータが学習された層である。出力層は、少なくとも1つの検出クラスを出力する層である。
例えば、複数の領域画像のそれぞれ、および複数の物品画像のそれぞれに、正解データとして検出クラスを対応付けたデータが、訓練データとして準備される。指標推定モデル351は、訓練データを順次入力して、損失関数を最小化するようにパラメータ(重みおよびバイアス)を学習することにより構築される。指標推定モデル351は、例えばモデル生成装置(不図示)により構築されるが、これに限らず、例えば制御部33により構築されてもよい。この場合、制御部33は、訓練データを用いた機械学習により指標推定モデル351を構築する学習装置としての機能も有することになる。
なお、後述するその他の学習済みモデルについても、訓練データを順次入力して、損失関数を最小化するようにパラメータを学習することにより構築されてよく、モデル生成装置によって構築されても、制御部33によって構築されてもよい。
上記領域画像としては、カメラ2が撮影した撮影画像の他、差分画像または合成画像であってよい。差分画像は、例えば、経時的に撮影された2つの撮影画像の差分を抽出した画像である。合成画像は、例えば、撮影された作業対象領域の背景領域に、予め準備された種々の背景画像(仮想的な背景画像)を埋め込んだ画像である。上記物品画像としては、上述した各種管および各種作業用具を撮影した画像であってよい。物品画像として、1つの管および1つの作業用具について、その大きさを変更した複数の画像を準備してもよい。このように、撮影した画像以外に加工した画像を準備することにより、少ない撮影画像から多様な訓練データを準備することが可能となる。また、領域画像および物品画像は、検出クラスの推定(推論)に適した画像を含んでもよい。
このように構築された指標推定モデル351は、撮影画像が入力層に入力された場合に、中間層による演算を経て、撮影画像の取得時点での作業において出現していると推定される少なくとも1つの検出クラスを出力層から出力するように、コンピュータを機能させる。すなわち、指標出力部332は、撮影画像を指標推定モデル351に入力することにより、撮影画像の取得時点での作業において出現していると推定される少なくとも1つの検出クラスを出力する。なお、撮影画像の取得時点は、画像取得部331による撮影画像の取得時点であるが、カメラ2による作業対象領域の撮影時点と読み替えてもよい。
図3は、指標出力部332の出力結果の一例を示す図である。図3の符号301は、ある1日における作業開始から時刻T1までの出力結果を示し、符号302は、ある1日における作業開始から作業終了までの出力結果を示す。符号301および302において、縦軸は各検出クラスの番号を示し、横軸は作業時刻を示す。例えば、作業者に「0」、直管に「1」、異形管に「2」、バックホウ(例:キャビンおよび/またはクローラを含む本体部)に「3」、バケットに「4」といったように、上述した各検出クラスには番号が付されている。図3の例では、検出クラスの番号として「0」~「7」が示されているが、予め設定された検出クラスの分だけ検出クラスに番号が付される。
例えば、時刻T1の時点において取得した撮影画像に、作業者、異形管、バックホウおよびバケットが含まれている場合を考える。この場合、指標出力部332は、図3の符号301に示すように、時刻T1において、これらの検出クラスに対応する「0」および「2」~「4」の組合せを出力する。指標出力部332は、作業開始から経時的に撮影画像を指標推定モデル351に入力しているため、符号301に示すように、時刻T1の時点においては、作業開始(8:00)から時刻T1までの各時点における検出クラスの組合せを出力できる。その結果、符号302に示すように、指標出力部332は、1日の作業終了時点においては、1日における作業開始から作業終了までの各時点における検出クラスの組合せを出力できる。
なお、指標推定モデル351は、上記演算の結果として、各検出クラスの数値(例:0以上かつ1以下の数値)を出力する。数値が大きい検出クラスほど、撮影画像にその検出クラスが示す物体が含まれる確度が高い。そのため、指標推定モデル351は、所定の閾値以上の数値を示す検出クラスを、撮影画像に含まれる検出クラスとして推定する。指標推定モデル351は、出力結果として、検出クラスと共に、例えば上記数値を、検出クラスの推定の確度(信頼度)として出力してもよい。なお、所定の閾値は、検出クラスの組合せから作業を適切に推定できる程度に設定されていればよい。所定の閾値は、例えば0.2に設定される。
位置特定部333は、撮影画像において、指標出力部332が出力した検出クラスの位置を特定する。位置特定部333は、例えば、物品画像と検出クラスとを対応付けた訓練データを用いて撮影画像における検出クラスの位置を推定するように構築された位置推定モデルに、撮影画像を入力することにより、撮影画像における検出クラスの位置を特定できる。位置推定モデルは、記憶部35に記憶されていてよく、例えばR-CNN(Regions with CNN)により実現された学習済みモデルであってよい。
画像抽出部334は、画像取得部331が経時的に取得した撮影画像のそれぞれから、水道工事に関与する対象物の画像を抽出する。画像抽出部334は、撮影画像に含まれる全ての対象物の画像を、撮影画像から抽出する。
画像抽出部334は、画像取得部331が経時的に取得した撮影画像のそれぞれから、水道工事に関与する対象物の画像を抽出する。画像抽出部334は、撮影画像に含まれる全ての対象物の画像を、撮影画像から抽出する。
対象物は、水道工事において動きが生じる可能性がある物体である。対象物としては、例えば、水道工事に用いられる各種管、水道工事に用いられる各種作業用具、作業者、または作業者以外の一般人が挙げられる。すなわち、対象物は、検出クラスに含まれるものである。そのため、本実施形態では、画像抽出部334は、指標出力部332が出力した検出クラスに、水道工事において動きが生じる可能性がある検出クラスが含まれている場合、すなわち当該検出クラスに対応する対象物の画像が撮影画像に含まれている場合、当該対象物の画像を撮影画像から抽出する。例えば、撮影画像にバケットが写っている場合、指標出力部332は、検出クラスとしてバケットに対応する番号を出力する。また、位置特定部333は、撮影画像においてバケットの位置を特定する。そのため、画像抽出部334は、撮影画像からバケットの画像を抽出できる。
枠設定部335は、画像抽出部334が抽出した対象物の画像の周囲に、当該対象物の画像の大きさに応じた枠を設定する。枠設定部335は、対象物の画像の一部分の周囲に枠を設定してもよい。例えば、対象物としてバケットの画像が抽出された場合、枠設定部335は、バケット全体の周囲に枠を設定してもよいし、バケットの一部分(例:バケットの開口部)の周囲に枠を設定してもよい。
枠設定部335による枠の設定手法は、公知の技術が用いられてよい。また、枠設定部335は、検出クラスの推定の確度に応じた大きさの枠を、対象物の画像に対して設定してもよい。例えば、枠設定部335は、確度が高いほど枠の大きさを小さく設定してもよい。すなわち、枠設定部335は、確度が高いほど対象物にフィットするように枠の大きさを設定してもよい。確度に応じた枠の設定手法についても、公知の技術が用いられてよい。
図4の符号401は、枠FRを設定した後の撮影画像の一部を示す図である。この撮影画像は、溝の機械掘削という作業(例:バックホウを用いて道路に溝DIを形成する作業)を撮影した画像の一例である。符号401では、対象物としてのバケットBUに対して、指標出力部332の出力結果として、検出クラス「4」と、バケットBUと推定した確度「0.64」とが表示されている。また、枠設定部335がバケットBUの周囲を囲うように設定した矩形状の枠FRが表示されている。なお、枠FRの形状は、矩形状に限らず、他の形状(例:楕円形)であってもよい。
データ生成部336は、画像取得部331が取得した撮影画像のそれぞれにおいて同一と推定される対象物の画像毎に、当該対象物の画像を含む領域内の座標を経時的に抽出することにより、座標の時系列データを生成する。
本実施形態では、指標出力部332は、撮影画像のそれぞれにおいて、検出クラスの推定を行う。データ生成部336は、各撮影画像において同一と推定された検出クラスのうち、対象物に対応する検出クラス毎に、上記座標を抽出する。そして、データ生成部336は、当該検出クラス毎に、座標の時系列データを生成する。例えば、データ生成部336は、各撮影画像からバックホウ(本体部)の画像とバケットの画像とが抽出されている場合、バックホウの画像を含む領域内の座標と、バケットの画像を含む領域内の座標と、をそれぞれ抽出する。そして、データ生成部336は、バックホウに対応する座標の時系列データと、バケットに対応する座標の時系列データと、をそれぞれ生成する。
データ生成部336は、枠設定部335が設定した枠において予め設定された位置の座標を、上記座標として抽出する。本実施形態では、データ生成部336は、予め設定された位置の座標として、枠設定部335が設定した枠の中心座標を抽出する。
図4の符号402は、中心座標CO0の算出を説明するための図である。符号402に示すように、枠設定部335は、枠FRを設定する場合、枠FRの4つの角部のうち、対向する2つの角部の座標CO1およびCO2を特定している。データ生成部336は、この2つの角部の座標CO1およびCO2から、中心座標CO0を算出する。なお、データ生成部336は、中心座標CO0に限らず、枠FR内の任意の座標(例:座標CO1またはCO2)を、上記予め設定された位置の座標として抽出してもよい。
図5の符号501は、データ生成部336が生成する、ある1つの対象物の画像から抽出される座標の時系列データの一例を示す図である。符号501において、縦軸は撮影画像における座標の値、横軸は作業時刻を示す。符号501に示す座標の時系列データは、ある1日における作業開始から作業終了までの間に抽出された座標の時系列データである。符号501では、作業開始から30000秒の間(例:8:00から16:20までの間)に抽出された座標の時系列データを示している。また、符号501では、撮影画像に含まれるバケットの画像について、枠FRの中心座標CO0をプロットしたグラフを示している。符号501では、中心座標CO0のX座標が「×」印で示されており、中心座標CO0のY座標が「○」印で示されている。なお、作業開始から時刻T1まで作業が行われている場合、図3の符号301に示す指標出力部332の出力結果と同様、作業開始から時刻T1までにおいて対象物の画像から抽出される座標の時系列データが、対象物毎に生成される。
データ生成部336は、抽出した座標を、座標の抽出元である対象物の画像の大きさを用いて正規化する。本実施形態では、データ生成部336は、抽出した座標を、座標の抽出元である枠の大きさを用いて正規化する。具体的には、データ生成部336は、抽出した中心座標CO0のX座標を、図4に示す枠FRの辺の長さLxにより除すると共に、中心座標CO0のY座標を、図4に示す枠FRの辺の長さLyにより除する。Lxは、枠FRにおいて、撮影画像のX軸方向に延伸する辺の長さ、または、延伸する方向がY軸方向よりもX軸方向に近い辺の長さを指す。Lyは、枠FRにおいて、撮影画像のY軸方向に延伸する辺の長さ、または、延伸する方向がX軸方向よりもY軸方向に近い辺の長さを指す。図5の符号502は、データ生成部336が符号501に示す座標の時系列データを正規化した結果の一例を示す図である。符号502において、縦軸は撮影画像における座標の値、横軸は作業時刻を示す。
データ生成部336は、抽出した座標の時系列データから外れ値を除去する。データ生成部336は、例えば、各座標について、座標を中心とし、予め設定された距離を半径とした円の範囲内に他の座標が無い場合に、外れ値として検出してよい。この他、データ生成部336は、統計に基づく外れ値検出方法等、公知の外れ値検出方法を用いて、座標の時系列データから外れ値を検出してよい。データ生成部336は、X座標およびY座標のそれぞれにおいて、外れ値の検出処理を実行する。
図5の符号502において、X座標において外れ値の検出処理が実行された結果を示している。符号502では、外れ値を符号503にて示している。データ生成部336は、このように検出した外れ値を、座標の時系列データから除去する。符号502において示す外れ値はあくまで一例であり、また、外れ値の検出処理において検出された外れ値の一部を示すものである。
なお、データ生成部336による座標の正規化処理、および外れ値の除去処理が行われる必要は必ずしも無い。但し、データ生成部336が座標の正規化処理を実行することにより、撮影画像の遠近の影響を受ける可能性を低減させた状態で、座標を抽出できる。この場合、線形データ抽出部337が抽出する線形データに対象物の動きをより正確に反映できる。例えば、対象物の動きが小さくなる程、後述する傾きを小さくし、対象物の動きが大きくなる程、後述する傾きを大きくすることができる。また、データ生成部336が外れ値の除去処理を実行することにより、誤検出した座標または信頼度の低い座標を、座標の時系列データから除去した状態で、線形データ抽出部337が線形データを抽出できる。
線形データ抽出部337は、データ生成部336が生成した座標の時系列データから、連続的かつ規則的に値が変化する部分である線形データを抽出する。本実施形態では、線形データ抽出部337は、X座標およびY座標のそれぞれにおいて、データ生成部336が正規化した後、外れ値を除去した座標の時系列データから、線形データを抽出する。データ生成部336は、作業開始から直近で撮影画像を取得した時点までの座標の時系列データを生成している。例えば、直近で撮影画像を取得した時刻がT1である場合、データ生成部336は、作業開始から時刻T1までの間に取得した全ての撮影画像から抽出した座標の時系列データを生成している。そのため、この場合、線形データ抽出部337は、作業開始から時刻T1までの間に取得した全ての撮影画像から抽出した座標の時系列データにおいて、線形データを抽出する。線形データ抽出部337は、単回帰分析において用いられる最小二乗法等、公知の線形抽出方法を用いて、線形データを抽出してもよい。
ここで、座標の時系列データにおいて、時間的に隣り合う座標同士が変化している部分を、連続的に値が変化すると称する。但し、隣り合う座標同士が変化せずとも、一定時間内(数枚の撮影画像分)において抽出された複数の座標に異なる値を有する座標が含まれていれば、一定時間内に抽出された座標において連続的に値が変化していると称してもよい。なお、線形データ抽出部337は、隣り合う2つの座標において、規定値以上の差があると判定した場合には、当該2つの座標における値の変化を、非連続的な値の変化であると特定してもよい。上記規定値は、線形データとして、有意な線形データが抽出できるように設定されていればよい。有意な線形データとは、実際の対象物の動きが反映されているデータであり、線形データの有用性は実験等により実証されていればよい。また、連続的に値が変化する部分において、直線または曲線と相関がある部分を、規則的に値が変化していると称する。すなわち、線形データは、直線またはN次曲線(N≧2)であってよい。
具体的には、線形データは、0以外の傾きを有する直線、または、0以外の傾きを有する接線を含む曲線であるといえる。座標の時系列データに、このような直線または曲線が存在している場合、対象物に動きがあると評価できる。すなわち、座標の時系列データから線形データを抽出できた時間帯においては対象物に動きがあり、当該時間帯以外の時間帯においては対象物に動きがないと評価できる。後述の作業推定部339は、この線形データも作業推定の要素の1つに組み入れることにより、対象物の動きも加味して、現在実施されている作業を推定できる。
図5の符号502では、X座標の時系列データから線形データが抽出された結果の一例を示している。符号502において示す線形データはあくまで一例であり、また線形データの抽出処理において抽出された線形データの一部を示すものである。符号502では、線形データを符号504にて示している。本実施形態では、線形データ抽出部337は、線形データとして直線データを抽出しているが、上述の通り、N次曲線(N≧2)を抽出してもよい。なお、作業の内容と当該作業に関与する対象物の動きとの相関を考慮して、作業毎に、フィッティングする直線または曲線が選択されてもよい。作業毎に選択される直線または曲線は、実験等を経て、予め設定されていてよい。
上述の通り、座標の時系列データから線形データを抽出した時間帯においては、対象物に動きがあると評価できる。符号502の例でいえば、線形データが抽出された時間帯において、制御部33は、バケットが動いていると判定できる。
重みづけ処理部338は、指標出力部332が出力した検出クラスにおいて、線形データ抽出部337が線形データを抽出した時間帯に対して、当該時間帯以外の時間帯よりも重みづけする。この重みづけは、線形データを抽出した座標の時系列データの生成元である対象物に動きが生じていることを示すものである。例えば、指標出力部332が検出クラスを出力したときに当該検出クラスに対して加点している場合に、重みづけ処理部338は、線形データを抽出した時間帯においては、当該検出クラスに対してさらに加点してもよい。すなわち、制御部33は、検出クラスを出力したときに点数(例:1点)を与え、線形データを抽出した時間帯にはさらに点数(例:1点)を与えてもよい。また、重みづけ処理部338は、線形データを抽出した時間帯については、検出クラスの確度に対して点数を加算してもよい。
図6は、重みづけ処理部338の出力結果の一例を示す図である。具体的には、図6は、図3に示す指標出力部332の出力結果に対して、重みづけ処理部338による重みづけの結果が反映された図である。図6の符号601は、図3の符号301に示す出力結果に対して重みづけの結果を反映したものであり、符号602は、図3の符号302に示す出力結果に対して重みづけの結果を反映したものである。符号601および602に示す図では、指標出力部332が出力した検出クラスには「●」印が付されるが、重みづけ処理部338が重みづけした時間帯には、当該時間帯以外の時間帯に付される「●」印よりも大きい「●」印が付されている。この「●」印の大きさは、上記点数を反映したものであってもよい。重みづけ処理部338は、重みづけの結果として、指標出力部332が出力した検出クラスについて、線形データを抽出した時間帯が、当該時間帯以外の時間帯とは異なる状態であることを示す出力を行えばよい。
作業推定部339は、線形データ抽出部337が抽出した線形データと、撮影画像に含まれる対象物と、に基づき、撮影画像の取得時点において実施されている作業を推定する。本実施形態では、作業推定部339は、線形データ抽出部337が抽出した線形データと、指標出力部332の出力結果と、に基づき、撮影画像の取得時点において実施されている作業を推定する。
作業推定部339は、指標出力部332の出力結果に基づき、撮影画像の取得時点において実施されている作業を推定する。具体的には、作業推定部339は、指標出力部332が経時的に出力した、撮影画像の取得時点のそれぞれにおいて出現する検出クラスの組合せを解析することにより、画像取得部331が直近で取得した撮影画像の取得時点において実施している作業を推定する。すなわち、作業推定部339は、画像取得部331が直近で取得した撮影画像に基づき推定された検出クラスの組合せと、その直前の少なくとも一時点の撮影画像(過去の撮影画像)に基づき推定された検出クラスの組合せとから、現在実施されている作業を推定する。
さらに、作業推定部339は、推定された検出クラスに対応する対象物の座標の時系列データにおいて線形データが抽出されている場合、線形データが抽出されている時間帯において当該対象物が存在し、かつ当該対象物に動きが生じていることを特定する。すなわち、作業推定部339は、重みづけされた時間帯において、当該対象物に動きが生じていることを特定する。作業推定部339は、指標出力部332の各時点における出力結果と共に、対象物の動きの有無を含めて、現在実施されている作業を推定する。
記憶部35には、水道工事において実施され得る各作業の内容と、検出クラスの組合せと、検出クラスに対応する対象物の動きの有無と、を対応付けたデータが記憶されていてよい。この場合、作業推定部339は、記憶部35を参照することにより、指標出力部332の出力結果と、線形データ抽出部337による線形データの抽出結果(重みづけ処理部338の出力結果)とから、現在実施されている作業を推定できる。
例えば、溝の機械掘削という作業には、例えば、検出クラスとして、溝、バックホウ(本体)、バケット、およびダンプトラックの組合せが対応付けられている。また、上記作業には、バケットの連続的な動きが対応付けられている。作業推定部339は、指標出力部332の出力結果に基づき、連続して取得する撮影画像において、以下の2つの事項を判定することにより、上記作業が行われているかを判定する。
・溝、バックホウ(本体)、バケット、およびダンプトラックを示す検出クラスの有無。
・バケットの動きを示す線形データの有無。
・溝、バックホウ(本体)、バケット、およびダンプトラックを示す検出クラスの有無。
・バケットの動きを示す線形データの有無。
また、各作業に対して、各作業に特有の対象物の具体的な動きが対応付けられていてもよい。例えば、X座標およびY座標の時系列データのそれぞれから抽出された線形データの各時点における傾きと、上記作業に特有の対象物の具体的な動きと、が対応付けられていてもよい。例えば、溝の機械掘削という作業に対して、掘削する溝に沿った直線的な動き、および、溝とダンプトラックとの間の動き、といったバケットの動きが対応付けられていてもよい。この場合、作業推定部339は、溝を形成しているときのバケットの動き、または、溝の掘削時に発生した土砂をダンプトラックに積載しているときの動きを考慮して、上記作業を行っているかを判定できる。
本実施形態では、作業推定部339は、実施作業推定モデル352に、複数の検出クラスのうちの少なくとも1つと、線形データと、を入力することにより、撮影画像の取得時点において実施している作業を推定する。具体的には、作業推定部339は、指標出力部332が出力した検出クラスと、線形データ抽出部337が抽出した線形データと、を実施作業推定モデル352に入力することにより、現在実施されている作業を推定する。この場合、作業推定部339は、水道工事において実施され得る各作業と、検出クラスの組合せと、検出クラスに対応する対象物の動きの有無と、を対応付けたデータを参照することなく、現在実施されている作業を推定できる。つまり、この場合、記憶部35に当該データを記憶しておく必要はない。
実施作業推定モデル352は、機械学習を用いて、撮影画像の取得時点において実施している作業を推定するように構築された学習済みモデルである。指標推定モデル351は、例えば、入力層、中間層および出力層を少なくとも含むニューラルネットワーク(例:畳み込みニューラルネットワーク(Convolutional Neural Network:CNN))であってよい。
実施作業推定モデル352において、入力層は、検出クラスの少なくとも1つと、線形データと、入力される層である。中間層は、複数の検出クラスおよび複数の線形データと、複数の作業の内容と、に基づき、パラメータが学習された層である。出力層は、水道工事における作業を出力する層である。
例えば、複数の検出クラスのそれぞれ、または検出クラスの組合せに、正解データとして作業の内容を対応付けたデータが、訓練データとして準備される。様々な作業対象領域の撮影画像に基づき指標出力部332が出力する検出クラスに、撮影画像を取得したときの作業の内容を対応付けることにより、訓練データが準備される。また例えば、複数の線形データのそれぞれに、正解データとして作業の内容を対応付けたデータが、訓練データとして準備される。様々な作業対象領域の撮影画像に基づき線形データ抽出部337が抽出する線形データに、撮影画像を取得したときの作業の内容を対応付けることにより、訓練データが準備される。実施作業推定モデル352は、訓練データを順次入力して、損失関数を最小化するようにパラメータ(重みおよびバイアス)を学習することにより構築される。
このように構築された実施作業推定モデル352は、検出クラスおよび線形データが入力層に入力された場合に、中間層による演算を経て、撮影画像の取得時点での作業の内容を出力層から出力するように、コンピュータを機能させる。入力層に入力される検出クラスは、撮影画像を取得したときに指標出力部332によって推定された結果であり、入力層に入力される線形データは、撮影画像を取得したときに線形データ抽出部337によって抽出された結果である。そのため、作業推定部339は、当該検出クラスおよび当該線形データを実施作業推定モデル352に入力することにより、現在実施されている作業の内容を出力できる。
なお、作業推定部339は、重みづけ処理部338の出力結果(重みづけの結果)を用いて、現在実施されている作業を推定してもよい。例えば、実施作業推定モデル352が、重みづけ処理部338の出力結果を用いて構築されていてもよい。この場合、作業推定部339は、当該出力結果を実施作業推定モデル352に入力することにより、現在実施されている作業を推定してもよい。なお、重みづけは、推定された検出クラスにおいて、線形データを抽出した時間帯に対して行われるものである。そのため、実施作業推定モデル352の構築、および実施作業推定モデル352を用いた作業推定において線形データを用いるという概念には、重みづけの結果の使用が含まれるものと解してよい。
以上のように、作業推定部339は、線形データを用いて作業推定を行う。そのため、作業推定部339は、対象物の動きを加味して、現在実施されている作業(実施中の作業)を推定できる。従って、作業推定部339は、実施中の作業を精度よく推定できる。
また、作業推定部339は、各対象物(検出クラス)の位置関係を特定できるので、線形データが有する傾きの大きさを解析することにより、ある対象物が他の対象物に対してどのような動きを行っているかについても推定できる。作業推定部339は、例えば、バックホウが溝に沿って動いているかどうかについても推定できる。そのため、作業推定部339は、実施中の作業をより精度よく推定できる。実施作業推定モデル352を用いている場合、線形データと検出クラスとを入力することにより、ある対象物が他の対象物に対してどのような動きを行っているかについても推定されている。
また、作業管理装置3は、実施中の作業を精度よく推定できるため、水道工事の管理を適切に行うことが可能である。そのため、作業管理装置3、および作業管理装置3を備える水道工事管理システム1を、包摂的かつ持続可能な都市化への促進を助長するものとして機能させることができる。従って、作業管理装置3および水道工事管理システム1は、持続可能な開発目標(SDGs)の達成に貢献できる。
また、作業推定部339は、位置特定部333が撮影画像において検出クラスの位置を特定している場合、当該検出クラスの位置に基づき、撮影画像内の異なる領域において実施されている作業をそれぞれ推定してもよい。作業推定部339は、例えば、推定された検出クラスの種類、および、特定された検出クラスの位置によって、撮影画像に、複数の水道工事の実施風景が含まれているか否かを判定してよい。作業推定部339は、撮影画像内の異なる領域において水道工事が実施されていると判定した場合に、各領域において実施されている作業をそれぞれ推定する。
表示制御部340は、表示装置4を制御することにより、表示装置4に各種情報を表示させる。換言すれば、表示制御部340は、表示装置4から各種情報を出力する出力部として機能する。表示制御部340は、例えば、作業推定部339の推定結果(すなわち作業の内容)を表示装置4から出力してもよい。また、表示制御部340は、データ生成部336が生成した座標の時系列データを、表示装置4から出力してもよい。この場合、表示制御部340は、例えば、正規化した座標の時系列データを、表示装置4から出力してもよい。また、表示制御部340は、例えば、線形データ抽出部337が抽出した線形データを含む座標の時系列データを、表示装置4から出力してもよい。この場合、表示制御部340は、例えば、図5の符号502に示すグラフを出力してもよい。なお、表示制御部340は、当該グラフにおいて、座標の時系列データを除去したグラフ(線形データのみを示したグラフ)を、表示装置4から出力してもよい。その他、表示制御部340は、重みづけ処理部338による重みづけの結果を表示装置4から出力してもよい。表示制御部340は、例えば、図6の符号601または符号602に示すグラフを出力してもよい。
また、表示制御部340は、作業の内容を表示装置4から出力するとき、重みづけが行われている場合(線形データが抽出されている場合)と、重みづけが行われていない場合(線形データが抽出されていない場合)とで、表示態様を異ならせてもよい。例えば、表示制御部340は、作業の内容を示す文字列の色、形状または大きさ等を異ならせてもよい。このような表示態様の相違により、管理者および作業者(ユーザ)は、撮影画像に含まれる何れかの対象物に動きが生じていることを認識できる。
なお、本実施形態では、指標出力部332は、指標推定モデル351を用いて検出クラスを推定するが、指標推定モデル351を用いずに検出クラスを推定してもよい。この場合、例えば、水道工事に関与する対象物の画像と対象物の名称と対応付けたデータを予め記憶部35に記憶しておく。指標出力部332は、公知の画像技術により、撮影画像から対象物の画像を抽出する。そして、指標出力部332は、当該データを参照することにより、抽出した対象物の名称、すなわち検出クラスを特定する。
また、本実施形態では、作業推定部339は、実施作業推定モデル352を用いて作業を推定するが、実施作業推定モデル352を用いずに作業を推定してもよい。この場合、例えば、作業推定部339は、上述したように、水道工事において実施され得る各作業の内容と、検出クラスの組合せと、検出クラスに対応する対象物の動きの有無と、を対応付けたデータを予め記憶部35に記憶しておく。これにより、作業推定部339は、指標出力部332が検出クラスを推定し、線形データ抽出部337が線形データを抽出した場合、当該データを参照することにより、実施中の作業を推定できる。
<カメラ移動に伴う座標補正>
上述したように、カメラ2は、移動可能な物体(図2に示すバックホウBH)に搭載される場合もある。この場合、カメラ2と対象物との位置関係が、カメラ2の移動によって変化する。そのため、カメラ2の移動によって、データ生成部336が抽出する座標の値が変化する。カメラ2が据置である場合(定点カメラの場合)、各撮影画像に設定される原点位置は、撮影対象となる作業対象領域に対して一定の位置である。一方、カメラ2が移動可能である場合、各撮影画像に設定される原点位置は、撮影対象となる作業対象領域に対して一定の位置とはならない。そのため、カメラ2の移動を考慮せずに座標を抽出した場合、当該座標から対象物の実際の動きの有無を評価できない虞がある。そこで、カメラ2が移動可能である場合、データ生成部336は、カメラ2の移動を考慮して、撮影画像から抽出した座標を補正してもよい。
上述したように、カメラ2は、移動可能な物体(図2に示すバックホウBH)に搭載される場合もある。この場合、カメラ2と対象物との位置関係が、カメラ2の移動によって変化する。そのため、カメラ2の移動によって、データ生成部336が抽出する座標の値が変化する。カメラ2が据置である場合(定点カメラの場合)、各撮影画像に設定される原点位置は、撮影対象となる作業対象領域に対して一定の位置である。一方、カメラ2が移動可能である場合、各撮影画像に設定される原点位置は、撮影対象となる作業対象領域に対して一定の位置とはならない。そのため、カメラ2の移動を考慮せずに座標を抽出した場合、当該座標から対象物の実際の動きの有無を評価できない虞がある。そこで、カメラ2が移動可能である場合、データ生成部336は、カメラ2の移動を考慮して、撮影画像から抽出した座標を補正してもよい。
例えば、データ生成部336は、予め設定されたカメラ2の基準位置と、撮影画像を取得したときのカメラ2の位置と、に基づき、撮影画像から取得した座標を補正してもよい。カメラ2の基準位置と、撮影画像を取得したときのカメラ2の位置と、に基づく座標の補正について、図7および図8を用いて説明する。図7は、対象物に対して平行に移動するカメラ2が対象物を撮影する場合の座標の補正について説明するための図である。図8は、対象物に対して近づくカメラ2が対象物を撮影する場合の座標の補正について説明するための図である。なお、図7および図8において、符号AOVはカメラ2の画角を示す。図9においても同様である。
なお、説明の前提として、データ生成部336は、カメラ2の位置を示すデータ(カメラ2の絶対座標;GPS位置情報)と方位を示すデータとをカメラ2から取得している。また、対象物がカメラ2から単位距離離れた場合に対象物に設定される枠の標準サイズ(例:隣接する2辺のそれぞれの長さ、または枠の面積)は、対象物毎に予め設定されている。また、ピクセルとミリメートル(mm)との変換値も予め特定されている。
(カメラの移動方向がX軸方向であるときの座標補正)
図7の符号701は、カメラ2が位置PO1から位置PO2に移動する様子を示す図である。符号702は、位置PO1において撮影したときの撮影画像の一例を示す図である。符号703は、位置PO2において撮影したときの撮影画像の一例を示す図である。本例では、位置PO1がカメラ2の基準位置に相当し、位置PO2が撮影画像を取得したときのカメラ2の位置に相当する。
図7の符号701は、カメラ2が位置PO1から位置PO2に移動する様子を示す図である。符号702は、位置PO1において撮影したときの撮影画像の一例を示す図である。符号703は、位置PO2において撮影したときの撮影画像の一例を示す図である。本例では、位置PO1がカメラ2の基準位置に相当し、位置PO2が撮影画像を取得したときのカメラ2の位置に相当する。
まず、データ生成部336は、位置PO1におけるカメラ2の絶対座標を特定する。また、データ生成部336は、位置PO1における、カメラ2から対象物OBまでの距離D11を特定する。符号702に示すように、画像取得部331は、位置PO1において撮影画像を取得する。当該撮影画像に対し、枠設定部335により、対象物OBの画像に対して枠FR1が設定されると共に、座標CO01,CO11およびCO21が特定される。また、枠FR1の辺の長さLxおよびLyが特定される。上述の通り、対象物OBに設定される枠の標準サイズは予め設定されているため、データ生成部336は、特定されたLxおよびLyの長さと枠の標準サイズとの比、および、対象物OBとカメラ2との単位距離から、距離D11(mm)を算出する。
次に、符号701に示すように、カメラ2が対象物OBに対して平行に(X軸方向に)距離D12(mm)移動したとする。このとき、符号703に示すように、画像取得部331は、位置PO2において撮影画像を取得する。当該撮影画像に対し、枠設定部335により、対象物OBの画像に対して枠FR2が設定されると共に、座標CO02,CO12およびCO22が特定される。なお、符号703に示す撮影画像において、実際には写り込まない位置PO1で撮影したときの対象物OBの画像と、対象物OBの画像に対して設定された枠FR1と、を説明の便宜上示している(破線部分)。また、データ生成部336は、位置PO2におけるカメラ2の絶対座標を特定する。データ生成部336は、位置PO1および位置PO2におけるカメラ2の絶対座標から、距離D12(mm)を算出する。
また、データ生成部336は、距離D11(mm)と距離D12(mm)とから、カメラ2の移動量に対応する、枠FR1から枠FR2への移動距離D13(ピクセル)を算出する。
ここで、位置PO1における撮影画像における横方向の全長(第1像面範囲と称する)をL1(mm)とする。横方向はX軸方向に対応する。第1像面範囲L1(mm)は、一次関数p×D11(mm)により算出できる。pは定数であり、使用されるカメラ2の光学系(レンズまたはイメージセンサのサイズ等)により決められる値である。また、撮影画像における対象物OBの移動距離(像面移動距離と称する)をD112(mm)とする。像面移動距離D112(mm)は、一次関数1×D12(mm)により算出できる。そして、移動距離D13(ピクセル)は、(像面移動距離D112(mm)/第1像面範囲L1(mm))×(撮影画像における横方向の全ピクセル数(ピクセル))により算出できる。
データ生成部336は、第1像面範囲L1(mm)を算出すると共に、像面移動距離D112(mm)を算出する。そして、データ生成部336は、第1像面範囲L1(mm)と像面移動距離D112(mm)とから、移動距離D13(ピクセル)を算出する。なお、第1像面範囲L1(mm)に代えて、位置PO2における撮影画像における横方向の全長が算出されてもよい。
ここで、位置PO1における撮影画像における横方向の全長(第1像面範囲と称する)をL1(mm)とする。横方向はX軸方向に対応する。第1像面範囲L1(mm)は、一次関数p×D11(mm)により算出できる。pは定数であり、使用されるカメラ2の光学系(レンズまたはイメージセンサのサイズ等)により決められる値である。また、撮影画像における対象物OBの移動距離(像面移動距離と称する)をD112(mm)とする。像面移動距離D112(mm)は、一次関数1×D12(mm)により算出できる。そして、移動距離D13(ピクセル)は、(像面移動距離D112(mm)/第1像面範囲L1(mm))×(撮影画像における横方向の全ピクセル数(ピクセル))により算出できる。
データ生成部336は、第1像面範囲L1(mm)を算出すると共に、像面移動距離D112(mm)を算出する。そして、データ生成部336は、第1像面範囲L1(mm)と像面移動距離D112(mm)とから、移動距離D13(ピクセル)を算出する。なお、第1像面範囲L1(mm)に代えて、位置PO2における撮影画像における横方向の全長が算出されてもよい。
そして、データ生成部336は、座標CO02,CO12およびCO22のそれぞれを、X軸方向の移動距離D13(ピクセル)を用いたアフィン変換により、位置PO1において撮影したと仮定したときの撮影画像における座標に変換する。具体的には、データ生成部336は、下記数1のTxに移動距離D13を代入し、下記数1のTyに1を代入する。また、データ生成部336は、下記数1のx’およびy’に、座標CO02,CO12およびCO22のそれぞれのx座標およびy座標を代入する。これにより、データ生成部336は、X軸方向へのカメラ2の移動量に対応する移動距離D13(ピクセル)分移動させた座標を取得できる。すなわち、データ生成部336は、X軸方向へのカメラ2の移動量を相殺した座標を取得できる。
(カメラの移動方向がY軸方向であるときの座標補正)
図8の符号801は、カメラ2が位置PO1から位置PO3に移動する様子を示す図である。符号802は、位置PO1において撮影したときの撮影画像の一例を示す図である。符号803は、位置PO3において撮影したときの撮影画像の一例を示す図である。本例では、位置PO1がカメラ2の基準位置に相当し、位置PO3が撮影画像を取得したときのカメラ2の位置に相当する。
図8の符号801は、カメラ2が位置PO1から位置PO3に移動する様子を示す図である。符号802は、位置PO1において撮影したときの撮影画像の一例を示す図である。符号803は、位置PO3において撮影したときの撮影画像の一例を示す図である。本例では、位置PO1がカメラ2の基準位置に相当し、位置PO3が撮影画像を取得したときのカメラ2の位置に相当する。
まず、データ生成部336は、位置PO1におけるカメラ2の絶対座標を特定する。また、データ生成部336は、位置PO1における、カメラ2から対象物OBまでの距離D11(mm)を特定する。
次に、符号801に示すように、カメラ2が対象物OBに対して近づくように(Y軸方向に)距離D22(mm)移動したとする。このとき、符号803に示すように、画像取得部331は、位置PO2において撮影画像を取得する。当該撮影画像に対し、枠設定部335により、対象物OBの画像に対して枠FR3が設定されると共に、座標CO03,CO13およびCO23が特定される。なお、符号803に示す撮影画像において、実際には写り込まない位置PO1で撮影したときの対象物OBの画像と、対象物OBの画像に対して設定された枠FR1と、を説明の便宜上示している(破線部分)。また、データ生成部336は、位置PO3におけるカメラ2の絶対座標を特定する。データ生成部336は、位置PO1および位置PO3におけるカメラ2の絶対座標から、距離D22(mm)を算出する。なお、データ生成部336は、枠FR3において特定されるLxおよびLyの長さと枠の標準サイズとの比、および、対象物OBとカメラ2との単位距離から、距離D11-D22(mm)または距離D22(mm)を算出してもよい。
ここで、位置PO1における撮影画像における横方向の全長(第1像面範囲と称する)をL1(mm)とする。第1像面範囲L1(mm)は、一次関数p×D11(mm)により算出できる。位置PO3における撮影画像における横方向の全長(第2像面範囲と称する)をL2(mm)とする。第2像面範囲L2(mm)は、一次関数p×(D11-D22)(mm)により算出できる。
データ生成部336は、第1像面範囲L1(mm)および第2像面範囲L2(mm)を算出する。そして、データ生成部336は、第1像面範囲L1(mm)と第2像面範囲L2(mm)との比率を用いたアフィン変換により、座標CO03,CO13およびCO23のそれぞれを、位置PO1において撮影したと仮定したときの撮影画像における座標に変換する。具体的には、データ生成部336は、下記数2のSxおよびSyに、(第1像面範囲L1(mm)/第2像面範囲L2(mm))という比率を代入する。また、データ生成部336は、下記数2のx’およびy’に、座標CO03,CO13およびCO23のそれぞれのx座標およびy座標を代入する。これにより、データ生成部336は、Y軸方向へのカメラ2の移動量を相殺した座標を取得できる。
なお、移動距離D23(ピクセル)は、(Lx(ピクセル)-Lx”(ピクセル))/2cosθ1により算出できる。上記式におけるLxは、枠FR3における横方向の辺の長さに対応するピクセル数、Lx”は撮影画像における横方向の全ピクセル数を指す。また、θ1は、対象物毎に予め設定されている。データ生成部336は、上記アフィン変換を行うことにより、座標CO03,CO13およびCO23のそれぞれを、移動距離D23(ピクセル)分移動させた座標を取得している。なお、データ生成部336は、移動距離D23を用いて、座標CO03,CO13およびCO23のそれぞれを、位置PO1において撮影したと仮定したときの撮影画像における座標に変換してもよい。
(カメラ2が回転するときの座標補正)
また、データ生成部336は、予め設定されたカメラ2の基準撮影方向と、撮影画像を取得したときのカメラ2の撮影方向との角度に基づき、撮影画像から取得した座標を補正してもよい。上記角度に基づく座標の補正について、図9を用いて説明する。図9は、カメラ2が鉛直方向を回転軸として回転するときに対象物を撮影する場合の座標の補正について説明するための図である。
また、データ生成部336は、予め設定されたカメラ2の基準撮影方向と、撮影画像を取得したときのカメラ2の撮影方向との角度に基づき、撮影画像から取得した座標を補正してもよい。上記角度に基づく座標の補正について、図9を用いて説明する。図9は、カメラ2が鉛直方向を回転軸として回転するときに対象物を撮影する場合の座標の補正について説明するための図である。
図9の符号901は、カメラ2が位置PO1から位置PO4に回転する様子を示す図である。符号902は、位置PO1において撮影したときの撮影画像の一例を示す図である。符号903は、位置PO4において撮影したときの撮影画像の一例を示す図である。本例では、位置PO1における撮影方向がカメラ2の基準撮影方向に相当し、位置PO4における撮影方向が、撮影画像を取得したときのカメラ2の撮影方向に相当する。また、符号904は、距離D32と距離D33との関係の一例を示す図である。
まず、データ生成部336は、位置PO1におけるカメラ2の絶対座標を特定する。また、データ生成部336は、位置PO1における、カメラ2から対象物OBまでの距離D11(mm)を特定する。
次に、符号901に示すように、位置PO1の状態からカメラ2が角度AN(deg)分回転したとする。このとき、符号903に示すように、画像取得部331は、位置PO4において撮影画像を取得する。当該撮影画像に対し、枠設定部335により、対象物OBの画像に対して枠FR4が設定されると共に、座標CO04,CO14およびCO24が特定される。なお、符号903に示す撮影画像において、実際には写り込まない位置PO1で撮影したときの対象物OBの画像と、対象物OBの画像に対して設定された枠FR1と、を説明の便宜上示している(破線部分)。
ここで、枠FR1において、座標CO01と座標CO11又はCO21との、横方向(X軸方向に対応)の距離をD33とする。また、枠FR4において、座標CO04と座標CO14又はCO24との、横方向(X軸方向に対応)の距離をD32とする。このとき、符号904に示すように、距離D32は、距離D33×CosANと算出できる。すなわち、カメラ2の角度AN(deg)分の回転に伴う、枠FR1から枠FR4への縮小率は、CosANと表現できる。
そのため、データ生成部336は、CosANを用いたアフィン変換により、枠FR4の大きさを枠FR1の大きさに変換できる。具体的には、データ生成部336は、上記数2のSxにCosAN、上記数2のSyに1を代入する。また、データ生成部336は、上記数2のx’およびy’に、座標CO14およびCO24のそれぞれのx座標およびy座標を代入する。これにより、データ生成部336は、枠FR4の大きさを枠FR1の大きさに変換した後の座標を取得できる。
また、枠FR1の座標CO01(中心座標)と枠FR4の座標CO04(中心座標)との距離をD31とする。枠FR4の位置を距離D31分移動させることにより、枠FR4の位置を枠FR1の位置に変換できる。カメラ2の角度AN(deg)分の回転に伴う、枠FR1から枠FR4への平行移動量は、(角度AN(deg)/画角AN0)×(撮影画像における横方向の全ピクセル数(ピクセル))により算出できる。
データ生成部336は、上記平行移動量を用いたアフィン変換により、枠FR4の位置を枠FR1の位置に変換できる。具体的には、データ生成部336は、上記平行移動量を算出する。そして、データ生成部336は、上記数1のTxに上記平行移動量、および、上記数1のTyに1を代入する。また、データ生成部336は、上記数1のx’およびy’に、座標CO14およびCO24のそれぞれのx座標およびy座標を代入する。これにより、データ生成部336は、枠FR4の位置を枠FR1の位置に変換した後の座標を取得できる。
そのため、データ生成部336は、CosANを用いたアフィン変換により、枠FR4の大きさを枠FR1の大きさに変換できる。具体的には、データ生成部336は、上記数2のSxにCosAN、上記数2のSyに1を代入する。また、データ生成部336は、上記数2のx’およびy’に、座標CO14およびCO24のそれぞれのx座標およびy座標を代入する。これにより、データ生成部336は、枠FR4の大きさを枠FR1の大きさに変換した後の座標を取得できる。
また、枠FR1の座標CO01(中心座標)と枠FR4の座標CO04(中心座標)との距離をD31とする。枠FR4の位置を距離D31分移動させることにより、枠FR4の位置を枠FR1の位置に変換できる。カメラ2の角度AN(deg)分の回転に伴う、枠FR1から枠FR4への平行移動量は、(角度AN(deg)/画角AN0)×(撮影画像における横方向の全ピクセル数(ピクセル))により算出できる。
データ生成部336は、上記平行移動量を用いたアフィン変換により、枠FR4の位置を枠FR1の位置に変換できる。具体的には、データ生成部336は、上記平行移動量を算出する。そして、データ生成部336は、上記数1のTxに上記平行移動量、および、上記数1のTyに1を代入する。また、データ生成部336は、上記数1のx’およびy’に、座標CO14およびCO24のそれぞれのx座標およびy座標を代入する。これにより、データ生成部336は、枠FR4の位置を枠FR1の位置に変換した後の座標を取得できる。
このように、データ生成部336は、上記2つのアフィン変換を行うことより、座標CO04,CO14およびCO24のそれぞれを、位置PO1において撮影したと仮定したときの撮影画像における座標に変換できる。すなわち、データ生成部336は、カメラ2の回転量を相殺した座標を取得できる。
上記のように、データ生成部336は、カメラ2のX軸方向への移動、カメラ2のY軸方向への移動、およびカメラ2の回転のそれぞれにおいて座標の変換を行う。これにより、データ生成部336は、取得した全ての撮影画像から抽出した座標について、基準位置および基準撮影方向において撮影したと仮定したときの撮影画像において抽出する座標の値に変換できる。
〔作業管理装置における処理〕
図10は、作業管理装置3における処理(作業管理方法)の一例を示すフローチャートである。図10に示すように、画像取得部331は、カメラ2から撮影画像を取得する(S1:画像取得工程)。指標出力部332は、画像取得部331が取得した撮影画像を、指標推定モデル351に入力する。指標出力部332は、指標推定モデル351の出力結果として、推定された検出クラスを出力する。換言すれば、指標出力部332は、撮影画像に含まれる検出クラスを推定する(S2)。
図10は、作業管理装置3における処理(作業管理方法)の一例を示すフローチャートである。図10に示すように、画像取得部331は、カメラ2から撮影画像を取得する(S1:画像取得工程)。指標出力部332は、画像取得部331が取得した撮影画像を、指標推定モデル351に入力する。指標出力部332は、指標推定モデル351の出力結果として、推定された検出クラスを出力する。換言すれば、指標出力部332は、撮影画像に含まれる検出クラスを推定する(S2)。
位置特定部333は、撮影画像において、指標出力部332が出力した検出クラスの位置を特定する(S3)。制御部33は、位置特定部333が特定した検出クラスの位置が複数存在する場合には、複数の検出クラスの位置関係に基づき、撮影画像に、複数の水道工事の実施風景が含まれているか否かを判定する。換言すれば、制御部33は、撮影画像内の異なる領域において水道工事が実施されているか否かを判定する。制御部33は、撮影画像内の異なる領域において水道工事が実施されていると判定した場合には、領域毎に以降の処理を実行する。
画像抽出部334は、画像取得部331が取得した撮影画像から、水道工事に関与する対象物の画像を抽出する(S4:画像抽出工程)。本実施形態では、指標出力部332が出力した検出クラスに対応する対象物の画像を抽出する。
枠設定部335は、画像抽出部334が抽出した対象物の画像に対して、当該対象物の画像の大きさに応じた枠を設定する(S5)。データ生成部336は、枠設定部335が設定した枠において予め設定された位置の座標として、枠の中心座標を算出する(S6)。つまり、S5およびS6において、データ生成部336は、画像抽出部334が抽出した対象物の画像を含む領域内の座標を抽出する。
カメラ2は、経時的に作業対象領域を撮影する。そのため、画像取得部331は、カメラ2から撮影画像を経時的に取得する。従って、制御部33は、画像取得部331が取得した撮影画像に対して、順次S2~S6の処理を実行する。
S6の処理後、制御部33は、規定数の撮影画像に対して、S2~S6の処理を実行したか否かを判定する(S7)。制御部33が、S2~S6の処理を実行した撮影画像の数が規定数未満である場合(S7でNO)、S1の処理に戻る。一方、制御部33が、規定数の撮影画像に対して、S2~S6の処理を実行したと判定した場合(S7でYES)、データ生成部336は、抽出した座標の時系列データを生成する(S8:データ生成工程)。本実施形態では、データ生成部336は、枠の中心座標の時系列データを生成する。
S7でYESの場合、画像抽出部334が画像を抽出した対象物について、経時的に座標が抽出されている。そのため、データ生成部336は、当該対象物について、抽出した座標の時系列データを生成することが可能である。また、撮影画像において、検出クラスに対応する対象物の画像が複数存在する場合、画像抽出部334は、対象物毎に画像を抽出する。そのため、データ生成部336は、対象物毎に、座標の時系列データを生成することが可能である。本実施形態では、データ生成部336は、抽出した中心座標のX座標の時系列データおよびY座標の時系列データを生成する。
なお、上記規定数は、データ生成部336が座標の時系列データを生成でき、かつ、後段のS11の処理において、線形データ抽出部337が有意な線形データを抽出できる程度に規定されていればよい。上記規定数は、例えば、画像取得部331が5分間に取得した撮影画像の数である。例えば、画像取得部331が1秒あたり1枚の撮影画像を取得している場合、撮影画像の数は18000枚(=5(分)×60×60)となる。
データ生成部336は、生成した座標の時系列データについて、座標を正規化する(S9)。なお、S9の処理は、S6~S8の処理の間に実行されてもよい。データ生成部336は、正規化した座標の時系列データにおいて、外れ値を除去する(S10)。線形データ抽出部337は、データ生成部336が外れ値を除去した座標の時系列データから、線形データを抽出する(S11:線形データ抽出工程)。重みづけ処理部338は、線形データ抽出部337が線形データを抽出した時間帯に対して、当該時間帯以外の時間帯よりも重みづけする(S12)。制御部33は、S9~S12の処理を、各対象物の座標の時系列データに対して実行する。また、制御部33は、S9~S12の処理を、X座標の時系列データおよびY座標の時系列データのそれぞれについて実行する。
その後、作業推定部339は、線形データ抽出部337が抽出した線形データと、撮影画像に含まれる対象物と、に基づき、撮影画像の取得時点において実施されている作業を、実施中の作業として推定する(S13:作業推定工程)。本実施形態では、作業推定部339は、実施作業推定モデル352に、指標出力部332が出力した、対象物に対応する検出クラスと、線形データ抽出部337が抽出した線形データと、を入力することにより、実施中の作業を推定する。なお、作業推定部339は、重みづけ処理部338による重みづけの結果と、撮影画像に含まれる対象物と、に基づき、実施中の作業を推定してもよい。
表示制御部340は、作業推定部339の推定結果を、表示装置4に表示する(S14)。表示制御部340は、その他、対象物毎の座標の時系列データ(線形データを含んでもよい)、および、対象物毎の重みづけの結果等を、表示装置4に表示してもよい。表示制御部340は、撮影画像内の異なる領域において水道工事が実施されていると判定されている場合には、領域毎に、上記種々のデータを表示装置4に表示してもよい。
〔ソフトウェアによる実現例〕
作業管理装置3(以下、「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に制御部33に含まれる各部)としてコンピュータを機能させるためのプログラムにより実現することができる。
作業管理装置3(以下、「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に制御部33に含まれる各部)としてコンピュータを機能させるためのプログラムにより実現することができる。
この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。
上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。
また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
3 作業管理装置
2 カメラ
4 表示装置(報知部)
331 画像取得部
332 指標出力部
334 画像抽出部
336 データ生成部
337 線形データ抽出部
338 重みづけ処理部
339 作業推定部
335 枠設定部
340 表示制御部(出力部)
351 指標推定モデル
352 実施作業推定モデル
2 カメラ
4 表示装置(報知部)
331 画像取得部
332 指標出力部
334 画像抽出部
336 データ生成部
337 線形データ抽出部
338 重みづけ処理部
339 作業推定部
335 枠設定部
340 表示制御部(出力部)
351 指標推定モデル
352 実施作業推定モデル
Claims (11)
- 水道工事における作業対象領域が含まれる撮影画像を経時的に取得する画像取得部と、
経時的に取得した前記撮影画像のそれぞれから、前記水道工事に関与する少なくとも1つの対象物の画像を抽出する画像抽出部と、
前記撮影画像のそれぞれにおいて同一と推定される対象物の画像毎に、当該画像を含む領域内の座標を経時的に抽出することにより、前記座標の時系列データを生成するデータ生成部と、
前記座標の時系列データから、連続的かつ規則的に値が変化する部分である線形データを抽出する線形データ抽出部と、
前記線形データと、前記撮影画像に含まれる対象物の画像と、に基づき、前記撮影画像の取得時点において実施されている作業を推定する作業推定部と、を備える、作業管理装置。 - 前記対象物の画像の周囲または前記対象物の画像の一部分の周囲に、前記対象物の画像の大きさに応じた枠を設定する枠設定部を備え、
前記データ生成部は、前記枠において予め設定された位置の座標を、前記領域内の座標として抽出する、請求項1に記載の作業管理装置。 - 前記データ生成部は、前記座標を、前記座標の抽出元である前記対象物の画像の大きさを用いて正規化する、請求項1または2に記載の作業管理装置。
- 前記データ生成部は、前記座標の時系列データから外れ値を除去し、
前記線形データ抽出部は、前記外れ値を除去した前記座標の時系列データから、前記線形データを抽出する、請求項1から3の何れか1項に記載の作業管理装置。 - 機械学習を用いて、前記水道工事における作業状態を評価するための、前記対象物を含む複数の指標のうち、ある時点での作業において出現している少なくとも1つの指標を推定するように構築された指標推定モデルに、前記撮影画像を入力することにより、前記撮影画像の取得時点での作業において出現していると推定される少なくとも1つの指標を出力する指標出力部を備え、
前記作業推定部は、前記線形データと、前記指標出力部の出力結果と、に基づき、前記撮影画像の取得時点において実施されている作業を推定する、請求項1から4の何れか1項に記載の作業管理装置。 - 前記線形データ抽出部が前記線形データを抽出した場合、前記線形データを抽出した前記座標の時系列データの生成元である対象物として出力された前記指標において、前記線形データを抽出した時間帯に対して、前記対象物に動きが生じているものとして、前記時間帯以外の時間帯よりも重みづけする重みづけ処理部を備える、請求項5に記載の作業管理装置。
- 前記作業対象領域を撮影するカメラを備え、
前記データ生成部は、予め設定された前記カメラの基準位置と、前記撮影画像を取得したときの前記カメラの位置と、に基づき、前記座標を補正する、請求項1から6の何れか1項に記載の作業管理装置。 - 前記作業推定部は、機械学習を用いて、前記撮影画像の取得時点において実施している作業を推定するように構築された実施作業推定モデルに、(i)前記水道工事における作業状態を評価するための、前記対象物を含む複数の指標のうちの少なくとも1つと、(ii)前記線形データと、を入力することにより、前記撮影画像の取得時点において実施している作業を推定する、請求項1から7の何れか1項に記載の作業管理装置。
- 報知部と通信可能に接続でき、
前記作業推定部の推定結果、および、前記座標の時系列データの少なくとも何れかを、前記報知部から出力する出力部を備える、請求項1から8の何れか1項に記載の作業管理装置。 - 水道工事における作業対象領域が含まれる撮影画像を経時的に取得する画像取得工程と、
経時的に取得した前記撮影画像のそれぞれから、前記水道工事に関与する少なくとも1つの対象物の画像を抽出する画像抽出工程と、
前記撮影画像のそれぞれにおいて同一と推定される対象物の画像毎に、当該画像を含む領域内の座標を経時的に抽出することにより、前記座標の時系列データを生成するデータ生成工程と、
前記座標の時系列データから、連続的かつ規則的に値が変化する部分である線形データを抽出する線形データ抽出工程と、
前記線形データと、前記線形データを抽出した前記座標の時系列データの生成元である対象物と、に基づき、前記撮影画像の取得時点において実施されている作業を推定する作業推定工程と、を含む、作業管理方法。 - (i)水道工事における作業状態を評価するための複数の指標の少なくとも1つと、(ii)前記水道工事における作業対象領域が含まれる撮影画像を経時的に取得した結果抽出される、前記撮影画像に含まれる前記指標の1つである対象物の画像に含まれる座標の時系列データにおいて、連続的かつ規則的に値が変化する部分である線形データと、が入力される入力層と、
前記水道工事における作業を出力する出力層と、
前記複数の指標および複数の前記線形データと、複数の前記作業と、に基づき、パラメータが学習された中間層と、を備え、
前記指標と前記線形データとが前記入力層に入力された場合に、前記中間層による演算を経て、前記撮影画像の取得時点において行われている作業を前記出力層から出力するように、コンピュータを機能させる、実施作業推定モデル。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021125962A JP2023020547A (ja) | 2021-07-30 | 2021-07-30 | 作業管理装置、作業管理方法、および実施作業推定モデル |
EP22848971.2A EP4379654A1 (en) | 2021-07-30 | 2022-04-25 | Work management device, work management method, and work-in-progress estimation model |
PCT/JP2022/018669 WO2023007889A1 (ja) | 2021-07-30 | 2022-04-25 | 作業管理装置、作業管理方法、および実施作業推定モデル |
CA3226958A CA3226958A1 (en) | 2021-07-30 | 2022-04-25 | Work management device, work management method, and work-in-progress estimation model |
TW111117106A TW202307326A (zh) | 2021-07-30 | 2022-05-06 | 作業管理裝置、作業管理方法、及實施作業推定模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021125962A JP2023020547A (ja) | 2021-07-30 | 2021-07-30 | 作業管理装置、作業管理方法、および実施作業推定モデル |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023020547A true JP2023020547A (ja) | 2023-02-09 |
Family
ID=85086498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021125962A Pending JP2023020547A (ja) | 2021-07-30 | 2021-07-30 | 作業管理装置、作業管理方法、および実施作業推定モデル |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP4379654A1 (ja) |
JP (1) | JP2023020547A (ja) |
CA (1) | CA3226958A1 (ja) |
TW (1) | TW202307326A (ja) |
WO (1) | WO2023007889A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10850177B2 (en) * | 2016-01-28 | 2020-12-01 | Nippon Telegraph And Telephone Corporation | Virtual environment construction apparatus, method, and computer readable medium |
JP6817974B2 (ja) * | 2018-01-10 | 2021-01-20 | 株式会社 日立産業制御ソリューションズ | 計算機システム |
JP2020107341A (ja) | 2018-12-27 | 2020-07-09 | 株式会社クボタ | 水道工事管理システム、報知装置、水道工事管理方法、およびプログラム |
JP7240573B2 (ja) * | 2019-03-15 | 2023-03-16 | ダイダン株式会社 | 施工支援システムおよび施工支援装置 |
-
2021
- 2021-07-30 JP JP2021125962A patent/JP2023020547A/ja active Pending
-
2022
- 2022-04-25 EP EP22848971.2A patent/EP4379654A1/en active Pending
- 2022-04-25 CA CA3226958A patent/CA3226958A1/en active Pending
- 2022-04-25 WO PCT/JP2022/018669 patent/WO2023007889A1/ja active Application Filing
- 2022-05-06 TW TW111117106A patent/TW202307326A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
TW202307326A (zh) | 2023-02-16 |
EP4379654A1 (en) | 2024-06-05 |
CA3226958A1 (en) | 2023-02-02 |
WO2023007889A1 (ja) | 2023-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017061518A1 (ja) | 施工管理システム、施工管理方法、及び管理装置 | |
JP6322612B2 (ja) | 施工管理システム及び形状計測方法 | |
CN112258567A (zh) | 物体抓取点的视觉定位方法、装置、存储介质及电子设备 | |
CN102798456B (zh) | 一种工程机械臂架系统工作幅度的测量方法、装置及系统 | |
JP6867132B2 (ja) | 作業機械の検出処理装置及び作業機械の検出処理方法 | |
CN109541630A (zh) | 一种适用于建筑物室内平面2d slam测绘的方法 | |
JP2007327938A (ja) | 画像処理装置及びその処理方法 | |
JP6585697B2 (ja) | 施工管理システム | |
JP2011039918A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
WO2024057757A1 (ja) | 演算装置、演算方法およびプログラム | |
CN114174608A (zh) | 工程机械的位置确定系统 | |
WO2011030771A1 (ja) | 変位計測方法、変位計測装置及び変位計測プログラム | |
CN104197867A (zh) | 一种基于近景摄影测量技术的台阶面平整度统计方法 | |
JP2024046228A (ja) | 演算装置、演算方法およびプログラム | |
Wen et al. | 3D Excavator Pose Estimation Using Projection-Based Pose Optimization for Contact-Driven Hazard Monitoring | |
JP6606230B2 (ja) | 形状計測システム | |
WO2023007889A1 (ja) | 作業管理装置、作業管理方法、および実施作業推定モデル | |
CN111425183B (zh) | 一种地质勘探孔位定位方法及定位机器人 | |
JP6478305B1 (ja) | Slamの手法を応用した矢板の地中位置測定方法とその装置 | |
JP4550081B2 (ja) | 画像測定方法 | |
JP2020016147A (ja) | 形状計測システム及び形状計測方法 | |
JP2017190587A (ja) | こそく管理装置 | |
JP7166326B2 (ja) | 施工管理システム | |
JP2023105835A (ja) | 環境地図生成装置、環境地図生成方法およびプログラム | |
JP2020181241A (ja) | 三次元測量装置および三次元測量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231214 |