JP7131958B2 - 通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム - Google Patents
通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム Download PDFInfo
- Publication number
- JP7131958B2 JP7131958B2 JP2018090810A JP2018090810A JP7131958B2 JP 7131958 B2 JP7131958 B2 JP 7131958B2 JP 2018090810 A JP2018090810 A JP 2018090810A JP 2018090810 A JP2018090810 A JP 2018090810A JP 7131958 B2 JP7131958 B2 JP 7131958B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- prediction
- accident
- worker
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Helmets And Other Head Coverings (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
ステムであってもよい。
モデル生成ステップによって生成されたモデルを通知装置へ送信する送信ステップと、カメラによって撮影された画像、及び通知装置の入力ステップによって入力された予測の正否情報を、通知装置から受信する受信ステップと、受信ステップによって受信したカメラによって撮影された画像、及び予測の正否情報を学習データとした機械学習によりモデルを更新するモデル更新ステップと、を実行し、通知装置の取得ステップは、更新されたモデルを情報処理装置から取得する、情報処理方法であってもよい。
図1は、本実施形態に係る情報処理システム100の構成の一例を示している。図1に示されるように、情報処理システム100は、施工現場において作業する作業者へ事故の予測を通知する通知装置1を含む。
次に情報処理システム100を形成する各装置のハードウエア構成の一例を説明する。図2は、通知装置1のハードウエア構成の概要の一例を示している。図2に示されるように、通知装置1は、施工現場において作業する作業者が被るヘルメット2を備える。ヘルメット2の前部及び後部には、2つのカメラモジュール3がそれぞれ固定される。ここで、カメラモジュール3は、本発明の「通知装置が備えるカメラ」の一例である。カメラモジュール3は、例えば粘着テープによってヘルメット2へ固定される。また、カメラモジュール3には、IC(Integrated Circuit)チップ4と、外部の電子機器との通信を行うアンテナ5を備える。ICチップ4は、CPU(Central Processing Unit)6、RAM(Random Access Memory)7を備える。また、ヘルメット2には、周囲を照らすライト8が固定される。また、通知装置1は、カメラモジュール3と無線通信するスピーカー9、及び端末20を備える
。
次に情報処理システム100を形成する各装置の機能構成の一例を説明する。図5は、通知装置1のカメラモジュール3の機能構成の概要の一例を示している。図5に示されるように、カメラモジュール3は、無線信号の送受信の実行を司る通信部10を備える。ここで、通信部10は、本発明の「通知装置が備える送信手段」及び「通知装置が備える受信手段」の一例である。また、カメラモジュール3は、撮影処理の実行を司る撮影処理部11を備える。また、カメラモジュール3は、撮影処理部11によって撮影処理された画像情報から物体を識別する処理の実行を司る識別部12を備える。また、カメラモジュール3は、識別部12において識別された物体から事故を予測する処理の実行を司る事故予測部13を備える。事故予測部13では、物体情報と、事故の種類の情報を出力する。ここで、識別部12及び事故予測部13は、本発明の「予測手段」の一例である。また、カメラモジュール3は、事故が予測された場合、スピーカー9を制御する制御信号をスピーカー9へ送信する処理の実行を司る通知部14を備える。通知部14は、また、事故が予測された場合、画像情報と事故の種類の情報を端末20へ送信する処理の実行を司る。ここで、通知部14は、本発明の「通知手段」の一例である。また、カメラモジュール3は、各処理の実行を行うプログラムやデータ等の情報の記憶処理の実行を司る記憶部15を備える。カメラモジュール3は、RAM7に展開されたコンピュータプログラムを解釈及び実行するCPU6が動作することにより、通信部10、撮影処理部11、識別部12、事故予測部13、通知部14、及び記憶部15を実現する。
る。ここで、通信部56は、本発明の「情報処理装置が備える送信手段」及び「情報処理装置が備える受信手段」の一例である。また、サーバ50は、画像データや、機械学習に使用されるアルゴリズムを含むプログラム等の情報を記憶する処理の実行を司る記憶部57を備える。機械学習に使用されるアルゴリズムは、例えばニューラルネットワークモデルの各階層の重み因子の最適化の際に使用される誤差逆伝播法や回帰分析といったアルゴリズムである。また、サーバ50は、画像データを学習データとする機械学習により、画像データを入力情報とし、当該画像に映る物体を識別し、識別した物体情報を出力する識別モデルを生成する処理の実行を司る識別モデル生成部58を備える。ここで、識別モデル生成部58は、本発明の「モデル生成手段」の一例である。
次に情報処理システム100を形成する各装置の動作の一例を説明する。カメラモジュール3は、識別モデルを生成する場合に使用される学習データを収集する。図8は、識別モデルを生成する場合に使用される学習データを収集するカメラモジュール3の動作を説明したフローチャートの一例を示している。
ステップS11では、ヘルメット2に固定されるカメラモジュール3によって、施工現
場が撮影される。カメラモジュール3はヘルメットの前後に2つ固定されているため、おおよそ全方位の周囲の環境が撮影される。夜間や屋内などの暗い環境を撮影する場合、ライト8が点灯される。そして、撮影された画像に関する情報は、撮影処理部11によって処理される。例えば、カメラモジュール3によって撮影された画像が動画である場合、画像は、撮影処理部11によって静止画へ変換される。
ステップS12では、通信部10によって、撮影された画像に関する情報が端末20へ送信される。
ステップS13では、通信部10において、端末20から画像及び画像に映る物体の名称に関する情報が受信される。受信した情報は、記憶部15においてRAM7に記憶される。
ステップS14では、RAM7に画像及び画像に映る物体の名称に関する情報が所定量記憶されたか否かの判定が行われる。RAM7に画像及び画像に映る物体の名称に関する情報が所定量記憶されていない場合、ステップS11からステップS13の処理が、実行される。
ステップS14において、RAM7に画像及び画像に映る物体の名称に関する情報が所定量記憶されていると判定された場合、通信部10において、サーバ50へ画像及び画像に映る物体の名称に関する情報が送信される。
ステップS101では、通信部10において、サーバ50から識別モデル、及び物体の名称と当該物体に起因される事故の種類との対応関係に関する情報が受信される。受信した識別モデル、及び対応関係に関する情報は、記憶部15において記憶される。ここで、図10は、物体の名称と当該物体に起因される事故の種類との対応関係の一例を例示する。図10に示される当該対応関係は、サーバ50において、施工現場において過去に起こった事故が集計され、当該集計データに基づいて作成される。
ステップS102では、施工現場において作業者が作業している場合に、カメラモジュール3によって作業者の周囲の環境が撮影される。
ステップS103では、識別部12において、ステップS102で撮影された画像情報から、画像に映る物体が識別され、識別した物体情報が出力される。物体の識別は、サーバ50から受信し、記憶部15に記憶される識別モデルに画像情報を入力することによって実現される。また、識別モデルが複数存在する場合、画像情報は、それぞれの識別モデルに入力され、物体情報の出力が得られる。
ステップS104では、事故予測部13において、識別部12において得られた画像に映る物体情報に基づき、予測される事故の種類が出力される。ここで、事故の予測の場合に使用される物体情報とは、例えば物体の名称である。そして、予測される事故の種類は、図10に示される物体の名称と当該物体に起因される事故の種類との対応関係を参照することにより実現される。識別部12において得られた画像に映る物体の名称が対応関係に存在する場合、対応関係に記載される物体の名称と対応する事故の種類が、予測される事故の種類の出力となる。ここで、事故の種類の出力は、対応関係に記載される所定の事故の種類に対応する複数の物体が、画像から全て識別された場合に、行われてもよい。一方、識別部12において得られた画像に映る物体の名称が対応関係に存在しない場合、事故の種類は出力されない。
ステップS105では、事故予測部13において、予測される事故の種類が出力されたか否かの判定が行われる。
ステップS106では、予測される事故の種類が出力された場合、通知部14において、スピーカー9の制御信号が生成され、通信部10を介してスピーカー9へ制御信号が送信される。そして、スピーカー9が当該制御信号を受信し、音を発することにより、作業者へ危険が報知される。
ステップS107では、通信部10において、通知した予測される事故の正否に関する情報が端末20から受信される。予測される事故の正否に関する情報とは、例えば端末20へ通知した画像、当該画像に映る物体の名称の正否情報や、当該画像に映る物体の正しい名称に関する情報である。
ステップS108では、記憶部15において、端末20から受信した予測される事故の正否に関する情報が記憶される。
ステップS109では、記憶部15において、端末20から受信した予測される事故の正否に関する情報が所定量記憶されたか否かの判定が行われる。
ステップS110では、記憶部15において、端末20から受信した予測される事故の正否に関する情報が所定量記憶されたと判定された場合、予測される事故の正否に関する情報が通信部10を介してサーバ50へ送信される。
ステップS21では、通信部30において、カメラモジュール3によって撮影された施工現場の画像に関する情報が、通知装置1の通信部10から受信される。
ステップS22では、表示部31において、受信した画像情報は、タッチパネルディスプレイ29に表示される。
ステップS23では、タッチパネルディスプレイ29に表示された画像に映る物体の名称に関する情報が、タッチパネルディスプレイ29がタップされることにより入力される。そして、入力部32においてタッチパネルディスプレイ29からの入力信号は処理される。
ステップS24では、タッチパネルディスプレイ29に表示された画像、及び入力部32において入力された物体の名称に関する情報が、通信部30においてカメラモジュール3の通信部10へ送信される。
ステップS201では、通信部30において、予測される事故に関する情報が、通知装置1の通信部10から受信され、危険が報知される。予測される事故に関する情報とは、例えば、予測される事故の種類が出力された場合の画像情報、画像に映る物体の名称に関する情報、及び予測される事故の種類に関する情報等である。
ステップS202では、表示部31において、受信した画像情報、画像に映る物体の名称に関する情報、及び予測される事故の種類に関する情報が、タッチパネルディスプレイ29に表示される。
ステップS203では、タッチパネルディスプレイ29に表示された画像に映る物体の名称の正否情報や、当該画像に映る物体の正しい名称に関する情報が、タッチパネルディスプレイ29がタップされることにより入力される。そして、入力部32においてタッチパネルディスプレイ29からの入力信号は処理される。
ステップS204では、入力部32において入力された予測される事故の正否に関する情報が、通信部30においてカメラモジュール3の通信部10へ送信される。
ステップS31では、通信部56において、カメラモジュール3の通信部10から施工現場の画像及び当該画像に映る物体の名称に関する情報が受信される。受信した情報は記憶部57において大容量記憶装置54へ記憶される。
ステップS32では、識別モデル生成部58において、大容量記憶装置54に記憶される施工現場の画像及び当該画像に映る物体の名称に関する情報を学習データとする機械学習が実行される。そして、施工現場の画像データを入力情報とし、当該画像に映る物体を識別し、識別した物体情報を出力する識別モデルが生成される。
ステップS33では、対応関係生成部59において、図10に示されるような物体の名称と当該物体に起因される事故の種類との対応関係が生成される。
ステップS34では、通信部56において、生成された識別モデルと対応関係に関する情報が圧縮され、カメラモジュール3の通信部10へ送信される。
ステップS301では、通信部56において、カメラモジュール3の通信部10から、予測される事故の正否に関する情報が受信される。予測される事故の正否に関する情報とは、例えばカメラモジュール3によって撮影された画像、当該画像から識別モデルによって識別された物体に関する情報(例えば物体の名称)の正否情報や、当該物体の正しい名称に関する情報である。受信した予測される事故の正否に関する情報は、大容量記憶装置54へ記憶される。
ステップS302では、識別モデル更新部60において、予測される事故の正否に関する情報を学習データとする機械学習が実行されることにより、識別モデルの更新が行われる。
ステップS303では、通信部56において、更新された識別モデルが通知装置1の通信部10へ送信される。
次に情報処理システム100の処理の一例を説明する。図15は、識別モデルを生成する学習フェーズが実行される場合の情報処理システム100の処理の一例を示すシーケンス図である。
ステップS11の処理が実行され、カメラモジュール3による施工現場の撮影が行われる。図17は、一方のカメラモジュール3によって撮影された施工現場の画像の一例を示している。画像には、コンテナ16及びワイヤー17が映っている。
ステップS12の処理が実行され、カメラモジュール3によって撮影された施工現場の画像が端末20へ送信される。
端末20において、ステップS21からステップS23の処理が実行される。ステップS21からステップS23の処理の実行により、カメラモジュール3によって撮影された施工現場の画像に映る物体の名称(コンテナ、ワイヤー)が、端末20のタッチパネルディスプレイ29を介して入力される。
ステップS24の処理が実行され、施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が端末20からカメラモジュール3へ送信される。
ステップS13の処理が実行され、カメラモジュール3において、施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が端末20から受信される。また、ステップS14の処理が実行され、RAM7に施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が所定量記憶されたか判定が行われる。そして、RAM7に施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が所定量記憶されていないと判定された場合、パターン1P01からパターン1P04までの処理が繰り返される。
ステップS31からステップS33の処理が実行される。例えば、サーバ50において、カメラモジュール3から受信した施工現場の画像(例えば図17)、及び当該施工現場の画像に映る物体の名称(コンテナ、ワイヤー)に関する情報を学習データとする機械学習が実行され、識別モデルが生成される。識別モデルは、施工現場の画像からコンテナを識別する識別モデル、施工現場の画像からワイヤーを識別する識別モデルといったように、物体毎の識別モデルが生成される。また、識別モデルは、コンテナ、ワイヤーに限らず、ナイフ、脚立、パイプ、床段差等の、施工現場において存在し得る物体毎の識別モデル
が生成される。また、図10に示されるような複数の物体と、当該複数の物体に起因される事故の種類との対応関係が生成される。
ステップS34の処理が実行され、サーバ50において生成された識別モデル、及び複数の物体と、当該複数の物体に起因される事故の種類との対応関係に関する情報が圧縮され、カメラモジュール3へ送信される。
ステップS101からステップS104の処理が実行される。カメラモジュール3は、施工現場を撮影し、撮影された画像と、サーバ50から受信した識別モデル、及び物体の名称と当該物体に起因される事故の種類との対応関係に基づき、事故の予測を行う。
ステップS105の処理が実行され、識別モデルから事故の種類の出力が行われたか否かの判定が行われる。そして、事故の種類の出力が行われたと判定された場合、ステップS106の処理が実行され、予測される事故に関する情報が端末20へ送信され、危険が報知される。予測される事故に関する情報とは、例えば、図18に示される画像、画像に映る物体の名称情報(コンテナ)、及び予測される事故の種類に関する情報(はさまれ)等である。また、スピーカー9から音が発せられ、作業者へ危険が報知される。
ステップS201からステップS203の処理が実行される。端末20のタッチパネルディスプレイ29に、予測される事故に関する情報が表示される。
ステップS204の処理が実行され、タッチパネルディスプレイ29から入力された予測される事故の正否に関する情報が、カメラモジュール3へ送信される。
ステップS107からステップS108の処理が実行され、端末20から予測される事故の正否に関する情報が受信され、受信した予測される事故の正否に関する情報がRAM7へ記憶される。
ステップS109の処理が実行され、RAM7に予測される事故の正否に関する情報が所定量記憶されたか否かの判定を行う。そして、RAM7に予測される事故の正否に関する情報が所定量記憶されていないと判定された場合、パターン2P01のS102の処理からパターン2P06の処理が繰り返し実行される。
RAM7に予測される事故の正否に関する情報が所定量記憶されたと判定された場合、ステップS110の処理が実行され、予測される事故の正否に関する情報がサーバ50へ送信される。
ステップS301からステップS302の処理が実行され、サーバ50において、受信した予測される事故の正否に関する情報を学習データとする機械学習が実行され、識別モデルが更新される。本実施形態では、図18に示される画像からワイヤーが識別されなかったため、例えばサーバ50において図18に示される画像と、物体の名称「ワイヤー」というデータを学習データとする機械学習が実行され、識別モデルが更新される。
ステップS303の処理が実行され、更新された識別モデルがサーバ50からカメラモジュール3へ送信される。そして、パターン2P01からの処理が繰り返し実行される。
上記のような情報処理システムであれば、サーバ50において、施工現場が映る画像を学習データとする機械学習によって、施工現場が映る画像から物体を識別する識別モデルが生成される。また、図10に示されるように、物体の名称と当該物体に起因される事故の種類との対応関係が生成される。よって、作業者に装着されるカメラによって撮影された画像から事故を予測することができる。また、当該事故が予測された場合に、スピーカー9や端末20を介して作業者へ危険を報知することにより、作業者による事故を未然に防ぐことができる。
Digital)メモリカード等の補助記憶装置33を備えてもよい。そして、パターン1P05における施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報の記憶が、RAM7に代わって補助記憶装置33へ記憶されてもよい。また、パターン2P05における予測される事故の正否に関する情報の記憶が、RAM7に代わって補助記憶装置33へ記憶されてもよい。そして、パターン1P05やパターン2P07において実現されるカメラモジュール3からサーバ50への情報の送信が、補助記憶装置33をカメラモジュール3から抜き、サーバ50へ挿すことによって実現されてもよい。
例えば過去に起こった事故による怪我の全治日数等のデータに基づいて設定されてもよい。
Claims (6)
- 施工現場において作業する作業者に装着されるカメラと、
施工現場が映る画像から施工現場における前記作業者の事故の発生を予測する場合に参照されるモデルに基づいて、前記カメラによって撮影された画像に映る物体から事故の発生を予測する予測手段と、
前記予測手段によって事故の発生が予測された場合に、前記予測を前記作業者へ通知する通知手段と、
前記カメラによって撮影された画像と、前記通知手段によって前記予測が前記作業者へ通知された場合に、前記作業者が前記予測の正否を入力する入力手段によって入力された前記予測の正否情報とを、施工現場が映る画像を学習データとする機械学習によって前記モデルを生成し、前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとする機械学習によって前記モデルを更新するサーバへ送信する送信手段と、
前記サーバにおいて更新された前記モデルを前記サーバから取得する取得手段と、を備え、
前記モデルは、
前記施工現場が映る画像から識別対象物を識別する識別モデルと、
前記識別対象物と、前記識別対象物に起因される前記作業者の事故の種類との対応関係と、を含む、
通知装置。 - 施工現場が映る画像を学習データとする機械学習によって施工現場における作業者の事故の発生を予測する場合に参照されるモデルを生成するモデル生成手段と、
前記モデル生成手段によって生成された前記モデルに基づいて、施工現場において作業する作業者に装着されるカメラによって撮影された画像に映る物体から、事故の発生を予測して前記作業者へ通知し、前記作業者が前記通知した予測の正否情報を入力する情報機器へ、前記モデルを送信する送信手段と、
前記カメラによって撮影された画像、及び前記作業者が入力した前記予測の正否情報を、前記情報機器から受信する受信手段と、
前記受信手段によって受信した前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとする機械学習により前記モデルを更新するモデル更新手段と、を備え、
前記モデルは、
前記施工現場が映る画像から識別対象物を識別する識別モデルと、
前記識別対象物と、前記識別対象物に起因される前記作業者の事故の種類との対応関係と、を含む、
情報処理装置。 - 施工現場において作業する作業者へ前記作業者の事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムであって、
前記通知装置は、
前記作業者に装着されるカメラと、
前記モデルを前記情報処理装置から取得する取得手段と、
前記モデルに基づいて、前記カメラによって撮影された画像に映る物体から事故の発生を予測する予測手段と、
前記予測手段によって事故の発生が予測された場合に、前記予測を前記作業者へ通知する通知手段と、
前記通知手段によって前記予測が前記作業者へ通知された場合に、前記作業者が前記予測の正否を入力する入力手段と、
前記カメラによって撮影された画像、及び前記入力手段によって入力された前記予測の正否情報を、前記情報処理装置へ送信する送信手段と、を備え、
前記情報処理装置は、
施工現場が映る画像を学習データとした機械学習によって前記モデルを生成するモデル生成手段と、
前記モデル生成手段によって生成された前記モデルを前記通知装置へ送信する送信手段と、
前記通知装置の前記カメラによって撮影された画像、及び前記通知装置の前記入力手段によって入力された前記予測の正否情報を、前記通知装置から受信する受信手段と、
前記受信手段によって受信した前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとした機械学習により前記モデルを更新するモデル更新手段と、を備え、
前記通知装置の前記取得手段は、前記更新されたモデルを前記情報処理装置から取得し、
前記モデルは、
前記施工現場が映る画像から識別対象物を識別する識別モデルと、
前記識別対象物と、前記識別対象物に起因される前記作業者の事故の種類との対応関係と、を含む、
情報処理システム。 - 前記対応関係は、複数の識別対象物と、前記複数の識別対象物に起因される事故の種類との対応関係である、
請求項3に記載の情報処理システム。 - 施工現場において作業する作業者へ前記作業者の事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムが実行する情報処理方法であって、
前記通知装置が、
前記モデルを前記情報処理装置から取得する取得ステップと、
前記モデルに基づいて、前記作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する予測ステップと、
前記予測ステップによって事故の発生が予測された場合に、前記予測を前記作業者へ
通知する通知ステップと、
前記通知ステップによって前記予測が前記作業者へ通知された場合に、前記作業者が前記予測の正否を入力する入力ステップと、
前記カメラによって撮影された画像、及び前記入力ステップによって入力された前記予測の正否情報を、前記情報処理装置へ送信する送信ステップと、を実行し、
前記情報処理装置が、
施工現場が映る画像を学習データとした機械学習によって前記モデルを生成するモデル生成ステップと、
前記モデル生成ステップによって生成された前記モデルを前記通知装置へ送信する送信ステップと、
前記カメラによって撮影された画像、及び前記通知装置の前記入力ステップによって入力された前記予測の正否情報を、前記通知装置から受信する受信ステップと、
前記受信ステップによって受信した前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとした機械学習により前記モデルを更新するモデル更新ステップと、を実行し、
前記通知装置の前記取得ステップは、前記更新されたモデルを前記情報処理装置から取得し、
前記モデルは、
前記施工現場が映る画像から識別対象物を識別する識別モデルと、
前記識別対象物と、前記識別対象物に起因される前記作業者の事故の種類との対応関係と、を含む、
情報処理方法。 - 施工現場において作業する作業者へ前記作業者の事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムに実行させる情報処理プログラムであって、
前記通知装置に、
前記モデルを前記情報処理装置から取得する取得処理と、
前記モデルに基づいて、前記作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する予測処理と、
前記予測処理によって事故の発生が予測された場合に、前記予測を前記作業者へ通知する通知処理と、
前記通知処理によって前記予測が前記作業者へ通知された場合に、前記作業者が前記予測の正否を入力する入力処理と、
前記カメラによって撮影された画像、及び前記入力処理によって入力された前記予測の正否情報を、前記情報処理装置へ送信する送信処理と、を実行させ、
前記情報処理装置に、
施工現場が映る画像を学習データとした機械学習によって前記モデルを生成するモデル生成処理と、
前記モデル生成処理によって生成された前記モデルを前記通知装置へ送信する送信処理と、
前記カメラによって撮影された画像、及び前記通知装置の前記入力処理によって入力された前記予測の正否情報を、前記通知装置から受信する受信処理と、
前記受信処理によって受信した前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとした機械学習により前記モデルを更新するモデル更新処理と、を実行させ、
前記通知装置に実行させる前記取得処理は、前記更新されたモデルを前記情報処理装置から取得し、
前記モデルは、
前記施工現場が映る画像から識別対象物を識別する識別モデルと、
前記識別対象物と、前記識別対象物に起因される前記作業者の事故の種類との対応関係と、を含む、
情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018090810A JP7131958B2 (ja) | 2018-05-09 | 2018-05-09 | 通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018090810A JP7131958B2 (ja) | 2018-05-09 | 2018-05-09 | 通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019197373A JP2019197373A (ja) | 2019-11-14 |
JP7131958B2 true JP7131958B2 (ja) | 2022-09-06 |
Family
ID=68537594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018090810A Active JP7131958B2 (ja) | 2018-05-09 | 2018-05-09 | 通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7131958B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021140459A (ja) * | 2020-03-05 | 2021-09-16 | トヨタ自動車株式会社 | 画像処理システム |
JP2022055229A (ja) * | 2020-09-28 | 2022-04-07 | 横河電機株式会社 | 監視用デバイス、学習装置、方法およびプログラム |
JP2022113042A (ja) * | 2021-01-22 | 2022-08-03 | オムロン株式会社 | 作業推定装置、作業推定装置の制御方法、情報処理プログラム、および記録媒体 |
TW202230234A (zh) | 2021-01-29 | 2022-08-01 | 日商Dxb股份有限公司 | 管理系統、評價系統及人才培育方法 |
JP7147942B1 (ja) | 2021-09-07 | 2022-10-05 | トヨタ自動車株式会社 | データ収集装置、データ収集システム、データ収集方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014120786A (ja) | 2012-12-13 | 2014-06-30 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
JP2014119786A (ja) | 2012-12-13 | 2014-06-30 | Seiko Epson Corp | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム |
JP2015158846A (ja) | 2014-02-25 | 2015-09-03 | 株式会社国際電気通信基礎技術研究所 | 安全管理システム、安全管理プログラムおよび安全管理方法 |
US20160342840A1 (en) | 2015-05-18 | 2016-11-24 | Daqri, Llc | Threat identification system |
JP2016224547A (ja) | 2015-05-27 | 2016-12-28 | 株式会社リコー | 画像処理装置、画像処理システム及び画像処理方法 |
US20160375524A1 (en) | 2015-06-24 | 2016-12-29 | Illinois Tool Works Inc. | Time of flight camera for welding machine vision |
JP2017142790A (ja) | 2017-02-01 | 2017-08-17 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09196825A (ja) * | 1996-01-18 | 1997-07-31 | Fuji Facom Corp | プラントの異常検知装置 |
-
2018
- 2018-05-09 JP JP2018090810A patent/JP7131958B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014120786A (ja) | 2012-12-13 | 2014-06-30 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
JP2014119786A (ja) | 2012-12-13 | 2014-06-30 | Seiko Epson Corp | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム |
JP2015158846A (ja) | 2014-02-25 | 2015-09-03 | 株式会社国際電気通信基礎技術研究所 | 安全管理システム、安全管理プログラムおよび安全管理方法 |
US20160342840A1 (en) | 2015-05-18 | 2016-11-24 | Daqri, Llc | Threat identification system |
JP2016224547A (ja) | 2015-05-27 | 2016-12-28 | 株式会社リコー | 画像処理装置、画像処理システム及び画像処理方法 |
US20160375524A1 (en) | 2015-06-24 | 2016-12-29 | Illinois Tool Works Inc. | Time of flight camera for welding machine vision |
JP2017142790A (ja) | 2017-02-01 | 2017-08-17 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム |
Also Published As
Publication number | Publication date |
---|---|
JP2019197373A (ja) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7131958B2 (ja) | 通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム | |
US10769536B2 (en) | Work support system and work support program | |
US20160035246A1 (en) | Facility operations management using augmented reality | |
KR101431424B1 (ko) | 양방향 통신이 가능한 스마트 안전모를 이용한 플랜트 운전/정비 지원시스템 및 그 운영 방법 | |
US11288760B2 (en) | Systems and methods for recovering information from a recording device | |
CN111540020B (zh) | 目标行为的确定方法及装置、存储介质、电子装置 | |
JP2022103189A (ja) | 作業現場監視装置、作業現場監視システム、作業現場監視方法およびプログラム | |
US20170261839A1 (en) | Image processing device, image processing method, and computer-readable recording medium | |
JP2017097702A (ja) | 監視システムとその監視制御装置 | |
CN111488894A (zh) | 档案合并方法及装置 | |
KR102243259B1 (ko) | 시선 추적 기술을 기반으로 하는 작업자의 작업을 학습 및 평가하기 위한 장치 및 그 방법 | |
CN115100595A (zh) | 一种安全隐患检测方法、系统、计算机设备和存储介质 | |
CN112101288A (zh) | 安全帽佩戴检测方法、装置、设备及存储介质 | |
CN105608189A (zh) | 一种图片分类方法、装置及电子设备 | |
JP2023022867A (ja) | 安全管理装置、システム、方法、及びプログラム | |
CN114584836B (zh) | 电子产品使用行为检测方法、装置、系统及介质 | |
KR20220023743A (ko) | 스마트폰과 블랙박스를 이용한 사고 처리 시스템 및 이를 이용한 교통 사고 처리 방법 | |
CN104902229A (zh) | 视频监控方法、系统及摄像监控系统 | |
CN112906552A (zh) | 一种基于计算机视觉的巡检方法、装置和电子设备 | |
CN117076295A (zh) | 数据库的检测方法、系统、电子设备及存储介质 | |
CN116703157A (zh) | 施工现场远程可视化显示方法、装置、电子设备和介质 | |
JP6815290B2 (ja) | 物体識別システム | |
CN116229505A (zh) | 安全帽佩戴检测方法、装置、电子装置和存储介质 | |
KR20190058206A (ko) | 행동정보를 이용한 질병예측방법 및 장치 | |
CN112949606A (zh) | 工服穿戴状态检测方法、装置、存储介质及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7131958 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |