JP2019197373A - Notification device, information processing device, information processing system, information processing method, and information processing program - Google Patents

Notification device, information processing device, information processing system, information processing method, and information processing program Download PDF

Info

Publication number
JP2019197373A
JP2019197373A JP2018090810A JP2018090810A JP2019197373A JP 2019197373 A JP2019197373 A JP 2019197373A JP 2018090810 A JP2018090810 A JP 2018090810A JP 2018090810 A JP2018090810 A JP 2018090810A JP 2019197373 A JP2019197373 A JP 2019197373A
Authority
JP
Japan
Prior art keywords
model
prediction
accident
information processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018090810A
Other languages
Japanese (ja)
Other versions
JP7131958B2 (en
Inventor
佐藤 彰洋
Akihiro Sato
彰洋 佐藤
貴洋 秋山
Takahiro Akiyama
貴洋 秋山
優子 佐藤
Yuko Sato
優子 佐藤
浩一郎 武田
Koichiro Takeda
浩一郎 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takasago Thermal Engineering Co Ltd
Original Assignee
Takasago Thermal Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takasago Thermal Engineering Co Ltd filed Critical Takasago Thermal Engineering Co Ltd
Priority to JP2018090810A priority Critical patent/JP7131958B2/en
Publication of JP2019197373A publication Critical patent/JP2019197373A/en
Application granted granted Critical
Publication of JP7131958B2 publication Critical patent/JP7131958B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a technology capable of preventing accidents by automatically predicting accident occurrence in construction sites and notifying the prediction results to the workers at the construction sites.SOLUTION: The present invention is a notification device, comprising: prediction means for predicting accident occurrence from an image photographed by a camera, based on a camera worn by workers at a construction site and a prescribed model; notification means for, when the accident occurrence is predicted, notifying the workers with the prediction; transmission means for generating a model from the image photographed by the camera and the correctness information of the prediction inputted by inputting means which the workers input the correctness of the prediction when the prediction is notified to the workers, by a machine learning having the learning data of an image where the construction site is captured, and sending thereof to a server updating the model by the machine learning having the learning data of the image photographed by the camera and the correctness information of the prediction; and acquisition means for acquiring the updated model from the server.SELECTED DRAWING: Figure 1

Description

本発明は、通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラムに関する。   The present invention relates to a notification device, an information processing device, an information processing system, an information processing method, and an information processing program.

各種センサを使用して、人間の生理情報を検出し、事故を未然に防ぐ取り組みが行われている(例えば特許文献1−2)。   Various types of sensors are used to detect human physiological information and prevent accidents (for example, Patent Documents 1-2).

特許第4038571号公報Japanese Patent No. 4038571 特許第5476137号公報Japanese Patent No. 5476137

施工現場においては、工具の使用による切傷、脚立からの転落、躓きによる転倒、装置への巻き込みなどの事故が発生する事が考えられる。施工現場において起こった事故は、事故の原因、事故による作業者の怪我の態様、発生頻度などがデータとして記録され、それら事故に関するデータに基づいて再発防止策が講じられることが通常である。   At the construction site, accidents such as cuts due to the use of tools, falls from stepladders, falls due to rolling, and entanglement in equipment may occur. As for accidents occurring at the construction site, the cause of the accident, the form of injury of the worker due to the accident, the frequency of occurrence, etc. are usually recorded as data, and measures to prevent recurrence are usually taken based on the data related to the accident.

しかしながら、再発防止策が講じられる場合であっても、作業者が再発防止策を失念する等の人為的過誤により、事故が再発する虞が考えられる。   However, even if a recurrence prevention measure is taken, there is a possibility that the accident will recur due to human error such as the operator forgetting the recurrence prevention measure.

そこで、作業者が施工現場において作業する場合に、事故の発生を自動的に予測し、予測結果を作業者へ通知することにより、事故を未然に防ぐことが考えられるが、当該技術はいまだ存在しない。   Therefore, it is conceivable to prevent accidents by automatically predicting the occurrence of an accident and notifying the operator of the prediction result when the worker works at the construction site, but the technology still exists. do not do.

そこで、本願は、施工現場における事故の発生を自動的に予測し、予測結果を施工現場で作業する作業者へ通知することにより、事故を未然に防ぐことのできる技術を提供することを課題とする。   Therefore, the present application aims to provide a technology capable of preventing an accident in advance by automatically predicting the occurrence of an accident at the construction site and notifying the operator of the prediction result at the construction site. To do.

上記課題を解決するため、本発明は、施工現場が映る画像を学習データとする機械学習によって生成された、事故の発生を予測する場合に参照されるモデルに基づき、施工現場における事故の発生を予測することとした。   In order to solve the above-described problems, the present invention is based on a model that is generated by machine learning using an image showing a construction site as learning data and is referenced when predicting the occurrence of an accident. I decided to predict.

詳細には、本発明は、施工現場において作業する作業者に装着されるカメラと、施工現場が映る画像から施工現場における事故の発生を予測する場合に参照されるモデルに基づいて、カメラによって撮影された画像に映る物体から事故の発生を予測する予測手段と、予測手段によって事故の発生が予測された場合に、予測を作業者へ通知する通知手段と、カメラによって撮影された画像と、通知手段によって予測が作業者へ通知された場合に、作業者が予測の正否を入力する入力手段によって入力された予測の正否情報とを、施工現場が映る画像を学習データとする機械学習によってモデルを生成し、カメラによって撮影された画像、及び予測の正否情報を学習データとする機械学習によってモデルを更新するサーバへ送信する送信手段と、サーバにおいて更新されたモデルをサーバから取得する取得手段と、を備える、通知装置である。   More specifically, the present invention is photographed by a camera based on a camera attached to an operator working at a construction site and a model referred to when an occurrence of an accident at the construction site is predicted from an image reflected on the construction site. Predicting means for predicting the occurrence of an accident from an object shown in the captured image, notifying means for notifying the operator of the occurrence of an accident when the predicting means is predicted, an image taken by the camera, and notification When the prediction is notified to the worker by the means, the model is obtained by machine learning using the image showing the construction site as learning data, and the prediction correctness information input by the input means by which the worker inputs the correctness of the prediction. A transmission means for generating and transmitting to the server that updates the model by machine learning using the image captured by the camera and the prediction correctness information as learning data; Comprising acquisition means for acquiring the updated model in over server from the server, and a notification device.

このような通知装置であれば、施工現場が映る画像から施工現場における事故の発生を予測する場合に参照されるモデルに基づいて、作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する。そして、当該事故の発生の予測を作業者へ通知する。すなわち、事故の発生を自動的に予測し、作業者へ予測を通知することによって、作業者による事故は未然に防止される。また、作業者によって入力された事故の発生の予測の正否情報はサーバへ送信され、通知装置は、当該サーバから当該事故の発生の予測の正否情報を学習データとする機械学習によって更新されたモデルを取得することができる。すなわち、通知装置における事故の発生の予測の精度は、高められる。   If it is such a notification device, based on the model that is referenced when predicting the occurrence of an accident at the construction site from the image reflected in the construction site, from the object reflected in the image taken by the camera attached to the worker Predict the occurrence of an accident. Then, the operator is notified of the predicted occurrence of the accident. That is, by automatically predicting the occurrence of an accident and notifying the operator of the prediction, an accident by the worker is prevented in advance. In addition, the correctness information of the prediction of the occurrence of the accident input by the worker is transmitted to the server, and the notification device is updated by machine learning using the correctness information of the prediction of the occurrence of the accident as learning data from the server. Can be obtained. That is, the accuracy of predicting the occurrence of an accident in the notification device is improved.

また、本発明は、施工現場が映る画像を学習データとする機械学習によって施工現場における事故の発生を予測する場合に参照されるモデルを生成するモデル生成手段と、モデル生成手段によって生成されたモデルに基づいて、施工現場において作業する作業者に装着されるカメラによって撮影された画像に映る物体から、事故の発生を予測して作業者へ通知し、作業者が通知した予測の正否情報を入力する情報機器へ、モデルを送信する送信手段と、カメラによって撮影された画像、及び作業者が入力した予測の正否情報を、情報機器から受信する受信手段と、受信手段によって受信したカメラによって撮影された画像、及び予測の正否情報を学習データとする機械学習によりモデルを更新するモデル更新手段と、を備える、情報処理装置であってもよい。   Further, the present invention provides a model generation means for generating a model to be referred to when predicting the occurrence of an accident at a construction site by machine learning using an image showing the construction site as learning data, and a model generated by the model generation means. Based on the above, the occurrence of an accident is predicted from the object shown in the image taken by the camera attached to the worker working at the construction site, the worker is notified of the occurrence, and the correctness information of the prediction notified by the worker is input The information is taken by the transmission means for transmitting the model to the information device, the image taken by the camera, and the prediction information entered by the operator from the information device and the camera received by the reception means. And a model updating unit that updates the model by machine learning using the prediction correctness information as learning data. It may be.

このような情報処理装置は、施工現場が映る画像を学習データとする機械学習によって施工現場における事故の発生を予測する場合に参照されるモデルを生成する。よって、施工現場が映る画像から自動的に事故の発生を予測することができる。そして、生成されたモデルに基づいて、施工現場において作業する作業者に装着されるカメラによって撮影された画像に映る物体から、事故の発生を予測して作業者へ通知し、作業者が通知した予測の正否情報を入力する情報機器へ、生成されたモデルを送信する。すなわち、当該情報機器において、当該モデルに基づき、カメラによって撮影された画像に映る物体から事故の発生の予測が可能となる。また、当該情報機器が当該事故の発生の予測を作業者へ通知する場合には、作業者による事故を未然に防ぐことができる。   Such an information processing apparatus generates a model that is referred to when an occurrence of an accident at a construction site is predicted by machine learning using an image showing the construction site as learning data. Therefore, it is possible to automatically predict the occurrence of an accident from the image showing the construction site. And based on the generated model, the occurrence of an accident is predicted from the object shown in the image taken by the camera attached to the worker who works at the construction site, and the worker is notified, and the worker notifies The generated model is transmitted to an information device that inputs prediction correctness information. That is, in the information device, it is possible to predict the occurrence of an accident from an object shown in an image photographed by a camera based on the model. Further, when the information device notifies the operator of the prediction of the occurrence of the accident, an accident by the operator can be prevented in advance.

また、当該モデルを送信した情報機器から、作業者に装着されるカメラによって撮影された画像、及び当該モデルに基づく事故の発生の予測の正否情報を受信し、当該画像と事故の予測の正否情報を学習データとする機械学習により、当該モデルを更新する。よって、当該モデルに基づく事故の発生の予測の精度は高められる。   In addition, from the information device that has transmitted the model, the image taken by the camera attached to the worker and the correctness information of the prediction of the occurrence of the accident based on the model are received, and the correctness information of the prediction of the image and the accident is received The model is updated by machine learning using as learning data. Therefore, the accuracy of predicting the occurrence of an accident based on the model can be improved.

また、本発明は、施工現場において作業する作業者へ事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムであって、通知装置は、作業者に装着されるカメラと、モデルを情報処理装置から取得する取得手段と、モデルに基づいて、カメラによって撮影された画像に映る物体から事故の発生を予測する予測手段と、予測手段によって事故の発生が予測された場合に、予測を作業者へ通知する通知手段と、通知手段によって予測が作業者へ通知された場合に、作業者が予測の正否を入力する入力手段と、カメラによって撮影された画像、及び入力手段によって入力された予測の正否情報を、情報処理装置へ送信する送信手段と、を備え、情報処理装置は、施工現場が映る画像を学習データとした機械学習によってモデルを生成するモデル生成手段と、モデル生成手段によって生成されたモデルを通知装置へ送信する送信手段と、通知装置のカメラによって撮影された画像、及び通知装置の入力手段によって入力された予測の正否情報を、通知装置から受信する受信手段と、受信手段によって受信したカメラによって撮影された画像、及び予測の正否情報を学習データとした機械学習によりモデルを更新するモデル更新手段と、を備え、通知装置の取得手段は、更新されたモデルを情報処理装置から取得する、情報処理シ
ステムであってもよい。
Further, the present invention is formed by a notification device for notifying an operator working at a construction site of an accident prediction and an information processing device for generating a model that is referred to when an accident occurrence is predicted from an image showing the construction site. The information processing system is an information processing system in which an accident occurs from a camera worn by an operator, an acquisition unit that acquires a model from the information processing device, and an object that is captured by an image captured by the camera based on the model. When the prediction means predicts the occurrence of an accident, the prediction means notifies the worker of the prediction, and the notification means notifies the worker of the prediction, the worker Input means for inputting the correctness of the prediction, an image captured by the camera, and a transmission means for transmitting the correctness information of the prediction input by the input means to the information processing apparatus; Provided, an information processing device includes a model generation unit that generates a model by machine learning using an image showing a construction site as learning data, a transmission unit that transmits the model generated by the model generation unit to the notification device, and a notification device An image photographed by the camera and a prediction correctness information input by the input means of the notification device are received from the notification device, an image photographed by the camera received by the reception means, and the prediction correctness information A model updating unit that updates the model by machine learning as learning data, and the acquisition unit of the notification device may be an information processing system that acquires the updated model from the information processing device.

このような情報処理システムであれば、情報処理装置において、施工現場が映る画像を学習データとする機械学習によって施工現場における事故の発生を予測する場合に参照されるモデルを生成する。そして、生成されたモデルを、施工現場において作業する作業者へ事故の発生の予測を通知する通知装置へ送信する。   With such an information processing system, the information processing apparatus generates a model that is referred to when an occurrence of an accident at the construction site is predicted by machine learning using an image showing the construction site as learning data. And the produced | generated model is transmitted to the notification apparatus which notifies the prediction of generation | occurrence | production of an accident to the worker who works on a construction site.

そして、通知装置では、受信した当該モデルに基づいて、作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する。また、事故の発生が予測された場合に、予測を作業者へ通知する。よって、事故の発生を自動的に予測し、また予測を作業者へ通知することによって、作業者による事故は未然に防止される。   Then, the notification device predicts the occurrence of an accident from an object shown in an image taken by a camera attached to the worker based on the received model. Further, when the occurrence of an accident is predicted, the operator is notified of the prediction. Therefore, the occurrence of an accident is automatically predicted, and the operator is notified of the prediction, thereby preventing an accident by the worker.

また、作業者は通知された事故の発生の予測の正否について入力する。そして、通知装置は、カメラによって撮影された画像、及び当該事故の発生の予測の正否情報を、情報処理装置へ送信する。   In addition, the worker inputs the correctness of the predicted occurrence of the notified accident. Then, the notification device transmits an image captured by the camera and correct / incorrect information on the prediction of the occurrence of the accident to the information processing device.

情報処理装置では、通知装置から受信したカメラによって撮影された画像、及び当該事故の発生の予測の正否情報を学習データとした機械学習により、生成手段によって生成した施工現場における事故の発生を予測する場合に参照されるモデルを更新する。そして、通知装置は、更新されたモデルを取得し、作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する。すなわち、当該情報処理システムであれば、事故の発生の予測の精度は、高められる。   In the information processing apparatus, the occurrence of an accident at the construction site generated by the generation unit is predicted by machine learning using the image taken by the camera received from the notification apparatus and the correctness information of the prediction of the occurrence of the accident as learning data. Update the model referenced in the case. Then, the notification device acquires the updated model, and predicts the occurrence of an accident from an object shown in an image taken by a camera attached to the worker. That is, with the information processing system, the accuracy of predicting the occurrence of an accident can be improved.

また、モデルは、施工現場が映る画像から識別対象物を識別する識別モデルと、識別対象物と、識別対象物に起因される事故の種類との対応関係と、を含んでもよい。   The model may include an identification model for identifying an identification object from an image showing a construction site, a correspondence relationship between the identification object and an accident type caused by the identification object.

このような情報処理システムであれば、施工現場において過去に起こった事故の種類と、当該事故の原因となった物体の対応関係に関する情報が存在する場合、当該対応関係から識別対象物と、識別対象物に起因される事故の種類との対応関係を作成することができる。すなわち、施工現場において過去に起こった事故に関する情報を活用し、事故の発生の予測を行うことができる。   With such an information processing system, if there is information about the type of accident that occurred in the past at the construction site and the correspondence relationship of the object that caused the accident, the identification target object is identified from the correspondence relationship. Correspondence with the type of accident caused by the object can be created. That is, it is possible to predict the occurrence of an accident by utilizing information on accidents that have occurred in the past at the construction site.

また、対応関係は、複数の識別対象物と、複数の識別対象物に起因される事故の種類との対応関係であってもよい。   The correspondence relationship may be a correspondence relationship between a plurality of identification objects and the types of accidents caused by the plurality of identification objects.

このような情報処理システムであれば、事故が所定の複数の物体が揃った場合に起こることが想定される場合、所定の複数の識別対象物と、複数の識別対象物に起因される事故の種類との対応関係を生成し、事故の発生の予測に活用することができる。   In such an information processing system, when an accident is assumed to occur when a plurality of predetermined objects are gathered, a plurality of predetermined identification objects and an accident caused by the plurality of identification objects Correspondence with types can be generated and used to predict the occurrence of accidents.

また、本発明は、方法の側面から捉えることもできる。すなわち、例えば、施工現場において作業する作業者へ事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムが実行する情報処理方法であって、通知装置が、モデルを情報処理装置から取得する取得ステップと、モデルに基づいて、作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する予測ステップと、予測ステップによって事故の発生が予測された場合に、予測を作業者へ通知する通知ステップと、通知ステップによって予測が作業者へ通知された場合に、作業者が予測の正否を入力する入力ステップと、カメラによって撮影された画像、及び入力ステップによって入力された予測の正否情報を、情報処理装置へ送信する送信ステップと、を実行し、情報処理装置が、施工現場が映る画像を学習データとした機械学習によってモデルを生成するモデル生成ステップと、
モデル生成ステップによって生成されたモデルを通知装置へ送信する送信ステップと、カメラによって撮影された画像、及び通知装置の入力ステップによって入力された予測の正否情報を、通知装置から受信する受信ステップと、受信ステップによって受信したカメラによって撮影された画像、及び予測の正否情報を学習データとした機械学習によりモデルを更新するモデル更新ステップと、を実行し、通知装置の取得ステップは、更新されたモデルを情報処理装置から取得する、情報処理方法であってもよい。
The present invention can also be understood from a method aspect. That is, for example, it is formed by a notification device that notifies a worker working at a construction site of the prediction of an accident and an information processing device that generates a model that is referred to when predicting the occurrence of an accident from an image showing the construction site. An information processing method executed by an information processing system, in which a notification device acquires a model from an information processing device, and an object reflected in an image photographed by a camera attached to an operator based on the model A prediction step for predicting the occurrence of an accident, a notification step for notifying the worker of the prediction when the occurrence of the accident is predicted by the prediction step, and a worker when the prediction is notified to the worker by the notification step. Inputs the correctness of the prediction, the image taken by the camera, and the correctness of the prediction input by the input step The broadcast, perform a transmission step of transmitting to the information processing apparatus, and a model generating step of the information processing apparatus, to generate a model by machine learning images appearing are construction sites was learning data,
A transmission step of transmitting the model generated by the model generation step to the notification device, an image captured by the camera, and a reception step of receiving the prediction correctness information input by the input step of the notification device from the notification device; An image captured by the camera received in the receiving step, and a model updating step for updating the model by machine learning using the prediction correctness information as learning data, and the acquisition step of the notification device includes the updated model An information processing method acquired from the information processing apparatus may be used.

また、本発明は、施工現場において作業する作業者へ事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムに実行させる情報処理プログラムであって、通知装置に、モデルを情報処理装置から取得する取得処理と、モデルに基づいて、作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する予測処理と、予測処理によって事故の発生が予測された場合に、予測を作業者へ通知する通知処理と、通知処理によって予測が作業者へ通知された場合に、作業者が予測の正否を入力する入力処理と、カメラによって撮影された画像、及び入力処理によって入力された予測の正否情報を、情報処理装置へ送信する送信処理と、を実行させ、情報処理装置に、施工現場が映る画像を学習データとした機械学習によってモデルを生成するモデル生成処理と、モデル生成処理によって生成されたモデルを通知装置へ送信する送信処理と、カメラによって撮影された画像、及び通知装置の入力処理によって入力された予測の正否情報を、通知装置から受信する受信処理と、受信処理によって受信したカメラによって撮影された画像、及び予測の正否情報を学習データとした機械学習によりモデルを更新するモデル更新処理と、を実行させ、通知装置に実行させる取得処理は、更新されたモデルを情報処理装置から取得する、情報処理プログラムであってもよい。   Further, the present invention is formed by a notification device for notifying an operator working at a construction site of an accident prediction and an information processing device for generating a model that is referred to when an accident occurrence is predicted from an image showing the construction site. An information processing program to be executed by an information processing system to be displayed on an image captured by a camera attached to an operator based on the acquisition processing for acquiring a model from the information processing device on the notification device and the model When the prediction process that predicts the occurrence of an accident from the object, the notification process that notifies the worker of the prediction when the occurrence of the accident is predicted by the prediction process, and the prediction that is notified to the worker by the notification process, An input process in which an operator inputs prediction correctness, an image captured by the camera, and prediction correctness information input by the input process are sent to the information processing apparatus. The information generation device generates a model by machine learning using an image showing the construction site as learning data, and transmits the model generated by the model generation processing to the notification device. A receiving process for receiving from the notification device, an image taken by the camera, and an image taken by the camera received by the receiving process; The model update process for updating the model by machine learning using the prediction correctness information as learning data, and the acquisition process to be executed by the notification device is an information processing program for acquiring the updated model from the information processing device. There may be.

また、本発明は、情報処理装置に、施工現場が映る画像を学習データとした機械学習によって生成されるモデルであって、施工現場における事故の発生を予測する場合に参照されるモデルに基づいて、施工現場において作業する作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生が予測された場合に、予測情報を受信する受信処理と、予測情報を受信した場合に、機械学習によってモデルを更新する場合に機械学習の学習データとして使用される予測の正否が入力される入力処理と、を実行させる、情報処理プログラムであってもよい。   In addition, the present invention is a model generated by machine learning using an image showing the construction site as learning data in the information processing apparatus, and is based on a model referred to when predicting the occurrence of an accident at the construction site When the occurrence of an accident is predicted from an object shown in an image taken by a camera attached to a worker working at a construction site, a receiving process for receiving prediction information and a machine for receiving prediction information It may be an information processing program that executes an input process for inputting a prediction correctness used as learning data for machine learning when a model is updated by learning.

上記の通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラムは、施工現場における事故の発生を自動的に予測し、予測結果を施工現場で作業する作業者へ通知することにより、事故を未然に防ぐことのできる技術を提供することができる。   The above notification device, information processing device, information processing system, information processing method, and information processing program automatically predict the occurrence of an accident at a construction site and notify the worker who works at the construction site of the prediction result. Thus, it is possible to provide a technique capable of preventing an accident in advance.

図1は、本実施形態に係る情報処理システムの構成の一例を示している。FIG. 1 shows an example of the configuration of an information processing system according to this embodiment. 図2は、通知装置のハードウエア構成の概要の一例を示している。FIG. 2 shows an example of an outline of the hardware configuration of the notification device. 図3は、端末のハードウエア構成の概要の一例を示している。FIG. 3 shows an example of an outline of the hardware configuration of the terminal. 図4は、サーバのハードウエア構成の概要の一例を示している。FIG. 4 shows an example of an outline of the hardware configuration of the server. 図5は、通知装置のカメラモジュールの機能構成の概要の一例を示している。FIG. 5 shows an example of an outline of a functional configuration of the camera module of the notification device. 図6は、通知装置の端末の機能構成の概要の一例を示している。FIG. 6 shows an example of an outline of the functional configuration of the terminal of the notification device. 図7は、サーバの機能構成の概要の一例を示している。FIG. 7 shows an example of an outline of the functional configuration of the server. 図8は、識別モデルを生成する場合に使用される学習データを収集するカメラモジュールの動作を説明したフローチャートの一例を示している。FIG. 8 shows an example of a flowchart illustrating the operation of the camera module that collects learning data used when generating an identification model. 図9は、識別モデルに基づき、施工現場において作業する作業者へ危険の報知を行うカメラモジュールの動作を説明したフローチャートの一例を示している。FIG. 9 shows an example of a flowchart for explaining the operation of the camera module for notifying the worker working at the construction site of the danger based on the identification model. 図10は、物体の名称と当該物体に起因される事故の種類との対応関係の一例を例示する。FIG. 10 illustrates an example of the correspondence between the name of the object and the type of accident caused by the object. 図11は、カメラモジュールによって識別モデルを生成する場合に使用される学習データが収集される場合の、端末の動作を説明したフローチャートの一例を示している。FIG. 11 shows an example of a flowchart for explaining the operation of the terminal when learning data used when the identification model is generated by the camera module is collected. 図12は、カメラモジュールから危険の報知が行われた場合の、端末の動作を説明したフローチャートの一例を示している。FIG. 12 shows an example of a flowchart for explaining the operation of the terminal when danger notification is made from the camera module. 図13は、識別モデルが生成される場合のサーバの動作を説明したフローチャートの一例を示している。FIG. 13 shows an example of a flowchart for explaining the operation of the server when an identification model is generated. 図14は、識別モデルが更新される場合のサーバの動作を説明したフローチャートの一例を示している。FIG. 14 shows an example of a flowchart for explaining the operation of the server when the identification model is updated. 図15は、識別モデルを生成する学習フェーズが実行される場合の情報処理システムの処理の一例を示すシーケンス図である。FIG. 15 is a sequence diagram illustrating an example of processing of the information processing system when a learning phase for generating an identification model is executed. 図16は、識別モデルに基づいて物体を識別する識別フェーズが実行される場合の情報処理システムの処理の一例を示すシーケンス図である。FIG. 16 is a sequence diagram illustrating an example of processing of the information processing system when an identification phase for identifying an object based on an identification model is executed. 図17は、カメラモジュールによって撮影された施工現場の画像の一例を示している。FIG. 17 shows an example of an image of the construction site taken by the camera module. 図18は、作業者が作業している場合に、カメラモジュールによって撮影された画像の一例を示している。FIG. 18 shows an example of an image captured by the camera module when the worker is working.

以下、本発明の実施形態について説明する。以下に示す実施形態は、本発明の実施形態の一例であり、本発明の技術的範囲を以下の態様に限定するものではない。   Hereinafter, embodiments of the present invention will be described. Embodiment shown below is an example of embodiment of this invention, and does not limit the technical scope of this invention to the following aspects.

<システム構成例>
図1は、本実施形態に係る情報処理システム100の構成の一例を示している。図1に示されるように、情報処理システム100は、施工現場において作業する作業者へ事故の予測を通知する通知装置1を含む。
<System configuration example>
FIG. 1 shows an example of the configuration of an information processing system 100 according to the present embodiment. As shown in FIG. 1, the information processing system 100 includes a notification device 1 that notifies an operator working on a construction site of an accident prediction.

また、情報処理システム100は、施工現場における事故の予測モデルを生成するサーバ50を備える。サーバ50は、通知装置1と、ネットワークNを介して通信可能なコンピュータである。また、サーバ50は、クラウドサーバであってもよい。ネットワークNは、コンピュータを相互接続してデータを取り交わすことが可能なネットワークであればよく、例えば、インターネットやイントラネット、その他各種のネットワークを適用可能である。なお、図1では通知装置1の個数は3つであるが、通知装置1の個数は、何個でもよい。   In addition, the information processing system 100 includes a server 50 that generates a prediction model of an accident at a construction site. The server 50 is a computer that can communicate with the notification device 1 via the network N. The server 50 may be a cloud server. The network N may be any network that can exchange data by interconnecting computers. For example, the Internet, an intranet, and other various networks are applicable. In FIG. 1, the number of notification devices 1 is three, but the number of notification devices 1 may be any number.

<ハードウエア構成例>
次に情報処理システム100を形成する各装置のハードウエア構成の一例を説明する。図2は、通知装置1のハードウエア構成の概要の一例を示している。図2に示されるように、通知装置1は、施工現場において作業する作業者が被るヘルメット2を備える。ヘルメット2の前部及び後部には、2つのカメラモジュール3がそれぞれ固定される。ここで、カメラモジュール3は、本発明の「通知装置が備えるカメラ」の一例である。カメラモジュール3は、例えば粘着テープによってヘルメット2へ固定される。また、カメラモジュール3には、IC(Integrated Circuit)チップ4と、外部の電子機器との通信を行うアンテナ5を備える。ICチップ4は、CPU(Central Processing Unit)6、RAM(Random Access Memory)7を備える。また、ヘルメット2には、周囲を照らすライト8が固定される。また、通知装置1は、カメラモジュール3と無線通信するスピーカー9、及び端末20を備える
<Hardware configuration example>
Next, an example of a hardware configuration of each device forming the information processing system 100 will be described. FIG. 2 shows an example of an outline of the hardware configuration of the notification device 1. As shown in FIG. 2, the notification device 1 includes a helmet 2 worn by an operator who works at a construction site. Two camera modules 3 are fixed to the front part and the rear part of the helmet 2, respectively. Here, the camera module 3 is an example of the “camera included in the notification device” of the present invention. The camera module 3 is fixed to the helmet 2 with, for example, an adhesive tape. In addition, the camera module 3 includes an IC (Integrated Circuit) chip 4 and an antenna 5 that performs communication with an external electronic device. The IC chip 4 includes a CPU (Central Processing Unit) 6 and a RAM (Random Access Memory) 7. A light 8 that illuminates the surroundings is fixed to the helmet 2. Further, the notification device 1 includes a speaker 9 and a terminal 20 that communicate with the camera module 3 wirelessly.

図3は、端末20のハードウエア構成の概要の一例を示している。図3に示されるように、端末20は、例えば、CPU21やRAM22、ROM(Read Only Memory)23、無線通信I/F(Interface)24、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置25、表示装置27や入力装置28を備えたコンピュータによって実現可能である。端末20の具体例としては、例えばスマートホンやタブレット端末といった機器がある。また、端末20は、表示装置27及び入力装置28の一例としてタッチパネルディスプレイ29を備える。ここで、タッチパネルディスプレイ29は、本発明の「入力手段」の一例である。   FIG. 3 shows an example of an outline of the hardware configuration of the terminal 20. As illustrated in FIG. 3, the terminal 20 includes, for example, a CPU 21, a RAM 22, a ROM (Read Only Memory) 23, a wireless communication I / F (Interface) 24, an HDD (Hard Disk Drive), an SSD (Solid State Drive), and the like. This can be realized by a computer having the large-capacity storage device 25, the display device 27, and the input device 28. Specific examples of the terminal 20 include devices such as smart phones and tablet terminals. The terminal 20 includes a touch panel display 29 as an example of the display device 27 and the input device 28. Here, the touch panel display 29 is an example of the “input unit” in the present invention.

図4は、サーバ50のハードウエア構成の概要の一例を示している。図4に示されるように、サーバ50は、CPU51、RAM52、ROM53、HDDやSSD等の大容量記憶装置54、ゲートウェイ等を介してインターネットに接続されるNIC(Network Interface Controller)55を備えるコンピュータである。大容量記憶装置54には、RAM52にロードされる各種プログラム等、永続性が求められる情報が書き込まれ、読み出される。なお、サーバ50は、CPU等の汎用プロセッサに加えて、専用プロセッサや専用回路等を備えてもよい。   FIG. 4 shows an example of an outline of the hardware configuration of the server 50. As shown in FIG. 4, the server 50 is a computer including a CPU 51, a RAM 52, a ROM 53, a mass storage device 54 such as an HDD or an SSD, and a NIC (Network Interface Controller) 55 connected to the Internet via a gateway or the like. is there. In the mass storage device 54, information required to be persistent such as various programs loaded in the RAM 52 is written and read. The server 50 may include a dedicated processor, a dedicated circuit, and the like in addition to a general-purpose processor such as a CPU.

<機能構成例>
次に情報処理システム100を形成する各装置の機能構成の一例を説明する。図5は、通知装置1のカメラモジュール3の機能構成の概要の一例を示している。図5に示されるように、カメラモジュール3は、無線信号の送受信の実行を司る通信部10を備える。ここで、通信部10は、本発明の「通知装置が備える送信手段」及び「通知装置が備える受信手段」の一例である。また、カメラモジュール3は、撮影処理の実行を司る撮影処理部11を備える。また、カメラモジュール3は、撮影処理部11によって撮影処理された画像情報から物体を識別する処理の実行を司る識別部12を備える。また、カメラモジュール3は、識別部12において識別された物体から事故を予測する処理の実行を司る事故予測部13を備える。事故予測部13では、物体情報と、事故の種類の情報を出力する。ここで、識別部12及び事故予測部13は、本発明の「予測手段」の一例である。また、カメラモジュール3は、事故が予測された場合、スピーカー9を制御する制御信号をスピーカー9へ送信する処理の実行を司る通知部14を備える。通知部14は、また、事故が予測された場合、画像情報と事故の種類の情報を端末20へ送信する処理の実行を司る。ここで、通知部14は、本発明の「通知手段」の一例である。また、カメラモジュール3は、各処理の実行を行うプログラムやデータ等の情報の記憶処理の実行を司る記憶部15を備える。カメラモジュール3は、RAM7に展開されたコンピュータプログラムを解釈及び実行するCPU6が動作することにより、通信部10、撮影処理部11、識別部12、事故予測部13、通知部14、及び記憶部15を実現する。
<Functional configuration example>
Next, an example of a functional configuration of each device forming the information processing system 100 will be described. FIG. 5 shows an example of an outline of a functional configuration of the camera module 3 of the notification device 1. As shown in FIG. 5, the camera module 3 includes a communication unit 10 that controls execution of transmission and reception of wireless signals. Here, the communication unit 10 is an example of “a transmission unit included in the notification device” and “a reception unit included in the notification device” of the present invention. In addition, the camera module 3 includes a photographing processing unit 11 that controls execution of photographing processing. In addition, the camera module 3 includes an identification unit 12 that manages execution of processing for identifying an object from image information captured by the imaging processing unit 11. In addition, the camera module 3 includes an accident prediction unit 13 that manages execution of a process for predicting an accident from the object identified by the identification unit 12. The accident prediction unit 13 outputs object information and information on the type of accident. Here, the identification unit 12 and the accident prediction unit 13 are examples of the “prediction unit” of the present invention. Further, the camera module 3 includes a notification unit 14 that controls execution of a process of transmitting a control signal for controlling the speaker 9 to the speaker 9 when an accident is predicted. The notification unit 14 also performs execution of processing for transmitting image information and information on the type of accident to the terminal 20 when an accident is predicted. Here, the notification unit 14 is an example of the “notification unit” in the present invention. In addition, the camera module 3 includes a storage unit 15 that manages execution of storage processing of information such as programs and data for executing each processing. The camera module 3 is operated by a CPU 6 that interprets and executes a computer program developed in the RAM 7 to operate the communication unit 10, the imaging processing unit 11, the identification unit 12, the accident prediction unit 13, the notification unit 14, and the storage unit 15. To realize.

図6は、通知装置1の端末20の機能構成の概要の一例を示している。図6に示されるように、端末20は、外部の電子機器との無線信号の送受信を司る通信部30を備える。また、端末20は、タッチパネルディスプレイ29へ表示させる情報の処理の実行を司る表示部31を備える。また、端末20は、タッチパネルディスプレイ29からの入力信号の処理の実行を司る入力部32を備える。端末20は、RAM22に展開されたコンピュータプログラムを解釈及び実行するCPU21が動作することにより、通信部30、表示部31、入力部32を実現する。   FIG. 6 shows an example of an outline of a functional configuration of the terminal 20 of the notification device 1. As illustrated in FIG. 6, the terminal 20 includes a communication unit 30 that controls transmission and reception of radio signals with an external electronic device. In addition, the terminal 20 includes a display unit 31 that controls execution of information to be displayed on the touch panel display 29. In addition, the terminal 20 includes an input unit 32 that controls execution of an input signal from the touch panel display 29. The terminal 20 implements a communication unit 30, a display unit 31, and an input unit 32 by operating a CPU 21 that interprets and executes a computer program loaded in the RAM 22.

図7は、サーバ50の機能構成の概要の一例を示している。図7に示されるように、サーバ50は、外部の電子機器とインターネット通信の処理の実行を司る通信部56を備え
る。ここで、通信部56は、本発明の「情報処理装置が備える送信手段」及び「情報処理装置が備える受信手段」の一例である。また、サーバ50は、画像データや、機械学習に使用されるアルゴリズムを含むプログラム等の情報を記憶する処理の実行を司る記憶部57を備える。機械学習に使用されるアルゴリズムは、例えばニューラルネットワークモデルの各階層の重み因子の最適化の際に使用される誤差逆伝播法や回帰分析といったアルゴリズムである。また、サーバ50は、画像データを学習データとする機械学習により、画像データを入力情報とし、当該画像に映る物体を識別し、識別した物体情報を出力する識別モデルを生成する処理の実行を司る識別モデル生成部58を備える。ここで、識別モデル生成部58は、本発明の「モデル生成手段」の一例である。
FIG. 7 shows an example of an outline of the functional configuration of the server 50. As illustrated in FIG. 7, the server 50 includes a communication unit 56 that manages execution of Internet communication processing with an external electronic device. Here, the communication unit 56 is an example of “a transmission unit included in the information processing apparatus” and “a reception unit included in the information processing apparatus” of the present invention. The server 50 also includes a storage unit 57 that manages execution of processing for storing information such as image data and programs including algorithms used for machine learning. The algorithm used for machine learning is, for example, an algorithm such as an error back-propagation method or regression analysis used when optimizing the weight factors of each layer of the neural network model. Further, the server 50 performs execution of processing for generating an identification model for identifying an object shown in the image and outputting the identified object information by using the image data as input information by machine learning using the image data as learning data. An identification model generation unit 58 is provided. Here, the identification model generation unit 58 is an example of the “model generation unit” in the present invention.

ここで、識別モデルの生成手順は次の通りである。まず、入力情報の画像データから特徴量の抽出が行われる。抽出される特徴量は、例えばHOG(Histgram Of Oriented Gradients)等が挙げられる。   Here, the procedure for generating the identification model is as follows. First, feature amounts are extracted from image data of input information. Examples of the extracted feature quantity include HOG (Histgram Of Oriented Gradients).

次に、画像から抽出された特徴量を入力とし、当該画像に映る物体情報を出力する識別モデルが生成される。出力される物体情報は、例えば物体の名称である。また、識別モデルの例として、ニューラルネットワークモデルや、回帰分析に基づく識別関数等が挙げられる。識別モデルは、画像から抽出された特徴量、及び画像に映る物体の名称に関する学習データを学習し、最適化される。また、識別モデル生成部58では、物体毎の識別モデルが生成される。例えば画像に映る物体がXであると識別する識別モデルX、画像に映る物体がYであると識別する識別モデルYが生成される。   Next, an identification model is generated that receives the feature amount extracted from the image and outputs object information shown in the image. The output object information is, for example, the name of the object. Examples of the identification model include a neural network model and an identification function based on regression analysis. The identification model is optimized by learning learning data related to the feature amount extracted from the image and the name of the object shown in the image. Further, the identification model generation unit 58 generates an identification model for each object. For example, an identification model X for identifying that the object shown in the image is X and an identification model Y for identifying that the object shown in the image is Y are generated.

また、サーバ50は、物体の名称と、当該物体に起因される事故の種類との対応関係を生成する処理の実行を司る対応関係生成部59を備える。ここで、識別モデル、及び物体の名称と、当該物体に起因される事故の種類との対応関係は、本発明の「施工現場における事故の発生を予測する場合に参照されるモデル」の一例である。また、サーバ50は、画像データと、当該画像データから識別モデルを使用して予測された事故の正否に関する情報を学習データとする機械学習により、識別モデルを更新する処理の実行を司る識別モデル更新部60を備える。ここで、識別モデル生成部58や識別モデル更新部60における機械学習には、記憶部57に記憶される機械学習アルゴリズムが使用される。まだ、識別モデル更新部60は、本発明の「モデル更新手段」の一例である。   In addition, the server 50 includes a correspondence generation unit 59 that manages execution of processing for generating a correspondence between the name of an object and the type of accident caused by the object. Here, the correspondence between the identification model and the name of the object and the type of accident caused by the object is an example of the “model referred to when predicting the occurrence of an accident at the construction site” of the present invention. is there. In addition, the server 50 updates the identification model for executing the process of updating the identification model by machine learning using the image data and the information about the correctness of the accident predicted from the image data using the identification model as learning data. The unit 60 is provided. Here, a machine learning algorithm stored in the storage unit 57 is used for machine learning in the identification model generation unit 58 and the identification model update unit 60. Still, the identification model update unit 60 is an example of the “model update unit” of the present invention.

ここで、識別モデル更新部60では、識別モデルの生成の場合と同様に、入力情報の画像データから特徴量の抽出が行われる。そして、識別モデルの更新は、画像から抽出された特徴量、及び画像データから識別モデルを使用して予測された事故の正否に関する学習データを学習し、最適化されることによって実現される。   Here, the identification model update unit 60 extracts feature amounts from the image data of the input information, as in the case of generation of the identification model. The update of the identification model is realized by learning and optimizing learning data relating to the correctness of the accident predicted using the identification model from the feature amount extracted from the image and the image data.

また、サーバ50は、RAM52に展開されたコンピュータプログラムを解釈及び実行するCPU51が、大容量記憶装置54やNIC55と協働することにより、通信部56、記憶部57、識別モデル生成部58、対応関係生成部59、識別モデル更新部60を実現する。   The server 50 also has a communication unit 56, a storage unit 57, an identification model generation unit 58, and the like by the CPU 51 that interprets and executes the computer program expanded in the RAM 52 cooperating with the mass storage device 54 and the NIC 55. A relationship generation unit 59 and an identification model update unit 60 are realized.

<装置動作例>
次に情報処理システム100を形成する各装置の動作の一例を説明する。カメラモジュール3は、識別モデルを生成する場合に使用される学習データを収集する。図8は、識別モデルを生成する場合に使用される学習データを収集するカメラモジュール3の動作を説明したフローチャートの一例を示している。
<Device operation example>
Next, an example of the operation of each device forming the information processing system 100 will be described. The camera module 3 collects learning data used when generating an identification model. FIG. 8 shows an example of a flowchart for explaining the operation of the camera module 3 that collects learning data used when generating an identification model.

(ステップS11)
ステップS11では、ヘルメット2に固定されるカメラモジュール3によって、施工現
場が撮影される。カメラモジュール3はヘルメットの前後に2つ固定されているため、おおよそ全方位の周囲の環境が撮影される。夜間や屋内などの暗い環境を撮影する場合、ライト8が点灯される。そして、撮影された画像に関する情報は、撮影処理部11によって処理される。例えば、カメラモジュール3によって撮影された画像が動画である場合、画像は、撮影処理部11によって静止画へ変換される。
(Step S11)
In step S <b> 11, the construction site is photographed by the camera module 3 fixed to the helmet 2. Since two camera modules 3 are fixed on the front and rear of the helmet, the surrounding environment in almost all directions is photographed. When photographing a dark environment such as at night or indoors, the light 8 is turned on. Information regarding the captured image is processed by the imaging processing unit 11. For example, when the image photographed by the camera module 3 is a moving image, the image is converted into a still image by the photographing processing unit 11.

(ステップS12)
ステップS12では、通信部10によって、撮影された画像に関する情報が端末20へ送信される。
(Step S12)
In step S <b> 12, information related to the captured image is transmitted to the terminal 20 by the communication unit 10.

(ステップS13)
ステップS13では、通信部10において、端末20から画像及び画像に映る物体の名称に関する情報が受信される。受信した情報は、記憶部15においてRAM7に記憶される。
(Step S13)
In step S <b> 13, the communication unit 10 receives information about the image and the name of the object shown in the image from the terminal 20. The received information is stored in the RAM 7 in the storage unit 15.

(ステップS14)
ステップS14では、RAM7に画像及び画像に映る物体の名称に関する情報が所定量記憶されたか否かの判定が行われる。RAM7に画像及び画像に映る物体の名称に関する情報が所定量記憶されていない場合、ステップS11からステップS13の処理が、実行される。
(Step S14)
In step S14, it is determined whether or not a predetermined amount of information related to the image and the name of the object shown in the image is stored in the RAM 7. If the RAM 7 does not store a predetermined amount of information about the image and the name of the object shown in the image, the processing from step S11 to step S13 is executed.

(ステップS15)
ステップS14において、RAM7に画像及び画像に映る物体の名称に関する情報が所定量記憶されていると判定された場合、通信部10において、サーバ50へ画像及び画像に映る物体の名称に関する情報が送信される。
(Step S15)
In step S14, when it is determined that a predetermined amount of information about the image and the name of the object shown in the image is stored in the RAM 7, the communication unit 10 transmits information about the image and the name of the object shown in the image to the server 50. The

また、カメラモジュール3は、識別モデルに基づき、施工現場において作業する作業者へ危険の報知を行う。図9は、識別モデルに基づき、施工現場において作業する作業者へ危険の報知を行うカメラモジュール3の動作を説明したフローチャートの一例を示している。   Moreover, the camera module 3 notifies the danger to the worker who works on the construction site based on the identification model. FIG. 9 shows an example of a flowchart for explaining the operation of the camera module 3 for notifying a worker working on the construction site of danger based on the identification model.

(ステップS101)
ステップS101では、通信部10において、サーバ50から識別モデル、及び物体の名称と当該物体に起因される事故の種類との対応関係に関する情報が受信される。受信した識別モデル、及び対応関係に関する情報は、記憶部15において記憶される。ここで、図10は、物体の名称と当該物体に起因される事故の種類との対応関係の一例を例示する。図10に示される当該対応関係は、サーバ50において、施工現場において過去に起こった事故が集計され、当該集計データに基づいて作成される。
(Step S101)
In step S <b> 101, the communication unit 10 receives information regarding the correspondence between the identification model and the name of the object and the type of accident caused by the object from the server 50. Information regarding the received identification model and the correspondence relationship is stored in the storage unit 15. Here, FIG. 10 illustrates an example of the correspondence between the name of the object and the type of accident caused by the object. The correspondence relationship shown in FIG. 10 is created based on the totaled data obtained by totaling accidents that occurred in the past at the construction site in the server 50.

(ステップS102)
ステップS102では、施工現場において作業者が作業している場合に、カメラモジュール3によって作業者の周囲の環境が撮影される。
(Step S102)
In step S <b> 102, the environment around the worker is photographed by the camera module 3 when the worker is working on the construction site.

(ステップS103)
ステップS103では、識別部12において、ステップS102で撮影された画像情報から、画像に映る物体が識別され、識別した物体情報が出力される。物体の識別は、サーバ50から受信し、記憶部15に記憶される識別モデルに画像情報を入力することによって実現される。また、識別モデルが複数存在する場合、画像情報は、それぞれの識別モデルに入力され、物体情報の出力が得られる。
(Step S103)
In step S103, the identification unit 12 identifies the object shown in the image from the image information captured in step S102, and outputs the identified object information. The identification of the object is realized by inputting image information to the identification model received from the server 50 and stored in the storage unit 15. When there are a plurality of identification models, the image information is input to each identification model, and an output of object information is obtained.

(ステップS104)
ステップS104では、事故予測部13において、識別部12において得られた画像に映る物体情報に基づき、予測される事故の種類が出力される。ここで、事故の予測の場合に使用される物体情報とは、例えば物体の名称である。そして、予測される事故の種類は、図10に示される物体の名称と当該物体に起因される事故の種類との対応関係を参照することにより実現される。識別部12において得られた画像に映る物体の名称が対応関係に存在する場合、対応関係に記載される物体の名称と対応する事故の種類が、予測される事故の種類の出力となる。ここで、事故の種類の出力は、対応関係に記載される所定の事故の種類に対応する複数の物体が、画像から全て識別された場合に、行われてもよい。一方、識別部12において得られた画像に映る物体の名称が対応関係に存在しない場合、事故の種類は出力されない。
(Step S104)
In step S104, the accident prediction unit 13 outputs the type of accident predicted based on the object information shown in the image obtained by the identification unit 12. Here, the object information used in the case of an accident prediction is, for example, the name of an object. The predicted type of accident is realized by referring to the correspondence between the name of the object shown in FIG. 10 and the type of accident caused by the object. When the name of the object shown in the image obtained by the identification unit 12 exists in the correspondence relationship, the accident type corresponding to the name of the object described in the correspondence relationship is an output of the predicted accident type. Here, the output of the accident type may be performed when a plurality of objects corresponding to the predetermined accident type described in the correspondence relationship are all identified from the image. On the other hand, when the name of the object shown in the image obtained in the identification unit 12 does not exist in the correspondence relationship, the type of accident is not output.

(ステップS105)
ステップS105では、事故予測部13において、予測される事故の種類が出力されたか否かの判定が行われる。
(Step S105)
In step S105, the accident prediction unit 13 determines whether or not the predicted accident type has been output.

(ステップS106)
ステップS106では、予測される事故の種類が出力された場合、通知部14において、スピーカー9の制御信号が生成され、通信部10を介してスピーカー9へ制御信号が送信される。そして、スピーカー9が当該制御信号を受信し、音を発することにより、作業者へ危険が報知される。
(Step S106)
In step S <b> 106, when the predicted type of accident is output, the notification unit 14 generates a control signal for the speaker 9 and transmits the control signal to the speaker 9 via the communication unit 10. Then, when the speaker 9 receives the control signal and emits a sound, the operator is notified of the danger.

また、ステップS106では、予測される事故の種類が出力された場合、通知部14において、予測される事故に関する情報が通信部10を介して端末20へ送信されることによっても、作業者へ危険が報知される。予測される事故に関する情報とは、例えば、予測される事故の種類が出力された場合の画像情報、画像に映る物体の名称に関する情報、及び予測される事故の種類に関する情報等である。   Further, in step S106, when the predicted accident type is output, the notification unit 14 also transmits information about the predicted accident to the terminal 20 via the communication unit 10, which may be dangerous for the worker. Is notified. The information on the predicted accident is, for example, image information when the predicted accident type is output, information on the name of the object shown in the image, information on the predicted accident type, and the like.

ただし、記憶部15において、例えば通知時刻と、通知した事故の種類に関する情報とは、RAM7へ記憶される。そして、予測される事故の種類に関する情報が新たに出力された場合、RAM7に記憶される事故の種類に関する情報が参照され、当該情報が新たに出力された予測される事故の種類に関する情報と一致する場合、新たに出力された予測される事故の種類に関する情報は、通知されない。すなわち、既に行った危険の報知は、再度行われない。   However, in the storage unit 15, for example, the notification time and information on the notified accident type are stored in the RAM 7. When information on the predicted accident type is newly output, the information on the accident type stored in the RAM 7 is referred to, and the information matches the newly output information on the predicted accident type. In this case, the newly output information on the predicted accident type is not notified. That is, the notification of the danger already performed is not performed again.

また、記憶部15において、RAM7に記憶される通知時刻が所定時間経過している時刻の場合、RAM7から当該通知時刻に通知した事故の種類に関する情報が消去されてもよい。このような通知装置1であれば、既に通知された事故が所定時間経過後に再度予測される場合、作業者へ危険が再度報知される。   In the storage unit 15, when the notification time stored in the RAM 7 is a time at which a predetermined time has elapsed, the information regarding the type of accident notified at the notification time may be deleted from the RAM 7. With such a notification device 1, when an already notified accident is predicted again after a predetermined time has passed, the operator is again notified of the danger.

また、ステップS105において予測される事故の種類が出力されない場合、危険の報知は行われず、カメラモジュール3による施工現場の撮影(S102)の実行に戻る。   When the predicted accident type is not output in step S105, the danger is not notified and the process returns to the execution of the construction site shooting (S102) by the camera module 3.

(ステップS107)
ステップS107では、通信部10において、通知した予測される事故の正否に関する情報が端末20から受信される。予測される事故の正否に関する情報とは、例えば端末20へ通知した画像、当該画像に映る物体の名称の正否情報や、当該画像に映る物体の正しい名称に関する情報である。
(Step S107)
In step S <b> 107, the communication unit 10 receives information about the correctness of the predicted accident notified from the terminal 20. The information on the correctness of the predicted accident is, for example, the image notified to the terminal 20, correctness information on the name of the object shown in the image, or information on the correct name of the object shown in the image.

(ステップS108)
ステップS108では、記憶部15において、端末20から受信した予測される事故の正否に関する情報が記憶される。
(Step S108)
In step S <b> 108, information related to the correctness of the predicted accident received from the terminal 20 is stored in the storage unit 15.

(ステップS109)
ステップS109では、記憶部15において、端末20から受信した予測される事故の正否に関する情報が所定量記憶されたか否かの判定が行われる。
(Step S109)
In step S <b> 109, it is determined whether or not the storage unit 15 stores a predetermined amount of information related to the correctness of the predicted accident received from the terminal 20.

(ステップS110)
ステップS110では、記憶部15において、端末20から受信した予測される事故の正否に関する情報が所定量記憶されたと判定された場合、予測される事故の正否に関する情報が通信部10を介してサーバ50へ送信される。
(Step S110)
In step S <b> 110, when it is determined in the storage unit 15 that a predetermined amount of information regarding the correctness of the predicted accident received from the terminal 20 has been stored, the information regarding the correctness of the predicted accident is stored in the server 50 via the communication unit 10. Sent to.

次に、端末20の動作の一例を説明する。図11は、カメラモジュール3によって識別モデルを生成する場合に使用される学習データが収集される場合の、端末20の動作を説明したフローチャートの一例を示している。   Next, an example of the operation of the terminal 20 will be described. FIG. 11 shows an example of a flowchart for explaining the operation of the terminal 20 when learning data used when the identification model is generated by the camera module 3 is collected.

(ステップS21)
ステップS21では、通信部30において、カメラモジュール3によって撮影された施工現場の画像に関する情報が、通知装置1の通信部10から受信される。
(Step S21)
In step S <b> 21, the communication unit 30 receives information related to the image of the construction site taken by the camera module 3 from the communication unit 10 of the notification device 1.

(ステップS22)
ステップS22では、表示部31において、受信した画像情報は、タッチパネルディスプレイ29に表示される。
(Step S22)
In step S <b> 22, the received image information is displayed on the touch panel display 29 in the display unit 31.

(ステップS23)
ステップS23では、タッチパネルディスプレイ29に表示された画像に映る物体の名称に関する情報が、タッチパネルディスプレイ29がタップされることにより入力される。そして、入力部32においてタッチパネルディスプレイ29からの入力信号は処理される。
(Step S23)
In step S <b> 23, information related to the name of the object shown in the image displayed on the touch panel display 29 is input by tapping the touch panel display 29. Then, the input signal from the touch panel display 29 is processed in the input unit 32.

(ステップS24)
ステップS24では、タッチパネルディスプレイ29に表示された画像、及び入力部32において入力された物体の名称に関する情報が、通信部30においてカメラモジュール3の通信部10へ送信される。
(Step S24)
In step S <b> 24, the image displayed on the touch panel display 29 and the information related to the name of the object input in the input unit 32 are transmitted to the communication unit 10 of the camera module 3 in the communication unit 30.

また、図12は、カメラモジュール3から危険の報知が行われた場合の、端末20の動作を説明したフローチャートの一例を示している。   FIG. 12 shows an example of a flowchart for explaining the operation of the terminal 20 when danger notification is made from the camera module 3.

(ステップS201)
ステップS201では、通信部30において、予測される事故に関する情報が、通知装置1の通信部10から受信され、危険が報知される。予測される事故に関する情報とは、例えば、予測される事故の種類が出力された場合の画像情報、画像に映る物体の名称に関する情報、及び予測される事故の種類に関する情報等である。
(Step S201)
In step S201, the communication unit 30 receives information on the predicted accident from the communication unit 10 of the notification device 1, and notifies the danger. The information on the predicted accident is, for example, image information when the predicted accident type is output, information on the name of the object shown in the image, information on the predicted accident type, and the like.

(ステップS202)
ステップS202では、表示部31において、受信した画像情報、画像に映る物体の名称に関する情報、及び予測される事故の種類に関する情報が、タッチパネルディスプレイ29に表示される。
(Step S202)
In step S <b> 202, the received image information, information about the name of the object shown in the image, and information about the predicted accident type are displayed on the touch panel display 29 on the display unit 31.

(ステップS203)
ステップS203では、タッチパネルディスプレイ29に表示された画像に映る物体の名称の正否情報や、当該画像に映る物体の正しい名称に関する情報が、タッチパネルディスプレイ29がタップされることにより入力される。そして、入力部32においてタッチパネルディスプレイ29からの入力信号は処理される。
(Step S203)
In step S203, correct / incorrect information on the name of the object shown in the image displayed on the touch panel display 29 and information on the correct name of the object shown in the image are input by tapping the touch panel display 29. Then, the input signal from the touch panel display 29 is processed in the input unit 32.

(ステップS204)
ステップS204では、入力部32において入力された予測される事故の正否に関する情報が、通信部30においてカメラモジュール3の通信部10へ送信される。
(Step S204)
In step S <b> 204, information regarding the correctness of the predicted accident input through the input unit 32 is transmitted to the communication unit 10 of the camera module 3 through the communication unit 30.

次に、サーバ50の動作の一例を説明する。図13は、識別モデルが生成される場合のサーバ50の動作を説明したフローチャートの一例を示している。   Next, an example of the operation of the server 50 will be described. FIG. 13 shows an example of a flowchart for explaining the operation of the server 50 when an identification model is generated.

(ステップS31)
ステップS31では、通信部56において、カメラモジュール3の通信部10から施工現場の画像及び当該画像に映る物体の名称に関する情報が受信される。受信した情報は記憶部57において大容量記憶装置54へ記憶される。
(Step S31)
In step S <b> 31, the communication unit 56 receives information on the construction site image and the name of the object shown in the image from the communication unit 10 of the camera module 3. The received information is stored in the mass storage device 54 in the storage unit 57.

(ステップS32)
ステップS32では、識別モデル生成部58において、大容量記憶装置54に記憶される施工現場の画像及び当該画像に映る物体の名称に関する情報を学習データとする機械学習が実行される。そして、施工現場の画像データを入力情報とし、当該画像に映る物体を識別し、識別した物体情報を出力する識別モデルが生成される。
(Step S32)
In step S <b> 32, machine learning is performed in the identification model generation unit 58 using learning site information stored in the large-capacity storage device 54 and information on the names of objects shown in the image as learning data. Then, using the image data of the construction site as input information, an identification model for identifying an object reflected in the image and outputting the identified object information is generated.

(ステップS33)
ステップS33では、対応関係生成部59において、図10に示されるような物体の名称と当該物体に起因される事故の種類との対応関係が生成される。
(Step S33)
In step S33, the correspondence generation unit 59 generates a correspondence between the name of the object as shown in FIG. 10 and the type of accident caused by the object.

(ステップS34)
ステップS34では、通信部56において、生成された識別モデルと対応関係に関する情報が圧縮され、カメラモジュール3の通信部10へ送信される。
(Step S34)
In step S <b> 34, the communication unit 56 compresses the generated information related to the identification model and the correspondence relationship, and transmits the compressed information to the communication unit 10 of the camera module 3.

また、図14は、識別モデルが更新される場合のサーバ50の動作を説明したフローチャートの一例を示している。   FIG. 14 shows an example of a flowchart explaining the operation of the server 50 when the identification model is updated.

(ステップS301)
ステップS301では、通信部56において、カメラモジュール3の通信部10から、予測される事故の正否に関する情報が受信される。予測される事故の正否に関する情報とは、例えばカメラモジュール3によって撮影された画像、当該画像から識別モデルによって識別された物体に関する情報(例えば物体の名称)の正否情報や、当該物体の正しい名称に関する情報である。受信した予測される事故の正否に関する情報は、大容量記憶装置54へ記憶される。
(Step S301)
In step S <b> 301, the communication unit 56 receives information regarding the correctness of the predicted accident from the communication unit 10 of the camera module 3. The information on the correctness of the predicted accident is, for example, the correctness information of the information (for example, the name of the object) related to the object identified by the identification model from the image captured by the camera module 3, and the correct name of the object. Information. The received information regarding the correctness of the predicted accident is stored in the mass storage device 54.

(ステップS302)
ステップS302では、識別モデル更新部60において、予測される事故の正否に関する情報を学習データとする機械学習が実行されることにより、識別モデルの更新が行われる。
(Step S302)
In step S <b> 302, the identification model update unit 60 updates the identification model by executing machine learning using information related to whether the predicted accident is correct or not as learning data.

(ステップS303)
ステップS303では、通信部56において、更新された識別モデルが通知装置1の通信部10へ送信される。
(Step S303)
In step S303, the communication unit 56 transmits the updated identification model to the communication unit 10 of the notification device 1.

<システム動作例>
次に情報処理システム100の処理の一例を説明する。図15は、識別モデルを生成する学習フェーズが実行される場合の情報処理システム100の処理の一例を示すシーケンス図である。
<System operation example>
Next, an example of processing of the information processing system 100 will be described. FIG. 15 is a sequence diagram illustrating an example of processing of the information processing system 100 when a learning phase for generating an identification model is executed.

(パターン1P01)
ステップS11の処理が実行され、カメラモジュール3による施工現場の撮影が行われる。図17は、一方のカメラモジュール3によって撮影された施工現場の画像の一例を示している。画像には、コンテナ16及びワイヤー17が映っている。
(Pattern 1P01)
The process of step S11 is executed, and the construction site is photographed by the camera module 3. FIG. 17 shows an example of an image of a construction site taken by one camera module 3. The container 16 and the wire 17 are reflected in the image.

(パターン1P02)
ステップS12の処理が実行され、カメラモジュール3によって撮影された施工現場の画像が端末20へ送信される。
(Pattern 1P02)
The process of step S <b> 12 is executed, and an image of the construction site taken by the camera module 3 is transmitted to the terminal 20.

(パターン1P03)
端末20において、ステップS21からステップS23の処理が実行される。ステップS21からステップS23の処理の実行により、カメラモジュール3によって撮影された施工現場の画像に映る物体の名称(コンテナ、ワイヤー)が、端末20のタッチパネルディスプレイ29を介して入力される。
(Pattern 1P03)
In the terminal 20, the processing from step S21 to step S23 is executed. By executing the processing from step S <b> 21 to step S <b> 23, the name of the object (container, wire) reflected in the image of the construction site photographed by the camera module 3 is input via the touch panel display 29 of the terminal 20.

(パターン1P04)
ステップS24の処理が実行され、施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が端末20からカメラモジュール3へ送信される。
(Pattern 1P04)
The process of step S24 is executed, and information on the construction site image and the name of the object shown in the construction site image is transmitted from the terminal 20 to the camera module 3.

(パターン1P05)
ステップS13の処理が実行され、カメラモジュール3において、施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が端末20から受信される。また、ステップS14の処理が実行され、RAM7に施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が所定量記憶されたか判定が行われる。そして、RAM7に施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が所定量記憶されていないと判定された場合、パターン1P01からパターン1P04までの処理が繰り返される。
(Pattern 1P05)
The process of step S <b> 13 is executed, and the camera module 3 receives information about the construction site image and the name of the object shown in the construction site image from the terminal 20. Further, the process of step S14 is executed, and it is determined whether or not a predetermined amount of information on the construction site image and the name of the object shown in the construction site image is stored in the RAM 7. When it is determined that a predetermined amount of information regarding the construction site image and the name of the object shown in the construction site image is not stored in the RAM 7, the processes from the pattern 1P01 to the pattern 1P04 are repeated.

一方、RAM7に施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が所定量記憶されていると判定された場合、ステップS15の処理が実行され、施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報は、サーバ50へ送信される。ここで、パターン1P01からパターン1P05は、サーバ50とネットワークNを介して接続される複数の通知装置1において実行される。すなわち、サーバ50へは、様々な施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報が集約されることとなる。   On the other hand, when it is determined that a predetermined amount of information on the construction site image and the name of the object shown in the construction site image is stored in the RAM 7, the process of step S15 is executed, and the construction site image Information regarding the name of the object shown in the image of the construction site is transmitted to the server 50. Here, the patterns 1P01 to 1P05 are executed in a plurality of notification devices 1 connected to the server 50 via the network N. That is, the server 50 collects information on various construction site images and names of objects shown in the construction site images.

(パターン1P06)
ステップS31からステップS33の処理が実行される。例えば、サーバ50において、カメラモジュール3から受信した施工現場の画像(例えば図17)、及び当該施工現場の画像に映る物体の名称(コンテナ、ワイヤー)に関する情報を学習データとする機械学習が実行され、識別モデルが生成される。識別モデルは、施工現場の画像からコンテナを識別する識別モデル、施工現場の画像からワイヤーを識別する識別モデルといったように、物体毎の識別モデルが生成される。また、識別モデルは、コンテナ、ワイヤーに限らず、ナイフ、脚立、パイプ、床段差等の、施工現場において存在し得る物体毎の識別モデル
が生成される。また、図10に示されるような複数の物体と、当該複数の物体に起因される事故の種類との対応関係が生成される。
(Pattern 1P06)
Processing from step S31 to step S33 is executed. For example, in the server 50, machine learning is executed using learning site information (for example, FIG. 17) received from the camera module 3 and information on the names of objects (containers, wires) reflected in the construction site image. An identification model is generated. As the identification model, an identification model for each object is generated, such as an identification model for identifying a container from an image at a construction site and an identification model for identifying a wire from an image at a construction site. In addition, the identification model is not limited to a container and a wire, and an identification model for each object that can exist at a construction site such as a knife, a stepladder, a pipe, and a floor step is generated. Also, a correspondence relationship between a plurality of objects as shown in FIG. 10 and the types of accidents caused by the plurality of objects is generated.

(パターン1P07)
ステップS34の処理が実行され、サーバ50において生成された識別モデル、及び複数の物体と、当該複数の物体に起因される事故の種類との対応関係に関する情報が圧縮され、カメラモジュール3へ送信される。
(Pattern 1P07)
The process of step S34 is executed, and the identification model generated in the server 50 and the information on the correspondence between the plurality of objects and the type of accident caused by the plurality of objects are compressed and transmitted to the camera module 3. The

次に、識別モデルに基づいて物体を識別する識別フェーズが実行される場合の情報処理システム100の処理の一例を説明する。図16は、識別モデルに基づいて物体を識別する識別フェーズが実行される場合の情報処理システム100の処理の一例を示すシーケンス図である。また、情報処理システム100は、識別された物体情報に基づいて事故を予測して危険を報知し、また予測の正否情報に基づいて識別モデルを更新する。   Next, an example of processing of the information processing system 100 when an identification phase for identifying an object based on an identification model is executed will be described. FIG. 16 is a sequence diagram illustrating an example of processing of the information processing system 100 when an identification phase for identifying an object based on an identification model is executed. Further, the information processing system 100 predicts an accident based on the identified object information and notifies the danger, and updates the identification model based on the prediction correctness information.

(パターン2P01)
ステップS101からステップS104の処理が実行される。カメラモジュール3は、施工現場を撮影し、撮影された画像と、サーバ50から受信した識別モデル、及び物体の名称と当該物体に起因される事故の種類との対応関係に基づき、事故の予測を行う。
(Pattern 2P01)
The processing from step S101 to step S104 is executed. The camera module 3 images the construction site, predicts the accident based on the captured image, the identification model received from the server 50, and the correspondence between the name of the object and the type of accident caused by the object. Do.

図18は、作業者が作業している場合に、カメラモジュール3によって撮影された画像の一例を示している。図18に示される画像には、コンテナ18、ワイヤー19が映っている。ここで、本実施形態では、識別モデルに基づき、画像からコンテナ18が識別され、ワイヤー19が識別されなかったものとする。よって、図10に示される対応関係に基づき、コンテナ18に対応する事故として「はさまれ」のみが予測され、ワイヤー19に対応する事故としての「転倒」が予測されないものとする。   FIG. 18 shows an example of an image taken by the camera module 3 when the worker is working. The container 18 and the wire 19 are reflected in the image shown in FIG. Here, in the present embodiment, it is assumed that the container 18 is identified from the image and the wire 19 is not identified based on the identification model. Therefore, based on the correspondence shown in FIG. 10, it is assumed that only “sandwiched” as an accident corresponding to the container 18 is predicted, and “falling” as an accident corresponding to the wire 19 is not predicted.

(パターン2P02)
ステップS105の処理が実行され、識別モデルから事故の種類の出力が行われたか否かの判定が行われる。そして、事故の種類の出力が行われたと判定された場合、ステップS106の処理が実行され、予測される事故に関する情報が端末20へ送信され、危険が報知される。予測される事故に関する情報とは、例えば、図18に示される画像、画像に映る物体の名称情報(コンテナ)、及び予測される事故の種類に関する情報(はさまれ)等である。また、スピーカー9から音が発せられ、作業者へ危険が報知される。
(Pattern 2P02)
The process of step S105 is executed, and it is determined whether or not an accident type has been output from the identification model. If it is determined that an accident type output has been performed, the process of step S106 is executed, information on the predicted accident is transmitted to the terminal 20, and a danger is notified. The information related to the predicted accident includes, for example, the image shown in FIG. 18, name information (container) of the object shown in the image, and information related to the predicted type of accident (sandwiched). Further, a sound is emitted from the speaker 9 to notify the operator of the danger.

(パターン2P03)
ステップS201からステップS203の処理が実行される。端末20のタッチパネルディスプレイ29に、予測される事故に関する情報が表示される。
(Pattern 2P03)
The processing from step S201 to step S203 is executed. Information on the predicted accident is displayed on the touch panel display 29 of the terminal 20.

また、タッチパネルディスプレイ29に表示された予測される事故の正否に関する情報が、タッチパネルディスプレイ29がタップされることにより入力される。予測される事故の正否に関する情報とは、例えば端末20へ通知した画像、当該画像に映る物体の名称の正否情報や、当該画像に映る物体の正しい名称に関する情報である。ここで、作業者は、ワイヤー19が識別されていないことを認識する。そして、作業者は、タッチパネルディスプレイ29から「予測否」「ワイヤー」と入力する。   In addition, information regarding the correctness of the predicted accident displayed on the touch panel display 29 is input by tapping the touch panel display 29. The information on the correctness of the predicted accident is, for example, the image notified to the terminal 20, correctness information on the name of the object shown in the image, or information on the correct name of the object shown in the image. Here, the operator recognizes that the wire 19 has not been identified. Then, the operator inputs “prediction reject” and “wire” from the touch panel display 29.

(パターン2P04)
ステップS204の処理が実行され、タッチパネルディスプレイ29から入力された予測される事故の正否に関する情報が、カメラモジュール3へ送信される。
(Pattern 2P04)
The process of step S <b> 204 is executed, and information regarding the correctness of the predicted accident input from the touch panel display 29 is transmitted to the camera module 3.

(パターン2P05)
ステップS107からステップS108の処理が実行され、端末20から予測される事故の正否に関する情報が受信され、受信した予測される事故の正否に関する情報がRAM7へ記憶される。
(Pattern 2P05)
The processing from step S107 to step S108 is executed, information related to the correctness of the predicted accident is received from the terminal 20, and the received information related to the correctness of the predicted accident is stored in the RAM 7.

(パターン2P06)
ステップS109の処理が実行され、RAM7に予測される事故の正否に関する情報が所定量記憶されたか否かの判定を行う。そして、RAM7に予測される事故の正否に関する情報が所定量記憶されていないと判定された場合、パターン2P01のS102の処理からパターン2P06の処理が繰り返し実行される。
(Pattern 2P06)
The process of step S109 is executed, and it is determined whether or not a predetermined amount of information related to the correctness of the predicted accident is stored in the RAM 7. If it is determined that a predetermined amount of information regarding the correctness of the predicted accident is not stored in the RAM 7, the process of pattern 2P06 is repeatedly executed from the process of S102 of pattern 2P01.

(パターン2P07)
RAM7に予測される事故の正否に関する情報が所定量記憶されたと判定された場合、ステップS110の処理が実行され、予測される事故の正否に関する情報がサーバ50へ送信される。
(Pattern 2P07)
When it is determined that a predetermined amount of information regarding the correctness of the predicted accident is stored in the RAM 7, the process of step S <b> 110 is executed, and information regarding the correctness of the predicted accident is transmitted to the server 50.

(パターン2P08)
ステップS301からステップS302の処理が実行され、サーバ50において、受信した予測される事故の正否に関する情報を学習データとする機械学習が実行され、識別モデルが更新される。本実施形態では、図18に示される画像からワイヤーが識別されなかったため、例えばサーバ50において図18に示される画像と、物体の名称「ワイヤー」というデータを学習データとする機械学習が実行され、識別モデルが更新される。
(Pattern 2P08)
The processing from step S301 to step S302 is executed, and in the server 50, machine learning is performed using the received information on whether the predicted accident is correct or not as learning data, and the identification model is updated. In this embodiment, since the wire is not identified from the image shown in FIG. 18, for example, the server 50 executes machine learning using the image shown in FIG. 18 and the data of the object name “wire” as learning data, The identification model is updated.

(パターン2P09)
ステップS303の処理が実行され、更新された識別モデルがサーバ50からカメラモジュール3へ送信される。そして、パターン2P01からの処理が繰り返し実行される。
(Pattern 2P09)
The process of step S <b> 303 is executed, and the updated identification model is transmitted from the server 50 to the camera module 3. Then, the process from the pattern 2P01 is repeatedly executed.

<作用・効果>
上記のような情報処理システムであれば、サーバ50において、施工現場が映る画像を学習データとする機械学習によって、施工現場が映る画像から物体を識別する識別モデルが生成される。また、図10に示されるように、物体の名称と当該物体に起因される事故の種類との対応関係が生成される。よって、作業者に装着されるカメラによって撮影された画像から事故を予測することができる。また、当該事故が予測された場合に、スピーカー9や端末20を介して作業者へ危険を報知することにより、作業者による事故を未然に防ぐことができる。
<Action and effect>
In the case of the information processing system as described above, the server 50 generates an identification model for identifying an object from an image showing the construction site by machine learning using an image showing the construction site as learning data. Also, as shown in FIG. 10, a correspondence between the name of the object and the type of accident caused by the object is generated. Therefore, an accident can be predicted from an image photographed by a camera attached to the worker. In addition, when the accident is predicted, the operator can be prevented from accidents by notifying the operator of the danger via the speaker 9 or the terminal 20.

また、作業者は、端末20のタッチパネルディスプレイ29に表示された予測される事故に関する情報を見て、当該予測の正否に関する情報を入力することができる。そして、入力された予測される事故の正否に関する情報がサーバ50へ送信される。サーバ50では、当該予測される事故の正否に関する情報を学習データとする機械学習によって、識別モデルは更新される。そして、カメラモジュール3では、更新された識別モデルに基づき、事故の予測が再度行われる。上記の実施形態の場合、当初生成された識別モデルでは、図18に示される画像からワイヤー19を識別できなかった。しかしながら、作業者が入力した予測が否であるという情報と、物体がワイヤーであるという情報に基づき、サーバ50において識別モデルを更新している。すなわち、事故の予測の精度は、高められる。   In addition, the worker can input information on whether the prediction is correct by looking at information on the predicted accident displayed on the touch panel display 29 of the terminal 20. Then, information regarding whether the inputted predicted accident is correct or not is transmitted to the server 50. In the server 50, the identification model is updated by machine learning using the information on whether the predicted accident is correct or not as learning data. In the camera module 3, the accident is predicted again based on the updated identification model. In the case of the above embodiment, the wire 19 cannot be identified from the image shown in FIG. 18 with the initially generated identification model. However, the identification model is updated in the server 50 based on the information that the prediction input by the worker is negative and the information that the object is a wire. That is, the accuracy of accident prediction is improved.

また、図10に示される物体の名称と当該物体に起因される事故の種類との対応関係は、施工現場において過去に起こった事故を集計したデータに基づいて作成されている。すなわち、情報処理システム100は、過去に起こった事故のデータをノウハウとして活用することができる。   Further, the correspondence relationship between the name of the object shown in FIG. 10 and the type of accident caused by the object is created based on data obtained by totaling accidents that occurred in the past at the construction site. That is, the information processing system 100 can use data on accidents that have occurred in the past as know-how.

また、カメラモジュール3は、フラッシュメモリ、USBメモリ、SD(Secure
Digital)メモリカード等の補助記憶装置33を備えてもよい。そして、パターン1P05における施工現場の画像、及び当該施工現場の画像に映る物体の名称に関する情報の記憶が、RAM7に代わって補助記憶装置33へ記憶されてもよい。また、パターン2P05における予測される事故の正否に関する情報の記憶が、RAM7に代わって補助記憶装置33へ記憶されてもよい。そして、パターン1P05やパターン2P07において実現されるカメラモジュール3からサーバ50への情報の送信が、補助記憶装置33をカメラモジュール3から抜き、サーバ50へ挿すことによって実現されてもよい。
The camera module 3 includes a flash memory, a USB memory, and an SD (Secure
An auxiliary storage device 33 such as a digital memory card may be provided. And the memory | storage of the information regarding the name of the object reflected in the image of the construction site in the pattern 1P05 and the said construction site may be memorize | stored in the auxiliary storage device 33 instead of RAM7. In addition, storage of information regarding the correctness of the predicted accident in the pattern 2P05 may be stored in the auxiliary storage device 33 instead of the RAM 7. Then, the transmission of information from the camera module 3 to the server 50 realized in the pattern 1P05 or the pattern 2P07 may be realized by removing the auxiliary storage device 33 from the camera module 3 and inserting it into the server 50.

また、本実施形態では、識別モデルを生成する場合の学習データはカメラモジュール3によって撮影されたものであったが、カメラモジュール3に限らず、施工現場が映る画像であればどのような電子機器で撮影された画像であってもよい。また、学習データは、例えばCAD(Computer Aided Design)によって生成された施工現場の図であってもよい。   In the present embodiment, the learning data for generating the identification model was captured by the camera module 3, but not only the camera module 3, but any electronic device as long as it is an image showing a construction site It may be an image taken in The learning data may be a construction site diagram generated by, for example, CAD (Computer Aided Design).

また、識別モデル生成部58では、例えば、図10の対応関係に示されるように、パイプを識別する識別モデルA、ねじ切り旋盤を識別する識別モデルBといったように物体毎の識別モデルが生成されているが、画像から鋭利な形状を識別し、サンダー、カッターナイフ等の物体であると識別する識別モデルC、あるいは画像から地面を識別し、地面付近に映る物体を台車、配管材、ダクト材、高所作業車、コンテナ等の物体であると識別する識別モデルDが生成されてもよい。   Further, in the identification model generation unit 58, for example, as shown in the correspondence relationship in FIG. 10, an identification model for each object is generated such as an identification model A for identifying a pipe and an identification model B for identifying a thread turning lathe. However, the sharp shape is identified from the image, the identification model C is identified as an object such as a sander, a cutter knife, or the like, or the ground is identified from the image, and the object reflected in the vicinity of the ground is a carriage, piping material, duct material, An identification model D that identifies an object such as an aerial work vehicle or a container may be generated.

また、サーバ50の識別モデル生成部58や識別モデル更新部60において、物体毎の識別モデルの生成あるいは更新を行う場合であって、識別される物体に対応する事故の種類が類似している場合、共通する学習データが使用されてもよい。例えば、事故の種類のうちの1つである転落に対応する物体である床開口を識別する識別モデルは、床開口が映る画像を学習することによって生成・更新される。ここで、事故の種類のうちの1つである転倒は転落と類似しているため、転倒に対応する物体である床隙間を識別する識別モデルは、床開口の識別モデルの生成や更新の場合に使用された画像データを学習することによって、生成・更新されてもよい。   Further, when the identification model generation unit 58 or the identification model update unit 60 of the server 50 generates or updates an identification model for each object, and the types of accidents corresponding to the identified objects are similar. Common learning data may be used. For example, an identification model for identifying a floor opening that is an object corresponding to a fall that is one of the types of accidents is generated and updated by learning an image in which the floor opening is reflected. Here, since a fall that is one of the types of accidents is similar to a fall, an identification model for identifying a floor gap that is an object corresponding to a fall is a case of generating or updating a floor opening identification model It may be generated / updated by learning the image data used for.

また、通知装置1は、例えば外部の電子機器と無線通信を行うことのできる眼鏡型ディスプレイを備えてもよい。このような通知装置1であれば、例えば作業者がサンダーを使用するといったスピーカー9から発せられる音が聴き取りにくく、作業者が聴覚を通じて危険の報知を認識できない虞のある場合であっても、眼鏡型ディスプレイに、予測される事故の種類に関する情報を表示させることや、眼鏡型ディスプレイの所定の部分を発光させることによって、作業者へ視覚を通じて事故の危険を認識させることができる。また、通知装置1は、識別モデル毎に危険の報知方法を異ならせてもよい。例えば、通知装置1は、施工現場が映る画像からサンダーを識別する識別モデルに基づいて事故が予測された場合には、眼鏡型ディスプレイに「切れ、こすれ」という情報を表示させ、一方で施工現場が映る画像から床段差を識別する識別モデルに基づいて事故が予測された場合には、スピーカー9から音を発することによって危険を報知してもよい。   Further, the notification device 1 may include a glasses-type display that can perform wireless communication with an external electronic device, for example. With such a notification device 1, for example, even when a worker uses a thunder, it is difficult to hear the sound emitted from the speaker 9, and the worker may not be able to recognize the danger notification through hearing. By displaying information on the predicted type of accident on the glasses-type display or by causing a predetermined part of the glasses-type display to emit light, it is possible to make the operator recognize the danger of the accident through vision. Further, the notification device 1 may change the danger notification method for each identification model. For example, when an accident is predicted based on an identification model that identifies a sander from an image showing a construction site, the notification device 1 displays information “cut and rub” on the glasses-type display, while the construction site If an accident is predicted based on an identification model that identifies a floor step from an image in which a noise is reflected, the danger may be notified by emitting a sound from the speaker 9.

また、識別モデルや対応関係の事故の種類には、通知優先度の情報が含まれていてもよい。そして、例えば、ステップS105における事故予測部13において、予測される事故の種類が出力されたか否かの判定は、通知優先度の高い識別モデルに基づく出力から順に判定されてもよい。また、例えば、施工現場が映る画像から複数の識別モデルと対応関係に基づいて複数の予測される事故の種類が出力された場合、通知優先度の高い事故の種類から順に作業者へ通知されてもよい。また、当該優先度に応じて、スピーカー9から発せられる音の大きさや端末20の表示内容等が変更されてもよい。また、当該優先度は、
例えば過去に起こった事故による怪我の全治日数等のデータに基づいて設定されてもよい。
Further, notification priority information may be included in the identification model and the type of accident in the correspondence relationship. Then, for example, in the accident prediction unit 13 in step S105, the determination as to whether or not the predicted accident type has been output may be determined in order from the output based on the identification model having a high notification priority. Also, for example, when a plurality of predicted accident types are output based on a plurality of identification models and correspondences from an image showing the construction site, the operator is notified in order from the type of accident with the highest notification priority. Also good. Further, the loudness emitted from the speaker 9, the display content of the terminal 20, and the like may be changed according to the priority. Also, the priority is
For example, it may be set based on data such as the total number of days of injury caused by accidents that occurred in the past.

以上、本発明の好ましい実施の形態の一例を説明したが、本発明は図示の形態に限定されない。当業者であれば、特許請求の範囲に記載された思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although an example of preferable embodiment of this invention was demonstrated, this invention is not limited to the form of illustration. It is obvious for those skilled in the art that various modifications or modifications can be conceived within the scope of the idea described in the claims, and these naturally belong to the technical scope of the present invention. It is understood.

1・・通知装置;2・・ヘルメット;3・・カメラモジュール;4・・ICチップ;5・・アンテナ;6・・CPU;7・・RAM;8・・ライト;9・・スピーカー;10・・通信部;11・・撮影処理部;12・・識別部;13・・事故予測部;14・・通知部;15・・記憶部;16・・コンテナ;17・・ワイヤー;18・・コンテナ;19・・ワイヤー;20・・端末;21・・CPU;22・・RAM;23・・ROM、24・・無線通信I/F;25・・大容量記憶装置;27・・表示装置;28・・入力装置;29・・タッチパネルディスプレイ;30・・通信部;31・・表示部;32・・入力部;33・・補助記憶装置;50・・サーバ;51・・CPU;52・・RAM;53・・ROM;54・・大容量記憶装置;55・・NIC;56・・通信部;57・・記憶部;58・・識別モデル生成部;59・・対応関係生成部;60・・識別モデル更新部;100・・情報処理システム;N・・ネットワーク 1. Notification device; 2. Helmet; 3. Camera module; 4. IC chip; 5. Antenna; 6. CPU: 7. RAM: 8. Light: 9. Speaker: 10.・ Communication section; 11. ・ Photographing processing section; 12 ・ ・ Identification section; 13 ・ ・ Accident prediction section; 14 ・ ・ Notification section; 15 ・ ・ Storage section; 16 ・ ・ Container; 17 ・ ・ Wire; 18 ・ ・ Container 19 .Wire; 20 ..Terminal; 21 ..CPU; 22 ..RAM; 23 ..ROM, 24 ..Wireless communication I / F; 25 .. Mass storage device; ..Input device; 29..Touch panel display; 30..Communication part; 31..Display part; 32..Input part; 33..Auxiliary storage device; 50..Server; 51..CPU; 52. 53. ROM; 54 Mass storage device; 5 .. NIC; 56. Communication unit; 57. Storage unit; 58 ... Discrimination model generation unit; 59 ... Correspondence relationship generation unit; 60 ... Discrimination model update unit; 100 ... Information processing system; ·network

Claims (8)

施工現場において作業する作業者に装着されるカメラと、
施工現場が映る画像から施工現場における事故の発生を予測する場合に参照されるモデルに基づいて、前記カメラによって撮影された画像に映る物体から事故の発生を予測する予測手段と、
前記予測手段によって事故の発生が予測された場合に、前記予測を前記作業者へ通知する通知手段と、
前記カメラによって撮影された画像と、前記通知手段によって前記予測が前記作業者へ通知された場合に、前記作業者が前記予測の正否を入力する入力手段によって入力された前記予測の正否情報とを、施工現場が映る画像を学習データとする機械学習によって前記モデルを生成し、前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとする機械学習によって前記モデルを更新するサーバへ送信する送信手段と、
前記サーバにおいて更新された前記モデルを前記サーバから取得する取得手段と、を備える、
通知装置。
A camera attached to a worker who works at the construction site;
Based on a model that is referenced when predicting the occurrence of an accident at a construction site from an image showing the construction site, a predicting means for predicting the occurrence of an accident from an object reflected in the image taken by the camera;
A notification means for notifying the operator of the prediction when an occurrence of an accident is predicted by the prediction means;
An image photographed by the camera and the prediction correctness information input by the input means for the operator to input the correctness of the prediction when the prediction is notified to the worker by the notification means. The model is generated by machine learning using an image showing the construction site as learning data, and transmitted to the server that updates the model by machine learning using the image captured by the camera and the prediction correctness information as learning data. Sending means to
Obtaining means for obtaining the model updated in the server from the server,
Notification device.
施工現場が映る画像を学習データとする機械学習によって施工現場における事故の発生を予測する場合に参照されるモデルを生成するモデル生成手段と、
前記モデル生成手段によって生成された前記モデルに基づいて、施工現場において作業する作業者に装着されるカメラによって撮影された画像に映る物体から、事故の発生を予測して前記作業者へ通知し、前記作業者が前記通知した予測の正否情報を入力する情報機器へ、前記モデルを送信する送信手段と、
前記カメラによって撮影された画像、及び前記作業者が入力した前記予測の正否情報を、前記情報機器から受信する受信手段と、
前記受信手段によって受信した前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとする機械学習により前記モデルを更新するモデル更新手段と、を備える、
情報処理装置。
Model generation means for generating a model to be referred to when predicting the occurrence of an accident at the construction site by machine learning using an image showing the construction site as learning data,
Based on the model generated by the model generation means, from an object reflected in an image taken by a camera attached to a worker working at a construction site, predicting the occurrence of an accident and notifying the worker, Transmitting means for transmitting the model to an information device that inputs the correctness information of the prediction notified by the worker;
Receiving means for receiving, from the information device, the image taken by the camera and the prediction correctness information input by the worker;
Model update means for updating the model by machine learning using the image received by the camera received by the receiving means and the prediction correctness information as learning data,
Information processing device.
施工現場において作業する作業者へ事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムであって、
前記通知装置は、
前記作業者に装着されるカメラと、
前記モデルを前記情報処理装置から取得する取得手段と、
前記モデルに基づいて、前記カメラによって撮影された画像に映る物体から事故の発生を予測する予測手段と、
前記予測手段によって事故の発生が予測された場合に、前記予測を前記作業者へ通知する通知手段と、
前記通知手段によって前記予測が前記作業者へ通知された場合に、前記作業者が前記予測の正否を入力する入力手段と、
前記カメラによって撮影された画像、及び前記入力手段によって入力された前記予測の正否情報を、前記情報処理装置へ送信する送信手段と、を備え、
前記情報処理装置は、
施工現場が映る画像を学習データとした機械学習によって前記モデルを生成するモデル生成手段と、
前記モデル生成手段によって生成された前記モデルを前記通知装置へ送信する送信手段と、
前記通知装置の前記カメラによって撮影された画像、及び前記通知装置の前記入力手
段によって入力された前記予測の正否情報を、前記通知装置から受信する受信手段と、
前記受信手段によって受信した前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとした機械学習により前記モデルを更新するモデル更新手段と、を備え、
前記通知装置の前記取得手段は、前記更新されたモデルを前記情報処理装置から取得する、
情報処理システム。
An information processing system formed by a notification device that notifies workers working on the construction site of the prediction of the accident and an information processing device that generates a model that is referenced when predicting the occurrence of the accident from the image of the construction site There,
The notification device includes:
A camera mounted on the operator;
Obtaining means for obtaining the model from the information processing apparatus;
Prediction means for predicting the occurrence of an accident from an object shown in an image photographed by the camera based on the model;
A notification means for notifying the operator of the prediction when an occurrence of an accident is predicted by the prediction means;
When the notification is notified to the worker by the notification means, the input means by which the worker inputs the correctness of the prediction;
Transmission means for transmitting the image captured by the camera and the prediction correctness information input by the input means to the information processing apparatus,
The information processing apparatus includes:
A model generating means for generating the model by machine learning using an image showing a construction site as learning data;
Transmitting means for transmitting the model generated by the model generating means to the notification device;
Receiving means for receiving, from the notification device, an image photographed by the camera of the notification device and the prediction correctness information input by the input means of the notification device;
An image taken by the camera received by the receiving means, and a model updating means for updating the model by machine learning using the prediction correctness information as learning data,
The acquisition unit of the notification device acquires the updated model from the information processing device;
Information processing system.
前記モデルは、
前記施工現場が映る画像から識別対象物を識別する識別モデルと、
前記識別対象物と、前記識別対象物に起因される事故の種類との対応関係と、を含む、
請求項3に記載の情報処理システム。
The model is
An identification model for identifying an identification object from an image showing the construction site;
The correspondence between the identification object and the type of accident caused by the identification object,
The information processing system according to claim 3.
前記対応関係は、複数の識別対象物と、前記複数の識別対象物に起因される事故の種類との対応関係である、
請求項4に記載の情報処理システム。
The correspondence relationship is a correspondence relationship between a plurality of identification objects and types of accidents caused by the plurality of identification objects.
The information processing system according to claim 4.
施工現場において作業する作業者へ事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムが実行する情報処理方法であって、
前記通知装置が、
前記モデルを前記情報処理装置から取得する取得ステップと、
前記モデルに基づいて、前記作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する予測ステップと、
前記予測ステップによって事故の発生が予測された場合に、前記予測を前記作業者へ通知する通知ステップと、
前記通知ステップによって前記予測が前記作業者へ通知された場合に、前記作業者が前記予測の正否を入力する入力ステップと、
前記カメラによって撮影された画像、及び前記入力ステップによって入力された前記予測の正否情報を、前記情報処理装置へ送信する送信ステップと、を実行し、
前記情報処理装置が、
施工現場が映る画像を学習データとした機械学習によって前記モデルを生成するモデル生成ステップと、
前記モデル生成ステップによって生成された前記モデルを前記通知装置へ送信する送信ステップと、
前記カメラによって撮影された画像、及び前記通知装置の前記入力ステップによって入力された前記予測の正否情報を、前記通知装置から受信する受信ステップと、
前記受信ステップによって受信した前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとした機械学習により前記モデルを更新するモデル更新ステップと、を実行し、
前記通知装置の前記取得ステップは、前記更新されたモデルを前記情報処理装置から取得する、
情報処理方法。
An information processing system formed by a notification device that notifies a worker working at a construction site of an accident prediction and an information processing device that generates a model that is referenced when predicting the occurrence of an accident from an image of the construction site. An information processing method to be executed,
The notification device is
An acquisition step of acquiring the model from the information processing apparatus;
Based on the model, a prediction step of predicting the occurrence of an accident from an object shown in an image taken by a camera attached to the worker;
A notification step of notifying the operator of the prediction when the occurrence of an accident is predicted by the prediction step;
An input step in which the operator inputs whether the prediction is correct or not when the prediction is notified to the worker in the notification step;
Transmitting the image photographed by the camera and the prediction correctness information input in the input step to the information processing apparatus, and
The information processing apparatus is
A model generation step for generating the model by machine learning using an image showing a construction site as learning data;
A transmission step of transmitting the model generated by the model generation step to the notification device;
A receiving step of receiving, from the notification device, the image captured by the camera and the prediction correctness information input by the input step of the notification device;
A model update step of updating the model by machine learning using the image received by the camera received by the reception step and the prediction correctness information as learning data; and
The obtaining step of the notification device obtains the updated model from the information processing device;
Information processing method.
施工現場において作業する作業者へ事故の予測を通知する通知装置と、施工現場が映る画像から事故の発生を予測する場合に参照されるモデルを生成する情報処理装置によって形成される情報処理システムに実行させる情報処理プログラムであって、
前記通知装置に、
前記モデルを前記情報処理装置から取得する取得処理と、
前記モデルに基づいて、前記作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生を予測する予測処理と、
前記予測処理によって事故の発生が予測された場合に、前記予測を前記作業者へ通知する通知処理と、
前記通知処理によって前記予測が前記作業者へ通知された場合に、前記作業者が前記予測の正否を入力する入力処理と、
前記カメラによって撮影された画像、及び前記入力処理によって入力された前記予測の正否情報を、前記情報処理装置へ送信する送信処理と、を実行させ、
前記情報処理装置に、
施工現場が映る画像を学習データとした機械学習によって前記モデルを生成するモデル生成処理と、
前記モデル生成処理によって生成された前記モデルを前記通知装置へ送信する送信処理と、
前記カメラによって撮影された画像、及び前記通知装置の前記入力処理によって入力された前記予測の正否情報を、前記通知装置から受信する受信処理と、
前記受信処理によって受信した前記カメラによって撮影された画像、及び前記予測の正否情報を学習データとした機械学習により前記モデルを更新するモデル更新処理と、を実行させ、
前記通知装置に実行させる前記取得処理は、前記更新されたモデルを前記情報処理装置から取得する、
情報処理プログラム。
An information processing system formed by an information processing system that generates a model that is referenced when predicting the occurrence of an accident from an image that shows the construction site, and a notification device that notifies the worker working at the construction site of the prediction of the accident An information processing program to be executed,
In the notification device,
An acquisition process for acquiring the model from the information processing apparatus;
Based on the model, a prediction process for predicting the occurrence of an accident from an object shown in an image taken by a camera attached to the worker;
A notification process for notifying the operator of the prediction when an accident is predicted by the prediction process;
When the prediction is notified to the worker by the notification processing, the worker inputs the prediction whether the prediction is correct;
A transmission process for transmitting the image captured by the camera and the prediction correctness information input by the input process to the information processing apparatus;
In the information processing apparatus,
Model generation processing for generating the model by machine learning using an image showing a construction site as learning data;
A transmission process for transmitting the model generated by the model generation process to the notification device;
A reception process for receiving, from the notification apparatus, the image captured by the camera and the prediction correctness information input by the input process of the notification apparatus;
An image captured by the camera received by the reception process, and a model update process for updating the model by machine learning using the prediction accuracy information as learning data,
The acquisition process to be executed by the notification device acquires the updated model from the information processing device.
Information processing program.
情報処理装置に、
施工現場が映る画像を学習データとした機械学習によって生成されるモデルであって、施工現場における事故の発生を予測する場合に参照されるモデルに基づいて、施工現場において作業する作業者に装着されるカメラによって撮影された画像に映る物体から事故の発生が予測された場合に、前記予測情報を受信する受信処理と、
前記予測情報を受信した場合に、機械学習によって前記モデルを更新する場合に前記機械学習の学習データとして使用される前記予測の正否が入力される入力処理と、を実行させる、
情報処理プログラム。
In the information processing device,
It is a model generated by machine learning using learning images as images of the construction site, and is attached to workers working at the construction site based on a model that is referenced when predicting the occurrence of an accident at the construction site. A reception process for receiving the prediction information when an accident is predicted from an object reflected in an image captured by a camera.
When the prediction information is received, an input process for inputting whether the prediction is correct or not, which is used as learning data for the machine learning when the model is updated by machine learning, is executed.
Information processing program.
JP2018090810A 2018-05-09 2018-05-09 Notification device, information processing device, information processing system, information processing method, and information processing program Active JP7131958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018090810A JP7131958B2 (en) 2018-05-09 2018-05-09 Notification device, information processing device, information processing system, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018090810A JP7131958B2 (en) 2018-05-09 2018-05-09 Notification device, information processing device, information processing system, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2019197373A true JP2019197373A (en) 2019-11-14
JP7131958B2 JP7131958B2 (en) 2022-09-06

Family

ID=68537594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018090810A Active JP7131958B2 (en) 2018-05-09 2018-05-09 Notification device, information processing device, information processing system, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7131958B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022055229A (en) * 2020-09-28 2022-04-07 横河電機株式会社 Monitoring device, learning apparatus, method and program
WO2022157988A1 (en) * 2021-01-22 2022-07-28 オムロン株式会社 Work estimation device, control method for work estimation device, information processing program, and recording medium
WO2022163761A1 (en) 2021-01-29 2022-08-04 株式会社Dxb Management system, evaluation system, and personnel training method
JP7147942B1 (en) 2021-09-07 2022-10-05 トヨタ自動車株式会社 Data collection device, data collection system, data collection method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09196825A (en) * 1996-01-18 1997-07-31 Fuji Facom Corp Abnormality detecting device for plant
JP2014120786A (en) * 2012-12-13 2014-06-30 Seiko Epson Corp Head-mounted display device and control method of head-mounted display device
JP2014119786A (en) * 2012-12-13 2014-06-30 Seiko Epson Corp Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2015158846A (en) * 2014-02-25 2015-09-03 株式会社国際電気通信基礎技術研究所 Safety management system, safety management program and safety management method
US20160342840A1 (en) * 2015-05-18 2016-11-24 Daqri, Llc Threat identification system
JP2016224547A (en) * 2015-05-27 2016-12-28 株式会社リコー Image processing apparatus, image processing system, and image processing method
US20160375524A1 (en) * 2015-06-24 2016-12-29 Illinois Tool Works Inc. Time of flight camera for welding machine vision
JP2017142790A (en) * 2017-02-01 2017-08-17 セイコーエプソン株式会社 Head mounting type display device, control method of head mounting type display device, and work supporting system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09196825A (en) * 1996-01-18 1997-07-31 Fuji Facom Corp Abnormality detecting device for plant
JP2014120786A (en) * 2012-12-13 2014-06-30 Seiko Epson Corp Head-mounted display device and control method of head-mounted display device
JP2014119786A (en) * 2012-12-13 2014-06-30 Seiko Epson Corp Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2015158846A (en) * 2014-02-25 2015-09-03 株式会社国際電気通信基礎技術研究所 Safety management system, safety management program and safety management method
US20160342840A1 (en) * 2015-05-18 2016-11-24 Daqri, Llc Threat identification system
JP2016224547A (en) * 2015-05-27 2016-12-28 株式会社リコー Image processing apparatus, image processing system, and image processing method
US20160375524A1 (en) * 2015-06-24 2016-12-29 Illinois Tool Works Inc. Time of flight camera for welding machine vision
JP2017142790A (en) * 2017-02-01 2017-08-17 セイコーエプソン株式会社 Head mounting type display device, control method of head mounting type display device, and work supporting system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022055229A (en) * 2020-09-28 2022-04-07 横河電機株式会社 Monitoring device, learning apparatus, method and program
US11881048B2 (en) 2020-09-28 2024-01-23 Yokogawa Electric Corporation Monitoring device, learning apparatus, method and storage medium
WO2022157988A1 (en) * 2021-01-22 2022-07-28 オムロン株式会社 Work estimation device, control method for work estimation device, information processing program, and recording medium
WO2022163761A1 (en) 2021-01-29 2022-08-04 株式会社Dxb Management system, evaluation system, and personnel training method
JP7147942B1 (en) 2021-09-07 2022-10-05 トヨタ自動車株式会社 Data collection device, data collection system, data collection method
JP2023038803A (en) * 2021-09-07 2023-03-17 トヨタ自動車株式会社 Data collection device, data collection system and data collection method

Also Published As

Publication number Publication date
JP7131958B2 (en) 2022-09-06

Similar Documents

Publication Publication Date Title
JP7131958B2 (en) Notification device, information processing device, information processing system, information processing method, and information processing program
CN108229332B (en) Bone posture determination method, device and computer readable storage medium
JP4830696B2 (en) Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program
KR101431424B1 (en) Plant system for supporting operation/maintenance using smart helmet capable of bi-directional communication and method thereof
US20220291289A1 (en) Methods for estimating a number of workflow cycles able to be completed from a remaining battery capacity
CN111988524A (en) Unmanned aerial vehicle and camera collaborative obstacle avoidance method, server and storage medium
KR101779827B1 (en) A system and a computer readable storage medium for remote monitoring and controling of fabrication facility
JP2022103189A (en) Work site monitoring device, work site monitoring system, work site monitoring method, and program
JP2016224547A (en) Image processing apparatus, image processing system, and image processing method
CN112561859A (en) Monocular vision-based steel belt drilling and anchor net identification method and device for anchoring and protecting
KR102327507B1 (en) Method for providing information for car accident and an apparatus for the same
JP7160257B2 (en) Information processing device, information processing method, and program
CN108712604B (en) Panoramic shooting method and mobile terminal
WO2019093297A1 (en) Information processing device, control method, and program
KR20190058206A (en) Apparatus and method for predicting disease based on behavior information
WO2019012823A1 (en) Object identification system
CN113065787A (en) Emergency plan generation method and system based on scene construction
US11070425B2 (en) Method and system of detecting device rearrangement in manufacturing field
JP5779302B1 (en) Information processing apparatus, information processing method, and program
JP2020197971A (en) Intrusion detection device, program, and intrusion detection system
JP7406038B1 (en) Work support system and work support method
JP7055186B2 (en) Object identification system
US20200273202A1 (en) Image processing apparatus and image processing method
JP7268425B2 (en) Systems, devices, information processing devices, and programs
JP7364148B2 (en) Wild animal warning system and wild animal warning method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220825

R150 Certificate of patent or registration of utility model

Ref document number: 7131958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150