JP6884819B2 - Safety management equipment, safety management methods and safety management programs - Google Patents
Safety management equipment, safety management methods and safety management programs Download PDFInfo
- Publication number
- JP6884819B2 JP6884819B2 JP2019118777A JP2019118777A JP6884819B2 JP 6884819 B2 JP6884819 B2 JP 6884819B2 JP 2019118777 A JP2019118777 A JP 2019118777A JP 2019118777 A JP2019118777 A JP 2019118777A JP 6884819 B2 JP6884819 B2 JP 6884819B2
- Authority
- JP
- Japan
- Prior art keywords
- whole body
- body image
- posture
- processing unit
- safety management
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、安全管理装置、安全管理方法及び安全管理プログラムに関する。 The present invention relates to a safety management device, a safety management method and a safety management program.
製造現場で働く作業員は、労働災害と隣合わせであり、立ち作業を長時間連続する、不安全な作業姿勢を取る等によって腰等を痛めてしまう可能性もある。企業においては、労働者の安全を守るための労働基準法を遵守することはもとより、労働災害を防止するため、安全衛生活動を推進している。労働衛生活動の基本は、“安全教育”、“現場巡視”及び“安全指導”の確実な実行である。この考えのもと、現場のリーダが中心になって、安全教育を実施し、現場巡視により問題場面(不安全なポテンシャルのある作業場面)を検出し、現場指導による改善活動へ繋げている。 Workers working at the manufacturing site are next to each other due to occupational accidents, and there is a possibility that they may hurt their lower back due to continuous standing work for a long time or taking an unsafe working posture. Companies not only comply with the Labor Standards Law to protect the safety of workers, but also promote safety and health activities to prevent occupational accidents. The basis of occupational health activities is the reliable implementation of "safety education," "site inspection," and "safety guidance." Based on this idea, on-site leaders play a central role in conducting safety education, detecting problematic situations (working situations with unsafe potential) through on-site inspections, and linking them to improvement activities through on-site guidance.
このような取り組みにおいて、人手による現場巡視には限界がある。そこで、問題場面を発見するために、ビデオカメラ等が撮像した現場の画像を、計算機システムが記憶し再生することになる。しかしながら、再生された映像のなかから、必要な映像を人的に切り出すには、多くの時間が必要となる。 In such efforts, there is a limit to manual site patrols. Therefore, in order to find a problem scene, the computer system memorizes and reproduces the image of the site captured by the video camera or the like. However, it takes a lot of time to humanly cut out the necessary video from the reproduced video.
特許文献1において、作業員は、カメラを頭部に装着し、加速度計を腰部に装着する。カメラは、作業員が現に視認している対象物(足場、梯子等)を撮像する。加速度計は、作業員の動作を検知する。特許文献1の安全管理システムは、対象物及び動作の時系列の組み合わせである“基本行動パターン”を予め記憶している。基本行動パターンは、安全行動のサンプルである。特許文献1の安全管理システムは、時々刻々と取得される対象物及び動作の組み合わせが、基本行動パターンから逸脱した場合、作業員に警報を発する。
In
特許文献2の姿勢推定装置は、撮像した人間の画像をサンプルの画像と照合する。撮像した画像中のある部位(上腕、大腿部等)が他の部位に隠蔽されている場合、撮像した画像を正確にサンプル画像と照合することができない。そこで、特許文献2の姿勢推定装置は、撮像した画像の部位の平行線成分の長さに応じて部位ごとに重みを付す、つまり、隠蔽された部位に注目するか無視するかを区別する。
The posture estimation device of
特許文献1の安全管理システムは、作業員にカメラ及び加速度計を装着させる。このことは、現場の作業員に負担(手間)を課す可能性がある。また、特許文献1の安全管理システムのカメラは、作業員の全身姿勢を撮像することができない。さらに、特許文献1は、作業員に対する安全教育のための資料を提供することには言及していない。特許文献2の姿勢推定装置は、画像の一部が隠蔽されていても、なんらかの姿勢を推定することが目的であり、特許文献2は、姿勢の安全性については言及していない。
そこで、本発明は、作業員に負担を課すことなく不安全な全身姿勢を検知し安全教育を効果的に行うことを目的とする。
The safety management system of
Therefore, an object of the present invention is to detect an unsafe whole body posture and effectively perform safety education without imposing a burden on the worker.
本発明の安全管理装置は、現場においてカメラが撮像した人間の全身画像から抽出された骨格情報を入力すると全身画像の姿勢を示す文字列を出力する姿勢推定モデルを、ユーザが指定する全身画像に対してユーザが指定する不安全姿勢を示す文字列をラベル付けした学習データを使用して学習する学習処理部と、姿勢が未知である全身画像から抽出された骨格情報を学習した姿勢推定モデルに入力し、学習した姿勢推定モデルの出力が不安全姿勢を示す文字列となる全身画像を特定する推定処理部と、特定した全身画像及び特定した全身画像が撮像された時刻を表示する出力処理部と、を備え、推定処理部は、全身画像の背景に基づいて、人間が位置する床面からの高さを推定するとともに、人間の周辺に位置する稼働物の有無を検知し、出力処理部は、特定した全身画像が同一の不安全姿勢で連続する時間を算出し、算出した時間が所定の閾値を超える場合、特定した全身画像及び特定した全身画像が撮像された時刻を表示し、床面からの高さ及び稼働物の有無に応じた所定の閾値を連続する時間に適用すること、を特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
The safety management device of the present invention converts a posture estimation model that outputs a character string indicating the posture of the whole body image into a whole body image specified by the user when the skeleton information extracted from the whole body image of a human image captured by the camera is input. On the other hand, a learning processing unit that learns using learning data labeled with a character string indicating an unsafe posture specified by the user, and a posture estimation model that learns skeletal information extracted from a whole-body image whose posture is unknown. An estimation processing unit that specifies a whole-body image that is input and the output of the learned posture estimation model is a character string indicating an unsafe posture, and an output processing unit that displays the specified whole-body image and the time when the specified whole-body image was captured. If, Bei example, estimation processing section, based on the background of the whole body image, with human estimates the height from the floor surface located to detect the presence or absence of operation thereof located around the human, output processing The unit calculates the continuous time of the specified whole body image in the same unsafe posture, and when the calculated time exceeds a predetermined threshold, displays the specified whole body image and the time when the specified whole body image was captured. It is characterized in that a predetermined threshold value according to the height from the floor surface and the presence or absence of a moving object is applied to continuous times.
Other means will be described in the form for carrying out the invention.
本発明によれば、作業員に負担を課すことなく不安全な全身姿勢を検知し安全教育を効果的に行うことができる。 According to the present invention, it is possible to detect an unsafe whole body posture and effectively perform safety education without imposing a burden on the worker.
以降、本発明を実施するための形態(以降“本実施形態”とも呼ぶ)を、図等を参照しながら詳細に説明する。本実施形態は、製造現場における作業員の姿勢を推定する例である。しかしながら、人間が身体を動かす他の現場において、人間の姿勢を推定する例にも本発明は適用可能である。 Hereinafter, a mode for carrying out the present invention (hereinafter, also referred to as “the present embodiment”) will be described in detail with reference to figures and the like. This embodiment is an example of estimating the posture of a worker at a manufacturing site. However, the present invention can also be applied to an example of estimating a human posture in another field where a human moves the body.
(安全管理装置)
図1は、安全管理装置1の構成等を説明する図である。安全管理装置1は、一般的なコンピュータであり、中央制御装置11、マウス、キーボード等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び通信装置16を備える。これらは、バスで相互に接続されている。補助記憶装置15は、全身画像31、骨格情報32、学習データ33、姿勢推定モデル34、姿勢推定結果情報35、時系列チャート36、閾値情報37及び推定進捗情報38(いずれも詳細後記)を格納している。
(Safety management device)
FIG. 1 is a diagram illustrating a configuration and the like of the
主記憶装置14における骨格抽出処理部21、学習処理部22、推定処理部23及び出力処理部24は、プログラムである。中央制御装置11は、これらのプログラムを補助記憶装置15から読み出し主記憶装置14にロードすることによって、それぞれのプログラムの機能(詳細後記)を実現する。補助記憶装置15は、安全管理装置1から独立した構成となっていてもよい。
The skeleton
製造現場3の天井、壁面等に、カメラ4が設置されている。また、作業エリアの目立つ箇所に警報装置5が設置されている。警報装置5は、作業員(図示せず)が携帯する携帯式コンピュータであってもよい。製造現場3の近辺に、ビデオレコーダ7が設置されている。ビデオレコーダ7は、全身画像31を記憶する。全身画像31は、カメラ4が撮像した作業員の画像である。全身画像31は、作業員の周辺の稼働物、背景等を写し込んでもよいが、作業員の全身の画像を必ず含むものとする。全身画像31が写し込む作業員の人数は、基本的に1名である。しかしながら、全身画像31は、その1名の他に、近辺にいる他の1又は複数の作業員を写し込んでもよい。安全管理装置1は、ビデオレコーダ7から、全身画像31を取得する。
The
製造現場3の管理者(ユーザ)の近辺に、端末装置6が設置されている。ユーザが安全管理装置1から離れている場合、ユーザは端末装置6に対して操作を行う。つまり、端末装置6は、安全管理装置1の入力装置12及び出力装置13の機能を補完又は代替する。安全管理装置1、ビデオレコーダ7、警報装置5及び端末装置6は、ネットワーク2を介して相互に接続される。
The
全身画像31がビデオレコーダ7に一旦蓄積されることなく、カメラ4が全身画像31を撮像すると同時に安全管理装置1にその全身画像31を送信してもよい。この場合、カメラ4が、ビデオレコーダ7を介することなく直接ネットワーク2に接続されてもよい。安全管理装置1、カメラ4、ビデオレコーダ7及び端末装置6は、安全管理システムを構成する。
The
(運用フロー)
図2は、安全管理システムの運用フローを説明する図である。以下は、ユーザが端末装置6を操作する例である。
(Operation flow)
FIG. 2 is a diagram illustrating an operation flow of the safety management system. The following is an example in which the user operates the
まず学習段階では、ステップS51において、カメラ4は、全身画像を取得し、その全身画像をビデオレコーダ7に送信する。ここでの全身画像は、学習データとなるべきサンプルである。ステップS52において、ビデオレコーダ7は、受信した全身画像を記憶する。ステップS53において、端末装置6は、ユーザが学習を指示するのを受け付ける。
First, in the learning stage, in step S51, the
ステップS54において、安全管理装置1は、学習を実行する。つまり、安全管理装置1は、ビデオレコーダ7から取得した全身画像から骨格情報32を抽出するとともに、学習データを作成する。さらに、安全管理装置1は、作成した学習データを使用して姿勢推定モデルを学習し、学習済の姿勢推定モデル34として記憶する。
In step S54, the
次に推定段階では、ステップS55において、カメラ4は、全身画像を取得し、その全身画像をビデオレコーダ7に送信する。ここでの全身画像は、その姿勢を検知するために取得され、当然その姿勢は未知である。ステップS56において、ビデオレコーダ7は、受信した全身画像を記憶する。ステップS57において、端末装置6は、ユーザが推定を指示するのを受け付ける。
Next, in the estimation stage, in step S55, the
ステップS58において、安全管理装置1は、推定を実行する。つまり、安全管理装置1は、ビデオレコーダ7から取得した全身画像から骨格情報32を抽出するとともに、その骨格情報を学習済の姿勢推定モデル34に入力し、姿勢推定モデル34の出力としての姿勢を取得する。さらに、安全管理装置1は、取得した姿勢を姿勢推定結果情報35として記憶する。
In step S58, the
最後に出力段階では、ステップS59において、端末装置6は、ユーザが結果の表示を要求するのを受け付ける。ステップS60において、安全管理装置1は、時系列チャート36等を作成し記憶する。ステップS61において、端末装置6は、時系列チャート36等を表示する。
Finally, in the output stage, in step S59, the
(姿勢推定モデルの学習及び姿勢の推定)
図3は、姿勢推定モデル34の学習及び姿勢の推定を説明する図である。姿勢推定モデル34は、骨格情報32を入力Xiとし、推定ラベル35を出力Yiとする数理モデルである。骨格情報32は、カメラが撮像した全身画像31から抽出された人間の関節位置を示す情報である。推定ラベル35は、全身画像31に写り込んだ作業員の姿勢を安全管理装置1がどのように推定したかを示す文字列であり、ここでは、“前屈”、“そんきょ”、“指差呼称”、“高所作業”及びそれらのいずれにも属さないことを示す“その他”である。そして、“前屈”、“そんきょ”、“指差呼称”及び“高所作業”は、全身画像31における4つの姿勢に上からその順で対応している。
(Learning of posture estimation model and estimation of posture)
FIG. 3 is a diagram illustrating learning of the
作業員が前屈の姿勢を取ると、腰に負担が掛かる。作業員がそんきょの姿勢を取ると、膝に負担が掛かる。これらは、作業員の健康状態の悪化又は転倒による労働災害の発生に繋がる。よって、以降では、前屈及びそんきょは、“不安全姿勢”と呼ばれることがある。指差呼称及び高所作業は、労働災害には直接関係しないが、安全対策上管理されるべき姿勢である。 When the worker takes a forward bending posture, the waist is strained. When the worker takes a good posture, the knee is strained. These lead to the occurrence of occupational accidents due to deterioration of the health condition of workers or falls. Therefore, hereafter, forward bending and sonkyo may be referred to as "unsafe posture". Pointing and calling and work at height are not directly related to occupational accidents, but are attitudes that should be managed in terms of safety measures.
姿勢推定モデル34の実施形態としては、様々なものが想定される。第1の例は、関数“Yi=F(Xi,ai)”である。Xiは入力変数であり、Yiは出力変数であり、“ai”はパラメータ(係数、切片等)である。添え字“i”は、入力変数及び出力変数が多次元であり、パラメータも複数存在することを示している。
Various embodiments of the
第2の例は、ニューラルネットワークである。よく知られているように、ニューラルネットワークは、入力層、中間層及び出力層を有し、各層は、複数のノードを有する。ある1つのノードは、次の層の各ノードに対して分散的に情報量を伝搬する。次の層のどのノードにどれだけの比率の情報量を伝搬するかを示すものが重みベクトルである。重みベクトルは、入力層及び中間層のノードごとに定義される。 The second example is a neural network. As is well known, a neural network has an input layer, an intermediate layer and an output layer, and each layer has a plurality of nodes. One node propagates the amount of information in a distributed manner to each node in the next layer. The weight vector indicates how much information is propagated to which node in the next layer. The weight vector is defined for each node in the input layer and the intermediate layer.
学習データ33は、全身画像31から抽出された骨格情報32に対して人為的に正解ラベル(“前屈”、“そんきょ”、“指差呼称”及び“高所作業”)を付与した教師データである。安全管理装置1は、パラメータ又は重みベクトルの値を無作為的に発生させ、それを関数又はニューラルネットワークに代入する。そして、安全管理装置1は、学習データ33のある骨格情報を関数又はニューラルネットワークに入力する。すると、関数又はニューラルネットワークは、いずれかの推定ラベルを出力する。
The learning
出力された推定ラベル35は、正解ラベルとは異なっているケースが多い。しかしながら、安全管理装置1は、パラメータ又は重みベクトルの値を少しずつ変化させて代入することを繰り返すと、正解率が向上するケースに偶然行き当たる。姿勢推定モデル34の学習とは、安全管理装置1がこのような試行錯誤を多数回実行することによって、正解率が最大となるパラメータ又は重みベクトルの値を特定することである。
The output estimated
(骨格情報)
図4は、骨格情報32を説明する図である。全身画像31から抽出した図形型式の骨格情報32(図4右下)を表型式で表現したものが骨格情報32(図4上)である。表型式の骨格情報32においては、識別番号欄101に記憶された識別番号に関連付けて、特徴点欄102には特徴点が、X座標値欄103にはX座標値が、Y座標値欄104にはY座標値が記憶されている。
(Skeletal information)
FIG. 4 is a diagram for explaining the
識別番号欄101の識別番号は、骨格の特徴点を一意に特定する番号である。
特徴点欄102の特徴点は、骨格の特徴点であり、本実施形態では、骨格の関節点に一致する。ここでは、説明の都合上、特徴点として左側のもののみを記載しているが、右側の特徴点が存在してもよい。
X座標値欄103のX座標値は、特徴点のX座標値である。X軸は、図形型式の骨格情報32の左上の角を原点とする水平方向の軸である(右方向が正)。
Y座標値欄104のY座標値は、特徴点のY座標値である。Y軸は、図形型式の骨格情報32の左上の角を原点とする垂直方向の軸である(下方向が正)。
The identification number in the
The feature points in the
The X coordinate value in the X coordinate
The Y coordinate value in the Y coordinate
(学習データ)
図5は、学習データ33を説明する図である。学習データ33においては、フレーム番号欄111に記憶されたフレーム番号に関連付けて、正解ラベル欄112には正解ラベルが、骨格情報欄113には骨格情報が記憶されている。
フレーム番号欄111のフレーム番号は、全身画像31の個別のフレームを一意に特定する番号である。全身画像31は、時系列の静止画像(数十フレーム/秒)として撮像され、時系列の静止画像は、連続的に再生されることによって動画となる。以降では、当該分野の慣例に従って、各フレームに属する個々の静止画像は、“コマ”とも呼ばれる。
(Learning data)
FIG. 5 is a diagram for explaining the learning
The frame number in the
正解ラベル欄112の正解ラベルは、前記したように、ユーザが特定のフレーム番号のコマに対して付与した姿勢を示すラベルであり、 “前屈”、“そんきょ”、“指差呼称”及び“高所作業”のいずれかである。端末装置6(又は安全管理装置1の出力装置13、以下同様)は、正解ラベル欄71を表示したうえで、全身画像31の各コマをスライド表示する。そして、端末装置6は、ユーザがあるコマを選択したうえで、正解ラベル欄71のボタン71a〜71dのうちのいずれか1つを押下するのを受け付ける。
As described above, the correct answer label in the correct
例えば、ユーザがコマ31a(フレーム番号は“1”)を選択したうえで、前屈ボタン71aを押下したとする。すると、安全管理装置1は、フレーム番号“1”を正解ラベル“前屈”に関連付けて記憶する。図5の全身画像31においては、専ら説明のわかりやすさのために、各コマ上に“前屈”等の文字列が記載されている。しかしながら、安全管理装置1は、ユーザによる操作があって初めて、“前屈”等の正解ラベルを、各コマに付与する。
骨格情報欄113の骨格情報は、図4のX座標値及びY座標値を、所定の順序で記憶したものである。
For example, suppose that the user selects a
The skeleton information in the
(姿勢推定結果情報)
図6は、姿勢推定結果情報35を説明する図である。姿勢推定結果情報35においては、フレーム番号欄121に記憶されたフレーム番号に関連付けて、推定ラベル欄122には推定ラベルが、骨格情報欄123には骨格情報が、作業位置の高さ欄124には作業位置の高さが記憶されている。
(Posture estimation result information)
FIG. 6 is a diagram for explaining the posture estimation result
フレーム番号欄121のフレーム番号は、図5のフレーム番号と同じである。しかしながら、図5のフレーム番号がサンプルとしてのコマを特定するのに対し、図6のフレーム番号は、安全管理装置1が姿勢を推定するべきコマ(後記する“推定対象コマ”)を特定する。
推定ラベル欄122の推定ラベルは、前記したように、安全管理装置1が特定のフレーム番号のコマに対して付与した姿勢を示すラベルであり、“前屈”、“そんきょ”、“指差呼称”、“高所作業”及び“その他”のいずれかである。
The frame number in the
As described above, the estimation label in the
骨格情報欄123の骨格情報は、図5の骨格情報と同じである。
作業位置の高さ欄124の作業位置の高さは、作業員の身体の所定の部位の床面(地面)からの高さである。安全管理装置1が作業位置の高さを取得する方法は、例えば以下の通りである。
The skeleton information in the
The height of the working position in the
・安全管理装置1は、数メートル(例えば2メートル)毎おきに多数の姿勢の骨格情報の距離学習をすることで、何メートル先に作業員がいるかの距離推定ができる。安全管理装置1は、例えば2メートル毎おきに学習する。推定結果が“4メートルの確率50%、6メートルの確率50%”である場合、安全管理装置1は、推定距離は5メートルであると判断する。安全管理装置1は、出力された推定距離に加え、カメラの高さ及び画角の消失点と中央点から三角法を用い作業位置の高さを出力する。
-The
・安全管理装置1は、カメラの高さ又は画角が変わっても、作業位置の高さを推定するパラメータであるカメラの高さ及び画角の消失点と中央点について、それらパラメータを換算処理することで、距離学習を新たに行うことなく作業位置の高さを出力する。
-The
(時系列チャート)
図7は、時系列チャート36(36a、36b、36c)を説明する図である。まず、時系列チャート36aに注目する。時系列チャート36aにおいては、推定ラベル欄131に記憶された推定ラベルに関連付けて、検知回数欄132には検知回数が、検知状況欄133には検知状況が記憶されている。
(Time series chart)
FIG. 7 is a diagram illustrating a time series chart 36 (36a, 36b, 36c). First, pay attention to the
推定ラベル欄131の推定ラベルは、図6の推定ラベルと同じである。
検知回数欄132の検知回数は、安全管理装置1が全身画像31のコマに対してその推定ラベルを付与した回数(後記する“報告”の回数)である。
検知状況欄133の検知状況は、安全管理装置1がその推定ラベルを付与した全身画像31のコマが撮像された時点を“●”で示したものである。検知情報欄133の横軸は時間であり、“10:00”等は、その推定ラベルが付与された全身画像31のコマをカメラ4が撮像した時刻である。図6の全身画像31の各コマには、撮像された時刻が関連付けられている(図示せず)。●の個数は、検知回数に等しい。
The estimated label in the estimated
The number of detections in the
The detection status in the
(指定姿勢の検知及び報告)
ユーザが正解ラベルとして指定した姿勢は、“指定姿勢”と呼ばれる。指定姿勢は、不安全姿勢を含む。指定姿勢のうち特に不安全姿勢は、ユーザが安全管理装置1に是非とも検知させたい姿勢である。しかしながら、検知の重要性は、その姿勢の連続時間、作業位置の高さ、周辺の稼働物の有無等によって異なる。例えば、周囲に稼働物がない床面において、作業員がほんの一瞬“前屈”の姿勢を取った場合、安全管理装置1がそれをユーザに報告するのは煩雑である。
(Detection and reporting of designated posture)
The posture specified by the user as the correct label is called "designated posture". The designated posture includes an unsafe posture. Of the designated postures, the unsafe posture is a posture that the user wants the
そこで、本実施形態は、指定姿勢の“検知”と“報告”とを区別する。安全管理装置1は、指定姿勢に該当するコマが1つでもある場合、必ずそれを検知する。しかしながら、安全管理装置1は、例えば以下の規則1及び規則2に従って、指定姿勢が発生したことをユーザに報告する。
〈規則1〉指定姿勢が連続して検知された時間が所定の閾値(図8)に達して初めて、安全管理装置1は、指定姿勢が1回発生したことをユーザに報告する。
〈規則2〉安全管理装置1は、指定姿勢(推定ラベル)ごと、作業位置の高さごと、周囲の稼働物の有無ごとに異なる閾値(図8)を連続して検知された時間に対して適用する。
Therefore, this embodiment distinguishes between "detection" and "reporting" of the designated posture. The
<
<
図7の時系列チャート36aにおける検知回数及び●の個数は、“報告”の回数である。コマ送りの速度にもよるが、一般に、安全管理装置1が指定姿勢を検知するコマの数は、時系列チャート36aにおける検知回数及び●の個数よりも遥かに多い。そして、その検知が、時系列チャート36aにおける検知回数及び●の個数に結果的に反映されない場合も多い。時系列チャート36aを見たユーザは、例えば、以下のことを知る。
The number of detections and the number of ● in the
・ある日の10時00分頃から11時10分頃までの期間に、作業員は合計21回、前屈の姿勢を取った。その回数は、10時20分及び11時10分付近にやや集中している。
・この期間に、作業員は合計7回、そんきょの姿勢を取った。その回数は、その期間の後半にやや集中している。
・この期間に、作業員は指差呼称の姿勢を1回取り、高所作業の姿勢を1回取った。
・ During the period from 10:00 to 11:10 one day, the workers took a
・ During this period, the workers took a total of seven postures. The number is somewhat concentrated in the second half of the period.
-During this period, the worker took a pointing and calling posture once and a high-altitude work posture once.
いま、ユーザは端末装置6に対して、“前屈については10分の時間幅ごとの検知回数を、そんきょについては20分の時間幅ごとの検知回数を知りたい”旨の操作を入力したとする。すると、安全管理装置1は、時系列チャート36aを時系列チャート36bに遷移する。時系列チャート36bが時系列チャート36aに比して異なる点は、以下の通りである。
Now, the user inputs an operation to the
・安全管理装置1は、レコード134において、●に代替して、10分の時間幅を示す長方形136を8個表示している。各長方形136は、その10分間の検知回数を表示している。
・安全管理装置1は、レコード135において、●に代替して、20分の時間幅を示す長方形137を4個表示している。各長方形137も、その20分間の検知回数を表示している。
-The
-The
いま、ユーザは端末装置6に対して、“前屈について、10時20分及び11時10分付近の検知回数を3分20秒の時間幅ごとに知りたい、それ以外の時間帯の検知回数をまとめて知りたい”旨の操作を入力したとする。すると、安全管理装置1は、時系列チャート36bを時系列チャート36cに遷移する。時系列チャート36cが時系列チャート36bに比して異なる点は、以下の通りである。
Now, the user wants to tell the
・安全管理装置1は、レコード134において、10時20分付近の長方形136に代替して、3分20秒の時間幅を示す長方形138を3個表示し、11時10分付近の長方形136に代替して、3分20秒の時間幅を示す長方形138を3個表示している。各長方形138は、3分20秒間の検知回数を表示している。
・安全管理装置1は、レコード134において、それ以外の時間帯に、20分の時間幅を示す長方形139及び40分の時間幅を示す長方形140を1個ずつ表示している。長方形139は、20分間の検知回数を表示している。長方形140は、40分間の検知回数を表示している。
-The
-The
(閾値情報)
図8は、閾値情報37を説明する図である。閾値情報37においては、推定ラベル欄141に記憶された推定ラベルに関連付けて、閾値欄142には閾値が記憶されている。
推定ラベル欄141の推定ラベルは、図6の推定ラベルと同じである。しかしながら、ここでの推定ラベルは、不安全姿勢(前屈及びそんきょ)を必ず含む。ここでの推定ラベルは、その他の特定姿勢の推定ラベルを含んでもよい。
(Threshold information)
FIG. 8 is a diagram for explaining the
The estimated label in the estimated
閾値欄142の閾値は、前記したように、その推定ラベルの姿勢が連続する時間に対して適用される閾値(単位:秒)である。閾値は、4種類のケース(列)142a〜142dごと、推定ラベルごとに設定される。ケースは、作業位置の高さ及び作業員の周囲の稼働物の有無の組み合わせである。
As described above, the threshold value in the
例えば、安全管理装置1は、ユーザによる設定に基づき、図6における作業位置の高さを、“0■”を意味する“床面”、及び、それ以外を意味する“高所”の2つに区分する。さらに、安全管理装置1は、全身画像31に写り込んだ背景に基づき、その全身画像31を、作業員の周囲に稼働物があることを示す“あり”、及び、作業員の周囲に稼働物がないことを示す“なし”の2つに区分する。
For example, the
4種類のケースは、これらの組み合わせ(2×2=4個)である。これらの区分はあくまでも一例であり、作業位置の高さは、より多くの数に区分され得る。周囲の稼働物の有無も、稼働物の種類(機械、台車、他の作業員等)及びその数に応じてより多くの数に区分され得る。その結果、組み合わせとしてのケースの数がより多くなり得る。 The four types of cases are combinations of these (2 x 2 = 4). These divisions are merely examples, and the height of the working position can be divided into a larger number. The presence or absence of surrounding moving objects can also be classified into a larger number according to the types of moving objects (machines, trolleys, other workers, etc.) and their numbers. As a result, the number of cases as a combination can be larger.
作業員が高所にいるほど、かつ、周囲に稼働物があるほど、不安全姿勢が労働災害を招来する可能性がより高い。したがって、ケース“床面、なし”を基準として、閾値は、作業位置の高さが高所になると小さくなり、周囲の稼働物の有無が“あり”となると小さくなる。閾値が小さくなると、その姿勢が続くことを防止する判断基準がより厳しくなる。 The higher the worker and the more moving objects are around, the more likely the unsafe attitude will lead to an occupational accident. Therefore, based on the case "floor surface, none", the threshold value becomes smaller when the height of the working position becomes higher, and becomes smaller when the presence / absence of surrounding moving objects becomes "present". The smaller the threshold, the more stringent the criteria for preventing the posture from continuing.
(進捗情報)
図9は、進捗情報38を説明する図である。進捗情報38においては、登録番号欄151に記憶された登録番号に関連付けて、状態欄152には状態が、画像時刻欄153には画像時刻が、登録時刻欄154には登録時刻が、開始時刻欄155には開始時刻が、完了時刻欄156には完了時刻が、レポートページ欄157にはリンク情報が記憶されている。
(Progress information)
FIG. 9 is a diagram illustrating
登録番号欄151の登録番号は、進捗情報38のレコード(行)を一意に特定する番号である。
状態欄152の状態は、“登録済”、“実行中”又は“完了”のいずれかである。“登録済”は、姿勢が未知である時系列の全身画像が、ビデオレコーダ7又は安全管理装置1の補助記憶装置15に記憶(登録)された(図2のステップS56)ことを示す。“実行中”は、“登録済”の状態から進み、安全管理装置1が学習済の姿勢推定モデル34を使用して、姿勢の推定を実行中である(図2のステップS58)ことを示す。“完了”は、“実行中”の状態からさらに進み、安全管理装置1が姿勢の推定を完了したことを示す。
The registration number in the
The status of the
画像時刻欄153の画像時刻は、登録済の全身画像31の連続画像の最初のコマが撮像された時刻と最後のコマが撮像された時刻の年月日時分秒である。
登録時刻欄154の登録時刻は、全身画像31が登録された時刻の年月日時分秒である。
The image time in the
The registration time in the
開始時刻欄155の開始時刻は、安全管理装置1が学習済の姿勢推定モデル34を使用して、姿勢の推定を実行し始めた時刻の年月日時分秒である。
完了時刻欄156の完了時刻は、安全管理装置1が姿勢の推定を完了した時刻の年月日時分秒である。
レポートページ欄157のリンク情報は、ユーザが視認するべき結果表示情報81(図13の説明として後記)が格納されている補助記憶装置15等のネットワーク2上の位置情報である。
The start time of the
The completion time in the
The link information in the
(処理手順)
以降、本実施形態の処理手順を説明する。処理手順は、学習処理手順、推定処理手順及び出力処理手順からなる。これらの処理手順は、この順に実行される。
(Processing procedure)
Hereinafter, the processing procedure of the present embodiment will be described. The processing procedure includes a learning processing procedure, an estimation processing procedure, and an output processing procedure. These processing procedures are executed in this order.
(学習処理手順)
図10は、学習処理手順のフローチャートである。
ステップS201において、安全管理装置1の学習処理部22は、サンプルの全身画像31を取得する。具体的には、第1に、学習処理部22は、ビデオレコーダ7からサンプルの全身画像31のうち最初のコマを取得する。
第2に、学習処理部22は、最初のコマを端末装置6に表示する。
第3に、学習処理部22は、正解ラベルボタン71(図5)を端末装置6に表示する。
(Learning process procedure)
FIG. 10 is a flowchart of the learning process procedure.
In step S201, the
Second, the
Third, the
ステップS202において、学習処理部22は、必要な全身画像であるか否かを判断する。全身画像31のコマのうちには、管理上必要がないと判断するコマ(安全な姿勢で作業をしているコマ等)が混じっている。そこで、ユーザは、表示されているコマが学習データとして必要ないと判断すると、“スキップ”ボタン(図示せず)を押下する。学習処理部22は、スキップボタンの押下を受け付けた場合(ステップS202“No”)、ステップS205に進み、それ以外の場合(ステップS202“Yes”)、ステップS203に進む。
In step S202, the
ステップS203において、学習処理部22は、正解ラベルを受け付ける。具体的には、第1に、学習処理部22は、ユーザが、表示されているコマを選択したうえで、正解ラベルボタン71a〜71■(図5)のいずれかを押下するのを受け付ける。説明の都合上、いまコマ31aが表示されており、ユーザは、そのコマ31aを選択したうえで、前屈ボタン71aを押下したとする。
第2に、学習処理部22は、学習データ33(図5)の新たなレコードを作成し、フレーム番号欄111にコマ31aのフレーム番号“1”を記憶し、正解ラベル欄112に“前屈”を記憶する。この段階では、骨格情報欄113は、空白のままである。
In step S203, the
Second, the
ステップS204において、安全管理装置1の骨格抽出処理部21は、骨格情報32を抽出する。具体的には、第1に、骨格抽出処理部21は、コマ31aから図形型式の骨格情報32(図4の右下)を抽出する。
第2に、骨格抽出処理部21は、抽出した図形型式の骨格情報32に基づき、表型式の骨格情報32(図4の上)を作成する。骨格抽出処理部21は、ここで作成した表型式の骨格情報32にフレーム番号“1”を付したうえで、補助記憶装置15に記憶する。
第3に、骨格抽出処理部21は、ステップS203の“第2”において作成した新たなレコードの骨格情報欄113に、骨格情報(X座標値及びY座標値)を記憶する。
In step S204, the skeleton
Secondly, the skeleton
Thirdly, the skeleton
ステップS205において、安全管理装置1の学習処理部22は、未処理のフレームがあるか否かを判断する。具体的には、学習処理部22は、未処理のフレーム(コマ)がある場合(ステップS205“Yes”)、ステップS201に戻り、次のコマについて同様の処理を繰り返す。学習処理部22は、それ以外の場合(ステップS205“No”)、ステップS206に進む。
In step S205, the
ステップS201〜S205の繰り返し処理が終了した段階で、図5に示すような学習データ33が完成していることになる。学習データ33の各レコードの正解ラベル欄112は、“前屈”、“そんきょ”、“指差呼称”及び“高所作業”のうちのいずれかを記憶している。仮に正解ラベルが“前屈”であるレコードが10本記憶されている場合、10本の各レコードの骨格情報は、いずれも前屈の姿勢を示すが、細部は相互に相違している。他の姿勢についても同様である。
When the iterative processing of steps S201 to S205 is completed, the learning
ステップS206において、学習処理部22は、姿勢推定モデル34を学習する。具体的には、学習処理部22は、学習データ33(図5)を使用して、前記した方法で姿勢推定モデル34のパラメータ(又は重みベクトル)を最適化する。
In step S206, the
ステップS207において、学習処理部22は、学習済の姿勢推定モデル34を記憶する。具体的には、学習処理部22は、学習済の姿勢推定モデル34を補助記憶装置15に記憶する。
その後、学習処理手順を終了する。
In step S207, the
After that, the learning process procedure is terminated.
(推定処理手順)
図11は、推定処理手順のフローチャートである。推定処理手順を開始する前提として、閾値情報37(図8)が、完成状態で補助記憶装置15に記憶されているものとする。
(Estimation processing procedure)
FIG. 11 is a flowchart of the estimation processing procedure. As a premise for starting the estimation processing procedure, it is assumed that the threshold information 37 (FIG. 8) is stored in the
ステップS301において、安全管理装置1の推定処理部23は、姿勢が未知である全身画像31を取得する。具体的には、推定処理部23は、ビデオレコーダ7に登録済の時系列の全体画像31(図6)から最初のコマを取得する。なお、推定処理部23は、ビデオレコーダ7を介することなく、カメラ4から全身画像を直接取得してもよい(リアルタイム推定ケース)。いずれの場合も、ここで取得されたコマは、説明の便宜上“推定対象コマ”と呼ばれる。全体画像31(図6)は、実際には安全上特に問題のない姿勢のコマを多く含んでいるが、そのようなコマを含め、すべてのコマが推定対象コマとなる。
In step S301, the
ステップS302において、安全管理装置1の骨格抽出処理部21は、骨格情報32を抽出する。具体的には、第1に、骨格抽出処理部21は、推定対象コマから図形型式の骨格情報32を抽出する。
第2に、骨格抽出処理部21は、ステップS204の“第2”の処理を実行する。
In step S302, the skeleton
Second, the skeleton
ステップS303において、安全管理装置1の推定処理部23は、骨格情報32を学習済の姿勢推定モデル34に入力する。具体的には、推定処理部23は、ステップS302の“第1”において抽出した骨格モデル32を、ステップS207(図10)において記憶した学習済の姿勢推定モデル34に入力する。
In step S303, the
ステップS304において、推定処理部23は、推定ラベルを取得する。具体的には、第1に、推定処理部23は、学習済の姿勢推定モデル34が出力する推定ラベルを取得する。ここで取得される推定ラベルは、“前屈”、“そんきょ”、“指差呼称”、“高所作業”及び“その他”のいずれかである。
In step S304, the
第2に、推定処理部23は、ステップS304の“第1”において取得された推定ラベルが“前屈”である場合、“前屈カウント値”に“1”を加算する。推定処理部23は、ステップS304の“第1”において取得された推定ラベルが“そんきょ”である場合、“そんきょカウント値”に“1”を加算する。前屈カウント値の初期値及びそんきょカウント値の初期値は、“0”である。
Secondly, when the estimation label acquired in the "first" of step S304 is "forward bending", the
推定処理部23は、前屈カウント値が加算され続けた後、推定ラベルが“前屈”以外のものになった場合、前屈カウント値を“0”に戻す。そんきょカウント値についても同様である。推定処理部23は、前屈カウント値又はそんきょカウント値を、推定対象コマのフレーム番号に関連付けて補助記憶装置15に記憶する。
The
ステップS305において、推定処理部23は、作業位置の高さを算出する。具体的には、推定処理部23は、前記した方法で作業位置の高さを算出する。
In step S305, the
ステップS306において、推定処理部23は、急ぎ警報を発する必要があるか否かを判断する。具体的には、第1に、推定処理部23は、以下の条件1及び条件2がすべて満たされているか否かを調べる。
〈条件1〉前屈カウント値又はそんきょカウント値が所定の閾値に達している。推定処理部23は、推定ラベル、作業位置の高さ及び推定対象コマに写り込んだ稼働物の有無を検索キーとして、閾値情報37(図8)から閾値を取得する。
〈条件2〉現在、リアルタイム推定ケースが実行されている。
In step S306, the
<
<
第2に、推定処理部23は、条件1及び条件2がすべて満たされている場合(ステップS306“Yes”)、ステップS307に進み、それ以外場合(ステップS306“No”)、ステップS308に進む。
Second, the
ステップS307において、推定処理部23は、警報を発する。具体的には、推定処理部23は、警報装置5に対して警報を送信する。ここでの警報の例は、“前屈姿勢の取り過ぎにご注意ください”という音声ガイドである。
In step S307, the
ステップS308において、推定処理部23は、未処理のフレームがあるか否かを判断する。具体的には、学習処理部22は、推定対象コマとなっていないコマが残っている場合(ステップS308“Yes”)、ステップS301に戻り、次の推定対象コマについて同様の処理を繰り返す。学習処理部22は、それ以外の場合(ステップS308“No”)、ステップS309に進む。
ステップS301〜S308の繰り返し処理を終了した段階で、各推定対象コマについて、フレーム番号、推定ラベル、骨格情報及び作業位置の高さが取得されて一時的に主記憶装置14に記憶されていることになる。
In step S308, the
At the stage when the iterative processing of steps S301 to S308 is completed, the frame number, the estimation label, the skeleton information, and the height of the working position are acquired for each estimation target frame and temporarily stored in the
さらにこの段階で、ステップS304の“第2”の結果として、例えば以下のようなデータが補助記憶装置15に記憶されていることになる。
(フレーム番号,前屈カウント値)=(11,0),(12,1)、(13,2),(14,0),・・・,(20,0),(21,1),(22,2),(23,3),(24,0),・・・
このデータは、各不安全姿勢の連続コマ数、すなわち連続時間を知るためのデータであり、以降で、“連続情報”とも呼ばれる。なお、ここでの連続情報のフレーム番号は、図6における全身画像31のフレーム番号とは整合していない。
Further, at this stage, as a result of the "second" in step S304, for example, the following data is stored in the
(Frame number, forward bending count value) = (11,0), (12,1), (13,2), (14,0), ..., (20,0), (21,1), (22,2), (23,3), (24,0), ...
This data is data for knowing the number of continuous frames of each unsafe posture, that is, the continuous time, and is also referred to as "continuous information" hereafter. The frame numbers of the continuous information here do not match the frame numbers of the
ステップS309において、推定処理部23は、姿勢推定結果情報35(図6)を作成する。具体的には、推定処理部23は、一時的に記憶されている、フレーム番号、推定ラベル、骨格情報及び作業位置の高さの組み合わせに基づいて、姿勢推定結果情報35を作成する。図6において、推定ラベル欄122に“その他”が記憶されているレコードは、推定対象コマの姿勢が、“前屈”、“そんきょ”、“指差呼称”及び“高所作業”のいずれでもないと推定処理部23が判断したレコードである。推定処理部23は、これらのレコードを削除してもよい。
In step S309, the
ステップS310において、推定処理部23は、姿勢推定結果情報35を記憶する。具体的には、推定処理部23は、ステップS309において作成した姿勢推定結果情報35を補助記憶装置15に記憶する。
その後、推定処理手順を終了する。
In step S310, the
After that, the estimation processing procedure ends.
(進捗情報のレコードの遷移)
推定処理部23は、推定処理手順を開始する前に、連続するある全身画像31(図6)について、進捗情報38(図9)の“登録済”のレコードを作成し終えている。推定処理部23は、推定処理手順を開始した時点で、当該全身画像31について、“登録済”のレコードを“実行中”に更新し、推定処理手順を終了した時点で、当該全身画像31について、“実行中”のレコードを“完了”に更新する。
(Transition of progress information record)
The
(出力処理手順)
図12は、出力処理手順のフローチャートである。
ステップS401において、安全管理装置1の出力処理部24は、時系列チャート36を作成する。具体的には、出力処理部24は、連続情報及びステップS310において記憶した姿勢推定結果情報35(図6)を使用して、時系列チャート36a(図7)を作成する。このとき、出力処理部24は、閾値情報37(図8)を参照して、時系列チャート36aにおいて1つの●として表現するべき連続画像のコマを特定する。つまり、出力処理部24は、同じ“前屈”であっても、10秒間を超えて連続するコマを1つの●とする場合(高所、あり)もあるし、30秒間を超えて連続するコマを1つの●とする場合(床面、なし)もある。
(Output processing procedure)
FIG. 12 is a flowchart of the output processing procedure.
In step S401, the output processing unit 24 of the
例えば、出力処理部24は、姿勢推定結果情報35(図6)のあるレコードを取得したとする。そのレコードの推定ラベルが“前屈”であり、作業位置の高さが“10m”であり、フレーム番号に対応するコマの背景に稼働物が写り込んでいるとする。すると、出力処理部24は、“前屈”、“高所”及び“あり”を検索キーとして閾値情報37(図8)を検索し、閾値“10秒”を取得する。そして、出力処理部24は、連続情報を参照した結果、“前屈”、“高所”及び“あり”のコマが10秒を超えて連続したと判断した場合、1つの●を生成する。 For example, it is assumed that the output processing unit 24 has acquired a record having the posture estimation result information 35 (FIG. 6). It is assumed that the estimated label of the record is "forward bending", the height of the working position is "10 m", and the moving object is reflected in the background of the frame corresponding to the frame number. Then, the output processing unit 24 searches the threshold value information 37 (FIG. 8) using "forward bending", "high place", and "presence" as search keys, and acquires the threshold value "10 seconds". Then, when the output processing unit 24 determines that the frames of "forward bending", "high place", and "presence" are continuous for more than 10 seconds as a result of referring to the continuous information, one ● is generated.
ステップS402において、出力処理部24は、時系列チャート及びサマリ情報を表示する。具体的には、第1に、出力処理部24は、端末装置6に結果表示画面81(図13)を表示する。なお、端末装置6からの能動的な要求(ブラウザ視聴要求)を契機として、ステップS402の処理が開始されてもよい。
第2に、出力処理部24は、ステップS401において作成した時系列チャート36aを結果表示画面81に表示する。
第3に、出力処理部24は、サマリ情報82を結果表示画面81に表示する。サマリ情報82は、時系列チャート36aの検知回数を集計した表である。
In step S402, the output processing unit 24 displays the time series chart and summary information. Specifically, first, the output processing unit 24 displays the result display screen 81 (FIG. 13) on the
Second, the output processing unit 24 displays the
Third, the output processing unit 24 displays the
ステップS403において、出力処理部24は、画像表示要求を受け付ける。具体的には、出力処理部24は、ユーザが時系列チャート36a上のいずれかの“●”を選択するのを受け付ける。
ステップS404において、出力処理部24は、全身画像を表示する。具体的には、出力処理部24は、ステップS403において選択された●に対応する全身画像31のコマ(例えば1つの●に対応する複数のコマのうちの最初のコマ)を結果表示画面81に表示する。図13は、ここで表示される結果表示画面81の例である。フローチャートの途中であるが、説明は、一旦図13に移る。
In step S403, the output processing unit 24 receives the image display request. Specifically, the output processing unit 24 accepts the user to select any “●” on the
In step S404, the output processing unit 24 displays a whole body image. Specifically, the output processing unit 24 displays the frame of the
図13は、結果表示画面81の一例である。図13の全身画像のコマ31は、2人の作業員を映し込んでいる。出力処理部24は、このうち右側の作業員の姿勢“Bend forward(前屈)”を報告の対象と認識しているのに対し、左側の作業員の姿勢“Crouch(そんきょ)”を報告の対象とは認識していない。このことは、“Crouch”に関連付けて“Safe”が表示され、“Bend forward”に関連付けて“Unsafe”が表示されていることからわかる。右側の作業員を基準にすると、左側の作業員は、周囲の稼働物に相当する。そして、コマ31には、床面が写り込んでいる。したがって、このコマ31を報告対象としたときの閾値(図8)は、“前屈、床面、あり”に対応する“20秒”である。説明をステップS405に戻す。
FIG. 13 is an example of the
ステップS405において、出力処理部24は、動画を表示する。具体的には、第1に、出力処理部24は、ユーザが動画ボタン83を押下するのを受け付ける。
第2に、出力処理部24は、ステップS403において選択された●に対応するすべてのコマの連続画像を動画として結果表示画面81に表示する。
ステップS406において、出力処理部24は、グルーピング要求を受け付ける。具体的には、出力処理部24は、ユーザがグルーピング欄84に、推定ラベル及び時間幅の1又は複数の組み合わせを入力するのを受け付ける。説明の都合上、ユーザは、“前屈、10分ごと”及び“そんきょ、20分ごと”を入力したとする。
In step S405, the output processing unit 24 displays a moving image. Specifically, first, the output processing unit 24 accepts the user to press the moving
Secondly, the output processing unit 24 displays the continuous images of all the frames corresponding to ● selected in step S403 as moving images on the
In step S406, the output processing unit 24 receives the grouping request. Specifically, the output processing unit 24 accepts the user to input one or more combinations of the estimated label and the time width in the
ステップS407において、出力処理部24は、グルーピング後の時系列チャート36を作成する。具体的には、出力処理部24は、ステップS406において受け付けたグルーピング要求に応じて、時系列チャート36b(図7)を作成する。
ステップS408において、出力処理部24は、グルーピング後の時系列チャート36を表示する。具体的には、出力処理部24は、ステップS407において作成した時系列チャート36bを結果表示画面81に表示する。
その後、出力処理手順を終了する。
In step S407, the output processing unit 24 creates a
In step S408, the output processing unit 24 displays the grouped
After that, the output processing procedure ends.
(本実施形態の効果)
本実施形態の安全管理装置の効果は以下の通りである。
(1)安全管理装置は、作業員が不安全姿勢を取った時刻とその全身画像を表示することができる。
(2)安全管理装置は、不安全姿勢の動画を表示することができる。
(3)安全管理装置は、不安全姿勢の回数を時間幅ごとに表示することができる。
(4)安全管理装置は、不安定姿勢が同一姿勢で連続する時間が閾値を超えた場合、不安全姿勢を表示することができる。
(5)安全管理装置は、床面からの高さ及び稼働物の有無に応じた閾値を、不安定姿勢が同一姿勢で連続する時間に適用することができる。
(Effect of this embodiment)
The effects of the safety management device of this embodiment are as follows.
(1) The safety management device can display the time when the worker takes an unsafe posture and the whole body image thereof.
(2) The safety management device can display a moving image of an unsafe posture.
(3) The safety management device can display the number of unsafe postures for each time width.
(4) The safety management device can display the unsafe posture when the unstable posture continues in the same posture and the continuous time exceeds the threshold value.
(5) The safety management device can apply a threshold value according to the height from the floor surface and the presence / absence of a moving object to the time when the unstable postures are continuous in the same posture.
なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
1 安全管理装置
2 ネットワーク
3 製造現場
4 カメラ
5 警報装置
6 端末装置
7 ビデオレコーダ
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置
15 補助記憶装置
16 通信装置
21 骨格抽出処理部
22 学習処理部
23 推定処理部
24 出力処理部
31 全身画像
32 骨格情報
33 学習データ
34 姿勢推定モデル
35 姿勢推定結果情報
36 時系列チャート
37 閾値情報
38 推定進進捗情報
1
Claims (5)
前記姿勢が未知である全身画像から抽出された骨格情報を前記学習した姿勢推定モデルに入力し、前記学習した姿勢推定モデルの出力が前記不安全姿勢を示す文字列となる前記全身画像を特定する推定処理部と、
前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示する出力処理部と、
を備え、
前記推定処理部は、
前記全身画像の背景に基づいて、前記人間が位置する床面からの高さを推定するとともに、前記人間の周辺に位置する稼働物の有無を検知し、
前記出力処理部は、
前記特定した全身画像が同一の不安全姿勢で連続する時間を算出し、前記算出した時間が所定の閾値を超える場合、前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示し、
前記床面からの高さ及び前記稼働物の有無に応じた前記所定の閾値を前記連続する時間に適用すること、
を特徴とする安全管理装置。 The user specifies a posture estimation model that outputs a character string indicating the posture of the whole body image when the skeleton information extracted from the whole body image of a human image captured by the camera is input in the field, with respect to the whole body image specified by the user. A learning processing unit that learns using learning data labeled with a character string indicating an unsafe posture.
The skeleton information extracted from the whole body image whose posture is unknown is input to the learned posture estimation model, and the whole body image whose output of the learned posture estimation model is a character string indicating the unsafe posture is specified. Estimating processing unit and
An output processing unit that displays the specified whole body image and the time when the specified whole body image was captured.
Equipped with a,
The estimation processing unit
Based on the background of the whole body image, the height from the floor on which the human is located is estimated, and the presence or absence of a moving object located around the human is detected.
The output processing unit
The time during which the specified whole body image continues in the same unsafe posture is calculated, and when the calculated time exceeds a predetermined threshold value, the time when the specified whole body image and the specified whole body image are captured is displayed. ,
Applying the predetermined threshold value according to the height from the floor surface and the presence / absence of the moving object to the continuous time.
Safety management apparatus according to claim.
前記特定した全身画像を含む全身画像の連続動画を表示すること、
を特徴とする請求項1に記載の安全管理装置。 The output processing unit
Displaying a continuous moving image of a whole body image including the specified whole body image,
The safety management device according to claim 1.
前記ユーザが時間幅の大きさを指定するのを受け付け、
前記全身画像が前記不安全姿勢に該当する回数を、前記時間幅ごと、前記不安全姿勢ごとに表示すること、
を特徴とする請求項2に記載の安全管理装置。 The output processing unit
Accepting the user to specify the size of the time width,
Displaying the number of times that the whole body image corresponds to the unsafe posture for each time width and for each unsafe posture.
The safety management device according to claim 2.
現場においてカメラが撮像した人間の全身画像から抽出された骨格情報を入力すると前記全身画像の姿勢を示す文字列を出力する姿勢推定モデルを、ユーザが指定する前記全身画像に対して前記ユーザが指定する不安全姿勢を示す文字列をラベル付けした学習データを使用して学習し、
前記安全管理装置の推定処理部は、
前記姿勢が未知である全身画像から抽出された骨格情報を前記学習した姿勢推定モデルに入力し、前記学習した姿勢推定モデルの出力が前記不安全姿勢を示す文字列となる前記全身画像を特定し、
前記安全管理装置の出力処理部は、
前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示し、
前記推定処理部は、
前記全身画像の背景に基づいて、前記人間が位置する床面からの高さを推定するとともに、前記人間の周辺に位置する稼働物の有無を検知し、
前記出力処理部は、
前記特定した全身画像が同一の不安全姿勢で連続する時間を算出し、前記算出した時間が所定の閾値を超える場合、前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示し、
前記床面からの高さ及び前記稼働物の有無に応じた前記所定の閾値を前記連続する時間に適用すること、
を特徴とする安全管理装置の安全管理方法。 The learning processing department of the safety management device
The user specifies a posture estimation model that outputs a character string indicating the posture of the whole body image when inputting skeletal information extracted from a human whole body image captured by a camera at the site, with respect to the whole body image specified by the user. Learning using training data labeled with a string indicating an unsafe posture,
The estimation processing unit of the safety management device
The skeleton information extracted from the whole body image whose posture is unknown is input to the learned posture estimation model, and the whole body image whose output of the learned posture estimation model is a character string indicating the unsafe posture is specified. ,
The output processing unit of the safety management device is
The time when the specified whole body image and the specified whole body image were captured is displayed .
The estimation processing unit
Based on the background of the whole body image, the height from the floor on which the human is located is estimated, and the presence or absence of a moving object located around the human is detected.
The output processing unit
The time during which the specified whole body image continues in the same unsafe posture is calculated, and when the calculated time exceeds a predetermined threshold value, the time when the specified whole body image and the specified whole body image are captured is displayed. ,
Applying the predetermined threshold value according to the height from the floor surface and the presence / absence of the moving object to the continuous time.
A safety management method for a safety management device characterized by.
現場においてカメラが撮像した人間の全身画像から抽出された骨格情報を入力すると前記全身画像の姿勢を示す文字列を出力する姿勢推定モデルを、ユーザが指定する前記全身画像に対して前記ユーザが指定する不安全姿勢を示す文字列をラベル付けした学習データを使用して学習する処理を実行させ、
前記安全管理装置の推定処理部に対し、
前記姿勢が未知である全身画像から抽出された骨格情報を前記学習した姿勢推定モデルに入力し、前記学習した姿勢推定モデルの出力が前記不安全姿勢を示す文字列となる前記全身画像を特定する処理を実行させ、
前記安全管理装置の出力処理部に対し、
前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示する処理を実行させ、
前記推定処理部に対し、
前記全身画像の背景に基づいて、前記人間が位置する床面からの高さを推定するとともに、前記人間の周辺に位置する稼働物の有無を検知する処理を実行させ、
前記出力処理部に対し、
前記特定した全身画像が同一の不安全姿勢で連続する時間を算出し、前記算出した時間が所定の閾値を超える場合、前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示し、
前記床面からの高さ及び前記稼働物の有無に応じた前記所定の閾値を前記連続する時間に適用する処理を実行させること、
を特徴とする安全管理装置を機能させるための安全管理プログラム。 For the learning processing section of the safety management device
The user specifies a posture estimation model that outputs a character string indicating the posture of the whole body image when the skeleton information extracted from the whole body image of a human image captured by the camera is input in the field, with respect to the whole body image specified by the user. Perform the process of learning using the training data labeled with the character string indicating the unsafe posture.
For the estimation processing unit of the safety management device
The skeleton information extracted from the whole body image whose posture is unknown is input to the learned posture estimation model, and the whole body image whose output of the learned posture estimation model is a character string indicating the unsafe posture is specified. Execute the process,
For the output processing unit of the safety management device
A process of displaying the specified whole body image and the time when the specified whole body image was captured is executed .
For the estimation processing unit
Based on the background of the whole body image, the height from the floor on which the human is located is estimated, and the process of detecting the presence or absence of a moving object located around the human is executed.
For the output processing unit
The time during which the specified whole body image continues in the same unsafe posture is calculated, and when the calculated time exceeds a predetermined threshold value, the time when the specified whole body image and the specified whole body image are captured is displayed. ,
To execute a process of applying the predetermined threshold value according to the height from the floor surface and the presence / absence of the moving object to the continuous time.
A safety management program for operating a safety management device characterized by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019118777A JP6884819B2 (en) | 2019-06-26 | 2019-06-26 | Safety management equipment, safety management methods and safety management programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019118777A JP6884819B2 (en) | 2019-06-26 | 2019-06-26 | Safety management equipment, safety management methods and safety management programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021005229A JP2021005229A (en) | 2021-01-14 |
JP6884819B2 true JP6884819B2 (en) | 2021-06-09 |
Family
ID=74097223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019118777A Active JP6884819B2 (en) | 2019-06-26 | 2019-06-26 | Safety management equipment, safety management methods and safety management programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6884819B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023189104A1 (en) * | 2022-03-30 | 2023-10-05 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
WO2023209809A1 (en) * | 2022-04-26 | 2023-11-02 | 日本電気株式会社 | Information processing device, information processing method, information processing system, and recording medium |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067482A (en) * | 1999-08-30 | 2001-03-16 | Atr Media Integration & Communications Res Lab | Human reaction recognizing device and computer- readable recording medium where program for the same is recorded |
JP4668684B2 (en) * | 2005-05-20 | 2011-04-13 | 住友大阪セメント株式会社 | Monitoring device and software program |
JP2007124526A (en) * | 2005-10-31 | 2007-05-17 | Hitachi Ltd | Image monitoring recording device and system therefor |
JP2017503225A (en) * | 2013-10-24 | 2017-01-26 | アリ コードAli Kord | Motion capture system |
JP6241820B2 (en) * | 2013-11-26 | 2017-12-06 | 国立大学法人鳥取大学 | Fall risk calculation system and reporting system |
JP2016110374A (en) * | 2014-12-05 | 2016-06-20 | 富士通テン株式会社 | Information processor, information processing method, and information processing system |
JP6686523B2 (en) * | 2016-02-24 | 2020-04-22 | コニカミノルタ株式会社 | Monitored person monitoring apparatus, method and system |
JP6822328B2 (en) * | 2017-06-27 | 2021-01-27 | オムロン株式会社 | Watching support system and its control method |
-
2019
- 2019-06-26 JP JP2019118777A patent/JP6884819B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021005229A (en) | 2021-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3062263A1 (en) | Method and apparatus for work quality control | |
CN108256431A (en) | A kind of hand position identification method and device | |
CN108596148B (en) | System and method for analyzing labor state of construction worker based on computer vision | |
JP6884819B2 (en) | Safety management equipment, safety management methods and safety management programs | |
CN110414400B (en) | Automatic detection method and system for wearing of safety helmet on construction site | |
CN113412177B (en) | Robot control device, robot system, and robot control method | |
CN109740416B (en) | Target tracking method and related product | |
JP2014115700A (en) | Confirmation requirement degree determination device, confirmation requirement degree determination method, and program | |
WO2023104557A1 (en) | Machine-learning for safety rule violation determination | |
JP2020091801A (en) | Work analysis system and work analysis method | |
Guo et al. | Action recognition based on 3D skeleton and LSTM for the monitoring of construction workers’ safety harness usage | |
US20230326041A1 (en) | Learning device, learning method, tracking device, and storage medium | |
WO2021044680A1 (en) | Layout design device, layout design method, and program | |
CN113553893A (en) | Human body falling detection method and device based on deep neural network and electronic equipment | |
CN111310647A (en) | Generation method and device for automatic identification falling model | |
CN114758286B (en) | Intelligent edge safety monitoring method and device based on work ticket event | |
CN116453058A (en) | Home old man behavior monitoring method and system based on deep learning and digital body separation | |
CN116523288A (en) | Base station constructor risk identification method and device, electronic equipment and storage medium | |
CN110826383A (en) | Analysis system, analysis method, program, and storage medium | |
CN115982824A (en) | Construction site worker space management method and device, electronic equipment and storage medium | |
CN115674198A (en) | Method, device, equipment and storage medium for deploying robot | |
Chen et al. | Hybrid visual information analysis for on-site occupational hazards identification: a case study on stairway safety | |
US11176360B2 (en) | Work skill supporting device and work skill supporting system | |
CN114170677A (en) | Network model training method and equipment for detecting smoking behavior | |
JP2016006555A (en) | Planning business support method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200729 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200729 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6884819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |