JP6884819B2 - Safety management equipment, safety management methods and safety management programs - Google Patents

Safety management equipment, safety management methods and safety management programs Download PDF

Info

Publication number
JP6884819B2
JP6884819B2 JP2019118777A JP2019118777A JP6884819B2 JP 6884819 B2 JP6884819 B2 JP 6884819B2 JP 2019118777 A JP2019118777 A JP 2019118777A JP 2019118777 A JP2019118777 A JP 2019118777A JP 6884819 B2 JP6884819 B2 JP 6884819B2
Authority
JP
Japan
Prior art keywords
whole body
body image
posture
processing unit
safety management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019118777A
Other languages
Japanese (ja)
Other versions
JP2021005229A (en
Inventor
昌之 川俣
昌之 川俣
強 松野
強 松野
誠 伯田
誠 伯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2019118777A priority Critical patent/JP6884819B2/en
Publication of JP2021005229A publication Critical patent/JP2021005229A/en
Application granted granted Critical
Publication of JP6884819B2 publication Critical patent/JP6884819B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、安全管理装置、安全管理方法及び安全管理プログラムに関する。 The present invention relates to a safety management device, a safety management method and a safety management program.

製造現場で働く作業員は、労働災害と隣合わせであり、立ち作業を長時間連続する、不安全な作業姿勢を取る等によって腰等を痛めてしまう可能性もある。企業においては、労働者の安全を守るための労働基準法を遵守することはもとより、労働災害を防止するため、安全衛生活動を推進している。労働衛生活動の基本は、“安全教育”、“現場巡視”及び“安全指導”の確実な実行である。この考えのもと、現場のリーダが中心になって、安全教育を実施し、現場巡視により問題場面(不安全なポテンシャルのある作業場面)を検出し、現場指導による改善活動へ繋げている。 Workers working at the manufacturing site are next to each other due to occupational accidents, and there is a possibility that they may hurt their lower back due to continuous standing work for a long time or taking an unsafe working posture. Companies not only comply with the Labor Standards Law to protect the safety of workers, but also promote safety and health activities to prevent occupational accidents. The basis of occupational health activities is the reliable implementation of "safety education," "site inspection," and "safety guidance." Based on this idea, on-site leaders play a central role in conducting safety education, detecting problematic situations (working situations with unsafe potential) through on-site inspections, and linking them to improvement activities through on-site guidance.

このような取り組みにおいて、人手による現場巡視には限界がある。そこで、問題場面を発見するために、ビデオカメラ等が撮像した現場の画像を、計算機システムが記憶し再生することになる。しかしながら、再生された映像のなかから、必要な映像を人的に切り出すには、多くの時間が必要となる。 In such efforts, there is a limit to manual site patrols. Therefore, in order to find a problem scene, the computer system memorizes and reproduces the image of the site captured by the video camera or the like. However, it takes a lot of time to humanly cut out the necessary video from the reproduced video.

特許文献1において、作業員は、カメラを頭部に装着し、加速度計を腰部に装着する。カメラは、作業員が現に視認している対象物(足場、梯子等)を撮像する。加速度計は、作業員の動作を検知する。特許文献1の安全管理システムは、対象物及び動作の時系列の組み合わせである“基本行動パターン”を予め記憶している。基本行動パターンは、安全行動のサンプルである。特許文献1の安全管理システムは、時々刻々と取得される対象物及び動作の組み合わせが、基本行動パターンから逸脱した場合、作業員に警報を発する。 In Patent Document 1, the worker wears the camera on the head and the accelerometer on the waist. The camera captures an object (scaffolding, ladder, etc.) that the worker is actually viewing. The accelerometer detects the movement of the worker. The safety management system of Patent Document 1 stores in advance a "basic behavior pattern" which is a combination of an object and a time series of movements. The basic behavior pattern is a sample of safe behavior. The safety management system of Patent Document 1 issues an alarm to a worker when the combination of an object and an action acquired from moment to moment deviates from the basic behavior pattern.

特許文献2の姿勢推定装置は、撮像した人間の画像をサンプルの画像と照合する。撮像した画像中のある部位(上腕、大腿部等)が他の部位に隠蔽されている場合、撮像した画像を正確にサンプル画像と照合することができない。そこで、特許文献2の姿勢推定装置は、撮像した画像の部位の平行線成分の長さに応じて部位ごとに重みを付す、つまり、隠蔽された部位に注目するか無視するかを区別する。 The posture estimation device of Patent Document 2 collates the captured human image with the sample image. When a certain part (upper arm, thigh, etc.) in the captured image is concealed by another part, the captured image cannot be accurately collated with the sample image. Therefore, the posture estimation device of Patent Document 2 weights each part according to the length of the parallel line component of the part of the captured image, that is, distinguishes whether to pay attention to or ignore the hidden part.

特許第6429424号明細書Japanese Patent No. 6429424 特許第5877053号明細書Japanese Patent No. 5877053

特許文献1の安全管理システムは、作業員にカメラ及び加速度計を装着させる。このことは、現場の作業員に負担(手間)を課す可能性がある。また、特許文献1の安全管理システムのカメラは、作業員の全身姿勢を撮像することができない。さらに、特許文献1は、作業員に対する安全教育のための資料を提供することには言及していない。特許文献2の姿勢推定装置は、画像の一部が隠蔽されていても、なんらかの姿勢を推定することが目的であり、特許文献2は、姿勢の安全性については言及していない。
そこで、本発明は、作業員に負担を課すことなく不安全な全身姿勢を検知し安全教育を効果的に行うことを目的とする。
The safety management system of Patent Document 1 causes a worker to wear a camera and an accelerometer. This may impose a burden (labor) on the workers in the field. Further, the camera of the safety management system of Patent Document 1 cannot capture the whole body posture of the worker. Furthermore, Patent Document 1 does not mention providing materials for safety education for workers. The posture estimation device of Patent Document 2 aims to estimate some posture even if a part of the image is concealed, and Patent Document 2 does not mention the safety of the posture.
Therefore, an object of the present invention is to detect an unsafe whole body posture and effectively perform safety education without imposing a burden on the worker.

本発明の安全管理装置は、現場においてカメラが撮像した人間の全身画像から抽出された骨格情報を入力すると全身画像の姿勢を示す文字列を出力する姿勢推定モデルを、ユーザが指定する全身画像に対してユーザが指定する不安全姿勢を示す文字列をラベル付けした学習データを使用して学習する学習処理部と、姿勢が未知である全身画像から抽出された骨格情報を学習した姿勢推定モデルに入力し、学習した姿勢推定モデルの出力が不安全姿勢を示す文字列となる全身画像を特定する推定処理部と、特定した全身画像及び特定した全身画像が撮像された時刻を表示する出力処理部と、を備え、推定処理部は、全身画像の背景に基づいて、人間が位置する床面からの高さを推定するとともに、人間の周辺に位置する稼働物の有無を検知し、出力処理部は、特定した全身画像が同一の不安全姿勢で連続する時間を算出し、算出した時間が所定の閾値を超える場合、特定した全身画像及び特定した全身画像が撮像された時刻を表示し、床面からの高さ及び稼働物の有無に応じた所定の閾値を連続する時間に適用すること、を特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
The safety management device of the present invention converts a posture estimation model that outputs a character string indicating the posture of the whole body image into a whole body image specified by the user when the skeleton information extracted from the whole body image of a human image captured by the camera is input. On the other hand, a learning processing unit that learns using learning data labeled with a character string indicating an unsafe posture specified by the user, and a posture estimation model that learns skeletal information extracted from a whole-body image whose posture is unknown. An estimation processing unit that specifies a whole-body image that is input and the output of the learned posture estimation model is a character string indicating an unsafe posture, and an output processing unit that displays the specified whole-body image and the time when the specified whole-body image was captured. If, Bei example, estimation processing section, based on the background of the whole body image, with human estimates the height from the floor surface located to detect the presence or absence of operation thereof located around the human, output processing The unit calculates the continuous time of the specified whole body image in the same unsafe posture, and when the calculated time exceeds a predetermined threshold, displays the specified whole body image and the time when the specified whole body image was captured. It is characterized in that a predetermined threshold value according to the height from the floor surface and the presence or absence of a moving object is applied to continuous times.
Other means will be described in the form for carrying out the invention.

本発明によれば、作業員に負担を課すことなく不安全な全身姿勢を検知し安全教育を効果的に行うことができる。 According to the present invention, it is possible to detect an unsafe whole body posture and effectively perform safety education without imposing a burden on the worker.

安全管理装置の構成等を説明する図である。It is a figure explaining the structure of the safety management apparatus. 安全管理システムの運用フローを説明する図である。It is a figure explaining the operation flow of a safety management system. 姿勢推定モデルの学習及び姿勢の推定を説明する図である。It is a figure explaining the learning of the posture estimation model and the estimation of a posture. 骨格情報を説明する図である。It is a figure explaining the skeleton information. 学習データを説明する図である。It is a figure explaining the learning data. 姿勢推定結果情報を説明する図である。It is a figure explaining the posture estimation result information. 時系列チャートを説明する図である。It is a figure explaining the time series chart. 閾値情報を説明する図である。It is a figure explaining the threshold information. 進捗情報を説明する図である。It is a figure explaining progress information. 学習処理手順のフローチャートである。It is a flowchart of a learning process procedure. 推定処理手順のフローチャートである。It is a flowchart of the estimation processing procedure. 出力処理手順のフローチャートである。It is a flowchart of an output processing procedure. 結果表示画面の一例である。This is an example of the result display screen.

以降、本発明を実施するための形態(以降“本実施形態”とも呼ぶ)を、図等を参照しながら詳細に説明する。本実施形態は、製造現場における作業員の姿勢を推定する例である。しかしながら、人間が身体を動かす他の現場において、人間の姿勢を推定する例にも本発明は適用可能である。 Hereinafter, a mode for carrying out the present invention (hereinafter, also referred to as “the present embodiment”) will be described in detail with reference to figures and the like. This embodiment is an example of estimating the posture of a worker at a manufacturing site. However, the present invention can also be applied to an example of estimating a human posture in another field where a human moves the body.

(安全管理装置)
図1は、安全管理装置1の構成等を説明する図である。安全管理装置1は、一般的なコンピュータであり、中央制御装置11、マウス、キーボード等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び通信装置16を備える。これらは、バスで相互に接続されている。補助記憶装置15は、全身画像31、骨格情報32、学習データ33、姿勢推定モデル34、姿勢推定結果情報35、時系列チャート36、閾値情報37及び推定進捗情報38(いずれも詳細後記)を格納している。
(Safety management device)
FIG. 1 is a diagram illustrating a configuration and the like of the safety management device 1. The safety management device 1 is a general computer, and includes a central control device 11, an input device 12 such as a mouse and a keyboard, an output device 13 such as a display, a main storage device 14, an auxiliary storage device 15, and a communication device 16. These are connected to each other by a bus. The auxiliary storage device 15 stores the whole body image 31, the skeleton information 32, the learning data 33, the posture estimation model 34, the posture estimation result information 35, the time series chart 36, the threshold information 37, and the estimation progress information 38 (all of which will be described in detail later). doing.

主記憶装置14における骨格抽出処理部21、学習処理部22、推定処理部23及び出力処理部24は、プログラムである。中央制御装置11は、これらのプログラムを補助記憶装置15から読み出し主記憶装置14にロードすることによって、それぞれのプログラムの機能(詳細後記)を実現する。補助記憶装置15は、安全管理装置1から独立した構成となっていてもよい。 The skeleton extraction processing unit 21, the learning processing unit 22, the estimation processing unit 23, and the output processing unit 24 in the main storage device 14 are programs. The central control device 11 reads these programs from the auxiliary storage device 15 and loads them into the main storage device 14, thereby realizing the functions of the respective programs (details will be described later). The auxiliary storage device 15 may have a configuration independent of the safety management device 1.

製造現場3の天井、壁面等に、カメラ4が設置されている。また、作業エリアの目立つ箇所に警報装置5が設置されている。警報装置5は、作業員(図示せず)が携帯する携帯式コンピュータであってもよい。製造現場3の近辺に、ビデオレコーダ7が設置されている。ビデオレコーダ7は、全身画像31を記憶する。全身画像31は、カメラ4が撮像した作業員の画像である。全身画像31は、作業員の周辺の稼働物、背景等を写し込んでもよいが、作業員の全身の画像を必ず含むものとする。全身画像31が写し込む作業員の人数は、基本的に1名である。しかしながら、全身画像31は、その1名の他に、近辺にいる他の1又は複数の作業員を写し込んでもよい。安全管理装置1は、ビデオレコーダ7から、全身画像31を取得する。 The camera 4 is installed on the ceiling, wall surface, or the like of the manufacturing site 3. Further, the alarm device 5 is installed in a conspicuous place in the work area. The alarm device 5 may be a portable computer carried by a worker (not shown). A video recorder 7 is installed near the manufacturing site 3. The video recorder 7 stores the whole body image 31. The whole body image 31 is an image of a worker captured by the camera 4. The whole body image 31 may imprint a moving object, a background, etc. around the worker, but must include an image of the whole body of the worker. The number of workers imprinted on the whole body image 31 is basically one. However, the whole body image 31 may capture one or more other workers in the vicinity in addition to the one person. The safety management device 1 acquires a whole body image 31 from the video recorder 7.

製造現場3の管理者(ユーザ)の近辺に、端末装置6が設置されている。ユーザが安全管理装置1から離れている場合、ユーザは端末装置6に対して操作を行う。つまり、端末装置6は、安全管理装置1の入力装置12及び出力装置13の機能を補完又は代替する。安全管理装置1、ビデオレコーダ7、警報装置5及び端末装置6は、ネットワーク2を介して相互に接続される。 The terminal device 6 is installed in the vicinity of the manager (user) of the manufacturing site 3. When the user is away from the safety management device 1, the user operates on the terminal device 6. That is, the terminal device 6 complements or replaces the functions of the input device 12 and the output device 13 of the safety management device 1. The safety management device 1, the video recorder 7, the alarm device 5, and the terminal device 6 are connected to each other via the network 2.

全身画像31がビデオレコーダ7に一旦蓄積されることなく、カメラ4が全身画像31を撮像すると同時に安全管理装置1にその全身画像31を送信してもよい。この場合、カメラ4が、ビデオレコーダ7を介することなく直接ネットワーク2に接続されてもよい。安全管理装置1、カメラ4、ビデオレコーダ7及び端末装置6は、安全管理システムを構成する。 The whole body image 31 may be transmitted to the safety management device 1 at the same time as the camera 4 captures the whole body image 31 without temporarily accumulating the whole body image 31 in the video recorder 7. In this case, the camera 4 may be directly connected to the network 2 without going through the video recorder 7. The safety management device 1, the camera 4, the video recorder 7, and the terminal device 6 constitute a safety management system.

(運用フロー)
図2は、安全管理システムの運用フローを説明する図である。以下は、ユーザが端末装置6を操作する例である。
(Operation flow)
FIG. 2 is a diagram illustrating an operation flow of the safety management system. The following is an example in which the user operates the terminal device 6.

まず学習段階では、ステップS51において、カメラ4は、全身画像を取得し、その全身画像をビデオレコーダ7に送信する。ここでの全身画像は、学習データとなるべきサンプルである。ステップS52において、ビデオレコーダ7は、受信した全身画像を記憶する。ステップS53において、端末装置6は、ユーザが学習を指示するのを受け付ける。 First, in the learning stage, in step S51, the camera 4 acquires a whole body image and transmits the whole body image to the video recorder 7. The whole body image here is a sample that should be training data. In step S52, the video recorder 7 stores the received whole body image. In step S53, the terminal device 6 accepts the user to instruct learning.

ステップS54において、安全管理装置1は、学習を実行する。つまり、安全管理装置1は、ビデオレコーダ7から取得した全身画像から骨格情報32を抽出するとともに、学習データを作成する。さらに、安全管理装置1は、作成した学習データを使用して姿勢推定モデルを学習し、学習済の姿勢推定モデル34として記憶する。 In step S54, the safety management device 1 executes learning. That is, the safety management device 1 extracts the skeleton information 32 from the whole body image acquired from the video recorder 7 and creates learning data. Further, the safety management device 1 learns the posture estimation model using the created learning data and stores it as the learned posture estimation model 34.

次に推定段階では、ステップS55において、カメラ4は、全身画像を取得し、その全身画像をビデオレコーダ7に送信する。ここでの全身画像は、その姿勢を検知するために取得され、当然その姿勢は未知である。ステップS56において、ビデオレコーダ7は、受信した全身画像を記憶する。ステップS57において、端末装置6は、ユーザが推定を指示するのを受け付ける。 Next, in the estimation stage, in step S55, the camera 4 acquires a whole body image and transmits the whole body image to the video recorder 7. The whole body image here is acquired to detect the posture, and of course the posture is unknown. In step S56, the video recorder 7 stores the received whole body image. In step S57, the terminal device 6 accepts the user to instruct the estimation.

ステップS58において、安全管理装置1は、推定を実行する。つまり、安全管理装置1は、ビデオレコーダ7から取得した全身画像から骨格情報32を抽出するとともに、その骨格情報を学習済の姿勢推定モデル34に入力し、姿勢推定モデル34の出力としての姿勢を取得する。さらに、安全管理装置1は、取得した姿勢を姿勢推定結果情報35として記憶する。 In step S58, the safety management device 1 performs the estimation. That is, the safety management device 1 extracts the skeleton information 32 from the whole body image acquired from the video recorder 7, inputs the skeleton information into the trained posture estimation model 34, and outputs the posture as the output of the posture estimation model 34. get. Further, the safety management device 1 stores the acquired posture as the posture estimation result information 35.

最後に出力段階では、ステップS59において、端末装置6は、ユーザが結果の表示を要求するのを受け付ける。ステップS60において、安全管理装置1は、時系列チャート36等を作成し記憶する。ステップS61において、端末装置6は、時系列チャート36等を表示する。 Finally, in the output stage, in step S59, the terminal device 6 accepts the user requesting the display of the result. In step S60, the safety management device 1 creates and stores the time series chart 36 and the like. In step S61, the terminal device 6 displays the time series chart 36 and the like.

(姿勢推定モデルの学習及び姿勢の推定)
図3は、姿勢推定モデル34の学習及び姿勢の推定を説明する図である。姿勢推定モデル34は、骨格情報32を入力Xとし、推定ラベル35を出力Yとする数理モデルである。骨格情報32は、カメラが撮像した全身画像31から抽出された人間の関節位置を示す情報である。推定ラベル35は、全身画像31に写り込んだ作業員の姿勢を安全管理装置1がどのように推定したかを示す文字列であり、ここでは、“前屈”、“そんきょ”、“指差呼称”、“高所作業”及びそれらのいずれにも属さないことを示す“その他”である。そして、“前屈”、“そんきょ”、“指差呼称”及び“高所作業”は、全身画像31における4つの姿勢に上からその順で対応している。
(Learning of posture estimation model and estimation of posture)
FIG. 3 is a diagram illustrating learning of the posture estimation model 34 and estimation of the posture. Orientation estimation model 34, the skeleton information 32 as input X i, a mathematical model of the output Y i an estimated label 35. The skeleton information 32 is information indicating the human joint position extracted from the whole body image 31 captured by the camera. The estimation label 35 is a character string indicating how the safety management device 1 estimates the posture of the worker reflected in the whole body image 31, and here, “forward bending”, “sonkyo”, “ "Pointing and calling", "working at height" and "other" indicating that they do not belong to any of them. Then, "forward bending", "sonkyo", "pointing and calling", and "high-altitude work" correspond to the four postures in the whole body image 31 in that order from the top.

作業員が前屈の姿勢を取ると、腰に負担が掛かる。作業員がそんきょの姿勢を取ると、膝に負担が掛かる。これらは、作業員の健康状態の悪化又は転倒による労働災害の発生に繋がる。よって、以降では、前屈及びそんきょは、“不安全姿勢”と呼ばれることがある。指差呼称及び高所作業は、労働災害には直接関係しないが、安全対策上管理されるべき姿勢である。 When the worker takes a forward bending posture, the waist is strained. When the worker takes a good posture, the knee is strained. These lead to the occurrence of occupational accidents due to deterioration of the health condition of workers or falls. Therefore, hereafter, forward bending and sonkyo may be referred to as "unsafe posture". Pointing and calling and work at height are not directly related to occupational accidents, but are attitudes that should be managed in terms of safety measures.

姿勢推定モデル34の実施形態としては、様々なものが想定される。第1の例は、関数“Y=F(X,a)”である。Xは入力変数であり、Yは出力変数であり、“a”はパラメータ(係数、切片等)である。添え字“i”は、入力変数及び出力変数が多次元であり、パラメータも複数存在することを示している。 Various embodiments of the posture estimation model 34 are assumed. The first example is the function "Y i = F (X i , a i )". X i is an input variable, Y i is an output variable, and “ ai ” is a parameter (coefficient, intercept, etc.). The subscript "i" indicates that the input variable and the output variable are multidimensional, and that there are a plurality of parameters.

第2の例は、ニューラルネットワークである。よく知られているように、ニューラルネットワークは、入力層、中間層及び出力層を有し、各層は、複数のノードを有する。ある1つのノードは、次の層の各ノードに対して分散的に情報量を伝搬する。次の層のどのノードにどれだけの比率の情報量を伝搬するかを示すものが重みベクトルである。重みベクトルは、入力層及び中間層のノードごとに定義される。 The second example is a neural network. As is well known, a neural network has an input layer, an intermediate layer and an output layer, and each layer has a plurality of nodes. One node propagates the amount of information in a distributed manner to each node in the next layer. The weight vector indicates how much information is propagated to which node in the next layer. The weight vector is defined for each node in the input layer and the intermediate layer.

学習データ33は、全身画像31から抽出された骨格情報32に対して人為的に正解ラベル(“前屈”、“そんきょ”、“指差呼称”及び“高所作業”)を付与した教師データである。安全管理装置1は、パラメータ又は重みベクトルの値を無作為的に発生させ、それを関数又はニューラルネットワークに代入する。そして、安全管理装置1は、学習データ33のある骨格情報を関数又はニューラルネットワークに入力する。すると、関数又はニューラルネットワークは、いずれかの推定ラベルを出力する。 The learning data 33 artificially added correct labels (“forward bending”, “sonkyo”, “pointing and calling”, and “working at height”) to the skeleton information 32 extracted from the whole body image 31. Teacher data. The safety management device 1 randomly generates a value of a parameter or a weight vector and substitutes it into a function or a neural network. Then, the safety management device 1 inputs the skeleton information of the learning data 33 into the function or the neural network. The function or neural network then outputs either estimated label.

出力された推定ラベル35は、正解ラベルとは異なっているケースが多い。しかしながら、安全管理装置1は、パラメータ又は重みベクトルの値を少しずつ変化させて代入することを繰り返すと、正解率が向上するケースに偶然行き当たる。姿勢推定モデル34の学習とは、安全管理装置1がこのような試行錯誤を多数回実行することによって、正解率が最大となるパラメータ又は重みベクトルの値を特定することである。 The output estimated label 35 is often different from the correct label. However, the safety management device 1 happens to come across a case where the accuracy rate is improved when the value of the parameter or the weight vector is changed little by little and the substitution is repeated. The learning of the posture estimation model 34 is to specify the value of the parameter or the weight vector that maximizes the correct answer rate by the safety management device 1 executing such trial and error many times.

(骨格情報)
図4は、骨格情報32を説明する図である。全身画像31から抽出した図形型式の骨格情報32(図4右下)を表型式で表現したものが骨格情報32(図4上)である。表型式の骨格情報32においては、識別番号欄101に記憶された識別番号に関連付けて、特徴点欄102には特徴点が、X座標値欄103にはX座標値が、Y座標値欄104にはY座標値が記憶されている。
(Skeletal information)
FIG. 4 is a diagram for explaining the skeleton information 32. The skeleton information 32 (upper right in FIG. 4) is a tabular representation of the graphic type skeleton information 32 (lower right in FIG. 4) extracted from the whole body image 31. In the tabular skeleton information 32, the feature point is in the feature point column 102, the X coordinate value is in the X coordinate value column 103, and the Y coordinate value column 104 is associated with the identification number stored in the identification number column 101. The Y coordinate value is stored in.

識別番号欄101の識別番号は、骨格の特徴点を一意に特定する番号である。
特徴点欄102の特徴点は、骨格の特徴点であり、本実施形態では、骨格の関節点に一致する。ここでは、説明の都合上、特徴点として左側のもののみを記載しているが、右側の特徴点が存在してもよい。
X座標値欄103のX座標値は、特徴点のX座標値である。X軸は、図形型式の骨格情報32の左上の角を原点とする水平方向の軸である(右方向が正)。
Y座標値欄104のY座標値は、特徴点のY座標値である。Y軸は、図形型式の骨格情報32の左上の角を原点とする垂直方向の軸である(下方向が正)。
The identification number in the identification number column 101 is a number that uniquely identifies the feature points of the skeleton.
The feature points in the feature point column 102 are the feature points of the skeleton, and in the present embodiment, they correspond to the joint points of the skeleton. Here, for convenience of explanation, only the feature points on the left side are described, but the feature points on the right side may exist.
The X coordinate value in the X coordinate value column 103 is the X coordinate value of the feature point. The X-axis is a horizontal axis whose origin is the upper left corner of the graphic type skeleton information 32 (the right direction is positive).
The Y coordinate value in the Y coordinate value column 104 is the Y coordinate value of the feature point. The Y-axis is a vertical axis whose origin is the upper left corner of the graphic type skeleton information 32 (the downward direction is positive).

(学習データ)
図5は、学習データ33を説明する図である。学習データ33においては、フレーム番号欄111に記憶されたフレーム番号に関連付けて、正解ラベル欄112には正解ラベルが、骨格情報欄113には骨格情報が記憶されている。
フレーム番号欄111のフレーム番号は、全身画像31の個別のフレームを一意に特定する番号である。全身画像31は、時系列の静止画像(数十フレーム/秒)として撮像され、時系列の静止画像は、連続的に再生されることによって動画となる。以降では、当該分野の慣例に従って、各フレームに属する個々の静止画像は、“コマ”とも呼ばれる。
(Learning data)
FIG. 5 is a diagram for explaining the learning data 33. In the learning data 33, the correct answer label is stored in the correct answer label column 112 and the skeleton information is stored in the skeleton information column 113 in association with the frame number stored in the frame number column 111.
The frame number in the frame number field 111 is a number that uniquely identifies an individual frame of the whole body image 31. The whole body image 31 is captured as a time-series still image (several tens of frames / second), and the time-series still image is continuously reproduced to become a moving image. Hereinafter, according to the convention in the art, each still image belonging to each frame is also referred to as a "frame".

正解ラベル欄112の正解ラベルは、前記したように、ユーザが特定のフレーム番号のコマに対して付与した姿勢を示すラベルであり、 “前屈”、“そんきょ”、“指差呼称”及び“高所作業”のいずれかである。端末装置6(又は安全管理装置1の出力装置13、以下同様)は、正解ラベル欄71を表示したうえで、全身画像31の各コマをスライド表示する。そして、端末装置6は、ユーザがあるコマを選択したうえで、正解ラベル欄71のボタン71a〜71dのうちのいずれか1つを押下するのを受け付ける。 As described above, the correct answer label in the correct answer label column 112 is a label indicating the posture given by the user to the frame having a specific frame number, and is "forward bending", "sonkyo", and "pointing and calling". And "work at height". The terminal device 6 (or the output device 13 of the safety management device 1, the same applies hereinafter) displays the correct answer label column 71, and then slides and displays each frame of the whole body image 31. Then, the terminal device 6 accepts that the user selects a certain frame and then presses any one of the buttons 71a to 71d in the correct answer label column 71.

例えば、ユーザがコマ31a(フレーム番号は“1”)を選択したうえで、前屈ボタン71aを押下したとする。すると、安全管理装置1は、フレーム番号“1”を正解ラベル“前屈”に関連付けて記憶する。図5の全身画像31においては、専ら説明のわかりやすさのために、各コマ上に“前屈”等の文字列が記載されている。しかしながら、安全管理装置1は、ユーザによる操作があって初めて、“前屈”等の正解ラベルを、各コマに付与する。
骨格情報欄113の骨格情報は、図4のX座標値及びY座標値を、所定の順序で記憶したものである。
For example, suppose that the user selects a frame 31a (frame number is “1”) and then presses the forward bending button 71a. Then, the safety management device 1 stores the frame number “1” in association with the correct label “forward bending”. In the whole body image 31 of FIG. 5, a character string such as "forward bending" is described on each frame exclusively for the sake of easy understanding of the explanation. However, the safety management device 1 assigns a correct label such as "forward bending" to each frame only after the user operates it.
The skeleton information in the skeleton information column 113 stores the X coordinate value and the Y coordinate value of FIG. 4 in a predetermined order.

(姿勢推定結果情報)
図6は、姿勢推定結果情報35を説明する図である。姿勢推定結果情報35においては、フレーム番号欄121に記憶されたフレーム番号に関連付けて、推定ラベル欄122には推定ラベルが、骨格情報欄123には骨格情報が、作業位置の高さ欄124には作業位置の高さが記憶されている。
(Posture estimation result information)
FIG. 6 is a diagram for explaining the posture estimation result information 35. In the posture estimation result information 35, the estimation label is in the estimation label column 122, the skeleton information is in the skeleton information column 123, and the skeleton information is in the work position height column 124 in association with the frame number stored in the frame number column 121. The height of the working position is memorized.

フレーム番号欄121のフレーム番号は、図5のフレーム番号と同じである。しかしながら、図5のフレーム番号がサンプルとしてのコマを特定するのに対し、図6のフレーム番号は、安全管理装置1が姿勢を推定するべきコマ(後記する“推定対象コマ”)を特定する。
推定ラベル欄122の推定ラベルは、前記したように、安全管理装置1が特定のフレーム番号のコマに対して付与した姿勢を示すラベルであり、“前屈”、“そんきょ”、“指差呼称”、“高所作業”及び“その他”のいずれかである。
The frame number in the frame number field 121 is the same as the frame number in FIG. However, while the frame number in FIG. 5 specifies a frame as a sample, the frame number in FIG. 6 specifies a frame for which the safety management device 1 should estimate the posture (“estimation target frame” described later).
As described above, the estimation label in the estimation label column 122 is a label indicating the posture given to the frame of the specific frame number by the safety management device 1, and is "forward bending", "sonkyo", and "finger". It is either "labeling", "working at height" or "other".

骨格情報欄123の骨格情報は、図5の骨格情報と同じである。
作業位置の高さ欄124の作業位置の高さは、作業員の身体の所定の部位の床面(地面)からの高さである。安全管理装置1が作業位置の高さを取得する方法は、例えば以下の通りである。
The skeleton information in the skeleton information column 123 is the same as the skeleton information in FIG.
The height of the working position in the height column 124 of the working position is the height from the floor surface (ground) of a predetermined part of the worker's body. The method for the safety management device 1 to acquire the height of the working position is as follows, for example.

・安全管理装置1は、数メートル(例えば2メートル)毎おきに多数の姿勢の骨格情報の距離学習をすることで、何メートル先に作業員がいるかの距離推定ができる。安全管理装置1は、例えば2メートル毎おきに学習する。推定結果が“4メートルの確率50%、6メートルの確率50%”である場合、安全管理装置1は、推定距離は5メートルであると判断する。安全管理装置1は、出力された推定距離に加え、カメラの高さ及び画角の消失点と中央点から三角法を用い作業位置の高さを出力する。 -The safety management device 1 can estimate the distance of how many meters ahead the worker by learning the distance of the skeleton information of a large number of postures every few meters (for example, 2 meters). The safety management device 1 learns every 2 meters, for example. When the estimation result is "probability of 4 meters 50%, probability of 6 meters 50%", the safety management device 1 determines that the estimated distance is 5 meters. In addition to the output estimated distance, the safety management device 1 outputs the height of the working position from the vanishing point and the center point of the camera height and the angle of view by using trigonometry.

・安全管理装置1は、カメラの高さ又は画角が変わっても、作業位置の高さを推定するパラメータであるカメラの高さ及び画角の消失点と中央点について、それらパラメータを換算処理することで、距離学習を新たに行うことなく作業位置の高さを出力する。 -The safety management device 1 converts the height of the camera and the vanishing point and the center point of the angle of view, which are parameters for estimating the height of the working position, even if the height or the angle of view of the camera changes. By doing so, the height of the working position is output without newly performing distance learning.

(時系列チャート)
図7は、時系列チャート36(36a、36b、36c)を説明する図である。まず、時系列チャート36aに注目する。時系列チャート36aにおいては、推定ラベル欄131に記憶された推定ラベルに関連付けて、検知回数欄132には検知回数が、検知状況欄133には検知状況が記憶されている。
(Time series chart)
FIG. 7 is a diagram illustrating a time series chart 36 (36a, 36b, 36c). First, pay attention to the time series chart 36a. In the time series chart 36a, the number of detections is stored in the detection number column 132 and the detection status is stored in the detection status column 133 in association with the estimated label stored in the estimation label column 131.

推定ラベル欄131の推定ラベルは、図6の推定ラベルと同じである。
検知回数欄132の検知回数は、安全管理装置1が全身画像31のコマに対してその推定ラベルを付与した回数(後記する“報告”の回数)である。
検知状況欄133の検知状況は、安全管理装置1がその推定ラベルを付与した全身画像31のコマが撮像された時点を“●”で示したものである。検知情報欄133の横軸は時間であり、“10:00”等は、その推定ラベルが付与された全身画像31のコマをカメラ4が撮像した時刻である。図6の全身画像31の各コマには、撮像された時刻が関連付けられている(図示せず)。●の個数は、検知回数に等しい。
The estimated label in the estimated label column 131 is the same as the estimated label in FIG.
The number of detections in the detection number column 132 is the number of times that the safety management device 1 gives the estimated label to the frame of the whole body image 31 (the number of “reports” described later).
The detection status in the detection status column 133 indicates the time when the frame of the whole body image 31 to which the safety management device 1 has the estimated label is imaged is indicated by “●”. The horizontal axis of the detection information column 133 is time, and “10:00” and the like are the times when the camera 4 captures the frame of the whole body image 31 to which the estimated label is attached. Each frame of the whole body image 31 of FIG. 6 is associated with the time when the image was taken (not shown). The number of ● is equal to the number of detections.

(指定姿勢の検知及び報告)
ユーザが正解ラベルとして指定した姿勢は、“指定姿勢”と呼ばれる。指定姿勢は、不安全姿勢を含む。指定姿勢のうち特に不安全姿勢は、ユーザが安全管理装置1に是非とも検知させたい姿勢である。しかしながら、検知の重要性は、その姿勢の連続時間、作業位置の高さ、周辺の稼働物の有無等によって異なる。例えば、周囲に稼働物がない床面において、作業員がほんの一瞬“前屈”の姿勢を取った場合、安全管理装置1がそれをユーザに報告するのは煩雑である。
(Detection and reporting of designated posture)
The posture specified by the user as the correct label is called "designated posture". The designated posture includes an unsafe posture. Of the designated postures, the unsafe posture is a posture that the user wants the safety management device 1 to detect by all means. However, the importance of detection depends on the continuous time of the posture, the height of the working position, the presence or absence of moving objects in the vicinity, and the like. For example, if a worker takes a "forward bending" posture for a moment on a floor surface with no moving objects in the surroundings, it is complicated for the safety management device 1 to report it to the user.

そこで、本実施形態は、指定姿勢の“検知”と“報告”とを区別する。安全管理装置1は、指定姿勢に該当するコマが1つでもある場合、必ずそれを検知する。しかしながら、安全管理装置1は、例えば以下の規則1及び規則2に従って、指定姿勢が発生したことをユーザに報告する。
〈規則1〉指定姿勢が連続して検知された時間が所定の閾値(図8)に達して初めて、安全管理装置1は、指定姿勢が1回発生したことをユーザに報告する。
〈規則2〉安全管理装置1は、指定姿勢(推定ラベル)ごと、作業位置の高さごと、周囲の稼働物の有無ごとに異なる閾値(図8)を連続して検知された時間に対して適用する。
Therefore, this embodiment distinguishes between "detection" and "reporting" of the designated posture. The safety management device 1 always detects even one piece corresponding to the designated posture. However, the safety management device 1 reports to the user that the designated posture has occurred, for example, in accordance with Rule 1 and Rule 2 below.
<Rule 1> The safety management device 1 reports to the user that the designated posture has occurred once only when the time when the designated posture is continuously detected reaches a predetermined threshold value (FIG. 8).
<Rule 2> The safety management device 1 continuously detects different threshold values (FIG. 8) for each designated posture (estimated label), height of working position, and presence / absence of surrounding moving objects for the time detected. Apply.

図7の時系列チャート36aにおける検知回数及び●の個数は、“報告”の回数である。コマ送りの速度にもよるが、一般に、安全管理装置1が指定姿勢を検知するコマの数は、時系列チャート36aにおける検知回数及び●の個数よりも遥かに多い。そして、その検知が、時系列チャート36aにおける検知回数及び●の個数に結果的に反映されない場合も多い。時系列チャート36aを見たユーザは、例えば、以下のことを知る。 The number of detections and the number of ● in the time series chart 36a of FIG. 7 are the number of “reports”. Although it depends on the frame advance speed, in general, the number of frames for which the safety management device 1 detects the designated posture is much larger than the number of detections and the number of ● in the time series chart 36a. In many cases, the detection is not reflected in the number of detections and the number of ● in the time series chart 36a as a result. The user who sees the time series chart 36a knows, for example, the following.

・ある日の10時00分頃から11時10分頃までの期間に、作業員は合計21回、前屈の姿勢を取った。その回数は、10時20分及び11時10分付近にやや集中している。
・この期間に、作業員は合計7回、そんきょの姿勢を取った。その回数は、その期間の後半にやや集中している。
・この期間に、作業員は指差呼称の姿勢を1回取り、高所作業の姿勢を1回取った。
・ During the period from 10:00 to 11:10 one day, the workers took a forward bending posture 21 times in total. The number of times is somewhat concentrated around 10:20 and 11:10.
・ During this period, the workers took a total of seven postures. The number is somewhat concentrated in the second half of the period.
-During this period, the worker took a pointing and calling posture once and a high-altitude work posture once.

いま、ユーザは端末装置6に対して、“前屈については10分の時間幅ごとの検知回数を、そんきょについては20分の時間幅ごとの検知回数を知りたい”旨の操作を入力したとする。すると、安全管理装置1は、時系列チャート36aを時系列チャート36bに遷移する。時系列チャート36bが時系列チャート36aに比して異なる点は、以下の通りである。 Now, the user inputs an operation to the terminal device 6 stating, "I want to know the number of detections for each 10-minute time width for forward bending and the number of detections for each 20-minute time width for Sonkyo." Suppose you did. Then, the safety management device 1 transitions the time series chart 36a to the time series chart 36b. The differences between the time-series chart 36b and the time-series chart 36a are as follows.

・安全管理装置1は、レコード134において、●に代替して、10分の時間幅を示す長方形136を8個表示している。各長方形136は、その10分間の検知回数を表示している。
・安全管理装置1は、レコード135において、●に代替して、20分の時間幅を示す長方形137を4個表示している。各長方形137も、その20分間の検知回数を表示している。
-The safety management device 1 displays eight rectangles 136 indicating a time width of 10 minutes in place of ● in the record 134. Each rectangle 136 displays the number of detections for 10 minutes.
-The safety management device 1 displays four rectangles 137 indicating a time width of 20 minutes in place of ● in the record 135. Each rectangle 137 also displays the number of detections for 20 minutes.

いま、ユーザは端末装置6に対して、“前屈について、10時20分及び11時10分付近の検知回数を3分20秒の時間幅ごとに知りたい、それ以外の時間帯の検知回数をまとめて知りたい”旨の操作を入力したとする。すると、安全管理装置1は、時系列チャート36bを時系列チャート36cに遷移する。時系列チャート36cが時系列チャート36bに比して異なる点は、以下の通りである。 Now, the user wants to tell the terminal device 6 "For forward bending, I want to know the number of detections around 10:20 and 11:10 for each time width of 3 minutes and 20 seconds, and the number of detections in other time zones. Suppose you have entered an operation that says "I want to know all at once." Then, the safety management device 1 transitions the time series chart 36b to the time series chart 36c. The differences between the time-series chart 36c and the time-series chart 36b are as follows.

・安全管理装置1は、レコード134において、10時20分付近の長方形136に代替して、3分20秒の時間幅を示す長方形138を3個表示し、11時10分付近の長方形136に代替して、3分20秒の時間幅を示す長方形138を3個表示している。各長方形138は、3分20秒間の検知回数を表示している。
・安全管理装置1は、レコード134において、それ以外の時間帯に、20分の時間幅を示す長方形139及び40分の時間幅を示す長方形140を1個ずつ表示している。長方形139は、20分間の検知回数を表示している。長方形140は、40分間の検知回数を表示している。
-The safety management device 1 displays three rectangles 138 showing a time width of 3 minutes and 20 seconds in place of the rectangle 136 near 10:20 on the record 134, and displays the rectangle 136 around 11:10. Instead, three rectangles 138 showing a time width of 3 minutes and 20 seconds are displayed. Each rectangle 138 displays the number of detections for 3 minutes and 20 seconds.
-The safety management device 1 displays a rectangle 139 indicating a time width of 20 minutes and a rectangle 140 indicating a time width of 40 minutes one by one in the record 134 in other time zones. The rectangle 139 displays the number of detections in 20 minutes. The rectangle 140 indicates the number of detections in 40 minutes.

(閾値情報)
図8は、閾値情報37を説明する図である。閾値情報37においては、推定ラベル欄141に記憶された推定ラベルに関連付けて、閾値欄142には閾値が記憶されている。
推定ラベル欄141の推定ラベルは、図6の推定ラベルと同じである。しかしながら、ここでの推定ラベルは、不安全姿勢(前屈及びそんきょ)を必ず含む。ここでの推定ラベルは、その他の特定姿勢の推定ラベルを含んでもよい。
(Threshold information)
FIG. 8 is a diagram for explaining the threshold information 37. In the threshold value information 37, the threshold value is stored in the threshold value column 142 in association with the estimated label stored in the estimation label column 141.
The estimated label in the estimated label column 141 is the same as the estimated label in FIG. However, the estimated label here always includes unsafe postures (forward bending and sonkyo). The estimation label here may include an estimation label of other specific postures.

閾値欄142の閾値は、前記したように、その推定ラベルの姿勢が連続する時間に対して適用される閾値(単位:秒)である。閾値は、4種類のケース(列)142a〜142dごと、推定ラベルごとに設定される。ケースは、作業位置の高さ及び作業員の周囲の稼働物の有無の組み合わせである。 As described above, the threshold value in the threshold value column 142 is a threshold value (unit: seconds) applied to the continuous time of the posture of the estimated label. The threshold value is set for each of the four types of cases (columns) 142a to 142d and for each estimated label. The case is a combination of the height of the working position and the presence or absence of moving objects around the worker.

例えば、安全管理装置1は、ユーザによる設定に基づき、図6における作業位置の高さを、“0■”を意味する“床面”、及び、それ以外を意味する“高所”の2つに区分する。さらに、安全管理装置1は、全身画像31に写り込んだ背景に基づき、その全身画像31を、作業員の周囲に稼働物があることを示す“あり”、及び、作業員の周囲に稼働物がないことを示す“なし”の2つに区分する。 For example, the safety management device 1 sets the height of the working position in FIG. 6 to "floor surface" meaning "0 ■" and "high place" meaning other than that, based on the setting by the user. It is divided into. Further, the safety management device 1 displays the whole body image 31 of the whole body image 31 based on the background reflected in the whole body image 31 to indicate that there is a moving object around the worker, and the moving object around the worker. It is divided into two categories, "None", which indicates that there is no such thing.

4種類のケースは、これらの組み合わせ(2×2=4個)である。これらの区分はあくまでも一例であり、作業位置の高さは、より多くの数に区分され得る。周囲の稼働物の有無も、稼働物の種類(機械、台車、他の作業員等)及びその数に応じてより多くの数に区分され得る。その結果、組み合わせとしてのケースの数がより多くなり得る。 The four types of cases are combinations of these (2 x 2 = 4). These divisions are merely examples, and the height of the working position can be divided into a larger number. The presence or absence of surrounding moving objects can also be classified into a larger number according to the types of moving objects (machines, trolleys, other workers, etc.) and their numbers. As a result, the number of cases as a combination can be larger.

作業員が高所にいるほど、かつ、周囲に稼働物があるほど、不安全姿勢が労働災害を招来する可能性がより高い。したがって、ケース“床面、なし”を基準として、閾値は、作業位置の高さが高所になると小さくなり、周囲の稼働物の有無が“あり”となると小さくなる。閾値が小さくなると、その姿勢が続くことを防止する判断基準がより厳しくなる。 The higher the worker and the more moving objects are around, the more likely the unsafe attitude will lead to an occupational accident. Therefore, based on the case "floor surface, none", the threshold value becomes smaller when the height of the working position becomes higher, and becomes smaller when the presence / absence of surrounding moving objects becomes "present". The smaller the threshold, the more stringent the criteria for preventing the posture from continuing.

(進捗情報)
図9は、進捗情報38を説明する図である。進捗情報38においては、登録番号欄151に記憶された登録番号に関連付けて、状態欄152には状態が、画像時刻欄153には画像時刻が、登録時刻欄154には登録時刻が、開始時刻欄155には開始時刻が、完了時刻欄156には完了時刻が、レポートページ欄157にはリンク情報が記憶されている。
(Progress information)
FIG. 9 is a diagram illustrating progress information 38. In the progress information 38, the status is in the status column 152, the image time is in the image time column 153, the registration time is in the registration time column 154, and the start time is associated with the registration number stored in the registration number column 151. The start time is stored in the column 155, the completion time is stored in the completion time column 156, and the link information is stored in the report page column 157.

登録番号欄151の登録番号は、進捗情報38のレコード(行)を一意に特定する番号である。
状態欄152の状態は、“登録済”、“実行中”又は“完了”のいずれかである。“登録済”は、姿勢が未知である時系列の全身画像が、ビデオレコーダ7又は安全管理装置1の補助記憶装置15に記憶(登録)された(図2のステップS56)ことを示す。“実行中”は、“登録済”の状態から進み、安全管理装置1が学習済の姿勢推定モデル34を使用して、姿勢の推定を実行中である(図2のステップS58)ことを示す。“完了”は、“実行中”の状態からさらに進み、安全管理装置1が姿勢の推定を完了したことを示す。
The registration number in the registration number column 151 is a number that uniquely identifies the record (row) of the progress information 38.
The status of the status column 152 is either "registered", "running", or "completed". “Registered” indicates that a time-series whole-body image whose posture is unknown is stored (registered) in the video recorder 7 or the auxiliary storage device 15 of the safety management device 1 (step S56 in FIG. 2). “Running” indicates that the process proceeds from the “registered” state, and the safety management device 1 is executing the posture estimation using the trained posture estimation model 34 (step S58 in FIG. 2). .. “Completed” indicates that the safety management device 1 has completed the estimation of the posture by further proceeding from the “running” state.

画像時刻欄153の画像時刻は、登録済の全身画像31の連続画像の最初のコマが撮像された時刻と最後のコマが撮像された時刻の年月日時分秒である。
登録時刻欄154の登録時刻は、全身画像31が登録された時刻の年月日時分秒である。
The image time in the image time column 153 is the year, month, day, hour, minute, and second of the time when the first frame of the continuous image of the registered whole body image 31 is captured and the time when the last frame is captured.
The registration time in the registration time field 154 is the year, month, day, hour, minute, and second of the time when the whole body image 31 is registered.

開始時刻欄155の開始時刻は、安全管理装置1が学習済の姿勢推定モデル34を使用して、姿勢の推定を実行し始めた時刻の年月日時分秒である。
完了時刻欄156の完了時刻は、安全管理装置1が姿勢の推定を完了した時刻の年月日時分秒である。
レポートページ欄157のリンク情報は、ユーザが視認するべき結果表示情報81(図13の説明として後記)が格納されている補助記憶装置15等のネットワーク2上の位置情報である。
The start time of the start time column 155 is the year, month, day, hour, minute, and second of the time when the safety management device 1 starts executing the posture estimation using the learned posture estimation model 34.
The completion time in the completion time column 156 is the year, month, day, hour, minute, and second of the time when the safety management device 1 completes the posture estimation.
The link information in the report page column 157 is location information on the network 2 such as the auxiliary storage device 15 in which the result display information 81 (described later as an explanation of FIG. 13) to be visually recognized by the user is stored.

(処理手順)
以降、本実施形態の処理手順を説明する。処理手順は、学習処理手順、推定処理手順及び出力処理手順からなる。これらの処理手順は、この順に実行される。
(Processing procedure)
Hereinafter, the processing procedure of the present embodiment will be described. The processing procedure includes a learning processing procedure, an estimation processing procedure, and an output processing procedure. These processing procedures are executed in this order.

(学習処理手順)
図10は、学習処理手順のフローチャートである。
ステップS201において、安全管理装置1の学習処理部22は、サンプルの全身画像31を取得する。具体的には、第1に、学習処理部22は、ビデオレコーダ7からサンプルの全身画像31のうち最初のコマを取得する。
第2に、学習処理部22は、最初のコマを端末装置6に表示する。
第3に、学習処理部22は、正解ラベルボタン71(図5)を端末装置6に表示する。
(Learning process procedure)
FIG. 10 is a flowchart of the learning process procedure.
In step S201, the learning processing unit 22 of the safety management device 1 acquires the whole body image 31 of the sample. Specifically, first, the learning processing unit 22 acquires the first frame of the sample whole body image 31 from the video recorder 7.
Second, the learning processing unit 22 displays the first frame on the terminal device 6.
Third, the learning processing unit 22 displays the correct answer label button 71 (FIG. 5) on the terminal device 6.

ステップS202において、学習処理部22は、必要な全身画像であるか否かを判断する。全身画像31のコマのうちには、管理上必要がないと判断するコマ(安全な姿勢で作業をしているコマ等)が混じっている。そこで、ユーザは、表示されているコマが学習データとして必要ないと判断すると、“スキップ”ボタン(図示せず)を押下する。学習処理部22は、スキップボタンの押下を受け付けた場合(ステップS202“No”)、ステップS205に進み、それ以外の場合(ステップS202“Yes”)、ステップS203に進む。 In step S202, the learning processing unit 22 determines whether or not the image is a necessary whole body image. Among the frames of the whole body image 31, there are frames that are judged to be unnecessary for management (frames that are working in a safe posture, etc.). Therefore, when the user determines that the displayed frame is not necessary as learning data, the user presses the "skip" button (not shown). When the learning processing unit 22 accepts the pressing of the skip button (step S202 “No”), it proceeds to step S205, and in other cases (step S202 “Yes”), it proceeds to step S203.

ステップS203において、学習処理部22は、正解ラベルを受け付ける。具体的には、第1に、学習処理部22は、ユーザが、表示されているコマを選択したうえで、正解ラベルボタン71a〜71■(図5)のいずれかを押下するのを受け付ける。説明の都合上、いまコマ31aが表示されており、ユーザは、そのコマ31aを選択したうえで、前屈ボタン71aを押下したとする。
第2に、学習処理部22は、学習データ33(図5)の新たなレコードを作成し、フレーム番号欄111にコマ31aのフレーム番号“1”を記憶し、正解ラベル欄112に“前屈”を記憶する。この段階では、骨格情報欄113は、空白のままである。
In step S203, the learning processing unit 22 receives the correct answer label. Specifically, first, the learning processing unit 22 accepts the user to select the displayed frame and then press any of the correct label buttons 71a to 71 ■ (FIG. 5). For convenience of explanation, it is assumed that the frame 31a is displayed now, and the user selects the frame 31a and then presses the forward bending button 71a.
Second, the learning processing unit 22 creates a new record of the learning data 33 (FIG. 5), stores the frame number “1” of the frame 31a in the frame number column 111, and “bends forward” in the correct label column 112. "Remember. At this stage, the skeleton information column 113 remains blank.

ステップS204において、安全管理装置1の骨格抽出処理部21は、骨格情報32を抽出する。具体的には、第1に、骨格抽出処理部21は、コマ31aから図形型式の骨格情報32(図4の右下)を抽出する。
第2に、骨格抽出処理部21は、抽出した図形型式の骨格情報32に基づき、表型式の骨格情報32(図4の上)を作成する。骨格抽出処理部21は、ここで作成した表型式の骨格情報32にフレーム番号“1”を付したうえで、補助記憶装置15に記憶する。
第3に、骨格抽出処理部21は、ステップS203の“第2”において作成した新たなレコードの骨格情報欄113に、骨格情報(X座標値及びY座標値)を記憶する。
In step S204, the skeleton extraction processing unit 21 of the safety management device 1 extracts the skeleton information 32. Specifically, first, the skeleton extraction processing unit 21 extracts the graphic type skeleton information 32 (lower right of FIG. 4) from the frame 31a.
Secondly, the skeleton extraction processing unit 21 creates the skeleton information 32 of the tabular type (upper part of FIG. 4) based on the extracted skeleton information 32 of the graphic type. The skeleton extraction processing unit 21 assigns a frame number “1” to the skeleton information 32 of the tabular type created here, and then stores the skeleton information 32 in the auxiliary storage device 15.
Thirdly, the skeleton extraction processing unit 21 stores the skeleton information (X coordinate value and Y coordinate value) in the skeleton information column 113 of the new record created in the “second” of step S203.

ステップS205において、安全管理装置1の学習処理部22は、未処理のフレームがあるか否かを判断する。具体的には、学習処理部22は、未処理のフレーム(コマ)がある場合(ステップS205“Yes”)、ステップS201に戻り、次のコマについて同様の処理を繰り返す。学習処理部22は、それ以外の場合(ステップS205“No”)、ステップS206に進む。 In step S205, the learning processing unit 22 of the safety management device 1 determines whether or not there is an unprocessed frame. Specifically, when there is an unprocessed frame (frame), the learning processing unit 22 returns to step S201 and repeats the same processing for the next frame. In other cases (step S205 “No”), the learning processing unit 22 proceeds to step S206.

ステップS201〜S205の繰り返し処理が終了した段階で、図5に示すような学習データ33が完成していることになる。学習データ33の各レコードの正解ラベル欄112は、“前屈”、“そんきょ”、“指差呼称”及び“高所作業”のうちのいずれかを記憶している。仮に正解ラベルが“前屈”であるレコードが10本記憶されている場合、10本の各レコードの骨格情報は、いずれも前屈の姿勢を示すが、細部は相互に相違している。他の姿勢についても同様である。 When the iterative processing of steps S201 to S205 is completed, the learning data 33 as shown in FIG. 5 is completed. The correct answer label column 112 of each record of the learning data 33 stores any one of "forward bending", "sonkyo", "pointing and calling", and "high-altitude work". If 10 records whose correct label is "forward bending" are stored, the skeleton information of each of the 10 records shows a forward bending posture, but the details are different from each other. The same applies to other postures.

ステップS206において、学習処理部22は、姿勢推定モデル34を学習する。具体的には、学習処理部22は、学習データ33(図5)を使用して、前記した方法で姿勢推定モデル34のパラメータ(又は重みベクトル)を最適化する。 In step S206, the learning processing unit 22 learns the posture estimation model 34. Specifically, the learning processing unit 22 uses the learning data 33 (FIG. 5) to optimize the parameters (or weight vectors) of the posture estimation model 34 by the method described above.

ステップS207において、学習処理部22は、学習済の姿勢推定モデル34を記憶する。具体的には、学習処理部22は、学習済の姿勢推定モデル34を補助記憶装置15に記憶する。
その後、学習処理手順を終了する。
In step S207, the learning processing unit 22 stores the learned posture estimation model 34. Specifically, the learning processing unit 22 stores the learned posture estimation model 34 in the auxiliary storage device 15.
After that, the learning process procedure is terminated.

(推定処理手順)
図11は、推定処理手順のフローチャートである。推定処理手順を開始する前提として、閾値情報37(図8)が、完成状態で補助記憶装置15に記憶されているものとする。
(Estimation processing procedure)
FIG. 11 is a flowchart of the estimation processing procedure. As a premise for starting the estimation processing procedure, it is assumed that the threshold information 37 (FIG. 8) is stored in the auxiliary storage device 15 in the completed state.

ステップS301において、安全管理装置1の推定処理部23は、姿勢が未知である全身画像31を取得する。具体的には、推定処理部23は、ビデオレコーダ7に登録済の時系列の全体画像31(図6)から最初のコマを取得する。なお、推定処理部23は、ビデオレコーダ7を介することなく、カメラ4から全身画像を直接取得してもよい(リアルタイム推定ケース)。いずれの場合も、ここで取得されたコマは、説明の便宜上“推定対象コマ”と呼ばれる。全体画像31(図6)は、実際には安全上特に問題のない姿勢のコマを多く含んでいるが、そのようなコマを含め、すべてのコマが推定対象コマとなる。 In step S301, the estimation processing unit 23 of the safety management device 1 acquires a whole body image 31 whose posture is unknown. Specifically, the estimation processing unit 23 acquires the first frame from the entire time-series image 31 (FIG. 6) registered in the video recorder 7. The estimation processing unit 23 may directly acquire a full-body image from the camera 4 without going through the video recorder 7 (real-time estimation case). In either case, the frames acquired here are referred to as "estimated target frames" for convenience of explanation. The whole image 31 (FIG. 6) actually includes many frames in a posture that does not cause any particular problem in terms of safety, but all the frames including such frames are the estimation target frames.

ステップS302において、安全管理装置1の骨格抽出処理部21は、骨格情報32を抽出する。具体的には、第1に、骨格抽出処理部21は、推定対象コマから図形型式の骨格情報32を抽出する。
第2に、骨格抽出処理部21は、ステップS204の“第2”の処理を実行する。
In step S302, the skeleton extraction processing unit 21 of the safety management device 1 extracts the skeleton information 32. Specifically, first, the skeleton extraction processing unit 21 extracts the graphic type skeleton information 32 from the estimation target frame.
Second, the skeleton extraction processing unit 21 executes the "second" process of step S204.

ステップS303において、安全管理装置1の推定処理部23は、骨格情報32を学習済の姿勢推定モデル34に入力する。具体的には、推定処理部23は、ステップS302の“第1”において抽出した骨格モデル32を、ステップS207(図10)において記憶した学習済の姿勢推定モデル34に入力する。 In step S303, the estimation processing unit 23 of the safety management device 1 inputs the skeleton information 32 into the trained posture estimation model 34. Specifically, the estimation processing unit 23 inputs the skeleton model 32 extracted in the “first” of step S302 into the learned posture estimation model 34 stored in step S207 (FIG. 10).

ステップS304において、推定処理部23は、推定ラベルを取得する。具体的には、第1に、推定処理部23は、学習済の姿勢推定モデル34が出力する推定ラベルを取得する。ここで取得される推定ラベルは、“前屈”、“そんきょ”、“指差呼称”、“高所作業”及び“その他”のいずれかである。 In step S304, the estimation processing unit 23 acquires the estimation label. Specifically, first, the estimation processing unit 23 acquires the estimation label output by the trained posture estimation model 34. The estimated label obtained here is one of "forward bending", "sonkyo", "pointing and calling", "working at height" and "others".

第2に、推定処理部23は、ステップS304の“第1”において取得された推定ラベルが“前屈”である場合、“前屈カウント値”に“1”を加算する。推定処理部23は、ステップS304の“第1”において取得された推定ラベルが“そんきょ”である場合、“そんきょカウント値”に“1”を加算する。前屈カウント値の初期値及びそんきょカウント値の初期値は、“0”である。 Secondly, when the estimation label acquired in the "first" of step S304 is "forward bending", the estimation processing unit 23 adds "1" to the "forward bending count value". When the estimation label acquired in the “first” of step S304 is “sonkyo”, the estimation processing unit 23 adds “1” to the “sonkyo count value”. The initial value of the forward bending count value and the initial value of the sonkyo count value are "0".

推定処理部23は、前屈カウント値が加算され続けた後、推定ラベルが“前屈”以外のものになった場合、前屈カウント値を“0”に戻す。そんきょカウント値についても同様である。推定処理部23は、前屈カウント値又はそんきょカウント値を、推定対象コマのフレーム番号に関連付けて補助記憶装置15に記憶する。 The estimation processing unit 23 returns the forward bending count value to "0" when the estimated label becomes something other than "forward bending" after the forward bending count value is continuously added. The same applies to the Sonkyo count value. The estimation processing unit 23 stores the forward bending count value or the sonkyo count value in the auxiliary storage device 15 in association with the frame number of the estimation target frame.

ステップS305において、推定処理部23は、作業位置の高さを算出する。具体的には、推定処理部23は、前記した方法で作業位置の高さを算出する。 In step S305, the estimation processing unit 23 calculates the height of the working position. Specifically, the estimation processing unit 23 calculates the height of the working position by the method described above.

ステップS306において、推定処理部23は、急ぎ警報を発する必要があるか否かを判断する。具体的には、第1に、推定処理部23は、以下の条件1及び条件2がすべて満たされているか否かを調べる。
〈条件1〉前屈カウント値又はそんきょカウント値が所定の閾値に達している。推定処理部23は、推定ラベル、作業位置の高さ及び推定対象コマに写り込んだ稼働物の有無を検索キーとして、閾値情報37(図8)から閾値を取得する。
〈条件2〉現在、リアルタイム推定ケースが実行されている。
In step S306, the estimation processing unit 23 determines whether or not it is necessary to issue an urgent alarm. Specifically, first, the estimation processing unit 23 checks whether or not all of the following conditions 1 and 2 are satisfied.
<Condition 1> The forward bending count value or the sonkyo count value has reached a predetermined threshold value. The estimation processing unit 23 acquires a threshold value from the threshold value information 37 (FIG. 8) using the estimation label, the height of the working position, and the presence / absence of the moving object reflected in the estimation target frame as search keys.
<Condition 2> Currently, a real-time estimation case is being executed.

第2に、推定処理部23は、条件1及び条件2がすべて満たされている場合(ステップS306“Yes”)、ステップS307に進み、それ以外場合(ステップS306“No”)、ステップS308に進む。 Second, the estimation processing unit 23 proceeds to step S307 if all of the conditions 1 and 2 are satisfied (step S306 “Yes”), and proceeds to step S308 otherwise (step S306 “No”). ..

ステップS307において、推定処理部23は、警報を発する。具体的には、推定処理部23は、警報装置5に対して警報を送信する。ここでの警報の例は、“前屈姿勢の取り過ぎにご注意ください”という音声ガイドである。 In step S307, the estimation processing unit 23 issues an alarm. Specifically, the estimation processing unit 23 transmits an alarm to the alarm device 5. An example of an alarm here is a voice guide that says, "Be careful not to take too much forward bending posture."

ステップS308において、推定処理部23は、未処理のフレームがあるか否かを判断する。具体的には、学習処理部22は、推定対象コマとなっていないコマが残っている場合(ステップS308“Yes”)、ステップS301に戻り、次の推定対象コマについて同様の処理を繰り返す。学習処理部22は、それ以外の場合(ステップS308“No”)、ステップS309に進む。
ステップS301〜S308の繰り返し処理を終了した段階で、各推定対象コマについて、フレーム番号、推定ラベル、骨格情報及び作業位置の高さが取得されて一時的に主記憶装置14に記憶されていることになる。
In step S308, the estimation processing unit 23 determines whether or not there is an unprocessed frame. Specifically, when the frame that is not the estimation target frame remains (step S308 “Yes”), the learning processing unit 22 returns to step S301 and repeats the same processing for the next estimation target frame. In other cases (step S308 “No”), the learning processing unit 22 proceeds to step S309.
At the stage when the iterative processing of steps S301 to S308 is completed, the frame number, the estimation label, the skeleton information, and the height of the working position are acquired for each estimation target frame and temporarily stored in the main storage device 14. become.

さらにこの段階で、ステップS304の“第2”の結果として、例えば以下のようなデータが補助記憶装置15に記憶されていることになる。
(フレーム番号,前屈カウント値)=(11,0),(12,1)、(13,2),(14,0),・・・,(20,0),(21,1),(22,2),(23,3),(24,0),・・・
このデータは、各不安全姿勢の連続コマ数、すなわち連続時間を知るためのデータであり、以降で、“連続情報”とも呼ばれる。なお、ここでの連続情報のフレーム番号は、図6における全身画像31のフレーム番号とは整合していない。
Further, at this stage, as a result of the "second" in step S304, for example, the following data is stored in the auxiliary storage device 15.
(Frame number, forward bending count value) = (11,0), (12,1), (13,2), (14,0), ..., (20,0), (21,1), (22,2), (23,3), (24,0), ...
This data is data for knowing the number of continuous frames of each unsafe posture, that is, the continuous time, and is also referred to as "continuous information" hereafter. The frame numbers of the continuous information here do not match the frame numbers of the whole body image 31 in FIG.

ステップS309において、推定処理部23は、姿勢推定結果情報35(図6)を作成する。具体的には、推定処理部23は、一時的に記憶されている、フレーム番号、推定ラベル、骨格情報及び作業位置の高さの組み合わせに基づいて、姿勢推定結果情報35を作成する。図6において、推定ラベル欄122に“その他”が記憶されているレコードは、推定対象コマの姿勢が、“前屈”、“そんきょ”、“指差呼称”及び“高所作業”のいずれでもないと推定処理部23が判断したレコードである。推定処理部23は、これらのレコードを削除してもよい。 In step S309, the estimation processing unit 23 creates the posture estimation result information 35 (FIG. 6). Specifically, the estimation processing unit 23 creates the posture estimation result information 35 based on the temporarily stored combination of the frame number, the estimation label, the skeleton information, and the height of the working position. In FIG. 6, in the record in which "Other" is stored in the estimation label column 122, the postures of the estimation target frames are "forward bending", "sonkyo", "pointing and calling", and "high-altitude work". It is a record determined by the estimation processing unit 23 to be neither. The estimation processing unit 23 may delete these records.

ステップS310において、推定処理部23は、姿勢推定結果情報35を記憶する。具体的には、推定処理部23は、ステップS309において作成した姿勢推定結果情報35を補助記憶装置15に記憶する。
その後、推定処理手順を終了する。
In step S310, the estimation processing unit 23 stores the posture estimation result information 35. Specifically, the estimation processing unit 23 stores the posture estimation result information 35 created in step S309 in the auxiliary storage device 15.
After that, the estimation processing procedure ends.

(進捗情報のレコードの遷移)
推定処理部23は、推定処理手順を開始する前に、連続するある全身画像31(図6)について、進捗情報38(図9)の“登録済”のレコードを作成し終えている。推定処理部23は、推定処理手順を開始した時点で、当該全身画像31について、“登録済”のレコードを“実行中”に更新し、推定処理手順を終了した時点で、当該全身画像31について、“実行中”のレコードを“完了”に更新する。
(Transition of progress information record)
The estimation processing unit 23 has completed creating a “registered” record of progress information 38 (FIG. 9) for a continuous whole body image 31 (FIG. 6) before starting the estimation processing procedure. The estimation processing unit 23 updates the "registered" record for the whole body image 31 to "execution" when the estimation processing procedure is started, and when the estimation processing procedure is completed, the estimation processing unit 23 updates the whole body image 31. , Update the "running" record to "completed".

(出力処理手順)
図12は、出力処理手順のフローチャートである。
ステップS401において、安全管理装置1の出力処理部24は、時系列チャート36を作成する。具体的には、出力処理部24は、連続情報及びステップS310において記憶した姿勢推定結果情報35(図6)を使用して、時系列チャート36a(図7)を作成する。このとき、出力処理部24は、閾値情報37(図8)を参照して、時系列チャート36aにおいて1つの●として表現するべき連続画像のコマを特定する。つまり、出力処理部24は、同じ“前屈”であっても、10秒間を超えて連続するコマを1つの●とする場合(高所、あり)もあるし、30秒間を超えて連続するコマを1つの●とする場合(床面、なし)もある。
(Output processing procedure)
FIG. 12 is a flowchart of the output processing procedure.
In step S401, the output processing unit 24 of the safety management device 1 creates a time series chart 36. Specifically, the output processing unit 24 creates a time series chart 36a (FIG. 7) using the continuous information and the posture estimation result information 35 (FIG. 6) stored in step S310. At this time, the output processing unit 24 refers to the threshold value information 37 (FIG. 8) to specify a frame of the continuous image to be expressed as one ● in the time series chart 36a. That is, even if the output processing unit 24 has the same "forward bending", there are cases where a frame that is continuous for more than 10 seconds is regarded as one ● (high place, there is), and the output processing unit 24 is continuous for more than 30 seconds. In some cases, one piece is ● (floor surface, none).

例えば、出力処理部24は、姿勢推定結果情報35(図6)のあるレコードを取得したとする。そのレコードの推定ラベルが“前屈”であり、作業位置の高さが“10m”であり、フレーム番号に対応するコマの背景に稼働物が写り込んでいるとする。すると、出力処理部24は、“前屈”、“高所”及び“あり”を検索キーとして閾値情報37(図8)を検索し、閾値“10秒”を取得する。そして、出力処理部24は、連続情報を参照した結果、“前屈”、“高所”及び“あり”のコマが10秒を超えて連続したと判断した場合、1つの●を生成する。 For example, it is assumed that the output processing unit 24 has acquired a record having the posture estimation result information 35 (FIG. 6). It is assumed that the estimated label of the record is "forward bending", the height of the working position is "10 m", and the moving object is reflected in the background of the frame corresponding to the frame number. Then, the output processing unit 24 searches the threshold value information 37 (FIG. 8) using "forward bending", "high place", and "presence" as search keys, and acquires the threshold value "10 seconds". Then, when the output processing unit 24 determines that the frames of "forward bending", "high place", and "presence" are continuous for more than 10 seconds as a result of referring to the continuous information, one ● is generated.

ステップS402において、出力処理部24は、時系列チャート及びサマリ情報を表示する。具体的には、第1に、出力処理部24は、端末装置6に結果表示画面81(図13)を表示する。なお、端末装置6からの能動的な要求(ブラウザ視聴要求)を契機として、ステップS402の処理が開始されてもよい。
第2に、出力処理部24は、ステップS401において作成した時系列チャート36aを結果表示画面81に表示する。
第3に、出力処理部24は、サマリ情報82を結果表示画面81に表示する。サマリ情報82は、時系列チャート36aの検知回数を集計した表である。
In step S402, the output processing unit 24 displays the time series chart and summary information. Specifically, first, the output processing unit 24 displays the result display screen 81 (FIG. 13) on the terminal device 6. The process of step S402 may be started in the wake of an active request (browser viewing request) from the terminal device 6.
Second, the output processing unit 24 displays the time series chart 36a created in step S401 on the result display screen 81.
Third, the output processing unit 24 displays the summary information 82 on the result display screen 81. The summary information 82 is a table summarizing the number of detections of the time series chart 36a.

ステップS403において、出力処理部24は、画像表示要求を受け付ける。具体的には、出力処理部24は、ユーザが時系列チャート36a上のいずれかの“●”を選択するのを受け付ける。
ステップS404において、出力処理部24は、全身画像を表示する。具体的には、出力処理部24は、ステップS403において選択された●に対応する全身画像31のコマ(例えば1つの●に対応する複数のコマのうちの最初のコマ)を結果表示画面81に表示する。図13は、ここで表示される結果表示画面81の例である。フローチャートの途中であるが、説明は、一旦図13に移る。
In step S403, the output processing unit 24 receives the image display request. Specifically, the output processing unit 24 accepts the user to select any “●” on the time series chart 36a.
In step S404, the output processing unit 24 displays a whole body image. Specifically, the output processing unit 24 displays the frame of the whole body image 31 corresponding to the ● selected in step S403 (for example, the first frame among the plurality of frames corresponding to one ●) on the result display screen 81. indicate. FIG. 13 is an example of the result display screen 81 displayed here. Although it is in the middle of the flowchart, the explanation will be temporarily moved to FIG.

図13は、結果表示画面81の一例である。図13の全身画像のコマ31は、2人の作業員を映し込んでいる。出力処理部24は、このうち右側の作業員の姿勢“Bend forward(前屈)”を報告の対象と認識しているのに対し、左側の作業員の姿勢“Crouch(そんきょ)”を報告の対象とは認識していない。このことは、“Crouch”に関連付けて“Safe”が表示され、“Bend forward”に関連付けて“Unsafe”が表示されていることからわかる。右側の作業員を基準にすると、左側の作業員は、周囲の稼働物に相当する。そして、コマ31には、床面が写り込んでいる。したがって、このコマ31を報告対象としたときの閾値(図8)は、“前屈、床面、あり”に対応する“20秒”である。説明をステップS405に戻す。 FIG. 13 is an example of the result display screen 81. The frame 31 of the full-body image of FIG. 13 reflects two workers. The output processing unit 24 recognizes the posture of the worker on the right side, "Bend forward", as the subject of the report, while the posture of the worker on the left side, "Crowch", is recognized as the subject of the report. We do not recognize it as the subject of the report. This can be seen from the fact that "Safe" is displayed in association with "Crowch" and "Unsafe" is displayed in association with "Bend forward". Based on the worker on the right side, the worker on the left side corresponds to the surrounding moving objects. The floor surface is reflected in the frame 31. Therefore, the threshold value (FIG. 8) when this frame 31 is the report target is "20 seconds" corresponding to "forward bending, floor surface, and presence". The description returns to step S405.

ステップS405において、出力処理部24は、動画を表示する。具体的には、第1に、出力処理部24は、ユーザが動画ボタン83を押下するのを受け付ける。
第2に、出力処理部24は、ステップS403において選択された●に対応するすべてのコマの連続画像を動画として結果表示画面81に表示する。
ステップS406において、出力処理部24は、グルーピング要求を受け付ける。具体的には、出力処理部24は、ユーザがグルーピング欄84に、推定ラベル及び時間幅の1又は複数の組み合わせを入力するのを受け付ける。説明の都合上、ユーザは、“前屈、10分ごと”及び“そんきょ、20分ごと”を入力したとする。
In step S405, the output processing unit 24 displays a moving image. Specifically, first, the output processing unit 24 accepts the user to press the moving image button 83.
Secondly, the output processing unit 24 displays the continuous images of all the frames corresponding to ● selected in step S403 as moving images on the result display screen 81.
In step S406, the output processing unit 24 receives the grouping request. Specifically, the output processing unit 24 accepts the user to input one or more combinations of the estimated label and the time width in the grouping field 84. For convenience of explanation, it is assumed that the user inputs "forward bending, every 10 minutes" and "sonkyo, every 20 minutes".

ステップS407において、出力処理部24は、グルーピング後の時系列チャート36を作成する。具体的には、出力処理部24は、ステップS406において受け付けたグルーピング要求に応じて、時系列チャート36b(図7)を作成する。
ステップS408において、出力処理部24は、グルーピング後の時系列チャート36を表示する。具体的には、出力処理部24は、ステップS407において作成した時系列チャート36bを結果表示画面81に表示する。
その後、出力処理手順を終了する。
In step S407, the output processing unit 24 creates a time series chart 36 after grouping. Specifically, the output processing unit 24 creates a time series chart 36b (FIG. 7) in response to the grouping request received in step S406.
In step S408, the output processing unit 24 displays the grouped time series chart 36. Specifically, the output processing unit 24 displays the time series chart 36b created in step S407 on the result display screen 81.
After that, the output processing procedure ends.

(本実施形態の効果)
本実施形態の安全管理装置の効果は以下の通りである。
(1)安全管理装置は、作業員が不安全姿勢を取った時刻とその全身画像を表示することができる。
(2)安全管理装置は、不安全姿勢の動画を表示することができる。
(3)安全管理装置は、不安全姿勢の回数を時間幅ごとに表示することができる。
(4)安全管理装置は、不安定姿勢が同一姿勢で連続する時間が閾値を超えた場合、不安全姿勢を表示することができる。
(5)安全管理装置は、床面からの高さ及び稼働物の有無に応じた閾値を、不安定姿勢が同一姿勢で連続する時間に適用することができる。
(Effect of this embodiment)
The effects of the safety management device of this embodiment are as follows.
(1) The safety management device can display the time when the worker takes an unsafe posture and the whole body image thereof.
(2) The safety management device can display a moving image of an unsafe posture.
(3) The safety management device can display the number of unsafe postures for each time width.
(4) The safety management device can display the unsafe posture when the unstable posture continues in the same posture and the continuous time exceeds the threshold value.
(5) The safety management device can apply a threshold value according to the height from the floor surface and the presence / absence of a moving object to the time when the unstable postures are continuous in the same posture.

なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

1 安全管理装置
2 ネットワーク
3 製造現場
4 カメラ
5 警報装置
6 端末装置
7 ビデオレコーダ
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置
15 補助記憶装置
16 通信装置
21 骨格抽出処理部
22 学習処理部
23 推定処理部
24 出力処理部
31 全身画像
32 骨格情報
33 学習データ
34 姿勢推定モデル
35 姿勢推定結果情報
36 時系列チャート
37 閾値情報
38 推定進進捗情報
1 Safety management device 2 Network 3 Manufacturing site 4 Camera 5 Alarm device 6 Terminal device 7 Video recorder 11 Central control device 12 Input device 13 Output device 14 Main memory device 15 Auxiliary storage device 16 Communication device 21 Skeletal extraction processing unit 22 Learning processing unit 23 Estimating processing unit 24 Output processing unit 31 Whole body image 32 Skeletal information 33 Learning data 34 Attitude estimation model 35 Attitude estimation result information 36 Time series chart 37 Threshold information 38 Estimated progress information

Claims (5)

現場においてカメラが撮像した人間の全身画像から抽出された骨格情報を入力すると前記全身画像の姿勢を示す文字列を出力する姿勢推定モデルを、ユーザが指定する前記全身画像に対して前記ユーザが指定する不安全姿勢を示す文字列をラベル付けした学習データを使用して学習する学習処理部と、
前記姿勢が未知である全身画像から抽出された骨格情報を前記学習した姿勢推定モデルに入力し、前記学習した姿勢推定モデルの出力が前記不安全姿勢を示す文字列となる前記全身画像を特定する推定処理部と、
前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示する出力処理部と、
を備え
前記推定処理部は、
前記全身画像の背景に基づいて、前記人間が位置する床面からの高さを推定するとともに、前記人間の周辺に位置する稼働物の有無を検知し、
前記出力処理部は、
前記特定した全身画像が同一の不安全姿勢で連続する時間を算出し、前記算出した時間が所定の閾値を超える場合、前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示し、
前記床面からの高さ及び前記稼働物の有無に応じた前記所定の閾値を前記連続する時間に適用すること、
特徴とする安全管理装置。
The user specifies a posture estimation model that outputs a character string indicating the posture of the whole body image when the skeleton information extracted from the whole body image of a human image captured by the camera is input in the field, with respect to the whole body image specified by the user. A learning processing unit that learns using learning data labeled with a character string indicating an unsafe posture.
The skeleton information extracted from the whole body image whose posture is unknown is input to the learned posture estimation model, and the whole body image whose output of the learned posture estimation model is a character string indicating the unsafe posture is specified. Estimating processing unit and
An output processing unit that displays the specified whole body image and the time when the specified whole body image was captured.
Equipped with a,
The estimation processing unit
Based on the background of the whole body image, the height from the floor on which the human is located is estimated, and the presence or absence of a moving object located around the human is detected.
The output processing unit
The time during which the specified whole body image continues in the same unsafe posture is calculated, and when the calculated time exceeds a predetermined threshold value, the time when the specified whole body image and the specified whole body image are captured is displayed. ,
Applying the predetermined threshold value according to the height from the floor surface and the presence / absence of the moving object to the continuous time.
Safety management apparatus according to claim.
前記出力処理部は、
前記特定した全身画像を含む全身画像の連続動画を表示すること、
を特徴とする請求項1に記載の安全管理装置。
The output processing unit
Displaying a continuous moving image of a whole body image including the specified whole body image,
The safety management device according to claim 1.
前記出力処理部は、
前記ユーザが時間幅の大きさを指定するのを受け付け、
前記全身画像が前記不安全姿勢に該当する回数を、前記時間幅ごと、前記不安全姿勢ごとに表示すること、
を特徴とする請求項に記載の安全管理装置。
The output processing unit
Accepting the user to specify the size of the time width,
Displaying the number of times that the whole body image corresponds to the unsafe posture for each time width and for each unsafe posture.
The safety management device according to claim 2.
安全管理装置の学習処理部は、
現場においてカメラが撮像した人間の全身画像から抽出された骨格情報を入力すると前記全身画像の姿勢を示す文字列を出力する姿勢推定モデルを、ユーザが指定する前記全身画像に対して前記ユーザが指定する不安全姿勢を示す文字列をラベル付けした学習データを使用して学習し、
前記安全管理装置の推定処理部は、
前記姿勢が未知である全身画像から抽出された骨格情報を前記学習した姿勢推定モデルに入力し、前記学習した姿勢推定モデルの出力が前記不安全姿勢を示す文字列となる前記全身画像を特定し、
前記安全管理装置の出力処理部は、
前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示し、
前記推定処理部は、
前記全身画像の背景に基づいて、前記人間が位置する床面からの高さを推定するとともに、前記人間の周辺に位置する稼働物の有無を検知し、
前記出力処理部は、
前記特定した全身画像が同一の不安全姿勢で連続する時間を算出し、前記算出した時間が所定の閾値を超える場合、前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示し、
前記床面からの高さ及び前記稼働物の有無に応じた前記所定の閾値を前記連続する時間に適用すること、
を特徴とする安全管理装置の安全管理方法。
The learning processing department of the safety management device
The user specifies a posture estimation model that outputs a character string indicating the posture of the whole body image when inputting skeletal information extracted from a human whole body image captured by a camera at the site, with respect to the whole body image specified by the user. Learning using training data labeled with a string indicating an unsafe posture,
The estimation processing unit of the safety management device
The skeleton information extracted from the whole body image whose posture is unknown is input to the learned posture estimation model, and the whole body image whose output of the learned posture estimation model is a character string indicating the unsafe posture is specified. ,
The output processing unit of the safety management device is
The time when the specified whole body image and the specified whole body image were captured is displayed .
The estimation processing unit
Based on the background of the whole body image, the height from the floor on which the human is located is estimated, and the presence or absence of a moving object located around the human is detected.
The output processing unit
The time during which the specified whole body image continues in the same unsafe posture is calculated, and when the calculated time exceeds a predetermined threshold value, the time when the specified whole body image and the specified whole body image are captured is displayed. ,
Applying the predetermined threshold value according to the height from the floor surface and the presence / absence of the moving object to the continuous time.
A safety management method for a safety management device characterized by.
安全管理装置の学習処理部に対し、
現場においてカメラが撮像した人間の全身画像から抽出された骨格情報を入力すると前記全身画像の姿勢を示す文字列を出力する姿勢推定モデルを、ユーザが指定する前記全身画像に対して前記ユーザが指定する不安全姿勢を示す文字列をラベル付けした学習データを使用して学習する処理を実行させ、
前記安全管理装置の推定処理部に対し、
前記姿勢が未知である全身画像から抽出された骨格情報を前記学習した姿勢推定モデルに入力し、前記学習した姿勢推定モデルの出力が前記不安全姿勢を示す文字列となる前記全身画像を特定する処理を実行させ、
前記安全管理装置の出力処理部に対し、
前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示する処理を実行させ、
前記推定処理部に対し、
前記全身画像の背景に基づいて、前記人間が位置する床面からの高さを推定するとともに、前記人間の周辺に位置する稼働物の有無を検知する処理を実行させ、
前記出力処理部に対し、
前記特定した全身画像が同一の不安全姿勢で連続する時間を算出し、前記算出した時間が所定の閾値を超える場合、前記特定した全身画像及び前記特定した全身画像が撮像された時刻を表示し、
前記床面からの高さ及び前記稼働物の有無に応じた前記所定の閾値を前記連続する時間に適用する処理を実行させること、
を特徴とする安全管理装置を機能させるための安全管理プログラム。
For the learning processing section of the safety management device
The user specifies a posture estimation model that outputs a character string indicating the posture of the whole body image when the skeleton information extracted from the whole body image of a human image captured by the camera is input in the field, with respect to the whole body image specified by the user. Perform the process of learning using the training data labeled with the character string indicating the unsafe posture.
For the estimation processing unit of the safety management device
The skeleton information extracted from the whole body image whose posture is unknown is input to the learned posture estimation model, and the whole body image whose output of the learned posture estimation model is a character string indicating the unsafe posture is specified. Execute the process,
For the output processing unit of the safety management device
A process of displaying the specified whole body image and the time when the specified whole body image was captured is executed .
For the estimation processing unit
Based on the background of the whole body image, the height from the floor on which the human is located is estimated, and the process of detecting the presence or absence of a moving object located around the human is executed.
For the output processing unit
The time during which the specified whole body image continues in the same unsafe posture is calculated, and when the calculated time exceeds a predetermined threshold value, the time when the specified whole body image and the specified whole body image are captured is displayed. ,
To execute a process of applying the predetermined threshold value according to the height from the floor surface and the presence / absence of the moving object to the continuous time.
A safety management program for operating a safety management device characterized by.
JP2019118777A 2019-06-26 2019-06-26 Safety management equipment, safety management methods and safety management programs Active JP6884819B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019118777A JP6884819B2 (en) 2019-06-26 2019-06-26 Safety management equipment, safety management methods and safety management programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019118777A JP6884819B2 (en) 2019-06-26 2019-06-26 Safety management equipment, safety management methods and safety management programs

Publications (2)

Publication Number Publication Date
JP2021005229A JP2021005229A (en) 2021-01-14
JP6884819B2 true JP6884819B2 (en) 2021-06-09

Family

ID=74097223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118777A Active JP6884819B2 (en) 2019-06-26 2019-06-26 Safety management equipment, safety management methods and safety management programs

Country Status (1)

Country Link
JP (1) JP6884819B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189104A1 (en) * 2022-03-30 2023-10-05 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
WO2023209809A1 (en) * 2022-04-26 2023-11-02 日本電気株式会社 Information processing device, information processing method, information processing system, and recording medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067482A (en) * 1999-08-30 2001-03-16 Atr Media Integration & Communications Res Lab Human reaction recognizing device and computer- readable recording medium where program for the same is recorded
JP4668684B2 (en) * 2005-05-20 2011-04-13 住友大阪セメント株式会社 Monitoring device and software program
JP2007124526A (en) * 2005-10-31 2007-05-17 Hitachi Ltd Image monitoring recording device and system therefor
JP2017503225A (en) * 2013-10-24 2017-01-26 アリ コードAli Kord Motion capture system
JP6241820B2 (en) * 2013-11-26 2017-12-06 国立大学法人鳥取大学 Fall risk calculation system and reporting system
JP2016110374A (en) * 2014-12-05 2016-06-20 富士通テン株式会社 Information processor, information processing method, and information processing system
JP6686523B2 (en) * 2016-02-24 2020-04-22 コニカミノルタ株式会社 Monitored person monitoring apparatus, method and system
JP6822328B2 (en) * 2017-06-27 2021-01-27 オムロン株式会社 Watching support system and its control method

Also Published As

Publication number Publication date
JP2021005229A (en) 2021-01-14

Similar Documents

Publication Publication Date Title
EP3062263A1 (en) Method and apparatus for work quality control
CN108256431A (en) A kind of hand position identification method and device
CN108596148B (en) System and method for analyzing labor state of construction worker based on computer vision
JP6884819B2 (en) Safety management equipment, safety management methods and safety management programs
CN110414400B (en) Automatic detection method and system for wearing of safety helmet on construction site
CN113412177B (en) Robot control device, robot system, and robot control method
CN109740416B (en) Target tracking method and related product
JP2014115700A (en) Confirmation requirement degree determination device, confirmation requirement degree determination method, and program
WO2023104557A1 (en) Machine-learning for safety rule violation determination
JP2020091801A (en) Work analysis system and work analysis method
Guo et al. Action recognition based on 3D skeleton and LSTM for the monitoring of construction workers’ safety harness usage
US20230326041A1 (en) Learning device, learning method, tracking device, and storage medium
WO2021044680A1 (en) Layout design device, layout design method, and program
CN113553893A (en) Human body falling detection method and device based on deep neural network and electronic equipment
CN111310647A (en) Generation method and device for automatic identification falling model
CN114758286B (en) Intelligent edge safety monitoring method and device based on work ticket event
CN116453058A (en) Home old man behavior monitoring method and system based on deep learning and digital body separation
CN116523288A (en) Base station constructor risk identification method and device, electronic equipment and storage medium
CN110826383A (en) Analysis system, analysis method, program, and storage medium
CN115982824A (en) Construction site worker space management method and device, electronic equipment and storage medium
CN115674198A (en) Method, device, equipment and storage medium for deploying robot
Chen et al. Hybrid visual information analysis for on-site occupational hazards identification: a case study on stairway safety
US11176360B2 (en) Work skill supporting device and work skill supporting system
CN114170677A (en) Network model training method and equipment for detecting smoking behavior
JP2016006555A (en) Planning business support method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200729

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210512

R150 Certificate of patent or registration of utility model

Ref document number: 6884819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150