JP7463792B2 - 情報処理システム、情報処理装置及び情報処理方法 - Google Patents

情報処理システム、情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP7463792B2
JP7463792B2 JP2020052956A JP2020052956A JP7463792B2 JP 7463792 B2 JP7463792 B2 JP 7463792B2 JP 2020052956 A JP2020052956 A JP 2020052956A JP 2020052956 A JP2020052956 A JP 2020052956A JP 7463792 B2 JP7463792 B2 JP 7463792B2
Authority
JP
Japan
Prior art keywords
worker
sanitary
work
unit
sanitation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020052956A
Other languages
English (en)
Other versions
JP2021152758A (ja
Inventor
翼 宮内
卓也 西本
恭司 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2020052956A priority Critical patent/JP7463792B2/ja
Publication of JP2021152758A publication Critical patent/JP2021152758A/ja
Application granted granted Critical
Publication of JP7463792B2 publication Critical patent/JP7463792B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報処理システム、情報処理装置及び情報処理方法に関する。
精密機器及び半導体機器等を製造する工場、医薬品、食料品及び化粧品等を製造する工場、医療機関及び各種研究所等にはクリーンルームが設けられている。クリーンルームで作業を行う作業者は、外部からクリーンルーム内に塵埃等を持ち込まないために種々の衛生作業を行っている。例えば、作業者は、クリーンルームに入室する際にクリーンウェア等の作業着を着用し、更に作業着に付着している塵埃等を、粘着ローラー等の衛生用具を用いて除去する作業を行う。特許文献1では、クリーンルーム入室者が、入室前に粘着ローラーを用いたローラー掛けを適切に行ったか否かを画像処理によって判定するシステムが開示されている。特許文献1に開示されたシステムでは、入室者は所定のローラー掛けを行うだけで、適切なローラー掛けが行われたか否かの判定を行うことが可能である。
特許第6302007号公報
特許文献1に開示されたシステムでは、背景差分によって撮影画像から人物領域と粘着ローラーの領域とを抽出し、粘着ローラーの動きによって適切にローラー掛けが行われたかを判定する。このようなシステムでは、例えば背景の色と入室者の服装の色とが似ている場合、適切に人物領域を抽出できず、その結果、この入室者が適切なローラー掛けを行ったか否かの判定ができない虞がある。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、作業者による衛生作業の実行を適切に判定することが可能な情報処理システム等を提供することにある。
本発明の一態様に係る情報処理システムは、作業者を撮影する撮影部と、前記撮影部が撮影した撮影画像に基づいて前記作業者の関節位置を抽出する関節抽出部と、前記作業者が携帯している衛生用具を検出する用具検出部と、前記作業者による前記衛生用具を使用した衛生作業の実行を認識する作業認識部と、前記衛生作業の実行が認識された場合の前記関節位置及び前記衛生用具の位置に基づいて、前記衛生作業を実行している身体部位を特定する特定部とを備える。
本発明の一態様にあっては、背景の色及び作業者の服装の色等にかかわらず、作業者が衛生作業を行っているか否かを適切に判定することができる。
監視装置の構成例を示すブロック図である。 監視装置による撮影状態の例を示す模式図である。 判定処理手順の一例を示すフローチャートである。 判定処理を説明するための模式図である。 判定処理を説明するための模式図である。 判定処理を説明するための模式図である。 画面例を示す模式図である。 作業判別モデルMの構成例を示す模式図である。 作業順序DBの構成例を示す模式図である。 実施形態3の判定処理手順の一例を示すフローチャートである。
以下に、本開示の情報処理システム、情報処理装置及び情報処理方法について、その実施形態を示す図面に基づいて詳述する。
(実施形態1)
例えばクリーンルームの前室で作業者が粘着ローラーを用いた衛生作業を行う際に、適切な衛生作業が行われているか否かを、作業者を撮影した撮影画像に基づいて監視する監視装置に適用した実施形態について説明する。図1は監視装置の構成例を示すブロック図、図2は監視装置による撮影状態の例を示す模式図である。図2は、クリーンルームの前室を天井側から見た状態を示しており、例えば作業者は、図2において下側を向いた状態で衛生作業を行うものとする。よって、図2における下側を作業者の正面側とし、図2における上側を作業者の背面側とする。
監視装置10は、制御部11、記憶部12、通信部13、入力部14、表示部15、通知部16、読み取り部17、前カメラ21、後カメラ22等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理及び制御処理を監視装置10に行わせる。
記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。
通信部13は、有線通信又は無線通信によってインターネット等のネットワークに接続するためのインタフェースを有し、ネットワークを介して他の装置との間で情報の送受信を行う。入力部14は、監視装置10を操作するユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部14及び表示部15は一体として構成されたタッチパネルであってもよい。なお、表示部15は、クリーンルームの前室内の作業者が視認できるように、例えば図2に示すように前室の壁に設けられていてもよい。
通知部16は、ランプ、ブザー、スピーカ又はバイブレータ等を含み、ランプの点灯又は点滅、ブザーの鳴動、スピーカによるメッセージの音声出力、バイブレータによる振動等を行うことにより、衛生作業を行っている作業者に所定の状況(衛生作業が適切に行われているか否か等の状況)を通知する。また通知部16は、表示部15にメッセージを表示することにより、作業者に所定の状況を通知してもよい。
前カメラ21及び後カメラ22は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して被写体像の画像データを取得する。前カメラ21及び後カメラ22は、制御部11からの指示に従って撮影を行い、1枚(1フレーム)の画像データ(撮影画像)を順次取得する。前カメラ21及び後カメラ22は、例えば1秒間に60フレーム、30フレーム又は15フレームの映像データを取得するように構成されており、前カメラ21及び後カメラ22にて取得された映像データは順次記憶部12に記憶される。なお、前カメラ21及び後カメラ22は、監視装置10に内蔵される構成のほかに、監視装置10に外付けされる構成でもよく、LAN(Local Area Network)又はインターネット等のネットワークを介して監視装置10と接続される構成でもよい。この場合、監視装置10は、外部カメラの接続が可能な接続部又は外部カメラとの有線通信又は無線通信を行うためのカメラ通信部を備え、外部カメラが撮影した映像データを接続部又はカメラ通信部を介して取得する。本実施形態では、前カメラ21及び後カメラ22(撮影部)は、クリーンルームの前室に設けられており、前カメラ21は作業者の正面側の全身を撮影できる位置に、後カメラ22は作業者の背面側の全身を撮影できる位置にそれぞれ設けられている。なお、図2では、カメラ21,22の撮影可能範囲を、それぞれハッチングを付けて示している。本実施形態では、作業者の正面側を撮影するために前カメラ21を用い、背面側を撮影するために後カメラ22を用いるが、それぞれ複数のカメラを用いて作業者の正面側及び背面側を撮影する構成でもよい。また、各カメラは作業者の全身を撮影できなくてもよく、この場合、複数のカメラを上下方向に配置することによって作業者の全身を撮影するように構成してもよい。更に複数のカメラを用いて作業者の周囲360度から撮影する構成でもよい。
読み取り部17は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード等を含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が読み取り部17を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が通信部13を介して他の装置からダウンロードして記憶部12に記憶してもよい。
以下に、本実施形態の監視装置10がカメラ21,22を用いて作業者を撮影した撮影画像に基づいて、作業者が衛生作業を適切に行っているか否かを判定する処理について説明する。図3は判定処理手順の一例を示すフローチャート、図4~図6は判定処理を説明するための模式図、図7は画面例を示す模式図である。以下の処理は、監視装置10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。
本実施形態の監視装置10において、制御部11(画像取得部)は、前カメラ21及び後カメラ22を用いてクリーンルームの前室内を撮影する(S11)。制御部11は前カメラ21及び後カメラ22による撮影を常時行っていてもよい。また、監視装置10に、前室内(撮影エリア内)における人の有無を検知する人感センサが接続されている場合、制御部11は、人感センサによって人の存在が検知された後に前カメラ21及び後カメラ22による撮影を開始してもよい。制御部11は、前カメラ21及び後カメラ22による撮影によって作業者の正面及び背面の撮影画像を取得し、取得した撮影画像を順次記憶部12に記憶する。図4Aは作業者の正面側の全身を撮影した撮影画像の例を示している。
制御部11(関節抽出部)は、取得した撮影画像に基づいて、撮影画像中に写っている作業者の骨格推定を行い、作業者の関節位置を抽出する(S12)。骨格推定とは、画像中の人の関節位置を推定し、関節位置の二次元座標又は三次元座標を取得するものである。制御部11は、例えばOpenPoseのように撮影画像中の人の関節位置を抽出(検出)する技術を用いて、取得した撮影画像中に写る作業者の関節位置を抽出する。制御部11は、前カメラ21で撮影した作業者の正面の撮影画像と、後カメラ22で撮影した作業者の背面の撮影画像とのそれぞれに対して、関節位置を抽出する処理を行う。図4Bは、図4Aの撮影画像(作業者の正面側の撮影画像)に対して、関節位置を抽出する処理を行った結果を示す。図4Bでは、抽出した関節を黒丸で示し、関節間を結ぶ直線で骨格線を示す。
次に制御部11(用具検出部)は、取得した撮影画像に基づいて、関節位置を抽出した作業者が把持(携帯)している衛生用具を検出する(S13)。ここで検出する衛生用具は粘着ローラーであり、例えば粘着ローラーに装着してある粘着テープが作業着とは異なる所定色に着色してある。よって、制御部11は、撮影画像中から所定色で粘着テープと同様の形状(例えば矩形)の領域を検出し、検出した領域を衛生用具(粘着ローラー)に特定する。図4Cは、図4Aの撮影画像から粘着ローラーの粘着テープ(衛生用具)の領域を検出した結果を示しており、検出した衛生用具を、衛生用具を囲むバウンディングボックスT(破線)で示してある。制御部11は例えば、検出した衛生用具の位置座標として、バウンディングボックスTの左上の画素の座標値を取得する。なお、画素の座標値は、例えば撮影画像の左上を原点(0,0)とし、原点から右方向をX軸とし下方向をY軸とした座標系の座標値で表すことができる。また制御部11は、検出した衛生用具の位置座標として、衛生用具の撮影領域の重心位置の画素の座標値を用いてもよい。この場合にも、重心位置の画素の座標値を同様の座標系の座標値で表すことができる。
衛生用具を検出する方法は、上述した方法に限定されない。例えば衛生用具の任意の箇所にマーカを付けておき、制御部11は、撮影画像中からマーカを検出し、検出したマーカ又はマーカが付けられた物体を衛生用具に特定してもよい。また、作業者の手が衛生用具を把持していることから、制御部11は、撮影画像中の作業者の手(左手又は右手)を検出し、検出した手の位置に基づいて衛生用具を検出してもよい。更に、制御部11は、機械学習によって衛生用具を認識するように学習させた学習モデルを用いて撮影画像中の衛生用具を特定してもよい。また、衛生用具にセンサを取り付けておき、制御部11は、センサからの出力信号に基づいて、撮影画像中の衛生用具の位置を特定してもよい。本実施形態では、衛生用具は粘着ローラーとして説明するが、作業着に付着している塵埃を除去するための各種の衛生用具又は掃除機等であってもよい。
撮影画像中に複数人の作業者が写っている場合、制御部11は、それぞれの作業者についてステップS12~S13の処理を行い、各作業者の関節位置及び衛生用具を抽出する。即ち、前室内に複数の作業者がいる場合、制御部11は予め各作業者の関節位置及び衛生用具を抽出しておく。なお、作業者が衛生作業を適切に行っているかを正確に判定するために、前室内には判定エリアが設けられており、図5Aに示す例では、前室の中央に判定エリアが設けられている。従って、前室内の作業者は、自身が行う衛生作業に対して監視装置10による判定処理を受ける場合、判定エリア内に入って衛生作業を行う。図5Bは、図5Aの状態の前室を前カメラ21で撮影した撮影画像の例を示しており、図5Bに示す撮影画像では、判定エリア内にいる作業者Aは判定対象であるが、判定エリアの外にいる作業者Bは判定対象とならない。
制御部11は、撮影画像に基づいて、判定エリア内に作業者がいるか否かを判断する(S14)。なお、前カメラ21及び後カメラ22の設置場所、並びに判定エリアは固定であるので、図5Bに示すように撮影画像中の所定領域(図5Bでは左右方向の中央)が判定エリアの撮影領域となる。よって、制御部11は、撮影画像中の所定領域内に、ステップS12で関節位置を抽出した作業者がいるか否かを判断することにより、判定エリア内に作業者がいるか否かを判断できる。判定エリア内に作業者がいないと判断した場合(S14:NO)、制御部11はステップS11の処理に戻り、ステップS11~S13の処理を繰り返す。なお、本実施形態では、予め設定された判定エリア内にいる作業者を、監視装置10による判定処理の対象とするが、このような構成に限定されない。例えば、ステップS12で抽出した関節位置に基づいて、手の関節位置と衛生用具の位置とが所定距離未満である作業者を、この作業者は衛生用具を手に持って衛生作業を行っているとして、監視装置10による判定処理の判定対象としてもよい。
判定エリア内に作業者がいると判断した場合(S14:YES)、制御部11(作業認識部)は、撮影した撮影画像に基づいて、撮影画像中の作業者が適切な衛生作業の実行中であるか否かを判断する(S15)。例えば作業者が粘着ローラーを往復運動している場合の粘着ローラー又は粘着テープの動きを予め登録しておき、制御部11は、撮影画像中の粘着ローラー又は粘着テープの動きに基づいて、作業者が適切な衛生作業を行っているか否かを判断してもよい。また制御部11は、作業者が粘着ローラーを往復運動している状態を認識するように機械学習によって学習させた学習モデルを用いて撮影画像中の作業者が適切な衛生作業の実行中であるか否かを判断してもよい。なお、ステップS13の処理は、ステップS14において判定エリア内に作業者がいると判断した後に行われてもよい。即ち、制御部11は、ステップS12の処理後にステップS14の処理を行い、判定エリア内に作業者がいると判断した場合に(S14:YES)、取得した撮影画像に基づいて、作業者が把持している衛生用具を検出する処理(S13)を行うように構成されていてもよい。
制御部11は、撮影画像中の作業者が適切な衛生作業の実行中でないと判断した場合(S15:NO)、この作業者が適切な衛生作業を実行するまで待機する。なお、制御部11は、撮影処理、撮影画像に基づく関節位置の抽出処理、衛生用具の検出処理を所定のタイミング(例えば撮影タイミングに応じたタイミング)で繰り返し行っており、判定エリア内から作業者がいなくなった場合、ステップS11の処理に戻る。撮影画像中の作業者が適切な衛生作業の実行中であると判断した場合(S15:YES)、制御部11(特定部)は、作業者が実行中の衛生作業による作業対象の身体部位(作業部位)を特定する(S16)。例えば制御部11は、撮影画像から抽出した作業者の関節位置及び衛生用具の位置の関係に基づいて、衛生用具が作業者の身体のどの部位を掃除しているかを特定する。
例えば図6Aは作業者が頭部に対して衛生作業を行っている状態を示しており、例えば、首及び肩の関節位置よりも衛生用具の位置が上方である場合、制御部11は、作業部位として頭部を特定する。また図6Bは作業者が胴体に対して衛生作業を行っている状態を示しており、例えば、首及び肩の関節位置と、腰及び股関節の関節位置との間に衛生用具の位置がある場合、制御部11は、作業部位として胴体を特定する。また図6Cは作業者が手(腕)に対して衛生作業を行っている状態を示しており、例えば、左手(左腕)/右手(右腕)の関節位置と、衛生用具の位置とが近い場合、制御部11は、作業部位として左手(左腕)/右手(右腕)を特定する。更に図6Dは作業者が足に対して衛生作業を行っている状態を示しており、例えば、左足/右足の関節位置と、衛生用具の位置とが近い場合、制御部11は、作業部位として左足/右足を特定する。このように、適切な衛生作業を行っている場合、衛生用具の位置と近い位置にある関節、衛生用具と各関節との位置関係に基づいて、衛生作業中の部位(作業部位)を特定することができる。なお、制御部11は、作業者の正面側及び背面側のそれぞれについて衛生作業中の部位を特定する。なお、判定対象の作業部位は任意に細分化可能であり、例えば手(腕)は上腕部及び前腕部等に分割してもよく、足は大腿部(太腿、膝上)及び下腿部(脛、膝下)等に分割してもよく、胴体は胸部及び腹部等に分割してもよい。また、関節毎に判定対象の作業部位としてもよい。このように判定対象の作業部位を細分化することにより、細かい領域毎に適切な衛生作業が実行されたか否かを判定できるので、各部位に対する衛生作業が適切であるか否かをより細かく監視できる。
制御部11は、作業部位を特定した場合、特定した作業部位に対する衛生作業の作業時間を計時する(S17)。なお、制御部11は、撮影画像に基づいて、適切な衛生作業の実行中であるか否かの判定処理、衛生作業中の部位の特定処理を所定のタイミング(例えば撮影タイミング、又は所定回数の撮影処理毎に1回のタイミング)で繰り返し行い、ステップS16で特定した作業部位に対する衛生作業が継続されていることを確認しつつ、この衛生作業の作業時間を計時する。
制御部11(判定部)は、計時している作業時間に基づいて、特定した作業部位に対する衛生作業が正常に完了したか否かを判断する(S18)。身体の各部位に対して、実行すべき衛生作業の作業時間(作業完了時間)は予め設定されて記憶部12に記憶されている。よって、制御部11は、特定した作業部位に対する作業完了時間を記憶部12から読み出し、計時している作業時間が、読み出した作業完了時間に到達したか否かに応じて、衛生作業が正常に完了したか否かを判断する。これにより、身体の部位毎(身体部位毎)に異なる条件(作業完了時間)によって衛生作業が正常に完了したか否かを判断できる。なお、身体の各部位に対する衛生作業が正常に完了したか否かを判断する条件は、各部位に対する作業時間のほかに、作業者が衛生用具(粘着ローラー)を往復運動させた回数を用いてもよい。この場合、制御部11は、各作業部位に対する衛生用具の往復運動の回数を計数し、計数した回数が、各部位に対して設定された完了条件の回数を超えたときに、衛生作業が正常に完了したと判断する。また、作業者が衛生用具を往復運動させる際の速度を考慮してもよく、例えば、往復運動の速度に応じて、完了条件の作業時間又は往復運動の回数を異ならせてもよい。
特定した作業部位に対する衛生作業が正常に完了したと判断した場合(S18:YES)、制御部11は、衛生作業が正常に完了した部位(作業完了部位)を記憶部12に記憶し(S19)、未完了の部位があるか否かを判断する(S20)。未完了の部位があると判断した場合(S20:YES)、制御部11は、作業部位の変更を促す通知を行う(S21)。例えば制御部11(通知部)は、「衛生作業中の箇所は正常に清掃できたので作業部位を変更して下さい」のようなメッセージを表示部15に表示して通知する。なお、通知部16がスピーカを有する場合、制御部11は、作業部位の変更を促すメッセージをスピーカから音声出力してもよい。また、制御部11は、未完了の部位を例示して作業部位の変更を促す通知を行ってもよく、次に衛生作業を行うべき部位を通知してもよい。
ステップS21の処理後、制御部11はステップS15の処理に戻り、撮影画像に基づいて、作業者が適切な衛生作業中であるか否かを判断する処理、適切な衛生作業中である場合に作業部位に対する衛生作業が正常に完了したか否かを判断する処理を繰り返す。ステップS18で作業部位に対する衛生作業が正常に完了していないと判断した場合(S18:NO)、例えば衛生作業中の部位に対する作業完了時間が経過する前に作業者がこの部位に対する衛生作業を終了又は中断した場合、制御部11は、衛生作業が未完了であることを通知する(S22)。例えば制御部11(通知部)は、「左腕の衛生作業が不足しています。もうしばらく左腕を清掃して下さい」のようなメッセージを表示部15に表示又は音声出力して通知する。そして制御部11は、ここでの作業部位に対して、ここまで計時した作業時間を記憶部12に記憶し(S23)、ステップS15の処理に戻る。
なお、ステップS23で途中までの作業時間が記憶された部位について、ステップS15~S16の処理で衛生作業が再開されたことが判断された場合、ステップS17で制御部11は、記憶部12に記憶した途中までの作業時間を引き継いで、衛生作業が再開された部位に対する作業時間の計時を行う。ステップS20で未完了の部位がないと判断した場合(S20:NO)、制御部11は、衛生作業の完了を通知し(S24)、処理を終了する。例えば制御部11は、「全ての箇所が正常に清掃されました」のようなメッセージを表示部15に表示又は音声出力して通知する。
制御部11(通知部)は、上述した処理を行いつつ、作業者の身体の各部位に対して行われる衛生作業の実行状況を示すヒートマップを生成して表示することにより、衛生作業の実行状況を作業者に通知してもよい。図7はヒートマップの例を示しており、作業者の正面側及び背面側のそれぞれについて身体の各部位を、各部位に行われた作業時間に応じた色で表示している。図7に示す例では、頭部、胸部、腹部、背中、臀部、左手、右手、左足、右足等の各部位について、各部位に対して行われた衛生作業の時間を表示しており、衛生作業が適切に完了した部位は白色で表示され、未完了の部位は、作業時間が短いほど濃い色(黒色)で表示されている。なお、未完了の部位は、この部位に設定された作業完了時間と、この部位に行われた作業時間とが表示してあり、作業者が残りの作業時間を把握できるようにしてある。制御部11は、ステップS17で各部位に対する作業時間の計時を行った場合に、計時した作業時間をヒートマップ上の各部位に対応する時間に表示し、各部位に設定された作業完了時間に対する作業時間の割合に応じた色(濃い色又は薄い色)で各部位を表示するヒートマップを生成する。制御部11は、このようなヒートマップを表示部15に表示することにより、各部位に対する衛生作業の実行状況を作業者に通知できる。
また制御部11は、各部位に行われた作業時間の代わりに、各部位に対して作業者が衛生用具(粘着ローラー)を往復運動させた回数に応じた色で各部位を表示するヒートマップを生成してもよい。この場合、制御部11は、衛生用具の往復運動の回数が各部位に対して設定された完了条件の回数を超えた部位(衛生作業が適切に完了した部位)を白色で表示し、未完了の部位を、往復運動の回数が少ないほど濃い色(黒色)で表示するヒートマップを生成する。また制御部11は、ヒートマップ上で、例えば粘着ローラーの粘着テープが通過した箇所を通過回数に応じた色で着色していくことにより、各部位に対する衛生作業の実行状況を通知してもよい。この場合、各部位の領域が所定色に着色された場合に、衛生作業が適切に完了したと判断できる。
上述した処理により、監視装置10は、判定エリア内にいる作業者を撮影した撮影画像に基づいて、この作業者が行う衛生作業の実行状況を監視する。そして、監視装置10は、作業者が各部位に対する衛生作業を中断した場合、又は作業時間が不足している部位がある場合に、その旨を作業者に通知する。また監視装置10は、作業者が衛生作業を適切に完了した場合に、その旨を作業者に通知する。よって、作業者は、自身の判断だけでなく、監視装置10による判定処理によって自身の衛生作業が適切に行われているか否かを確認できる。本実施形態では、撮影画像に基づいて、画像中の作業者の骨格推定を行って作業者の関節位置を取得し、作業者の関節位置に基づいて衛生作業が適切に行われているか否かを判定する。よって、画像背景の色、作業者の作業着の色、衛生用具の色等の影響、及び撮影環境の影響を受けず、撮影画像中の作業者を精度よく抽出することができ、作業者が適切な衛生作業を行っているか否かを精度良く判定することができる。また、骨格推定によって作業者の関節位置を抽出するので、煩雑な処理を行うことなく、作業者が衛生作業中の身体の部位を容易に特定できる。
本実施形態では、クリーンルームの前室内に1箇所の判定エリアが設けられている構成を例に説明したが、複数箇所の判定エリアが設けられていてもよい。この場合、制御部11(領域抽出部)は、前カメラ21及び後カメラ22で撮影した撮影画像から、それぞれの判定エリアに対応する撮影領域を抽出し、抽出した撮影領域毎に上述した処理を行うことにより、判定エリア毎の判定処理の実行が可能である。また、判定エリアを設けずに、撮影画像中に複数人の作業者が撮影されている場合に、制御部11(領域抽出部)は、撮影画像から各作業者の撮影領域を抽出し、抽出した撮影領域毎に上述した処理を行うことにより、判定エリアを設けることなく複数人の作業者毎の判定処理の実行が可能である。
本実施形態では、2つのカメラ21,22で作業者を撮影する構成を例に説明したが、1つのカメラで作業者を撮影してもよい。例えば作業者が自身の正面側及び背面側をそれぞれカメラに向けて衛生作業を行うことにより、1つのカメラを用いて、作業者の正面側及び背面側について適切な衛生作業が行われたか否かを判定できる。また、3つ以上のカメラを用いて作業者を3方向以上から撮影してもよい。この場合、作業者の正面側及び背面側から撮影した撮影画像だけでなく、作業者の側面側から撮影した撮影画像によって、衛生用具が作業者の作業着に適切に接触しているか否かを判断してもよい。また、監視装置10は、深度センサ(計測部)を用いて、作業者の作業着(身体)と衛生用具との距離を計測し、計測した距離によって、衛生用具が作業者の作業着に適切に接触しているか否かを判断してもよい。この場合、監視装置10は、作業者の関節位置と、衛生用具の位置と、作業者及び衛生用具の間の距離とに基づいて、作業者が衛生作業を行っている作業部位をより正確に特定できる。
本実施形態において、監視装置10の制御部11は、衛生作業で使用される衛生用具の使用状況を検出してもよい。そして、制御部11(清掃通知部)は、衛生用具の使用状況に応じて、衛生用具に対する清掃時期の到来を表示部15に表示又は通知部16を介して通知してもよい。例えば衛生用具が粘着ローラーであれば、制御部11は、同じ粘着テープを所定人数(例えば3人)が使用した場合に、粘着テープを剥離すべきである旨を作業者又は衛生用具の管理者に通知するように構成されていてもよい。なお、衛生用具の清掃時期は、衛生用具に応じて予め設定されており、衛生作業に使用された時間(作業時間)、衛生用具が粘着ローラーであれば粘着ローラーの往復運動の回数等に応じて、衛生用具の清掃時期又は交換時期を設定することができる。
(実施形態2)
作業者を撮影した撮影画像に基づいて、撮影された作業者が適切な衛生作業の実行中であるか否かを判断する処理を、ニューラルネットワークを用いて行う監視装置10について説明する。本実施形態の監視装置は、実施形態1の監視装置10と同様の構成を有するので、構成についての詳細な説明は省略する。なお、本実施形態の監視装置10は、図1に示す実施形態1の構成に加えて、記憶部12に、機械学習によって学習させた学習済みモデルである作業判別モデルを記憶している。作業判別モデルは、人工知能ソフトウェアの一部として機能するプログラムモジュールとしての利用が想定される。
図8は作業判別モデルMの構成例を示す模式図である。作業判別モデルMは例えばCNN(Convolution Neural Network)及びRNN(Recurrent Neural Network)を組み合わせて構成されている。また、作業判別モデルMは、3次元CNN(3D-CNN)を用いて構成されてもよい。作業判別モデルMは、粘着ローラーを用いた衛生作業を実施中の作業者を撮影した時系列の撮影画像(動画データ)を入力とし、入力された撮影画像に基づいて、撮影されている作業者が、粘着ローラーを用いた衛生作業を適切に行っているか否かを演算し、演算した結果を出力するように学習した学習済みモデルである。従って、作業判別モデルMには、作業者を撮影した撮影画像(時系列の画像)が入力され、作業判別モデルMは、入力された撮影画像に対してフィルタ処理及び圧縮処理を行い、情報量が削減された特徴マップを生成する。また作業判別モデルMは、特徴マップに基づいて、各種の関数及び閾値等を用いて出力値を算出し、算出した出力値を出力する。本実施形態の作業判別モデルMは、1つの出力ノードを有しており、出力ノードは、入力された撮影画像中の作業者が衛生作業を適切に行っている(衛生作業中である)と判別すべき確率を出力する。出力ノードからの出力値は例えば0~1.0の値である。
作業判別モデルMは、衛生作業を適切に行っている作業者を撮影した撮影画像を訓練データとして用いて学習する。作業判別モデルMは、訓練データの撮影画像が入力された場合に、出力ノードから1.0の出力値が出力されるように学習する。学習処理において作業判別モデルMは、実行すべきフィルタ処理及び圧縮処理における関数の係数及び重み付け係数等を最適化するように学習する。これにより、撮影画像が入力された場合に、撮影画像中に写っている作業者が、衛生作業を適切に行っているか否かを示す判別確率を出力する学習済みの作業判別モデルMが得られる。なお、訓練データには、例えば作業者が粘着ローラーを自身の作業着の上で往復運動させている場合に撮影した画像(動画像)を用いることができる。具体的には、作業者が自身の頭部、胸部、背中、左腕の正面側及び背面側、右腕の正面側及び背面側、左足の正面側及び背面側、右足の正面側及び背面側の各領域に対して粘着ローラーを往復運動させている場合の撮影画像を用いることができる。作業判別モデルMの学習は、他の学習装置で行われるが、監視装置10で行われてもよい。
作業判別モデルMは、時系列の撮影画像(動画データ)の代わりに、1つの撮影画像と、撮影画像中の作業者の動きをベクトルで示したオプティカルフローとを入力とする構成でもよい。この場合にも、作業判別モデルMは、入力された撮影画像及びオプティカルフローに基づいて、撮影されている作業者が、粘着ローラーを用いた衛生作業を適切に行っているか否かを示す判別確率を出力する。また、作業判別モデルMは、上述したニューラルネットワークに限定されず、種々の機械学習のアルゴリズムによって構築された学習モデルを用いることができる。
上述した作業判別モデルMを用いて、撮影された作業者が適切な衛生作業の実行中であるか否かを判断する本実施形態の監視装置10は、実施形態1で説明した図3に示す処理と同様の処理を行う。なお、本実施形態では図4中のステップS15において、監視装置10の制御部11は、撮影画像(時系列の撮影画像)を作業判別モデルMに入力し、作業判別モデルMからの出力情報に基づいて、撮影画像中の作業者が適切な衛生作業を実行中であるか否かを判断(認識)する。例えば制御部11は、作業判別モデルMが出力した判別確率が所定閾値(例えば0.8)以上であった場合、撮影画像中に写っている作業者は適切な衛生作業中であると判断する。なお、制御部11は、撮影画像から判定エリアの領域を抽出し、抽出した判定エリアの領域のみを作業判別モデルMに入力してもよい。
また、作業判別モデルMは、作業者の撮影画像に対して、作業者の関節位置を示す点及び骨格線を示す線を付加した画像を入力とし、作業者が適切な衛生作業を実行しているか否かを示す判別確率を出力するように構成されていてもよい。この場合、作業判別モデルMは、作業者の撮影画像に対して作業者の関節位置を示す点及び骨格線が付加された画像を用いて、作業者が粘着ローラーを往復運動させている場合の関節位置の動きを学習し、関節位置の動きに基づいて作業者が適切な衛生作業を実行しているか否かを判別するように構成できる。更に、作業判別モデルMは、作業者の撮影画像に基づいて特定された作業者の関節位置を示す点及び骨格線のデータと、作業者の撮影画像に基づいて特定された衛生用具の位置を示すデータとを入力とし、作業者が適切な衛生作業を実行しているか否かを示す判別確率を出力するように構成されていてもよい。この場合、作業判別モデルMは、作業者の関節位置を示す点及び骨格線を示すデータと、作業者が使用する衛生用具の位置を示すデータとを用いて、作業者が粘着ローラーを往復運動させている場合の関節位置及び衛生用具の動きを学習し、関節位置及び衛生用具の動きに基づいて作業者が適切な衛生作業を実行しているか否かを判別するように構成できる。
本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、衛生作業を行う作業者を撮影した撮影画像に基づいて学習した作業判別モデルMを用いて、撮影画像中の作業者が適切な衛生作業を行っているか否かを判断するので、より精度よく撮影画像中の作業者を抽出でき、作業者が適切な衛生作業を行っているか否かを判定できる。本実施形態においても、上述した実施形態1で適宜説明した変形例の適用が可能である。
(実施形態3)
身体の各部位に対して衛生作業を行う順序が決められている場合に、作業者を撮影した撮影画像に基づいて、作業者が適切な衛生作業を行っているか否かを監視する監視装置について説明する。本実施形態の監視装置は、実施形態1の監視装置10と同様の構成を有するので、構成についての詳細な説明は省略する。なお、本実施形態の監視装置10は、図1に示す実施形態1の構成に加えて、記憶部12に作業順序DB12aを記憶している。
図9は作業順序DB12aの構成例を示す模式図である。作業順序DB12aは、身体の各部位に対して衛生作業を行う順序を記憶する。図9に示す作業順序DB12aは、順序列、部位列、作業完了時間列等を含み、順序に対応付けて身体の部位及び作業完了時間を記憶する。順序列には1~9の各順序が予め記憶してあり、部位列は各順序に衛生作業を行うべき身体の部位を記憶し、作業完了時間列は各部位に対して設定された衛生作業を実行すべき時間(作業完了時間)を記憶する。作業順序DB12aに記憶される部位及び作業完了時間は、制御部11が通信部13又は入力部14を介して、各順序に対する部位及び作業完了時間を取得した場合に、制御部11によって記憶される。なお、作業順序DB12aに記憶される内容は、監視装置10が設置される工場又は店舗等における衛生作業に関するマニュアルに従って登録され、適宜変更が可能である。作業順序DB12aの記憶内容は図9に示す例に限定されず、順序の数、即ち、細分化する身体の各部位の数は9つに限定されない。
以下に、本実施形態の監視装置10が、作業者を撮影した撮影画像に基づいて、作業者が衛生作業を適切に行っているか否かを判定する処理について説明する。図10は実施形態3の判定処理手順の一例を示すフローチャートである。図10に示す処理は、図3に示す処理において、ステップS16,S17の間にステップS31を追加したものである。図3と同じステップについては説明を省略する。
本実施形態の監視装置10において、制御部11は、実施形態1で説明した図4中のステップS11~S16の処理を行う。これにより、制御部11は、カメラ21,22で撮影した撮影画像に基づいて、判定エリア内の作業者の関節位置と、作業者が把持している衛生用具とを抽出し、作業者が適切な衛生作業を行っている場合には衛生作業中の部位を特定する。本実施形態の監視装置10では、制御部11は、適切に行われている衛生作業中の部位を特定した場合、特定した部位が、作業順序DB12aに登録されている順序に従った適切な部位であるか否かを判断する(S31)。例えば、初めて部位を特定した場合、制御部11は、作業順序DB12aから1番目の部位として「頭部」を読み出し、特定した部位が頭部(読み出した部位)に一致するか否かを判断する。そして制御部11は、一致する場合、特定した部位は適切な部位であると判断し、一致しない場合、特定した部位は適切な部位ではないと判断する。
適切な部位であると判断した場合(S31:YES)、制御部11は、ステップS17の処理に移行し、実施形態1で説明した図4中のステップS17~S24の処理を行う。適切な部位でないと判断した場合(S31:NO)、制御部11は、ステップS21の処理に移行し、作業部位の変更を促す通知を行う(S21)。ここでは制御部11は、例えば「衛生作業を行う箇所の順番が間違っています。マニュアルに従って衛生作業を行って下さい」のようなメッセージを表示部15に表示又はスピーカ(通知部16)から音声出力して作業者に通知する。また、制御部11は、「頭部から順に衛生作業を行って下さい」、「次は背中を掃除して下さい」のように衛生作業を行うべき部位を指定するメッセージを表示部15に表示又は音声出力して通知してもよい。
ステップS21の処理後、制御部11は、ステップS15の処理に戻り、撮影画像に基づいて、作業者が適切な衛生作業中であるか否かを判断する処理、適切な衛生作業中である場合に作業部位が、設定された順序に従った適切な部位であるか否かを判断する処理を繰り返す。そして、適切な衛生作業中の部位が適切な部位である場合、制御部11は、ステップS17~S24の処理を行う。上述した処理により、本実施形態の監視装置10では、作業者が適切な衛生作業を行っているか否かだけでなく、予め設定された作業順序に従って作業者が各部位に対して適切な衛生作業を行っているか否かを監視できる。また、本実施形態においても、監視装置10は、作業者による衛生作業の実行状況を監視し、どの程度完了しているかを作業者に通知できる。よって、作業者は、自身の判断だけでなく、監視装置10による判定処理によって自身の衛生作業が適切に行われているか否かを確認できると共に、実行中の衛生作業については残りの作業時間等を把握できるので効率的な衛生作業が可能となる。
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、衛生作業を行うべき各部位に対して予め設定された作業順序も考慮して、作業者が、所定の順序で各部位に対して適切な衛生作業を行っているか否かを監視できる。よって、監視装置10が設置される工場又は店舗等において、身体の各部位に対する衛生作業を行う順序が、衛生作業に関するマニュアルに規定されている場合であっても、マニュアルに従った監視処理が可能となる。本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。また本実施形態の構成は実施形態2の監視装置10にも適用可能であり、実施形態2の監視装置10に適用した場合であっても同様の効果が得られる。
上述した各実施形態において、監視装置10が撮影画像中の作業者が適切な衛生作業を行っているか否かを判定する処理を、ネットワークに接続された所定のサーバで行うように構成してもよい。この場合、監視装置10の制御部11は、逐次取得する撮影画像をネットワーク経由で所定のサーバへ送信し、所定のサーバで判定された判定結果(撮影画像中の作業者が適切な衛生作業を行っているか否か)を取得し、取得した判定結果に従って、撮影画像中の作業者が適切な衛生作業を行っているか否かを判定してもよい。このとき、サーバは、判定処理に用いる情報又は作業判別モデルMを記憶部に記憶しておき、制御部が、判定処理に用いる情報又は作業判別モデルMに基づいて、監視装置10から受信した撮影画像中の作業者が適切な衛生作業を行っているか否かを判断すればよい。なお、ここでのサーバは、サーバコンピュータ又はパーソナルコンピュータを用いて実現されてもよく、1台のサーバ内に設けられた複数の仮想マシンを用いて実現されてもよく、クラウドサーバを用いて実現されてもよい。
上述した各実施形態において、監視装置10は、作業者を、予め登録してある従業員の中から特定する構成を更に備えてもよい。例えば、作業者の氏名が記載された名札が作業着に取り付けられている場合、監視装置10は、撮影画像から名札の領域を抽出し、抽出した領域からOCR(Optical Character Recognition)にてテキストデータを生成することによって作業者の氏名を取得してもよい。また、各従業員の顔画像を予め登録しておくことにより、監視装置10は、撮影画像に基づいて、撮影画像中の作業者の顔画像に基づいて、撮影画像中の作業者を従業員の中から特定してもよい。このように作業者を特定する構成を有する場合、各従業員の衛生作業の実行実績等を収集することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
10 監視装置
11 制御部
12 記憶部
15 表示部
16 通知部
21 前カメラ
22 後カメラ
M 作業判別モデル

Claims (10)

  1. 作業者を撮影する撮影部と、
    前記撮影部が撮影した撮影画像に基づいて前記作業者の関節位置を抽出する関節抽出部と、
    前記作業者が携帯している衛生用具を検出する用具検出部と、
    前記作業者による前記衛生用具を使用した衛生作業の実行を認識する作業認識部と、
    前記衛生作業の実行が認識された場合の前記関節位置及び前記衛生用具の位置に基づいて、前記衛生作業を実行している身体部位を特定する特定部と
    前記作業者の身体部位と前記衛生用具との間の距離を計測する計測部と
    を備え
    前記特定部は、前記作業者の関節位置、前記衛生用具の位置、及び前記作業者の身体部位と前記衛生用具との間の距離に基づいて、前記衛生作業を実行している身体部位を特定する
    情報処理システム。
  2. 前記衛生作業の実行状況に基づいて、特定した前記身体部位に対する衛生作業が完了したか否かを判定する判定部
    を更に備える請求項1に記載の情報処理システム。
  3. 前記判定部は、前記身体部位毎に異なる完了条件に基づいて、前記身体部位に対する衛生作業が完了したか否かを判定する
    請求項2に記載の情報処理システム。
  4. 前記身体部位毎に、前記衛生作業の完了又は未完了を通知する通知部
    を更に備える請求項1から3までのいずれかひとつに記載の情報処理システム。
  5. 前記作業認識部は、前記作業者が前記衛生用具を往復運動させて行う前記衛生作業の実行を認識する
    請求項1から4までのいずれかひとつに記載の情報処理システム。
  6. 前記撮影部は複数方向から前記作業者を撮影した複数の撮影画像を取得する
    請求項1から5までのいずれかひとつに記載の情報処理システム。
  7. 前記撮影部が撮影した撮影画像から、衛生作業を実行する作業者の撮影領域を抽出する領域抽出部を更に備え
    前記関節抽出部は、前記作業者の撮影領域の画像に基づいて前記作業者の関節位置を抽出する
    請求項1からまでのいずれかひとつに記載の情報処理システム。
  8. 前記衛生用具の使用状況に基づいて、前記衛生用具の清掃時期の到来を通知する清掃通知部
    を更に備える請求項1からまでのいずれかひとつに記載の情報処理システム。
  9. 作業者を撮影した撮影画像を取得する画像取得部と、
    取得した撮影画像に基づいて前記作業者の関節位置を抽出する関節抽出部と、
    前記作業者が携帯している衛生用具を検出する用具検出部と、
    前記作業者による前記衛生用具を使用した衛生作業の実行を認識する作業認識部と、
    前記衛生作業の実行が認識された場合の前記関節位置及び前記衛生用具の位置に基づいて、前記衛生作業を実行している身体部位を特定する特定部と
    前記作業者の身体部位と前記衛生用具との間の距離を計測する計測部と
    を備え
    前記特定部は、前記作業者の関節位置、前記衛生用具の位置、及び前記作業者の身体部位と前記衛生用具との間の距離に基づいて、前記衛生作業を実行している身体部位を特定する
    情報処理装置。
  10. 作業者を撮影した撮影画像を取得し、
    取得した撮影画像に基づいて前記作業者の関節位置を抽出し、
    前記作業者が携帯している衛生用具を検出し、
    前記作業者による前記衛生用具を使用した衛生作業の実行を認識し、
    前記衛生作業の実行が認識された場合の前記関節位置及び前記衛生用具の位置に基づいて、前記衛生作業を実行している身体部位を特定する処理であって、
    前記作業者の身体部位と前記衛生用具との間の距離を計測し、
    前記作業者の関節位置、前記衛生用具の位置、及び前記作業者の身体部位と前記衛生用具との間の距離に基づいて、前記衛生作業を実行している身体部位を特定する
    処理をコンピュータが実行する情報処理方法。
JP2020052956A 2020-03-24 2020-03-24 情報処理システム、情報処理装置及び情報処理方法 Active JP7463792B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020052956A JP7463792B2 (ja) 2020-03-24 2020-03-24 情報処理システム、情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020052956A JP7463792B2 (ja) 2020-03-24 2020-03-24 情報処理システム、情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2021152758A JP2021152758A (ja) 2021-09-30
JP7463792B2 true JP7463792B2 (ja) 2024-04-09

Family

ID=77886548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020052956A Active JP7463792B2 (ja) 2020-03-24 2020-03-24 情報処理システム、情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7463792B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7271777B1 (ja) 2022-09-27 2023-05-11 株式会社Avilen プログラム、方法、作業管理装置、及び作業管理システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014510317A (ja) 2010-10-20 2014-04-24 ザ プロクター アンド ギャンブル カンパニー 物品の利用
JP2016149024A (ja) 2015-02-12 2016-08-18 富士通株式会社 清掃状況の評価方法、清掃状況の評価プログラムおよび清掃状況の評価装置
WO2017017739A1 (ja) 2015-07-24 2017-02-02 富士通株式会社 作業管理システム、作業管理方法、情報処理装置および作業管理プログラム
WO2017221386A1 (ja) 2016-06-23 2017-12-28 株式会社テクノメデイカ 血液ガス分析装置メンテナンスシステム
JP6302007B2 (ja) 2016-06-30 2018-03-28 アース環境サービス株式会社 クリーンルーム入室者の清浄度管理方法及び管理システム
JP2018084890A (ja) 2016-11-22 2018-05-31 サイジニア株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019146119A (ja) 2018-02-23 2019-08-29 オムロン株式会社 センサシステム、情報処理装置、センサ管理方法
WO2020055154A1 (ko) 2018-09-12 2020-03-19 엘지전자 주식회사 의류등록장치와 의류추천장치 및 이를 포함하여 이루어지는 온라인 시스템

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014510317A (ja) 2010-10-20 2014-04-24 ザ プロクター アンド ギャンブル カンパニー 物品の利用
JP2016149024A (ja) 2015-02-12 2016-08-18 富士通株式会社 清掃状況の評価方法、清掃状況の評価プログラムおよび清掃状況の評価装置
WO2017017739A1 (ja) 2015-07-24 2017-02-02 富士通株式会社 作業管理システム、作業管理方法、情報処理装置および作業管理プログラム
WO2017221386A1 (ja) 2016-06-23 2017-12-28 株式会社テクノメデイカ 血液ガス分析装置メンテナンスシステム
JP6302007B2 (ja) 2016-06-30 2018-03-28 アース環境サービス株式会社 クリーンルーム入室者の清浄度管理方法及び管理システム
JP2018084890A (ja) 2016-11-22 2018-05-31 サイジニア株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019146119A (ja) 2018-02-23 2019-08-29 オムロン株式会社 センサシステム、情報処理装置、センサ管理方法
WO2020055154A1 (ko) 2018-09-12 2020-03-19 엘지전자 주식회사 의류등록장치와 의류추천장치 및 이를 포함하여 이루어지는 온라인 시스템

Also Published As

Publication number Publication date
JP2021152758A (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
Ng et al. Measuring gait variables using computer vision to assess mobility and fall risk in older adults with dementia
Kwolek et al. Improving fall detection by the use of depth sensor and accelerometer
JP6534499B1 (ja) 監視装置、監視システム、及び、監視方法
Kwolek et al. Human fall detection on embedded platform using depth maps and wireless accelerometer
KR101118654B1 (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
Datcu et al. Noncontact automatic heart rate analysis in visible spectrum by specific face regions
US20210059569A1 (en) Fall risk evaluation method, fall risk evaluation device, and non-transitory computer-readable recording medium in which fall risk evaluation program is recorded
US11450148B2 (en) Movement monitoring system
CN108898108B (zh) 一种基于扫地机器人的用户异常行为监测系统及方法
Nagalakshmi Vallabhaneni The analysis of the impact of yoga on healthcare and conventional strategies for human pose recognition
JP2018007792A (ja) 表情認知診断支援装置
JP2020194493A (ja) 介護設備又は病院用の監視システム及び監視方法
Stone et al. Silhouette classification using pixel and voxel features for improved elder monitoring in dynamic environments
JP7463792B2 (ja) 情報処理システム、情報処理装置及び情報処理方法
Seredin et al. The study of skeleton description reduction in the human fall-detection task
JP6302007B2 (ja) クリーンルーム入室者の清浄度管理方法及び管理システム
Bansal et al. Elderly people fall detection system using skeleton tracking and recognition
CN112438723A (zh) 认知功能评估方法、认知功能评估装置以及存储介质
CN109492585B (zh) 一种活体检测方法和电子设备
CN118338853A (zh) 计算机程序、信息处理方法及信息处理装置
JP7476599B2 (ja) 情報処理システム、及び情報処理方法
JP7113274B2 (ja) 下肢筋力推定システム、下肢筋力推定方法、及び、プログラム
An et al. Support vector machine algorithm for human fall recognition kinect-based skeletal data
JP6875028B1 (ja) 手洗い評価装置および手洗い評価プログラム
Hernandez et al. Dynamic background subtraction for fall detection system using a 2D camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7463792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150