JP2020091739A - 手順検知装置、および手順検知プログラム - Google Patents

手順検知装置、および手順検知プログラム Download PDF

Info

Publication number
JP2020091739A
JP2020091739A JP2018229307A JP2018229307A JP2020091739A JP 2020091739 A JP2020091739 A JP 2020091739A JP 2018229307 A JP2018229307 A JP 2018229307A JP 2018229307 A JP2018229307 A JP 2018229307A JP 2020091739 A JP2020091739 A JP 2020091739A
Authority
JP
Japan
Prior art keywords
procedure
image
processing unit
hand
procedures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018229307A
Other languages
English (en)
Other versions
JP2020091739A5 (ja
Inventor
昌之 川俣
Masayuki Kawamata
昌之 川俣
強 松野
Tsutomu Matsuno
強 松野
千佳代 神田
Chikayo Kanda
千佳代 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2018229307A priority Critical patent/JP2020091739A/ja
Priority to PCT/JP2019/023375 priority patent/WO2020115930A1/ja
Publication of JP2020091739A publication Critical patent/JP2020091739A/ja
Publication of JP2020091739A5 publication Critical patent/JP2020091739A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)

Abstract

【課題】確実に手洗いが実施されたかどうかを客観的データとして判定する。【解決手段】認識装置2は、人が実行する一連の手順の画像を学習して、撮像装置3が撮影した画像から、一連の手順のうち何れであるかを推定する推定器22と、推定器22が各画像から推定した各推定手順から、各画像に対する手順を確定し、確定した各手順に係る時間を算出する処理部23とを備える。【選択図】図1A

Description

本発明は、画像認識技術を応用して、所望の手順の通りに実施したかどうかを動作から判定し、各手順の実施時間を測定する手順検知装置、および手順検知プログラムに関する。
手洗いを手順どおりに行うことは、食品や医薬品工場では必須となっている。特許文献1には、「手指衛生ガイドラインに対するコンプライアンスを判定するための、手洗い剤の使用をモニタリングするシステム及び方法を提供する。手洗い剤は臭気などの検知可能な揮発性物質と共に提供され、対象者の手洗いにより、手に擦り込まれる。手洗いが終わると、対象者は手を検知器(バッジなど)に当てる。検知器は、揮発性物質を検知可能なセンサーと、その揮発性物質の検知を通知するインジケータとを含み、インジケータは、手洗い剤の使用と手指衛生コンプライアンスを示す。」と記載されている。
特表2010−529467号公報
手洗いの検証には様々な方法が考えられる。第1の方法は、チェックリストによる検証である。第2の方法は、手洗いチェッカーによる視覚的な検証である。第3の方法は、手型スタンプ培地による視覚的な検証である。第4の方法は、ATP(アデノシン三リン酸)拭き取り検査によるスピーディな清浄度検査である。第5の方法は、簡易拭き取り検査による細菌数の把握である。第6の方法は、薬剤使用量からの手洗い実施状況把握である。特許文献1の発明は、第6の方法に係るものである。
これらの方法のうち、第1から第5までの方法は、手洗い後の検証手順が増えてしまうという欠点がある。第1の方法は、チェックリストの記載内容は本人の主観に委ねられるため、不適切な手洗いであっても正しく手洗いされた旨が記載されるおそれがある。
また第6の方法は、手洗い実施状況がマクロ的に把握できるのみであり、各人が漏れなく実施したことを認識することが難しい。
そこで、本発明は、確実に手洗いが実施されたかどうかを客観的データとして判定することを課題とする。
前記した課題を解決するため、本発明の手順検知装置は、人が実行する一連の手順の画像を学習して、撮像装置が撮影した画像から、前記一連の手順のうち何れであるかを推定する推定器と、前記推定器が各前記画像から推定した各推定手順から、各前記画像に対する手順を確定し、確定した各前記手順に係る時間を算出する処理部と、を備えることを特徴とする。
本発明の手順検知プログラムは、コンピュータに、人が実行する一連の手順の画像を学習する工程、撮像装置が撮影した画像から、前記一連の手順のうち何れであるかを推定する工程、各前記画像から推定した各推定手順から、各前記画像に対する手順を確定する工程、確定した各前記手順に係る時間を算出する工程、を実行させる。
その他の手段については、発明を実施するための形態のなかで説明する。
本発明によれば、確実に手洗いが実施されたかどうかを客観的データとして判定することが可能となる。
第1の実施形態における手洗い検知システムの構成図である。 第1の実施形態の変形例の手洗い検知システムの構成図である。 第2変形例の手洗い検知システムの構成図である。 手洗い手順と各手順に要する時間を示す図である。 手を流水で濡らす手順を示す図である。 手に石けん液を適量とる手順を示す図である。 手の平同士をこする手順を示す図である。 一方の手の甲を手の平でこすり、他方の手の甲を手の平でこする手順を示す図である。 指の間同士をこする手順を示す図である。 一方の親指を他方の手でこすり、他方の親指を一方の手でこする手順を示す図である。 一方の手の平を指先でこすり、他方の手の平を指先でこする手順を示す図である。 一方の手首をこすり、他方の手首をこする手順を示す図である。 流水でよくすすぐ手順を示す図である。 水気をしっかり拭き取る手順を示す図である。 消毒剤をすり込む手順を示す図である。 手順検知処理のフローチャート(その1)である。 手順検知処理のフローチャート(その2)である。 結果表示画面の一例を示す図である。 変形例における手洗い開始時の結果表示画面を示す図である。 変形例における手洗い完了時の結果表示画面を示す図である。 第2の実施形態における手洗い検知システムの構成図である。 手順検知処理のフローチャート(その1)である。 手順検知処理のフローチャート(その2)である。 手順検知処理のフローチャート(その3)である。
以降、本発明を実施するための形態を、各図を参照して詳細に説明する。
本実施形態では、手洗い場の上部に設置したカメラから人(演者)による手洗いの手先を撮影してお手本画像とし、このお手本画像を手順ごとにディープラーニングで学習させて各手順を認識させる。そして、新たに人による手洗いの手先を撮影して、その人が各手順を実行した時間を算出するものである。
《第1の実施形態》
図1Aは、第1の実施形態における手洗い検知システム1Aの構成図である。
図1Aに示すように、手洗い検知システム1Aは、手洗い場6に設けられた撮像装置3およびタッチパネルディスプレイ4と、認識装置2と、表示部25とを含んで構成される。手洗い検知システム1Aは、各人(作業者)の手洗いの各手順を検知して確実に手洗いが実施されたかどうかが判定し、客観的データとして残すものである。
撮像装置3は、所定フレーム周期で画像(静止画像)を繰り返し撮影するカメラである。撮像装置3の画像取得の周期は、例えば30フレーム/秒である。撮像装置3は、例えば手洗い場6の上部に設置されており、各人の手洗いの際の手先を撮影して、撮影した画像を認識装置2に出力する。
認識装置2(手順検知装置)は、コンピュータであり、不図示のCPU(Central Processing Unit)とROM(Read Only Memory)とRAM(Random Access Memory)とを備える。認識装置2は、手洗いの手先を撮影したお手本の画像を手順ごとにディープラーニングで学習した後、手洗いの手先を撮影した新たな画像から手順を確定し、確定した各前記手順に係る時間を算出するものである。認識装置2が確定した結果は、表示部25に表示される。認識装置2は、手洗いの手先を撮影したお手本の映像(動画)を手順ごとに記憶部28に記憶させる。これにより、作業者に対してお手本映像を提示して、各手順を誤りなく実行させることができる。
表示部25は、例えば液晶パネルであり、文字や図形や画像などを表示する。ここで表示部25は、認識装置2が確定した手順に係る時間を表示する。なお、認識装置2と表示部25は、手洗い場6の撮像装置3に直接接続される場合もあるが、遠隔地に配置され、クラウドなどを介して通信可能に接続されていてもよい。
タッチパネルディスプレイ4は、液晶パネル上に透明なタッチパネルが積層されて構成されている。タッチパネルディスプレイ4は、認識装置2に手洗いの手先を撮影したお手本画像を学習させる際に、お手本画像がどの手順に該当するかを入力するものである。
タッチパネルディスプレイ4は更に、通常動作モードと学習モードとの選択入力を受け付けて、後記する追加学習部29に出力する。通常動作モードは、撮像装置3が撮影した画像が、どの手順であるかを学習済みの推定器22が推定するモードである。学習モードは、撮像装置3が撮影した画像を推定器22が学習するモードであり、追加学習で認識上げたい場合、または新規の動作を学習したい場合に使われる。
タッチパネルディスプレイ4による追加画像登録は、必須ではない。そのため、図1Bに示したように、タッチパネルディスプレイ4および追加学習部29を備えていなくてもよい。過学習の恐れがあるため、標準手順の手洗いの場合は、追加学習部29は不要だからである。
また、図1Bに示した手洗い検知システム1Bに、タッチパネルディスプレイ4を任意で取り付けてもよい。また、手洗い検知システムがクラウドサービスとして実現されていれば、処理部23に改善した学習結果をダウンロードするなどの処理により、この手洗い検知システムの機能向上を図ることも可能である。
また、タッチパネル操作機能は必須ではなく、表示部25に後記する図18や図19を表示するだけであってもよい。
認識装置2は更に、差分処理部21と、推定器22と、処理部23と、人物検知部24と、記憶部28と、追加学習部29とを備える。差分処理部21は、所定フレームの画像と、この所定フレームの直前フレームの画像との差分を検知するものである。差分処理部21の検知結果は、処理部23に出力される。
推定器22は、例えば畳み込みニューラルネットであり、教師データである画像と手順との関係をディープラーニングで学習したのち、撮像装置3が撮影した新たな画像が、どの手順に該当するかを推定するものである。例えば、推定器22が所定の手順を10秒間に亘って学習した場合、教師データは300枚の静止画と手順の組合せである。推定器22がN通りの手順をそれぞれ10秒に亘って学習した場合、教師データはN×300枚の静止画と手順との組合せである。
推定器22は、人が実行する一連の手順の画像から、一連の手順のうち何れであるかを推定する畳み込みニューラルネットによる推定手段を含んでいる。
これら教師データをディープラーニングで学習したモデルが推定器22に構築される。これにより、新たな撮影画像が推定器22に入力された場合に、どの手順の確率が高くなるかが推定される。この推定器22による推定結果は、処理部23に出力される。
追加学習部29は、推定器22を学習モードで動作させ、追加で学習させる。具体的にいうと、演者は、学習させたい動作を撮影中にタッチパネルからラベル番号(手洗い手順に対応した登録済みまたは新規登録)を押し続ける。演者が押し続けてる間は教師データが作成され、演者が押すのを止めると教師データの作成が停止する。ここで教師データとは、指定されたラベル番号の手順に係るお手本映像のことをいう。
次に演者がタッチパネルから“学習”をタッチすると,推定器22は、作成された教師データを、指定されたラベル番号の手順のお手本として学習する。これにより推定器22には、日時情報が付加された推定モデルが形成される。ユーザは、推定器22に形成された各推定モデルを選択または削除できる。
人物検知部24は、撮像装置3が撮影した静止画像から、新たな人が手洗い場6に来たか否かを検知するものである。人物検知部24による検知結果は、処理部23に出力される。この人物検知部24は、各人を識別可能に認識してもよく、また、単に人であるか否かを認識してもよく、限定されない。
処理部23は、人物検知部24が新たな人物を検知すると、手順確定処理を開始する。処理部23は、推定器22の推定結果から、どの手順が実行されているかを確定する。処理部23は更に、差分処理部21の検知結果から、手が止まっており手順が実行されていないことを検知するか、または手が動いており手順が実行されていることを検知する。これにより処理部23は、確定した手順がどれだけの時間に亘って実行されているかを検知する。
記憶部28は、例えばハードディスクやフラッシュメモリなどの不揮発性の記憶装置である。記憶部28は、処理部23が確定した手順とその実行時間を記憶し、認識装置2の各処理を実行させるためのプログラム(不図示)を記憶する。記憶部28は更に、各手順のお手本映像を記憶するとよい。これにより、作業者が各手順を実行するにあたり、そのお手本を映像で示すことができる。
図2は、変形例の手洗い検知システム1Cの構成図である。
図2に示すように、手洗い検知システム1Cは、図1Aに示した手洗い検知システム1Aとは異なる認識装置2Aを備え、更に指静脈認証装置5を備えている。
認識装置2Aは、図1Aに示した認識装置2とは異なり、人物検知部24を備えていない。指静脈認証装置5は、指を検知することで手洗いする人物を検知するとともに、指静脈の情報により、その人物が誰であるかを認証するものである。指静脈認証装置5による認証結果は、処理部23に出力される。
処理部23は、指静脈認証装置5が新たな人物を検知すると、手順確定処理を開始する。処理部23は、推定器22の推定結果から、どの手順が実行されているかを確定する。処理部23は更に、差分処理部21の検知結果から、手が止まっており手順が実行されていないことを検知するか、または手が動いており手順が実行されていることを検知する。これにより処理部23は、どの手順がどれだけの時間に亘って実行されているかを検知する。
図3は、模範的な手洗い手順と各手順に要する時間を示す図である。各手順の画像は、後記する図4から図14に示している。
手順#1は、手を流水で濡らすものであり、図4の手順画像71に示されている。この手順画像71は、後記する流水でよくすすぐ手順#9の手順画像79と類似している。
手順#2は、手に石けん液を適量とるものであり、図5の手順画像72に示されている。
手順#3は、手の平同士をこするものである、図6の手順画像73に示されている。
手順#4は、一方の手の甲を手の平でこすり、他方の手の甲を手の平でこするものであり、図7の手順画像74に示されている。なお、認識装置2に学習させる際には、右手の手の甲を手の平でこする手順と、左手の手の甲を手の平でこする手順とに分割してもよい。
手順#5は、指の間同士をこするものであり、図8の手順画像75に示されている。
手順#6は、一方の親指を他方の手でこすり、他方の親指を一方の手でこするものであり、図9の手順画像76に示されている。なお、認識装置2に学習させる際には、右手の親指を左手でこする手順と、左手の親指を右手でこする手順とに分割してもよい。
手順#7は、一方の手の平を指先でこすり、他方の手の平を指先でこするものであり、図10の手順画像77に示されている。なお、認識装置2に学習させる際には、右手の指先で左手の平をこする手順と、左手の指先で右手の平をこする手順とに分割してもよい。
手順#8は、一方の手首をこすり、他方の手首をこするものであり、図11の手順画像78に示されている。なお、認識装置2に学習させる際には、右手首をこする手順と、左手首をこする手順とに分割してもよい。
手順#9は、流水でよくすすぐものであり、図12の手順画像79に示されている。この手順画像79は、手順#1の手順画像71と類似している。
手順#10は、水気をしっかり拭き取るものであり、図13の手順画像710に示されている。
手順#11は、消毒剤をすり込むものであり、図14の手順画像711に示されている。
これら手順#1から手順#11までの一連の手順を実行することにより、手洗いにおける洗浄率が高くなり、かつ洗浄の出来栄えにばらつきが生じなくなる。これにより、食中毒の原因となる病原性微生物を除去することができる。
推定器22による学習は、上記した手順番号をラベルとしており、仮に手順番号通りでなくても検知可能である。更に、処理部23の後処理により、規定の順番通りに手洗いされたかの検知も可能である。この場合、手順番号に沿った検知を正とする。ただし、この手洗い検知システム1Bを導入する顧客ごとに、手洗い手順の規定(洗い方)が異なっていることも予想される。その場合、規定に従った洗い方を推定器22に学習させるとよい。例えば、手順#1から手順#11までを実行するのみに限られず、手順#2から手順#9までを2回繰り返すことで、ノロウイルスを効果的に除去することができる。
新規手洗い学習において人(演者)は、タッチパネルディスプレイ4に表示された追加の手順番号をタップし、お手本として、例えば10秒間の追加の手洗いを実施して推定器22に学習させる。この場合、人(演者)は少なくとも数名は必要である。不特定多数による手洗いを検知する場合、認識率が低くなる恐れもある。その際も同様に追加で学習するとよい。
学習した結果の精度評価は、一連の手洗い動作で各手順番号の実施時間ズレ10%未満で正常認識レベルとする。推定器22上で動作する学習モデルは、例えば記憶部28に格納されて、タッチパネルディスプレイ4に表示された選択画面により、任意に選択可能である。
図15と図16は、手順検知処理のフローチャートである。
ステップS10において、この手洗い検知システム1Bの人物検知部24は、新たな人を検知したか否かを判定する。人物検知部24が新たな人を検知しなかったならば(No)、ステップS10の処理に戻る。人物検知部24が新たな人を検知すると(Yes)、ステップS11の処理に進む。ここで新たな人とは、手洗いを実施する作業者である。
処理部23は、現在の確定手順を手洗い開始前に初期化する(S11)。撮像装置3は撮影画像を取得し(S12)、Augmentation処理を行う(S13)。Argumentation処理とは、画像の水増しのことであり、例えば元画像に移動、回転、拡大、縮小などの人為的な操作を加えることである。
学習済みの推定器22は、この画像に対応する手順を推定する(S14)。なお、処理部23は、人物検知部24が人を検知しなくなった際に現在の手順を手洗い開始前に初期化してもよく、限定されない。
その後、処理部23は、移動多数決処理により、過去のnフレーム前の画像がどの手順かを前後nフレームの画像で多数決する(S15)。ここで、nフレームは、推定器22の推定精度に応じて適宜設定される値とする。nフレーム前を対象とすることで、対象の前後nフレームの多数決を行うことができるので、手順の推定精度を向上させることができる。なお、処理部23は、人物を検知したのちnフレームの撮影が完了するまで、ステップS15の処理を実行しないため、手順が確定しないことになる。
処理部23は、対象フレームの前後nフレームの多数決の結果を判定する(S16)。処理部23は、多数決の結果が複数同値ならば(Yes)、これら結果が前確定手順と同じものを含むか否かを判定する(S18)。前確定手順とは、対象フレームより一つ前のフレームの確定手順であり、対象フレームが最初であったときにはステップS11で設定した手順である。この判定が成立したならば(Yes)、処理部23は、前確定手順と同じものを対象フレームの手順として確定し(S19)、図16のステップS22の処理に進む。
ステップS18において、処理部23は、多数決の結果が前確定手順と同じものを含まないならば(No)、更に多数決の結果が前確定手順の次の予定手順と同じものを含むか判定する(S20)。次の予定手順とは、前確定手順に対して1つ先の手順である。この判定が成立したならば(Yes)、処理部23は、次の予定手順と同じものを対象フレームの手順として確定し(S21)、図16のステップS23の処理に進む。
ステップS20において、処理部23は、多数決の結果が次の予定手順と同じものを含まないならば(No)、対象フレームの手順を「不明」として(S22)、図16のステップS23の処理に進む。
ステップS16において、処理部23は、多数決の結果が複数同値ではないならば(No)、すなわち単一の手順が多数決で決定されたならば、その手順として対象フレームを確定し(S17)、図16のステップS23の処理に進む。
ステップS15〜S22の移動多数決処理により、処理部23は、推定器22が誤って推定した手順を修正することができる。
図16のステップS23において、処理部23は、移動多数決処理により、対象フレームが手順#1または手順#9として確定したか否かを判定する。ここで手順#1または手順#9として決定されたか否かを判定する理由は、手順#1と手順#9とは、ほぼ同様な撮影画像となり、推定器22の推定と処理部23の移動多数決処理だけでは決定しにくいためである。
処理部23は、対象フレームが手順#1または手順#9として確定されたならば(Yes)、前確定手順が手洗い途中であるか否かを判定する(S24)。ここで手洗い途中とは、手順#2から手順#9のうち何れかであることをいう。
ステップS24において、処理部23は、前確定手順が手洗い途中ならば(Yes)、手順#9に再確定し(S25)、前確定手順が手洗い途中でないならば(No)、手順#1に再確定し(S26)、ステップS27の処理に進む。
なお、ステップS23において、処理部23は、対象フレームは手順#1と手順#9のうち何れでもないと判定したならば(No)、ステップS27の処理に進む。
ステップS23〜S26の処理により、処理部23は、画像的に類似した手順を、前確定手順との関係に基づいて再確定することができる。更にユーザが、同一の動作を異なる手順で複数実行するように規定した場合であっても、処理部23は、これらの手順を区別して確定することができる。
ステップS27において、差分処理部21は、画像差分処理を行う。ここで画像差分処理とは、対象画像と対象画像の直前の画像との差分を算出する処理のことをいう。処理部23は、対象画像と直前画像との差分が閾値以上であるか否かを判定する(S28)。画像差分が閾値以上である場合は、手が動いていると判定できる。画像差分が閾値未満である場合は、手が止まっていると判定できる。つまり差分処理部21は、対象フレームの手順が確定するにも関わらず、手が停止しており、よって手洗いが実行されていないことを検出する。
処理部23は、画像差分が閾値以上ならば(Yes)、この手順の実行時間に1フレームの時間を加算し(S29)、ステップS30の処理に進む。処理部23は、画像差分が閾値未満ならば(No)、ステップS30の処理に進む。
処理部23は、各手順とそれら実行時間を記憶部28に記録する(S30)。更に処理部23は、表示部25に手洗い手順の実行状態を表示し(S31)、図15のステップS12の処理に戻る。表示部25に表示された手洗い手順の実行状態は、後記する図17に例示している。
図17は、手順検知結果の一例を示す図である。
この画面8は、左側に手洗い手順の実行状態81を表示し、更に中央下側に矩形の検知領域82を表示している。検知領域82は、推定器22や差分処理部21が処理する対象画像である。
実行状態81の“0 Not Ready”は、手洗いされていない時間を示している。手洗いされていない時間とは、例えば手が止まっている時間のことをいう。
“1 Water:”は、手を流水で濡らす手順#1を示し、その右側の棒グラフで実行時間を示している。
“2 Soap:”は、手に石けん液を適量とる手順#2の時間を示し、その右側の棒グラフで実行時間を示している。
“3 Palm:”は、手の平同士をこする手順#3の時間を示し、その右側の棒グラフで実行時間を示している。
“4 Back(R):”は、右手の甲を左手の平でこする手順の時間を示し、その右側の棒グラフで実行時間を示している。“5 Back(L):”は、左手の甲を右手の平でこする手順の時間を示し、その右側の棒グラフで実行時間を示している。
“6 Between the fingers:”は、指の間同士をこする手順#5の時間を示し、その右側の棒グラフで実行時間を示している。
“7 Thumb(R):”は、右手の親指を左手でこする手順の時間を示し、その右側の棒グラフで実行時間を示している。“8 Thumb(L):”は、左手の親指を右手でこする手順の時間を示し、その右側の棒グラフで実行時間を示している。
“9 Fingers(R):”は、右手の指先で左手の手の平をこする手順の時間を示し、その右側の棒グラフで実行時間を示している。“a Fingers(L):”は、左手の指先で右手の手の平をこする手順の時間を示し、その右側の棒グラフで実行時間を示している。
“b Wrist(R):”は、右手首をこする手順の時間を示し、その右側の棒グラフで実行時間を示している。“c Wrist(L):”は、左手首をこする手順の時間を示し、その右側の棒グラフで実行時間を示している。
“z Unknown:”は、手洗い中であり、かつ上記手順のうち何れにも分類できない不明な時間を示し、その右側の棒グラフで実行時間を示している。
この画面8の実行状態81を管理者が監視することにより、各従業員が手順通りに手洗いを実施したかを確認できる。また、表示部25を各手洗い場6に配置して画面8を表示することにより、手洗いが手順通りに行われているか否かを従業員自らにチェックさせることが可能となる。
図18は、変形例における手洗い開始時の画面9を示す図である。この画面9は、図2のタッチパネルディスプレイ4に表示される。
図18に示す画面9は、右側に実施結果リスト91が表示され、その下には次の手順のガイダンス92が表示され、左側にはカメラの生映像93とお手本映像94とが表示されている。ここでは、図2に示した指静脈認証装置5に作業者「日立花子」が指を翳して認証した場合を示している。
実施結果リスト91の全ての実施結果は、ブランクを示す“−”が表示されている。ガイダンス92には、次に実行すべき手順が「流水でぬらす」手順であることを示している。
カメラの生映像93は、手洗い場6の状況が示され、かつその上に重畳表示された文字で「あと10秒です。」が表示されている。これにより作業者は、手順を実施すべき時間がどれだけ残っているかを知ることができる。
お手本映像94は、次に実行すべき「流水でぬらす」手順に係るお手本の映像が繰り返し再生されている。これにより作業者は、現在の手順をどのように実行すべきかを知ることができる。
図19は、変形例における手洗い完了時の画面9を示す図である。
図19に示す画面9は、右側に実施結果リスト91が表示され、左側にはカメラの生映像93が表示されている。
実施結果リスト91の全ての実施結果は、「完了」が表示されており、決められた時間だけ各手順が実行されたことを示している。カメラの生映像93は、その上に重畳表示された文字で「手洗い完了」が表示されている。これにより作業者やその管理者は、手洗いが完了していることを客観的に認識可能である。
第1の実施形態の手洗い検知システム1A,1B,1Cによれば、確実に手洗いが実施されたかどうかが判定でき、客観的データとして記憶部28に残すことができる。変形例の指静脈認証装置5(図2参照)などと連携させ、手洗いを確実に実施する装置として提供することも可能である。
《第2の実施形態》
図20は、第2の実施形態における手洗い検知システム1Dの構成図である。
図20に示すように、手洗い検知システム1Dは、図1Aに示した手洗い検知システム1Aとは異なる認識装置2Bを備えている。
認識装置2Bは、図1Aに示した認識装置2とは異なり、骨格情報推定部26と動作差分処理部27とを備えており、差分処理部21を備えていない。
骨格情報推定部26は、手の各関節の二次元座標または三次元座標を推定するものである。これにより、認識装置2Bは、手指の動きを正確に把握可能である。骨格情報推定部26が推定した各関節の二次元座標または三次元座標は、推定器22と動作差分処理部27に出力される。なお、骨格情報推定部26の例としては、OpenPose(登録商標)、VISION POSE(登録商標)、VNectなどがある。
推定器22は、ニューラルネットを含む、機械学習による学習・推定手段であり、教師データである各関節の座標と手順との関係を学習したのち、各関節の座標がどの手順に該当するかを推定するものである。推定器22による推定結果は、処理部23に出力される。
動作差分処理部27は、座標の差分を算出し、よって手指の動作量を算出するものである。動作差分処理部27が算出した手指の動作量は、処理部23に出力される。
処理部23は、人物検知部24が新たな人物を検知すると一連の手順推定を開始する。処理部23は、推定器22の一連の推定結果から、どの手順が実行されているかを決定する。処理部23は更に、動作差分処理部27の検知結果から、手が止まっており手順が実行されていないことを検知するか、または手が動いており手順が実行されていることを検知する。これにより処理部23は、どの手順がどれだけの時間に亘って実行されているかを検知する。
図21と図22と図23は、手順検知処理のフローチャート(その1)である。
ステップS40において、この手洗い検知システム1Dの人物検知部24は、新たな人を検知したか否かを判定する。人物検知部24が新たな人を検知しなかったならば(No)、ステップS40の処理に戻る。人物検知部24が新たな人を検知すると(Yes)、ステップS41の処理に進む。ここで新たな人とは、手洗いを実施する作業者である。
処理部23は、現在の手順を手洗い開始前に初期化する(S41)。撮像装置3は撮影画像を取得する(S42)。骨格情報推定部26は、手の各関節の二次元座標または三次元座標を推定する(S43)。骨格情報推定部26は、左右手首間または左右それぞれの手の重心間の中天を原点とし、原点から各骨格座標までのベクトル化する(S44)。そして骨格情報推定部26は、手が大きく又は小さく写ってるものを適切な大きさに変換させ、ベクトルを正規化し(S45)、図22のステップS46に進む。
図22のステップS46において、この手の各関節の二次元座標または三次元座標により、学習済みの推定器22は、この手指の座標に対応する手順を推定する。
その後、処理部23は、移動多数決処理により、過去のnフレーム前の手指座標がどの手順かを前後nフレームの手指座標で多数決する(S47)。ここで、nフレームは、推定器22の推定精度に応じて適宜設定される値とする。nフレーム前を対象とすることで、対象の前後nフレームの多数決を行うことができるので、手順の推定精度を向上させることができる。なお、処理部23は、人物を検知したのちnフレームの撮影が完了するまで、ステップS47の処理を実行しない。
処理部23は、前後nフレームの多数決の結果を判定する(S48)。その結果、処理部23は、多数決の結果が複数同値ならば(Yes)、これら結果が前確定手順と同じものを含むか否かを判定する(S50)。前確定手順とは、対象フレームより一つ前のフレームの確定手順であり、対象フレームが最初であったときにはステップS41で設定した手順である。この判定が成立したならば(Yes)、処理部23は、前確定手順と同じものを対象フレームの手順として決定し(S51)図22のステップS55の処理に進む。
ステップS50において、処理部23は、多数決の結果が前確定手順と同じものを含まないならば(No)、更に多数決の結果が次の予定手順と同じものを含むか判定する(S52)。次の予定手順とは、前確定手順に対して1つ先の手順である。この判定が成立したならば(Yes)、処理部23は、次の予定手順と同じものを対象フレームの手順として確定し(S53)、図23のステップS55の処理に進む。
ステップS52において、処理部23は、多数決の結果が次の予定手順と同じものを含まないならば(No)、手順を「不明」として(S54)、図23のステップS55の処理に進む。
ステップS48において、処理部23は、多数決の結果が複数同値ではないならば(No)、すなわち単一の手順が多数決で決定されたならば、その手順として対象フレームを確定し(S49)、図23のステップS55の処理に進む。
ステップS47〜S54の移動多数決処理により、処理部23は、推定器22が誤って推定した手順を修正することができる。
図23のステップS55において、処理部23は、移動多数決処理により、手順#1または手順#9として確定したか否かを判定する。ここで手順#1または手順#9として決定されたか否かを判定する理由は、手順#1と手順#9とは、ほぼ同様な手指の座標となり、推定器22の推定と処理部23の移動多数決処理だけでは決定しにくいためである。
処理部23は、手順#1または手順#9として確定されたならば(Yes)、前確定手順が手洗い途中であるか否かを判定する(S56)。ここで手洗い途中とは、手順#2から手順#9のうち何れかであることをいう。
ステップS56において、処理部23は、前確定手順が手洗い途中ならば(Yes)、対象フレームを手順#9に再確定し(S57)、手洗い途中でないならば(No)、対象フレームを手順#1に再確定し(S58)、ステップS59の処理に進む。
なお、ステップS55において、処理部23は、手順#1と手順#9のうち何れでもないと判定したならば(No)、ステップS59の処理に進む。
ステップS55〜S58の処理により、処理部23は、画像的に類似した手順を、前確定手順との関係に基づいて再確定することができる。更にユーザが、同一の動作を異なる手順で複数実行するように規定した場合であっても、処理部23は、これらの手順を区別して確定することができる。
ステップS59において、動作差分処理部27は、手指の二次元座標または三次元座標の差分を算出する。ここで手指の二次元座標または三次元座標の差分とは、前フレームの手指の各座標と今回のフレームの手指の各座標との差分であり、手指の動作量に対応する。
処理部23は、動作差分処理部27が算出した動作量が閾値以上であるか否かを判定する(S60)。動作量が閾値以上である場合は、手が動いていると判定できる。動作量が閾値未満である場合は、手が止まっていると判定できる。
処理部23は、動作量が閾値以上ならば(Yes)、手順の実行時間に1フレームの時間を加算し(S61)、ステップS62の処理に進む。処理部23は、動作量が閾値未満ならば(No)、そのままステップS62の処理に進む。
処理部23は、各手順とそれら実行時間を記憶部28に記録する(S62)。更に処理部23は、表示部25に手洗い手順の実行状態を表示し(S63)、図21のステップS42の処理に戻る。表示部25に表示された手洗い手順の実行状態は、前記した図17に例示している。
第2の実施形態の手洗い検知システム1Dは、撮像装置3が撮影した画像を直接に機械学習するのではなく、これら画像から推定した人の各骨格の座標をディープラーニングで学習している。これにより、片方の手で隠されている部分の動作も含めて推定できる。
(変形例)
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば上記した実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路などのハードウェアで実現してもよい。上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリ、ハードディスク、SSD(Solid State Drive)などの記録装置、または、フラッシュメモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。
各実施形態において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には、殆ど全ての構成が相互に接続されていると考えてもよい。
本発明の変形例として、例えば、次の(a)〜(d)のようなものがある。
(a) 各人を認証して手洗い検知を開始するトリガーは、撮影画像による人物の検知や指静脈認証装置による認証に限定されず、例えば非接触ICカードの検知や、指静脈以外の生体認証であってもよく、限定されない。
(b) 本発明の認識対象となる一連の手順は、手洗いの手順に限定されず、介護の手順、リハビリの手順、ダンスの振り付けの手順、ヨガのポーズの手順、スポーツの手順(フォーム)などの任意の手順であってもよく、限定されない。
(c) 撮像装置のフレームレートは30フレーム/秒に限定されない。
(d) 認識装置が識別する画像的に類似した手順は、手作業による設定に限定されず、両者の類似度を推定器が判定して設定してもよい。これにより、画像的に類似した2つの手順を、前確定手順に基づいて再確定することができる。
1A,1B,1C,1D 手洗い検知システム
2,2A,2B 認識装置 (手順検知装置)
21 差分処理部
22 推定器
23 処理部
24 人物検知部
25 表示部
26 骨格情報推定部
27 動作差分処理部
28 記憶部
3 撮像装置 (カメラ)
4 タッチパネルディスプレイ
5 指静脈認証装置
6 手洗い場

Claims (11)

  1. 人が実行する一連の手順の画像を学習して、撮像装置が撮影した画像から、前記一連の手順のうち何れであるかを推定する推定器と、
    前記推定器が各前記画像から推定した各推定手順から、各前記画像に対する手順を確定し、確定した各前記手順に係る時間を算出する処理部と、
    を備えることを特徴とする手順検知装置。
  2. 前記処理部が算出した各前記手順に係る時間を表示する表示部、
    を更に備えることを特徴とする請求項1に記載の手順検知装置。
  3. 前記処理部は、前記撮像装置が撮影した対象画像と前記対象画像の直前画像との差分が閾値以内ならば、人の手順が停止していると判定し、各前記画像に対して確定した確定手順に係る時間を増加させない、
    ことを特徴とする請求項1または2に記載の手順検知装置。
  4. 前記推定器は、
    各前記画像から一連の手順のうち何れであるかを推定する畳み込みニューラルネットによる推定手段を含む、
    ことを特徴とする請求項1または2に記載の手順検知装置。
  5. 前記推定器は、
    各前記画像から人の各骨格の座標を推定する骨格情報推定部と、
    人が実行する一連の手順の画像により前記骨格情報推定部が推定した各骨格の座標を学習して、前記撮像装置が撮影した画像により前記骨格情報推定部が推定した各骨格の座標から、前記一連の手順のうち何れであるかを推定するニューラルネットを含む、機械学習による推定手段と、を含む、
    ことを特徴とする請求項1または2に記載の手順検知装置。
  6. 前記処理部は、前記撮像装置が撮影した対象画像により前記骨格情報推定部が推定した各座標と、前記対象画像の直前画像により前記骨格情報推定部が推定した各座標との差分が閾値以内ならば、動作が停止していると判定し、各前記画像に対して確定した確定手順に係る時間を増加させない、
    ことを特徴とする請求項5に記載の手順検知装置。
  7. 前記処理部は、前記撮像装置が撮影した対象画像における前後の所定数の画像に対して、前記推定器が推定した推定手順の多数決により、何れの手順であるかを決定する、
    ことを特徴とする請求項1から6のうち何れか1項に記載の手順検知装置。
  8. 前記処理部は、前記対象画像における前後の所定数の画像に対して、前記推定器が推定した推定手順の多数決が複数同値であり、かつ前記対象画像の直前画像の確定手順と同一のものを含むならば、前記直前画像の確定手順を前記対象画像の手順として確定する、
    ことを特徴とする請求項7に記載の手順検知装置。
  9. 前記処理部は、前記対象画像における前後の所定数の画像に対して前記推定器が推定した推定手順の多数決が複数同値であり、かつ前記対象画像の直前画像の確定手順と同一のものを含まず、前記確定手順の次の手順を含むならば、前記次の手順を前記対象画像の手順として確定する、
    ことを特徴とする請求項8に記載の手順検知装置。
  10. 前記撮像装置が撮影した画像から人を検出する検出部を更に備え、
    前記検出部が人を検出しなくなったとき、または、新たな人を検出したとき、前記一連の手順のうち最初の手順を次の手順とする、
    ことを特徴とする請求項1から9のうち何れか1項に記載の手順検知装置。
  11. コンピュータに、
    人が実行する一連の手順の画像を学習する工程、
    撮像装置が撮影した画像から、前記一連の手順のうち何れであるかを推定する工程、
    各前記画像から推定した各推定手順から、各前記画像に対する手順を確定する工程、
    確定した各前記手順に係る時間を算出する工程、
    を実行させるための手順検知プログラム。
JP2018229307A 2018-12-06 2018-12-06 手順検知装置、および手順検知プログラム Pending JP2020091739A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018229307A JP2020091739A (ja) 2018-12-06 2018-12-06 手順検知装置、および手順検知プログラム
PCT/JP2019/023375 WO2020115930A1 (ja) 2018-12-06 2019-06-12 手順検知装置、および手順検知プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018229307A JP2020091739A (ja) 2018-12-06 2018-12-06 手順検知装置、および手順検知プログラム

Publications (2)

Publication Number Publication Date
JP2020091739A true JP2020091739A (ja) 2020-06-11
JP2020091739A5 JP2020091739A5 (ja) 2020-10-22

Family

ID=70974522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018229307A Pending JP2020091739A (ja) 2018-12-06 2018-12-06 手順検知装置、および手順検知プログラム

Country Status (2)

Country Link
JP (1) JP2020091739A (ja)
WO (1) WO2020115930A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152759A (ja) * 2020-03-24 2021-09-30 大日本印刷株式会社 情報処理システム、情報処理方法及び学習モデルの生成方法
JP2021186027A (ja) * 2020-05-26 2021-12-13 株式会社ニューギン 遊技機

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003364A (ja) * 2010-06-15 2012-01-05 Nippon Hoso Kyokai <Nhk> 人物動作判定装置およびそのプログラム
JP2012053813A (ja) * 2010-09-03 2012-03-15 Dainippon Printing Co Ltd 人物属性推定装置、人物属性推定方法、及びプログラム
JP2013017631A (ja) * 2011-07-11 2013-01-31 Sumitomo Electric Ind Ltd 手洗いモニタおよび手洗いモニタ方法
JP2013180046A (ja) * 2012-03-01 2013-09-12 Sumitomo Electric Ind Ltd 手洗いモニタ、手洗いモニタ方法および手洗いモニタプログラム
JP2016177755A (ja) * 2015-03-23 2016-10-06 日本電気株式会社 注文端末装置、注文システム、客情報生成方法、及びプログラム
JP2017134712A (ja) * 2016-01-29 2017-08-03 アース環境サービス株式会社 手洗い監視システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9311964B2 (en) * 2013-12-13 2016-04-12 Panasonic Intellectual Property Corporation Of America Terminal device, method for controlling terminal device, and non-transitory recording medium on which computer program is recorded

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003364A (ja) * 2010-06-15 2012-01-05 Nippon Hoso Kyokai <Nhk> 人物動作判定装置およびそのプログラム
JP2012053813A (ja) * 2010-09-03 2012-03-15 Dainippon Printing Co Ltd 人物属性推定装置、人物属性推定方法、及びプログラム
JP2013017631A (ja) * 2011-07-11 2013-01-31 Sumitomo Electric Ind Ltd 手洗いモニタおよび手洗いモニタ方法
JP2013180046A (ja) * 2012-03-01 2013-09-12 Sumitomo Electric Ind Ltd 手洗いモニタ、手洗いモニタ方法および手洗いモニタプログラム
JP2016177755A (ja) * 2015-03-23 2016-10-06 日本電気株式会社 注文端末装置、注文システム、客情報生成方法、及びプログラム
JP2017134712A (ja) * 2016-01-29 2017-08-03 アース環境サービス株式会社 手洗い監視システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152759A (ja) * 2020-03-24 2021-09-30 大日本印刷株式会社 情報処理システム、情報処理方法及び学習モデルの生成方法
JP7476599B2 (ja) 2020-03-24 2024-05-01 大日本印刷株式会社 情報処理システム、及び情報処理方法
JP2021186027A (ja) * 2020-05-26 2021-12-13 株式会社ニューギン 遊技機

Also Published As

Publication number Publication date
WO2020115930A1 (ja) 2020-06-11

Similar Documents

Publication Publication Date Title
US11281896B2 (en) Physical activity quantification and monitoring
US20100208038A1 (en) Method and system for gesture recognition
Leightley et al. Benchmarking human motion analysis using kinect one: An open source dataset
JP6757010B1 (ja) 動作評価装置、動作評価方法、動作評価システム
WO2020115930A1 (ja) 手順検知装置、および手順検知プログラム
Czarnuch et al. A real-world deployment of the COACH prompting system
Nyolt et al. Marginal filtering in large state spaces
CN114140722A (zh) 引体向上运动的评估方法、装置、服务器及存储介质
JP2021174488A (ja) 手洗い評価装置および手洗い評価プログラム
JP7420240B2 (ja) 手洗い認識システムおよび手洗い認識方法
WO2021044249A1 (ja) 情報処理装置
Mayo et al. How hard are computer vision datasets? Calibrating dataset difficulty to viewing time
JP6318451B2 (ja) 顕著度画像生成装置、方法、及びプログラム
JP7447998B2 (ja) 手洗い認識システムおよび手洗い認識方法
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
JP7492850B2 (ja) 衛生管理システム
JP7476599B2 (ja) 情報処理システム、及び情報処理方法
JP2020201755A (ja) 集中度計測装置、集中度計測方法、およびプログラム
JP2021077230A (ja) 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
US20230405433A1 (en) Element recognition method, element recognition device, and gymnastics scoring support system
WO2024024064A1 (ja) 推定プログラム、推定方法および推定装置
JP7490347B2 (ja) 片付け支援装置、片付け支援プログラム及び片付け支援方法
KR102607766B1 (ko) 동적 식별 인증
WO2024024062A1 (ja) 症状検出プログラム、症状検出方法および症状検出装置
WO2023175945A1 (ja) 動作評価装置、動作評価方法、及び非一時的なコンピュータ可読媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200911

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210629