JP6875028B1 - Hand wash evaluation device and hand wash evaluation program - Google Patents
Hand wash evaluation device and hand wash evaluation program Download PDFInfo
- Publication number
- JP6875028B1 JP6875028B1 JP2020080863A JP2020080863A JP6875028B1 JP 6875028 B1 JP6875028 B1 JP 6875028B1 JP 2020080863 A JP2020080863 A JP 2020080863A JP 2020080863 A JP2020080863 A JP 2020080863A JP 6875028 B1 JP6875028 B1 JP 6875028B1
- Authority
- JP
- Japan
- Prior art keywords
- hand
- washing
- hands
- unit
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 23
- 238000005406 washing Methods 0.000 claims abstract description 99
- 238000003384 imaging method Methods 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 238000009826 distribution Methods 0.000 claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 33
- 238000010586 diagram Methods 0.000 abstract description 3
- 210000004247 hand Anatomy 0.000 description 33
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 6
- 239000000126 substance Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 241000700605 Viruses Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000002478 hand joint Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 244000052769 pathogen Species 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 239000000344 soap Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】手洗いにおいて両手のどこを洗えていないか使用者に簡便・事前準備不要な方法で検出し、使用者に提示する。
【解決手段】撮像部は人物の両手の画像を撮像し、手位置形状推定部は人物の両手の三次元位置および表面形状を推定する。接触領域推定部は、手位置形状推定部が推定した両手の表面の小領域単位で他の小領域との接触を推定する。手洗い開始判定部は人物が手洗いを開始したことを検出し、スコア算出部は両手の小領域ごとに、手洗いが開始されてからの接触のスコアを算出する。情報出力部は両手のスコア分布を使用者に通知する。
【選択図】図15PROBLEM TO BE SOLVED: To detect which part of both hands is not washed in hand washing by a simple and unprepared method, and present it to the user.
An imaging unit captures an image of both hands of a person, and a hand position shape estimation unit estimates a three-dimensional position and a surface shape of both hands of the person. The contact area estimation unit estimates contact with other small areas in units of small areas on the surface of both hands estimated by the hand position shape estimation unit. The hand-washing start determination unit detects that the person has started hand-washing, and the score calculation unit calculates the contact score after the hand-washing is started for each small area of both hands. The information output unit notifies the user of the score distribution of both hands.
[Selection diagram] FIG. 15
Description
本発明は、画像情報から人物の手洗い動作の良し悪しを判断し、使用者に提示する技術に関する。 The present invention relates to a technique for determining the quality of a person's hand-washing operation from image information and presenting the technique to the user.
ウイルスや病原体など人に害を及ぼすものの多くは手指を介して人に感染するといわれており、予防のために手洗いによってそれらを除去することは重要である。しかし手洗いの手順や程度は人や場合によって異なり、両手を全て綺麗に洗うこともあれば、洗い残しがあることもある。良い手洗い手順を知っている他人が見て、手洗いを指導することができれば、手洗い方法を改善することができる。 Many of the harmful substances such as viruses and pathogens are said to infect humans through fingers, and it is important to remove them by hand washing for prevention. However, the procedure and degree of hand washing varies depending on the person and the case, and sometimes both hands are washed cleanly, and sometimes there are unwashed parts. If someone who knows a good hand-washing procedure can see and teach hand-washing, the hand-washing method can be improved.
あるいはカメラやセンサによって手洗いを計測し自動で評価するような、下記の特許文献1〜4に開示された技術がある。
Alternatively, there is a technique disclosed in
特許文献1は、あらかじめ手に物質を付着させ、手洗い後に手を撮像し、手に物質が付着しているかどうか判定することで手洗いのスコアを算出する、衛生評価装置である。
特許文献2は、あらかじめ加速度センサのような動き検出センサを人物に装着しておき、動き検出手段の検出結果に基づいて人物の行動を認識し、手指衛生行動の回数や動作量を評価する。
特許文献3は、手指画像を撮像し、人物が行っている手洗い手順の模範動作を表す模範手洗い画像を表示する、手洗い補助システムである。
特許文献4は、撮像から手領域の形状を抽出し、実行された洗い方の種類を識別し、識別された洗い方が所定の順番の洗い方である場合に秒数加算し、擦り状態の良否を判定する手洗い監視方法である。
特許文献1では事前に人物は物質を手に付着させるという準備が必要である。人物が手洗い評価を目的として行うのであれば良いが、日常生活内での使用などには向いていない。
In
特許文献2も事前に人物は動き検出手段を装着する必要があり、不特定多数の人物が日常内で使用するには不向きである。また、動き検出手段では手指の詳細な動作を認識することはできない。
特許文献3では人物が行っている手洗い手順を認識して模範動作を表示するのみであり、手指の詳細な状態を評価するわけではない。
特許文献4では手領域の2次元の形状を抽出することにより、実行された洗い方の種類を識別することで洗い方の擦り状態の良否を判定しているが、3次元の手指の詳細な状態を検出し、領域ごとの状態評価を行うわけではない。また手の指が何本あるか等の状態に認識精度が大きく依存しており、様々な実環境下や手指の状態に対して、実用的な認識精度を得ることが困難である。
In
不特定多数が日常的に簡便に使用するために、人物がセンサの装着等のような前準備無しに使用でき、かつ両手の3次元の各領域ごとの手洗い状態を精度良く判定することが課題であった。 In order for an unspecified number of people to use it easily on a daily basis, it is a challenge that a person can use it without preparations such as attaching a sensor, and that the hand-washing state of each of the three-dimensional areas of both hands can be accurately determined. Met.
本発明の一実施例によれば、両手の三次元の小領域ごとにスコアを算出し使用者に通知する、手洗い評価装置が提供される。撮像部は人物の両手の画像を撮像し、手位置形状推定部は人物の両手の三次元位置および表面形状を推定する。接触領域推定部は、手位置形状推定部が推定した両手の表面の小領域単位で他の小領域との接触を推定する。手洗い開始判定部は人物が手洗いを開始したことを検出し、スコア算出部は両手の小領域ごとに、手洗いが開始されてからの接触のスコアを算出する。情報出力部は両手のスコア分布を使用者に通知する。 According to one embodiment of the present invention, there is provided a hand-washing evaluation device that calculates a score for each three-dimensional small area of both hands and notifies the user. The imaging unit captures images of both hands of the person, and the hand position shape estimation unit estimates the three-dimensional position and surface shape of both hands of the person. The contact area estimation unit estimates contact with other small areas in units of small areas on the surface of both hands estimated by the hand position shape estimation unit. The hand-washing start determination unit detects that the person has started hand-washing, and the score calculation unit calculates the contact score after the hand-washing is started for each small area of both hands. The information output unit notifies the user of the score distribution of both hands.
本発明によれば、使用者は事前準備不要で手洗いを行うだけで、両手の小領域ごとに手洗いの評価スコアを知ることが可能となる。手洗いが不十分な領域を可視化することで、使用者は洗い方の改善が必要な領域を直感的に理解できる。また手洗いの効果が目に見えて反映されるため、使用者が自ら手洗いを改善しようとする意欲を生む効果がある。 According to the present invention, the user can know the evaluation score of hand washing for each small area of both hands simply by washing the hands without prior preparation. By visualizing areas where hand washing is inadequate, users can intuitively understand areas where improvement in washing is required. In addition, since the effect of hand washing is visibly reflected, there is an effect of motivating the user to improve hand washing by himself / herself.
(第1の実施の形態)
図1は、本発明の第1の実施の形態における設置状況である。手洗い場所101には水道の蛇口102が据えられ、使用者103は蛇口からの水を用いて手洗いを行う。使用者は石鹸や手洗い用洗浄液を用いることもある。本発明の一部である撮像部104は使用者の手洗いの様子を撮像できるような場所に設置される。また本発明の一部である情報出力部105は、表示装置として設置され、使用者103に情報を提示する。
(First Embodiment)
FIG. 1 shows an installation situation in the first embodiment of the present invention. A
図2は、本発明の第1の実施の形態における構成である。撮像部201は104に、情報出力部206は105に設置されるが、手位置形状推定部202、接触領域推定部203、手洗い開始判定部204、スコア算出部205は数値演算処理であり、CPU(Central−Processing−Unit)あるいはGPU(Graphics−Processing−Unit)等の演算装置で演算が行われる。
FIG. 2 is a configuration according to the first embodiment of the present invention. The
手位置形状推定部202は重み係数207と手モデルデータ208を所有する。重み係数データ207および手モデルデータ208はROM(Read−Only−Memory)に格納される。
The hand position
スコア算出部205はスコアデータ209を所有する。スコアデータ209はRAM(Random−Access−Memory)に格納される。
The
CPU等の演算装置、ROM、RAM、その他演算に必要なハードウェアは、撮像部104内あるいは情報出力部105内あるいはそれ以外の場所に設置してよい。
Arithmetic logic units such as CPUs, ROMs, RAMs, and other hardware required for arithmetic operations may be installed in the
図3は、本発明の第1の実施の形態における処理手順を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining a processing procedure according to the first embodiment of the present invention.
撮像部201は、手洗い場所101で使用者103が手洗いする様子を動画として撮影する(S301)。撮像部201は、可視光を撮像するカメラで、RGBデータを画像として取得する。あるいは撮像部201は、ステレオカメラ、Time−Of−Flight方式カメラ、Structured−Light方式カメラのいずれかであって、距離データを画像として取得する。可視光カメラと距離カメラとを併用してもよい。
The
図4は撮像部201が撮像した画像の例である。使用者の左手402と右手403が画像401として撮像される。撮像部201の視野が広い場合、手洗い場所101で手洗いを行う場所は限られるため、画像の部分領域をこれ以降のステップにおける入力画像としてもよい。
FIG. 4 is an example of an image captured by the
手位置形状推定部202は画像を入力として、両手の三次元位置および表面形状を推定する(S302)。手位置形状推定部202内の処理手順を説明するためのフローチャートが図5である。
The hand position
両手の接触状況を推定するためには両手の表面形状全面の位置が必要である。しかし撮像部201は一方向からの撮影であり、その裏の面は撮像することができない。また図6に示すように、手洗いを行う際に両手はお互いを隠すことが頻繁に発生し、表面形状を全て撮像するのは困難である。
In order to estimate the contact condition of both hands, the position of the entire surface shape of both hands is required. However, the
そこで、手の表面形状をモデル化した手モデルデータが必要となる。手の表面形状は、図7に示すような三次元頂点701の集合で表現可能である。図7におけるエッジ702は各頂点を線分で結んだものである。各頂点は手の中の位置によって唯一のラベルが付与される。三次元頂点701のN個の集合で片手の表面形状を表現できるが、さらに主成分分析によってNより少ないM個の主成分の線形結合で表現可能である。個々の入力画像における手の状態をパラメータθとした場合、事前に計算された主成分情報である手モデルデータを用いて、N個の頂点を復元することができる。
Therefore, hand model data that models the surface shape of the hand is required. The surface shape of the hand can be represented by a set of three-
手の状態パラメータθには、手の3軸の回転ベクトルまたは回転行列、および3軸の並進ベクトル、スケール値を含んでもよい。 The hand state parameter θ may include a three-axis rotation vector or rotation matrix of the hand, and a three-axis translation vector and scale value.
手の状態パラメータθには、図8に示す手の関節位置801を復元するためのパラメータを含んでもよい。
The hand state parameter θ may include a parameter for restoring the hand
手位置形状推定部202は、画像を入力とし(S501)、頂点推定処理を行う(S502)。図9は頂点推定処理の概要である。頂点推定処理は、左手905と右手906が撮像された画像901に対して、畳込みニューラルネットワーク902の処理を行い、画像903を出力する。画像903は各画素における頂点ラベル情報で、左手907の頂点ラベル、右手908の頂点ラベルが画像として出力される。畳込みニューラルネットワーク902は、事前に教師あり機械学習により算出された重み係数データ904を含む。
The hand position
手位置形状推定部202は、頂点推定処理により出力された画像を元に、計測された頂点の三次元データを算出する(S503)。撮像部201が距離画像を撮像する距離カメラである場合、画像903内の水平および垂直位置、さらに距離画像の情報により、各頂点ラベルの三次元位置が算出される。
The hand position
撮像部201がRGB画像を撮像する可視光カメラである場合、畳込みニューラルネットワーク902は距離情報も推定して画像903に加えて出力し、各頂点ラベルの三次元位置が算出される。RGB画像では絶対的な距離情報を推定するのは困難であるため、相対的な三次元位置となるが、本発明では両手の接触を判定することが目的のため、問題ない。
When the
手位置形状推定部202は、S502およびS503において有効な三次元頂点データを得られない場合、手が撮像されていないと判断し、手が無いという情報を出力する(S504)。
If the hand position
有効な三次元頂点データを得られた場合、手位置形状推定部202は手モデルデータに対し、左右の手それぞれの三次元頂点データに最もフィッティングするような手の状態パラメータθを算出する(S505)。
When valid 3D vertex data is obtained, the hand position
図10は手モデルデータのフィッティング処理を示している。計測された左手の三次元頂点データ1001に対し、フィッティング処理1003を行い、左手の状態パラメータθLとそれにより復元された左手の三次元形状1004が算出される。同様に右手の三次元頂点データ1002に対し、右手の状態パラメータθRとそれにより復元された右手の三次元形状1005が算出される。フィッティング処理1003には手モデルデータ1006を含む。
FIG. 10 shows the fitting process of the hand model data. The
フィッティング処理1003は定められたエネルギー関数を最小化するパラメータθを求める最適化処理である。エネルギー関数には、計測された三次元頂点データと、パラメータにより復元された頂点データとの2乗誤差が使用される。
The
エネルギー関数には、オーバーフィッティングを防ぐための正則化項を加えてもよい。 A regularization term may be added to the energy function to prevent overfitting.
上記では左手右手それぞれで手モデルデータのフィッティング処理を行っているが、両手の位置関係性を考慮して同時にフィッティング処理を行ってもよい。 In the above, the fitting process of the hand model data is performed by each of the left and right hands, but the fitting process may be performed at the same time in consideration of the positional relationship between both hands.
S302により手の有無および手がある場合の三次元位置および表面形状である復元された三次元頂点データが得られる。手が無い場合は、S304〜S307のステップは行わない(S303)。 With S302, the restored 3D vertex data which is the presence / absence of a hand and the 3D position and surface shape when there is a hand can be obtained. If there is no hand, the steps S304 to S307 are not performed (S303).
手洗い開始判定部204によって、新たに使用者が手洗いを開始したかどうかが判定される(S304)。S302によって手の有無が判定されるが、一定時間以上手が無い状態が続いた後に、手があると判定された場合、新たに手洗いを開始したと判定する。もしくは手洗い場所101への人物の出入りを計測することによって、新たに人物が入ったと判定した場合は、新たに手洗いが開始されたと判定してもよい。
The hand-washing
スコアデータは図13のテーブルに示すように、小領域ごとに評価スコアが保持される。小領域は図7に示す両手の各頂点、頂点の小集合、両手の各部位領域、のいずれでもよい。 As shown in the table of FIG. 13, the score data holds the evaluation score for each small area. The small area may be any of the vertices of both hands shown in FIG. 7, a small set of vertices, and each part area of both hands.
S304で手洗いが開始されたと判定された場合、スコアデータの全ての値をゼロに初期化する(S305)。 If it is determined that hand washing has started in S304, all the values in the score data are initialized to zero (S305).
接触領域推定部203によって、接触領域推定(S306)が処理される。図11で、左手の頂点1101と、右手の頂点1102の三次元空間における距離1103が閾値以下の場合に、1101と1102は接触したと判定される。この処理を全ての左手の頂点と右手の頂点との間で行う。同じ片手の頂点群の中で接触判定を行ってもよい。閾値は手のスケール値に応じて変更してもよい。
The contact
接触領域推定部203は図12に示すように、処理の高速化のために、頂点群を球情報に近似して接触領域を推定してもよい。頂点群は中心座標と半径を持つ球1201の集合で近似し、左手の球と右手の球が接触したかどうかを判定する。左手の球の中心1202と右手の球の中心1203との三次元空間における距離が、左手の球の半径1204と右手の球の半径1205の合計値以下であれば、接触したと判定される。この場合、小領域の最小単位は球の単位となる。球以外に楕円体やそれらの組み合わせで近似してもよい。
As shown in FIG. 12, the contact
スコア算出部205は小領域の接触の有無を元に、スコアを加算する(S307)。図11において頂点1101と頂点1102が接触していると判定された場合、1101と1102のスコアに+1を加算する。具体的には図13のスコアテーブルの該当する小領域番号のスコアに加算する。
The
各小領域において、スコアが大きいほど接触の回数が多く、よく手洗いが行われていることを意味する。スコアが小さいほど接触の回数が少なく、手洗いが不十分であることを意味する。 In each small area, the higher the score, the greater the number of contacts, which means that hand washing is performed well. The smaller the score, the fewer contacts there are, which means that hand washing is inadequate.
図14において、左手の頂点1401と、右手の頂点1402とが接触したと判定された場合に、頂点1402の法線ベクトルに直交する向き1405に頂点1402が動いている場合、頂点1401と頂点1402により高いスコアを加点する。これは両手が接触しているだけでなく、擦り合う動作をしていることを意味する。直交する向き1405は、頂点1402の近辺の頂点1403、1404を含めた面から法線を求め、その法線から求めてもよい。
In FIG. 14, when it is determined that the
情報出力部206は、スコアテーブルを使用者に提示する(S308)。情報出力部206は表示装置であって、図15のように両手を模した画像を表示し、小領域ごとのスコアを可視化して表示する。スコアが高い小領域周辺は白く、スコアが低い小領域周辺は黒く表示することで、使用者は両手のどこが洗えていないかを視覚的に知ることが可能である。
The
あるいは情報出力部206は、音声によって使用者にスコア分布を通知してもよい。例えば「右手の人差し指の先が洗えていません」のように手指の場所と手洗いの度合いを音声で通知することができる。
Alternatively, the
あるいは情報出力部206は、スコアテーブルを統計データとして別の記憶媒体に保存する、あるいは通信を行って別の装置に通知する、ことを行ってもよい。
Alternatively, the
(第2の実施の形態)
本発明の第2の実施の形態は、第1の実施の形態である図2に加えて、手洗い動作種類推定部が具備される。
(Second embodiment)
The second embodiment of the present invention includes a hand-washing operation type estimation unit in addition to FIG. 2 which is the first embodiment.
手洗い動作種類推定部は、手位置形状推定部202が出力した表面形状データ(図7)あるいは関節位置(図8)を用いて、手洗いの動作種類を出力する。
The hand-washing motion type estimation unit outputs the hand-washing motion type using the surface shape data (FIG. 7) or the joint position (FIG. 8) output by the hand position
手洗い動作種類は例えば、指の間を洗う、手首を洗う、指先・爪の間を洗う、等がある。 The types of hand-washing operations include, for example, washing between fingers, washing wrists, washing between fingertips and nails, and the like.
図16に示すように、左手1601と右手1602が右手の指先を洗う動作をしている場合、1603で示される右手の指先領域および左手の手の平領域は、接触していることになる。この場合、右手の指先領域および左手の手の平領域に相当する小領域のスコア(図13)に加点する。
As shown in FIG. 16, when the
このように、第1の実施の形態に加えて、あらかじめ定められた手洗い動作種類が行われたと推定された場合に、手洗い動作に相当するあらかじめ定められた小領域のスコアを加点することで、撮像のノイズや手モデルデータへのフィッティング誤差があった場合も、より頑健に小領域の接触状況を推定する。 In this way, in addition to the first embodiment, when it is estimated that a predetermined hand-washing motion type has been performed, a score of a predetermined small area corresponding to the hand-washing motion is added to give points. Even if there is imaging noise or fitting error to the hand model data, the contact status of a small area is estimated more robustly.
今回開示された実施の形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims rather than the above description, and it is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
101 手洗い場所、102 蛇口、103 使用者、104 撮像部、105 情報出力部、201 撮像部、202 手位置形状推定部、203 接触領域推定部、204 手洗い開始判定部、205 スコア算出部、206 情報出力部、207 重み係数データ、208 手モデルデータ、209 スコアデータ、401 画像、402 左手、403 右手、601 左手、602 右手、701 頂点、702 エッジ、801 関節部位、802 リンク、901 入力画像、902 ニューラルネットワーク、903 出力画像、904 重み係数データ、905 左手、906 右手、907 左手、908 右手、1001 左手、1002 右手、1003 最適化部、1004 左手、1005 右手、1006 手モデルデータ、1101 左手の頂点、1102 右手の頂点、1103 頂点間の距離、1201 球表現、1202 左手の球の中心、1203 右手の球の中心、1204 左手の球の半径、1205 右手の球の半径、1401 左手の頂点、1402 右手の頂点1、1403 右手の頂点2、1404 右手の頂点4、1405 右手の頂点1,2,3の法線に直交するベクトル、1601 左手、1602 右手、1603 左手と右手が接する領域 101 Hand wash location, 102 Faucet, 103 User, 104 Imaging unit, 105 Information output unit, 201 Imaging unit, 202 Hand position shape estimation unit, 203 Contact area estimation unit, 204 Hand wash start determination unit, 205 Score calculation unit, 206 information Output, 207 weight coefficient data, 208 hand model data, 209 score data, 401 image, 402 left hand, 403 right hand, 601 left hand, 602 right hand, 701 apex, 702 edge, 801 joint site, 802 link, 901 input image, 902 Neural network, 903 output image, 904 weighting coefficient data, 905 left hand, 906 right hand, 907 left hand, 908 right hand, 1001 left hand, 1002 right hand, 1003 optimizer, 1004 left hand, 1005 right hand, 1006 hand model data, 1101 left hand apex , 1102 Right hand apex, 1103 Distance between apex, 1201 Sphere representation, 1202 Left hand sphere center, 1203 Right hand sphere center, 1204 Left hand sphere radius, 1205 Right hand sphere radius, 1401 Left hand apex, 1402 Right hand apex 1, 1403 Right hand apex 2, 1404 Right hand apex 4, 1405 Right hand apex 1, 2, 3 Vector orthogonal to normal, 1601 Left hand, 1602 Right hand, 1603 Area where left and right hands meet
Claims (16)
手洗いを行う領域の画像を撮像する撮像部と、
前記撮像部が撮像した画像から人物の両手の三次元位置および表面形状を推定する手位置形状推定部と、
前記手位置形状推定部が推定した両手の表面の小領域単位で他の小領域との接触を推定する接触領域推定部と、
人物が手洗いを開始したことを判定する手洗い開始判定部と、
前記小領域ごとに、手洗いが開始されてからの接触のスコアを算出するスコア算出部と、
前記スコア算出部が算出したスコア分布を、使用者に通知、別の記憶媒体に保存、又は通信を行って別の装置に通知する情報出力部と、
を備える手洗い評価装置。 It is a hand-washing evaluation device that evaluates the hand-washing movement of a person.
An imaging unit that captures an image of the area to be hand-washed,
A hand position shape estimation unit that estimates the three-dimensional position and surface shape of both hands of a person from an image captured by the imaging unit, and a hand position shape estimation unit.
A contact area estimation unit that estimates contact with other small areas in units of small areas on the surface of both hands estimated by the hand position shape estimation unit, and a contact area estimation unit.
A hand-washing start determination unit that determines that a person has started hand-washing,
For each of the small areas, a score calculation unit that calculates the contact score after the start of hand washing,
The score distribution the score calculation unit has calculated, notify the user, an information output unit for notifying stored in another storage medium, or by communicating to another device,
A hand-washing evaluation device equipped with.
Structured−Light方式カメラのいずれかを含む、請求項1に記載の手洗い評価装置。 The imaging unit is a stereo camera, a Time-Of-Flight system camera, capable of acquiring an image including depth information.
The hand-washing evaluation device according to claim 1, which comprises any of the Structured-Light type cameras.
三次元位置および表面形状を推定する、請求項1に記載の手洗い評価装置。 The hand-washing evaluation device according to claim 1, wherein the imaging unit is an RGB camera that acquires color information, and the hand position shape estimation unit estimates the relative three-dimensional position and surface shape of both hands.
Convolutional−Neural−Networkを使用して
両手の三次元位置および表面形状を推定する、請求項1に記載の手洗い評価装置。 The hand position shape estimation unit receives all or partial images of the images acquired by the imaging unit as inputs.
The hand-washing evaluation device according to claim 1, wherein the three-dimensional position and surface shape of both hands are estimated using a Convolutional-Neural-Network.
前記画像で計測された情報と対応をとることで、両手の三次元位置および表面形状を推定する、請求項1に記載の手洗い評価装置。 The hand position shape estimation unit uses a three-dimensional shape model of the hand prepared in advance.
The hand-washing evaluation device according to claim 1, wherein the three-dimensional position and surface shape of both hands are estimated by taking correspondence with the information measured in the image.
のいずれかである請求項1に記載の手洗い評価装置。 The small regions are the vertices of a data structure in which the surface shape of both hands is represented by a group of three-dimensional vertices, a small set of vertices, and each region of both hands.
The hand-washing evaluation device according to claim 1, which is any of the above.
請求項1に記載の手洗い評価装置。 The contact area estimation unit determines the presence or absence of contact based on whether or not the distance between the small areas in the three-dimensional space is equal to or less than the threshold value.
The hand-washing evaluation device according to claim 1.
新たに手洗いが開始されたかどうかを判定する、請求項1に記載の手洗い評価装置。 The hand-washing start determination unit measures the entry and exit of a person in the space in front of the hand-washing evaluation device.
Newly determining whether hand washing is started, hand washing evaluation apparatus according to claim 1.
スコアを初期化する、請求項1に記載の手洗い評価装置。 The hand-washing evaluation device according to claim 1, wherein the score calculation unit initializes a score when it is determined by the hand-washing start determination unit that hand washing has been started.
前記スコア算出部は前記小領域単位ごとにスコアを加点し、複数の画像におけるスコアを累計することによって最終スコアを算出する、
請求項1に記載の手洗い評価装置。 The imaging unit continuously acquires images in the time direction, and the contact area estimation unit estimates the presence or absence of contact in each image.
The score calculation unit adds points to each of the small area units and calculates the final score by accumulating the scores in a plurality of images.
The hand-washing evaluation device according to claim 1.
その小領域もしくは接触している小領域が動いているときにスコアを加点する、請求項1に記載の手洗い評価装置。 When the small area is in contact, the score calculation unit adds a score when the small area or the small area in contact is moving in a direction orthogonal to the three-dimensional normal on the surface of the small area. , The hand-washing evaluation device according to claim 1.
前記手洗い動作種類推定部が推定した手洗い動作種類に応じて、特定の前記小領域単位のスコアを加点する、
請求項1に記載の手洗い評価装置。 Further, it is provided with a hand-washing motion type estimation unit that determines the hand-washing motion type from the motions of both hands detected by the hand position shape estimation unit.
A score for a specific small area unit is added according to the hand-washing motion type estimated by the hand-washing motion type estimation unit.
The hand-washing evaluation device according to claim 1.
使用者に両手のスコア分布を提示する、請求項1に記載の手洗い評価装置。 The information output unit is provided with a display device, and the score of contact between both hands calculated by the score calculation unit is visualized together with an image expressing both hands and displayed on the display device.
The hand-washing evaluation device according to claim 1, which presents the score distribution of both hands to the user.
使用者に両手のスコア分布を通知する、請求項1に記載の手洗い評価装置。 The information output unit is provided with a sounding device, converts the score of contact between both hands calculated by the score calculation unit into a voice for explaining, and reproduces the converted voice with the sounding device.
The hand-washing evaluation device according to claim 1, which notifies the user of the score distribution of both hands.
手洗いを行う領域の画像を撮像する撮像ステップと、
撮像した画像から人物の両手の三次元位置および表面形状を推定する手位置形状推定ステップと、
両手の表面の小領域単位で他の小領域との接触を推定する接触領域推定ステップと、
人物が手洗いを開始したことを判定する手洗い開始判定ステップと、
両手の小領域ごとに、手洗いが開始されてからの接触のスコアを算出するスコア算出ステップと、
算出したスコア分布を、使用者に通知、別の記憶媒体に保存、又は通信を行って別の装置に通知する情報出力ステップと、
をコンピュータに実行させるための手洗い評価プログラム。 A hand-washing evaluation program that evaluates a person's hand-washing behavior.
An imaging step that captures an image of the area to be hand-washed,
A hand position shape estimation step that estimates the three-dimensional position and surface shape of both hands of a person from the captured image,
A contact area estimation step that estimates contact with other small areas in units of small areas on the surface of both hands,
A hand-washing start determination step that determines that a person has started hand-washing,
A score calculation step to calculate the contact score after the start of hand washing for each small area of both hands,
An information output step of notifying the user of the calculated score distribution , storing it in another storage medium, or communicating to notify another device.
A hand-washing evaluation program for letting a computer run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020080863A JP6875028B1 (en) | 2020-04-30 | 2020-04-30 | Hand wash evaluation device and hand wash evaluation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020080863A JP6875028B1 (en) | 2020-04-30 | 2020-04-30 | Hand wash evaluation device and hand wash evaluation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6875028B1 true JP6875028B1 (en) | 2021-05-19 |
JP2021174487A JP2021174487A (en) | 2021-11-01 |
Family
ID=75900124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020080863A Active JP6875028B1 (en) | 2020-04-30 | 2020-04-30 | Hand wash evaluation device and hand wash evaluation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6875028B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11093886B2 (en) * | 2018-11-27 | 2021-08-17 | Fujifilm Business Innovation Corp. | Methods for real-time skill assessment of multi-step tasks performed by hand movements using a video camera |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK2015665T3 (en) * | 2006-05-04 | 2009-11-16 | Trinity College Dublin | Monitoring system |
TW201223491A (en) * | 2010-12-03 | 2012-06-16 | Nat Taipei University Oftechnology | Intelligent hand-washing monitoring system |
JP2018117981A (en) * | 2017-01-27 | 2018-08-02 | 富山県 | Finger hygiene management device, finger hygiene management system, and finger hygiene management method |
JP6914526B2 (en) * | 2017-10-19 | 2021-08-04 | 株式会社モレーンコーポレーション | Hygiene evaluation device, hygiene evaluation photography system, photography stand, and hygiene evaluation method |
JP2019219554A (en) * | 2018-06-21 | 2019-12-26 | パナソニックIpマネジメント株式会社 | Hand-washing assist system, hand-washing assist method, and hand-washing assist device |
-
2020
- 2020-04-30 JP JP2020080863A patent/JP6875028B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021174487A (en) | 2021-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bobick et al. | The recognition of human movement using temporal templates | |
Bian et al. | Fall detection based on body part tracking using a depth camera | |
US6937745B2 (en) | Machine vision system and method for estimating and tracking facial pose | |
JP7463052B2 (en) | Information processing device, information processing system, information processing method, and program | |
Liang et al. | Ar in hand: Egocentric palm pose tracking and gesture recognition for augmented reality applications | |
US7747040B2 (en) | Machine vision system and method for estimating and tracking facial pose | |
EP3689236A1 (en) | Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method | |
KR20110003146A (en) | Apparatus for econgnizing gesture, robot system using the same and method for econgnizing gesture using the same | |
JP2014165660A (en) | Method of input with virtual keyboard, program, storage medium, and virtual keyboard system | |
EP2239652A1 (en) | Providing an interactive visual representation on a display | |
CN113111767A (en) | Fall detection method based on deep learning 3D posture assessment | |
JP2021174488A (en) | Hand-washing evaluation device and hand-washing evaluation program | |
CN114005167A (en) | Remote sight estimation method and device based on human skeleton key points | |
Bei et al. | Sitting posture detection using adaptively fused 3D features | |
JP6875028B1 (en) | Hand wash evaluation device and hand wash evaluation program | |
Chen et al. | Depth-based hand gesture recognition using hand movements and defects | |
JP5482412B2 (en) | Robot, position estimation method and program | |
US20230027320A1 (en) | Movement Disorder Diagnostics from Video Data Using Body Landmark Tracking | |
Sharma et al. | Comparative analysis of edge detection operators for better glint detection | |
Ushaw et al. | An efficient application of gesture recognition from a 2D camera for rehabilitation of patients with impaired dexterity | |
Ariyani et al. | Heuristic Application System on Pose Detection of Elderly Activity Using Machine Learning in Real-Time | |
JP7463792B2 (en) | Information processing system, information processing device, and information processing method | |
JP7482471B2 (en) | How to generate a learning model | |
Khan et al. | Gesture recognition using Open-CV | |
Rahman et al. | Monitoring and alarming activity of islamic prayer (salat) posture using image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200430 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200918 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6875028 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |