JP6875028B1 - Hand wash evaluation device and hand wash evaluation program - Google Patents

Hand wash evaluation device and hand wash evaluation program Download PDF

Info

Publication number
JP6875028B1
JP6875028B1 JP2020080863A JP2020080863A JP6875028B1 JP 6875028 B1 JP6875028 B1 JP 6875028B1 JP 2020080863 A JP2020080863 A JP 2020080863A JP 2020080863 A JP2020080863 A JP 2020080863A JP 6875028 B1 JP6875028 B1 JP 6875028B1
Authority
JP
Japan
Prior art keywords
hand
washing
hands
unit
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020080863A
Other languages
Japanese (ja)
Other versions
JP2021174487A (en
Inventor
笹尾幸良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acculus Inc
Original Assignee
Acculus Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acculus Inc filed Critical Acculus Inc
Priority to JP2020080863A priority Critical patent/JP6875028B1/en
Application granted granted Critical
Publication of JP6875028B1 publication Critical patent/JP6875028B1/en
Publication of JP2021174487A publication Critical patent/JP2021174487A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】手洗いにおいて両手のどこを洗えていないか使用者に簡便・事前準備不要な方法で検出し、使用者に提示する。
【解決手段】撮像部は人物の両手の画像を撮像し、手位置形状推定部は人物の両手の三次元位置および表面形状を推定する。接触領域推定部は、手位置形状推定部が推定した両手の表面の小領域単位で他の小領域との接触を推定する。手洗い開始判定部は人物が手洗いを開始したことを検出し、スコア算出部は両手の小領域ごとに、手洗いが開始されてからの接触のスコアを算出する。情報出力部は両手のスコア分布を使用者に通知する。
【選択図】図15
PROBLEM TO BE SOLVED: To detect which part of both hands is not washed in hand washing by a simple and unprepared method, and present it to the user.
An imaging unit captures an image of both hands of a person, and a hand position shape estimation unit estimates a three-dimensional position and a surface shape of both hands of the person. The contact area estimation unit estimates contact with other small areas in units of small areas on the surface of both hands estimated by the hand position shape estimation unit. The hand-washing start determination unit detects that the person has started hand-washing, and the score calculation unit calculates the contact score after the hand-washing is started for each small area of both hands. The information output unit notifies the user of the score distribution of both hands.
[Selection diagram] FIG. 15

Description

本発明は、画像情報から人物の手洗い動作の良し悪しを判断し、使用者に提示する技術に関する。 The present invention relates to a technique for determining the quality of a person's hand-washing operation from image information and presenting the technique to the user.

ウイルスや病原体など人に害を及ぼすものの多くは手指を介して人に感染するといわれており、予防のために手洗いによってそれらを除去することは重要である。しかし手洗いの手順や程度は人や場合によって異なり、両手を全て綺麗に洗うこともあれば、洗い残しがあることもある。良い手洗い手順を知っている他人が見て、手洗いを指導することができれば、手洗い方法を改善することができる。 Many of the harmful substances such as viruses and pathogens are said to infect humans through fingers, and it is important to remove them by hand washing for prevention. However, the procedure and degree of hand washing varies depending on the person and the case, and sometimes both hands are washed cleanly, and sometimes there are unwashed parts. If someone who knows a good hand-washing procedure can see and teach hand-washing, the hand-washing method can be improved.

あるいはカメラやセンサによって手洗いを計測し自動で評価するような、下記の特許文献1〜4に開示された技術がある。 Alternatively, there is a technique disclosed in Patent Documents 1 to 4 below, which measures hand washing with a camera or a sensor and automatically evaluates it.

特許文献1は、あらかじめ手に物質を付着させ、手洗い後に手を撮像し、手に物質が付着しているかどうか判定することで手洗いのスコアを算出する、衛生評価装置である。 Patent Document 1 is a hygiene evaluation device that calculates a hand-washing score by attaching a substance to a hand in advance, taking an image of the hand after washing the hand, and determining whether or not the substance is attached to the hand.

特許文献2は、あらかじめ加速度センサのような動き検出センサを人物に装着しておき、動き検出手段の検出結果に基づいて人物の行動を認識し、手指衛生行動の回数や動作量を評価する。 Patent Document 2 attaches a motion detection sensor such as an acceleration sensor to a person in advance, recognizes the action of the person based on the detection result of the motion detection means, and evaluates the number of hand hygiene actions and the amount of movement.

特許文献3は、手指画像を撮像し、人物が行っている手洗い手順の模範動作を表す模範手洗い画像を表示する、手洗い補助システムである。 Patent Document 3 is a hand-washing assist system that captures a finger image and displays a model hand-washing image showing a model operation of a hand-washing procedure performed by a person.

特許文献4は、撮像から手領域の形状を抽出し、実行された洗い方の種類を識別し、識別された洗い方が所定の順番の洗い方である場合に秒数加算し、擦り状態の良否を判定する手洗い監視方法である。 Patent Document 4 extracts the shape of the hand region from the imaging, identifies the type of washing performed, adds the number of seconds when the identified washing methods are the washing methods in a predetermined order, and rubs the state. This is a hand-washing monitoring method that determines the quality.

特願2017-202611号公報Japanese Patent Application No. 2017-202611 特許5097965号公報Japanese Patent No. 5097965 特願2018-117779号公報Japanese Patent Application No. 2018-117779 特許6305448号公報Patent No. 6305448

特許文献1では事前に人物は物質を手に付着させるという準備が必要である。人物が手洗い評価を目的として行うのであれば良いが、日常生活内での使用などには向いていない。 In Patent Document 1, it is necessary for a person to prepare in advance to attach a substance to his or her hand. It is good if the person does it for the purpose of hand-washing evaluation, but it is not suitable for use in daily life.

特許文献2も事前に人物は動き検出手段を装着する必要があり、不特定多数の人物が日常内で使用するには不向きである。また、動き検出手段では手指の詳細な動作を認識することはできない。 Patent Document 2 also requires that a person be equipped with a motion detecting means in advance, and is not suitable for use by an unspecified number of people in daily life. In addition, the motion detecting means cannot recognize the detailed motion of the fingers.

特許文献3では人物が行っている手洗い手順を認識して模範動作を表示するのみであり、手指の詳細な状態を評価するわけではない。 Patent Document 3 only recognizes the hand-washing procedure performed by a person and displays a model motion, and does not evaluate the detailed state of the fingers.

特許文献4では手領域の2次元の形状を抽出することにより、実行された洗い方の種類を識別することで洗い方の擦り状態の良否を判定しているが、3次元の手指の詳細な状態を検出し、領域ごとの状態評価を行うわけではない。また手の指が何本あるか等の状態に認識精度が大きく依存しており、様々な実環境下や手指の状態に対して、実用的な認識精度を得ることが困難である。 In Patent Document 4, the quality of the rubbing state of the washing method is determined by identifying the type of washing method performed by extracting the two-dimensional shape of the hand area. It does not detect the state and evaluate the state for each area. In addition, the recognition accuracy largely depends on the state of the number of fingers of the hand, and it is difficult to obtain practical recognition accuracy under various actual environments and the state of the fingers.

不特定多数が日常的に簡便に使用するために、人物がセンサの装着等のような前準備無しに使用でき、かつ両手の3次元の各領域ごとの手洗い状態を精度良く判定することが課題であった。 In order for an unspecified number of people to use it easily on a daily basis, it is a challenge that a person can use it without preparations such as attaching a sensor, and that the hand-washing state of each of the three-dimensional areas of both hands can be accurately determined. Met.

本発明の一実施例によれば、両手の三次元の小領域ごとにスコアを算出し使用者に通知する、手洗い評価装置が提供される。撮像部は人物の両手の画像を撮像し、手位置形状推定部は人物の両手の三次元位置および表面形状を推定する。接触領域推定部は、手位置形状推定部が推定した両手の表面の小領域単位で他の小領域との接触を推定する。手洗い開始判定部は人物が手洗いを開始したことを検出し、スコア算出部は両手の小領域ごとに、手洗いが開始されてからの接触のスコアを算出する。情報出力部は両手のスコア分布を使用者に通知する。 According to one embodiment of the present invention, there is provided a hand-washing evaluation device that calculates a score for each three-dimensional small area of both hands and notifies the user. The imaging unit captures images of both hands of the person, and the hand position shape estimation unit estimates the three-dimensional position and surface shape of both hands of the person. The contact area estimation unit estimates contact with other small areas in units of small areas on the surface of both hands estimated by the hand position shape estimation unit. The hand-washing start determination unit detects that the person has started hand-washing, and the score calculation unit calculates the contact score after the hand-washing is started for each small area of both hands. The information output unit notifies the user of the score distribution of both hands.

本発明によれば、使用者は事前準備不要で手洗いを行うだけで、両手の小領域ごとに手洗いの評価スコアを知ることが可能となる。手洗いが不十分な領域を可視化することで、使用者は洗い方の改善が必要な領域を直感的に理解できる。また手洗いの効果が目に見えて反映されるため、使用者が自ら手洗いを改善しようとする意欲を生む効果がある。 According to the present invention, the user can know the evaluation score of hand washing for each small area of both hands simply by washing the hands without prior preparation. By visualizing areas where hand washing is inadequate, users can intuitively understand areas where improvement in washing is required. In addition, since the effect of hand washing is visibly reflected, there is an effect of motivating the user to improve hand washing by himself / herself.

本発明の第1の実施の形態における設置状況である。It is an installation situation in the 1st Embodiment of this invention. 本発明の第1の実施の形態における構成である。It is a configuration in the first embodiment of the present invention. 第1の実施の形態における処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the processing procedure in 1st Embodiment. 撮像部が撮像した画像の例である。This is an example of an image captured by the imaging unit. 手位置形状推定部の処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the processing procedure of the hand position shape estimation part. 両手がお互いに重なって隠すことを示す図である。It is a figure which shows that both hands overlap each other and hide. 手の表面形状を表現する三次元頂点の集合の図である。It is a figure of a set of three-dimensional vertices representing the surface shape of a hand. 手の関節位置の図である。It is a figure of the joint position of a hand. 頂点推定処理の概要図である。It is a schematic diagram of the vertex estimation process. 手モデルデータのフィッティング処理の概要図である。It is a schematic diagram of the fitting process of a hand model data. 頂点同士の距離を示す図である。It is a figure which shows the distance between vertices. 頂点群を球情報に近似した場合の図である。It is a figure when the vertex group is approximated to the sphere information. スコアテーブルである。It is a score table. 両手が擦り合う動作時の図である。It is a figure at the time of the operation that both hands rub against each other. 情報出力部が表示装置として両手のスコア分布を可視化して使用者に通知する図である。It is a figure that an information output part visualizes the score distribution of both hands as a display device and notifies a user. 右手の指先を洗う動作の図である。It is a figure of the operation of washing the fingertip of the right hand.

(第1の実施の形態)
図1は、本発明の第1の実施の形態における設置状況である。手洗い場所101には水道の蛇口102が据えられ、使用者103は蛇口からの水を用いて手洗いを行う。使用者は石鹸や手洗い用洗浄液を用いることもある。本発明の一部である撮像部104は使用者の手洗いの様子を撮像できるような場所に設置される。また本発明の一部である情報出力部105は、表示装置として設置され、使用者103に情報を提示する。
(First Embodiment)
FIG. 1 shows an installation situation in the first embodiment of the present invention. A tap 102 is installed at the hand-washing place 101, and the user 103 uses the water from the faucet to wash his hands. The user may also use soap or a hand-washing cleaning solution. The imaging unit 104, which is a part of the present invention, is installed in a place where the user's hand washing can be imaged. Further, the information output unit 105, which is a part of the present invention, is installed as a display device and presents information to the user 103.

図2は、本発明の第1の実施の形態における構成である。撮像部201は104に、情報出力部206は105に設置されるが、手位置形状推定部202、接触領域推定部203、手洗い開始判定部204、スコア算出部205は数値演算処理であり、CPU(Central−Processing−Unit)あるいはGPU(Graphics−Processing−Unit)等の演算装置で演算が行われる。 FIG. 2 is a configuration according to the first embodiment of the present invention. The image pickup unit 201 is installed at 104, and the information output unit 206 is installed at 105. The hand position shape estimation unit 202, the contact area estimation unit 203, the hand wash start determination unit 204, and the score calculation unit 205 are numerical calculation processes, and the CPU The calculation is performed by an arithmetic unit such as (Central-Processing-Unit) or GPU (Graphics-Processing-Unit).

手位置形状推定部202は重み係数207と手モデルデータ208を所有する。重み係数データ207および手モデルデータ208はROM(Read−Only−Memory)に格納される。 The hand position shape estimation unit 202 owns the weight coefficient 207 and the hand model data 208. The weighting coefficient data 207 and the hand model data 208 are stored in a ROM (Read-Only-Memory).

スコア算出部205はスコアデータ209を所有する。スコアデータ209はRAM(Random−Access−Memory)に格納される。 The score calculation unit 205 owns the score data 209. The score data 209 is stored in a RAM (Random-Access-Memory).

CPU等の演算装置、ROM、RAM、その他演算に必要なハードウェアは、撮像部104内あるいは情報出力部105内あるいはそれ以外の場所に設置してよい。 Arithmetic logic units such as CPUs, ROMs, RAMs, and other hardware required for arithmetic operations may be installed in the imaging unit 104, in the information output unit 105, or in other places.

図3は、本発明の第1の実施の形態における処理手順を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining a processing procedure according to the first embodiment of the present invention.

撮像部201は、手洗い場所101で使用者103が手洗いする様子を動画として撮影する(S301)。撮像部201は、可視光を撮像するカメラで、RGBデータを画像として取得する。あるいは撮像部201は、ステレオカメラ、Time−Of−Flight方式カメラ、Structured−Light方式カメラのいずれかであって、距離データを画像として取得する。可視光カメラと距離カメラとを併用してもよい。 The imaging unit 201 captures a moving image of the user 103 washing their hands at the hand-washing place 101 (S301). The image pickup unit 201 is a camera that captures visible light, and acquires RGB data as an image. Alternatively, the imaging unit 201 is any one of a stereo camera, a Time-Of-Flight system camera, and a Structured-Light system camera, and acquires distance data as an image. A visible light camera and a distance camera may be used together.

図4は撮像部201が撮像した画像の例である。使用者の左手402と右手403が画像401として撮像される。撮像部201の視野が広い場合、手洗い場所101で手洗いを行う場所は限られるため、画像の部分領域をこれ以降のステップにおける入力画像としてもよい。 FIG. 4 is an example of an image captured by the imaging unit 201. The user's left hand 402 and right hand 403 are imaged as image 401. When the field of view of the imaging unit 201 is wide, the place where the hand-washing is performed at the hand-washing place 101 is limited, so that the partial area of the image may be used as the input image in the subsequent steps.

手位置形状推定部202は画像を入力として、両手の三次元位置および表面形状を推定する(S302)。手位置形状推定部202内の処理手順を説明するためのフローチャートが図5である。 The hand position shape estimation unit 202 uses an image as an input to estimate the three-dimensional position and surface shape of both hands (S302). FIG. 5 is a flowchart for explaining the processing procedure in the hand position shape estimation unit 202.

両手の接触状況を推定するためには両手の表面形状全面の位置が必要である。しかし撮像部201は一方向からの撮影であり、その裏の面は撮像することができない。また図6に示すように、手洗いを行う際に両手はお互いを隠すことが頻繁に発生し、表面形状を全て撮像するのは困難である。 In order to estimate the contact condition of both hands, the position of the entire surface shape of both hands is required. However, the image pickup unit 201 is photographed from one direction, and the back surface thereof cannot be imaged. Further, as shown in FIG. 6, when washing hands, both hands often hide each other, and it is difficult to capture the entire surface shape.

そこで、手の表面形状をモデル化した手モデルデータが必要となる。手の表面形状は、図7に示すような三次元頂点701の集合で表現可能である。図7におけるエッジ702は各頂点を線分で結んだものである。各頂点は手の中の位置によって唯一のラベルが付与される。三次元頂点701のN個の集合で片手の表面形状を表現できるが、さらに主成分分析によってNより少ないM個の主成分の線形結合で表現可能である。個々の入力画像における手の状態をパラメータθとした場合、事前に計算された主成分情報である手モデルデータを用いて、N個の頂点を復元することができる。 Therefore, hand model data that models the surface shape of the hand is required. The surface shape of the hand can be represented by a set of three-dimensional vertices 701 as shown in FIG. Edge 702 in FIG. 7 connects each vertex with a line segment. Each vertex is given a unique label depending on its position in the hand. The surface shape of one hand can be expressed by a set of N of three-dimensional vertices 701, but it can also be expressed by a linear combination of M less than N by principal component analysis. When the state of the hand in each input image is set as the parameter θ, N vertices can be restored by using the hand model data which is the principal component information calculated in advance.

手の状態パラメータθには、手の3軸の回転ベクトルまたは回転行列、および3軸の並進ベクトル、スケール値を含んでもよい。 The hand state parameter θ may include a three-axis rotation vector or rotation matrix of the hand, and a three-axis translation vector and scale value.

手の状態パラメータθには、図8に示す手の関節位置801を復元するためのパラメータを含んでもよい。 The hand state parameter θ may include a parameter for restoring the hand joint position 801 shown in FIG.

手位置形状推定部202は、画像を入力とし(S501)、頂点推定処理を行う(S502)。図9は頂点推定処理の概要である。頂点推定処理は、左手905と右手906が撮像された画像901に対して、畳込みニューラルネットワーク902の処理を行い、画像903を出力する。画像903は各画素における頂点ラベル情報で、左手907の頂点ラベル、右手908の頂点ラベルが画像として出力される。畳込みニューラルネットワーク902は、事前に教師あり機械学習により算出された重み係数データ904を含む。 The hand position shape estimation unit 202 receives an image as an input (S501) and performs vertex estimation processing (S502). Figure 9 is an overview of the vertex estimation process. In the vertex estimation process, the image 901 captured by the left hand 905 and the right hand 906 is processed by the convolutional neural network 902, and the image 903 is output. The image 903 is the vertex label information for each pixel, and the vertex label of the left hand 907 and the vertex label of the right hand 908 are output as an image. The convolutional neural network 902 includes pre-supervised machine learning weighted coefficient data 904.

手位置形状推定部202は、頂点推定処理により出力された画像を元に、計測された頂点の三次元データを算出する(S503)。撮像部201が距離画像を撮像する距離カメラである場合、画像903内の水平および垂直位置、さらに距離画像の情報により、各頂点ラベルの三次元位置が算出される。 The hand position shape estimation unit 202 calculates the three-dimensional data of the measured vertices based on the image output by the vertex estimation process (S503). When the imaging unit 201 is a distance camera that captures a distance image, the three-dimensional position of each vertex label is calculated from the horizontal and vertical positions in the image 903 and the information of the distance image.

撮像部201がRGB画像を撮像する可視光カメラである場合、畳込みニューラルネットワーク902は距離情報も推定して画像903に加えて出力し、各頂点ラベルの三次元位置が算出される。RGB画像では絶対的な距離情報を推定するのは困難であるため、相対的な三次元位置となるが、本発明では両手の接触を判定することが目的のため、問題ない。 When the imaging unit 201 is a visible light camera that captures an RGB image, the convolutional neural network 902 also estimates the distance information and outputs it in addition to the image 903 to calculate the three-dimensional position of each vertex label. Since it is difficult to estimate absolute distance information in an RGB image, it is a relative three-dimensional position, but there is no problem in the present invention because the purpose is to determine the contact between both hands.

手位置形状推定部202は、S502およびS503において有効な三次元頂点データを得られない場合、手が撮像されていないと判断し、手が無いという情報を出力する(S504)。 If the hand position shape estimation unit 202 cannot obtain valid three-dimensional vertex data in S502 and S503, it determines that the hand has not been imaged and outputs information that there is no hand (S504).

有効な三次元頂点データを得られた場合、手位置形状推定部202は手モデルデータに対し、左右の手それぞれの三次元頂点データに最もフィッティングするような手の状態パラメータθを算出する(S505)。 When valid 3D vertex data is obtained, the hand position shape estimation unit 202 calculates the hand state parameter θ that best fits the 3D vertex data of each of the left and right hands with respect to the hand model data (S505). ).

図10は手モデルデータのフィッティング処理を示している。計測された左手の三次元頂点データ1001に対し、フィッティング処理1003を行い、左手の状態パラメータθLとそれにより復元された左手の三次元形状1004が算出される。同様に右手の三次元頂点データ1002に対し、右手の状態パラメータθRとそれにより復元された右手の三次元形状1005が算出される。フィッティング処理1003には手モデルデータ1006を含む。 FIG. 10 shows the fitting process of the hand model data. The fitting process 1003 is performed on the measured three-dimensional vertex data 1001 of the left hand, and the state parameter θL of the left hand and the restored three-dimensional shape 1004 of the left hand are calculated. Similarly, for the three-dimensional vertex data 1002 of the right hand, the state parameter θR of the right hand and the three-dimensional shape 1005 of the right hand restored by it are calculated. The fitting process 1003 includes the hand model data 1006.

フィッティング処理1003は定められたエネルギー関数を最小化するパラメータθを求める最適化処理である。エネルギー関数には、計測された三次元頂点データと、パラメータにより復元された頂点データとの2乗誤差が使用される。 The fitting process 1003 is an optimization process for finding the parameter θ that minimizes the defined energy function. For the energy function, the squared error between the measured 3D vertex data and the vertex data restored by the parameters is used.

エネルギー関数には、オーバーフィッティングを防ぐための正則化項を加えてもよい。 A regularization term may be added to the energy function to prevent overfitting.

上記では左手右手それぞれで手モデルデータのフィッティング処理を行っているが、両手の位置関係性を考慮して同時にフィッティング処理を行ってもよい。 In the above, the fitting process of the hand model data is performed by each of the left and right hands, but the fitting process may be performed at the same time in consideration of the positional relationship between both hands.

S302により手の有無および手がある場合の三次元位置および表面形状である復元された三次元頂点データが得られる。手が無い場合は、S304〜S307のステップは行わない(S303)。 With S302, the restored 3D vertex data which is the presence / absence of a hand and the 3D position and surface shape when there is a hand can be obtained. If there is no hand, the steps S304 to S307 are not performed (S303).

手洗い開始判定部204によって、新たに使用者が手洗いを開始したかどうかが判定される(S304)。S302によって手の有無が判定されるが、一定時間以上手が無い状態が続いた後に、手があると判定された場合、新たに手洗いを開始したと判定する。もしくは手洗い場所101への人物の出入りを計測することによって、新たに人物が入ったと判定した場合は、新たに手洗いが開始されたと判定してもよい。 The hand-washing start determination unit 204 determines whether or not the user has newly started hand-washing (S304). The presence or absence of hands is determined by S302, but if it is determined that there are hands after the state of no hands for a certain period of time or more, it is determined that new hand washing has been started. Alternatively, if it is determined that a new person has entered by measuring the entry and exit of the person to the hand-washing place 101, it may be determined that the hand-washing has been newly started.

スコアデータは図13のテーブルに示すように、小領域ごとに評価スコアが保持される。小領域は図7に示す両手の各頂点、頂点の小集合、両手の各部位領域、のいずれでもよい。 As shown in the table of FIG. 13, the score data holds the evaluation score for each small area. The small area may be any of the vertices of both hands shown in FIG. 7, a small set of vertices, and each part area of both hands.

S304で手洗いが開始されたと判定された場合、スコアデータの全ての値をゼロに初期化する(S305)。 If it is determined that hand washing has started in S304, all the values in the score data are initialized to zero (S305).

接触領域推定部203によって、接触領域推定(S306)が処理される。図11で、左手の頂点1101と、右手の頂点1102の三次元空間における距離1103が閾値以下の場合に、1101と1102は接触したと判定される。この処理を全ての左手の頂点と右手の頂点との間で行う。同じ片手の頂点群の中で接触判定を行ってもよい。閾値は手のスケール値に応じて変更してもよい。 The contact area estimation unit 203 processes the contact area estimation (S306). In FIG. 11, when the distance 1103 between the apex 1101 of the left hand and the apex 1102 of the right hand in the three-dimensional space is equal to or less than the threshold value, it is determined that 1101 and 1102 are in contact with each other. This process is performed between all the vertices of the left hand and the vertices of the right hand. Contact determination may be performed within the same group of vertices of one hand. The threshold may be changed according to the scale value of the hand.

接触領域推定部203は図12に示すように、処理の高速化のために、頂点群を球情報に近似して接触領域を推定してもよい。頂点群は中心座標と半径を持つ球1201の集合で近似し、左手の球と右手の球が接触したかどうかを判定する。左手の球の中心1202と右手の球の中心1203との三次元空間における距離が、左手の球の半径1204と右手の球の半径1205の合計値以下であれば、接触したと判定される。この場合、小領域の最小単位は球の単位となる。球以外に楕円体やそれらの組み合わせで近似してもよい。 As shown in FIG. 12, the contact area estimation unit 203 may estimate the contact area by approximating the vertex group to the sphere information in order to speed up the processing. The vertex group is approximated by a set of spheres 1201 having center coordinates and radii, and it is determined whether or not the left-hand sphere and the right-hand sphere are in contact with each other. If the distance in the three-dimensional space between the center 1202 of the left-hand sphere and the center 1203 of the right-hand sphere is less than or equal to the sum of the radius 1204 of the left-hand sphere and the radius 1205 of the right-hand sphere, it is determined that they have touched each other. In this case, the smallest unit of the small area is the unit of the sphere. In addition to the sphere, an ellipsoid or a combination thereof may be used for approximation.

スコア算出部205は小領域の接触の有無を元に、スコアを加算する(S307)。図11において頂点1101と頂点1102が接触していると判定された場合、1101と1102のスコアに+1を加算する。具体的には図13のスコアテーブルの該当する小領域番号のスコアに加算する。 The score calculation unit 205 adds the score based on the presence or absence of contact in the small area (S307). When it is determined that the vertices 1101 and 1102 are in contact with each other in FIG. 11, +1 is added to the scores of 1101 and 1102. Specifically, it is added to the score of the corresponding small area number in the score table of FIG.

各小領域において、スコアが大きいほど接触の回数が多く、よく手洗いが行われていることを意味する。スコアが小さいほど接触の回数が少なく、手洗いが不十分であることを意味する。 In each small area, the higher the score, the greater the number of contacts, which means that hand washing is performed well. The smaller the score, the fewer contacts there are, which means that hand washing is inadequate.

図14において、左手の頂点1401と、右手の頂点1402とが接触したと判定された場合に、頂点1402の法線ベクトルに直交する向き1405に頂点1402が動いている場合、頂点1401と頂点1402により高いスコアを加点する。これは両手が接触しているだけでなく、擦り合う動作をしていることを意味する。直交する向き1405は、頂点1402の近辺の頂点1403、1404を含めた面から法線を求め、その法線から求めてもよい。 In FIG. 14, when it is determined that the apex 1401 of the left hand and the apex 1402 of the right hand are in contact with each other, and the apex 1402 is moving in the direction 1405 orthogonal to the normal vector of the apex 1402, the apex 1401 and the apex 1402 Add higher scores. This means that both hands are not only in contact but also rubbing against each other. For the orthogonal orientation 1405, the normal may be obtained from the surface including the vertices 1403 and 1404 in the vicinity of the vertices 1402, and may be obtained from the normal.

情報出力部206は、スコアテーブルを使用者に提示する(S308)。情報出力部206は表示装置であって、図15のように両手を模した画像を表示し、小領域ごとのスコアを可視化して表示する。スコアが高い小領域周辺は白く、スコアが低い小領域周辺は黒く表示することで、使用者は両手のどこが洗えていないかを視覚的に知ることが可能である。 The information output unit 206 presents the score table to the user (S308). The information output unit 206 is a display device, which displays an image imitating both hands as shown in FIG. 15, and visualizes and displays the score for each small area. By displaying the area around the small area with a high score in white and the area around the small area with a low score in black, the user can visually know where in both hands is not washed.

あるいは情報出力部206は、音声によって使用者にスコア分布を通知してもよい。例えば「右手の人差し指の先が洗えていません」のように手指の場所と手洗いの度合いを音声で通知することができる。 Alternatively, the information output unit 206 may notify the user of the score distribution by voice. For example, the location of the fingers and the degree of hand washing can be notified by voice, such as "The tip of the index finger of the right hand cannot be washed".

あるいは情報出力部206は、スコアテーブルを統計データとして別の記憶媒体に保存する、あるいは通信を行って別の装置に通知する、ことを行ってもよい。 Alternatively, the information output unit 206 may store the score table as statistical data in another storage medium, or communicate with the information output unit 206 to notify another device.

(第2の実施の形態)
本発明の第2の実施の形態は、第1の実施の形態である図2に加えて、手洗い動作種類推定部が具備される。
(Second embodiment)
The second embodiment of the present invention includes a hand-washing operation type estimation unit in addition to FIG. 2 which is the first embodiment.

手洗い動作種類推定部は、手位置形状推定部202が出力した表面形状データ(図7)あるいは関節位置(図8)を用いて、手洗いの動作種類を出力する。 The hand-washing motion type estimation unit outputs the hand-washing motion type using the surface shape data (FIG. 7) or the joint position (FIG. 8) output by the hand position shape estimation unit 202.

手洗い動作種類は例えば、指の間を洗う、手首を洗う、指先・爪の間を洗う、等がある。 The types of hand-washing operations include, for example, washing between fingers, washing wrists, washing between fingertips and nails, and the like.

図16に示すように、左手1601と右手1602が右手の指先を洗う動作をしている場合、1603で示される右手の指先領域および左手の手の平領域は、接触していることになる。この場合、右手の指先領域および左手の手の平領域に相当する小領域のスコア(図13)に加点する。 As shown in FIG. 16, when the left hand 1601 and the right hand 1602 wash the fingertips of the right hand, the fingertip region of the right hand and the palm region of the left hand indicated by 1603 are in contact with each other. In this case, points are added to the scores (FIG. 13) of the fingertip area of the right hand and the small area corresponding to the palm area of the left hand.

このように、第1の実施の形態に加えて、あらかじめ定められた手洗い動作種類が行われたと推定された場合に、手洗い動作に相当するあらかじめ定められた小領域のスコアを加点することで、撮像のノイズや手モデルデータへのフィッティング誤差があった場合も、より頑健に小領域の接触状況を推定する。 In this way, in addition to the first embodiment, when it is estimated that a predetermined hand-washing motion type has been performed, a score of a predetermined small area corresponding to the hand-washing motion is added to give points. Even if there is imaging noise or fitting error to the hand model data, the contact status of a small area is estimated more robustly.

今回開示された実施の形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims rather than the above description, and it is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

101 手洗い場所、102 蛇口、103 使用者、104 撮像部、105 情報出力部、201 撮像部、202 手位置形状推定部、203 接触領域推定部、204 手洗い開始判定部、205 スコア算出部、206 情報出力部、207 重み係数データ、208 手モデルデータ、209 スコアデータ、401 画像、402 左手、403 右手、601 左手、602 右手、701 頂点、702 エッジ、801 関節部位、802 リンク、901 入力画像、902 ニューラルネットワーク、903 出力画像、904 重み係数データ、905 左手、906 右手、907 左手、908 右手、1001 左手、1002 右手、1003 最適化部、1004 左手、1005 右手、1006 手モデルデータ、1101 左手の頂点、1102 右手の頂点、1103 頂点間の距離、1201 球表現、1202 左手の球の中心、1203 右手の球の中心、1204 左手の球の半径、1205 右手の球の半径、1401 左手の頂点、1402 右手の頂点1、1403 右手の頂点2、1404 右手の頂点4、1405 右手の頂点1,2,3の法線に直交するベクトル、1601 左手、1602 右手、1603 左手と右手が接する領域 101 Hand wash location, 102 Faucet, 103 User, 104 Imaging unit, 105 Information output unit, 201 Imaging unit, 202 Hand position shape estimation unit, 203 Contact area estimation unit, 204 Hand wash start determination unit, 205 Score calculation unit, 206 information Output, 207 weight coefficient data, 208 hand model data, 209 score data, 401 image, 402 left hand, 403 right hand, 601 left hand, 602 right hand, 701 apex, 702 edge, 801 joint site, 802 link, 901 input image, 902 Neural network, 903 output image, 904 weighting coefficient data, 905 left hand, 906 right hand, 907 left hand, 908 right hand, 1001 left hand, 1002 right hand, 1003 optimizer, 1004 left hand, 1005 right hand, 1006 hand model data, 1101 left hand apex , 1102 Right hand apex, 1103 Distance between apex, 1201 Sphere representation, 1202 Left hand sphere center, 1203 Right hand sphere center, 1204 Left hand sphere radius, 1205 Right hand sphere radius, 1401 Left hand apex, 1402 Right hand apex 1, 1403 Right hand apex 2, 1404 Right hand apex 4, 1405 Right hand apex 1, 2, 3 Vector orthogonal to normal, 1601 Left hand, 1602 Right hand, 1603 Area where left and right hands meet

Claims (16)

人物の手洗い動作を評価する手洗い評価装置であって、
手洗いを行う領域の画像を撮像する撮像部と、
前記撮像部が撮像した画像から人物の両手の三次元位置および表面形状を推定する手位置形状推定部と、
前記手位置形状推定部が推定した両手の表面の小領域単位で他の小領域との接触を推定する接触領域推定部と、
人物が手洗いを開始したことを判定する手洗い開始判定部と、
前記小領域ごとに、手洗いが開始されてからの接触のスコアを算出するスコア算出部と、
前記スコア算出部が算出したスコア分布を使用者に通知、別の記憶媒体に保存、又は通信を行って別の装置に通知する情報出力部と、
を備える手洗い評価装置。
It is a hand-washing evaluation device that evaluates the hand-washing movement of a person.
An imaging unit that captures an image of the area to be hand-washed,
A hand position shape estimation unit that estimates the three-dimensional position and surface shape of both hands of a person from an image captured by the imaging unit, and a hand position shape estimation unit.
A contact area estimation unit that estimates contact with other small areas in units of small areas on the surface of both hands estimated by the hand position shape estimation unit, and a contact area estimation unit.
A hand-washing start determination unit that determines that a person has started hand-washing,
For each of the small areas, a score calculation unit that calculates the contact score after the start of hand washing,
The score distribution the score calculation unit has calculated, notify the user, an information output unit for notifying stored in another storage medium, or by communicating to another device,
A hand-washing evaluation device equipped with.
前記撮像部は、深さ情報を含む画像を取得可能な、ステレオカメラ、Time−Of−Flight方式カメラ、
Structured−Light方式カメラのいずれかを含む、請求項1に記載の手洗い評価装置。
The imaging unit is a stereo camera, a Time-Of-Flight system camera, capable of acquiring an image including depth information.
The hand-washing evaluation device according to claim 1, which comprises any of the Structured-Light type cameras.
前記撮像部は、色情報を取得するRGBカメラであって、前記手位置形状推定部は両手の相対的な
三次元位置および表面形状を推定する、請求項1に記載の手洗い評価装置。
The hand-washing evaluation device according to claim 1, wherein the imaging unit is an RGB camera that acquires color information, and the hand position shape estimation unit estimates the relative three-dimensional position and surface shape of both hands.
前記手位置形状推定部は、前記撮像部が取得した画像の全てまたは部分画像を入力とし、
Convolutional−Neural−Networkを使用して
両手の三次元位置および表面形状を推定する、請求項1に記載の手洗い評価装置。
The hand position shape estimation unit receives all or partial images of the images acquired by the imaging unit as inputs.
The hand-washing evaluation device according to claim 1, wherein the three-dimensional position and surface shape of both hands are estimated using a Convolutional-Neural-Network.
前記手位置形状推定部は、事前に用意した手の三次元形状モデルを、
前記画像で計測された情報と対応をとることで、両手の三次元位置および表面形状を推定する、請求項1に記載の手洗い評価装置。
The hand position shape estimation unit uses a three-dimensional shape model of the hand prepared in advance.
The hand-washing evaluation device according to claim 1, wherein the three-dimensional position and surface shape of both hands are estimated by taking correspondence with the information measured in the image.
前記小領域は、両手の表面形状を三次元の頂点群で表現したデータ構造の各頂点、頂点の小集合、両手の各部位領域、
のいずれかである請求項1に記載の手洗い評価装置。
The small regions are the vertices of a data structure in which the surface shape of both hands is represented by a group of three-dimensional vertices, a small set of vertices, and each region of both hands.
The hand-washing evaluation device according to claim 1, which is any of the above.
前記接触領域推定部は、前記小領域間の三次元空間上の距離が閾値以下であるか否かで接触の有無を判定する、
請求項1に記載の手洗い評価装置。
The contact area estimation unit determines the presence or absence of contact based on whether or not the distance between the small areas in the three-dimensional space is equal to or less than the threshold value.
The hand-washing evaluation device according to claim 1.
前記手洗い開始判定部は、前記撮像部が撮像する画像内の手の有無の間隔によって、新たに手洗い開始されたかどうかを判定する、請求項1に記載の手洗い評価装置。 The hand washing start determination unit, by interval of the presence or absence of hands within the image which the image pickup unit takes an image, determines whether a new hand washing is started, hand washing evaluation apparatus according to claim 1. 前記手洗い開始判定部は、手洗い評価装置前の空間における人物の出入りを計測することによって、
新たに手洗い開始されたかどうかを判定する、請求項1に記載の手洗い評価装置。
The hand-washing start determination unit measures the entry and exit of a person in the space in front of the hand-washing evaluation device.
Newly determining whether hand washing is started, hand washing evaluation apparatus according to claim 1.
前記スコア算出部は、前記手洗い開始判定部によって手洗いが開始されたと判定されたときに
スコアを初期化する、請求項1に記載の手洗い評価装置。
The hand-washing evaluation device according to claim 1, wherein the score calculation unit initializes a score when it is determined by the hand-washing start determination unit that hand washing has been started.
前記撮像部は時間方向に連続的に画像を取得し、前記接触領域推定部は各画像において接触の有無を推定し、
前記スコア算出部は前記小領域単位ごとにスコアを加点し、複数の画像におけるスコアを累計することによって最終スコアを算出する、
請求項1に記載の手洗い評価装置。
The imaging unit continuously acquires images in the time direction, and the contact area estimation unit estimates the presence or absence of contact in each image.
The score calculation unit adds points to each of the small area units and calculates the final score by accumulating the scores in a plurality of images.
The hand-washing evaluation device according to claim 1.
前記スコア算出部は、前記小領域に接触がある場合に、小領域の表面の三次元法線に直交する向きに
その小領域もしくは接触している小領域が動いているときにスコアを加点する、請求項1に記載の手洗い評価装置。
When the small area is in contact, the score calculation unit adds a score when the small area or the small area in contact is moving in a direction orthogonal to the three-dimensional normal on the surface of the small area. , The hand-washing evaluation device according to claim 1.
さらに前記手位置形状推定部が検出した両手の動作から手洗いの動作種類を判別する手洗い動作種類推定部を備え、
前記手洗い動作種類推定部が推定した手洗い動作種類に応じて、特定の前記小領域単位のスコアを加点する、
請求項1に記載の手洗い評価装置。
Further, it is provided with a hand-washing motion type estimation unit that determines the hand-washing motion type from the motions of both hands detected by the hand position shape estimation unit.
A score for a specific small area unit is added according to the hand-washing motion type estimated by the hand-washing motion type estimation unit.
The hand-washing evaluation device according to claim 1.
前記情報出力部は表示装置を備え、前記スコア算出部によって算出された両手の接触のスコアを両手を表現する画像とともに可視化して表示装置に表示することで、
使用者に両手のスコア分布を提示する、請求項1に記載の手洗い評価装置。
The information output unit is provided with a display device, and the score of contact between both hands calculated by the score calculation unit is visualized together with an image expressing both hands and displayed on the display device.
The hand-washing evaluation device according to claim 1, which presents the score distribution of both hands to the user.
前記情報出力部は発音装置を備え、前記スコア算出部によって算出された両手の接触のスコアを説明する音声に変換し、変換した音声を発音装置で再生することで、
使用者に両手のスコア分布を通知する、請求項1に記載の手洗い評価装置。
The information output unit is provided with a sounding device, converts the score of contact between both hands calculated by the score calculation unit into a voice for explaining, and reproduces the converted voice with the sounding device.
The hand-washing evaluation device according to claim 1, which notifies the user of the score distribution of both hands.
人物の手洗い動作を評価する手洗い評価プログラムであって、
手洗いを行う領域の画像を撮像する撮像ステップと、
撮像した画像から人物の両手の三次元位置および表面形状を推定する手位置形状推定ステップと、
両手の表面の小領域単位で他の小領域との接触を推定する接触領域推定ステップと、
人物が手洗いを開始したことを判定する手洗い開始判定ステップと、
両手の小領域ごとに、手洗いが開始されてからの接触のスコアを算出するスコア算出ステップと、
算出したスコア分布を使用者に通知、別の記憶媒体に保存、又は通信を行って別の装置に通知する情報出力ステップと、
コンピュータに実行させるための手洗い評価プログラム。
A hand-washing evaluation program that evaluates a person's hand-washing behavior.
An imaging step that captures an image of the area to be hand-washed,
A hand position shape estimation step that estimates the three-dimensional position and surface shape of both hands of a person from the captured image,
A contact area estimation step that estimates contact with other small areas in units of small areas on the surface of both hands,
A hand-washing start determination step that determines that a person has started hand-washing,
A score calculation step to calculate the contact score after the start of hand washing for each small area of both hands,
An information output step of notifying the user of the calculated score distribution , storing it in another storage medium, or communicating to notify another device.
A hand-washing evaluation program for letting a computer run.
JP2020080863A 2020-04-30 2020-04-30 Hand wash evaluation device and hand wash evaluation program Active JP6875028B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020080863A JP6875028B1 (en) 2020-04-30 2020-04-30 Hand wash evaluation device and hand wash evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080863A JP6875028B1 (en) 2020-04-30 2020-04-30 Hand wash evaluation device and hand wash evaluation program

Publications (2)

Publication Number Publication Date
JP6875028B1 true JP6875028B1 (en) 2021-05-19
JP2021174487A JP2021174487A (en) 2021-11-01

Family

ID=75900124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080863A Active JP6875028B1 (en) 2020-04-30 2020-04-30 Hand wash evaluation device and hand wash evaluation program

Country Status (1)

Country Link
JP (1) JP6875028B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093886B2 (en) * 2018-11-27 2021-08-17 Fujifilm Business Innovation Corp. Methods for real-time skill assessment of multi-step tasks performed by hand movements using a video camera

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2015665T3 (en) * 2006-05-04 2009-11-16 Trinity College Dublin Monitoring system
TW201223491A (en) * 2010-12-03 2012-06-16 Nat Taipei University Oftechnology Intelligent hand-washing monitoring system
JP2018117981A (en) * 2017-01-27 2018-08-02 富山県 Finger hygiene management device, finger hygiene management system, and finger hygiene management method
JP6914526B2 (en) * 2017-10-19 2021-08-04 株式会社モレーンコーポレーション Hygiene evaluation device, hygiene evaluation photography system, photography stand, and hygiene evaluation method
JP2019219554A (en) * 2018-06-21 2019-12-26 パナソニックIpマネジメント株式会社 Hand-washing assist system, hand-washing assist method, and hand-washing assist device

Also Published As

Publication number Publication date
JP2021174487A (en) 2021-11-01

Similar Documents

Publication Publication Date Title
Bobick et al. The recognition of human movement using temporal templates
Bian et al. Fall detection based on body part tracking using a depth camera
US6937745B2 (en) Machine vision system and method for estimating and tracking facial pose
JP7463052B2 (en) Information processing device, information processing system, information processing method, and program
Liang et al. Ar in hand: Egocentric palm pose tracking and gesture recognition for augmented reality applications
US7747040B2 (en) Machine vision system and method for estimating and tracking facial pose
EP3689236A1 (en) Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
KR20110003146A (en) Apparatus for econgnizing gesture, robot system using the same and method for econgnizing gesture using the same
JP2014165660A (en) Method of input with virtual keyboard, program, storage medium, and virtual keyboard system
EP2239652A1 (en) Providing an interactive visual representation on a display
CN113111767A (en) Fall detection method based on deep learning 3D posture assessment
JP2021174488A (en) Hand-washing evaluation device and hand-washing evaluation program
CN114005167A (en) Remote sight estimation method and device based on human skeleton key points
Bei et al. Sitting posture detection using adaptively fused 3D features
JP6875028B1 (en) Hand wash evaluation device and hand wash evaluation program
Chen et al. Depth-based hand gesture recognition using hand movements and defects
JP5482412B2 (en) Robot, position estimation method and program
US20230027320A1 (en) Movement Disorder Diagnostics from Video Data Using Body Landmark Tracking
Sharma et al. Comparative analysis of edge detection operators for better glint detection
Ushaw et al. An efficient application of gesture recognition from a 2D camera for rehabilitation of patients with impaired dexterity
Ariyani et al. Heuristic Application System on Pose Detection of Elderly Activity Using Machine Learning in Real-Time
JP7463792B2 (en) Information processing system, information processing device, and information processing method
JP7482471B2 (en) How to generate a learning model
Khan et al. Gesture recognition using Open-CV
Rahman et al. Monitoring and alarming activity of islamic prayer (salat) posture using image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200430

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210415

R150 Certificate of patent or registration of utility model

Ref document number: 6875028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250