JP2018005464A - Cleanness management system of clean room visitor and management system - Google Patents

Cleanness management system of clean room visitor and management system Download PDF

Info

Publication number
JP2018005464A
JP2018005464A JP2016130004A JP2016130004A JP2018005464A JP 2018005464 A JP2018005464 A JP 2018005464A JP 2016130004 A JP2016130004 A JP 2016130004A JP 2016130004 A JP2016130004 A JP 2016130004A JP 2018005464 A JP2018005464 A JP 2018005464A
Authority
JP
Japan
Prior art keywords
roller
subject
person
area
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016130004A
Other languages
Japanese (ja)
Other versions
JP6302007B2 (en
Inventor
吉雄 松本
Yoshio Matsumoto
吉雄 松本
和宏 美山
Kazuhiro Miyama
和宏 美山
寺田 賢治
Kenji Terada
賢治 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokushima NUC
Earth Environmental Service Co Ltd
Original Assignee
University of Tokushima NUC
Earth Environmental Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokushima NUC, Earth Environmental Service Co Ltd filed Critical University of Tokushima NUC
Priority to JP2016130004A priority Critical patent/JP6302007B2/en
Publication of JP2018005464A publication Critical patent/JP2018005464A/en
Application granted granted Critical
Publication of JP6302007B2 publication Critical patent/JP6302007B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a cleanness management method of a clean room visitor in which a subject is not required to install any instruments on the body and can simply perform the inspection of cleanness only by performing a predetermined roller application in an inspection room.SOLUTION: A method for managing the cleanness of a visitor to a clean room determines whether or not a subject has appropriately performed the roller application before entering the room by image processing and includes the determination whether the roller application has been appropriately performed by extracting a personal area of the subject and the area of a roller obtained by the subject by a background difference by comparing a captured image including the subject imaged in the inspection room and the background image and by obtaining and analyzing the relative movement of the roller for each body site of the personal area by an optical follow.SELECTED DRAWING: Figure 3

Description

本発明は、クリーンルーム入室者の清浄度管理方法及び管理システムに関するものであり、より詳細には、食品工場、薬品工場、精密機器取り扱い工場等に設置されるクリーンルームに作業員が立ち入る際に、作業着に付着している塵埃除去のためのローラー掛けを正しく実行したか否かを監視するための、クリーンルーム入室者の清浄度管理方法及び管理システムに関するものである。   The present invention relates to a clean room resident cleanliness management method and management system, and more specifically, when an operator enters a clean room installed in a food factory, a pharmaceutical factory, a precision equipment handling factory, etc. The present invention relates to a clean room occupant cleanliness management method and a management system for monitoring whether or not a roller for removing dust adhering to clothes is correctly executed.

特に近年、食の安全並びに品質向上の要請が高まるに伴い、作業現場におけるクリーン化の意識も高まってきている。そこで、食品工場、薬品工場、精密機器取り扱い工場等の施設に従事する者は、身体に付着しているおそれのある繊維、毛髪、動植物組織等の異物や塵埃が作業室内に入り込まないようにするために、作業室内に入る前にその身体に対する清浄化処理を行わなければならないものとされている。その清浄化処理は、例えば、ローラー掛け、手洗い、粘着マット上の歩行、エアシャワーの通過の各処理をこの順に行うといったものである。   In particular, in recent years, with increasing demands for food safety and quality improvement, awareness of cleanliness at work sites has also increased. Therefore, those engaged in facilities such as food factories, pharmaceutical factories, precision instrument handling factories, etc., should prevent foreign substances and dust such as fibers, hair, animal and plant tissues that may adhere to the body from entering the work room. For this reason, it is supposed that the body must be cleaned before entering the working room. The cleaning process is, for example, performing each process of roller hanging, hand washing, walking on an adhesive mat, and passing an air shower in this order.

作業者にこれらの清浄化処理を適正に行わせるためにマニュアルが用意され、また、そのための教育がなされる。しかし、そのマニュアル等に基づいて適正に清浄化処理が実行されたか否かは、結局は各作業者自身が判断することになるため、慣れや手抜き等によって、適正な清浄化処理が実行されない場合も起こり得る。   A manual is prepared and an education is provided for the worker to appropriately perform these cleaning processes. However, each worker himself or herself will ultimately determine whether or not the cleaning process has been properly performed based on the manual, etc. Can also happen.

このような場合を考慮して、医師や看護婦等の医療従事者に手指衛生行動を実行させるための、手指衛生励行システムが提案されている(特許第5097965号公報)。このシステムは、被検者に装着されて当該被検者の体の動きを検出する動き検出手段、 前記動き検出手段の検出結果に基づいて前記被検者の行動を認識して行動情報を作成する行動認識手段、前記行動認識手段によって作成した行動情報に基づいて前記被検者による手指衛生行動の動作回数および動作量の少なくとも1つを含む実行状態を評価する評価手段、及び、前記評価手段の評価結果に関連して前記被検者にアドバイスを行うアドバイス手段を備えることを特徴とするものである。   In consideration of such cases, a hand hygiene enforcement system has been proposed for causing medical staff such as doctors and nurses to perform hand hygiene behavior (Japanese Patent No. 5097965). This system is a motion detection unit that is attached to a subject and detects the movement of the subject's body, and recognizes the subject's behavior based on the detection result of the motion detection unit and creates behavior information Action recognition means, evaluation means for evaluating an execution state including at least one of the number of movements and movement amount of hand hygiene action by the subject based on the action information created by the action recognition means, and the evaluation means It is characterized by comprising advice means for giving advice to the subject in relation to the evaluation result.

しかし、このシステムの場合は、各医療従事者に体の動きを検出する動き検出手段を装着して、その体の動きを検出し、その検出結果を評価して所定の手指衛生行動が実行されたか否かを判定するものであって、動き検出手段を従事者ごとに用意しなければならないためにコストがかかり、また、各従事者がその都度動き検出手段を装着しなければならない煩わしさがあり、更に、動き検出手段の非装着者に対しては適用できないという問題がある。   However, in the case of this system, each medical worker is equipped with a motion detection means for detecting body motion, detects the body motion, evaluates the detection result, and performs predetermined hand hygiene behavior. It is costly because it is necessary to prepare a motion detection means for each worker, and there is an inconvenience that each worker must wear the motion detection means each time. Furthermore, there is a problem that it cannot be applied to a person who does not wear the motion detection means.

また、特表2012−502343号公報において、個人の衛生習慣を監視するための方法及びシステムが開示されているが、このシステムの場合も、当該システム使用者に、複数の個人衛生事象を検出するための個人衛生モニタを装着する必要があるので、上記の場合と同様の問題が生ずる。   Moreover, in the Japanese translations of PCT publication No. 2012-502343, the method and system for monitoring a personal hygiene habit are disclosed, but also in this system, a plurality of personal hygiene events are detected by the system user. For this reason, a problem similar to the above case arises.

特許第5097965号公報Japanese Patent No. 5097965 特表2012−502343号公報Special table 2012-502343 gazette

上述したように、従来提案されている手指衛生励行システムや個人衛生習慣監視システムの場合は、利用者ごとに動き検出センサや個人衛生モニタ等を用意して装着させなければならないため、コストがかかるだけでなく、その都度それらのセンサ等を着脱しなければならない煩わしさがあり、また、それらのセンサ等の非装着者に対しては適用できないという問題があった。   As described above, in the case of a conventionally proposed hand hygiene enforcement system or personal hygiene habit monitoring system, it is necessary to prepare and attach a motion detection sensor, a personal hygiene monitor, etc. for each user, which is expensive. In addition, there is a problem that the sensors and the like have to be attached and detached each time, and there is a problem that the sensors cannot be applied to non-wearers.

本発明は、このような上記従来システムにおける問題を解決するためになされたもので、比較的シンプルな構成で低コストにて導入でき、被検査者は、何らの機器類も身体に装着する必要がなく、単に、検査室において所定のローラー掛けを行うだけで清浄度の検査を行うことができる、クリーンルーム入室者の清浄度管理方法及び管理システムを提供することを課題とする。   The present invention has been made to solve the above-described problems in the conventional system, and can be introduced at a low cost with a relatively simple configuration. The inspected person needs to wear any device on the body. It is an object of the present invention to provide a clean room occupant cleanliness management method and management system capable of performing cleanliness inspection simply by applying a predetermined roller in the inspection room.

上記課題を解決するための請求項1に係る発明は、クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを画像処理によって判定することにより、クリーンルーム入室者の清浄度を管理するための方法であって、
前記検査室において撮影された被検者を含む取得画像と背景画像とを比較することによる背景差分によって、前記被検者の人物領域と前記被検者が手にするローラーの領域とを抽出することと、
前記人物領域の各身体部位に対する前記ローラーの相対的動きをオプティカルフローによって取得して解析し、ローラーの動きが所定の範囲のものであるか否かにより、ローラー掛けが適切に行われたか否かを判定することと、
を含むことを特徴とするクリーンルーム入室者の清浄度管理方法である。
The invention according to claim 1 for solving the above-described problem is that a subject who is a clean room occupant determines whether or not the roller is properly hung in the examination room before entering the clean room by image processing. A method for managing cleanliness of a resident,
The person area of the subject and the area of the roller held by the subject are extracted by background difference by comparing the acquired image including the subject photographed in the examination room and the background image. And
The relative movement of the roller with respect to each body part of the person area is obtained and analyzed by optical flow, and whether or not the roller is properly applied depending on whether or not the movement of the roller is within a predetermined range. Determining
Is a cleanliness management method for clean room occupants.

好ましい実施形態においては、更に、前記ローラー掛けの判定結果を反映したアバター表示を行うことを含む。   In preferable embodiment, it further includes performing the avatar display which reflected the determination result of the roller hanging.

上記課題を解決するための請求項3に係る発明は、クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを画像処理によって判定することにより、クリーンルーム入室者の清浄度を管理するための方法であって、
前記検査室においてローラーを所持する被検者を撮影して当該被検者を含む画像を取得するための監視カメラの位置設定を行う初期設定ステップと、
前記監視カメラによる取得画像から被検者を特定する被検者特定ステップと、
前記被検者にローラー掛けを開始させるローラー掛け開始ステップと、
前記取得画像と背景画像との比較から前記被検者の人物領域を抽出する人物領域抽出ステップと、
前記取得画像からローラー領域を抽出するローラー領域抽出ステップと、
抽出された前記人物領域から、身体の部位を抽出する部位抽出ステップと、
抽出された前記人物領域の部位ごとに前記ローラーのオプティカルフローを抽出するオプティカルフローの抽出ステップと、
抽出された前記オプティカルフローから、前記身体部位ごとに擦り状態の良否を判定する擦り判定ステップと、
を含むことを特徴とするクリーンルーム入室者の清浄度管理方法である。
The invention according to claim 3 for solving the above-described problem is that a subject who is a clean room occupant determines whether or not the roller is properly hung in the examination room by using image processing before entering the clean room. A method for managing cleanliness of a resident,
An initial setting step for setting the position of a monitoring camera for photographing a subject having a roller in the examination room and acquiring an image including the subject;
A subject identification step for identifying a subject from an acquired image by the monitoring camera;
Rolling start step for causing the subject to start rolling,
A person area extracting step of extracting the person area of the subject from a comparison between the acquired image and a background image;
A roller region extraction step for extracting a roller region from the acquired image;
A part extracting step of extracting a body part from the extracted person region;
An optical flow extraction step of extracting the optical flow of the roller for each portion of the extracted person region;
From the extracted optical flow, rubbing determination step for determining the quality of the rubbing state for each body part,
Is a cleanliness management method for clean room occupants.

好ましい実施形態においては、更に、前記擦り状態の判定結果を反映したアバター表示を行うアバター表示ステップを含む。   In a preferred embodiment, an avatar display step of performing an avatar display reflecting the determination result of the rubbing state is further included.

上記課題を解決するための請求項5に係る発明は、クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを画像処理によって判定することにより、クリーンルーム入室者の清浄度を管理するためのシステムであって、
前記検査室においてローラーを所持する被検者を撮影するための撮影手段と、前記撮影手段によって撮影された前記被検者の人物画像から当該被検者を特定すると共に、前記人物画像を解析して、身体の部位ごとに前記ローラーによる擦り状態の良否を判定する解析装置と、前記解析装置による解析結果をアバター表示するモニタとから成り、
前記解析装置は、前記撮影手段によって撮影された前記被検者の人物画像を取り込む画像取得手段と、前記人物画像から被検者を特定する被検者特定手段と、前記人物画像から前記被検者の人物領域及び前記ローラーのローラー領域とを抽出する人物・ローラー領域抽出手段と、抽出された前記人物領域から身体部位を抽出する身体部位抽出手段と、前記人物領域における前記ローラーのオプティカルフローを前記部位ごとに抽出するオプティカルフロー抽出手段と、抽出された前記オプティカルフローからローラー掛けの良否を判定する擦り判定手段と、前記擦り判定手段による判定結果を前記モニタにアバター表示させる表示手段とから成ることを特徴とするクリーンルーム入室者の清浄度管理システムである。
The invention according to claim 5 for solving the above-mentioned problem is that a subject who is a clean room entrant has determined whether or not a roller is properly hung in the examination room by using image processing before entering the clean room. A system for managing the cleanliness of occupants,
An imaging unit for imaging a subject having a roller in the examination room, and specifying the subject from the person image of the subject imaged by the imaging unit, and analyzing the person image And an analysis device for determining the quality of the rubbing state by the roller for each body part, and a monitor for displaying an analysis result by the analysis device as an avatar,
The analysis device includes an image acquisition unit that captures a person image of the subject photographed by the photographing unit, a subject identification unit that identifies a subject from the person image, and the subject from the person image. A person / roller area extracting means for extracting a person's person area and a roller area of the roller; a body part extracting means for extracting a body part from the extracted person area; and an optical flow of the roller in the person area. Optical flow extraction means for extracting each part, rubbing judgment means for judging whether the roller application is good or bad from the extracted optical flow, and display means for displaying the result of judgment by the rubbing judgment means on the monitor as an avatar This is a cleanliness management system for clean room residents.

本発明に係るクリーンルーム入室者の清浄度管理方法及びシステムは、上記のとおり、被検者の人物領域とローラー領域とを抽出し、人物領域の各身体部位に対するローラーの動きをオプティカルフローによって取得して解析することにより、ローラー掛けが適切に行われたか否かを判定するものであって、クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを自動的に適切に判定することができ、以て、クリーンルーム入室者の清浄度を有効且つ確実に管理することができる効果がある。   As described above, the cleanliness management method and system for clean room occupants according to the present invention extracts the person area and the roller area of the subject, and acquires the movement of the roller with respect to each body part of the person area by optical flow. It is determined whether or not the roller hanging is properly performed, and whether or not the subject who is a clean room entrant appropriately roller-rolled in the examination room before entering the room. It is possible to determine automatically and appropriately, and therefore, there is an effect that the cleanliness of the clean room occupant can be managed effectively and reliably.

また、本発明に係るクリーンルーム入室者の清浄度管理方法及びシステムは、比較的シンプルな構成で低コストにて導入でき、被検者は、何らの機器類も身体に装着する必要がなく、単に、所定のローラー掛けを行うだけで検査を行うことができるという効果がある。   In addition, the clean room occupant cleanliness management method and system according to the present invention can be introduced at a low cost with a relatively simple configuration, and the subject does not need to wear any equipment on the body. There is an effect that the inspection can be performed only by applying a predetermined roller.

本発明に係るクリーンルーム入室者の清浄度管理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the cleanliness management system of the clean room entrant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法の大まかな流れを示すフロー図である。It is a flowchart which shows the rough flow of the cleanliness management method of the clean room entrant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法のフレーム処理の流れを示すフロー図である。It is a flowchart which shows the flow of the flame | frame process of the cleanliness management method of the clean room occupant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法のフレーム処理における頭領域、体領域、足領域の抽出方法を示す図である。It is a figure which shows the extraction method of the head area | region, body area | region, and leg area | region in the frame process of the cleanliness management method of the clean room entrant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法のフレーム処理における体領域と腕領域の抽出方法を示す図である。It is a figure which shows the extraction method of the body area | region and arm area | region in the frame process of the cleanliness management method of the clean room occupant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法のフレーム処理における腕の長さ抽出方法を示す図である。It is a figure which shows the length extraction method of the arm in the frame process of the cleanliness management method of the clean room entrant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法のフレーム処理における判定領域の補正方法を示す図である。It is a figure which shows the correction method of the determination area | region in the frame process of the cleanliness management method of the clean room occupant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法におけるアバターへの変換方法を説明するための図である。It is a figure for demonstrating the conversion method to the avatar in the cleanliness management method of the clean room entrant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法におけるアバターへの変換方法を説明するための図である。It is a figure for demonstrating the conversion method to the avatar in the cleanliness management method of the clean room entrant who concerns on this invention. 本発明に係るクリーンルーム入室者の清浄度管理方法におけるアバター表示方法を示す図である。It is a figure which shows the avatar display method in the cleanliness management method of the clean room entrant who concerns on this invention.

以下に、本発明を実施するため形態について、添付図面を参照しつつ詳細に説明する。本発明に係るクリーンルーム入室者の清浄度管理方法及びシステムは、食品工場、薬品工場、精密機器取り扱い工場等に設置されるクリーンルームに作業員が立ち入る際に、作業着に付着している塵埃除去のためのローラー掛けを正しく実行したか否かを監視するための方法並びにシステムである。本発明において言うローラー掛けは、粘着テープを巻装した回転ローラーを用い、作業着の上から身体に当接させて転動させることにより、身体に付着している繊維、塵埃、髪の毛等を粘着除去する作業であり、頭部から足先まで、身体全体に対して行う。このローラー掛けは、例えば、頭部、両腕、胸腹、背、両脚の順に行う。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated in detail, referring an accompanying drawing. The cleanliness management method and system for cleanroom residents according to the present invention is designed to remove dust adhering to work clothes when workers enter cleanrooms installed in food factories, chemical factories, precision instrument handling factories, etc. A method and system for monitoring whether or not the roller application has been performed correctly. The roller hook in the present invention uses a rotating roller wrapped with an adhesive tape, and abuts against the body from the work clothes and rolls to adhere fibers, dust, hair, etc. attached to the body. This is a work to remove, and is performed on the entire body from the head to the toes. This roller hanging is performed in the order of, for example, the head, both arms, the chest, belly, the back, and both legs.

本発明に係るクリーンルーム入室者の清浄度管理方法は、クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを画像処理によって判定することにより、クリーンルーム入室者の清浄度を管理するための方法であって、検査室において撮影された被検者を含む取得画像と背景画像とを比較することによる背景差分によって、被検者の人物領域と被検者が手にするローラーの領域とを抽出することと、人物領域の各身体部位に対するローラーの相対的動きをオプティカルフローによって取得して解析することにより、ローラー掛けが適切に行われたか否かを判定することを含むことを特徴とするものである。   The cleanliness management method for cleanroom entrants according to the present invention is based on determining whether or not the subject who is a cleanroom entrant has properly applied the roller in the examination room before entering the cleanroom. A method for managing a person's cleanliness, wherein a person's region of a subject and a subject are determined by a background difference by comparing an acquired image including the subject and a background image taken in an examination room. To determine whether or not the roller has been properly applied by extracting the area of the roller that the person holds and acquiring and analyzing the relative movement of the roller with respect to each body part of the human area by optical flow It is characterized by including doing.

より詳細には、本発明に係る方法は、以下のステップを含むことを特徴としている。
−検査室においてローラーを所持する被検者を撮影して当該被検者を含む画像を取得するための監視カメラの位置設定を行う初期設定ステップ
−監視カメラによる取得画像から被検者を特定する被検者特定ステップ
−被検者にローラー掛けを開始させるローラー掛け開始ステップ
−取得画像と背景画像との比較から被検者の人物領域を抽出する人物領域抽出ステップ
−取得画像からローラー領域を抽出するローラー領域抽出ステップ
−抽出された人物領域から、身体の部位を抽出する身体部位抽出ステップ
−抽出された人物領域の身体部位ごとにローラーのオプティカルフローを抽出するオプティカルフローの抽出ステップ
−抽出されたオプティカルフローから、身体部位ごとに擦り状態の良否を判定する擦り判定ステップ
More particularly, the method according to the invention is characterized in that it comprises the following steps:
-Initial setting step for setting the position of a surveillance camera for photographing a subject having a roller in the examination room and obtaining an image including the subject-Identifying the subject from the acquired image by the surveillance camera Subject identification step-Rolling start step for starting the subject to apply the roller-Person region extraction step for extracting the subject region of the subject from comparison between the acquired image and the background image-Extracting the roller region from the acquired image Roller region extraction step-Body part extraction step for extracting a body part from the extracted person region-Optical flow extraction step for extracting a roller optical flow for each body part of the extracted person region-Extracted A rubbing judgment step for judging the quality of the rubbing state for each body part from the optical flow.

図1は、本発明に係る方法を実施するためのシステムの概略構成を示すブロック図であり、そこに示されるように本システムは、検査室においてローラーを所持する被検者を撮影するための撮影手段である監視カメラ1と、監視カメラ1によって撮影された被検者の人物画像から当該被検者を特定すると共に、前記人物画像を解析して、身体の部位ごとにローラーによる擦り状態の良否を判定する解析装置2と、解析装置2による解析結果をアバター表示するモニタ3とから成る。   FIG. 1 is a block diagram showing a schematic configuration of a system for carrying out a method according to the present invention, and as shown therein, the system is for photographing a subject having a roller in an examination room. The monitoring camera 1 that is an imaging unit and the person image of the patient imaged by the monitoring camera 1 are specified, and the person image is analyzed, and the state of rubbing by a roller for each part of the body is analyzed. It comprises an analysis device 2 for determining pass / fail and a monitor 3 for displaying an analysis result by the analysis device 2 as an avatar.

そして、解析装置2は、監視カメラ1によって撮影された被検者の人物画像を取り込む画像取得手段4と、人物画像から被検者を特定する被検者特定手段5と、人物画像から被検者の人物領域及びローラーのローラー領域とを抽出する人物・ローラー領域抽出手段6と、抽出された人物領域から身体部位を抽出する身体部位抽出手段7と、人物領域におけるローラーのオプティカルフローを身体の部位ごとに抽出するオプティカルフロー抽出手段8と、抽出されたオプティカルフローからローラー掛けの良否を判定する擦り判定手段9と、擦り判定手段9による判定結果をモニタ3にアバター表示させる表示手段10とを含んで構成される。   Then, the analysis apparatus 2 includes an image acquisition unit 4 that captures a person image of the subject photographed by the monitoring camera 1, a subject identification unit 5 that identifies the subject from the person image, and a subject that is examined from the person image. A person / roller area extracting means 6 for extracting a person's person area and a roller area of the roller, a body part extracting means 7 for extracting a body part from the extracted person area, and an optical flow of the roller in the person area Optical flow extraction means 8 for extracting each part, rubbing judgment means 9 for judging whether or not the roller application is good from the extracted optical flow, and display means 10 for displaying the judgment result by the rubbing judgment means 9 on the monitor 3 as an avatar. Consists of including.

図2は、本発明に係るクリーンルーム入室者の清浄度管理方法の全体の流れを示すフロー図であり、そこに示されるように、本方法における処理は、大別して、監視カメラ位置の初期設定ステップ(S1)、被検者の特定ステップ(S2)、指定部位のローラー掛け開始ステップ(S3)、フレーム処理ステップ(S4)、ローラー掛け完了ステップ(S5)の順に推移する。   FIG. 2 is a flowchart showing the overall flow of the clean room occupant cleanliness management method according to the present invention. As shown therein, the processing in this method is roughly divided into the initial setting step of the monitoring camera position. (S1), subject identification step (S2), designated portion roller application start step (S3), frame processing step (S4), and roller application completion step (S5).

監視カメラ位置の初期設定ステップ(S1)
監視カメラ位置の初期設定ステップ(S1)は、本発明に係る方法の実施に当たり、検査室に設置される撮影手段である監視カメラ1の位置を調整するための初期設定を行うステップである。この初期設定において監視カメラ1は、正面斜め上方から、例えば、身長190cmの人物の全身が写るように位置調整される。なお、監視カメラ1は固定カメラであって、被検者は、室内の定位置においてローラー掛けを行うものとされる。
Monitoring camera position initial setting step (S1)
The initial setting step (S1) of the monitoring camera position is a step of performing an initial setting for adjusting the position of the monitoring camera 1, which is an imaging unit installed in the examination room, in carrying out the method according to the present invention. In this initial setting, the position of the surveillance camera 1 is adjusted so that, for example, the whole body of a person with a height of 190 cm is captured from diagonally above the front. The surveillance camera 1 is a fixed camera, and the subject is supposed to carry the roller at a fixed position in the room.

被検者の特定ステップ(S2)
被検者の特定ステップ(S2)は、画像取得手段4により取り込んだフレーム画像から、被検者特定手段5によって被検者を特定するステップである。被検者の特定は、例えば、各人が有するICチップやQRコード(登録商標)を読み取る等の方法によって行う。
Subject identification step (S2)
The subject specifying step (S2) is a step of specifying the subject by the subject specifying means 5 from the frame image captured by the image acquiring means 4. The subject is specified by a method such as reading an IC chip or QR code (registered trademark) owned by each person.

指定部位のローラー掛け開始ステップ(S3)
指定部位のローラー掛け開始ステップ(S3)は、被検者が室内の定位置において、所定の順序(例えば、頭部、両腕、胸腹、背、両脚の順)で行うローラー掛けを開始するステップである。通例、このローラー掛け開始に際し、「前を向いてください。」、「頭を擦ってください。」、「右腕を擦ってください。」といった、ローラー掛けをする身体部位を指定するための音声案内が流され、被検者はそれに合わせて行動する。
Rolling start step of designated part (S3)
The roller application start step (S3) of the designated part starts the roller application performed by the subject in a predetermined order (for example, the order of the head, both arms, chest, belly, back, and both legs) at a fixed position in the room. It is a step. Typically, when starting this roller application, voice guidance for specifying the body part to be applied to the roller, such as “Please turn forward”, “Scratch your head”, “Scratch your right arm”, etc. The subject will behave accordingly.

なお、ローラーは予め検査室内に用意されていて、被検者はこれを入室後に手にすることになる。ローラーとしては、一般家庭用に市販されているものと同様の、粘着テープを巻装した回転ローラーを用いるが、後出のステップにおいてその抽出を容易にするために、例えば、粘着テープが黄色等の特定の色(作業着の色と異なる色)のものとされ、また、その回転度合の検出を可能にするために、端部に標識が付されることもある。   In addition, the roller is prepared in advance in the examination room, and the subject obtains this after entering the room. As the roller, a rotating roller wrapped with an adhesive tape similar to that commercially available for general households is used. In order to facilitate the extraction in a later step, for example, the adhesive tape is yellow or the like. Specific colors (colors different from the color of the work clothes), and in order to enable detection of the degree of rotation, a mark may be attached to the end.

フレーム処理ステップ(S4)
フレーム処理ステップ(S4)においては、画像取得手段4によって取り込まれたローラー掛けの画像を解析し、擦り判定手段9において身体の各部位ごとに擦り状態の適否の判定を行い、その判定結果をモニタ3にアバター表示すると共に、判定結果についての音声案内(例えば、「右腕が擦れていません」といった内容のもの)を流す処理が行われる。このフレーム処理ステップ(S4)の詳細については、後述する。
Frame processing step (S4)
In the frame processing step (S4), the roller image captured by the image acquisition means 4 is analyzed, and the rubbing judgment means 9 judges the suitability of the rubbing state for each part of the body, and the judgment result is monitored. In addition to displaying an avatar in 3, a voice guidance about the determination result (for example, content of “the right arm is not rubbed”) is sent. Details of the frame processing step (S4) will be described later.

なお、人物領域は、例えば、頭領域、体領域(胴部)、腕領域、足領域に部位分けされる。また、擦り状態の適否の判定結果のアバター表示は、アバター領域を分割して個別に行われ、その良否に応じて色分けして表示される。アバター領域の分割は、例えば、頭領域を上下2つに分け、また、体領域を左右に分け、そのそれぞれについて上部、中間部、下部に分ける如くして行われる(図10参照)。   The person region is divided into, for example, a head region, a body region (torso), an arm region, and a foot region. In addition, the avatar display of the determination result of the suitability of the rubbing state is performed individually by dividing the avatar area, and is displayed by color coding according to the quality. The avatar area is divided, for example, by dividing the head area into upper and lower parts, and dividing the body area into right and left parts, and dividing them into an upper part, an intermediate part, and a lower part (see FIG. 10).

ローラー掛け完了ステップ(S5)
フレーム処理ステップ(S4)において、アバター領域のすべてについて適切との判定がなされた段階でローラー掛け完了となり、例えば、「きれいに拭けました。お疲れ様でした。」といった音声が流される(S5)。
Roller completion step (S5)
In the frame processing step (S4), when it is determined that all of the avatar areas are appropriate, the roller application is completed, and for example, a sound such as “I wiped it clean. Thank you very much” is played (S5).

次いで、図3のフロー図を参照しつつ、フレーム処理ステップ(S4)の流れについて説明する。   Next, the flow of the frame processing step (S4) will be described with reference to the flowchart of FIG.

人物領域抽出ステップ(S11)
フレーム処理ステップ(S4)においては、先ず、人物・ローラー領域抽出手段6によって人物領域の抽出が行われる(ステップS11)。人物領域は、正規化距離を用いた背景差分によって求めることができる。
Person region extraction step (S11)
In the frame processing step (S4), first, the person / roller area extracting means 6 extracts a person area (step S11). The person area can be obtained from the background difference using the normalized distance.

即ち、上記のように初期設定された監視カメラ1により、検査室に入室して所定のローラーを所持した被検者の全身が収まるようにして、室内を撮影したフレーム画像(取得画像)が、画像取得手段4を介して解析装置2内に取り込まれ、このフレーム画像と、予め解析装置2の人物・ローラー領域抽出手段6に記憶されている、被検者が入室する前に撮影した室内の背景画像とが比較され、両画像から注目画素を中心としたN×Nの局所領域の輝度値を抽出する方法により、ローラーを含む人物領域を抽出することができる。なお、被検者が着用する作業着は各工場等において、白色、薄いピンク、薄いブルー等に定められているので、これを予め人物・ローラー領域抽出手段6に記憶させておき、背景差分に利用する。後述するローラーの色についても同様である。   That is, a frame image (acquired image) obtained by photographing the room so that the entire body of the subject who has entered the examination room and possesses the predetermined roller is accommodated by the monitoring camera 1 initialized as described above. This frame image is captured in the analysis device 2 via the image acquisition means 4 and stored in advance in the person / roller area extraction means 6 of the analysis device 2. The room is taken before the subject enters the room. A person region including a roller can be extracted by a method of comparing the background image and extracting the luminance value of the N × N local region centered on the target pixel from both images. The work clothes worn by the subject are determined to be white, light pink, light blue, etc. in each factory, etc., so this is stored in advance in the person / roller area extracting means 6 and used as the background difference. Use. The same applies to the color of the roller described later.

身体部位抽出ステップ(S12)
人物領域の抽出後、身体部位抽出手段7によって、指定されたローラー掛けの対象となる身体の部位が抽出されると共に(ステップS12)、人物・ローラー領域抽出手段6によって、ローラー領域が抽出される(ステップS13)。指定された身体部位の抽出ステップ(ステップS12)においては、頭領域、体領域、腕領域、足領域のいずれかが特定される。これら各領域の特定に当たっては、先ず、人物領域の横幅と縦幅が抽出され、その横幅を用いることによって頭領域(横幅大)と足領域(横幅小)とが特定され、また、縦幅を用いることによって腕領域(縦幅小)と体領域(縦幅大)とが特定される。
Body part extraction step (S12)
After the extraction of the person area, the body part extraction means 7 extracts the body part to be specified for roller application (step S12), and the person / roller area extraction means 6 extracts the roller area. (Step S13). In the specified body part extraction step (step S12), any one of the head region, the body region, the arm region, and the foot region is specified. In specifying each of these areas, first, the horizontal width and vertical width of the person area are extracted, and the head area (large horizontal width) and the foot area (low horizontal width) are specified by using the horizontal width. By using it, an arm region (small vertical width) and a body region (large vertical width) are specified.

人物領域の横幅の抽出は、背景差分によって人物領域が抽出された取得画像において、各行ごとに人物領域の横幅を求めることによって行う(図4参照)。横幅を用いて頭領域と足領域を特定するに当たっては、先ず、人物領域を上半身と下半身とに分けるための基準線を設定する。この基準線は、人物領域の縦幅の中間位置に対応するA線と、腕の最下点(体領域の横幅をチェックしていき、細くなった部分)に対応するB線の中間線とする。この基準線の体領域上における横幅を求め、その基準線よりも上の行において、基準線の横幅の3分の2以下の部分を頭領域と特定し、基準線より下の行において、基準線の横幅の3分の2以下の部分を足領域と特定する。   The extraction of the width of the person area is performed by obtaining the width of the person area for each row in the acquired image in which the person area is extracted by the background difference (see FIG. 4). In specifying the head region and the foot region using the horizontal width, first, a reference line for dividing the person region into the upper body and the lower body is set. This reference line includes an A line corresponding to the middle position of the vertical width of the person area, and an intermediate line of B line corresponding to the lowest point of the arm (the width of the body area that has been checked and narrowed). To do. The width of the reference line on the body area is obtained, and in the line above the reference line, the portion of the width of the reference line that is less than two-thirds is specified as the head area, and in the line below the reference line, the reference line is A portion that is less than two-thirds of the horizontal width of the line is identified as a foot region.

人物領域の縦幅の抽出は、各列ごとに人物領域の縦幅を求めることによって行う(図5参照)。縦幅を用いての腕領域と体領域の識別は、縦幅の最大値の5分の1以下の部分を腕領域と特定して抽出し、他の部分を体領域と特定して抽出することによって行う。   The extraction of the vertical width of the person area is performed by obtaining the vertical width of the person area for each column (see FIG. 5). The identification of the arm region and body region using the vertical width is performed by specifying a portion that is one fifth or less of the maximum value of the vertical width as the arm region and extracting the other portion as the body region. By doing.

このようにして特定される腕領域につき、長さが抽出される(図6参照)。腕領域の長さの抽出に際しては、先ず、足領域の行ごとの中点を求め、中点の平均座標を求める。次いで、体領域の横幅の半分長さから肩の点を求め、この肩の点と腕端の点とのユークリッド距離により、腕領域の長さを抽出する。また、腕領域について各列ごとの縦幅の平均値を求め、腕領域の縦幅とする。なお、腕領域の長さには、作業着からはみ出ている手の部分(ローラ掛け不要部分)も含まれているので、後述する擦り判定ステップ(S15)において、その部分を除くための補正が行われる。   The length is extracted for the arm region specified in this way (see FIG. 6). In extracting the length of the arm region, first, the midpoint of each row of the foot region is obtained, and the average coordinates of the midpoint are obtained. Next, a shoulder point is obtained from half the width of the body region, and the length of the arm region is extracted from the Euclidean distance between the shoulder point and the arm end point. Further, an average value of the vertical width of each column for the arm region is obtained and set as the vertical width of the arm region. Note that the length of the arm region includes the hand portion that protrudes from the work clothes (the portion that does not require roller application), and therefore, in the rubbing determination step (S15) described later, correction for removing the portion is performed. Done.

ローラー領域抽出ステップ(S13)
ローラー領域の抽出(ステップS13)においては、RGB情報とHSV表色系とを用い、領域ラベリングして最大面積の領域を抽出することによって、ローラー領域を抽出する処理が行われる。本件の場合、ローラーは、例えば、黄色に設定されているので、最大面積の黄色領域を以て、ローラー領域とする。
Roller area extraction step (S13)
In the extraction of the roller area (step S13), the process of extracting the roller area is performed by extracting the area of the maximum area by labeling the area using the RGB information and the HSV color system. In the present case, since the roller is set to yellow, for example, the yellow area of the maximum area is used as the roller area.

オプティカルフロー抽出ステップ(S14)
次いで、擦り判定手段9により、上記のようにして特定された人物領域の指定部位に対するローラー領域の動きから、部位ごとに擦り状態の良否が判定されるが(擦り判定ステップS15)、その良否判定に際し、ローラー領域の動きが抽出される。ローラー領域の動きの抽出は、ローラーのオプティカルフローを抽出して、ローラーの位置の変化を観察することにより行われる。即ち、取得画像中の輝度値情報の変化からローラーの動きが解析され、速度ベクトルによりローラーの動きが取得される。
Optical flow extraction step (S14)
Next, the rubbing determination means 9 determines whether the rubbing state is good or bad for each part from the movement of the roller area with respect to the specified part of the person area specified as described above (rubbing determination step S15). In doing so, the motion of the roller area is extracted. The movement of the roller area is extracted by extracting the optical flow of the roller and observing a change in the position of the roller. That is, the movement of the roller is analyzed from the change in the luminance value information in the acquired image, and the movement of the roller is acquired from the velocity vector.

擦り判定ステップ(S15)
擦り判定ステップ(S15)においては、オプティカルフローによりローラー掛けした領域が推測される。腕領域の場合におけるローラー掛けした領域の推測に際しては、擦り判定の対象となる作業着部分と、その対象とはならない手の部分とを識別し、手の部分を除くための補正が行われる(図7参照)。図7に示す例は、左腕の一半部(手側)をローラー掛けしている例であり、その場合先ず、ローラーから発生したオプティカルフローを用いて、ローラーの移動範囲におけるX、Y座標の最大値と最小値とが抽出され、ローラーの移動範囲が推測される(領域a)。
Rub determination step (S15)
In the rubbing determination step (S15), an area that is rolled by an optical flow is estimated. In the estimation of the roller area in the case of the arm region, the work wear part that is subject to rubbing determination and the hand part that is not the target are identified, and correction for removing the hand part is performed ( (See FIG. 7). The example shown in FIG. 7 is an example in which one half of the left arm (hand side) is hung with a roller. In this case, first, the optical flow generated from the roller is used to maximize the X and Y coordinates in the moving range of the roller. The value and the minimum value are extracted, and the moving range of the roller is estimated (region a).

ところで、ローラーを仮に右下方向に擦り移動させた場合でも、発生するフローには右下以外に左方向や下方向など、ノイズが少なからず含まれている。これらのノイズを含むフローから正しい移動方向を絞り込むために、本発明では、一番大きいフローの方向を擦り判定の方向として抽出する(最大値を抽出する)。フローの大きさの比較には、ベクトルの強度を用いる。なお、最小値は、この処理で削除されるため、擦り判定において使用されることはない。   By the way, even if the roller is rubbed and moved in the lower right direction, the generated flow contains not only the lower right but also a lot of noise such as the left direction and the lower direction. In order to narrow down the correct movement direction from the flow including these noises, in the present invention, the direction of the largest flow is extracted as the rubbing determination direction (maximum value is extracted). The intensity of the vector is used for the comparison of the flow sizes. Since the minimum value is deleted by this process, it is not used in the rubbing determination.

この領域a内には、擦り判定の対象とはならない手の部分が含まれているので、この部分を除いた領域bに補正される(向きでの補正)。また、領域a内には、前フレームにおける擦り判定領域(領域c)と重複する部分が含まれているので、この重複部分を除いた領域dに補正される(前フレームでの補正)。そして、領域b,dの重なり合う領域eが、擦り判定の対象領域とされ、その領域内におけるローラーの動きから擦り状態の良否が判定される。   Since the region a includes a hand portion that is not subject to rubbing determination, the region a is corrected to a region b excluding this portion (correction in orientation). In addition, since the area a includes a portion that overlaps the rubbing determination area (area c) in the previous frame, the area a is corrected to the area d excluding this overlapping portion (correction in the previous frame). A region e where the regions b and d overlap is set as a target region for rubbing determination, and the quality of the rubbing state is determined from the movement of the roller in the region.

また、取得画像と一つ前のフレーム画像との間での重なり部分を除くための補正(擦り判定の補正)が行われる。この場合、ローラーが存在する領域付近は、(t−2)→(t−1)フレームでは終点、(t−1)→(t)フレームでは始点となるため、2フレーム連続してフローが抽出されることになる。よって、実際に1度擦っただけであっても、2度擦ったという判定が行われてしまう。そこで、(t−2)→(t−1)フレーム間に発生したフロー領域と、(t−1)→(t)フレーム間に発生したフローの領域を比較し、2フレーム連続で発生しているフローの位置はダブルカウントしないという処理を入れることにより、擦り判定の補正が行われる。   In addition, correction for correcting an overlapping portion between the acquired image and the previous frame image (correction for rubbing determination) is performed. In this case, the area near the roller is the end point in the (t-2) → (t-1) frame and the start point in the (t-1) → (t) frame, so the flow is extracted continuously for two frames. Will be. Therefore, even if it is actually rubbed once, it is determined that it has been rubbed twice. Therefore, the flow area generated between (t-2) → (t-1) frames is compared with the flow area generated between (t-1) → (t) frames. The rubbing determination is corrected by adding a process that does not double-count the position of the current flow.

アバター表示ステップ(S15)
上記のようにして得られたアバターの分割領域ごとの擦り状態の判定結果が、その分割領域ごとにアバター表示される(アバター表示ステップS15)。このアバター表示に際しては、アバター画像に人物領域を反映させる処理が行われる。即ち、アバター画像における人物領域の反映は、アバター画像から背景差分で抽出した人物画像への縮尺を計算することによって行う。
Avatar display step (S15)
The determination result of the rubbing state for each divided area of the avatar obtained as described above is displayed as an avatar for each divided area (avatar display step S15). At the time of displaying the avatar, a process of reflecting the person area on the avatar image is performed. That is, the reflection of the person area in the avatar image is performed by calculating the scale of the person image extracted from the avatar image by the background difference.

具体的には、図8に示すようなアバターと画像を用いて対応点抽出の計算を行う。そこに示す例では、アバターの頭の横幅が50pxで、抽出された人物領域の頭の横幅が200pxであり、ここにおいて、アバターから任意の点(i,j)を抽出する。この任意の点(i,j)は、アバターの上端までの距離と、横端までの距離である(画像全体での距離ではなく、アバター端から求めた距離であることに注意)。求めた(i,j)を基に人物座標へ変換する場合は、下記式を用いて座標変換する。
人物領域(x,y)=アバターの任意座標(i,j)×人物領域の部位の横幅/アバターの部位の横幅
上記例の場合は、(25,25)×200/50= (100,100)となる。つまり、人物領域で(100,100)に該当する部分が、アバターの任意座標(i,j)に対応する点となる(図9参照)。身体や腕についても、その部位の横幅を用いて同様の処理を行う。
Specifically, corresponding point extraction is calculated using an avatar and an image as shown in FIG. In the example shown there, the width of the head of the avatar is 50 px, and the width of the head of the extracted person area is 200 px, and here, an arbitrary point (i, j) is extracted from the avatar. This arbitrary point (i, j) is the distance to the upper end of the avatar and the distance to the lateral end (note that it is the distance obtained from the end of the avatar, not the distance of the entire image). When converting to human coordinates based on the obtained (i, j), the coordinates are converted using the following equation.
Person area (x, y) = arbitrary coordinates of avatar (i, j) × horizontal width of a person area part / horizontal width of avatar part In the above example, (25,25) × 200/50 = (100,100 ) That is, the portion corresponding to (100, 100) in the person region is a point corresponding to the arbitrary coordinates (i, j) of the avatar (see FIG. 9). The same processing is performed on the body and arm using the width of the part.

この手法は、比率によって長さが変化することが特徴となるもので、この手法によれば、人物が画像全体に対して大きい場合であっても、小さい場合であっても、反映を行うことが可能となる。そして、アバターでの任意の画素と、人物領域に変換した座標とを対応付けすることにより、人物領域におけるある点について擦り判定が行われた場合、それをアバター側における対応画素に反映させることが可能となる。この反映点の計算は、アバターでの身体領域の全画素に対して行われる。   This method is characterized in that the length changes depending on the ratio. According to this method, reflection is performed regardless of whether the person is large or small relative to the entire image. Is possible. Then, by associating an arbitrary pixel in the avatar with the coordinate converted into the person area, if a rubbing determination is made for a certain point in the person area, it can be reflected in the corresponding pixel on the avatar side. It becomes possible. The calculation of the reflection point is performed for all the pixels of the body area in the avatar.

擦り判定の評価は、上記アバターの分割領域ごとに行われ、その評価は、その分割領域面積と擦り判定面積とを求め、各分割領域ごとに擦り判定の割合を求めることにより行われる。例えば、擦り判定の割合は、次式から求める。
分割領域中の擦り判定面積/分割領域面積×100≧80
そして、アバター表示は、判定結果に応じて色分けして行われる(図10参照)。例えば、ローラー掛けが1回の場合は青色、2回の場合は水色、3回の場合は黄色、4回の場合は緑色、擦り完了の場合は赤色で表示される。
The evaluation of rubbing determination is performed for each divided area of the avatar, and the evaluation is performed by calculating the divided area area and the rubbing determination area, and determining the ratio of rubbing determination for each divided area. For example, the ratio of rubbing determination is obtained from the following equation.
Rubbing judgment area in divided area / divided area area × 100 ≧ 80
And avatar display is performed according to a color according to a determination result (refer FIG. 10). For example, when the roller is applied once, it is displayed in blue, when it is twice, light blue, when it is three, green when it is four, and red when it is completed.

本発明に係るクリーンルーム入室者の清浄度管理方法及び管理システムは上記のとおり、被検者の人物領域とローラー領域とを抽出し、人物領域の各身体部位に対するローラーの相対的動きをオプティカルフローによって取得して解析することにより、ローラー掛けが適切に行われたか否かを判定することを骨子とするものであり、この方法及びシステムによれば、シンプルな構成にて、クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを自動的に容易に判定することができ、以て、クリーンルーム入室者の清浄度を適切に管理することができるものであって、産業上の利用可能性は大である。   As described above, the clean room resident cleanliness management method and management system according to the present invention extracts the person area and the roller area of the subject, and the relative movement of the roller with respect to each body part of the person area by optical flow. It is essential to determine whether or not the roller hanging has been properly performed by acquiring and analyzing.According to this method and system, the person who is a clean room occupant with a simple configuration is used. The examiner can automatically and easily determine whether or not the roller has been properly hung in the examination room before entering the room, so that the cleanliness of the clean room entry person can be appropriately managed. Therefore, industrial applicability is great.

1 撮影手段
2 解析装置
3 モニタ
4 画像取得手段
5 被検者特定手段
6 人物・ローラー領域抽出手段
7 身体部位抽出手段
8 オプティカルフロー抽出手段
9 擦り判定手段
10 表示手段
DESCRIPTION OF SYMBOLS 1 Imaging | photography means 2 Analyzing apparatus 3 Monitor 4 Image acquisition means 5 Subject identification means 6 Person / roller area extraction means 7 Body part extraction means 8 Optical flow extraction means 9 Rub determination means
10 Display means

Claims (5)

クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを画像処理によって判定することにより、クリーンルーム入室者の清浄度を管理するための方法であって、
前記検査室において撮影された被検者を含む取得画像と背景画像とを比較することによる背景差分によって、前記被検者の人物領域と前記被検者が手にするローラーの領域とを抽出することと、
前記人物領域の各部位に対する前記ローラーの動きをオプティカルフローによって取得して解析し、ローラーの動きが所定の範囲のものであるか否かにより、ローラー掛けが適切に行われたか否かを判定することと、
を含むことを特徴とするクリーンルーム入室者の清浄度管理方法。
It is a method for managing the cleanliness of a clean room occupant by determining whether or not a subject who is a clean room entrant has appropriately performed roller hanging in the examination room before entering the room,
The person area of the subject and the area of the roller held by the subject are extracted by background difference by comparing the acquired image including the subject photographed in the examination room and the background image. And
The movement of the roller with respect to each part of the person area is acquired and analyzed by optical flow, and it is determined whether or not the roller is properly applied depending on whether or not the movement of the roller is within a predetermined range. And
The cleanliness management method of the clean room resident characterized by including this.
更に、前記ローラー掛けの判定結果を反映したアバター表示を行うことを含む、請求項1に記載のクリーンルーム入室者の清浄度管理方法。   Furthermore, the cleanliness management method of the clean room occupant of Claim 1 including performing the avatar display which reflected the determination result of the said roller hanging. クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを画像処理によって判定することにより、クリーンルーム入室者の清浄度を管理するための方法であって、
前記検査室においてローラーを所持する被検者を撮影して当該被検者を含む画像を取得するための監視カメラの位置設定を行う初期設定ステップと、
前記監視カメラによる取得画像から被検者を特定する被検者特定ステップと、
前記被検者にローラー掛けを開始させるローラー掛け開始ステップと、
前記取得画像と背景画像との比較から前記被検者の人物領域を抽出する人物領域抽出ステップと、
前記取得画像からローラー領域を抽出するローラー領域抽出ステップと、
抽出された前記人物領域から、身体の部位を抽出する部位抽出ステップと、
抽出された前記人物領域の部位ごとに前記ローラーのオプティカルフローを抽出するオプティカルフローの抽出ステップと、
抽出された前記オプティカルフローから、前記部位ごとに擦り状態の良否を判定する擦り判定ステップと、
を含むことを特徴とするクリーンルーム入室者の清浄度管理方法。
It is a method for managing the cleanliness of a clean room occupant by determining whether or not a subject who is a clean room entrant has appropriately performed roller hanging in the examination room before entering the room,
An initial setting step for setting the position of a monitoring camera for photographing a subject having a roller in the examination room and acquiring an image including the subject;
A subject identification step for identifying a subject from an acquired image by the monitoring camera;
Rolling start step for causing the subject to start rolling,
A person area extracting step of extracting the person area of the subject from a comparison between the acquired image and a background image;
A roller region extraction step for extracting a roller region from the acquired image;
A part extracting step of extracting a body part from the extracted person region;
An optical flow extraction step of extracting the optical flow of the roller for each portion of the extracted person region;
From the extracted optical flow, a rubbing determination step for determining the quality of the rubbing state for each part,
The cleanliness management method of the clean room resident characterized by including this.
更に、前記擦り状態の判定結果を反映したアバター表示を行うアバター表示ステップを含む、請求項3に記載のクリーンルーム入室者の清浄度管理方法。   Furthermore, the cleanliness management method of the clean room occupant of Claim 3 including the avatar display step which performs the avatar display which reflected the determination result of the said rubbing state. クリーンルーム入室者である被検者が、入室前に検査室においてローラー掛けを適切に行ったか否かを画像処理によって判定することにより、クリーンルーム入室者の清浄度を管理するためのシステムであって、
前記検査室においてローラーを所持する被検者を撮影するための撮影手段と、前記撮影手段によって撮影された前記被検者の人物画像から当該被検者を特定すると共に、前記人物画像を解析して、身体の部位ごとに前記ローラーによる擦り状態の良否を判定する解析装置と、前記解析装置による解析結果をアバター表示するモニタとから成り、
前記解析装置は、前記撮影手段によって撮影された前記被検者の人物画像を取り込む画像取得手段と、前記人物画像から被検者を特定する被検者特定手段と、前記人物画像から前記被検者の人物領域及び前記ローラーのローラー領域とを抽出する人物・ローラー領域抽出手段と、抽出された前記人物領域から身体部位を抽出する身体部位抽出手段と、前記人物領域における前記ローラーのオプティカルフローを前記部位ごとに抽出するオプティカルフロー抽出手段と、抽出された前記オプティカルフローからローラー掛けの良否を判定する擦り判定手段と、前記擦り判定手段による判定結果を前記モニタにアバタ表示させる表示手段とから成ることを特徴とするクリーンルーム入室者の清浄度管理システム。
It is a system for managing the cleanliness of clean room occupants by determining whether or not a subject who is a clean room entrant has appropriately performed roller hanging in the examination room before entering the room,
An imaging unit for imaging a subject having a roller in the examination room, and specifying the subject from the person image of the subject imaged by the imaging unit, and analyzing the person image And an analysis device for determining the quality of the rubbing state by the roller for each body part, and a monitor for displaying an analysis result by the analysis device as an avatar,
The analysis device includes an image acquisition unit that captures a person image of the subject photographed by the photographing unit, a subject identification unit that identifies a subject from the person image, and the subject from the person image. A person / roller area extracting means for extracting a person's person area and a roller area of the roller; a body part extracting means for extracting a body part from the extracted person area; and an optical flow of the roller in the person area. Optical flow extraction means for extracting each part, rubbing judgment means for judging whether or not the roller application is good from the extracted optical flow, and display means for displaying the judgment result by the rubbing judgment means on the monitor as an avatar A cleanliness management system for cleanroom residents.
JP2016130004A 2016-06-30 2016-06-30 Clean room resident cleanliness management method and management system Active JP6302007B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016130004A JP6302007B2 (en) 2016-06-30 2016-06-30 Clean room resident cleanliness management method and management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016130004A JP6302007B2 (en) 2016-06-30 2016-06-30 Clean room resident cleanliness management method and management system

Publications (2)

Publication Number Publication Date
JP2018005464A true JP2018005464A (en) 2018-01-11
JP6302007B2 JP6302007B2 (en) 2018-03-28

Family

ID=60949128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016130004A Active JP6302007B2 (en) 2016-06-30 2016-06-30 Clean room resident cleanliness management method and management system

Country Status (1)

Country Link
JP (1) JP6302007B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363114A (en) * 2019-06-28 2019-10-22 深圳市中电数通智慧安全科技股份有限公司 A kind of person works' condition detection method, device and terminal device
JP7271777B1 (en) 2022-09-27 2023-05-11 株式会社Avilen Program, method, work management device, and work management system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463792B2 (en) 2020-03-24 2024-04-09 大日本印刷株式会社 Information processing system, information processing device, and information processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020193A (en) * 1998-06-29 2000-01-21 Toshiba Corp Method and unit for virtual body control and record medium
WO2010095204A1 (en) * 2009-02-18 2010-08-26 株式会社 東芝 Interface controller and method thereof
JP2015153049A (en) * 2014-02-13 2015-08-24 株式会社ミディー Hospital infection prevention support device, hospital infection prevention support method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020193A (en) * 1998-06-29 2000-01-21 Toshiba Corp Method and unit for virtual body control and record medium
WO2010095204A1 (en) * 2009-02-18 2010-08-26 株式会社 東芝 Interface controller and method thereof
JP2015153049A (en) * 2014-02-13 2015-08-24 株式会社ミディー Hospital infection prevention support device, hospital infection prevention support method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
東 秀賢,外2名: "映像解析技術を用いた手洗い検査システムの開発", 第8回データ工学と情報マネジメントに関するフォーラム (第14回日本データベース学会年次大会), JPN6018005232, 2016, JP *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363114A (en) * 2019-06-28 2019-10-22 深圳市中电数通智慧安全科技股份有限公司 A kind of person works' condition detection method, device and terminal device
JP7271777B1 (en) 2022-09-27 2023-05-11 株式会社Avilen Program, method, work management device, and work management system
JP2024047930A (en) * 2022-09-27 2024-04-08 株式会社Avilen Program, method, work management device, and work management system

Also Published As

Publication number Publication date
JP6302007B2 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
Ng et al. Measuring gait variables using computer vision to assess mobility and fall risk in older adults with dementia
Stone et al. Unobtrusive, continuous, in-home gait measurement using the Microsoft Kinect
US9992409B2 (en) Digital mirror apparatus
JP6302007B2 (en) Clean room resident cleanliness management method and management system
JP6481400B2 (en) Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device
Datcu et al. Noncontact automatic heart rate analysis in visible spectrum by specific face regions
JP2013017631A (en) Hand washing monitor and method for monitoring hand washing
JP2017093760A (en) Device and method for measuring periodic variation interlocking with heart beat
KR20120017948A (en) Rehabilitation device using motion analysis based on motion capture and method thereof
JP2017134712A (en) Hand-wash monitoring system
US11450148B2 (en) Movement monitoring system
US20150130841A1 (en) Methods and computing devices to measure musculoskeletal movement deficiencies
JP3575979B2 (en) Cared person observation device and method
Szankin et al. Long distance vital signs monitoring with person identification for smart home solutions
Huang et al. Agile mobile robotic platform for contactless vital signs monitoring
JP2021505264A (en) Devices, systems and methods for detecting a patient's physical activity
KR101893588B1 (en) Smart Teacher System for Comprising Workers-Managing Function which Includes Attendence Management and Managing Method thereof
WO2021234972A1 (en) Handwashing recognition system and handwashing recognition method
CN112438723A (en) Cognitive function evaluation method, cognitive function evaluation device, and storage medium
JP7463792B2 (en) Information processing system, information processing device, and information processing method
Rafiqi et al. Work-in-progress, PupilWare-M: Cognitive load estimation using unmodified smartphone cameras
Medina-Quero et al. Computer vision-based gait velocity from non-obtrusive thermal vision sensors
Rajan Virtual dressing room with web deployment
Romaniszyn et al. Video-based time assessment in 360 degrees turn Berg balance test
Srisomboon et al. Hand hygiene auditing algorithm using image processing for hand hygiene evaluation machine

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180301

R150 Certificate of patent or registration of utility model

Ref document number: 6302007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250