JP7164135B2 - Information processing device, evaluation system, machine learning device, information processing method, and program - Google Patents
Information processing device, evaluation system, machine learning device, information processing method, and program Download PDFInfo
- Publication number
- JP7164135B2 JP7164135B2 JP2021533187A JP2021533187A JP7164135B2 JP 7164135 B2 JP7164135 B2 JP 7164135B2 JP 2021533187 A JP2021533187 A JP 2021533187A JP 2021533187 A JP2021533187 A JP 2021533187A JP 7164135 B2 JP7164135 B2 JP 7164135B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- nail
- image data
- information processing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Description
本発明は、爪の状態を検査する技術に関する。 The present invention relates to a technique for inspecting the condition of nails.
人間の手の爪は日々伸び続け、定期的に切りそろえる必要がある。伸びきった爪には内側に汚れがたまりやすいことから、食品の製造現場や医療現場等では、常に適切な長さまで切りそろえられていることが求められる。また、つけ爪やマニキュア等のネイルアートが施された爪も、清潔面や異物混入の面、医療現場では感染リスクの面で、好ましくない。 Human fingernails grow daily and need to be trimmed regularly. Dirt tends to accumulate on the inside of overgrown nails, so it is required that nails are always trimmed to an appropriate length at food manufacturing sites and medical sites. In addition, false nails and nails with nail art such as manicure are not preferable in terms of cleanliness, contamination, and risk of infection in the medical field.
これらの状態を防ぐためには、熱心な指導により一人ひとりの身だしなみへの心がけを正すことや、部屋への入退出時に、他人にダブルチェックしてもらうルールを徹底する等の方法がとられてきた。しかしながら、この方法では人為的なミスを防ぎきることはできず、また、他人にダブルチェックしてもらう際には周囲の人の作業を止めてチェックしてもらう必要があり、作業効率の面でも問題があった。 In order to prevent these situations, methods have been taken such as encouraging each person to take care of their personal appearance through enthusiastic guidance, and thoroughly enforcing the rule of having others double-check when entering and leaving a room. However, this method cannot completely prevent human error, and it is necessary to stop the work of the surrounding people and have them check it when another person double-checks it. I had a problem.
本発明は上記した課題を解決するためになされたものであり、人の目視確認を介さず簡便に爪状態可否を判定することのできる、爪の状態を検査する技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide a technique for inspecting the state of a nail, which can easily determine whether the state of the nail is acceptable without human visual confirmation. do.
特許文献1に記載された技術によれば、測定された手の3次元形状に基づき、推奨するスポーツ用手保護具を選択することができる。しかしながら、人の目視確認を介さず簡便に爪状態可否を判定することについて解決する技術は存在しなかった。
According to the technique described in
上記課題を解決するため、本発明の一態様に係る情報処理装置は、爪を被写体として含む画像データを取得する取得部と、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、を備えた構成である。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes an acquisition unit that acquires image data including a nail as a subject; and an evaluation unit that generates information indicating an evaluation result by evaluating the sanitary condition.
本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The information processing apparatus according to each aspect of the present invention may be implemented by a computer. In this case, the information processing apparatus is implemented by the computer by operating the computer as each part (software element) provided in the information processing apparatus. A control program for an information processing apparatus realized by a computer and a computer-readable recording medium recording it are also included in the scope of the present invention.
本発明によれば、人の目視確認を介さず簡便に爪状態可否を判定することのできる技術を提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a technique capable of easily determining whether a nail condition is acceptable or not without human visual confirmation.
〔実施形態1〕
以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態と称する)について、詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号を付している。[Embodiment 1]
EMBODIMENT OF THE INVENTION Hereinafter, with reference to an accompanying drawing, the form (henceforth an embodiment) for implementing this invention is demonstrated in detail. The same numbers are given to the same elements throughout the description of the embodiment.
(実施形態1の構成)
図1に示すように、本実施形態1に係る爪の状態検査装置(評価システム)1は、少なくとも、撮像装置10と、演算装置(情報処理装置)20と、入出力装置30と、をハードウエア資源として備え、前記演算装置(情報処理装置)20は学習済みニューラルネットワーク(評価モデル)21を備える。(Configuration of Embodiment 1)
As shown in FIG. 1, a nail condition inspection device (evaluation system) 1 according to the first embodiment includes at least an
演算装置(情報処理装置)20と入出力装置30は、例えば、スタンドアローン構成のコンピュータ(例えば、パソコン(Personal Computer)等)や、サーバとコンピュータを組み合わせたオンライン構成のもので実現可能である。
The arithmetic device (information processing device) 20 and the input/
爪の状態検査装置(評価システム)1は、あらゆる目的での判定に使用できるが、特に前記判定により、部屋(屋内)Rへの人の入退場可否を判定することに使用できる。さらに、部屋(屋内)Rが手の衛生的状態が求められる、食品の製造現場や医療現場であると好適であり、特に食品工場の部屋(屋内)Rまたは食品加工場Rが特に好適である。 The nail condition inspection device (evaluation system) 1 can be used for determination for any purpose, and can be used particularly for determining whether or not a person can enter or leave the room (indoor) R by the above determination. Furthermore, it is preferable that the room (indoor) R is a food manufacturing site or a medical site where hand hygiene is required, and a room (indoor) R of a food factory or a food processing plant R is particularly preferable. .
演算装置(情報処理装置)20は、人の手の画像Hで学習された学習済みニューラルネットワーク(評価モデル)21を備える。人の手の画像Hは、撮像装置10で得られたものでもよいし、またその他の撮像装置を用いたものでもよいが、画角・色調などの観点から、撮像装置10と同じ構成の撮像装置から得られたものが好ましい。また、人の手の画像は、爪を検査するため、少なくとも人の手の甲側の画像を含む。
The computing device (information processing device) 20 includes a trained neural network (evaluation model) 21 trained with an image H of a human hand. The image H of the human hand may be obtained by the
前記学習済みニューラルネットワーク(評価モデル)21は、爪の長さや爪全体の色調等といった爪の情報と、目視による判定結果情報により学習されていることができ、これにより、被検者Pの手の甲側の画像から、爪の状態を判定することができる。 The learned neural network (evaluation model) 21 can be learned from nail information such as the length of the nail and the color tone of the entire nail, and judgment result information by visual observation. From the side image, the condition of the nail can be determined.
また前記学習済みニューラルネットワーク(評価モデル)21は、前記爪全体の色調をもとに学習することで、爪に付着物があるかを判別できるようにすることができる。付着物とは例えば、ネイルアートのことをいい、スカルプ、ネイルチップ、ラインストーンの設置、マニキュア、ジェル等が挙げられる。 Further, the learned neural network (evaluation model) 21 can learn based on the color tone of the nail as a whole, so that it is possible to determine whether or not there is a deposit on the nail. Examples of attachments include nail art, scalps, nail tips, installation of rhinestones, manicures, gels, and the like.
入出力装置30は、ディスプレイ、表示灯、ブザーなどの音響機器などの出力機器(出力装置)を用いることができる。またさらに、マウス、キーボード、タッチパネル、などの入力機器を備えてもよい。
The input/
図2に示すように、本実施形態に係る撮像部(撮像装置)10は、上部に撮像機器101が設置され、下部に底面103が設置され、さらに遮光壁102を有することができる。前記底面103は、単色であると好ましい。遮光壁102と底面103とは、外からの光が底面103にあたりにくいよう連続体として構成することもできる。またさらに、後述する図10に示すように、天面104を加えて連続体として構成された箱体である撮像ボックス105として構成することもでき、手を入れる一面を除いて他の面からの光の侵入を防止し、部屋(屋内)の入退場口に設置されることもできる。被検者Pは前記撮像装置に自分の手の甲を上にした状態で差し入れ、画像を取得することができる。
As shown in FIG. 2, an imaging unit (imaging device) 10 according to the present embodiment has an
図3に、爪の状態検査装置(評価システム)1がスタンドアローン構成の場合の構成例を示す。この場合、演算装置(情報処理装置)20及び入出力装置30は1台のパソコンとして構成されてもよい。被検者Pは撮像装置10により手の画像H(後述する図7参照)を取得し、演算装置(情報処理装置)20に手の画像Hを送信する。演算装置20は学習済みニューラルネットワーク(評価モデル)21により、前記手の画像Hを判定する。判定の結果を入出力装置30に出力することができてもよい。
FIG. 3 shows a configuration example in which the nail condition inspection device (evaluation system) 1 has a stand-alone configuration. In this case, the computing device (information processing device) 20 and the input/
管理者Sは前記パソコンにより、保存された被検者Pの情報を確認することができてもよい。その際、被検者Pの社員コード等個人に一意に設定された情報に紐づき、別途測定または入力した、被検者Pの体調の情報、例えば体温や吐息のアルコール情報、傷の有無、髪の毛が帽子から出ていないか等の情報を一覧で表示することができてもよい。 The administrator S may be able to confirm the stored information of the subject P using the personal computer. At that time, information on the physical condition of the subject P, such as body temperature, breath alcohol information, whether or not there is a wound, is linked to information uniquely set for the individual, such as the employee code of the subject P. Information such as whether or not the hair is sticking out of the hat may be displayed in a list form.
図4に、入退場検査装置(評価システム)1がオンライン構成の場合の構成例を示す。この場合、被検者Pと管理者Sは別々の入出力装置30を用いることができてもよい。被検者Pは撮像装置10により手の画像H(後述する図7参照)を取得し、演算装置(情報処理装置)20に手の画像Hを送信する。演算装置(情報処理装置)20は学習済みニューラルネットワーク(評価モデル)21により、前記手の画像Hを判定する。判定の結果を被検者側及び/または管理者側の入出力装置30に出力することができてもよい。
FIG. 4 shows a configuration example in which the entrance/exit inspection device (evaluation system) 1 has an online configuration. In this case, the subject P and the administrator S may be able to use separate input/
管理者Sは管理者側の入出力装置を用い、保存された被検者Pの情報を確認することができてもよい。その際、被検者Pの社員コード等個人に一意に設定された情報に紐づき、別途測定または入力した、被検者Pの体調の情報、例えば、体温や吐息のアルコール情報、傷の有無、髪の毛が帽子から出ていないか等の情報を一覧で表示することができてもよい。 The administrator S may be able to check the stored information on the subject P using the input/output device on the administrator side. At that time, information on the physical condition of the subject P, such as body temperature, breath alcohol information, and whether or not there is a wound, is linked to the information uniquely set for the individual, such as the employee code of the subject P, and is separately measured or input. , whether or not the hair is sticking out of the hat, etc., may be displayed in a list form.
〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。[Embodiment 2]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as the members described in the first embodiment are denoted by the same reference numerals, and description thereof will not be repeated.
(評価システム1aの構成)
本発明の実施形態2に係る評価システム1aについて、図5を参照して説明する。図5は、評価システム1aの構成を表す図である。(Configuration of evaluation system 1a)
An evaluation system 1a according to
評価システム1aは、爪の長さに基づく衛生状態を評価するためのシステムである。評価システム1aは、図5に示すように、撮像装置10aと、情報処理装置20aと、出力装置30aと、機械学習装置40と、を備えている。入出力装置30は、特許請求の範囲に記載した出力装置の一例である。情報処理装置20aは、撮像装置10a、機械学習装置40、及び出力装置30aのそれぞれと通信可能に接続される。
Evaluation system 1a is a system for evaluating hygiene based on nail length. The evaluation system 1a includes an
撮像装置10aは、爪を含む人体の部位を撮像して、爪を被写体として含む画像データ(以下、単に「画像データ」という場合がある。)を生成するための装置である。撮像装置10aは、撮像ボックス105を備えている点が、実施形態1における撮像装置10と少なくとも異なる。撮像装置10aの構成の詳細については、参照する図面を代えて後述する。出力装置30aは、実施形態1における入出力装置30に含まれる出力機器である。
The
情報処理装置20aは、学習済みニューラルネットワーク21(図1)の代わりに、第1の評価モデル21a及び第2の評価モデル21bを用いる点が、実施形態1における演算装置(情報処理装置)20と少なくとも異なる。情報処理装置20aは、情報処理方法M1を実施するための装置である。情報処理方法M1は、撮像装置10aから提供された画像データに基づき、第1の評価モデル21a及び第2の評価モデル21bを用いて爪の衛生状態を評価する方法である。情報処理装置20aの構成及び情報処理方法M1の流れの詳細については、参照する図面を代えて後述する。
The
ここで、第1の評価モデル21a及び第2の評価モデル21bとしては、それぞれ、例えば、CNN(Convolution Neural Network)、GAN(Generative Adversarial Network)等といった、ニューラルネットワークを利用した機械学習アルゴリズムを用いることができる。また、第1の評価モデル21a及び第2の評価モデル21bとしては、サポートベクタマシン、ランダムフォレスト、勾配ブースティング・ツリー等といった、ニューラルネットワークを利用しない機械学習アルゴリズムを用いることができる。ただし、第1の評価モデル21a及び第2の評価モデル21bをそれぞれ実現するアルゴリズムは、上述したものに限られない。また、第1の評価モデル21a及び第2の評価モデル21bをそれぞれ実現するアルゴリズムは、同一であってもよいし、異なっていてもよい。
Here, as the
第1の評価モデル21aは、画像データを入力として、爪の長さに基づく衛生状態の評価結果を示す第1情報を出力するよう機械学習により構築される。ここで、「爪の長さ」は、例えば、爪先の長さである。「爪先」は、爪床から出て白く見える部分であり、爪先の長さは、爪の黄線から爪の先端までの長さに相当する。なお、「黄線」は、爪甲と爪先との境界であり、「爪甲」は、爪床の上にある爪の領域であり、「爪床」は、爪甲の下にある皮下組織である。ただし、第1の評価モデル21aは、爪の長さ(例えば、上述した爪先の長さ)自体を正解データとして機械学習されるものではない。第1の評価モデル21aは、評価者が爪の長さ(例えば、上述した爪先の長さ)の観点から衛生状態を評価した評価結果を正解データとして機械学習により構築される。なお、「爪の長さ」とは、上述した爪先の長さに限定されない。例えば、「爪の長さ」とは、爪全体の長さであってもよいし、爪全体の長さに対する爪先の長さの割合であってもよい。また、「爪の長さ」とは、爪先の長さ、爪全体の長さ、爪全体の長さに対する爪先の長さの割合、及びその他の観点の一部または全てを含む総合的な観点であってもよい。この場合、第1の評価モデル21aは、評価者が爪の長さの総合的な観点から衛生状態を評価した評価結果を正解データとして機械学習により構築される。第1の評価モデル21aを機械学習により構築する方法については後述する。
The
第2の評価モデル21bは、画像データを入力として、爪の色に基づく衛生状態の評価結果を示す第2情報を出力するよう機械学習により構築される。ここで、「爪の色」は、爪の色調、色相等である。また、「爪の色」は、少なくとも爪の一部の色であればよいが、衛生上の観点から、爪全体の色であることが好ましい。第2の評価モデル21bを機械学習により構築する方法については後述する。
The
第1の評価モデル21aの入力である爪を被写体として含む画像データと第1の評価モデル21aの出力である爪の長さに基づく衛生状態との間には、関係式として明示的に特定することは困難であるものの、一定の関係があることが知られている。同様に、第2の評価モデル21bの入力である爪を被写体として含む画像データと第2の評価モデル21bの出力である爪の色に基づく衛生状態との間にも、一定の関係があることが知られている。したがって、爪を被写体として含む画像データを入力とする第1の評価モデル21aを用いれば、爪の長さに基づく衛生状態を精度良く評価することができる。また、爪を被写体として含む画像データを入力とする第2の評価モデル21bを用いれば、爪の色に基づく衛生状態を精度良く評価することができる。
The relationship between the image data including the nail as the subject, which is the input of the
機械学習装置40は、機械学習方法M2を実施するための装置である。機械学習方法M2は、学習用の画像データを用いて学習用データセットを作成すると共に、学習用データデータセットを用いた機械学習によって第1の評価モデル21a及び第2の評価モデル21bを構築するための方法である。機械学習装置40の構成及び機械学習方法M2の流れの詳細については、参照する図面を代えて後述する。
The
評価システム1aは、準備フェーズと試用フェーズとを経て実用フェーズに至る。準備フェーズ、試用フェーズ、及び実用フェーズについて、その内容を簡単に説明すれば、以下のとおりである。 The evaluation system 1a goes through a preparation phase, a trial phase, and then a practical use phase. A brief description of the contents of the preparation phase, the trial phase, and the practical use phase is as follows.
(1)準備フェーズ
準備フェーズは、機械学習装置40が第1の評価モデル21a及び第2の評価モデル21bを構築するフェーズである。準備フェーズにおいては、評価者が、複数の学習用の画像データの各々に被写体として含まれる爪に対して、爪の長さに基づく評価及び爪の色に基づく評価を行う。機械学習装置40は、各学習用の画像データに対して評価者による評価結果をラベル付けした教師データからなる学習用データセットを生成し、学習用データセットを用いた機械学習によって第1の評価モデル21a及び第2の評価モデル21bを構築する。構築された第1の評価モデル21a及び第2の評価モデル21bは、機械学習装置40から情報処理装置20aに転送される。(1) Preparation Phase In the preparation phase, the
(2)試用フェーズ
試用フェーズにおいては、評価システム1aは、屋内(例えば、食品工場の部屋等の部屋)の入口に設置される。屋内に入場すべき作業者が手の爪を撮像装置10aの撮像ボックス105(後述する図10参照)に差し入れると、情報処理装置20aは、爪を被写体として含む画像データを撮像装置10aから取得して、当該爪の衛生状態の評価を行う。試用フェーズにおいて、評価者は、情報処理装置20aが評価対象とした画像データに対して、爪の長さに基づく評価及び爪の色に基づく評価を行う。評価者による評価は、情報処理装置20aによる評価が行われる度に行われてもよいし、情報処理装置20aによる評価が所定の期間(例えば、1週間、1ヶ月、または1年など)または所定回数(例えば、100回、1000回、または10000回など)実施された後にまとめて実施されてもよい。評価者は、当該評価者による評価結果と、情報処理装置20aによる評価結果とを比較し、情報処理装置20aの評価精度を評価する。評価精度が不十分である場合には、準備フェーズに戻る。評価精度が十分である場合には、実用フェーズに進む。なお、評価精度の確認は、準備フェーズが終了した段階で、学習用データセットの一部を利用して行ってもよい。この場合、試用フェーズを省略することができる。(2) Trial Phase In the trial phase, the evaluation system 1a is installed at the entrance of a room (for example, a room such as a room in a food factory). When a worker who should enter the room inserts his/her fingernail into the imaging box 105 (see FIG. 10 described later) of the
(3)実用フェーズ
実用フェーズにおいては、情報処理装置20aが爪の長さ及び色に基づく爪の衛生状態の評価を行う。実用フェーズにおいて情報処理装置20aが用いる第1の評価モデル21a及び第2の評価モデル21bは、試用フェーズにおいて十分な推定精度を有することを確かめられたものである。実用フェーズにおいては、食品工場の部屋に被検者が入場する際に、目視による爪の長さ及び色に基づく衛生状態の評価を省略することができる。このため、爪の長さ及び色に基づく衛生状態の評価の手間から被検者を解放すると共に、人の目視確認を介さず簡便に、且つ精度良く爪の長さ及び色に基づく衛生状態の評価を行うことが可能になる。(3) Practical Phase In the practical phase, the
(情報処理装置20aの構成)
情報処理装置20aの構成について、図5を参照して説明する。情報処理装置20aは、制御部22及び記憶部23を備えている。制御部22は、情報処理装置20aを統括的に制御する。情報処理装置20aにおいて、制御部22は、取得部221及び評価部222を含む。取得部221は、情報処理方法M1の取得ステップM11を実行する。評価部222は、情報処理方法M1の評価ステップM12及び出力ステップM13を実行する。情報処理方法M1の流れの詳細については後述する。記憶部23には、第1の評価モデル21a及び第2の評価モデル21bが格納されている。(Configuration of
The configuration of the
(情報処理方法M1の流れ)
情報処理方法M1の流れについて、図6を参照して説明する。図6は、情報処理方法M1の流れを示すフローチャートである。(Flow of information processing method M1)
The flow of the information processing method M1 will be described with reference to FIG. FIG. 6 is a flow chart showing the flow of the information processing method M1.
情報処理方法M1は、取得ステップM11と、評価ステップM12と、出力ステップM13と、を含んでいる。 The information processing method M1 includes an acquisition step M11, an evaluation step M12, and an output step M13.
(取得ステップM11)
取得ステップM11は、取得部221が、爪を被写体として含む画像データを取得するステップである。取得ステップM11において、取得部221は、撮像装置10aが生成した爪を被写体として含む画像データを取得する。(Acquisition step M11)
Acquisition step M11 is a step in which the
(評価ステップM12)
評価ステップM12は、評価部222が、第1の評価モデル21a及び第2の評価モデル21bを用いて爪の長さ及び色に基づく衛生状態を評価するステップである。評価ステップM12において、評価部222は、取得部221が取得した画像データに含まれている少なくとも2本以上の指の爪の領域に基づいて、爪の衛生状態を評価する。具体的には、評価部222は、取得部221が取得した爪を被写体として含む画像データを第1の評価モデル21aに入力し、第1の評価モデル21aから出力される第1情報を取得する。また、評価部222は、取得部221が取得した爪を被写体として含む画像データを第2の評価モデル21bに入力し、第2の評価モデル21bから出力される第2情報を取得する。また、評価部222は、第1情報および第2情報に基づいて、評価結果を示す情報を生成する。なお、評価部222は、評価結果を示す情報を記憶部23に書き込む。(Evaluation step M12)
The evaluation step M12 is a step in which the
図7は、評価ステップM12の処理の一例を説明する模式図である。例えば、評価ステップM12は、部分画像データの抽出処理と、第1の評価処理と、第2の評価処理と、評価結果を示す情報の生成処理とを含む。図7を参照して、これらの処理について説明する。 FIG. 7 is a schematic diagram illustrating an example of the processing of the evaluation step M12. For example, the evaluation step M12 includes a process of extracting partial image data, a first evaluation process, a second evaluation process, and a process of generating information indicating evaluation results. These processes will be described with reference to FIG.
(部分画像データの抽出処理)
評価部222は、取得部221が取得した爪を被写体として含む画像データHから、5本の指それぞれの「爪」の領域を、部分画像データIMG-1、IMG-2、IMG-3、IMG-4、IMG-5として抽出する。部分画像データIMG-1は親指の爪の領域であり、部分画像データIMG-2は人差し指の爪の領域であり、部分画像データIMG-3は中指の爪の領域であり、部分画像データIMG-4は薬指の爪の領域であり、部分画像データIMG-5は小指の爪の領域である。以降、部分画像データIMG1~IMG5のそれぞれを特に区別する必要が無い場合には、単に部分画像データIMG-i(i=1,2,3,4,5)とも記載する。換言すると、部分画像データIMG-iは、1つの爪を被写体として含む。(Extraction processing of partial image data)
The
なお、画像データから爪の領域を抽出する手法としては、公知の物体検出アルゴリズムを用いることができる。そのような物体検出アルゴリズムの一例として、YOLO V3(You Only Look Once V3)、MASK R-CNN(MASK Regions with CNN features)等が挙げられるが、これらに限られない。 A known object detection algorithm can be used as a method for extracting the nail region from the image data. Examples of such object detection algorithms include, but are not limited to, YOLO V3 (You Only Look Once V3), MASK R-CNN (MASK Regions with CNN features), and the like.
また、評価部222が画像データHから抽出する部分画像データIMG-iの数は、5つに限定されないが、複数であることが好ましい。例えば、評価部222は、n(nは2以上の整数)個以上の部分画像データIMG-iを抽出した場合に処理を続行し、n個未満の部分画像データIMG-iを抽出した場合には処理を中断してエラー情報を出力してもよい。例えば、nを2以上5未満に設定することにより、撮影時の手の位置等に起因して5つの爪の全てが画像データHに含まれていない場合、又は、撮影時の指の向き等に起因して一部の爪が明瞭に画像データHに含まれていない場合にも柔軟に対応可能となる。
Also, the number of partial image data IMG-i extracted from the image data H by the
(第1の評価処理)
評価部222は、抽出したn個の部分画像データIMG-iのそれぞれを第1の評価モデル21aに入力する。その結果、第1の評価モデル21aから第1スコアが出力される。ここで、第1スコアは、爪の長さに基づく衛生状態の評価結果を示す第1情報の一例である。第1スコアは、0以上、1以下の範囲の数値であり、爪の長さに基づく衛生状態が良好である可能性を示している。つまり、第1スコアが1に近いほど、爪の長さに基づく衛生状態が良好である可能性が高く、0に近いほど良好でない可能性が高い。n個の部分画像データIMG-iから得られたn個の第1スコアの平均値が所定の閾値以上であれば、評価部222は、被検者Pの爪の長さに基づく衛生状態を「合格」と評価する。一方、第1スコアの平均値が所定の閾値未満であれば、評価部222は、被検者Pの爪の長さに基づく衛生状態を「不合格」と評価する。評価部222は、被検者Pの識別情報(社員コード等)に関連付けて、爪の長さの合否を示す情報を記憶部23に記憶する。(First evaluation process)
The
なお、第1の評価処理において、n個の第1スコアを参照して被検者Pの爪の長さに基づく衛生状態の合否を判定する手法は、上述したものに限定されない。例えば、評価部222は、n個の第1スコアの最大値、最小値、中央値等の各種の統計値が閾値以上であるか否かに基づき判定を行ってもよい。例えば、最小値を用いる場合、換言すると、爪の長さが良好でない爪が1つでもある場合、不合格と判定される。また、例えば、最大値を用いる場合、換言すると、爪の長さが良好である爪が1つでもある場合、合格と判定される。
In the first evaluation process, the method of determining whether the sanitary condition is acceptable or not based on the length of the nails of the subject P by referring to the n first scores is not limited to the one described above. For example, the
(第2の評価処理)
評価部222は、抽出したn個の部分画像データIMG-iのそれぞれを第2の評価モデル21bに入力する。その結果、第2の評価モデル21bから第2スコアが出力される。ここで、第2スコアは、爪の色に基づく衛生状態の評価結果を示す第2情報の一例である。第2スコアは、0以上、1以下の範囲の数値であり、爪の色に基づく衛生状態が良好である可能性を示している。つまり、第2スコアが1に近いほど、爪の色に基づく衛生状態が良好である可能性が高く、0に近いほど良好でない可能性が高い。n個の部分画像データIMG-iから得られたn個の第2スコアの平均値が所定の閾値以上であれば、評価部222は、被検者Pの爪の色に基づく衛生状態を「合格」と評価する。一方、第2スコアの平均値が所定の閾値未満であれば、評価部222は、被検者Pの爪の色に基づく衛生状態を「不合格」と評価する。評価部222は、被検者の識別情報に関連付けて、爪の色の合否を示す情報を記憶部23に記憶する。(Second evaluation process)
The
なお、第2の評価処理において、n個の第2スコアを参照して被検者Pの爪の色に基づく衛生状態の合否を判定する手法は、上述したものに限定されない。例えば、評価部222は、n個の第2スコアの最大値、最小値、中央値等の各種の統計値が閾値以上であるか否かに基づき判定を行ってもよい。例えば、最小値を用いる場合、換言すると、爪の色が良好でない爪が1つでもある場合、不合格と判定される。また、例えば、最大値を用いる場合、換言すると、爪の色が良好である爪が1つでもある場合、合格と判定される。また、第1の評価処理及び第2の評価処理の実行順序は、順不同である。換言すると、評価部222は、第1の評価処理の次に第2の評価処理を行ってもよいし、第2の評価処理の次に第1の評価処理を行ってもよいし、これらの評価処理を並行して行ってもよい。
In the second evaluation process, the method for determining whether the sanitary condition is acceptable based on the color of the nail of the subject P with reference to the n second scores is not limited to the above. For example, the
(評価結果を示す情報の生成処理)
評価部222は、第1情報及び第2情報に基づき、屋内への入退場可否を示す情報を生成する。例えば、評価部222は、(i)抽出できた部分画像の個数nが2以上であり、且つ(ii)爪の長さに基づく衛生状態の評価結果及び爪の色に基づく衛生状態の評価結果の両方が「合格」である場合に、被検者Pは屋内への入退可能であることを示す情報を生成する。また、評価部222は、(i)および(ii)の何れも満たされない場合に、被検者Pは屋内への入退不可であることを示す情報を生成する。評価部222は、被検者Pの識別情報に関連付けて、入退可否を示す情報を記憶部23に記憶する。なお、評価部222は、被験者Pの識別情報に、当該評価ステップM12を実行した評価日時を関連付け、被検者Pの識別情報及び評価日時で一意に識別されるレコードとして、爪の長さの合否、爪の色の合否、及び入退可否を示す情報を記憶してもよい。ここで、「屋内」は、任意の建物の内部であり、例えば、建物内の任意の部屋である。「建物」は、特に限定されないが、手の衛生的状態が求められる食品の製造現場の建物(例えば、食品加工工場等)や医療現場の建物(例えば、病院等)であることが好適である。(Generation processing of information indicating evaluation results)
Based on the first information and the second information, the
評価部222は、衛生上の観点から、被検者Pの両手について、爪の長さ及び色に基づく衛生状態を評価することが好ましい。被検者Pの両手の画像データは1つの画像データであってもよく、片手ずつをそれぞれ撮像することによって取得した個別の画像データであってもよい。
From a sanitary point of view, the
衛生上の観点から、評価部222は、画像データに含まれている少なくとも2本以上の指の爪の領域(部分画像データIMG-i)に基づいて、爪の長さ及び色に基づく衛生状態を評価することが好ましい。物体検出アルゴリズムによって1本の爪として認識された爪の部分画像データの内、2つ以上の爪の部分画像データを入力データとして用いればよく、どの指の爪の部分画像データを入力データとして選択するかについては特に限定されない。なお、被検者Pの両手について爪の長さ及び色に基づく衛生状態を評価する場合は、片方の手につき2つ以上の爪の部分画像データを入力データとして用いればよい。
From a hygiene point of view, the
出力ステップM13は、評価ステップM12にて評価した爪の衛生状態の評価結果を示す情報を出力するステップである。この出力ステップM13において、情報処理装置20aは、評価結果を示す情報を記憶部23から読み出して出力装置30aに出力することによって、ユーザに提示する。
The output step M13 is a step of outputting information indicating the evaluation result of the nail hygiene evaluated in the evaluation step M12. In this output step M13, the
図8は、図5の評価システム1aに含まれる出力装置30aが出力する画面の一例を示す図である。図8に示す画面例500は、典型的には、出力装置30aが、被験者Pにより視認可能に設置されている場合に好適な画面例である。画面例500は、各被験者に関する入退可否を示す情報501を含む。入退可否を示す情報501は、評価ステップM12において評価部222が記憶部23に記憶した情報が読み込まれて出力される。画面例500を視認することにより、被検者Pは、屋内への入退場可否を容易に確認することができる。なお、画面例500は、屋内への入場可否を示す情報501に加えて、他の付加情報を含んでいてもよい。例えば、画面例500は、屋内への入場不可を示す情報501を含む場合は、不可と評価された理由(例えば、爪の長さが不合格、爪の色が不合格等)も出力してもよい。
FIG. 8 is a diagram showing an example of a screen output by the
図9は、図5の評価システム1aに含まれる出力装置30aが出力する画面の一例を示す図である。図9に示す画面例600は、典型的には、出力装置30aが、管理者Sにより視認可能に設置されている場合に好適な画面例である。画面例600は、各被験者に関する評価結果を示す情報601を含む。評価結果を示す情報601は、被検者Pの識別情報である社員コードと、評価日時と、爪の長さの合否と、爪の色の合否と、入退可否とをそれぞれ示す情報を含む。これらの情報は、評価ステップM12において評価部222が記憶部23に記憶した情報が読み込まれて出力される。画面例601を視認することにより、管理者Sは、各被検者Pの爪の衛生状態の評価結果を示す情報を一覧で確認することができる。
FIG. 9 is a diagram showing an example of a screen output by the
(撮像装置10aの構成)
撮像装置10aの構成について、図10を参照して説明する。図10は、図5の評価システム1aに含まれる撮像装置10aの構成を示す斜視図である。撮像装置10aは、撮像ボックス105を備えている。撮像装置10aにおいて、撮像機器101は、撮像ボックス105の内部に設置されている。撮像ボックス105は、底面103と、遮光壁としての側面102と、撮像機器101が設置される天面104と、を有している。撮像装置10aは、図10に示される3次元座標空間に配置される。撮像装置10aの撮像ボックス105における底面103をxy平面に配置し、xy平面に直交する法線方向のうち、天頂へ向かう方向をz軸方向と定める。(Configuration of
The configuration of the
撮像ボックス105の4つの側面102の内の1つの面は、撮像ボックス105の内部に被検者Pの爪を含む人体の部位を挿入可能な開口部107を有している。この開口部107を有している側面を特に、前面106と称する。
One of the four
前面106は、撮像ボックス105の内部を撮像ボックス105の外側から目視可能であり、且つ撮像ボックス105内の光の照射が一定となるように、半透明の材料で形成されている。これにより、被検者Pが、撮像ボックス105の内部の様子を撮像ボックス105の外側から目視で確認しながら、被検者Pの手を撮像ボックス105の内部に差し入れることができる。前面106を形成する材料は、半透明の材料であれば特に限定されない。例えば、樹脂、ガラス等の半透明の材料から形成することができる。ここで、「半透明」とは、撮像ボックス105内の光環境が撮像時に外部からの光に干渉されにくく、かつ、被検者Pが撮像ボックス105の外側から撮像ボックス105内の自分の手を目視で認識できる程度に透明であればよい。
The
開口部107の大きさは特に限定されないが、撮像ボックス105の外からの光が撮像ボックス105の内部に侵入することを防ぐ観点から、被検者Pの手を撮像ボックス105の内部に差し入れ可能な範囲で最小の大きさであることが好ましい。また、撮像ボックス105の内部に差し入れた手を底面103上に載置し易いように、開口部107は、前面106の下側に設けられていることが好ましい。
The size of the
底面103は、撮像機器101に対する被検者Pの手の水平方向の位置合わせを可能にする位置合わせ台として機能する。撮像機器101は、位置合わせ台としての撮像ボックス105の底面103を撮像範囲に含むように設置されている。底面103は、撮像機器101に向く面が単色であることが好ましく、例えば、黒色、青色等の被検者Pの手の色とのコントラストが大きい色であることが好ましい。底面103の色として被検者Pの手の色とのコントラストが大きい色を選択することで、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。
The
撮像装置10aは、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することを可能にするガイド機構を備えていることが好ましい。図11は、図10の撮像装置10aが備えているガイド機構の構成の一例を示す上面図であり、1101は、撮像ボックス105の底面103aがガイド機構として複数個の突起109aを備えている構成(変形例1)を説明しており、1102は、撮像ボックス105の底面103bがガイド機構として手の形状のガイド線109bを備えている構成(変形例2)を説明している。
The
変形例1において、ガイド機構としての複数個の突起109aは、撮像ボックス105の底面103aからZ軸正方向に突出している。複数個の突起109aは、底面103a上に所定の間隔で配置されている。被検者Pは、撮像ボックス105内に手を差し込んだ後に、指と指との間に突起109aがそれぞれ位置するように底面103a上に手を載置すればよい。撮像装置10aがガイド機構としての複数個の突起109aを備えることにより、被検者Pが、底面103a上に撮影に適した状態で手を載置できるようガイドすることができるので、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することが可能になる。その結果、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。
In Modified Example 1, a plurality of
変形例2のように、ガイド機構が手の形状のガイド線109bである場合は、被検者Pは、撮像ボックス105内に手を差し込んだ後に、ガイド線109bの形状に合うように開いた状態で底面103b上に手を載置すればよい。変形例2においても、変形例1と同様に、被検者Pが、底面103b上に撮影に適した状態で手を載置できるようガイドすることができるので、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することが可能になる。その結果、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。なお、前面106は半透明の材料で形成されているため、被検者Pは、撮像ボックス105内の手の位置を前面106越しに目視で確認しながら、底面103b上の適切な位置に手を載置することができる。
When the guide mechanism is the hand-shaped
撮像装置10aが備えているガイド機構の構成は、前述の変形例に限定されない。例えば、底面103の凸凹であったり、底面103の表面の一部に棒状のものを設置したり、複数の色彩を用いた模様であってもよい。また、例えば、撮像装置10aが生成した「爪を被写体として含む画像データ」において、被検者Pの手の指の開き具合が十分でなく、情報処理装置20aが1本の爪として認識することができなかった場合に、情報処理装置20aは、隣り合う指同士がもっと離れた状態で底面103上に手を載置し直すことを被検者Pに促すメッセージを出力装置30aに表示させるように構成してもよい。
The configuration of the guide mechanism included in the
撮像装置10aは、撮像ボックス105内部に照明として複数個のLED(light emitting diode)108を備えている。これにより、底面103の全面に均一な光を照射することができる。複数個のLED108が照射する光の強さは、爪に照射された光の反射が強くなり過ぎて爪の色に基づく衛生状態の評価精度に影響を及ぼさないように、適宜調整すればよい。
The
(機械学習装置40の構成)
機械学習装置40の構成について、図5を参照して説明する。機械学習装置40は、記憶部41及び制御部42を備えている。制御部42は、機械学習装置40を統括的に制御する。機械学習装置40において、制御部42は、構築部421を含む。構築部421は、機械学習方法M2を実行する。(Configuration of machine learning device 40)
A configuration of the
(機械学習方法M2の流れ)
機械学習方法M2の流れについて、図12を参照して説明する。図12は、機械学習方法M2の流れを示すフローチャートである。(Flow of machine learning method M2)
The flow of machine learning method M2 will be described with reference to FIG. FIG. 12 is a flow chart showing the flow of the machine learning method M2.
機械学習方法M2は、学習用データセット構築ステップM21と、学習済モデル構築ステップM22と、を含んでいる。 The machine learning method M2 includes a learning data set building step M21 and a learned model building step M22.
(学習用データセット構築ステップM21)
学習用データセット構築ステップM21は、プロセッサ401が、第1の学習用データセット及び第2の学習用データセットを作成するステップである。(Learning data set construction step M21)
The learning data set constructing step M21 is a step in which the
(第1の学習用データセットの作成処理)
第1の学習用データセットは、第1の評価モデル21aを構築するための複数個の第1学習用データ(教師データ)の集合である。(Processing for creating first learning data set)
The first learning data set is a set of a plurality of first learning data (teacher data) for constructing the
各第1学習用データは、1本の爪を被写体として含む教師画像データと、正解情報とを含む。教師画像データは、撮像装置10aが撮影したものであってもよいし、他の撮像装置が撮影したものであってもよい。また、教師画像データは、複数の爪を被写体として含む画像データから抽出された部分画像データであってもよい。また、教師画像データは、ネットワーク上に公開された公開画像データであってもよいし、当該公開画像データから抽出された部分画像データであってもよい。正解情報は、評価者による爪の長さの評価結果を示す情報である。
Each first learning data includes teacher image data including one nail as a subject and correct answer information. The teacher image data may be captured by the
学習用データセット構築ステップM21において、構築部421は、教師画像データを取得し、表示装置(図示せず)に表示する。また、構築部421は、評価者による爪の長さに基づく衛生状態の評価結果を示す正解情報を、入力装置(図示せず)を介して取得する。例えば、評価者は、表示装置に表示された教師画像データを視認して、「合格」または「不合格」との評価結果を入力装置から入力してもよい。また、評価者は、表示装置に表示された教師画像データを視認して、衛生状態のスコアを入力装置から入力してもよい。
In the learning data set construction step M21, the
また、構築部421は、教師画像データと、正解情報とを含む第1学習用データを生成する。また、構築部421は、生成した第1学習用データを記憶部41に格納する。以上のプロセスを、複数の教師画像データに対して構築部421が繰り返すことによって、第1の学習用データセットが作成される。
The
(第2の学習用データセットの作成処理)
第2の学習用データセットは、第2の評価モデル21bを構築するための複数個の第2学習用データ(教師データ)の集合である。(Processing for creating second learning data set)
The second learning data set is a set of a plurality of second learning data (teacher data) for constructing the
各第2学習用データは、1本の爪を被写体として含む教師画像データと、正解情報とを含む。教師画像データについては、第1の学習用データセットの作成処理において説明した通りである。なお、第2の学習用データセットの作成処理で用いる教師データの一部または全部は、第1の学習用データセットの作成に用いたものと同一であってもよい。正解情報は、評価者による爪の色の評価結果を示す情報である。 Each second learning data includes teacher image data including one nail as a subject and correct answer information. The teacher image data is as described in the process of creating the first learning data set. Part or all of the teacher data used in the process of creating the second learning data set may be the same as that used in creating the first learning data set. The correct answer information is information indicating the evaluation result of the nail color by the evaluator.
学習用データセット構築ステップM21において、構築部421は、教師画像データを取得し、表示装置(図示せず)に表示する。また、構築部421は、評価者による爪の色に基づく衛生状態の評価結果を示す正解情報を、入力装置(図示せず)を介して取得する。評価者による正解情報の入力手法の具体例については、第1の学習用データセットの作成処理において説明した通りである。
In the learning data set construction step M21, the
また、構築部421は、教師画像データと、正解情報とを含む第2学習用データを生成する。また、構築部421は、生成した第2学習用データを記憶部41に格納する。以上のプロセスを、複数の教師画像データに対して構築部421が繰り返すことによって、第2の学習用データセットが作成される。
The
(学習済モデル構築ステップM22)
学習済モデル構築ステップM22は、構築部421が、第1の評価モデル21a及び第2の評価モデル21bを構築するステップである。学習済モデル構築ステップM22において、構築部421は、第1の学習用データセットを用いた教師あり学習によって、第1の評価モデル21aを構築する。また、構築部421は、第2の学習用データセットを用いた教師あり学習によって、第2の評価モデル21bを構築する。構築された第1の評価モデル21a及び第2の評価モデル21bは、記憶部41に格納される。(Learned model construction step M22)
The learned model construction step M22 is a step in which the
(実施形態2の他の態様1)
実施形態2として、評価部222が爪の衛生状態を評価するために用いる評価モデルの個数が、2つである態様を説明した。ただし、評価部222が用いる評価モデルの個数は2つに限定されない。例えば、評価部222は、第1の評価モデル21a及び第2の評価モデル21bの何れか一方を用いて爪の衛生状態を評価してもよい。また、評価部222は、第1の評価モデル21a及び第2の評価モデル21bに加えて、他の評価モデルを用いて爪の衛生状態を評価してもよい。この場合、他の評価モデルは、爪を被写体として含む画像データを入力として、爪の他の観点に基づく衛生状態の評価結果を示す情報を出力するよう機械学習により構築される。(
As the second embodiment, the number of evaluation models used by the
(実施形態2の他の態様2)
実施形態2として、第1の評価モデル21a及び第2の評価モデル21bの入力が、1つの爪を被写体として含む部分画像データIMG-iである態様を説明した。ただし、第1の評価モデル21a及び第2の評価モデル21bの入力は、2本以上の指の爪を被写体として含む画像データHであってもよい。(
As the second embodiment, the input of the
この場合、構築部421は、複数の爪を被写体として含む学習用の画像データと、評価者が複数の爪の長さに基づく衛生状態を評価した評価結果を示す正解情報とを含む第1学習用データを生成する。これにより、第1の評価モデル21aは、そのような第1学習用データからなる第1学習用データセットを用いて機械学習される。また、構築部421は、複数の爪を被写体として含む学習用の画像データと、評価者が複数の爪の色に基づく衛生状態を評価した評価結果を示す正解情報とを含む第2学習用データを生成する。これにより、第2の評価モデル21bは、そのような第2学習用データからなる第2学習用データセットを用いて機械学習される。
In this case, the
また、この場合、評価部222は、評価ステップM12において、部分画像データの抽出処理を省略し、取得部221が取得した画像データHを第1の評価モデル21a及び第2の評価モデル21bのそれぞれに入力してもよい。
In this case, the
なお、第1の評価モデル21a及び第2の評価モデル21bの入力が部分画像データIMG-iである場合、比較的少ない学習用の画像データを用いて第1の評価モデル21a及び第2の評価モデル21bを精度よく構築することが可能である。これに対して、第1の評価モデル21a及び第2の評価モデル21bの入力が画像データHである場合、評価部222の処理コストを低減することが可能であるというメリットがある。
When the input of the
(実施形態2の他の態様3)
実施形態2において、評価システム1aは、出力装置30aの代わりに、被検者端末と、被検者側の出力装置と、管理者端末と、管理者側の出力装置とを含んでもよい。この場合、情報処理装置20aは、被検者端末及び管理者端末のそれぞれと、ネットワークを介して通信可能に接続される。例えば、被検者端末と、被検者側の出力装置と、撮像装置10aとは、食品工場の入口付近に設置される。また、例えば、管理者端末と、管理者側の出力装置とは、管理者のオフィスに設置される。(
In
本態様において、評価部222は、出力ステップM13において、図8に示すような被検者向けの情報を被検者側の出力装置に出力し、図9に示すような管理者向けの情報を管理者側の出力装置に出力してもよい。また、評価部222は、管理者向けの情報を管理者側の出力装置に出力する処理を、出力ステップM13において実行することに代えて、または加えて、管理者による要求に応じて実行してもよい。管理者による要求は、管理者端末の入力装置(図示せず)を介して入力される。
In this aspect, in the output step M13, the
(実施形態2の他の態様4)
実施形態2として、情報処理装置20aの記憶部23に第1の評価モデル21aおよび第2の評価モデル21bが格納されている態様を説明した。しかし、情報処理装置20aは、第1の評価モデル21aおよび第2の評価モデル21bを含んでいなくてもよい。例えば、第1の評価モデル21aおよび第2の評価モデル21bは、情報処理装置20aとネットワークを介して接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。そしてこの場合、情報処理装置20aの評価部222は、ネットワーク経由で第1の評価モデル21aおよび第2の評価モデル21bを利用して、爪の長さ及び色に基づく衛生状態の評価結果を生成すればよい。(
As the second embodiment, a mode in which the
(実施形態2の効果)
本実施形態は、画像データを入力として、AI(Artificial Intelligence、人工知能)を用いて爪の衛生状態を評価するので、画像解析が不要であり、また、解析結果に基づき爪の衛生状態を評価する評価ルールをあらかじめ設ける必要がないというメリットを有している。これは、AIを用いている実施形態1の評価システム1と同様の効果といえる。また、本実施形態では、評価部222は、爪の長さ及び色に基づく衛生状態を評価するので、爪の長さのみに基づく衛生状態を評価する場合と比較して、爪の衛生状態を精度よく、より多角的に評価することができる。さらには、本実施形態では、評価部222が、第1の評価モデル21a及び第2の評価モデル21bの2種類の評価モデルを用いるので、1種の評価モデルを用いて爪の長さ及び色に基づく衛生状態を評価する場合と比較して、爪の衛生状態をより精度良く評価することができる。(Effect of Embodiment 2)
This embodiment uses image data as an input to evaluate nail hygiene using AI (artificial intelligence), so image analysis is not required, and nail hygiene is evaluated based on the analysis results. It has the advantage that it is not necessary to set evaluation rules in advance. This can be said to be the same effect as the
(情報処理装置20aのハードウエア構成例)
情報処理装置20aは、例えば図13のようなハードウエア構成を備えていてもよい。図13は、情報処理装置20aのハードウエア構成の一例を示すブロック図である。(Hardware Configuration Example of
The
情報処理装置20aは、汎用コンピュータを用いて実現されており、プロセッサ201と、一次メモリ202と、二次メモリ203と、入出力インタフェース204と、通信インタフェース205と、バス206とを備えている。プロセッサ201、一次メモリ202、二次メモリ203、入出力インタフェース204、及び通信インタフェース205は、バス206を介して相互に接続されている。
The
二次メモリ203には、情報処理プログラム及び1または複数の評価モデルが格納されている。二次メモリ203は、記憶部23を実現する構成の一例である。プロセッサ201は、二次メモリ203に格納されている情報処理プログラム及び1または複数の評価モデルを一次メモリ202上に展開する。そして、プロセッサ201は、一次メモリ202上に展開された情報処理プログラムに含まれる命令に従って、情報処理方法M1に含まれる各ステップを実行することにより、制御部22として機能する。一次メモリ202上に展開された1または複数の評価モデル(例えば、第1の評価モデル21a及び第2の評価モデル21b)は、情報処理方法M1の評価ステップM12をプロセッサ201が実行する際に利用される。なお、情報処理プログラムが二次メモリ203に格納されているとは、ソースコード、または、ソースコードをコンパイルすることにより得られた実行形式ファイルが二次メモリ203に記憶されていることを指す。また、1または複数の評価モデルが二次メモリ203に格納されているとは、1または複数の評価モデルを規定するパラメータが二次メモリ203に格納されていることを指す。
The
プロセッサ201として利用可能なデバイスとしては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、または、これらの組み合わせを挙げることができる。
Devices that can be used as the
また、一次メモリ202として利用可能なデバイスとしては、例えば、RAM(Random Access Memory)を挙げることができる。一次メモリ202は、「主記憶装置」と呼ばれることもある。また、二次メモリ203として利用可能なデバイスとしては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ODD(Optical Disk Drive)、または、これらの組み合わせを挙げることができる。二次メモリ203は、「補助記憶装置」と呼ばれることもある。なお、二次メモリ203は、情報処理装置20aに内蔵されていてもよいし、入出力インタフェース204または通信インタフェース205を介して情報処理装置20aと接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。なお、本実施形態においては、情報処理装置20aにおける記憶を2つのメモリ(一次メモリ202及び二次メモリ203)により実現しているが、これに限定されない。すなわち、情報処理装置20aにおける記憶を1つのメモリにより実現してもよい。この場合、例えば、そのメモリの或る記憶領域を一次メモリ202として利用し、そのメモリの他の記憶領域を二次メモリ203として利用すればよい。
A device that can be used as the
入出力インタフェース204には、入力デバイス及び/または出力デバイスが接続される。入出力インタフェース204としては、例えば、USB(Universal Serial Bus)、ATA(Advanced Technology Attachment)、SCSI(Small Computer System Interface)、PCI(Peripheral Component Interconnect)などのインタフェースが挙げられる。入出力インタフェース204に接続される入力デバイスとしては、撮像装置10aが挙げられる。情報処理方法M1において撮像装置10aから取得する画像データは、一次メモリ202に記憶される。また、入出力インタフェース204に接続される入力デバイスとしては、例えば、キーボード、マウス、タッチパッド、マイク、または、これらの組み合わせが挙げられる。また、入出力インタフェース204に接続される出力デバイスとしては、例えば、出力装置30a(ディスプレイ、プロジェクタ、プリンタ、スピーカ、ヘッドホン、または、これらの組み合わせ)が挙げられる。情報処理方法M1においてユーザに提供する情報は、これらの出力デバイスを介して情報処理装置20aから出力される。なお、情報処理装置20aは、ラップトップ型コンピュータのように、入力デバイスとして機能するキーボードと、出力デバイスとして機能するディスプレイとを、それぞれ内蔵してもよい。或いは、情報処理装置20aは、タブレット型コンピュータのように、入力デバイス及び出力デバイスの両方として機能するタッチパネルを内蔵していてもよい。
An input device and/or an output device are connected to the input/
通信インタフェース205には、ネットワークを介して他のコンピュータが有線接続または無線接続される。通信インタフェース205としては、例えば、イーサネット(登録商標)、Wi-Fi(登録商標)などのインタフェースが挙げられる。利用可能なネットワークとしては、例えば、PAN(Personal Area Network)、LAN(Local Area Network)、CAN(Campus Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、GAN(Global Area Network)、または、これらのネットワークを含むインターネットワークが挙げられる。インターネットワークは、イントラネットであってもよいし、エクストラネットであってもよいし、インターネットであってもよい。情報処理方法M1において情報処理装置20aが他のコンピュータ(例えば、機械学習装置40)から取得するデータ(例えば、1または複数の評価モデル)、及び、情報処理方法M1において情報処理装置20aが他のコンピュータに提供するデータは、これらのネットワークを介して送受信される。
Other computers are wired or wirelessly connected to the
なお、本実施形態においては、単一のプロセッサ(プロセッサ201)を用いて情報処理方法M1を実行する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のプロセッサを用いて情報処理方法M1を実行する構成を採用してもよい。例えば、取得ステップM11を第1のプロセッサにおいて実行し、評価ステップM12を第2のプロセッサにおいて実行してもよい。この場合、連携して情報処理方法M1を実行する複数のプロセッサは、単一のコンピュータに設けられ、バスを介して相互に通信可能に構成されていてもよいし、複数のコンピュータに分散して設けられ、ネットワークを介して相互に通信可能に構成されていてもよい。一例として、クラウドサーバを構成するコンピュータに内蔵されたプロセッサと、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサとが、連携して情報処理方法M1を実行する態様などが考えられる。 In this embodiment, a single processor (processor 201) is used to execute the information processing method M1, but the present invention is not limited to this. That is, a configuration in which the information processing method M1 is executed using a plurality of processors may be employed. For example, the obtaining step M11 may be performed in a first processor and the evaluating step M12 may be performed in a second processor. In this case, the plurality of processors that cooperate to execute the information processing method M1 may be provided in a single computer and configured to communicate with each other via a bus, or may be distributed among a plurality of computers. may be provided and configured to be able to communicate with each other via a network. As an example, a processor built in a computer that constitutes a cloud server and a processor built in a computer owned by a user of the cloud server cooperate to execute the information processing method M1.
また、本実施形態においては、情報処理方法M1を実行するプロセッサ(プロセッサ201)と同じコンピュータに内蔵されたメモリ(二次メモリ203)に評価モデルを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、情報処理方法M1を実行するプロセッサと異なるコンピュータに内蔵されたメモリに1または複数の評価モデルを格納する構成を採用してもよい。この場合、1または複数の評価モデルを格納するメモリが内蔵されたコンピュータは、情報処理方法M1を実行するプロセッサが内蔵されたコンピュータとネットワークを介して相互に通信可能に構成される。一例として、クラウドサーバを構成するコンピュータに内蔵されたメモリに1または複数の評価モデルを格納し、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサが情報処理方法M1を実行する態様などが考えられる。 Further, in this embodiment, a configuration is adopted in which the evaluation model is stored in a memory (secondary memory 203) built in the same computer as the processor (processor 201) that executes the information processing method M1. is not limited to this. That is, a configuration may be adopted in which one or more evaluation models are stored in a memory incorporated in a computer different from the processor that executes the information processing method M1. In this case, a computer having a built-in memory storing one or more evaluation models and a computer having a built-in processor executing the information processing method M1 are configured to communicate with each other via a network. As an example, one or more evaluation models are stored in a memory built into a computer that constitutes a cloud server, and a processor built into a computer owned by a user of the cloud server executes the information processing method M1. can be considered.
また、本実施形態においては、単一のメモリ(二次メモリ203)に1または複数の評価モデルを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のメモリに1または複数の評価モデルを分散して格納する構成を採用してもよい。この場合、1または複数の評価モデルを格納する複数のメモリは、単一のコンピュータ(情報処理方法M1を実行するプロセッサが内蔵されたコンピュータであってもよいし、そうでなくてもよい)に設けられていてもよいし、複数のコンピュータ(情報処理方法M1を実行するプロセッサが内蔵されたコンピュータを含んでいてもよいし、そうでなくてもよい)に分散して設けられていてもよい。一例として、クラウドサーバを構成する複数のコンピュータの各々に内蔵されたメモリに1または複数の評価モデルを分散して格納する構成などが考えられる。 In addition, although this embodiment adopts a configuration in which one or more evaluation models are stored in a single memory (secondary memory 203), the present invention is not limited to this. That is, a configuration in which one or a plurality of evaluation models are distributed and stored in a plurality of memories may be employed. In this case, a plurality of memories storing one or more evaluation models are stored in a single computer (which may or may not be a computer containing a processor that executes the information processing method M1). It may be provided, or it may be distributed and provided in a plurality of computers (which may or may not include a computer in which a processor that executes the information processing method M1 is included). . As an example, a configuration is conceivable in which one or more evaluation models are distributed and stored in a memory built into each of a plurality of computers that constitute a cloud server.
(機械学習装置40のハードウエア構成)
機械学習装置40は、例えば図14のようなハードウエア構成を備えていてもよい。図14は、機械学習装置40のハードウエア構成の一例を示すブロック図である。(Hardware configuration of machine learning device 40)
The
機械学習装置40は、汎用コンピュータを用いて実現されており、プロセッサ401と、一次メモリ402と、二次メモリ403と、入出力インタフェース404と、通信インタフェース405と、バス406とを備えている。プロセッサ401、一次メモリ402、二次メモリ403、入出力インタフェース404、及び通信インタフェース405は、バス406を介して相互に接続されている。
二次メモリ403には、機械学習プログラム及び学習用データセットが格納されている。二次メモリ403は、記憶部41を実現する構成の一例である。学習用データセットは、複数個の学習用データの集合である。プロセッサ401は、二次メモリ403に格納されている機械学習プログラムを一次メモリ402上に展開する。そして、プロセッサ401は、一次メモリ402上に展開された機械学習プログラムに含まれる命令に従って、機械学習方法M2に含まれる各ステップを実行することにより制御部42として機能する。二次メモリ403に格納された学習用データセットは、機械学習方法M2の学習用データセット構築ステップM21にて作成され、機械学習方法M2の学習済モデル構築ステップM22において利用される。また、機械学習方法M2の学習済モデル構築ステップM22にて構築された1または複数の評価モデルも、二次メモリ403に格納される。なお、機械学習プログラムが二次メモリ403に格納されているとは、ソースコード、または、ソースコードをコンパイルすることにより得られた実行形式ファイルが二次メモリ403に記憶されていることを指す。また、1または複数の評価モデルが二次メモリ403に格納されているとは、1または複数の評価モデルを規定するパラメータが二次メモリ403に格納されていることを指す。
A
プロセッサ401、一次メモリ402または二次メモリ403として利用可能なデバイスの具体例としては、情報処理装置20aのハードウエア構成の説明において記載したとおりである。なお、二次メモリ403は、機械学習装置40に内蔵されていてもよいし、入出力インタフェース404または通信インタフェース405を介して機械学習装置40と接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。なお、本実施形態においては、機械学習装置40における記憶を2つのメモリ(一次メモリ402及び二次メモリ403)により実現しているが、これに限定されない。すなわち、機械学習装置40における記憶を1つのメモリにより実現してもよい。この場合、例えば、そのメモリの或る記憶領域を一次メモリ402として利用し、そのメモリの他の記憶領域を二次メモリ403として利用すればよい。
Specific examples of devices that can be used as the
入出力インタフェース404には、入力デバイス及び/又は出力デバイスが接続される。入出力インタフェース404の具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。入出力インタフェース404に接続される入力デバイスとしては、撮像装置10aが挙げられる。機械学習方法M2において撮像装置10aから取得するデータは、機械学習装置40に入力され、一次メモリ402に記憶される。また、入出力インタフェース404に接続される入力デバイスの具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。機械学習方法M2においてユーザから取得するデータは、これらの入力デバイスを介して機械学習装置40に入力され、一次メモリ402に記憶される。また、入出力インタフェース404に接続される出力デバイスの具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。機械学習方法M2においてユーザに提供する情報は、これらの出力デバイスを介して機械学習装置40から出力される。なお、機械学習装置40は、ラップトップ型コンピュータのように、入力デバイスとして機能するキーボードと、出力デバイスとして機能するディスプレイとを、それぞれ内蔵してもよい。或いは、機械学習装置40は、タブレット型コンピュータのように、入力デバイス及び出力デバイスの両方として機能するタッチパネルを内蔵していてもよい。
An input device and/or an output device are connected to the input/
通信インタフェース405には、ネットワークを介して他のコンピュータが有線接続又は無線接続される。通信インタフェース405の具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。インターネットワークは、イントラネットであってもよいし、エクストラネットであってもよいし、インターネットであってもよい。機械学習装置40が他のコンピュータ(例えば、情報処理装置20a)に提供するデータ(例えば、1または複数の評価モデル)は、これらのネットワークを介して送受信される。
Other computers are wired or wirelessly connected to the
なお、本実施形態においては、単一のプロセッサ(プロセッサ401)を用いて機械学習方法M2を実行する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のプロセッサを用いて機械学習方法M2を実行する構成を採用してもよい。例えば、学習用データセット構築ステップM21を第1のプロセッサにおいて実行し、学習済モデル構築ステップM22を第2のプロセッサにおいて実行する構成を採用してもよい。この場合、連携して機械学習方法M2を実行する複数のプロセッサは、単一のコンピュータに設けられ、バスを介して相互に通信可能に構成されていてもよいし、複数のコンピュータに分散して設けられ、ネットワークを介して相互に通信可能に構成されていてもよい。一例として、クラウドサーバを構成するコンピュータに内蔵されたプロセッサと、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサとが、連携して機械学習方法M2を実行する態様などが考えられる。 Note that although the present embodiment employs a configuration in which a single processor (processor 401) is used to execute the machine learning method M2, the present invention is not limited to this. That is, a configuration may be adopted in which a plurality of processors are used to execute the machine learning method M2. For example, a configuration may be employed in which the learning data set constructing step M21 is executed by a first processor, and the learned model constructing step M22 is executed by a second processor. In this case, the plurality of processors that cooperate to execute the machine learning method M2 may be provided in a single computer and configured to be able to communicate with each other via a bus, or distributed to a plurality of computers. may be provided and configured to be able to communicate with each other via a network. As an example, a mode in which a processor built in a computer that constitutes a cloud server and a processor built in a computer owned by a user of the cloud server cooperate to execute the machine learning method M2 can be considered.
また、本実施形態においては、機械学習方法M2を実行するプロセッサ(プロセッサ401)と同じコンピュータに内蔵されたメモリ(二次メモリ403)に学習用データセットを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、機械学習方法M2を実行するプロセッサと異なるコンピュータに内蔵されたメモリに学習用データセットを格納する構成を採用してもよい。この場合、学習用データセットを格納するメモリが内蔵されたコンピュータは、機械学習方法M2を実行するプロセッサが内蔵されたコンピュータとネットワークを介して相互に通信可能に構成される。一例として、クラウドサーバを構成するコンピュータに内蔵されたメモリに学習用データセットを格納し、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサが機械学習方法M2を実行する態様などが考えられる。 Further, in this embodiment, a configuration is adopted in which the learning data set is stored in a memory (secondary memory 403) built in the same computer as the processor (processor 401) that executes the machine learning method M2. The invention is not limited to this. That is, a configuration may be adopted in which the learning data set is stored in a memory built in a computer different from the processor that executes the machine learning method M2. In this case, the computer containing the memory storing the learning data set is configured to be able to communicate with the computer containing the processor executing the machine learning method M2 via the network. As an example, a learning data set is stored in a memory built into a computer that constitutes a cloud server, and a processor built into a computer owned by a user of the cloud server executes the machine learning method M2. be done.
また、本実施形態においては、単一のメモリ(二次メモリ403)に学習用データセットを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のメモリに学習用データセットを分散して格納する構成を採用してもよい。この場合、学習用データセットを格納する複数のメモリは、単一のコンピュータ(機械学習方法M2を実行するプロセッサが内蔵されたコンピュータであってもよいし、そうでなくてもよい)に設けられていてもよいし、複数のコンピュータ(機械学習方法M2を実行するプロセッサが内蔵されたコンピュータを含んでいてもよいし、そうでなくてもよい)に分散して設けられていてもよい。一例として、クラウドサーバを構成する複数のコンピュータの各々に内蔵されたメモリに学習用データセットを分散して格納する構成などが考えられる。 Further, in this embodiment, a configuration is adopted in which the learning data set is stored in a single memory (secondary memory 403), but the present invention is not limited to this. That is, a configuration may be adopted in which the learning data sets are distributed and stored in a plurality of memories. In this case, the plurality of memories storing the learning data sets are provided in a single computer (which may or may not be a computer with a built-in processor that executes the machine learning method M2). Alternatively, it may be distributed among a plurality of computers (which may or may not include a computer with a processor that executes the machine learning method M2). As an example, a configuration is conceivable in which learning data sets are distributed and stored in memories built into each of a plurality of computers that constitute a cloud server.
また、本実施形態においては、情報処理方法M1及び機械学習方法M2を異なるプロセッサ(プロセッサ201及びプロセッサ401)を用いて実行する構成を採用しているが、本発明は、これに限定されない。すなわち、情報処理方法M1及び機械学習方法M2を同一のプロセッサを用いて実行してもよい。この場合、機械学習方法M2を実行することによって、このプロセッサと同じコンピュータに内蔵されたメモリに1または複数の評価モデルが格納さる。そして、このプロセッサは、情報処理方法M1を実行する際に、このメモリに格納された1または複数の評価モデルを利用することになる。
In addition, although the present embodiment adopts a configuration in which the information processing method M1 and the machine learning method M2 are executed using different processors (the
〔実施形態3〕
(評価システム1bの構成)
本発明の実施形態3に係る評価システム1bについて、図15を参照して説明する。図15は、評価システム1bの構成を表すブロック図である。評価システム1aは、図15に示すように、撮像装置10aと、情報処理装置20bと、出力装置30aと、を備えている。撮像装置10aおよび出力装置30aについては、実施形態2で説明したとおりである。[Embodiment 3]
(Configuration of evaluation system 1b)
An evaluation system 1b according to
情報処理装置20bは、情報処理方法M1bを実行するための装置である。情報処理装置20bは、機械学習により構築された評価モデルを用いずに、爪の衛生状態を評価する点が、実施形態2と少なくとも異なる。
The
(情報処理装置20bの構成)
情報処理装置20bの構成について、図15を参照して説明する。情報処理装置20bは、制御部22b及び記憶部23bを備えている。制御部22bは、情報処理装置20bを統括的に制御する。情報処理装置20bにおいて、制御部22bは、取得部221及び評価部222bを含む。取得部221は、情報処理方法M1bの取得ステップM11を実行する。評価部222bは、情報処理方法M1bの評価ステップM12b及び出力ステップM13を実行する。(Configuration of
The configuration of the
(情報処理方法M1bの流れ)
情報処理方法M1bは、評価ステップM12の代わりに評価ステップM12bを含む点が、実施形態2に係る情報処理方法M1に対して相違する。以下では、当該相違点についてのみ説明する。(Flow of information processing method M1b)
The information processing method M1b differs from the information processing method M1 according to the second embodiment in that an evaluation step M12b is included instead of the evaluation step M12. Only the difference will be described below.
(評価ステップM12b)
評価ステップM12bにおいて、評価部222bは、公知の画像解析技術を用いて、取得部221が取得した爪を被写体として含む画像データにおける爪の長さを測定する。また、評価部222bは、記憶部23bに予め格納された爪の長さと衛生状態との対応関係を示す情報を参照して、爪の長さの測定結果から、爪の長さに基づく衛生状態を評価し、その評価結果を示すデータを記憶部23bに書き込む。例えば、評価部222は、爪を被写体として含む画像データにおける爪全体の領域の長さに対する、爪先の相対的な長さを「爪の長さ」として測定してもよい。この場合、記憶部23bには、爪の相対的な長さと衛生状態との対応関係を示す情報が格納されている。(Evaluation step M12b)
In the evaluation step M12b, the
同様に、評価部222bは、公知の画像解析技術を用いて、取得部221が取得した爪を被写体として含む画像データにおける爪の色を測定する。記憶部23bに予め格納された爪の色と衛生状態との対応関係を示す情報を参照して、爪の色の測定結果から、爪の色に基づく衛生状態を評価し、その評価結果を示すデータを記憶部23bに書き込む。
Similarly, the
(実施形態3の効果)
本実施形態は、情報処理装置20bは、機械学習により構築された評価モデルを用いずに爪の衛生状態を評価するので、機械学習装置が不要である。従って、評価システム1bの構築コストを低減することが可能であるというメリットがある。(Effect of Embodiment 3)
In this embodiment, the
〔ハードウエアによる実現例〕
上述した各実施形態では、情報処理装置20、20a及び20bの制御ブロック(特に制御部22、22b)が、二次メモリ203に記憶されたプログラムを読み込んでプロセッサ201が実行することにより実現される態様について説明した。これに限らず、情報処理装置20、20a及び20bの制御ブロックの一部または全部は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。また、実施形態2では、機械学習装置40の制御ブロック(特に制御部42)が、二次メモリ403に記憶されたプログラムを読み込んでプロセッサ401が実行することにより実現される態様について説明した。これに限らず、機械学習装置40の制御ブロックの一部または全部は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。[Example of hardware implementation]
In each of the above-described embodiments, the control blocks of the
以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications or improvements can be made to the above embodiments. Also, it is obvious to those skilled in the art that such changes or improvements can be made. In addition, it is clear from the description of the scope of the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
〔まとめ〕
本発明は、
(1)爪を被写体として含む画像データを取得する取得部と、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、を備えた情報処理装置、
(2)前記評価部は、前記評価結果を示す情報として、前記爪を有する人に対する屋内への入退場可否を含む情報を生成する、(1)の情報処理装置、
(3)前記屋内が、食品工場の部屋または食品加工場である、(2)の情報処理装置、
(4)前記評価部は、前記画像データに含まれている少なくとも2本以上の指の爪の領域に基づいて、前記爪の衛生状態を評価する、(1)~(3)のいずれか1つの情報処理装置、
(5)前記評価部は、前記画像データを参照して、前記爪の色に基づく前記爪の衛生状態をさらに評価する、(1)~(4)のいずれか1つの情報処理装置、
(6)前記画像データを入力として、前記爪の長さに基づく衛生状態の評価結果を示す第1情報を出力するよう機械学習により構築された第1の評価モデルを利用し、前記評価部は、前記第1情報に基づいて前記評価結果を示す情報を生成する、(1)~(5)のいずれか1つの情報処理装置、
(7)前記画像データを入力として、前記爪の色に基づく衛生状態の評価結果を示す第2情報を出力するよう機械学習により構築された第2の評価モデルを利用し、前記評価部は、前記第1情報及び前記第2情報に基づいて前記評価結果を示す情報を生成する、(6)の情報処理装置、
(8)(1)~(7)のいずれか1つの情報処理装置と、前記爪を含む人体の部位を撮像して前記画像データを生成する撮像装置と、前記評価結果を示す情報を出力する出力装置と、を含む評価システム、
(9)前記撮像装置は、撮像機器と、当該撮像機器に対する前記部位の位置合わせを可能にする位置合わせ台と、外部から前記位置合わせ台に入射する光を遮る遮光壁と、を備えており、前記撮像機器は、前記位置合わせ台を撮像範囲に含むように設置され、前記位置合わせ台は、前記撮像機器に向く面が単色であり、前記遮光壁は、前記位置合わせ台の周囲に設置されている、(8)の評価システム、
(10)前記撮像機器は、撮像ボックスの内部に設置され、前記撮像ボックスは、前記位置合わせ台としての底面と、前記遮光壁としての側面と、前記撮像機器が設置される天面と、を有し、前記側面は前記撮像ボックスの内部に前記部位を挿入可能な開口部を有している、(9)の評価システム、
(11)前記撮像装置は、隣接する爪同士が離間した状態で前記部位を撮影することを可能にするガイド機構を備えている、(9)または(10)の評価システム、
(12)学習用データセットを用いた機械学習によって、爪の長さに基づく衛生状態を評価する第1の評価モデルを構築する構築部を備えており、前記第1の評価モデルの入力は、爪を被写体として含む画像データであり、前記第1の評価モデルの出力は、前記爪の長さに基づく衛生状態の評価結果を示す第1情報である、機械学習装置、
(13)前記構築部は、学習用データセットを用いた機械学習によって、爪の色に基づく衛生状態を評価する第2の評価モデルをさらに構築し、前記第2の評価モデルの入力は、爪を被写体として含む画像データであり、前記第2の評価モデルの出力は、前記爪の色に基づく衛生状態の評価結果を示す第2情報である、(12)の機械学習装置、
(14)爪を被写体として含む画像データを取得する取得ステップと、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価ステップと、を含む、情報処理方法、
(15)(1)~(7)のいずれか1つの情報処理装置としてコンピュータを機能させるためのプログラム、
である。〔summary〕
The present invention
(1) An acquisition unit that acquires image data including a nail as an object, and generates information indicating an evaluation result by referring to the image data and evaluating the sanitary condition of the nail based on the length of the nail. an information processing device comprising an evaluation unit,
(2) The information processing device according to (1), wherein the evaluation unit generates information including whether or not the person with the fingernail can enter or leave the room as the information indicating the evaluation result.
(3) The information processing device of (2), wherein the indoor is a room in a food factory or a food processing plant,
(4) Any one of (1) to (3), wherein the evaluation unit evaluates the sanitary condition of the nail based on at least two fingernail regions included in the image data. two information processing devices,
(5) The information processing device according to any one of (1) to (4), wherein the evaluation unit further evaluates the sanitary condition of the nail based on the color of the nail with reference to the image data;
(6) using a first evaluation model constructed by machine learning so as to output first information indicating the evaluation result of the sanitary condition based on the length of the nails, with the image data as input; , the information processing device according to any one of (1) to (5), which generates information indicating the evaluation result based on the first information,
(7) using a second evaluation model constructed by machine learning so as to output second information indicating the evaluation result of the hygiene state based on the color of the nail, with the image data as input; The information processing device according to (6), which generates information indicating the evaluation result based on the first information and the second information,
(8) The information processing device according to any one of (1) to (7), an imaging device that images a part of the human body including the nail and generates the image data, and outputs information indicating the evaluation result. an output device; and a rating system, including:
(9) The imaging device includes an imaging device, an alignment table that enables alignment of the part with respect to the imaging device, and a light shielding wall that blocks light entering the alignment table from the outside. , the imaging equipment is installed so as to include the alignment table in an imaging range, the alignment table has a monochromatic surface facing the imaging equipment, and the light shielding wall is installed around the alignment table. The evaluation system of (8),
(10) The imaging device is installed inside an imaging box, and the imaging box has a bottom surface as the alignment table, a side surface as the light shielding wall, and a top surface on which the imaging device is installed. The evaluation system of (9), wherein the side surface has an opening that allows the site to be inserted inside the imaging box,
(11) The evaluation system of (9) or (10), wherein the imaging device includes a guide mechanism that enables imaging of the site with the adjacent claws separated from each other;
(12) By machine learning using the learning data set, the building unit is provided for building a first evaluation model that evaluates the hygiene state based on the length of the nail, and the input of the first evaluation model is a machine learning device, wherein the image data includes a nail as an object, and the output of the first evaluation model is first information indicating the evaluation result of the sanitary condition based on the length of the nail;
(13) The construction unit further constructs a second evaluation model that evaluates the sanitary condition based on the color of the nail by machine learning using the learning data set, and the input of the second evaluation model is the nail as a subject, and the output of the second evaluation model is the second information indicating the evaluation result of the hygiene state based on the color of the nail, the machine learning device of (12),
(14) An obtaining step of obtaining image data including a nail as an object, and referring to the image data to evaluate the sanitary condition of the nail based on the length of the nail, thereby generating information indicating an evaluation result. an information processing method comprising an evaluation step;
(15) A program for causing a computer to function as an information processing device according to any one of (1) to (7),
is.
1 爪の状態検査装置(評価システム)
1a、1b 評価システム
10(10’) 撮像装置(撮像端末)
10a 撮像装置(撮像端末)
20 演算装置(情報処理装置)
20a、20b 情報処理装置
21 学習済みニューラルネットワーク
21a 第1の評価モデル
21b 第2の評価モデル
22、22b 制御部
23、23b 記憶部
30(30’) 入出力装置(入出力端末)(出力装置)
30a 出力装置
40 機械学習装置
101 撮像装置(撮像機器)
102 遮光壁(側面)
103、103a、103b 底面(位置合わせ台)
104 天面
105 撮像ボックス
106 前面
107 開口部
108 LED
109a 突起(ガイド機構)
109b ガイド線(ガイド機構)
201 プロセッサ
202 一次メモリ
203 二次メモリ
204 入出力インタフェース
205 通信インタフェース
206 バス
221 取得部
222、222b 評価部
401 プロセッサ
402 一次メモリ
403 二次メモリ
404 入出力インタフェース
405 通信インタフェース
406 バス
500 画面例
501 屋内への入場不可を示す情報
600 画面例
601 屋内への入場不可を示す情報
R 部屋(屋内)
H 手の画像
P 被検者
S 管理者
1 Nail condition inspection device (evaluation system)
1a, 1b evaluation system 10 (10') imaging device (imaging terminal)
10a imaging device (imaging terminal)
20 Arithmetic device (information processing device)
20a, 20b
102 light shielding wall (side)
103, 103a, 103b bottom (alignment table)
104
109a Protrusion (guide mechanism)
109b guide wire (guide mechanism)
201
H Hand image P Examinee S Administrator
Claims (12)
前記画像データを参照して、前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、
を備え、
前記評価部は、前記爪の長さに基づく爪の衛生状態が基準を満たすか否かを示す情報を、前記評価結果を示す情報に含めて出力し、
前記評価部は、前記画像データから爪それぞれの部分画像データを抽出し、抽出した部分画像データの個数がn個以上である場合に、当該n個以上の部分画像データを参照して処理を続行し、n個未満である場合に処理を中断し、片方の手についてnを2以上5未満に設定する、情報処理装置。 an acquisition unit that acquires image data including a nail as an object;
an evaluation unit that generates information indicating an evaluation result by referring to the image data and evaluating the sanitary condition of the nail based on the length of the nail;
with
The evaluation unit outputs information indicating whether the hygiene condition of the nails based on the length of the nails satisfies a standard, included in the information indicating the evaluation results,
The evaluation unit extracts partial image data of each nail from the image data, and when the number of extracted partial image data is n or more, continues the processing by referring to the n or more partial image data. and, if the number is less than n, the processing is interrupted, and n is set to 2 or more and less than 5 for one hand .
前記評価部は、前記第1情報に基づいて前記評価結果を示す情報を生成する、請求項1から4のいずれか1項に記載の情報処理装置。 Using a first evaluation model constructed by machine learning so as to output first information indicating the evaluation result of the sanitary condition based on the length of the nail with the image data as input,
The information processing apparatus according to any one of claims 1 to 4 , wherein said evaluation unit generates information indicating said evaluation result based on said first information.
前記評価部は、前記第1情報及び前記第2情報に基づいて前記評価結果を示す情報を生成する、請求項5に記載の情報処理装置。 Using a second evaluation model constructed by machine learning so as to output second information indicating the evaluation result of the hygiene state based on the color of the nail with the image data as input,
6. The information processing apparatus according to claim 5 , wherein said evaluation unit generates information indicating said evaluation result based on said first information and said second information.
前記爪を含む人体の部位を撮像して前記画像データを生成する撮像装置と、
前記評価結果を示す情報を出力する出力装置と、
を含む評価システム。 an information processing apparatus according to any one of claims 1 to 6 ;
an imaging device that images a part of a human body including the nail and generates the image data;
an output device that outputs information indicating the evaluation result;
Rating system including.
撮像機器と、
当該撮像機器に対する前記部位の位置合わせを可能にする位置合わせ台と、
外部から前記位置合わせ台に入射する光を遮る遮光壁と、
を備えており、
前記撮像機器は、前記位置合わせ台を撮像範囲に含むように設置され、
前記位置合わせ台は、前記撮像機器に向く面が単色であり、
前記遮光壁は、前記位置合わせ台の周囲に設置されている、請求項7に記載の評価システム。 The imaging device is
an imaging device;
an alignment table that enables alignment of the region with respect to the imaging device;
a light blocking wall that blocks light entering the alignment table from the outside;
and
The imaging device is installed so as to include the alignment table in an imaging range,
the alignment table has a monochromatic surface facing the imaging device;
8. The evaluation system according to claim 7 , wherein said light shielding wall is installed around said alignment table.
前記撮像ボックスは、
前記位置合わせ台としての底面と、
前記遮光壁としての側面と、
前記撮像機器が設置される天面と、を有し、
前記側面は前記撮像ボックスの内部に前記部位を挿入可能な開口部を有している、請求項8に記載の評価システム。 The imaging device is installed inside an imaging box,
The imaging box is
a bottom surface as the alignment table;
a side surface as the light shielding wall;
a top surface on which the imaging device is installed,
9. The evaluation system according to claim 8 , wherein said side surface has an opening through which said site can be inserted inside said imaging box.
前記プロセッサが爪を被写体として含む画像データを取得する取得ステップと、
前記プロセッサが前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価ステップと、
を含み、
前記評価ステップにおいて前記プロセッサは、前記爪の長さに基づく爪の衛生状態が基準を満たすか否かを示す情報を、前記評価結果を示す情報に含めて出力し、
前記評価ステップにおいて前記プロセッサは、前記画像データから爪それぞれの部分画像データを抽出し、抽出した部分画像データの個数がn個以上である場合に、当該n個以上の部分画像データを参照して処理を続行し、n個未満である場合に処理を中断し、片方の手についてnを2以上5未満に設定する、情報処理方法。 An information processing method executed by a computer including a processor,
an acquisition step in which the processor acquires image data including a nail as an object;
an evaluation step in which the processor refers to the image data and evaluates the hygiene of the nail based on the length of the nail to generate information indicative of an evaluation result;
including
In the evaluation step, the processor outputs information indicating whether the nail hygiene based on the length of the nail satisfies the standard in the information indicating the evaluation result , and
In the evaluation step, the processor extracts partial image data of each nail from the image data, and when the number of extracted partial image data is n or more, refers to the n or more partial image data. An information processing method that continues processing, interrupts processing when the number is less than n, and sets n to 2 or more and less than 5 for one hand .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020026256 | 2020-02-19 | ||
JP2020026256 | 2020-02-19 | ||
PCT/JP2021/004705 WO2021166733A1 (en) | 2020-02-19 | 2021-02-09 | Information processing device, evaluation system, machine learning device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021166733A1 JPWO2021166733A1 (en) | 2021-08-26 |
JP7164135B2 true JP7164135B2 (en) | 2022-11-01 |
Family
ID=77390980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021533187A Active JP7164135B2 (en) | 2020-02-19 | 2021-02-09 | Information processing device, evaluation system, machine learning device, information processing method, and program |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7164135B2 (en) |
TW (1) | TW202137059A (en) |
WO (1) | WO2021166733A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7466966B1 (en) | 2023-08-17 | 2024-04-15 | 株式会社ルシェノン | Nail evaluation program, device and method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004000428A (en) | 2001-10-01 | 2004-01-08 | L'oreal Sa | Image acquisition method |
JP2017161958A (en) | 2016-03-07 | 2017-09-14 | 株式会社ニッセーデリカ | Sanitation management system and sanitation management terminal |
JP2018005268A (en) | 2016-06-27 | 2018-01-11 | 東海電子株式会社 | Roll call support system and roll call support program |
JP2018000649A (en) | 2016-07-05 | 2018-01-11 | カシオ計算機株式会社 | Drawing device and drawing method of drawing device |
JP2018195267A (en) | 2017-05-22 | 2018-12-06 | キヤノン株式会社 | Information processing apparatus, control method of information processing apparatus and program |
WO2018232510A1 (en) | 2017-06-21 | 2018-12-27 | H3Alth Technologies Inc. | System and method for manufacturing custom nails |
-
2021
- 2021-02-09 WO PCT/JP2021/004705 patent/WO2021166733A1/en active Application Filing
- 2021-02-09 TW TW110104963A patent/TW202137059A/en unknown
- 2021-02-09 JP JP2021533187A patent/JP7164135B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004000428A (en) | 2001-10-01 | 2004-01-08 | L'oreal Sa | Image acquisition method |
JP2017161958A (en) | 2016-03-07 | 2017-09-14 | 株式会社ニッセーデリカ | Sanitation management system and sanitation management terminal |
JP2018005268A (en) | 2016-06-27 | 2018-01-11 | 東海電子株式会社 | Roll call support system and roll call support program |
JP2018000649A (en) | 2016-07-05 | 2018-01-11 | カシオ計算機株式会社 | Drawing device and drawing method of drawing device |
JP2018195267A (en) | 2017-05-22 | 2018-12-06 | キヤノン株式会社 | Information processing apparatus, control method of information processing apparatus and program |
WO2018232510A1 (en) | 2017-06-21 | 2018-12-27 | H3Alth Technologies Inc. | System and method for manufacturing custom nails |
Non-Patent Citations (2)
Title |
---|
伸びっぱなしの爪には細菌がいっぱい! [online],[令和4年3月3日検索],CNS合同会社,2017年09月28日,インターネット<URL:https://www.gespa-cns.net/blog/entry-030.html> |
爪の長さが●mm以上だと汚れは約1.9倍!? 「トイレの便座」以上の汚れを検出 [online],[令和4年3月3日検索],マイナビ,2014年10月24日,インターネット<URL:https://news.mynavi.jp/article/20141024-a013/> |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7466966B1 (en) | 2023-08-17 | 2024-04-15 | 株式会社ルシェノン | Nail evaluation program, device and method |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021166733A1 (en) | 2021-08-26 |
WO2021166733A1 (en) | 2021-08-26 |
TW202137059A (en) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10685259B2 (en) | Method for analyzing an image of a dental arch | |
US11314983B2 (en) | Method for analyzing an image of a dental arch | |
Berdouses et al. | A computer-aided automated methodology for the detection and classification of occlusal caries from photographic color images | |
ES2957958T3 (en) | Procedure to analyze an image of a dental arch | |
US10755409B2 (en) | Method for analyzing an image of a dental arch | |
KR102268065B1 (en) | Visitor management device for prevention of infection | |
JP7164135B2 (en) | Information processing device, evaluation system, machine learning device, information processing method, and program | |
Popat et al. | Quantitative analysis of facial movement—A review of three-dimensional imaging techniques | |
US12053350B2 (en) | Method for analyzing an image of a dental arch | |
US20220008001A1 (en) | System and method of determining an accurate enhanced lund and browder chart and total body surface area burn score | |
Carlini et al. | A convolutional neural network-based mobile application to bedside neonatal pain assessment | |
Völter et al. | Using machine learning to track dogs’ exploratory behaviour in the presence and absence of their caregiver | |
Quellec et al. | Estimating maximal measurable performance for automated decision systems from the characteristics of the reference standard. application to diabetic retinopathy screening | |
JP5526306B2 (en) | Social affective behavior evaluation system, social affective behavior evaluation method, social affective behavior evaluation program, and computer-readable recording medium recording the same | |
Ruz et al. | Predicting facial biotypes using continuous Bayesian network classifiers | |
Dapogny et al. | On Automatically Assessing Children's Facial Expressions Quality: A Study, Database, and Protocol | |
US12020372B2 (en) | Method for analyzing a photo of a dental arch | |
US20220215547A1 (en) | Method for analyzing an image of a dental arch | |
Khanna et al. | Rule based system for recognizing emotions using multimodal approach | |
Ghosh et al. | Assessing sexual attitudes and behaviors of young women: a joint model with nonlinear time effects, time varying covariates, and dropouts | |
Flament et al. | Objective and automatic grading system of facial signs from smartphones’ pictures in South African men: Validation versus dermatologists and characterization of changes with age | |
WO2015125759A1 (en) | Aging analysis method and aging analysis device | |
Kaplin et al. | The system of intraocular pressure assessment using interference eye pictures | |
To et al. | Comparison of a custom Photogrammetry for Anatomical CarE (PHACE) system with other Low-Cost Facial Scanning Devices | |
Yanushkevich et al. | Decision-making support in biometric-based physical access control systems: Design concept, architecture, and applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210610 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7164135 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |