JP7164135B2 - Information processing device, evaluation system, machine learning device, information processing method, and program - Google Patents

Information processing device, evaluation system, machine learning device, information processing method, and program Download PDF

Info

Publication number
JP7164135B2
JP7164135B2 JP2021533187A JP2021533187A JP7164135B2 JP 7164135 B2 JP7164135 B2 JP 7164135B2 JP 2021533187 A JP2021533187 A JP 2021533187A JP 2021533187 A JP2021533187 A JP 2021533187A JP 7164135 B2 JP7164135 B2 JP 7164135B2
Authority
JP
Japan
Prior art keywords
evaluation
nail
image data
information processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021533187A
Other languages
Japanese (ja)
Other versions
JPWO2021166733A1 (en
Inventor
春香 長尾
晃汰 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TO SOLUTIONS CO., LTD.
Kewpie Corp
Original Assignee
TO SOLUTIONS CO., LTD.
QP Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TO SOLUTIONS CO., LTD., QP Corp filed Critical TO SOLUTIONS CO., LTD.
Publication of JPWO2021166733A1 publication Critical patent/JPWO2021166733A1/ja
Application granted granted Critical
Publication of JP7164135B2 publication Critical patent/JP7164135B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

本発明は、爪の状態を検査する技術に関する。 The present invention relates to a technique for inspecting the condition of nails.

人間の手の爪は日々伸び続け、定期的に切りそろえる必要がある。伸びきった爪には内側に汚れがたまりやすいことから、食品の製造現場や医療現場等では、常に適切な長さまで切りそろえられていることが求められる。また、つけ爪やマニキュア等のネイルアートが施された爪も、清潔面や異物混入の面、医療現場では感染リスクの面で、好ましくない。 Human fingernails grow daily and need to be trimmed regularly. Dirt tends to accumulate on the inside of overgrown nails, so it is required that nails are always trimmed to an appropriate length at food manufacturing sites and medical sites. In addition, false nails and nails with nail art such as manicure are not preferable in terms of cleanliness, contamination, and risk of infection in the medical field.

これらの状態を防ぐためには、熱心な指導により一人ひとりの身だしなみへの心がけを正すことや、部屋への入退出時に、他人にダブルチェックしてもらうルールを徹底する等の方法がとられてきた。しかしながら、この方法では人為的なミスを防ぎきることはできず、また、他人にダブルチェックしてもらう際には周囲の人の作業を止めてチェックしてもらう必要があり、作業効率の面でも問題があった。 In order to prevent these situations, methods have been taken such as encouraging each person to take care of their personal appearance through enthusiastic guidance, and thoroughly enforcing the rule of having others double-check when entering and leaving a room. However, this method cannot completely prevent human error, and it is necessary to stop the work of the surrounding people and have them check it when another person double-checks it. I had a problem.

日本国特開2017-185102号公報Japanese Patent Application Laid-Open No. 2017-185102

本発明は上記した課題を解決するためになされたものであり、人の目視確認を介さず簡便に爪状態可否を判定することのできる、爪の状態を検査する技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide a technique for inspecting the state of a nail, which can easily determine whether the state of the nail is acceptable without human visual confirmation. do.

特許文献1に記載された技術によれば、測定された手の3次元形状に基づき、推奨するスポーツ用手保護具を選択することができる。しかしながら、人の目視確認を介さず簡便に爪状態可否を判定することについて解決する技術は存在しなかった。 According to the technique described in Patent Literature 1, it is possible to select recommended sports hand protectors based on the measured three-dimensional shape of the hand. However, there has been no technology that solves the problem of simply determining whether the nail condition is acceptable or not without human visual confirmation.

上記課題を解決するため、本発明の一態様に係る情報処理装置は、爪を被写体として含む画像データを取得する取得部と、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、を備えた構成である。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes an acquisition unit that acquires image data including a nail as a subject; and an evaluation unit that generates information indicating an evaluation result by evaluating the sanitary condition.

本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The information processing apparatus according to each aspect of the present invention may be implemented by a computer. In this case, the information processing apparatus is implemented by the computer by operating the computer as each part (software element) provided in the information processing apparatus. A control program for an information processing apparatus realized by a computer and a computer-readable recording medium recording it are also included in the scope of the present invention.

本発明によれば、人の目視確認を介さず簡便に爪状態可否を判定することのできる技術を提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a technique capable of easily determining whether a nail condition is acceptable or not without human visual confirmation.

本発明の実施の形態1に係る爪の状態検査装置(情報処理装置)の構成図である。1 is a configuration diagram of a nail condition inspection device (information processing device) according to Embodiment 1 of the present invention; FIG. 本発明の実施の形態1に係る撮像装置の説明図である。1 is an explanatory diagram of an imaging device according to Embodiment 1 of the present invention; FIG. 本発明の実施の形態1に係る爪の状態検査装置(評価システム)の概略構成一例である。1 is an example of a schematic configuration of a nail condition inspection device (evaluation system) according to Embodiment 1 of the present invention; 本発明の実施の形態1に係る爪の状態検査装置(評価システム)の概略構成一例である。1 is an example of a schematic configuration of a nail condition inspection device (evaluation system) according to Embodiment 1 of the present invention; 本発明の実施の形態2に係る評価システムの構成を示すブロック図である。It is a block diagram which shows the structure of the evaluation system which concerns on Embodiment 2 of this invention. 図5の評価システムに含まれる情報処理装置が実施する情報処理方法の流れを示すフローチャートである。6 is a flowchart showing the flow of an information processing method performed by an information processing device included in the evaluation system of FIG. 5; 図6のフローチャートに示す評価ステップの処理の一例を説明する模式図である。FIG. 7 is a schematic diagram illustrating an example of processing in an evaluation step shown in the flowchart of FIG. 6; 図5の評価システムに含まれる被検者側の出力装置が出力する「評価結果を示す情報」の一例を示す図である。6 is a diagram showing an example of "information indicating an evaluation result" output by an output device on the subject's side included in the evaluation system of FIG. 5; FIG. 図5の評価システムに含まれる管理者側の出力装置が出力する「評価結果を示す情報」の一例を示す図である。6 is a diagram showing an example of "information indicating an evaluation result" output by an output device on the side of a manager included in the evaluation system of FIG. 5; FIG. 図5の評価システムに含まれる撮像装置の構成を示す斜視図である。6 is a perspective view showing the configuration of an imaging device included in the evaluation system of FIG. 5; FIG. 図10の撮像装置が備えているガイド機構の構成の一例を示す上面図である。FIG. 11 is a top view showing an example of the configuration of a guide mechanism provided in the imaging device of FIG. 10; 図5の評価システムに含まれる機械学習装置が実施する機械学習方法の流れを示すフローチャートである。6 is a flow chart showing the flow of a machine learning method performed by a machine learning device included in the evaluation system of FIG. 5; 図5の評価システムに含まれる情報処理装置のハードウエア構成を示すブロック図である。6 is a block diagram showing the hardware configuration of an information processing device included in the evaluation system of FIG. 5; FIG. 図5の評価システムに含まれる機械学習装置のハードウエア構成を示すブロック図である。6 is a block diagram showing the hardware configuration of a machine learning device included in the evaluation system of FIG. 5; FIG. 本発明の実施の形態3に係る評価システムの構成を示すブロック図である。It is a block diagram which shows the structure of the evaluation system which concerns on Embodiment 3 of this invention.

〔実施形態1〕
以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態と称する)について、詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号を付している。
[Embodiment 1]
EMBODIMENT OF THE INVENTION Hereinafter, with reference to an accompanying drawing, the form (henceforth an embodiment) for implementing this invention is demonstrated in detail. The same numbers are given to the same elements throughout the description of the embodiment.

(実施形態1の構成)
図1に示すように、本実施形態1に係る爪の状態検査装置(評価システム)1は、少なくとも、撮像装置10と、演算装置(情報処理装置)20と、入出力装置30と、をハードウエア資源として備え、前記演算装置(情報処理装置)20は学習済みニューラルネットワーク(評価モデル)21を備える。
(Configuration of Embodiment 1)
As shown in FIG. 1, a nail condition inspection device (evaluation system) 1 according to the first embodiment includes at least an imaging device 10, an arithmetic device (information processing device) 20, and an input/output device 30 as hardware. The computing device (information processing device) 20 has a trained neural network (evaluation model) 21 .

演算装置(情報処理装置)20と入出力装置30は、例えば、スタンドアローン構成のコンピュータ(例えば、パソコン(Personal Computer)等)や、サーバとコンピュータを組み合わせたオンライン構成のもので実現可能である。 The arithmetic device (information processing device) 20 and the input/output device 30 can be implemented by, for example, a computer with a stand-alone configuration (for example, a personal computer) or an online configuration that combines a server and a computer.

爪の状態検査装置(評価システム)1は、あらゆる目的での判定に使用できるが、特に前記判定により、部屋(屋内)Rへの人の入退場可否を判定することに使用できる。さらに、部屋(屋内)Rが手の衛生的状態が求められる、食品の製造現場や医療現場であると好適であり、特に食品工場の部屋(屋内)Rまたは食品加工場Rが特に好適である。 The nail condition inspection device (evaluation system) 1 can be used for determination for any purpose, and can be used particularly for determining whether or not a person can enter or leave the room (indoor) R by the above determination. Furthermore, it is preferable that the room (indoor) R is a food manufacturing site or a medical site where hand hygiene is required, and a room (indoor) R of a food factory or a food processing plant R is particularly preferable. .

演算装置(情報処理装置)20は、人の手の画像Hで学習された学習済みニューラルネットワーク(評価モデル)21を備える。人の手の画像Hは、撮像装置10で得られたものでもよいし、またその他の撮像装置を用いたものでもよいが、画角・色調などの観点から、撮像装置10と同じ構成の撮像装置から得られたものが好ましい。また、人の手の画像は、爪を検査するため、少なくとも人の手の甲側の画像を含む。 The computing device (information processing device) 20 includes a trained neural network (evaluation model) 21 trained with an image H of a human hand. The image H of the human hand may be obtained by the imaging device 10, or may be obtained by using another imaging device. Those obtained from the apparatus are preferred. Also, the image of the human hand includes at least the image of the back side of the human hand to inspect the nails.

前記学習済みニューラルネットワーク(評価モデル)21は、爪の長さや爪全体の色調等といった爪の情報と、目視による判定結果情報により学習されていることができ、これにより、被検者Pの手の甲側の画像から、爪の状態を判定することができる。 The learned neural network (evaluation model) 21 can be learned from nail information such as the length of the nail and the color tone of the entire nail, and judgment result information by visual observation. From the side image, the condition of the nail can be determined.

また前記学習済みニューラルネットワーク(評価モデル)21は、前記爪全体の色調をもとに学習することで、爪に付着物があるかを判別できるようにすることができる。付着物とは例えば、ネイルアートのことをいい、スカルプ、ネイルチップ、ラインストーンの設置、マニキュア、ジェル等が挙げられる。 Further, the learned neural network (evaluation model) 21 can learn based on the color tone of the nail as a whole, so that it is possible to determine whether or not there is a deposit on the nail. Examples of attachments include nail art, scalps, nail tips, installation of rhinestones, manicures, gels, and the like.

入出力装置30は、ディスプレイ、表示灯、ブザーなどの音響機器などの出力機器(出力装置)を用いることができる。またさらに、マウス、キーボード、タッチパネル、などの入力機器を備えてもよい。 The input/output device 30 can use an output device (output device) such as a display, an indicator lamp, and an acoustic device such as a buzzer. Furthermore, input devices such as a mouse, keyboard, and touch panel may be provided.

図2に示すように、本実施形態に係る撮像部(撮像装置)10は、上部に撮像機器101が設置され、下部に底面103が設置され、さらに遮光壁102を有することができる。前記底面103は、単色であると好ましい。遮光壁102と底面103とは、外からの光が底面103にあたりにくいよう連続体として構成することもできる。またさらに、後述する図10に示すように、天面104を加えて連続体として構成された箱体である撮像ボックス105として構成することもでき、手を入れる一面を除いて他の面からの光の侵入を防止し、部屋(屋内)の入退場口に設置されることもできる。被検者Pは前記撮像装置に自分の手の甲を上にした状態で差し入れ、画像を取得することができる。 As shown in FIG. 2, an imaging unit (imaging device) 10 according to the present embodiment has an imaging device 101 installed at the top, a bottom surface 103 installed at the bottom, and a light shielding wall 102 . The bottom surface 103 is preferably monochromatic. The light shielding wall 102 and the bottom surface 103 can also be configured as a continuous body so that light from the outside does not easily hit the bottom surface 103 . Furthermore, as shown in FIG. 10, which will be described later, an imaging box 105, which is a box-shaped continuous body formed by adding a top surface 104, can be configured. It prevents light from entering and can be installed at the entrance/exit of a room (indoor). A subject P can obtain an image by inserting the back of his or her hand into the imaging device.

図3に、爪の状態検査装置(評価システム)1がスタンドアローン構成の場合の構成例を示す。この場合、演算装置(情報処理装置)20及び入出力装置30は1台のパソコンとして構成されてもよい。被検者Pは撮像装置10により手の画像H(後述する図7参照)を取得し、演算装置(情報処理装置)20に手の画像Hを送信する。演算装置20は学習済みニューラルネットワーク(評価モデル)21により、前記手の画像Hを判定する。判定の結果を入出力装置30に出力することができてもよい。 FIG. 3 shows a configuration example in which the nail condition inspection device (evaluation system) 1 has a stand-alone configuration. In this case, the computing device (information processing device) 20 and the input/output device 30 may be configured as one personal computer. The subject P acquires a hand image H (see FIG. 7, which will be described later) using the imaging device 10 and transmits the hand image H to the arithmetic device (information processing device) 20 . The computing device 20 judges the image H of the hand by means of a trained neural network (evaluation model) 21 . It may be possible to output the determination result to the input/output device 30 .

管理者Sは前記パソコンにより、保存された被検者Pの情報を確認することができてもよい。その際、被検者Pの社員コード等個人に一意に設定された情報に紐づき、別途測定または入力した、被検者Pの体調の情報、例えば体温や吐息のアルコール情報、傷の有無、髪の毛が帽子から出ていないか等の情報を一覧で表示することができてもよい。 The administrator S may be able to confirm the stored information of the subject P using the personal computer. At that time, information on the physical condition of the subject P, such as body temperature, breath alcohol information, whether or not there is a wound, is linked to information uniquely set for the individual, such as the employee code of the subject P. Information such as whether or not the hair is sticking out of the hat may be displayed in a list form.

図4に、入退場検査装置(評価システム)1がオンライン構成の場合の構成例を示す。この場合、被検者Pと管理者Sは別々の入出力装置30を用いることができてもよい。被検者Pは撮像装置10により手の画像H(後述する図7参照)を取得し、演算装置(情報処理装置)20に手の画像Hを送信する。演算装置(情報処理装置)20は学習済みニューラルネットワーク(評価モデル)21により、前記手の画像Hを判定する。判定の結果を被検者側及び/または管理者側の入出力装置30に出力することができてもよい。 FIG. 4 shows a configuration example in which the entrance/exit inspection device (evaluation system) 1 has an online configuration. In this case, the subject P and the administrator S may be able to use separate input/output devices 30 . The subject P acquires a hand image H (see FIG. 7, which will be described later) using the imaging device 10 and transmits the hand image H to the arithmetic device (information processing device) 20 . The computing device (information processing device) 20 judges the image H of the hand using a trained neural network (evaluation model) 21 . The determination result may be output to the input/output device 30 on the subject side and/or the administrator side.

管理者Sは管理者側の入出力装置を用い、保存された被検者Pの情報を確認することができてもよい。その際、被検者Pの社員コード等個人に一意に設定された情報に紐づき、別途測定または入力した、被検者Pの体調の情報、例えば、体温や吐息のアルコール情報、傷の有無、髪の毛が帽子から出ていないか等の情報を一覧で表示することができてもよい。 The administrator S may be able to check the stored information on the subject P using the input/output device on the administrator side. At that time, information on the physical condition of the subject P, such as body temperature, breath alcohol information, and whether or not there is a wound, is linked to the information uniquely set for the individual, such as the employee code of the subject P, and is separately measured or input. , whether or not the hair is sticking out of the hat, etc., may be displayed in a list form.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as the members described in the first embodiment are denoted by the same reference numerals, and description thereof will not be repeated.

(評価システム1aの構成)
本発明の実施形態2に係る評価システム1aについて、図5を参照して説明する。図5は、評価システム1aの構成を表す図である。
(Configuration of evaluation system 1a)
An evaluation system 1a according to Embodiment 2 of the present invention will be described with reference to FIG. FIG. 5 is a diagram showing the configuration of the evaluation system 1a.

評価システム1aは、爪の長さに基づく衛生状態を評価するためのシステムである。評価システム1aは、図5に示すように、撮像装置10aと、情報処理装置20aと、出力装置30aと、機械学習装置40と、を備えている。入出力装置30は、特許請求の範囲に記載した出力装置の一例である。情報処理装置20aは、撮像装置10a、機械学習装置40、及び出力装置30aのそれぞれと通信可能に接続される。 Evaluation system 1a is a system for evaluating hygiene based on nail length. The evaluation system 1a includes an imaging device 10a, an information processing device 20a, an output device 30a, and a machine learning device 40, as shown in FIG. The input/output device 30 is an example of the output device described in the claims. The information processing device 20a is communicably connected to each of the imaging device 10a, the machine learning device 40, and the output device 30a.

撮像装置10aは、爪を含む人体の部位を撮像して、爪を被写体として含む画像データ(以下、単に「画像データ」という場合がある。)を生成するための装置である。撮像装置10aは、撮像ボックス105を備えている点が、実施形態1における撮像装置10と少なくとも異なる。撮像装置10aの構成の詳細については、参照する図面を代えて後述する。出力装置30aは、実施形態1における入出力装置30に含まれる出力機器である。 The imaging device 10a is a device for capturing an image of a human body part including a nail and generating image data including the nail as a subject (hereinafter, sometimes simply referred to as "image data"). The imaging device 10a differs from the imaging device 10 according to the first embodiment at least in that an imaging box 105 is provided. The details of the configuration of the imaging device 10a will be described later with reference to a different drawing. The output device 30a is an output device included in the input/output device 30 in the first embodiment.

情報処理装置20aは、学習済みニューラルネットワーク21(図1)の代わりに、第1の評価モデル21a及び第2の評価モデル21bを用いる点が、実施形態1における演算装置(情報処理装置)20と少なくとも異なる。情報処理装置20aは、情報処理方法M1を実施するための装置である。情報処理方法M1は、撮像装置10aから提供された画像データに基づき、第1の評価モデル21a及び第2の評価モデル21bを用いて爪の衛生状態を評価する方法である。情報処理装置20aの構成及び情報処理方法M1の流れの詳細については、参照する図面を代えて後述する。 The information processing device 20a differs from the computing device (information processing device) 20 in the first embodiment in that it uses a first evaluation model 21a and a second evaluation model 21b instead of the trained neural network 21 (FIG. 1). At least different. The information processing device 20a is a device for implementing the information processing method M1. The information processing method M1 is a method of evaluating nail hygiene using the first evaluation model 21a and the second evaluation model 21b based on the image data provided from the imaging device 10a. Details of the configuration of the information processing apparatus 20a and the flow of the information processing method M1 will be described later with reference to different drawings.

ここで、第1の評価モデル21a及び第2の評価モデル21bとしては、それぞれ、例えば、CNN(Convolution Neural Network)、GAN(Generative Adversarial Network)等といった、ニューラルネットワークを利用した機械学習アルゴリズムを用いることができる。また、第1の評価モデル21a及び第2の評価モデル21bとしては、サポートベクタマシン、ランダムフォレスト、勾配ブースティング・ツリー等といった、ニューラルネットワークを利用しない機械学習アルゴリズムを用いることができる。ただし、第1の評価モデル21a及び第2の評価モデル21bをそれぞれ実現するアルゴリズムは、上述したものに限られない。また、第1の評価モデル21a及び第2の評価モデル21bをそれぞれ実現するアルゴリズムは、同一であってもよいし、異なっていてもよい。 Here, as the first evaluation model 21a and the second evaluation model 21b, for example, machine learning algorithms using neural networks, such as CNN (Convolution Neural Network) and GAN (Generative Adversarial Network), may be used. can be done. As the first evaluation model 21a and the second evaluation model 21b, machine learning algorithms that do not use neural networks, such as support vector machines, random forests, and gradient boosting trees, can be used. However, algorithms for realizing the first evaluation model 21a and the second evaluation model 21b are not limited to those described above. Algorithms for realizing the first evaluation model 21a and the second evaluation model 21b may be the same or different.

第1の評価モデル21aは、画像データを入力として、爪の長さに基づく衛生状態の評価結果を示す第1情報を出力するよう機械学習により構築される。ここで、「爪の長さ」は、例えば、爪先の長さである。「爪先」は、爪床から出て白く見える部分であり、爪先の長さは、爪の黄線から爪の先端までの長さに相当する。なお、「黄線」は、爪甲と爪先との境界であり、「爪甲」は、爪床の上にある爪の領域であり、「爪床」は、爪甲の下にある皮下組織である。ただし、第1の評価モデル21aは、爪の長さ(例えば、上述した爪先の長さ)自体を正解データとして機械学習されるものではない。第1の評価モデル21aは、評価者が爪の長さ(例えば、上述した爪先の長さ)の観点から衛生状態を評価した評価結果を正解データとして機械学習により構築される。なお、「爪の長さ」とは、上述した爪先の長さに限定されない。例えば、「爪の長さ」とは、爪全体の長さであってもよいし、爪全体の長さに対する爪先の長さの割合であってもよい。また、「爪の長さ」とは、爪先の長さ、爪全体の長さ、爪全体の長さに対する爪先の長さの割合、及びその他の観点の一部または全てを含む総合的な観点であってもよい。この場合、第1の評価モデル21aは、評価者が爪の長さの総合的な観点から衛生状態を評価した評価結果を正解データとして機械学習により構築される。第1の評価モデル21aを機械学習により構築する方法については後述する。 The first evaluation model 21a is constructed by machine learning so as to input image data and output first information indicating the evaluation result of the sanitary condition based on the length of the nail. Here, the "nail length" is, for example, the length of the tip of the nail. The "toe" is a white portion that protrudes from the nail bed, and the length of the toe corresponds to the length from the yellow line of the nail to the tip of the nail. The "yellow line" is the boundary between the nail plate and the toe, the "nail plate" is the area of the nail above the nail bed, and the "nail bed" is the subcutaneous tissue below the nail plate. is. However, the first evaluation model 21a is not machine-learned using the length of the nail (for example, the length of the toe described above) itself as correct data. The first evaluation model 21a is constructed by machine learning using evaluation results obtained by an evaluator from the viewpoint of nail length (for example, the length of the toe described above) as correct answer data. Note that the "length of the nail" is not limited to the length of the tip of the nail described above. For example, the "length of the nail" may be the length of the entire nail or the ratio of the length of the tip to the length of the entire nail. In addition, the "length of the nail" is a comprehensive viewpoint including part or all of the length of the nail, the length of the entire nail, the ratio of the length of the nail to the length of the entire nail, and other aspects. may be In this case, the first evaluation model 21a is constructed by machine learning using the evaluation result of the evaluator's evaluation of the sanitary condition from a comprehensive viewpoint of the nail length as the correct answer data. A method of constructing the first evaluation model 21a by machine learning will be described later.

第2の評価モデル21bは、画像データを入力として、爪の色に基づく衛生状態の評価結果を示す第2情報を出力するよう機械学習により構築される。ここで、「爪の色」は、爪の色調、色相等である。また、「爪の色」は、少なくとも爪の一部の色であればよいが、衛生上の観点から、爪全体の色であることが好ましい。第2の評価モデル21bを機械学習により構築する方法については後述する。 The second evaluation model 21b is constructed by machine learning so as to input the image data and output the second information indicating the evaluation result of the sanitary condition based on the nail color. Here, the "nail color" is the color tone, hue, or the like of the nail. Further, the "nail color" may be the color of at least a part of the nail, but is preferably the color of the entire nail from the viewpoint of hygiene. A method of constructing the second evaluation model 21b by machine learning will be described later.

第1の評価モデル21aの入力である爪を被写体として含む画像データと第1の評価モデル21aの出力である爪の長さに基づく衛生状態との間には、関係式として明示的に特定することは困難であるものの、一定の関係があることが知られている。同様に、第2の評価モデル21bの入力である爪を被写体として含む画像データと第2の評価モデル21bの出力である爪の色に基づく衛生状態との間にも、一定の関係があることが知られている。したがって、爪を被写体として含む画像データを入力とする第1の評価モデル21aを用いれば、爪の長さに基づく衛生状態を精度良く評価することができる。また、爪を被写体として含む画像データを入力とする第2の評価モデル21bを用いれば、爪の色に基づく衛生状態を精度良く評価することができる。 The relationship between the image data including the nail as the subject, which is the input of the first evaluation model 21a, and the sanitary condition based on the length of the nail, which is the output of the first evaluation model 21a, is explicitly specified as a relational expression. It is known that there is a certain relationship, although it is difficult to Similarly, there is a certain relationship between the image data including nails as an object, which is the input of the second evaluation model 21b, and the hygiene state based on the nail color, which is the output of the second evaluation model 21b. It has been known. Therefore, by using the first evaluation model 21a whose input is image data including nails as subjects, it is possible to accurately evaluate the sanitary condition based on the length of the nails. Further, by using the second evaluation model 21b that receives image data including nails as an object, it is possible to accurately evaluate the sanitary condition based on the color of the nails.

機械学習装置40は、機械学習方法M2を実施するための装置である。機械学習方法M2は、学習用の画像データを用いて学習用データセットを作成すると共に、学習用データデータセットを用いた機械学習によって第1の評価モデル21a及び第2の評価モデル21bを構築するための方法である。機械学習装置40の構成及び機械学習方法M2の流れの詳細については、参照する図面を代えて後述する。 The machine learning device 40 is a device for implementing the machine learning method M2. The machine learning method M2 creates a learning data set using the learning image data, and builds the first evaluation model 21a and the second evaluation model 21b by machine learning using the learning data data set. It is a method for The configuration of the machine learning device 40 and the details of the flow of the machine learning method M2 will be described later with reference to a different drawing.

評価システム1aは、準備フェーズと試用フェーズとを経て実用フェーズに至る。準備フェーズ、試用フェーズ、及び実用フェーズについて、その内容を簡単に説明すれば、以下のとおりである。 The evaluation system 1a goes through a preparation phase, a trial phase, and then a practical use phase. A brief description of the contents of the preparation phase, the trial phase, and the practical use phase is as follows.

(1)準備フェーズ
準備フェーズは、機械学習装置40が第1の評価モデル21a及び第2の評価モデル21bを構築するフェーズである。準備フェーズにおいては、評価者が、複数の学習用の画像データの各々に被写体として含まれる爪に対して、爪の長さに基づく評価及び爪の色に基づく評価を行う。機械学習装置40は、各学習用の画像データに対して評価者による評価結果をラベル付けした教師データからなる学習用データセットを生成し、学習用データセットを用いた機械学習によって第1の評価モデル21a及び第2の評価モデル21bを構築する。構築された第1の評価モデル21a及び第2の評価モデル21bは、機械学習装置40から情報処理装置20aに転送される。
(1) Preparation Phase In the preparation phase, the machine learning device 40 constructs the first evaluation model 21a and the second evaluation model 21b. In the preparation phase, an evaluator performs an evaluation based on the length of the nail and an evaluation based on the color of the nail included as a subject in each of the plurality of image data for learning. The machine learning device 40 generates a learning data set composed of teacher data in which the evaluation result by the evaluator is labeled for each learning image data, and performs the first evaluation by machine learning using the learning data set. A model 21a and a second evaluation model 21b are constructed. The constructed first evaluation model 21a and second evaluation model 21b are transferred from the machine learning device 40 to the information processing device 20a.

(2)試用フェーズ
試用フェーズにおいては、評価システム1aは、屋内(例えば、食品工場の部屋等の部屋)の入口に設置される。屋内に入場すべき作業者が手の爪を撮像装置10aの撮像ボックス105(後述する図10参照)に差し入れると、情報処理装置20aは、爪を被写体として含む画像データを撮像装置10aから取得して、当該爪の衛生状態の評価を行う。試用フェーズにおいて、評価者は、情報処理装置20aが評価対象とした画像データに対して、爪の長さに基づく評価及び爪の色に基づく評価を行う。評価者による評価は、情報処理装置20aによる評価が行われる度に行われてもよいし、情報処理装置20aによる評価が所定の期間(例えば、1週間、1ヶ月、または1年など)または所定回数(例えば、100回、1000回、または10000回など)実施された後にまとめて実施されてもよい。評価者は、当該評価者による評価結果と、情報処理装置20aによる評価結果とを比較し、情報処理装置20aの評価精度を評価する。評価精度が不十分である場合には、準備フェーズに戻る。評価精度が十分である場合には、実用フェーズに進む。なお、評価精度の確認は、準備フェーズが終了した段階で、学習用データセットの一部を利用して行ってもよい。この場合、試用フェーズを省略することができる。
(2) Trial Phase In the trial phase, the evaluation system 1a is installed at the entrance of a room (for example, a room such as a room in a food factory). When a worker who should enter the room inserts his/her fingernail into the imaging box 105 (see FIG. 10 described later) of the imaging device 10a, the information processing device 20a acquires image data including the fingernail as an object from the imaging device 10a. to assess the hygiene of the nail. In the trial phase, the evaluator performs an evaluation based on the length of the nail and an evaluation based on the color of the nail for the image data to be evaluated by the information processing device 20a. The evaluation by the evaluator may be performed each time the information processing device 20a performs the evaluation, or the evaluation by the information processing device 20a may be performed for a predetermined period (for example, one week, one month, or one year) or after a predetermined period of time. After being performed a number of times (for example, 100 times, 1000 times, or 10000 times), it may be performed collectively. The evaluator compares the evaluation result by the evaluator and the evaluation result by the information processing device 20a, and evaluates the evaluation accuracy of the information processing device 20a. If the evaluation accuracy is insufficient, return to the preparation phase. If the evaluation accuracy is sufficient, proceed to the practical use phase. Note that evaluation accuracy may be confirmed using a part of the learning data set after the preparation phase is finished. In this case, the trial phase can be omitted.

(3)実用フェーズ
実用フェーズにおいては、情報処理装置20aが爪の長さ及び色に基づく爪の衛生状態の評価を行う。実用フェーズにおいて情報処理装置20aが用いる第1の評価モデル21a及び第2の評価モデル21bは、試用フェーズにおいて十分な推定精度を有することを確かめられたものである。実用フェーズにおいては、食品工場の部屋に被検者が入場する際に、目視による爪の長さ及び色に基づく衛生状態の評価を省略することができる。このため、爪の長さ及び色に基づく衛生状態の評価の手間から被検者を解放すると共に、人の目視確認を介さず簡便に、且つ精度良く爪の長さ及び色に基づく衛生状態の評価を行うことが可能になる。
(3) Practical Phase In the practical phase, the information processing device 20a evaluates nail hygiene based on the length and color of the nail. The first evaluation model 21a and the second evaluation model 21b used by the information processing apparatus 20a in the practical phase were confirmed to have sufficient estimation accuracy in the trial phase. In the practical phase, the visual assessment of hygiene based on nail length and color can be omitted when the subject enters the room of the food factory. Therefore, the subject is freed from the trouble of evaluating the hygiene state based on the length and color of the nails, and the hygiene state based on the length and color of the nails can be easily and accurately evaluated without human visual confirmation. evaluation can be made.

(情報処理装置20aの構成)
情報処理装置20aの構成について、図5を参照して説明する。情報処理装置20aは、制御部22及び記憶部23を備えている。制御部22は、情報処理装置20aを統括的に制御する。情報処理装置20aにおいて、制御部22は、取得部221及び評価部222を含む。取得部221は、情報処理方法M1の取得ステップM11を実行する。評価部222は、情報処理方法M1の評価ステップM12及び出力ステップM13を実行する。情報処理方法M1の流れの詳細については後述する。記憶部23には、第1の評価モデル21a及び第2の評価モデル21bが格納されている。
(Configuration of information processing device 20a)
The configuration of the information processing device 20a will be described with reference to FIG. The information processing device 20 a includes a control section 22 and a storage section 23 . The control unit 22 comprehensively controls the information processing device 20a. In the information processing device 20 a , the control section 22 includes an acquisition section 221 and an evaluation section 222 . Acquisition unit 221 executes acquisition step M11 of information processing method M1. The evaluation unit 222 executes the evaluation step M12 and the output step M13 of the information processing method M1. The details of the flow of the information processing method M1 will be described later. The storage unit 23 stores a first evaluation model 21a and a second evaluation model 21b.

(情報処理方法M1の流れ)
情報処理方法M1の流れについて、図6を参照して説明する。図6は、情報処理方法M1の流れを示すフローチャートである。
(Flow of information processing method M1)
The flow of the information processing method M1 will be described with reference to FIG. FIG. 6 is a flow chart showing the flow of the information processing method M1.

情報処理方法M1は、取得ステップM11と、評価ステップM12と、出力ステップM13と、を含んでいる。 The information processing method M1 includes an acquisition step M11, an evaluation step M12, and an output step M13.

(取得ステップM11)
取得ステップM11は、取得部221が、爪を被写体として含む画像データを取得するステップである。取得ステップM11において、取得部221は、撮像装置10aが生成した爪を被写体として含む画像データを取得する。
(Acquisition step M11)
Acquisition step M11 is a step in which the acquisition unit 221 acquires image data including a nail as a subject. In acquisition step M11, the acquisition unit 221 acquires image data including a nail as a subject generated by the imaging device 10a.

(評価ステップM12)
評価ステップM12は、評価部222が、第1の評価モデル21a及び第2の評価モデル21bを用いて爪の長さ及び色に基づく衛生状態を評価するステップである。評価ステップM12において、評価部222は、取得部221が取得した画像データに含まれている少なくとも2本以上の指の爪の領域に基づいて、爪の衛生状態を評価する。具体的には、評価部222は、取得部221が取得した爪を被写体として含む画像データを第1の評価モデル21aに入力し、第1の評価モデル21aから出力される第1情報を取得する。また、評価部222は、取得部221が取得した爪を被写体として含む画像データを第2の評価モデル21bに入力し、第2の評価モデル21bから出力される第2情報を取得する。また、評価部222は、第1情報および第2情報に基づいて、評価結果を示す情報を生成する。なお、評価部222は、評価結果を示す情報を記憶部23に書き込む。
(Evaluation step M12)
The evaluation step M12 is a step in which the evaluation unit 222 evaluates the sanitary condition based on the length and color of the nail using the first evaluation model 21a and the second evaluation model 21b. In the evaluation step M<b>12 , the evaluation unit 222 evaluates nail hygiene based on at least two fingernail regions included in the image data acquired by the acquisition unit 221 . Specifically, the evaluation unit 222 inputs the image data including the nail as the subject acquired by the acquisition unit 221 to the first evaluation model 21a, and acquires the first information output from the first evaluation model 21a. . In addition, the evaluation unit 222 inputs the image data including the nail as a subject acquired by the acquisition unit 221 to the second evaluation model 21b, and acquires the second information output from the second evaluation model 21b. Also, the evaluation unit 222 generates information indicating evaluation results based on the first information and the second information. Note that the evaluation unit 222 writes information indicating the evaluation result into the storage unit 23 .

図7は、評価ステップM12の処理の一例を説明する模式図である。例えば、評価ステップM12は、部分画像データの抽出処理と、第1の評価処理と、第2の評価処理と、評価結果を示す情報の生成処理とを含む。図7を参照して、これらの処理について説明する。 FIG. 7 is a schematic diagram illustrating an example of the processing of the evaluation step M12. For example, the evaluation step M12 includes a process of extracting partial image data, a first evaluation process, a second evaluation process, and a process of generating information indicating evaluation results. These processes will be described with reference to FIG.

(部分画像データの抽出処理)
評価部222は、取得部221が取得した爪を被写体として含む画像データHから、5本の指それぞれの「爪」の領域を、部分画像データIMG-1、IMG-2、IMG-3、IMG-4、IMG-5として抽出する。部分画像データIMG-1は親指の爪の領域であり、部分画像データIMG-2は人差し指の爪の領域であり、部分画像データIMG-3は中指の爪の領域であり、部分画像データIMG-4は薬指の爪の領域であり、部分画像データIMG-5は小指の爪の領域である。以降、部分画像データIMG1~IMG5のそれぞれを特に区別する必要が無い場合には、単に部分画像データIMG-i(i=1,2,3,4,5)とも記載する。換言すると、部分画像データIMG-iは、1つの爪を被写体として含む。
(Extraction processing of partial image data)
The evaluation unit 222 extracts the “nail” regions of each of the five fingers from the image data H obtained by the acquisition unit 221 and including the nail as the subject, and converts them into partial image data IMG-1, IMG-2, IMG-3, and IMG. -4, extracted as IMG-5. Partial image data IMG-1 is the thumb nail area, partial image data IMG-2 is the index finger nail area, partial image data IMG-3 is the middle finger nail area, and partial image data IMG-1 is the nail area of the index finger. 4 is the area of the nail of the ring finger, and the partial image data IMG-5 is the area of the nail of the little finger. Hereinafter, partial image data IMG1 to IMG5 are also simply referred to as partial image data IMG-i (i=1, 2, 3, 4, 5) when there is no particular need to distinguish between them. In other words, partial image data IMG-i includes one nail as a subject.

なお、画像データから爪の領域を抽出する手法としては、公知の物体検出アルゴリズムを用いることができる。そのような物体検出アルゴリズムの一例として、YOLO V3(You Only Look Once V3)、MASK R-CNN(MASK Regions with CNN features)等が挙げられるが、これらに限られない。 A known object detection algorithm can be used as a method for extracting the nail region from the image data. Examples of such object detection algorithms include, but are not limited to, YOLO V3 (You Only Look Once V3), MASK R-CNN (MASK Regions with CNN features), and the like.

また、評価部222が画像データHから抽出する部分画像データIMG-iの数は、5つに限定されないが、複数であることが好ましい。例えば、評価部222は、n(nは2以上の整数)個以上の部分画像データIMG-iを抽出した場合に処理を続行し、n個未満の部分画像データIMG-iを抽出した場合には処理を中断してエラー情報を出力してもよい。例えば、nを2以上5未満に設定することにより、撮影時の手の位置等に起因して5つの爪の全てが画像データHに含まれていない場合、又は、撮影時の指の向き等に起因して一部の爪が明瞭に画像データHに含まれていない場合にも柔軟に対応可能となる。 Also, the number of partial image data IMG-i extracted from the image data H by the evaluation unit 222 is not limited to five, but is preferably plural. For example, the evaluation unit 222 continues the process when n (n is an integer equal to or greater than 2) pieces of partial image data IMG-i are extracted, and when less than n pieces of partial image data IMG-i are extracted, may interrupt processing and output error information. For example, by setting n to 2 or more and less than 5, if all five nails are not included in the image data H due to the position of the hand at the time of shooting, or if the orientation of the finger at the time of shooting, etc. It is possible to flexibly deal with a case where some nails are not clearly included in the image data H due to the above.

(第1の評価処理)
評価部222は、抽出したn個の部分画像データIMG-iのそれぞれを第1の評価モデル21aに入力する。その結果、第1の評価モデル21aから第1スコアが出力される。ここで、第1スコアは、爪の長さに基づく衛生状態の評価結果を示す第1情報の一例である。第1スコアは、0以上、1以下の範囲の数値であり、爪の長さに基づく衛生状態が良好である可能性を示している。つまり、第1スコアが1に近いほど、爪の長さに基づく衛生状態が良好である可能性が高く、0に近いほど良好でない可能性が高い。n個の部分画像データIMG-iから得られたn個の第1スコアの平均値が所定の閾値以上であれば、評価部222は、被検者Pの爪の長さに基づく衛生状態を「合格」と評価する。一方、第1スコアの平均値が所定の閾値未満であれば、評価部222は、被検者Pの爪の長さに基づく衛生状態を「不合格」と評価する。評価部222は、被検者Pの識別情報(社員コード等)に関連付けて、爪の長さの合否を示す情報を記憶部23に記憶する。
(First evaluation process)
The evaluation unit 222 inputs each of the extracted n pieces of partial image data IMG-i to the first evaluation model 21a. As a result, the first score is output from the first evaluation model 21a. Here, the first score is an example of the first information indicating the evaluation result of the sanitary condition based on the nail length. The first score is a numerical value in the range of 0 or more and 1 or less, and indicates the possibility of good hygiene based on the length of the nail. That is, the closer the first score is to 1, the higher the possibility that the sanitary condition based on the nail length is good, and the closer the first score is to 0, the higher the possibility that the hygiene condition is not good. If the average value of the n first scores obtained from the n partial image data IMG-i is equal to or greater than a predetermined threshold, the evaluation unit 222 evaluates the sanitary condition based on the nail length of the subject P. Evaluate as "Pass". On the other hand, if the average value of the first scores is less than the predetermined threshold value, the evaluation unit 222 evaluates the sanitary condition based on the nail length of the subject P as "failed". The evaluation unit 222 stores, in the storage unit 23, information indicating whether the length of the nail is acceptable in association with the identification information (employee code, etc.) of the subject P. FIG.

なお、第1の評価処理において、n個の第1スコアを参照して被検者Pの爪の長さに基づく衛生状態の合否を判定する手法は、上述したものに限定されない。例えば、評価部222は、n個の第1スコアの最大値、最小値、中央値等の各種の統計値が閾値以上であるか否かに基づき判定を行ってもよい。例えば、最小値を用いる場合、換言すると、爪の長さが良好でない爪が1つでもある場合、不合格と判定される。また、例えば、最大値を用いる場合、換言すると、爪の長さが良好である爪が1つでもある場合、合格と判定される。 In the first evaluation process, the method of determining whether the sanitary condition is acceptable or not based on the length of the nails of the subject P by referring to the n first scores is not limited to the one described above. For example, the evaluation unit 222 may make a determination based on whether various statistical values such as the maximum value, minimum value, median value, etc. of the n first scores are equal to or greater than a threshold. For example, if a minimum value is used, in other words if there is even one nail with a bad nail length, it is determined to be rejected. Also, for example, when the maximum value is used, in other words, if there is even one nail with a good length, it is determined to be acceptable.

(第2の評価処理)
評価部222は、抽出したn個の部分画像データIMG-iのそれぞれを第2の評価モデル21bに入力する。その結果、第2の評価モデル21bから第2スコアが出力される。ここで、第2スコアは、爪の色に基づく衛生状態の評価結果を示す第2情報の一例である。第2スコアは、0以上、1以下の範囲の数値であり、爪の色に基づく衛生状態が良好である可能性を示している。つまり、第2スコアが1に近いほど、爪の色に基づく衛生状態が良好である可能性が高く、0に近いほど良好でない可能性が高い。n個の部分画像データIMG-iから得られたn個の第2スコアの平均値が所定の閾値以上であれば、評価部222は、被検者Pの爪の色に基づく衛生状態を「合格」と評価する。一方、第2スコアの平均値が所定の閾値未満であれば、評価部222は、被検者Pの爪の色に基づく衛生状態を「不合格」と評価する。評価部222は、被検者の識別情報に関連付けて、爪の色の合否を示す情報を記憶部23に記憶する。
(Second evaluation process)
The evaluation unit 222 inputs each of the extracted n pieces of partial image data IMG-i to the second evaluation model 21b. As a result, a second score is output from the second evaluation model 21b. Here, the second score is an example of the second information indicating the evaluation result of the sanitary condition based on the nail color. The second score is a numerical value in the range of 0 or more and 1 or less, and indicates the possibility of good sanitary conditions based on nail color. That is, the closer the second score is to 1, the higher the possibility that the sanitary condition based on the nail color is good, and the closer the second score is to 0, the higher the possibility that it is not good. If the average value of the n second scores obtained from the n partial image data IMG-i is equal to or greater than a predetermined threshold, the evaluation unit 222 evaluates the sanitary condition based on the nail color of the subject P as " evaluated as "passed". On the other hand, if the average value of the second scores is less than the predetermined threshold value, the evaluation unit 222 evaluates the sanitary condition based on the nail color of the subject P as "failed". The evaluation unit 222 stores, in the storage unit 23, information indicating whether the nail color is acceptable in association with the subject's identification information.

なお、第2の評価処理において、n個の第2スコアを参照して被検者Pの爪の色に基づく衛生状態の合否を判定する手法は、上述したものに限定されない。例えば、評価部222は、n個の第2スコアの最大値、最小値、中央値等の各種の統計値が閾値以上であるか否かに基づき判定を行ってもよい。例えば、最小値を用いる場合、換言すると、爪の色が良好でない爪が1つでもある場合、不合格と判定される。また、例えば、最大値を用いる場合、換言すると、爪の色が良好である爪が1つでもある場合、合格と判定される。また、第1の評価処理及び第2の評価処理の実行順序は、順不同である。換言すると、評価部222は、第1の評価処理の次に第2の評価処理を行ってもよいし、第2の評価処理の次に第1の評価処理を行ってもよいし、これらの評価処理を並行して行ってもよい。 In the second evaluation process, the method for determining whether the sanitary condition is acceptable based on the color of the nail of the subject P with reference to the n second scores is not limited to the above. For example, the evaluation unit 222 may make a determination based on whether various statistical values such as the maximum value, minimum value, median value, etc. of the n second scores are equal to or greater than a threshold. For example, if the minimum value is used, in other words, if there is even one nail with a poor nail color, it is determined to be rejected. Also, for example, when the maximum value is used, in other words, if there is even one nail with a good nail color, it is determined to be acceptable. Also, the execution order of the first evaluation process and the second evaluation process is random. In other words, the evaluation unit 222 may perform the second evaluation process after the first evaluation process, or may perform the first evaluation process after the second evaluation process. Evaluation processing may be performed in parallel.

(評価結果を示す情報の生成処理)
評価部222は、第1情報及び第2情報に基づき、屋内への入退場可否を示す情報を生成する。例えば、評価部222は、(i)抽出できた部分画像の個数nが2以上であり、且つ(ii)爪の長さに基づく衛生状態の評価結果及び爪の色に基づく衛生状態の評価結果の両方が「合格」である場合に、被検者Pは屋内への入退可能であることを示す情報を生成する。また、評価部222は、(i)および(ii)の何れも満たされない場合に、被検者Pは屋内への入退不可であることを示す情報を生成する。評価部222は、被検者Pの識別情報に関連付けて、入退可否を示す情報を記憶部23に記憶する。なお、評価部222は、被験者Pの識別情報に、当該評価ステップM12を実行した評価日時を関連付け、被検者Pの識別情報及び評価日時で一意に識別されるレコードとして、爪の長さの合否、爪の色の合否、及び入退可否を示す情報を記憶してもよい。ここで、「屋内」は、任意の建物の内部であり、例えば、建物内の任意の部屋である。「建物」は、特に限定されないが、手の衛生的状態が求められる食品の製造現場の建物(例えば、食品加工工場等)や医療現場の建物(例えば、病院等)であることが好適である。
(Generation processing of information indicating evaluation results)
Based on the first information and the second information, the evaluation unit 222 generates information indicating whether the user can enter or leave the room. For example, the evaluation unit 222 determines that (i) the number n of extracted partial images is 2 or more, and (ii) the hygiene evaluation result based on the nail length and the hygiene evaluation result based on the nail color. are both "passed", information is generated indicating that the subject P can enter and leave the room. In addition, when neither of (i) nor (ii) is satisfied, the evaluation unit 222 generates information indicating that the subject P cannot enter or leave the room. The evaluation unit 222 stores, in the storage unit 23, information indicating whether or not entry/exit is possible in association with the identification information of the subject P. FIG. Note that the evaluation unit 222 associates the identification information of the subject P with the evaluation date and time when the evaluation step M12 was performed, and stores the nail length as a record uniquely identified by the identification information of the subject P and the evaluation date and time. Information indicating acceptance/rejection, nail color acceptance/rejection, and entrance/exit acceptance/rejection may be stored. Here, "indoor" is the interior of any building, for example, any room within the building. The “building” is not particularly limited, but is preferably a food manufacturing site building (e.g., food processing factory, etc.) or a medical site building (e.g., hospital, etc.) where hand hygiene is required. .

評価部222は、衛生上の観点から、被検者Pの両手について、爪の長さ及び色に基づく衛生状態を評価することが好ましい。被検者Pの両手の画像データは1つの画像データであってもよく、片手ずつをそれぞれ撮像することによって取得した個別の画像データであってもよい。 From a sanitary point of view, the evaluation unit 222 preferably evaluates the sanitary conditions of both hands of the subject P based on the length and color of the nails. The image data of both hands of the subject P may be one image data, or may be individual image data obtained by imaging each hand.

衛生上の観点から、評価部222は、画像データに含まれている少なくとも2本以上の指の爪の領域(部分画像データIMG-i)に基づいて、爪の長さ及び色に基づく衛生状態を評価することが好ましい。物体検出アルゴリズムによって1本の爪として認識された爪の部分画像データの内、2つ以上の爪の部分画像データを入力データとして用いればよく、どの指の爪の部分画像データを入力データとして選択するかについては特に限定されない。なお、被検者Pの両手について爪の長さ及び色に基づく衛生状態を評価する場合は、片方の手につき2つ以上の爪の部分画像データを入力データとして用いればよい。 From a hygiene point of view, the evaluation unit 222 evaluates the hygiene condition based on the nail length and color based on at least two fingernail regions (partial image data IMG-i) included in the image data. should be evaluated. Of the nail partial image data recognized as one nail by the object detection algorithm, two or more nail partial image data may be used as input data, and which finger nail partial image data is selected as input data. There is no particular limitation as to whether to When evaluating the sanitary conditions of both hands of the subject P based on the length and color of the nails, partial image data of two or more nails for each hand may be used as input data.

出力ステップM13は、評価ステップM12にて評価した爪の衛生状態の評価結果を示す情報を出力するステップである。この出力ステップM13において、情報処理装置20aは、評価結果を示す情報を記憶部23から読み出して出力装置30aに出力することによって、ユーザに提示する。 The output step M13 is a step of outputting information indicating the evaluation result of the nail hygiene evaluated in the evaluation step M12. In this output step M13, the information processing device 20a reads out the information indicating the evaluation result from the storage unit 23 and outputs it to the output device 30a to present it to the user.

図8は、図5の評価システム1aに含まれる出力装置30aが出力する画面の一例を示す図である。図8に示す画面例500は、典型的には、出力装置30aが、被験者Pにより視認可能に設置されている場合に好適な画面例である。画面例500は、各被験者に関する入退可否を示す情報501を含む。入退可否を示す情報501は、評価ステップM12において評価部222が記憶部23に記憶した情報が読み込まれて出力される。画面例500を視認することにより、被検者Pは、屋内への入退場可否を容易に確認することができる。なお、画面例500は、屋内への入場可否を示す情報501に加えて、他の付加情報を含んでいてもよい。例えば、画面例500は、屋内への入場不可を示す情報501を含む場合は、不可と評価された理由(例えば、爪の長さが不合格、爪の色が不合格等)も出力してもよい。 FIG. 8 is a diagram showing an example of a screen output by the output device 30a included in the evaluation system 1a of FIG. A screen example 500 shown in FIG. 8 is typically a suitable screen example when the output device 30a is installed so that the subject P can visually recognize it. A screen example 500 includes information 501 indicating whether each subject is allowed to enter or leave. The information 501 indicating whether entry/exit is permitted or not is output after reading the information stored in the storage unit 23 by the evaluation unit 222 in the evaluation step M12. By visually recognizing the example screen 500, the subject P can easily confirm whether or not the subject P can enter or exit the room. Note that the example screen 500 may include other additional information in addition to the information 501 indicating whether or not to enter indoors. For example, when the example screen 500 includes information 501 indicating that indoors is not allowed to enter, the reasons for the evaluation of being not allowed (for example, nail length, nail color, etc.) are also output. good too.

図9は、図5の評価システム1aに含まれる出力装置30aが出力する画面の一例を示す図である。図9に示す画面例600は、典型的には、出力装置30aが、管理者Sにより視認可能に設置されている場合に好適な画面例である。画面例600は、各被験者に関する評価結果を示す情報601を含む。評価結果を示す情報601は、被検者Pの識別情報である社員コードと、評価日時と、爪の長さの合否と、爪の色の合否と、入退可否とをそれぞれ示す情報を含む。これらの情報は、評価ステップM12において評価部222が記憶部23に記憶した情報が読み込まれて出力される。画面例601を視認することにより、管理者Sは、各被検者Pの爪の衛生状態の評価結果を示す情報を一覧で確認することができる。 FIG. 9 is a diagram showing an example of a screen output by the output device 30a included in the evaluation system 1a of FIG. A screen example 600 shown in FIG. 9 is typically a suitable screen example when the output device 30a is installed so that the manager S can visually recognize it. Screenshot 600 includes information 601 indicating evaluation results for each subject. The information 601 indicating the evaluation result includes information indicating the employee code, which is the identification information of the subject P, the date and time of the evaluation, the acceptance/rejection of the nail length, the acceptance/rejection of the nail color, and the entry/exit permission/rejection, respectively. . The information stored in the storage unit 23 by the evaluation unit 222 in the evaluation step M12 is read and output as these pieces of information. By visually recognizing the example screen 601, the administrator S can confirm the information indicating the evaluation result of the nail hygiene of each subject P in a list.

(撮像装置10aの構成)
撮像装置10aの構成について、図10を参照して説明する。図10は、図5の評価システム1aに含まれる撮像装置10aの構成を示す斜視図である。撮像装置10aは、撮像ボックス105を備えている。撮像装置10aにおいて、撮像機器101は、撮像ボックス105の内部に設置されている。撮像ボックス105は、底面103と、遮光壁としての側面102と、撮像機器101が設置される天面104と、を有している。撮像装置10aは、図10に示される3次元座標空間に配置される。撮像装置10aの撮像ボックス105における底面103をxy平面に配置し、xy平面に直交する法線方向のうち、天頂へ向かう方向をz軸方向と定める。
(Configuration of imaging device 10a)
The configuration of the imaging device 10a will be described with reference to FIG. FIG. 10 is a perspective view showing the configuration of an imaging device 10a included in the evaluation system 1a of FIG. The imaging device 10 a includes an imaging box 105 . In the imaging apparatus 10a, the imaging device 101 is installed inside the imaging box 105. As shown in FIG. The imaging box 105 has a bottom surface 103, a side surface 102 as a light shielding wall, and a top surface 104 on which the imaging device 101 is installed. The imaging device 10a is arranged in the three-dimensional coordinate space shown in FIG. The bottom surface 103 of the imaging box 105 of the imaging device 10a is arranged on the xy plane, and of the normal directions perpendicular to the xy plane, the direction toward the zenith is defined as the z-axis direction.

撮像ボックス105の4つの側面102の内の1つの面は、撮像ボックス105の内部に被検者Pの爪を含む人体の部位を挿入可能な開口部107を有している。この開口部107を有している側面を特に、前面106と称する。 One of the four side surfaces 102 of the imaging box 105 has an opening 107 into which a part of the human body including nails of the subject P can be inserted. A side surface having this opening 107 is specifically referred to as a front surface 106 .

前面106は、撮像ボックス105の内部を撮像ボックス105の外側から目視可能であり、且つ撮像ボックス105内の光の照射が一定となるように、半透明の材料で形成されている。これにより、被検者Pが、撮像ボックス105の内部の様子を撮像ボックス105の外側から目視で確認しながら、被検者Pの手を撮像ボックス105の内部に差し入れることができる。前面106を形成する材料は、半透明の材料であれば特に限定されない。例えば、樹脂、ガラス等の半透明の材料から形成することができる。ここで、「半透明」とは、撮像ボックス105内の光環境が撮像時に外部からの光に干渉されにくく、かつ、被検者Pが撮像ボックス105の外側から撮像ボックス105内の自分の手を目視で認識できる程度に透明であればよい。 The front surface 106 is made of a translucent material so that the inside of the imaging box 105 can be seen from the outside of the imaging box 105 and the light irradiation inside the imaging box 105 is constant. Thereby, the subject P can insert his or her hand into the imaging box 105 while visually confirming the state inside the imaging box 105 from the outside of the imaging box 105 . The material forming the front surface 106 is not particularly limited as long as it is a translucent material. For example, it can be formed from a translucent material such as resin or glass. Here, the term “semi-transparent” means that the light environment inside the imaging box 105 is less likely to interfere with light from the outside during imaging, and that the subject P can see his or her hand inside the imaging box 105 from the outside of the imaging box 105. It is sufficient if it is transparent enough to be visually recognized.

開口部107の大きさは特に限定されないが、撮像ボックス105の外からの光が撮像ボックス105の内部に侵入することを防ぐ観点から、被検者Pの手を撮像ボックス105の内部に差し入れ可能な範囲で最小の大きさであることが好ましい。また、撮像ボックス105の内部に差し入れた手を底面103上に載置し易いように、開口部107は、前面106の下側に設けられていることが好ましい。 The size of the opening 107 is not particularly limited, but from the viewpoint of preventing light from outside the imaging box 105 from entering the imaging box 105, the subject P's hand can be inserted into the imaging box 105. is preferably the smallest possible size. Further, it is preferable that the opening 107 is provided on the lower side of the front surface 106 so that the hand inserted into the inside of the imaging box 105 can be easily placed on the bottom surface 103 .

底面103は、撮像機器101に対する被検者Pの手の水平方向の位置合わせを可能にする位置合わせ台として機能する。撮像機器101は、位置合わせ台としての撮像ボックス105の底面103を撮像範囲に含むように設置されている。底面103は、撮像機器101に向く面が単色であることが好ましく、例えば、黒色、青色等の被検者Pの手の色とのコントラストが大きい色であることが好ましい。底面103の色として被検者Pの手の色とのコントラストが大きい色を選択することで、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。 The bottom surface 103 functions as an alignment table that enables horizontal alignment of the hand of the subject P with respect to the imaging device 101 . The imaging device 101 is installed so that the imaging range includes the bottom surface 103 of the imaging box 105 as an alignment table. The bottom surface 103 preferably has a monochromatic surface facing the imaging device 101, and preferably has a color such as black or blue that has a high contrast with the color of the subject's P hand. By selecting a color having a large contrast with the color of the hand of the subject P as the color of the bottom surface 103, the information processing device 20a recognizes the nail in the "image data including the nail as a subject" generated by the imaging device 101. Accuracy can be improved.

撮像装置10aは、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することを可能にするガイド機構を備えていることが好ましい。図11は、図10の撮像装置10aが備えているガイド機構の構成の一例を示す上面図であり、1101は、撮像ボックス105の底面103aがガイド機構として複数個の突起109aを備えている構成(変形例1)を説明しており、1102は、撮像ボックス105の底面103bがガイド機構として手の形状のガイド線109bを備えている構成(変形例2)を説明している。 The image pickup device 10a preferably includes a guide mechanism that enables photographing of a human body part including the nail while the adjacent nails are separated from each other. FIG. 11 is a top view showing an example of the configuration of the guide mechanism provided in the imaging apparatus 10a of FIG. (Modification 1) is described, and reference numeral 1102 describes a configuration (Modification 2) in which the bottom surface 103b of the imaging box 105 is provided with a hand-shaped guide line 109b as a guide mechanism.

変形例1において、ガイド機構としての複数個の突起109aは、撮像ボックス105の底面103aからZ軸正方向に突出している。複数個の突起109aは、底面103a上に所定の間隔で配置されている。被検者Pは、撮像ボックス105内に手を差し込んだ後に、指と指との間に突起109aがそれぞれ位置するように底面103a上に手を載置すればよい。撮像装置10aがガイド機構としての複数個の突起109aを備えることにより、被検者Pが、底面103a上に撮影に適した状態で手を載置できるようガイドすることができるので、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することが可能になる。その結果、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。 In Modified Example 1, a plurality of protrusions 109a as a guide mechanism protrude from the bottom surface 103a of the imaging box 105 in the positive Z-axis direction. A plurality of protrusions 109a are arranged at predetermined intervals on the bottom surface 103a. After inserting the hand into the imaging box 105, the subject P should place the hand on the bottom surface 103a so that the protrusions 109a are positioned between the fingers. Since the imaging apparatus 10a is provided with a plurality of projections 109a as a guide mechanism, it is possible to guide the subject P to place his or her hand on the bottom surface 103a in a state suitable for imaging. It becomes possible to photograph parts of the human body including the nails while they are separated from each other. As a result, it is possible to improve the recognition accuracy of the nail by the information processing device 20a in the “image data including the nail as a subject” generated by the imaging device 101 .

変形例2のように、ガイド機構が手の形状のガイド線109bである場合は、被検者Pは、撮像ボックス105内に手を差し込んだ後に、ガイド線109bの形状に合うように開いた状態で底面103b上に手を載置すればよい。変形例2においても、変形例1と同様に、被検者Pが、底面103b上に撮影に適した状態で手を載置できるようガイドすることができるので、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することが可能になる。その結果、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。なお、前面106は半透明の材料で形成されているため、被検者Pは、撮像ボックス105内の手の位置を前面106越しに目視で確認しながら、底面103b上の適切な位置に手を載置することができる。 When the guide mechanism is the hand-shaped guide wire 109b as in Modification 2, the subject P inserts his/her hand into the imaging box 105 and then opens the guide wire 109b to match the shape. A hand can be placed on the bottom surface 103b in this state. Also in Modification 2, as in Modification 1, the subject P can be guided to place his or her hand on the bottom surface 103b in a state suitable for imaging. It is possible to photograph parts of the human body, including fingernails. As a result, it is possible to improve the recognition accuracy of the nail by the information processing device 20a in the “image data including the nail as a subject” generated by the imaging device 101 . In addition, since the front surface 106 is made of a translucent material, the subject P can visually confirm the position of the hand in the imaging box 105 through the front surface 106 while placing the hand at an appropriate position on the bottom surface 103b. can be placed.

撮像装置10aが備えているガイド機構の構成は、前述の変形例に限定されない。例えば、底面103の凸凹であったり、底面103の表面の一部に棒状のものを設置したり、複数の色彩を用いた模様であってもよい。また、例えば、撮像装置10aが生成した「爪を被写体として含む画像データ」において、被検者Pの手の指の開き具合が十分でなく、情報処理装置20aが1本の爪として認識することができなかった場合に、情報処理装置20aは、隣り合う指同士がもっと離れた状態で底面103上に手を載置し直すことを被検者Pに促すメッセージを出力装置30aに表示させるように構成してもよい。 The configuration of the guide mechanism included in the imaging device 10a is not limited to the above-described modification. For example, the bottom surface 103 may be uneven, a rod-shaped object may be provided on a part of the surface of the bottom surface 103, or a pattern using a plurality of colors may be used. Further, for example, in the "image data including a nail as a subject" generated by the imaging device 10a, the fingers of the subject P are not sufficiently opened, and the information processing device 20a recognizes them as one nail. is not possible, the information processing device 20a causes the output device 30a to display a message prompting the subject P to place the hand again on the bottom surface 103 with the adjacent fingers separated from each other. can be configured to

撮像装置10aは、撮像ボックス105内部に照明として複数個のLED(light emitting diode)108を備えている。これにより、底面103の全面に均一な光を照射することができる。複数個のLED108が照射する光の強さは、爪に照射された光の反射が強くなり過ぎて爪の色に基づく衛生状態の評価精度に影響を及ぼさないように、適宜調整すればよい。 The imaging device 10a includes a plurality of LEDs (light emitting diodes) 108 as illumination inside an imaging box 105 . Thereby, the entire surface of the bottom surface 103 can be uniformly irradiated with light. The intensity of the light emitted by the plurality of LEDs 108 may be appropriately adjusted so that the reflection of the light emitted from the nail does not become too strong and does not affect the evaluation accuracy of the sanitary condition based on the color of the nail.

(機械学習装置40の構成)
機械学習装置40の構成について、図5を参照して説明する。機械学習装置40は、記憶部41及び制御部42を備えている。制御部42は、機械学習装置40を統括的に制御する。機械学習装置40において、制御部42は、構築部421を含む。構築部421は、機械学習方法M2を実行する。
(Configuration of machine learning device 40)
A configuration of the machine learning device 40 will be described with reference to FIG. The machine learning device 40 includes a storage section 41 and a control section 42 . The control unit 42 comprehensively controls the machine learning device 40 . In the machine learning device 40 , the control section 42 includes a constructing section 421 . The constructing unit 421 executes the machine learning method M2.

(機械学習方法M2の流れ)
機械学習方法M2の流れについて、図12を参照して説明する。図12は、機械学習方法M2の流れを示すフローチャートである。
(Flow of machine learning method M2)
The flow of machine learning method M2 will be described with reference to FIG. FIG. 12 is a flow chart showing the flow of the machine learning method M2.

機械学習方法M2は、学習用データセット構築ステップM21と、学習済モデル構築ステップM22と、を含んでいる。 The machine learning method M2 includes a learning data set building step M21 and a learned model building step M22.

(学習用データセット構築ステップM21)
学習用データセット構築ステップM21は、プロセッサ401が、第1の学習用データセット及び第2の学習用データセットを作成するステップである。
(Learning data set construction step M21)
The learning data set constructing step M21 is a step in which the processor 401 creates a first learning data set and a second learning data set.

(第1の学習用データセットの作成処理)
第1の学習用データセットは、第1の評価モデル21aを構築するための複数個の第1学習用データ(教師データ)の集合である。
(Processing for creating first learning data set)
The first learning data set is a set of a plurality of first learning data (teacher data) for constructing the first evaluation model 21a.

各第1学習用データは、1本の爪を被写体として含む教師画像データと、正解情報とを含む。教師画像データは、撮像装置10aが撮影したものであってもよいし、他の撮像装置が撮影したものであってもよい。また、教師画像データは、複数の爪を被写体として含む画像データから抽出された部分画像データであってもよい。また、教師画像データは、ネットワーク上に公開された公開画像データであってもよいし、当該公開画像データから抽出された部分画像データであってもよい。正解情報は、評価者による爪の長さの評価結果を示す情報である。 Each first learning data includes teacher image data including one nail as a subject and correct answer information. The teacher image data may be captured by the imaging device 10a, or may be captured by another imaging device. Further, the teacher image data may be partial image data extracted from image data including a plurality of nails as subjects. Further, the teacher image data may be public image data published on a network, or may be partial image data extracted from the public image data. The correct answer information is information indicating the evaluation result of the nail length by the evaluator.

学習用データセット構築ステップM21において、構築部421は、教師画像データを取得し、表示装置(図示せず)に表示する。また、構築部421は、評価者による爪の長さに基づく衛生状態の評価結果を示す正解情報を、入力装置(図示せず)を介して取得する。例えば、評価者は、表示装置に表示された教師画像データを視認して、「合格」または「不合格」との評価結果を入力装置から入力してもよい。また、評価者は、表示装置に表示された教師画像データを視認して、衛生状態のスコアを入力装置から入力してもよい。 In the learning data set construction step M21, the construction unit 421 acquires teacher image data and displays it on a display device (not shown). In addition, the constructing unit 421 acquires correct information indicating the evaluation result of the sanitary condition based on the nail length by the evaluator via an input device (not shown). For example, the evaluator may view the teacher image data displayed on the display device and input the evaluation result of "pass" or "fail" from the input device. Also, the evaluator may view the teacher image data displayed on the display device and input the score of the sanitary condition from the input device.

また、構築部421は、教師画像データと、正解情報とを含む第1学習用データを生成する。また、構築部421は、生成した第1学習用データを記憶部41に格納する。以上のプロセスを、複数の教師画像データに対して構築部421が繰り返すことによって、第1の学習用データセットが作成される。 The construction unit 421 also generates first learning data including teacher image data and correct answer information. The construction unit 421 also stores the generated first learning data in the storage unit 41 . The construction unit 421 repeats the above process for a plurality of pieces of teacher image data to create the first learning data set.

(第2の学習用データセットの作成処理)
第2の学習用データセットは、第2の評価モデル21bを構築するための複数個の第2学習用データ(教師データ)の集合である。
(Processing for creating second learning data set)
The second learning data set is a set of a plurality of second learning data (teacher data) for constructing the second evaluation model 21b.

各第2学習用データは、1本の爪を被写体として含む教師画像データと、正解情報とを含む。教師画像データについては、第1の学習用データセットの作成処理において説明した通りである。なお、第2の学習用データセットの作成処理で用いる教師データの一部または全部は、第1の学習用データセットの作成に用いたものと同一であってもよい。正解情報は、評価者による爪の色の評価結果を示す情報である。 Each second learning data includes teacher image data including one nail as a subject and correct answer information. The teacher image data is as described in the process of creating the first learning data set. Part or all of the teacher data used in the process of creating the second learning data set may be the same as that used in creating the first learning data set. The correct answer information is information indicating the evaluation result of the nail color by the evaluator.

学習用データセット構築ステップM21において、構築部421は、教師画像データを取得し、表示装置(図示せず)に表示する。また、構築部421は、評価者による爪の色に基づく衛生状態の評価結果を示す正解情報を、入力装置(図示せず)を介して取得する。評価者による正解情報の入力手法の具体例については、第1の学習用データセットの作成処理において説明した通りである。 In the learning data set construction step M21, the construction unit 421 acquires teacher image data and displays it on a display device (not shown). In addition, the construction unit 421 acquires correct information indicating the evaluation result of the sanitary condition based on the nail color by the evaluator via an input device (not shown). A specific example of the correct answer information input method by the evaluator is as described in the first learning data set creation process.

また、構築部421は、教師画像データと、正解情報とを含む第2学習用データを生成する。また、構築部421は、生成した第2学習用データを記憶部41に格納する。以上のプロセスを、複数の教師画像データに対して構築部421が繰り返すことによって、第2の学習用データセットが作成される。 The construction unit 421 also generates second learning data including teacher image data and correct answer information. The construction unit 421 also stores the generated second learning data in the storage unit 41 . The construction unit 421 repeats the above process for a plurality of pieces of teacher image data to create a second learning data set.

(学習済モデル構築ステップM22)
学習済モデル構築ステップM22は、構築部421が、第1の評価モデル21a及び第2の評価モデル21bを構築するステップである。学習済モデル構築ステップM22において、構築部421は、第1の学習用データセットを用いた教師あり学習によって、第1の評価モデル21aを構築する。また、構築部421は、第2の学習用データセットを用いた教師あり学習によって、第2の評価モデル21bを構築する。構築された第1の評価モデル21a及び第2の評価モデル21bは、記憶部41に格納される。
(Learned model construction step M22)
The learned model construction step M22 is a step in which the construction unit 421 constructs the first evaluation model 21a and the second evaluation model 21b. In the trained model construction step M22, the construction unit 421 constructs the first evaluation model 21a by supervised learning using the first learning data set. Also, the construction unit 421 constructs the second evaluation model 21b by supervised learning using the second learning data set. The constructed first evaluation model 21 a and second evaluation model 21 b are stored in the storage unit 41 .

(実施形態2の他の態様1)
実施形態2として、評価部222が爪の衛生状態を評価するために用いる評価モデルの個数が、2つである態様を説明した。ただし、評価部222が用いる評価モデルの個数は2つに限定されない。例えば、評価部222は、第1の評価モデル21a及び第2の評価モデル21bの何れか一方を用いて爪の衛生状態を評価してもよい。また、評価部222は、第1の評価モデル21a及び第2の評価モデル21bに加えて、他の評価モデルを用いて爪の衛生状態を評価してもよい。この場合、他の評価モデルは、爪を被写体として含む画像データを入力として、爪の他の観点に基づく衛生状態の評価結果を示す情報を出力するよう機械学習により構築される。
(Other Aspect 1 of Embodiment 2)
As the second embodiment, the number of evaluation models used by the evaluation unit 222 to evaluate the hygiene state of the nails is two. However, the number of evaluation models used by the evaluation unit 222 is not limited to two. For example, the evaluation unit 222 may evaluate the nail hygiene using either one of the first evaluation model 21a and the second evaluation model 21b. In addition to the first evaluation model 21a and the second evaluation model 21b, the evaluation unit 222 may evaluate the nail hygiene using another evaluation model. In this case, the other evaluation model is constructed by machine learning so as to input image data including nails as an object and output information indicating the evaluation result of the sanitary condition based on another viewpoint of the nails.

(実施形態2の他の態様2)
実施形態2として、第1の評価モデル21a及び第2の評価モデル21bの入力が、1つの爪を被写体として含む部分画像データIMG-iである態様を説明した。ただし、第1の評価モデル21a及び第2の評価モデル21bの入力は、2本以上の指の爪を被写体として含む画像データHであってもよい。
(Other Aspect 2 of Embodiment 2)
As the second embodiment, the input of the first evaluation model 21a and the second evaluation model 21b is the partial image data IMG-i including one nail as an object. However, the input of the first evaluation model 21a and the second evaluation model 21b may be image data H including two or more fingernails as subjects.

この場合、構築部421は、複数の爪を被写体として含む学習用の画像データと、評価者が複数の爪の長さに基づく衛生状態を評価した評価結果を示す正解情報とを含む第1学習用データを生成する。これにより、第1の評価モデル21aは、そのような第1学習用データからなる第1学習用データセットを用いて機械学習される。また、構築部421は、複数の爪を被写体として含む学習用の画像データと、評価者が複数の爪の色に基づく衛生状態を評価した評価結果を示す正解情報とを含む第2学習用データを生成する。これにより、第2の評価モデル21bは、そのような第2学習用データからなる第2学習用データセットを用いて機械学習される。 In this case, the construction unit 421 performs first learning including image data for learning including a plurality of nails as subjects, and correct information indicating the evaluation result of the evaluator's evaluation of the sanitary condition based on the length of the plurality of nails. Generate data for Thereby, the first evaluation model 21a is machine-learned using the first learning data set composed of such first learning data. The construction unit 421 also includes second learning data including learning image data including a plurality of nails as subjects, and correct information indicating an evaluation result of an evaluator's evaluation of the sanitary condition based on the colors of the plurality of nails. to generate Thereby, the second evaluation model 21b is machine-learned using the second learning data set composed of such second learning data.

また、この場合、評価部222は、評価ステップM12において、部分画像データの抽出処理を省略し、取得部221が取得した画像データHを第1の評価モデル21a及び第2の評価モデル21bのそれぞれに入力してもよい。 In this case, the evaluation unit 222 omits the process of extracting the partial image data in the evaluation step M12, and uses the image data H acquired by the acquisition unit 221 as the first evaluation model 21a and the second evaluation model 21b. can be entered in

なお、第1の評価モデル21a及び第2の評価モデル21bの入力が部分画像データIMG-iである場合、比較的少ない学習用の画像データを用いて第1の評価モデル21a及び第2の評価モデル21bを精度よく構築することが可能である。これに対して、第1の評価モデル21a及び第2の評価モデル21bの入力が画像データHである場合、評価部222の処理コストを低減することが可能であるというメリットがある。 When the input of the first evaluation model 21a and the second evaluation model 21b is the partial image data IMG-i, the first evaluation model 21a and the second evaluation model 21a and the second evaluation model 21a are obtained using a relatively small amount of image data for learning. It is possible to construct the model 21b with high accuracy. On the other hand, when the input of the first evaluation model 21a and the second evaluation model 21b is the image data H, there is an advantage that the processing cost of the evaluation unit 222 can be reduced.

(実施形態2の他の態様3)
実施形態2において、評価システム1aは、出力装置30aの代わりに、被検者端末と、被検者側の出力装置と、管理者端末と、管理者側の出力装置とを含んでもよい。この場合、情報処理装置20aは、被検者端末及び管理者端末のそれぞれと、ネットワークを介して通信可能に接続される。例えば、被検者端末と、被検者側の出力装置と、撮像装置10aとは、食品工場の入口付近に設置される。また、例えば、管理者端末と、管理者側の出力装置とは、管理者のオフィスに設置される。
(Other Aspect 3 of Embodiment 2)
In Embodiment 2, the evaluation system 1a may include a subject terminal, a subject-side output device, an administrator terminal, and an administrator-side output device instead of the output device 30a. In this case, the information processing device 20a is communicably connected to each of the subject terminal and the administrator terminal via a network. For example, the subject terminal, the subject side output device, and the imaging device 10a are installed near the entrance of a food factory. Also, for example, the administrator terminal and the administrator's output device are installed in the administrator's office.

本態様において、評価部222は、出力ステップM13において、図8に示すような被検者向けの情報を被検者側の出力装置に出力し、図9に示すような管理者向けの情報を管理者側の出力装置に出力してもよい。また、評価部222は、管理者向けの情報を管理者側の出力装置に出力する処理を、出力ステップM13において実行することに代えて、または加えて、管理者による要求に応じて実行してもよい。管理者による要求は、管理者端末の入力装置(図示せず)を介して入力される。 In this aspect, in the output step M13, the evaluation unit 222 outputs information for the subject as shown in FIG. 8 to the output device on the side of the subject, and outputs information for the administrator as shown in FIG. You may output to the output device of the administrator side. Further, the evaluation unit 222 executes the process of outputting the information for the administrator to the output device of the administrator in response to the administrator's request instead of or in addition to the execution in the output step M13. good too. Requests by the administrator are input through an input device (not shown) of the administrator terminal.

(実施形態2の他の態様4)
実施形態2として、情報処理装置20aの記憶部23に第1の評価モデル21aおよび第2の評価モデル21bが格納されている態様を説明した。しかし、情報処理装置20aは、第1の評価モデル21aおよび第2の評価モデル21bを含んでいなくてもよい。例えば、第1の評価モデル21aおよび第2の評価モデル21bは、情報処理装置20aとネットワークを介して接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。そしてこの場合、情報処理装置20aの評価部222は、ネットワーク経由で第1の評価モデル21aおよび第2の評価モデル21bを利用して、爪の長さ及び色に基づく衛生状態の評価結果を生成すればよい。
(Other Aspect 4 of Embodiment 2)
As the second embodiment, a mode in which the first evaluation model 21a and the second evaluation model 21b are stored in the storage unit 23 of the information processing device 20a has been described. However, the information processing device 20a may not include the first evaluation model 21a and the second evaluation model 21b. For example, the first evaluation model 21a and the second evaluation model 21b may be built in another computer (for example, a computer constituting a cloud server) connected to the information processing device 20a via a network. In this case, the evaluation unit 222 of the information processing device 20a uses the first evaluation model 21a and the second evaluation model 21b via the network to generate the hygiene evaluation result based on the nail length and color. do it.

(実施形態2の効果)
本実施形態は、画像データを入力として、AI(Artificial Intelligence、人工知能)を用いて爪の衛生状態を評価するので、画像解析が不要であり、また、解析結果に基づき爪の衛生状態を評価する評価ルールをあらかじめ設ける必要がないというメリットを有している。これは、AIを用いている実施形態1の評価システム1と同様の効果といえる。また、本実施形態では、評価部222は、爪の長さ及び色に基づく衛生状態を評価するので、爪の長さのみに基づく衛生状態を評価する場合と比較して、爪の衛生状態を精度よく、より多角的に評価することができる。さらには、本実施形態では、評価部222が、第1の評価モデル21a及び第2の評価モデル21bの2種類の評価モデルを用いるので、1種の評価モデルを用いて爪の長さ及び色に基づく衛生状態を評価する場合と比較して、爪の衛生状態をより精度良く評価することができる。
(Effect of Embodiment 2)
This embodiment uses image data as an input to evaluate nail hygiene using AI (artificial intelligence), so image analysis is not required, and nail hygiene is evaluated based on the analysis results. It has the advantage that it is not necessary to set evaluation rules in advance. This can be said to be the same effect as the evaluation system 1 of the first embodiment using AI. In addition, in the present embodiment, the evaluation unit 222 evaluates the sanitary condition based on the length and color of the nails. Accurate and multifaceted evaluation is possible. Furthermore, in the present embodiment, the evaluation unit 222 uses two types of evaluation models, the first evaluation model 21a and the second evaluation model 21b. It is possible to evaluate the nail hygiene condition more accurately than in the case of evaluating the hygiene condition based on.

(情報処理装置20aのハードウエア構成例)
情報処理装置20aは、例えば図13のようなハードウエア構成を備えていてもよい。図13は、情報処理装置20aのハードウエア構成の一例を示すブロック図である。
(Hardware Configuration Example of Information Processing Device 20a)
The information processing device 20a may have a hardware configuration as shown in FIG. 13, for example. FIG. 13 is a block diagram showing an example of the hardware configuration of the information processing device 20a.

情報処理装置20aは、汎用コンピュータを用いて実現されており、プロセッサ201と、一次メモリ202と、二次メモリ203と、入出力インタフェース204と、通信インタフェース205と、バス206とを備えている。プロセッサ201、一次メモリ202、二次メモリ203、入出力インタフェース204、及び通信インタフェース205は、バス206を介して相互に接続されている。 The information processing device 20 a is implemented using a general-purpose computer, and includes a processor 201 , a primary memory 202 , a secondary memory 203 , an input/output interface 204 , a communication interface 205 and a bus 206 . Processor 201 , primary memory 202 , secondary memory 203 , input/output interface 204 and communication interface 205 are interconnected via bus 206 .

二次メモリ203には、情報処理プログラム及び1または複数の評価モデルが格納されている。二次メモリ203は、記憶部23を実現する構成の一例である。プロセッサ201は、二次メモリ203に格納されている情報処理プログラム及び1または複数の評価モデルを一次メモリ202上に展開する。そして、プロセッサ201は、一次メモリ202上に展開された情報処理プログラムに含まれる命令に従って、情報処理方法M1に含まれる各ステップを実行することにより、制御部22として機能する。一次メモリ202上に展開された1または複数の評価モデル(例えば、第1の評価モデル21a及び第2の評価モデル21b)は、情報処理方法M1の評価ステップM12をプロセッサ201が実行する際に利用される。なお、情報処理プログラムが二次メモリ203に格納されているとは、ソースコード、または、ソースコードをコンパイルすることにより得られた実行形式ファイルが二次メモリ203に記憶されていることを指す。また、1または複数の評価モデルが二次メモリ203に格納されているとは、1または複数の評価モデルを規定するパラメータが二次メモリ203に格納されていることを指す。 The secondary memory 203 stores an information processing program and one or more evaluation models. The secondary memory 203 is an example of a configuration that implements the storage unit 23 . The processor 201 loads the information processing program and one or more evaluation models stored in the secondary memory 203 onto the primary memory 202 . The processor 201 functions as the control unit 22 by executing each step included in the information processing method M1 according to instructions included in the information processing program developed on the primary memory 202 . One or more evaluation models (for example, the first evaluation model 21a and the second evaluation model 21b) developed on the primary memory 202 are used when the processor 201 executes the evaluation step M12 of the information processing method M1. be done. The fact that the information processing program is stored in the secondary memory 203 means that the source code or an executable file obtained by compiling the source code is stored in the secondary memory 203 . Further, the statement that one or more evaluation models are stored in the secondary memory 203 means that the parameters defining the one or more evaluation models are stored in the secondary memory 203 .

プロセッサ201として利用可能なデバイスとしては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、または、これらの組み合わせを挙げることができる。 Devices that can be used as the processor 201 include, for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit), a microcontroller, or a combination thereof.

また、一次メモリ202として利用可能なデバイスとしては、例えば、RAM(Random Access Memory)を挙げることができる。一次メモリ202は、「主記憶装置」と呼ばれることもある。また、二次メモリ203として利用可能なデバイスとしては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ODD(Optical Disk Drive)、または、これらの組み合わせを挙げることができる。二次メモリ203は、「補助記憶装置」と呼ばれることもある。なお、二次メモリ203は、情報処理装置20aに内蔵されていてもよいし、入出力インタフェース204または通信インタフェース205を介して情報処理装置20aと接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。なお、本実施形態においては、情報処理装置20aにおける記憶を2つのメモリ(一次メモリ202及び二次メモリ203)により実現しているが、これに限定されない。すなわち、情報処理装置20aにおける記憶を1つのメモリにより実現してもよい。この場合、例えば、そのメモリの或る記憶領域を一次メモリ202として利用し、そのメモリの他の記憶領域を二次メモリ203として利用すればよい。 A device that can be used as the primary memory 202 is, for example, a RAM (Random Access Memory). Primary memory 202 is sometimes referred to as "main memory." Devices that can be used as the secondary memory 203 include, for example, flash memories, HDDs (Hard Disk Drives), SSDs (Solid State Drives), ODDs (Optical Disk Drives), and combinations thereof. . Secondary memory 203 is sometimes called an "auxiliary storage device." The secondary memory 203 may be built in the information processing device 20a, or may be another computer connected to the information processing device 20a via the input/output interface 204 or the communication interface 205 (for example, a cloud server). computer). In this embodiment, the storage in the information processing device 20a is implemented by two memories (primary memory 202 and secondary memory 203), but the present invention is not limited to this. That is, the storage in the information processing device 20a may be realized by one memory. In this case, for example, a certain storage area of the memory may be used as the primary memory 202 and another storage area of the memory may be used as the secondary memory 203 .

入出力インタフェース204には、入力デバイス及び/または出力デバイスが接続される。入出力インタフェース204としては、例えば、USB(Universal Serial Bus)、ATA(Advanced Technology Attachment)、SCSI(Small Computer System Interface)、PCI(Peripheral Component Interconnect)などのインタフェースが挙げられる。入出力インタフェース204に接続される入力デバイスとしては、撮像装置10aが挙げられる。情報処理方法M1において撮像装置10aから取得する画像データは、一次メモリ202に記憶される。また、入出力インタフェース204に接続される入力デバイスとしては、例えば、キーボード、マウス、タッチパッド、マイク、または、これらの組み合わせが挙げられる。また、入出力インタフェース204に接続される出力デバイスとしては、例えば、出力装置30a(ディスプレイ、プロジェクタ、プリンタ、スピーカ、ヘッドホン、または、これらの組み合わせ)が挙げられる。情報処理方法M1においてユーザに提供する情報は、これらの出力デバイスを介して情報処理装置20aから出力される。なお、情報処理装置20aは、ラップトップ型コンピュータのように、入力デバイスとして機能するキーボードと、出力デバイスとして機能するディスプレイとを、それぞれ内蔵してもよい。或いは、情報処理装置20aは、タブレット型コンピュータのように、入力デバイス及び出力デバイスの両方として機能するタッチパネルを内蔵していてもよい。 An input device and/or an output device are connected to the input/output interface 204 . Examples of the input/output interface 204 include interfaces such as USB (Universal Serial Bus), ATA (Advanced Technology Attachment), SCSI (Small Computer System Interface), and PCI (Peripheral Component Interconnect). An example of an input device connected to the input/output interface 204 is the imaging device 10a. Image data acquired from the imaging device 10a in the information processing method M1 is stored in the primary memory 202 . Input devices connected to the input/output interface 204 include, for example, a keyboard, mouse, touch pad, microphone, or a combination thereof. Output devices connected to the input/output interface 204 include, for example, an output device 30a (display, projector, printer, speaker, headphone, or a combination thereof). Information provided to the user in the information processing method M1 is output from the information processing apparatus 20a via these output devices. The information processing apparatus 20a may incorporate a keyboard functioning as an input device and a display functioning as an output device, like a laptop computer. Alternatively, the information processing device 20a may incorporate a touch panel that functions as both an input device and an output device, like a tablet computer.

通信インタフェース205には、ネットワークを介して他のコンピュータが有線接続または無線接続される。通信インタフェース205としては、例えば、イーサネット(登録商標)、Wi-Fi(登録商標)などのインタフェースが挙げられる。利用可能なネットワークとしては、例えば、PAN(Personal Area Network)、LAN(Local Area Network)、CAN(Campus Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、GAN(Global Area Network)、または、これらのネットワークを含むインターネットワークが挙げられる。インターネットワークは、イントラネットであってもよいし、エクストラネットであってもよいし、インターネットであってもよい。情報処理方法M1において情報処理装置20aが他のコンピュータ(例えば、機械学習装置40)から取得するデータ(例えば、1または複数の評価モデル)、及び、情報処理方法M1において情報処理装置20aが他のコンピュータに提供するデータは、これらのネットワークを介して送受信される。 Other computers are wired or wirelessly connected to the communication interface 205 via a network. Examples of the communication interface 205 include interfaces such as Ethernet (registered trademark) and Wi-Fi (registered trademark). Available networks include, for example, PAN (Personal Area Network), LAN (Local Area Network), CAN (Campus Area Network), MAN (Metropolitan Area Network), WAN (Wide Area Network), and GAN (Global Area Network). , or an internetwork comprising these networks. An internetwork may be an intranet, an extranet, or the Internet. Data (e.g., one or a plurality of evaluation models) acquired by the information processing device 20a from another computer (e.g., machine learning device 40) in the information processing method M1, and Data to be provided to computers is sent and received via these networks.

なお、本実施形態においては、単一のプロセッサ(プロセッサ201)を用いて情報処理方法M1を実行する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のプロセッサを用いて情報処理方法M1を実行する構成を採用してもよい。例えば、取得ステップM11を第1のプロセッサにおいて実行し、評価ステップM12を第2のプロセッサにおいて実行してもよい。この場合、連携して情報処理方法M1を実行する複数のプロセッサは、単一のコンピュータに設けられ、バスを介して相互に通信可能に構成されていてもよいし、複数のコンピュータに分散して設けられ、ネットワークを介して相互に通信可能に構成されていてもよい。一例として、クラウドサーバを構成するコンピュータに内蔵されたプロセッサと、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサとが、連携して情報処理方法M1を実行する態様などが考えられる。 In this embodiment, a single processor (processor 201) is used to execute the information processing method M1, but the present invention is not limited to this. That is, a configuration in which the information processing method M1 is executed using a plurality of processors may be employed. For example, the obtaining step M11 may be performed in a first processor and the evaluating step M12 may be performed in a second processor. In this case, the plurality of processors that cooperate to execute the information processing method M1 may be provided in a single computer and configured to communicate with each other via a bus, or may be distributed among a plurality of computers. may be provided and configured to be able to communicate with each other via a network. As an example, a processor built in a computer that constitutes a cloud server and a processor built in a computer owned by a user of the cloud server cooperate to execute the information processing method M1.

また、本実施形態においては、情報処理方法M1を実行するプロセッサ(プロセッサ201)と同じコンピュータに内蔵されたメモリ(二次メモリ203)に評価モデルを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、情報処理方法M1を実行するプロセッサと異なるコンピュータに内蔵されたメモリに1または複数の評価モデルを格納する構成を採用してもよい。この場合、1または複数の評価モデルを格納するメモリが内蔵されたコンピュータは、情報処理方法M1を実行するプロセッサが内蔵されたコンピュータとネットワークを介して相互に通信可能に構成される。一例として、クラウドサーバを構成するコンピュータに内蔵されたメモリに1または複数の評価モデルを格納し、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサが情報処理方法M1を実行する態様などが考えられる。 Further, in this embodiment, a configuration is adopted in which the evaluation model is stored in a memory (secondary memory 203) built in the same computer as the processor (processor 201) that executes the information processing method M1. is not limited to this. That is, a configuration may be adopted in which one or more evaluation models are stored in a memory incorporated in a computer different from the processor that executes the information processing method M1. In this case, a computer having a built-in memory storing one or more evaluation models and a computer having a built-in processor executing the information processing method M1 are configured to communicate with each other via a network. As an example, one or more evaluation models are stored in a memory built into a computer that constitutes a cloud server, and a processor built into a computer owned by a user of the cloud server executes the information processing method M1. can be considered.

また、本実施形態においては、単一のメモリ(二次メモリ203)に1または複数の評価モデルを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のメモリに1または複数の評価モデルを分散して格納する構成を採用してもよい。この場合、1または複数の評価モデルを格納する複数のメモリは、単一のコンピュータ(情報処理方法M1を実行するプロセッサが内蔵されたコンピュータであってもよいし、そうでなくてもよい)に設けられていてもよいし、複数のコンピュータ(情報処理方法M1を実行するプロセッサが内蔵されたコンピュータを含んでいてもよいし、そうでなくてもよい)に分散して設けられていてもよい。一例として、クラウドサーバを構成する複数のコンピュータの各々に内蔵されたメモリに1または複数の評価モデルを分散して格納する構成などが考えられる。 In addition, although this embodiment adopts a configuration in which one or more evaluation models are stored in a single memory (secondary memory 203), the present invention is not limited to this. That is, a configuration in which one or a plurality of evaluation models are distributed and stored in a plurality of memories may be employed. In this case, a plurality of memories storing one or more evaluation models are stored in a single computer (which may or may not be a computer containing a processor that executes the information processing method M1). It may be provided, or it may be distributed and provided in a plurality of computers (which may or may not include a computer in which a processor that executes the information processing method M1 is included). . As an example, a configuration is conceivable in which one or more evaluation models are distributed and stored in a memory built into each of a plurality of computers that constitute a cloud server.

(機械学習装置40のハードウエア構成)
機械学習装置40は、例えば図14のようなハードウエア構成を備えていてもよい。図14は、機械学習装置40のハードウエア構成の一例を示すブロック図である。
(Hardware configuration of machine learning device 40)
The machine learning device 40 may have a hardware configuration as shown in FIG. 14, for example. FIG. 14 is a block diagram showing an example of the hardware configuration of the machine learning device 40. As shown in FIG.

機械学習装置40は、汎用コンピュータを用いて実現されており、プロセッサ401と、一次メモリ402と、二次メモリ403と、入出力インタフェース404と、通信インタフェース405と、バス406とを備えている。プロセッサ401、一次メモリ402、二次メモリ403、入出力インタフェース404、及び通信インタフェース405は、バス406を介して相互に接続されている。 Machine learning device 40 is implemented using a general-purpose computer, and includes processor 401 , primary memory 402 , secondary memory 403 , input/output interface 404 , communication interface 405 , and bus 406 . Processor 401 , primary memory 402 , secondary memory 403 , input/output interface 404 and communication interface 405 are interconnected via bus 406 .

二次メモリ403には、機械学習プログラム及び学習用データセットが格納されている。二次メモリ403は、記憶部41を実現する構成の一例である。学習用データセットは、複数個の学習用データの集合である。プロセッサ401は、二次メモリ403に格納されている機械学習プログラムを一次メモリ402上に展開する。そして、プロセッサ401は、一次メモリ402上に展開された機械学習プログラムに含まれる命令に従って、機械学習方法M2に含まれる各ステップを実行することにより制御部42として機能する。二次メモリ403に格納された学習用データセットは、機械学習方法M2の学習用データセット構築ステップM21にて作成され、機械学習方法M2の学習済モデル構築ステップM22において利用される。また、機械学習方法M2の学習済モデル構築ステップM22にて構築された1または複数の評価モデルも、二次メモリ403に格納される。なお、機械学習プログラムが二次メモリ403に格納されているとは、ソースコード、または、ソースコードをコンパイルすることにより得られた実行形式ファイルが二次メモリ403に記憶されていることを指す。また、1または複数の評価モデルが二次メモリ403に格納されているとは、1または複数の評価モデルを規定するパラメータが二次メモリ403に格納されていることを指す。 A secondary memory 403 stores a machine learning program and a learning data set. The secondary memory 403 is an example of a configuration that implements the storage unit 41 . A learning data set is a set of multiple pieces of learning data. The processor 401 expands the machine learning program stored in the secondary memory 403 onto the primary memory 402 . The processor 401 functions as the control unit 42 by executing each step included in the machine learning method M2 according to instructions included in the machine learning program expanded on the primary memory 402 . The learning data set stored in the secondary memory 403 is created in the learning data set building step M21 of the machine learning method M2, and used in the learned model building step M22 of the machine learning method M2. The secondary memory 403 also stores one or more evaluation models constructed in the learned model construction step M22 of the machine learning method M2. Note that storing the machine learning program in the secondary memory 403 means that the source code or an executable file obtained by compiling the source code is stored in the secondary memory 403 . Further, the statement that one or more evaluation models are stored in the secondary memory 403 means that the parameters defining one or more evaluation models are stored in the secondary memory 403 .

プロセッサ401、一次メモリ402または二次メモリ403として利用可能なデバイスの具体例としては、情報処理装置20aのハードウエア構成の説明において記載したとおりである。なお、二次メモリ403は、機械学習装置40に内蔵されていてもよいし、入出力インタフェース404または通信インタフェース405を介して機械学習装置40と接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。なお、本実施形態においては、機械学習装置40における記憶を2つのメモリ(一次メモリ402及び二次メモリ403)により実現しているが、これに限定されない。すなわち、機械学習装置40における記憶を1つのメモリにより実現してもよい。この場合、例えば、そのメモリの或る記憶領域を一次メモリ402として利用し、そのメモリの他の記憶領域を二次メモリ403として利用すればよい。 Specific examples of devices that can be used as the processor 401, the primary memory 402, or the secondary memory 403 are as described in the hardware configuration of the information processing apparatus 20a. Note that the secondary memory 403 may be built in the machine learning device 40, or may be another computer connected to the machine learning device 40 via the input/output interface 404 or the communication interface 405 (for example, a cloud server). computer). Note that in the present embodiment, storage in the machine learning device 40 is realized by two memories (the primary memory 402 and the secondary memory 403), but it is not limited to this. That is, the storage in the machine learning device 40 may be realized by one memory. In this case, for example, a certain storage area of the memory may be used as the primary memory 402 and another storage area of the memory may be used as the secondary memory 403 .

入出力インタフェース404には、入力デバイス及び/又は出力デバイスが接続される。入出力インタフェース404の具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。入出力インタフェース404に接続される入力デバイスとしては、撮像装置10aが挙げられる。機械学習方法M2において撮像装置10aから取得するデータは、機械学習装置40に入力され、一次メモリ402に記憶される。また、入出力インタフェース404に接続される入力デバイスの具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。機械学習方法M2においてユーザから取得するデータは、これらの入力デバイスを介して機械学習装置40に入力され、一次メモリ402に記憶される。また、入出力インタフェース404に接続される出力デバイスの具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。機械学習方法M2においてユーザに提供する情報は、これらの出力デバイスを介して機械学習装置40から出力される。なお、機械学習装置40は、ラップトップ型コンピュータのように、入力デバイスとして機能するキーボードと、出力デバイスとして機能するディスプレイとを、それぞれ内蔵してもよい。或いは、機械学習装置40は、タブレット型コンピュータのように、入力デバイス及び出力デバイスの両方として機能するタッチパネルを内蔵していてもよい。 An input device and/or an output device are connected to the input/output interface 404 . A specific example of the input/output interface 404 is as described in the description of the hardware configuration of the information processing device 20a. An example of an input device connected to the input/output interface 404 is the imaging device 10a. Data acquired from the imaging device 10 a in the machine learning method M2 is input to the machine learning device 40 and stored in the primary memory 402 . A specific example of the input device connected to the input/output interface 404 is as described in the description of the hardware configuration of the information processing apparatus 20a. Data obtained from the user in machine learning method M2 is input to machine learning apparatus 40 via these input devices and stored in primary memory 402 . A specific example of the output device connected to the input/output interface 404 is as described in the description of the hardware configuration of the information processing apparatus 20a. Information provided to the user in the machine learning method M2 is output from the machine learning device 40 via these output devices. Machine learning device 40 may incorporate a keyboard functioning as an input device and a display functioning as an output device, like a laptop computer. Alternatively, the machine learning device 40 may incorporate a touch panel that functions as both an input device and an output device, like a tablet computer.

通信インタフェース405には、ネットワークを介して他のコンピュータが有線接続又は無線接続される。通信インタフェース405の具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。インターネットワークは、イントラネットであってもよいし、エクストラネットであってもよいし、インターネットであってもよい。機械学習装置40が他のコンピュータ(例えば、情報処理装置20a)に提供するデータ(例えば、1または複数の評価モデル)は、これらのネットワークを介して送受信される。 Other computers are wired or wirelessly connected to the communication interface 405 via a network. A specific example of the communication interface 405 is as described in the description of the hardware configuration of the information processing device 20a. An internetwork may be an intranet, an extranet, or the Internet. Data (eg, one or more evaluation models) provided by the machine learning device 40 to another computer (eg, the information processing device 20a) is transmitted and received via these networks.

なお、本実施形態においては、単一のプロセッサ(プロセッサ401)を用いて機械学習方法M2を実行する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のプロセッサを用いて機械学習方法M2を実行する構成を採用してもよい。例えば、学習用データセット構築ステップM21を第1のプロセッサにおいて実行し、学習済モデル構築ステップM22を第2のプロセッサにおいて実行する構成を採用してもよい。この場合、連携して機械学習方法M2を実行する複数のプロセッサは、単一のコンピュータに設けられ、バスを介して相互に通信可能に構成されていてもよいし、複数のコンピュータに分散して設けられ、ネットワークを介して相互に通信可能に構成されていてもよい。一例として、クラウドサーバを構成するコンピュータに内蔵されたプロセッサと、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサとが、連携して機械学習方法M2を実行する態様などが考えられる。 Note that although the present embodiment employs a configuration in which a single processor (processor 401) is used to execute the machine learning method M2, the present invention is not limited to this. That is, a configuration may be adopted in which a plurality of processors are used to execute the machine learning method M2. For example, a configuration may be employed in which the learning data set constructing step M21 is executed by a first processor, and the learned model constructing step M22 is executed by a second processor. In this case, the plurality of processors that cooperate to execute the machine learning method M2 may be provided in a single computer and configured to be able to communicate with each other via a bus, or distributed to a plurality of computers. may be provided and configured to be able to communicate with each other via a network. As an example, a mode in which a processor built in a computer that constitutes a cloud server and a processor built in a computer owned by a user of the cloud server cooperate to execute the machine learning method M2 can be considered.

また、本実施形態においては、機械学習方法M2を実行するプロセッサ(プロセッサ401)と同じコンピュータに内蔵されたメモリ(二次メモリ403)に学習用データセットを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、機械学習方法M2を実行するプロセッサと異なるコンピュータに内蔵されたメモリに学習用データセットを格納する構成を採用してもよい。この場合、学習用データセットを格納するメモリが内蔵されたコンピュータは、機械学習方法M2を実行するプロセッサが内蔵されたコンピュータとネットワークを介して相互に通信可能に構成される。一例として、クラウドサーバを構成するコンピュータに内蔵されたメモリに学習用データセットを格納し、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサが機械学習方法M2を実行する態様などが考えられる。 Further, in this embodiment, a configuration is adopted in which the learning data set is stored in a memory (secondary memory 403) built in the same computer as the processor (processor 401) that executes the machine learning method M2. The invention is not limited to this. That is, a configuration may be adopted in which the learning data set is stored in a memory built in a computer different from the processor that executes the machine learning method M2. In this case, the computer containing the memory storing the learning data set is configured to be able to communicate with the computer containing the processor executing the machine learning method M2 via the network. As an example, a learning data set is stored in a memory built into a computer that constitutes a cloud server, and a processor built into a computer owned by a user of the cloud server executes the machine learning method M2. be done.

また、本実施形態においては、単一のメモリ(二次メモリ403)に学習用データセットを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のメモリに学習用データセットを分散して格納する構成を採用してもよい。この場合、学習用データセットを格納する複数のメモリは、単一のコンピュータ(機械学習方法M2を実行するプロセッサが内蔵されたコンピュータであってもよいし、そうでなくてもよい)に設けられていてもよいし、複数のコンピュータ(機械学習方法M2を実行するプロセッサが内蔵されたコンピュータを含んでいてもよいし、そうでなくてもよい)に分散して設けられていてもよい。一例として、クラウドサーバを構成する複数のコンピュータの各々に内蔵されたメモリに学習用データセットを分散して格納する構成などが考えられる。 Further, in this embodiment, a configuration is adopted in which the learning data set is stored in a single memory (secondary memory 403), but the present invention is not limited to this. That is, a configuration may be adopted in which the learning data sets are distributed and stored in a plurality of memories. In this case, the plurality of memories storing the learning data sets are provided in a single computer (which may or may not be a computer with a built-in processor that executes the machine learning method M2). Alternatively, it may be distributed among a plurality of computers (which may or may not include a computer with a processor that executes the machine learning method M2). As an example, a configuration is conceivable in which learning data sets are distributed and stored in memories built into each of a plurality of computers that constitute a cloud server.

また、本実施形態においては、情報処理方法M1及び機械学習方法M2を異なるプロセッサ(プロセッサ201及びプロセッサ401)を用いて実行する構成を採用しているが、本発明は、これに限定されない。すなわち、情報処理方法M1及び機械学習方法M2を同一のプロセッサを用いて実行してもよい。この場合、機械学習方法M2を実行することによって、このプロセッサと同じコンピュータに内蔵されたメモリに1または複数の評価モデルが格納さる。そして、このプロセッサは、情報処理方法M1を実行する際に、このメモリに格納された1または複数の評価モデルを利用することになる。 In addition, although the present embodiment adopts a configuration in which the information processing method M1 and the machine learning method M2 are executed using different processors (the processor 201 and the processor 401), the present invention is not limited to this. That is, the information processing method M1 and the machine learning method M2 may be executed using the same processor. In this case, one or more evaluation models are stored in the memory contained in the same computer as this processor by executing the machine learning method M2. This processor will use one or more evaluation models stored in this memory when executing the information processing method M1.

〔実施形態3〕
(評価システム1bの構成)
本発明の実施形態3に係る評価システム1bについて、図15を参照して説明する。図15は、評価システム1bの構成を表すブロック図である。評価システム1aは、図15に示すように、撮像装置10aと、情報処理装置20bと、出力装置30aと、を備えている。撮像装置10aおよび出力装置30aについては、実施形態2で説明したとおりである。
[Embodiment 3]
(Configuration of evaluation system 1b)
An evaluation system 1b according to Embodiment 3 of the present invention will be described with reference to FIG. FIG. 15 is a block diagram showing the configuration of the evaluation system 1b. The evaluation system 1a includes, as shown in FIG. 15, an imaging device 10a, an information processing device 20b, and an output device 30a. The imaging device 10a and the output device 30a are as described in the second embodiment.

情報処理装置20bは、情報処理方法M1bを実行するための装置である。情報処理装置20bは、機械学習により構築された評価モデルを用いずに、爪の衛生状態を評価する点が、実施形態2と少なくとも異なる。 The information processing device 20b is a device for executing the information processing method M1b. The information processing apparatus 20b is different from the second embodiment at least in that it evaluates the nail hygiene without using an evaluation model constructed by machine learning.

(情報処理装置20bの構成)
情報処理装置20bの構成について、図15を参照して説明する。情報処理装置20bは、制御部22b及び記憶部23bを備えている。制御部22bは、情報処理装置20bを統括的に制御する。情報処理装置20bにおいて、制御部22bは、取得部221及び評価部222bを含む。取得部221は、情報処理方法M1bの取得ステップM11を実行する。評価部222bは、情報処理方法M1bの評価ステップM12b及び出力ステップM13を実行する。
(Configuration of information processing device 20b)
The configuration of the information processing device 20b will be described with reference to FIG. The information processing device 20b includes a control section 22b and a storage section 23b. The control unit 22b comprehensively controls the information processing device 20b. In the information processing device 20b, the control unit 22b includes an acquisition unit 221 and an evaluation unit 222b. Acquisition unit 221 executes acquisition step M11 of information processing method M1b. The evaluation unit 222b executes the evaluation step M12b and the output step M13 of the information processing method M1b.

(情報処理方法M1bの流れ)
情報処理方法M1bは、評価ステップM12の代わりに評価ステップM12bを含む点が、実施形態2に係る情報処理方法M1に対して相違する。以下では、当該相違点についてのみ説明する。
(Flow of information processing method M1b)
The information processing method M1b differs from the information processing method M1 according to the second embodiment in that an evaluation step M12b is included instead of the evaluation step M12. Only the difference will be described below.

(評価ステップM12b)
評価ステップM12bにおいて、評価部222bは、公知の画像解析技術を用いて、取得部221が取得した爪を被写体として含む画像データにおける爪の長さを測定する。また、評価部222bは、記憶部23bに予め格納された爪の長さと衛生状態との対応関係を示す情報を参照して、爪の長さの測定結果から、爪の長さに基づく衛生状態を評価し、その評価結果を示すデータを記憶部23bに書き込む。例えば、評価部222は、爪を被写体として含む画像データにおける爪全体の領域の長さに対する、爪先の相対的な長さを「爪の長さ」として測定してもよい。この場合、記憶部23bには、爪の相対的な長さと衛生状態との対応関係を示す情報が格納されている。
(Evaluation step M12b)
In the evaluation step M12b, the evaluation unit 222b measures the length of the nail in the image data including the nail as the subject acquired by the acquisition unit 221 using a known image analysis technique. In addition, the evaluation unit 222b refers to the information indicating the correspondence relationship between the length of the nail and the sanitary condition, which is stored in advance in the storage unit 23b. is evaluated, and data indicating the evaluation result is written in the storage unit 23b. For example, the evaluation unit 222 may measure the relative length of the tip of the nail with respect to the length of the entire nail area in the image data including the nail as the subject, as the “length of the nail”. In this case, the storage unit 23b stores information indicating the correspondence between the relative nail length and the sanitary condition.

同様に、評価部222bは、公知の画像解析技術を用いて、取得部221が取得した爪を被写体として含む画像データにおける爪の色を測定する。記憶部23bに予め格納された爪の色と衛生状態との対応関係を示す情報を参照して、爪の色の測定結果から、爪の色に基づく衛生状態を評価し、その評価結果を示すデータを記憶部23bに書き込む。 Similarly, the evaluation unit 222b uses a known image analysis technique to measure the color of the nail in the image data obtained by the acquisition unit 221 and including the nail as an object. By referring to the information indicating the correspondence relationship between the nail color and the hygiene condition stored in advance in the storage unit 23b, the hygiene condition based on the nail color is evaluated from the measurement result of the nail color, and the evaluation result is indicated. Data is written in the storage unit 23b.

(実施形態3の効果)
本実施形態は、情報処理装置20bは、機械学習により構築された評価モデルを用いずに爪の衛生状態を評価するので、機械学習装置が不要である。従って、評価システム1bの構築コストを低減することが可能であるというメリットがある。
(Effect of Embodiment 3)
In this embodiment, the information processing device 20b does not require a machine learning device because the information processing device 20b evaluates nail hygiene without using an evaluation model constructed by machine learning. Therefore, there is an advantage that the construction cost of the evaluation system 1b can be reduced.

〔ハードウエアによる実現例〕
上述した各実施形態では、情報処理装置20、20a及び20bの制御ブロック(特に制御部22、22b)が、二次メモリ203に記憶されたプログラムを読み込んでプロセッサ201が実行することにより実現される態様について説明した。これに限らず、情報処理装置20、20a及び20bの制御ブロックの一部または全部は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。また、実施形態2では、機械学習装置40の制御ブロック(特に制御部42)が、二次メモリ403に記憶されたプログラムを読み込んでプロセッサ401が実行することにより実現される態様について説明した。これに限らず、機械学習装置40の制御ブロックの一部または全部は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。
[Example of hardware implementation]
In each of the above-described embodiments, the control blocks of the information processing devices 20, 20a and 20b (especially the control units 22 and 22b) are realized by reading the programs stored in the secondary memory 203 and executing them by the processor 201. Aspects have been described. Not limited to this, part or all of the control blocks of the information processing devices 20, 20a and 20b may be realized by logic circuits (hardware) formed in integrated circuits (IC chips) or the like. Also, in the second embodiment, the control block (especially the control unit 42) of the machine learning device 40 reads the program stored in the secondary memory 403 and the processor 401 executes it. Not limited to this, some or all of the control blocks of the machine learning device 40 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications or improvements can be made to the above embodiments. Also, it is obvious to those skilled in the art that such changes or improvements can be made. In addition, it is clear from the description of the scope of the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

〔まとめ〕
本発明は、
(1)爪を被写体として含む画像データを取得する取得部と、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、を備えた情報処理装置、
(2)前記評価部は、前記評価結果を示す情報として、前記爪を有する人に対する屋内への入退場可否を含む情報を生成する、(1)の情報処理装置、
(3)前記屋内が、食品工場の部屋または食品加工場である、(2)の情報処理装置、
(4)前記評価部は、前記画像データに含まれている少なくとも2本以上の指の爪の領域に基づいて、前記爪の衛生状態を評価する、(1)~(3)のいずれか1つの情報処理装置、
(5)前記評価部は、前記画像データを参照して、前記爪の色に基づく前記爪の衛生状態をさらに評価する、(1)~(4)のいずれか1つの情報処理装置、
(6)前記画像データを入力として、前記爪の長さに基づく衛生状態の評価結果を示す第1情報を出力するよう機械学習により構築された第1の評価モデルを利用し、前記評価部は、前記第1情報に基づいて前記評価結果を示す情報を生成する、(1)~(5)のいずれか1つの情報処理装置、
(7)前記画像データを入力として、前記爪の色に基づく衛生状態の評価結果を示す第2情報を出力するよう機械学習により構築された第2の評価モデルを利用し、前記評価部は、前記第1情報及び前記第2情報に基づいて前記評価結果を示す情報を生成する、(6)の情報処理装置、
(8)(1)~(7)のいずれか1つの情報処理装置と、前記爪を含む人体の部位を撮像して前記画像データを生成する撮像装置と、前記評価結果を示す情報を出力する出力装置と、を含む評価システム、
(9)前記撮像装置は、撮像機器と、当該撮像機器に対する前記部位の位置合わせを可能にする位置合わせ台と、外部から前記位置合わせ台に入射する光を遮る遮光壁と、を備えており、前記撮像機器は、前記位置合わせ台を撮像範囲に含むように設置され、前記位置合わせ台は、前記撮像機器に向く面が単色であり、前記遮光壁は、前記位置合わせ台の周囲に設置されている、(8)の評価システム、
(10)前記撮像機器は、撮像ボックスの内部に設置され、前記撮像ボックスは、前記位置合わせ台としての底面と、前記遮光壁としての側面と、前記撮像機器が設置される天面と、を有し、前記側面は前記撮像ボックスの内部に前記部位を挿入可能な開口部を有している、(9)の評価システム、
(11)前記撮像装置は、隣接する爪同士が離間した状態で前記部位を撮影することを可能にするガイド機構を備えている、(9)または(10)の評価システム、
(12)学習用データセットを用いた機械学習によって、爪の長さに基づく衛生状態を評価する第1の評価モデルを構築する構築部を備えており、前記第1の評価モデルの入力は、爪を被写体として含む画像データであり、前記第1の評価モデルの出力は、前記爪の長さに基づく衛生状態の評価結果を示す第1情報である、機械学習装置、
(13)前記構築部は、学習用データセットを用いた機械学習によって、爪の色に基づく衛生状態を評価する第2の評価モデルをさらに構築し、前記第2の評価モデルの入力は、爪を被写体として含む画像データであり、前記第2の評価モデルの出力は、前記爪の色に基づく衛生状態の評価結果を示す第2情報である、(12)の機械学習装置、
(14)爪を被写体として含む画像データを取得する取得ステップと、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価ステップと、を含む、情報処理方法、
(15)(1)~(7)のいずれか1つの情報処理装置としてコンピュータを機能させるためのプログラム、
である。
〔summary〕
The present invention
(1) An acquisition unit that acquires image data including a nail as an object, and generates information indicating an evaluation result by referring to the image data and evaluating the sanitary condition of the nail based on the length of the nail. an information processing device comprising an evaluation unit,
(2) The information processing device according to (1), wherein the evaluation unit generates information including whether or not the person with the fingernail can enter or leave the room as the information indicating the evaluation result.
(3) The information processing device of (2), wherein the indoor is a room in a food factory or a food processing plant,
(4) Any one of (1) to (3), wherein the evaluation unit evaluates the sanitary condition of the nail based on at least two fingernail regions included in the image data. two information processing devices,
(5) The information processing device according to any one of (1) to (4), wherein the evaluation unit further evaluates the sanitary condition of the nail based on the color of the nail with reference to the image data;
(6) using a first evaluation model constructed by machine learning so as to output first information indicating the evaluation result of the sanitary condition based on the length of the nails, with the image data as input; , the information processing device according to any one of (1) to (5), which generates information indicating the evaluation result based on the first information,
(7) using a second evaluation model constructed by machine learning so as to output second information indicating the evaluation result of the hygiene state based on the color of the nail, with the image data as input; The information processing device according to (6), which generates information indicating the evaluation result based on the first information and the second information,
(8) The information processing device according to any one of (1) to (7), an imaging device that images a part of the human body including the nail and generates the image data, and outputs information indicating the evaluation result. an output device; and a rating system, including:
(9) The imaging device includes an imaging device, an alignment table that enables alignment of the part with respect to the imaging device, and a light shielding wall that blocks light entering the alignment table from the outside. , the imaging equipment is installed so as to include the alignment table in an imaging range, the alignment table has a monochromatic surface facing the imaging equipment, and the light shielding wall is installed around the alignment table. The evaluation system of (8),
(10) The imaging device is installed inside an imaging box, and the imaging box has a bottom surface as the alignment table, a side surface as the light shielding wall, and a top surface on which the imaging device is installed. The evaluation system of (9), wherein the side surface has an opening that allows the site to be inserted inside the imaging box,
(11) The evaluation system of (9) or (10), wherein the imaging device includes a guide mechanism that enables imaging of the site with the adjacent claws separated from each other;
(12) By machine learning using the learning data set, the building unit is provided for building a first evaluation model that evaluates the hygiene state based on the length of the nail, and the input of the first evaluation model is a machine learning device, wherein the image data includes a nail as an object, and the output of the first evaluation model is first information indicating the evaluation result of the sanitary condition based on the length of the nail;
(13) The construction unit further constructs a second evaluation model that evaluates the sanitary condition based on the color of the nail by machine learning using the learning data set, and the input of the second evaluation model is the nail as a subject, and the output of the second evaluation model is the second information indicating the evaluation result of the hygiene state based on the color of the nail, the machine learning device of (12),
(14) An obtaining step of obtaining image data including a nail as an object, and referring to the image data to evaluate the sanitary condition of the nail based on the length of the nail, thereby generating information indicating an evaluation result. an information processing method comprising an evaluation step;
(15) A program for causing a computer to function as an information processing device according to any one of (1) to (7),
is.

1 爪の状態検査装置(評価システム)
1a、1b 評価システム
10(10’) 撮像装置(撮像端末)
10a 撮像装置(撮像端末)
20 演算装置(情報処理装置)
20a、20b 情報処理装置
21 学習済みニューラルネットワーク
21a 第1の評価モデル
21b 第2の評価モデル
22、22b 制御部
23、23b 記憶部
30(30’) 入出力装置(入出力端末)(出力装置)
30a 出力装置
40 機械学習装置
101 撮像装置(撮像機器)
102 遮光壁(側面)
103、103a、103b 底面(位置合わせ台)
104 天面
105 撮像ボックス
106 前面
107 開口部
108 LED
109a 突起(ガイド機構)
109b ガイド線(ガイド機構)
201 プロセッサ
202 一次メモリ
203 二次メモリ
204 入出力インタフェース
205 通信インタフェース
206 バス
221 取得部
222、222b 評価部
401 プロセッサ
402 一次メモリ
403 二次メモリ
404 入出力インタフェース
405 通信インタフェース
406 バス
500 画面例
501 屋内への入場不可を示す情報
600 画面例
601 屋内への入場不可を示す情報
R 部屋(屋内)
H 手の画像
P 被検者
S 管理者

1 Nail condition inspection device (evaluation system)
1a, 1b evaluation system 10 (10') imaging device (imaging terminal)
10a imaging device (imaging terminal)
20 Arithmetic device (information processing device)
20a, 20b information processing device 21 trained neural network 21a first evaluation model 21b second evaluation model 22, 22b control unit 23, 23b storage unit 30 (30') input/output device (input/output terminal) (output device)
30a output device 40 machine learning device 101 imaging device (imaging device)
102 light shielding wall (side)
103, 103a, 103b bottom (alignment table)
104 top surface 105 imaging box 106 front surface 107 opening 108 LED
109a Protrusion (guide mechanism)
109b guide wire (guide mechanism)
201 processor 202 primary memory 203 secondary memory 204 input/output interface 205 communication interface 206 bus 221 acquisition unit 222, 222b evaluation unit 401 processor 402 primary memory 403 secondary memory 404 input/output interface 405 communication interface 406 bus 500 screen example 501 indoors 600 Screen example 601 Information indicating that entry to the room is prohibited R Room (indoor)
H Hand image P Examinee S Administrator

Claims (12)

爪を被写体として含む画像データを取得する取得部と、
前記画像データを参照して、前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、
を備え、
前記評価部は、前記爪の長さに基づく爪の衛生状態が基準を満たすか否かを示す情報を、前記評価結果を示す情報に含めて出力し、
前記評価部は、前記画像データから爪それぞれの部分画像データを抽出し、抽出した部分画像データの個数がn個以上である場合に、当該n個以上の部分画像データを参照して処理を続行し、n個未満である場合に処理を中断し、片方の手についてnを2以上5未満に設定する、情報処理装置。
an acquisition unit that acquires image data including a nail as an object;
an evaluation unit that generates information indicating an evaluation result by referring to the image data and evaluating the sanitary condition of the nail based on the length of the nail;
with
The evaluation unit outputs information indicating whether the hygiene condition of the nails based on the length of the nails satisfies a standard, included in the information indicating the evaluation results,
The evaluation unit extracts partial image data of each nail from the image data, and when the number of extracted partial image data is n or more, continues the processing by referring to the n or more partial image data. and, if the number is less than n, the processing is interrupted, and n is set to 2 or more and less than 5 for one hand .
前記評価部は、前記評価結果を示す情報として、前記爪を有する人に対する屋内への入退場可否を含む情報を生成する、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said evaluation unit generates, as information indicating said evaluation result, information including whether or not said person having nails can enter and exit indoors. 前記屋内が、食品工場の部屋または食品加工場である、請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein said indoor space is a room of a food factory or a food processing plant. 前記評価部は、前記画像データを参照して、前記爪の色に基づく前記爪の衛生状態をさらに評価する、請求項1からのいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3 , wherein the evaluation unit further evaluates the sanitary condition of the nail based on the color of the nail by referring to the image data. 前記画像データを入力として、前記爪の長さに基づく衛生状態の評価結果を示す第1情報を出力するよう機械学習により構築された第1の評価モデルを利用し、
前記評価部は、前記第1情報に基づいて前記評価結果を示す情報を生成する、請求項1からのいずれか1項に記載の情報処理装置。
Using a first evaluation model constructed by machine learning so as to output first information indicating the evaluation result of the sanitary condition based on the length of the nail with the image data as input,
The information processing apparatus according to any one of claims 1 to 4 , wherein said evaluation unit generates information indicating said evaluation result based on said first information.
前記画像データを入力として、前記爪の色に基づく衛生状態の評価結果を示す第2情報を出力するよう機械学習により構築された第2の評価モデルを利用し、
前記評価部は、前記第1情報及び前記第2情報に基づいて前記評価結果を示す情報を生成する、請求項に記載の情報処理装置。
Using a second evaluation model constructed by machine learning so as to output second information indicating the evaluation result of the hygiene state based on the color of the nail with the image data as input,
6. The information processing apparatus according to claim 5 , wherein said evaluation unit generates information indicating said evaluation result based on said first information and said second information.
請求項1からのいずれか1項に記載の情報処理装置と、
前記爪を含む人体の部位を撮像して前記画像データを生成する撮像装置と、
前記評価結果を示す情報を出力する出力装置と、
を含む評価システム。
an information processing apparatus according to any one of claims 1 to 6 ;
an imaging device that images a part of a human body including the nail and generates the image data;
an output device that outputs information indicating the evaluation result;
Rating system including.
前記撮像装置は、
撮像機器と、
当該撮像機器に対する前記部位の位置合わせを可能にする位置合わせ台と、
外部から前記位置合わせ台に入射する光を遮る遮光壁と、
を備えており、
前記撮像機器は、前記位置合わせ台を撮像範囲に含むように設置され、
前記位置合わせ台は、前記撮像機器に向く面が単色であり、
前記遮光壁は、前記位置合わせ台の周囲に設置されている、請求項に記載の評価システム。
The imaging device is
an imaging device;
an alignment table that enables alignment of the region with respect to the imaging device;
a light blocking wall that blocks light entering the alignment table from the outside;
and
The imaging device is installed so as to include the alignment table in an imaging range,
the alignment table has a monochromatic surface facing the imaging device;
8. The evaluation system according to claim 7 , wherein said light shielding wall is installed around said alignment table.
前記撮像機器は、撮像ボックスの内部に設置され、
前記撮像ボックスは、
前記位置合わせ台としての底面と、
前記遮光壁としての側面と、
前記撮像機器が設置される天面と、を有し、
前記側面は前記撮像ボックスの内部に前記部位を挿入可能な開口部を有している、請求項に記載の評価システム。
The imaging device is installed inside an imaging box,
The imaging box is
a bottom surface as the alignment table;
a side surface as the light shielding wall;
a top surface on which the imaging device is installed,
9. The evaluation system according to claim 8 , wherein said side surface has an opening through which said site can be inserted inside said imaging box.
前記撮像装置は、隣接する爪同士が離間した状態で前記部位を撮影することを可能にするガイド機構を備えている、請求項8または9に記載の評価システム。 10. The evaluation system according to claim 8 or 9 , wherein said imaging device comprises a guide mechanism capable of imaging said part with adjacent claws separated from each other. プロセッサを含むコンピュータが実行する情報処理方法であって、
前記プロセッサが爪を被写体として含む画像データを取得する取得ステップと、
前記プロセッサが前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価ステップと、
を含み、
前記評価ステップにおいて前記プロセッサは、前記爪の長さに基づく爪の衛生状態が基準を満たすか否かを示す情報を、前記評価結果を示す情報に含めて出力し、
前記評価ステップにおいて前記プロセッサは、前記画像データから爪それぞれの部分画像データを抽出し、抽出した部分画像データの個数がn個以上である場合に、当該n個以上の部分画像データを参照して処理を続行し、n個未満である場合に処理を中断し、片方の手についてnを2以上5未満に設定する、情報処理方法。
An information processing method executed by a computer including a processor,
an acquisition step in which the processor acquires image data including a nail as an object;
an evaluation step in which the processor refers to the image data and evaluates the hygiene of the nail based on the length of the nail to generate information indicative of an evaluation result;
including
In the evaluation step, the processor outputs information indicating whether the nail hygiene based on the length of the nail satisfies the standard in the information indicating the evaluation result , and
In the evaluation step, the processor extracts partial image data of each nail from the image data, and when the number of extracted partial image data is n or more, refers to the n or more partial image data. An information processing method that continues processing, interrupts processing when the number is less than n, and sets n to 2 or more and less than 5 for one hand .
請求項1からの何れか1項に記載の情報処理装置としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the information processing apparatus according to any one of claims 1 to 6 .
JP2021533187A 2020-02-19 2021-02-09 Information processing device, evaluation system, machine learning device, information processing method, and program Active JP7164135B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020026256 2020-02-19
JP2020026256 2020-02-19
PCT/JP2021/004705 WO2021166733A1 (en) 2020-02-19 2021-02-09 Information processing device, evaluation system, machine learning device, information processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2021166733A1 JPWO2021166733A1 (en) 2021-08-26
JP7164135B2 true JP7164135B2 (en) 2022-11-01

Family

ID=77390980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021533187A Active JP7164135B2 (en) 2020-02-19 2021-02-09 Information processing device, evaluation system, machine learning device, information processing method, and program

Country Status (3)

Country Link
JP (1) JP7164135B2 (en)
TW (1) TW202137059A (en)
WO (1) WO2021166733A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7466966B1 (en) 2023-08-17 2024-04-15 株式会社ルシェノン Nail evaluation program, device and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004000428A (en) 2001-10-01 2004-01-08 L'oreal Sa Image acquisition method
JP2017161958A (en) 2016-03-07 2017-09-14 株式会社ニッセーデリカ Sanitation management system and sanitation management terminal
JP2018005268A (en) 2016-06-27 2018-01-11 東海電子株式会社 Roll call support system and roll call support program
JP2018000649A (en) 2016-07-05 2018-01-11 カシオ計算機株式会社 Drawing device and drawing method of drawing device
JP2018195267A (en) 2017-05-22 2018-12-06 キヤノン株式会社 Information processing apparatus, control method of information processing apparatus and program
WO2018232510A1 (en) 2017-06-21 2018-12-27 H3Alth Technologies Inc. System and method for manufacturing custom nails

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004000428A (en) 2001-10-01 2004-01-08 L'oreal Sa Image acquisition method
JP2017161958A (en) 2016-03-07 2017-09-14 株式会社ニッセーデリカ Sanitation management system and sanitation management terminal
JP2018005268A (en) 2016-06-27 2018-01-11 東海電子株式会社 Roll call support system and roll call support program
JP2018000649A (en) 2016-07-05 2018-01-11 カシオ計算機株式会社 Drawing device and drawing method of drawing device
JP2018195267A (en) 2017-05-22 2018-12-06 キヤノン株式会社 Information processing apparatus, control method of information processing apparatus and program
WO2018232510A1 (en) 2017-06-21 2018-12-27 H3Alth Technologies Inc. System and method for manufacturing custom nails

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
伸びっぱなしの爪には細菌がいっぱい! [online],[令和4年3月3日検索],CNS合同会社,2017年09月28日,インターネット<URL:https://www.gespa-cns.net/blog/entry-030.html>
爪の長さが●mm以上だと汚れは約1.9倍!? 「トイレの便座」以上の汚れを検出 [online],[令和4年3月3日検索],マイナビ,2014年10月24日,インターネット<URL:https://news.mynavi.jp/article/20141024-a013/>

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7466966B1 (en) 2023-08-17 2024-04-15 株式会社ルシェノン Nail evaluation program, device and method

Also Published As

Publication number Publication date
JPWO2021166733A1 (en) 2021-08-26
WO2021166733A1 (en) 2021-08-26
TW202137059A (en) 2021-10-01

Similar Documents

Publication Publication Date Title
US10685259B2 (en) Method for analyzing an image of a dental arch
US11314983B2 (en) Method for analyzing an image of a dental arch
Berdouses et al. A computer-aided automated methodology for the detection and classification of occlusal caries from photographic color images
ES2957958T3 (en) Procedure to analyze an image of a dental arch
US10755409B2 (en) Method for analyzing an image of a dental arch
KR102268065B1 (en) Visitor management device for prevention of infection
JP7164135B2 (en) Information processing device, evaluation system, machine learning device, information processing method, and program
Popat et al. Quantitative analysis of facial movement—A review of three-dimensional imaging techniques
US12053350B2 (en) Method for analyzing an image of a dental arch
US20220008001A1 (en) System and method of determining an accurate enhanced lund and browder chart and total body surface area burn score
Carlini et al. A convolutional neural network-based mobile application to bedside neonatal pain assessment
Völter et al. Using machine learning to track dogs’ exploratory behaviour in the presence and absence of their caregiver
Quellec et al. Estimating maximal measurable performance for automated decision systems from the characteristics of the reference standard. application to diabetic retinopathy screening
JP5526306B2 (en) Social affective behavior evaluation system, social affective behavior evaluation method, social affective behavior evaluation program, and computer-readable recording medium recording the same
Ruz et al. Predicting facial biotypes using continuous Bayesian network classifiers
Dapogny et al. On Automatically Assessing Children's Facial Expressions Quality: A Study, Database, and Protocol
US12020372B2 (en) Method for analyzing a photo of a dental arch
US20220215547A1 (en) Method for analyzing an image of a dental arch
Khanna et al. Rule based system for recognizing emotions using multimodal approach
Ghosh et al. Assessing sexual attitudes and behaviors of young women: a joint model with nonlinear time effects, time varying covariates, and dropouts
Flament et al. Objective and automatic grading system of facial signs from smartphones’ pictures in South African men: Validation versus dermatologists and characterization of changes with age
WO2015125759A1 (en) Aging analysis method and aging analysis device
Kaplin et al. The system of intraocular pressure assessment using interference eye pictures
To et al. Comparison of a custom Photogrammetry for Anatomical CarE (PHACE) system with other Low-Cost Facial Scanning Devices
Yanushkevich et al. Decision-making support in biometric-based physical access control systems: Design concept, architecture, and applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7164135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150